zoom

Tech

Chatbot i përhap apo i lufton “fake news”-et…?

Ashtu si të gjitha teknologjitë, Chatbot-ët modernë të menaxhuar nga Inteligjenca Artificiale kanë nevojë për një periudhë ndërprerjeje. Fillimisht, në fakt, ekzistonte frika se algoritmet gjeneruese mund të përhapnin lajme të rreme midis përdoruesve, një hipotezë e vërtetuar nga studime të ndryshme.

Këto algoritme, në fakt, janë të trajnuar në oqeanin e gjerë të internetit dhe mund të mësojnë nocione të sakta dhe të pasakta. Një studim i fundit i kryer nga një grup studiuesish nga MIT në Boston, megjithatë, e ka përmbysur këtë perspektivë.

Thomas Costello, drejtuesi i projektit, tregoi se si modelet gjuhësore që fuqizojnë chatbot si ChatGPT, Gemini (i njohur më parë si Google Bard) dhe Copilot (i lindur në Microsoft Bing AI) mund të shkallëzojnë besimet e njerëzve që besojnë në teoritë e konspiracionit, thjesht duke duke debatuar me ta. Jo vetëm kaq, por qasja që ata përdorin sugjeron gjithashtu se cila është mënyra më e mirë për të bashkëvepruar me teoricienët e konspiracionit, një lloj personi që tregon se kanë një besim kokëfortë në atë që besojnë.

Studimi, i publikuar në PsyArXiv, përfshiu 2 190 ndjekës të teorive të konspiracionit, nga “tokësorët e sheshtë” te “hënorët” (ata që mendojnë se njeriu nuk ka qenë kurrë në Hënë), deri tek ata që besojnë se ata përzihen mes nesh jashtëtokësorët. se sulmet e 11 shtatorit 2001 u planifikuan nga qeveria amerikane dhe se me vaksina injektohen mikroçipa nën lëkurë për të kontrolluar mendjet. Eksperimenti u zhvillua në disa faza; në të parën, pjesëmarrësit ilustruan në formë skematike një teori për të cilën ishin të bindur, në versionin më të fundit të ChatGPT (GPT-4 Turbo Large Language Model), i cili, nga ana tjetër, gjeneroi një përmbledhje për t’u dorëzuar atyre.

Në këtë pikë, chatbot filloi një diskutim të shkurtër me personin në fjalë, i cili zgjati vetëm tre shkëmbime mendimesh secili, në fund të të cilit “teoricieni i konspiracionit” duhej të riparaqiste teorinë e tij në formë skematike për herë të dytë. Pra, në afërsisht 20% të rasteve, të ekzaminuarit e kuptuan se ku ishte gabimi, duke ndryshuar mendimin e tyre. Në fakt, IA dukej se funksiononte më mirë se shumë njerëz, duke ndryshuar mendjen e rreth një në pesë pjesëmarrës në vetëm disa shtypje të tasteve.

“Një qasje e gjerë dhe sipërfaqësore nuk funksionon për të bindur teoricienët e konspiracionit, pasi ata priren të studiojnë në thellësi temën në të cilën besojnë, edhe nëse kuptimi i tyre mund të jetë i gabuar,” shpjegon Thomas Costello, kreu i projektit MIT.

“Rezultatet e mira të ofruara nga chatbot-et mund të varen nga fakti se, në vend që të kritikojnë, ata vendosin një dialog në të njëjtin nivel, duke përdorur argumente bindëse, duke u fokusuar në fakte dhe duke mos përdorur as emocion e as ndjeshmëri”, shtoi ai. /ZOOM.AL/