Nova istraživanja s Cornell univerziteta nude tihu, ali uznemirujuću poruku: dovoljno je nekoliko minuta razgovora s chatbotom da se politička uvjerenja pomaknu – ponekad dramatično.
Dva rada objavljena istovremeno u Nature i Science otkrivaju da veliki jezični modeli mogu promijeniti stavove birača za čak 10, pa i 25 postotnih poena. U eri kada se povjerenje u institucije ljulja, a politička scena polarizira, ovakvi rezultati djeluju kao upozorenje, gotovo kao bljesak iz budućnosti koju još nismo stigli regulirati.
„LLM-ovi zaista mogu pomjeriti stavove ljudi prema predsjedničkim kandidatima i politikama, i to čine pružajući mnogo činjeničnih tvrdnji koje podržavaju njihovu stranu“, rekao je David Rand, profesor informacionih nauka te marketinga i komunikacija u menadžmentu, i jedan od glavnih autora oba rada. „Ali te tvrdnje nisu nužno tačne – a čak i argumenti zasnovani na tačnim tvrdnjama mogu zavesti time što prešute važne činjenice.“
U američkoj studiji, dva mjeseca prije predsjedničkih izbora 2024., više od 2.300 ispitanika razgovaralo je s chatbotom koji je zagovarao politiku Kamale Harris ili Donalda Trumpa. Rezultat? Pro-Harris chatbot pomaknuo je sklonosti vjerovatnih Trumpovih birača za gotovo četiri boda – četiri puta više nego tradicionalni politički oglasi u prethodnim kampanjama. Sličan, iako manji, pomak zabilježen je i u suprotnom smjeru.
Ali tamo gdje je Amerika bila tek blago podložna, mada bi se pretpostavilo da je daleko manje otporna, Kanada i Poljska pokazale su se znatno propusnijima: botovi su protivničke birače pomicali i po 10 postotnih poena. „Ovo je bio šokantno velik efekt,“ rekao je koautor David Rand, profesor informacijskih znanosti i marketinga. A to je tek početak nelagode. Najjače oružje AI-ja nisu emocionalne manipulacije, nego lavina „činjenica“ – tačna ih je većina, ali ne sve, a uvjerljivost se nastavlja čak i kad su argumenti selektivni ili nepotpuni.
Druga studija, provedena u Ujedinjenom Kraljevstvu na skoro 77.000 ljudi, pokazala je da modeli postaju još uvjerljiviji kada ih se eksplicitno trenira da „zatrpaju“ korisnika što većim brojem tvrdnji. Najoptimiziraniji model uspio je protivničke birače pomjeriti za nevjerojatnih 25 bodova. No što je model uvjerljiviji, to više griješi: kada ostane bez stvarnih činjenica, jednostavno počinje izmišljati.
Možda je najzanimljiviji, a istovremeno i detalj koji najviše uznemiruje: u sva tri testirana politička okruženja, botovi koji su zagovarali desnicu iznosili su više netačnih tvrdnji od onih koji su branili lijevu poziciju. Istraživači napominju da ovaj obrazac odražava šire trendove u digitalnom prostoru – gdje dezinformacije češće cirkulišu na desnici – ali naglašavaju da se radi o prosjecima, ne apsolutnim pravilima.
Zajednička poruka ovih studija nije alarmizam, nego upozorenje. Ako se AI koristi za razbijanje teorija zavjere – što jedno njihovo prethodno istraživanje pokazuje da je moguće – možda postoji i konstruktivan put. Ali jednako lako ta ista tehnologija može biti zloupotrijebljena, tiho, uporno i naizgled razgovorno.
Možda bismo željeli vjerovati da se političko uvjerenje ne može uzdrmati kratkim chatom. Ali činjenica je da se već može. I da će, kako kaže Rand, chatboti postati neizbježan dio političke komunikacije. Pitanje više nije hoće li se koristiti, nego kako ograničiti štetu – i kako pripremiti javnost da prepozna kada razgovara s AI-jem koji ne informira, nego uvjerava.
A u vremenu kada nekoliko rečenica može promijeniti glas, to postaje pitanje demokratskog opstanka. LLM-ovi, veliki jezički modeli kao kategorija vještačke inteligencije (AI) postaju praksa astroturfinga i političkog gaslightinga u cilju društvenog inženjeringa i promjene, ali promjene koja je naklonjenija desnoj i konzervativnoj strani političkog spektra.
Reference:
- Lin, H., Czarnek, G., Lewis, B. et al. Persuading voters using human–artificial intelligence dialogues. Nature (2025). https://doi.org/10.1038/s41586-025-09771-9
- Lisa P. Argyle, Political persuasion by artificial intelligence. Science 390,983-984(2025). DOI:10.1126/science.aec9293,