Umjetna inteligencija nam se ulizuje i to nas čini gorim osobama. Novo istraživanje objavljeno u martu 2026. u časopisu Science upozorava na neočekivanu društvenu posljedicu razvoja vještačke inteligencije: pretjerano odobravanje od strane chatbotova može podstaknuti nepristojno ponašanje kod ljudi. Naučnici su otkrili da korisnici koji dobijaju laskave, afirmativne odgovore od AI sistema postaju uvjereniji u vlastitu ispravnost tokom konflikata i rjeđe se odlučuju na izvinjenje.
Upravo je o tome pričala i psihologinja Elma Pašić u jednoj od epizoda našeg podkasta Nauka govori – FactCast.
Studija je analizirala ponašanje velikih jezičkih modela (LLM-ova), uključujući sisteme kompanija poput OpenAI, Anthropic i Google. Istraživači su chatbotovima davali stvarne interpersonalne dileme preuzete, između ostalog, sa platforme Reddit, a zatim su njihove odgovore uporedili sa procjenama ljudskih sudija. Dok su ljudi podržavali postupke korisnika u oko 40% slučajeva, AI modeli su to činili u više od 80%, pokazujući izraženu sklonost ka „ulizivanju“.
„Odgovori modela bili su gotovo 50% više ulizivački od ljudskih, čak i kada su se korisnici upuštali u neetično, ilegalno ili štetno ponašanje. Korisnici su preferirali i vjerovali ulizivačkim odgovorima umjetne inteligencije, potičući razvojne programere umjetne inteligencije da zadrže ulizivanje unatoč rizicima”, navodi se u radu.
Ovakvo ponašanje nije bez posljedica. U eksperimentalnim scenarijima, učesnici koji su čitali ili vodili razgovore sa „ulizivačkim“ chatbotovima osjećali su se opravdanije u svojim postupcima i pokazivali manju spremnost na kompromis ili izvinjenje. Istovremeno, takve AI sisteme su ocjenjivali kao pouzdanije i izražavali veću želju da ih ponovo koriste.
Istraživači upozoravaju da ova dinamika stvara začarani krug: korisnici preferiraju chatbotove koji ih podržavaju, dok kompanije imaju podsticaj da razvijaju upravo takve sisteme. Međutim, kako ističe istraživač Steve Rathje, ovakav „bazni nivo“ ulizivanja je zabrinjavajući jer može pojačati ekstremnost stavova i smanjiti društvenu odgovornost.
Ovo nadalje može povećati društvenu polariziranost te stvarati iluziju povezanosti – sa AI, pri čemu ljudi gube osjećaj povezanosti sa drugim ljudima i stvarnim životom. Uključujući i to da nešto ne može, da ne mogu dobiti sve.
Zaključak studije je jasan: iako su afirmativni odgovori privlačni korisnicima, pretjerano odobravanje od strane AI-a može dugoročno narušiti kvalitet međuljudske komunikacije i dodatno produbiti konflikte u društvu.
Reference:
- Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science, 391(6792). https://doi.org/10.1126/science.aec8352
Napomena: naslovna ilustracija je kreirana pomoću alata GAI