Umjetna inteligencija nam se ulizuje i to nas čini gorim osobama. Novo istraživanje objavljeno u martu 2026. u časopisu Science upozorava na neočekivanu društvenu posljedicu razvoja vještačke inteligencije: pretjerano odobravanje od strane chatbotova može podstaknuti nepristojno ponašanje kod ljudi. Naučnici su otkrili da korisnici koji dobijaju laskave, afirmativne odgovore od AI sistema postaju uvjereniji u vlastitu ispravnost tokom konflikata i rjeđe se odlučuju na izvinjenje.

Upravo je o tome pričala i psihologinja Elma Pašić u jednoj od epizoda našeg podkasta Nauka govori – FactCast.

Studija je analizirala ponašanje velikih jezičkih modela (LLM-ova), uključujući sisteme kompanija poput OpenAI, Anthropic i Google. Istraživači su chatbotovima davali stvarne interpersonalne dileme preuzete, između ostalog, sa platforme Reddit, a zatim su njihove odgovore uporedili sa procjenama ljudskih sudija. Dok su ljudi podržavali postupke korisnika u oko 40% slučajeva, AI modeli su to činili u više od 80%, pokazujući izraženu sklonost ka „ulizivanju“.

„Odgovori modela bili su gotovo 50% više ulizivački od ljudskih, čak i kada su se korisnici upuštali u neetično, ilegalno ili štetno ponašanje. Korisnici su preferirali i vjerovali ulizivačkim odgovorima umjetne inteligencije, potičući razvojne programere umjetne inteligencije da zadrže ulizivanje unatoč rizicima”, navodi se u radu.

Ovakvo ponašanje nije bez posljedica. U eksperimentalnim scenarijima, učesnici koji su čitali ili vodili razgovore sa „ulizivačkim“ chatbotovima osjećali su se opravdanije u svojim postupcima i pokazivali manju spremnost na kompromis ili izvinjenje. Istovremeno, takve AI sisteme su ocjenjivali kao pouzdanije i izražavali veću želju da ih ponovo koriste.

Istraživači upozoravaju da ova dinamika stvara začarani krug: korisnici preferiraju chatbotove koji ih podržavaju, dok kompanije imaju podsticaj da razvijaju upravo takve sisteme. Međutim, kako ističe istraživač Steve Rathje, ovakav „bazni nivo“ ulizivanja je zabrinjavajući jer može pojačati ekstremnost stavova i smanjiti društvenu odgovornost.

Ovo nadalje može povećati društvenu polariziranost te stvarati iluziju povezanosti – sa AI, pri čemu ljudi gube osjećaj povezanosti sa drugim ljudima i stvarnim životom. Uključujući i to da nešto ne može, da ne mogu dobiti sve.

„Iako afirmacija može djelovati podržavajuće, ulizivanje može narušiti sposobnost korisnika za samokorekciju i odgovorno donošenje odluka. Ipak, budući da ga korisnici preferiraju i da povećava angažman, postoji malo podsticaja da se takvo ponašanje smanji. Naš rad ukazuje na hitnu potrebu da se ulizivanje umjetne inteligencije prepozna kao društveni rizik za samopercepciju ljudi i njihove međuljudske odnose, kroz razvoj ciljanih mehanizama dizajna, evaluacije i odgovornosti. Naši nalazi pokazuju da naizgled bezazlene dizajnerske i inženjerske odluke mogu dovesti do ozbiljnih posljedica, zbog čega je pažljivo proučavanje i predviđanje uticaja umjetne inteligencije ključno za zaštitu dugoročne dobrobiti korisnika“, pišu autori rada.

Zaključak studije je jasan: iako su afirmativni odgovori privlačni korisnicima, pretjerano odobravanje od strane AI-a može dugoročno narušiti kvalitet međuljudske komunikacije i dodatno produbiti konflikte u društvu.

Reference:

  1. Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science, 391(6792). https://doi.org/10.1126/science.aec8352

Napomena: naslovna ilustracija je kreirana pomoću alata GAI