Desio se jedan neobičan, pa čak i etički upitan, ali važan eksperiment koji pokazuje koliko umjetna inteligencija može biti nepouzdana kada je riječ o medicinskim informacijama. Za one koji ne znaju, preprint platforme su stranice na kojima se naučni rad može postaviti i prije objave u recenziranoj stručnoj literaturi i dosta radova se na kraju zapravo ne objavi u naučnim časopisima. Istraživanje je provela naučnica Almira Osmanović Thunström, medicinska istraživačica sa Univerziteta u Göteborgu u Švedskoj. Njen cilj bio je da testira da li će AI sistemi prihvatiti potpuno izmišljene informacije i predstavljati ih kao stvarne.

Kako bi provjerila da li AI sistemi, odnosno veliki jezički modeli (LLM) mogu prihvatati i izmišljene informacije, Almira je smislila lažnu bolest pod nazivom biksonimanija (bixonimania). Uz to je kreirala i dva izmišljena naučna rada o toj bolesti i objavila ih na internetu na preprint platformama početkom 2024. godine. Jedan od autora tih radova bio je također izmišljen lik s namjerno sumnjivim imenom – Lažljiv Izgubljenović. U radovima su postojali i brojni drugi tragovi da se radi o fikciji, poput nepostojećih univerziteta i šaljivih referenci, ali uprkos tome eksperiment je imao snažan efekat.

AI generisane slike koje su poslužile u preprintima kao dokaz za nepostojeću bolest biksonimaniju

Već nakon kratkog vremena, popularni AI chatbotovi počeli su govoriti o biksonimaniji kao o stvarnoj bolesti. Neki su je opisivali kao stanje povezano s dugotrajnim izlaganjem plavom svjetlu s ekrana, pa su čak savjetovali korisnicima da potraže medicinsku pomoć. Još više zabrinjava to što su se lažni radovi kasnije pojavili kao reference u pravim naučnim publikacijama, što sugerira da su ih pojedini istraživači koristili bez provjere. Jedan od časopisa koji je objavio rad je i Cureus, u vlasništvu Nature grupe. Ovo dokazuje da čak i časoisi koji pripadaju renomiranom izdavaču nisu jednako vrednovani i ono što se u njima objavljuje jednako skrutiznizirano, podvrgnuto ispitivanju i recenziji. Ovaj i niz drugih radova su na kraju povučeni.

Ovaj eksperiment je imao i svoju etičku stranu i propitivanja, jer se radi o kontaminaciji digitalnog prostora dezinformacijama, lažnim dijagnozama što može da se odrazi na naučnu zajednicu. Zbog toga je Osmanović Thunström morala imati specijalnu dozvolu etičkog komenteta da provede sve ovo.

Čak je i AI model Perplexity počeo koristiti lažni rad, a za Perplexity je važilo kako je jedan od najboljih po pitanju referenci.

Dakle, ono što se tvrdi da se događa – enšitifikacija naučnih radova i izdavađtva, stvarno postoji, Naučnici bi morali svaku referencu i citat provjeravati. I ovo čak nije ni jedini slučaj. Svijet nauke i tehnologije je preplavljen haluciniranim AI citatima radova koji ili ne postoje ili su sami radovi AI generisani.

Sve ovo pomalo podsjeća na podvalu Alana Sokala gdje su nasjeli ljudi, naučnici  na Sokalov izmišljeni rad „Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity”.

Vrlo je važno napomenuti da su ovi  „radovi“ po okončanju eksperimenta skinuti i sa preprint platformi, kako ne bi dalje kontaminirali ulazne podatke.

Eksperiment je pokazao i da AI modeli lakše prihvataju informacije koje izgledaju profesionalno, poput naučnih članaka, nego sadržaj s društvenih mreža. Zbog toga su skloni da „haluciniraju”, odnosno izmišljaju ili proširuju netačne informacije ako im izvor djeluje uvjerljivo.

Iako su novije verzije AI sistema ponekad sposobne prepoznati da biksonimanija nije stvarna, njihovi odgovori i dalje mogu varirati ovisno o načinu na koji se postavi pitanje. To ukazuje na ozbiljan problem nepouzdanosti u kontekstu zdravlja. Istovremeno, vidimo i ovisnost korisnika o AI chatbotov dijagnostici, pa čak i guranje botova kao dijagnostičkog sredstva od strane ozbiljnih institucija zdravstva, bez trazmišljanja o posljedicama i mogućnostima netačnih i izmišljenih dijagnoza. Cilj je smanjiti pritisak na žive ljekare, po cijenu kvaliteta medicinske usluge.

Na kraju, ovaj eksperiment ne upozorava samo na slabosti umjetne inteligencije i nemogućnost da ona istinski vrši provjeru činjenica, već i na ljudsku sklonost da joj vjeruje bez dodatne provjere. Pokazuje koliko je važno kritički pristupati informacijama, posebno kada dolaze iz izvora koji na prvi pogled djeluju naučno i pouzdano.

almira osmanovic thunström

Almira Osmanovic Thunström

 

Almira Osmanović Thunström je rođena u Bosni i Hercegovini, i to u Banjaluci ali je kao dijete izbjegla s roditeljima u Švedsju, gdje je ostvarila karijeru. Doktorski studij je započela u oblasti biologije, s fokusom na strukturne promjene mozga kod osoba koje imaju kognitivno opadanje. Tokom svog istraživačkog rada shvatila je da će budućnost medicinskih istraživanja u velikoj mjeri zavisiti od automatizacije, umjetne inteligencije i kvalitetnog dizajna sistema. Zbog toga je promijenila pravac svog istraživanja i usmjerila se ka novim tehnologijama poput umjetne inteligencije, gdje se danas primarno bavi razvojem, ali i kritičkom analizom, odnosno „razgradnjom“ AI sistema u zdravstvu, s posebnim naglaskom na njihovu sigurnost i pouzdanost.

 

Izvor:

Scientists invented a fake disease. AI told people it was real

The fake disease that fooled the internet — and what it says about all of us