AI algoritmi, odnosno alati poput ChatGPT, ali i oni za kreiranje vizuelnih materijala mogu doprinijeti kreiranju i širenju dezinformacija. Radi se o moćnim i brzim algoritmima, koji iz dana u dan postaju bolji i precizniji i mogu generisati veliku količinu informacija, ali i dezinformacija, spinova, manipulacija. Kako to rade? O ovome razgovaramo s Natašom Kilibardom, naučnom komunikatorkom, naučnom novinarkom i autoricom stranice Neuron en vogue i IG profila @neuronenvogue

Kilibarda je i faktčekerka te digitalna forenzičarka portala Istinomer.

Još tekstova o AI:

Nataša Kilibarda: Generativna veštačka inteligencija (generative AI) poput planetarno popularnog alata ChatGPT, Midjourney ili DALL•E, zapravo koriste ogroman broj online baza podataka o različitim temama o kojima AI „uči“, te na osnovu humanih upita kreira tekst, fotorealistične vizuale ili recimo, audio i video materijal koje poznajemo kao deep fake.

Tehnologija zasnovana na veštačkoj tehnologiji se godinama unazad masovno koristi — od algoritama društvenih mreža i striming servisa, obrnute pretrage fotografija i uopšte pretrage na internet pretraživačima, prepoznavanje lica ili otiska prsta na pametnom telefonu, korišćenje digitalnih asistenata poput Siri ili Alexe, pa i za prepoznavanje potencijalno lažnih informacija.

Međutim, sa pojavom alata za generativnu veštačku inteligenciju, umesto saveznika u borbi protiv dezinformacija, dobili smo veoma jakog protivnika koji svakim danom postaje sve napredniji. Tako, za svega par minuta, na osnovu upita nekom od pomenutih alata, možete dobiti veoma realnu „fotografiju“ Pape u Balenciaga jakni ili „ekskluzivne“ snimke hapšenja Trampa ili Putina. Nisu retke ni zloupotrebe fotografija devojaka za kreiranje deep fake pornografskih snimaka i fotografija.

ChatGPT se odskoro koristi i za kreiranje ogromne količine klikbejt „vesti“ i oglasa koje proizvode takozvane AI farme sadržaja.

Dugotrajan uticaj kreiranja i plasiranja takvog sadržaja još uvek nije moguće precizirati, ali bih se usudila da spekulišem da taj rizik nije nizak.

Da li postoji način da se utvrdi da je neki tekst ili slika AI generisan?

Nataša Kilibarda: Ukratko, da, ali ne zadugo. Već neko vreme upućujemo korisnike društvenih mreža da obraćaju pažnju na ruke — koje generativni AI još uvek nije usavršio — naočare, uši, minđuše, i generalno, simetriju lica i perspektivu predmeta.

U tim slučajevima gde AI još uvek nije dovoljno „naučio“ ili nije imao dostupnih baza podataka za, recimo, ruke i prste u različitim položajima, videćemo zamagljene „pečate“ ili neprirodne, pomalo hororne, formacije ekstremiteta.

Međutim, osim kada je AI sadržaj jasno označen, ovakvi propusti i dalje zahtevaju trenirano i precizno oko u najmanju ruku.

Ukoliko prosečan korisnik društvenih mreža naleti na AI sadržaj tokom skrolovanja Tvitera ili Instagrama, velika je verovatnoća da neće primetiti da je, primerom, domali prst na vizualu blago zamagljen ili da je jedna strana naočara nešto veća od druge. Takav AI fotorealistični sadržaj i dalje deluje veoma ubedljivo i širi se dalje kao požar bez veće provere. Takav primer smo imali sa intervjuom Danasa sa izvesnim Danijelom Smitom, nepostojećom osobom čiji je lik kreiran na sajtu This Person Does Not Exist.

Druga stvar je da se sa popularizacijom korišćenja ovakvog sadržaja ubacuje „crv sumnje“ i na realne fotografije, snimke, audio materijal, muziku i tekst. Tu se nanovo susrećemo sa našim usađenim ili naučenim predrasudama (confirmation bias) sa kojima je tek teško izboriti se jer zavisi od svakog od nas pojedinačno.

Neka od rešenja su ubacivanje vodenih žigova ili metadata oznake o AI sadržaju ili upotreba blockchain tehnolgije za verifikovanje izvora spornog sadržaja.

Kako ta mogućnost, a realno i vidjeli smo primjere takvih dezinformacija, može utjecati na demokratiju? Da li ovakva upotreba AI alata potencijalno može ugroziti demokratska društva, pogotovo ona fragilnija?

Nataša Kilibarda: Društvo u kojem bi se upotreba AI generisanog sadržaja toliko „odomaćila“, teško razlikuje istinito od lažnog, a poverenje u institucije jenjava. Sve to zajedno utiče na urušavanje demokratskih načela i kreiranje nestabilne atmosfere u društvima poput naših u Srbiji, Bosni i Hercegovini, Crnoj Gori, pa i Hrvatskoj.

Uz sve pozitivne aspekte veštačke inteligencije, ne smemo ostati slepi na zloupotrebe — AI ima moć da u minutu napravi potpuno izmišljeni intervju političara, uverljivi deep fake poznate ličnosti ili pornografski sadržaj koristeći lice i glas žena koje na to nisu pristale.

AI donosi novu eru, ako ne i evoluciju dezinformacija i lažnih vesti. Tu je mnogo tehničko-tehnoloških pitanja, a iznad svega etičkih dilema. Tu drugu stranu medalje generativne veštačke inteligencije nikako ne smemo zanemariti.

EU pokušava nešto uraditi po tom pitanju…. “AI act” ali ne vidimo pokušaje drugih država… u čemu se sastoje ovi pokušaji EU? Kako bi se mogao smanjiti štetan utjecaj AI-generiranih dezinformacija? Kako ih ograničiti?

Nataša Kilibarda: Predlog zakona o veštačkoj inteligenciji Evropske unije (AI Act) nije od „juče“ — dve pune godine radi se na tekstu ove uredbe, a 11. maja 2023. je parlamentarno usvojen prvi Nacrt zakona o AI u EU. Štaviše, poslanici Evropskog parlamenta su se složili oko zabrane biometrijskog nadzora u javnim prostorima, kao i upotrebe takozvanih prediktivnih policijskih alata. U sklopu glasanja, određene su nove mere transparentnosti za generativne AI aplikacije, poput ChatGPT-a.

Regulisanje upotrebe veštačke inteligencije je važno kako će, veoma brzo, ona postati standard, nerazdvojivi deo naših života sa svim svojim pozitivim i negativnim uticajima.

Predlog Zakona o veštačkoj inteligenciji EU je značajan zakonodavni predlog za regulisanje veštačke inteligencije, a na osnovu njenog potencijalno štetnog uticaja. Tako je upotreba veštačke inteligencije u svom opštem smislu, podeljena na osnovu stepena rizika: neprihvatljiv rizik, veoma visok rizik i na kraju ostatak koji je izvan prethodne dve kategorije i nije precizno regulisan ili sankcionisan.

U neprihvatljiv rizik spada primer iz Kine u kojoj vlada koristi veštačku inteligenciju za formiranje takozvanog „društvenog skoringa“ posredstvom masovnog nadzora ponašanja građana i građanki. Korišćenje AI alata u predizbornim kampanjama kojima se kontroliše uticaj na korisnike društvenih mreža će se takođe pojačano regulisati ili zabraniti.

Evropska komisija ovim aktom, kako kažu, pokušava da pronađe pravi balans između podrške inovacijama i nastojanja da veštačka inteligencija zaista donosi korist građanima i građankama EU zemalja. Usvajanjem Zakona o veštačkoj inteligenciji tokom leta, Evropa će se, u ovom pogledu izdvojiti od SAD i Kine, koje tek treba da uvedu bilo kakvu ozbiljnu regulativu o veštačkoj inteligenciji.

Za kraj – koje su pozitivne upotrebe AI, kako nam ona može biti korisna?

Nataša Kilibarda: Na sreću, pozitivne upotrebe veštačke inteligencije još uvek nadmašuju one manje korisne (i štetne). Veštačka inteligencija se tako koristi u maltene svakom aspektu modernog života, od medicine do poljoprivrede.

Novosadski Institut BioSens će na predstojećem Sajmu tehnike i tehničkih dostignuća u Beogradu predstaviti AgRobota Sosu, koji je opremljen najsavremenijim senzorima za analizu zemljišta i biljaka. Sosa robot je rezultat rada tima naučnika usmerenog ka istraživanju primene naprednih metoda mašinskog učenja i evolutivnih algoritama u poljoprivredi.

Ovi roboti će osim prikupljanja podatke o biljkama i detaljne analize zemljišta za 15 minuta, prskati korov i umesto ljudi obavljati teške poslove na njivi.

AI je takođe postao i moćno sredstvo za ublažavanje štetnog uticaja klimatskih promena. Istraživači koriste veštačku inteligenciju za vizualizaciju budućih posledica poplava i požara, za poboljšanje klimatskih rešenja ili za nadgledanje šume i prikupljanje velikih količina podataka o terenu.

Postoje i AI klimatski projekti koji koriste veštačku inteligenciju za kreiranje „digitalnih blizanaca“ naše planete i testiranje uticaja različitih rešenja za ublažavanje globalnog zagrevanja i mapiranje topljenja morskih glečera.

AI svoje mesto pronalazi i u sistemima koji koriste snimke bespilotne letelice i mašinsko učenje za lociranje i deaktivaciju neeksplodiranih bombi u Oklahomi.

Među mnogobrojnim pozitivnim upotrebama veštačke inteligencije ubrojala bih i AI program za rano otkrivanje sepse, jednog od glavnih uzroka smrti u američkim bolnicama (270 hiljada preminulih godišnje, CDC). Rezultati su za sada vrlo ohrabrujući — smanjene su opšte zdravstvene komplikacije i smrti od sepse.

Sličnim metodom se razvijao i program za predviđanje i ranu dijagnozu različitih oblika maligniteta kod ljudi, spašavanje pčela, kao i kreiranje aplikacija uz pomoć kojih će deca sa oštećenim sluhom naučiti da čitaju na osnovu teksta prevedenog na znakovni jezik. Aplikacija Facing Emotions slepim ljudima, uz pomoć veštačke inteligencije, „prevodi“ izraze lica sagovornika u kratke i jednostavne zvukove ili reči.