- Upotreba AI deepfake tehnologije prije izbornih procesa može rezultirati degradacijom i omalovažavanjem ženskih kandidata. AI dezinformacije bi mogle dovesti do povlačenja kandidatkinja iz kampanja te do smanjenja učestvovanja žena zbog straha od diskreditacije i zaštite porodice.
- Digitalno nasilje potpomognuto tehnologijom, poput deepfake sadržaja, stvara ozbiljne rizike za žene kandidate, aktivistkinje i novinarke, sprečavajući ih da ostvare svoja politička prava
- Potrebne su strože regulacije i politike koje bi se odnosile na platforme i kreatore sadržaja kako bi se smanjili rizici od digitalnog nasilja i diskreditacije, posebno u kontekstu izbornih procesa i rodno zasnovanog nasilja.
Sjećate se AI deepfake Taylor Swift iz januara 2024, koji se širio mrežom X, i tu privukao oko 45 miliona pregleda i oko 24 000 repostova? Mreža je dozvolila da ovaj sadržaj bude prisutan oko 17 sati na platformi. Degradirajući lažni sadržaj generisan pomoću vještačke inteligencije se ponešto prelio i na Metu, ali u manjem obimu. Sad zamislite kako bi takav i bilo koji drugi AI generisan deep fake sadržaj mogao djelovati u toku izbornih procesa.
Pred izbore, AI deepfake bi se mogao koristiti kako bi se degradirali i omalovažavali ženski kandidati prije izbornih procesa. Ili bilo koje manje rodne grupe, poput LGBTIQ. Ovo bi na kraju dovelo do toga da se kandidatkinje i pripadnici ranjivih grupa za izbore povlače iz kampanja ili nikako ne učestvuju u njima, iz straha od omalovažavanja i zbog zaštite porodice. Zamislite kakva bi bila reakcija žene koja ima dijete a postoji realan rizik ovakve diskreditacije?
Pri tome, diskreditirajući sadržaj ne mora biti eksplicitan, kao u slučaju Taylor Swift – dovoljno bi bilo širiti dezinformacije o prošlosti ovih osoba ili njihovim političkim stajalištima.
Vidimo da su rizici za žene da budu targetirane nasiljem, uznemiravanjem i diskreditacijom u digitalnim medijima (dakle ne samo društvenim mrežama!) koje pokreće AI visoki i česti. Situacije koje manipulišu sadržaje, diskredituju i prijetnje nasilja koje rezultiraju fizičkim, seksualnim ili psihološkim ozljedama sprječavaju mnoge žene kandidatkinje, aktivistkinje, posmatračice i radnice na izborima da ostvare svoja politička prava.
Postoje neka mjesta na koja bi se moglo djelovati da se smanji rizik ovakvih događaja, ali treba znati kako najvjerovatnije nikad nećemo biti potpuno oslobođeni ovog rizika i uvijek će neko stradati, a neko nasjesti na takve sadržaje.
Već neko vrijeme postoje inicijative da se na AI-generisani sadržaj stavlja neka vrsta vodenog žiga, kao oznake da je sadržaj stvoren na ovaj način. To bi mogao biti kod, ali i široj publici vidljiva oznaka. Jer ako bi bio samo kod, onda bi to bilo vidljivo samo AI forenzičarama za provjeru činjenica. Ne možemo računati da bi svako iz opšte publike umio pronaći tu oznaku.
Platforme bi trebale integrisati određene mjere kako bi spriječili širenje ovog sadržaja na svojim platformama u prvom redu. No, pošto ne možemo računati na to da će oni to uraditi dobrovoljno, to bi moralo biti nametnuto regulacijom i određenim aktima.
Rodno nasilje potpomognuto tehnologijom
Prema UN Women, ovo nasilje se definiše kao bilo koji čin “koji se provodi ili pojačava korištenjem digitalnih alata ili tehnologija te uzrokuje fizičku, seksualnu, psihološku, društvenu, političku ili ekonomsku štetu ženama i djevojkama zbog njihovog roda. Ove vrste nasilja dio su šireg obrasca nasilja nad ženama, koji se događa online i offline, uključujući zloupotrebu intimnih slika, doxxing (otkrivanje osobnih informacija), trolling (online zlostavljanje) i dijeljenje deepfake slika. Također obuhvata mizogini govor mržnje i napore za ušutkivanje i diskreditiranje žena online, uključujući prijetnje nasiljem izvan interneta”.
Digitalno nasilje može pogoršati oblike nasilja izvan interneta, uključujući seksualno uznemiravanje, proganjanje, nasilje u partnerskim odnosima, trgovinu ljudima i seksualno iskorištavanje, korištenjem digitalnih alata poput mobilnih telefona, GPS-a i uređaja za praćenje. Na primjer, trgovci ljudima često koriste tehnologiju za profiliranje, regrutiranje, kontrolu i iskorištavanje svojih žrtava.
Rodno nasilje potpomognutom tehnologijom odnosi se na atake koji imaju veze s nečijim rodom. Ne mora biti samo protiv žena.
Primjer Taylor Swift pokazuje opasnosti internetskog ekosistema koji nije spreman integrisati određene zaštite. Pokazuje opasnosti onoga što je vjerovatno. To je jasan znak onoga što se događa kada testiranje timova za sigurnost nije nužno spremno za zadatak unutar njihovih platformi. I zbog toga se ovaj sadržaj mogao vrlo brzo proširiti preko X platforme. Ako se jedna milionerka, svjetski poznata pjevačica, nije mogla zaštiti od ovakvog napada, zamislite kako je to hiljadama drugih manje poznatih i manje bogatih žena?
Primjere obmanjujućeg sadržaja uključuju oponašanja gdje se stvaraju lažni profili u imenu nekog drugog. Zatim postoji hakiranje gdje se nečija lokacija presreće i te informacije koriste kako bi se ciljale žene. Konačno, možemo govoriti i o doxxingu, gdje se osobni podaci osobe, poput broja telefona ili adrese, dijele s ostalima na internetu kako bi se potaknulo nasilje.
Kao rezultat toga, 92% žena izvijestilo je da im online nasilje šteti osjećaju blagostanja.
1 od 3 žene dva puta razmisli prije nego što zapravo objavi bilo koji sadržaj na internetu.
58% djevojaka i mladih žena je, prema jednoj studiji koju navodi UN women, iskusilo neku formu online uznemiravanja.
73% žena novinarki koje su odgovorile na UNESCO-ovo istraživanje identificiralo je da su doživjele online nasilje tokom svog rada.
37% tih žena iz istraživanja identificiralo je političke aktere kao glavne izvore online nasilja protiv njih.
AI alati ne moraju samo služiti u kreiranju deep fake – mogu služiti i u amplifikaciji obmanjujućeg, dezinformativnog sadržaja. Za kraću, scrollytelling verziju ove priče pogledajte i ovaj članak o umjetnoj inteligenciji i rodno zasnovanom nasilju.
Medijska, digitalna, naučna pismenost: žrtve slabašnih kampanja
U mjere koje smanjuju rizik spada i nikad dovoljno ojačana medijska pismenost, o kojoj svi nešto pričaju, i imaju programe i treninge, panele i konferencije medijske pismenost, a ona nikad gora i nikad manja. Umjesto treninga za male grupe ljudi koji služe tek kao prilika za ćaskanje i fotografisanje, te kratkoročnih kampanjica, morale bi se smisliti dugoročne i efikasne strategije jačanje medijske, digitalne, naučne i zdravstvene pismenosti građana u ovom “globalnom selu”.
Još jedan važan cilj u nadi smanjenja rizika od ovakvih napada je transparentnost izbornog procesa, koja bi trebalo osigurati da političke stranke, posmatrači, organizacije civilnog društva i mediji budu informisani o procesu.
Druga važna stvar je obezbjeđivanje smjernica za društvene i uopšte digitalne medije. Danas su svi mediji praktično digitalni i trebali bi se pridržavati osnovnih postulata novinarskog kodeksa, ali ovo bi bilo posebno značajno za društvene medije, koji se stalno otimaju podlijeganju tim kodeksima, s obzirom da su sada kreatori sadržaja često i osobe koje ne pripadaju novinarskoj struci. Praktično bilo ko može postaviti bilo šta.
Kreatori na društvenim mrežama bi također morali biti pozvani na odgovornost i odgovarati ukoliko šire netačne, obmanjujuće sadržaje.
Rješenja postoje teoretski, ali praksa malo zeza. For profit je najbitniji.
Nažalost, rješenja, regulacije i politike jačanja sigurnosti od ovih sadržaja još nisu na pomolu i možemo samo za sad upozoravati na ovaj rizik – dok neko nešto ne uradi. Osim saradnje AI platformi, akademske zajednice, platformi društvenih mreža, fektčekera, vlada i nadnacionalnih tijela (poput UN agencija), potrebno je i stvaranje standarda autentičnosti medijskog sadržaja koje pomaže u osiguranju transparentnosti i integriteta informacija, olakšavajući identifikaciju deep fake sadržaja.
Sve dok društvene mreže i njihovi vlasnici žive od govora mržnje i polarizacije, dezinformacija koje izazivaju emocije – teško da u stvarnosti možemo ostvariti značajno smanjenje rizika od ove pojave, ne samo vezane za izbore i rodno zasnovano nasilje potpomognuto tehnologijom. Potrebno je mijenjati modus rada digitalnih platformi.