I naravno, bilo je pitanje sekundi kada će se dogoditi objavljivanje sadržaja generisanog pomoću umjetne inteligencije koji targetira američku predsjedničku kandidatkinju Kamalu Harris. Ovakvi duboki ili plitki lažnjaci (deepfake i shallowfake) uključuju agresiju, prisilu i zastrašivanje s ciljem isključivanja žena iz politike samo zato što su žene. Cilja na pojedinačne žene kako bi im naštetilo ili ih istjeralo iz javnog života, ali također šalje poruku da ženama nije mjesto u politici – kao glasačicama, kandidatkinjama, nositeljicama javnih funkcija ili izbornim zvaničnicima.

I zasigurno ćemo vidjeti još takvih sadržaja, vjerovatno i ozbiljnijih od ovog, koji je podijeljen na X 87 000 puta i pregledan 3,5 miliona puta:

Kako je u jednom videu istakla američka kongresmenka Alexandria Ocasio-Cortez, i sama žrtva ovakvih sadržaja, statistika koja pokazuje da je preko 90% svih deepfake videa nenasilno stvorenih seksualno eksplicitnih sadržaja, pri čemu su žene meta u 9 od 10 slučajeva, ističe duboko uznemirujuću upotrebu ove tehnologije. Iako deepfake tehnologija ima potencijalne primjene u zabavi i drugim oblastima, njena dominantna upotreba za stvaranje štetnog i uvredljivog sadržaja protiv žena odražava značajan problem. Ovi videi se često koriste za uznemiravanje, ponižavanje i ušutkivanje žena, čime se pojačava rodno zasnovano nasilje u digitalnom prostoru. Prevalencija takvog sadržaja naglašava hitnu potrebu za jačanjem pravnih okvira, tehnoloških zaštitnih mjera i podizanjem svijesti javnosti kako bi se spriječila zloupotreba deepfake tehnologije i zaštitila prava i dostojanstvo pojedinaca, posebno žena.

Nauka govori je već objašnjavala opasnost ovakvih sadržaja u vrijeme izbora, sadržaja koji su ponižavajući i uvredljivi, a doprinose osjećaju nesigurnosti kandidatkinja na izborima, i mogu potencijalno dovesti do povlačenja, jer žene žele zaštiti sebe od poniženja, kao i svoju porodicu, naročito djecu. Opetovani napadi i uznemiravanja ovakve vrste mogu dovesti do toga da se sve manje žena prijavljuje kao kandidatkinje na izborima, a to smo jedva postigli, ali i dalje nije zadovoljavajuća situacija.

Postoji čak i borba između deepfake („duboki lažni”) i tzv. shallowfake („plitki lažni”) sadržaja. Shallowfakeove je zapravo lakše montirati. Deepfake koristi napredne tehnike umjetne inteligencije, poput generativnih neuronskih mreža, za stvaranje izuzetno uvjerljivih lažnih videozapisa i slika, koje je teško otkriti. Shallowfake, s druge strane, obuhvata jednostavnije manipulacije, poput promjene brzine videa ili izvan konteksta montiranja snimaka, bez korištenja složenih algoritama. Dok su deepfake manipulacije sofisticiranije i teže za otkrivanje, shallowfake se oslanja na osnovne tehnike uređivanja koje su relativno lakše prepoznatljive. Međutim, caka je u tome što se se shallowfakeovi mogu brže generisati, može ih se proizvesti više i na taj način se pravi više pomutnje.

Recimo, ako se uspori video, osoba na njemu će izgledati kao da ima slabe kognitivne sposobnosti ili da je pijana, kao u slučaju alteriranog videa Nancy Pelosi, objasnila je Nataša Kilibarda u podkastu Nauka govori. Moć shallowfakeova ne treba podcjenjivati. Tehnologija danas omogućava da se lica zamjene, koristeći samo poneku dostupnu sliku žrtve, recimo, preuzetu bez odobrenja sa društvenih mreža.

Iako u nekim zemljama i regijama postoje donekle zakonske mjere i tehnologije koje pokušavaju suzbiti širenje deepfake sadržaja, pravni i tehnološki okvir još uvijek zaostaje za brzim razvojem ove tehnologije.

Savezna država Virginia je 2019. progurala zakon kojim se zabranjuju deepfakeovi i deep nude, odnosno sadržaji pornografskog karaktera, golotinja koji su kreirani digitalnim tehnologijama. Digital service act (DSA) u EU ima određene mehanizme da se štetni sadržaji, uključujući i ovakve, flaguju, ali je problem što štetni sadržaji nisu u isto vrijeme i ilegalni. Problem je i autokratija online platformi, njihova diktatura, njihova neodgovornost i lijenost koja štiti proizvođače štetnih i lažnih sadržaja, a sve to je trigerovano načinom na koji ove platforme profitiraju – a profitiraju upravo na ponižavajućim sadržajima koji se brzo dijele. Tu su i razni drugi kanali komunikacije, recimo Telegram, koji je dozvolio grupe u kojima se prodaju i razmjenjuju degradirajući sadržaji.

Međutim, potrebna je šira društvena promjena u načinu na koji se percipiraju i tretiraju žene u politici. Jačanje svijesti o štetnim učincima deepfake tehnologije i promocija digitalne pismenosti mogu pomoći u suzbijanju ovih oblika rodno uslovljenog nasilja. Također je potrebna i promjena ponašanja online, gdje je očito postalo opšteprihvatljivo biti neljubazan, toksičan, ismijavati i gdje niko ne osjeća trun odgovornosti za dijeljenje uvredljivih sadržaja. To je također jedno „novo normalno”, da je ljudima normalno vrijeđati i sudjelovati u vrijeđanju i amplifikaciji uvredljivih i štetnih sadržaja.

Deepfake predstavlja ozbiljan izazov za demokratske procese, a žene su često na prvoj liniji ovog napada. Kroz borbu protiv ove tehnologije, nužno je stvoriti okruženje u kojem će se žene osjećati sigurno i podržano da se uključe u politički život.