I naravno, bilo je pitanje sekundi kada će se dogoditi objavljivanje sadržaja generisanog pomoću umjetne inteligencije koji targetira američku predsjedničku kandidatkinju Kamalu Harris. Ovakvi duboki ili plitki lažnjaci (deepfake i shallowfake) uključuju agresiju, prisilu i zastrašivanje s ciljem isključivanja žena iz politike samo zato što su žene. Cilja na pojedinačne žene kako bi im naštetilo ili ih istjeralo iz javnog života, ali također šalje poruku da ženama nije mjesto u politici – kao glasačicama, kandidatkinjama, nositeljicama javnih funkcija ili izbornim zvaničnicima.
I zasigurno ćemo vidjeti još takvih sadržaja, vjerovatno i ozbiljnijih od ovog, koji je podijeljen na X 87 000 puta i pregledan 3,5 miliona puta:
Postoji čak i borba između deepfake („duboki lažni”) i tzv. shallowfake („plitki lažni”) sadržaja. Shallowfakeove je zapravo lakše montirati. Deepfake koristi napredne tehnike umjetne inteligencije, poput generativnih neuronskih mreža, za stvaranje izuzetno uvjerljivih lažnih videozapisa i slika, koje je teško otkriti. Shallowfake, s druge strane, obuhvata jednostavnije manipulacije, poput promjene brzine videa ili izvan konteksta montiranja snimaka, bez korištenja složenih algoritama. Dok su deepfake manipulacije sofisticiranije i teže za otkrivanje, shallowfake se oslanja na osnovne tehnike uređivanja koje su relativno lakše prepoznatljive. Međutim, caka je u tome što se se shallowfakeovi mogu brže generisati, može ih se proizvesti više i na taj način se pravi više pomutnje.
Recimo, ako se uspori video, osoba na njemu će izgledati kao da ima slabe kognitivne sposobnosti ili da je pijana, kao u slučaju alteriranog videa Nancy Pelosi, objasnila je Nataša Kilibarda u podkastu Nauka govori. Moć shallowfakeova ne treba podcjenjivati. Tehnologija danas omogućava da se lica zamjene, koristeći samo poneku dostupnu sliku žrtve, recimo, preuzetu bez odobrenja sa društvenih mreža.
Iako u nekim zemljama i regijama postoje donekle zakonske mjere i tehnologije koje pokušavaju suzbiti širenje deepfake sadržaja, pravni i tehnološki okvir još uvijek zaostaje za brzim razvojem ove tehnologije.
Savezna država Virginia je 2019. progurala zakon kojim se zabranjuju deepfakeovi i deep nude, odnosno sadržaji pornografskog karaktera, golotinja koji su kreirani digitalnim tehnologijama. Digital service act (DSA) u EU ima određene mehanizme da se štetni sadržaji, uključujući i ovakve, flaguju, ali je problem što štetni sadržaji nisu u isto vrijeme i ilegalni. Problem je i autokratija online platformi, njihova diktatura, njihova neodgovornost i lijenost koja štiti proizvođače štetnih i lažnih sadržaja, a sve to je trigerovano načinom na koji ove platforme profitiraju – a profitiraju upravo na ponižavajućim sadržajima koji se brzo dijele. Tu su i razni drugi kanali komunikacije, recimo Telegram, koji je dozvolio grupe u kojima se prodaju i razmjenjuju degradirajući sadržaji.
Međutim, potrebna je šira društvena promjena u načinu na koji se percipiraju i tretiraju žene u politici. Jačanje svijesti o štetnim učincima deepfake tehnologije i promocija digitalne pismenosti mogu pomoći u suzbijanju ovih oblika rodno uslovljenog nasilja. Također je potrebna i promjena ponašanja online, gdje je očito postalo opšteprihvatljivo biti neljubazan, toksičan, ismijavati i gdje niko ne osjeća trun odgovornosti za dijeljenje uvredljivih sadržaja. To je također jedno „novo normalno”, da je ljudima normalno vrijeđati i sudjelovati u vrijeđanju i amplifikaciji uvredljivih i štetnih sadržaja.
Deepfake predstavlja ozbiljan izazov za demokratske procese, a žene su često na prvoj liniji ovog napada. Kroz borbu protiv ove tehnologije, nužno je stvoriti okruženje u kojem će se žene osjećati sigurno i podržano da se uključe u politički život.