Dana 30. oktobra, predsjednik Biden izdao je sveobuhvatnu izvršnu naredbu („Executive order” ili EO) o umjetnoj inteligenciji (AI) s ciljem promicanja „sigurnog, zaštićenog i pouzdanog razvoja i upotrebe umjetne inteligencije”. Informacijski list Bijele kuće o nalogu možete pronaći ovdje.
Ova izvršna naredba i njeni glavni postulati predstavljaju značajan doprinos temi odgovornosti u načinu na koji se AI razvija i primjenjuje u organizacijama. S obzirom na širinu ponuđenih preporuka i radnji, vjerojatno će imati učinak na organizacije u svim sektorima gospodarstva, od najzrelijih implementatora umjetne inteligencije do onih koji je prvi put primjenjuju.
Definicija sistema umjetne inteligencije u Izvršnoj naredbi je široka: nije ograničen na generativnu umjetnu inteligenciju ili sisteme koji koriste neuronske mreže, već uključuje sisteme koji su izgrađeni tokom posljednjih nekoliko godina.
Ovo su stavke te Izvršne naredbe:
- Zahtijevati da programeri najmoćnijih AI sistema podijele svoje rezultate testova sigurnosti i druge kritične informacije s vladom SAD-a.
- Razvijanje standarda, alata i testova kako biste osigurali da su AI sistemi sigurni, zaštićeni i pouzdani.
- Zaštita od rizika korištenja umjetne inteligencije za inženjering opasnih bioloških materijala razvojem snažnih novih standarda za provjeru biološke sinteze. Agencije koje finansiraju projekte nauke o životu uspostavit će ove standarde kao uslov saveznog finansiranja, stvarajući snažne poticaje za osiguravanje odgovarajućeg pregleda i upravljanja rizicima koje AI potencijalno može pogoršati.
- Zaštita Amerikanaca od prevare i obmane omogućene umjetnom inteligencijom uspostavljanjem standarda i najboljih praksi za otkrivanje sadržaja generiranog umjetnom inteligencijom i provjeru autentičnosti službenog sadržaja.
- Uspostavljanje naprednog programa kibernetičke sigurnosti za razvoj AI alata za pronalaženje i popravljanje ranjivosti u kritičnom softveru.
- Izrada Memoranduma o nacionalnoj sigurnosti koji usmjerava daljnje radnje u vezi s umjetnom inteligencijom i sigurnošću, a koji će izraditi Vijeće za nacionalnu sigurnost i šef osoblja Bijele kuće. Ovaj dokument će osigurati da vojska i obavještajna zajednica Sjedinjenih Država koriste umjetnu inteligenciju sigurno, etično i efikasno u svojim misijama, te će usmjeravati akcije za suzbijanje vojne upotrebe umjetne inteligencije od strane protivnika.
Umjetna inteligencija ima pozitivnu sposobnost ubrzanja istraživanja raka, odgonetanja strukture proteina, pronalaženja potencijalnih novih antibiotika, modeliranja utjecaja klimatskih promjena, jačanja ekonomske proizvodnje i poboljšanja državnih usluga. Ali također bi mogla iskriviti temeljne predodžbe istine lažnim slikama, produbiti rasne i društvene nejednakosti i poslužiti kao alat za prevarante, razne griftere i kriminalce. Algoritmi mašinskog učenja imaju kodiranu pristranost koja može povećati i automatizirati postojeće obrasce diskriminacije.
EO je početni korak koji treba osigurati da AI bude pouzdan i koristan, a ne varljiv i destruktivan. Ova naredba – koja će vjerovatno morati biti pojačana djelovanjem Kongresa – nastoji usmjeravati način na koji se razvija umjetna inteligencija kako bi tvrtke mogle profitirati bez ugrožavanja javne sigurnosti.
Biden izrazio zabrinutost
„Deep Fakes koriste audio i video generisane umjetnom inteligencijom za blaćenje ugleda, širenje lažnih vijesti i počinjenje prevara”, rekao je Biden prilikom potpisivanja EO u Bijeloj kući. Opisao je svoju zabrinutost da bi prevaranti mogli uzeti tri sekunde nečijeg glasa i manipulisati njegovim sadržajem, pretvarajući nedužni komentar u nešto zlokobnije što bi brzo postalo viralno.
„Gledao sam jedan deep fake sebe“, rekao je g. Biden, referirajući se na eksperiment koji mu je pokazalo njegovo osoblje kako bi ukazalo na to da bi dobro konstruisan sistem umjetne inteligencije mogao uvjerljivo stvoriti predsjedničku izjavu koja se nikada nije dogodila – i tako pokrenuti političke ili nacionalne sigurnosne krize. „Rekao sam, ‘Kad sam to, dovraga, rekao?‘”
Naučnik Kevin Folta je podijelio jedan zanimljiv eksperiment s deep fake, prigodno nazvan Deepsteak gdje su vegeterijanci izjavljivali kako vole meso. Eksperiment je načinjen kao vid podizanja svijesti o opasnostima deep fake u svrhu lobiranja zakona.
„Podižemo svijest o Zakonu o odgovornosti DEEP FAKES, predloženom zakonu koji bi mogao ublažiti štetu uzrokovanu deepfakeovima“, navodi se na stranici. Grupa koja stoji iza ovoga zahtijeva omogućavanje tužiteljima, regulatorima i žrtvama deepfakea resurse kao što je tehnologija otkrivanja (detection technology), uspostavljanje kazni za lažno digitalno predstavljanje, zahtijevaju da se ovakvi sadržaji označavaju vodenim žigom te da se proizvođači tehnologije deepfake pridržavaju predloženih zakona o otkrivanju i vodenom žigu.
No, govoreći o Izvršnoj naredbi, već sad je jasno da će mnoge direktive iz naredbe biti teško provesti. Postoji potreba za brzim zapošljavanjem A.I. stručnjaka u vladi, ali savezne agencije imaju izazov uskladiti plate sa onim koje se nude u privatnom sektoru. Nalogom se poziva na donošenje zakona o privatnosti, iako je više od desetak prijedloga zakona zaustavljeno u podijeljenom Kongresu. Mnogi stručnjaci se slažu kako je ovo dobar početak ali da nije dovoljno.