U ovoj epizodi podkasta FactCast 01 Nauka govori – 16, naš gost je docent dr Nasir Muftić, koji se bavi pitanjima pravne regulacije tehnologije naročito vještačke inteligencije.
Nauka govori podkast je dostupan na platformama:
Youtube: https://bit.ly/naukagovori-podcast-youtube
Spotify: https://bit.ly/naukagovori_spotify
RadioPublic: https://bit.ly/radiopublic_naukagovori
Apple Podcast: https://bit.ly/applepodcast_naukagovori
Castbox: https://bit.ly/castbox_PNG
Facebook: https://bit.ly/FB_PNG_PL
Jelena Kalinić: Dobrodošli u prvi Nauka govori podcast u serijalu FactCast u okviru projekta Evropske unije „Podizanje svijesti i znanja u naučnoj pismenosti u Bosni i Hercegovini”. Razgovaramo sa doktorom Nasirom Muftićem, docentom na Pravnom fakultetu Univerziteta u Sarajevu, koji je inače doktorirao na temi regulacije umjetne inteligencije. Nasire, dobrodošao.
Nasir Muftić: Hvala na pozivu.
Jelena Kalinić: Je li ti ugodno ovdje s nama?
Nasir Muftić: Jeste, ovako svjetla su intenzivna, ali kažem da je bilo gore prije.
Jelena Kalinić: Nasire, danas živimo u svijetu u kojem ne znamo da li je nešto stvarno, da li je fotografija stvarna, tekst napisan ljudskim faktorom, da tako kažemo, je li glas originalan, jer sve može generisati algoritam.
Da li mislite ili misliš da tehnologija prvi put u istoriji ozbiljno dovodi u pitanje samu istinu. Šta to znači zapravo za pravo i za društvo?
Nasir Muftić: Dobro to je sada jedno složeno pitanje na kojem možemo provesti vjerovatno sate ovdje. Pitanje šta je istina je jedno veliko pitanje koje nam je nekako preduslov da pričamo o ovome. Ja mislim da je bilo više momenta u historiji gdje smo imali razvoj tehnologije koja je utjecala na formiranje istine, na formiranje percepcije o nekoj istini koju imaju pojedinci ili članovi društva. Recimo štampani mediji, radio i televizija su bile te neke prekratnice koje su omogućile formiranje narativa koji se onda plasiraju u domove širom raznih država, teritorija, carstava i tako dalje. Neki teoretičari čak kažu da nacionalne države nastaju tek onda kad imamo masovne medije. Zato što tek tada imamo ideju koja se može proširiti do raznih dijelova neke države, neke teritorije, neke političke zajednice. Sada ovo je svakako prekretnica u kojoj živimo. Mislim da je bez presedana u smislu da manje kontrole nego ikad ranije imaju ljudi. Mislim da imamo dva opozitna trenda sa kojima se suočavamo. Imamo jedne optimiste ili tehnoutopiste koji misle da će tehnologija sve da riješi, da ćemo probleme koje imamo riješiti zato što ćemo imati izuzetnu efikasnost, ljudi više neće morati da rade teške stvari, ja se nadam da je to djelimično tačno, naravno, da ćemo moći automatizirati pogotovo te neke teške poslove.
S druge strane imamo distopijski pogled na ovo koji kaže: „Dobro, ali nećemo znati šta je bilo, šta nije. Nećemo znati koji je…“, ne znam uopšte je li to uopšte dobra fraza, „…ispravan narativ u koji trebamo vjerovati? Šta je uloga države u svemu tome, šta je uloga nas kao pojedinaca, šta je uloga nekih manjih društvenih zajednica, porodice, plemena u nekim državama, nekim društvima. Šta mi uopšte treba da radimo?“ Tako da mislim da smo na prekretnici. Ali eto, ne bih rekao da je prvi put.
00/02/54
Jelena Kalinić: Kada govorimo o prekretnicama, imamo dosta problema s umjetnom inteligencijom. Jedna od stvari koja meni prvo pada na pamet jesu te halucinacije umjetne inteligencije.
One se sad manje javljaju sa novim modelima, ali nije istina da se ne javljaju. Šta ćemo s njima? Kako te zapravo halucinacije generišu, da kažemo, dezinformacije i ko je pravno odgovoran u takvim slučajima? Kompanija koja je stvorila umjetnu inteligenciju ili oni koji je koriste?
Nasir Muftić: Prije svega ja nisam inženjer. Mislim da ima kompetentnijih ljudi od mene da govore o tome zbog čega dolazi do halucinacija, kako nastaju, kako se rješavaju… Ali i ne moram biti da bi razumio društvene posljedice toga svega, ili barem dio njih. Mislim da je to pitanje koje se tiče svih nas. Sad očito je da se nama kao korisnicima čini da su halucinacije jedan bug u razvoju sistema umjetne inteligencije koji se vremenom ispravlja.
Naprimjer, sintetičke fotografije postaju sve više… sve više liče na prave, na ove koje ljudi naprave, video sadržaj, glas, animacije itd. Dakle, evidentno nešto se dešava. Čini mi se da je sve teže prepoznati šta je sintetičko, šta nije.
Pravno gledano, Evropska konvencija o zaštiti ljudskih prava kao neki najvažniji instrument za ovaj dio svijeta koji se odnosi na ljudska prava, kaže da nije zabranjeno lagati. Da nije zabranjeno širiti informacije koje nisu tačne. Dakle, ali opet moramo da razlikujemo činjenice od vrijednosnih sudova. Šta su činjenice? Činjenice su provjerljive. Činjenica je da danas pada kiša, a vrijednosni sud je da ja kažem da je vrijeme lijepo. I sad tu je nekako važno napraviti tu distinkciju.
Obično, halucinacije ili generalno ljudi… informacije su kombinacija činjenica i vrijednosnog suda u tim činjenicama. E sad, u tom smislu je halucinacija, čini mi se da je jako često da predstavlja tu kombinaciju.
Pravno gledano, dakle, pitanje mislim da je vrlo složeno. Ako kažemo da je zabranjeno prenositi informacije koristeći umjetnu inteligenciju koje nisu tačne, to je onda vrlo opet… Šta je s umjetničkim izražajem, šta je sa satirom, šta je sa raznim oblicima i formama koji su poželjni? Ne samo što su zabavni, mogu biti kritika, neka legitimna nekog društvenog fenomena, nosioca vlasti itd. S druge strane, toliki postoji potencijal zbog ogromne proliferacije takvog sadržaja da je prosto, da prosto može da uništi društveno tkivo ili jako ga nagrize i da učini da mi ne znamo prosto šta su narativi koji su provjereni u odnosu na one koji nisu. Imali smo velike krize toga. COVID, naprimjer, je li…
U pogledu odgovornosti, što je drugi dio pitanja ako se ne varam: Prije svega, od 2017. se aktivno vodi debata u EU kao dijelu svijeta koji se najviše bavi ovim pitanjem. EU inače kaska u razvoju tehnologije, ali prednjači u razvoju pravila. Što je sad dobro i loše, ja mislim da ima obje strane, oba argumenta se mogu napraviti. Često se kaže ne inovira, nego samo legislira itd., što nužno nije loše. Najzaštićeniji su potrošači u EU, najzaštićeniji su privatnost i zaštićeniji su lični podaci osoba u EU. Ja mislim da to nije loše.
Ko je odgovoran? Mi zapravo nemamo još uvijek konačni odgovor na to pitanje. Čak i u EU, koja je pokušavala nešto tu da uradi, mislim da se pitanje, sad da ne ulazimo u detalje, mislim da to nije interesantno onima koji nas slušaju i gledaju, pitanje će na kraju dana u velikoj mjeri ovisiti o državama i članicama EU. Dakle, vraćamo se na nacionalno zakonodavstvo.
Inače, sistemi odgovornosti koji postoje u društvu počivaju na vrlo jednostavnom principu koji je intuitivan, ne morate biti pravnici: „Ko koristi stvar, odgovara za ono što ta stvar uradi“. Vrlo jednostavno. Ili, ko ima korist od stvari koja se koristi, također ima odgovornost za tu stvar. Ima jedan zanimljiv predmet, prvi, ja nisam nikad ranije, a ni poslije čuo, u Kanadi: Kanadska aviokompanija, jer Kanada je imala… mislim da je to onako interesantan slučaj, koristila je chatbot gdje je svojim kupcima, klijentima na websiteu nudila komunikaciju i jedna osoba je bila koja je trebala da ode na sahranu i kupila je kartu. I u principu chatbot je rekao da ima pravo na povrat dijela novca naknadno retroaktivno i osoba je tražila povrat novca retroaktivno. Međutim kompanija je odbila rekavši da u politikama koje su javno dostupne, stoji da mora unaprijed, a ne unazad tražiti povrat. Osoba ode na sud, tuži, kaže: chatbot kaže jedno, vaša politika je drugo, šta ja sad da radim? Kaže sud: kompanija je odgovorna za, halucinacije vjerovatno, chatbota. U principu vrati se na fundamentalni princip koji kaže: „Ti koristiš, ti imaš benefit jer ne moraš zaposliti nekog radnika da to radi, ti odgovaraš ako da informaciju koja nije tačna, pa nekom prouzrokuje štetu!“. Bilo je opširno, nadam se da nije bilo preopširno.
00/07/50
Jelena Kalinić: znači i potrošač i korisnik koji koristi, ali i kompanija je zapravo korisnik. To je bitno da naglasimo. Znači nije samo onaj koji koristi, kupuje recimo u ovom slučaju kartu, korisnik, nego i kompanija.
Nasir Muftić: U principu kompanija koristi umjetnu inteligenciju za komunikaciju sa svojim kupcima, svojim klijentima, mušterijama, kako god. Ko koristi, ko ima je benefit, to je kompanija, ona će odgovarati. U BiH, u Evropi općenito, ja ne znam za takve primjere, ali bio bi sklon reći da principi koje imamo već u zakonima koji su bili stvarno vizionarski, tj. Jugoslovenski zakon iz ‘78.g. Zakon o obaveznim odnosima. Mislim, vrlo zvuči onako staro anahrono. Oni daju mogućnost sudovima, znači ja sam pisao o tome, da tumače zakon upravo ovako kako ga je tumačio kanadski sud.
Jelena Kalinić: Zanimljivo. Ako smo već kod AI, halucinacija umjetne inteligencije, koje bismo mogli nekako protumačiti kao ono misinformaciju, nenamjerno? I imamo drugi slučaj koji zovemo deepfakeovi, odnosno duboke dezinformacije kreirane putem umjetne inteligencije. Dakle, ta deepfake tehnologija može baš uvjerljivo falsificirati i nečiji glas, i lik, pa može čak, mislim, napraviti video osobe koja izgovara nešto što ne bi izgovorila i to se naravno može i zloupotrijebiti.
Kako u tim slučajevima pravno zaštititi pojedinice od neke reputacijske štete, zloupotrebe identiteta, a da ne ograničimo slobodu izražavanja? A po tome, trebamo misliti da ovakvi slučajevi mogu ugroziti recimo i nezavisnost izgovora.
Nasir Muftić: Ok. To je sad opet puno pitanja, složenih. Čini mi se, prije svega, da treba reći da deepfake kao takav nije nužno ni pozitivan ni negativan. To je jedan tehnološki fenomen koji ima puno divnih pozitivnih mogućnosti za aplikaciju. Međutim, postoji veliki potencijal za zloupotrebu. Dakle, on kao takav nije nešto protiv čega se treba boriti, nego se treba boriti za način kako se on koristi. E sad, on se koristi, mislim da ima puno oblika loših koje mi vidimo, kao što su lažni vidi, lažni sintetički generisani… izjave, zvuk, raznih vrsta, dakle…
Jelena Kalinić: … osvetnička pornografija…
Nasir Muftić: Apsolutno, jedan od najekstremnijih možda primjera. Mislim, možda taj naziv nije sasvim adekvatan, ali to je apsolutno jedan od primjera. Međutim, on se može dobro koristiti, recimo ja pošaljem svoj avatar, pa održi neki mali govor umjesto mene ili… Dakle, hoću da kažem, postoje benigne forme koje možda treba razdvojiti od ovih koji su, kako bih rekao, zlonamjerne forme korištenja AI kao tehnologije. E sad, kako se nosi s tim? Mislim da treba krenuti od principa. Prije svega, trebamo znati da je to tehnologija koja se razvija. Ono što je danas slučaj, nije nužno bio prije dvije godine, neće nužno biti za 5 godina. Ja mislim da ući u borbu gdje mi smo kao onaj pas, pa imamo neku, kako se kaže, mehančka meta koja trči onim… onom elipsom, nikad nije nećemo uhvatiti.
Prosto, način gdje mi svaku pojedinačnu pojavu pokušavamo da joj se odupremo, nije efikasan. Pravo, nikad ne može da regulišuje stvari u momentu kad se dešavaju, to je već izlizana izjava da pravo uvijek kaska za inovacijom, kaskaće naravno i prosto nije ni moguće drugi odgovor imati.
Ja mislim da treba postaviti principe. Princip prvi u vezi sa deepfakeom je princip transparentnosti. To znači, kad ja vidim video, ja moram znati da gledam video koje je AI generisan. U Bosni i Hercegovini nema nijedno pravilo pravno koje kaže da neko mora reći da je riječ o AI generisanom sadržaju.
00/11/20
Jelena Kalinić: Recimo o SORA, znači koja je od Open AI-a, na svaki video se stavi, piše, nešto kao vodeni žig, nešto tako, ali u suštini oni nisu dužni da to stave.
Nasir Muftić: U Bosni i Hercegovini nisu dužni. Koliko ja znam, trenutno se pristupa konvenciji, sad ja ću možda malo pogriješiti naziv jer je dug, Konvencija Vijeća Evrope o umjetnoj inteligenciji, ljudskim pravima, demokratiji i vladavini prava, koja kao jedan od zahtjeva, postavlja zahtjev za transparentnošću AI sistema. To je prvi međunarodno pravni instrument koji je donijelo jedno regionalno tijelo Vijeće Evrope, za nas najvažnijie zbog Strazburškog suda, ali koji u principu ima globalni domet. Pa su mu se države iz drugih dijelova svijeta mogu priključiti. I on kaže da je to jedno od fundamentalnih pravila.
Ja mislim da od toga treba i krenuti. Dakle, postoje složena pitanja, a postoji jednostavno. Jednostavno je: ako koristiš – moraš reći da koristiš. Ja moram znati da sam suočen sa chatbotom, da ne pričam sa čovjekom. Ja moram znati da je video koji gledam sintetički generisan – zvuk i tako dalje. I to izlaže osobu odgovornosti kad mi ne da tu izjavu.
U pogledu velikih privatnih kompanija: One jako često postupaju iz dva motiva. Prvi je da ih neko drugi ne reguliše. Jer ako oni to ne urade, onda će ih neko regulisati, pa će onda imati problem, neće moći više sami da funkcionišu. A danas trenutno, pogotovo van Evropske unije, postoji taj takozvani princip deregulacije koji je dominantan. Govorimo o zapadnom svijetu.
Jelena Kalinić: SAD, Amerika…
Nasir Muftić: SAD, tako je. Ovaj dio svijeta također, još uvijek, mislim na Zapadni Balkan, ima prilično neregulisano ili malo regulisane digitalne tehnologije u tom pogledu. I onda oni, kako bih rekao, preventivno, to je naročito naravno nakon kriza, kao što su izbori 2020. bili, kao što je Brexit, kao što je te neke, dakle, veliki neki šokovi koji se dešavaju. Krene ta čitava hajka na kompanije i onda oni, da ugase vatru, nešto urade čim malo smire. E sad, to je vjerovatno i prvi razlog zbog kojeg su tako nešto uradili. Drugi veliki razlog je tzv. briselski efekat, koji je, ne znam je li poznat široj publici… Ja se krećem u uskom krugu ljudi koji se bave relativno sličnim temama, pa… Objasnit ću. To je, dakle, fenomen gdje kompanije moraju da posluju po režimu koji Brisel postavi, i čitava Evropska unija. I taj režim je, uglavnom, jako regulatorno zahtjevan. Traži veliki broj službenika, naporan je za njih, oni ga ne vole i tako dalje. Međutim, još bi teže bilo imati paralelne režime. Pa onda recimo da ode u Srbiju, ima jedan režim, u Bosnu drugi, u Evropsku uniju treći, u, ne znam, četvrto mjesto četvrti…, i onda oni kažu, Evropska unija postavlja najviši standard, ako je to najviši standard, nama je jednostavnije imati taj standard i na drugim mjestima, bar nemamo paralelne režime. I onda jako često, što mislim da je dobro u ovom slučaju, tehnološke kompanije se odlučuju podići standarde i tamo gdje ne moraju. E sad, nisam siguran da li se to desilo u primjeru koji si ti navela, ali je to jedna od mogućosti.
00/14/13
Jelena Kalinić: Rekli smo AI halucinacije, deepfakeovi, dezinformacije, a postoji još jedna stvar koja je onako prilično neregulisana, prilično može da nam nanese štetu, a to je ono što nazivamo AI bias, ili „na naški“ pristranost umjetne inteligencije i neka vrsta diskriminacije u produktima umjetne inteligencije, modelima umjetne inteligencije. To je onaj princip GIGO kako mi kažemo. Garbage in, garbage out, odnosno smeće ulazi u sistem, smeće izlazi iz sistema. Dakle, ono što ubacimo u model, model koristi i izbaci. Dakle, tada može model umjetne inteligencije replicirati ljudske predrasude, donositi diskriminatorne odluke. E sad, kako bismo mogli pravno ispraviti ovu nepravdu koju je počinio algoritam? Pod našim zapravo utjecajem informacija kojima smo ga mi nahranili.
Nasir Muftić: Ako mi dozvoliš, ja mislim da ima čak korak ispred. Mislim da se ne treba, naravno, treba se baviti ispravljanjem nepravde. Ali mislim da je prije nastanka nepravde puno koraka koji mi možemo da poduzmemo. Mislim da je čitav set zahtjeva koje možemo staviti pred one koji kreiraju, koriste algoritme, da rade takozvanu reviziju podataka na kojima se algoritam trenira, da u tim koji dizajnira AI sistem uključe različite pojedince, različitih skupina društva, muškarce, žene, djecu, osobe različite vjeroispovijesti, dobne strukture, boje kože, šta god je u nekom društvu relevantno i tako dalje. To će prije svega… da imaju eksternu reviziju, da stalno rade provjere sistema. Dakle, prevencija, mislim da je puno važnija… ne važnija, efikasniji dio, efikasniji način pristupa ovom problemu nego liječenje posljedica koje su već nastale, što ne znači da ih ne treba liječiti. Naravno, kada je neko diskriminiran, kada je nekome nanesena šteta, reputacijska šteta, to su sve stvari za koje trebaju oni koji su to uradili biti sankcionisani, imovinskom sankcijom, ponekad i krivičnom i tako dalje. Kako se to radi? Opet je naravno složeno pitanje, tehnološko, i sad je to opet igra mačke i miša. Vi kažu ovo je dovoljno, vi kažu nije, uradili smo, niste, je li efikasno, nije i tako dalje.
Imamo niz primjera toga, svjesni smo toga. Iz pravnog ugla, svaki taj bias, svaka ta pristrasnost, nije nužno diskriminacija. Sad to je pitanje šta je diskriminacija, to je jedno veliko pitanje. Sad postoji nekoliko pristupa regulaciji i diskriminacije. Bosansko-hercegovački zakonodavac, koji ne znam je li to uradio namjerno na slučajno, ali čini mi se jako dobro, kaže da nije ograničen set osnova po kojima se diskriminacija može dešavati. Naprimjer, postoji način da kažeš ok, zabranjena diskriminacija na osnovu, recimo, spola, boja, kože, religije, nabraja, nabraja, kaže tačka. I postoje i drugi osnovi, princip koji kaže i drugi osnov.
Jelena Kalinić: Daje širinu.
Nasir Muftić: Tako je! I ta širina, na izgled, je zapravo vrlo interesantna. Jer, mislim, kako bih rekao, da svedem na nivo vrlo konkretan. Imate osiguravajuću kuću, hoćete da zaključite polisu osiguranja, pitaju vas tamo „da li trenirate?“. Pitaju vas za vaše podatke, recimo, bankovne kartice gdje ste jeli. Ako jedete junk food, to stavi vas u jednu kategoriju. Ako jedete zdravo, da li pušite, da li, ne znam, radite stresan posao, da li redovno spavate, da li… E sad, ako su vam, recimo, negativni parametri za vaše zdravlje, dobijete cijenu koja je viša od nekoga ko, recimo, zdravo živi po njihovoj procjeni.
Je li to diskriminacija? Ja mislim da treba reći da jest. Naravno, još uvijek nije bilo takvih predmeta kod nas, mislim, i u inostranstvu da ih je jako mali broj, koji su riješeni sudskim putem, pa ne znamo šta sudovi misle o tome, ali čini mi se… Ja apelujem na sudove, pošto mislim da je neminovno da će do toga doći, da na taj način gledaju ovaj problem. Dakle, postoje neobične forme algoritamske diskriminacije koji ne uzimaju u obzir nužno klasične osnove za diskriminaciju, nego neke koji su čak ovako malo i uvrnuti, kao, na primjer, koliko često ideš u shopping, pa onda na osnovu toga je veća kamatna na stopa jer imaš tendenciju da više trošiš. Mislim, kako bih rekao, djeluje malo banalno, čak ovako malo i smiješno, ali može da ima ozbiljne posljedice za osobe u kojima je riječ. To su neki problemi neobični, novi, ali ja mislim da mi imamo već neke alate da se s njima nosimo.
00/18/25
Jelena Kalinić: Što znači da bi jedan od poslova u budućnosti bio i „Ekspert za diskriminaciju i AI pristranost“.
Nasir Muftić: Sigurno, sigurno.
Jelena Kalinić: Dakle pravnici imaju gdje da rade, imaju prostor, neće izgubiti posao. Dakle, došli smo na jednu temu vezanu za diskriminaciju, koja nas vodi na: Šta je to demokratija pod pritiskom tehnologije? Dakle, kolika je realna opasnost da ova tehnologija utječe na izbore. Evo, imali smo super izbornu godinu. Imali smo čak i na primjer, ja mislim, u Slovačkoj gdje je napravljena takva jedna deep fake izjava, ono nešto, koja je utjecala relativno na izbore.
Može se utjecati na javno mnijenje, i uopšte na demokratske procese. Da li imaju države mehanizme za odbranu od takvih vrsta upliva u izborne procese?
Nasir Muftić: To je super pitanje, naravno. Tekuće je pitanje. A ja bih ga podijelio na… mislim, trebamo da se razumijemo: Postoje države koje, iz pravnog ugla, to je bar moje razumijevanje, postoje države koje recipiraju pravila o tehnologiji, zakone, zakonske akte, presude, presedane itd. I države koje ih kreiraju. I najveći broj država na svijetu, uključujući i Bosnu i Hercegovinu, ovaj dio svijeta, generalno najveći broj država svijeta, nema kapacitete da samostalno raspravlja, razmatra, donosi propise o tehnologiji. Oni traže jako veliku ekspertizu, jako velike resurse. I što je najvažnije, traže da te tamo oni veliki slušaju. Ti možeš donijeti najbolji zakon, oni će samo reći: neću da ga provodim. I kad ga doneseš, ti kao mala država imaš problem sa provođenjim zakona. I mislim da to je jedan od ključnih problema s tehnologijom. Opet, mačka je miš, u smislu, sve što uhvatimo ćemo procesuirati. Prekršajno, krivično, diskriminacija. Ali većinu stvari nećemo moći uhvatiti. Dakle, VPN, anonimnost, pseudonimnost, prosto tužilac nema vremena tim da se bavi ili privatna strana ne zna kako da nađe, koja je oštećena, ko je je tužilac kojeg će tužiti.
Jelena Kalinić: Samo da te vratim: „pseudonimnost“ šta je?
Nasir Muftić: Pseudonimnost je koncept koji poznaje zakon o zaštiti ličnih podataka, koji kaže da to nije prava anonimnost. Lični podaci su prikriveni, ali je moguće doći do njih. Dakle, GDPR je, recimo, primjenjiv, ali na prvu se ne vidi o kom je riječ. Iako je moguće dešifrirati taj neki kod iza kojeg je identitet sakriven.
Jelena Kalinić: I da li onda neke nadnacionalne strukture, poput recimo EU, mogu pomoći ovako malim državama da jednostavno regulišu i da imaju neki svoj glas u, možda, pregovorima sa kompanijama. Mislim pogotovo na DSA Act, Digital Service Act.
Nasir Muftić: Ja mislim da mogu i ne samo da mogu, zato što žele biti dobri, nego je potrebno i njima. Naime, jedinstveno jezičko područje, ne znam, slično jezičko područje, područje Zapadnog Balkana i Hrvatske, pa i Slovenije, pa i Bugarske, mislim, na Sjevernu Makedoniju. I ako praviš dezinformacije iz Crne Gore, iz Bosne i Hercegovine, iz Srbije, ili imaš taj prostor koji nije nimalo zaštićen, sigurno da će doći do nekog preljevanja, spillovera i u Evropsku uniju. I ti onda možeš… Druga stvar, velika je dijaspora, iz zemlja Zapadnog Balkana imamo puno porodičnih i drugih veza, gdje je prosto jednostavno utjecati na političke procese u drugim državama, pa i Evropskoj uniji samoj. Druga stvar, mislim, ja se tim bavim i, kako bih rekao, mislim da je to važna tema u kojoj mi ne pričamo dovoljno. Propisi Evropske unije nisu dizajnirani da budu primjenljivi na nacionalnom nivou. Naprimjer, Zakon o digitalnim tržištima, to je propis donesen… DSA – Zakon o digitalnim uslugama, on je dizajniran da bude primjenjivan od strane Evropske unije, konkretno Evropske komisije, i to za one najveće tzv. gatekeepere, čuvare kapija, to su najveće tehnološke kompanije koje praktično su tako velike da imaju utjecaj na tržište Evropske unije. E sad, kako ćeš ti to svesti na jednu Sjevernu Makedoniju, ili na jednu Albaniju, ili na jednu šta god, ne znam, Gruziju, jako teško. Drugo, kako ti možeš kao, imali smo, jel’ to 2011. ili 14. godina bila, kad je Španija pokušala da oporezuje Google News, mislim, agregate vijesti, uključujući Google News, koji nisu plaćali neku vrstu takse, poreza lokalnim medijima, kada uzmu njihove vijesti pa ih prerade i prikažu. I Google je jednostavno, kad su uvedeni porezi, samo napustio tržište.
Jelena Kalinić: Da, to se sad dešava sa AI-om ovim, Zero AI-om, odnosno skraćenim vijestima koje se pojavljuju na vrhu pretrage, koji zapravo za medije sad predstavljaju veliki problem. Jer niko ne posjećuje, ne bi posjećivao medije zbog toga. Ali već smo nekoliko puta spomenuli skraćenice DSA i GDPR, ali bojim se da kad razgovaram sa mladima, kad razgovaram sa običnim ljudima, da ne prepoznaju te zapravo skraćenice. Ja bih voljela da objasnimo šta je jedno, šta je drugo i kako ih se zapravo tiče.
Nasir Muftić: Ok. Da krenemo možda od GDPR-a. GDPR je Opšta uredba o zaštiti ličnih podataka Evropske unije donesena, mislim, ‘16. godine, kojom se zamijenio raniji propis o zaštiti ličnih podataka. Direktiva je bila u pitanju. Sad, prošli zakon Bosne i Hercegovine, države Zapadnog Balkana, donose svoje propise prema propisima Europske unije iz ove oblasti. Pa je raniji zakon, usklađen sa tom ranijom direktivom, a ovaj novi je usklađen sa GDPR-om.
Što su oni važni? Oni su prvo najstrožiji propisi u oblasti regulacije zaštite ličnih podataka na svijetu. Drugo, briselski efekt koji sam spomenuo je tu možda najizraženiji ili jedan od najboljih primjera briselskog efekta zato što su države i dijelovi država širom svijeta donosili zakone o ličnim podacima po uzoru na GDPR. Kalifornija, Brazil, države Evrope koje nisu Evropska unija, ne sve, ali dobar dio. Inače, Evropska unija je postala uzor u ovoj oblasti između ostalog zbog GDPR-a. Što on revolucionarno donosi? On prvo postavlja stroga pravila za prikupljanje i obradu ličnih podataka, strožija nego kakva su postojala ranije. Zatim uvodi jako visoke sankcije za kršenje. Uvodi niz pravila kojih se moraju držati svi koji obrađuju lične podatke. Uvodi pravila o takozvanim sigurnim trećim zemljama i bavi se pitanjem transfera ličnih podataka u inostranstvo itd. Taj propis nam je važan u BiH i bio i prije donošenja ovog zakona, zato što svi oni koji su radili sa ličnim podacima građana Evropske unije su ga morali primjenjivati. Dakle, čitaj, svi oni koji pružaju usluge u inostranstvu, IT kompanije itd. I praktično je jedan globalni propis za sve one koje imaju neke veze s Evropskom unijom i njenim građanima. On je zato važan.
Drugi propis koji smo spomenuli, ako je ok da pređemo sad na njega, Zakon o digitalnim uslugama, DAS, Digital Services Act, je propis koji je donesen zajedno sa Digital Markets Actom, Zakonom o digitalnim tržištima, a koji ima za cilj urediti digitalni prostor Evropske unije. Taj Zakon o digitalnim uslugama je zapravo jedan, kako bih rekao, konglomerat raznih pravila, koja za cilj imaju borbu protiv netačnih informacija, borbu protiv narativa koji nisu tačni, borbu protiv manipulacija u online prostoru, u digitalnom prostoru. Oni također razlikuju velike od malih tražilica i imaju taj izraz i VLOPS i VLOS-e, jel to su neke skraćence, VLOS-e je Search Engines, dakle, kako se kaže to, tražilice, jel, i VLOPS velike platforme i u principu za njih postavlja više standarde nego za ove male.
Ideja je da oni moraju da rade provjere informacije koje su na njihovim platformama, da moraju da sarađuju sa takozvanim pouzdanim prijavljivačima, zovu se trusted flaggers, koji su neka vrsta fact checkera i pouzdanih organizacija koje razumiju lokalne narative, malo više od toga, i koji u principu mogu da ukažu kad neka informacija nije tačna i kad je nezakonita i kad je treba kao takvu označiti i ponekad ju ukloniti. Zašto nam je važno? Zato što je to prvi globalni model za borbu protiv fenomena o kojima pričamo. Bosna i Hercegovina, države Zapadnog Balkana općenito, zbog procesa pridruživanja Evropskoj uniji imaju obavezu da donesu neki svoji DSA. Naime, naš zakon o komunikacijama je donesen 2003. godine. On je jako zastario. Mi nemamo obavezu koju propisujemo za te kompanije, o kojima svi znamo, da uređuju sadržaj. One nemaju obavezu da budu čak registrovane u Bosni i Hercegovini, pa onda ako se nešto – desi kome se javiti? Neki od njih sarađuju dobrovojno, recimo s tužilaštvima, sa sudovima.
Jelena Kalinić: Ali smo imali već slučajeva gdje se tražilo…
Nasir Muftić: Tako je. Ali koliko znam, praksa je tu raznolika zato što nemamo jasno pravilo koje bi ih natjeralo. DSA u nekoj domaćoj verziji bi nam recimo taj problem riješio.
00/27/13
Jelena Kalinić: Smijemo li te još nešto pitati vezano za DSA? Sada se pojavljuju tzv. undress aplikacije kojim zapravo umjetna inteligencija može bilo koju sliku preuzeti od tebe, mene, bilo koga zapravo da nas skine. I to se danas koristi i za vršnjačko nasilje, i za ismijavanje osoba. Da li DSA djelimočno to i reguliše? A mislim da su se javile i u zakonu Republike Srpske i u zakonu Federacije Bosne i Hercegovine neke klauzule da je nešto izmijenjeno, da se to ipak upotreba tako AI-om promijenjenih slika reguliše i da bude zapravo krivično djelo.
Nasir Muftić: Da, aplikacije kojima govoriš su čini mi se možda neka podvrsta deepfakea u smislu da se uzme dio onoga što je stvarnost kao što je lice osobe, jako često mlade osobe, koju njeni vršnjaci iz neke zezancije, provokacije koriste ili jako često muškarci koje se svete ženama, to su nekako najčešći primjeri. I koriste ih za ponekad u njihovim glavama benigne, ponekad vrlo zlonamjerne stvrhe, ali u svakom slučaju jako često znaju da nanesu ogromnu štetu osobama o kojima je riječ. I to je jedna inovacija, mislim koja nije konačna, nego je samo jedna od faza u razvoju deepfake aplikacija koja će vjerojatno biti još naprednija.
Jelena Kalinić: Ali po, danas, po zakonima RS-a i Federacije BH tu je zapravo korištenje u takve svrhe fotografija i objavljivanje javno je krivično djelo. Što do nedavno zapravo nije bilo.
Nasir Muftić: Tako je. To su novine koje pozdravljamo i koje kažu kad koristiš, sintetički generišeš sadržaje kao što su ovi sadržaji o kojima govorimo zapriječena je krivična sankcija. To je nešto novo. E sad, moram opet da kažem, biti previše optimističan i misliti da će to riješiti problem – ja mislim da je pogrešno. Mislim da je puno ovdje u anticipaciji i prevenciji nečega, zapravo ako postoji neki ključ, to je ključ. Kao što je ključ u medijskoj pismenosti, a nije u sankcionisanju lažnih vijesti. Kao što je ključ u razumijevanju važnosti ličnih podataka i nedijeljenju svojih sadržaja, što je naravno nemoguće ili gotovo pa nemoguće danas. Ali je eto biti svjestan šta se dešava kad podijeliš. Da stvaraš… Prije svega treniraju se algoritmi, to već znamo i postoje niz presuda širom svijeta koje se bave osim copyrighta, zaštitom ličnih podataka, gdje imamo podatke koje uzimaju sa interneta velike kompanije da bi trenirale svoje algoritme. I onda na kraju dođemo do toga da očekujemo da tužilaštvo koji ima ograničene kapacitete, svakako, bilo koje zemlje, uključujući tužilaštva u BiH, i sudovi da rješavaju te probleme. Poneki će riješiti, apsolutno, i to treba pozdraviti, ali ja mislim da generalno taj problem ne može biti samo riješen kroz krivično pravosuđe.
00/30/00
Jelena Kalinić: Sve trebaju, znači slojevi društva od obrazovanja do samokontrole da se uključi. Ja bih nekako samo da poručimo završnu riječ vezano za ovo. Da li je to neko novo ljudsko pravo i pravo na autentičnost informacija?
Nasir Muftić: To je super pitanje. Šta znači autentična informacija? Kako to razumiješ?
Jelena Kalinić: Dakle, informacija koja je bazirana na faktima, nije iskrivljena i nije malinformacija, za namjerno širenje neke zlonamjerne stvari, nego da imamo pravo da dobijemo autentičnu i tačnu informaciju.
Nasir Muftić: Evropska konvencija već prepoznaje pravo na primanje informacije, kao što postoji pravo… sloboda izražavanja nije samo pravo da ja kažem šta mislim nego i da čujem ono što je… mislim da u tom smislu, ako sam dobro razumio, pominješ autentičnu informaciju, „ja imam pravo da znam“ pa na osnovu tih informacija da se nekako orjentišem u stvarnosti. Ja mislim da je to pravo koje treba afirmisati. Ono već postoji, dakle čini mi se da mi ne moramo donijeti neki novi instrument pravni da bismo to zagarantovali, nego samo da trebamo da čitamo postojeći u skladu sa vremenom u kojem živimo. Osim toga, moramo znati, kao preduslov za autentičnost, kad je nešto AI generisano. Mislim da je to nulta tačka. Sad, možemo oko detalja da pričamo: koji je stepen tereta koji treba da podnesu oni koji inoviraju, treba li ih malo više stimulisati da bismo imali što bolje proizvode? Ali ground zero je da imamo informaciju, autentičnu informaciju i da znamo da li je autentična informacija donesena uz pomoć ili kreirana od strane čovjeka ili nekog ko nije čovjek, kako god ga zvali.
Jelena Kalinić: Hvala Nasire, s tom misli bih ja zapravo završila ovaj naš razgovor. Hvala ti puno.
Nasir Muftić: Hvala.
Ovaj članak je izrađen u okviru projekta Evropske unije „Podizanje svijesti i znanja o naučnoj pismenosti u BiH”. Njegov sadržaj isključiva je odgovornost autora i ne odražava nužno stavove Evropske unije.
