U novoj sezoni i epizodi podkasta Nauka govori, digitalna forenzičarka i OSINT (open-source intelligence) Nataša Kilibarda iz Srbije govori o umjetnoj inteligenciji, dubokim dezinformacijama generisanim pomoću umjetne inteligencije (deepfakes) i utjecaju umjetne inteligencije na izbore i demokratiju. Sadržaj je podržan kroz projekt #SustainMedia s Deutsche Gesellschaft für Internationale Zusammenarbeit – GIZ
Nauka govori podkast je dostupan na platformama:
Youtube: https://bit.ly/naukagovori-podcast-youtube
Spotify: https://bit.ly/naukagovori_spotify
RadioPublic: https://bit.ly/radiopublic_naukagovori
Apple Podcast: https://bit.ly/applepodcast_naukagovori
Castbox: https://bit.ly/castbox_PNG
Facebook: https://bit.ly/FB_PNG_PL
JELENA: Čovječanstvo se danas nalazi pred dva velika izazova: jedan su svakako klimatske promjene a drugi je brz i nenormalan razvoj tehnologija, umjetne inteligencije a prije svega generativne umjetne inteligencije. Koliko god da su dobre i mogu pomoći čovječanstvu, isto tako doprinose jednom velikom tajfunu dezinformacija i nečega što zovemo deep fakeovi, odnosno duboke dezinformacije. Kako se snalazimo u tome i kuda je put čovječanstva kroz sve ovo razgovaramo danas sa Natašom Kilibardom koja je OSINT, dolazi iz Srbije i ona je digitalna forenzičarka, osnivačica Instagram profila Neuron en vogue (@neuronenvogue) i s nama je tu da nam govori o umjetnoj inteligenciji.
Nataša, dobro nam došla!
NATAŠA KILIBARDA : Ćao Jelena, bolje vas našla! To je takav odličan uvod u svaki jutarnji program i podcast.
JELENA: Hoćemo li odmah „s neba pa u rebra“ ili ćemo…
NATAŠA: Ja sam iz tog fazona, znači odmah u glavu
JELENA: Dakle, najvažnija stvar: slušali smo svi o tim deep fake videima, čak dosta ljudi zapravo ne zna ni šta znači deep fake… Šta su to deep fakeovi, kako se zapravo stvaraju takve vrste dezinformacija a posebno u kontekstu političkih izbora, jer je ovu sad, ovu godinu 2024. nazivaju „superizborna godina“?
NATAŠA: „Superizborna godina“, „izborna godina na steroidima“, a po mojim poslednjim podacima i koliko sam uspela da vidim: oko 83, blizu 90 izbornih procesa se dešava u celom svetu. Znači to je doslovno ono megaizborna godina, uključujući i Evropski parlament i svih 27 zemalja. Mi sad pričamo iz Sarajeva i tu smo imali izbore i tek ćemo ih imati u Srbiji… dakle, nešto se dešava. A sad kad pričamo u kontekstu veštačke inteligencije, ali verovatno najviše u smislu generativne veštačke inteligencije – biće tu dosta… nazovimo izazova, ajde da budemo malo za početak politički korektni. Deepfakeovi su… onako da bi možda naši… pomenula si čak i u svom uvodu i generaciju X, tu pričamo malo i o boomerima i milenijalcima, pa čak i ovim našim gen-Z i ovim alfa…
JELENA: Glasačima i budućim glasačima
NATAŠA: Tako je, tako je, da. Dakle, glasači su tu, a ovaj X-eri su malo problematični, najviše. Deep fake videi su, ili bilo kakav sadržaj, ono što zapravo što se kreira uz pomoć veštačke inteligencije. Vrlo podseća na realističan sadržaj, video koji mislimo, skrolajući kroz bilo kakve društvene mreže, sve što naleti što deluje zapravo kao vrlo realistični video, i video i audio sadržaj, a zapravo nema veze sa vezom sa realnošću. Imamo glas, imamo kako osoba izgleda, pokrete, mimiku…
JELENA: Odakle oni uzimaju materijal da mogu napraviti deep fake?
NATAŠA: Može postojati… dakle u poslednje vreme… Hajde da idemo u stvari sa onim kako je krenulo. Postoji sigurno neka vrsta već postojećeg videa, jel’ tako, ili kod audia još zeznutija stvar jer na osnovu samo tri sekunde nekog razgovora kreiran je ceo tvoj… jel’ evo mi ovde sad pričamo, postavljamo ovo na mreže naši glasovi, mimika čak i dikcija je… i može se samo na osnovu toga napraviti ceo novi podcast. I takvih primera ima sad već, što je pozitivno i impresivno ali i veoma zabrinjavajuće ako znamo kako se to već uveliko može zloupotrebljavati. I uopšte generativna veštačka inteligencija i radi na bazi baze podataka koja već postoji. Pa sad krećemo od chatGPT-a, Midjourneyja i tako dalje, i svih ovih softwarea koji postoje. Oni koriste nešto što zapravo već postoji.
JELENA: I zapravo prave kolaž od toga već postojećeg materijala i stavljaju ga u neki novi…
NATAŠA: Bravo, kolaž, ali…
JELENA: Ali na novi način ga…
NATAŠA: pa tako je i sad tu možemo pričati i o umetnosti, da li to može biti umetnost ako je kreirano od nečega što već postoji, kako i radi na kraju krajeva i inspiracija i tako dalje. Ali ovde pričamo o nečemu što se de facto koristi… mislim, više malo i zanemarujem taj dobar aspekt, ali ove zloupotrebe su zapravo ono zbog čega smo mi sada ovde, jel’. I ono što mene možda malo sad zabrinjava je jedna druga stvar: pored audio deep fakeova i ovih… to se sad zove i shallow fakeovi, to su neka vrsta cheap fakeova. Dakle imamo deepfakeove i shallow fakeove koje je ono što najčešće vidimo.
00/04/45
JELENA: Šta karakteriše shallow fakeove? Slabija rezolucija, lošiji kvalitet ili…?
NATAŠA: Znači ovako, ako imamo deep fakeove, ako smo bukvalno krenuli od nule, ja tebe vidim ti mene vidiš, mogu bukvalno da provalim da nisi to ti ako samo ne trepćeš, jel’, ili imaš ono… pričat ćemo možda i kasnije na koji način možemo da detektujemo, ali shallow fakeovi su ono što se može bukvalno podvesti pod minimalan fotoshop, izmenu fotografija, stavljanje fotografije u drugačiji kontekst… To je ono za šta je najmanje potrebno vremena da se kreira. Doslovno ti je potrebno minut i po, ali je već napravilo štetu u odnosu na ono što je uloženo da se on kreira. Šteta koja je napravljena je nesrazmerna.
JELENA: U šta se može koristiti deep fake ili shallow fake da se napravi šteta osim što smo vidjeli kod Taylor Swift, onaj čuveni primjer i degradiranje žena o čemu ćemo još malo popričati? Šta još može tu da se desi da bi bila šteta po društvo ili pojedinca?
NATAŠA KILIBARDA: Bilo kakva dezinformacija je izuzetno štetna nanosi ne samo demokratskom osnovu nego uopšte poverenju tom, onom isklišeiziranom momentu kada kažemo da nedostaje poverenja u institucije. Kada posmatramo to u tako širokom aspektu, šteta je ogromna. Jer poverenje sad moje i tvoje, ja ne znam šta sam videla više, nameće… Demokratski procesi se zasnivaju na tome, ako ja nešto vidim i znam šta vidim, ja verujem u to što vidim i verovaću tebi i tako dalje, i međusobno poverenje na kraju krajeva. A ako osoba ne zna više ni šta je realno ni šta je neistina, pa više šta je rezultat? Rezultat će biti takav da ljudi naravno, što već vidimo, neće ni hteti da izlaze više na izbore. Pričamo ono od minimalnog pa do daljeg, kome ja više da verujem ako manje-više što su oni više iznevereni na nekim drugim nivoima. Ali ako imamo izbornika pa njima nešto što se koristi konstantno i u Pakistanu trenutno, koliko sam videla i u New Yorku. Ali molim te nemoj da me držiš za reč da izgovaram imena njihova, trenutno pakistanski i indonežanski izbori i lideri tačnije, koriste AI tako što recimo u svojim obraćanjima koriste AI da im kreira različite transkripte što se kaže na njihovom izvornom jeziku. Ovo pričam da oni koriste svesno AI deep fake da bi koristili u svojim kampanjama. I to, šta time radimo? Potpuno se radi legitimizacija upotrebe takvog sadržaja u navodno dobre svrhe, ali ne. Ovo što sam pomenula indonežanske, oni koriste sada, bukvalno ih vraćaju iz mrtvih. Imamo lidere, ono ogromne, sadiste u nekom momentu, to su bili ti autoritarni režimi i vrćaju njih iz mrtvih kroz deep fake jer znaju da oni, negde…
JELENA: …stoje u svijesti ljudi?
NATAŠA: Tako je! Nama je to na ovim prostorima dosta blisko, to je sada evo primerom da je sad neko u svojoj kampanji, recimo SPS, izbacio… ne znam ono… Slobodana Miloševića kako priča nešto u sklopu današnjeg vremena.
JELENA: Budi emocije…
NATAŠA: Kako da ne! Nostalgija je i dalje, možemo mi da pričamo šta hoćemo – i dalje smo ljudi. Nostalgija ljudima koji su voleli tog čoveka, tog političara i dalje radi nešto…
JELENA: …i polarizira…
NATAŠA: Tako je!
00/08/23
JELENA: A da li bi mogli političari koristiti AI i generativnu tehnologiju da kažu, da se „vade“: Eh, nismo mi to rekli nego ono…
NATAŠA: Naravno! Kao što se… to se zapravo i dešava jer u momentima… znaš ono kada je u početku bilo: procuri nešto na Twitter neki sadržaj, neki možda malo i eksplicitniji sadržaj i to ih je koštalo njihovih kampanja, karijera i tako dalje. A sada ako vidimo „aaa pa nisam to ja“ i vadili su se za prilično neke degutantne stvari možda malo i budalaste. A može i dešava se, ali nisam sigurna koliko više ljudi i tome mogu da veruju. Ali se koristi kod žena, pomenula si i sama Taylor Swift, ona je toliko velika bila da nema šta da joj urade.
JELENA: Ali iako je bila toliko velika, to joj se desilo, nije mogla da spriječi
NATAŠA: Ali šta se dešava: X, Twitter na kojem se to pojavilo prvo, šta se prvo uradio – samo sklonjeno… Čak nisu uspeli da sklone sam sadržaj nego su je sklonili iz searcha. Njihovo jedino rešenje je bilo haj’te sklonimo žensko ime iz pretrage, ne sadržaj. Znači ti si i dalje sklonio nju iz pretrage…
JELENA: Umjesto da uradiš sklanjanje sadržaja. I to je 17 sati ja mislim stajalo tako
NATAŠA: Tako je, mislim tu je i pet minuta previše i ne znam koliko puta treba da ponovimo: što je na internetu – na internetu je, ono…
JELENA: I onda ide još cyber bullying jer vidim tu korištenje nekog… pogotovo među tinejdžerima gdje se može koristiti na taj način
NATAŠA KILIBARDA: Mi sada više i ne skačemo, mislim, sve je toliko uvezano ali tih telegram kanala u Sribiji i regionu, Balkanu zapravo. Na telegramu može da postoji ono šta god. Ja se sad toliko bavim analizom i analitikom, forenzikom telegrama da sve što više ulazim je… ne znam ono, tačno treba ti psihijatarsko lečenje posle. Šta tamo postoji to je… pogotovo pro-ruski sadržaj, to je već propaganda svoje vrste. Ali tamo dosta stvari… koliko je zahvalan za neko istraživanje… jer tamo jedino može recimo da se, od nekog sadržaja koji krene odatle, što i najčešće kreće sa telegrama i prebacuje se nadruge društvene mreže, možemo zadržati meta data, te podatke. Tu ti mogu, sad samo da kažem ljudima šta su meta podaci
0/10/58
JELENA: Objasni, jer vrlo nam je bitno – ne razumiju svi šta su meta podaci pa nam je vrlo bitno da sad to definišemo
NATAŠA: Ne postoji drugačiji termin osim meta podataka, ali pokušavam… sigurno se i kroz sam termin govori nešto o njima – „meta“ znači podaci o podacima, o nekoj fotografiji geolokacijski, datumi, da li je napravljena nekom kamerom, kojom tačno kamerom, u koje vreme. Sad je bio to slučaj sa Kate Middleton
JELENA: Znam da si pratila taj slučaj
NATAŠA: Tako je, da. I može se naći sve živo, a može se znati i koliko puta je fotošopirana fotografija, kojim tačno programom… odnosno editovana – Photoshop je Adobeov program, ali ljudi najčešće vezuju bilo kakvu vrstu editinga i montaže sa Photoshopom.
JELENA: U kontekstu toga, kada govorimo o meta podacima i kada govorimo o pronalaženju, o digitalnoj forenzici i karakteristikama deep fakeova, prva stvar koju želimo nekako da razjasnimo svima do kojih uspijemo doći u ovom videu jeste: koje su to sitne stvari kojima mogu da se [prepoznaju] deep fakeovi i uopšte takav generisan, promijenjen sadržaj? A druga stvar koja me zanima: da li bi mogao postojati meta podatak da je sadržaj generisan pomoću generativne vještačke inteligencije? Da li postoji neka vrsta kao vodenog žiga na takvim sadržajima, da možda ako se ne vidi na samom sadržaju, ako se uđe, skine se i njegovi se podaci pretraže? I da li možda postoji regulativa koja će sutra zahtijevati da postoji taj vodeni žig?
NATAŠA: Super pitanje. Kompleksno, pa ćemo na više stvari da ga „raščivijamo“. Prvo da li postoji, kako postoji… naravno… Mislim, postoji ali ovo je jako bitno da naglasim: ja se ovim bavim svaki dan, ceo dan. Moje oko je istrenirano to da vidi. Pomenuli smo ranije to skrolovanje, ljudi odlaze na društvene mreže najčešće da malo puste glavu, da se informišu. Kolika je njihova pažnja u datom momentu dok gledaju, koliko god da je velik taj ekran, to je skrolovanje to se, vidi, propusti… pogotovo ako nisu naročito digitalno algoritamski pismeni i medijski pismeni, prolazi. Kako da prepoznamo? Još uvek, još uvek kažem zato što veštačka inteligencija napreduje mnogo velikom brzinom. Ona jeste u nekim situacijama malo… ne uči kao što uči čovek da može da razume emocije, kontekst i tako dalje, ali napredak u ovom smislu o kojem mi pričamo se menja brzo. Sada možemo da pričamo ali u momentu kada se ovo objavi ne znam da li će to biti tako. Ako imamo fotografiju na kojoj su, recimo imamo neka ta zamućenja, još uvek ponavljam, podvlačim: ruke…
0/13/49
JELENA: Ali su napredovale ruke, od onih prvih bilo je na primjer deset prstiju… Mnogo je bolje i u narednih pola godine se očekuje da će biti stravično bolje nego što su sad. Kako prepoznati?
NATAŠA: A znaš kako, kako prevazilaze to? Zašto što još uvijek nema tih data setova, odnosno baza podataka kako tačno se drži čaša, ruke kako međusobno se drže, ako se…
JELENA: Mora da trenira…
NATAŠA: Trenira! I to jako dobro, ono mašinsko učenje je zasnovano na tome ali prevazilazi se tako što će držati šake zatvorene i tako dalje. Ali još uvek postoji…
JELENA: Kao osoba koja tek uči crtati, pa ne zna nacrtati prste „e neću nikako…“
NATAŠA: Tako je, da. A još uvek je po meni, još uvek je u redu obraćati pažnju na šake, na prste, na uši…
JELENA: Na blinkanje…
NATAŠA: To za video, da. Ali hajde prvo da ti završim za fotografije, jer tu ima, može se pronaći još uvek nekih nelogičnosti u smislu zamućenja, da se odjednom nešto preseca, prosto da neke stvari nisu logične. I to je ono što mi moramo malo da uključujemo taj naš, ono kao, vizuelni aspekt.
JELENA: Kao one igrice „primijetite 10 razlika“
NATAŠA: Eee to i jeste rešenje, po meni je rešenje da se vežba tako. Znači da vidimo ta zamućenja, da vidimo da li naočare koje osoba ima da li su stakla ista, da li su i same oči nekako jedno veće jedno manje, da li su u istoj ravni. Znači prosto postoje neke stvari koje definitivno nisu logične. Ti digitalni artefakti, ‘ajde sada je možda to nešto naprednije, ali može se videti prosto da nešto nije logično. Ili ako izgleda previše dobro da bi bilo istinito. Ja jesam zagovornik da ljudi budu skeptični za sve što rade, ali to opet vraćam se na ono „pa šta je više onda realno?“
0/15/51
JELENA: Ali problem je što kad mi vidimo, što mi kažemo u Bosni, „ašćare“ da je to neki fake video, dosta ljudi u komentarima komentariše kao da je pravo. Ne mogu napraviti na tako nešto vrlo jasno, znači vidi se 1/1 da nije, i dalje ljudi, dosta ljudi pogotovo ove generacije X i boomeri ne mogu da uvide.
NATAŠA: Ne mogu ljudi da vide, ali kada ubacujemo naše stvari onda je to u redu. Ali video, kod videa najčešće se može desiti da zvuk kasni dosta za slikom. Malo obratimo pažnju pa čekaj prosto „šta priča ovaj čovek?“, ali verovatno znači da si već dva tri puta pogledao taj video, a neko je samo čuo već neku reč i…
JELENA: I povezao je, naš mozak povezuje i on ga sinhronizira…
NATAŠA: Deep fakeovi se u tom smislu dosta koriste… baš mi je važno da… tu si me fino inspirisala da se na trenutak vratimo na to sa ženama. Kako se ženama, mislim, bilo je toliko primeera sa političarkama, taj shallow fake da se… Evo ne znam koja, bila je jedna američka političarka Nancy Pelosi gde je ona stavljena u klasičan… ma ono samo su usporili video ono „šta je ona, evo je pijana je, evo matora je, evo…“. ona je već izgrađena političarka, ali mnoge žene koje se eto, mlađe žene koje ulaze u svet politike i žele nešto da promene u svojim zemljama…
JELENA: I povlače se od straha od te degradacije
NATAŠA: I ono na kraju krajeva moraš da imaš jako veliki sistem podrške, da se boriš sa takvim stvarima pogotovo ako udaraju na poprilično rodni aspekat ili sa tim pornografskim sadržajem, nekako nije ti svejedno jer to je uništavanje karijera
JELENA: I uništavanje porodice, mislim to je baš…
NATAŠA: Jeste, imamo dosta ličnih primera na žalost i u okruženju, pojedinačnih a kamo li…
0/17/48
JELENA: Osvetnička pornografija koja se koristi sa realnim videima koji su se negdje našli, a možemo misliti šta će se desiti sa deep fakeovima. Ali vratimo se na vodene pečate i meta podatke
NATAŠA: Rekli smo kako možda može da se detektuje, ali to zahteva od tebe da obratiš pažnju i na neki način konstantno da si uključen
JELENA: Takoreći uključiš mozak
NATAŠA: Čim uključiš mozak… Ja sam… mislim mora da se uključi i da se razmišlja
JELENA: Ali mi smo specifične i ti i ja, ali šta ćemo sa gro, gro ljudi koji – mozak na pašu
NATAŠA: Ne, ne… „ono što dobijem na Viberu to je tačno“, što bi rekla pomoćnica „to je tačno“… Kodovi se mogu i treba, i ubacuju se, ali recimo vodeni žigovi se ubacuju i sada. Ali to je i dalje… ja kad analiziram neke fotografije koje… mislim evo piše vam ispod, jeste da je sitno ali…
JELENA: Ali ljudi ne znaju prvo naći te podatke, da otvore info
NATAŠA: Mislim na vodeni žig koji je recimo na fotografijama u desnom donjem uglu
JELENA: To je bilo u onome što su ubacivali u poznate filmove, pa ubaciš svoje lice. Tu jeste bilo ali ako ga nema…
NATAŠA: To je najmanje što oni mogu da urade. A sad taj AI akt i, kako ono beše, sad će se praviti, odnosno već je na snazi direktiva jedna i deep fake… deep fake u Americi još uvek…
JELENA: Raspravljaju još uvijek, mislim, i ne znaju i vrlo ih je vidim strah
NATAŠA: A vidi se da oni rade. Jedino sa regulativom… pa i to je reaktivno, to je kasno.
0/19/15
JELENA: Ali kako obavezati proizvođače sadržaja na regulativu, pogotovo ako ti proizvođači sadržaja dolaze iz nekog deep, dark interneta, znači bukvalno ne možeš ništa? I kako uopšte obavezati čak i ove Meta i ostale, jer oni ne fermaju ništa?
NATAŠA: Reaktivno samo. Da se na neki način tu sad povežemo na meta third party fact checking programom koji se vidimo često…
JELENA: Pa ima ih, rade, vidim kontroliše Facebook, factcheckere i svašta nešto
NATAŠA: Moraju da rade, iskreno, mislim naravno i ja sam deo tog programa, ali kao… to jeste reaktivno sećaš se da sam sad rekla da je ovome potrebno dve sekunde da napravi neki sadržaj, a meni ili bilo kom ko će to analizirati je potrebno minimum pola sata da pogleda to i napiše…
JELENA: Ali, da li smo mi u čovječanstvu napravili nešto da nije bilo reaktivno? Šta god nam se događalo, sve nam je bila reakcija na nešto. Nikada nismo napravili okvir, znači ni od industrijske revolucije „E ovo se dešava haj’mo mi prvo sva pravila napraviti pa ćemo onda to razvijati“. Znači sve nam se dešava tako da prvo razvijamo određenu tehnologiju, a onda tek šta, kako i kako ćemo.
NATAŠA: Baš sad tu ima dosta toga, možemo to raširiti, ali kao ‘ajde sve evo mismo napravili tu veštačku inteligenciju, mislim, generativno ono ‘ajde ne treba ni zanemariti da mi, sad pričamo konkretno o generativnoj veštačkoj inteligenciji… mislim mi smo je napravili. Ljudi koji… ne možemo dalje ići od toga da ljudi koji su kreirali te modele i radili na tim mašinskim učenjima, kreiranju tih modela od chatGPT-a pa nadalje… ali ovde pričamo zaista o naučnicima i ljudima koji bave se istraživanjem pa nisu sigurni baš da je ovo u dobrom smeru da se kreće. Da oni jesu skeptični i malo jesu obazrivi i kao sve može da se koristi za dobre svrhe.
JELENA: Tako smo isto i na primjeru interneta vidjeli. Internet je bio… ja se sjećam kad smo počeli to da radimo pa bilo je kako ćeš, pa treba mi nešto za maturski, pa treba mi DNK pa ukucaš „DNK“, pa dobiješ 2 miliona ovako nekih stvari i na kraju je to nešto što je trebalo biti ogromna neka, velika biblioteka, baza znanja postalo ono za… hajde najblaži je slučaj dijeljenja videa mačića i slanje gif-ova kojekakvih, ali u šta se koristi kakvo znanje ljudi žele i zapravo vidimo da ljudi žele samo neku zabavu, trenutno i neke skandale.
NATAŠA: E sad, nisam sigurna tu da li bih se složila skroz sa tobom, da li ljudi to žele. To je isto kao… da im je nametnuto. Kažu ljudi koji imaju reality programe „ej kao, pa znaš kako, ljudi to traže“ pa tačno jer si im to dao. Nekako nisam sigurna za ljude da su ustali jel’ sa željom „baš me zanima“. Daš im i… Imam jedan zanimljiv primer koji je sad malo nevezan za to, ali ima kako su ljudi koristili snagu tako masovnog sredstva zabave. Kad je u Srbiji prvo pokrenut Veliki brat na B92, njihov prvi zapravi inicijalni cilj je bio hajde da mi zapravo ovim, što će biti gledana licencirana franšiza, stavimo posle Brankicu Stanković i Insajder sa nekim jako važnim stvarima…
JELENA: Ostaće ljudi da gledaju
NATAŠA: I šta misliš da li se desilo? Pa nije. Nije se desilo ali su imali dobru nameru. Naravno da se nije desilo, ali uči se iz tog primera. Kao daš im lice i evo ti nešto zanimljivo…
JELENA: Učimo iz primjera i dobijemo… Veliki brat je još bi high level u odnosu na „zadruge“ i ovo…
NATAŠA: Dobro, OK imali ste dobru nameru, ali to mi je kao onaj primer na sajmu automobila, evo sad imaš lepu hostesu i kupićeš auto na osnovu lepe hostese, ne znam…
0/23/12
JELENA: Hoću sad da te vratim od Big brothera na deep fakeove
NATAŠA: Sve je to povezano
JELENA: Sad to „sve je to povezano“ zvuči kao Matrix
NATAŠA: Pa zar nije?
JELENA: Nije! Nemoj da tu pričam i red pill i sve… Nećemo, ne ne ne smijemo, držimo se! Hajde da probamo malo da vidimo, da ohrabrimo ove ljude, sad su oni svi što nas gledaju prepadnuti, znači odosmo, svijet survava se, nemamo razlike šta je istina a šta je laž, kako je naći, još nismo obučeni dovoljno da to shvatamo i nemamo dovoljno dobro oko… Ali hajmo im pomoći da vide nešto što je pozitivno
NATAŠA KILIBARDA: Ima pozitivno, da da, to naglašavamo: ima pozitivnih stvari jer tako je i krenulo
JELENA: Ja znam da si ti dosta u priči – upotreba AI u obrazovanju i da ti je to omiljena tema
NATAŠA: Jeste. Tu stvarno možemo naširoko ali znaš na šta možemo da ga svedemo: uvek je do pojedinca. Jer ako, sad chatGPT, ‘ajde nećemo se lagati, studenti sigurno koriste pa ne samo studenti nego i klinci, stvarno smo… ja pričam sa tom decom i oni koriste i pričaju sa njom na srpskom…
JELENA: Je li baš pričaju ili kao kažu „napiši mi seminarski“?
NATAŠA: Pričaju, ali ima i toga. E sad, ali se vrlo lako može videti. I ono što ja njih ohrabrujem to treba koristiti…
JELENA: AI ima specifičan stil, vrlo je onako eseističko. Ali recimo ja ga koristim, onda ga koristim recimo „de mi napiši 5 prijedloga za naslove“, onda ja od njegovih 5 prijedloga za naslove napravim neki dobar naslov, „daj mi podnaslove“, „de mi rediguj ovaj tekst“, što je OK
NATAŠA: Ali ja i mislim da to i jeste dobra upotreba. Evo baš si mi se dobro nadovezala, jer ona je tu da… ali neće, neće pobeći, tu je. Mi moramo da… Ali vidiš ti chatGPT je napravljen, prva verzija 2022. godine. Jako je velika tema i tek će, šta će tek dolaziti s njihove strane od Sore pa nadalje. Ali chatGPT može da se koristi na vrlo korisne stvari. Iskreno, ko ga ne koristi danas ili uči kako da se koristi, već je u zaostatku.
0/25/30
JELENA: Da li to znači da su naši nastavnici možda u zaostatku?
NATAŠA: Jesu, ali izdvajaju se pojedinci koji ga koriste na vrlo dobre stvari. Evo imamo i primer iz Srbije kako sa svojim studentima, sa učenicima koriste tako što će recimo, eee sad pričamo o boju na Kosovu ili o Dositeju obradoviću, e sad chatGPT je istorijska ličnost i hajde da mi sad pričamo sa njim o tom događaju iz svoje vizure. Pa oni postavljaju… znači da oni već moraju da znaju neke stvari, a to im i traži da moraju da znaju i ‘ajmo da se igramo jer postaje im zanimljivo. Jer njima je dosadno na časovima
JELENA: Ex katedra njima odavno… ma i nama, našoj generaciji ex katedra nije odgovarala, mi smo bili bundžije, ali…
NATAŠA: Ex katedra momenat je više zaista prevaziđen iako je… prevaziđen u smislu da radi, nije prevaziđen u smislu dominantnosti, i dalje, takve vrste jer im je lakše – nisu motivisani, nisu ni plaćeni. Ali može se koristiti na tako mnogo načina. Imam sad i na fakultetu dramskih umetnosti, doduše uvek imaš te pojedince, ali moja dobra prijateljica Ana Martinoli ona koristi isto sa svojim studentima tako što će… ok znači ja znam da ćeš ti koristiti za ispit chatGPT, ali glupo je da…
JELENA: …da se pravimo naivni
NATAŠA: Ali ok, ima da se napiše ovo i ti ćeš tačno da kažeš, jer ti je to obaveza, na koji način si koristio.
JELENA: E to je to, to što vidimo da je obaveza zapravo ako je slika generisana pomoću nekog takvog sourcea da se stavi, to ja recimo uvijek stavljam, ispod napomena ili ako je dio teksta, recimo nekad definicij – recimo mrsko mi je naći definiciju. Ali opet onda moram tu definiciju da provjerim.
NATAŠA: Jeste, to si dobro rekla, jer ne možemo ga koristiti kao Google
JELENA: Pa dobro i Wikipediju smo morali provjeravati. Engleska verzija je super jer ona ima reference, ima sve može se provjeriti svaki dio. Ali druge verzije Wikipedije su malo problematične.
NATAŠA: OK, tu ti verujem. Engleska prosto je… ima puno ljudi… pa engleski, mislim prosto engleski je ono lingua franca pa ajde ima puno ljudi koji mogu da kontrolišu taj sadržaj.
0/27/59
JELENA: Jednom si kad smo pričali o nekom drugom obliku, isto AI-u, spomenula si AI koji se koristi u poljoprivredi pa je tu bio onaj neki Sosa u Vojvodini, to mi je bilo strašno zanimljivo. I recimo za navodnjavanje i đubrenje biljaka gdje se svaka može po svojoj potrebi… to mi je top…
NATAŠA: Ali tako se koriste, to su pozitivni primeri, kao ajde nemoj da se lažemo stvarno dobro rade…
JELENA: Mi nećemo moći osvajati svemir, praviti nove stanice bez AI, nema šanse više to da uradimo
NATAŠA: Pazi ovako, sve što se može… što su podaci… pa čak i rezimo… Znaš kako, ajde ovako da se ne uplaše opet ljudi: ako recimo imaš dijagnozu i neke vrste recimo, ma kao ovih rendgena ili…
JELENA: trijaže?
NATAŠA: Tako je. I najčešće će to sad biti, skuplja se tačno, eee ovo je polomljena kost, ovo je napukla… pa do mamografa… znaš već kako su ta tumačenja…
0/29/00
JELENA: Ali ima sad i ova telemedicina. Vidim da sad u Evropi i Americi postaje ta telemedicina, da ti više nemaš doticaja sa živim čovjekom nego staviš svoje simptome… Koliko je to realistično? Mene je toga strah! Mislim, i doktor ti fuli nešto i ne sluša te ali…
NATAŠA: Pa sad dijagnoze ne bi trebali… Iskreno, pravo da ti kažem ja ne bih volela da me neki, da mi chatGPT baš daje dijagnozu jer na kraju krajeva medicina zahteva čoveka preko puta tebe koji će da bude empatičan
JELENA: Ali oni su trenirani da budu empatični…
NATAŠA: E, a znam ljude koji se obraćaju chatGPT-ju ljubaznije nego što bi ljudima.
JELENA: Ja uvijek to radim: „molim te možeš li mi uraditi to i to“. Ja ne znam šta će se sutra desiti, možda nešto sutra se aktivira… neka on zapamti da sam ja bila ljubazna
NATAŠA: Je li žensko ili muško?
JELENA: Ja nekako to rodno neutralno, nekad je muško nekad žensko, pošto je drugo lice pa se ne primijeti „molim te uradi mi to i to“. Da vrlo sam ljubazna.
NATAŠA: Ali recimo kada naučiš modele, generalno uče na bazama podataka…
JELENA: U stvari mi kažemo deriviran model
NATAŠA: Ali može da pomogne u nekoj vrsti… znaš kako, ja znam i doktore neke koji rade na toj primeni i evo kazaću ti za mamografe: sigurnost mamografije. Mamografija zna da bude dosta onako naporan, stresan proces jer ako dobiješ… ma žene najčešće i zaborave iako im je naglašeno da ne stave dezodorans ili parfem, onda se vide te mrljice i ovo-ono onda posmisle to je kalcifikacija, pa idi na ponovne testove i tako dalje. Postoji trenutak u kojem će to moći da bude prevaziđeno.
0/30/54
JELENA: Dakle imamo još i AI korištenje u medicini da se prave novi lijekovi, da se dešifriraju novi proteini i sad dakle ima to neko svjetlo na kraju tunela, ali opet je sve do nas kako ga koristimo.
NATAŠA: Da, i ako ćemo da koristimo za pozitivne stvari to je ono kao „jao Bože…“ ne postoji ni jedan trenutak danas još uvek da će biti „jao Bože uzeće nam poslove“ i tako dalje. Ako znaš da ga koristiš koristićeš ga…
JELENA: Novi poslovi…
NATAŠA: Novi poslovi, a koji novi? Ako ćeš sad da kreiraš čoveka koji će biti samo „ajde napiši promptove“, mislim znaš kako: to danas već postoji i svako od nas je već prompt-creator. Morali bi ti malo ljudi koji koriste… koji pričaju o tome, ajde malo da produbimo to, zašto pričati šta će biti novi poslovi? Može da nam poveća produktivnost, istina je, ako ćeš ti sad da kreiraš pet novih… daj mi… ja sam ti ovo napisala, a ti mi možda napiši malo da izgleda možda malo više za gen-Z ili pet novih naslova i tako dalje ili… Može da se kreira i u menadžmentu i ajde recimo u tom skeniranju nekih CV-jeva, ali tu jako obzirno, to smo ti i ja nešto pričale…
0/32/12
JELENA: Nećemo stići algoritamsku pristranost ali algoritmi isto nisu neutralni nego odražavaju pristranost ljudi. Opet nisu oni krivi nego mi kako ih podučavamo.
NATAŠA KILIBARDA: Da, i po boji kože i rodno senzitivni… Zašto je, na kraju, bitno koristiti rodno senzitivni jezik..
JELENA: Da bi učili jer oni uče iz tih naših…
NATAŠA: Naravno, ako se ne zna kako je neko naučnica ili matematičarka ili političarka… znači neće ga ni biti
JELENA: Koristite rodno senzitivni jezik da nas sutra ne „potaru“ AI i chatGPT
NATAŠA: Pa kaže Anja Stančić: ako te nema u govoru, nema te generalno.
JELENA: Time moramo završiti, znači nemojmo biti nevidljivi u jeziku pred AI-em, budimo spremni na neke stvari koje se dešavaju i otvorimo četvere oči vezano za ove…
NATAŠA: To je minimum. Mi možemo o tome pričati nadugo i naširoko ali o tome ćemo drugi put
JELENA: Hvala ti puno!
NATAŠA: Hvala Jelena!
Sadržaj podržan od: