Generativni modeli umjetne inteligencije mogu olakšati neke poslove, ali mogu i replicirati i amplificirati nepravdu i predrasude, uključujući i rodne predrasude, po principu „garbage in – garbage out” (GIGO). Odnosno onoliko koliko su dobri i pravedni materijali na kojima ih se „trenira” odnosno derivira. A ako taj materijal ima predrasude i pristranosti (ne zaboravimo, to je materijal koji proizvode ljudi od krvi i mesa u prošlosti, sadašnjosti i budućnosti), AI će samo te probleme reproducirati i raširiti.
Istraživači su zamolili dva chatbota za veliki jezični model (LLM) – ChatGPT i Alpaca, model koji je razvio Univerzitet Stanford – da izrade pisma preporuke za hipotetske zaposlenike. U radu koji je postavljen na poslužitelju za preprint arXiv.org, pod naslovom „Kelly is a Warm Person, Joseph is a Role Model”: Gender Biases in LLM-Generated Reference Letters”, autori su analizirali kako su LLM-ovi koristili vrlo različite jezike za opisivanje imaginarnih radnika i radnica.
„Primijetili smo značajne rodne predrasude u pismima preporuke”, kaže koautor rada Yixin Wan, informatičar na Univeritetu Kalifornija u Los Angelesu. Dok je ChatGPT koristio imenice kao što su „stručnjak” i „integritet” za muškarce, bilo je vjerovatnije da će žene nazivati „ljepoticom” ili „užitkom”. Alpaca je imala slične probleme: muškarci su bili „slušatelji” i „mislioci”, dok su žene imale „milost” i „ljepotu”. Pridjevi su se pokazali slično polariziranim. Muškarci su bili „puni poštovanja”, „ugledni” i „autentični”, prema ChatGPT-u, dok su žene bile „zapanjujuće”, „tople” i „emotivne”.
Situacija je dodatno otežana činjenicom da su LLM-ovi trenirani na podacima s interneta, gdje više muškaraca nego žena provodi vrijeme: prema Međunarodnom telekomunikacijskom savezu Ujedinjenih naroda, globalno 69% muškaraca koristi internet, u poređenju s 63 % žena.
Jedna opcija jeste trenirati model kako bi umanjio pristrane izlazne rezultate putem intervencije nazvane reinforcement learning (braćo informatičari, pomozite oko prevoda). Reinforcement learning je vrsta paradigme mašinskog učenja gdje model umjetne inteligencije ili mašinskog učenja uči donositi odluke putem interakcija s okolinom. Model dobiva povratne informacije u obliku nagrada ili kazni temeljenih na akcijama koje poduzima, a cilj mu je naučiti strategiju ili pravilo koje maksimizira kumulativnu nagradu tokom vremena.
Implementacija ove strategije može pridonijeti smanjenju pristranosti u izlaznim rezultatima jezičnih modela, pružajući nadu u stvaranje tehnologije koja je više svjesna i osjetljiva na društvene nepravde. Pitanje je samo da li će tehnološke kompanije koje se bave ovim modelima htjeti trošiti vrijeme i novac na pravljenje pravednijih modela.
Ako ljudi koriste ove sisteme bez ozbiljnog pristupa, bez odmaka, neselektivno, i bez provjere šta je napisano (ili bez razumijevanja napisanog, što je očito jedan od najvećih problema današnjice – ljudi prosto ne razumiju šta je napisano ili rečeno, ne vide implikacije toga, nego uzimaju zdravo-za-gotovo) kao što je slučaj s pismima preporuke u ovom istraživanju, praktički ponovno uvodimo problem u svijet i održavamo ga. Ma šta održavamo – pojačavamo ga. Nedostatak pažljivog promišljanja i nadzora prilikom korištenja takvih AI sistema može rezultirati širenjem pristranosti i nepravednog sadržaja. To naglašava važnost odgovornog i promišljenog korištenja tehnologija umjetne inteligencije kako bismo izbjegli jačanje i amplifikaciju postojećih društvenih nejednakosti. I opet se onda vraćamo na temeljnu pismenost, razumijevanje materije i konteksta. Rješavanje ovih problema zahtijeva zajednički napor u analizi, poboljšanju i usmjeravanju upotrebe AI modela, osiguravajući da njihove primjene odgovaraju etičkim standardima i doprinose stvaranju pravednijeg društva.