Vještačkoj inteligenciji se dodjeljuje neki oreol objektivnosti, nevidljivo sveprisutno zračenje nepristranosti. Međutim, neki sistemi umjetne inteligencije (AI) mogu pokazati algoritamsku pristranost, tj. mogu proizvesti rezultate koji nepravedno diskriminiraju ljude na temelju njihovog društvenog identiteta.

Ovo može biti problem u korištenju algoritama mašinskog učenja i vještačke inteligencije u policiji, u primjeni pri selekciji u zapošljavanju, određivanju visine kredita, kod zdravstvenog osiguranja… Zamislite da ne dobijete posao, ne prođete ni u uži krug do intervjua, samo zato što je na prvom koraku, koji se obrađuje kompjuterski, vaš CV odbacila vještačka inteligencija, na osnovu vašeg spola, rase, etničke pripadnosti ili toga što dolazite iz ruralne sredine.

Primjeri AI pristranosti

Već je za Google algoritme pretraživanja primijećeno da su opresivni prema crnim ženama i više „guraju“ stereotipe u pretrazi. To je razradila u svojoj knjizi Algoritmi opresije Safiya Umoja Noble koja je analizom tekstualnih i medijskih pretraživanja, kao i opsežnim istraživanjem online oglašavanja – plaćenih objava, razotkrila kulturu rasizma i seksizma u načinu na koji se stvara vidljivost na internetu.

Neki algoritmi koji pokreću umjetnu inteligenciju za prepoznavanje lica sistemski su pogrešno klasificirali tamniju put (1, Buolamwini & Gebru, 2018.) ili pogrešno označavali crnce kao „primate”, prema članku iz New York Times.

Modeli mašinskog učenja rsu, kako je jedna studija pokazala, replicirali rodne predrasude u pismima preporuke.

Prema pisanju Verge, Amazon je koristio algoritam umjetne inteligencije za zapošljavanje koji je sistemski manje vrednovao životopise žena i tako pokazao rodnu pristranost. Taj algoritam je ”kažnjavao” osobe koje su pohađale samo ženske fakultete, kao i sve životopise koji su sadržavali riječ „ženski” (recimo, ako biste napisali „članica ženskog odbojkaškog kluba” – program bi vas degradirao).

Istraživači sa Princetona koristili su gotov softver AI za mašinsko učenje za analizu i povezivanje 2,2 miliona riječi. Otkrili su da se evropska imena percipiraju kao ugodnija od imena Afroamerikanaca i da se riječi „žena” i „djevojka” češće povezuju s umjetnošću a manje sa naukom i matematikom, koji su najvjerovatnije povezani s muškarcima. U analizi ovih asocijacija riječi u podacima o obuci, algoritam je zakačio postojeće rasne i rodne predrasude koje pokazuju ljudi. Ako bi se naučene asocijacije ovih algoritama koristile kao dio algoritma za rangiranje pretraga, za generisanje prijedloga riječi kao dio alata za automatsko dovršavanje ili za regrutovanje za posao, to bi moglo imati kumulativni učinak jačanja rasnih i rodnih predrasuda.

Za COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) algoritam, koji koriste suci u SAD za predviđanje trebaju li optuženici biti pritvoreni ili pušteni uz jamčevinu do suđenja, utvrđeno je da je pristran prema bijelcima i diskriminatoran prema Afroamerikancima, prema analizi koju je objavila ProPublica. Algoritam dodjeljuje ocjenu rizika okrivljenikovoj vjerovatnosti da počini kazneno djelo u budućnosti, oslanjajući se na opsežne podatke dostupne o evidenciji uhićenja, demografiju okrivljenika i druge varijable. U poređenju s bijelcima za koje je bila jednaka vjerovatnost da će ponovno počiniti kazneno djelo, Afroamerikanci su imali veću vjerovatnost da će dobiti rezultat višeg rizika, što je rezultovalo dužim razdobljima pritvora dok su čekali na suđenje. Northpointe, kompanija koja prodaje algoritam, tvrdi kako to nije tačno.

Neki algoritmi sada mogu lako odrediti političke orijentacije ljudi protiv njihove volje (prema 2, Peters, 2022).
AI može biti pristran ako je loše dizajniran, treniran ili primijenjen na način koji stvara neželjene i nepravedne posljedice. Pristranost u AI-u se obično javlja kada se algoritmi treniraju na temelju nepotpunih ili neadekvatnih podataka, što može dovesti do krivih zaključaka ili diskriminacije. Također, pristranost se može pojaviti ako algoritmi preuzimaju i pojačavaju postojeće društvene nejednakosti i stereotipe, a da ih ne prepoznaju ili ne eliminišu.

Ljudske i istorijske pristranosti su inherentno prisutne i u vještačkoj inteligenciji i, ako se ona gradi bazirajući se na ovakvim podacima, biće pristrana.

Kako smanjiti pristranosti algoritama

Postoje načini da se smanji pristranost u AI-u, kao što su pažljiviji dizajn, korištenje različitih setova podataka i provjera modela na različitim populacijama. Potrebno je razviti strategije prepoznavanja pristranosti, a svi pristupi rješavanju problema moraju biti bazirani na zaštiti osjetljivih podataka korisnika – podataka koji ukazuju na rasu, spol, etničku pripadnost, pripadnost nekoj manjini i slično. Također, važno je imati etički okvir koji promiče pravednost i odgovornost u primjeni AI-a.

Razvoj AI-a bi trebao biti zasnovan na načelima jednakosti, pravednosti i neutralnosti, s ciljem da služi dobrobiti svih ljudi, bez obzira na politička uvjerenja.

No, ovo je lakše reći nego učiniti. Izrada umjetne inteligencije s pristranošću prema određenom političkom uvjerenju nije samo etički upitna, već je i tehnički vrlo izazovno ostvariti takvo programiranje. Učenje AI-a temelji se na podacima kojima se „trenira“, preciznije, derivira model. Ako bi se AI pokušao programirati na temelju određenog seta podataka uskog kruga vrijednosti, mogao bi se dogoditi fenomen poznat kao “overfitting”, gdje se AI pretjerano prilagođava trenutnim podacima, a nema sposobnost generalizacije i prilagodbe na nove situacije. Također, takav pristrani AI bi mogao izazvati oštre reakcije javnosti i pogoršati probleme koji već postoje u društvu, poput polarizacije i podjela.

Primjer za ove probleme je kada vještačka inteligencija s vremenom nauči razlikovati muška od ženskih imena. Tada, čak i ako spol nije faktor, ako ga korisnici ne unose u formular ili je izostavjen iz CV-ja, može doći do situacije diskriminacije.

„Nekim će odlukama najbolje poslužiti algoritmi i drugi alati umjetne inteligencije, dok će druge možda trebati pažljivo razmotriti prije dizajniranja računalnih modela. Nadalje, testiranje i pregled određenih algoritama također će identifikovatii, u najboljem slučaju, ublažiti diskriminatorne ishode. Za operatere algoritama koji žele smanjiti rizik i komplikacije loših ishoda za potrošače, promicanje i korištenje prijedloga za ublažavanje može stvoriti put prema algoritamskoj pravednosti, čak i ako pravednost nikada nije u potpunosti ostvarena”, navodi se u analizi Brookings Institution, neprofitne think-tank organizacije posvećene nezavisnom istraživanju i političkim rješenjima.

Korisnicima umjetne inteligencije u budućnosti će biti potrebna bolja algoritamska pismenost i jače vještine kritičkog razmišljanja. Biće potrebno da ljudi znaju kada su objekt donošenja odluka baziranih na algoritmima, automatskih odluka te šta da urade i kako da odgovore ako ih algoritamska pristranost negativno dotiče. Potrebno je formiranje i jačanje javnih institucija za regulaciju algoritamske pristranosti te treniranje osoblja. Svakako je poziv stručnjaka za algoritamsku pristranost jedan od poziva budućnosti.

Još: AI despotizam

Reference:

[1] Buolamwini, J. & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, in Proceedings of Machine Learning Research, 81: 77–91

[2] Peters, U. Algorithmic Political Bias in Artificial Intelligence Systems. Philos. Technol. 35, 25 (2022). https://doi.org/10.1007/s13347-022-00512-8