• Machine learning algoritam – algoritam mašinskog učenja pod nazivom life2vec, koji su kreirali istraživači iz Danske, predviđao je ishod života i postupke osobe kada mu se pruže visoko specifični podaci o toj osobi. To pokreće pitanje etike algoritama.
  • Međutim, postoje etički i metodološki izazovi, uključujući ograničenje podataka 
  • Kritičari upozoravaju na potencijalnu zloupotrebu takvih algoritama u osiguranju, ali i ističu da predviđanje života može ukloniti misteriju i vrijednost življenja.

 

Međutim, postoje etički i metodološki izazovi, uključujući ograničenje podataka na danskim demografskim karakteristikama i nedostatak pristupa podacima najugroženijih. Kritičari upozoravaju na potencijalnu zloupotrebu algoritma u osiguranju, ističući da predviđanje života može ukloniti misteriju i vrijednost življenja. Objavljena u časopisu Nature Computational Science, pod naslovom “Using sequences of life-events to predict human lives“, 18. decembra 2023.  studija istražuje povezanost između podataka iz stvarnog života i predviđanja budućnosti putem AI algoritma.

Ljude su uvijek privlačili oni koji proriču sudbinu, fortune tellers. Ok, i treba priznati jedno – većina nas nekad pogleda u horoskop čak i ako nam je to totalni BS. Ali šta ako bismo imali “naučno kreiran horoskop”???

Spomenuti algoritam, koji je analizirao ogromnu količinu podataka, pokazao je sposobnost predviđanja životnih ishoda s impresivnih 78% tačnosti. On nije samo predvidio dohodak tokom života pojedinca, već je takođe identifikovao faktore koji povećavaju rizik od prijevremene smrti, uključujući niski prihod, dijagnozu mentalnog zdravlja i muški pol.

Problem s ovim algoritmom je u tome, kao uostalom za sve algoritme, što je on onoliko dobar koliko su dobri podaci koje mu date. Ako mu date smeće – produciraće smeće. Još jedan problem je i to kako bi se u budućnosti ovaj, pomalo Westworld, distopijski algoritam mogao koristiti. Da li bi se koristio u cilju da pomogne ljudima da smanje rizik obolijevanja od neke bolesti i promijene svoje ponašanje ili bi doprinio jačanju algoritamske pristranosti u kojoj bi se koristio prilikom zapošljavanja ili davanja osiguranja? Ovdje je slično etičko pitanje kao i kod analiza genoma putem sekvenciranja, kakvo rade 23andMe i slične kompanije.

Kako je “treniran” algoritam?

Sune Lehmann, vodeći autor spomenute studije i profesor Tehničkog univerziteta Danske, izjavio je: “S tim podacima možemo napraviti bilo kakva predviđanja.” Međutim, istraživači napominju da je to “istraživački prototip” i da trenutno nije sposoban obavljati “stvarne zadatke”. Dakle koliko je zapravo dobar ovaj model?

Treba razumjeti kako je ovaj model – algoritam mašinskog učenja “treniran” (preciznije bi bilo reći “deriviran“).

Lehmann i njegovi koautori koristili su podatke iz nacionalnog registra u Danskoj koji detaljno opisuje raznovrsnu grupu od 6 miliona ljudi. Uključili su informacije od 2008. do 2016. o ključnim aspektima života poput obrazovanja, zdravlja, prihoda i zanimanja. Inače, Danska je pozanta upravo po pažljivo vođenim nacionalnim i zdravstvenim registrima, pa stoga oni rade dosta longitudinalnih studija. Prosto imaju uredne i dostupne podatke. U zemljama gdje podaci nisu ovako dobro arhivirani i ne vode se dobro, model bi imao značajno lošije pretpostavke da bude visoko precizan.

Istraživači su prilagodili tehnike obrade jezika i generisali vokabular za događaje u životu kako bi life2vec mogao tumačiti rečenice na temelju podataka, poput “Tokom treće godine srednje škole, Hermione je pohađala pet izbornih predmeta.” Algoritam je zatim učio iz tih podataka, i bio je sposoban predviđati određene aspekte života ljudi, uključujući to kako bi mogli razmišljati, osjećati se i ponašati, pa čak i hoće li osoba možda umrijeti u narednim godinama.

Da bi predvidjeli kada bi neko mogao umrijeti, tim je koristio podatke od 1. januara 2008. do 31. decembra 2015. o grupi od preko 2,3 miliona ljudi starosti od 35 do 65 godina. “Ova grupa je odabrana jer je teže predvidjeti smrtnost u tom dobnom rasponu“, kaže Lehmann.

Life2vec je koristio podatke kako bi zaključio vjerovatnost preživljavanja osobe u četiri godine nakon 2016. godine.

Kako bismo testirali koliko je [life2vec] dobar, biramo grupu od 100.000 pojedinaca, gdje polovina preživi, a polovina umre“, rekao je Lehmann. Istraživači su znali koje su osobe umrle nakon 2016., ali algoritam nije.

Zatim su ga stavili na test. Algoritam je pravio pojedinačna predviđanja o tome je li neko živio nakon 2016. godine. Rezultati su bili impresivni: algoritam je bio tačan u 78% slučajeva. Life2vec je također nadmašio druge modele i osnovne modele za najmanje 11%, predviđajući smrtonosne ishode preciznije, navodi izvještaj. Muškarci su bili skloniji umiranju nakon 2016. godine.

Biti stručnjak poput inženjera ili imati dijagnozu mentalnog problema poput depresije ili anksioznosti također je dovodilo do ranije smrti, zaključili su istraživači. S druge strane, biti na menadžerskoj poziciji ili imati visok prihod često je guralo ljude prema “preživjeti” stupcu. Logično i očekivano. Nije da to nismo znali bez algoritma.

Međutim, istraživanje ima nekoliko ograničenja. Eksperimenti nisu bili randomizirani, niti je rađena dvostruka slijepa proba.

Istraživači su pregledavali samo podatke u osmogodišnjem razdoblju, ali može biti sociodemografskih pristranosti u uzorkovanju, iako se svaka osoba u Danskoj pojavljuje u nacionalnom registru. Demografija Danske se mijenja i algoritam možda ne bi bio dobar za nekoliko godina.

“Ako neko nema platu – ili odluči ne koristiti zdravstvene sisteme – nemamo pristup njihovim podacima”, rekli su istraživači. Ovo automatski znači da algoritam nije imao ni pristup najugroženijima, onim koji su socijalno najnezaštićeniji, a često imaju najviše problema i životni vijek im je kraći.

Istraživanje je provedeno u bogatoj zemlji s jakom infrastrukturom i zdravstvenim sistemom. Nejasno je može li se life2vec-ova saznanja primijeniti u drugim zemljama poput Sjedinjenih Američkih Država, s obzirom na njihove ekonomske i društvene razlike. Ili na Bosnu i Hercegovinu ili Sudan.

Bioetičari imaju riječ o ovakvim algoritmima

Dr. Arthur Caplan, šef Odjela za medicinsku etiku na Medicinskom fakultetu Grossman Univerziteta u New Yorku inače jedan od čuvenih bioetičara, smatra da je itekako izgledno se da će osiguravajuće kompanije biti zainteresirane da preduhitre potrošače kada modeli poput life2vec postanu komercijalniji. “Ovo će dovesti do toga da se osiguranja teže prodaju“, rekao je. “Ne možete pokrenuti osiguranje protiv rizika ako svako tačno zna što su rizici.” Međutim, isto tako, ako osiguravajuća kuća zna potencijalne probleme kupaca osiguranja, to znači da bi mogli dići cijenu osiguranja.

Caplan napominje da life2vec ne predviđa u kojoj dobi će osoba umrijeti ili kako. Na primjer, algoritam ne može predvidjeti hoće li osoba biti ubijena u prometnoj nesreći. Može predvidjeti rizike povezane s kraćim životnim vijekom  poput navika koje skraćuju život (alkohol, pušenje) ili procijeniti rizik mentalnih bolesti, ali ne može predvidjeti nesreće. Također, ne može predvidjeti ni da neko kod kog je povećan rizik ipak donese odluku da usvoji zdravije životne navike ili prosto igrom slučaja ne dopadne u lošu stranu statistike.

Caplan također kaže da korištenje vještačke inteligencije za predviđanje kada bismo mogli umrijeti uklanja jedan aspekt iz naših života koji ga čini zanimljivim: misteriju.

Brinemo se da će roboti preuzeti svijet i odlučiti da im nismo potrebni“, rekao je. “Ono o čemu trebamo brinuti je kako roboti manipulišu informacijama i mogu predvidjeti mnogo toga o našem ponašanju, što dovodi do života koji postaju toliko predvidljivi da iz njih nestaje dio vrijednosti življenja.

No, ne zaboravimo – ni horoskopi i drugi načini predviđanja života nisu uništili tananu misteriju življenja. A čak i astrolozi kažu da je moguće da neka naša odluka promijeni tok i da se prorečeno ne ostvari.

Suštinski AI neće nikad moći predvidjeti neke slučajne događaje i odstupanja, slučajnosti i rijetke događaje u našim životima. Ali problem je u tome što bi se birokrate mogle osloniti na ovakva predviđanja, i onda bismo mogli imati slučajeve da jednostavno ljudi postaju zarobljenici svoje kaste – da ne mogu izaći iz svojih životnih okolnosti, bez obzira na individualni potencijal, jer je tamo nekakav AI dao neka predviđanja koja su utjecala na to da li će tu osobu primiti na studij, dati joj osiguranje ili je primiti na posao. 

Napomena: naslovna slika je generisana pomoću AI.