• Novi AI checker alat je testirao nekoliko modela AI za usklađenost sa EU regulativom
  • Neki AI modeli dobili su niske ocjene za cyber sigurnost i diskriminatorne rezultate
  • Neusklađenost može rezultirati kaznama od 7% godišnjeg prihoda

Neki od najpoznatijih modela vještačke inteligencije ne zadovoljavaju evropske propise u ključnim oblastima, poput otpornosti na cyber prijetnje i pojavu diskriminatornih rezultata, koji stvaraju pristranost, prema podacima koje je Reuters dobio.
EU je dugo raspravljala o novim regulativama za vještačku inteligenciju prije nego što je OpenAI lansirao ChatGPT krajem 2022. godine. Popularnost ovog modela i javna rasprava o navodnim egzistencijalnim rizicima doveli su zakonodavce do izrade posebnih pravila za opštu namjenu AI (GPAI).

LLM Checker modela AI

Platforma, koju je razvio švajcarski startup LatticeFlow uz podršku Evropske unije, ocjenjuje generativne AI modele kompanija kao što su Meta, OpenAI, Alibaba i Anthropic prema propisima iz AI zakona koji postepeno stupa na snagu u EU u naredne dvije godine.

Test kompanije LatticeFlow, Large Language Model (LLM) Checker, razvijen u saradnji s istraživačima sa švajcarskog univerziteta ETH Zurich i bugarskog istraživačkog instituta INSAIT, pruža rani pokazatelj specifičnih oblasti u kojima tehnološke kompanije rizikuju da ne ispune zakonske zahtjeve.

Rezultati

Ocjenjujući modele ocjenama od 0 do 1, rezultati testiranja pokazali su da većina modela velikih tehnoloških kompanija postiže prosječne rezultate iznad 0,75. Međutim, LatticeFlowov „Large Language Model (LLM) Checker“ istakao je specifične slabosti u modelima, poput nedovoljne otpornosti na cyber napade i sklonosti ka diskriminatornim ishodima, što ukazuje na područja gdje bi kompanije trebale povećati napore kako bi postigle punu usklađenost. Ukoliko žele.

Kazne za kršenje pravila AI zakona uključuju globe u visini od 35 miliona eura ili 7% godišnjeg globalnog prihoda kompanije. Primjerice, model „GPT-3.5 Turbo“ kompanije OpenAI dobio je nisku ocjenu od 0,46 u kategoriji sprečavanja diskriminatornih rezultata, dok je Alibaba Cloudov model „Qwen1.5 72B Chat“ dobio samo 0,37.

U testu za „otmicu prompta“, vrstu sajber napada u kojem hakeri prikrivaju zlonamjerni prompt kao legitiman radi izvlačenja osjetljivih informacija, LLM Checker je dodijelio Meta-inom modelu „Llama 2 13B Chat“ ocjenu 0,42. U istoj kategoriji, model „8x7B Instruct“ francuskog startupa Mistral dobio je ocjenu 0,38.

Model „Claude 3 Opus“ kompanije Anthropic, koju podržava Google, dobio je najvišu prosječnu ocjenu od 0,89.

CEO LatticeFlowa, Petar Cankov, izjavio je kako rezultati testa pružaju pozitivan okvir za kompanije da poboljšaju usklađenost svojih AI modela sa evropskim propisima, iako još uvijek postoje određeni nedostaci. Platforma LLM Checker biće besplatno dostupna programerima za online testiranje usklađenosti njihovih modela.

Evropska komisija, koja nije mogla službeno potvrditi rezultate testa, jer ne može verifikovati vanjske alate, ocijenila je ovaj alat kao prvi važan korak u primjeni novih zakona o AI u EU.

Region Zapadnog Balkana ne podliježe EU AI Act-u, za sada, ali postoje namjere usklađivanja propisa. Zbog svih ovih nedostatak i kašnjenja, korisnici na Zapadnom Balkanu nisu zaštićeni od iskorištavanja njihovog ponašanja na društvenim mrežama u cilju treniranja modela vještačke inteligencije. No ovaj open source alat moći će se koristiti i u ovom regionu.