• Kanibalizam AI dovodi do urušavanja, kolabiranja krajnjih podataka. Kanibalizam u ovom slučaju je pojava kada se AI modeli hrane” podacima koji su generisani pomoću umjetne inteligencije, a ne originalno ljudski.
  • Umjetnoj inteligenciji prijeti nedostatak hrane”.

Ako se modeli umjetne inteligencije / vještačke inteligencije / AI  hrane” podacima koji su AI generisani, a ne originalno tvorevine ljudskog uma, oni kolabriraju. Kanibalistička prehrana modele vodi u kvarenje produkata i totalnog kolapsa već u devetoj iteraciji. S obzirom da nedostaje modela koje je originalno stvorio čovjek, odnosno temeljenih na stvarnosti te da niz medija želi svoj sadržaj učiniti nedostupnim za treniranje umjetne inteligencije, ovo postaje veliki problem za AI i njihove programere. I da – taj problem bi mogao usporiti razvoj umjetne inteligencije, kako LLMs, tako i vizualnih generisanih AI.

GIGO

Ovo je na djelu princip GIGO. Garbage in – Garbage out. Odnosno, ono si što jedeš.

Ovdje se ne radi čak ni o onome što se naziva AI halucinacije (mada Scientific American za to predlaže daleko precizniji naziv – AI bullshitting). Pogledajte kako to izgleda na ovom primjeru izvora i devete iteracije. Autori studije trenirali su svoj veliki jezični model na člancima s Wikipedije i trenirali su naredne generacije modela na tekstu koji je proizvela prethodna verzija:

Model generacija 0

Revival architecture such as St. John’s Cathedral in London. The earliest surviving example of Perpendicular Revival architecture is found in the 18th @-@ century Church of Our Lady of Guernsey, which dates from the late 19th century. There are two types of per- pendicular churches : those.

Model generacija 9

architecture. In addition to being home to some of the world’s largest populations of black @-@ tailed jackrabbits, white @-@ tailed jackrabbits, blue @-@ tailed jackrabbits, red @-@ tailed jackrabbits, yellow @-

 

kanibalizam AI

iteracije AI produkata hranjenih AI produktima, izvor Nature magazine

Papagajsko ponavljanje dovodi i do papagajskog govora bez smisla i dubine

Do kolapsa dolazi jer svaki model nužno uzima uzorke samo iz podataka na kojima je treniran. To znači da su riječi koje su bile rijetke u izvornim podacima manje vjerovatno reproducirane, dok se povećava vjerovatnost ponavljanja uobičajenih riječi. Odnosno model je nenačitan”.

Potpuni kolaps na kraju se događa jer svaki model ne uči iz stvarnosti, već iz predviđanja stvarnosti prethodnog modela. Pri tome se pogreške pojačavaju u svakoj iteraciji.

Naučnici ovo porede s inbreedingom, pojavom srodničkog parenja, u kojem često dolazi do mutacija i genetičkog kolapsa vrste.

Zamislite šta sad ovo znači – umjetna inteligencija i njeni tvorci imaju hronični problem nedostatka svježeg ljudskog materijala, neprerađenih umotvorina, originalng duha. AI će se nastaviti hraniti svojim vlastitim produktima, pošto ljudi sve više koriste Ai za pisanje tekstova, kopija, izradu slika. Jedna kopija ili produkt lošiji od prethodnog dok ne postane potpuno nečitljiva informacija, kao igra gluhih telefona u kojoj se riječ izmijenile do neprepoznatljivosti.

Drugim riječima, ili će AI zaglupljivati ili će se krasti originalna djela. Možda će AI tvorci morati primoravati ljude da stvaraju kako bi se imao čime hraniti da bi AI mogao biti ekonomski isplativ i naplativ. Evo već zamišljam filmske scenarije u kojima AI kompanije drže književne, muzičke i vizualne genije kao robove ili prekarne radnike koji svojim idejama i djelima hrane AI modele.

No, originalnosti i umjetnički genij su mogući jedino ako postoji sloboda, vrisak osjećaja, neumorni um koji nije primoran ni na što, nego stvara zato što želi, spontano. Doduše, nekad velika djela nastaju i pod opresijom.

Reference:

  1. Shumailov, I., Shumaylov, Z., Zhao, Y. et al. AI models collapse when trained on recursively generated data. Nature 631, 755–759 (2024). https://doi.org/10.1038/s41586-024-07566-y

  2. AI models fed AI-generated data quickly spew nonsense, Nature, pristupljeno 26. 7. 2024.