Umjetna inteligencija (AI) dolazi s obećanjima da će koderima pomoći da brže kodiraju, da vozači voze sigurnije i da će svakodnevni zadaci manje oduzimati vrijeme. No, u komentaru – recenziranoj opservacionoj studiji objavljenoj 10. oktobra u časopisu Joule pod naslovom “The growing energy footprint of artificial intelligence“, osnivač Digiconomista pokazuje da bi alat, kada bi se široko usvojio, mogao imati veliki energetski otisak, koji bi u budućnosti mogao premašiti zahtjeve za energijom u nekim zemljama. Istovremeno, to znači i da, zbog potrošnje struje, AI može imati i veliki ugljični otisak.

“Gledajući rastuću potražnju za AI uslugama, vrlo je vjerojatno da će se potrošnja energije povezana s AI značajno povećati u nadolazećim godinama,” kaže autor Alex de Vries (@DigiEconomist), doktorant, kandidat na Vrije Universitet Amsterdam.

Od kraja 2022. generativni AI, koji može proizvesti tekst, slike ili druge podatke, doživio je brzi rast, uključujući OpenAI-jev ChatGPT. Uvježbavanje ovih AI alata zahtijeva unošenje velike količine podataka u modele, proces koji je energetski intenzivan. Hugging Face, tvrtka koja se bavi razvojem umjetne inteligencije sa sjedištem u New Yorku, izvijestila je da je njihov višejezični AI alat za generiranje teksta potrošio oko 433 megavat-sata (MWH) tokom obuke, dovoljno za napajanje 40 prosječnih američkih domova godinu dana.

Ali, energetski otisak umjetne inteligencije ne završava obukom. De Vriesova analiza pokazuje da kada se alat pusti u rad – generisanje podataka na temelju upita – svaki put kada alat generiše tekst ili sliku, također koristi značajnu količinu računalne snage, a time i energije. Na primjer, rad ChatGPT-a mogao bi stajati 564 MWh električne energije dnevno.

Dok kompanije širom svijeta rade na poboljšanju efikasnosti AI hardvera i softvera kako bi alat bio manje energetski intenzivan, de Vries kaže da povećanje učinkovitosti strojeva često povećava potražnju. Na kraju će tehnološki napredak dovesti do neto povećanja korištenja resursa, što je fenomen poznat kao Jevonsov paradoks. U suštini, čak i ako se smanji porošnja struje za AI, potražnja za jeftinijom i efikasnom AI poništava efekat uštede.

“Rezultat toga da ove alate učinimo efikasnijima i dostupnijima može biti da samo dopuštamo više njihovih aplikacija i više ljudi da ih koriste”, kaže de Vries.

Google je, na primjer, uključio generativnu umjetnu inteligenciju u uslugu svoje e-pošte i testira svoje tražilice s umjetnom inteligencijom. Tvrtka trenutno obrađuje do 9 milijardi pretraživanja dnevno. Na temelju podataka, de Vries procjenjuje da bi, ako svako Google pretraživanje koristi AI, trebalo oko 29,2 TWh energije godišnje, što je ekvivalentno godišnjoj potrošnji električne energije u Irskoj.

Malo je vjerovatno da će se ovaj ekstremni scenarij dogoditi u kratkom roku zbog visokih troškova povezanih s dodatnim AI poslužiteljima i uskim grlima u opskrbnom lancu AI poslužitelja, kaže de Vries. No predviđa se da će proizvodnja AI poslužitelja brzo rasti u bliskoj budućnosti. Do 2027. svjetska potrošnja električne energije povezana s umjetnom inteligencijom mogla bi se povećati za 85 do 134 TWh godišnje na temelju projekcije proizvodnje poslužitelja s umjetnom inteligencijom.

Iznos je usporediv s godišnjom potrošnjom električne energije u zemljama poput Nizozemske, Argentine i Švedske. Štoviše, poboljšanja u učinkovitosti umjetne inteligencije također bi mogla omogućiti programerima da prenamijene neke računalne procesorske čipove za upotrebu AI-ja, što bi moglo dodatno povećati potrošnju električne energije povezane s umjetnom inteligencijom.

“Potencijalni rast naglašava da moramo biti vrlo svjesni za što koristimo AI. Energetski je intenzivan, pa ga ne želimo stavljati u razne stvari gdje nam zapravo nije potreban,” kaže de Vries.

Reference:

Joule, de Vries, A. “The growing energy footprint of artificial intelligence.” Joule. 2023. https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3.DOI: http://dx.doi.org/10.1016/j.joule.2023.09.004