Nakon desetljeća rudarenja raznih digitalnih valuta dolazi postepeno razdoblje velike implementacije raznih AI modela umjetne inteligencije. Svi ovi računalni sustavi traže enormne količine električne energije za svoj rad. Tko osigura dovoljne količine električne energije za umjetnu inteligenciju ostvariti će dominaciju u novom računalnom tehnološkom polju AI. Počela je tehnološka utrka između svjetskih velesila u izgradnji velikog broja elektrana koje će imati jedinu svrhu da generiraju nove količine električne energije za potrebe novih računalnih AI servera. Računala, serveri koji održavaju računalnu inteligenciju AI i polja opreme servera za rudarenje digitalnih valuta troše više energije od neke manje zemlje, a potrebe za energijom će sve više i više rasti. SAD i Kina su trenutno u utrci da ostvare dominaciju u novom tehnološkom području umjetne inteligencije.
Kina planira izgradnju desetke novih klasičnih vodenih nuklearnih reaktora pomoću kojih će generirati velike količine električne energije. Za to vrijeme SAD je zaokupiran tehnologijama hvatanja CO2, izgradnjom kopnenih i pučinskih vjetroelektrana te baterijskih sustava za akumulaciju električne energije. U SAD-u grupacija tvrtki koje su u vlasništvu Billa Gatesa planira izgradnju novih modela nuklearnih reaktora koji su hlađeni pomoću otopljenih soli. Ovi nuklearni reaktori su potpuno sigurni jer u slučaju havarije otopljene soli nastavljaju hladiti nuklearni reaktor i kod prestanka dotoka električne energije za pokretanje rashladnih pumpi.
Koliko električne energije troši AI? Nije lako izračunati vate i džule koji trebaju za AI, ali nismo potpuno u neznanju o stvarnoj količini energije za AI. Opće je poznato da strojno učenje troši puno energije. Svi ti modeli umjetne inteligencije koji pokreću sažetke e-pošte, razne chatbotove i videozapise Homera Simpsona koji pjeva nu-metal generiraju pozamašan račun za poslužitelja mjeren u megavatima po satu. No čini se da nitko, čak ni tvrtke koje stoje iza tehnologije, ne mogu točno reći kolika je cijena.
Procjene postoje, ali stručnjaci kažu da su te brojke djelomične i neprecizne, te daju samo kratak uvid u ukupnu potrošnju energije umjetne inteligencije. To je zato što su modeli strojnog učenja nevjerojatno promjenjivi, mogu se konfigurirati na načine koji dramatično mijenjaju njihovu potrošnju energije. Štoviše, organizacije koje su najbolje pozicionirane za izradu računa - tvrtke kao što su Meta, Microsoft i OpenAI - jednostavno ne dijele relevantne informacije. (Judy Priest, tehnička direktorica za operacije u oblaku i inovacije u Microsoftu rekla je u e-poruci da tvrtka trenutno “ulaže u razvoj metodologija za kvantificiranje potrošnje energije i utjecaja na emisije CO2 umjetne inteligencije, dok radi na načinima kako velike sustave učiniti učinkovitijima, u vidu obuke i primjene.” OpenAI i Meta nisu odgovorili na zahtjeve za komentar.)
Jedan važan čimbenik koji možemo identificirati je razlika između obuke modela po prvi put i njegove implementacije korisnicima. Osobito je obuka iznimno energetski intenzivna, troši puno više električne energije od tradicionalnih aktivnosti podatkovnog centra. Procjenjuje se da će treniranje velikog jezičnog modela poput GPT-3, na primjer, koristiti nešto manje od 1300 megavat sati (MWh) električne energije; otprilike toliko energije koliko godišnje potroši 130 domova u SAD-u. Da to stavimo u kontekst, gledanje jednog sata Netflixa zahtijeva oko 0,8 kWh (0,0008 MWh) električne energije. To znači da biste morali gledati 1.625.000 sati da biste potrošili istu količinu energije koja je potrebna za treniranje GPT-3.
Ali teško je reći kako se ovakva brojka odnosi na trenutne najsuvremenije sustave. Potrošnja energije mogla bi biti veća, jer AI modeli već godinama stalno rastu u veličini, a veći modeli zahtijevaju više energije. S druge strane, tvrtke možda koriste neke od provjerenih metoda kako bi te sustave učinile energetski učinkovitijima što bi ublažilo trend rasta troškova energije.
Izazov izrade ažurnih procjena, kaže Sasha Luccioni, istraživač u francusko-američkoj tvrtki za umjetnu inteligenciju Hugging Face, leži u tome što su tvrtke postale tajnovitije kako je umjetna inteligencija postala profitabilna. Vratite se samo nekoliko godina unatrag i tvrtke poput OpenAI-ja objavile bi pojedinosti o svojim režimima obuke - koji hardver i koliko dugo. Ali iste informacije jednostavno ne postoje za najnovije modele, kao što su ChatGPT i GPT-4, kaže Luccioni.
“S ChatGPT-om ne znamo koliko je velik, ne znamo koliko parametara ima temeljni model, ne znamo gdje se pokreće... To mogu biti skriveni faktori umjetne inteligencije jer jednostavno ne znamo što je u serverima.”
Luccioni, koji je autor nekoliko radova koji ispituju korištenje energije umjetne inteligencije, sugerira da je ova tajnovitost djelomično posljedica konkurencije među tvrtkama, ali je također i pokušaj odvraćanja kritika. Statistika potrošnje energije za umjetnu inteligenciju - osobito njezini najneozbiljniji slučajevi upotrebe - prirodno poziva na usporedbe s rastrošnošću kriptovalute. “Raste svijest da sve ovo nije besplatno”.
Obuka modela samo je dio slike. Nakon što je sustav stvoren, on se uvodi potrošačima koji ga koriste za generiranje izlaza, proces poznat kao "zaključivanje". Prošlog prosinca, Luccioni i kolege sa Hugging Face i Sveučilišta Carnegie Mellon objavili su rad (trenutačno čeka recenziju) koji je sadržavao prve procjene upotrebe energije zaključivanja različitih modela umjetne inteligencije.
Luccioni i njezini kolege proveli su testove na 88 različitih modela koji su obuhvaćali niz slučajeva upotrebe, od odgovaranja na pitanja do identificiranja objekata i generiranja slika. U svakom slučaju, izvršili su zadatak 1000 puta i procijenili trošak energije. Većina zadataka koje su testirali koristi malu količinu energije, poput 0,002 kWh za klasificiranje pisanih uzoraka i 0,047 kWh za generiranje teksta. Ako za usporedbu koristimo naš sat Netflix streaminga, to je ekvivalentno utrošenoj energiji gledajući devet sekundi odnosno 3,5 minute. (Zapamtite: to je trošak izvršavanja svakog zadatka 1000 puta.) Brojke su bile znatno veće za modele za generiranje slika, koji su u prosjeku koristili 2,907 kWh po 1000 zaključaka. Kao što piše u novinama, prosječni pametni telefon koristi 0,012 kWh za punjenje — tako da generiranje jedne slike pomoću umjetne inteligencije može potrošiti gotovo isto toliko energije kao i punjenje vašeg pametnog telefona.
Naglasak je, međutim, na "mogu", budući da se ove brojke ne moraju nužno generalizirati u svim slučajevima upotrebe. Luccioni i njezini kolege testirali su deset različitih sustava, od malih modela koji proizvode malene slike od 64 x 64 piksela do većih koji generiraju 4K slike, a to je rezultiralo velikim rasponom vrijednosti potrošnje energije. Istraživači su također standardizirali korišteni hardver kako bi bolje usporedili različite modele umjetne inteligencije. To ne odražava nužno implementaciju u stvarnom svijetu, gdje su softver i hardver često optimizirani za energetsku učinkovitost.
"Definitivno ovo nije reprezentativno za svačiju upotrebu, ali sada barem imamo neke brojke", kaže Luccioni. “Htio sam staviti zastavu u zemlju s natpisom 'Počnimo odavde'.”
Studija daje korisne relativne podatke, ali ne i apsolutne brojke. Pokazuje, na primjer, da AI modeli zahtijevaju više snage za generiranje izlaza nego kada klasificiraju ulaz. Također pokazuje da je sve što uključuje slike energetski intenzivnije od teksta. Luccioni kaže da iako kontingentna priroda ovih podataka može biti frustrirajuća, oni pričaju priču za sebe. "Generativna AI revolucija dolazi s planetarnom cijenom koja nam je potpuno nepoznata, a širenje je za mene posebno indikativno", kaže ona. "Stvar je u tome da jednostavno ne znamo."
Stoga je pokušaj izračunavanja troškova energije za proizvodnju jednog Balenciaga pape težak zbog gomile varijabli. No, ako želimo bolje razumjeti planetarnu cijenu, moramo uzeti druge pristupe. Što ako, umjesto da se fokusiramo na zaključivanje modela, smanjimo prikaz?
Ovo je pristup Alexa de Vriesa, doktorskog kandidata na VU Amsterdamu koji se potrudio izračunati potrošnju energije Bitcoina za svoj blog Digiconomist , i koji je koristio Nvidijine GPU-e — zlatni standard AI hardvera — za procjenu globalne energije sektora korištenje. Kao što de Vries objašnjava u komentaru objavljenom u Jouleu prošle godine, Nvidia čini otprilike 95 posto prodaje na AI tržištu. Tvrtka također objavljuje energetske specifikacije za svoj hardver i projekcije prodaje.
Kombinirajući ove podatke, de Vries izračunava da bi do 2027. sektor umjetne inteligencije mogao trošiti između 85 do 134 teravat sati svake godine. To je otprilike isto kao i godišnja potreba za energijom u domovini de Vriesa, Nizozemskoj.
"Govorite o tome da bi AI potrošnja električne energije mogla biti pola posto globalne potrošnje električne energije do 2027.", kaže de Vries za The Verge . "Mislim da je to prilično značajan broj."
Nedavno izvješće Međunarodne agencije za energiju ponudilo je slične procjene , sugerirajući da će se potrošnja električne energije u podatkovnim centrima značajno povećati u bliskoj budućnosti zahvaljujući zahtjevima umjetne inteligencije i kriptovalute. Agencija kaže da trenutna potrošnja energije podatkovnog centra iznosi oko 460 terawatt sati 2022. godine i da bi se 2026. mogla povećati na između 620 i 1050 TWh — što je ekvivalentno energetskim zahtjevima Švedske, odnosno Njemačke.
Ali de Vries kaže da je važno staviti ove brojke u kontekst. Napominje da je između 2010. i 2018. potrošnja energije podatkovnih centara bila prilično stabilna, čineći oko 1 do 2 posto globalne potrošnje. (A kad kažemo "podatkovni centri" ovdje mislimo na sve što čini "internet": od internih poslužitelja korporacija do svih aplikacija koje ne možete koristiti izvanmrežno na svom pametnom telefonu.) Potražnja je sigurno porasla u ovom razdoblju, kaže de Vries, ali hardver je postao učinkovitiji, čime je nadoknađeno povećanje.
Njegov strah je da bi stvari mogle biti drugačije za AI upravo zbog trenda da tvrtke jednostavno bacaju veće modele i više podataka na bilo koji zadatak. "To je stvarno smrtonosna dinamika za učinkovitost", kaže de Vries. "Zato što stvara prirodni poticaj za ljude da samo nastave dodavati više računalnih resursa, a čim modeli ili hardver postanu učinkovitiji, ljudi će napraviti te modele još većim nego prije."
Nemoguće je odgovoriti na pitanje hoće li povećanje učinkovitosti nadoknaditi rastuću potražnju i upotrebu. Poput Luccionija, de Vries žali zbog nedostatka dostupnih podataka, ali kaže da svijet ne može samo ignorirati situaciju. "Bilo je dosta hakiranja da se utvrdi u kojem smjeru ovo ide i to sigurno nije savršen broj", kaže on. "Ali to je dovoljan temelj da dam malo upozorenja."
Neke tvrtke uključene u umjetnu inteligenciju tvrde da bi sama tehnologija mogla pomoći s ovim problemima. Priest je, govoreći za Microsoft, rekao da će umjetna inteligencija "biti moćan alat za unaprjeđenje rješenja održivosti" i naglasio da Microsoft radi na postizanju "ciljeva održivosti da bude negativan ugljik, pozitivan na vodu i nula otpada do 2030. godine".
Ali ciljevi jedne tvrtke nikada ne mogu obuhvatiti punu potražnju u cijeloj industriji. Mogu biti potrebni i drugi pristupi.
Luccioni kaže da bi voljela da tvrtke uvedu energetske zvjezdice za modele s umjetnom inteligencijom, omogućujući potrošačima da usporede energetsku učinkovitost na isti način na koji bi to mogli za uređaje. Za de Vriesa, naš bi pristup trebao biti temeljniji: trebamo li uopće koristiti AI za određene zadatke? "Budući da s obzirom na sva ograničenja koja AI ima, to vjerojatno neće biti pravo rješenje na mnogim mjestima, a mi ćemo izgubiti puno vremena i resursa otkrivajući to na teži način", kaže on.
www.theverge.com