Ali ste vedeli, da lahko že zgolj vljudno »prosim« in »hvala« ChatGPT-ju podjetje OpenAI stane milijone? Čeprav se zdi neverjetno, ima tudi prijaznost svoj ogljični in finančni odtis – še posebej, ko gre za umetno inteligenco.
Sam Altman, direktor podjetja OpenAI, se je na družbenem omrežju X hudomušno odzval na vprašanje uporabnika, koliko jih stane vljudnost uporabnikov ChatGPT-ja:
»Več deset milijonov dobro porabljenih dolarjev – nikoli ne veš.«
Čeprav številka ni natančna, je poanta jasna: vsako sporočilo, ki ga napišemo ChatGPT-ju – ne glede na to, kako preprosto ali nesmiselno je – sproži odziv umetne inteligence v realnem času. Ta odziv pa ni brezplačen. Poganja ga visoko zmogljiva računalniška infrastruktura, ki porablja velike količine električne energije in vode.
ChatGPT porabi bistveno več energije kot iskanje na Googlu
Po podatkih podjetja Goldman Sachs ena poizvedba v ChatGPT-4 porabi približno desetkrat več električne energije kot običajna poizvedba v Googlu. Umetna inteligenca je v veliki meri odvisna od delovanja podatkovnih centrov, ki danes predstavljajo že okoli 2 odstotka svetovne porabe električne energije.
Zanimiv je tudi izračun časopisa Washington Post: če bi vsak deseti ameriški zaposleni enkrat tedensko eno leto uporabljal ChatGPT-4 (kar pomeni 52 poizvedb na leto za 17 milijonov ljudi), bi bila potrebna količina elektrike primerljiva s porabo vseh gospodinjstev v Washingtonu v 20 dneh.
Poleg tega Rene Hass, izvršni direktor podjetja ARM Holdings, opozarja, da bi lahko UI do leta 2030 predstavljala kar četrtino celotne porabe električne energije v ZDA – trenutno znaša ta delež okoli 4 odstotke.
Uporaba umetne inteligence poleg elektrike vpliva tudi na porabo vode. Po študiji kalifornijske univerze v Riversidu se za generiranje 100 besed z modelom GPT-4 porabi toliko vode, kot jo vsebujejo tri steklenice. Celo za kratek odgovor, kot je »Razmislek. AI. Odgovorna družba«, gre v nič približno pol decilitra vode – za hlajenje strežnikov, ki omogočajo delovanje UI.