L’impronta nascosta dell’intelligenza artificiale: tra efficienza e voracità energetica
L’IA consuma davvero così tanta energia e acqua come temiamo? Un’inchiesta del Washington Post e diversi studi internazionali analizzano dati, stime e contraddizioni dietro il “mostro energetico” dell’intelligenza artificiale, tra efficienza crescente e rischi sistemici
Un mostro energivoro e assetato: così è stata descritta l’intelligenza artificiale negli ultimi mesi, specie dalla stampa più sensibile ai temi ambientali. Una semplice sessione di domande e risposte con un modello linguistico di grandi dimensioni (LLM) può richiedere più di mezzo litro d’acqua per raffreddare i server. Porre una domanda a ChatGPT, si legge, consumerebbe dieci volte l’elettricità di una ricerca su Google, mentre generare un’immagine equivale a ricaricare uno smartphone. Ma è davvero così? Prova a fare chiarezza un'inchiesta del Washington Post. La questione richiama alla mente un precedente: cinque anni fa, una frenesia mediatica seguì le stime di un think tank francese secondo cui guardare mezz’ora di Netflix equivaleva a guidare un’auto per quattro miglia. Quelle cifre si rivelarono però gonfiate: le emissioni reali erano tra le 25 e le 53 volte inferiori, come calcolò l’analista George Kamiya dell’International Energy Agency (IEA). Oggi, mentre l’IA si insinua in ogni aspetto della nostra vita digitale, la domanda ritorna: quanto costa davvero, in termini energetici e ambientali, l’era dell’intelligenza artificiale?
AI contro ricerca tradizionale: numeri e discrepanze
Non ci sono dubbi che un’interazione con un modello di IA consumi più energia rispetto a una ricerca convenzionale su Google. La costruzione stessa di un LLM richiede enormi quantità di energia, e processare ogni richiesta aggiunge un ulteriore carico.
Nel 2023, il ricercatore olandese Alex de Vries stimava che una query AI consumasse da 23 a 30 volte più energia di una ricerca classica: tra 7 e 9 wattora (Wh), l’equivalente di tenere accesa una lampadina LED per un’ora. L’International Energy Agency, un anno dopo, abbassò l’asticella a 2,9 Wh per query su ChatGPT.
Eppure le cifre sono crollate in tempi rapidissimi: Epoch AI ha stimato 0,3 Wh per risposta, mentre Google ha confermato che Gemini, il suo strumento AI, si attesta su 0,24 Wh. Un miglioramento di efficienza notevole, con Google che rivendica un calo di 44 volte delle emissioni in un anno. Tuttavia, la variabilità resta enorme: il tipo di richiesta (testo, immagine, video), la dimensione del modello e la fonte di energia incidono pesantemente, con oscillazioni fino a 50 volte.
Non sono gli individui che pongono domande agli LLM a costituire il problema. Le risposte testuali non consumano molta energia. Ma l’integrazione dell’IA in quasi tutto — dalle chiamate ai call center agli “algoritmi-boss” fino alla guerra — sta alimentando una domanda enorme. Nonostante i miglioramenti di efficienza, riversare questi guadagni in modelli sempre più grandi e affamati, alimentati da combustibili fossili, rischia di creare il mostro energetico che immaginiamo.
Un’impronta individuale minima, ma non trascurabile
Per l’utente medio, porre domande quotidiane a ChatGPT o a Perplexity non sposta granché in termini di emissioni personali. Secondo i dati raccolti dal Washington Post insieme alla società di decarbonizzazione Planet FWD, otto domande testuali al giorno equivalgono a meno dello 0,003% dell’impronta di carbonio annuale di un americano medio.
Il discorso cambia però con i contenuti multimediali: un video AI di cinque secondi richiede ben 944 Wh, come pedalare per 38 miglia su una e-bike.
Difficilmente si possono fare abbastanza domande a ChatGPT, Perplexity o altri servizi AI da incidere in modo significativo sulle emissioni personali. Secondo i nostri dati, porre otto semplici domande testuali al giorno, ogni giorno dell’anno, comporta meno di 0,1 once di inquinamento climatico, pari allo 0,003% dell’impronta annuale media di un americano.
Risposte più complesse consumeranno più energia, ma si tratta comunque di una cifra trascurabile. L’eccezione è il video generato dall’IA: un clip di cinque secondi richiede 944 Wh, l’equivalente di percorrere 38 miglia in e-bike.
Nel complesso, il peso maggiore delle emissioni legate alla nostra vita digitale — sia privata che lavorativa — deriva da tre fattori principali: la televisione, lo spazio di archiviazione dei dati e l’utilizzo di internet o dei video sul computer. Ma perché proprio la TV è così energivora? La risposta sta nelle abitudini: negli Stati Uniti si guardano in media 4,5 ore di televisione al giorno e i grandi schermi richiedono molta energia per offrire immagini e streaming ad alta qualità, continuando a consumare elettricità persino quando restano in modalità standby.
Questo porta a una considerazione chiave: le scelte che incidono davvero sulle emissioni non sono tanto quelle digitali, quanto ciò che mangiamo, i mezzi di trasporto che utilizziamo e il modo in cui riscaldiamo o raffreddiamo le nostre abitazioni. Nessuna attività online, ad esempio, ha un impatto paragonabile al pendolarismo. Per un cittadino americano medio che si sposta in auto, il semplice tragitto quotidiano casa-lavoro genera almeno otto volte più emissioni rispetto a tutte le attività digitali personali e professionali messe insieme — un ulteriore argomento contro il ritorno forzato in ufficio.
E l’acqua? I data center sono assetati. Ma lo sono anche i bovini. Per produrre un hamburger, ad esempio, servono 660 galloni d’acqua, pane compreso. ChatGPT, al confronto, è un astemio: consuma 0,000085 galloni d’acqua per risposta, ovvero un quindicesimo di cucchiaino, secondo l’azienda, in linea con le stime degli studiosi. Google stima che Gemini, il suo strumento AI, consumi ancora meno — circa cinque gocce per richiesta testuale.
E il consumo d’acqua? ChatGPT dichiara un uso pari a un quindicesimo di cucchiaino per risposta, mentre Gemini si ferma a cinque gocce. Numeri infinitesimali se paragonati ai 660 galloni necessari per produrre un hamburger. Per ridurre davvero il proprio impatto ambientale, dunque, contano di più le scelte alimentari, i mezzi di trasporto e il riscaldamento domestico.
Il nodo dei data center: il lato oscuro della crescita
Se per i singoli l’impronta è trascurabile, su scala globale il quadro cambia radicalmente. I data center, alimentati dall’espansione dell’IA, rappresentano oggi il 3% del consumo elettrico degli Stati Uniti, con proiezioni che parlano di un 8% entro il 2030 (Goldman Sachs).
Progetti mastodontici come lo “Stargate Project” di OpenAI, che prevede 20 nuovi data center per un investimento da 500 miliardi di dollari, includono centrali a gas da centinaia di megawatt, capaci di alimentare intere città. In Virginia, dove sorge il più grande cluster mondiale di data center, si assiste già a una corsa frenetica all’energia, spesso ancora fossile, con conseguenze su tariffe e qualità dell’aria.
Tra promesse e incognite
Le grandi aziende tech sottolineano progressi straordinari: oggi i chip per l’IA consumano meno dell’1% dell’energia necessaria nel 2008 per la stessa potenza di calcolo. Secondo uno studio del MIT Lincoln Laboratory, soluzioni come hardware più efficiente, modelli ottimizzati e sincronizzazione con le energie rinnovabili potrebbero ridurre del 20% la domanda globale dei data center, abbattendo in alcuni casi le emissioni fino all’80%.
Eppure la corsa verso l’IA “onnipresente” rischia di divorare qualsiasi beneficio. Il CEO di Microsoft, Satya Nadella, ha dichiarato che l’IA diventerà presto una commodity di cui non potremo più fare a meno. Sam Altman, CEO di OpenAI, parla di “intelligenza troppo economica per essere misurata”, evocando la promessa — mai realizzata — del nucleare degli anni ’50.
L’inchiesta del Washington Post e gli studi citati (Alex de Vries, International Energy Agency, Epoch AI, Planet FWD, MIT Lincoln Laboratory) rivelano un quadro duplice: da un lato, i timori di un’IA mostruosamente energivora sono in parte ridimensionati dai dati più aggiornati; dall’altro, il problema vero non è la singola query ma l’espansione sistemica di un ecosistema che divora elettricità e spinge verso nuove centrali, spesso fossili.
Il paragone con Netflix è istruttivo: allora come oggi, i numeri sensazionalistici hanno fatto notizia, salvo essere corretti. Ma ciò non significa che l’impatto non esista: semplicemente si sposta su scala collettiva, dove i comportamenti delle aziende e le scelte politiche contano più dei gesti individuali.
La vera sfida non è chiedersi se una domanda a ChatGPT inquina più di una ricerca su Google. È capire se l’umanità saprà integrare questa tecnologia senza accrescere la dipendenza dai combustibili fossili. L’IA può diventare un motore di efficienza, ma senza una strategia energetica chiara e sostenibile, rischia di replicare un copione già visto: grandi promesse di progresso seguite da altrettanto grandi delusioni ambientali.