Ogni domanda a ChatGPT consuma energia (e non poca): quanto inquina l’IA?
Chiedere un consiglio all’intelligenza artificiale ha un costo in termini di emissioni dii CO₂. Un nuovo studio rivela le ricadute sull'ambiente di ogni nostra interazione con l’IA. E no, dire “grazie” non la rende più ecologica
Che stiate cercando di scrivere i vostri voti nuziali, risolvere un'equazione o trovare un nome intrigante per la vostra startup, l’intelligenza artificiale generativa è lì per aiutarvi. Puntuale, brillante, instancabile. Un copilota digitale che non dorme mai. Ma dietro la magia del prompt che genera saggezza in 0,8 secondi, si nasconde un dato che fa meno effetto wow: ogni risposta dell’IA consuma energia. E non poca. Un nuovo studio tedesco, pubblicato su Frontiers in Communication, ha cercato di rispondere alla domanda: quanto costa davvero, in termini ambientali, un prompt a ChatGPT o simili?
Ogni parola ha un prezzo (energetico)
Funziona così: quando si fa una domanda a un’IA, ogni parola viene trasformata in numeri — i famosi “token ID” — e inviata a giganteschi data center, a volte grandi come campi da calcio. Lì, file di server fanno girare miliardi di parametri, processano calcoli a raffica e tirano fuori la risposta.
Secondo l’Electric Power Research Institute, l’operazione consuma fino a 10 volte più energia di una semplice ricerca su Google.
Ora moltiplica per i miliardi di interazioni che avvengono ogni giorno con chatbot, assistenti virtuali e IA aziendali… e sì, stiamo parlando di una montagna di energia. E visto che molti data center sono alimentati da centrali a carbone o gas, ecco che entra in gioco la parte più scomoda: l’impatto ambientale.
Più la domanda è difficile,
più l’ambiente ne risente
Il team guidato da Maximilian Dauner, dottorando alla Hochschule München, ha sottoposto 14 modelli LLM (Large Language Model) a una batteria di test con domande semplici e complesse, sia a scelta multipla sia a risposta aperta. Le domande complesse producono fino a sei volte più emissioni di CO₂ rispetto a quelle con risposte concise. I modelli più sofisticati, quelli con capacità di ragionamento avanzato, arrivano a consumare fino a cinquanta volte più energia per dare la stessa risposta rispetto a modelli più “basic”. Insomma, chiedere all’IA di spiegare la filosofia di Kant non è solo un esercizio mentale ma ha anche risvolti negativi da un punto di vista ecologico.
Anche la gentilezza... inquina?
Uno degli aspetti più curiosi dello studio è che la cortesia costa energia. Sì, hai letto bene. Dire “per favore” o “grazie” in un prompt, o porre domande in modo gentile, spesso induce l’IA a generare risposte più lunghe, più articolate… e quindi più dispendiose. “L’IA consuma energia anche per essere educata,” ha spiegato Dauner. “Più è lunga la risposta, più energia serve per generarla”. E allora? Cosa possiamo fare noi comuni utenti? Dauner e altri esperti suggeriscono un uso più consapevole e strategico dell’intelligenza artificiale. Meglio essere diretti e chiedere risposte brevi, specificando se si desiderano solo una o due frasi. Se ti serve solo il risultato, chiarisci che non hai bisogno di una spiegazione dettagliata. Quando possibile, scegli modelli più leggeri: se devi risolvere un’operazione matematica base, forse non serve coinvolgere l’IA più potente del mondo. In alcuni casi, tornare alla cara vecchia Wikipedia o alla calcolatrice del telefono è la scelta più ecologica. Un altro consiglio arriva da Sasha Luccioni, esperta di sostenibilità e IA presso Hugging Face: usare modelli specializzati per compiti specifici è spesso più efficiente. Sono più leggeri, consumano meno e sono altrettanto bravi, se non migliori, nel fare esattamente quel che ti serve.
Usare un LLM enorme per una cosa semplice è un po’ come usare un martello pneumatico per rompere una noce.
L’impatto ambientale dell’IA? Ancora difficile da misurare
Uno dei problemi principali, spiegano i ricercatori, è che non tutte le aziende condividono i dati sui consumi delle loro IA. Informazioni come quanta energia usa ogni server, da dove proviene quell’energia o quali tecniche di ottimizzazione vengono applicate restano spesso riservate. E senza trasparenza, capire davvero l’impatto ambientale dell’IA è complicato. Anche perché il consumo può variare in base alla distanza dell’utente dal data center, al tipo di hardware utilizzato, al tipo di domanda posta. Non esiste una media affidabile. Bisogna valutare modello per modello, uso per uso.
IA ovunque: serve sempre?
Un altro punto sollevato dallo studio (e da molti esperti) è che siamo circondati da IA… ma nessuno ce l’ha chiesta. Perché dovremmo avere chatbot nei motori di ricerca, nei social, nelle app di messaggistica? È davvero necessario?
“Nessuno ha chiesto l’IA generativa ovunque,” dice Luccioni. “Ma eccoci qua, a pagarne il prezzo — anche in termini di emissioni.” La verità è che spesso gli utenti non hanno nemmeno la possibilità di scegliere. L’IA viene inserita ovunque per logiche di mercato, non certo per reale necessità. E questo non aiuta a fare scelte sostenibili. Non si tratta di demonizzare l’intelligenza artificiale. È uno strumento straordinario, utile, in molti casi indispensabile. Ma come ogni strumento potente, richiede consapevolezza. Non possiamo usarla come se fosse gratuita, perché non lo è. E allora la prossima volta che ti viene voglia di chiedere a ChatGPT “Raccontami una barzelletta con un polpo e una mucca in vacanza a Ischia”… magari domandati prima: ne vale davvero la pena?