Consumi energetici dell'IA: i dati di OpenAI e Google su query, addestramento e impatto ambientale

Sam Altman rivela che una query di ChatGPT consuma 0,34 Wh. Google pubblica un report dettagliato su Gemini: 0,24 Wh per richiesta. Analisi comparata dei consu…

Contenuto

Consumi energetici dell'IA: i dati di OpenAI e Google su query, addestramento e impatto ambientale

Scopri anche

Consumi energetici dell'IA: i dati di OpenAI e Google su query, addestramento e impatto ambientale

Consumi energetici dell'IA: i dati di OpenAI e Google su query, addestramento e impatto ambientale

In questo articolo:

Il dibattito sull'impatto ambientale dell'intelligenza artificiale ha registrato sviluppi significativi con la pubblicazione di dati ufficiali sui consumi energetici. Sam Altman, CEO di OpenAI, ha comunicato che una query media di ChatGPT richiede circa 0,34 wattora di energia, un valore equivalente al consumo di un forno a microonde per poco più di un secondo. Google ha successivamente diffuso un report tecnico su Gemini, indicando un consumo di 0,24 wattora per richiesta, accompagnato da dettagli sull'utilizzo idrico.

Le dichiarazioni di Sam Altman sui consumi di ChatGPT

⬆ Torna su

Nel post intitolato "The Gentle Singularity" pubblicato sul suo blog personale, Altman ha fornito cifre specifiche sui consumi di ChatGPT. Secondo il CEO di OpenAI, una risposta media pesa circa 0,34 wattora, quantità paragonabile a quella consumata da una lampadina ad alta efficienza in un paio di minuti. Sul fronte idrico, Altman ha indicato un consumo di circa 0,000085 galloni per query, corrispondente a un quindicesimo di cucchiaino d'acqua, pari a 0,32 millilitri.

Altman ha contestato alcune stime circolate in rete, definendo "completamente false, totalmente folli, senza alcun collegamento con la realtà" le voci secondo cui ogni query di ChatGPT consumerebbe 17 galloni d'acqua, circa 64 litri. Il CEO ha riconosciuto che il consumo d'acqua rappresentava un problema reale quando i data center utilizzavano il raffreddamento evaporativo, ma ha affermato che quella tecnologia è stata superata.

Durante un evento organizzato da The Indian Express in India, Altman ha proposto un confronto tra il consumo energetico dell'IA e quello umano. Secondo la sua visione, l'intelligenza umana richiede anni di crescita individuale e miliardi di anni di evoluzione collettiva, perciò il confronto più appropriato non riguarderebbe il costo di addestramento di un modello, ma l'energia necessaria a ChatGPT per rispondere a una singola domanda rispetto a quella richiesta da un essere umano.

Il report di Google su Gemini: il più dettagliato finora pubblicato

⬆ Torna su

Google ha pubblicato un rapporto tecnico sul modello Gemini che rappresenta la divulgazione più dettagliata tra quelle finora note da una grande azienda tecnologica. Il report specifica che per una query media servono circa 0,24 wattora di elettricità, equivalente a un secondo di utilizzo del forno a microonde o a nove secondi di visione della TV. Anche l'acqua entra nel calcolo: ogni domanda fatta a Gemini equivale a cinque gocce.

Il documento di Google analizza la distribuzione dei consumi: i chip TPU sono responsabili del 58% del consumo, la CPU e la memoria dei server all'interno dei data center incidono per il 25%, le macchine di riserva pronte in caso di guasto per il 10%, mentre i sistemi di raffreddamento e conversione della potenza rappresentano l'8%.

Secondo Google, ogni richiesta a Gemini genererebbe 0,03 grammi di CO₂, un valore che, se confermato, sarebbe 44 volte inferiore rispetto all'anno precedente e cento volte più basso delle prime stime indipendenti. L'azienda evidenzia accordi di acquisto di oltre 22 gigawatt da fonti rinnovabili e nucleari avanzate.

Il costo energetico dell'addestramento dei modelli

⬆ Torna su

Il consumo energetico per l'addestramento di modelli di grandi dimensioni supera di ordini di grandezza quello dell'inferenza. Secondo una stima di OpenAI citata dal MIT Technology Review, l'addestramento di GPT-4 ha superato i 100 milioni di dollari e ha consumato 50 gigawattora, equivalenti al consumo energetico giornaliero di 18.500 famiglie italiane.

Per il modello Llama 2 70B, con settanta miliardi di parametri, si stima un consumo di 1,2 MWh per l'addestramento, equivalente al consumo annuale di circa 110 abitazioni europee, con un'impronta di circa 540 tonnellate di CO₂. L'acqua impiegata per l'addestramento dello stesso modello è stimata in 2,8 milioni di litri, poco più del volume di una piscina olimpionica.

I data center che ospitano le operazioni di addestramento e inferenza sono circa 10.000 in tutto il mondo. Un singolo data center può ospitare fino a 10.000 GPU H100 prodotte da Nvidia. I chip vengono raffreddati con acqua potabile, spesso trattata chimicamente per diminuirne la conduttività elettrica ed evitare danni alle componenti.

Le variabili che influenzano il consumo energetico

⬆ Torna su

I fattori che contribuiscono al consumo energetico di una query sono molteplici: il costo di addestramento, quello di inferenza, la collocazione geografica dei data center, l'impronta carbonica della regione, la dimensione del modello espressa in numero di parametri, la complessità della query e il tipo di output atteso.

Un'analisi del MIT Technology Review condotta sui modelli open-source della serie Llama di Meta ha mostrato differenze significative. Il modello Llama 3.1 8B, con 8 miliardi di parametri, consuma 57 Joule per singola risposta. Raddoppiando questo valore per includere i costi di addestramento e inferenza, si ottiene un consumo complessivo di circa 114 Joule per query, comparabile all'energia consumata da un laptop in circa 2 secondi. Per il modello Llama 3.1 405B, con 405 miliardi di parametri, il consumo sale a 6.706 Joule per query, equivalente al consumo di un laptop in circa 2 minuti.

La collocazione geografica influenza le emissioni associate. Secondo uno studio della Harvard's T.H. Chan School of Public Health, l'intensità carbonica dell'elettricità usata dai data center statunitensi è del 48% superiore alla media nazionale, poiché i data center sono collocati in stati dove la griglia energetica è mediamente più inquinante. La Virginia ospita 585 dei 3.822 data center presenti negli Stati Uniti, con un mix energetico composto per oltre la metà da gas naturale. In Europa, la Germania presenta un'intensità carbonica di 334 grammi di CO₂ per kilowattora, mentre la Francia, con il 67% di energia nucleare nel mix, registra soli 33 grammi di CO₂ per kilowattora.

Le stime precedenti e la questione della trasparenza

⬆ Torna su

Le stime sui consumi energetici dell'IA pubblicate in anni recenti presentavano valori significativamente diversi. Gli analisti parlavano di 3 Wh per query, dodici volte in più rispetto alle stime attuali. Altman ha citato la stima secondo cui una query di ChatGPT consumerebbe circa 10 volte l'energia di una ricerca Google, definendo questi calcoli non attendibili.

L'informazione sui consumi energetici è trattata dalla maggior parte delle aziende del settore come segreto aziendale. Le aziende proprietarie dei modelli closed-source non forniscono dati ufficiali, rendendo complesso fare stime sull'impatto ambientale. Non esistono obblighi legali per le aziende tech di dichiarare quanta energia e acqua consumano i loro data center.

Sasha Luccioni, lead climate researcher di Hugging Face, in un'intervista a Wired ha criticato le stime finora circolate, affermando che non hanno senso e sono state prese per oro colato senza verifica. Quando Altman smentisce la cifra di 17 galloni per query, potrebbe avere ragione, ma chiede di fidarsi della sua parola in assenza di dati verificabili.

Consumi per la generazione di immagini e video

⬆ Torna su

Le operazioni più complesse richiedono quantità di energia superiori. Una query con Llama richiederebbe in media 1 Wh, la generazione di un'immagine tra 0,3 e 1,2 Wh, mentre la produzione di un breve video con Sora consumerebbe quasi 1 kWh ogni cinque secondi.

Secondo i dati di OpenAI, nel mese di marzo il modello ha ricevuto circa 78 milioni di richieste di creazione di immagini al giorno. Se per ognuna il consumo fosse di circa 4.000 Joule, l'energia necessaria per la sola generazione di immagini sarebbe stata di circa 87 megawattora, equivalente all'energia che serve a un laptop per restare operativo ininterrottamente per 38 anni.

Generare un'immagine di qualità media tramite un modello open-source come Stable Diffusion 3 Medium richiede 2.283 Joule, mentre un'immagine più complessa richiede 4.402 Joule. Contrariamente a quanto si potrebbe pensare, un modello di diffusione non necessita necessariamente di più energia di un modello testuale: a incidere maggiormente sono gli step richiesti per la realizzazione dell'immagine piuttosto che la complessità del prompt.

Le proiezioni future e gli investimenti in energia nucleare

⬆ Torna su

Secondo un'analisi del Lawrence Berkeley National Laboratory citata dal New York Times, i data center potrebbero arrivare a consumare tra i 166 e i 326 terawattora di energia entro il 2028. Il limite inferiore corrisponde circa al consumo annuale della Norvegia, quello superiore a quello della Turchia. Entro il 2026, il consumo energetico globale dei data center potrebbe raddoppiare, arrivando a eguagliare quello dell'intero Giappone.

Le grandi società proprietarie di LLM stanno investendo in infrastrutture energetiche. Microsoft ha firmato un contratto con la società proprietaria dell'impianto nucleare di Three Mile Island in Pennsylvania. Amazon sta finanziando un progetto nello stato di Washington per la realizzazione di reattori nucleari modulari. Google ha siglato un accordo con la compagnia nucleare Kairos Power per costruire impianti capaci di generare fino a 500 megawattora di energia. Altman ha personalmente investito nell'energia nucleare attraverso la società Helion.

La costruzione di questi impianti non tiene il passo con la richiesta di energia del settore dell'intelligenza artificiale. Altman ha indicato nella transizione verso nucleare, eolico e solare la via per gestire l'impatto complessivo dell'IA.

Ottimizzazione hardware e software

⬆ Torna su

L'evoluzione del costo energetico per token nel tempo mostra un calo significativo. Dal modello GPT-3 a modelli paragonabili moderni, il consumo è diminuito di un ordine di grandezza in poco più di due anni. L'ottimizzazione può essere ottenuta tramite l'architettura hardware, con data center specializzati definiti "AI factories", e tramite il software.

L'approccio MoE (Mixture of Experts) permette di addestrare una rete in modo che venga attivata solo in parte. Una rete da 56 miliardi di parametri con 8 esperti è capace di memorizzare le informazioni di tutti i parametri ma computazionalmente l'inferenza costa quanto interrogare un modello da 7 miliardi. DeepSeek ha applicato queste tecniche per ottimizzare il carico computazionale.

Tutti i principali operatori stanno introducendo meccanismi di caching che evitano di ricalcolare l'intero prompt. L'aumento dell'efficienza determina un costo di utilizzo minore, che a sua volta determina una domanda di utilizzo maggiore, fenomeno noto come paradosso di Jevons.

La questione dell'acqua come collo di bottiglia

⬆ Torna su

Se per l'energia si può ricorrere a fonti rinnovabili o nucleari, l'acqua dolce rappresenta una risorsa più critica. Il raffreddamento evaporativo, pur essendo il metodo più efficiente, comporta la dispersione nell'ambiente di circa l'80% dell'acqua utilizzata. Soluzioni alternative con circuiti chiusi sono meno efficaci e richiedono più energia per funzionare.

I principali operatori hanno promesso la carbon neutrality entro il 2030, ma la sfida idrica rimane aperta. Il cervello umano richiede circa venti Watt per funzionare, suggerendo che esistono margini di miglioramento nell'efficienza dei sistemi di intelligenza artificiale.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La pubblicazione di dati ufficiali da parte di OpenAI e Google segna un passo avanti nella trasparenza, ma solleva interrogativi sulla verificabilità delle cifre e sull'evoluzione dei consumi in un contesto di rapida espansione dell'uso.

  • Scenario 1: La divulgazione di metriche energetiche potrebbe diventare standard competitivo, spingendo altri attori a pubblicare dati analoghi per motivi di reputazione.
  • Scenario 2: Se l'adozione continua a crescere, il consumo aggregato potrebbe aumentare significativamente anche con singole query più efficienti.
  • Scenario 3: Gli investimenti in energia nucleare e rinnovabili potrebbero ridurre l'impronta carbonica, ma dipende dalla velocità con cui nuove capacità entreranno in funzione.

Cosa monitorare

⬆ Torna su
  • L'eventuale pubblicazione di report comparabili da parte di altri produttori di modelli linguistici.
  • L'evoluzione dei consumi legati alla generazione di video, significativamente superiori rispetto alle query testuali.
  • Lo sviluppo di norme che obblighino la rendicontazione dei consumi dei data center.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • openai
  • datacenter
  • gpu

Link utili

Apri l'articolo su DeafNews