L'efficienza energetica dei chip Nvidia: il nuovo imperativo per l'infrastruttura AI

Le nuove generazioni di processori grafici Nvidia promettono guadagni significativi in termini di prestazioni per watt, mentre il raffreddamento a liquido si a…

Contenuto

L'efficienza energetica dei chip Nvidia: il nuovo imperativo per l'infrastruttura AI

Scopri anche

L'efficienza energetica dei chip Nvidia: il nuovo imperativo per l'infrastruttura AI

L'efficienza energetica dei chip Nvidia: il nuovo imperativo per l'infrastruttura AI

In questo articolo:

L'intelligenza artificiale sta trasformando il panorama tecnologico globale, ma dietro questa rivoluzione si nasconde una sfida concreta: il consumo energetico. I chip prodotti da Nvidia determinano quanto lontano possa spingersi la potenza di calcolo disponibile e, secondo quanto dichiarato dall'amministratore delegato Jensen Huang, l'azienda prevede di generare "almeno" 1.000 miliardi di dollari di ricavi con i suoi nuovi processori fino al 2027.

La domanda di energia dei data center dedicati all'intelligenza artificiale cresce a ritmi sostenuti e l'efficienza non è più un elemento accessorio. "I chip vengono ridisegnati perché l'efficienza determina la velocità con cui l'intelligenza può scalare", ha scritto Huang in un post pubblicato sul blog aziendale. "L'energia diventa centrale perché fissa il limite massimo di quanta intelligenza può essere prodotta".

Le generazioni di chip Nvidia: da Hopper a Rubin

⬆ Torna su

La roadmap di Nvidia prevede tre generazioni principali di processori per intelligenza artificiale, ciascuna denominata in onore di figure scientifiche storiche e caratterizzata da miglioramenti sostanziali in termini di efficienza energetica.

Hopper, presentato nel 2022 e dedicato alla scienziata Grace Hopper, rappresenta il chip AI originario. Secondo le stime di SemiAnalysis, questa architettura costituisce ancora circa la metà della potenza di calcolo complessiva installata. I sistemi Hopper sono stati introdotti in data center prevalentemente raffreddati ad aria, sebbene compatibili anche con il raffreddamento a liquido.

Blackwell, il processore attualmente sul mercato, ha comportato una riprogettazione completa dell'ecosistema computazionale per massimizzare prestazioni ed efficienza. Secondo quanto riferito da Dion Harris, senior director per l'infrastruttura AI presso Nvidia, questa architettura genera fino a 50 volte più prestazioni per watt rispetto a Hopper. L'introduzione del raffreddamento a liquido abilita inoltre un utilizzo di acqua inferiore di 300 volte rispetto ai sistemi tradizionali ad aria, come dichiarato da Josh Parker, responsabile della sostenibilità aziendale.

Rubin, dedicato all'astronoma Vera Rubin, è previsto per il lancio entro l'anno corrente. Secondo le proiezioni, questa generazione dovrebbe garantire fino a 10 volte più prestazioni per watt rispetto a Blackwell. SemiAnalysis stima che Rubin rappresenterà la maggioranza della potenza di calcolo entro il prossimo anno, pur partendo da una quota minima nel 2026.

Il raffreddamento a liquido come soluzione strutturale

⬆ Torna su

La gestione termica rappresenta una componente essenziale del funzionamento dei data center AI. I chip devono operare al di sotto di circa 175 gradi Fahrenheit (circa 80 gradi Celsius), come spiegato da Vinod Narayanan, direttore del Western Cooling Efficiency Center dell'Università della California, Davis.

I data center raffreddati ad aria tradizionali utilizzano tra il 30 e il 35 percento dell'energia elettrica in ingresso esclusivamente per il raffreddamento, secondo Narayanan. Questa percentuale incide significativamente sui costi operativi e sull'impronta ambientale complessiva.

Il raffreddamento a liquido offre vantaggi tangibili nella trasferibilità del calore. I liquidi hanno una capacità superiore di catturare calore per unità di volume rispetto all'aria. Nvidia ha iniziato a muoversi in questa direzione già nel 2022, introducendo una versione raffreddata a liquido del chip A100 che, secondo l'azienda, consumava il 30 percento in meno di energia rispetto alla controparte ad aria.

"Se hai chip e server, sono inutili se non hai alimentazione e raffreddamento", ha affermato Rich Whitmore, responsabile della divisione liquid-cooling di Motivair, parte del gruppo Schneider Electric, che collabora con Nvidia.

Le dichiarazioni di Jensen Huang sul raffreddamento

⬆ Torna su

Durante il CES di Las Vegas, Huang ha fornito indicazioni specifiche sui requisiti termici dei nuovi chip. "Non sono necessari refrigeratori d'acqua per i data center", ha dichiarato. "Stiamo fondamentalmente raffreddando questo supercomputer con acqua calda. È incredibilmente efficiente".

Queste affermazioni hanno avuto un impatto sui mercati finanziari, determinando una flessione delle azioni delle aziende produttrici di sistemi HVAC. Timothy Wojs, analista senior presso Baird, ha tuttavia precisato che queste aziende manterranno volumi di business significativi nel breve termine, pur riconoscendo che l'infrastruttura dei data center sta cambiando.

Shaolei Ren, professore di ingegneria elettrica e informatica presso l'Università della California, Riverside, ha evidenziato i benefici ambientali: "L'impatto più immediato è la riduzione dell'energia, che indirettamente riduce le emissioni di carbonio". Secondo Ren, anche l'utilizzo di acqua potrebbe diminuire se i chip possono essere raffreddati a temperatura ambiente.

La strategia di sostenibilità di Nvidia

⬆ Torna su

Nvidia ha assunto Josh Parker nell'agosto 2023, meno di un anno dopo il rilascio pubblico di ChatGPT, per ristrutturare la propria strategia di sostenibilità. Parker, precedentemente assistente general counsel presso Western Digital, ha avviato due nuovi impegni di riduzione delle emissioni convalidati dalla Science Based Targets initiative.

"Non possiamo sbloccare il prossimo livello di prestazioni per l'AI se non forniamo miglioramenti davvero significativi nell'efficienza energetica", ha dichiarato Parker. "Diventa una necessità pratica per far avanzare l'AI. È anche esattamente ciò che i nostri clienti desiderano, perché riduce il loro costo totale di proprietà e rende più facile costruire data center in un ambiente con offerta energetica limitata".

L'obiettivo di Nvidia è ridurre l'intensità delle emissioni derivanti dall'uso dei propri prodotti del 75 percento per PetaFLOP, ovvero un quadrilione di operazioni in virgola mobile al secondo. Secondo i dati del rapporto di sostenibilità 2025, l'inventario di gas serra dell'azienda è raddoppiato dal 2023 al 2025, arrivando a 6,9 milioni di tonnellate metriche di anidride carbonica equivalente.

La quota maggiore dell'impronta di Nvidia deriva dalle attività di produzione: circa 6 milioni di tonnellate metriche di CO2 equivalente per beni e servizi acquistati nell'anno fiscale 2025. L'azienda opera secondo il modello "fabless", affidandosi a partner per la produzione dei chip.

Il paradosso di Jevons e la crescita della domanda

⬆ Torna su

Nonostante i miglioramenti nell'efficienza, il consumo energetico complessivo dell'AI continua a crescere. Questo fenomeno riflette il paradosso di Jevons, osservato nel 1865 dall'economista britannico William Stanley Jevons: quando i motori a vapore inglesi divennero più efficienti nel consumo di carbone, il consumo totale di carbone aumentò invece di diminuire.

"L'impronta assoluta dell'AI, in termini di consumo energetico, la vediamo crescere anno dopo anno, e prevediamo che questo trend continui", ha confermato Parker.

La densità di potenza delle GPU rappresenta un elemento differenziante rispetto alle CPU tradizionali. Secondo i dati citati da Robeco, le GPU di fascia alta hanno una densità di potenza circa quattro volte superiore rispetto alle CPU. La potenza necessaria per un data center iperscalabile medio con un milione di server aumenterebbe di 4-5 volte se i server CPU fossero sostituiti con GPU di tipo H100, il cui consumo si attesta intorno ai 700W per chip.

Il mercato e la competizione

⬆ Torna su

Sebbene Nvidia abbia storicamente dominato il mercato, la sua quota cumulativa è scesa dal 100 percento nel primo trimestre del 2022 al 65 percento nel quarto trimestre del 2025, secondo SemiAnalysis. Il ritmo con cui Nvidia rilascia nuove generazioni di chip "reimposta continuamente il benchmark competitivo", secondo Ivan Chiam di SemiAnalysis.

"Quella velocità di iterazione rende estremamente difficile per i concorrenti colmare il divario, poiché dovrebbero eseguire senza errori su più generazioni solo per raggiungere Nvidia", ha spiegato Chiam.

Una minaccia identificata dagli analisti riguarda il passaggio dal training all'inference come tipo predominante di AI. Paul Kedrosky, investitore di venture capital e fellow presso il MIT Initiative on the Digital Economy, ha dichiarato al Wall Street Journal che l'inference è "estremamente minacciosa per Jensen, perché è tutta guidata dall'efficienza".

Il confronto architetturale tra GPU

⬆ Torna su

Le differenze architetturali tra produttori di GPU influenzano significativamente le prestazioni termiche. Le GPU AMD tendono ad avere più unità di calcolo e stream processor integrati nel silicio rispetto alle controparti Nvidia, determinando un maggiore consumo energetico e generazione di calore durante il funzionamento.

Secondo le analisi tecniche, Nvidia ha storicamente privilegiato l'efficienza nell'ottimizzazione del consumo energetico, ottenendo temperature operative inferiori senza compromettere le prestazioni. La RTX 4090, ad esempio, ha un TDP di 450W, mentre la più recente RTX 5090 può arrivare a 575W. Tecniche come l'undervolting consentono di ridurre il consumo energetico di 40-50W, abbassando le temperature operative e migliorando la stabilità delle prestazioni.

L'algoritmo GPU Boost di Nvidia riduce le frequenze di boost quando la scheda si avvicina ai limiti termici. Riducendo la tensione e conseguentemente la temperatura, la GPU dispone di maggiore margine termico per mantenere le frequenze di boost massime per periodi più prolungati.

Le prospettive future

⬆ Torna su

L'evoluzione dei data center verso architetture ottimizzate per l'AI richiede una riprogettazione completa dell'infrastruttura. I rack per server GPU superano i 40kW di densità di potenza, rispetto ai 3-30kW dei rack CPU tradizionali. Questo richiede nuove configurazioni per cavi di alimentazione, rack di distribuzione elettrica e convertitori, secondo le analisi di McKinsey citate da Robeco.

"La velocità con cui stiamo facendo avanzare queste piattaforme è diversa da qualsiasi cosa abbiamo mai visto in qualsiasi altro settore", ha dichiarato Dion Harris di Nvidia.

Le aziende fornitrici di soluzioni per l'efficienza energetica ai data center sono destinate a una crescita sostenuta dei ricavi. Questa dinamica strutturale potrebbe inoltre determinare una certa indipendenza dai cicli economici, dato che gli investimenti in data center e relative soluzioni di efficienza energetica non dipendono necessariamente dalla congiuntura.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La traiettoria tecnologica di Nvidia riflette una tensione strutturale tra efficienza e domanda totale di energia. I miglioramenti dichiarati nelle prestazioni per watt potrebbero ridurre i costi operativi, ma il paradosso di Jevons suggerisce un aumento dei consumi complessivi.

  • Scenario 1: Il raffreddamento a liquido si afferma come standard di fatto per i nuovi data center AI, ridefinendo la catena di fornitura dell'infrastruttura termica.
  • Scenario 2: La discesa della quota di mercato dal 100% al 65% potrebbe accelerare se i competitor capitalizzeranno la transizione verso l'inference.
  • Scenario 3: Le emissioni assolute continuano a crescere nonostante gli obiettivi di intensità, intensificando le pressioni sulla sostenibilità.

Cosa monitorare

⬆ Torna su
  • La tempistica di adozione di Rubin e il confronto tra prestazioni dichiarate e misurate.
  • L'effettiva riduzione del consumo idrico nei data center con raffreddamento a liquido.
  • L'evoluzione della quota di mercato durante il passaggio training-to-inference.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • gpu
  • datacenter
  • ai-infrastructure

Link utili

Apri l'articolo su DeafNews