L'AI diventa infrastruttura: tutti gli annunci chiave del GTC 2026 NVIDIA

NVIDIA ha ridefinito il concetto di infrastruttura AI al GTC 2026: fabbriche di AI, inferenza come motore economico, framework agentic e la piattaforma Vera Ru…

Contenuto

L'AI diventa infrastruttura: tutti gli annunci chiave del GTC 2026 NVIDIA

Scopri anche

L'AI diventa infrastruttura: tutti gli annunci chiave del GTC 2026 NVIDIA

L'AI diventa infrastruttura: tutti gli annunci chiave del GTC 2026 NVIDIA

In questo articolo:

La conferenza GTC 2026 di NVIDIA, svoltasi a San Jose dal 16 al 19 marzo, ha segnato una transizione nel modo di concepire l'intelligenza artificiale: da tecnologia emergente a infrastruttura di base. Jensen Huang, CEO di NVIDIA, ha delineato un percorso in cui i data center diventano "fabbriche di AI" il cui output non sono più servizi IT generici, ma token prodotti su scala industriale. Questa trasformazione implica nuovi parametri economici - token per watt, velocità dei token, costo per token - che sostituiscono le tradizionali metriche di capacity dei data center.

La piattaforma Vera Rubin e l'architettura rack-scale

⬆ Torna su

NVIDIA ha presentato Vera Rubin come successore dell'architettura Blackwell, una piattaforma di calcolo full-stack che combina la nuova architettura GPU Rubin con la CPU Vera in configurazioni rack strettamente integrate. La piattaforma è già in produzione ed è progettata sin dalle fondamenta per carichi di lavoro di inferenza e agentic, non più solo per throughput di training. NVIDIA ha introdotto molteplici configurazioni rack sotto l'ombrello Vera Rubin: NVL72 come sistema flagship con 72 GPU Rubin e 36 CPU Vera in un enclosure completamente liquid-cooled, fanless e senza cavi che supera i 200 kW per rack; il rack CPX che aggiunge acceleratori Rubin CPX ottimizzati per performance di inferenza; il rack Vera solo-CPU per inferenza e preprocessing dei dati senza accelerazione GPU; e il rack LPX che introduce gli LPU di Groq all'interno dei design di riferimento NVIDIA.

La CPU Vera rappresenta l'ingresso formale di NVIDIA nel mercato dei processori server general-purpose. Questa mossa strategica indica l'intenzione di NVIDIA di possedere l'intero stack computazionale - GPU, CPU e networking - all'interno dei data center AI. L'orchestrazione dei carichi di lavoro, la bandwidth di memoria e la coerenza CPU-GPU sono diventati i nuovi colli di bottiglia nelle pipeline agentic, e un sistema CPU-GPU co-progettato potrebbe ridurre significativamente tali attriti.

Huang ha anche anticipato Feynman, l'architettura di nuova generazione oltre Vera Rubin. I dettagli erano limitati, ma l'annuncio segnala che il roadmap hardware di NVIDIA si estende oltre la generazione corrente e che l'azienda sta già comunicando la sua traiettoria a lungo termine al mercato.

Dal training all'inferenza: il nuovo motore economico

⬆ Torna su

Uno dei temi centrali del keynote è stato l'enfasi sull'inferenza. Huang ha descritto l'inferenza come fase difficile e critica perché genera ricavi. La precedente fase dell'AI si è concentrata su training e sviluppo di modelli; la prossima fase dipende dalla capacità di servire carichi di lavoro di inferenza complessi in modo efficiente, ripetuto e su larga scala. NVIDIA ha integrato gli LPU di Groq - Language Processing Unit, chip specializzati per inferenza AI ultra-veloce - nelle sue piattaforme rack-scale. Si tratta di una mossa inusuale: NVIDIA incorpora un acceleratore specializzato da un'azienda fino a poco tempo fa posizionata come concorrente.

Huang ha sottolineato che il costo per token di NVIDIA è il migliore al mondo grazie al codesign estremo, definendo l'azienda "il re dell'inferenza". La proiezione di domanda di compute AI di NVIDIA è salita da 500 miliardi di dollari fino al 2026 a un trilione di dollari fino al 2027, citando il punto di flesso dell'inferenza come driver principale. AWS ha annunciato piani per distribuire oltre un milione di GPU NVIDIA a partire da quest'anno, e Google Cloud ha annunciato una fondazione infrastructure-as-a-service co-engineered e ottimizzata per AI.

OpenClaw e il framework per AI agentica

⬆ Torna su

NVIDIA ha evidenziato OpenClaw, un framework open-source che consente agli agenti AI di agire autonomamente attraverso strumenti, API e servizi, insieme a NemoClaw, il suo design di riferimento enterprise-secure per il deployment aziendale. Huang ha esplicitamente paragonato OpenClaw a Linux. Con un singolo comando, gli sviluppatori possono scaricare OpenClaw, configurare un agente AI e iniziare a estenderlo con strumenti e contesto. NVIDIA ha annunciato il supporto per OpenClaw su tutta la sua piattaforma, rendendo più facile per gli sviluppatori costruire, distribuire e accelerare agenti AI su infrastruttura NVIDIA.

Ogni azienda al mondo oggi deve avere una strategia OpenClaw, ha dichiarato Huang. NVIDIA sta anche espandendo il suo ecosistema di modelli aperti con la nuova Nemotron Coalition, riunendo partner attorno a sei famiglie di modelli frontier: NVIDIA Nemotron (linguaggio e ragionamento), NVIDIA Cosmos (mondo e visione), NVIDIA Isaac GR00T (robotica general-purpose), NVIDIA Alpaymayo (guida autonoma), NVIDIA BioNeMo (biologia e chimica) e NVIDIA Earth-2 (meteo e clima).

Le AI factories e il ridisegno dell'infrastruttura

⬆ Torna su

Huang ha ripetutamente descritto l'infrastruttura AI come una fabbrica il cui prodotto sono token. Questa cornice cambia il modo in cui operatori, investitori e acquirenti enterprise valutano la capacity. I data center non sono più solo luoghi per ospitare IT; sono sistemi di produzione con output misurabile, efficienza e implicazioni dirette sui ricavi. Una volta che questa impostazione prende piede, potenza, throughput, velocità dei token e utilizzo del sistema contano più dei semplici conteggi dei megawatt.

La piattaforma DSX di NVIDIA ha preso centro scena - una piattaforma full-stack per progettare, costruire e operare fabbriche di AI che ora conta oltre 200 partner nel suo ecosistema. Diversi vendor infrastrutturali hanno presentato soluzioni co-progettate. Tra i componenti DSX, l'Omniverse DSX Blueprint - ora generalmente disponibile - permette di modellare layout di data center, topologie di potenza e comportamento termico usando modelli 3D simulation-ready.

DSX Flex, il software layer di NVIDIA per connettere le fabbriche AI ai servizi di grid e orchestrare gli aggiustamenti dinamici di potenza, rappresenta una risposta concreta alla sfida energetica. Il divario tra la potenza necessaria per alimentare le spedizioni di chip previste e il ritmo degli aggiornamenti della grid è troppo ampio per essere ignorato. L'unico percorso a breve termine per più potenza è attingere alla capacità di grid esistente quando non viene utilizzata.

Il 20° anniversario di CUDA e la programmazione Tiles

⬆ Torna su

Il GTC 2026 ha segnato il 20° anniversario di CUDA, e NVIDIA ha usato l'occasione per annunciare "Tiles", una nuova astrazione di programmazione progettata per aiutare gli sviluppatori a lavorare più efficientemente con i tensor core. Con migliaia di strumenti, compilatori, framework e librerie ora integrati nell'ecosistema CUDA, e centinaia di migliaia di progetti pubblici che dipendono da esso, l'anniversario dimostra la profondità del vantaggio competitivo che NVIDIA ha costruito. L'aggiunta di Tiles è significativa: la programmazione dei tensor core ha storicamente richiesto competenze di basso livello, e astrazioni di livello più alto abbassano la barriera per estrarre la massima performance hardware.

AI fisica e robotica

⬆ Torna su

Un altro tema emerso chiaramente al GTC 2026 è stata la convinzione di NVIDIA attorno all'AI fisica - robotica, simulazione e intelligenza embodied. Questi carichi di lavoro sono fondamentalmente diversi: richiedono latenza deterministica, integrazione sensorimotoria e interazione sicura con ambienti fisici. NVIDIA ha presentato Isaac GR00T N, un modello vision-language-action open progettato come fondazione per l'intelligenza robotica, insieme a uno stack completo di sviluppo robotico che include framework di simulazione e hardware di calcolo edge.

I dati sintetici rappresentano attualmente solo il 20% dei dati di training AI per scenari di robotica edge, ma Gartner progetta che questa cifra raggiungerà il 90% entro il 2030. NVIDIA sta posizionando esplicitamente i suoi strumenti di simulazione e dati sintetici per catturare questo cambiamento. Huang ha anche evidenziato una partnership con Uber per distribuire veicoli robotaxi nella sua rete di ride-hailing, con nuovi partner automobilistici tra cui BYD, Hyundai, Nissan e Geely.

Le sfide infrastrutturali: eterogeneità, potenza e raffreddamento

⬆ Torna su

L'industria si sta muovendo dall'aggiungere capacity nell'ordine di decine di gigawatt all'anno a potenzialmente oltre 100 GW in un decennio o meno. A quella scala, senza strumenti assistiti da AI in progettazione, costruzione e commissioning, è difficile vedere come i progetti possano andare online al ritmo richiesto. Per i vendor di infrastruttura fisica dei data center, le implicazioni sono immediate: cluster eterogenei significano gestire densità rack miste, carichi termici disomogenei e requisiti di raffreddamento liquido differenti che coesistono nella stessa fila.

La distribuzione di potenza a 800 VDC ha ricevuto poca attenzione nei canali ufficiali di NVIDIA, ma era l'argomento del momento sul show floor. Vendor come Delta Electronics, Texas Instruments e STMicroelectronics hanno focalizzato i loro annunci chiave del 16 marzo sugli sviluppi 800 VDC. NVIDIA rimane impegnata sulle temperature inlet dell'acqua a 45°C, ma non ci sono segni di una corsa precipitosa verso quel target.

La crescente specificità delle architetture di riferimento di NVIDIA - dalle dimensioni dei rack ai requisiti di raffreddamento, dalle topologie di potenza ai modelli digitali simulation-ready - solleva una domanda scomoda per i vendor infrastrutturali: man mano che NVIDIA definisce sempre più il design, quale spazio rimane per la differenziazione? Standardizzando interfacce, form factor e specifiche di performance attraverso lo stack infrastrutturale, MGX rende più facile per gli operatori mixare e matchare componenti da fornitori multipli, ma comprime anche lo spazio in cui i vendor possono competere su altro oltre prezzo e disponibilità.

Partnership e proiezioni di mercato

⬆ Torna su

Huang ha dichiarato di vedere almeno un trilione di dollari di ricavi dal 2025 attraverso il 2027. La domanda di compute per GPU NVIDIA è "alle stelle", con un aumento di un milione di volte negli ultimi anni. Circa 450 aziende hanno sponsorizzato la conferenza, rappresentando ogni layer dello stack AI. Tra le partnership estese: AWS con piani per oltre un milione di GPU NVIDIA, Google Cloud con infrastruttura AI-ottimizzata co-engineered, e partnership espanse o nuove con Microsoft, Oracle, Hewlett Packard Enterprise, Dell Technologies, T-Mobile, Adobe e Disney.

Nel settore healthcare e life sciences, NVIDIA ha annunciato collaborazioni significative. Roche ha annunciato il deployment di oltre 3.500 GPU Blackwell attraverso ambienti cloud ibridi e on-premises negli Stati Uniti e Europa. Eli Lilly e NVIDIA hanno impegnato congiuntamente un miliardo di dollari in cinque anni per finanziare talenti, infrastruttura e compute. Una nuova collaborazione tra NVIDIA, EMBL, Google DeepMind e Seoul National University ha contribuito 1,7 milioni di nuovi complessi proteici predetti all'AlphaFold Protein Structure Database, rimuovendo una barriera computazionale massiccia per i ricercatori.

Le considerazioni degli analisti

⬆ Torna su

Nessuno di questo è garantito scalare senza intoppi. La readiness operativa enterprise varia ampiamente. Potenza, raffreddamento e facilities stanno emergendo come vincoli. La geopolitica conta. La competizione da silicon personalizzato e sovereign si intensificherà. E NVIDIA deve ancora provare che le fabbriche di AI possano essere operate in modo prevedibile - non solo architettate elegantemente. La strategia è solida. La barra di esecuzione - un potenziale ordine di un trilione di dollari entro il 2027 - è estremamente alta.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'integrazione tra CPU Vera e GPU Rubin segnala un'estensione del perimetro competitivo di NVIDIA verso lo stack completo dei data center, con possibili implicazioni per vendor di processori server tradizionali.

  • Scenario 1: L'adozione delle metriche token-centriche potrebbe ridefinire i modelli economici dei data center, spostando gli investimenti da capacity generica a throughput specifico.
  • Scenario 2: OpenClaw potrebbe emergere come standard de facto per l'orchestrazione agentic, creando dipendenze ecosystem attorno all'infrastruttura NVIDIA.
  • Scenario 3: L'integrazione degli LPU Groq nei rack LPX potrebbe anticipare partnership hardware più ampie, dove specializzazione e generalismo coesistono nella stessa infrastruttura.

Cosa monitorare

⬆ Torna su
  • Tempi di transizione da Blackwell a Vera Rubin nei principali cloud provider.
  • Tassi di adozione enterprise di OpenClaw rispetto a framework concorrenti.
  • Evoluzione della domanda energetica delle AI factories e ruolo di DSX Flex nella gestione della grid.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • nvidia
  • inference
  • datacenter

Link utili

Apri l'articolo su DeafNews