NVIDIA GTC 2026: piattaforma Vera Rubin, AI agentica e fisica, proiezione da 1 trilione di dollari

Il keynote di Jensen Huang al GTC 2026 ha delineato il futuro dell'infrastruttura AI: nuova piattaforma Vera Rubin con 10x inferenza per watt, framework OpenCl…

Contenuto

NVIDIA GTC 2026: piattaforma Vera Rubin, AI agentica e fisica, proiezione da 1 trilione di dollari

Scopri anche

NVIDIA GTC 2026: piattaforma Vera Rubin, AI agentica e fisica, proiezione da 1 trilione di dollari

NVIDIA GTC 2026: la road map verso l'infrastruttura AI del futuro

In questo articolo:

L'edizione 2026 della GPU Technology Conference di NVIDIA, svoltasi a San Jose dal 16 al 19 marzo, ha segnato un punto di snodo nell'evoluzione dell'intelligenza artificiale. Jensen Huang, fondatore e CEO di NVIDIA, ha tenuto un keynote di quasi tre ore davanti a un'arena sold-out, con oltre 450 sponsor aziendali, 2.000 relatori e 1.000 sessioni tecniche. L'evento ha coinciso con il ventesimo anniversario di CUDA, la piattaforma che Huang ha descritto come il volano che guida il calcolo accelerato e supporta ogni fase del ciclo di vita dell'AI.

La piattaforma Vera Rubin: specifiche tecniche e road map

⬆ Torna su

Il cuore degli annunci hardware è la piattaforma Vera Rubin, ora in produzione. Il sistema integra sette tipi di chip in cinque configurazioni rack-scale che operano come un unico supercomputer AI: CPU Vera, GPU Rubin, switch NVLink 6, schede di rete ConnectX-9, DPU BlueField 4, NIC Spectrum-X con ottica co-packaged e LPU Groq 3. Le specifiche dichiarate includono 3,6 exaflops di calcolo e 260 terabyte al secondo di bandwidth NVLink all-to-all.

Secondo l'analisi indipendente di Semi Analysis, il sistema offre circa 50 volte più token per watt rispetto a Hopper H200. Huang ha riferito che l'analista Dylan Patel lo ha accusato di aver sottostimato le cifre. Il sistema è raffreddato a liquido al 100% con acqua calda a 45 gradi Celsius, eliminando i costi dell'infrastruttura di raffreddamento ad aria dal data center. Il tempo di installazione è sceso da due giorni a due ore.

NVIDIA ha acquisito il team e la tecnologia Groq alla fine del 2025. Il chip Groq 3 LPX è progettato per l'inferenza: deterministico, compilato staticamente, con massiccia SRAM on-chip. Eccelle nella fase di decode dell'inferenza, dove bandwidth e velocità di generazione token limitano il throughput. Combinato con la capacità di prefill di Vera Rubin attraverso NVIDIA Dynamo, un layer software che disaggregrega l'inferenza tra le due architetture, il risultato è 35 volte più throughput per megawatt rispetto a Blackwell da solo.

Per il 2028 è prevista la famiglia Feynman, con una nuova GPU, l'LPU LP40 sviluppato con il team Groq, la CPU Rosa, BlueField 5 e Kyber-CPO per scale-up con ottica co-packaged. NVIDIA sta inoltre sviluppando Vera Rubin Space-1 per data center orbitali, dove la gestione termica avviene tramite radiazione.

OpenClaw e NemoClaw: il sistema operativo per AI agentica

⬆ Torna su

L'annuncio che ha generato la reazione più forte riguarda OpenClaw, il framework agentico open-source sviluppato da Peter Steinberger. Huang lo ha descritto come il progetto open-source a crescita più rapida nella storia, superando i 30 anni di adozione di Linux in poche settimane. Le sue primitive corrispondono direttamente a un sistema operativo: gestione risorse, accesso a strumenti, file system, connettività LLM, scheduling e spawning di sotto-agenti.

Huang ha paragonato OpenClaw a Linux, HTTP e Kubernetes: ognuno ha definito le regole di un'era computazionale. La sua sintesi è che OpenClaw ha reso open-source il sistema operativo dei computer agentici. Ogni azienda ora necessita di una strategia OpenClaw per la stessa ragione per cui un tempo necessitava di una strategia Kubernetes.

Le capacità predefinite di OpenClaw presentano una sfida di compliance e sicurezza. Un agente autonomo che può accedere a informazioni sensibili, eseguire codice e comunicare esternamente rappresenta un rischio significativo all'interno di una rete aziendale. Huang ha dichiarato che un agente con capacità OpenClaw complete può accedere a record dei dipendenti, dati della supply chain e informazioni finanziarie, inviandoli all'esterno dell'organizzazione.

NemoClaw è la risposta di NVIDIA per rendere l'AI agentica pronta per l'enterprise, fornendo security enterprise-grade per OpenClaw. NVIDIA ha annunciato supporto per OpenClaw across la sua piattaforma, facilitando agli sviluppatori la costruzione, deployment e accelerazione di agenti AI su infrastruttura NVIDIA. All'evento build-a-claw del GTC Park, i partecipanti hanno potuto personalizzare e deployare assistenti AI proattivi e always-on.

AI fisica: robotica e veicoli autonomi

⬆ Torna su

Huang ha introdotto il concetto di AI fisica, ovvero sistemi AI integrati in macchine come robot o veicoli che navigano ambienti reali. NVIDIA ha rilasciato diversi nuovi modelli foundation per migliorare il funzionamento di robot e veicoli nel mondo reale: Cosmos 3 per generare mondi sintetici che aiutano l'AI fisica a navigare ambienti complessi; Isaac GR00T N1.7, modello VLA di reasoning per robot umanoidi definito commercialmente valido per deployment nel mondo reale; Alpamayo 1.5, modello VLA di reasoning per veicoli autonomi che fornisce navigazione migliorata.

Alpamayo 1.5 prende come input video di guida, storia ego-motion, guida di navigazione e prompt in linguaggio naturale, trasformandoli in traiettorie di guida che permettono agli sviluppatori di tracciare il comportamento del veicolo e creare guardrail di sicurezza attraverso prompt. NVIDIA ha descritto Alpamayo 1.5 come un upgrade significativo che aiuta l'autonomous driving imparando da eventi stradali imprevedibili, condizioni meteorologiche e attività pedonale.

Huang ha dichiarato che il momento ChatGPT delle auto a guida autonoma è arrivato. NVIDIA sta ampliando la partnership con Uber per lanciare una flotta di veicoli autonomi interamente alimentati dal software Drive AV in 28 città su quattro continenti entro il 2028, con Los Angeles e San Francisco che iniziano prima nel 2027. I nuovi partner automobilistici includono BYD, Hyundai, Nissan e Geely, che si aggiungono a GM, Mercedes e Toyota.

La partnership con T-Mobile e Nokia mira ad accelerare l'AI fisica usando infrastruttura AI-RAN in postazioni remote. Questo potrebbe aiutare la raccolta dati real-world per l'AI fisica attraversando zone non connesse, isolate o sovraffollate usando connettività 5G. Huang ha dichiarato che trasformando la rete 5G in un computer AI distribuito con T-Mobile e Nokia, NVIDIA sta creando un blueprint scalabile per l'infrastruttura edge AI del mondo.

Il robot Olaf e la collaborazione con Disney

⬆ Torna su

Uno dei momenti più discussi del keynote è stato l'apparizione sul palco di un robot Olaf, il pupazzo di neve del film Frozen di Disney. Il robot è stato portato in vita usando il Newton Physics Engine, un sistema open-source sviluppato da NVIDIA, Google DeepMind e Disney Research che permette simulazioni robotiche ad alte prestazioni eseguite rapidamente su GPU. Olaf corre su piattaforma Jetson di NVIDIA e ha imparato a camminare all'interno del simulatore Omniverse.

Huang ha spiegato che tutto ciò che è stato mostrato, dai robot umanoidi ai personaggi animati, era stato simulato, non pre-renderizzato. La demo ha sottolineato il punto più ampio: l'AI fisica, i robot e i personaggi animati possono essere addestrati e testati in ambienti virtuali prima del deployment nel mondo fisico.

Modelli frontier e NVIDIA Nemotron Coalition

⬆ Torna su

NVIDIA ha esteso il suo ecosistema di modelli aperti con la nuova Nemotron Coalition, riunendo partner attorno a sei famiglie di modelli frontier: NVIDIA Nemotron per linguaggio e reasoning, NVIDIA Cosmos per mondo e visione, NVIDIA Isaac GR00T per robotica general-purpose, NVIDIA Alpamayo per guida autonoma, NVIDIA BioNeMo per biologia e chimica e NVIDIA Earth-2 per meteo e clima.

La Nemotron Coalition include Cursor, Langchain, Mistral, Perplexity, Sarvam e Black Forest Labs, che collaborano con NVIDIA per co-sviluppare Nemotron 4 come foundation aperta condivisa per AI domain-specific e sovrana.

DLSS 5 e rendering neurale

⬆ Torna su

NVIDIA ha annunciato DLSS 5, la nuova generazione della sua tecnologia di rendering AI-powered. DLSS 5 usa reti neurali per generare interi frame piuttosto che solo upscaling, offrendo un cambio significativo nella fedeltà visiva per giochi e simulazione real-time. Il 3D-guided neural rendering combina dati strutturati da mondi generativi con calcolo grezzo. Huang lo ha posizionato come prova che l'AI non è confinata nei data center: corre localmente su GPU consumer, trasformando ogni PC gaming in un motore di inferenza AI.

La proiezione da 1 trilione di dollari

⬆ Torna su

Huang ha proiettato almeno 1 trilione di dollari di entrate cumulative tra il 2025 e il 2027 per i sistemi Blackwell e Vera Rubin, alzando le stime precedenti. La logica dietro questa proiezione è concreta: negli ultimi due anni, la domanda di calcolo dei singoli workload AI è aumentata circa 10.000 volte man mano che i modelli di reasoning hanno sostituito i sistemi basati su retrieval. L'uso è cresciuto simultaneamente circa 100 volte. La conclusione di Huang: la domanda totale di calcolo AI è aumentata circa 1 milione di volte in due anni.

L'inferenza, non il training, è ora il workload dominante. I sistemi AI spendono la maggior parte dei loro cicli di calcolo generando token: reasoning, usando strumenti, scrivendo ed eseguendo codice. Huang ha presentato un mercato dell'inferenza a livelli come SaaS: token free-tier a un estremo, token premium per ricerca a circa 150 dollari per milione all'altro estremo.

Healthcare e life sciences

⬆ Torna su

Kimberly Powell, vicepresidente healthcare di NVIDIA, ha dichiarato che il momento transformer è arrivato per biologia e drug discovery. L'industria healthcare da 4,9 trilioni di dollari sta deployando AI a più del doppio della velocità dell'economia generale. L'ecosistema startup sta guidando questo shift, catturando oltre l'85% della spesa AI in healthcare lo scorso anno.

Roche ha annunciato il deployment di oltre 3.500 GPU NVIDIA Blackwell in ambienti hybrid cloud e on-premises negli USA e Europa per accelerare produttività R&D, diagnostica di nuova generazione ed efficienze manifatturiere. Queste AI factory sono descritte da NVIDIA come il footprint GPU più grande mai annunciato disponibile per un'azienda farmaceutica.

Una nuova collaborazione tra NVIDIA, European Molecular Biology Laboratory, Google DeepMind e Seoul National University ha contribuito 1,7 milioni di nuovi complessi proteici previsti all'AlphaFold Protein Structure Database, con 30 milioni di strutture aggiuntive disponibili per download. NVIDIA ha inoltre presentato Proteina-Complexa, un nuovo modello di reasoning per design proteico.

Computing spaziale e data center orbitali

⬆ Torna su

NVIDIA sta sviluppando Vera Rubin Space-1 per portare calcolo AI nei data center orbitali. Huang ha spiegato che in spazio non c'è conduzione o convezione, solo radiazione, rendendo la gestione termica particolarmente complessa. Le piattaforme IGX Thor e Jetson Orin offrono inferenza energy-efficient e data processing richiesti per operazioni orbitali, funzionando come hub locale nello spazio, fuori dal cloud.

Il contesto del CUDA e l'accelerazione dati

⬆ Torna su

Huang ha aperto il keynote con la storia dei 20 anni di CUDA, descrivendolo come la piattaforma che ha portato il calcolo accelerato nel mondo. GeForce è stata descritta come la casa che ha fatto NVIDIA, la piattaforma che ha portato CUDA al mondo. L'accelerazione dati è centrale: NVIDIA lavora con IBM, Dell, Google Cloud, AWS, Microsoft Azure, Oracle e CoreWeave per servire i loro clienti.

L'integrazione IBM watsonx.data ha mostrato un risultato concreto: Nestlé ha aggiornato un data mart della supply chain cinque volte più velocemente all'83% di costo inferiore su GPU NVIDIA. Google Cloud ha ridotto i costi di calcolo di un importante cliente di quasi l'80% su BigQuery.

IGX Thor per edge computing industriale

⬆ Torna su

NVIDIA IGX Thor, piattaforma industriale per AI fisica real-time al edge con elaborazione sensori ad alta velocità, reliability enterprise-grade e sicurezza funzionale, è ora generalmente disponibile. Caterpillar sta sviluppando un assistente AI conversazionale in-cabin per migliorare produttività e sicurezza dei lavoratori. Hitachi Rail sta usando IGX Thor per deployment di sistemi di manutenzione predittiva e ispezione autonoma su reti ferroviarie. KION Group sta harnessando IGX Thor e il workflow NVIDIA Halos Outside-In Safety per abilitare percezione outside-in.

Johnson & Johnson ha annunciato l'adozione di NVIDIA IGX Thor per pipeline di manufacturing farmaceutico. La piattaforma IGX Thor ha applicazioni in costruzione, manufacturing, logistica, healthcare, life sciences ed esplorazione spaziale.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'accelerazione hardware con Vera Rubin e l'ecosistema software OpenClaw segnano una transizione verso infrastrutture AI più integrate e automatizzate. La combinazione di efficienza energetica e framework agentico open-source potrebbe ridefinire gli standard di deployment enterprise.

  • Scenario 1: OpenClaw si afferma come standard de facto per l'AI agentica, con NemoClaw che diventa componente essenziale per le aziende che necessitano di controlli di sicurezza enterprise-grade.
  • Scenario 2: I data center adottano massicciamente il raffreddamento a liquido per massimizzare il throughput per watt, riducendo i costi operativi a lungo termine.
  • Scenario 3: La partnership con Uber e i nuovi brand automobilistici potrebbero accelerare la commercializzazione dei veicoli autonomi entro la finestra 2027-2028.

Cosa monitorare

⬆ Torna su
  • Tasso di adozione di OpenClaw nelle enterprise e sviluppo di best practice per la gestione dei rischi di sicurezza.
  • Tempi di disponibilità effettiva di Vera Rubin rispetto alla road map annunciata.
  • Progressi nella partnership Uber e nell'integrazione con i nuovi produttori automobilistici.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • agentic
  • datacenter

Link utili

Apri l'articolo su DeafNews