NVIDIA GTC 2026: Vera Rubin, OpenClaw e l'era dell'AI agentica

Jensen Huang presenta la piattaforma Vera Rubin, il framework agentic OpenClaw e proiezioni da 1 trilione di dollari. Il keynote GTC 2026 segna il passaggio da…

Contenuto

NVIDIA GTC 2026: Vera Rubin, OpenClaw e l'era dell'AI agentica

Scopri anche

NVIDIA GTC 2026: Vera Rubin, OpenClaw e l'era dell'AI agentica

NVIDIA GTC 2026: la transizione verso l'AI agentica e l'infrastruttura da un trilione di dollari

In questo articolo:

Il keynote di NVIDIA GTC 2026, tenutosi il 16 marzo al SAP Center di San Jose davanti circa 10.000 presenti, ha delineato il passaggio dall'era dell'AI generativa a quella dell'AI agentica. Jensen Huang, CEO di NVIDIA, ha descritto un contesto in cui la domanda di calcolo per AI è aumentata di un milione di volte negli ultimi due anni, con proiezioni di ricavi per almeno 1.000 miliardi di dollari tra il 2025 e il 2027 per i sistemi Blackwell e Vera Rubin.

Il discorso ha toccato cinque temi principali: l'infrastruttura hardware con la piattaforma Vera Rubin, l'ecosistema agentico OpenClaw e NemoClaw, l'AI fisica applicata a robotica e veicoli autonomi, i modelli frontier e le iniziative nello spazio. Ogni annuncio si inserisce in una strategia di integrazione verticale che NVIDIA definisce "full-stack".

Vera Rubin: la piattaforma AI di nuova generazione

⬆ Torna su

La piattaforma Vera Rubin rappresenta il cuore degli annunci hardware. Si tratta di un sistema di calcolo full-stack composto da sette tipi di chip, cinque sistemi rack-scale che operano come un singolo supercomputer AI. La configurazione include CPU Vera, GPU Rubin, switch NVLink 6, schede di rete ConnectX-9, DPU BlueField-4, NIC ottiche co-package Spectrum-X e LPU Groq 3.

Le specifiche dichiarate comprendono 3,6 exaflop di calcolo e 260 terabyte al secondo di banda NVLink all-to-all. Il sistema è raffreddato a liquido con acqua a 45 gradi Celsius, eliminando i costi infrastrutturali del raffreddamento ad aria. I tempi di installazione sono scesi da due giorni a due ore.

Huang ha sottolineato che Vera Rubin offre 10x inferenza per watt rispetto a Blackwell, con throughput 35 volte superiore se combinato con il chip Groq LPX. NVIDIA ha acquisito il team e la tecnologia Groq alla fine del 2025. Il chip Groq 3 LPX è progettato per l'inferenza: deterministico, compilato staticamente, con ampia SRAM on-chip. Il software NVIDIA Dynamo separa l'inferenza tra le due architetture, inviando il prefill a Vera Rubin e il decode al chip Groq.

Analisi di terze parti di Semi Analysis ha confermato e superato le dichiarazioni di Huang, trovando circa 50x più token per watt rispetto a Hopper H200. Secondo quanto riportato, Huang ha commentato che l'analista Dylan Patel "mi ha accusato di sandbagging. Aveva ragione".

La roadmap fino al 2028: Feynman e Rosa

⬆ Torna su

Huang ha presentato la roadmap per il 2028 con la famiglia Feynman. Questa include una nuova GPU, l'LPU LP40 sviluppato con il team Groq, la CPU Rosa (dedicata a Rosalind Franklin, la cui cristallografia a raggi X rivelò la struttura del DNA), BlueField-5, CX10 networking e scala-up Kyber-CPO con ottiche co-package. NVIDIA sta inoltre sviluppando Vera Rubin Space-1 per data center orbitali, dove la gestione termica avviene tramite radiazione.

Il pattern attraverso le generazioni prevede una nuova architettura all'anno, ciascuna con piena compatibilità all'indietro. Più a lungo un'installazione opera, minore è il costo effettivo per token. NVIDIA si impegna a supportare ogni GPU distribuita indefinitamente attraverso aggiornamenti software.

OpenClaw e NemoClaw: il sistema operativo per AI agentica

⬆ Torna su

L'annuncio che ha generato le reazioni più forti riguarda OpenClaw, il framework agentico open-source creato da Peter Steinberger. Huang lo ha definito "il progetto open-source in più rapida crescita nella storia", superando l'adozione di Linux in 30 anni in poche settimane. Lo ha paragonato a Linux, HTTP e Kubernetes: tecnologie che hanno definito le regole di un'era computazionale.

Le primitive di OpenClaw corrispondono a un sistema operativo: gestione delle risorse, accesso agli strumenti, accesso al file system, connettività LLM, scheduling e spawning di sotto-agenti. Secondo Huang, "ogni singola azienda nel mondo oggi deve avere una strategia OpenClaw".

Le capacità predefinite di OpenClaw presentano una sfida di compliance e sicurezza. Un agente autonomo può accedere a informazioni sensibili, eseguire codice e comunicare esternamente. Huang ha dichiarato durante il keynote che un agente con capacità OpenClaw completa può accedere a record dei dipendenti, dati della supply chain e informazioni finanziarie, e inviarli all'esterno dell'organizzazione.

Per rispondere a questo, NVIDIA ha annunciato NemoClaw, lo stack production-grade che include sicurezza enterprise, guardrail e integrazione con l'ecosistema NVIDIA. NVIDIA ha collaborato con OpenClaw per rendere la piattaforma "enterprise-ready". Al GTC Park, gli attendees hanno potuto partecipare a sessioni "Build-a-Claw" per personalizzare e distribuire assistenti AI sempre attivi usando DGX Spark o laptop GeForce RTX, con calcolo cloud fornito in loco.

AI fisica: robotica e veicoli autonomi

⬆ Torna su

NVIDIA ha presentato progressi nell'AI fisica con applicazioni in veicoli autonomi e robotica general-purpose. BYD, Hyundai, Nissan e Geely si sono uniti ai partner esistenti (Mercedes, Toyota, GM) sulla piattaforma NVIDIA RoboTaxi Ready. I sette produttori insieme producono circa 18 milioni di veicoli all'anno. NVIDIA ha anche annunciato una partnership con Uber per distribuire questi veicoli in diverse città.

Huang ha dichiarato: "Il momento ChatGPT delle auto a guida autonoma è arrivato". Il modello Alpamayo di NVIDIA fornisce ai veicoli la capacità di ragionare, narrare le decisioni in linguaggio naturale e seguire le istruzioni dei passeggeri. Il keynote ha mostrato una dimostrazione di un veicolo che descrive un cambio di corsia, spiega come ha gestito un ostacolo e aggiusta la velocità su richiesta.

Lo stack robotico include quattro componenti open-source: Isaac Lab (training e valutazione), Newton (fisica differenziabile accelerata su GPU, co-sviluppato con DeepMind e Disney), Cosmos World Models (simulazione neurale per dati sintetici) e Groot 2 (modello di ragionamento e azione per robot general-purpose). 110 robot erano presenti al GTC.

Il keynote si è chiuso con l'Olaf di Disney che camminava sul palco e conversava con Huang, addestrato interamente in Omniverse usando la simulazione Newton. Huang ha spiegato: "Olaf, come stai? Lo so perché ti ho dato il tuo computer — Jetson. È nella tua pancia... e hai imparato a camminare dentro Omniverse".

DLSS 5 e il rendering neurale

⬆ Torna su

DLSS 5 rappresenta la prossima generazione della tecnologia di rendering AI-powered di NVIDIA. Il sistema usa reti neurali per generare frame interi piuttosto che solo upscaling, con un salto nelle prestazioni visive per giochi e simulazione in tempo reale. DLSS 5 combina rendering 3D-guided con AI generativa per prestazioni 4K fotorealistiche in tempo reale su hardware locale.

Huang ha posizionato DLSS 5 come prova che l'AI non è confinata nei data center: gira localmente su GPU consumer, trasformando ogni PC da gaming in un motore di inferenza AI. La pipeline di rendering neurale alimenta anche i digital twin basati su Omniverse e le simulazioni DSX.

Alcuni giocatori hanno espresso preoccupazioni sulla presentazione di Resident Evil: Requiem, sostenendo che l'AI potrebbe "appiattire" lo stile artistico dei giochi. Huang ha risposto alle critiche in una sessione Q&A con la stampa, affermando che chi teme che DLSS 5 renda la grafica omogenea "si sbaglia completamente". La tecnologia è "condizionata dalla ground truth del gioco", quindi l'AI generativa dovrebbe corrispondere al suo stile.

Il concetto di "token factory"

⬆ Torna su

Huang ha dedicato tempo significativo a una singola equazione economica: il data center è ora una "token factory", e il throughput di token per watt è il ricavo. Questo riformula il modo in cui CEO, CFO e leader dei dati dovrebbero valutare l'infrastruttura AI.

Il ragionamento dietro la proiezione da 1.000 miliardi di dollari è concreto. Negli ultimi due anni, la domanda di calcolo dei singoli workload AI è aumentata circa 10.000 volte, con i modelli di ragionamento che sostituiscono i sistemi basati su retrieval. L'uso è cresciuto simultaneamente circa 100 volte. La conclusione di Huang: la domanda totale di calcolo AI è aumentata di circa 1 milione di volte in due anni.

Ha presentato un mercato dell'inferenza a tier come il SaaS: token di livello gratuito da una parte, token premium per ricerca a 150 dollari per milione dall'altra. L'aggiornamento da Blackwell a Vera Rubin sposta l'intero portfolio up-market di 5-10x dallo stesso budget energetico. I provider di inferenza hanno visto la velocità di generazione token salire da circa 700 a quasi 5.000 token al secondo dopo l'aggiornamento software NVIDIA su hardware esistente: un moltiplicatore di ricavi 7x senza acquisire un singolo nuovo chip.

NVIDIA DSX e la simulazione degli AI factory

⬆ Torna su

NVIDIA DSX risponde alla progettazione di AI factory su larga scala. È un digital twin basato su Omniverse che permette ai progettisti di data center di simulare condizioni fisiche, termiche, elettriche e di rete prima che la costruzione inizi. DSX MaxQ ottimizza dinamicamente il throughput dei token rispetto alla potenza disponibile una volta che il data center è operativo.

Huang ha sostenuto che un miglioramento di un fattore 2 nel token output effettivo è disponibile dentro i data center esistenti attraverso una migliore gestione di potenza e temperatura, senza aggiungere un singolo chip. Alla scala di data center gigawatt, questo rappresenta miliardi in ricavi recuperati.

Modelli frontier e Nemotron Coalition

⬆ Torna su

NVIDIA ha rilasciato modelli frontier in sei domini: Nemotron 3 (linguaggio, comprensione visiva, RAG, sicurezza e parlato), Cosmos 2 (simulazione del mondo), Groot 2 (robotica), Alpamayo (veicoli autonomi), BioNemo (biologia e drug discovery), Earth-2 (previsioni meteorologiche e climatiche).

La Nemotron Coalition, che include Cursor, Langchain, Mistral, Perplexity, Sarvam e Black Forest Labs, si è unita a NVIDIA per co-sviluppare Nemotron 4 come fondazione condivisa per AI domain-specific e sovrana.

Data governance e AI

⬆ Torna su

Per i leader di dati, il thread più rilevante ha attraversato l'architettura presentata. Huang ha descritto la "five-layer cake" dell'AI, con i dati strutturati (SQL, Spark, Pandas e i principali cloud data warehouse) alla base. L'argomento: i dati strutturati sono la "ground truth del business", e l'AI generativa ha bisogno di quella ground truth per essere affidabile.

Le librerie cuDF (data frame accelerati su GPU) e cuVS (vector store accelerati su GPU) rappresentano la risposta infrastrutturale di NVIDIA. L'integrazione IBM watsonx.data ha mostrato un risultato concreto: Nestlé ha aggiornato un data mart della supply chain cinque volte più velocemente al 83% di costo inferiore su GPU NVIDIA. L'accelerazione BigQuery di Google Cloud ha ridotto i costi di calcolo di un cliente principale di quasi l'80%.

Huang ha definito i dati non strutturati "inutili oggi" perché non possono essere cercati, interrogati o indicizzati come i database SQL. Poi ha presentato il pivot: l'AI multimodale cambia completamente l'equazione. Se un agente AI può leggere, interpretare e indicizzare video, PDF, thread Slack e documenti tecnici, allora i dati non strutturati diventano strutturati.

La questione occupazionale

⬆ Torna su

In una sessione Q&A con la stampa, Huang ha descritto la sua visione per NVIDIA tra dieci anni: 75.000 dipendenti che lavorano con 7,5 milioni di agenti AI. NVIDIA impiega 36.000 persone secondo una stima del 2025. Nella visione di Huang, ogni dipendente umano lavorerebbe con 100 agenti AI.

Huang ha iniziato evidenziando le carenze di forza lavoro nel manifatturiero. "L'occupazione è molto alta, eppure molte aziende non hanno abbastanza manodopera", ha dichiarato. "I robot colmeranno quel divario". Secondo la sua teoria, l'automazione robotica riempirà queste lacune, le economie mondiali cresceranno e le aziende assumeranno di più.

Ha paragonato il cambiamento dei lavori dovuto all'AI ai cavalli che passano dall'arare i campi a valere 5 milioni di dollari ciascuno. Tuttavia, come osservato, la popolazione equina è diminuita drasticamente una volta che le auto sono diventate popolari, un confronto che alcuni hanno definito inappropriato.

Partnership e ecosistema

⬆ Torna su

NVIDIA ha annunciato partnership con T-Mobile per rendere l'infrastruttùra delle celle telefoniche pronta per l'era AI, elaborando task AI localmente sugli edge device invece che nel cloud. Miglioramenti alle torri cellulari e alle reti wireless aiutano a mantenere le connessioni fluide per applicazioni come auto a guida autonoma e analisi del traffico in tempo reale.

MotorTrend ha conferito a Huang il premio Person of the Year 2026, citando che "NVIDIA ora ha l'intelligenza necessaria per scalare veicoli software-defined con capacità di aggiornamento over-the-air. Questo è il futuro della mobilità".

Il premio NPN Americas 2026 ha riconosciuto partner che guidano l'innovazione AI, l'esecuzione e l'impatto industriale. I partner stanno aiutando i clienti a passare dai progetti pilota alla produzione con la piattaforma full-stack NVIDIA, estendendo l'impatto attraverso competenze locali e servizi.

IGX Thor e l'edge computing industriale

⬆ Torna su

NVIDIA IGX Thor è ora generalmente disponibile. Si tratta di una piattaforma industriale che fornisce AI fisica in tempo reale all'edge con elaborazione sensoriale ad alta velocità, affidabilità enterprise-grade e sicurezza funzionale. Caterpillar sta sviluppando un assistente AI conversazionale in-cabina potenziato da IGX Thor per migliorare la produttività e sicurezza dei lavoratori. Hitachi Rail sta usando IGX Thor per sistemi di manutenzione predittiva e ispezione autonoma sulle reti ferroviarie. KION Group sta sfruttando IGX Thor e il workflow NVIDIA Halos Outside-In Safety per abilitare la percezione "outside-in", dove un agente AI potenzia i meccanismi di sicurezza funzionale dei robot autonomi.

CUDA e il ventesimo anniversario

⬆ Torna su

Huang ha segnato il ventesimo anniversario di CUDA, descrivendolo come il "flywheel" che guida il calcolo accelerato e la piattaforma che supporta "ogni singola fase del ciclo di vita AI". La base installata di centinaia di milioni di GPU abilitate CUDA crea un flywheel auto-rinforzante: nuovi algoritmi guidano nuovi mercati, che crescono la base installata, che attrae più sviluppatori. Secondo NVIDIA, questo flywell sta accelerando più velocemente che in qualsiasi punto precedente.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'annuncio di OpenClaw come standard emergente per l'AI agentica potrebbe ridefinire l'infrastruttura software delle aziende, ma le questioni di compliance rimangono aperte. La strategia full-stack di NVIDIA, che integra hardware Vera Rubin con framework agentici, suggerisce una consolidazione verticale che potrebbe aumentare la dipendenza da un singolo ecosistema. L'AI fisica applica una pressione concreta sui partner automotive: i tempi di adozione della piattaforma RoboTaxi Ready determineranno il vantaggio competitivo.

  • Scenario 1: OpenClaw diventa infrastruttura critica, e NemoClaw si afferma come livello enterprise obbligatorio per gestire rischi di sicurezza e compliance.
  • Scenario 2: L'efficienza energetica di Vera Rubin (fino a 50x token per watt rispetto a H200) accelera la transizione dei data center verso configurazioni liquid-cooled rack-scale.
  • Scenario 3: I sette produttori automotive partner integrano gradualmente lo stack RoboTaxi Ready, con la partnership Uber che funge da banco di prova per l'adozione urbana.

Cosa monitorare

⬆ Torna su
  • Tassi di adozione di OpenClaw nelle enterprise e risposte normative sui rischi di accesso autonomo ai dati aziendali.
  • Progressione verso la roadmap Feynman 2028 e impatto sui cicli di ammortamento dell'infrastruttura esistente.
  • Integrazione dei partner automobilistici nella piattaforma RoboTaxi Ready e prime distribuzioni su Uber.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • agentic
  • gpu

Link utili

Apri l'articolo su DeafNews