NVIDIA GTC 2026: Keynote di Jensen Huang e sviluppi sull'infrastruttura AI
La conferenza GTC 2026 a San Jose prevede annunci su AI agents, nuovi processori Blackwell e partnership strategiche per data center e cloud computing.
Contenuto

Scopri anche
- Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
- Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale
- Cybersecurity 2025: il framework Cyber Kill Chain e l'evoluzione delle minacce cloud
- CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- La Cyber Kill Chain e le nuove frontiere della sicurezza cloud: strategie di difesa nell'era delle minacce accelerate
- NVIDIA: investitori istituzionali aumentano posizioni mentre gli insider vendono
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
- L'infrastruttura AI richiede investimenti da migliaia di miliardi: le previsioni di Jensen Huang
- NVIDIA GPU Operator e AI Cluster Runtime: standardizzare l'infrastruttura GPU per Kubernetes
- Meta svela la roadmap di quattro nuovi chip MTIA: infrastruttura AI interna entro il 2027
- NVIDIA cerca architetti per data center orbitali: il calcolo nello spazio diventa realtà
- Compal presenta soluzione integrata per infrastrutture AI al NVIDIA GTC 2026
- Google e Back Market lanciano una chiavetta USB da 3 dollari per installare ChromeOS Flex sui PC obsoleti
- Google Gemini: l'integrazione nei servizi Workspace e la nuova Personal Intelligence
- Nvidia: dati finanziari, crescita del data center e prospettive del mercato AI
- Apple stringe partnership con Google per potenziare Siri con Gemini AI
- Nvidia investe 2 miliardi di dollari in Nebius per espandere l'infrastruttura AI iperscalare
- Nvidia GTC 2026: Rubin Ultra, architettura Feynman e la svolta verso l'AI Agentic
- Starlink disabilitato per l'esercito russo: le conseguenze sul campo di battaglia
- NVIDIA annuncia Vera Rubin e Alpamayo: la nuova generazione dell'infrastruttura AI
NVIDIA GTC 2026: Jensen Huang presenta la roadmap per AI e infrastruttura
- Il programma della conferenza
- OpenClaw e AI agents sempre attivi
- DGX Spark e il mercato dei sistemi AI
- Partnership strategiche e investimenti
- Infrastruttura data center e networking
- GPU Blackwell e performance di inference
- Sovranità AI e mercati globali
- Robotica e AI fisica
- Acquisizioni e sviluppi aziendali
- Sicurezza e vulnerabilità
- Implicazioni e scenari
- Cosa monitorare
- Fonti
La conferenza NVIDIA GTC 2026 prende il via al San Jose Convention Center con un programma che spazia dall'AI fisica alle fabbriche AI, passando per l'AI agentic e l'inference. Il fondatore e CEO Jensen Huang terrà il keynote principale il 16 marzo alle 11:00 PT presso la SAP Center, davanti a un pubblico proveniente da 190 paesi. La manifestazione prevede oltre 700 sessioni dedicate a chips, software, modelli e applicazioni, con una costruzione di infrastruttura misurata in gigawatt.
Il programma della conferenza
⬆ Torna suLa giornata di apertura include workshop tecnici full-day su temi che comprendono agenti AI multimodali, workflow robotici end-to-end e networking accelerato per l'infrastruttura AI. Il pre-show delle 8:00 PT ospita i CEO di Perplexity, LangChain, Mistral, Skild AI e OpenEvidence. Il 18 marzo alle 12:30 PT, Huang modererà un panel sui modelli aperti con Harrison Chase, cofondatore e CEO di LangChain, e leader di A16Z, AI2, Cursor e Thinking Machines Lab. La discussione verte sulla posizione dei modelli aperti rispetto a quelli chiusi di frontiera e sulle implicazioni per chi costruisce su queste tecnologie.
Il 17 marzo alle 9:00 PT, Dario Gil, sottosegretario al Dipartimento dell'Energia degli Stati Uniti, si unirà a Ian Buck, vicepresidente di Hyperscale e High-Performance Computing di NVIDIA, per discutere l'AI nella ricerca climatica ed energetica. Seguirà alle 14:00 PT un incontro con il chairman e CEO di Universal Music Group, Sir Lucian Grainge, insieme a Richard Kerris, vicepresidente di Media e Entertainment di NVIDIA, sul tema musica e AI.
OpenClaw e AI agents sempre attivi
⬆ Torna suGli attendee del GTC possono essere tra i primi a provare OpenClaw, descritto come il progetto open source a crescita più rapida della storia. OpenClaw permette di creare e distribuire "claw", ovvero agenti AI a lunga esecuzione - assistenti proattivi e sempre attivi. L'evento build-a-claw si tiene nel GTC Park dal 16 al 19 marzo, con orari 13:00-17:00 il lunedì e 8:00-17:00 da martedì a giovedì.
Con il supporto di esperti NVIDIA, i partecipanti possono configurare un agente AI: assegnargli un nome, definirne la personalità e concedergli accesso agli strumenti necessari. Questi assistenti possono essere applicati a compiti che includono la gestione del calendario, suggerimenti per destinazioni vacanza, raccomandazioni di allenamenti e sviluppo di applicazioni. Per l'esecuzione degli agenti personalizzati è disponibile compute cloud onsite, oppure è possibile utilizzare computing accelerato locale con sistemi NVIDIA DGX Spark o laptop GeForce RTX.
NVIDIA ha pubblicato l'OpenClaw Playbook, una guida passo-passo per eseguire OpenClaw su DGX Spark. Il documento aiuta gli sviluppatori a costruire agenti AI always-on e local-first che lavorano direttamente con file, app e workflow senza dipendere dal cloud. I sistemi DGX Spark sono disponibili all'acquisto presso il NVIDIA Gear Store e Micro Center.
DGX Spark e il mercato dei sistemi AI
⬆ Torna suIl DGX Spark, definito come "personal AI supercomputer" di NVIDIA, è arrivato sul mercato con ritardo rispetto alle previsioni iniziali: è stato messo in vendita nell'ottobre 2025, cinque mesi dopo rispetto alla promessa originale, con le prime unità difficili da reperire. NVIDIA ha inoltre annunciato due nuove GPU professionali ad agosto 2025: la RTX Pro 4000 Small Form Factor e la RTX Pro 2000. Basate sull'architettura Blackwell, queste GPU mirano a fornire capacità AI avanzate in deployment desktop e workstation compatti.
Partnership strategiche e investimenti
⬆ Torna suNVIDIA ha stringato una partnership pluriennale con Meta per fornire processori ai nuovi data center AI del social network. A febbraio 2026, NVIDIA ha investito 2 miliardi di dollari in CoreWeave, fornitore di servizi cloud GPU, riflettendo la fiducia nella piattaforma cloud costruita su infrastruttura NVIDIA. A settembre 2025, NVIDIA ha acquisito il 5% di Intel per 5 miliardi di dollari, diventando il secondo maggiore azionista dopo l'investimento del governo federale.
La collaborazione con Intel prevede anche lo sviluppo congiunto di CPU con l'interconnect ad alta velocità NVLink di NVIDIA. NVIDIA e Intel hanno concordato di sviluppare congiuntamente "multiple generazioni di prodotti personalizzati per data center e PC". Sempre a settembre 2025, OpenAI e NVIDIA hanno annunciato una partnership strategica per distribuire almeno 10 gigawatt di sistemi NVIDIA per l'infrastruttura AI di prossima generazione, con la prima fase attesa nella seconda metà del 2026 utilizzando la piattaforma combinata CPU/GPU Vera Rubin.
Infrastruttura data center e networking
⬆ Torna suNVIDIA ha introdotto nuovi prodotti per il networking nei data center. A ottobre 2025, ha presentato il ConnectX-9 SuperNIC, scheda di interfaccia di rete di nuova generazione che offre 1.6T GPU con capacità RDMA avanzate e supporto PCIe Gen 6. Cisco e NVIDIA hanno rafforzato la partnership con la serie di switch per data center Cisco N9100 costruita sul silicio per switch Ethernet Spectrum-X di NVIDIA. A febbraio 2026, NVIDIA ha annunciato partnership strategiche con Lumentum Holdings e Coherent per accelerare lo sviluppo di tecnologie ottiche avanzate utilizzate nell'infrastruttura dei data center AI.
Lenovo ha combinato i propri sistemi a raffreddamento liquido con le piattaforme NVIDIA per creare quelle che definisce "AI cloud gigafactories", progettate per ridurre le tempistiche di deployment da mesi a settimane. NVIDIA ha inoltre sviluppato gli algoritmi Spectrum-XGS, protocolli software integrati nell'hardware Ethernet, per rendere più veloce e affidabile la comunicazione GPU-to-GPU su Ethernet a lunga distanza.
GPU Blackwell e performance di inference
⬆ Torna suNVIDIA ha pubblicato analisi che mostrano una riduzione da 4X a 10X del costo per token nell'inference AI passando a modelli open source. Le riduzioni sono state ottenute combinando le GPU Blackwell di NVIDIA con modelli open source da Baseten, DeepInfra, Fireworks AI e Together AI. A luglio 2025, NVIDIA ha presentato il metodo "Helix Parallelism", che permette agli agenti AI di processare milioni di parole e supportare fino a 32X più utenti contemporaneamente, sfruttando le capacità del processore Blackwell.
A marzo 2026, NVIDIA ha introdotto un nuovo modello AI focalizzato sul reasoning che combina multiple architetture di reti neurali per migliorare il modo in cui i sistemi enterprise gestiscono task complessi e automazione.
Sovranità AI e mercati globali
⬆ Torna suNVIDIA e Perplexity hanno annunciato a giugno 2025 una collaborazione con builder di modelli e provider cloud in Europa e Medio Oriente per rifinire LLM sovrani e accelerare l'adozione dell'AI enterprise nelle industrie locali. Gli executive NVIDIA ritengono che l'AI sovrana abbia il potenziale di cambiare il lavoro digitale man mano che l'AI generativa si allinea alle priorità nazionali e alle regolamentazioni locali.
La Cina ha riaperto l'accesso ai processori AI avanzati di NVIDIA a gennaio 2026, concedendo approvazioni a un piccolo gruppo delle maggiori aziende tecnologiche del paese. ByteDance, Alibaba e Tencent dovrebbero acquistare collettivamente oltre 400.000 acceleratori H200 di NVIDIA. NVIDIA ha inoltre confermato la ripresa delle vendite di chip AI H20 in Cina e il rilascio di un nuovo modello GPU conforme alle normative di esportazione.
Robotica e AI fisica
⬆ Torna suJensen Huang ha descritto un futuro con miliardi di robot al servizio degli esseri umani. NVIDIA ha presentato un nuovo dispositivo di computing per robot ad alte prestazioni che potrebbero replicare comportamenti umani. Il modello genAI Cosmos Reason, integrato nei robot, può elaborare informazioni da input video e grafici, analizzare i dati e utilizzarne la comprensione per prendere decisioni. NVIDIA ha inoltre proposto il concetto di "Graphics 3.0" con l'obiettivo di rendere la grafica generata dall'AI centrale per la produttività fisica, utilizzabile per addestrare i robot o aiutare gli assistenti AI ad automatizzare la creazione di equipaggiamento e strutture.
Acquisizioni e sviluppi aziendali
⬆ Torna suA dicembre 2025, NVIDIA ha acquisito SchedMD, sviluppatore di Slurm, il workload manager open source utilizzato per l'high-performance computing e i cluster AI. A settembre 2025, NVIDIA ha assunto il CEO e altro personale di Enfabrica, produttore di chip interconnect, e ha licenziato le tecnologie core in un accordo da oltre 900 milioni di dollari, rispondendo alla domanda di capacità di computing per l'AI generativa da parte di OpenAI, Anthropic, Mistral, AWS, Microsoft e Google.
NVIDIA ha raggiunto una capitalizzazione di mercato di 4 trilioni di dollari a luglio 2025, diventando la società a capitale pubblico più valuabile al mondo, davanti ad Apple e Microsoft. Il CFO Colette Kress ha dichiarato a novembre 2025 che "le cloud sono esaurite e la base installata di GPU [...] è pienamente utilizzata", indicando una domanda di capacità computing AI superiore all'offerta disponibile.
Sicurezza e vulnerabilità
⬆ Torna suRicercatori universitari canadesi hanno dimostrato che una GPU NVIDIA A6000 può essere compromessa tramite attacchi Rowhammer, portando NVIDIA a emettere un avviso di sicurezza a sviluppatori di applicazioni, produttori di computer e leader IT sulla potenziale suscettibilità dei chip di memoria moderni nelle GPU grafiche a questo tipo di exploit. Inoltre, una catena di attacco nel Triton Inference Server di NVIDIA, partendo da una fuga di nomi di memoria apparentemente minore, potrebbe permettere il completo controllo remoto del server senza autenticazione utente.
La Cina ha accusato NVIDIA di violazione della legge antitrust a settembre 2025, una mossa che potrebbe interrompere le operazioni globali del produttore di chip e aumentare i rischi per le aziende dipendenti dalle sue GPU.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa concentrazione di partnership strategiche e investimenti infrastrutturali suggerisce un consolidamento dell'ecosistema NVIDIA attorno a pochi player selezionati, con potenziali ricadute sulla competizione nel mercato dei data center e del cloud computing.
- Scenario 1: L'adozione su larga scala di agenti AI always-on come OpenClaw potrebbe ridefinire il rapporto tra computing locale e cloud, favorendo approcci ibridi local-first.
- Scenario 2: Le partnership con Intel e OpenAI potrebbero accelerare lo sviluppo di architetture integrate CPU-GPU, riducendo i tempi di deployment per infrastrutture su scala gigawatt.
- Scenario 3: La riapertura del mercato cinese potrebbe incrementare i volumi di vendita di GPU conformi, con effetti sulla catena di approvvigionamento globale.
Cosa monitorare
⬆ Torna su- Disponibilità effettiva dei sistemi DGX Spark dopo i ritardi registrati nell'anno precedente.
- Evoluzione del modello di reasoning enterprise introdotto a marzo 2026.
- Impatto delle partnership ottiche con Lumentum e Coherent sull'infrastruttura data center.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://blogs.nvidia.com/blog/gtc-2026-news/
- https://www.networkworld.com/article/3562856/nvidia-latest-news-and-insights.html
- https://nvidianews.nvidia.com/
In breve
- nvidia
- ai-infrastructure
- gpu
- datacenter