Piattaforma NVIDIA Rubin: Sei Nuovi Chip per un Supercomputer AI
NVIDIA Rubin è la prima piattaforma AI progettata con codesign estremo, composta da sei chip integrati per ridurre i costi di training e inference su larga sca…
Contenuto

Scopri anche
- L'impatto dei Capex Big Tech sull'ecosistema AI e i risultati trimestrali di Nvidia
- Nvidia e l'economia delle AI factories: la piattaforma Rubin e il nuovo paradigma infrastrutturale
- AMD Prevede Crescita del Ricavo Grazie all'Aumento della Produzione di CPU per Server
- Portable AI Infrastructure Solution Unites Ridger MIMO Storage and xFusion FusionXpark
- L'aumento dei prezzi dell'hardware spinge verso il cloud gaming
- Xbox e PlayStation: La strategia dei rilasci multiplatform spiegata dal capo degli studi
- Sviluppo dell'Infrastruttura AI in Africa: Investimenti, Sfide e Opportunità
- Analisi della Guidance del Primo Trimestre 2026 di Intel: Criticità nella Supply Chain e Svalutazione Azionaria
- AMD: volatilità del titolo e aspettative AI in vista degli utili del 3 febbraio
- Steam stabilisce un nuovo record storico con oltre 42 milioni di utenti simultanei
- Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima
- Strategie e Investimenti AI 2026: Nvidia, Tesla, Apple e le Tendenze dal CES
- Yahoo lancia Scout, il motore di risposte AI integrato nei suoi servizi
- NVIDIA Rubin CPX: la nuova GPU dedicata all'inferenza a contesto massivo
- AMD RDNA 5: primo supporto LLVM per GFX13 conferma sviluppo architettura
- SynthSmith: addestramento AI con dati sintetici e nuove architetture chip
- Analisi della correzione del mercato AI: il calo dell'11% di AMD e il cambiamento di fase del settore
- Google Search Integra Gemini 3 per una Ricerca Conversazionale e Senza Interruzioni
- Le 32 Startup Enterprise Tech più Promettenti del Disrupt Startup Battlefield
- Motivair lancia MCDU-70, unità di raffreddamento da 2,5 MW per data center AI
NVIDIA Rubin: Una Piattaforma a Sei Chip per l'AI Industriale
NVIDIA ha presentato la piattaforma Rubin, configurata come un supercomputer AI che integra sei nuovi chip attraverso un approccio di codesign estremo. La piattaforma è progettata per affrontare la domanda crescente di calcolo per il training e l'inference dei modelli di intelligenza artificiale, con l'obiettivo di ridurre significativamente i costi operativi.
La nascita della piattaforma Rubin
⬆ Torna suIl lancio della piattaforma Rubin segna l'ingresso dell'AI in una fase industriale. I sistemi si sono evoluti da un funzionamento basato su training discreto e inference verso l'utente a veri e propri "AI factory" sempre attivi. Questi impianti convertono continuamente energia, silicio e dati in intelligenza su larga scala, supportando applicazioni che generano piani di business, analizzano mercati e ragionano su vasti corpi di conoscenza.
La piattaforma prende il nome dall'astronoma americana Vera Florence Cooper Rubin. NVIDIA Rubin è il successore dell'architettura Blackwell ed è indicata come la prima piattaforma AI con codesign estremo e sei chip, attualmente in piena produzione.
Architettura a codesign estremo
⬆ Torna suIl fondamento della piattaforma Rubin è il codesign estremo. GPU, CPU, networking, sicurezza, software, alimentazione e raffreddamento sono progettati insieme come un unico sistema, invece di essere ottimizzati singolarmente. Questo approccio tratta il data center, e non il singolo server GPU, come unità di calcolo.
L'obiettivo è assicurare che le prestazioni e l'efficienza si mantengano negli ambienti di produzione reali, andando oltre i benchmark isolati dei componenti. Il scaling dell'AI a livello gigascale richiede un'innovazione strettamente integrata attraverso chip, tray, rack, networking, storage e software per eliminare i colli di bottiglia.
I sei chip della piattaforma
⬆ Torna suLa piattaforma Rubin è costruita attorno a sei nuovi chip, ciascuno progettato per un ruolo specifico all'interno di un AI factory. I componenti sono:
- NVIDIA Vera CPU
- NVIDIA Rubin GPU
- NVIDIA NVLink 6 Switch
- NVIDIA ConnectX-9 SuperNIC
- NVIDIA BlueField-4 DPU
- NVIDIA Spectrum-6 Ethernet Switch
Insieme, questi chip formano un'architettura sincronizzata in cui le GPU eseguono carichi di lavoro dell'era transformer, le CPU orchestrano il flusso di dati e controllo, i fabric scale-up e scale-out muovono token e stati in modo efficiente, e i processori infrastrutturali dedicati gestiscono e proteggono l'AI factory stessa.
Vantaggi nelle prestazioni e nei costi
⬆ Torna suLa piattaforma Rubin introduce cinque innovazioni, tra cui le ultime generazioni della tecnologia di interconnessione NVIDIA NVLink, Transformer Engine, Confidential Computing e RAS Engine, insieme alla NVIDIA Vera CPU. Questi progressi accelerano l'AI agentico, il ragionamento avanzato e l'inference di modelli mixture-of-experts (MoE) su larga scala.
Rispetto alla piattaforma Blackwell precedente, si stima che Rubin riduca il costo per token di inference fino a 10 volte. Inoltre, la piattaforma addestra modelli MoE con un numero di GPU quattro volte inferiore, accelerando l'adozione dell'AI. L'integrazione aiuta anche a ridurre i tempi di training e i costi di inference.
La soluzione rack-scale Vera Rubin NVL72
⬆ Torna suIl sistema flagship della piattaforma è la soluzione rack-scale Vera Rubin NVL72. Questo sistema è ottimizzato non solo per le prestazioni di picco, ma per la produzione di intelligenza sostenuta: latenza prevedibile, alta utilizzazione attraverso fasi di esecuzione eterogenee e conversione efficiente della potenza in intelligenza utilizzabile.
L'NVL72 è progettato in modo che l'intero rack operi come una macchina coerente all'interno di un AI factory più grande. Il sistema rappresenta un'evoluzione dell'architettura rack-scale iniziata con NVIDIA Blackwell NVL72, spingendo ulteriormente le prestazioni mantenendo il determinismo a scala data-center.
Supporto dell'ecosistema e adozione
⬆ Torna suTra i laboratori AI, provider di servizi cloud, produttori di computer e startup che dovrebbero adottare Rubin ci sono Amazon Web Services (AWS), Anthropic, Google, Meta, Microsoft, OpenAI e xAI. I CEO di queste aziende hanno commentato il potenziale della piattaforma.
Sam Altman di OpenAI ha sottolineato come l'intelligenza scala con il calcolo e come Rubin aiuti a far progredire questo scaling. Dario Amodei di Anthropic ha evidenziato i guadagni di efficienza che abilitano memoria più lunga e ragionamento migliore. Mark Zuckerberg di Meta ha riferito che la piattaforma promette di fornire il cambio di passo nelle prestazioni richiesto per implementare i modelli più avanzati.
Modelli open e domini di applicazione
⬆ Torna suOltre all'hardware, NVIDIA costruisce modelli AI di frontiera addestrati sui propri supercomputer, resi disponibili in modalità open. Il portafoglio si estende su sei domini: Clara per la sanità, Earth-2 per la scienza del clima, Nemotron per il ragionamento e l'AI multimodale, Cosmos per la robotica e la simulazione, GR00T per l'intelligenza incorporata e Alpamayo per la guida autonoma.
Questi modelli open formano una base per l'innovazione across industries e sono progettati per essere creati, valutati, protetti e implementati dagli sviluppatori.
Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.
Fonti
⬆ Torna su- https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
- https://blogs.nvidia.com/blog/2026-ces-special-presentation/
- https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/
In breve
- ai
- platform
- gpu
- chips