Piattaforma NVIDIA Rubin: Sei Nuovi Chip per un Supercomputer AI

NVIDIA Rubin è la prima piattaforma AI progettata con codesign estremo, composta da sei chip integrati per ridurre i costi di training e inference su larga sca…

Contenuto

Piattaforma NVIDIA Rubin: Sei Nuovi Chip per un Supercomputer AI

Scopri anche

Piattaforma NVIDIA Rubin: Sei Nuovi Chip per un Supercomputer AI

NVIDIA Rubin: Una Piattaforma a Sei Chip per l'AI Industriale

In questo articolo:

NVIDIA ha presentato la piattaforma Rubin, configurata come un supercomputer AI che integra sei nuovi chip attraverso un approccio di codesign estremo. La piattaforma è progettata per affrontare la domanda crescente di calcolo per il training e l'inference dei modelli di intelligenza artificiale, con l'obiettivo di ridurre significativamente i costi operativi.

La nascita della piattaforma Rubin

⬆ Torna su

Il lancio della piattaforma Rubin segna l'ingresso dell'AI in una fase industriale. I sistemi si sono evoluti da un funzionamento basato su training discreto e inference verso l'utente a veri e propri "AI factory" sempre attivi. Questi impianti convertono continuamente energia, silicio e dati in intelligenza su larga scala, supportando applicazioni che generano piani di business, analizzano mercati e ragionano su vasti corpi di conoscenza.

La piattaforma prende il nome dall'astronoma americana Vera Florence Cooper Rubin. NVIDIA Rubin è il successore dell'architettura Blackwell ed è indicata come la prima piattaforma AI con codesign estremo e sei chip, attualmente in piena produzione.

Architettura a codesign estremo

⬆ Torna su

Il fondamento della piattaforma Rubin è il codesign estremo. GPU, CPU, networking, sicurezza, software, alimentazione e raffreddamento sono progettati insieme come un unico sistema, invece di essere ottimizzati singolarmente. Questo approccio tratta il data center, e non il singolo server GPU, come unità di calcolo.

L'obiettivo è assicurare che le prestazioni e l'efficienza si mantengano negli ambienti di produzione reali, andando oltre i benchmark isolati dei componenti. Il scaling dell'AI a livello gigascale richiede un'innovazione strettamente integrata attraverso chip, tray, rack, networking, storage e software per eliminare i colli di bottiglia.

I sei chip della piattaforma

⬆ Torna su

La piattaforma Rubin è costruita attorno a sei nuovi chip, ciascuno progettato per un ruolo specifico all'interno di un AI factory. I componenti sono:

  • NVIDIA Vera CPU
  • NVIDIA Rubin GPU
  • NVIDIA NVLink 6 Switch
  • NVIDIA ConnectX-9 SuperNIC
  • NVIDIA BlueField-4 DPU
  • NVIDIA Spectrum-6 Ethernet Switch

Insieme, questi chip formano un'architettura sincronizzata in cui le GPU eseguono carichi di lavoro dell'era transformer, le CPU orchestrano il flusso di dati e controllo, i fabric scale-up e scale-out muovono token e stati in modo efficiente, e i processori infrastrutturali dedicati gestiscono e proteggono l'AI factory stessa.

Vantaggi nelle prestazioni e nei costi

⬆ Torna su

La piattaforma Rubin introduce cinque innovazioni, tra cui le ultime generazioni della tecnologia di interconnessione NVIDIA NVLink, Transformer Engine, Confidential Computing e RAS Engine, insieme alla NVIDIA Vera CPU. Questi progressi accelerano l'AI agentico, il ragionamento avanzato e l'inference di modelli mixture-of-experts (MoE) su larga scala.

Rispetto alla piattaforma Blackwell precedente, si stima che Rubin riduca il costo per token di inference fino a 10 volte. Inoltre, la piattaforma addestra modelli MoE con un numero di GPU quattro volte inferiore, accelerando l'adozione dell'AI. L'integrazione aiuta anche a ridurre i tempi di training e i costi di inference.

La soluzione rack-scale Vera Rubin NVL72

⬆ Torna su

Il sistema flagship della piattaforma è la soluzione rack-scale Vera Rubin NVL72. Questo sistema è ottimizzato non solo per le prestazioni di picco, ma per la produzione di intelligenza sostenuta: latenza prevedibile, alta utilizzazione attraverso fasi di esecuzione eterogenee e conversione efficiente della potenza in intelligenza utilizzabile.

L'NVL72 è progettato in modo che l'intero rack operi come una macchina coerente all'interno di un AI factory più grande. Il sistema rappresenta un'evoluzione dell'architettura rack-scale iniziata con NVIDIA Blackwell NVL72, spingendo ulteriormente le prestazioni mantenendo il determinismo a scala data-center.

Supporto dell'ecosistema e adozione

⬆ Torna su

Tra i laboratori AI, provider di servizi cloud, produttori di computer e startup che dovrebbero adottare Rubin ci sono Amazon Web Services (AWS), Anthropic, Google, Meta, Microsoft, OpenAI e xAI. I CEO di queste aziende hanno commentato il potenziale della piattaforma.

Sam Altman di OpenAI ha sottolineato come l'intelligenza scala con il calcolo e come Rubin aiuti a far progredire questo scaling. Dario Amodei di Anthropic ha evidenziato i guadagni di efficienza che abilitano memoria più lunga e ragionamento migliore. Mark Zuckerberg di Meta ha riferito che la piattaforma promette di fornire il cambio di passo nelle prestazioni richiesto per implementare i modelli più avanzati.

Modelli open e domini di applicazione

⬆ Torna su

Oltre all'hardware, NVIDIA costruisce modelli AI di frontiera addestrati sui propri supercomputer, resi disponibili in modalità open. Il portafoglio si estende su sei domini: Clara per la sanità, Earth-2 per la scienza del clima, Nemotron per il ragionamento e l'AI multimodale, Cosmos per la robotica e la simulazione, GR00T per l'intelligenza incorporata e Alpamayo per la guida autonoma.

Questi modelli open formano una base per l'innovazione across industries e sono progettati per essere creati, valutati, protetti e implementati dagli sviluppatori.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • ai
  • platform
  • gpu
  • chips

Link utili

Apri l'articolo su DeafNews