Nvidia Rubin: la nuova piattaforma AI entra in produzione con prestazioni record

Nvidia annuncia la piattaforma Vera Rubin in piena produzione, con miglioramenti fino a 5x nell'inferenza AI e riduzione del 90% del costo per token rispetto a…

Contenuto

Nvidia Rubin: la nuova piattaforma AI entra in produzione con prestazioni record

Scopri anche

Nvidia Rubin: la nuova piattaforma AI entra in produzione con prestazioni record

Nvidia Rubin: la nuova piattaforma AI entra in produzione con prestazioni record

In questo articolo:
Nvidia ha annunciato ufficialmente l'entrata in produzione della piattaforma Vera Rubin, la prossima generazione di chip progettati specificamente per l'intelligenza artificiale. Il CEO Jensen Huang, durante il keynote al CES 2026 di Las Vegas, ha rivelato che la nuova architettura è già in fase di produzione completa e arriverà sul mercato nella seconda metà del 2026.

Le specifiche tecniche della piattaforma Rubin

⬆ Torna su La piattaforma Vera Rubin rappresenta il primo sistema AI estremamente co-progettato da Nvidia, composto da sei chip differenti che lavorano in integrazione. L'architettura include il processore Vera CPU, la GPU Rubin, lo switch NVLink 6, il ConnectX-9 SuperNIC, l'unità di elaborazione dati BlueField-4 e lo switch Ethernet Spectrum-6. Il sistema flagship NVL72 combina 72 unità grafiche Rubin con 36 processori centrali Vera. Ogni pacchetto GPU Rubin incorpora otto stack di memoria HBM4 che forniscono 288GB di capacità con una banda passante di 22 TB/s. Sul fronte computazionale, ogni GPU Rubin offre 50 PFLOPS di prestazioni di inferenza con il formato dati NVFP4, cinque volte superiori rispetto alla precedente generazione Blackwell GB200.

Miglioramenti radicali nell'efficienza AI

⬆ Torna su Secondo le dichiarazioni di Huang, la piattaforma Rubin promette di ridurre il costo di generazione dei token a circa un decimo rispetto alla piattaforma precedente. Questo miglioramento di efficienza potrebbe rendere l'AI su larga scala significativamente più economica da implementare. Il miglioramento delle prestazioni si attesta fino a cinque volte nelle operazioni di inferenza AI quando si servono chatbot e altre applicazioni di intelligenza artificiale. Huang ha illustrato come i chip possano essere organizzati in "pod" contenenti oltre 1.000 unità Rubin, migliorando l'efficienza nella generazione di token di dieci volte.

Tecnologie innovative per l'infrastruttura AI

⬆ Torna su Una delle novità chiave introdotte con Rubin è la tecnologia "Context Memory Storage", uno storage AI-native specificamente progettato per migliorare le prestazioni dei chatbot nelle conversazioni lunghe. Questa piattaforma di memorizzazione KV-cache aumenta l'inferenza a contesto lungo con cinque volte più token al secondo, migliorando anche l'efficienza energetica. Per la connettività, Rubin introduce NVLink 6 per lo scale-up networking, che aumenta la banda passante per GPU a 3,6 TB/s bidirezionale. Ogni switch NVLink 6 offre 28 TB/s di banda passante, mentre ogni rack NVL72 contiene nove di questi switch per un totale di 260 TB/s di banda passante di scale-up.

Il modello Alpamayo per i veicoli autonomi

⬆ Torna su Oltre all'hardware, Nvidia ha presentato Alpamayo, una famiglia di modelli di ragionamento open source per lo sviluppo di veicoli autonomi. Questo software non solo elabora l'input dei sensori e attiva sterzo, freni e accelerazione, ma ragiona anche sulle azioni che sta per intraprendere. Huang ha sottolineato l'approccio open source di Nvidia: "Non solo rendiamo open source i modelli, ma anche i dati che usiamo per addestrarli, perché solo in questo modo puoi veramente fidarti di come i modelli sono stati creati". Alpamayo include modelli vision-language-action, blueprint di simulazione e dataset che abilitano autonomia di livello 4.

Sicurezza e affidabilità della piattaforma

⬆ Torna su Per la prima volta, Vera Rubin estende l'ambiente trusted execution all'intero rack, proteggendo chip, fabric e livello di rete. Secondo Nvidia, questa misura è fondamentale per garantire segretezza e sicurezza per i modelli all'avanguardia dei laboratori AI. Il sistema incorpora anche miglioramenti significativi nell'affidabilità, disponibilità e manutenibilità a livello di rack, incluso un design modulare senza cavi che permette una sostituzione più rapida dei componenti rispetto ai precedenti rack NVL72.

Competizione e posizionamento di mercato

⬆ Torna su Mentre Nvidia domina il mercato del training dei modelli AI, la società affronta una competizione crescente nell'erogazione dei frutti di questi modelli agli utenti finali. Tradizionali rivali come AMD e clienti come Google rappresentano sfide significative in questo segmento. L'acquisizione di talenti e tecnologie dalla startup Groq, inclusi dirigenti che hanno contribuito alla progettazione dei chip AI di Google, potrebbe portare a nuovi prodotti che espandono la gamma Nvidia, senza però influenzare il core business dell'azienda.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai
  • inference
  • performance

Link utili

Apri l'articolo su DeafNews