Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima

Azure ha integrato i requisiti architetturali di Rubin nei propri datacenter, garantendo deploy senza riconfigurazioni grazie alla co-progettazione con NVIDIA.

Contenuto

Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima

Scopri anche

Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima

Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima

In questo articolo:

L'arrivo della piattaforma Rubin trova Azure preparato

⬆ Torna su Il CES 2026 ha mostrato l'arrivo della piattaforma NVIDIA Rubin, insieme alla dimostrata prontezza di Azure per il deployment. La strategia dei datacenter di Microsoft a lungo termine è stata ingegnerizzata proprio per momenti come questo, dove i sistemi di prossima generazione di NVIDIA si inseriscono direttamente in un'infrastruttura che ne ha anticipato i requisiti di alimentazione, termici, di memoria e di rete con anni di anticipo sul settore. La collaborazione a lungo termine con NVIDIA garantisce che Rubin si integri perfettamente nel design di piattaforma forward-looking di Azure. I datacenter AI di Azure sono progettati per il futuro del computing accelerato, il che abilita l'integrazione senza soluzione di continuità dei rack NVIDIA Vera Rubin NVL72 nelle superfactory AI next-gen più grandi di Azure.

L'infrastruttura NVIDIA più recente e la risposta Azure

⬆ Torna su Le più recenti infrastrutture AI NVIDIA richiedono aggiornamenti significativi in termini di alimentazione, raffreddamento e ottimizzazione delle prestazioni. Tuttavia, l'esperienza di Azure con i siti Fairwater e i multipli cicli di aggiornamento nel corso degli anni dimostra un'abilità nel migliorare ed espandere flessibilmente l'infrastruttura AI in sintonia con i progressi tecnologici. Microsoft vanta anni di esperienza, validata dal mercato, nella progettazione e nel deployment di infrastrutture AI scalabili che si evolvono con ogni importante avanzamento della tecnologia AI. In perfetta sincronia con ogni generazione successiva dell'infrastruttura di calcolo accelerato NVIDIA, Microsoft integra rapidamente le innovazioni NVIDIA e le distribuisce su larga scala.

Implementazioni pionieristiche e record prestazionali

⬆ Torna su Microsoft ha svelato le prime e più ampie implementazioni delle piattaforme NVIDIA GB200 NVL72 e NVIDIA GB300 NVL72, architettate come rack in singoli supercomputer che addestrano modelli AI in modo drammaticamente più veloce. Ciò aiuta Azure a rimanere una scelta primaria per i clienti che cercano capacità AI avanzate. I primi deployment su larga scala delle GPU NVIDIA Ampere e Hopper, connesse tramite networking NVIDIA Quantum-2 InfiniBand, sono stati determinanti per dare vita a modelli come GPT-3.5. Altri cluster hanno stabilito record di prestazioni nel supercomputing, dimostrando la capacità di portare online sistemi di prossima generazione più velocemente e con prestazioni reali superiori rispetto al resto del settore.

L'approccio integrato di piattaforma Azure

⬆ Torna su Azure è progettato per far lavorare insieme computazione, networking, storage, software e infrastruttura come una singola piattaforma integrata. Questo è il modo in cui Microsoft costruisce un vantaggio duraturo in Azure e offre avanzamenti in termini di costi e prestazioni che si accumulano nel tempo. Massimizzare l'utilizzo della GPU richiede un'ottimizzazione a ogni livello. Oltre alla capacità di Azure di adottare precocemente le nuove piattaforme di calcolo accelerato NVIDIA, i vantaggi derivano anche dalla piattaforma circostante: storage Blob ad alta velocità, progettazione regionale e di posizionamento di prossimità modellata sui pattern di produzione reali, e layer di orchestrazione come CycleCloud e AKS ottimizzati per lo scheduling a basso overhead su scala di cluster massiva.

Innovazioni first-party per la scalabilità

⬆ Torna su Azure Boost e altri motori di offload eliminano i colli di bottiglia di I/O, rete e storage, permettendo ai modelli di scalare uniformemente. Storage più veloce alimenta cluster più grandi, un networking più potente li sostiene e un'orchestrazione ottimizzata mantiene stabili le prestazioni end-to-end. Le innovazioni first-party rinforzano il ciclo: le unità scambiatrici di calore per il raffreddamento liquido mantengono termiche controllate, il silicio HSM di Azure scarica il lavoro di sicurezza e Azure Cobalt offre prestazioni ed efficienza eccezionali per il calcolo generico e i task adiacenti all'AI. Insieme, queste integrazioni assicurano che l'intero sistema scala efficientemente, così gli investimenti in GPU producono il massimo valore.

Prontezza per Rubin: presupposti architetturali già incorporati

⬆ Torna su Questo approccio sistemistico è ciò che rende Azure pronto per la piattaforma Rubin. Microsoft sta fornendo nuovi sistemi e stabilendo una piattaforma end-to-end già modellata dai requisiti che Rubin porta con sé. I Superchip NVIDIA Vera Rubin forniranno 50 PF di prestazioni inference NVFP4 per chip e 3.6 EF NVFP4 per rack, un balzo di cinque volte rispetto ai sistemi a rack NVIDIA GB200 NVL72. Azure ha già incorporato i presupposti architetturali fondamentali richiesti da Rubin. L'approccio di Azure nel progettare per piattaforme di calcolo accelerato di prossima generazione come Rubin è stato dimostrato in diversi anni, inclusi traguardi significativi. Anni di co-design con NVIDIA attraverso interconnessioni, sistemi di memoria, termiche, packaging e architettura a livello di rack significano che Rubin si integra direttamente nella piattaforma Azure senza necessità di riprogettazione. I presupposti fondamentali di Rubin sono già riflessi nei principi di progettazione del networking, alimentazione, raffreddamento, orchestrazione e pod exchange.

Le ambizioni interne di Microsoft sul silicio

⬆ Torna su Microsoft acquista molte GPU sia da NVIDIA che da AMD. Tuttavia, andando avanti, i leader di Redmond desiderano spostare la maggioranza dei suoi carichi di lavoro AI dalle GPU ai propri acceleratori sviluppati internamente. La società è piuttosto in ritardo alla festa del silicio personalizzato. Mentre Amazon e Google costruiscono CPU personalizzate e acceleratori AI da anni, Microsoft ha rivelato i suoi acceleratori AI Maia solamente alla fine del 2023. A guidare la transizione è un focus sulle prestazioni per dollaro, che per un provider cloud hyperscale è l'unica metrica che conta realmente. Il CTO di Microsoft Kevin Scott ha affermato che fino a questo punto, NVIDIA ha offerto il miglior prezzo-prestazioni, ma è disposto a prendere in considerazione qualsiasi cosa per soddisfare la domanda. Andando avanti, Scott ha suggerito che Microsoft spera di utilizzare i propri chip per la maggioranza dei carichi di lavoro dei suoi datacenter. Con il suo primo acceleratore AI interno, il Maia 100, Microsoft è stata in grado di liberare capacità GPU spostando GPT-3.5 di OpenAI sul proprio silicio già nel 2023. Tuttavia, con soli 800 teraFLOPS di prestazioni BF16, 64GB di HBM2e e 1.8TB/s di banda di memoria, il chip è rimasto ben al di sotto delle GPU concorrenti di NVIDIA e AMD.

Una transizione graduale senza abbandono totale dei GPU

⬆ Torna su Microsoft si trova apparentemente nel processo di portare sul mercato un acceleratore Maia di seconda generazione il prossimo anno che senza dubbio offrirà prestazioni di calcolo, memoria e interconnessione più competitive. Ma mentre potremmo vedere un cambiamento nel mix da GPU ad ASIC AI nei data center Microsoft in futuro, è improbabile che questi sostituiscano completamente i chip di NVIDIA e AMD. Negli ultimi anni, Google e Amazon hanno schierato decine di migliaia dei loro acceleratori TPU e Trainium. Sebbene questi chip li abbiano aiutati a garantire alcune importanti vittorie di clienti, come Anthropic, questi chip sono più spesso utilizzati per accelerare i carichi di lavoro interni delle aziende. Di conseguenza, continuiamo a vedere deployment su larga scala di GPU NVIDIA e AMD su queste piattaforme cloud, in parte perché i clienti le richiedono ancora. Va notato che gli acceleratori AI non sono gli unici chip personalizzati su cui Microsoft sta lavorando. Redmond ha anche la propria CPU chiamata Cobalt e tutta una serie di silicio per la sicurezza della piattaforma progettato per accelerare la crittografia e salvaguardare gli scambi di chiavi attraverso i suoi vasti domini di datacenter.

Vantaggi immediati per i clienti Azure

⬆ Torna su L'allineamento tra la progettazione di Azure e i requisiti Rubin offre ai clienti benefici immediati con deployment più rapidi, scaling più veloce e impatto più immediato mentre costruiscono la prossima era dell'AI su larga scala.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • azure
  • nvidia
  • microsoft
  • gpu

Link utili

Apri l'articolo su DeafNews