Meta e Nvidia siglano partnership pluriennale per infrastruttura AI iperscalare

Accordo strategico per la distribuzione di milioni di GPU Blackwell e Rubin, CPU Grace e networking Spectrum-X nei data center Meta per carichi di lavoro AI ad…

Contenuto

Meta e Nvidia siglano partnership pluriennale per infrastruttura AI iperscalare

Scopri anche

Meta e Nvidia siglano partnership pluriennale per infrastruttura AI iperscalare

Meta e Nvidia siglano partnership pluriennale per infrastruttura AI iperscalare

In questo articolo:

Meta ha annunciato una partnership strategica pluriennale e multigenerazionale con Nvidia finalizzata alla costruzione di infrastrutture AI iperscalari in grado di gestire alcuni dei carichi di lavoro più impegnativi del settore tecnologico. L'accordo prevede la distribuzione su larga scala di GPU Blackwell e Rubin, CPU Grace e successivamente Vera, insieme alla rete Ethernet Spectrum-X, all'interno di data center ottimizzati per il training e l'inference AI.

Secondo quanto riportato dalle fonti, Meta deployà milioni di GPU Nvidia nei propri data center globali. L'iniziativa combina i carichi di lavoro produttivi estesi di Meta con l'ecosistema hardware e software di Nvidia per ottimizzare prestazioni ed efficienza energetica. Le due aziende stanno creando un'architettura infrastrutturale unificata che comprende data center on-premises e deploy tramite partner cloud Nvidia.

Deployment su larga scala di GPU Blackwell e Rubin

⬆ Torna su

I sistemi basati su GB300 di Nvidia costituiranno la spina dorsale dei deployment. Questi offrono una piattaforma che integra calcolo, memoria e storage per soddisfare le richieste dei modelli AI di nuova generazione. Meta ha in programma di preparare i cluster per la futura generazione Rubin, come parte della propria roadmap infrastrutturale AI a lungo termine.

La partnership si estende oltre l'acquisto di hardware. I team di ingegneria di Meta e Nvidia collaboreranno al co-design dei modelli AI e all'ottimizzazione software lungo tutto lo stack infrastrutturale. Allineando hardware, software e carichi di lavoro, le aziende mirano a migliorare le prestazioni per watt e accelerare il training per modelli all'avanguardia.

Meta ha precedentemente stimato che entro la fine del 2024 avrebbe acquistato 350.000 chip H100 da Nvidia, e che entro la fine del 2025 l'azienda avrebbe avuto accesso a 1,3 milioni di GPU in totale. Il valore finanziario dell'accordo ampliato non è stato divulgato, ma durante una recente chiamata sugli utili Meta ha dichiarato di prevedere un aumento drammatico della spesa per l'infrastruttura AI quest'anno, tra i 115 e i 135 miliardi di dollari, rispetto ai 72,2 miliardi dell'anno precedente.

Primo deployment su larga scala di CPU Grace standalone

⬆ Torna su

Un elemento distintivo dell'accordo riguarda le CPU Nvidia. Meta sarà il primo gigante tecnologico ad annunciare un acquisto su larga scala della CPU Grace di Nvidia come chip standalone. Nvidia ha descritto questo deployment come la prima implementazione Grace-only su larga scala, supportata da lavoro congiunto di ottimizzazione per migliorare le prestazioni per watt.

Le CPU basate su Arm Grace sono già in uso nei data center produttivi di Meta. Secondo l'azienda, questi processori forniscono prestazioni migliorate per watt, supportando la strategia a lungo termine per rendere le operazioni più efficienti dal punto di vista energetico. Vengono implementate ottimizzazioni software nelle librerie dell'ecosistema CPU per migliorare throughput ed efficienza energetica per generazioni successive di carichi di lavoro AI.

Le aziende stanno inoltre lavorando al deployment delle CPU Vera, con potenziale rollout su larga scala nel 2027. Questo sforzo è destinato ad espandere la capacità di calcolo AI ad alta efficienza energetica di Meta e supportare l'ecosistema software Arm più ampio.

Networking Spectrum-X e Confidential Computing

⬆ Torna su

Meta sta espandendo l'integrazione del networking Ethernet Spectrum-X di Nvidia in tutta la propria infrastruttura. La piattaforma mira a fornire prestazioni a bassa latenza prevedibili migliorando l'efficienza operativa ed energetica per carichi di lavoro su larga scala. Il networking efficiente rimane essenziale per i cluster GPU, dove la velocità di trasferimento dati influisce direttamente sulle prestazioni di training.

L'accordo include anche l'integrazione degli switch Ethernet Spectrum-X nel sistema Facebook Open Switching System di Meta. Inoltre, Meta sta utilizzando Nvidia Confidential Computing per l'elaborazione privata su WhatsApp, abilitando funzionalità AI proteggendo i dati degli utenti. Le aziende prevedono di estendere le capacità di confidential computing ad altri servizi attraverso le piattaforme di Meta.

Architettura unificata e contesto competitivo

⬆ Torna su

L'architettura unificata che Meta sta sviluppando connette i data center on-premises con i deployment dei Nvidia Cloud Partner. L'obiettivo è semplificare le operazioni migliorando prestazioni e scalabilità. Questa struttura ibrida permette a Meta di espandere la capacità di calcolo quando la domanda aumenta.

L'accordo arriva in un momento in cui i principali laboratori AI e le aziende software multimiliardarie stanno cercando di diversificare le fonti di potenza di calcolo. OpenAI, Anthropic, Meta, xAI e molti altri hanno fatto affidamento sull'hardware Nvidia per il training e il deployment dei modelli AI generativa. In molti casi stanno costruendo o personalizzando i propri chip, mettendo pressione su Nvidia per offrire più servizi.

Microsoft si affida a una combinazione di GPU Nvidia e chip personalizzati per i propri servizi cloud AI. Google utilizza chip Nvidia ma si basa principalmente sulle proprie Tensor Processing Units. Anthropic utilizza una combinazione di GPU Nvidia, TPU Google e chip Amazon. OpenAI ha firmato un accordo massiccio con Nvidia che potrebbe valere fino a 100 miliardi di dollari, e sta lavorando con Broadcom per creare il proprio hardware chip AI.

Secondo l'analista Ben Bajarin di Creative Strategies, la mossa di Meta segnala che Nvidia riconosce che una gamma crescente di software AI deve girare su CPU, così come le applicazioni cloud convenzionali. L'attenzione dell'industria verso le CPU nei data center deriva dall'AI agentic, che impone nuove richieste alle architetture CPU general-purpose.

Le azioni Nvidia hanno chiuso a 184,97 dollari, in aumento del 1,20%, muovendosi al rialzo dopo l'annuncio. Gli investitori hanno focalizzato l'attenzione sulla scala dell'impegno di Meta, che rafforza il ruolo di Nvidia come fornitore primario di hardware AI avanzato.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La partnership segna un consolidamento dell'ecosistema hardware Nvidia nell'infrastruttura AI di Meta, con conseguenze potenziali sul mercato dei data center e sulle dinamiche competitive tra big tech.

  • Scenario 1: Nvidia rafforza il proprio posizionamento verso i carichi AI agentic, estendendo la presenza dalle GPU alle CPU Grace e Vera, segmento finora dominato da fornitori tradizionali.
  • Scenario 2: Meta ottiene vantaggi operativi dall'architettura unificata, ma l'aumento della spesa infrastrutturale (fino a 135 miliardi di dollari) potrebbe impattare i margini nel medio termine.
  • Scenario 3: La concorrenza (Microsoft, Google, OpenAI) potrebbe accelerare investimenti in chip proprietari per ridurre la dipendenza da fornitori esterni, ridefinendo gli equilibri del settore.

Cosa monitorare

⬆ Torna su
  • Tempi e risultati del deployment Grace standalone, primo test su larga scala delle CPU Nvidia in produzione.
  • Estensione del confidential computing oltre WhatsApp ad altri servizi Meta.
  • Segnali di risposta strategica da parte di Microsoft e Google negli aggiornamenti infrastrutturali futuri.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • meta
  • ai-infrastructure
  • gpu

Link utili

Apri l'articolo su DeafNews