Meta e Nvidia stringono accordo pluriennale per milioni di chip AI nei data center

Meta acquisirà milioni di GPU Blackwell e Rubin, oltre alle CPU Grace e Vera, per costruire data center hyperscale dedicati ad AI. Investimento da decine di mi…

Contenuto

Meta e Nvidia stringono accordo pluriennale per milioni di chip AI nei data center

Scopri anche

Meta e Nvidia stringono accordo pluriennale per milioni di chip AI nei data center

Meta e Nvidia: accordo strategico per milioni di processori AI

In questo articolo:

Meta Platforms ha concluso un accordo pluriennale con Nvidia per l'acquisizione di milioni di processori artificiali, inclusi GPU Blackwell e Rubin, per espandere la propria infrastruttura di data center. L'intesa prevede anche il deployment su larga scala delle CPU Grace e, potenzialmente, delle CPU Vera a partire dal 2027. Il valore del contratto è stimato dagli analisti intorno ai 50 miliardi di dollari, con Meta che rappresenta già circa il 9% delle entrate totali di Nvidia.

Dettagli tecnici dell'accordo hardware

⬆ Torna su

L'accordo comprende prodotti della generazione Blackwell attualmente disponibile e della futura architettura Vera Rubin, che è recentemente entrata in produzione. Meta diventerà il primo grande operatore a distribuire le CPU Grace di Nvidia come chip standalone su larga scala, segnando un'espansione significativa oltre i soli processori grafici. Le CPU Grace, basate su architettura ARM, promettono circa la metà del consumo energetico per determinati task comuni rispetto alle soluzioni tradizionali.

Meta integrerà anche gli switch Ethernet Spectrum-X per la propria piattaforma Facebook Open Switching System, ottimizzando la connettività a bassa latenza e alto throughput per i carichi di lavoro AI. I sistemi basati su GB300 verranno implementati per stabilire un'architettura unificata tra data center on-premises e l'ambiente NVIDIA Cloud Partner.

Data center hyperscale e investimenti

⬆ Torna su

Meta pianifica la costruzione di 30 data center, di cui 26 negli Stati Uniti. Due dei più grandi impianti AI sono già in costruzione: il sito Prometheus da 1 gigawatt a New Albany, Ohio, e il sito Hyperion da 5 gigawatt a Richland Parish, Louisiana. Quest'ultimo, del valore di circa 10 miliardi di dollari, sarà grande quanto un quarto di Manhattan. Un gigawatt corrisponde approssimativamente al fabbisogno elettrico di 750.000 abitazioni.

La società ha comunicato di poter spendere fino a 135 miliardi di dollari nel 2026 per supportare i propri sforzi nel campo dell'intelligenza artificiale, con un impegno complessivo di 600 miliardi di dollari negli Stati Uniti entro il 2028 per data center e infrastrutture fisiche. Il consumo energetico dei data center massivi sta diventando un fattore limitante per l'espansione dell'infrastruttura AI negli Stati Uniti, con alcuni stati che stanno valutando restrizioni sulle nuove costruzioni.

Efficienza energetica e calcolo riservato

⬆ Torna su

Le architetture Blackwell e Grace sono progettate per fornire prestazioni superiori con un consumo energetico inferiore, un fattore rilevante in un contesto in cui l'energia è diventata una variabile strategica. Meta sta espandendo l'uso di Nvidia Confidential Computing per supportare le funzionalità AI in WhatsApp, con la tecnologia in grado di elaborare dati privatamente mantenendo la riservatezza degli utenti e l'integrità delle informazioni.

Secondo Nvidia, l'ottimizzazione collettiva delle librerie dell'ecosistema CPU mira a raggiungere efficienza in ogni generazione hardware. I team di ingegneria delle due aziende collaboreranno in un'attività di codesign approfondito per ottimizzare e accelerare i modelli AI all'avanguardia per le piattaforme di Meta.

Posizionamento competitivo

⬆ Torna su

Jensen Huang, fondatore e CEO di Nvidia, ha dichiarato che nessun'altra azienda distribuisce AI alla scala di Meta, integrando la ricerca all'avanguardia con infrastrutture su scala industriale per alimentare i più grandi sistemi di personalizzazione e raccomandazione al mondo per miliardi di utenti. Mark Zuckerberg ha descritto l'obiettivo di "fornire superintelligenza personale a ogni persona nel mondo" attraverso la piattaforma Vera Rubin.

Nonostante l'impegno espanso, Meta ha continuato a testare alternative per ridurre la dipendenza da Nvidia, i cui chip sono diventati un collo di bottiglia nell'industria. A novembre 2025, le azioni Nvidia sono scese dopo report secondo cui Meta stava valutando le Tensor Processing Units di Google per i propri data center nel 2027. Meta sviluppa anche silicon proprietario e ha utilizzato chip AMD, una relazione che ha attirato attenzione dopo che AMD ha concluso un accordo con OpenAI a ottobre.

Implicazioni per l'ecosistema AI

⬆ Torna su

L'accordo evidenzia come l'infrastruttura di calcolo sia diventata centrale nella trasformazione tecnologica globale. I data center non sono più semplici strutture che ospitano server, ma ambienti altamente specializzati per il processamento parallelo, l'alta densità di potenza e la gestione di volumi massivi di dati. Quando un'azienda delle dimensioni di Meta assicura la fornitura di milioni di chip specializzati, invia un segnale chiaro al mercato: controllare l'infrastruttura tecnologica è strategico.

La competizione nell'intelligenza artificiale non dipende più solo dallo sviluppo di modelli migliori, ma dalla capacità operativa di eseguirli in modo coerente, efficiente e a costi controllati. Per le aziende al di fuori del cerchio dei giganti tecnologici, questa realtà ha implicazioni dirette: l'accesso all'infrastruttura avanzata da solo non garantisce risultati, ma richiede un'architettura tecnologica in grado di integrare sistemi legacy, piattaforme ERP, strumenti interni e flussi di dati distribuiti.

Contesto interno e sfide

⬆ Torna su

L'espansione aggressiva dell'infrastruttura AI ha generato anche tensioni interne. Yann LeCun, chief AI di Meta, ha lasciato l'azienda fondando AMI Labs, convinto che gli attuali modelli Transformer non porteranno alla superintelligenza e che sia necessario sviluppare World Models basati su un'architettura differente. Meta sta lavorando su un nuovo modello AI frontier denominato Avocado, destinato a succedere alla tecnologia Llama, il cui ultimo rilascio non ha generato ampio entusiasmo tra gli sviluppatori.

Per Nvidia, l'accordo con Meta dimostra che l'azienda può difendere la propria posizione dominante nel mercato dei chip AI nonostante la crescente competizione e gli sviluppi interni da parte degli hyperscaler. L'annuncio è stato comunicato strategicamente una settimana prima della pubblicazione dei risultati trimestrali di Nvidia, segnalando una domanda continuativa per i prodotti dell'azienda.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'accordo consolida la dipendenza strategica di Meta dall'hardware Nvidia, ma emergono elementi di complessità sia interni che di mercato.

  • Scenario 1: Meta prosegue la diversificazione verso silicon proprietario e soluzioni alternative, riducendo progressivamente l'esposizione verso un singolo fornitore.
  • Scenario 2: I vincoli energetici e le possibili restrizioni normative rallentano l'espansione dei data center hyperscale, imponendo revisioni ai piani di crescita.
  • Scenario 3: La transizione verso il modello Avocado e l'uscita di figure chiave ridefiniscono l'approccio tecnologico con architetture differenti.

Cosa monitorare

⬆ Torna su
  • L'evoluzione dei progetti Prometheus e Hyperion e eventuali ostacoli nella fase di costruzione.
  • Le decisioni normative sui data center e la disponibilità energetica per supportare la scala prevista.
  • Lo sviluppo del modello Avocado come successore della tecnologia Llama.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • meta
  • ai-infrastructure
  • gpu

Link utili

Apri l'articolo su DeafNews