Nvidia investe 4 miliardi di dollari nella fotonica per garantire la supply chain dei data center AI

Nvidia destina 2 miliardi di dollari ciascuno a Coherent e Lumentum per sviluppare silicon photonics e risolvere il collo di bottiglia delle interconnessioni o…

Contenuto

Nvidia investe 4 miliardi di dollari nella fotonica per garantire la supply chain dei data center AI

Scopri anche

Nvidia investe 4 miliardi di dollari nella fotonica per garantire la supply chain dei data center AI

Nvidia investe 4 miliardi di dollari nella fotonica per garantire la supply chain dei data center AI

In questo articolo:

Nvidia ha annunciato investimenti combinati per un totale di 4 miliardi di dollari in due aziende manifatturiere nel settore della fotonica, Lumentum e Coherent. Ogni accordo prevede un investimento di 2 miliardi di dollari, accompagnato da impegni di acquisto pluriennali per diversi miliardi di dollari e diritti di accesso futuro alla capacità produttiva per componenti laser avanzati e prodotti di networking ottico. La mossa rappresenta un'estensione della strategia di Nvidia nell'ingegnerizzare la propria supply chain critica, applicando lo stesso approccio già utilizzato per la memoria ad alta larghezza di banda (HBM) e l'imballaggio avanzato.

L'annuncio è avvenuto il 2 marzo 2026 e riguarda partnership strategiche pluriennali finalizzate ad avanzare la tecnologia delle interconnessioni ottiche per i data center AI di prossima generazione. Entrambi gli accordi supporteranno l'espansione della produzione e della ricerca e sviluppo negli Stati Uniti per prodotti laser avanzati e di networking ottico.

La struttura degli accordi con Coherent e Lumentum

⬆ Torna su

Gli accordi con le due aziende presentano strutture quasi identiche. Con Lumentum, l'investimento di 2 miliardi di dollari di Nvidia supporterà l'espansione della ricerca e sviluppo e della produzione negli Stati Uniti, includendo un nuovo impianto di fabbricazione. L'accordo comprende anche un "impegno di acquisto pluriennale" da parte di Nvidia e "diritti di accesso futuro alla capacità per componenti laser avanzati".

L'accordo con Coherent segue lo stesso modello: un investimento di 2 miliardi di dollari per supportare ricerca e sviluppo e l'espansione degli impianti di produzione con sede negli Stati Uniti, unito a un impegno di acquisto pluriennale e diritti di accesso futuro per componenti laser avanzati e prodotti di networking ottico. Coherent opera in oltre 20 paesi e porta quella che definisce come la "più ampia e profonda pila tecnologica" del settore nella fotonica.

Jim Anderson, CEO di Coherent, ha descritto la partnership come un'estensione di una relazione ventennale con Nvidia attraverso molteplici famiglie di prodotti. Michael Hurlston, CEO di Lumentum, ha confermato che l'azienda sta investendo in un nuovo impianto di fabbricazione per aumentare la capacità produttiva e accelerare l'innovazione.

Il collo di bottiglia delle interconnessioni ottiche

⬆ Torna su

La decisione di Nvidia di investire simultaneamente in due fornitori di componenti ottici segnala che l'azienda considera l'ottica come un collo di bottiglia strategico che richiede lo stesso livello di ingegneria della supply chain già applicato alla memoria HBM, all'imballaggio avanzato e al networking negli ultimi anni. Le decisioni sulla supply chain di Nvidia definiscono effettivamente il limite di capacità per l'intero sviluppo dell'infrastruttura AI, e quel limite è ora definito dalla fotonica.

Il vincolo principale che Nvidia sta affrontando è la limitata capacità globale per la fabbricazione di laser all'indio fosfuro (InP), il materiale semiconduttore composto richiesto per i laser ad onda continua ad alta velocità utilizzati nei transceiver ottici 800G e 1.6T e nei motori con ottica co-imballata (CPO). A differenza della produzione di wafer al silicio, che beneficia di decenni di riduzione dei costi guidata dalla scala e di un ampio ecosistema di fonderie, la crescita epitassiale InP viene eseguita da un numero ridotto di produttori specializzati con throughput e rese intrinsecamente inferiori. Secondo i report, la domanda attuale di transceiver supera l'offerta di un fattore due a causa dei vincoli InP, creando una dinamica che rispecchia il collo di bottiglia nell'imballaggio avanzato CoWoS del 2023-2024 che aveva limitato la rampa di produzione degli H100 di Nvidia.

I collegamenti in rame tradizionali sono impraticabili per le velocità 800 Gbps richieste nei moderni fabric AI, dove gli switch sono posizionati alla fine di una fila per creare topologie a bassa latenza, e quasi ogni collegamento server-to-switch richiede ora una connessione ottica. Man mano che il rame raggiunge il suo limite a frequenze più elevate, la transizione ottica non è opzionale ma obbligatoria.

Il ruolo della silicon photonics

⬆ Torna su

La silicon photonics utilizza la luce invece dei segnali elettrici per creare connessioni tra chip AI, offrendo un percorso verso un trasferimento dati più veloce ed efficiente tra processori. Poiché i modelli AI crescono e i cluster GPU si espandono fino a milioni di unità, le connessioni tradizionali basate su rame non riescono a tenere il passo: generano troppo calore, consumano troppa energia e raggiungono limiti di larghezza di banda.

I sistemi basati su CPO di Nvidia, come Quantum-X e Spectrum-X Photonics, mirano a riduzioni del consumo energetico fino a 3,5 volte e miglioramenti di resilienza di 10 volte, guadagni che diventano essenziali quando un singolo rack AI consuma fino a 600 kW e il networking ottico da solo può consumare il 10% di quell'envelope di potenza. Le fibre ottiche supportano una larghezza di banda significativamente più alta e una latenza più bassa rispetto al rame, utilizzando meno energia.

Jensen Huang, CEO di Nvidia, ha dichiarato: "L'AI ha reinventato l'informatica e sta guidando la più grande costruzione di infrastrutture di calcolo della storia. Insieme a Lumentum, Nvidia sta facendo avanzare la silicon photonics più sofisticata al mondo per costruire la prossima generazione di fabbriche AI su scala gigawatt". Riguardo alla partnership con Coherent, Huang ha aggiunto che l'azienda sta "pionierizzando la silicon photonics di prossima generazione per abilitare l'infrastruttura AI a scala, velocità ed efficienza energetica senza precedenti".

Complementarità strategica dei partner

⬆ Torna su

La decisione di investire in due partner ottici anziché selezionarne uno solo è architettonicamente deliberata. Coherent e Lumentum occupano posizioni complementari nella catena del valore ottico. Coherent porta competenze consolidate nell'integrazione CPO, nei connettori fiber-to-chip e nell'imballaggio ottico più ampio. Lumentum si specializza in chip laser ad onda continua ad alta potenza utilizzati in sorgenti laser esterne per CPO.

Questa complementarità significa che Nvidia sta costruendo profondità attraverso livelli distinti dello stack ottico, dalla sorgente laser InP fino al motore ottico imballato. Gli investimenti combinati da 4 miliardi di dollari forniscono anche a Coherent e Lumentum la certezza di bilancio necessaria per impegnarsi in nuove linee di fabbricazione e nell'espansione manifatturiera negli Stati Uniti.

Contesto finanziario e di mercato

⬆ Torna su

L'investimento arriva in un momento di crescita significativa per Nvidia. La società ha registrato ricavi del data center passati da 15 miliardi di dollari nell'anno fiscale 2023 a 193,7 miliardi di dollari nell'anno fiscolare 2026. I ricavi del Q4 FY2026 hanno raggiunto 68,1 miliardi di dollari, in crescita del 73% su base annua. Nvidia dispone di riserve di cassa segnalate di 62,56 miliardi di dollari e ha recentemente contribuito con 30 miliardi di dollari al round di finanziamento record di 110 miliardi di dollari di OpenAI.

Le azioni NVDA sono scambiate a 177,19 dollari al 2 marzo, in calo del 4,16% nella giornata, sebbene il calo sembri non correlato alla notizia Coherent. A seguito dell'annuncio, il prezzo delle azioni Coherent è aumentato del 7,3%, mentre quello di Lumentum è salito del 7,6%. Gli analisti mantengono un sentimento ampiamente positivo, con un prezzo target medio a 12 mesi di 264,25 dollari.

Per una società che ha realizzato quasi 20 volte quell'importamento negli ultimi tre mesi da sola, 4 miliardi di dollari rappresentano una quota limitata. Il portafoglio di investimenti di Nvidia è esploso da circa 230 milioni di dollari due anni fa a più di 13 miliardi di dollari alla fine del 2025.

Prospettive competitive e tecnologiche

⬆ Torna su

La mossa segue una tendenza simile nel settore: Marvell Technology ha precedentemente acquisito la startup semiconduttrice Celestial AI in un accordo da 3,25 miliardi di dollari mirato alle capacità di fotonica. Neurophos, sostenuta da Bill Gates, sta sviluppando chip AI che utilizzano la fotonica per accelerare oltre ciò che le migliori GPU possono fare.

I principali hyperscaler come Meta e Microsoft hanno sostenuto separatamente un ecosistema competitivo di CPO pluggable per evitare il vendor lock-in. La struttura non esclusiva di entrambi gli accordi, combinata con il lavoro di Coherent su socket ad alte prestazioni che collegano moduli pluggable e CPO, suggerisce che Nvidia sta posizionando la propria supply chain ottica per supportare sia configurazioni proprietarie che interoperabili.

La piattaforma Vera Rubin di Nvidia, in uscita nella seconda metà del 2026, promette miglioramenti di 10 volte nelle prestazioni per watt, ma questi guadagni dipendono in parte da una migliore tecnologia di interconnessione. Il prossimo traguardo da osservare sarà il dispiegamento del primo gigawatt di sistemi Vera Rubin con OpenAI, previsto nella seconda metà del 2026.

Tempistiche e rischi

⬆ Torna su

La previsione base di Futurum assume colli di bottiglia moderati in HBM e imballaggio avanzato fino al 2027, prima che l'equilibrio offerta/domanda torni nel 2028-2029. I vincoli della supply chain ottica potrebbero seguire una cronologia di risoluzione pluriennale simile. Investendo direttamente nella capacità produttiva e nella ricerca e sviluppo di Coherent e Lumentum, Nvidia sta tentando di comprimere quella cronologia.

La capacità produttiva globale dedicata AI è proiettata a quasi triplicare dal 2026 al 2031. Secondo le stime di Jensen Huang, tra 3.000 e 4.000 miliardi di dollari saranno spesi in infrastruttura AI entro la fine del decennio. Gli hyperscaler maggiori sono proiettati a spendere quasi 700 miliardi di dollari in infrastruttura data center AI quest'anno, con Nvidia posizionata a catturare circa il 60% di quella spesa.

I rischi includono la capacità dei partner di rispettare le promesse di ricerca e sviluppo, potenziali ritardi nello sviluppo della silicon photonics di prossima generazione, e la possibilità che Nvidia scelga eventualmente di costruire queste capacità internamente. Un rallentamento nell'evoluzione dell'infrastruttura AI a causa di ostacoli normativi o cambiamenti nelle priorità di spesa aziendale ridurrebbe la domanda per i componenti ottici avanzati che Nvidia sta garantendo.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'investimento simultaneo in due fornitori complementari segnala una strategia di controllo verticale sulla filatura ottica, replicando il modello già applicato alla memoria HBM e all'imballaggio avanzato.

  • Scenario 1: Se la capacità produttiva InP non rampa sufficientemente, il collo di bottiglia sui transceiver potrebbe persistere, limitando la scalata dei cluster GPU nonostante gli investimenti.
  • Scenario 2: La complementarità tra Coherent e Lumentum potrebbe accelerare l'adozione dei sistemi CPO, riducendo i consumi energetici nei rack AI ad alta densità.
  • Scenario 3: La concentrazione della supply chain ottica sotto l'egida di Nvidia potrebbe creare dipendenze strategiche per l'intero ecosistema infrastrutturale AI.

Cosa monitorare

⬆ Torna su
  • Tempi di attivazione dei nuovi impianti di fabbricazione negli Stati Uniti e impatto sulla capacità globale di produzione InP.
  • Evoluzione del rapporto domanda/offerta per transceiver 800G e 1.6T nei prossimi cicli di approvvigionamento.
  • Reazioni competitive da parte di altri actor dell'infrastruttura AI sulla silicon photonics.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • datacenter
  • gpu

Link utili

Apri l'articolo su DeafNews