Nvidia fornirà 1 milione di chip ad Amazon Web Services entro il 2027

Nvidia ha siglato un accordo pluriennale con Amazon Web Services per la fornitura di 1 milione di GPU e tecnologie di networking. Le consegne inizieranno nel 2…

Contenuto

Nvidia fornirà 1 milione di chip ad Amazon Web Services entro il 2027

Scopri anche

Nvidia fornirà 1 milione di chip ad Amazon Web Services entro il 2027

Nvidia fornirà 1 milione di chip ad Amazon Web Services entro il 2027

In questo articolo:

Nvidia ha raggiunto un accordo con Amazon Web Services per la fornitura di un milione di unità di elaborazione grafica (GPU) insieme a una serie di altre tecnologie per l'intelligenza artificiale. L'intesa, annunciata durante la conferenza GTC di Nvidia, prevede consegne che avranno inizio nel 2026 e si completeranno entro la fine del 2027. Ian Buck, vicepresidente del hyperscale e high-performance computing presso Nvidia, ha confermato i dettagli dell'accordo in una intervista a Reuters.

La composizione dell'accordo

⬆ Torna su

L'operazione non si limita alla fornitura di GPU. Secondo quanto riportato dalle fonti, la transazione include una gamma ampia di chip Nvidia, tra cui i chip di networking Spectrum e i processori Groq che Nvidia ha lanciato questa settimana following un accordo di licenza da 17 miliardi di dollari con una startup di chip AI alla fine dell'anno scorso. L'accordo copre diverse architetture GPU, includendo le famiglie Blackwell e Rubin, e interessa le regioni cloud globali di AWS.

I termini finanziari dell'accordo non sono stati divulgati. Tuttavia, l'azienda ha indicato che vede un'opportunità di vendita complessiva di 1.000 miliardi di dollari per le sue famiglie di chip Rubin e Blackwell entro il 2027. Questo orizzonte temporale coincide con le proiezioni del CEO Jensen Huang sulle opportunità di ricavi legate alla domanda di chip Blackwell e Rubin.

L'approccio all'inference AI

⬆ Torna su

AWS intende utilizzare una combinazione di chip Groq di Nvidia insieme ad altri sei processori dell'azienda per rendere più efficiente l'inference AI. Il termine "inference" indica il processo mediante il quale i sistemi di intelligenza artificiale generano risposte e svolgono compiti per conto degli utenti. "L'inference è difficile. È terribilmente difficile", ha dichiarato Buck a Reuters. "Per essere i migliori nell'inference, non si può contare su un solo chip. Usiamo effettivamente tutti e sette i chip."

Secondo Nvidia, questo tipo di elaborazione AI richiede una combinazione di diverse architetture di chip. Invece di affidarsi a un singolo tipo di processore, l'azienda si concentra su una gamma più ampia di tecnologie per ottimizzare prestazioni ed efficienza. Il provider cloud intende sfruttare questo approccio per affinare ulteriormente la sua infrastruttura e scalarla in modo più efficace per i clienti di grandi dimensioni.

L'integrazione nei data center AWS

⬆ Torna su

L'accordo prevede anche l'installazione delle apparecchiature di networking Connect X e Spectrum X di Nvidia nei data center AWS. Si tratta di una mossa rilevante, poiché i data center AWS utilizzano da anni apparecchiature di networking personalizzate che l'azienda ha perfezionato nel tempo. "Continueranno a farlo, naturalmente", ha spiegato Buck. "Ma stiamo collaborando ora all'implementazione di Connect X e Spectrum X per quei carichi di lavoro importanti e i clienti più grandi nell'ambito AI con AWS."

L'integrazione di apparecchiature di networking Nvidia rappresenta un cambiamento strategico per AWS. Amazon ha tradizionalmente fatto molto affidamento su soluzioni di networking interne. Partnership con Nvidia in quest'area suggerisce l'adozione di una strategia ibrida che combina tecnologia proprietaria con innovazioni esterne. Gli analisti del settore notano che tali accordi di fornitura a lungo termine stanno diventando cruciali mentre i provider gareggiano per soddisfare la crescente domanda di applicazioni alimentate da AI senza incontrare colli di bottiglia hardware.

Il contesto competitivo del mercato

⬆ Torna su

La scala dell'accordo si allinea con le più ampie ambizioni di crescita di Nvidia. L'azienda ha previsto una domanda massiccia per i suoi chip AI, in particolare per le sue architetture più recenti, mentre gli investimenti globali in infrastruttura AI continuano ad aumentare. I grandi provider cloud come Amazon si trovano al centro di questa espansione, guidando la domanda di semiconduttori avanzati a supporto di applicazioni di nuova generazione.

AWS ha bilanciato l'accordo con continui investimenti nel proprio silicio proprietario, ma l'intesa con Nvidia garantisce capacità immediata per i carichi di lavoro di training e inference AI. Fonti del settore indicano che questa combinazione di chip Nvidia e chip interni offre ad AWS la flessibilità per scalare i servizi AI in modo efficiente gestendo al contempo costi e rischi operativi. L'accordo riflette una tendenza più ampia del settore: i provider di cloud hyperscale stanno assicurando impegni a lungo termine per chip specializzati per sostenere l'infrastruttura AI.

Il fondo da 100 miliardi di Jeff Bezos

⬆ Torna su

Nel frattempo, il fondatore di Amazon Jeff Bezos è in trattative preliminari per raccogliere 100 miliardi di dollari per un nuovo fondo che acquisirebbe aziende manifatturiere e cercherebbe di utilizzare l'AI per guidare e accelerare l'automazione, come riportato dal Wall Street Journal. Secondo il rapporto, Bezos si è recato in Medio Oriente alcuni mesi fa per discutere il nuovo fondo con rappresentanti di fondi sovrani della regione.

Il rapporto ha inoltre indicato che il fondo, descritto nei documenti per gli investitori come un "veicolo di trasformazione manifatturiera", intende puntare a aziende in settori chiave come la produzione di chip, la difesa e l'aerospaziale. Questa iniziativa rappresenta un'ulteriore segnale dell'interesse strategico per il settore dei semiconduttori e delle tecnologie abilitanti l'automazione.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'accordo consolida la interdipendenza tra hyperscaler e fornitori di semiconduttori, con AWS che persegue una strategia ibrida combinando silicio proprietario e componenti Nvidia per scalare l'infrastruttura AI.

  • Scenario 1: L'integrazione di Connect X e Spectrum X nei data center AWS potrebbe ridefinire gli standard di networking per carichi di lavoro AI, riducendo i colli di bottiglia hardware per i clienti enterprise.
  • Scenario 2: L'approccio multi-chip per l'inference potrebbe spingere altri provider cloud verso architetture simili, aumentando la domanda di soluzioni specializzate rispetto a processori generalisti.
  • Scenario 3: Il fondo di Bezos per la trasformazione manifatturiera potrebbe creare sinergie con la filiera dei semiconduttori, rafforzando l'ecosistema produttivo su cui si basano accordi come questo.

Cosa monitorare

⬆ Torna su
  • La concretezza delle consegne entro il 2027 e eventuali ostacoli nella produzione delle architetture Blackwell e Rubin.
  • Le risposte dei competitor cloud e dei produttori di chip alternativi rispetto a partnership pluriennali di questa portata.
  • L'evoluzione degli investimenti di AWS in silicio proprietario e come coesisterà con le forniture Nvidia.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • amazon
  • gpu
  • datacenter

Link utili

Apri l'articolo su DeafNews