Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
Nvidia detiene il 92% del mercato hardware per data center, ma AMD sta espandendo la propria presenza con accordi commerciali con OpenAI e Meta. Le restrizioni…
Contenuto

Scopri anche
- Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
- Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali
- CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- AMD espande i processori Edge AI e risolve la disputa legale con Adeia
- ChatGPT e l'evoluzione dei modelli di linguaggio: funzionamento, limiti e competitizione
- L'infrastruttura AI richiede investimenti da migliaia di miliardi: le previsioni di Jensen Huang
- Meta svela la roadmap di quattro nuovi chip MTIA: infrastruttura AI interna entro il 2027
- Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250
- Agenti AI: architetture emergenti, società simulate e la ridefinizione del software
- Compal presenta soluzione integrata per infrastrutture AI al NVIDIA GTC 2026
- NVIDIA: investitori istituzionali aumentano posizioni mentre gli insider vendono
- PlayStation 6: finestra di lancio tra 2027 e 2029, documenti contrattuali e carenza di memoria al centro delle speculazioni
- ChatGPT: dalle nuove offerte Pro ai rischi per i dati fiscali
- NVIDIA cerca architetti per data center orbitali: il calcolo nello spazio diventa realtà
- Valve conferma il lancio della Steam Machine per il 2026 tra sfide hardware e ambizioni living room
- OpenAI lancia Codex Security: l'agente AI per la rilevazione delle vulnerabilità software
- Nvidia: dati finanziari, crescita del data center e prospettive del mercato AI
- Riot Platforms firma accordo da 311 milioni di dollari con AMD per data center ad alte prestazioni
- Stack Overflow e l'impatto dell'AI: declino delle domande e trasformazione strategica
Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
- AMD stringe accordi commerciali con OpenAI, Meta e altri hyperscaler
- L'impatto finanziario delle restrizioni all'esportazione
- Le nuove regole di esportazione dell'amministrazione Trump
- Il GAIN AI Act e le implicazioni per gli operatori di data center
- I piani di investimento degli hyperscaler
- Lo sviluppo dei prodotti AI di AMD
- Le reazioni del mercato e la posizione competitiva
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Secondo un rapporto di Yahoo Finance, Nvidia detiene una quota stimata del 92% del mercato dell'hardware di calcolo per data center. Questa posizione rende i principali sviluppatori di modelli di intelligenza artificiale fortemente dipendenti dalle unità di elaborazione grafica (GPU) di Nvidia. Società come OpenAI e Anthropic richiedono questi prodotti, contribuendo a rendere Nvidia l'azienda più preziosa al mondo per capitalizzazione di mercato. Tuttavia, competitor come Alphabet e Advanced Micro Devices operano in questo spazio, con AMD che attualmente detiene il 4% del mercato delle GPU per data center, il doppio della quota del successivo concorrente più grande.
AMD stringe accordi commerciali con OpenAI, Meta e altri hyperscaler
⬆ Torna suRecentemente, AMD ha firmato un accordo con OpenAI per la fornitura di centinaia di migliaia di chip, con un'opzione per OpenAI di acquisire una partecipazione in AMD. Questo accordo è proiettato per generare entrate significative per AMD. A febbraio, AMD ha anche raggiunto un accordo per fornire a Meta Platforms una quantità delle sue GPU Instinct. Microsoft e Oracle hanno inoltre annunciato l'intenzione di acquistare hardware da AMD. Questi sviluppi dovrebbero aiutare AMD ad aumentare la sua presenza di mercato, sebbene le aziende probabilmente continueranno a procurarsi forniture da più fornitori.
AMD ha registrato ricavi annuali con una crescita sostanziale rispetto all'anno precedente, con l'utile per azione in aumento. Il margine netto dell'azienda, sebbene inferiore a quello di Nvidia, rimane solido. Gli indicatori del settore suggeriscono che AMD sta guadagnando terreno. Potrebbe volerci tempo considerevole prima che AMD sfidi la dominazione dell'attuale leader di mercato, ma i recenti accordi commerciali e i risultati finanziari puntano a un potenziale di crescita.
L'impatto finanziario delle restrizioni all'esportazione
⬆ Torna suIl rapporto finanziario recente di AMD rivela risultati contrastanti per il gigante tecnologico. Mentre i prodotti Ryzen e Radeon hanno sostenuto significativamente i ricavi complessivi, le restrizioni all'esportazione statunitensi hanno impattato negativamente i profitti del data center di AMD, portando a un leggero calo del prezzo delle azioni. AMD ha riportato un aumento del 32% dei ricavi totali, raggiungendo 7,7 miliardi di dollari rispetto allo stesso periodo dell'anno precedente. Un contributore significativo a questa crescita è stata la domanda per le CPU Ryzen e le GPU Radeon.
Tuttavia, il settore dei data center di AMD ha affrontato ostacoli a causa delle restrizioni all'esportazione statunitensi sui processori AI, specificamente la GPU MI308. Questo collo di bottiglia normativo ha portato a una perdita di reddito operativo in questa divisione per la prima volta in sei mesi, con una perdita operativa di 155 milioni di dollari. Le sfide legate all'inventario e i costi correlati hanno ammontato a circa 800 milioni di dollari. Il divieto dell'amministrazione Trump sulla vendita dell'acceleratore Instinct MI308 alla Cina è costato ad AMD 800 milioni di dollari e ha ridotto i suoi margini lordi.
Sebbene l'amministrazione Trump abbia segnalato che permetterà ad AMD di riprendere le vendite dell'Instinct MI308 in Cina, l'azienda ha deciso di non prevedere alcun ricavo da quel componente in questo trimestre. L'amministratore delegato Lisa Su ha dichiarato agli investitori che il Dipartimento di Commercio statunitense sta esaminando la domanda di AMD per una licenza che le permetterà di riprendere le esportazioni di Instinct MI308 verso la Cina.
Le nuove regole di esportazione dell'amministrazione Trump
⬆ Torna suL'amministrazione Trump sta considerando una nuova serie di regole di esportazione sull'accesso agli acceleratori AI più avanzati e all'hardware di rete. Le spedizioni verso qualsiasi paese di 1.000 chip o meno (di Nvidia GB300 o hardware equivalente) riceverebbero un processo di esportazione semplificato con alcune esenzioni limitate. Gli ordini di chip superiori a 1.000 ma inferiori a 200.000 richiederebbero l'approvazione preventiva del Dipartimento di Commercio statunitense, nonché una licenza di esportazione. Per gli ordini più grandi di 200.000 chip di classe GB300 o più, le aziende sarebbero tenute a effettuare un investimento diretto nei data center AI americani, oltre a consentire potenziali ispezioni in loco.
Sebbene i dettagli di questo nuovo quadro siano ancora in fase di elaborazione, le linee guida sono state utilizzate per un recente accordo tra Nvidia, Cerebras e gli Emirati Arabi Uniti. Lì, il paese del Medio Oriente è stato costretto a investire un dollaro nelle infrastrutture statunitensi per ogni dollaro speso nei propri sviluppi domestici. Questo ha effettivamente raddoppiato il prezzo dell'hardware, oltre a garantire investimenti diretti nelle infrastrutture americane. I paesi che desiderano acquistare chip AI prodotti in America e semiconduttori di fascia alta in quantità superiori a 200.000 potrebbero dover investire in data center AI statunitensi o fornire garanzie di sicurezza.
Il GAIN AI Act e le implicazioni per gli operatori di data center
⬆ Torna suLa Camera dei Rappresentanti statunitense sta considerando l'approvazione del Guaranteeing Access and Innovation for National Artificial Intelligence (GAIN AI) Act, che imporrebbe restrizioni aggiuntive sull'esportazione di chip AI, richiedendo che i chip vengano prioritizzati per i clienti statunitensi prima di poter essere esportati verso determinati paesi. Nella sua forma attuale, la legislazione darebbe priorità ai clienti statunitensi che cercano chip AI prima che possano essere esportati verso determinati "paesi di interesse". Le aziende che cercano una licenza di esportazione per chip coperti verso questi paesi, che includono Cina e Russia, sarebbero tenute a fornire avviso pubblico di una potenziale vendita, permettendo 15 giorni affinché un acquirente statunitense esprima interesse.
L'11 agosto 2025, è stato annunciato un accordo tra il governo statunitense e i produttori di chip Nvidia e AMD. L'accordo permette a Nvidia e AMD di vendere determinati chip AI avanzati alla Cina, con il governo statunitense che riceve il 15% delle entrate da queste vendite. L'accordo inverte il congelamento iniziale dell'amministrazione dell'aprile 2025 sull'esportazione di questi chip avanzati. I chip specifici inclusi nell'accordo sono gli H20 di Nvidia e MI308 di AMD, entrambi inizialmente progettati come risposta alle precedenti restrizioni all'esportazione. Sotto l'accordo, gli Stati Uniti continuano a limitare l'esportazione verso la Cina delle tecnologie all'avanguardia, come le serie H100 e A100 più potenti di Nvidia.
Il 10 novembre 2025, il Bureau of Industry and Security (BIS) ha sospeso la sua "Affiliates Rule" per un anno. Questa regola estende le restrizioni del controllo all'esportazione alle entità straniere possedute almeno al 50% direttamente o indirettamente da entità designate nella lista delle entità del BIS. Mentre la regola è sospesa fino al 10 novembre 2026, il BIS ha dichiarato che "continuerà a valutare gli interessi di sicurezza nazionale e politica estera statunitensi relativi a questi affiliati esteri non elencati di entità elencate".
I piani di investimento degli hyperscaler
⬆ Torna suI ricavi riflettono il segmento data center o hardware AI di ogni azienda. I ricavi dei servizi cloud riflettono le tariffe addebitate alle aziende per la capacità di calcolo. I quattro maggiori hyperscaler - Amazon, Microsoft, Google e Meta Platforms - combinati dovrebbero avvicinarsi a 600 miliardi di dollari in spese di capitale nel 2026. Goldman Sachs prevede che la spesa totale in capitale degli hyperscaler dal 2025 al 2027 raggiungerà 1,15 trilioni di dollari, più del doppio dei 477 miliardi di dollari spesi dal 2022 al 2024.
La domanda strutturale più grande per i fornitori di chip è se gli hyperscaler alla fine costruiranno abbastanza silicio proprietario da ridurre la domanda di GPU di terze parti. Google sviluppa le proprie Tensor Processing Units (TPU) dal 2016. Amazon ha il suo chip di training Trainium e il chip di inferenza Inferentia. Microsoft sta sviluppando il proprio acceleratore AI. L'incentivo per gli hyperscaler è chiaro: ridurre la dipendenza da un singolo fornitore e abbassare i costi a lungo termine portando la progettazione dei chip all'interno.
Il vincolo è ugualmente chiaro: la piattaforma software CUDA di Nvidia ha un vantaggio di un decennio, e la maggior parte degli sviluppatori AI costruisce su di essa per impostazione predefinita. Anche gli hyperscaler che hanno chip personalizzati in produzione acquistano ancora grandi quantità di GPU Nvidia per servire clienti bloccati in flussi di lavoro basati su CUDA.
Lo sviluppo dei prodotti AI di AMD
⬆ Torna suLa produzione di volume degli acceleratori MI350 di AMD - le parti che l'azienda dice eguagliare le prestazioni del kit Blackwell di Nvidia - è iniziata a giugno ed è in anticipo sulla programmazione. AMD prevede una forte rampa di produzione nel secondo semestre dell'anno per supportare implementazioni di produzione su larga scala con più clienti. L'azienda sta anche lavorando sugli acceleratori della serie MI400 di nuova generazione, che definisce "le GPU più avanzate che abbiamo mai costruito" con fino a 40 petaflops di prestazioni AI FP4 e il 50% in più di memoria, larghezza di banda della memoria e throughput di scale-out rispetto alla concorrenza.
I sistemi Helios su scala di rack pianificati da AMD che impiegano queste parti includeranno fino a 72 GPU in ogni rack e "ci si aspetta che forniscano fino a un aumento di prestazioni generazionale di 10x per i modelli Frontier più avanzati". AMD venderà Helios ai suoi "maggiori clienti" - essenzialmente hyperscaler - e sta lavorando con loro per garantire che i sistemi siano compatibili con i loro data center. Questo contrasta con la serie MI350, che gli utenti possono implementare in data center esistenti.
Le reazioni del mercato e la posizione competitiva
⬆ Torna suNvidia, leader indiscusso nelle GPU AI, si trova all'epicentro di questa tempesta geopolitica. L'azienda ha già affrontato impatti significativi sui ricavi, con stime che vanno da 5,5 miliardi di dollari in charge dovuti ai chip H20 e impegni di vendita, a potenziali perdite totali fino a 15 miliardi di dollari da vari divieti e accordi di condivisione delle entrate. La Cina ha storicamente rappresentato una porzione sostanziale dei ricavi del data center di Nvidia, rendendo le restrizioni del mercato particolarmente dolorose. Mentre Nvidia continua a dominare l'addestramento AI di fascia alta a livello globale con i suoi chip H100 e i prossimi chip Blackwell B200, la sua quota di mercato in Cina è attivamente erosa.
Alcune analisi posizionano AMD come un "vincitore chiaro" nel lungo periodo. Le sue offerte competitive MI300X sono viste come un forte contendente per erodere il vantaggio di Nvidia, specialmente nell'inferenza dei modelli linguistici di grandi dimensioni. Le restrizioni, creando un vuoto, potrebbero aprire opportunità per AMD di guadagnare quota di mercato mentre i clienti cercano alternative.
Il CFO Jean X Hu ha previsto che i ricavi del Q3 raggiungeranno circa 8,7 miliardi di dollari, più o meno 300 milioni di dollari, rappresentando circa il 28% di crescita dei ricavi anno su anno. Hu ha aggiunto che se la Cina riprende ad acquistare ai livelli passati, i ricavi trimestrali futuri di AMD potrebbero aumentare di altri 800 milioni di dollari.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa posizione dominante di Nvidia crea sia opportunità che rischi per l'ecosistema dei semiconduttori. La dinamica tra quote di mercato, accordi commerciali e geopolitica potrebbe evolversi in direzioni diverse.
- Scenario 1: AMD consolida le partnership con OpenAI e Meta, aumentando progressivamente la propria quota nel segmento data center e riducendo il divario con il leader.
- Scenario 2: Le restrizioni all'esportazione continuano a impattare i ricavi, costringendo i produttori a rivedere le strategie geografiche e le allocazioni di produzione.
- Scenario 3: Gli hyperscaler accelerano la diversificazione dei fornitori per mitigare i rischi legati alla concentrazione del mercato e alle tensioni commerciali.
Cosa monitorare
⬆ Torna su- Evoluzione delle licenze di esportazione per i chip verso la Cina e impatto sui margini operativi
- Risultati finanziari trimestrali di AMD nel segmento data center rispetto alle proiezioni di crescita
- Iter parlamentare del GAIN AI Act e definizione delle nuove regole sull'accesso agli acceleratori avanzati
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.indexbox.io/blog/amd-gains-ground-in-data-center-gpu-market-with-major-ai-deals/
- https://www.tomshardware.com/tech-industry/new-commerce-department-ai-export-rules-could-be-seismic-change-for-csps-and-data-center-operators-buying-american-gpus-at-scale-means-committing-to-building-american-infrastructure
- https://www.fool.com/research/data-center-revenue-ai-companies/
- https://www.datacenterknowledge.com/data-center-chips/ai-chip-export-controls-a-new-challenge-for-data-center-operators
- https://markets.financialcontent.com/stocks/article/marketminute-2025-9-11-the-great-ai-divide-us-export-restrictions-reshape-global-chip-landscape
- https://robotdyn.com/amds-performance-boost-offsets-export-setbacks/
- https://www.theregister.com/2025/08/06/amd_q2_2025
In breve
- nvidia
- amd
- openai
- datacenter