Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale

Analisi della traiettoria di crescita di Nvidia: dal data center all'architettura Blackwell, i fattori che potrebbero portare la capitalizzazione a 20 trilioni…

Contenuto

Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale

Scopri anche

Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale

Nvidia e la corsa verso i 20 trilioni di dollari: dati, proiezioni e strategie

In questo articolo:

Nvidia ha raggiunto una capitalizzazione di mercato di 5 trilioni di dollari nell'ottobre 2025, diventando la prima azienda della storia a toccare questa soglia. Secondo le analisi dell'I/O Fund, la società è sulla traiettoria per raggiungere i 10-20 trilioni di dollari entro il 2030, supportata da una crescita del segmento data center al 36% di CAGR e da una roadmap di prodotti accelerata su ciclo annuale.

I risultati finanziari record del quarto trimestre

⬆ Torna su

Nella relazione sul quarto trimestre fiscale 2026, Nvidia ha riportato ricavi record di 68,1 miliardi di dollari. La divisione data center ha generato 62,3 miliardi di dollari, con una crescita del 75% rispetto all'anno precedente. Le vendite di networking sono aumentate del 263% su base annua, raggiungendo gli 11 miliardi di dollari, riflettendo la domanda infrastrutturale per connessioni di rete ad alta velocità necessarie ai sistemi di intelligenza artificiale.

La guida aziendale per il primo trimestre fiscale indica ricavi previsti di 78 miliardi di dollari, in crescita sostanziale rispetto ai 44,1 miliardi dello stesso periodo dell'anno precedente. Nvidia ha dichiarato visibilità su 500 miliardi di dollari di ricavi cumulativi per le architetture Blackwell e Rubin entro la fine del 2026, pari a circa 5 volte i ricavi del ciclo di vita dei GPU Hopper dal 2023 al 2025.

L'architettura Blackwell e la roadmap dei prodotti

⬆ Torna su

L'architettura Blackwell rappresenta un salto tecnologico significativo. Secondo i dati presentati alla conferenza GTC di marzo 2025, i sistemi Blackwell combinano 72 GPU e offrono prestazioni di inferenza 30-40 volte superiori rispetto alla generazione precedente, con velocità di training fino a 2,5 volte maggiori. La capacità di memoria è aumentata a 192GB di HBM3e per Blackwell e 288GB per Blackwell Ultra, mentre l'efficienza energetica è migliorata di 25 volte.

La cadenza dei prodotti si è accelerata. Nvidia ha comunicato il passaggio a un ciclo di 12-18 mesi per le nuove generazioni di GPU, rispetto ai 3-5 anni tipici del silicon personalizzato. Blackwell è arrivata nel primo semestre del 2025, con Blackwell Ultra in spedizione nel secondo semestre. L'architettura Vera Rubin, prevista per il secondo semestre del 2026, aumenta il numero di GPU a 144 per prestazioni 3,3 volte superiori, raddoppiando le performance FP4 da 20 a 50 petaflops. Rubin Ultra, attesa per il secondo semestre del 2027, porterà il rack-scale a 576 GPU.

L'architettura Feynman, prevista per il 2028, introdurrà le cosiddette "fabbriche AI a Gigawatt", con cluster fino a 8 volte superiori agli attuali 150 MW di capacità massima. Il cluster Colossus, attualmente il più grande con 150 MW, ha già pianificato l'espansione a 300 MW.

La posizione competitiva nel mercato dei chip AI

⬆ Torna su

Secondo gli analisti di William Blair, Nvidia detiene una quota stimata dell'85-90% del mercato dei chip per intelligenza artificiale. Nel quarto trimestre, i ricavi del data center Nvidia di 51,2 miliardi di dollari hanno superato i 9,5 miliardi combinati di AMD e Broadcom per i ricavi AI. Nvidia ha comunicato che la capacità produttiva per soddisfare la domanda cinese sarà disponibile dal secondo trimestre del 2026, con il processore H200 che offre prestazioni circa sei volte superiori rispetto all'H20 attualmente venduto in Cina.

Nonostante Amazon, Google e Microsoft stiano investendo in chip personalizzati per le proprie operazioni, i GPU Nvidia continuano a essere le unità di calcolo generico più versatili disponibili. Secondo Jensen Huang, la società è attualmente "sold out" dei GPU cloud, indicando che anche con livelli crescenti di competizione, Nvidia mantiene la sua posizione come standard del settore. I chip personalizzati eccellono in carichi di lavoro specifici, ma non possono competere con i GPU e la piattaforma software CUDA sui workload generali.

Gli investimenti infrastrutturali e le partnership strategiche

⬆ Torna su

McKinsey prevede 7 trilioni di dollari di investimenti infrastrutturali AI entro il 2030, di cui 5,2 trilioni destinati alla costruzione di data center per carichi di lavoro AI. Secondo le stime, questo implica circa 1,5 trilioni di dollari di spesa annuale per l'AI entro il 2030. Nvidia ha firmato una partnership con OpenAI per il dispiego fino a 10 GW di GPU nei data center, con un investimento progressivo fino a 100 miliardi di dollari. Il primo GW sarà dispiegato nel secondo semestre del 2026 sulla piattaforma Vera Rubin.

Bank of America stima che questa partnership potrebbe generare tra 300 e 500 miliardi di dollari di ricavi nel tempo. Il progetto Stargate da 500 miliardi di dollari per OpenAI è già in corso, con OpenAI che ha impegnato ulteriori 250 miliardi di calcolo da Azure. Microsoft ha contrattato circa 200.000 GB300 dalla startup britannica Nscale in un accordo del valore di 14 miliardi di dollari.

L'evoluzione oltre i semiconduttori

⬆ Torna su

Nvidia sta espandendo il proprio ruolo oltre quello di produttore di chip. La società lavora con le aziende di telecomunicazioni per costruire la prossima generazione di reti wireless 6G, progettate per le esigenze di larghezza di banda dei dati AI. La soluzione 6G sarà utilizzata per gestire senza fili robot, veicoli autonomi e altri sistemi AI fisici. Nell'ottobre 2025, Nvidia ha introdotto l'architettura NVQLink per collegare GPU a computer quantistici.

Nvidia ha investito 1 miliardo di dollari in capitale azionario in Nokia per testare le reti 6G. Altri investimenti includono Uber Technologies per veicoli autonomi AI e una partnership con Intel per portare l'AI sui PC. La piattaforma DRIVE Hyperion AV per la guida autonoma, costruita sul SoC Thor AGX, è già utilizzata da Toyota e Uber.

Le proiezioni di crescita e i rischi

⬆ Torna su

Per raggiungere una capitalizzazione di 20 trilioni di dollari entro il 2030, Nvidia dovrebbe far crescere il segmento data center con un CAGR del 36%, portando i ricavi annuali nella fascia dei 900 miliardi di dollari. Gli analisti prevedono ricavi di 207,6 miliardi di dollari per il fiscale 2026 e 290,5 miliardi per il fiscale 2027, sebbene queste stime rimangano al di sotto della previsione di 500 miliardi di dollari comunicata dalla società.

Morningstar assegna a Nvidia un rating di incertezza "Very High" a causa della fase iniziale del mercato AI. I rischi includono la concentrazione della domanda in pochi clienti, la possibilità che i leader tecnologici sviluppino chip interni per parte dei carichi di lavoro, e le restrizioni geopolitiche sulle vendite in Cina. Morningstar modella solo il 2% di crescita nel fiscale 2030, ipotizzando una possibile correzione dell'inventario o una pausa nella domanda AI nel medio termine.

Secondo Morningstar, Nvidia ha una posizione finanziaria solida con 57 miliardi di dollari in contanti e investimenti rispetto a 8,5 miliardi di debito a lungo termine, dato di luglio 2025. La società assegna a Nvidia un rating "wide economic moat" grazie agli asset immateriali legati ai GPU e agli alti costi di switching per i clienti legati al software proprietario CUDA.

L'impatto di Nvidia sul mercato azionario USA è significativo: la società è diventata la seconda più grande a Wall Street, con un peso sul S&P 500 superiore a tutte le aziende eccetto Apple. Nel 2024, Nvidia ha contribuito per oltre un quinto al ritorno totale dell'indice S&P 500. La sua capitalizzazione supera i 3 trilioni di dollari.

Il contesto competitivo con DeepSeek e altri sfidanti

⬆ Torna su

Nel febbraio 2025, l'azienda cinese DeepSeek ha dichiarato di aver sviluppato un modello linguistico competitivo con ChatGPT utilizzando molte meno risorse. L'annuncio ha causato una perdita temporanea di 595 miliardi di dollari nella capitalizzazione di Nvidia. La società ha definito il lavoro di DeepSeek "un eccellente progresso AI" che sfrutta "modelli ampiamente disponibili e calcolo pienamente conforme ai controlli all'esportazione".

Nvidia continua a beneficiare della scommessa del fondatore Jensen Huang sulla tecnologia chip per alimentare l'industria AI. L'invenzione del GPU nel 1999 ha contribuito a catalizzare la crescita del mercato del gaming su PC e ridefinire la grafica computerizzata. La capacità del parallel processing dei GPU si è dimostrata efficiente per eseguire gli algoritmi di moltiplicazione matriciale necessari per i modelli AI.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La traiettoria verso i 20 trilioni di dollari dipende dalla capacità di mantenere la quota di mercato attuale mentre si espande oltre i semiconduttori. La diversificazione in 6G, calcolo quantistico e guida autonoma potrebbe ridurre la dipendenza dal solo mercato dei data center.

  • Scenario 1: Se la domanda di infrastruttura AI continua al ritmo previsto da McKinsey, la partnership con OpenAI e la roadmap accelerata potrebbero sostenere la crescita dei ricavi verso la fascia dei 900 miliardi annui.
  • Scenario 2: Se Amazon, Google e Microsoft avanzano con chip personalizzati per carichi specifici, la quota di mercato dell'85-90% potrebbe erodersi gradualmente, pur lasciando a Nvidia i workload generalisti.
  • Scenario 3: Se le restrizioni geopolitiche sulla Cina si intensificano o la domanda si concentra eccessivamente in pochi clienti, potrebbero emergere correzioni dell'inventario come ipotizzato da Morningstar per il 2030.

Cosa monitorare

⬆ Torna su
  • La capacità produttiva per il mercato cinese dal secondo trimestre 2026 e le performance dell'H20 rispetto ai competitor locali.
  • La transizione da Blackwell a Rubin e l'effettiva adozione delle architetture da 144 e 576 GPU previste per il 2026-2027.
  • L'evoluzione degli investimenti infrastrutturali dei clienti principali e l'impatto dei progetti Stargate sugli ordini futuri.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • gpu
  • datacenter
  • ai-infrastructure

Link utili

Apri l'articolo su DeafNews