Nvidia registra ricavi record da 68 miliardi nel quarto trimestre: la domanda di chip AI continua ad accelerare

Nvidia ha superato le attese di Wall Street con ricavi trimestrali di 68,1 miliardi di dollari e una crescita del 73%. Il CEO Jensen Huang annuncia il punto di…

Contenuto

Nvidia registra ricavi record da 68 miliardi nel quarto trimestre: la domanda di chip AI continua ad accelerare

Scopri anche

Nvidia registra ricavi record da 68 miliardi nel quarto trimestre: la domanda di chip AI continua ad accelerare

Nvidia registra ricavi record da 68 miliardi nel quarto trimestre: la domanda di chip AI continua ad accelerare

In questo articolo:

Nvidia ha pubblicato i risultati del quarto trimestre dell'anno fiscale 2026, superando le attese degli analisti con ricavi pari a 68,13 miliardi di dollari, in crescita del 73% rispetto all'anno precedente. Il colosso dei semiconduttori ha confermato la propria posizione dominante nel mercato dell'hardware per l'intelligenza artificiale, con il segmento datacenter che ha generato 62,3 miliardi di dollari, in aumento del 75% su base annua. L'utile netto annuale ha raggiunto i 120 miliardi di dollari, mentre i ricavi annuali hanno toccato il record di 215,9 miliardi, con una crescita del 65% rispetto all'esercizio precedente.

Il segmento datacenter traina la crescita

⬆ Torna su

La divisione datacenter costituisce la maggior parte dei ricavi di Nvidia e ha registrato una performance superiore alle aspettative. Secondo i dati comunicati dall'azienda, i ricavi di questo segmento hanno registrato una crescita del 22% rispetto al trimestre precedente. Il CFO Colette Kress ha attribuito tale performance a due tendenze principali: la transizione verso il calcolo accelerato tramite GPU e l'adozione di sistemi informatici basati su intelligenza artificiale. Gli hyperscaler — ovvero gli operatori di grandi datacenter come Microsoft, Amazon, Alphabet e Meta — rimangono la principale categoria di clienti, rappresentando leggermente più del 50% dei ricavi del segmento datacenter. Tuttavia, la crescita è stata guidata dalla diversificazione della base clienti.

I margini lordi hanno raggiunto livelli record, attestandosi al 75% secondo i principi contabili generalmente accettati (GAAP) e al 75,2% su base adjustata. Questi risultati riflettono la capacità di Nvidia di mantenere prezzi premium per i propri acceleratori AI e le unità di elaborazione grafica. Per il primo trimestre dell'anno fiscale 2027, l'azienda prevede che i margini si mantengano intorno al 75%, includendo anche i compensi basati su azioni.

L'architettura Blackwell e la domanda insoddisfatta

⬆ Torna su

L'architettura Blackwell, che include i prodotti B200 e GB200, ha rappresentato il motore principale della crescita. Il CEO Jensen Huang ha descritto la domanda come "insaziabile" durante tutto il secondo semestre del 2025. I sistemi Blackwell risultano ormai esauriti fino alla metà del 2026, segnalando una solidità degli ordini che si estende per diversi trimestri. La piattaforma Blackwell ha contribuito in modo determinante anche alla crescita del segmento di visualizzazione professionale, che ha registrato un incremento del 159% su base annua, raggiungendo 1,32 miliardi di dollari.

La domanda di prodotti Blackwell proviene principalmente dalle aziende che stanno costruendo infrastrutture per l'addestramento e l'inferenza dei modelli di intelligenza artificiale. La documentazione aziendale indica che ogni cluster GPU richiede sistemi di raffreddamento sofisticati, infrastrutture di alimentazione e soluzioni di gestione termica, oltre a interconnessioni ad alta velocità. Questo ecosistema coinvolge non solo Nvidia, ma anche fornitori di server come Super Micro e Dell, produttori di componenti di networking come Lumentum e Coherent, e fornitori di energia come Constellation Energy e Vistra.

Il punto di svolta dell'AI agentic

⬆ Torna su

Durante la conferenza sui risultati, Jensen Huang ha dichiarato che "il punto di flesso dell'AI agentic è arrivato", un'affermazione che riflette la maturazione dei modelli di intelligenza artificiale verso capacità autonome. Secondo il CEO, l'adozione enterprise di agenti AI sta crescendo esponenzialmente. Modelli come ChatGPT, Claude e Gemini hanno raggiunto la capacità di completare attività lavorative in modo autonomo, generando ritorni sull'investimento concreti per le aziende che li distribuiscono. Huang ha specificato che questo cambiamento si è verificato negli ultimi due-tre mesi.

Le applicazioni concrete citate includono studi legali che redigono contratti in minuti anziché ore, team di marketing che generano campagne a una frazione dei costi precedenti, e sviluppatori che consegnano codice più rapidamente. Secondo la descrizione di Huang, gli hyperscaler stanno investendo massicciamente nel calcolo AI perché tale calcolo genera ritorni profittevoli, che a loro volta alimentano i flussi di cassa, i quali vengono reinvestiti in ulteriore capacità di calcolo AI. Ha inoltre anticipato che la prossima fase sarà quella dell'"AI fisica", con modelli avanzati integrati in robot e macchinari industriali.

Prospettive e guida per il primo trimestre

⬆ Torna su

Nvidia ha fornito una guida per il primo trimestre dell'anno fiscale 2027 con ricavi attesi di 78 miliardi di dollari, più o meno il 2%, superando il consenso degli analisti che prevedeva 72 miliardi. Questa proiezione implica una crescita annua del 77%. L'azienda ha specificato di non aver incluso nella previsione alcun ricavo dal calcolo datacenter proveniente dalla Cina. Durante l'anno fiscale 2026, Nvidia ha restituito 41,1 miliardi di dollari agli azionisti attraverso riacquisti di azioni e dividendi, con un dividendo trimestrale di 0,01 dollari per azione.

Il segmento gaming ha generato 3,73 miliardi di dollari, in crescita del 47% su base annua ma in calo del 13% rispetto al trimestre precedente, a causa della normalizzazione degli inventari dopo il forte periodo natalizio. L'azienda prevede che i vincoli di approvvigionamento rappresenteranno un ostacolo per il segmento gaming nel primo trimestre dell'anno fiscale 2027 e oltre. Il segmento automotive ha registrato ricavi di 604 milioni di dollari, in crescita del 6%, guidato dall'adozione della piattaforma Nvidia per lo sviluppo di veicoli a guida autonoma.

Le preoccupazioni sulla sostenibilità degli investimenti

⬆ Torna su

Nonostante i risultati eccezionali, alcuni investitori hanno espresso preoccupazioni riguardo alla sostenibilità della enorme spesa in infrastrutture AI da parte delle grandi aziende tecnologiche. Le cosiddette "Magnificent Seven" hanno iniziato l'anno in declino, con prezzi delle azioni che riflettono una certa cautela. È aumentata l'attenzione sugli accordi circolari tra Nvidia e aziende AI come OpenAI, dove Nvidia investe in un'azienda che poi acquista chip da Nvidia stessa. Un accordo proposto da 100 miliardi di dollari con OpenAI non si è concretizzato; invece, Nvidia investirà presumibilmente 30 miliardi di dollari in OpenAI mentre il creatore di ChatGPT cerca di quotarsi in borsa entro la fine dell'anno con una valutazione di circa 730 miliardi di dollari.

Huang ha rassicurato gli investitori sulla traiettoria a lungo termine degli investimenti in intelligenza artificiale, affermando che "l'AI è qui, l'AI non tornerà indietro. L'AI migliorerà solo da qui in poi". Tuttavia, alcuni analisti segnalano che il settore ha raggiunto quello che definiscono un "muro della realtà fisica": il collo di bottiglia non è più solo il numero di chip HBM4 che TSMC può produrre, ma la quantità di gigawatt che la rete elettrica globale può fornire. Il progetto "Stargate", un'iniziativa infrastrutturale AI da 500 miliardi di dollari tra OpenAI, SoftBank e Oracle, risulterebbe in stallo a causa di disaccordi sulle strutture di finanziamento e le difficoltà logistiche nel garantire energia sufficiente per il campus proposto in Texas.

La transizione verso la fase di inferenza

⬆ Torna su

Il 2026 segna una transizione dalla "fase di addestramento" alla "fase di inferenza". Mentre nel 2024 e 2025 l'attenzione era concentrata sulla costruzione dei modelli massivi che definiscono l'AI generativa, nel 2026 il focus si sposta sulla loro esecuzione. Questo cambiamento è rilevante perché l'inferenza è la fase in cui "si fanno i soldi", ma è anche dove il fossato software di Nvidia — in particolare CUDA e i nuovi NIM (Nvidia Inference Microservices) — affronta la prova più dura. Se gli hyperscaler riusciranno a trasferire con successo i carichi di lavoro di inferenza sul proprio silicio personalizzato, come i TPU v7 di Google o Trainium 2 di Amazon, i margini elevati di Nvidia potrebbero essere messi a rischio.

L'architettura "Vera Rubin" (R200), anticipata al CES 2026, promette una riduzione dei costi di inferenza di 10 volte, creando potenzialmente un periodo di attesa in cui i clienti potrebbero esitare a impegnarsi nell'hardware attuale in previsione del lancio di Rubin previsto per il secondo semestre del 2026. Nvidia ha stabilito un ciclo di prodotto annuale dalla fine del 2024 per rimanere ahead degli sforzi di silicio "autoprodotto" dai suoi stessi clienti più grandi.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La domanda "insaziabile" per l'architettura Blackwell e i vincoli di approvvigionamento fino alla metà del 2026 suggeriscono una traiettoria di crescita che potrebbe estendersi oltre il breve termine, ma emergono elementi di complessità legati alla sostenibilità infrastrutturale.

  • Scenario 1: Se la transizione verso la fase di inferenza si conferma, i ricavi potrebbero consolidarsi grazie alla domanda continua degli hyperscaler per applicazioni enterprise con ritorni concreti.
  • Scenario 2: Il "muro della realtà fisica" — limiti energetici e logistici — potrebbe rallentare l'espansione dei datacenter, creando un divario tra ordini firmi e capacità effettiva di consegna.
  • Scenario 3: Una normalizzazione della spesa infrastrutturale da parte delle Magnificent Seven potrebbe comprimere i margini premium attualmente registrati, con impatti sulla valutazione azionaria.

Cosa monitorare

⬆ Torna su
  • L'evoluzione dei vincoli di approvvigionamento e la capacità di scalare la produzione di memoria HBM4.
  • La risoluzione delle criticità energetiche che affliggono progetti infrastrutturali di larga scala.
  • La diversificazione della base clienti oltre gli hyperscaler statunitensi.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • gpu
  • datacenter

Link utili

Apri l'articolo su DeafNews