Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix

Alla conferenza GTC 2026 Nvidia potrebbe presentare un nuovo chip per inference. Intensa competizione tra Samsung e SK Hynix per la fornitura di memoria HBM4 p…

Contenuto

Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix

Scopri anche

Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix

Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix

In questo articolo:

Con la conferenza tecnologica annuale GTC 2026 di Nvidia prevista dal 16 al 19 marzo a San Jose, in California, l'attenzione dell'industria è concentrata su potenziali annunci riguardanti un nuovo chip specializzato per inference e sull'evoluzione della piattaforma AI Vera Rubin. Secondo quanto riportato dal Wall Street Journal, Nvidia potrebbe presentare un processore ottimizzato per l'inference, una mossa che potrebbe modificare gli equilibri competitivi nel mercato dei chip AI.

L'evento vedrà la partecipazione di oltre 30.000 sviluppatori, ricercatori e dirigenti provenienti da circa 190 paesi, con oltre 1.000 argomenti in programma. L'amministratore delegato Jensen Huang terrà il discorso inaugurale al SAP Center il 16 marzo, introducendo le ultime innovazioni dell'azienda nel campo del calcolo accelerato, delle fabbriche AI, dei modelli aperti, dei sistemi agentici e dell'AI fisica.

Il nuovo chip per inference e l'acquisizione di Groq

⬆ Torna su

Se Nvidia dovesse presentare un chip per inference, sarebbe il primo processore collaborativo dopo l'acquisizione indiretta di Groq per 20 miliardi di dollari alla fine dello scorso anno. Groq è uno sviluppatore di chip per inference e l'acquisizione ha permesso a Nvidia di integrare tecnologie e talenti chiave del suo ex concorrente.

La domanda di chip specializzati per inference è cresciuta con l'evoluzione verso l'AI agentica, dove l'esecuzione basata su contenuti appresi diventa cruciale. Mentre le GPU offrono versatilità sia per il training che per l'inference, presentano limitazioni in termini di efficienza durante l'inference a causa dell'elevato consumo energetico e dei costi. I chip per inference, invece, priorizzano velocità ed efficienza, richiedendo unità di elaborazione neurale specializzate per il calcolo leggero.

Competitori come Google, Amazon e Meta hanno già sviluppato o stanno sviluppando propri chip AI specializzati per inference. Anche OpenAI, un tempo considerata un forte partner, ha sollevato critiche riguardo all'inadeguatezza delle GPU Nvidia per l'inference, con rapporti che indicano una riduzione degli investimenti di Nvidia in OpenAI.

Vera Rubin e la competizione HBM4

⬆ Torna su

Nvidia ha iniziato a fornire campioni di test del suo ultimo acceleratore AI Vera Rubin ai clienti. Per questo prodotto, la competizione tra Samsung Electronics e SK Hynix per la fornitura di memoria HBM4 sta attirando notevole attenzione. Secondo le fonti, Nvidia avrebbe assegnato circa due terzi del volume HBM4 per Vera Rubin a SK Hynix, ma Samsung Electronics sarebbe già entrata per prima nel mercato HBM4.

Samsung Electronics ha superato i test di qualità HBM4 di Nvidia e ha iniziato a spedire alcuni volumi di prodotti finiti. L'azienda ha presentato i test su due tracce per prodotti operanti a 10Gb e 11Gb al secondo. SK Hynix sta collaborando con Nvidia sull'ottimizzazione del prodotto per superare il test a 11Gb.

La memoria HBM4 per Vera Rubin richiede specifiche superiori agli standard JEDEC: Nvidia ha richiesto velocità operative di 10Gb o superiore, rispetto agli 8Gb al secondo stabiliti dall'organismo di standardizzazione. La capacità totale sarà di 576GB distribuiti su 16 stack HBM4, superiore ai 432GB dell'acceleratore MI450 di AMD.

Prezzi e dinamiche di mercato

⬆ Torna su

Secondo fonti del settore, Nvidia pagherà circa 500 dollari per i moduli HBM4 di Samsung e SK Hynix nel 2026, un raddoppio rispetto ai prezzi attuali. SK Hynix vende attualmente i moduli HBM3E a 12 strati a circa 350 dollari cadauno, mentre Samsung applica un prezzo inferiore di 100 dollari a causa dei ritardi nella certificazione.

Samsung ha ridisegnato l'interfaccia e l'architettura di stacking per raggiungere una larghezza di banda di 3,3 TB/s per il modulo da 36GB. Gli aggiornamenti includono un miglioramento della precisione del segnale nelle sezioni ad alta velocità attraverso la compensazione automatica del segnale di allineamento TDQS del percorso TSV specifico del canale. I moduli HBM3E attuali di Samsung offrono 1,2 TB/s, quindi l'HBM4 fornirà più del doppio della larghezza di banda.

Un elemento rilevante riguarda l'aumento dei prezzi della DRAM convenzionale, raddoppiati trimestre su trimestre. Il prezzo per Gb dei moduli DRAM server come SOCAMM2 sarebbe salito a 1,3 dollari, avvicinandosi al livello dell'HBM3E. Per Samsung, produrre più DRAM convenzionale potrebbe risultare più vantaggioso in termini di redditività rispetto all'HBM4, che richiede processi aggiuntivi costosi come lo stacking DRAM.

Il ruolo di Micron e la struttura di mercato

⬆ Torna su

Micron non è menzionata come fornitore di HBM4 per Vera Rubin, sebbene possa fornire memoria per prodotti di fascia media della serie Rubin. TrendForce osserva che Samsung guida attualmente in termini di progresso nella validazione ed è prevista l'avvio della produzione in serie a fasi dopo il completamento nel secondo trimestre 2026. SK Hynix continua ad avanzare costantemente e dovrebbe mantenere un vantaggio competitivo nell'allocazione dei bit, supportata dalla partnership di lunga data con Nvidia.

Gli analisti sottolineano che essere i primi a ottenere la certificazione potrebbe non determinare la competitività a lungo termine. La competizione HBM4 dipenderà non solo dai tempi di certificazione ma anche dalla scala di produzione, dalla tecnologia di packaging e dalla fiducia dei clienti.

Anteprima di Feynman e collaborazione con TSMC

⬆ Torna su

Un altro punto di attenzione riguarda possibili anticipazioni su Feynman, il prossimo acceleratore AI previsto per il lancio nel 2028. Secondo i report, Feynman sarebbe costruito sul nodo A16 di TSMC, segnando il primo chip prodotto in serie di Nvidia ad utilizzare un processo della classe 1 nanometro. L'architettura integrerebbe la fotonica del silicio per interconnessioni ottiche tra unità di calcolo a livello di rack.

Esistono speculazioni secondo cui Nvidia potrebbe esternalizzare parte della produzione del GPU Feynman a Intel, con trattative che coprirebbero sia la produzione foundry che il packaging avanzato. Questo approccio proteggerebbe la rampa dei volumi nel caso Intel non raggiunga gli obiettivi di reso o capacità, mantenendo la produzione del core GPU ancorata a TSMC.

La questione delle esportazioni H200 in Cina

⬆ Torna su

Le esportazioni del semiconduttore H200 verso la Cina rimangono incerte nonostante l'approvazione dell'amministrazione Trump. Nvidia avrebbe ricevuto ordini per un milione di unità H200 da aziende cinesi. L'amministratore delegato Jensen Huang ha dichiarato in precedenza che la domanda è molto alta e che l'H200 viene rapidamente fornito alle linee di produzione.

Tuttavia, le vendite H200 sono diventate incerte a causa delle tensioni continua tra Stati Uniti e Cina. L'assistente segretario al Commercio David Peters ha dichiarato in un'audizione che l'H200 non è ancora stato venduto in Cina. Il CFO di Nvidia Colette Kress ha confermato durante la conferenza telefonica sui risultati trimestrali che l'azienda ha ricevuto l'approvazione del governo statunitense per una piccola quantità di prodotti H200 ma non ha ancora generato ricavi.

Presenze chiave al GTC 2026

⬆ Torna su

Il presidente del gruppo SK Chey Tae-won dovrebbe partecipare al GTC 2026, con un possibile incontro anticipato con l'amministratore delegato Huang. Questa sarebbe una riunione un mese dopo il loro incontro negli Stati Uniti. È la prima visita del presidente Chey alla sede del GTC. Il vicepresidente di Samsung Electronics Song Yong-ho della Divisione DS presenterà sul tema "Il futuro della produzione semiconduttori attraverso l'AI".

L'evento prevede discussioni con leader del settore tra cui Andreessen Horowitz, Allen Institute for AI, Black Forest Labs, Cursor, Reflection AI e Thinking Machines Lab. Nvidia ha confermato che la piattaforma Vera Rubin è entrata in produzione in serie e gli osservatori del settore prevedono che l'azienda possa presentare estensioni basate su Rubin, inclusi nuovi GPU o chip di calcolo correlati.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'eventuale presentazione di un chip dedicato all'inference segnerebbe un cambiamento strategico per Nvidia, che finora ha puntato sulle GPU come soluzione versatile. La competizione HBM4 intanto ridefinisce gli equilibri tra fornitori di memoria.

  • Scenario 1: Se confermato, il processore per inference potrebbe consolidare la posizione di Nvidia contro competitor come Google e Meta che hanno già sviluppato soluzioni proprietarie.
  • Scenario 2: Samsung potrebbe guadagnare quote di mercato HBM4 nonostante il ritardo iniziale, sfruttando il primato nei test di qualità e la capacità produttiva.
  • Scenario 3: Le tensioni su H200 in Cina potrebbero spingere Nvidia verso una diversificazione geografica della domanda o nuove architetture conformi alle restrizioni.

Cosa monitorare

⬆ Torna su
  • L'annuncio ufficiale sul chip inference durante il discorso inaugurale di Jensen Huang.
  • I risultati dei test HBM4 di SK Hynix sulla velocità operativa di 11Gb.
  • Gli sviluppi sulle esportazioni H200 e le eventuali modifiche normative.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • hbm
  • gpu
  • semiconductor

Link utili

Apri l'articolo su DeafNews