Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU

Al GTC 2026 Jensen Huang ha ringraziato Samsung per la produzione del Groq 3 LPU. Samsung presenta HBM4E e pianifica un'AI Megafactory con 50.000 GPU Nvidia, m…

Contenuto

Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU

Scopri anche

Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU

Samsung e Nvidia consolidano l'alleanza semiconducatoriale: Groq 3 LPU, HBM4E e AI Megafactory

In questo articolo:

Al GPU Technology Conference (GTC) 2026 di San Jose, il CEO di Nvidia Jensen Huang ha ringraziato pubblicamente Samsung Electronics per la produzione del Groq 3 Language Processing Unit (LPU), un chip per inferenza AI che Nvidia ha sviluppato dopo l'acquisizione di Groq per 20 miliardi di dollari. Huang ha confermato che Samsung sta producendo il chip presso il campus di Pyeongtaek utilizzando il processo a 4 nanometri, con spedizioni previste per il terzo trimestre dell'anno. La collaborazione tra le due aziende si estende oltre la memoria HBM per includere il foundry, consolidando un'alleanza che abbraccia l'intera catena del valore dei semiconduttori AI.

Groq 3 LPU: l'ingresso di Samsung nel mercato dei chip per inferenza AI

⬆ Torna su

Il Groq 3 LPU è un chip specializzato per l'inferenza AI, progettato per elaborare risposte rapide con consumi energetici inferiori rispetto alle GPU tradizionali. Durante il keynote del GTC 2026, Jensen Huang ha dichiarato: "Samsung sta producendo per noi il Groq 3 LPU" e ha aggiunto che le spedizioni inizieranno nel secondo semestre, probabilmente intorno al terzo trimestre. L'executive vice president di Samsung Electronics responsabile dello sviluppo memoria, Hwang Sang-joon, ha confermato che il chip per inferenza viene prodotto presso il campus di Pyeongtaek e che l'azienda ha ricevuto ordini superiori alle aspettative.

Nvidia intende integrare il Groq 3 LPU nel suo acceleratore AI di nuova generazione Vera Rubin, configurandolo in modo che i calcoli su larga scala siano gestiti dalle GPU mentre le risposte rapide sono elaborate dal LPU. Nvidia prevede che questa combinazione possa aumentare l'efficienza per watt fino a 35 volte. Huang ha sottolineato che con l'emergere degli agenti AI, il volume di inferenza richiesto è aumentato di 10.000 volte rispetto ai tempi del debutto di ChatGPT, definendo questo il punto di svolta per l'inferenza.

HBM4E: Samsung presenta la settima generazione di memoria ad alta larghezza di banda

⬆ Torna su

Samsung Electronics ha mostrato per la prima volta in versione fisica il suo chip HBM4E di settima generazione al GTC 2026. Il nuovo HBM4E è progettato per raggiungere velocità fino a 16 gigabit al secondo per pin e una larghezza di banda fino a 4 terabyte al secondo, posizionandosi come componente chiave per i sistemi AI di prossima generazione. Samsung ha dichiarato di accelerare lo sviluppo dell'HBM4E basandosi sulle competenze tecnologiche acquisite attraverso la produzione di massa dell'HBM4 di sesta generazione e della tecnologia di processo DRAM 1c.

Samsung prevede di fornire campioni di HBM4E ai clienti nel terzo trimestre e di avviare la produzione di massa nel quarto trimestre dell'anno corrente. L'azienda ha esposto anche altri componenti destinati alla piattaforma AI Vera Rubin di Nvidia, tra cui i moduli di memoria SOCAMM2 progettati per CPU e il dispositivo di archiviazione PM1763 per server. Secondo un responsabile Samsung, l'azienda può fornire una soluzione completa che collega i componenti chiave dei server AI, non solo HBM.

AI Megafactory: oltre 50.000 GPU per trasformare la produzione manifatturiera

⬆ Torna su

Samsung Electronics ha annunciato il progetto di creare una nuova AI Megafactory in collaborazione con Nvidia, distribuendo oltre 50.000 GPU Nvidia per integrare l'AI in tutto il flusso di produzione. L'AI Factory di Samsung integrerà ogni aspetto della produzione di semiconduttori, dal design e processo fino alle apparecchiature, operazioni e controllo qualità, in un'unica rete intelligente dove l'AI analizza, prevede e ottimizza gli ambienti di produzione in tempo reale.

La collaborazione tra Samsung e Nvidia copre oltre 25 anni, iniziando con la DRAM Samsung che alimentava le prime schede grafiche Nvidia e proseguendo con partnership foundry. Per i prossimi anni, Samsung prevede di implementare il calcolo accelerato Nvidia per scalare la sua AI Factory e accelerare la produzione digitale twin tramite le librerie NVIDIA Omniverse su una delle infrastrutture di produzione di chip più complete al mondo, che include memoria, logica, foundry e packaging avanzato.

Corea del Sud verso il secondo hub mondiale per compute AI

⬆ Torna su

Il governo sudcoreano ha creato un gruppo di lavoro che coinvolge Hyundai, Naver Cloud, Samsung e SK Telecom per sviluppare un'infrastruttura AI nazionale che utilizzerà 260.000 GPU Nvidia. Con un totale di oltre 300.000 GPU Blackwell di Nvidia, la Corea del Sud avrà l'hardware necessario per diventare il secondo hub mondiale per compute AI dopo gli Stati Uniti. Samsung e SK Hynix producono i chip HBM utilizzati in quelle GPU Blackwell.

Inoltre, Samsung sta collaborando con Nvidia, operatori telecom sudcoreani, accademia e istituti di ricerca sullo sviluppo di AI-RAN, una tecnologia di comunicazione di prossima generazione che integra la capacità di calcolo AI nelle capacità di rete mobile. L'anno scorso le aziende hanno completato con successo la prova di concetto dell'AI-RAN combinando la rete software-based di Samsung con le GPU Nvidia.

Samsung SDS: 640 miliardi di won per data center AI e M&A

⬆ Torna su

Samsung SDS ha annunciato di voler utilizzare i suoi 640 miliardi di won di disponibilità liquide per investimenti legati ai data center AI e a fusioni e acquisizioni di aziende con capacità AI specializzate per settore. Il CEO Lee June-hee, durante la 41esima assemblea generale annuale degli azionisti, ha dichiarato che il 2026 è un periodo decisivo per determinare la leadership nei mercati AI e cloud, e che l'azienda darà priorità agli investimenti CAPEX e M&A focalizzandosi sulla crescita.

Samsung SDS sta promuovendo la costruzione di nuovi data center AI, tra cui il data center AI di Gumi e il Centro Nazionale per il Calcolo AI, e prevede di investire in server dedicati GPU e apparecchiature per servizi AI presso l'ala ovest del data center Dongtan, inaugurato a gennaio. L'azienda ha registrato nell'ultimo anno 13,9299 trilioni di won di ricavi e 957,1 miliardi di won di utili operativi, con il business cloud che supera il 41% dei ricavi nel settore servizi IT istituzionali.

Agentic AI e partnership strategiche

⬆ Torna su

Al CES 2026, Samsung SDS ha posizionato l'agentic AI come driver competitivo, descrivendo la prossima evoluzione dell'AI come una forma di intelligenza capace di riconoscere e eseguire task autonomamente. L'azienda ha firmato un accordo di partnership rivenditore con OpenAI per ChatGPT Enterprise, prima azienda IT sudcoreana a farlo, consentendole di offrire soluzioni generative AI personalizzate ai clienti aziendali. Samsung SDS prevede inoltre di rafforzare la sua infrastruttura AI introducendo la GPU B300 di Nvidia a febbraio.

Lee ha evidenziato il ruolo di Samsung SDS nel supportare le iniziative AI governative, operando un cloud privato presso il Servizio Nazionale delle Risorse Informative di Daegu. Attraverso la Samsung Cloud Platform, l'azienda fornisce servizi cloud, AI e GPU alle istituzioni pubbliche. Samsung SDS guida anche il progetto della fondazione comune AI a livello governativo e della piattaforma di gestione intelligente del lavoro, con piani di espansione operativa in tutto il paese.

SK Hynix al GTC 2026: HBM4 e prospettive di listing ADR

⬆ Torna su

SK Hynix ha partecipato al GTC 2026 con il tema "Spotlight on AI Memory", esponendo prodotti HBM4 e HBM3E di quinta generazione utilizzati nelle GPU Nvidia. L'azienda ha presentato anche un'unità SSD enterprise con tecnologia di raffreddamento a liquido sviluppata in collaborazione con Nvidia. Il chairman del gruppo SK, Chey Tae-won, e il CEO di SK Hynix Kwak Noh-jung hanno presenziato alla conferenza con altri dirigenti senior, con incontri programmati con aziende big tech globali.

Chey ha menzionato per la prima volta la possibilità di quotare American Depositary Receipts di SK Hynix sui mercati statunitensi, affermando che ciò permetterebbe di esporsi non solo agli azionisti sudcoreani ma anche agli investitori statunitensi e globali, aiutando l'azienda a diventare più globale. In gennaio SK Hynix aveva dichiarato in una registrazione normativa di esaminare varie opzioni per valorizzare l'azienda, inclusa una possibile quotazione sui mercati USA, sebbene nessuna decisione sia stata ancora finalizzata.

Esynos 2600 e sviluppi nella foundry

⬆ Torna su

Samsung Electronics ha presentato dettagli del suo ultimo application processor, l'Esynos 2600, il primo chip smartphone prodotto con processo a 2 nanometri del settore. Progettato dalla divisione System LSI e prodotto dal foundry Samsung, Esynos 2600 equipaggerà circa la metà degli smartphone flagship Galaxy S26 l'anno prossimo, segnando la sfida più audace degli ultimi anni per rilanciare le ambizioni dei chip in-house di Samsung. L'azienda prevede di applicare la tecnologia di processo a 3 nanometri anche alla produzione della prossima linea Galaxy di smartphone e smartwatch.

Samsung ha esteso la sua partnership strategica con AMD per sviluppare congiuntamente chip application processor di prossima generazione. Le due aziende hanno firmato un accordo di estensione pluriennale. Inoltre, Samsung ha consegnato la memoria HBM di quinta generazione ad AMD, aumentando le aspettative di poter fornire anche memoria ad alte prestazioni per i chip AI di prossima generazione del produttore statunitense.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'estensione della collaborazione Samsung-Nvidia dalla memoria HBM al foundry segnala un'integrazione verticale che potrebbe ridefinire le dinamiche competitive nel settore dei semiconduttori. La posizione della Corea del Sud come potenziale secondo hub mondiale per compute AI rafforza il peso geopolitico dell'ecosistema locale.

  • Scenario 1: Samsung potrebbe consolidare il ruolo di partner foundry strategico per Nvidia, differenziandosi dai competitor e ampliando il perimetro della collaborazione oltre l'HBM.
  • Scenario 2: L'AI Megafactory potrebbe diventare un modello di riferimento per l'industria manifatturiera, con ricadute su produttività e ottimizzazione dei processi.
  • Scenario 3: La competizione HBM con SK Hynix potrebbe intensificarsi, con possibili ripercussioni su margini e quote di mercato.

Cosa monitorare

⬆ Torna su
  • Le spedizioni del Groq 3 LPU nel terzo trimestre e la conferma degli ordini ricevuti.
  • L'avvio della produzione di massa dell'HBM4E nel quarto trimestre.
  • Gli investimenti M&A di Samsung SDS in aziende con capacità AI specializzate per settore.
  • L'evoluzione del progetto AI-RAN e le adozioni da parte degli operatori telecom.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • hbm
  • semiconductor

Link utili

Apri l'articolo su DeafNews