Samsung e AMD firmano MOU per HBM4: accordo strategico su memoria e potenziale foundry
Samsung fornirà HBM4 per gli acceleratori Instinct MI455X e collaborerà su DDR5 ottimizzati per EPYC Venice. L'accordo include discussioni su servizi foundry p…
Contenuto

Scopri anche
- Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
- NVIDIA GTC 2026: La roadmap Vera Rubin, Feynman e l'integrazione di Groq LPUs ridefiniscono l'infrastruttura AI
- Nvidia Groq 3 LPU: architettura eterogenea per l'inferenza AI a bassa latenza
- Rebellions presenta Rebel 100: acceleratore AI multi-chiplet con interfaccia UCIe-Advanced
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
- CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- NVIDIA GTC 2026: Keynote di Jensen Huang e sviluppi sull'infrastruttura AI
- Intel: Boom dei Chip AI e Avanzamenti Foundry Guidano l'Ottimismo del Mercato
- AMD espande i processori Edge AI e risolve la disputa legale con Adeia
- Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix
- Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale
- LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU
- Analisi della Guidance del Primo Trimestre 2026 di Intel: Criticità nella Supply Chain e Svalutazione Azionaria
- Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250
- NVIDIA prevede ricavi da 1 trilione di dollari entro il 2027
- La strategia di Intel: dalla CPU tradizionale all'era dell'intelligenza distribuita
- PlayStation 6: finestra di lancio tra 2027 e 2029, documenti contrattuali e carenza di memoria al centro delle speculazioni
- Samsung e NVIDIA annunciano AI factory con 50.000 GPU: collaborazione estesa ad AI-RAN, HBM4 e litografia computazionale
- NVIDIA: investitori istituzionali aumentano posizioni mentre gli insider vendono
- Nvidia presenta il Groq 3 LPU: chip dedicato all'inferenza AI con tecnologia SRAM
Samsung e AMD espandono collaborazione su HBM4 e memoria per infrastrutture AI
Samsung Electronics e AMD hanno firmato un memorandum of understanding (MOU) per espandere la loro collaborazione strategica su tecnologie di memoria e computing per intelligenza artificiale. La cerimonia di firma si è svolta presso il complesso di produzione di chip di Samsung a Pyeongtaek, in Corea, con la partecipazione della Dr. Lisa Su, Chair e CEO di AMD, e di Young Hyun Jun, Vice Chairman e CEO di Samsung Electronics.
L'accordo consolida una partnership che dura da quasi vent'anni nei settori di grafica, mobile e tecnologie di computing. Samsung è già stata fornitore principale di HBM3E per gli acceleratori AI Instinct MI350X e MI355X di AMD. Il nuovo MOU estende questa relazione alla sesta generazione di memoria a larga banda.
Specifiche tecniche dell'HBM4 di Samsung
⬆ Torna suSamsung fornirà il suo HBM4 di sesta generazione per il prossimo acceleratore AI Instinct MI455X di AMD. La memoria è costruita su un processo DRAM di classe 10 nanometri di sesta generazione (1c) con un base die logico a 4 nanometri. Le specifiche dichiarate includono velocità di elaborazione fino a 13 gigabit al secondo e una banda massima di 3,3 terabyte al secondo.
Samsung ha comunicato che il suo HBM4 è già entrato in produzione di massa. La memoria è stata progettata per soddisfare le esigenze di larghezza di banda e efficienza energetica richieste dai moderni carichi di lavoro AI, dove le prestazioni a livello di sistema dipendono sempre più da questi fattori.
Collaborazione su DDR5 e architettura rack-scale Helios
⬆ Torna suOltre all'HBM4, Samsung e AMD collaboreranno allo sviluppo di memoria DDR5 ad alte prestazioni ottimizzata per i processori EPYC di sesta generazione, con nome in codice "Venice". Questi componenti sono destinati a supportare sistemi che combinano GPU Instinct, CPU EPYC e l'architettura rack-scale Helios di AMD.
L'architettura Helios è progettata per scalare le prestazioni AI attraverso grandi data center. La GPU Instinct MI455X fungerà da componente centrale per questa piattaforma. La collaborazione su DDR5 mira a fornire soluzioni di memoria per sistemi basati su Helios.
Potenziale partnership foundry
⬆ Torna suIl MOU prevede anche discussioni su opportunità di partnership foundry, attraverso le quali Samsung fornirebbe servizi di produzione per futuri prodotti AMD. Questo aggiunge un ulteriore livello a una relazione che già spazia tra grafica, mobile e tecnologie di computing.
Young Hyun Jun ha dichiarato che Samsung è posizionata per fornire "capacità turnkey insostituibili" che supportano la roadmap AI di AMD, includendo HBM4, architetture di memoria di nuova generazione, foundry all'avanguardia e packaging avanzato.
Contesto di mercato e competitività
⬆ Torna suL'annuncio giunge in coincidenza con la conferenza GTC di Nvidia. Il CEO Jensen Huang ha recentemente lodato l'HBM4 di Samsung, sottolineando il ruolo dell'azienda coreana nell'ecosistema AI. Samsung detiene circa il 22% della quota globale del mercato HBM, rispetto al 57% del leader SK Hynix, secondo i dati di settore più recenti.
AMD ha recentemente consolidato accordi per fornire fino a 60 miliardi di dollari di chip AI a Meta nell'arco di cinque anni, insieme a un accordo separato con OpenAI. La partnership con Samsung potrebbe rendere il gigante coreano un fornitore essenziale per la roadmap AI di AMD.
Secondo Dr. Lisa Su, l'integrazione "dal silicio al sistema al rack" è essenziale per accelerare l'innovazione AI con impatto reale su larga scala. La collaborazione mira ad allineare acceleratore, CPU e architettura rack come pacchetto più integrato per gli acquirenti di infrastrutture AI.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'estensione della partnership a HBM4 e potenziali servizi foundry segnala un rafforzamento strategico tra Samsung e AMD in un mercato della memoria ad alta larghezza di banda attualmente dominato da SK Hynix. La concomitanza con la conferenza GTC sottolinea la rilevanza competitiva dell'accordo nel segmento degli acceleratori.
- Scenario 1: L'HBM4 già in produzione potrebbe accelerare la disponibilità dell'acceleratore MI455X, consolidando Samsung come fornitore strategico per la roadmap di AMD.
- Scenario 2: Le discussioni su servizi foundry potrebbero diversificare la catena produttiva di AMD, riducendo la dipendenza da altri partner di produzione.
- Scenario 3: L'integrazione con DDR5 ottimizzata e architettura Helios potrebbe semplificare l'adozione di soluzioni rack-scale nei grandi data center.
Cosa monitorare
⬆ Torna su- Eventuali sviluppi concreti della partnership foundry oltre alle discussioni preliminari del MOU.
- Variazioni della quota di mercato HBM di Samsung rispetto al 22% attuale.
- Impatto degli accordi con Meta e OpenAI sulla domanda complessiva di memoria HBM4.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.androidheadlines.com/2026/03/samsung-amd-hbm4-ai-foundry-partnership.html
- https://www.gsmarena.com/amd_buys_hbm4_from_samsung_for_ai_data_centers-news-72004.php
- https://hothardware.com/news/amd-taps-samsung-primary-hbm4-partner-instinct-mi455x
- https://www.techedt.com/samsung-and-amd-put-hbm4-at-the-centre-of-ai-infrastructure
- https://pulse2.com/amd-expanded-strategic-collaboration-with-samsung-for-next-generation-ai-memory-solutions/
- https://www.stocktitan.net/news/AMD/samsung-and-amd-expand-strategic-collaboration-on-next-generation-ai-4vpd3twxgc2c.html
- https://www.newelectronics.co.uk/content/news/samsung-and-amd-expand-partnership-with-new-ai-memory-agreement
In breve
- amd
- hbm
- ai-infrastructure
- gpu