Samsung e AMD firmano accordo strategico per memoria AI di nuova generazione
Samsung fornirà HBM4 per gli acceleratori AI Instinct MI455X di AMD e ottimizzerà DDR5 per i processori EPYC, con potenziali sviluppi nella fonderia.
Contenuto

Scopri anche
- Data poisoning: bastano 250 documenti per compromettere un modello AI
- Samsung e AMD stringono accordo strategico per memoria HBM4 e soluzioni AI di nuova generazione
- Il business networking di Nvidia supera i 31 miliardi di dollari e ridefinisce l'architettura dei data center AI
- OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI
- Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU
- Samsung e AMD firmano MOU per HBM4: accordo strategico su memoria e potenziale foundry
- Data poisoning: quando 250 documenti bastano per compromettere un modello AI
- CIQ e AMD collaborano per ottimizzare Rocky Linux per carichi di lavoro AI e HPC
- NVIDIA DLSS 5: l'IA generativa per la grafica videoludica divide giocatori e sviluppatori
- Rebellions presenta Rebel 100: acceleratore AI multi-chiplet con interfaccia UCIe-Advanced
- L'integrazione tra SEO tradizionale e GEO: l'evoluzione verso i motori di ricerca generativi
- CIQ lancia Rocky Linux Pro AI con kernel ottimizzato per infrastrutture GPU
- NVIDIA DLSS 5: l'IA generativa applicata alla grafica videoludica divide sviluppatori e giocatori
- NVIDIA GTC 2026: La roadmap Vera Rubin, Feynman e l'integrazione di Groq LPUs ridefiniscono l'infrastruttura AI
- Intel: Boom dei Chip AI e Avanzamenti Foundry Guidano l'Ottimismo del Mercato
- Tensioni geopolitiche e minacce informatiche: i rischi emergenti per i mercati finanziari europei
- AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC
- CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- Analisi della Guidance del Primo Trimestre 2026 di Intel: Criticità nella Supply Chain e Svalutazione Azionaria
- Google TurboQuant: l'algoritmo che comprime la memoria AI fino a 6x senza perdita di accuratezza
Samsung e AMD firmano accordo strategico per memoria AI di nuova generazione
- Specifiche tecniche dell'HBM4 di Samsung
- Collaborazione estesa a memoria DDR5 e foundry
- Piani di investimento Samsung per il 2026
- Competizione con SK Hynix nel mercato HBM
- Reazioni del mercato e proiezioni
- Contesto di carenza di memoria
- Implicazioni e scenari
- Cosa monitorare
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Samsung Electronics ha firmato un Memorandum of Understanding (MOU) con AMD per espandere la collaborazione su tecnologie di memoria AI e computing avanzato. La cerimonia di firma si è svolta presso il complesso di produzione di chip più avanzato di Samsung a Pyeongtaek, in Corea, alla presenza della Dr. Lisa Su, Chair e CEO di AMD, e di Young Hyun Jun, Vice Chairman e CEO di Samsung Electronics.
L'accordo prevede la fornitura primaria di HBM4 per il prossimo acceleratore AI AMD Instinct MI455X GPU, oltre a soluzioni DRAM avanzate per i processori AMD EPYC di sesta generazione, con nome in codice "Venice". Queste tecnologie supporteranno sistemi AI di nuova generazione che combinano GPU AMD Instinct, CPU AMD EPYC e architetture rack-scale come la piattaforma AMD Helios.
Specifiche tecniche dell'HBM4 di Samsung
⬆ Torna suL'HBM4 di Samsung è costruito sulla sesta generazione del processo DRAM da 10 nanometri (classe 1c) e integra un base die logico a 4nm. Secondo Samsung, questa memoria offre velocità di elaborazione fino a 13 gigabit al secondo (Gbps) e una banda massima di 3,3 terabyte al secondo (TB/s), superando gli standard del settore. Samsung definisce questo prodotto come "il primo del settore a entrare in produzione di massa".
L'HBM4 è progettato per soddisfare i requisiti di banda e efficienza energetica sempre più critici per le prestazioni a livello di sistema nei carichi di lavoro AI e data center. La GPU AMD Instinct MI455X, alimentata dall'HBM4 di Samsung, sarà utilizzata come componente chiave nell'architettura rack-scale AMD Helios, prevista per il lancio alla fine del 2026.
Collaborazione estesa a memoria DDR5 e foundry
⬆ Torna suOltre all'HBM4, Samsung e AMD collaboreranno allo sviluppo di memoria DDR5 ad alte prestazioni ottimizzata per i processori AMD EPYC di sesta generazione. Le aziende mirano a fornire soluzioni DDR5 all'avanguardia per sistemi basati sull'architettura AMD Helios.
L'accordo include anche discussioni su opportunità di partnership nella fonderia, attraverso cui Samsung fornirebbe servizi foundry per futuri prodotti AMD. Young Hyun Jun ha dichiarato che Samsung è "posizionata in modo unico per fornire capacità turnkey senza pari che supportano la roadmap AI in evoluzione di AMD".
La collaborazione tra le due aziende dura da quasi due decenni nei settori di grafica, dispositivi mobili e tecnologie di calcolo. Samsung ha già fornito HBM3E per gli acceleratori AI AMD Instinct MI350X e MI355X.
Piani di investimento Samsung per il 2026
⬆ Torna suSamsung Electronics prevede di spendere oltre 110.000 miliardi di won (circa 73,3 miliardi di dollari) nel 2026 per rafforzare la sua posizione nei chip AI. Questo budget rappresenta un aumento del 22% rispetto all'anno precedente e sarà destinato a capacità di produzione, ricerca e produzione avanzata. L'azienda ha presentato la sua roadmap HBM4E al Nvidia GTC 2026, evidenziando il suo portfolio di memoria per sistemi AI di prossima generazione.
Secondo Samsung, le soluzioni HBM4 sono destinate alla piattaforma Vera Rubin di Nvidia, mantenendo l'azienda collegata alla futura domanda di acceleratori. Il focus sui prodotti HBM riflette l'importanza di questi componenti nei server AI: i chip HBM aiutano gli acceleratori a spostare i dati più velocemente durante la gestione di carichi di lavoro più grandi.
Competizione con SK Hynix nel mercato HBM
⬆ Torna suL'aumento degli investimenti di Samsung arriva mentre SK Hynix mantiene una posizione forte nella memoria AI premium. SK Hynix ha costruito il suo vantaggio attraverso legami stretti con Nvidia e una forte esecuzione nella produzione HBM. Samsung sta cercando di ridurre il divario attraverso nuovi lanci di prodotti, commercializzazione più rapida e maggiore spesa in conto capitale.
Recenti report indicano che i chip HBM3E a 12 strati di quinta generazione di Samsung hanno superato i test di qualità di Nvidia dopo soli 18 mesi dallo sviluppo, alimentando aspettative di ordini più consistenti. Questi prodotti HBM dovrebbero essere utilizzati in acceleratori AI come B300 di Nvidia e MI350 di AMD.
Reazioni del mercato e proiezioni
⬆ Torna suLe azioni Samsung sono salite sopra la soglia dei 90.000 won nelle contrattazioni pre-market, raggiungendo un massimo di 91.000 won. Morgan Stanley ha aggiornato i semiconduttori coreani da "in-line" ad "attractive", aumentando il target price di Samsung a 96.000 won da 86.000 won e mantenendo l'azienda come "Top Pick".
Il report di Morgan Stewart prevede che la domanda di server AI, DRAM mobile e altri prodotti memoria creerà uno squilibrio offerta-domanda entro il 2026, spingendo i prezzi verso l'alto. Gli ordini di SSD enterprise per la consegna nel 2026 corrispondono già ai volumi dell'intero 2025. HBM, moduli server DDR5 e LPDDR5 per piattaforme AI sono stati identificati come principali motori di crescita.
Diverse broker coreane hanno alzato i target: Mirae Asset ha fissato il target più alto a 111.000 won, mentre KB Securities ha portato la propria stima a 110.000 won da 90.000, citando la domanda crescente e potenziali accordi di fornitura con Nvidia. KB prevede un utile operativo di 20,8 trilioni di won nel secondo semestre, il più alto in quattro anni.
Contesto di carenza di memoria
⬆ Torna suL'accordo tra Samsung e AMD arriva mentre il settore tecnologico affronta una carenza acuta di memoria e storage. Samsung ha avvertito che la carenza di memoria potrebbe continuare fino al 2027. Samsung ha recentemente informato i principali clienti di un aumento dei prezzi contrattuali fissi per DRAM fino al 30% nel quarto trimestre, a seconda del prodotto, mentre i prezzi NAND flash aumenteranno del 5-10%. Mosse simili sono state effettuate da Micron Technology e Western Digital.
Al Nvidia GTC 2026, Jensen Huang ha notato che Samsung sta producendo il Groq 3 LPU, che sarà integrato nell'architettura Vera Rubin. Questo rafforza i legami di Samsung con Nvidia nel settore dell'infrastruttura AI.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa partnership tra Samsung e AMD potrebbe ridefinire gli equilibri nel mercato della memoria AI, tradizionalmente dominato da SK Hynix. L'accordo trovry esteso a HBM4, DDR5 e potenzialmente alla fonderia suggerisce una strategia di integrazione verticale che potrebbe differenziare l'offerta di AMD rispetto a chi fa affidamento su fornitori singoli.
- Scenario 1: Samsung consolida la posizione nel mercato HBM riducendo il divario con SK Hynix, grazie alla produzione di HBM4 per MI455X e alla validazione dei prodotti HBM3E da parte di Nvidia.
- Scenario 2: La partnership trovry si estende alla fonderia, creando un polo produttivo alternativo a TSMC per chip AMD EPYC e acceleratori AI.
- Scenario 3: La carenza di memoria prolungata fino al 2027 limita la capacità di entrambe le aziende di soddisfare la domanda, con effetti sui prezzi e sui tempi di consegna.
Cosa monitorare
⬆ Torna su- Conferma effettiva dell'accordo di fonderia tra Samsung e AMD, attualmente ancora in fase di discussione. <>Capacità produttiva HBM4 rispetto al lancio della piattaforma AMD Helios previsto per fine 2026.
- Reazione competitiva di SK Hynix e potenziali contro-mosse nel segmento memoria premium.
- Impatto degli aumenti di prezzo DRAM sui margini dei produttori di server AI.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Implicazioni e scenari
⬆ Torna suLa partnership tra Samsung e AMD potrebbe ridisegnare gli equilibri nel mercato della memoria AI, segmento dove SK Hynix mantiene un vantaggio consolidato. L'estensione della collaborazione a HBM4, DDR5 e potenzialmente alla fonderia suggerisce una strategia di integrazione che potrebbe differenziare l'offerta di AMD rispetto a chi dipende da fornitori singoli.
- Scenario 1: Samsung riduce il divario con SK Hynix grazie alla fornitura di HBM4 per MI455X e alla validazione HBM3E da parte di Nvidia, diversificando il portafoglio clienti oltre i legami storici.
- Scenario 2: La partnership foundry si concretizza, posizionando Samsung come alternativa a TSMC per la produzione di futuri chip AMD per data center.
- Scenario 3: La carenza di memoria fino al 2027 e gli aumenti di prezzo DRAM comprimono la capacità produttiva, rallentando la scalata dei server AI.
Cosa monitorare
⬆ Torna su- Conferma dell'accordo di fonderia, attualmente in fase di discussione tra le parti.
- Capacità produttiva HBM4 rispetto al lancio della piattaforma AMD Helios previsto per fine 2026.
- Risposta competitiva di SK Hynix e mosse di Nvidia nella allocazione degli ordini HBM.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://simplywall.st/stocks/kr/tech/kose-a005930/samsung-electronics-shares/news/samsung-ties-ai-memory-growth-to-amd-as-shares-screen-underv
- https://www.insidermonkey.com/blog/advanced-micro-devices-inc-amd-deepens-ties-with-samsung-on-memory-chip-supplies-and-foundry-1722094/
- https://www.analyticsinsight.net/news/samsung-to-spend-73-billion-in-2026-to-expand-ai-chip-capacity
- https://www.itpro.com/hardware/amd-and-samsung-forge-closer-ties-on-ai-memory-potential-foundry-deal
- https://news.samsung.com/global/samsung-and-amd-expand-strategic-collaboration-on-next-generation-ai-memory-solutions
- https://www.techi.com/samsung-stock-record-high-nvidia-ai-memory-supplier/
- https://www.koreaherald.com/article/10581621
In breve
- ai
- amd
- nvidia
- hbm