Samsung e AMD stringono accordo strategico per memoria HBM4 e soluzioni AI di nuova generazione
Samsung fornirà memoria HBM4 per gli acceleratori AI Instinct MI455X di AMD, con investimenti pianificati di 73 miliardi di dollari per espandere la capacità p…
Contenuto

Scopri anche
- Data poisoning: quando 250 documenti bastano per compromettere un modello AI
- Il business networking di Nvidia supera i 31 miliardi di dollari e ridefinisce l'architettura dei data center AI
- OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI
- Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU
- Samsung e AMD firmano MOU per HBM4: accordo strategico su memoria e potenziale foundry
- L'integrazione tra SEO tradizionale e GEO: l'evoluzione verso i motori di ricerca generativi
- CIQ e AMD collaborano per ottimizzare Rocky Linux per carichi di lavoro AI e HPC
- NVIDIA DLSS 5: l'IA generativa per la grafica videoludica divide giocatori e sviluppatori
- Rebellions presenta Rebel 100: acceleratore AI multi-chiplet con interfaccia UCIe-Advanced
- Tensioni geopolitiche e minacce informatiche: i rischi emergenti per i mercati finanziari europei
- CIQ lancia Rocky Linux Pro AI con kernel ottimizzato per infrastrutture GPU
- NVIDIA DLSS 5: l'IA generativa applicata alla grafica videoludica divide sviluppatori e giocatori
- NVIDIA GTC 2026: La roadmap Vera Rubin, Feynman e l'integrazione di Groq LPUs ridefiniscono l'infrastruttura AI
- Intel: Boom dei Chip AI e Avanzamenti Foundry Guidano l'Ottimismo del Mercato
- AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC
- CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- Analisi della Guidance del Primo Trimestre 2026 di Intel: Criticità nella Supply Chain e Svalutazione Azionaria
- ChatGPT: come funziona realmente e perché gli utenti ne percepiscono i limiti
- Google TurboQuant: l'algoritmo che comprime la memoria AI fino a 6x senza perdita di accuratezza
- Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix
Samsung e AMD stringono accordo strategico per memoria HBM4 e soluzioni AI di nuova generazione
- Specifiche tecniche della memoria HBM4
- Collaborazione estesa su memoria DDR5 e foundry
- Investimenti pianificati per 73 miliardi di dollari
- Contesto di mercato e previsioni
- Le azioni Samsung raggiungono massimi record
- Carenze di memoria e rincari dei prezzi
- Una partnership ventennale
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Samsung Electronics ha firmato un memorandum of understanding con AMD per espandere la collaborazione su tecnologie di memoria e computing avanzati per intelligenza artificiale. La cerimonia di firma si è svolta presso il complesso di produzione di chip più avanzato di Samsung a Pyeongtaek, in Corea, con la partecipazione della Dr. Lisa Su, Chair e CEO di AMD, e di Young Hyun Jun, Vice Chairman e CEO di Samsung Electronics.
L'accordo prevede la fornitura primaria di memoria HBM4 per il prossimo acceleratore AI AMD Instinct MI455X GPU, nonché soluzioni DRAM avanzate per le CPU AMD EPYC di sesta generazione, nome in codice "Venice". Queste tecnologie supporteranno sistemi AI di nuova generazione che combinano GPU AMD Instinct, CPU AMD EPYC e architetture rack-scale come la piattaforma AMD Helios, il cui lancio è previsto per la fine del 2026.
Specifiche tecniche della memoria HBM4
⬆ Torna suLa memoria HBM4 di Samsung, prima nel settore a entrare in produzione di massa, è costruita utilizzando il processo DRAM di sesta generazione da 10 nanometri (classe 1c) e un base die logico a 4nm. La soluzione offre velocità di elaborazione fino a 13 gigabit al secondo e una larghezza di banda massima di 3,3 terabyte al secondo, superiore agli standard del settore. L'HBM4 di Samsung è già in produzione di massa e viene spedito, secondo quanto riportato dalle fonti.
La GPU AMD Instinct MI455X, alimentata dalle prestazioni della memoria HBM4 di Samsung, dovrebbe costituire la soluzione ottimale per sistemi ad alte prestazioni dedicati al training e all'inferenza dei modelli AI. La MI455X GPU fungerà da elemento chiave per l'architettura rack-scale AMD Helios, progettata per fornire le prestazioni e la scalabilità richieste dall'infrastruttura AI di prossima generazione.
Collaborazione estesa su memoria DDR5 e foundry
⬆ Torna suOltre alla memoria HBM4, Samsung e AMD collaboreranno allo sviluppo di memoria DDR5 ad alte prestazioni ottimizzata per le CPU AMD EPYC di sesta generazione. Le aziende mirano a fornire soluzioni DDR5 all'avanguardia del settore per sistemi basati sull'architettura rack-scale AMD Helios.
Nell'ambito dell'accordo, le due società discuteranno anche opportunità di partnership foundry, attraverso cui Samsung fornirebbe servizi di fonderia per prodotti AMD di prossima generazione. Questo asso dell'accordo arriva mentre anche Nvidia stringe legami più stretti con l'azienda sudcoreana: durante l'evento Nvidia GTC 2026, il CEO Jensen Huang ha riferito che Samsung sta producendo il Groq 3 LPU, destinato a essere integrato nell'architettura Vera Rubin.
Investimenti pianificati per 73 miliardi di dollari
⬆ Torna suSamsung Electronics prevede di spendere oltre 110 trilioni di won nel 2026, equivalenti a circa 73,3 miliardi di dollari, per rafforzare la propria posizione nei chip AI. Questo budget rappresenta un aumento del 22% rispetto all'anno precedente e sarà destinato a capacità produttiva, ricerca e produzione avanzata, mentre la competizione nei semiconduttori AI si intensifica.
Il piano di spesa riflette l'escalation nella corsa ai chip AI. Samsung mira a riguadagnare slancio contro SK Hynix, che ha costruito una posizione solida nella memoria high-bandwidth (HBM) per i sistemi Nvidia. Al contempo, Samsung sta espandendo sia le capacità di memoria che di foundry per catturare una maggiore domanda AI lungo tutta la catena di approvvigionamento.
Secondo quanto riportato, durante l'evento Nvidia GTC 2026, Samsung ha presentato la roadmap HBM4E e ha evidenziato il proprio portafoglio memoria più ampio per sistemi AI di prossima generazione. Le soluzioni HBM4 di Samsung sono destinate alla piattaforma Vera Rubin di Nvidia, mantenendo l'azienda strettamente collegata alla futura domanda di acceleratori.
Contesto di mercato e previsioni
⬆ Torna suLa memoria HBM è diventata uno dei componenti più importanti nei server AI. Questi chip aiutano gli acceleratori a spostare i dati più velocemente mentre gestiscono carichi di lavoro più elevati. Samsung sta utilizzando i nuovi investimenti per scalare la produzione, migliorare le prestazioni e supportare clienti che necessitano di memoria e packaging più avanzati.
Morgan Stanley ha proiettato che la domanda crescente di intelligenza artificiale porterà a un "superciclo" della memoria. Nel report "Memory Supercycle – Rising AI Tide Lifting All Boats", la banca d'investimento statunitense ha alzato i titoli dei semiconduttori coreani a "attraente" da "in-line" e ha aumentato il prezzo target di Samsung a 96.000 won da 86.000 won, mantenendo l'azienda come "Top Pick".
Il report indica che la domanda per server AI, DRAM mobile e altri prodotti memoria creerà uno squilibrio tra offerta e domanda entro il 2026, spingendo i prezzi al rialzo. Prevede un aumento del 9% nei prezzi medi di vendita della DRAM nel quarto trimestre. Gli ordini per SSD aziendali per la consegna nel 2026 stanno già eguagliando i volumi dell'intero 2025, mentre HBM, moduli server DDR5 e LPDDR5 per piattaforme AI sono stati indicati come principali motori di crescita.
Le azioni Samsung raggiungono massimi record
⬆ Torna suLe azioni Samsung Electronics hanno superato brevemente la soglia dei 90.000 won nel pre-market di martedì, trainate dall'ottimismo sui chip memoria high-bandwidth e dalle previsioni positive dei broker. Secondo Nextrade, il titolo è salito fino a 91.000 won durante le ore pre-market. Samsung ha chiuso a 84.700 won alla Korea Exchange, in aumento dell'1,44% rispetto alla chiusura precedente.
Il rally ha seguito i report secondo cui i chip HBM3E a 12 strati di quinta generazione di Samsung hanno superato i test di qualità di Nvidia dopo soli 18 mesi dallo sviluppo, alimentando speranze per ordini più consistenti. Il prodotto HBM è previsto per essere utilizzato in acceleratori AI come il B300 di Nvidia e il MI350 di AMD. Le aspettative crescenti indicano che i volumi di fornitura per Amazon, Google e altre big tech aumenteranno nettamente mentre la domanda di chip memoria AI accelera.
Undici società di intermediazione coreane hanno alzato i propri target questo mese. Mirae Asset ha fissato il target più alto a 111.000 won, mentre KB Securities ha alzato la propria stima a 110.000 won da 90.000, citando la domanda crescente e i potenziali accordi di fornitura con Nvidia. Le azioni Samsung sono salite oltre il tre percento in una sessione di negoziazione, con impatto anche sugli indici più ampi.
Carenze di memoria e rincari dei prezzi
⬆ Torna suL'accordo arriva mentre il settore tecnologico affronta acute carenze di memoria e storage. Samsung aveva precedentemente avvertito che la carenza di memoria potrebbe continuare fino al 2027, mentre SK Hynix ha emesso un avviso simile. I produttori globali di chip, inclusi Samsung, hanno iniziato ad alzare i prezzi della memoria per catturare la domanda crescente.
Fonti del settore hanno riferito che Samsung ha recentemente informato i principali clienti dell'aumento dei prezzi contrattuali fissi per la DRAM nel quarto trimestre fino al 30%, a seconda del prodotto, mentre i prezzi NAND flash aumenteranno del 5-10%. La mossa segue aumenti simili da parte di Micron Technology e dell'unità SanDisk di Western Digital, e gli analisti prevedono che SK Hynix seguirà l'esempio.
Kim Dong-won, responsabile della ricerca di KB, ha dichiarato: "Il recupero della divisione semiconduttori di Samsung sta superando le aspettative, e prevediamo un utile operativo nel secondo semestre di 20,8 trilioni di won, il più alto in quattro anni". Kim ha previsto un utile netto di 34 trilioni di won per l'azienda tecnologica quest'anno e 52 trilioni di won il prossimo, con aumenti del 16% e 24% rispetto alle stime precedenti.
Una partnership ventennale
⬆ Torna suSamsung e AMD collaborano da quasi due decenni su tecnologie grafiche, mobili e di computing, inclusa la partnership primaria di Samsung come fornitore HBM3E per AMD, alimentando i più recenti acceleratori AI AMD Instinct MI350X e MI355X. Young Hyun Jun ha sottolineato come Samsung sia "unicamente posizionata per fornire capacità chiavi in mano incomparabili che supportano la roadmap AI in evoluzione di AMD".
La Dr. Lisa Su ha dichiarato: "Potenziare la prossima generazione di infrastruttura AI richiede una profonda collaborazione nel settore. Siamo entusiasti di espandere il nostro lavoro con Samsung, unendo la loro leadership nella memoria avanzata con le nostre GPU Instinct, CPU EPYC e piattaforme rack-scale. L'integrazione lungo l'intero stack di computing, dal silicio al sistema al rack, è essenziale per accelerare l'innovazione AI che si traduce in impatto reale nel mondo su larga scala".
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'accordo Samsung-AMD ridefinisce gli equilibri nella supply chain dei semiconduttori per il calcolo ad alte prestazioni. Con investimenti pianificati di oltre 70 miliardi di dollari, Samsung cerca di recuperare terreno contro SK Hynix nella memoria high-bandwidth, diversificando il portafoglio clienti oltre Nvidia.
- Scenario 1: Se Samsung mantiene il vantaggio HBM4, potrebbe consolidare ordini da AMD e Nvidia, riducendo il divario competitivo con SK Hynix nei segmenti memoria per data center.
- Scenario 2: Gli aumenti prezzi DRAM fino al 30% potrebbero intensificarsi se la carenza di memoria si protrae fino al 2027, impattando i margini dei produttori di server.
- Scenario 3: La partnership foundry con AMD potrebbe espandere la collaborazione oltre la memoria, diversificando le opzioni produttive per futuri prodotti.
Cosa monitorare
⬆ Torna su- Stato di avanzamento produzione HBM4 per l'architettura AMD Helios prevista per fine 2026.
- Segnali di ulteriori aumenti prezzi e reazione dei clienti enterprise alla dinamica offerta-domanda.
- Evoluzione della competizione memoria tra Samsung e SK Hynix nei contratti con Nvidia e AMD.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://simplywall.st/stocks/kr/tech/kose-a005930/samsung-electronics-shares/news/samsung-ties-ai-memory-growth-to-amd-as-shares-screen-underv
- https://www.insidermonkey.com/blog/advanced-micro-devices-inc-amd-deepens-ties-with-samsung-on-memory-chip-supplies-and-foundry-1722094/
- https://www.analyticsinsight.net/news/samsung-to-spend-73-billion-in-2026-to-expand-ai-chip-capacity
- https://www.itpro.com/hardware/amd-and-samsung-forge-closer-ties-on-ai-memory-potential-foundry-deal
- https://news.samsung.com/global/samsung-and-amd-expand-strategic-collaboration-on-next-generation-ai-memory-solutions
- https://www.techi.com/samsung-stock-record-high-nvidia-ai-memory-supplier/
- https://www.koreaherald.com/article/10581621
In breve
- ai
- amd
- nvidia
- hbm