AMD a CES 2026: la sfida dello yotta-scale computing tra innovazione e tensioni di mercato

Analisi delle tecnologie AI presentate da AMD a CES 2026, tra cui l'architettura Helios e la roadmap MI500, nel contesto della crescente domanda di potenza com…

Contenuto

AMD a CES 2026: la sfida dello yotta-scale computing tra innovazione e tensioni di mercato

Scopri anche

AMD a CES 2026: la sfida dello yotta-scale computing tra innovazione e tensioni di mercato

AMD a CES 2026: la sfida dello yotta-scale computing tra innovazione e tensioni di mercato

In questo articolo:

L'architettura Helios per lo yotta-scale computing

⬆ Torna su AMD ha presentato a CES 2026 la piattaforma rack-scale "Helios", progettata come blueprint per l'infrastruttura di calcolo yotta-scale. Questa architettura integra core CPU Zen 6 realizzati sul processo produttivo a 2nm di Taiwan Semiconductor Manufacturing Company (TSMC). La piattaforma è in grado di ospitare oltre 4.600 core in un singolo rack, raggiungendo una performance di 3 AI exaflops. Helios combina acceleratori AMD Instinct MI455X, CPU EPYC "Venice" e NIC Pensando "Vulcano" per lo scale-out networking. L'ecosistema software open AMD ROCm unifica questi componenti, puntando a soddisfare le esigenze computazionali dell'addestramento di grandi modelli linguistici con parametri nell'ordine dei trilioni.

La roadmap degli acceleratori Instinct MI400 e MI500

⬆ Torna su Il portfolio MI400 Series si arricchisce con l'Instinct MI440X GPU, destinato a deployment AI aziendali on-premises. Questo acceleratore in formato compatto a otto GPU supporta carichi di lavoro scalabili di training, fine-tuning e inference. La serie include anche gli Instinct MI430X GPU, orientati a performance di alto livello per applicazioni scientifiche, HPC e AI sovrana. AMD ha condiviso dettagli sulla prossima generazione di GPU Instinct MI500, il cui lancio è pianificato per il 2027. Basata sull'architettura CDNA 6, tecnologia di processo avanzata a 2nm e memoria HBM4E, la serie MI500 promette un aumento delle prestazioni AI fino a 1.000 volte rispetto alle GPU Instinct MI300X introdotte nel 2023.

L'espansione nel mercato AI PC

⬆ Torna su Nel segmento consumer, AMD ha introdotto le piattaforme Ryzen AI 400 Series e Ryzen AI PRO 400 Series, con NPU da 60 TOPS per l'elaborazione AI locale. I primi sistemi basati su queste piattaforme sono previsti per gennaio 2026, con una disponibilità più ampia da parte degli OEM nel primo trimestre dello stesso anno. La serie Ryzen AI Max+ 392 e Ryzen AI Max+ 388 supporta modelli fino a 128 miliardi di parametri con 128GB di memoria unificata, abilitando inference locale avanzata e esperienze gaming su notebook sottili e leggeri. Per gli sviluppatori, la piattaforma Ryzen AI Halo Developer Platform offrirà capacità di sviluppo AI su desktop SFF compatti, con prevista disponibilità nel secondo trimestre 2026.

La domanda AI e le pressioni sui costi

⬆ Torna su La domanda di computing power per applicazioni AI sta attraversando una fase di crescita accelerata. Secondo le proiezioni presentate, l'infrastruttura di calcolo globale dovrà espandersi dagli attuali 100 zettaflops a oltre 10 yottaflops nei prossimi cinque anni, corrispondente a un aumento di 10.000 volte rispetto al 2022. Questa espansione comporta investimenti significativi in hardware avanzato. I chip AI di fascia alta possono raggiungere prezzi nell'ordine delle decine di migliaia di dollari, con sistemi che integrano fino a 72 di questi componenti per massimizzare performance ed efficienza.

Il contesto competitivo e le sfide di mercato

⬆ Torna su Il panorama competitivo mostra NVIDIA con la piattaforma "Vera Rubin" già in produzione su larga scala, mentre Intel presenta i Core Ultra Series 3 (Panther Lake) basati sul nodo produttivo Intel 18A. La timeline accelerata di NVIDIA potrebbe ampliare il divario prestazionale prima del lancio della serie MI500 di AMD previsto per fine 2027. La transizione verso la produzione a 2nm e l'aumento dei costi per la High Bandwidth Memory (HBM) e il packaging specializzato potrebbero esercitare pressioni sui margini operativi nonostante il volume di vendita crescente.

L'ecosistema software e le partnership

⬆ Torna su AMD continua lo sviluppo della suite software ROCm, sebbene l'ecosistema CUDA di NVIDIA rappresenti ancora una barriera significativa per alcuni investitori. Le collaborazioni con partner come OpenAI, Luma AI, Liquid AI e altri dimostrano l'impegno nella co-innovazione attraverso piattaforme aperte. Le applicazioni AI si estendono anche al mondo embedded con i nuovi processori Ryzen AI Embedded P100 e X100 Series, destinati ad applicazioni edge in settori come automotive, healthcare e robotica umanoide.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • ces
  • helios
  • yottaflops
  • mi500

Link utili

Apri l'articolo su DeafNews