AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC

AMD anticipa l'era dell'AI agentic con processori progettati per gestire agenti autonomi, ponendo la CPU al centro dell'infrastructura AI moderna.

Contenuto

AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC

Scopri anche

AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC

AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC

In questo articolo:

AMD ha introdotto il concetto di "Agent Computer", una nuova categoria di dispositivi progettati per eseguire in modo continuativo agenti AI autonomi. Secondo il chipmaker, l'AI su PC ha superato una soglia significativa, con uno spostamento verso l'esecuzione locale di agenti capaci di operare indipendentemente sulle applicazioni e sui task dell'utente.

L'azienda descrive questi dispositivi come macchine sempre attive, sempre disponibili, che non si operano come un PC tradizionale ma a cui si delega il lavoro. Gli utenti possono inviare comandi tramite piattaforme come WhatsApp o Slack, e l'agente esegue le attività in background senza richiedere interazione diretta continua.

Il cambio di paradigma dell'AI agentic

⬆ Torna su

Secondo AMD, il passaggio dai chatbot tradizionali agli agenti AI autonomi rappresenta un cambiamento strutturale nei carichi di lavoro computazionali. Mentre i chatbot come ChatGPT seguono un ciclo domanda-risposta lineare in cui la CPU svolge solo il 5-10% del calcolo totale, l'AI agentic richiede orchestrazione complessa, chiamate a strumenti, gestione della memoria e coordinamento tra sotto-agenti.

Un documento di ricerca di Georgia Tech e Intel del novembre 2025 ha quantificato questo impatto: l'elaborazione degli strumenti sulle CPU rappresenta tra il 50% e il 90% della latenza totale nei carichi di lavoro agentic. In molti flussi di lavoro, la GPU rimane inattesa mentre attende che la CPU completi il proprio lavoro prima di ricevere il successivo batch di token da elaborare.

Questo inverte le economie dell'infrastruttura su cui il settore ha operato negli ultimi tre anni. Nell'era dei chatbot, erano necessarie poche CPU di fascia alta abbinate a cluster GPU massicci. Nell'era agentic, potenzialmente serve un rapporto CPU-GPU più elevato, con più CPU per ogni GPU nei rack e nei cluster.

Il ruolo della CPU nell'orchestrazione degli agenti

⬆ Torna su

La CPU gestisce molteplici funzioni critiche nei flussi di lavoro agentic: la pianificazione, dove tokenizza le istruzioni dell'utente e invia al GPU per l'inferenza iniziale; l'orchestrazione, dove suddivide il piano in sotto-task e li assegna a agenti multipli; l'esecuzione degli strumenti, dove gestisce chiamate API, I/O di rete, elaborazione JSON e interrogazioni database; i loop di inferenza, dove elabora gli output tra una chiamata e l'altra; e la riflessione, dove raccoglie i risultati per valutare se rispondere alla domanda originale.

Le caratteristiche necessarie per una CPU in questo tipo di carichi di lavoro includono: alta velocità di clock single-core per minimizzare la latenza di orchestrazione, alto numero di core per eseguire molti agenti in parallelo, accesso rapido alla memoria e cache ampie per gestire contesto e stati intermedi, e forte connettività I/O con linee PCIe per rete e storage.

Le configurazioni RyzenClaw e RadeonClaw

⬆ Torna su

AMD ha delineato due profili di macchine AI locali. RyzenClaw si basa sulla piattaforma Ryzen AI Max+ con 128 GB di memoria unificata, di cui AMD raccomanda di riservare 96 GB come memoria grafica variabile per i carichi di lavoro AI. Utilizzando il modello Qwen 3.5 35B A3B, AMD riporta prestazioni di circa 45 token al secondo, con 10.000 token di input elaborati in circa 19,5 secondi. Questa configurazione supporta una finestra di contesto di 260K token e può eseguire fino a sei agenti contemporaneamente, rendendola adatta per flussi di lavoro multi-agente dove memoria e concorrenza contano più della velocità di inferenza pura.

RadeonClaw segue un approccio diverso, basato sulla scheda grafica workstation Radeon AI PRO R9700 con 32 GB di VRAM. Con lo stesso modello Qwen, AMD dichiara circa 120 token al secondo e circa 4,4 secondi per elaborare 10.000 token di input, risultando molto più veloce del setup Ryzen AI Max+ in termini di throughput diretto. Il compromesso è una finestra di contesto più ridotta di 190K token e supporto per soli due agenti concorrenti.

Un sistema Ryzen AI Max+ 395 con 128 GB di memoria parte da circa 2.700 dollari, mentre la Radeon AI PRO R9700 parte da 1.299 dollari prima di considerare il resto del sistema. Questo posiziona l'idea di Agent Computer di AMD come tecnicamente credibile ma ancora con un prezzo orientato a sviluppatori, utenti workstation ed appassionati, difficile da proporre come categoria di prodotto mainstream nel breve termine.

EPYC e il data center

⬆ Torna su

AMD ha evidenziato come i processori EPYC di quinta generazione offrano prestazioni fino a 2,1 volte migliori per core rispetto a un sistema basato su NVIDIA Grace Superchip, secondo dati pubblicati recentemente. Lo stesso sistema AMD mostra un miglioramento fino a 2,26x su SPECpower, che misura le operazioni per watt.

L'architettura x86 garantisce ai clienti l'accesso a un ecosistema software ampio e collaudato in grado di eseguire i carichi di lavoro esistenti nativamente, evitando la costosa rifattorizzazione e la duplicazione della base di codice spesso richiesta quando si passa ad alternative basate su Arm.

AMD ha riportato che i processori EPYC Turin di quinta generazione hanno rappresentato più della metà delle entrate totali dei server CPU entro la fine del Q4, e il numero di istanze cloud EPYC è cresciuto di oltre il 50% su base annua raggiungendo quasi 1.600 istanze. Il numero di grandi imprese che distribuiscono EPYC on-premise è più che raddoppiato nel 2025.

Le dichiarazioni di Lisa Su

⬆ Torna su

Il CEO e presidente di AMD, Dr. Lisa Su, ha sottolineato durante l'evento AMD Advancing AI che la domanda di CPU EPYC sta crescendo mentre i carichi di lavoro AI agentic ed emergenti richiedono CPU ad alte prestazioni per alimentare i nodi head ed eseguire task paralleli insieme alle GPU. Su ha specificato che nei flussi di lavoro agentic, quando gli agenti AI generano lavoro in un contesto enterprise, "vanno verso molti task tradizionali della CPU". Ha indicato che i processori x86 hanno un vantaggio particolare nei carichi di lavoro agentic dove gli agenti AI distribuiscono lavoro ai task tradizionali della CPU, con la maggioranza di tali task che oggi girano su x86.

AMD prevede che il mercato dei server CPU cresca con "forti doppie cifre" nel 2026. Su ha anche indicato che la divisione data center dovrebbe crescere di oltre il 60% annuo nei prossimi tre-cinque anni e che il business AI di AMD dovrebbe arrivare a decine di miliardi di entrate annuali entro il 2027, con le CPU come componente significativa di questa equazione.

La strategia dei sistemi bilanciati

⬆ Torna su

AMD sta investendo sulla filosofia dei sistemi bilanciati. Architetture future come le CPU "Venice" alimenteranno il design AI rack-scale "Helios". Integrando CPU EPYC con GPU Instinct e lo stack software ROCm, AMD mira a massimizzare le prestazioni a livello di cluster e ridurre il costo totale di possesso nell'era agentic.

Secondo AMD, l'infrastruttura si sta spostando da un routing statico basato su policy a un routing "basato su inferenza". Un layer di controllo potenziato da AI, in esecuzione sulle CPU, analizza dinamicamente i carichi di lavoro in arrivo per determinare se richiedono cicli GPU costosi o possono essere scaricati su CPU x86 tradizionali, ottimizzando l'allocazione delle risorse.

Il contesto competitivo

⬆ Torna su

NVIDIA sta effettuando una scommessa significativa sul lato CPU. La sua CPU Vera, parte della piattaforma Rubin annunciata al CES 2026, è progettata specificamente per i carichi di lavoro di reasoning agentic. Vera offre fino a 2x le prestazioni della precedente CPU Grace, con 88 core per die e incrementi significativi in memoria e banda chip-to-chip.

NVIDIA ha annunciato che Vera può essere distribuita come piattaforma standalone per l'elaborazione agentic, separata dalla GPU. CoreWeave utilizzerà CPU Vera standalone, e Jensen Huang ha suggerito in un'intervista a Bloomberg che "ci saranno molte altre" distribuzioni CPU standalone. Una partnership recentemente annunciata tra Meta e NVIDIA prevede il primo deployment su larga scala di sole CPU NVIDIA Grace.

I vincoli della supply chain

⬆ Torna su

La supply chain dei server CPU è sotto stress significativo. Intel ha ammesso di non poter soddisfare tutta la domanda e sta riallocando capacità dai wafer per CPU client a quelli per CPU server, con il CFO David Zinsner che ha riconosciuto che Intel ha "sottovalutato" il ritmo della domanda di CPU data center. Intel ha comunicato ai clienti cinesi tempi di consegna fino a sei mesi per certe CPU server.

AMD ha tempi di consegna estesi a 8-10 settimane per alcuni prodotti. TSMC sta dando priorità agli acceleratori AI, il che significa meno capacità per le CPU, dato che il presidente C.C. Wei ha dichiarato pubblicamente che la capacità dei nodi avanzati è "circa tre volte inferiore" rispetto a quanto i grandi clienti pianificano di consumare.

Un distributore IT globale riporta che le carenze di CPU stanno guidando direttamente un aumento del 30% nei prezzi medi di vendita nel Q4 2025, con backlog crescenti mentre l'ordine intake supera le aspettative.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La ridefinizione del rapporto CPU-GPU nei carichi di lavoro agentic potrebbe ridefinire le gerarchie dell'hardware per data center e workstation. Se l'orchestrazione degli agenti continua a richiedere cicli CPU significativi, i processori potrebbero tornare al centro delle decisioni infrastrutturali.

  • Scenario 1: Le Agent Computer rimangono una nicchia per sviluppatori e workstation, con adozione mainstream rallentata dai costi elevati e dalla complessità di configurazione.
  • Scenario 2: La competizione con NVIDIA su architettura e prezzi accelera, con AMD che sfrutta l'ecosistema x86 per differenziarsi dalla piattaforma Grace.
  • Scenario 3: I data center ricalibrano i rapporti CPU-GPU, aumentando la densità di processori per ottimizzare l'esecuzione degli agenti e ridurre i colli di bottiglia.

Cosa monitorare

⬆ Torna su
  • L'evoluzione dei prezzi delle configurazioni RyzenClaw e RadeonClaw e la loro disponibilità effettiva sul mercato.
  • Le metriche di adozione di EPYC nei deployment enterprise e cloud nel corso del 2026.
  • Le mosse competitive di NVIDIA sul fronte CPU, incluso l'impatto della piattaforma Rubin.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • amd
  • agentic
  • ai-infrastructure
  • nvidia

Link utili

Apri l'articolo su DeafNews