L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo

Le CPU tornano protagoniste nei data center per l'intelligenza artificiale. L'AI agente richiede più orchestrazione e le infrastrutture bilanciate diventano es…

Contenuto

L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo

Scopri anche

L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo

Le CPU riacquistano centralità nei data center AI grazie all'AI agente

In questo articolo:

L'attenzione dell'industria dei data center si sta spostando dalle sole GPU verso un modello infrastrutturale più bilanciato. L'emergere dell'AI agente – sistemi che pianificano, decidono e agiscono con intervento umano minimo – sta ridefinendo i requisiti computazionali, rendendo le CPU nuovamente critiche per l'orchestrazione, la gestione dei dati e il coordinamento dei flussi di lavoro.

Il cambio di paradigma con l'AI agente

⬆ Torna su

Per tre anni, le GPU hanno dominato i titoli e gli investimenti nell'AI. I data center si sono concentrati quasi esclusivamente sulla capacità di accelerazione, mentre le CPU venivano considerate componenti di supporto. Tuttavia, secondo i dati presentati da AMD, l'AI agente sta cambiando radicalmente questo equilibrio: i sistemi autonomi richiedono più logica e più gestione delle GPU, spostando domanda computazionale verso i processori tradizionali.

Una ricerca condotta da Georgia Tech e Intel ha quantificato questo cambiamento: l'elaborazione degli strumenti sulle CPU rappresenta tra il 50% e il 90% della latenza totale nei carichi di lavoro agentici. In molti flussi di lavoro, la CPU è responsabile della maggior parte del tempo di attesa, mentre la GPU rimane inattesa in attesa che il processore completi il proprio lavoro.

L'AI agente funziona in modo fondamentalmente diverso rispetto ai chatbot tradizionali. Mentre un modello come ChatGPT segue un ciclo domanda-risposta relativamente semplice, i sistemi agentici eseguono pianificazione, orchestrazione di sotto-task, chiamate API, interrogazioni di database, elaborazione di file e coordinamento tra sotto-agenti paralleli – operazioni che gravano quasi interamente sulla CPU.

Il ruolo delle CPU nei cluster AI moderni

⬆ Torna su

Nei cluster AI moderni, le CPU eseguono il lavoro di sistema che mantiene gli acceleratori produttivi: scheduling, preparazione dati, gestione della memoria e I/O, e flusso di controllo. AMD descrive la relazione tra CPU e GPU come quella tra un allenatore e una squadra di atleti: la CPU chiama le giocate, reagisce alle condizioni, gestisce il cronometro e mantiene tutti i giocatori nella direzione corretta, mentre le GPU eseguono compiti specifici ad alta velocità.

Durante il training, le CPU gestiscono e alimentano i dati alle GPU per mantenerle operative alla massima efficienza, eseguono il sistema operativo, gestiscono la memoria e schedulano i task. Durante l'inferenza, il ruolo della CPU diventa più intenso: raccoglie dati, instrada informazioni, interpreta risultati e decide le azioni finali, con controllo, coordinamento e decision-making complessi che avvengono simultaneamente.

I dati pubblicati da AMD indicano che i sistemi basati su CPU EPYC di quinta generazione mostrano fino a 2,1x prestazioni per core superiori rispetto ai sistemi comparabili basati su Nvidia Grace Superchip. Lo stesso confronto mostra fino a 2,26x miglioramento in SPECpower, misurando operazioni per watt.

La carenza di CPU e le dinamiche di approvvigionamento

⬆ Torna su

La catena di approvvigionamento delle CPU server è sotto stress significativo. Intel ha ammesso di non riuscire a soddisfare tutta la domanda e sta riallocando capacità produttiva dalle CPU per PC alle CPU server. I tempi di consegna per alcune CPU server Intel hanno raggiunto i sei mesi in Cina, mentre per AMD si estendono a 8-10 settimane per alcuni prodotti.

TSMC sta priorizzando gli acceleratori AI, riducendo la capacità disponibile per le CPU. Secondo quanto riportato, quando i processi a 3nm di TSMC operano a 160.000 wafer al mese e questo non è ancora sufficiente, e quando la capacità di packaging avanzato CoWoS è esaurita fino al 2026, l'allocazione dei wafer CPU viene compressa come effetto collaterale.

Un distributore IT globale riporta che le carenze di CPU stanno guidando direttamente un aumento del 30% nei prezzi medi di vendita durante il quarto trimestre 2025, con backlog crescenti mentre gli ordini superano le aspettative.

AMD e la strategia per l'AI infrastructure

⬆ Torna su

AMD ha riportato ricavi record di 5,4 miliardi di dollari per il segmento data center nel Q4 2025, con crescita del 39% anno su anno e del 24% sequenziale. Lisa Su, CEO di AMD, ha evidenziato che la domanda per le CPU EPYC sta crescendo mentre i carichi di lavoro AI agentici e emergenti richiedono CPU ad alte prestazioni per alimentare i nodi head ed eseguire task paralleli alongside le GPU.

Le CPU EPYC di quinta generazione "Turin" hanno rappresentato più della metà dei ricavi totali delle CPU server entro la fine del Q4, e il numero di istanze cloud EPYC è cresciuto oltre il 50% anno su anno raggiungendo quasi 1.600 istanze. Il numero di grandi aziende che distribuiscono EPYC on-premise è più che raddoppiato nel 2025.

AMD prevede che i ricavi del segmento data center crescano oltre il 60% annualmente nei prossimi tre-cinque anni, con il business AI che scala verso decine di miliardi di ricavi annuali entro il 2027. Le CPU rappresentano un elemento significativo di questa equazione.

Il piano di Intel e la risposta al mercato

⬆ Torna su

Intel ha registrato ricavi Q4 di 13,7 miliardi di dollari, sopra le stime, con i ricavi data center e AI in crescita del 15% sequenziale – la crescita sequenziale più rapida di questo decennio. Tuttavia, l'azienda ha riconosciuto di non poter soddisfare tutta la domanda a causa di vincoli di approvvigionamento.

Il CEO Lip-Bu Tan ha dichiarato che l'azienda ha conseguito questi risultati nonostante i vincoli di approvvigionamento, che hanno limitato significativamente la capacità di catturare la forza nei mercati target. Intel sta spostando capacità dai wafer per CPU client verso le CPU data center, prevedendo che l'approvvigionamento tocchi il punto più basso nel Q1 2026 prima di migliorare nel Q2.

L'adozione delle CPU Arm negli hyperscaler

⬆ Torna su

Secondo un rapporto Futurum, l'adozione di CPU Arm da parte degli hyperscaler non è più esplorativa. AWS, Microsoft, Google e Nvidia stanno distribuendo CPU Arm nell'infrastruttura cloud, nel silicio personalizzato e nei data center convergenti AI. Quasi il 50% del compute spedito ai principali hyperscaler è ora basato su Arm.

I benchmark indipendenti di Signal65 mostrano che AWS Graviton4 offre miglioramenti di prestazioni a doppia cifra rispetto alle CPU x86 comparabili, mantenendo un chiaro vantaggio nel costo totale di possesso. In un mondo vincolato dall'energia, le CPU che massimizzano il throughput per watt diventano asset strategici.

Le nuove generazioni di processori server

⬆ Torna su

Il 2026 segna un punto di svolta per le CPU data center, con molteplici nuove generazioni in arrivo da tutti i vendor. AMD sta sviluppando "Venice", CPU EPYC di prossima generazione basate su architettura Zen 6 e prodotte con processo a 2 nanometri di TSMC, posizionate per alimentare l'architettura rack-scale "Helios".

Nvidia ha annunciato la CPU Vera, parte della piattaforma Rubin presentata al CES 2026, progettata specificamente per carichi di lavoro di reasoning agentico. Vera offre fino a 2x le prestazioni rispetto alla precedente CPU Grace, con 88 core per die e significativi miglioramenti in memoria e bandwidth chip-to-chip. Vera può essere distribuita come piattaforma standalone per l'elaborazione agentica, separata dalla GPU.

L'accordo strategico tra AWS e OpenAI da 38 miliardi di dollari su sette anni prevede che OpenAI accederà a "centinaia di migliaia di GPU Nvidia all'avanguardia, con la capacità di espandere a decine di milioni di CPU per scalare rapidamente i carichi di lavoro agentici". L'inclusione esplicita delle CPU nell'annuncio indica quanto i laboratori AI frontier stiano considerando il compute CPU come requisito di scalabilità.

L'accordo Meta-Nvidia e le implicazioni infrastrutturali

⬆ Torna su

Meta e Nvidia hanno annunciato un accordo espanso che prevede la più grande distribuzione fino ad oggi di server solo-CPU Grace di Nvidia per l'azienda dei social media. Poco dopo, AMD ha annunciato il proprio accordo server con Meta, che incorporerà le CPU AMD Venice e la CPU Verano di prossima generazione.

Questi accordi confermano la tesi che nell'AI agente il rapporto CPU-to-GPU deve aumentare, e alcuni carichi di lavoro possono essere interamente CPU-bound. La partnership rappresenta il primo grande deployment standalone di CPU Nvidia Grace.

L'ecosistema software e il vantaggio x86

⬆ Torna su

L'architettura CPU x86 offre ai clienti il vantaggio di un ampio ecosistema software consolidato, con la stragrande maggioranza dei carichi di lavoro enterprise già in esecuzione nativa across ambienti on-premise e cloud, senza il refactoring, la ricompilazione e le basi di codice multiple che spesso accompagnano l'aggiunta di sistemi basati su Arm.

Secondo AMD, i processori x86 hanno un vantaggio specifico nei carichi di lavoro agentici dove gli agenti AI delegano lavoro a task CPU tradizionali, con la maggior parte di tali task già in esecuzione su x86 oggi. Lisa Su prevede che il mercato delle CPU server cresca con "forti double digits" nel 2026.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La riscoperta delle CPU nei carichi di lavoro agentici potrebbe ridefinire gli investimenti infrastrutturali, spostando l'attenzione dagli acceleratori verso architetture più bilanciate. Le tensioni sulla catena di approvvigionamento aggiungono complessità al quadro.

  • Scenario 1: la carenza di CPU server potrebbe persistere fino a metà 2026, con conseguente aumento dei prezzi e allungamento dei tempi di consegna per i data center in espansione.
  • Scenario 2: l'adozione di CPU Arm potrebbe accelerare negli hyperscaler, riducendo la dipendenza dalle architetture x86 tradizionali.
  • Scenario 3: i nuovi processori come Venice e Vera potrebbero intensificare la competizione nel segmento CPU per carichi di lavoro agentici.

Cosa monitorare

⬆ Torna su
  • L'allocazione della capacità produttiva di TSMC tra acceleratori e CPU.
  • L'evoluzione dei prezzi medi di vendita delle CPU server.
  • La crescita delle istanze cloud basate su EPYC e processori Arm.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • amd
  • nvidia
  • gpu

Link utili

Apri l'articolo su DeafNews