Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250

Qualcomm annuncia l'ingresso nel settore dei chip per intelligenza artificiale nei data center con i nuovi processori AI200 e AI250, sfidando il dominio di Nvi…

Contenuto

Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250

Scopri anche

Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250

Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250

In questo articolo:

Qualcomm ha annunciato l'ingresso nel mercato dei processori per intelligenza artificiale nei data center, presentando due nuovi chip acceleratori: AI200 e AI250. L'annuncio ha provocato una forte reazione sul mercato, con le azioni della società che hanno registrato un rialzo superiore all'11% nella seduta del lunedì. La mossa posiziona Qualcomm in competizione diretta con Nvidia, che detiene secondo le stime circa il 90-92% del mercato degli acceleratori AI, e con AMD, che sta espandendo la sua serie MI300.

Specifiche tecniche dei nuovi processori

⬆ Torna su

Il processore AI200, il cui lancio è previsto per il 2026, rappresenterà il primo sistema server completo di Qualcomm equipaggiato con CPU proprietaria e unità di elaborazione neurale Hexagon (NPU). Il chip AI250, con arrivo previsto nel 2027, promette un miglioramento di 10x nella larghezza di banda della memoria, ottimizzando le prestazioni per i deployment su larga scala nei data center. Una terza generazione di chip e server è attesa per il 2028, con Qualcomm che pianifica un ciclo di aggiornamento annuale.

I nuovi chip combineranno CPU Oryon, accelerazione NPU Hexagon e memoria LPDDR, integrando inoltre raffreddamento liquido e scalabilità tramite PCIe ed Ethernet. Secondo Qualcomm, le soluzioni offriranno "capacità di memoria superiore per inferenza AI generativa veloce ad alte prestazioni per dollaro per watt".

Posizionamento strategico: inferenza AI ed efficienza

⬆ Torna su

Qualcomm si differenzia dai competitor puntando sull'inferenza AI — il processo di esecuzione di modelli AI già addestrati — anziché sul training. Mentre le GPU di Nvidia e AMD vengono utilizzate sia per addestramento che per inferenza, i chip AI200 e AI250 sono progettati specificamente per ottimizzare l'inferenza, con un focus sull'efficienza energetica e sul costo totale di proprietà.

Durga Malladi, Senior VP e General Manager per Technology Planning e Data Centers di Qualcomm, ha dichiarato che i nuovi prodotti offriranno flessibilità ai clienti: potranno acquistare singoli chip, sistemi parziali o configurazioni server complete. Malladi ha inoltre suggerito che anche competitor come Nvidia o AMD potrebbero potenzialmente utilizzare i chip Qualcomm all'interno di sistemi ibridi, creando una dinamica di competizione e collaborazione.

Primo cliente: Humain con deployment da 200 megawatt

⬆ Torna su

La startup saudita di intelligenza artificiale Humain è stata annunciata come primo cliente per i nuovi chip. L'azienda pianifica di distribuire 200 megawatt di sistemi Qualcomm a partire dal 2026. L'accordo rappresenta una conferma concreta dell'interesse del mercato per le nuove soluzioni.

Secondo Patrick Moorhead, chief analyst e CEO di Moor Insights & Strategy, se Qualcomm eseguirà correttamente la strategia, potrà evolversi da protagonista dell'efficienza mobile e edge a leader nelle prestazioni AI rack-scale per watt. Matt Kimball, vice president e principal analyst presso la stessa società, ha definito la mossa di Qualcomm una validazione dell'opportunità di mercato nell'inferenza.

Contesto competitivo e dimensioni del mercato

⬆ Torna su

Il mercato globale dei chip AI per data center è in forte espansione. Secondo Global Market Insights, si prevede una crescita annuale del 15% dagli attuali 16 miliardi di dollari a oltre 60 miliardi entro il 2034. Un'altra stima di MarketsandMarkets proietta il mercato AI per data center da 236 miliardi di dollari nel 2025 a oltre 933 miliardi entro il 2030. Una terza proiezione cita un valore superiore a 400 miliardi di dollari entro il 2030.

Nvidia rimane il dominatore del settore, con una quota di mercato stimata tra il 90% e il 92% e ricavi previsti dal segmento data center superiori a 180 miliardi di dollari per l'anno corrente. Tuttavia, il predominio di Nvidia sta mostrando segni di cedimento: operatori di data center come Amazon, Google e Microsoft stanno sempre più sviluppando silicio proprietario in collaborazione con sviluppatori di chip come Broadcom e Marvell Technology. Le Tensor Processing Units di Google, ad esempio, sono state co-sviluppate con Broadcom e servono come cervello digitale per diverse piattaforme di training e inferenza.

Precedenti tentativi e lezioni apprese

⬆ Torna su

Non è il primo tentativo di Qualcomm nel settore dei data center. Nel 2017, la società aveva introdotto la piattaforma Centriq 2400 in collaborazione con Microsoft, ma il progetto fu successivamente abbandonato a causa della forte competizione da parte di Intel e AMD, oltre che di sfide interne. L'AI 100 Ultra card precedente funzionava come componente aggiuntivo per hardware esistente, mentre i nuovi sistemi AI200 e AI250 sono progettati come server AI dedicati.

L'acquisizione di Alphawave Semi per 2,4 miliardi di dollari, annunciata a giugno, è stata presentata come operazione che "fornisce asset chiave per l'espansione di Qualcomm nei data center".

Reazione degli investitori e prospettive

⬆ Torna su

Le azioni Qualcomm hanno registrato il maggior rialzo giornaliero dal 2019, con incrementi che secondo diverse fonti vanno dall'11% fino al 22% nelle oscillazioni intragiornaliere, raggiungendo un massimo di 205,55 dollari. Il titolo riporta un rialzo del 23% dall'inizio dell'anno.

Daniel Newman, analista e CEO di Futurum Group, ha scritto che i nuovi chip AI "catapulteranno" Qualcomm nella corsa agli armamenti AI, con potenziali ricavi superiori a 10 miliardi di dollari nei prossimi anni. Gli analisti prevedono target price medi attorno ai 182-183 dollari, implicando un potenziale rialzo dell'8-18% rispetto ai livelli attuali.

Implicazioni per il settore

⬆ Torna su

L'ingresso di Qualcomm rappresenta un'ulteriore democratizzazione del settore dei chip AI, offrendo alternative ai data center che cercano soluzioni hardware accessibili. La società commercialeizza le sue soluzioni con particolare enfasi sull'efficienza dell'inferenza, il design server scalabile e il consumo energetico ridotto. Kevin Scott, Chief Technology Officer di Microsoft, ha recentemente ribadito l'intenzione della sua azienda di aumentare l'uso di chip AI proprietari per ridurre la dipendenza dalle offerte commerciali di Nvidia.

La domanda di risorse per inferenza e training è in crescita spinta dall'ascesa di modelli generativi e carichi di lavoro large-model. Il successo di Qualcomm, Nvidia e AMD dipenderà dalla capacità di bilanciare prestazioni, costi ed efficienza energetica. Con le prime consegne dei server AI200 previste per il prossimo anno, gli investitori osserveranno attentamente se la strategia AI di Qualcomm si tradurrà in una crescita sostenibile della quota di mercato.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'ingresso di Qualcomm nei data center ridefinisce i confini competitivi del settore semiconduttori. La scelta di puntare sull'inferenza anziché sul training potrebbe intercettare una fetta crescente della domanda, man mano che i modelli generativi si diffondono in produzione.

  • Scenario 1: Qualcomm conquista quote significative nel segmento inferenza, grazie al vantaggio competitivo in efficienza energetica e costi per watt.
  • Scenario 2: Nvidia e AMD mantengono il predominio, con Qualcomm relegata a giocatore di nicchia nonostante l'accordo con Humain.
  • Scenario 3: Si configura una dinamica di cooperazione, dove anche competitor potrebbero integrare chip Qualcomm in sistemi ibridi.

Cosa monitorare

⬆ Torna su
  • Avvio dei primi deployment Humain nel 2026 come banco di prova dell'efficienza dichiarata.
  • Evoluzione della quota di mercato di Nvidia e AMD di fronte alla nuova concorrenza.
  • Capacità di Qualcomm di evitare le difficoltà che avevano caratterizzato il precedente tentativo con Centriq.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • amd
  • semiconductor
  • datacenter

Link utili

Apri l'articolo su DeafNews