Cerebras quota a Nasdaq con valutazione da 35 miliardi: la sfida per il mercato dei chip AI inference

Cerebras Systems ha presentato richiesta di IPO su Nasdaq dopo l'accordo da 20 miliardi con OpenAI. Il chip WSE-3 promette velocità inference 15-20 volte super…

Contenuto

Cerebras quota a Nasdaq con valutazione da 35 miliardi: la sfida per il mercato dei chip AI inference

Scopri anche

Cerebras quota a Nasdaq con valutazione da 35 miliardi: la sfida per il mercato dei chip AI inference

Cerebras quota a Nasdaq con valutazione da 35 miliardi: la sfida per il mercato dei chip AI inference

In questo articolo:

Cerebras Systems ha presentato la documentazione per l'IPO su Nasdaq con il simbolo "CBRS", puntando a una valutazione di 35 miliardi di dollari e un raccolto stimato di 2-3 miliardi. La società californiana compete nel mercato dei processori AI attraverso chip wafer-scale che integrano calcolo e memoria su un singolo wafer di silicio, eliminando le latenze del trasferimento dati che caratterizzano le architetture GPU tradizionali. L'annuncio arriva dopo che OpenAI ha firmato un accordo pluriennale per l'acquisto di capacità di calcolo fino a 750 megawatt, con un valore potenziale superiore a 20 miliardi di dollari.

Il contesto competitivo: Nvidia e il passaggio dal training all'inference

⬆ Torna su

Secondo i dati di ricerca di mercato citati da Deloitte e CES 2026, la spesa per l'inference AI rappresentava il 50% del totale dei costi computazionali AI nel 2025, con proiezioni che indicano un salto ai due terzi entro il 2026. Il CEO di Lenovo Yang Yuanqing ha dichiarato al CES che la struttura della spesa AI si invertirà completamente: da "80% training + 20% inference" a "20% training + 80% inference". Questa transizione modifica i requisiti architetturali dei chip dedicati all'AI.

Le GPU H100 e H200 di Nvidia sono progettate per il training, con throughput computazionale elevato per operazioni su matrici su larga scala. Per l'inference, quando un utente invia una richiesta, il chip deve trasferire i pesi del modello dalla memoria all'unità di calcolo. Le GPU Nvidia utilizzano memoria HBM esterna ad alta larghezza di banda, e questo trasferimento introduce latenza. Per ChatGPT, che elabora decine di milioni di richieste al secondo, questa latenza moltiplicata per scala diventa un collo di bottiglia prestazionale.

Nvidia ha risposto con l'architettura Blackwell B200, che offre quattro volte le prestazioni inference rispetto ad H100 secondo le specifiche del produttore. Nel dicembre 2025, Nvidia ha acquisito Groq per 20 miliardi di dollari, incorporando il team fondatore incluso Jonathan Ross e ingegneri provenienti dal team TPU di Google. Groq produce chip LPU ottimizzati per inference con architettura SRAM. L'acquisizione rappresenta il più grande accordo di Nvidia dopo l'acquisto di Mellanox da 7 miliardi nel 2019.

L'architettura WSE-3: specifiche tecniche

⬆ Torna su

Il chip WSE-3 di Cerebras misura 46.255 millimetri quadrati, coprendo quasi l'intera superficie di un wafer di silicio da 300mm. L'architettura integra 4 trilioni di transistor, 900.000 core AI ottimizzati e 44GB di memoria SRAM sullo stesso wafer. La larghezza di banda di memoria raggiunge 21 petabyte al secondo. Per confronto, la GPU B200 di Nvidia contiene circa 208 miliardi di transistor su un pacchetto dual-die, il che significa che WSE-3 ha 19 volte più transistor su un singolo wafer monolitico.

Cerebras dichiara che il sistema CS-3, che ospita WSE-3, offre fino a 28 volte più calcolo rispetto al DGX B200 Blackwell di Nvidia a un terzo del costo e un terzo del consumo energetico. Il vantaggio fondamentale risiede nel movimento dei dati: in un cluster GPU tradizionale, i dati devono viaggiare tra chip, attraverso PCB, cavi e rack. WSE-3 elimina gran parte di questo overhead mantenendo core di calcolo e memoria sullo stesso pezzo di silicio. Secondo Cerebras, la velocità inference risulta 15-20 volte superiore rispetto ad H100.

L'accordo con OpenAI: dettagli finanziari

⬆ Torna su

Nel gennaio 2026, Cerebras ha firmato con OpenAI un accordo di acquisto di capacità computazionale triennale da 10 miliardi di dollari, successivamente ampliato. La documentazione disponibile indica che OpenAI pagherà fino a 20 miliardi di dollari su tre anni per server basati su chip Cerebras. OpenAI riceverà warrant azionari in Cerebras, con una partecipazione che può raggiungere il 10% del capitale totale in base alla scala degli acquisti. OpenAI fornirà inoltre 1 miliardo di dollari in finanziamenti per la costruzione di data center.

L'accordo trasforma OpenAI da semplice cliente a investitore strategico. OpenAI sta inoltre collaborando con Broadcom per sviluppare chip ASIC propri, con produzione di massa prevista per fine 2026. La strategia a due binari punta all'autosufficienza computazionale: da un lato vincola Cerebras tramite 20 miliardi di dollari ed equity per garantire capacità inference non-Nvidia; dall'altro sviluppa chip proprietari per ridurre la dipendenza da fornitori terzi.

Dati finanziari e percorso verso l'IPO

⬆ Torna su

Cerebras ha registrato un utile netto di 87,9 milioni di dollari nel 2025 su ricavi di 510 milioni, rispetto a una perdita netta di 485 milioni nel 2024 su ricavi di 290,3 milioni. La crescita dei ricavi è stata del 76% anno su anno. Al 31 dicembre, gli obblighi di prestazione residui ammontavano a 24,6 miliardi di dollari, con il 15% riconoscibile nel 2026-2027.

Questa è la seconda volta che Cerebras tenta la quotazione. La prima richiesta, nel 2024, è stata ritirata dopo che CFIUS ha avviato un'indagine per sicurezza nazionale sul cliente principale G42, fondo sovrano tecnologico degli Emirati Arabi Uniti, che rappresentava l'83-97% dei ricavi. G42 è stato rimosso dalla lista degli azionisti, sostituito da OpenAI come cliente dominante. La valutazione post-money di 23 miliardi del febbraio 2026 implica un rapporto prezzo-vendite di circa 85 volte, superiore ai circa 30x delle vendite forward di Nvidia e 10x di AMD.

Rischi e dipendenze strutturali

⬆ Torna su

La concentrazione cliente rimane un fattore di rischio. G42 rappresentava l'87% dei ricavi del primo semestre 2024. Con l'accordo OpenAI, Cerebras sta transitando da un cliente dominante a due, senza risolvere la dipendenza strutturale. Se OpenAI rinegozia o cancella il contratto da 10-20 miliardi, le proiezioni di ricavi collasserebbero. OpenAI inoltre sviluppa chip ASIC proprietari che potrebbero sostituire i fornitori terzi una volta maturi.

La produzione WSE-3 avviene presso TSMC sul processo a 5nm. Non esistono foundry alternative capaci di produrre chip wafer-scale. Qualsiasi interruzione nella catena di approvvigionamento TSMC - per prioritizzazione di altri clienti come Apple, Nvidia o AMD, o per fattori geopolitici legati a Taiwan - comprimerebbe la capacità produttiva di Cerebras senza alternative. L'ecosistema software CUDA di Nvidia è stato costruito in oltre 15 anni con milioni di righe di codice AI. Cerebras supporta PyTorch e TensorFlow, ma gli strumenti di ottimizzazione restano meno maturi.

La risposta del mercato e il contesto Nvidia

⬆ Torna su

Nvidia ha chiuso venerdì con un rialzo dell'1,7% a 201,68 dollari, portando la capitalizzazione di mercato a circa 4,53 trilioni di dollari. I ricavi Nvidia per il trimestre finito il 25 gennaio hanno raggiunto il record di 68,1 miliardi, con previsioni di 78 miliardi per il trimestre fiscale corrente. Broadcom ha guadagnato quasi il 2%, a indicare che gli investitori continuano a operare sul trade dei chip AI.

I risultati fiscali Q1 2027 di Nvidia arriveranno il 20 maggio. La competizione si estende oltre Cerebras: AMD ha firmato accordi di fornitura con acquirenti che cercano alternative, mentre Broadcom collabora con giganti tecnologici per processori personalizzati per chi resiste ai prezzi elevati di Nvidia. Il mercato dell'inference è dove l'opportunità si concentra: stime di settore suggeriscono che il silicio personalizzato, inclusi Cerebras, Groq e chip in-house degli hyperscaler come il TPU di Google, potrebbe catturare il 15-25% della quota di mercato AI compute entro il 2030.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'ingresso in borsa di Cerebras arriva in una fase di transizione strutturale del mercato computazionale, con l'inference destinata a rappresentare la quota prevalente della spesa entro il 2026. L'accordo con OpenAI garantisce visibilità di ricavi ma espone a concentrazione cliente rilevante.

  • Scenario 1: Cerebras consolida la posizione nel segmento inference sfruttando i vantaggi architetturali del design wafer-scale rispetto alle GPU tradizionali.
  • Scenario 2: Nvidia mantiene il dominio attraverso l'ecosistema CUDA e l'acquisizione di Groq, limitando l'espansione di Cerebras ai clienti che necessitano di alternative specifiche.
  • Scenario 3: La dipendenza da TSMC e i fattori geopolitici legati a Taiwan comprimono la capacità produttiva, riducendo la competitività sui tempi di consegna.

Cosa monitorare

⬆ Torna su
  • Performance del titolo CBRS nelle prime sessioni di negoziazione e reazione alla valutazione proposta.
  • Esecuzione dell'accordo con OpenAI ed eventuali sviluppi sui chip ASIC proprietari.
  • Evoluzione dell'ecosistema software Cerebras rispetto alla maturità dell'offerta CUDA.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • nvidia
  • openai
  • semiconductor

Link utili

Apri l'articolo su DeafNews