CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026

TSMC raddoppia la capacità CoWoS entro fine 2026, ma HBM e packaging rimangono i vincoli principali per l'industria AI. Intel EMIB emerge come alternativa.

Contenuto

CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026

Scopri anche

CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026

CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026

In questo articolo:

L'industria dei semiconduttori nel 2026 attraversa una fase di forte espansione trainata dall'intelligenza artificiale, con vendite annuali proiettate verso i 1.000 miliardi di dollari. Tuttavia, la crescita si concentra quasi interamente in due segmenti: logica e memoria. I mercati "classici" come PC, elettronica di consumo e parte dell'automotive rimangono misti o in calo. Il vero vincolo non è più la produzione di wafers, ma la disponibilità di HBM (High Bandwidth Memory) e la capacità di advanced packaging, in particolare le tecnologie CoWoS di TSMC.

Il ruolo strategico dell'advanced packaging

⬆ Torna su

Secondo le analisi di settore, TSMC sta completando un'espansione pluriennale della capacità CoWoS (Chip-on-Wafer-on-Substrate), con l'obiettivo di raddoppiare la produzione annualmente fino a fine 2026. La capacità mensile è passata da circa 35.000 wafers alla fine del 2024 a circa 70.000 wafers nel 2025, con proiezioni di 110.000-130.000 wafers entro la fine del 2026. Tuttavia, le valutazioni indicano che questo volume rimane insufficiente rispetto alla domanda.

La tecnologia CoWoS è diventata il punto di snodo dell'infrastruttura AI perché permette di integrare GPU e HBM in un unico pacchetto ad alte prestazioni. Esistono tre varianti principali: CoWoS-S (con interpositore in silicio), CoWoS-R (con interconnessioni organiche) e CoWoS-L (con LSI Bridge). La domanda si sta spostando verso CoWoS-L, che utilizza ponti in silicio locale per "cucire" insieme diversi chiplet, permettendo pacchetti più grandi del limite reticolare della litografia tradizionale.

L'impianto AP6 di TSMC a Zhunan, operativo dalla fine del 2024, ha costituito il primo catalizzatore dell'espansione. Il lavoro principale viene ora gestito dall'impianto AP8 a Tainan e dal sito AP7 in costruzione a Chiayi, previsto per ospitare fino a otto edifici di produzione specializzati nelle complesse operazioni di "stitching" richieste da CoWoS-L e SoIC (System-on-Integrated-Chips).

HBM: il memoriale critico per gli acceleratori AI

⬆ Torna su

HBM rappresenta il secondo collo di bottiglia strutturale. La produzione HBM richiede circa tre volte più spazio wafer rispetto alla DRAM standard per la stessa quantità di memoria. I tre fornitori principali - Micron, Samsung e SK Hynix - stanno convertendo linee produttive da DDR4, DDR5 e DRAM convenzionale verso HBM, riducendo l'offerta di RAM tradizionale e innalzando i prezzi anche per i dispositivi consumer.

Secondo fonti citate nei testi, HBM è già esaurito per il 2026. Big tech come Microsoft, Google e Meta hanno inviato rappresentanti in Corea per negoziare capacità aggiuntiva con SK Hynix e Samsung. La situazione è tale che Google avrebbe sostituito il personale responsabile degli approvvigionamenti, ritenendolo responsabile di non aver firmato accordi a lungo termine in tempo.

Il problema peggiorerà con la transizione verso HBM4. NVIDIA Vera Rubin utilizzerà una configurazione HBM4 a 8 stack con bandwidth di 22 TB/s, mentre AMD MI455X opterà per 12 stack HBM4 con bandwidth di 19,6 TB/s. Per il 2027, NVIDIA pianifica Rubin Ultra con HBM4e, che consentirà stack da 12 o 16 moduli, potenzialmente raggiungendo fino a 1 TB di memoria per GPU.

La posizione dominante di NVIDIA

⬆ Torna su

NVIDIA controlla circa il 55-60% della capacità CoWoS totale di TSMC per il 2025 e il 2026. Questo accesso preferenziale le permette di consegnare le architetture Blackwell e Rubin nonostante i vincoli di packaging. Le stime di Samsung Securities indicano che la capacità CoWoS attuale può supportare data center per un massimo di 18 gigawatt, pari al 50% della capacità di investimento globale per l'anno in corso.

La capacità CoWoS è già completamente prenotata per il 2026. Esistono voci non confermate secondo cui Meta avrebbe ceduto parte della sua allocazione CoWoS per i propri ASIC a Google per le sue TPU, mentre Meta prevede di iniziare a utilizzare TPU di Google. Questo riflette la competizione per le risorse di packaging tra cloud service provider.

Intel EMIB e Foveros come alternative

⬆ Torna su

La saturazione di CoWoS ha creato un'apertura per Intel e le sue tecnologie EMIB (Embedded Multi-die Interconnect Bridge) e Foveros. EMIB elimina la necessità di un grande interpositore in silicio integrando piccoli ponti direttamente nel substrato, riducendo costi e complessità termica. Foveros, invece, impila verticalmente i die utilizzando through-silicon vias.

Secondo TrendForce, EMIB supporta già dimensioni reticolari effettive fino a 6×, con proiezioni di 8-12× entro il 2026-2027, rispetto ai 3,5× di CoWoS-L (proiettato a 9× entro il 2027). EMIB offre vantaggi in termini di costi eliminando l'interpositore e riducendo il rischio di warpage, ma presenta limitazioni di bandwidth e latenza che lo rendono adatto principalmente ad ASIC rispetto a GPU ad alte prestazioni.

Google prevede di implementare EMIB nelle TPU v9 del 2027, mentre Meta sta valutando la tecnologia per i suoi acceleratori MTIA. MediaTek e Marvell stanno valutando il packaging Intel per ASIC AI di secondo livello. Apple e Qualcomm hanno pubblicato offerte di lavoro che menzionano EMIB e Foveros, segnalando un interesse interno. Intel ha confermato che alcuni design clienti originariamente previsti per CoWoS sono stati trasferiti a Foveros senza modifiche.

Impatti sulla catena di fornitura e sui prezzi

⬆ Torna su

La stretta sulla memoria si estende oltre HBM. Reuters riporta che Samsung ha aumentato i prezzi di alcune memorie server del 30-60%, con moduli DDR5 da 32GB passati da 149 dollari (settembre) a 239 dollari (novembre). Gli inventari dei fornitori DRAM sono scesi a 2-4 settimane entro ottobre 2025, rispetto alle 13-17 settimane della fine del 2024. Counterpoint prevede che i prezzi delle memorie server potrebbero raddoppiare entro la fine del 2026.

Per i consumatori, questo si traduce in restrizioni visibili come limiti di utilizzo, context window più piccoli, tempi di risposta più lenti o accesso limitato ai modelli avanzati. Un aumento del 26% nel costo per-token non comporta un aumento proporzionale del prezzo dell'abbonamento, ma si manifesta come riduzione delle funzionalità incluse: mantenere lo stesso prezzo richiederebbe una riduzione dell'utilizzo incluso di circa il 21%.

Prospettive tecnologiche future

⬆ Torna su

La transizione verso CPO (Co-Packaged Optics) rappresenta la prossima evoluzione per i cluster AI con oltre 100.000 GPU connesse. I transceiver pluggable possono consumare il 15-20% della potenza totale in un data center AI. Il passaggio a fornitori ottici può ridurre significativamente il consumo energetico e migliorare l'affidabilità del segnale. TSMC sta istituendo una zona dedicata per questo tipo di packaging attraverso la piattaforma COUPE, ma la capacità rimane vincolata.

Oltre il 2026, l'industria guarda verso FOPLP (Fan-Out Panel-Level Packaging), che utilizza pannelli rettangolari invece dei wafers circolari da 12 pollici, aumentando l'utilizzo dell'area dal 57% a oltre l'80%. I substrati in vetro, con maggiore planarità e stabilità termica, potrebbero apparire nelle prime applicazioni commerciali entro la fine del 2027 per processori AI a 2nm e 1,6nm.

Considerazioni conclusive

⬆ Torna su

L'espansione della capacità CoWoS di TSMC rappresenta la risposta dell'industria ai colli di bottiglia strutturali dell'infrastruttura AI. Tuttavia, la domanda continua a superare l'offerta, e HBM rimane un vincolo parallelo che influisce sull'intera catena di valore. La comparsa di alternative come EMIB e Foveros offre percorsi alternativi per chi non riesce ad accedere a CoWoS, ma con compromessi tecnici in termini di bandwidth e latenza.

La concentrazione di capacità presso pochi attori - TSMC per il packaging, Micron/Samsung/SK Hynix per HBM - crea una competizione tra cloud provider e produttori di GPU per assicurarsi allocazioni. La capacità mensile di 110.000-130.000 wafers prevista per fine 2026 è già sostanzialmente venduta, il che suggerisce che i vincoli dureranno oltre il 2026 e potenzialmente fino al completamento della transizione verso HBM4.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La saturazione strutturale di CoWoS e HBM crea un effetto domino lungo tutta la catena del valore. Chi riesce a garantirsi capacità produttiva ottiene un vantaggio competitivo determinante, mentre chi resta escluso deve riconsiderare le proprie architetture o trovare fornitori alternativi.

  • Scenario 1: L'adozione di EMIB e Foveros si accelera come alternativa praticabile per progetti che non richiedono le massime prestazioni, riducendo parzialmente la pressione su TSMC entro il 2027.
  • Scenario 2: I prezzi delle memorie server continuano a salire, con effetti a cascata sui costi di accesso ai servizi cloud e sulle funzionalità disponibili per gli utenti finali.
  • Scenario 3: La concentrazione di capacità CoWoS presso NVIDIA consolida ulteriormente la sua posizione, spingendo competitor verso soluzioni di packaging diverse con compromessi tecnici accettabili.

Cosa monitorare

⬆ Torna su
  • Segnali di riallocazione capacità CoWoS tra big tech e potenziali accordi di cessione.
  • Evoluzione dei prezzi DDR5 e DRAM convenzionale come indicatore anticipatore delle tensioni HBM.
  • Tempistiche di transizione verso HBM4 e impatto sulla disponibilità complessiva.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • tsmc
  • hbm
  • nvidia
  • ai-infrastructure

Link utili

Apri l'articolo su DeafNews