CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
TSMC raddoppia la capacità CoWoS entro fine 2026, ma HBM e packaging rimangono i vincoli principali per l'industria AI. Intel EMIB emerge come alternativa.
Contenuto

Scopri anche
- Meta svela la roadmap di quattro nuovi chip MTIA: infrastruttura AI interna entro il 2027
- Nvidia GTC 2026: inference chip, Vera Rubin e la battaglia HBM4 tra Samsung e SK Hynix
- NVIDIA: investitori istituzionali aumentano posizioni mentre gli insider vendono
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
- Rebellions presenta Rebel 100: acceleratore AI multi-chiplet con interfaccia UCIe-Advanced
- NVIDIA cerca architetti per data center orbitali: il calcolo nello spazio diventa realtà
- Samsung e NVIDIA annunciano AI factory con 50.000 GPU: collaborazione estesa ad AI-RAN, HBM4 e litografia computazionale
- NVIDIA GPU Operator e AI Cluster Runtime: standardizzare l'infrastruttura GPU per Kubernetes
- Qualcomm entra nel mercato dei chip AI per data center con AI200 e AI250
- PlayStation 6: finestra di lancio tra 2027 e 2029, documenti contrattuali e carenza di memoria al centro delle speculazioni
- NVIDIA Vera Rubin: la piattaforma AI in produzione per l'era dell'AI Agente
- L'infrastruttura AI richiede investimenti da migliaia di miliardi: le previsioni di Jensen Huang
- Nvidia: dati finanziari, crescita del data center e prospettive del mercato AI
- NVIDIA investe 4 miliardi di dollari in Lumentum e Coherent per la fotonica dell'intelligenza artificiale
- Intel Panther Lake: il processore Core Ultra Series 3 segna il ritorno alla produzione interna
- AMD Instinct MI400 e MI500: la roadmap 2026-2027 per sfidare Nvidia nel mercato AI
- Compal presenta soluzione integrata per infrastrutture AI al NVIDIA GTC 2026
- Nvidia investe 2 miliardi di dollari in Nebius per espandere l'infrastruttura AI iperscalare
- Nvidia investe 4 miliardi di dollari nella fotonica per garantire la supply chain dei data center AI
- Nvidia vs Broadcom: lo scontro tra giganti nel mercato dei chip AI
CoWoS e HBM: i colli di bottiglia dell'infrastruttura AI nel 2026
- Il ruolo strategico dell'advanced packaging
- HBM: il memoriale critico per gli acceleratori AI
- La posizione dominante di NVIDIA
- Intel EMIB e Foveros come alternative
- Impatti sulla catena di fornitura e sui prezzi
- Prospettive tecnologiche future
- Considerazioni conclusive
- Implicazioni e scenari
- Cosa monitorare
- Fonti
L'industria dei semiconduttori nel 2026 attraversa una fase di forte espansione trainata dall'intelligenza artificiale, con vendite annuali proiettate verso i 1.000 miliardi di dollari. Tuttavia, la crescita si concentra quasi interamente in due segmenti: logica e memoria. I mercati "classici" come PC, elettronica di consumo e parte dell'automotive rimangono misti o in calo. Il vero vincolo non è più la produzione di wafers, ma la disponibilità di HBM (High Bandwidth Memory) e la capacità di advanced packaging, in particolare le tecnologie CoWoS di TSMC.
Il ruolo strategico dell'advanced packaging
⬆ Torna suSecondo le analisi di settore, TSMC sta completando un'espansione pluriennale della capacità CoWoS (Chip-on-Wafer-on-Substrate), con l'obiettivo di raddoppiare la produzione annualmente fino a fine 2026. La capacità mensile è passata da circa 35.000 wafers alla fine del 2024 a circa 70.000 wafers nel 2025, con proiezioni di 110.000-130.000 wafers entro la fine del 2026. Tuttavia, le valutazioni indicano che questo volume rimane insufficiente rispetto alla domanda.
La tecnologia CoWoS è diventata il punto di snodo dell'infrastruttura AI perché permette di integrare GPU e HBM in un unico pacchetto ad alte prestazioni. Esistono tre varianti principali: CoWoS-S (con interpositore in silicio), CoWoS-R (con interconnessioni organiche) e CoWoS-L (con LSI Bridge). La domanda si sta spostando verso CoWoS-L, che utilizza ponti in silicio locale per "cucire" insieme diversi chiplet, permettendo pacchetti più grandi del limite reticolare della litografia tradizionale.
L'impianto AP6 di TSMC a Zhunan, operativo dalla fine del 2024, ha costituito il primo catalizzatore dell'espansione. Il lavoro principale viene ora gestito dall'impianto AP8 a Tainan e dal sito AP7 in costruzione a Chiayi, previsto per ospitare fino a otto edifici di produzione specializzati nelle complesse operazioni di "stitching" richieste da CoWoS-L e SoIC (System-on-Integrated-Chips).
HBM: il memoriale critico per gli acceleratori AI
⬆ Torna suHBM rappresenta il secondo collo di bottiglia strutturale. La produzione HBM richiede circa tre volte più spazio wafer rispetto alla DRAM standard per la stessa quantità di memoria. I tre fornitori principali - Micron, Samsung e SK Hynix - stanno convertendo linee produttive da DDR4, DDR5 e DRAM convenzionale verso HBM, riducendo l'offerta di RAM tradizionale e innalzando i prezzi anche per i dispositivi consumer.
Secondo fonti citate nei testi, HBM è già esaurito per il 2026. Big tech come Microsoft, Google e Meta hanno inviato rappresentanti in Corea per negoziare capacità aggiuntiva con SK Hynix e Samsung. La situazione è tale che Google avrebbe sostituito il personale responsabile degli approvvigionamenti, ritenendolo responsabile di non aver firmato accordi a lungo termine in tempo.
Il problema peggiorerà con la transizione verso HBM4. NVIDIA Vera Rubin utilizzerà una configurazione HBM4 a 8 stack con bandwidth di 22 TB/s, mentre AMD MI455X opterà per 12 stack HBM4 con bandwidth di 19,6 TB/s. Per il 2027, NVIDIA pianifica Rubin Ultra con HBM4e, che consentirà stack da 12 o 16 moduli, potenzialmente raggiungendo fino a 1 TB di memoria per GPU.
La posizione dominante di NVIDIA
⬆ Torna suNVIDIA controlla circa il 55-60% della capacità CoWoS totale di TSMC per il 2025 e il 2026. Questo accesso preferenziale le permette di consegnare le architetture Blackwell e Rubin nonostante i vincoli di packaging. Le stime di Samsung Securities indicano che la capacità CoWoS attuale può supportare data center per un massimo di 18 gigawatt, pari al 50% della capacità di investimento globale per l'anno in corso.
La capacità CoWoS è già completamente prenotata per il 2026. Esistono voci non confermate secondo cui Meta avrebbe ceduto parte della sua allocazione CoWoS per i propri ASIC a Google per le sue TPU, mentre Meta prevede di iniziare a utilizzare TPU di Google. Questo riflette la competizione per le risorse di packaging tra cloud service provider.
Intel EMIB e Foveros come alternative
⬆ Torna suLa saturazione di CoWoS ha creato un'apertura per Intel e le sue tecnologie EMIB (Embedded Multi-die Interconnect Bridge) e Foveros. EMIB elimina la necessità di un grande interpositore in silicio integrando piccoli ponti direttamente nel substrato, riducendo costi e complessità termica. Foveros, invece, impila verticalmente i die utilizzando through-silicon vias.
Secondo TrendForce, EMIB supporta già dimensioni reticolari effettive fino a 6×, con proiezioni di 8-12× entro il 2026-2027, rispetto ai 3,5× di CoWoS-L (proiettato a 9× entro il 2027). EMIB offre vantaggi in termini di costi eliminando l'interpositore e riducendo il rischio di warpage, ma presenta limitazioni di bandwidth e latenza che lo rendono adatto principalmente ad ASIC rispetto a GPU ad alte prestazioni.
Google prevede di implementare EMIB nelle TPU v9 del 2027, mentre Meta sta valutando la tecnologia per i suoi acceleratori MTIA. MediaTek e Marvell stanno valutando il packaging Intel per ASIC AI di secondo livello. Apple e Qualcomm hanno pubblicato offerte di lavoro che menzionano EMIB e Foveros, segnalando un interesse interno. Intel ha confermato che alcuni design clienti originariamente previsti per CoWoS sono stati trasferiti a Foveros senza modifiche.
Impatti sulla catena di fornitura e sui prezzi
⬆ Torna suLa stretta sulla memoria si estende oltre HBM. Reuters riporta che Samsung ha aumentato i prezzi di alcune memorie server del 30-60%, con moduli DDR5 da 32GB passati da 149 dollari (settembre) a 239 dollari (novembre). Gli inventari dei fornitori DRAM sono scesi a 2-4 settimane entro ottobre 2025, rispetto alle 13-17 settimane della fine del 2024. Counterpoint prevede che i prezzi delle memorie server potrebbero raddoppiare entro la fine del 2026.
Per i consumatori, questo si traduce in restrizioni visibili come limiti di utilizzo, context window più piccoli, tempi di risposta più lenti o accesso limitato ai modelli avanzati. Un aumento del 26% nel costo per-token non comporta un aumento proporzionale del prezzo dell'abbonamento, ma si manifesta come riduzione delle funzionalità incluse: mantenere lo stesso prezzo richiederebbe una riduzione dell'utilizzo incluso di circa il 21%.
Prospettive tecnologiche future
⬆ Torna suLa transizione verso CPO (Co-Packaged Optics) rappresenta la prossima evoluzione per i cluster AI con oltre 100.000 GPU connesse. I transceiver pluggable possono consumare il 15-20% della potenza totale in un data center AI. Il passaggio a fornitori ottici può ridurre significativamente il consumo energetico e migliorare l'affidabilità del segnale. TSMC sta istituendo una zona dedicata per questo tipo di packaging attraverso la piattaforma COUPE, ma la capacità rimane vincolata.
Oltre il 2026, l'industria guarda verso FOPLP (Fan-Out Panel-Level Packaging), che utilizza pannelli rettangolari invece dei wafers circolari da 12 pollici, aumentando l'utilizzo dell'area dal 57% a oltre l'80%. I substrati in vetro, con maggiore planarità e stabilità termica, potrebbero apparire nelle prime applicazioni commerciali entro la fine del 2027 per processori AI a 2nm e 1,6nm.
Considerazioni conclusive
⬆ Torna suL'espansione della capacità CoWoS di TSMC rappresenta la risposta dell'industria ai colli di bottiglia strutturali dell'infrastruttura AI. Tuttavia, la domanda continua a superare l'offerta, e HBM rimane un vincolo parallelo che influisce sull'intera catena di valore. La comparsa di alternative come EMIB e Foveros offre percorsi alternativi per chi non riesce ad accedere a CoWoS, ma con compromessi tecnici in termini di bandwidth e latenza.
La concentrazione di capacità presso pochi attori - TSMC per il packaging, Micron/Samsung/SK Hynix per HBM - crea una competizione tra cloud provider e produttori di GPU per assicurarsi allocazioni. La capacità mensile di 110.000-130.000 wafers prevista per fine 2026 è già sostanzialmente venduta, il che suggerisce che i vincoli dureranno oltre il 2026 e potenzialmente fino al completamento della transizione verso HBM4.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa saturazione strutturale di CoWoS e HBM crea un effetto domino lungo tutta la catena del valore. Chi riesce a garantirsi capacità produttiva ottiene un vantaggio competitivo determinante, mentre chi resta escluso deve riconsiderare le proprie architetture o trovare fornitori alternativi.
- Scenario 1: L'adozione di EMIB e Foveros si accelera come alternativa praticabile per progetti che non richiedono le massime prestazioni, riducendo parzialmente la pressione su TSMC entro il 2027.
- Scenario 2: I prezzi delle memorie server continuano a salire, con effetti a cascata sui costi di accesso ai servizi cloud e sulle funzionalità disponibili per gli utenti finali.
- Scenario 3: La concentrazione di capacità CoWoS presso NVIDIA consolida ulteriormente la sua posizione, spingendo competitor verso soluzioni di packaging diverse con compromessi tecnici accettabili.
Cosa monitorare
⬆ Torna su- Segnali di riallocazione capacità CoWoS tra big tech e potenziali accordi di cessione.
- Evoluzione dei prezzi DDR5 e DRAM convenzionale come indicatore anticipatore delle tensioni HBM.
- Tempistiche di transizione verso HBM4 e impatto sulla disponibilità complessiva.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://medium.com/@adnanmasood/semiconductors-in-2026-the-ai-driven-upswing-meets-structural-bottlenecks-3568b004905b
- https://www.uncoveralpha.com/p/2026-ai-landscape-who-benefits-the
- https://markets.financialcontent.com/wral/article/tokenring-2026-1-1-the-great-packaging-pivot-how-tsmc-is-doubling-cowos-capacity-to-break-the-ai-supply-bottleneck-through-2026
- https://www.getmonetizely.com/blogs/ai-chip-shortages-are-a-supply-chain-problem-not-a-reversal-of-ai-deflation
- https://www.digitimes.com/news/a20251210PD218/tsmc-cowos-capacity-nvidia-equipment.html
- https://www.tomshardware.com/tech-industry/semiconductors/intel-gains-ground-in-ai-packaging-as-cowos-capacity-remains-stretched
- https://www.trendforce.com/presscenter/news/20251125-12796.html
In breve
- tsmc
- hbm
- nvidia
- ai-infrastructure