OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI

OpenAI chiude il round di finanziamento più grande nella storia della tecnologia privata. Callosum sfida il predominio Nvidia con orchestrazione multi-chip. Si…

Contenuto

OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI

Scopri anche

OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI

OpenAI e Nvidia: 110 miliardi di dollari per ridefinire l'infrastruttura AI

In questo articolo:

OpenAI ha annunciato questa settimana la chiusura di un round di finanziamento da 110 miliardi di dollari, sostenuto da Amazon, Nvidia e SoftBank. La valutazione pre-money della società ha raggiunto i 730 miliardi di dollari, salendo a 840 miliardi includendo il capitale raccolto. La documentazione ufficiale descrive l'operazione come il più grande finanziamento tecnologico privato della storia.

La ripartizione degli investimenti prevede 50 miliardi da Amazon, 30 miliardi da Nvidia e 30 miliardi da SoftBank, con ulteriori investitori attesi nei prossimi mesi. L'impegno iniziale di Amazon ammonta a 15 miliardi, mentre i restanti 35 miliardi sono condizionati al soddisfacimento di criteri non specificati. La nuova valutazione rappresenta un incremento rispetto ai 500 miliardi registrati nel finanziamento secondario di ottobre, e più del doppio rispetto ai 40 miliardi raccolti lo scorso anno.

Secondo i dati forniti da OpenAI, ChatGPT conta oltre 900 milioni di utenti attivi settimanali, oltre 50 milioni di abbonati consumer paganti e gli utenti settimanali di Codex sono più che triplicati da gennaio raggiungendo 1,6 milioni. Il comunicato stampa della società dichiara che il finanziamento consentirà di scalare l'infrastruttura e sviluppare prodotti su cui le persone possano contare.

Gli impegni infrastrutturali legati all'architettura Vera Rubin

⬆ Torna su

Nell'ambito dell'accordo con Nvidia, OpenAI si è impegnata a utilizzare 3 gigawatt di capacità di inferenza dedicata e 2 gigawatt di training sui sistemi Vera Rubin, l'architettura successiva all'attuale Blackwell. Tale capacità si aggiunge ai sistemi Hopper e Blackwell già operativi su Microsoft Azure, Oracle Cloud Infrastructure e CoreWeave.

La partnership con Nvidia include anche investimenti strategici in startup del settore AI. Secondo i dati PitchBook citati da TechCrunch, Nvidia ha partecipato a quasi 67 operazioni di venture capital nel 2025, superando le 54 completate nell'intero 2024. Questi investimenti escludono quelli effettuati tramite NVentures, il fondo corporate formale, che ha concluso 30 operazioni quest'anno contro una sola nel 2022.

Nvidia ha dichiarato che l'obiettivo dei suoi investimenti aziendali è espandere l'ecosistema AI sostenendo startup considerate "game changer e creatrici di mercato". Tra gli investimenti più rilevanti figura OpenAI stessa, dove Nvidia ha investito per la prima volta nell'ottobre 2024 con un assegno da 100 milioni di dollari come parte di un round da 6,6 miliardi che ha valutato la società 157 miliardi.

L'espansione della partnership con Amazon Web Services

⬆ Torna su

Sul fronte Amazon, OpenAI ha ampliato l'accordo esistente da 38 miliardi per i servizi di calcolo AWS di 100 miliardi nei prossimi otto anni, impegnandosi a consumare almeno 2 gigawatt di capacità dei chip proprietari Trainium di Amazon. AWS diventa inoltre l'esclusivo canale di distribuzione cloud terzo per Frontier, la piattaforma enterprise di OpenAI.

Le due società stanno sviluppando un nuovo "ambiente runtime stateful" che consentirà ai modelli OpenAI di operare nativamente sulla piattaforma Bedrock di Amazon. Il CEO di Amazon Andy Jassy ha dichiarato che questo cambierà quanto è possibile per i clienti che costruiscono applicazioni e agenti AI.

OpenAI e Microsoft hanno rilasciato una dichiarazione congiunta confermando che l'accordo con Amazon non modifica l'accordo esistente. Azure rimane il provider cloud esclusivo per le API e i prodotti first-party di OpenAI, mentre Microsoft mantiene la licenza esclusiva sulla proprietà intellettuale di OpenAI.

Callosum e la sfida all'approccio single-vendor

⬆ Torna su

Mentre Nvidia consolida il proprio ruolo nell'infrastruttura AI, la startup londinese Callosum ha raccolto 10,25 milioni di dollari per sviluppare software che orchestra i carichi di lavoro AI su diversi tipi di chip. I cofondatori Danyal Akarca e Jascha Achterberg, neuroscienziati formati a Cambridge, hanno creato una piattaforma che distribuisce i task AI su GPU Nvidia, processori AMD, chip proprietari AWS Trainium e Inferentia, e nuovi design da startup come Cerebras e SambaNova.

Il finanziamento è stato guidato da Plural, fondo europeo early-stage cofondato da Taavet Hinrikus di Wise e Ian Hogarth, già primo presidente dell'AI Safety Institute del Regno Unito. L'Agenzia per la Ricerca Avanzata e l'Invenzione (ARIA) del governo britannico fornisce finanziamenti a grant per accelerare la R&D sull'integrazione di nuove tecnologie chip nella piattaforma.

La tesi dell'azienda si basa sulla ricerca accademica dei cofondatori all'intersezione tra neuroscienza e informatica: il cervello umano non ottiene l'intelligenza copiando un tipo di neurone miliardi di volte, ma combinando molti tipi cellulari specializzati e circuiti che lavorano insieme. Akarca ha dichiarato che i grandi laboratori scommettono su un modello che dominerà tutto, mentre il loro lavoro dimostra il contrario.

Il mercato dell'inference e la frammentazione hardware

⬆ Torna su

Secondo le stime di Deloitte citate nelle fonti, i carichi di lavoro di inference rappresenteranno circa due terzi di tutto il calcolo AI nel 2026, rispetto a un terzo nel 2023, mentre il mercato dei chip ottimizzati per l'inference crescerà oltre i 50 miliardi di dollari quest'anno. Callosum punta a essere il layer software che collega questo panorama hardware frammentato.

La piattaforma opera su multipli provider cloud, inclusi AWS, Google Cloud e Microsoft Azure, ed è progettata per non richiedere ai clienti di riarchitettare le proprie configurazioni cloud esistenti. Akarca ha spiegato che si tratta di un prodotto software che prende il carico di lavoro AI e lo orchestra attraverso le diverse configurazioni multi-cloud che un cliente potrebbe utilizzare.

I cofondatori sostengono che l'approccio produce guadagni significativi su task complessi che coinvolgono molti tipi di decisioni, come l'automazione dell'uso di computer o l'elaborazione di workflow aziendali. Callosum dichiara che il suo sistema può fornire il doppio dell'accuratezza, performance sette volte più veloci e costi quattro volte inferiori rispetto all'esecuzione degli stessi carichi di lavoro su hardware identico.

SiFive e l'integrazione di NVLink Fusion con RISC-V

⬆ Torna su

SiFive ha annunciato l'integrazione di NVIDIA NVLink Fusion nelle sue piattaforme di calcolo RISC-V ad alte prestazioni, abilitando connettività coerente e ad alta larghezza di banda verso le GPU NVIDIA. La partnership consente ai progettisti di data center di realizzare infrastrutture AI specializzate che sfruttano la flessibilità dello standard aperto RISC-V combinata con le capacità di accelerazione NVIDIA.

Secondo l'analisi di Futurum Group, la partnership rappresenta una mossa strategica contro la duopolia tradizionale delle CPU server. Per anni, i data center sono stati un "giardino recintato" dove le architetture instruction set proprietarie dettavano il ritmo dell'innovazione. Portando connettività coerente e ad alta larghezza di banda all'ecosistema RISC-V, NVIDIA riconosce che il futuro dell'infrastruttura AI è una utility per la prossima fase di scaling AI.

L'inclusione di un'unità Hardware Exponential nel più recente IP di SiFive riduce funzioni di attivazione complesse come Softmax da 15 istruzioni a una sola. Quando combinato con il fabric ad alta larghezza di banda di NVLink Fusion, i guadagni di efficienza sistema sono definiti significativi. Si sta transitando da un approccio "taglia unica" a un approccio a portafoglio, dove i progettisti selezionano e combinano IP per specifiche fasi della pipeline dei modelli.

Nscale e la costruzione di data center specializzati AI

⬆ Torna su

Nscale Global Holdings ha raccolto 1,1 miliardi di dollari per espandere la propria impronta infrastrutturale. Il round Series B è stato guidato dal fondo di investimento norvegese Aker ASA, con la partecipazione di Nvidia, Dell Technologies, Nokia e altri investitori. Il CEO Josh Payne ha dichiarato che il finanziamento consente di fornire ai clienti accesso a capacità di calcolo scarsa e molto ricercata.

Nscale costruisce data center ottimizzati per carichi di lavoro AI utilizzando GPU Nvidia e Kubernetes. La società fornisce anche accesso a Slurm, alternativa open-source a Kubernetes spesso utilizzata per addestrare large language model. Gli sviluppatori utilizzano la tecnologia perché facilita un'elevata utilizzazione dei server, riducendo i costi hardware non necessari.

La startup opera un data center da 30 megawatt a Glomfjord, in Norvegia, all'interno del Circolo Polare Artico. A giugno ha siglato un accordo per costruire un secondo data center norvegese per OpenAI, che utilizzerà 520 megawatt di potenza, oltre 10 volte rispetto alla prima struttura, e ospiterà 10.000 schede grafiche Nvidia. Microsoft ha firmato un contratto da 6,2 miliardi di dollari per affittare parte dell'infrastruttura installata.

Il progetto Stargate e l'espansione nel Regno Unito

⬆ Torna su

Nscale sta anche costruendo infrastruttura data center nel Regno Unito per supportare OpenAI nel deployment di un cluster AI chiamato Stargate U.K., equipaggiato con 8.000 schede grafiche nel primo trimestre del 2026. Nel tempo, OpenAI e Nscale prevedono di aggiungere fino a 23.000 GPU aggiuntive. Nscale utilizzerà il capitale raccolto per finanziare la costruzione di data center, alimentando alcuni cluster con hardware Dell.

L'azienda sta anche sviluppando un servizio di fine-tuning per personalizzare modelli AI open-source e uno strumento per confrontare le prestazioni delle reti neurali, aiutando gli sviluppatori a identificare l'algoritmo più adatto alle proprie applicazioni.

Gli investimenti strategici di Nvidia nell'ecosistema

⬆ Torna su

Secondo i dati riportati da TechCrunch, Nvidia ha investito in numerose startup AI dal 2023. Tra gli investimenti più significativi figura Anthropic, dove a novembre 2025 Nvidia ha effettuato il primo investimento diretto fino a 10 miliardi di dollari come parte di un round strategico che includeva un assegno di 5 miliardi da Microsoft. In un accordo di spesa "circolare", Anthropic si è impegnata a spendere 30 miliardi in capacità di calcolo Microsoft Azure e ad acquistare i sistemi Grace Blackwell e Vera Rubin futuri di Nvidia.

Altri investimenti rilevanti includono Cursor (2,3 miliardi di dollari Series D), xAI (fino a 2 miliardi nella porzione equity di un round da 20 miliardi), Mistral AI (terzo investimento nella startup francese), Reflection AI (2 miliardi di dollari), Thinking Machines Lab (round seed da 2 miliardi), e Figure AI (oltre 1 miliardo Series C con valutazione di 39 miliardi per la startup di robotica umanoide).

Per quanto riguarda CoreWeave, sebbene non sia più una startup ma una società pubblica, Nvidia ha investito nel provider di cloud GPU quando ancora lo era, nell'aprile 2023, raccogliendo 221 milioni di dollari. Nvidia rimane un azionista significativo. Scale AI ha visto Nvidia partecipare a un round da 1 miliardo insieme ad Accel, Amazon e Meta, valutando la società quasi 14 miliardi di dollari.

La traiettoria verso infrastrutture eterogenee

⬆ Torna su

L'analisi di Futurum Group evidenzia come RISC-V sia in una posizione analoga a TCP/IP durante le "Guerre del Protocollo Internet" degli anni '90. TCP/IP ha frantumato i silos delle comunicazioni digitali, e analogamente RISC-V sta smantellando il vendor lock-in dell'era AI. Poiché l'ISA è uno standard aperto, i team software possono costruire toolchain production-ready molto prima che il silicio ritorni dalla fab. Questa sincronizzazione consente ai hyperscaler di deployare acceleratori AI custom alla velocità dell'innovazione software.

L'argomento storico contro RISC-V, la mancanza di maturità software, non è più valido secondo l'analisi. La ratifica del profilo RVA23 garantisce compatibilità binaria con le principali distribuzioni Linux come Red Hat e Ubuntu. Con NVIDIA che ora porta componenti CUDA a supportare RISC-V e integra NVLink Fusion, l'ultimo ostacolo per l'adozione enterprise è stato superato.

Callosum collabora inoltre con aziende che sviluppano nuovi modi di connettere rack di chip AI nei data center, inclusi quelli che lavorano su networking basato su fotonica, tecnologia che trasmette dati usando luce invece di impulsi elettrici. Queste tecnologie sono progettate per affrontare i colli di bottiglia derivanti dalla necessità di spostare dati all'interno dei data center, una sfida che diventa più complessa quando diversi tipi di chip devono comunicare tra loro.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'ecosistema infrastrutturale si orienta verso una polarizzazione tra chi punta sull'integrazione verticale con fornitori consolidati e chi promuove approcci multi-vendor per ridurre le dipendenze.

  • Scenario 1: L'impegno sui sistemi Vera Rubin consoliderebbe ulteriormente la posizione di Nvidia, estendendo la sua influenza oltre l'hardware tradizionale.
  • Scenario 2: Soluzioni di orchestrazione multi-chip come Callosum potrebbero guadagnare trazione se i costi infrastrutturali continueranno a crescere, rendendo attraente l'ottimizzazione cross-provider.
  • Scenario 3: La compresenza di accordi esclusivi con Azure e partnership con AWS potrebbe generare tensioni operative, richiedendo negoziazioni continue sugli SLA.

Cosa monitorare

⬆ Torna su
  • L'effettiva conversione degli impegni condizionali di Amazon in investimenti disbursement.
  • L'adozione dei chip Trainium nei carichi di lavoro OpenAI rispetto alle GPU tradizionali.
  • La capacità di Callosum e SiFive di tradurre le promesse teoriche in deployment infrastrutturali concreti.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • ai-infrastructure
  • datacenter
  • openai

Link utili

Apri l'articolo su DeafNews