FuriosaAI avvia la produzione in serie del chip RNGD per l'inferenza AI

La startup sudcoreana commercializza il processore Renegade con focus sull'efficienza energetica, sfidando le soluzioni GPU esistenti nei data center.

Contenuto

FuriosaAI avvia la produzione in serie del chip RNGD per l'inferenza AI

Scopri anche

FuriosaAI avvia la produzione in serie del chip RNGD per l'inferenza AI

FuriosaAI avvia la produzione in serie del chip RNGD per l'inferenza AI

In questo articolo:

FuriosaAI, azienda sudcoreana specializzata nella progettazione di semiconduttori per l'intelligenza artificiale, ha avviato la produzione di massa del suo chip di seconda generazione, denominato Renegade (RNGD). Questa fase segna il passaggio dalla validazione tecnologica all'esecuzione operativa, con l'obiettivo di posizionarsi come alternativa credibile nel mercato dell'hardware per l'IA, attualmente dominato da Nvidia. L'azienda ha confermato la produzione iniziale di 4.000 chip utilizzando il processo a 5 nanometri di TSMC, con piani di espansione della capacità produttiva entro la fine dell'anno.

Specifiche tecniche e roadmap di produzione

⬆ Torna su

Il processore RNGD è una unità di elaborazione neurale (NPU) progettata specificamente per i carichi di lavoro di inferenza. A differenza delle GPU generaliste, l'architettura RNGD supporta operazioni matriciali rapide e parallele ottimizzate per l'esecuzione di modelli addeestrati. Secondo le fonti del settore, FuriosaAI prevede di produrre il modello "Renegade+ Max" nella seconda metà dell'anno. Questa variante integrerà due chip Renegade+ su una singola scheda PCIe e incorporerà quattro unità di memoria HBM3E, portando la capacità totale di memoria stimata a 144GB.

Attualmente, la produzione mensile si attesta intorno alle 1.000 unità, con l'obiettivo di raggiungere le 2.000-3.000 unità mensili entro la fine dell'anno corrente, per un target annuale di 20.000 chip. L'output produttivo esistente prevede l'impiego di due unità HBM3 per una capacità di 48GB, mentre la versione Renegade+ passa a memoria HBM3E con circa 72GB di capacità.

Il server NXT RNGD e l'efficienza energetica

⬆ Torna su

Parallelamente al chip, FuriosaAI ha lanciato il server NXT RNGD, una soluzione hardware progettata per alloggiare gli NPU Renegade. Il server offre 384GB di memoria HBM3 operante a una larghezza di banda di 12 TB/s, con un consumo energetico totale di 3 kW. Secondo l'azienda, un rack da 15 kW può contenere fino a cinque server NXT RNGD, rispetto a un singolo server Nvidia DGX. L'unità integra otto schede RNGD, fornendo 4 petaflops di calcolo FP8 o INT8.

Il CEO June Paik ha evidenziato che, mentre le GPU Nvidia operano spesso nel range di 700-1000W, il chip Renegade targetizza un consumo di circa 200W. Questo profilo energetico consente il dispiegamento in data center esistenti che utilizzano raffreddamento ad aria, riducendo la complessità infrastrutturale e i costi operativi. Durante il LG CNS AI Tech Summit, Paik ha sottolineato che i prodotti NPU stanno entrando nel mercato concretamente grazie al miglioramento della maturità infrastrutturale e software.

Posizionamento competitivo e sfida a CUDA

⬆ Torna su

FuriosaAI punta a ritagliarsi una fetta di mercato specifica nell'inferenza, dove l'efficienza energetica e la latenza sono variabili determinanti. L'azienda sostiene che i test condotti con il modello EXAONE di LG hanno mostrato una velocità effettiva (throughput) di inferenza fino a 2,25 volte superiore rispetto alle GPU competitive. Allo Stanford Hot Chips Conference, l'azienda ha presentato dati che indicano la capacità di eseguire il modello Llama di Meta con un'efficienza energetica più che raddoppiata rispetto ai chip di fascia alta di Nvidia.

Una delle barriere principali per i nuovi entranti è l'ecosistema software consolidato di Nvidia, basato su CUDA. Paik ha riconosciuto la dipendenza del settore da questo standard, ma ha osservato che per l'inferenza esiste una minore dipendenza strutturale rispetto al training. FuriosaAI sta sviluppando il proprio stack software, combinando opzioni open-source e proprietarie, per facilitare la transizione degli sviluppatori e supportare framework come PyTorch e TensorFlow senza richiedere riscritture estese del codice.

Contesto finanziario e partenariati industriali

⬆ Torna su

Sul fronte finanziario, FuriosaAI sta perseguendo un round di finanziamento Serie D che mirerebbe a raccogliere fino a 700 miliardi di Won sudcoreani, con Mirae Asset Securities e Morgan Stanley come lead manager. I proventi sono destinati a supportare la produzione di massa, l'espansione delle vendite globali e la ricerca per il chip di terza generazione. L'azienda valuta un'IPO nel periodo 2027-2028. È stato inoltre riportato che Meta Platforms ha manifestato interesse per un'acquisizione valutata intorno agli 800 milioni di dollari, offerta che FuriosaAI ha declinato per proseguire in autonomia.

Per consolidare la propria presenza commerciale, FuriosaAI ha siglato un accordo di distribuzione master con SysOne per il settore pubblico, fornendo schede RNGD e server NXT RNGD alle istituzioni governative coreane. L'azienda sta inoltre costruendo data center di riferimento in Corea, Stati Uniti, Portogallo e Malaysia per supportare la validazione dei clienti. Oltre alla collaborazione con LG AI Research, OpenAI ha dimostrato l'utilizzo del chip FuriosaAI durante un evento a Seul, confermando l'interesse di attori globali per soluzioni hardware alternative.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'ingresso nella fase di produzione di massa rappresenta un momento cruciale per la diversificazione dell'hardware dedicato all'inferenza. Il focus sull'efficienza energetica potrebbe attrarre data center che devono ottimizzare costi operativi e densità di calcolo, segmento dove la barriera software risulta meno marcata rispetto al training.

  • Scenario 1: Se i benchmark condotti con EXAONE si confermano in ambienti produttivi, l'azienda potrebbe ritagliarsi una nicchia nell'inferenza ad alta efficienza, dove la minore dipendenza da CUDA facilita l'adozione.
  • Scenario 2: Il rifiuto dell'offerta di acquisizione indica una strategia di indipendenza, ma la scalata produttiva richiede capitali significativi, rendendo l'esito del round di finanziamento determinante per l'esecuzione della roadmap.
  • Scenario 3: La collaborazione con attori globali e la costruzione di data center di riferimento in mercati diversificati potrebbe accelerare la validazione commerciale e rafforzare la credibilità tecnologica.

Cosa monitorare

⬆ Torna su
  • Evoluzione della capacità produttiva mensile verso il target dichiarato
  • Riscontro dei clienti pilota sui benchmark di throughput ed efficienza
  • Progressi dello stack software nella compatibilità con framework esistenti

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • nvidia
  • semiconductor
  • inference
  • ai-infrastructure

Link utili

Apri l'articolo su DeafNews