DeepSeek V4: accesso anticipato solo a fornitori cinesi, NVIDIA e AMD esclusi

DeepSeek presenta il modello V4 con 1 trilione di parametri. Accesso anticipato riservato a Huawei e fornitori cinesi, NVIDIA e AMD tagliati fuori. Impatto geo…

Contenuto

DeepSeek V4: accesso anticipato solo a fornitori cinesi, NVIDIA e AMD esclusi

Scopri anche

DeepSeek V4: accesso anticipato solo a fornitori cinesi, NVIDIA e AMD esclusi

DeepSeek V4 esclude NVIDIA e AMD dall'accesso anticipato

In questo articolo:

DeepSeek, l'azienda cinese di intelligenza artificiale controllata dal hedge fund High-Flyer, ha escluso NVIDIA e AMD dall'accesso anticipato al suo nuovo modello V4, rompendo una prassi consolidata nel settore. La decisione, riportata da Reuters, prevede che l'accesso preliminare al modello sia riservato esclusivamente a fornitori cinesi, tra cui Huawei Technologies. Il lancio ufficiale è atteso per la metà di febbraio 2026, in coincidenza con il Capodanno lunare cinese.

La scelta rappresenta una rottura rispetto alla norma del settore, dove gli sviluppatori di modelli AI forniscono tradizionalmente accesso anticipato ai principali produttori di hardware per consentire l'ottimizzazione dei chip. DeepSeek stessa aveva collaborato strettamente con i tecnici di NVIDIA in passato. L'esclusione dei due colossi statunitensi del calcolo ad alte prestazioni assume significato nel contesto delle tensioni tecnologiche tra USA e Cina e delle restrizioni sull'export di chip avanzati verso la Cina.

Caratteristiche tecniche del modello V4

⬆ Torna su

Secondo le informazioni trapelate dai paper tecnici pubblicati dal team di DeepSeek tra fine 2025 e inizio 2026, il modello V4 presenta specifiche tecniche significative. Il modello utilizza un'architettura Mixture-of-Experts (MoE) con 1.000 miliardi di parametri, rispetto ai 671 miliardi totali del precedente modello R1. L'architettura MoE attiva solo una porzione specializzata del modello per ogni richiesta, riducendo il consumo computazionale.

La finestra di contesto è stata estesa da 128.000 a 1 milione di token, consentendo al modello di elaborare intere codebase o documenti di centinaia di pagine in un'unica sessione. Il modello è progettato specificamente per eccellere nella generazione e gestione autonoma di codice, con benchmark preliminari che indicano un punteggio superiore all'80% su SWE-bench, il test di riferimento per la risoluzione di problemi reali di programmazione.

Le tre innovazioni architetturali

⬆ Torna su

La documentazione tecnica descrive tre innovazioni principali. La prima è il sistema Manifold-Constrained Hyper-Connections (mHC), pubblicato il 1° gennaio 2026 in un paper co-firmato dal fondatore Liang Wenfeng. Questo meccanismo stabilizza il flusso di informazioni tra gli strati della rete neurale durante l'addestramento, evitando che piccoli errori si amplifichino a catena. Kaoutar El Maghraoui, ricercatrice di IBM, ha commentato che questa architettura potrebbe modificare il pre-addestramento dei modelli, scalando l'AI in modo più efficiente.

La seconda innovazione è Engram, un modulo di memoria condizionale pubblicato il 13 gennaio 2026 che consente al modello di recuperare conoscenze statiche in tempo costante, separando la memoria statica dal ragionamento dinamico. La terza è DeepSeek Sparse Attention, un meccanismo di attenzione selettiva che analizza la richiesta in ingresso identificando solo i token più rilevanti, riducendo del 50% l'overhead computazionale rispetto ai Transformer standard.

Costi di inferenza e licenza

⬆ Torna su

Le proiezioni indicano costi di inferenza da 10 a 40 volte inferiori rispetto ai competitor occidentali. Un contesto da 100.000 token che su GPT-4 costa circa 5,50 dollari, su DeepSeek V3.2-Exp costa circa 0,90 dollari. I pesi del modello V4 saranno rilasciati sotto licenza Apache 2.0, scaricabili e utilizzabili liberamente anche per scopi commerciali.

L'azienda ha dichiarato di aver addestrato il modello V3 con una spesa di circa 6 milioni di dollari, rispetto ai oltre 100 milioni dichiarati da OpenAI per GPT-4. DeepSeek ha utilizzato circa un decimo della potenza di calcolo consumata dal modello Llama 3.1 di Meta, secondo quanto riportato dall'azienda.

Controversie sull'hardware utilizzato

⬆ Torna su

Un funzionario dell'amministrazione Trump ha dichiarato a Reuters che il modello V4 sarebbe stato addestrato su chip Blackwell di NVIDIA, i più avanzati sul mercato, tramite un cluster installato nella Cina continentale. Secondo la stessa fonte, questo sarebbe in apparente violazione dei controlli americani sull'export. La fonte sostiene inoltre che DeepSeek starebbe cercando di rimuovere i marcatori tecnici che rivelano l'uso di hardware statunitense, con l'intenzione di dichiarare pubblicamente di aver usato chip Huawei.

Né NVIDIA, né AMD, né DeepSeek, né Huawei hanno rilasciato dichiarazioni ufficiali in merito. Ben Bajarin, CEO di Creative Strategies, ha spiegato che l'impatto immediato per i produttori statunitensi resta contenuto, dato che DeepSeek è utilizzato soprattutto come modello di benchmarking. I nuovi strumenti di sviluppo riducono sensibilmente i tempi necessari per adattare un modello a un determinato processore.

Contesto aziendale e storico

⬆ Torna su

DeepSeek è stata fondata nel luglio 2023 da Liang Wenfeng, co-fondatore di High-Flyer, che ne ricopre anche il ruolo di CEO. L'azienda ha sede a Hangzhou, nella provincia dello Zhejiang. Il gennaio 2025 DeepSeek ha lanciato il chatbot basato sul modello DeepSeek-R1, superando ChatGPT come applicazione più scaricata sull'iOS App Store negli Stati Uniti. Il successo ha determinato una riduzione del 18% del prezzo delle azioni NVIDIA.

DeepSeek recluta ricercatori AI dalle principali università cinesi e assume anche da ambiti fuori dalle scienze informatiche per ampliare le conoscenze dei modelli. L'azienda si concentra sulla ricerca e non ha piani immediati per la commercializzazione. I modelli DeepSeek sono definiti "open weight": i parametri sono condivisi apertamente, sebbene alcune condizioni d'uso differiscano dal tipico software open source.

Implicazioni geopolitiche

⬆ Torna su

La decisione di escludere NVIDIA e AMD si inserisce nel quadro delle tensioni tecnologiche tra USA e Cina. Gli Stati Uniti hanno imposto restrizioni sull'esportazione di chip avanzati verso la Cina. DeepSeek ha affinato i propri algoritmi per massimizzare l'efficienza computazionale, utilizzando hardware meno recente e riducendo il consumo energetico. L'azienda ha espanso la propria presenza in Africa, offrendo soluzioni AI più accessibili e con minor consumo energetico.

Secondo un rapporto RAND del febbraio 2026, i modelli cinesi hanno conquistato oltre il 13% della quota di mercato globale delle LLM nei due mesi successivi al lancio di R1, con penetrazione particolarmente forte nei paesi in via di sviluppo. In Cina, DeepSeek detiene una quota di mercato dell'89% tra gli utenti AI.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La decisione di riservare l'accesso anticipato a fornitori cinesi segna un potenziale punto di svolta nelle dinamiche di collaborazione hardware-software nel settore. La mossa potrebbe riorientare le partnership di ottimizzazione verso ecosistemi alternativi.

  • Scenario 1: Se l'esclusione di NVIDIA e AMD si consolida, Huawei potrebbe rafforzare il proprio posizionamento come fornitore di riferimento per i modelli DeepSeek, con possibili ricadute sull'ecosistema chip cinese.
  • Scenario 2: I costi di inferenza fino a 40 volte inferiori potrebbero accelerare l'adozione nei mercati emergenti, estendendo il trend già osservato in Africa e nei paesi in via di sviluppo.
  • Scenario 3: Le controversie sull'hardware utilizzato per l'addestramento potrebbero innescare verifiche più stringenti sui controlli all'export da parte statunitense.

Cosa monitorare

⬆ Torna su
  • Le reazioni ufficiali di NVIDIA e AMD alla modifica delle prassi di collaborazione.
  • L'effettiva disponibilità dei pesi V4 sotto licenza Apache 2.0 al lancio di febbraio 2026.
  • L'adozione delle innovazioni architetturali (mHC, Engram) da parte di altri sviluppatori.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • nvidia
  • llm
  • openai

Link utili

Apri l'articolo su DeafNews