Qwen 3.5: Alibaba lancia modelli open-source che competono con GPT e Gemini

Alibaba presenta la serie Qwen 3.5 con architettura ibrida MoE, prestazioni da benchmark superiori a modelli 13 volte più grandi e strategia open-source sotto…

Contenuto

Qwen 3.5: Alibaba lancia modelli open-source che competono con GPT e Gemini

Scopri anche

Qwen 3.5: Alibaba lancia modelli open-source che competono con GPT e Gemini

Qwen 3.5: Alibaba lancia modelli open-source che competono con GPT e Gemini

In questo articolo:

Alibaba ha rilasciato la nuova famiglia di modelli Qwen 3.5, una serie di grandi modelli linguistici che combinano un'architettura ibrida innovativa con una strategia di distribuzione open-source. I nuovi modelli, disponibili sotto licenza Apache 2.0, includono varianti che spaziano da 0.8 miliardi a 235 miliardi di parametri, con particolare attenzione alle applicazioni agentiche e all'efficienza computazionale.

Architettura ibrida e innovazioni tecniche

⬆ Torna su

La serie Qwen 3.5 introduce un'architettura che si discosta dai transformer tradizionali. Secondo la documentazione tecnica, Alibaba ha adottato un approccio ibrido che combina Gated Delta Networks, una forma di attenzione lineare, con Mixture-of-Experts (MoE) sparse. Questa configurazione affronta il problema del "memory wall" che tipicamente limita i modelli di piccole dimensioni, consentendo throughput più elevati e latenza ridotta durante l'inferenza.

Nei modelli Sparse Mixture-of-Experts come Qwen3.5-122B-A10B e Qwen3.5-35B-A3B, solo una porzione ridotta dei parametri risulta attiva durante ogni passo computazionale. Il modello da 397 miliardi di parametri, ad esempio, attiva soli 17 miliardi di parametri per task, riducendo il carico computazionale mantenendo elevate capacità. I modelli dense come Qwen3.5-27B utilizzano invece tutti i parametri nella predizione dei token.

La documentazione indica che Qwen ha sostituito ogni secondo livello della rete transformer con layer Mamba, un cambiamento architetturale che rende la complessità computazionale e di memoria lineare rispetto alla lunghezza del contesto, anziché quadratica come nei transformer convenzionali.

Prestazioni benchmark e confronti con modelli proprietari

⬆ Torna su

I benchmark pubblicati da Alibaba mostrano risultati significativi per i modelli compatti della serie Qwen 3.5. Il modello Qwen3.5-9B ha ottenuto 81.7 punti nel benchmark GPQA Diamond per ragionamento di livello universitario, superando gpt-oss-120b (80.1), un modello con oltre dieci volte il numero di parametri. Nel benchmark MMMU-Pro per ragionamento visivo, Qwen3.5-9B ha raggiunto 70.1, posizionandosi sopra Gemini 2.5 Flash-Lite (59.7).

Per quanto riguarda la comprensione video, il benchmark Video-MME con sottotitoli mostra Qwen3.5-9B a 84.5 e Qwen3.5-4B a 83.5, entrambi nettamente sopra Gemini 2.5 Flash-Lite (74.6). Nel dominio matematico, la valutazione HMMT Feb 2025 del torneo Harvard-MIT assegna 83.2 punti al modello 9B e 74.0 al modello 4B.

Le fonti riportano che Qwen3.5-4B offre prestazioni quasi equivalenti al precedente Qwen3-80B-A3B, mentre Qwen3.5-9B eguaglia GPT-oss-120b pur essendo 13 volte più piccolo. Paul Couvert di Blueshell AI ha commentato i risultati definendoli sorprendenti per l'efficienza raggiunta.

Capacità multimodali e agentiche

⬆ Torna su

Tutti i modelli Qwen 3.5 sono nativamente multimodali, con capacità di elaborare testo, immagini e video. La documentazione specifica che i modelli possono gestire video fino a due ore. A differenza delle generazioni precedenti che aggiungevano un encoder visivo a un modello testuale, Qwen 3.5 è stato addestrato con early fusion su token multimodali.

Alibaba ha progettato la serie per il paradigma "agentic AI". I modelli possono interpretare interfacce utente e navigare nelle applicazioni autonomamente, con capacità di grounding a livello pixel per l'automazione di workflow visivi. L'integrazione con agenti open-source come quelli di Openclaw è supportata. La finestra di contesto estesa fino a 262.144 token per la variante 4B consente l'elaborazione di repository di codice completi per operazioni di refactoring automatizzato.

Strategia open-source e licenza Apache 2.0

⬆ Torna su

Alibaba distribuisce i pesi dei modelli Qwen 3.5 sotto licenza Apache 2.0, una delle più permissive per uso commerciale. Questa scelta consente agli sviluppatori di integrare, modificare e redistribuire i modelli senza royalty. I pesi sono disponibili su Hugging Face, ModelScope e GitHub.

La strategia open-source di Alibaba ha portato a oltre 100 modelli rilasciati e più di 40 milioni di download secondo i dati citati. L'approccio contrasta con il modello proprietario di OpenAI, Google e Anthropic, e ha generato un ecosistema di derivati sviluppati dalla community, incluse versioni "unrestricted" che rimuovono i filtri di contenuto.

Sono disponibili sia le versioni Base che Instruct. I modelli Base offrono un punto di partenza neutro per il fine-tuning, senza le restrizioni introdotte da RLHF o SFT, permettendo personalizzazioni per casi d'uso specifici senza dover rimuovere bias preesistenti.

Adozione enterprise e casi d'uso

⬆ Torna su

Le fonti riportano casi di adozione enterprise significativi. Brian Chesky, CEO di Airbnb, ha dichiarato che l'azienda utilizza i modelli Qwen per il servizio clienti AI, citando velocità e costi competitivi rispetto a ChatGPT. AstraZeneca ha collaborato con Alibaba Cloud per sviluppare un sistema di reportistica su eventi avversi farmacologici basato su Tongyi Qwen, con un incremento dell'accuratezza dal 90% al 95% e un aumento dell'efficienza del 300%.

I modelli più piccoli (0.8B e 2B) sono ottimizzati per dispositivi edge e mobile, con applicazioni che includono sintesi video offline e ragionamento spaziale su smartphone. I modelli possono funzionare localmente su hardware consumer: sviluppatori hanno riportato l'esecuzione di Qwen3.5-4B su MacBook Air M1, e Hugging Face ha verificato la possibilità di esecuzione direttamente nel browser web.

Efficienza costi e competitività economica

⬆ Torna su

La documentazione tecnica indica un'efficienza operativa migliorata fino all'ottuplo rispetto ai predecessori, con costi ridotti del 60%. Il prezzo indicato per l'uso commerciale è di 3.6 USD per milione di token. Alibaba ha lanciato un programma di incentivi da 3 miliardi di yuan per attrarre sviluppatori nel proprio ecosistema.

L'approccio di Alibaba rappresenta una sfida economica ai modelli proprietari. Le fonti riportano che l'uso di modelli open-source cinesi è diffuso tra le startup che si presentano agli investitori del Silicon Valley: secondo Martin Casado di a16z, circa l'80% delle startup utilizzerebbe modelli open-source cinesi.

Contesto competitivo e mercato

⬆ Torna su

Qwen 3.5 si posiziona in un mercato competitivo che include modelli cinesi come Kimi K2.5, GLM-5 di Z.ai e MiniMax 2.5, oltre ai modelli occidentali GPT-5.2, Claude Opus 4.5 e Gemini 3 Pro. Le fonti notano che i modelli di Qwen dominano le classifiche di Hugging Face per popolarità tra gli sviluppatori.

Secondo le classifiche LMArena citate, il miglior modello text-to-image proviene da Tencent (Hunyuan), il secondo miglior modello di editing immagini da Bytedance (Seedream), e il quarto miglior modello di coding da Z.ai (GLM-4.6). La tendenza indica una competitività crescente dei modelli cinesi.

Limitazioni e considerazioni

⬆ Torna su

Le fonti riportano alcune limitazioni nei modelli più piccoli. Qwen3.5-0.8B presenta difficoltà con la lingua tedesca e produce frasi inaccurate. Nella modalità reasoning, i modelli piccoli tendono a rimanere bloccati in loop infiniti, richiedendo intervento sui parametri di temperatura e sampling.

Sul fronte delle risposte politiche, i nuovi modelli sono più restrittivi rispetto alle versioni precedenti, rifiutando di commentare questioni sensibili. Le fonti descrivono questo come implementazione di "guardrails" che limitano l'uso per valutazioni oggettive su certi argomenti.

Dal punto di vista finanziario, Alibaba affronta tensioni: nonostante una crescita del 34% delle entrate cloud, l'EPS aggiustato è diminuito di oltre il 40% rispetto all'anno precedente. Il free cash flow è risultato negativo a causa degli investimenti infrastrutturali. Le fonti descrivono la strategia come una scommessa sulla leadership AI a fronte di margini compressi.

All'inizio del 2026, diversi dirigenti Qwen si sono dimessi, incluso Lin Junyang che ha guidato lo sviluppo di Qwen3-Max e Qwen3.5. Alibaba ha confermato l'intenzione di mantenere l'attenzione sull'open-source nonostante questi cambiamenti.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'approccio open-source di Alibaba con licenza Apache 2.0 potrebbe ridefinire gli equilibri del mercato, offrendo alternative valide ai modelli proprietari a costi significativamente inferiori. L'efficienza architetturale MoE combinata con le capacità agentiche posiziona Qwen 3.5 come opzione concreta per deploy enterprise e applicazioni edge.

  • Scenario 1: l'adozione enterprise accelera grazie ai costi ridotti del 60% e alla licenza permissiva, con ulteriori casi come quelli di Airbnb e AstraZeneca che potrebbero diventare paradigmatici.
  • Scenario 2: la competizione con modelli proprietari (GPT, Claude, Gemini) si intensifica, costringendo i competitor occidentali a rivedere strategie di pricing o aperture verso l'open-source.
  • Scenario 3: i guardrails più restrittivi e le dimissioni di dirigenti chiave potrebbero rallentare l'innovazione o limitare l'adozione in contesti che richiedono maggiore neutralità sui contenuti.

Cosa monitorare

⬆ Torna su
  • L'evoluzione delle classifiche LMArena e le performance dei derivati community su Hugging Face.
  • L'impatto finanziario su Alibaba: la scommessa open-source potrebbe comprimere i margini nonostante la crescita cloud.
  • Le risposte dei competitor occidentali e cinesi (Kimi, GLM, MiniMax) in termini di efficienza architetturale.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • llm
  • ai
  • opensource
  • agentic

Link utili

Apri l'articolo su DeafNews