MiniMax M2.5: il modello linguistico che riduce i costi di inferenza fino al 95%
La startup cinese MiniMax lancia M2.5 e M2.5 Lightning, modelli con architettura MoE da 230 miliardi di parametri che promettono prestazioni vicine a Claude Op…
Contenuto

Scopri anche
- Apple, Siri e Gemini: il retroscena dell'accordo saltato con Anthropic
- Bladesong: il simulatore di forgiatura di spade fantasy in arrivo su Steam
- Yahoo lancia Scout, il motore di risposte AI integrato nei suoi servizi
- Model Context Protocol (MCP): Il protocollo standard per connettere gli LLM al mondo esterno
MiniMax M2.5: il modello linguistico che riduce i costi di inferenza fino al 95%
- Architettura Mixture of Experts e framework Forge
- Prestazioni nei benchmark e confronto con Claude
- Due varianti: Standard e Lightning
- Design multi-agente e workspace fluency
- Adozione interna e utilizzo operativo
- Disponibilità e questioni open source
- Implicazioni per sviluppatori e imprese
- Casi d'uso per settori specifici
- Contesto competitivo e considerazioni geografiche
- Implicazioni e scenari
- Cosa monitorare
- Fonti
MiniMax, startup cinese con sede a Shanghai, ha rilasciato M2.5 e M2.5 Lightning, due varianti del nuovo modello linguistico che secondo l'azienda offrono prestazioni comparabili ai modelli di punta di Google e Anthropic a una frazione del costo. Il modello standard costa circa 1/20 rispetto a Claude Opus 4.6, mantenendo livelli di precisione competitivi in task aziendali critici.
Il rilascio, datato 12 febbraio 2026, segna un cambiamento nell'economia dell'intelligenza artificiale applicata. Secondo MiniMax, quattro "agenti" AI possono operare continuativamente per un anno intero con un costo approssimativo di 10.000 dollari, rispetto ai costi proibitivi dei modelli premium tradizionali.
Architettura Mixture of Experts e framework Forge
⬆ Torna suIl cuore tecnologico di M2.5 risiede nella sua architettura Mixture of Experts (MoE), un design che attiva solo le parti del modello necessarie per ogni task specifico. Dei 230 miliardi di parametri totali, il modello ne attiva solamente 10 miliardi per ogni elaborazione. Questa configurazione permette di mantenere la capacità di ragionamento di un modello massivo con l'agilità operativa di un modello molto più piccolo.
Per l'addestramento di questo sistema complesso, MiniMax ha sviluppato un framework proprietario di Reinforcement Learning denominato Forge. L'ingegnere MiniMax Olive Song ha dichiarato sul podcast ThursdAI che questa tecnica è stata determinante per scalare le prestazioni pur utilizzando un numero relativamente ridotto di parametri. Il training si è protratto per un periodo di due mesi.
Forge è progettato per consentire al modello di apprendere da "ambienti reali", essenzialmente lasciando praticare all'AI la codifica e l'uso di strumenti in migliaia di workspace simulati. Per mantenere stabile il modello durante questo intenso training, il team ha impiegato un approccio matematico chiamato CISPO (Clipping Importance Sampling Policy Optimization), condividendo la formula sul blog aziendale.
Prestazioni nei benchmark e confronto con Claude
⬆ Torna suM2.5 supera Opus 4.6 su SWE-Bench Pro con un punteggio di 55.4 rispetto a 53.4, il benchmark più impegnativo con task di ingegneria del software più complessi e realistici. Si posiziona anche leggermente avanti su Multi-SWE-Bench (51.3 contro 50.3), che testa la coordinazione multi-repository.
Opus 4.6 mantiene il vantaggio sui task terminal (55.1 contro 51.7) e sulla codifica multilingue (77.8 contro 74.1). Su SWE-Bench Verified i risultati sono quasi identici: 80.2 per M2.5 e 80.8 per Opus 4.6.
L'OpenHands Index, un benchmark che copre varie attività di ingegneria del software come risoluzione di issue, sviluppo di applicazioni greenfield, sviluppo frontend, testing software e raccolta informazioni, posiziona MiniMax-M2.5 al 4° posto, dietro solo ai modelli della famiglia premium Opus di Claude e al modello GPT-5.2 Codex specializzato per la codifica di OpenAI. È il primo modello open a superare Claude Sonnet nei test condotti da OpenHands.
Il modello ottiene inoltre un punteggio del 74.4% su MEWC per il financial modeling, suggerendo capacità di gestire la "conoscenza tacita" di settori specializzati come diritto e finanza con supervisione minima.
Due varianti: Standard e Lightning
⬆ Torna suMiniMax offre due versioni del modello attraverso la sua API, entrambe focalizzate su uso produttivo ad alto volume:
M2.5-Lightning, ottimizzata per la velocità, eroga 100 token al secondo con un costo di 0,30 dollari per milione di token in input e 2,40 dollari per milione di token in output. La versione Standard M2.5, ottimizzata per il costo, opera a 50 token al secondo con prezzi dimezzati rispetto alla variante Lightning: 0,15 dollari per milione di token in input e 1,20 dollari per milione in output.
Sul podcast ThursdAI, il conduttore Alex Volkov ha evidenziato che M2.5 opera estremamente rapidamente, utilizzando quindi meno token per completare i task: nell'ordine di 0,15 dollari per task rispetto ai 3,00 dollari di Claude Opus 4.6.
Design multi-agente e workspace fluency
⬆ Torna suM2.5 introduce un design multi-agente che MiniMax chiama "agent-verse". Mentre M2.1 era un solido modello di codifica single-agent, M2.5 è stato addestrato per lavorare insieme ad altri agenti, cambiando contesto tra diversi ambienti software e coordinandosi attraverso task multipli senza perdere il filo. La maggior parte dei modelli assume di essere l'unico agente nella stanza; M2.5 no.
Un'altra aggiunta rilevante è la "workspace fluency". MiniMax ha addestrato M2.5 in ambienti office reali, non solo su codebase. Il modello gestisce nativamente Excel, Word e PowerPoint, permettendo di passare dalla scrittura di codice alla creazione di un foglio di calcolo alla stesura di un documento senza cambiare modello.
Il modello mantiene pulito il proprio contesto quando altri agenti lavorano al suo fianco. Cambia contesto tra scrittura codice, revisione test e generazione documentazione senza confondere i task. Non tenta di prendere il controllo dell'intero problema: resta nel suo perimetro, esegue la sua parte e passa il lavoro.
Adozione interna e utilizzo operativo
⬆ Torna suMiniMax ha già distribuito il modello nelle proprie operazioni. Attualmente, il 30% di tutti i task presso la sede MiniMax viene completato da M2.5, e l'80% del nuovo codice committato è generato da M2.5. Come scrive il team nel blog di rilascio: "crediamo che M2.5 fornisca possibilità virtualmente illimitate per lo sviluppo e l'operatività di agenti nell'economia".
L'approccio CISPO assicura che il modello non over-corregga durante il training, permettendogli di sviluppare quella che MiniMax chiama "Architect Mindset". Invece di passare direttamente alla scrittura del codice, M2.5 ha imparato a pianificare proattivamente struttura, funzionalità e interfaccia di un progetto.
L'efficienza nel pensiero è stata ottimizzata: M2.5 non spreca token a deliberare quando il percorso è chiaro. Pianifica, agisce e procede. L'output è pulito, senza eccessive spiegazioni o ripensamenti.
Disponibilità e questioni open source
⬆ Torna suSebbene MiniMax promuova M2.5 come modello "open source", al momento del rilascio i pesi del modello e il codice non sono stati ancora pubblicati, né è stata specificata l'esatta tipologia di licenza o i termini. La documentazione indica licenza MIT, ma i dettagli completi rimangono in attesa di pubblicazione sui repository ufficiali, probabilmente Hugging Face o GitHub.
Per i team tecnici che considerano l'integrazione di questo modello nel proprio stack, si raccomanda di monitorare i repository ufficiali MiniMax e attendere la pubblicazione completa della documentazione prima di vincolare architetture critiche esclusivamente a questo modello.
M2.5 è disponibile in Cline su VS Code, JetBrains, Zed, Neovim, Emacs e Cline CLI. MiniMax offre il modello gratuitamente per un tempo limitato. Gli utenti di OpenHands Cloud possono accedere a M2.5 senza costi selezionando OpenHands come provider e minimax-m2.5 come modello.
Implicazioni per sviluppatori e imprese
⬆ Torna suCon 10 miliardi di parametri attivi, M2.5 rappresenta il modello più piccolo in questa fascia di prestazioni. Per i team che utilizzano Cline Enterprise con deploy VPC, questo significa prestazioni di codifica a livello SOTA su hardware che sarebbe stato sottodimensionato per i modelli della generazione precedente.
Il miglioramento del 37% nella velocità di completamento end-to-end dei task significa che le pipeline "agentiche", dove i modelli comunicano con altri modelli, finalmente si muovono abbastanza velocemente per applicazioni utente in tempo reale.
La pressione di "ottimizzare" i prompt per risparmiare denaro sparisce. È ora possibile distribuire modelli ad alto contesto e alto ragionamento per task routinari che prima erano proibitivi dal punto di vista dei costi.
Casi d'uso per settori specifici
⬆ Torna suPer il settore fintech, il modello si applica ad automazione di analisi di rischio creditizio, generazione di report regolatori, chatbot di supporto finanziario con comprensione di contesto complesso.
Per legaltech, supporta revisione automatizzata di contratti, estrazione di clausole chiave, generazione di documenti legali standardizzati, analisi di giurisprudenza.
Nel settore HR Tech, si impiega per screening automatizzato di CV, generazione di descrizioni di posizione, assistenti virtuali per onboarding, analisi di feedback dipendenti.
Per SaaS B2B, trova applicazione in agenti di assistenza clienti, automazione di workflow interni, generazione di documentazione tecnica, analisi dati di prodotto.
Contesto competitivo e considerazioni geografiche
⬆ Torna suIl lancio di M2.5 si inserisce in una tendenza crescente di modelli AI efficienti e accessibili che sfidano il dominio dei grandi player statunitensi. Startup cinesi come MiniMax, DeepSeek e Zhipu AI stanno dimostrando che è possibile costruire modelli competitivi con budget più contenuti e architetture innovative.
I risultati riflettono che le aziende cinesi sono ora a pochi giorni di distanza dal raggiungere laboratori statunitensi con risorse GPU molto superiori. M2.5 si avvicina al modello più recente di Anthropic, Claude Opus 4.6, rilasciato appena una settimana prima.
Fondatori e team tecnici devono tuttavia considerare aspetti geopolitici: regolazioni sulla privacy dei dati, restrizioni sul trasferimento internazionale di informazioni, e potenziali attriti commerciali tra regioni che potrebbero influire sulla disponibilità o sui termini di servizio di questi modelli.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa riduzione dei costi di inferenza al 5% rispetto ai modelli premium potrebbe ridisegnare i margini economici dell'ecosistema AI applicata, rendendo sostenibile l'operatività continua di agenti multipli in contesti aziendali. L'architettura MoE con soli 10 miliardi di parametri attivi suggerisce che l'efficienza, oltre alla scala, stia diventando un fattore competitivo determinante.
- Scenario 1: se i pesi verranno effettivamente pubblicati con licenza permissiva, M2.5 potrebbe accelerare l'adozione di modelli ad alte prestazioni su infrastrutture locali o VPC, riducendo la dipendenza da provider cloud.
- Scenario 2: il design multi-agente e la workspace fluency potrebbero incentivare flussi di lavoro ibridi dove un singolo modello coordina codice, documentazione e dati senza cambio di contesto.
- Scenario 3: la pressione sui prezzi potrebbe spingere i competitor a ricalibrare le proprie offerte, con possibili effetti a cascata sull'intero mercato dei modelli premium.
Cosa monitorare
⬆ Torna su- Pubblicazione effettiva di pesi e licenza sui repository ufficiali
- Tassi di adozione enterprise e integrazioni in ambienti di produzione
- Reazioni dei competitor in termini di pricing e caratteristiche tecniche
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://venturebeat.com/technology/minimaxs-new-open-m2-5-and-m2-5-lightning-near-state-of-the-art-while
- https://cline.ghost.io/minimax-m2-5/
- https://ecosistemastartup.com/minimax-m2-5-ia-empresarial-20x-mas-barata-que-claude-opus/
- https://openhands.dev/blog/minimax-m2-5-open-weights-models-catch-up-to-claude
- https://llm-stats.com/models/minimax-m2.5
- https://supergok.com/minimax-m2-1-vs-opus-4-5-vs-glm-4-7/
- https://blog.galaxy.ai/compare/claude-opus-4-6-vs-minimax-m2-1
In breve
- minimax
- MiniMax
- Claude
- Forge