Mythos, il modello AI che trova vulnerabilità zero-day: Anthropic sceglie di non rilasciarlo
Anthropic ha sviluppato Claude Mythos, un modello in grado di individuare migliaia di vulnerabilità zero-day nei sistemi operativi e browser. Invece di distrib…
Contenuto

Scopri anche
- Samsung Galaxy: patch di sicurezza aprile 2026 e beta One UI 8.5 per pieghevoli e serie S
- L'AI nella programmazione: tra produttività e paradossi, il futuro degli sviluppatori
- CVE-2026-35616: Fortinet corregge vulnerabilità zero-day critica in FortiClient EMS
- Milla Jovovich lancia Mem-Palace, sistema di memoria IA open source con punteggio record nei benchmark
- BlueHammer e il Patch Tuesday di febbraio 2026: sei zero-day sotto attacco attivo minacciano Windows e Office
- Protocolli e architetture per il web agentico: la standardizzazione della comunicazione tra AI
- Vulnerabilità critiche in software e firmware Gigabyte: analisi delle falle di sicurezza e aggiornamenti disponibili
- Microsoft ridimensiona Copilot in Windows 11: funzioni AI eliminate e maggiore controllo per gli utenti
- Microsoft rilascia aggiornamento di emergenza per Windows 11 e delinea piano di miglioramenti per il 2026
- Claude Code: dal leak del codice sorgente alla creazione autonoma di exploit kernel
- Apple espande aggiornamento iOS 18.7.7 per bloccare gli exploit DarkSword
- DarkSword: l'exploit kit iOS che combina sei vulnerabilità per il controllo silenzioso dei dispositivi
- SaaS, RAG e on-premise: come scegliere l'architettura AI per l'enterprise
- Vitalik Buterin dettaglia la sua configurazione LLM locale e autonoma
- L'IA come supporto emotivo: dalla ricerca di Anthropic sui vettori emotivi ai rischi clinici
- BD-UN-JB-Poops-Autoloader 1.01: aggiornamento SDK e supporto firmware fino a 12.00
- Telegram sotto attacco: vulnerabilità zero-day, truffe e minacce alla sicurezza
- Nvidia e Palantir a confronto: due giganti dell'intelligenza artificiale con valutazioni e profili di rischio divergenti
- Dall'NLP al Web Agentico: la standardizzazione della comunicazione tra IA e sistemi
- L'intelligenza artificiale come supporto psicologico: tra vettori emotivi interni e rischi clinici
Mythos, il modello AI che trova vulnerabilità zero-day: Anthropic sceglie di non rilasciarlo
Il 7 aprile 2026 Anthropic ha annunciato l'esistenza di Claude Mythos Preview, un modello di intelligenza artificiale le cui capacità nel campo della cybersecurity hanno indotto l'azienda a non distribuirlo pubblicamente. Secondo quanto dichiarato da Dario Amodei, CEO di Anthropic, le capacità di Mythos sono "sostanzialmente superiori a quelle di qualsiasi altro modello precedentemente addestrato". La decisione di limitarne l'accesso è legata alla capacità del sistema di individuare vulnerabilità zero-day nei principali sistemi operativi e nei browser, una funzionalità che potrebbe essere sfruttata per scopi offensivi da attori malevoli.
Cosa è in grado di fare Mythos
⬆ Torna suMythos Preview è un modello general-purpose: non è stato addestrato specificamente per la cybersecurity. Le sue capacità in quel campo sono emerse come effetto collaterale dei miglioramenti nel coding, nel ragionamento e nell'autonomia operativa. Secondo la documentazione tecnica del Frontier Red Team di Anthropic, il modello ha individuato migliaia di vulnerabilità zero-day in ogni principale sistema operativo e browser web. Molte di queste vulnerabilità erano presenti da dieci, quindici anni; in un caso, la vulnerabilità risaliva a ventisette anni prima.
Un caso emblematico riguarda OpenBSD, un sistema operativo noto per la sua sicurezza: Mythos Preview ha identificato un bug nell'implementazione del protocollo TCP SACK presente dal 1998, capace di mandare in crash qualsiasi server OpenBSD raggiungibile via rete. Nicholas Carlini, ricercatore di Anthropic, ha dichiarato di aver trovato più bug nelle ultime due settimane che in tutto il resto della sua carriera. In un test, Mythos Preview ha scritto un exploit per un browser concatenando quattro vulnerabilità diverse, costruendo una catena di attacco che riusciva a evadere tutti i livelli di protezione del browser e del sistema operativo sottostante.
I confronti con il modello precedente sono significativi. Quando Claude Opus 4.6 tentava di trasformare vulnerabilità trovate in Firefox in exploit funzionanti, il tasso di successo era prossimo allo zero: due su centinaia di tentativi. Con Mythos Preview, sullo stesso test, gli exploit riusciti sono stati 181. Nei test su repository open source, Opus 4.6 otteneva un solo caso di crash grave; Mythos Preview ne ha ottenuti dieci con controllo completo del flusso di esecuzione.
Project Glasswing: accesso controllato
⬆ Torna suInvece di distribuire Mythos pubblicamente, Anthropic ha lanciato Project Glasswing, un'iniziativa che rende il modello disponibile in esclusiva per 90 giorni a una quarantina di aziende e organizzazioni. Tra i partner figurano Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks. L'obiettivo dichiarato è permettere ai partecipanti di individuare e correggere le vulnerabilità prima che altri modelli con capacità simili diventino disponibili.
Anthropic ha stanziato oltre 100 milioni di dollari in crediti d'uso per i partecipanti. Una volta esauriti i crediti iniziali, i costi saranno di 125 dollari per milione di token in uscita e 25 dollari per milione di token in ingresso. Considerando che "in ingresso" potrebbe trovarsi il codice sorgente di un intero sistema operativo, i costi non saranno alla portata di tutti i manutentori di progetti open source.
Autonomia operativa e agentic AI
⬆ Torna suUn aspetto rilevante è la dimostrazione di autonomia operativa. Secondo quanto riportato, ingegneri di Anthropic senza formazione specifica in sicurezza informatica hanno chiesto a Mythos Preview di trovare vulnerabilità di esecuzione remota prima di andare a dormire; la mattina seguente si sono trovati con un exploit completo e funzionante. Il modello ha lavorato autonomamente durante la notte, leggendo codice sorgente, formulando ipotesi, testandole, usando debugger e producendo un report con la dimostrazione pratica dell'attacco.
Per chi segue il dibattito sull'agentic AI, Mythos Preview rappresenta una dimostrazione concreta di un agente autonomo capace di risolvere problemi complessi nel mondo reale. Il ciclo in cui il modello formula un'ipotesi, la testa, corregge il tiro e riprova è stato confermato da patch rilasciate dai manutentori dei principali sistemi operativi.
Il contesto competitivo
⬆ Torna suL'annuncio di Mythos è arrivato nello stesso giorno in cui Anthropic ha comunicato il traguardo di fatturato di 30 miliardi di dollari annui e un accordo con Broadcom e Google per circa 3,5 gigawatt di capacità di calcolo. Il timing ha sollevato domande sulla natura strategica dell'iniziativa. Un memo interno di OpenAI, firmato dalla Chief Revenue Officer Denise Dresser, descrive un mercato "competitivo come non mai" e punta su un'infrastruttura dominante per "blindare" i clienti. L'obiettivo dichiarato di OpenAI è raggiungere 30 gigawatt di capacità di calcolo entro il 2030.
La convergenza tra capacità di cybersecurity e strategia aziendale è evidente anche nella concorrenza con OpenAI. Quest'ultima ha lanciato il programma Trusted Access for Cyber, permettendo ad aziende selezionate di utilizzare "modelli ancora più avanzati o permissivi in ambito informatico" per attività difensive. La corsa alla sicurezza si intreccia con la competizione per l'infrastruttura computazionale.
Implicazioni geopolitiche e normative
⬆ Torna suLa relazione tra Anthropic e il governo statunitense è conflittuale. Il Dipartimento della Difesa ha classificato Anthropic come rischio per la supply chain dopo il rifiuto dell'azienda di permettere l'uso di Claude per targeting autonomo. Annuncio un'iniziativa di sicurezza nazionale in questo momento ha implicazioni che vanno oltre la cybersecurity. Il segretario alla difesa Pete Hegseth ha definito Anthropic un "pericolo per la catena di approvvigionamento".
Sul fronte normativo, Anthropic ha condotto un'analisi del rischio sistemico del nuovo modello e deciso di attuare azioni di mitigazione prima del rilascio. Per la legge degli Stati Uniti non era obbligata a farlo: l'amministrazione Trump ha abrogato gli obblighi di assessment e trasparenza sui rischi previsti dalla precedente amministrazione. L'AI Act europeo renderà invece obbligatoria questa pratica. Come osservato in diverse sedi, la legislazione europea potrebbe non essere stata una cattiva idea.
Il governo statunitense accumula informazioni sulle vulnerabilità dei software per scopi offensivi. Se Project Glasswing funzionasse, potrebbe neutralizzare diverse armi informatiche degli Stati Uniti. La tensione tra sicurezza nazionale e vulnerabilità offensive è un sottotesto dell'intera iniziativa.
Il problema del codice generato da AI
⬆ Torna suUn modello capace di trovare vulnerabilità in codice scritto da professionisti con decenni di esperienza solleva interrogativi sul codice generato dagli stessi modelli AI. Il cosiddetto "vibe coding" produce software funzionante a velocità elevate, ma la qualità della sicurezza di quel codice è un punto cieco. Lo stesso tipo di modello che scrive il codice può anche bucarlo. Se Mythos Preview trova bug in OpenBSD, è lecito chiedersi cosa troverebbe in un'applicazione scritta con un prompt e poche iterazioni.
D'altra parte, un modello con queste capacità potrebbe anche scrivere codice più sicuro. Se conosce le classi di vulnerabilità così bene da trovarle in codice scritto da esseri umani esperti, potrebbe evitarle quando genera codice nuovo. Anthropic non ha ancora annunciato nulla in questa direzione.
La finestra temporale delle vulnerabilità
⬆ Torna suAnthropic ha pubblicato una sorta di "ricevuta crittografica" per ciascun exploit: un codice matematico che permette di verificare in futuro che l'azienda aveva quegli exploit alla data dell'annuncio, senza poterne leggere il contenuto. Il meccanismo serve a dimostrare che non si tratta di bluff senza rivelare dettagli che metterebbero a rischio milioni di sistemi.
Oltre il 99% delle vulnerabilità trovate non è ancora stato corretto. Il messaggio pratico è che i cicli di patch devono accorciarsi drasticamente. Se un modello AI può prendere la scheda pubblica di una vulnerabilità nota e trasformarla in un exploit funzionante in poche ore, la finestra tra la pubblicazione di una falla e il suo sfruttamento attivo si riduce a quasi nulla. Gli APT e i cybercriminali che possiedono exploit per vulnerabilità zero-day sanno che presto saranno rilasciate patch che potrebbero renderli inutili. Il prossimo periodo potrebbe essere particolarmente intenso per i CISO.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa decisione di limitare l'accesso a Mythos tramite Project Glasswing crea una finestra temporale ristretta in cui i partner selezionati possono correggere vulnerabilità storiche prima che capacità simili diventino disponibili altrove. La dinamica tra sicurezza difensiva e potenziale uso offensivo rimane centrale, con conseguenze che dipendono da chi svilupperà tecnologie comparabili e con quali garanzie.
- Scenario 1: I quaranta partner correggono le vulnerabilità più critiche entro i 90 giorni, riducendo la superficie di attacco globale prima che altri attori sviluppino capacità equivalenti.
- Scenario 2: Attori non vincolati da accordi restrittivi sviluppano sistemi comparabili, rendendo le vulnerabilità sfruttabili prima che vengano patchate diffusamente.
- Scenario 3: La tensione con il governo statunitense e le divergenze normative tra USA e Unione Europea portano a frammentazione negli standard di rilascio e nelle linee guida di sicurezza.
Cosa monitorare
⬆ Torna su- Il volume e la velocità delle patch rilasciate dai partner di Project Glasswing.
- Eventuali annunci di programmi analoghi da parte di competitor.
- L'evoluzione del confronto tra Anthropic e il Dipartimento della Difesa.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.internazionale.it/notizie/2026/04/14/intelligenza-artificiale-hacker-anthropic-sicurezza
- https://www.italialife24.it/giornali-online-e-agenzie-di-stampa/tecnologia/computerworld-italia/7-dubbi-su-claude-mythos-il-modello-ai-troppo-potente-per-essere-rilasciato/
- https://www.roberto-serra.com/news/openai-anthropic-guerra-ia-infrastruttura-14-04-2026/
- https://www.melamorsicata.it/2026/04/13/modello-ai-troppo-potente-paradosso/
- https://www.hwupgrade.it/news/scienza-tecnologia/anthropic-ha-un-ai-che-trova-falle-in-windows-linux-e-macos-ecco-perche-l-ha-data-prima-ai-big-tech_152234.html
- https://reccom.org/claude-4-potere-inedito-anthropic-scelto-sigillare/
- https://www.editorialedomani.it/politica/mondo/anthropic-claude-mythos-cybersicurezza-pericolo-amodei-uig1i81q
In breve
- cybersecurity
- anthropic
- vulnerabilita
- zero-day