Mythos e il Progetto Glasswing: quando l'IA trova falle ignorate da 27 anni
Anthropic ha sigillato il modello Mythos dopo aver scoperto migliaia di vulnerabilità zero-day. Ora un consorzio di Big Tech prova a trasformarlo in uno scudo…
Contenuto

Scopri anche
- Mythos, il modello AI che trova vulnerabilità zero-day: Anthropic sceglie di non rilasciarlo
- Microsoft Patch Tuesday aprile 2026: 167 vulnerabilità corrette, due zero-day
- Intelligenza artificiale e coscienza: il dibattito tra umani e macchine
- L'AI nella programmazione: tra produttività e paradossi, il futuro degli sviluppatori
- Samsung Galaxy: patch di sicurezza aprile 2026 e beta One UI 8.5 per pieghevoli e serie S
- Nvidia e la nuova definizione di AGI: quando l'intelligenza artificiale genera valore economico
- Protocolli e architetture per il web agentico: la standardizzazione della comunicazione tra AI
- BlueHammer e il Patch Tuesday di febbraio 2026: sei zero-day sotto attacco attivo minacciano Windows e Office
- CVE-2026-35616: Fortinet corregge vulnerabilità zero-day critica in FortiClient EMS
- ChatGPT: l'evoluzione da GPT-5 a GPT-5.4 Thinking e la strada verso l'AGI
- Claude Code: dal leak del codice sorgente alla creazione autonoma di exploit kernel
- Apple espande aggiornamento iOS 18.7.7 per bloccare gli exploit DarkSword
- Vulnerabilità critiche in software e firmware Gigabyte: analisi delle falle di sicurezza e aggiornamenti disponibili
- L'intelligenza artificiale tra opportunità di investimento e sfide etiche: un quadro del settore
- L'IA come supporto emotivo: dalla ricerca di Anthropic sui vettori emotivi ai rischi clinici
- Microsoft rilascia aggiornamento di emergenza per Windows 11 e delinea piano di miglioramenti per il 2026
- BD-UN-JB-Poops-Autoloader 1.01: aggiornamento SDK e supporto firmware fino a 12.00
- DarkSword: l'exploit kit iOS che combina sei vulnerabilità per il controllo silenzioso dei dispositivi
- GPT-5 e GPT-5.2: architettura a due livelli e primo risultato di fisica teorica
- L'intelligenza artificiale come supporto psicologico: tra vettori emotivi interni e rischi clinici
Mythos e il Progetto Glasswing: quando l'IA trova falle ignorate per decenni
- Un modello troppe potente per il pubblico
- Vulnerabilità nascoste per 27 anni
- Agentic AI e autonomia operativa
- Il Progetto Glasswing e il consorzio difensivo
- Costi e accessibilità
- Le tensioni con il governo statunitense
- Il dibattito sull'AGI e l'auto-miglioramento
- Il contesto competitivo
- Implicazioni per lo sviluppo software
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Anthropic ha annunciato di aver sviluppato un modello di intelligenza artificiale le cui capacità nel identificare vulnerabilità software hanno sorpreso gli stessi ricercatori. Denominato Claude Mythos, il sistema ha individuato migliaia di falle di sicurezza nei principali sistemi operativi e browser, alcune delle quali presenti nel codice da oltre vent'anni. L'azienda ha deciso di non rilasciarlo pubblicamente, avviando invece il Progetto Glasswing: un programma di accesso controllato che coinvolge Apple, Microsoft, Google, NVIDIA e altre quaranta organizzazioni per correggere le vulnerabilità prima che attori malevoli possano sfruttarle.
Un modello troppe potente per il pubblico
⬆ Torna suSecondo Anthropic, Mythos non è un semplice aggiornamento del precedente Claude Opus, ma un salto evolutivo nelle capacità di ragionamento. La caratteristica che ha spinto l'azienda a mantenere il modello sotto chiave riguarda le sue competenze emerse nel campo della cybersecurity: Mythos è in grado di individuare vulnerabilità zero-day e costruire autonomamente exploit funzionanti per sfruttarle. Nicholas Carlini, ricercatore di Anthropic, ha dichiarato di aver trovato più bug nelle ultime due settimane utilizzando il modello che in tutto il resto della sua carriera.
I test documentati dal Frontier Red Team di Anthropic mostrano risultati che la documentazione tecnica definisce senza precedenti. Quando Claude Opus 4.6 tentava di trasformare vulnerabilità in exploit funzionanti per Firefox, il tasso di successo era prossimo allo zero: due soli casi su centinaia di tentativi. Con Mythos Preview, sullo stesso test, gli exploit riusciti sono stati 181. In un altro confronto su repository open source, Opus 4.6 ha ottenuto un solo caso di crash grave, mentre Mythos ha prodotto dieci casi con controllo completo del flusso di esecuzione.
Vulnerabilità nascoste per 27 anni
⬆ Torna suLa documentazione tecnica riporta casi specifici. Mythos ha individuato una vulnerabilità nell'implementazione del protocollo TCP SACK in OpenBSD, un sistema operativo noto proprio per la sua sicurezza. Il bug era presente dal 1998, ventisette anni senza essere scoperto. Un altro esempio riguarda un exploit di esecuzione remota di codice su FreeBSD, costruito sfruttando una falla vecchia di 17 anni che garantiva accesso root a utenti non autenticati.
In un caso documentato, Mythos ha concatenato quattro vulnerabilità diverse in un browser per costruire una catena di attacco capace di evadere tutti i livelli di protezione del browser e del sistema operativo sottostante. Per le vulnerabilità note ma non ancora corrette (N-day), il modello ha preso una lista di 100 CVE del kernel Linux e ne ha sfruttate con successo più della metà, con costi nell'ordine delle migliaia di dollari per exploit e tempi inferiori a un giorno.
Agentic AI e autonomia operativa
⬆ Torna suMythos è un modello general-purpose: le sue capacità nella sicurezza informatica sono emerse come effetto collaterale dei miglioramenti nel coding, nel ragionamento e nell'autonomia operativa. Ingegneri di Anthropic senza formazione specifica in sicurezza hanno chiesto al modello di trovare vulnerabilità di esecuzione remota prima di andare a dormire. La mattina dopo, hanno trovato un exploit completo e funzionante: l'IA aveva lavorato tutta la notte autonomamente, leggendo codice sorgente, formulando ipotesi, testandole con debugger e producendo un report con istruzioni di riproduzione.
Per chi osserva il dibattito sull'agentic AI, Mythos rappresenta la dimostrazione più concreta di un agente autonomo capace di risolvere problemi complessi nel mondo reale. Il ciclo in cui il modello formula un'ipotesi, la testa, corregge il tiro e riprova è misurabile e i risultati sono già stati incorporati in patch rilasciate dai manutentori dei principali sistemi operativi.
Il Progetto Glasswing e il consorzio difensivo
⬆ Torna suLa risposta di Anthropic alle preoccupazioni di sicurezza è il Progetto Glasswing. L'iniziativa rende Mythos Preview disponibile in esclusiva per 90 giorni a un consorzio che include Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks e circa quaranta altre organizzazioni che mantengono infrastrutture software critiche. Anthropic ha stanziato fino a 100 milioni di dollari in crediti d'uso e 4 milioni in donazioni a organizzazioni di sicurezza open source.
La logica dichiarata è dare ai difensori un vantaggio temporale: se modelli con capacità simili diventeranno disponibili ad attori meno responsabili entro pochi mesi, è meglio che le organizzazioni critiche possano correggere le vulnerabilità prima. Anthropic ha pubblicato una "ricevuta crittografica" per ciascun exploit: un codice matematico che permette di verificare in futuro che l'azienda aveva quegli exploit alla data dell'annuncio, senza rivelarne il contenuto.
Costi e accessibilità
⬆ Torna suEsauriti i 100 milioni di dollari in crediti iniziali, i costi per l'uso di Mythos salgono a 125 dollari per token in uscita e 25 dollari per milione di token in ingresso. Considerando che "in ingresso" può includere il codice sorgente di un intero sistema operativo, i costi non sono accessibili a tutti. I manutentori di piccoli progetti open source, che spesso gestiscono componenti essenziali per l'infrastruttura internet, potrebbero non poter permettersi l'accesso. Anthropic ha previsto un programma Claude for Open Source gestito attraverso la Linux Foundation, ma la copertura resta parziale.
Le tensioni con il governo statunitense
⬆ Torna suL'annuncio arriva in un momento di conflitto tra Anthropic e il Dipartimento della Difesa. Il Pentagono ha classificato Anthropic come "rischio per la catena di approvvigionamento" dopo che l'azienda ha rifiutato di permettere l'uso di Claude per targeting autonomo. Un giudice ha bloccato temporaneamente questa etichetta. Il cofondatore di Anthropic ha dichiarato che l'azienda tiene alla sicurezza nazionale e ha avviato consultazioni con il governo sul modello Mythos.
Il segretario al Tesoro Scott Bessent ha convocato una riunione con alti dirigenti delle banche statunitensi per discutere di Mythos, incoraggiandoli a usare il modello per individuare vulnerabilità. Secondo Bloomberg, Goldman Sachs, Citigroup, Bank of America e Morgan Stanley starebbero testando il modello. L'AI Security Institute del Regno Unito ha definito Mythos un "salto di livello" in termini di minaccia informatica.
Il dibattito sull'AGI e l'auto-miglioramento
⬆ Torna suLe capacità di Mythos hanno riacceso il dibattito sui confini dell'intelligenza artificiale generale. Un sistema capace di lavorare ore senza supervisione su problemi che richiedono ragionamento astratto, comprensione di sistemi complessi e adattamento strategico mostra comportamenti che ci si aspetterebbe vicino alla soglia dell'AGI. Il fatto che queste competenze siano emerse come effetto collaterale di miglioramenti generali, senza addestramento specifico, solleva domande su quali altre capacità emergenti non siano ancora state misurate.
Un modello AI capace di auto-modificarsi presenta un paradosso strutturale: non può essere testato completamente perché ogni test modifica il sistema; non può essere controllato perché supera continuamente la comprensione dei suoi creatori; non può essere facilmente fermato se distribuito su più architetture. Il limite fisico principale rimane l'hardware: un modello può ottimizzare il proprio codice ma non creare nuove GPU. Questo spiega perché il controllo sulle supply chain dei semiconduttori è diventato una questione geopolitica di primo piano.
Il contesto competitivo
⬆ Torna suUn memo interno di OpenAI descrive un mercato dell'IA diventato "competitivo come non mai", con la tecnologia che si trasforma in commodity. La competizione si sta spostando dall'algoritmo all'infrastruttura: OpenAI punta a raggiungere 30 gigawatt di capacità di calcolo entro il 2030, mentre Anthropic ha siglato un accordo con Broadcom e Google per circa 3,5 gigawatt. La strategia emergente prevede di costruire costi di transizione alti per rendere difficile l'abbandono da parte dei clienti.
Il timing dell'annuncio di Mythos coincide con la comunicazione del traguardo di fatturato di Anthropic (trenta miliardi di dollari annui, rispetto ai nove dell'anno precedente) e con i preparativi per l'IPO prevista per ottobre 2026. Un'iniziativa di sicurezza nazionale con partner blue-chip rafforza la narrativa aziendale, anche se alcuni commentatori hanno notato la contraddizione tra aver definito Mythos "troppo pericoloso" e distribuirlo attraverso infrastrutture critiche poche settimane dopo.
Implicazioni per lo sviluppo software
⬆ Torna suMythos solleva domande anche sul "vibe coding": la pratica di generare software velocemente tramite prompt AI senza verifiche approfondite di sicurezza. Se un modello può trovare vulnerabilità in codice scritto da professionisti con decenni di esperienza, lo stesso tipo di modello potrebbe trovare falle nel codice generato in massa. D'altra parte, lo stesso modello che conosce le classi di vulnerabilità così bene da individuarle potrebbe evitarle quando genera codice nuovo.
Anthropic suggerisce di abbreviare drasticamente i cicli di patch: se un modello AI può trasformare una CVE nota in exploit funzionante in poche ore senza intervento umano, la finestra temporale tra pubblicazione di una falla e il suo sfruttamento si riduce a quasi zero. Per i manutentori di software legacy il consiglio è preparare piani di emergenza, perché i modelli non distinguono tra software moderno e obsoleto.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa capacità di Mythos di individuare vulnerabilità vecchie di decenni e costruire exploit autonomamente ridefinisce il perimetro della cybersecurity. Il Progetto Glasswing prova a trasformare un potenziale arsenale offensivo in uno scudo difensivo, ma le implicazioni si estendono oltre la sicurezza informatica.
- Scenario 1: se Mythos resta confinato al consorzio, le organizzazioni critiche potranno correggere le vulnerabilità prima che sistemi con capacità simili diventino accessibili ad attori malevoli. La finestra di 90 giorni potrebbe però rivelarsi insufficiente rispetto alla velocità di diffusione tecnologica.
- Scenario 2: i costi d'uso (125 dollari per token in uscita) creano una disparità strutturale. Grandi aziende e banche potranno proteggersi, mentre piccoli manutentori open source che gestiscono componenti essenziali rimangono potenzialmente esposti.
- Scenario 3: le tensioni con il Pentagono e l'interesse delle istituzioni finanziarie suggeriscono che Mythos potrebbe diventare strumento di sicurezza nazionale, con ricadute sul controllo geopolitico delle supply chain dei semiconduttori.
Cosa monitorare
⬆ Torna su- Il numero di vulnerabilità effettivamente corrette entro i 90 giorni del Progetto Glasswing e i tempi di risposta dei vari sistemi operativi.
- L'evoluzione del confronto tra Anthropic e il Dipartimento della Difesa sulla classificazione di "rischio per la catena di approvvigionamento".
- La reazione di OpenAI e altri competitor alle capacità dimostrate nel settore della sicurezza.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://it.euronews.com/business/2026/04/14/perche-il-nuovo-modello-di-ia-mythos-di-anthropic-agita-washington-e-wall-street
- https://www.internazionale.it/notizie/2026/04/14/intelligenza-artificiale-hacker-anthropic-sicurezza
- https://www.italialife24.it/giornali-online-e-agenzie-di-stampa/tecnologia/computerworld-italia/7-dubbi-su-claude-mythos-il-modello-ai-troppo-potente-per-essere-rilasciato/
- https://www.roberto-serra.com/news/openai-anthropic-guerra-ia-infrastruttura-14-04-2026/
- https://www.melamorsicata.it/2026/04/13/modello-ai-troppo-potente-paradosso/
- https://www.hwupgrade.it/news/scienza-tecnologia/anthropic-ha-un-ai-che-trova-falle-in-windows-linux-e-macos-ecco-perche-l-ha-data-prima-ai-big-tech_152234.html
- https://reccom.org/claude-4-potere-inedito-anthropic-scelto-sigillare/
In breve
- anthropic
- cybersecurity
- vulnerabilita
- zero-day