L'AI nella sicurezza del software: tra scoperta di vulnerabilità e nuovi rischi

L'esperimento di Claude Opus 4.6 su Firefox apre nuovi scenari nella sicurezza del software, mentre il codice generato dall'AI crea forme inedite di debito tec…

Contenuto

L'AI nella sicurezza del software: tra scoperta di vulnerabilità e nuovi rischi

Scopri anche

L'AI nella sicurezza del software: tra scoperta di vulnerabilità e nuovi rischi

L'AI nella sicurezza del software: tra scoperta di vulnerabilità e nuovi rischi

In questo articolo:

La sicurezza informatica ha sempre vissuto su un equilibrio asimmetrico: un difensore deve proteggere ogni riga di codice, mentre un attaccante deve trovarne una sola vulnerabile. Questa regola ha governato quarant'anni di cybersicurezza, ma negli ultimi mesi l'intelligenza artificiale sta modificando radicalmente questo paradigma. Non perché gli hacker siano diventati più etici, ma perché gli algoritmi stanno iniziando a leggere il codice con una capacità di correlazione che nessun team umano può realisticamente eguagliare.

L'esperimento Claude Opus 4.6 su Mozilla Firefox

⬆ Torna su

Anthropic ha condotto un esperimento con il modello Claude Opus 4.6 sul codice di Mozilla Firefox, in collaborazione con il team di sicurezza di Mozilla. Due settimane di audit automatizzato hanno prodotto risultati significativi: il modello ha individuato 22 vulnerabilità, di cui 14 classificate come ad alta gravità. Firefox è uno dei progetti open source più analizzati della storia del web, con decenni di revisioni, bug bounty e audit indipendenti. La prima vulnerabilità è stata segnalata dopo circa venti minuti dall'accesso al codice sorgente, mentre un team umano impiega normalmente giorni per orientarsi in una codebase complessa.

Il risultato finale dell'audit comprende 112 segnalazioni complessive su circa 6.000 file analizzati. I 14 difetti ad alta gravità individuati da Claude rappresentano circa il 20% delle patch di sicurezza più critiche pubblicate da Firefox in un intero anno. L'AI ha dimostrato un talento nell'identificare bug, ma molta meno efficacia nel trasformarli in exploit funzionanti: su centinaia di tentativi, Claude è riuscito a generare soltanto due exploit funzionanti, entrambi ottenuti disabilitando la sandbox del sistema.

Anthropic ha osservato che il modello attuale risulta più efficace nella difesa che nell'attacco, riconoscendo tuttavia che questo divario potrebbe ridursi rapidamente. Le organizzazioni che utilizzano strumenti AI per l'audit della sicurezza potrebbero ottenere un vantaggio difensivo significativo, mentre quelle che ignorano questa evoluzione rischiano di trovarsi con codice analizzato da aggressori algoritmici ma difeso da processi umani lenti e costosi.

Il codice generato dall'AI e il debito tecnologico

⬆ Torna su

Veracode ha pubblicato il suo rapporto annuale sullo stato della sicurezza del software, analizzando i dati di 1,6 milioni di applicazioni. La scoperta principale indica che le vulnerabilità si manifestano più rapidamente di quanto possano essere corrette, e il rapido sviluppo basato sull'intelligenza artificiale sta rendendo la sicurezza del software un compito particolarmente complesso. I ricercatori hanno introdotto il concetto di "debito di sicurezza", ovvero vulnerabilità note che rimangono irrisolte per oltre un anno: l'82% delle aziende presenta ora questo debito, rispetto al 74% dell'anno precedente. La quota di vulnerabilità gravi con un'elevata probabilità di sfruttamento è aumentata dall'8,3% all'11,3%.

Il ritmo delle release sta accelerando, con l'aggiunta di nuovo codice più veloce di quanto le vecchie vulnerabilità vengano corrette. La complessità tecnica sta aumentando, in parte a causa del crescente volume di codice generato dall'intelligenza artificiale, che complica il processo di patching. Gli strumenti di intelligenza artificiale generano spesso un gran numero di falsi positivi, creando un carico di lavoro eccessivo per i revisori. Secondo il rapporto, la velocità di sviluppo nell'era dell'intelligenza artificiale rende irraggiungibile una sicurezza completa.

Il codice generato tramite LLM può contenere errori insidiosi, di "concetto" piuttosto che di programmazione malaccorta. Questo accade perché il codice viene scritto in totale mancanza di comprensione e senza nessun vincolo di realtà. Si tratta di un cambiamento nella tipologia di debito tecnologico: non più software che contiene errori che portano a malfunzionamenti ed a deviazioni dal comportamento atteso, ma software i cui stessi algoritmi possono essere errati in modo sottile. Un software i cui algoritmi non siano affidabili ma sottilmente difformi dalle specifiche potrebbe malfunzionare in maniera inusuale, non semplicemente fallendo nel suo compito, ma facendo cose diverse ed impreviste.

L'adozione dell'AI nello sviluppo software

⬆ Torna su

Il Chief Scientist di Google ha dichiarato che almeno il 25% del codice dell'azienda viene oggi generato da sistemi di AI. GitHub Copilot ha conquistato oltre 1,3 milioni di utenti paganti. Questo successo commerciale rappresenta il riconoscimento concreto di un valore aggiunto percepito dagli sviluppatori, sia individuali che aziendali. L'impatto degli strumenti di AI sulla programmazione va oltre il semplice completamento del codice: si tratta di un cambiamento fondamentale nel flusso di lavoro. La programmazione è sempre stata principalmente un esercizio di pensiero, e la digitazione del codice è sempre stata la parte più meccanica e meno stimolante del processo.

Strumenti come Supercomplete stanno ampliando l'orizzonte, anticipando le intenzioni dello sviluppatore attraverso interi file di codice. Soluzioni come Cursor Compose e Windsurf Cascade estendono la capacità predittiva a più file contemporaneamente all'interno di una base di codice. Gli strumenti agentici di nuova generazione potrebbero, con un semplice comando, gestire autonomamente tutti gli aspetti dell'implementazione, inclusa l'installazione di librerie.

I rischi dell'AI degenerativa

⬆ Torna su

L'AI degenerativa si riferisce al fenomeno per cui i modelli di intelligenza artificiale degradano le proprie prestazioni nel tempo, soprattutto se non vengono adeguatamente mantenuti. Un modello che inizialmente era accurato può col tempo diventare meno affidabile a causa di vari fattori come cambiamenti nei dati o nell'ambiente operativo. Questo è un problema in cybersecurity, dove sistemi basati su IA per il rilevamento di minacce o l'autenticazione biometrica devono adattarsi a minacce in continua evoluzione.

Nel dominio della sicurezza informatica, l'AI degenerativa può avere conseguenze significative. I sistemi di intrusion detection/prevention, antivirus e SIEM moderni integrano modelli di machine learning per riconoscere attività malevole. Il concept drift è particolarmente insidioso: l'ambiente informatico e le tattiche degli attaccanti cambiano di continuo, quindi un modello di rilevamento addestrato su vecchi attacchi può perdere efficacia al comparire di tattiche nuove. Studi accademici hanno documentato degradamenti significativi nelle performance di classificatori di malware e anomalie di rete in presenza di concept drift.

I sistemi di riconoscimento biometrico basati su IA possono subire un decadimento delle prestazioni nel tempo. La variabilità dei tratti del volto, del timbro di voce o dello stato fisiologico di un soggetto nel tempo può introdurre cambiamenti sia a breve che a lungo termine. Queste variazioni possono portare ad aumenti di falsi negativi o falsi positivi se il modello non viene tarato sui nuovi dati. Un modello "invecchiato" e non irrobustito potrebbe essere vulnerabile ad attacchi di spoofing.

Minacce generate dall'AI

⬆ Torna su

Gli attori delle minacce possono utilizzare l'IA generativa e i modelli linguistici di grandi dimensioni per scalare gli attacchi a un livello di velocità e complessità mai visto prima. Possono trovare nuovi modi per minare la complessità del cloud, sfruttare le tensioni geopolitiche per attacchi avanzati e ottimizzare le tecniche di attacco ransomware e phishing. Sebbene un software come ChatGPT disponga di alcune protezioni per impedire agli utenti di creare codice dannoso, gli esperti possono utilizzare tecniche intelligenti per aggirarle e creare malware. Un ricercatore è riuscito a creare un complesso eseguibile per il furto di dati quasi impercettibile, sofisticato come un malware creato da un attore di minacce sponsorizzato da uno Stato.

L'IA generativa può produrre testo nella voce di leader di pensiero, che i criminali informatici possono utilizzare per eseguire truffe come false donazioni, opportunità di investimento e donazioni su mezzi come email o piattaforme social. Con i filmati giusti, chiunque può realizzare riprese deepfake utilizzando app gratuite. Le forze dell'ordine credono che oltre agli schemi di rapimento virtuali, l'IA potrebbe aiutare i criminali con altri tipi di frode di impersonificazione in futuro.

Strategie di mitigazione

⬆ Torna su

Affrontare il problema dell'AI degenerativa richiede un approccio proattivo e multilivello. È fondamentale implementare strumenti di monitoraggio attivo che controllino nel tempo l'accuratezza e altre metriche del modello in produzione. Questo include confrontare le distribuzioni dei nuovi dati con quelle di training e sorvegliare gli output del modello per segni di calo di performance. La contromisura più diretta al degrado è la manutenzione costante del modello: i modelli di machine learning richiedono un ciclo di vita di update analogo a quello del software tradizionale.

È buona prassi coinvolgere periodicamente esperti umani per verificare che i modelli continuino a comportarsi correttamente. I team di sicurezza possono effettuare red teaming sui modelli di AI: simulare attacchi nuovi, creare adversarial examples e vedere come risponde il modello. Contro gli attacchi adversariali si può ricorrere all'adversarial training: includere durante l'addestramento esempi perturbati e ostili. Per la data poisoning, una mitigazione è implementare rigidi controlli di data hygiene: validare le fonti dei dati di training, utilizzare dataset trusted e isolare eventuali contributi esterni sospetti.

Storia e contesto del "bad software"

⬆ Torna su

Il problema del "bad software" è noto fin dagli inizi della società dell'informazione. Nel 1997 il professor Cem Kamer ha scritto un libro intitolato "Bad Software", e l'anno successivo Alan Cooper, il padre del Visual Basic, ha pubblicato "The Inmates Are Running the Asylum", documentando le conseguenze del non prendere sul serio la programmazione. I casi storici di danni causati da errori software includono il Therac-25, che fra il 1985 e il 1987 espose a massicce dosi di radiazioni i pazienti sottoposti a radioterapia, e i due Boeing 737 Max che fra il 2018 e il 2019 causarono la morte di 346 persone per un malfunzionamento del software.

La disinvoltura con la quale si stanno integrando piattaforme di AI all'interno di processi decisionali di vario tipo, inclusi quelli giudiziari, diagnosi mediche e controlli di macchine industriali, aumenta la probabilità che si verifichino danni sempre più diffusi. Questo non perché esistano "AI ad alto rischio" come definite dal regolamento europeo, ma perché se non sono state definite regole semplici per stabilire la responsabilità di chi sviluppa software "stupidi", difficilmente si potrà fare lo stesso con quelli "intelligenti".

Prospettive future

⬆ Torna su

Il lavoro umano si sposterà sempre più dalla ricerca manuale dei bug alla validazione delle segnalazioni prodotte dalle AI, alla progettazione di architetture più sicure e alla gestione di sistemi complessi. Progetti open source come Firefox potrebbero beneficiare enormemente di strumenti di audit automatizzati. L'intelligenza artificiale rappresenta l'evoluzione logica del principio secondo cui più occhi osservano il codice, più è probabile che qualcuno trovi un problema. Non più molti occhi umani, ma milioni di correlazioni algoritmiche che attraversano il codice con una velocità impensabile.

La sicurezza informatica ha sempre vissuto in equilibrio tra difesa e attacco. L'intelligenza artificiale rischia di accelerare entrambe le direzioni contemporaneamente. Le organizzazioni che sviluppano software complesso non possono più permettersi di ignorare gli strumenti di audit basati su AI. Non perché siano perfetti, ma perché stanno diventando rapidamente indispensabili. Il codice, per la prima volta nella storia dell'informatica, non viene più letto soltanto dagli esseri umani che lo scrivono: le macchine non hanno nessuna pazienza per gli errori.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'integrazione dell'AI nei processi di sicurezza e sviluppo sta ridefinendo gli equilibri tradizionali del settore. La capacità di identificare vulnerabilità a una velocità senza precedenti coesiste con la proliferazione di codice generato automaticamente, creando una tensione tra efficienza e controllo qualitativo.

  • Scenario 1: Le organizzazioni che investono in audit automatizzati potrebbero ottenere un vantaggio difensivo, riducendo la finestra temporale tra introduzione e individuazione delle vulnerabilità.
  • Scenario 2: L'espansione del codice generato potrebbe accentuare il debito di sicurezza, con un volume di vulnerabilità che supera la capacità di correzione dei team umani.
  • Scenario 3: I modelli di rilevamento potrebbero degradare progressivamente se non aggiornati, aprendo spazi a tattiche offensive evolute.

Cosa monitorare

⬆ Torna su
  • L'evoluzione del rapporto tra vulnerabilità identificate e vulnerabilità corrette nelle codebase aziendali.
  • L'adozione di strumenti agentici per lo sviluppo e il loro impatto sulla qualità del codice prodotto.
  • La frequenza di aggiornamento dei modelli di sicurezza per contrastare il concept drift.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • cybersecurity
  • ai
  • vulnerabilita
  • developer

Link utili

Apri l'articolo su DeafNews