Intelligenza artificiale e cybersecurity: il doppio fronte tra attacchi e difese
L'IA trasforma la sicurezza informatica: dai SOC sommersi da 10.000 alert giornalieri ai ransomware che evolvono, fino alle opportunità di automazione difensiv…
Contenuto

Scopri anche
- Agentic AI e assistenti virtuali: autonomia, rischi e il problema dell'affidabilità nell'informazione
- Vulnerabilità informatiche: assessment e penetration test a confronto per una difesa efficace
- Notepad++: Vulnerabilità WinGup e dirottamento aggiornamenti da parte di hacker statali
- IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia
- Trend Tecnologici 2026: L'Anno della Maturazione dell'IA e del Quantum Advantage
- Vulnerabilità critica VMware vCenter sfruttata attivamente: patch urgente
- Compromissione dell'infrastruttura di aggiornamento di Notepad++ da parte di hacker statali
- Grok e la crisi dei deepfake sessuali: indagini e restrizioni globali
- Nuova vulnerabilità zero-day in MOVEit Transfer: a rischio dati sensibili di aziende
- ErrTraffic: Il servizio da $800 che automatizza gli attacchi ClickFix tramite falsi problemi del browser
- Vulnerabilità critiche in Veeam Backup: aggiornamenti di sicurezza per prevenire RCE e attacchi ransomware
Intelligenza artificiale e cybersecurity: il doppio fronte tra attacchi e difese
- La saturazione dei centri operativi di sicurezza
- L'IA come moltiplicatore di forze
- Ransomware e frodi informatiche
- Phishing evoluto e social engineering
- Malware polimorfici e attacchi adversarial
- Deepfake e frodi vocali
- L'autonomia limitata come modello emergente
- Il divario di competenze
- Il quadro normativo europeo
- Le vulnerabilità dei sistemi di IA
- Strategie difensive e implementazione
- Prospettive future
- Implicazioni e scenari
- Cosa monitorare
- Fonti
L'intelligenza artificiale ha assunto un ruolo centrale nel panorama della sicurezza informatica, costituendo allo stesso tempo uno strumento per i difensori e un'arma per gli attaccanti. Secondo il Global Cybersecurity Outlook 2026 del World Economic Forum, l'87% dei rispondenti tra alti dirigenti, accademici e figure strategiche in ambito cybersecurity ha identificato le vulnerabilità legate all'IA come il rischio cyber cresciuto più velocemente nel corso del 2025. La quota di organizzazioni che valuta la sicurezza dei tool di intelligenza artificiale impiegati è quasi raddoppiata rispetto all'anno precedente, passando dal 37% al 64%.
La saturazione dei centri operativi di sicurezza
⬆ Torna suI centri operativi per la sicurezza informatica, noti come SOC, si trovano ad affrontare una sfida dimensionale senza precedenti. Secondo i dati riportati, i SOC ricevono in media 10.000 alert di sicurezza al giorno, ciascuno dei quali richiederebbe dai venti ai quaranta minuti di analisi accurata. Le squadre con organici completi riescono a gestirne soltanto il 22%, mentre oltre il 60% dei responsabili di sicurezza ha ammesso di aver ignorato segnalazioni che si sono poi rivelate critiche.
La velocità degli attaccanti rende il modello tradizionale dei SOC sostanzialmente obsoleto. Il Global Threat Report 2025 di CrowdStrike segnala che i tempi di breakout, ovvero l'intervallo tra l'accesso iniziale e il movimento laterale all'interno di una rete, possono scendere fino a 51 secondi. Il 79% delle intrusioni avviene senza ricorrere a malware, sfruttando tecniche come il furto di credenziali, l'abuso di identità e l'utilizzo degli strumenti già presenti nei sistemi attaccati.
Matthew Sharp, responsabile della sicurezza informatica presso Xactly, ha dichiarato che gli avversari stanno usando l'intelligenza artificiale per attaccare alla velocità delle macchine, mentre le organizzazioni non possono difendersi con risposte che viaggiano alla velocità umana. Il burnout conseguente è tale che molti analisti senior stanno considerando cambiamenti di carriera.
L'IA come moltiplicatore di forze
⬆ Torna suJoe Levy, ceo di Sophos, società specializzata in cybersecurity, descrive l'IA come un moltiplicatore di forze per buoni e cattivi. I Large Language Model rendono relativamente più semplice sviluppare campagne di phishing. Al contempo, come i criminali sfruttano questa tecnologia per automatizzare i loro attacchi, le organizzazioni possono usarla per automatizzare la costruzione e l'esecuzione della loro difesa. L'IA può aiutare a stabilire quali vulnerabilità del sistema hanno più probabilità di essere sfruttate.
Alcune aziende stanno sviluppando flussi di lavoro agentici che si occupano di threat hunting, ovvero la ricerca proattiva di minacce, delle indagini sui casi rilevati, di enumerare e classificare gli asset in base al loro impatto sul business, di individuare i possibili target di attacchi di compromissione della posta elettronica aziendale. Questi strumenti non sostituiscono le persone, ma aumentano le loro capacità.
L'implementazione di sistemi basati su intelligenza artificiale permette di analizzare milioni di eventi al secondo, una velocità impossibile per team umani anche molto numerosi. I sistemi di threat detection basati su IA sono in grado di identificare diverse tipologie di attacchi informatici con accuratezza superiore al 95%. Possono rilevare attacchi zero-day, vulnerabilità sconosciute che non hanno ancora una patch disponibile.
Ransomware e frodi informatiche
⬆ Torna suPer quanto riguarda la tipologia di minacce, il Global Cybersecurity Outlook segnala una differente percezione tra Ciso e Ceo. I primi ritengono che le preoccupazioni principali continuino a essere i ransomware, per i danni che possono provocare con le interruzioni del funzionamento delle infrastrutture IT e operative. Si tratta di una tattica remunerativa per i criminali, e l'integrazione dell'IA rende questi attacchi molto più efficaci. I Ceo hanno invece più timore delle frodi informatiche, considerato che il 77% dei rispondenti ha riportato un incremento di truffe cibernetiche e phishing.
Un report di Sophos, State of Ransomware in Manufacturing and Production 2025, evidenzia che il settore industriale ha migliorato le sue difese, riuscendo a bloccare un maggior numero di attacchi prima che questi potessero crittografare i dati delle aziende colpite. Le percentuali di cifratura sono in calo: i dati delle realtà colpite sono stati crittografati con successo nel 40% dei casi, con una flessione del 74% rispetto all'anno precedente. Le estorsioni sono però salite al 10%, perché i malintenzionati si stanno spostando verso il furto di dati. I riscatti sono stati versati da più di metà delle realtà industriali colpite dalla cifratura dei dati, con una cifra mediana pari a 1 milione di dollari contro una richiesta mediana di 1,2 milioni.
Phishing evoluto e social engineering
⬆ Torna suIl phishing rimane uno degli attacchi più osservati, puntando alla raccolta di credenziali. Gli attaccanti sono in grado di realizzare email molto convincenti con relativa facilità facendo leva sui Large Language Model. In passato sarebbe stato più complesso sviluppare qualcosa che fosse abbastanza convincente, con le grafiche e il linguaggio adatti. Il 2025 Enisa Threat Landscape dell'agenzia UE per la cybersecurity fa notare il ruolo crescente dell'intelligenza artificiale: i Large Language Model sono usati per potenziare il phishing e automatizzare le attività di social engineering.
Il 14 gennaio l'Agenzia delle Entrate ha segnalato una campagna che notifica il falso rinnovo della tessera sanitaria, finalizzata al furto dei dati sensibili dei cittadini. Il 21 gennaio un'altra mail ingannevole sfruttava il logo dell'Agenzia invitando l'utente ad accedere alla propria area riservata per rubare le credenziali di accesso dell'identità digitale Spid.
Le tecniche di social engineering risultano efficaci vettori d'attacco. Tra queste: le esche click-fix che sfruttano la fiducia degli utenti verso piattaforme considerate sicure, come Google Meet, Zoom o Booking.com; i finti help desk; il phishing tramite QR code; e la Mfa fatigue, che si verifica quando l'autore di un attacco, dopo aver ottenuto la password della vittima, genera una raffica di richieste Mfa sul telefono dell'utente per indurlo ad approvarne una per errore o esasperazione.
Malware polimorfici e attacchi adversarial
⬆ Torna suL'Intelligenza Artificiale offre agli attaccanti la capacità di creare software malevoli polimorfici e metamorfici. Questi virus possono modificare autonomamente parti del proprio codice ogni volta che infettano un nuovo sistema, pur mantenendo inalterata la loro funzionalità maligna. Questo approccio rende obsoleti molti antivirus tradizionali e costringe i difensori a passare a modelli di analisi comportamentale.
Gli attaccanti hanno sviluppato tecniche sofisticate per colpire direttamente i modelli di IA difensivi attraverso gli attacchi adversarial. Questa metodologia consiste nell'ingannare il modello di machine learning fornendo input manipolati. Modificando in modo impercettibile alcuni elementi, è possibile far classificare a un sistema una minaccia come software benigno, aprendo un varco nelle difese.
Il data poisoning consiste nel manipolare i dati usati per addestrare un modello al fine di corromperne il comportamento. La prompt injection è un attacco contro i modelli linguistici in cui un input malevolo induce il modello a bypassare i suoi controlli di sicurezza, a eseguire azioni non autorizzate o a rivelare informazioni riservate.
Deepfake e frodi vocali
⬆ Torna suLe prospettive per il 2026 includono le frodi vocali con lo sfruttamento del voice cloning basato su IA. L'obiettivo è aggirare i processi di verifica dell'identità in ambiti critici come approvazioni finanziarie, reset delle password e onboarding dei fornitori, spostando il social engineering dai canali digitali ai canali vocali in tempo reale.
Si prevedono inoltre frodi del ceo agentificate su vasta scala: facendo leva su tecnologie di IA generativa e IA agentica, si potrebbero automatizzare truffe personalizzate basate su voce e video deepfake degli amministratori delegati delle aziende. Squadre di agenti potrebbero raccogliere audio o video, generare contenuti falsi e condurre chiamate via WhatsApp con dirigenti selezionati, mostrando un breve video deepfake prima di spostarsi su chat testuali.
Dall'Asia si rilevano minacce legate a operatori della Corea del Nord che fingendosi freelance cercano di rubare alle aziende codice, credenziali e valuta estera. Gli sviluppatori di Pyongyang potrebbero usare l'IA agentica nel 2026 per frodi più avanzate, migliorando la credibilità delle identità false.
L'autonomia limitata come modello emergente
⬆ Torna suLa soluzione che sta emergendo si basa sul concetto di autonomia limitata. In questo modello, gli agenti di intelligenza artificiale gestiscono automaticamente la classificazione iniziale e l'arricchimento delle informazioni sugli alert, mentre gli esseri umani mantengono il controllo sulle decisioni di contenimento quando la gravità dell'incidente è elevata. Le tecnologie basate sui grafi stanno modificando il modo in cui i difensori visualizzano la rete, permettendo agli agenti AI di tracciare i percorsi di attacco invece di classificare le segnalazioni una alla volta.
Diverse implementazioni dimostrano che la classificazione guidata dall'IA raggiunge oltre il 98% di concordanza con le decisioni degli esperti umani, riducendo il carico di lavoro manuale di oltre quaranta ore alla settimana. Gartner prevede che l'utilizzo di AI multi-agente nel rilevamento delle minacce salirà dal 5% attuale al 70% delle implementazioni entro il 2028. Tuttavia, oltre il 40% dei progetti di AI agente verranno cancellati entro la fine del 2027, principalmente a causa di un valore commerciale poco chiaro e di una governance inadeguata.
ServiceNow ha investito circa dodici miliardi di dollari in acquisizioni nel settore della sicurezza solo nel 2025. Ivanti ha annunciato capacità di AI agente per la gestione dei servizi IT, portando il modello di autonomia limitata che sta trasformando i SOC anche ai service desk.
Il divario di competenze
⬆ Torna suIl mismatch di competenze digitali e di cybersecurity rappresenta un'altra sfida. Lo studio del WEF evidenzia che la mancanza di talenti e di expertise nelle aziende è una delle barriere all'integrazione delle tecnologie di IA nella sicurezza informatica. Le organizzazioni minori hanno il doppio delle probabilità di riscontrare livelli di resilienza insufficienti rispetto alle altre: il 46% delle prime rileva una mancanza di expertise e competenze rispetto al 29% delle seconde.
C'è un divario anche tra settori: il 37% delle Ong e il 23% del comparto pubblico riportano livelli di resilienza informatica insufficienti, con oltre il 50% di loro che considera la carenza di skill come un problema per la sicurezza dell'organizzazione. Per il privato, la quota di società che registra un grado insufficiente di resilienza scende all'11%.
Levy sottolinea che operano circa 359 milioni di organizzazioni nel mondo, tra settore pubblico e privato, mentre ci sono solo circa 32.000 Ciso. Pochissime realtà hanno accesso a un Chief Information Security Officer, figura in grado di ideare una strategia adeguata e di contribuire alla valutazione dei progressi delle difese. Grazie all'IA esiste la possibilità di affrontare questo gap di leadership, portando il giudizio esperto di un Ciso in un numero più grande di organizzazioni.
Il quadro normativo europeo
⬆ Torna suIl 13 marzo 2024 il Parlamento europeo ha adottato il Regolamento sull'intelligenza artificiale, l'AI Act, che ha il fine di proteggere i diritti fondamentali e promuovere l'innovazione. Il Regolamento introduce una classificazione basata sul rischio articolata in quattro livelli: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo. L'AI Act definisce l'IA come un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l'implementazione.
Per qualsiasi azienda che opera in Europa, il punto di riferimento normativo rimane il Regolamento Generale sulla Protezione dei Dati (GDPR). I modelli di machine learning sono affamati di dati, ma il loro utilizzo deve sottostare a regole precise per la protezione delle informazioni personali. L'anonimizzazione e la pseudonimizzazione sono tecniche fondamentali per ridurre il rischio legato al trattamento di dati personali nell'addestramento dei modelli.
Le vulnerabilità dei sistemi di IA
⬆ Torna suI sistemi di intelligenza artificiale sono di per sé ottimi bersagli per gli attacchi. Proprio come Internet, non sono stati progettati pensando alla sicurezza by design. La differenza principale rispetto ai sistemi IT convenzionali è che i sistemi AI non possono essere rattoppati facilmente: se un modello linguistico non sa cosa fare, genera allucinazioni, ovvero situazioni in cui il sistema mente, indovina o inventa. Questo tipo di errore richiede una riqualificazione del sistema, spesso senza una causa chiara dell'errore stesso.
Un esempio significativo è stato Tay, una chatbot lanciata da Microsoft, il cui tentativo di uso è fallito due volte. Non è raro che i prodotti basati su IA vengano ritirati perché l'errore non è correggibile. Ridurre le aspettative, concentrandosi su funzioni di IA semplici e ben definite, è spesso la chiave per ottenere risultati concreti.
Al momento non si conoscono casi rilevanti e verificabili di attacchi informatici tecnici generati dall'intelligenza artificiale, solo scenari teoricamente costruiti. Si sa però che il phishing è molto facile da implementare con modelli linguistici generativi. Una vulnerabilità sfruttata può quasi sempre essere individuata e risolta in anticipo, rendendo inefficace anche il miglior attacco basato su IA generativa.
Strategie difensive e implementazione
⬆ Torna suPer difendersi, le organizzazioni devono partire dai fondamentali: usare password uniche e autenticazioni a più fattori, impiegare strumenti per rilevare eventuali abusi di identità, avere capacità per effettuare operazioni di sicurezza 24/7. I servizi di managed detection and response rappresentano un centro di sicurezza esternalizzato di cui un'organizzazione può servirsi senza dover investire in competenze interne.
L'implementazione dell'autonomia limitata richiede confini di governance espliciti. I team dovrebbero specificare quali categorie di alert gli agenti possono gestire autonomamente, quali richiedono revisione umana indipendentemente dal punteggio di confidenza, e quali percorsi di escalation si applicano quando la certezza scende sotto la soglia stabilita. Gli incidenti ad alta gravità richiedono approvazione umana prima del contenimento.
I team dovrebbero iniziare con flussi di lavoro dove il fallimento è recuperabile. Tre processi consumano il 60% del tempo degli analisti: la classificazione del phishing, l'automazione del reset delle password e la corrispondenza con indicatori di minaccia già noti. Automatizzare prima questi processi, poi validare l'accuratezza rispetto alle decisioni umane per trenta giorni, rappresenta il percorso più prudente.
Prospettive future
⬆ Torna suL'IA generativa sta emergendo come strumento potente sia per attaccanti che difensori. Può essere utilizzata per generare malware sofisticato e campagne di phishing iper-personalizzate, ma offre anche capacità nella simulazione di attacchi, generazione automatica di regole di sicurezza e creazione di codice per patch di vulnerabilità. I SOC autonomi rappresentano la prossima frontiera: Security Operations Center dove sistemi AI gestiscono autonomamente la maggior parte delle operazioni, dalla detection alla response, escalando agli analisti umani solo i casi più complessi.
Il rapporto tra IA offensiva e difensiva si configura come una corsa agli armamenti algoritmici. La vera vittoria strategica risiederà in una simbiosi efficace tra l'intelligenza umana e quella artificiale. L'IA eccellerà nell'elaborare volumi di dati, nell'identificare pattern nascosti e nell'eseguire risposte automatiche. L'intuito, la creatività, l'etica e la comprensione del contesto rimangono dominio dell'intelligenza umana. Saranno gli analisti a dare un senso agli allarmi, a investigare gli incidenti più complessi, a guidare la strategia complessiva e a prendere le decisioni finali su questioni critiche.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'impatto dell'intelligenza artificiale sulla sicurezza informatica ridefinisce il rapporto di forza tra attaccanti e difensori. La velocità diventa il fattore discriminante: con tempi di breakout inferiori al minuto, il modello tradizionale dei SOC appare strutturalmente inadeguato rispetto alla scala del problema.
- Scenario 1: le organizzazioni che investono in automazione difensiva potrebbero recuperare terreno, riducendo il divario tra alert generati e minacce effettivamente analizzate.
- Scenario 2: lo spostamento delle tattiche di ransomware verso il furto di dati renderebbe i backup insufficienti come unica strategia di resilienza.
- Scenario 3: la diffusione di malware polimorfici e attacchi adversarial potrebbe accelerare la transizione verso sistemi di analisi comportamentale.
Cosa monitorare
⬆ Torna su- L'effettiva riduzione del burnout tra gli analisti SOC grazie all'adozione di flussi di lavoro automatizzati.
- L'evoluzione delle frodi vocali e dei deepfake nei processi di verifica dell'identità aziendale.
- Il divario tra velocità di adozione dell'IA offensiva e quella dell'IA difensiva nei prossimi dodici mesi.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.repubblica.it/tecnologia/2026/02/12/news/ia_minacce_cybersicurezza_difesa_infomratica_sophos-425154067/
- https://www.weareproject.com/tech-insight/ai-e-data-security-una-guida-ai-pericoli-e-alle-opportunita/
- https://www.tomshw.it/business/10000-alert-al-giorno-i-soc-passano-agli-agenti-ai-2026-01-29
- https://www.braincomputing.com/blog/it-innovazioni/intelligenza-artificiale-e-cybersecurity-guida-2025
- https://www.macformazione.com/cybersecurity-come-lia-viene-usata-sia-dagli-hacker-che-dai-difensori/
- https://www.greenbone.net/it/blog/cybersecurity-e-la-promessa-dell-intelligenza-artificiale/
- https://www.ictsecuritymagazine.com/articoli/ia-sicurezza/
In breve
- cybersecurity
- Sophos
- ransomware
- phishing