L'IA come arma a doppio taglio: l'evoluzione delle minacce cyber e le nuove strategie difensive
L'intelligenza artificiale sta trasformando il panorama della cybersecurity: attacchi più veloci, phishing personalizzato e malware polimorfo. Analisi delle mi…
Contenuto

Scopri anche
- iOS 26.3.1: aggiornamento di stabilità, sicurezza e compatibilità per iPhone
- Da ChatGPT agli agenti autonomi: la transizione professionale nell'era dell'intelligenza artificiale
- Certificazione NATO per iPhone e le minacce digitali: sicurezza e attacchi
- Google registra 90 vulnerabilità zero-day nel 2025: i fornitori di spyware commerciale superano gli attori statali
- Stack Overflow e l'impatto dell'AI: declino delle domande e trasformazione strategica
- ChatGPT Atlas e Google Chrome ultimi in classifica privacy: lo studio che cambia le carte
- Vulnerabilità software e cybersecurity: come proteggersi dagli attacchi informatici
- Ransomware 2025-2026: il firewall diventa il punto di ingresso nel 90% degli attacchi
- Vulnerabilità critiche in Google Gemini: dai bug di Chrome agli attacchi sponsorizzati da stati
- OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono
- Anthropic e Mozilla: Claude trova 22 vulnerabilità in Firefox in due settimane
- Samsung Galaxy: patch di sicurezza febbraio 2026 e roadmap One UI 8.5
- App Android bloccate, vulnerabilità e obsolescenza: guida completa a sicurezza e stabilità
- CVE-2026-1731: CISA conferma sfruttamento attivo della vulnerabilità critica BeyondTrust
- Intelligenza artificiale e cybersecurity: il doppio fronte tra attacchi e difese
- ChatGPT e il panorama degli assistenti AI: modelli, alternative e strategie a confronto
- Claude di Anthropic scopre 22 vulnerabilità in Firefox: la collaborazione con Mozilla
- Valve conferma il lancio 2026 per Steam Machine, Steam Frame e Steam Controller nonostante la crisi RAM
- OpenClaw, l'agente AI che spaventa le Big Tech: Meta vieta, OpenAI assume il creatore
- Vulnerabilità informatiche: assessment e penetration test a confronto per una difesa efficace
L'IA come arma a doppio taglio: l'evoluzione delle minacce cyber e le nuove strategie difensive
- La trasformazione del phishing e l'ingegneria sociale potenziata
- Deepfake e frodi multimilionarie
- L'evoluzione del malware e il ransomware-as-a-service
- La dimostrazione pratica: malware creato in due ore
- Le vulnerabilità delle applicazioni pubbliche
- Il problema delle credenziali e i rischi per le piattaforme AI
- Shadow use e rischi della supply chain
- Attacchi autonomi e agenti AI
- L'IA come intermediario per il comando e controllo
- Le nuove frontiere offensive: prompt injection e attacchi ai classificatori
- La risposta difensiva: sistemi AI per la sicurezza
- Le strategie di difesa consigliate
- Il futuro: SOC autonomi e armamenti difensivi
- Implicazioni e scenari
- Cosa monitorare
- Fonti
L'integrazione dell'intelligenza artificiale nelle operazioni aziendali ha ridefinito il rapporto tra attaccanti e difensori nel campo della sicurezza informatica. Secondo il rapporto State of Cybersecurity 2025 pubblicato da Arctic Wolf, per la prima volta l'IA e i modelli linguistici di grandi dimensioni hanno superato il ransomware come principale preoccupazione per i responsabili della sicurezza aziendale. Il rapporto, basato su un'indagine condotta da Sapio Research su oltre milleduecento decisori IT in quindici paesi, evidenzia come la stessa tecnologia che promette di proteggere le organizzazioni sia diventata l'arma più sofisticata nelle mani di chi vuole colpirle.
La trasformazione del phishing e l'ingegneria sociale potenziata
⬆ Torna suIl phishing ha subito una trasformazione radicale grazie all'intelligenza artificiale. Il CrowdStrike 2025 Global Threat Report documenta un aumento del 442% negli attacchi di voice phishing tra la prima e la seconda metà del 2024. Adam Meyers, vicepresidente senior per le operazioni contro gli avversari di CrowdStrike, ha spiegato che gran parte di questo incremento è guidato dal fatto che gli avversari si rendono conto che le difese tecniche stanno diventando più forti, quindi devono prendere di mira l'anello più debole: gli esseri umani.
I dati raccolti da Hoxhunt dopo l'analisi di milioni di email malevole inviate a due milioni e mezzo di utenti in 121 paesi rivelano che tra lo 0,7% e il 4,7% delle email di phishing sono completamente generate dall'intelligenza artificiale. Secondo il rapporto External Threat Intelligence di CybelAngel, il 67,4% di tutti gli attacchi di phishing nel 2024 ha utilizzato qualche forma di IA. L'FBI ha emesso un avviso nel 2024 sottolineando come l'intelligenza artificiale aumenti enormemente la velocità, la scala e l'automazione degli schemi di phishing, aiutando i truffatori a creare messaggi altamente convincenti adattati a destinatari specifici.
Non si tratta più di campagne massive e generiche, ma di attacchi chirurgici dove ogni messaggio è calibrato sul suo bersaglio attraverso l'analisi di profili social, comunicazioni pubbliche e tracce digitali. Secondo i dati di Keepnet Labs, gli attacchi di phishing basati su credenziali sono aumentati del 703% nella seconda metà del 2024.
Deepfake e frodi multimilionarie
⬆ Torna suI deepfake rappresentano una delle sfide più inquietanti nel panorama delle minacce. Il caso più emblematico del 2024 riguarda Arup, la società di ingegneria britannica. Nel gennaio 2024, un dipendente dell'ufficio di Hong Kong ha partecipato a una videoconferenza con persone che credeva fossero il chief financial officer e altri membri dello staff senior. Il dipendente ha autorizzato 15 trasferimenti per un totale di 25 milioni di dollari. Settimane dopo è emersa la verità: tutti i partecipanti alla chiamata, eccetto la vittima, erano deepfake generati dall'intelligenza artificiale.
Rob Greig, Chief Information Officer di Arup, ha dichiarato al World Economic Forum che le indicazioni audio e visive sono molto importanti per gli esseri umani, e queste tecnologie stanno giocando su questo aspetto. Greig ha rivelato che, spinto dalla curiosità dopo l'incidente, ha tentato di creare un deepfake video di se stesso in tempo reale utilizzando software open source: gli ci sono voluti circa 45 minuti.
I numeri raccolti da Keepnet Labs nel 2025 dipingono un quadro allarmante: le perdite finanziarie derivanti da frodi abilitate da deepfake hanno superato i 200 milioni di dollari solo nel primo trimestre dell'anno. I tentativi di frode con deepfake sono aumentati di 31 volte nel 2023, con un incremento del 3000% anno su anno. I deepfake vocali sono cresciuti del 680% nell'ultimo anno. Secondo Surfshark, le perdite totali da frodi deepfake hanno raggiunto 897 milioni di dollari, con 410 milioni solo nella prima metà del 2025.
L'evoluzione del malware e il ransomware-as-a-service
⬆ Torna suIBM X-Force indica un aumento del 49% dei gruppi ransomware attivi rispetto all'anno precedente, con una crescita marcata di operatori piccoli e transitori che complicano l'attribuzione. Il mercato del ransomware si sta frammentando in tanti gruppi più piccoli e specializzati, spesso organizzati come servizi in abbonamento per criminali meno esperti: il cosiddetto ransomware-as-a-service.
L'IA viene usata per scegliere meglio le vittime e persino per gestire le trattative di pagamento. Nel 2024, diversi forum clandestini hanno iniziato a promuovere i "generatori di malware AI" in grado di scrivere, testare e debuggare automaticamente codice malevolo. Questi strumenti utilizzano loop di feedback per apprendere quali varianti aggirano il rilevamento, trasformando ogni tentativo fallito in carburante per il prossimo successo.
Il malware polimorfico generato dall'intelligenza artificiale sta ridefinendo il modo in cui gli attaccanti creano e distribuiscono software malevolo. Mentre il malware tradizionale si basava su piccole modifiche al codice per eludere il rilevamento, i moderni modelli generativi, dal GPT-4o agli LLM open source, sono ora in grado di produrre varianti di malware uniche e funzionali in pochi secondi.
La dimostrazione pratica: malware creato in due ore
⬆ Torna suIn un esperimento condotto da OPSWAT, l'esperto di cybersecurity Martin Kallas ha dimostrato come gli strumenti AI possano essere utilizzati per creare malware evasivo rapidamente e senza competenze avanzate. Utilizzando HackerGPT, Kallas ha costruito una catena di malware completa in meno di due ore. Il modello lo ha guidato attraverso ogni fase: pianificazione, offuscamento, evasione ed esecuzione.
Il risultato è stato un payload generato dall'IA che ha eluso il rilevamento di 60 su 63 motori antivirus su VirusTotal. L'analisi comportamentale e il sandboxing non sono riusciti a segnalarlo come dannoso. Kallas ha precisato che non si trattava di un hacker statale o di un black hat, ma di un analista motivato che utilizzava strumenti pubblicamente disponibili su una GPU consumer. Con oltre un milione di modelli open source disponibili su piattaforme come Hugging Face, gli attaccanti possono scegliere da una vasta libreria, affinarli per scopi malevoli ed eseguirli senza supervisione.
Le vulnerabilità delle applicazioni pubbliche
⬆ Torna suIBM X-Force ha rilevato un cambiamento nel panorama degli attacchi informatici: mentre fino a poco tempo fa gli intrusi puntavano soprattutto al furto di credenziali via phishing o malware, oggi cresce lo sfruttamento diretto di vulnerabilità nelle applicazioni esposte su Internet. X-Force segnala un aumento significativo degli attacchi che prendono di mira web app e API pubbliche, con un +44% degli incidenti inizialmente causati da exploit di applicazioni esposte.
Gli aggressori non cercano più solo account compromessi: scansionano porte, cercano endpoint esposti e sfruttano falle note o impostazioni difettose per entrare rapidamente nei sistemi. L'automazione e i modelli di intelligenza artificiale stanno cambiando il ritmo degli attacchi. Strumenti automatizzati analizzano codice e configurazioni pubbliche, individuano pattern vulnerabili e possono generare exploit e script pronti all'uso. Questo non inventa tecniche nuove, ma riduce drasticamente i tempi che separano la scoperta della falla dall'attacco effettivo.
Il problema delle credenziali e i rischi per le piattaforme AI
⬆ Torna suIl furto di account resta una minaccia centrale. È stato esposto oltre 300.000 credenziali legate a ChatGPT a causa di infostealer: accessi non autorizzati a servizi AI possono permettere di manipolare output, esfiltrare dati sensibili o automatizzare azioni dannose. Le credenziali rubate agevolano anche movimenti laterali all'interno delle reti aziendali, rendendo più difficile la scoperta e il contenimento dell'incidente.
SentinelOne documenta come una significativa violazione della sicurezza abbia portato all'esposizione di oltre 225.000 credenziali OpenAI sul dark web, rubate da vari malware infostealer, con LummaC2 che è stato il più diffuso. Quando utenti non autorizzati ottengono accesso agli account ChatGPT, possono visualizzare la cronologia completa delle chat, inclusi eventuali dati aziendali sensibili condivisi con lo strumento AI.
Shadow use e rischi della supply chain
⬆ Torna suUn problema emergente è l'uso non autorizzato di tool di intelligenza artificiale da parte dei dipendenti: il cosiddetto "shadow use". Strumenti installati senza supervisione sfuggono ai processi di governance IT, rendendo complesso controllare accessi, revocare credenziali compromesse e proteggere dati sensibili.
Le compromissioni nella supply chain software sono quasi quadruplicate: l'automazione CI/CD e l'integrazione di tool AI nei processi di sviluppo hanno introdotto nuovi vettori persistenti. La rapida adozione di modelli di IA di terze parti e open source ha creato una nuova vasta superficie di attacco: la catena di approvvigionamento dell'IA. Nel 2025, diversi laboratori di ricerca hanno mostrato attacchi di avvelenamento dei dati in cui l'alterazione di solo lo 0,1% dei dati di addestramento di un modello poteva causare una classificazione errata mirata.
Attacchi autonomi e agenti AI
⬆ Torna suI criminali informatici stanno sperimentando attacchi autonomi basati sull'IA, in cui agenti automatici pianificano, coordinano ed eseguono in modo indipendente campagne in più fasi. Questi sistemi di IA condividono informazioni, si adattano in tempo reale alle misure difensive e collaborano su migliaia di endpoint, funzionando come botnet ad autoapprendimento senza supervisione umana.
Esempi recenti, come i prototipi ReaperAI, mostrano come l'intelligenza artificiale autonoma possa concatenare ricognizione, sfruttamento ed esfiltrazione dei dati in un'operazione senza soluzione di continuità. Questa crescita di velocità delle macchine rappresenta una sfida per i centri operativi di sicurezza, che rischiano di essere sopraffatti da sciami di attacchi adattivi e auto-organizzati che generano migliaia di avvisi, testano politiche e cambiano tattica in tempo reale.
L'IA come intermediario per il comando e controllo
⬆ Torna suCheck Point Research ha ipotizzato uno scenario in cui gli assistenti di intelligenza artificiale potrebbero diventare un canale invisibile per controllare i malware. Gli assistenti IA dotati di capacità di navigazione web potrebbero essere sfruttati come "ripetitori" nascosti di comando e controllo. Il malware potrebbe chiedere all'IA di visitare un determinato sito Web e riassumerne il contenuto. In quel contenuto sarebbero nascosti comandi o dati. Così il computer infetto non si collegherebbe mai direttamente al server malevolo: a farlo sarebbe l'assistente IA.
I ricercatori hanno dimostrato la fattibilità di questo scenario in un ambiente controllato, coinvolgendo piattaforme come Microsoft Copilot e Grok, entrambe dotate di accesso al Web. Dopo la segnalazione responsabile, Microsoft ha confermato le osservazioni e introdotto modifiche per limitare il comportamento nel flusso di recupero web di Copilot.
Le nuove frontiere offensive: prompt injection e attacchi ai classificatori
⬆ Torna suIl prompt injection è una tecnica in cui gli attaccanti sfruttano vulnerabilità nei LLM fornendo input progettati per sovrascrivere il comportamento previsto. Questi attacchi sfruttano il modo in cui i LLM interpretano e danno priorità alle istruzioni, spesso con poco o nessun malware tradizionale coinvolto. Invece di usare l'IA per lanciare attacchi esterni, il prompt injection trasforma i sistemi AI di un'organizzazione in agenti inconsapevoli di compromissione.
Gli attacchi ai modelli di classificazione manipolano gli input o il comportamento di un sistema AI per forzare decisioni errate. Queste tattiche rientrano nella categoria più ampia dell'adversarial machine learning. I modelli supervisionati spesso "sovradattano": imparano pattern specifici dai dati di training e mancano attacchi che deviano anche solo leggermente. Gli attaccanti sfruttano questo usando strumenti come WormGPT per creare payload appena al di fuori dei confini di rilevamento noti.
La risposta difensiva: sistemi AI per la sicurezza
⬆ Torna suNonostante l'aumento delle minacce, solo il 37% dei professionisti della sicurezza dichiara di sentirsi preparato a fermare un attacco informatico potenziato dall'IA, secondo il State of AI Cybersecurity Report del Ponemon Institute. Tuttavia, l'intelligenza artificiale trova applicazione anche sul fronte difensivo. I sistemi di threat detection basati su IA sono in grado di identificare diverse tipologie di attacchi informatici con accuratezza superiore al 95%.
Particolarmente rilevante è la capacità di identificare attacchi zero-day. Mentre i sistemi tradizionali risultano inefficaci contro questi attacchi, l'IA può rilevare comportamenti sospetti anche in assenza di signature note. Gli algoritmi di machine learning hanno un tasso di accuratezza dell'85% nel rilevamento di attacchi ransomware analizzando i pattern del traffico di rete, secondo il rapporto IBM Security X-Force.
Le piattaforme SOAR basate su IA possono eseguire automaticamente playbook di risposta complessi: isolare endpoint compromessi, bloccare traffico malevolo, revocare credenziali, raccogliere forensics e notificare gli analisti, tutto in pochi secondi dall'identificazione della minaccia. L'IA può ridurre i falsi positivi fino al 90%, permettendo agli analisti di concentrarsi sulle minacce reali.
Le strategie di difesa consigliate
⬆ Torna suLe organizzazioni dovrebbero concentrarsi su strategie fondamentali per ridurre i rischi. Selezionare piattaforme di IA costruite con principi che mettono al primo posto la sicurezza. Limitare sempre i dati esposti agli strumenti di IA, tenendo fuori dalla portata file sensibili, credenziali o set di dati di produzione. Applicare l'accesso con privilegi minimi ai sistemi di IA, autenticare ogni chiamata API e monitorare le interazioni tra IA per prevenire movimenti laterali.
Tutto il codice generato dall'IA deve essere sottoposto a revisione tra pari, testato e scansionato alla ricerca di vulnerabilità prima della distribuzione. Rendere DevSecOps una parte standard della strategia di IA, automatizzando i controlli di sicurezza in tutta la pipeline CI/CD per rilevare codice non sicuro, informazioni sensibili esposte e configurazioni errate prima che raggiungano la produzione.
Le misure difensive da adottare con priorità includono: patching continuo e prioritizzazione delle correzioni sulle componenti esposte; verifica costante delle configurazioni e riduzione della superficie d'attacco degli endpoint pubblici; principio del privilegio minimo per accessi e ruoli; autenticazione multifattore e controlli condizionali estesi alle integrazioni esterne; monitoraggio delle pipeline CI/CD e audit delle dipendenze di terze parti; inventory e governance sull'uso di tool AI per evitare shadow use.
Il futuro: SOC autonomi e armamenti difensivi
⬆ Torna suI SOC autonomi rappresentano la prossima frontiera: Security Operations Center dove sistemi AI gestiscono autonomamente la maggior parte delle operazioni, dalla detection alla response, escalando agli analisti umani solo i casi più complessi o critici. Il motore di prevenzione delle minacce Infinity AI Threat Prevention Engine di Check Point, alimentato da ThreatCloud AI, analizza già milioni di indicatori provenienti da oltre 150.000 reti per bloccare gli attacchi zero-day in tempo reale.
La sicurezza dovrà evolversi da strumenti reattivi a piattaforme basate sul cloud e alimentate dall'intelligenza artificiale che prevedono e prevengono gli attacchi prima che si verifichino. Entro il 2030, il ransomware e il furto di dati saranno orchestrati quasi interamente da sistemi di IA autonomi in grado di funzionare 24 ore su 24, 7 giorni su 7, senza supervisione umana. Le organizzazioni devono combattere il fuoco con il fuoco, trasformando l'IA da un rischio a un vantaggio strategico.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa democratizzazione degli strumenti di attacco through modelli generativi riduce drasticamente la barriera all'ingresso per gli aggressori, mentre la frammentazione del ransomware in servizi in abbonamento estende il perimetro delle vittime potenziali.
- Scenario 1: i difensori potrebbero integrare sistemi di analisi comportamentale avanzata per contrastare il malware polimorfico che elude i tradizionali antivirus.
- Scenario 2: la crescita degli attacchi alle applicazioni esposte spingerebbe le organizzazioni a rafforzare il monitoraggio di API e interfacce pubbliche.
- Scenario 3: il training continuo del personale diventerebbe prioritario per riconoscere deepfake e phishing personalizzato generato automaticamente.
Cosa monitorare
⬆ Torna su- Evoluzione delle contromisure contro i generatori di malware evasivo basati su modelli open source.
- Trend delle frodi deepfake e relative perdite finanziarie nei prossimi report di settore.
- Indici di esposizione delle credenziali su piattaforme e servizi collaborativi.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.think.it/perche-le-applicazioni-pubbliche-sono-il-nuovo-obiettivo-principale-degli-attaccanti/
- https://hackerjournal.it/14949/quando-gli-hacker-usano-lia
- https://www.securityopenlab.it/news/5722/ai-2030-limminente-era-dei-crimini-informatici-autonomi.html
- https://www.braincomputing.com/blog/it-innovazioni/intelligenza-artificiale-e-cybersecurity-guida-2025
- https://www.ictsecuritymagazine.com/notizie/intelligenza-artificiale-ai-e-cybersecurity/
- https://www.opswat.com/blog/ai-hacking-how-hackers-use-artificial-intelligence-in-cyberattacks
- https://www.ai4business.it/intelligenza-artificiale/come-evolve-il-panorama-delle-minacce-informatiche-attacchi-piu-sofisticati-ransomware-as-a-service-e-sfide-future/
In breve
- cybersecurity
- ai
- malware
- ransomware