L'intelligenza artificiale nella sicurezza del software: opportunità, rischi e trasformazione del ruolo degli sviluppatori
L'AI sta ridefinendo la sicurezza del software e il lavoro degli sviluppatori: tra audit automatizzati, nuovo debito tecnico e la necessità di competenze di si…
Contenuto

Scopri anche
- Cisco e Sharon AI lanciano la prima AI Factory sovrana in Australia con tecnologia NVIDIA
- OpenAI lancia Codex Security: l'agente AI per la rilevazione delle vulnerabilità software
- L'AI nella sicurezza del software: tra scoperta di vulnerabilità e nuovi rischi
- Windows 11 KB5079473: 79 vulnerabilità corrette e nuove funzionalità nel Patch Tuesday di marzo 2026
- Samsung Galaxy: patch di sicurezza febbraio 2026 e roadmap One UI 8.5
- Anthropic: Claude trova 22 vulnerabilità in Firefox in due settimane
- Anthropic e Mozilla: Claude trova 22 vulnerabilità in Firefox in due settimane
- Claude di Anthropic scopre 22 vulnerabilità in Firefox: la collaborazione con Mozilla
- OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica
- Vulnerabilità zero-day: Google e Apple corrono ai ripari dopo attacchi attivi
- Certificazione NATO per iPhone e le minacce digitali: sicurezza e attacchi
- Apple rilascia aggiornamenti di sicurezza per iPhone e iPad datati: protegge dispositivi fino a un decennio
- Samsung Galaxy: aggiornamenti sicurezza 2026 e rilascio One UI 8 con funzioni AI
- Vulnerabilità software e cybersecurity: come proteggersi dagli attacchi informatici
- Ford richiama oltre 4 milioni di veicoli per vulnerabilità software nel modulo rimorchio
- Ford richiama oltre 4,3 milioni di veicoli per vulnerabilità software nel modulo rimorchio
- Vulnerabilità critiche in Google Gemini: dai bug di Chrome agli attacchi sponsorizzati da stati
- Messaggi effimeri WhatsApp: funzionamento, vulnerabilità tecniche e limitazioni reali
- Ford richiama 4,3 milioni di veicoli per una vulnerabilità software nel modulo rimorchio
- Ford richiama oltre 4 milioni di veicoli per vulnerabilità software nel modulo rimorchi
L'IA nella sicurezza del software: opportunità e rischi per sviluppatori e aziende
- L'AI come revisore di codice e i limiti nella generazione di exploit
- Il debito di sicurezza e l'accelerazione dello sviluppo
- L'illusione del "no-code intelligente" e i rischi strategici
- La programmazione come progettazione di sistemi
- Il rischio della decrescita delle competenze
- Le conseguenze della dipendenza totale dal cloud
- La trasformazione del ruolo degli sviluppatori
- L'AI come moltiplicatore di competenze
- Il problema del "bad software" e la responsabilità
- Il futuro della programmazione
- Implicazioni e scenari
- Cosa monitorare
- Fonti
- L'AI come revisore di codice e i limiti nella generazione di exploit
- Il debito di sicurezza e l'accelerazione dello sviluppo
- L'illusione del "no-code intelligente" e i rischi strategici
- La programmazione come progettazione di sistemi
- Il rischio della decrescita delle competenze
- Le conseguenze della dipendenza totale dal cloud
- La trasformazione del ruolo degli sviluppatori
- L'AI come moltiplicatore di competenze
- Il problema del "bad software" e la responsabilità
- Il futuro della programmazione
- Fonti
La storia della sicurezza informatica è da sempre caratterizzata da un'asimmetria fondamentale: un difensore deve proteggere ogni riga di codice, mentre un attaccante deve trovarne una sola vulnerabile. Negli ultimi mesi, tuttavia, gli algoritmi hanno iniziato a leggere il codice con una capacità di correlazione superiore a quella di qualsiasi team umano, modificando l'equilibrio del settore.
Un esperimento condotto da Anthropic con il modello Claude Opus 4.6 sul codice di Mozilla Firefox rappresenta un caso significativo. Due settimane di audit automatizzato, svolto in collaborazione con il team di sicurezza di Mozilla, hanno permesso di individuare 22 vulnerabilità, di cui 14 classificate come ad alta gravità. Claude ha segnalato la prima vulnerabilità circa venti minuti dopo l'accesso al codice sorgente. Un team umano, in confronto, impiega normalmente giorni per orientarsi in una codebase complessa.
Anthropic ha presentato 112 segnalazioni complessive su circa 6.000 file analizzati. Prima che i revisori umani confermassero la prima vulnerabilità, il modello aveva già accumulato una cinquantina di potenziali problemi di sicurezza. I 14 difetti ad alta gravità individuati da Claude rappresentano circa il 20 percento delle patch di sicurezza più critiche pubblicate da Firefox in un intero anno. Un singolo audit AI di due settimane ha quindi identificato una porzione rilevante dei problemi più seri risolti in dodici mesi.
L'AI come revisore di codice e i limiti nella generazione di exploit
⬆ Torna suL'intelligenza artificiale ha dimostrato una notevole capacità nell'identificare bug, ma molto meno nel trasformarli in exploit funzionanti. Su centinaia di tentativi, Claude è riuscito a generare soltanto due exploit funzionanti, entrambi ottenuti disabilitando la sandbox del sistema. La distinzione è fondamentale nella sicurezza informatica: trovare una vulnerabilità non equivale a sfruttarla. L'analisi statica può individuare pattern pericolosi; la creazione di exploit richiede un lavoro di ingegneria più sofisticato, che coinvolge l'ambiente di esecuzione, la memoria, il comportamento del sistema operativo e altri fattori.
Secondo Anthropic, il modello attuale risulta più efficace nella difesa che nell'attacco. Tuttavia, l'azienda ha riconosciuto che questo divario potrebbe ridursi rapidamente. Quando una capacità diventa algoritmica, tende a migliorare con velocità quasi imbarazzante. Il problema, quindi, non è se l'AI diventerà più efficace nello sviluppo di exploit, ma quando.
Le organizzazioni che utilizzano strumenti AI per l'audit della sicurezza potrebbero ottenere un vantaggio difensivo significativo. Quelle che ignorano questa evoluzione rischiano invece di trovarsi nella posizione peggiore: codice analizzato da aggressori algoritmici ma difeso da processi umani lenti e costosi. Nel mondo della sicurezza informatica, la sicurezza reale è sempre relativa al livello tecnologico dell'attaccante.
Il debito di sicurezza e l'accelerazione dello sviluppo
⬆ Torna suVeracode ha pubblicato il suo rapporto annuale sullo stato della sicurezza del software, analizzando i dati di 1,6 milioni di applicazioni. La scoperta principale: le vulnerabilità si manifestano più rapidamente di quanto possano essere corrette. I ricercatori hanno introdotto il concetto di "debito di sicurezza", ovvero vulnerabilità note che rimangono irrisolte per oltre un anno. L'82% delle aziende presenta ora questo debito, rispetto al 74% dell'anno precedente. La quota di vulnerabilità gravi con un'elevata probabilità di sfruttamento è aumentata dall'8,3% all'11,3%.
Tuttavia, ci sono anche segnali positivi. La quota di applicazioni con vulnerabilità open source è diminuita dal 70% al 62% e la "prevalenza complessiva dei difetti" è scesa dall'80% al 78%. I ricercatori osservano che l'aumento del numero di problemi rilevati è in parte spiegato dal maggiore utilizzo di strumenti di test: gli specialisti stanno individuando più bug che in precedenza semplicemente non rilevavano. Il numero di falsi positivi è sconosciuto, quindi il quadro reale potrebbe non essere così preciso.
Veracode sottolinea un altro fattore: il ritmo delle release sta accelerando, con l'aggiunta di nuovo codice più veloce di quanto le vecchie vulnerabilità vengano corrette. Anche la complessità tecnica sta aumentando, in parte a causa del crescente volume di codice generato dall'intelligenza artificiale, che complica il processo di patching. Gli esperti sottolineano l'importanza della supervisione umana sugli strumenti di intelligenza artificiale, sebbene ciò non sia sempre vero nella pratica.
La sicurezza è spesso relegata in secondo piano o delegata interamente all'intelligenza artificiale, con tutte le limitazioni e le conseguenze che ciò comporta. È stato inoltre osservato che gli strumenti di intelligenza artificiale generano spesso un gran numero di falsi positivi, creando un carico di lavoro eccessivo per i revisori. Secondo il rapporto, la velocità di sviluppo nell'era dell'intelligenza artificiale rende irraggiungibile una sicurezza completa. L'arretrato di patch per le vulnerabilità ha raggiunto proporzioni critiche. I miglioramenti incrementali non sono più sufficienti: sono necessari cambiamenti radicali.
L'illusione del "no-code intelligente" e i rischi strategici
⬆ Torna suL'intelligenza artificiale nello sviluppo software sta creando una narrativa seducente per i livelli manageriali: l'idea che la programmazione possa essere "semplificata" a tal punto da sostituire la scrittura di codice con la scrittura di prompt. Una prospettiva che promette riduzione dei costi, accelerazione delle roadmap, autonomia dei team non tecnici e minore dipendenza da competenze specialistiche. Tuttavia, questa visione è definita profondamente distorsiva e rappresenta una delle maggiori minacce strategiche per le aziende nei prossimi 5-10 anni.
L'idea che circola nell'industria tech è il "prompt engineering" come nuova forma di programmazione. Secondo questa visione, presto non avremo più bisogno di programmatori tradizionali, ma di "orchestratori" capaci di dialogare con l'AI. La logica sarebbe prodotta dall'AI, l'architettura emergerebbe automaticamente, il codice diventerebbe una semplice commodity. Ma questa narrativa confonde la scrittura del codice con l'ingegneria del software. Quando si costruiscono sistemi reali, production-ready, ci si trova di fronte a sfide che nessun prompt può affrontare.
Un sistema software deve comportarsi in modo prevedibile. La complessità ciclomatica, l'idempotenza delle operazioni, la gestione dello stato distribuito non sono dettagli implementativi: sono decisioni architetturali che richiedono una comprensione profonda del problema e delle sue implicazioni. Aspetti come sicurezza, affidabilità, threat modeling, gestione delle eccezioni, contratti tra servizi e typing rigoroso rappresentano meccanismi di difesa contro l'entropia dei sistemi complessi. Questi elementi non possono emergere spontaneamente da una conversazione con un modello linguistico.
Scalabilità, sostenibilità, compliance e osservabilità non sono temi che possono essere banalizzati. Come si scala orizzontalmente un sistema? Come si mantiene nel tempo? Come si modella il dato in modo che resti coerente attraverso anni di evoluzione? Come si gestisce il refactoring senza compromettere funzionalità esistenti? In contesti regolamentati, ogni decisione architetturale deve essere tracciabile, auditabile, giustificabile.
La programmazione come progettazione di sistemi
⬆ Torna suLa programmazione non è mai stata principalmente la scrittura di codice. È progettazione di sistemi, capacità di modellare problemi complessi in strutture gestibili, anticipare casi limite e comportamenti emergenti, bilanciare trade-off tra performance e manutenibilità, pensare in termini di invarianti e garanzie, comprendere le implicazioni di lungo termine nelle scelte architetturali.
L'AI generativa può certamente accelerare la produzione di codice boilerplate, suggerire implementazioni, aiutare con la sintassi. Ma non può sostituire la capacità di pensare il sistema. Ridurre la programmazione a prompt engineering è definito come una semplificazione che sottovaluta la profondità della disciplina, crea false aspettative nei non-tecnici e rischia di produrre sistemi fragili e non manutenibili.
L'AI è probabilistica, i sistemi sono deterministici. I modelli generativi operano nella sfera dell'incertezza; i sistemi software moderni richiedono invece determinismo, prevedibilità, riproducibilità. Un paradosso ingegneristico che solo gli sviluppatori possono risolvere stratificando: validazione, normalizzazione, sandboxing, controlli sintattici e semantici.
L'AI introduce failure modes nuovi e più pericolosi: errori silenziosi, allucinazioni strutturate, output formalmente corretti ma semanticamente errati, derive logiche nel tempo, dipendenza dal training data, deterioramento delle performance con il drift dei modelli, oltre alle vulnerabilità di prompt-injection. Queste failure non sono "bug" tradizionali: sono problemi sistemici che richiedono esperienza di ingegneria del caos, modellazione del rischio, governance del ciclo del modello, infrastructure resiliency.
Il rischio della decrescita delle competenze
⬆ Torna suSe un'azienda sposa la narrativa del "codice scritto dall'AI", vede un vantaggio immediato: riduzione apparente della dipendenza dagli sviluppatori. Nel breve periodo questo può sembrare efficiente; nel lungo periodo è devastante. Gli sviluppatori diventano operatori di AI, non ingegneri. Si ha inevitabilmente un'erosione delle skill: si perdono le capacità di leggere criticamente il codice, identificare bug strutturali, costruire architetture scalabili, ottimizzare performance o garantire la sicurezza del software.
Un aspetto ancora più grave è il lock-in cognitivo: l'azienda diventa progressivamente dipendente da modelli, provider, workflow "opachi", output non riproducibili. Quando la complessità diventa ingestibile, non esistono più skill interne per intervenire. Il debito tecnico generativo, codice generato senza governance, cresce in modo esponenziale: sistemi ingestibili, vulnerabilità non tracciabili, performance degradate, dipendenza totale da consulenti esterni.
Questo fenomeno è già stato osservato con il cloud computing. Negli ultimi dieci anni è emersa una generazione di sistemisti "cloud-nativi" cresciuti esclusivamente con AWS, Azure o Google Cloud. Sanno gestire container, orchestrare Kubernetes, configurare servizi gestiti, scalare automaticamente le risorse. Ma se si chiede loro di installare un server Exchange on-premise, configurare una Active Directory su un server Windows fisico, o gestire una SAN tradizionale, si trovano in difficoltà. Non hanno mai dovuto configurare manualmente protocolli di rete, debuggare problemi di DNS a livello di sistema, gestire storage fisico, comprendere le implicazioni di latenza su hardware reale.
Le conseguenze della dipendenza totale dal cloud
⬆ Torna suTra ottobre e novembre 2025, nell'arco di appena un mese, tre blackout devastanti hanno colpito l'internet globale. Il 20 ottobre 2025, AWS ha registrato oltre 15 ore di disservizio causate da una race condition nel sistema DNS automatizzato di DynamoDB che ha svuotato i record DNS per l'endpoint regionale. Servizi colpiti: Signal, Snapchat, Lyft, Roblox, Fortnite, Alexa, EC2, Lambda. Il 29 ottobre 2025, Microsoft Azure ha subito circa 8 ore di interruzione dovuta a una configurazione errata in Azure Front Door che ha causato il malfunzionamento di numerosi nodi globali. Servizi colpiti: Microsoft 365, Teams, Xbox Live, Minecraft, Azure Portal. Il 18 novembre 2025, Cloudflare ha registrato circa 6 ore di downtime provocato da una modifica ai permessi del database che ha raddoppiato le dimensioni di un file di configurazione critico per il sistema Bot Management. Servizi colpiti: X, ChatGPT, Spotify, Discord, Claude AI, Truth Social.
In tutti e tre i casi, i guasti sono derivati da errori interni nella configurazione e nel software delle infrastrutture core dei provider, non da attacchi esterni. E nessuna di queste organizzazioni aveva sistemi di backup on-premise funzionanti. Quando il cloud è collassato, non c'era piano B. Intere aziende si sono trovate completamente paralizzate, impotenti, in attesa che giganti tecnologici risolvessero problemi su cui non avevano alcun controllo.
La trasformazione del ruolo degli sviluppatori
⬆ Torna suIl Chief Scientist di Google ha dichiarato che almeno il 25% del codice dell'azienda viene oggi generato da sistemi di AI. Un dato che conferma come la trasformazione non sia più confinata a laboratori sperimentali, ma stia già avvenendo nelle aziende tecnologiche di punta che gestiscono miliardi di righe di codice attivo. GitHub Copilot ha conquistato oltre 1,3 milioni di utenti paganti.
L'impatto degli strumenti di AI sulla programmazione va oltre il semplice completamento del codice. Chi ha utilizzato Copilot ne comprende la vera natura solo quando è costretto a tornare alle metodologie tradizionali. Non si tratta semplicemente di digitare meno caratteri, ma di un cambiamento fondamentale nel flusso di lavoro e nel processo creativo. Il processo si trasforma radicalmente: dalla digitazione estesa di decine di caratteri seguita da un invio, a pochi tasti seguiti da un Tab per accettare il suggerimento dell'AI.
Copilot non è quindi solo uno strumento di completamento del codice, ma un vero e proprio predittore di pensiero. Non si limita ad accelerare la scrittura, ma anticipa ciò che lo sviluppatore sta pensando, eliminando il divario tra il concepimento di un'idea e la sua realizzazione concreta. Questa capacità predittiva, inizialmente limitata a suggerimenti riga per riga, si sta rapidamente evolvendo verso livelli di complessità sempre maggiori. Strumenti come Supercomplete stanno ampliando l'orizzonte, anticipando le intenzioni dello sviluppatore attraverso interi file di codice.
L'AI come moltiplicatore di competenze
⬆ Torna suSecondo diversi esperti, l'AI non elimina, ma amplifica la necessità di competenze tecniche. Le aziende che prospereranno saranno quelle che comprenderanno che l'AI deve essere integrata come una parte della pipeline, non come sostituto della pipeline. Gli sviluppatori devono diventare "AI-Augmented Engineers", non prompt writer. La programmazione non svanirà: si evolverà verso livelli più alti di astrazione.
L'AI potenzia gli ingegneri capaci e penalizza i team privi di visione tecnica. L'AI eleva l'asticella: non abbassa la soglia di ingresso, ma alza la soglia di comprensione richiesta. Gli sviluppatori del futuro continueranno a scrivere codice, analizzeranno il codice generato, metteranno guardrail ai modelli, costruiranno architetture e continueranno a fare debugging di pipeline complesse.
L'AI non sta eliminando il ruolo degli sviluppatori. Sta eliminando gli sviluppatori che non capiscono cosa stanno facendo. Sta funzionando come un acceleratore evolutivo professionale. Non elimina il valore della cognizione umana: la moltiplica quando è genuina e la elimina quando simulata. Gli sviluppatori che "googlavano" soluzioni e le incollavano sono sostituibili. Quelli che capiscono architetture, trade-off, contesto di business e sanno usare l'AI come strumento di amplificazione cognitiva sono i nuovi "senior", anche se giovani.
Il problema del "bad software" e la responsabilità
⬆ Torna suIl software difettoso è una presenza trasversale nell'industria. Tra il 1985 e il 1987, un errore del software espose a massicce dosi di radiazioni i pazienti che si sottoposero a radioterapia con il Therac-25. La prima serie della Mercedes Classe A immessa sul mercato nel 1997 non era in grado di superare il test dell'alce e fu necessario intervenire anche sul software che governava il controllo elettronico di stabilità. Ci sono voluti oltre vent'anni perché centinaia di addetti delle poste inglesi fossero scagionati da accuse infamanti causate nel 1999 da un errore del software che gestiva la contabilità.
Siamo abituati al fatto che il software "funzionicchi" da non arrabbiarci più di tanto quando un aggiornamento di sicurezza mal realizzato paralizza mezzo mondo, un'app realizzata in modo superficiale rende inservibile uno smartphone o un aggiornamento del sistema operativo cancella i file memorizzati sul computer. Abbiamo smesso di pretendere che il software funzioni correttamente.
La disinvoltura con la quale si stanno integrando piattaforme di AI all'interno di processi decisionali di vario tipo, inclusi quelli giudiziari, diagnosi mediche e controlli di macchine industriali, fa aumentare la probabilità che si verifichino danni sempre più diffusi e importanti. Se non siamo stati capaci di definire regole semplici per stabilire la responsabilità di chi sviluppa software "stupidi", difficilmente potremo fare lo stesso con quelli "intelligenti".
Il futuro della programmazione
⬆ Torna suSecondo alcuni esperti, l'AI sta distruggendo solo chi non si evolve. Il programmatore medio, quello che copia-incolla codice da Stack Overflow senza capire, quello che segue tutorial senza mai approfondire, quello è già finito. Ma chi sa pensare oltre il semplice "funziona o non funziona" rimane indispensabile.
Il codice è solo una parte dell'equazione. L'AI può generare righe di codice in pochi secondi, ma non può prendere decisioni strategiche, né comprendere a fondo i problemi da risolvere. Il valore di un programmatore non si misura più in righe di codice. Oggi questa mentalità è definita un biglietto di sola andata per l'obsolescenza.
Il programmatore del futuro non è un mero esecutore. È uno stratega, un direttore d'orchestra digitale, un architetto del pensiero computazionale. Le aziende non cercano più chi sa solo scrivere codice. Cercano chi sa pensare oltre il codice, chi sa creare soluzioni invece di limitarsi a implementarle.
La differenza tra chi sopravvive e chi domina è tutta nell'adattarsi prima che sia troppo tardi. Le opportunità sono enormi, ma solo per chi sa coglierle. L'AI non sostituisce gli sviluppatori. Sostituisce quelli che non sanno usarla. Il programmatore del futuro non sarà colui che scrive codice velocemente, ma chi sa orchestrare intelligenze artificiali per moltiplicare la propria efficienza.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'adozione di audit automatizzati potrebbe trasformare il ciclo di sviluppo, rendendo l'individuazione delle vulnerabilità una fase continua piuttosto che un evento periodico. Tuttavia, l'aumento del debito di sicurezza e la complessità crescente delle codebase rischiano di amplificare il divario tra capacità di rilevamento e di correzione.
- Scenario 1: Le organizzazioni che integrano strumenti di audit automatizzato nei pipeline di sviluppo potrebbero ridurre il tempo tra introduzione e individuazione delle vulnerabilità, ma dovranno gestire un volume crescente di segnalazioni e falsi positivi.
- Scenario 2: La riduzione progressiva del divario tra capacità difensive e offensive degli algoritmi potrebbe rendere obsoleti alcuni approcci di sicurezza tradizionali, richiedendo nuove competenze di threat modeling.
- Scenario 3: La delega eccessiva della sicurezza all'automazione, senza adeguata supervisione umana, potrebbe incrementare il debito tecnico e produrre sistemi fragili e non manutenibili.
Cosa monitorare
⬆ Torna su- L'evoluzione del rapporto tra falsi positivi e vulnerabilità effettive negli audit automatizzati.
- La capacità dei team di mantenere il ritmo di patching rispetto alla velocità di rilascio del nuovo codice.
- L'impatto del codice generato automaticamente sulla tracciabilità delle decisioni architetturali e sulla compliance.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.rivista.ai/2026/03/10/quando-lintelligenza-artificiale-diventa-il-revisore-del-codice-il-caso-claude-opus-4-6-e-la-sicurezza-del-software/
- https://www.redhotcyber.com/post/sicurezza-del-software-i-nuovi-bug-emergono-piu-velocemente-di-quanto-riusciamo-a-sanarli/
- https://www.agendadigitale.eu/industry-4-0/codice-creato-dallai-perche-gli-errori-peggiori-sono-quelli-invisibili/
- https://www.ictsecuritymagazine.com/articoli/prompt-engineering/
- https://www.italian.tech/blog/lettere/2025/12/04/news/perche_abbiamo_accettato_che_il_software_possa_fallire_e_perche_non_possiamo_piu_permettercelo-425021777/
- https://www.tomshw.it/hardware/lai-minaccia-gli-sviluppatori-anche-se-molti-negano-2025-04-10
- https://sviluppatoremigliore.com/blog/il-futuro-della-programmazione
L'IA nella sicurezza del software: opportunità e rischi per sviluppatori e aziende
La storia della sicurezza informatica è da sempre caratterizzata da un'asimmetria fondamentale: un difensore deve proteggere ogni riga di codice, mentre un attaccante deve trovarne una sola vulnerabile. Negli ultimi mesi, tuttavia, gli algoritmi hanno iniziato a leggere il codice con una capacità di correlazione superiore a quella di qualsiasi team umano, modificando l'equilibrio del settore.
Un esperimento condotto da Anthropic con il modello Claude Opus 4.6 sul codice di Mozilla Firefox rappresenta un caso significativo. Due settimane di audit automatizzato, svolto in collaborazione con il team di sicurezza di Mozilla, hanno permesso di individuare 22 vulnerabilità, di cui 14 classificate come ad alta gravità. Claude ha segnalato la prima vulnerabilità circa venti minuti dopo l'accesso al codice sorgente. Un team umano, in confronto, impiega normalmente giorni per orientarsi in una codebase complessa.
Anthropic ha presentato 112 segnalazioni complessive su circa 6.000 file analizzati. Prima che i revisori umani confermassero la prima vulnerabilità, il modello aveva già accumulato una cinquantina di potenziali problemi di sicurezza. I 14 difetti ad alta gravità individuati da Claude rappresentano circa il 20 percento delle patch di sicurezza più critiche pubblicate da Firefox in un intero anno. Un singolo audit AI di due settimane ha quindi identificato una porzione rilevante dei problemi più seri risolti in dodici mesi.
L'AI come revisore di codice e i limiti nella generazione di exploit
⬆ Torna suL'intelligenza artificiale ha dimostrato una notevole capacità nell'identificare bug, ma molto meno nel trasformarli in exploit funzionanti. Su centinaia di tentativi, Claude è riuscito a generare soltanto due exploit funzionanti, entrambi ottenuti disabilitando la sandbox del sistema. La distinzione è fondamentale nella sicurezza informatica: trovare una vulnerabilità non equivale a sfruttarla. L'analisi statica può individuare pattern pericolosi; la creazione di exploit richiede un lavoro di ingegneria più sofisticato, che coinvolge l'ambiente di esecuzione, la memoria, il comportamento del sistema operativo e altri fattori.
Secondo Anthropic, il modello attuale risulta più efficace nella difesa che nell'attacco. Tuttavia, l'azienda ha riconosciuto che questo divario potrebbe ridursi rapidamente. Quando una capacità diventa algoritmica, tende a migliorare con velocità quasi imbarazzante. Il problema, quindi, non è se l'AI diventerà più efficace nello sviluppo di exploit, ma quando.
Le organizzazioni che utilizzano strumenti AI per l'audit della sicurezza potrebbero ottenere un vantaggio difensivo significativo. Quelle che ignorano questa evoluzione rischiano invece di trovarsi nella posizione peggiore: codice analizzato da aggressori algoritmici ma difeso da processi umani lenti e costosi. Nel mondo della sicurezza informatica, la sicurezza reale è sempre relativa al livello tecnologico dell'attaccante.
Il debito di sicurezza e l'accelerazione dello sviluppo
⬆ Torna suVeracode ha pubblicato il suo rapporto annuale sullo stato della sicurezza del software, analizzando i dati di 1,6 milioni di applicazioni. La scoperta principale: le vulnerabilità si manifestano più rapidamente di quanto possano essere corrette. I ricercatori hanno introdotto il concetto di "debito di sicurezza", ovvero vulnerabilità note che rimangono irrisolte per oltre un anno. L'82% delle aziende presenta ora questo debito, rispetto al 74% dell'anno precedente. La quota di vulnerabilità gravi con un'elevata probabilità di sfruttamento è aumentata dall'8,3% all'11,3%.
Tuttavia, ci sono anche segnali positivi. La quota di applicazioni con vulnerabilità open source è diminuita dal 70% al 62% e la "prevalenza complessiva dei difetti" è scesa dall'80% al 78%. I ricercatori osservano che l'aumento del numero di problemi rilevati è in parte spiegato dal maggiore utilizzo di strumenti di test: gli specialisti stanno individuando più bug che in precedenza semplicemente non rilevavano. Il numero di falsi positivi è sconosciuto, quindi il quadro reale potrebbe non essere così preciso.
Veracode sottolinea un altro fattore: il ritmo delle release sta accelerando, con l'aggiunta di nuovo codice più veloce di quanto le vecchie vulnerabilità vengano corrette. Anche la complessità tecnica sta aumentando, in parte a causa del crescente volume di codice generato dall'intelligenza artificiale, che complica il processo di patching. Gli esperti sottolineano l'importanza della supervisione umana sugli strumenti di intelligenza artificiale, sebbene ciò non sia sempre vero nella pratica.
La sicurezza è spesso relegata in secondo piano o delegata interamente all'intelligenza artificiale, con tutte le limitazioni e le conseguenze che ciò comporta. È stato inoltre osservato che gli strumenti di intelligenza artificiale generano spesso un gran numero di falsi positivi, creando un carico di lavoro eccessivo per i revisori. Secondo il rapporto, la velocità di sviluppo nell'era dell'intelligenza artificiale rende irraggiungibile una sicurezza completa. L'arretrato di patch per le vulnerabilità ha raggiunto proporzioni critiche. I miglioramenti incrementali non sono più sufficienti: sono necessari cambiamenti radicali.
L'illusione del "no-code intelligente" e i rischi strategici
⬆ Torna suL'intelligenza artificiale nello sviluppo software sta creando una narrativa seducente per i livelli manageriali: l'idea che la programmazione possa essere "semplificata" a tal punto da sostituire la scrittura di codice con la scrittura di prompt. Una prospettiva che promette riduzione dei costi, accelerazione delle roadmap, autonomia dei team non tecnici e minore dipendenza da competenze specialistiche. Tuttavia, questa visione è definita profondamente distorsiva e rappresenta una delle maggiori minacce strategiche per le aziende nei prossimi 5-10 anni.
L'idea che circola nell'industria tech è il "prompt engineering" come nuova forma di programmazione. Secondo questa visione, presto non avremo più bisogno di programmatori tradizionali, ma di "orchestratori" capaci di dialogare con l'AI. La logica sarebbe prodotta dall'AI, l'architettura emergerebbe automaticamente, il codice diventerebbe una semplice commodity. Ma questa narrativa confonde la scrittura del codice con l'ingegneria del software. Quando si costruiscono sistemi reali, production-ready, ci si trova di fronte a sfide che nessun prompt può affrontare.
Un sistema software deve comportarsi in modo prevedibile. La complessità ciclomatica, l'idempotenza delle operazioni, la gestione dello stato distribuito non sono dettagli implementativi: sono decisioni architetturali che richiedono una comprensione profonda del problema e delle sue implicazioni. Aspetti come sicurezza, affidabilità, threat modeling, gestione delle eccezioni, contratti tra servizi e typing rigoroso rappresentano meccanismi di difesa contro l'entropia dei sistemi complessi. Questi elementi non possono emergere spontaneamente da una conversazione con un modello linguistico.
Scalabilità, sostenibilità, compliance e osservabilità non sono temi che possono essere banalizzati. Come si scala orizzontalmente un sistema? Come si mantiene nel tempo? Come si modella il dato in modo che resti coerente attraverso anni di evoluzione? Come si gestisce il refactoring senza compromettere funzionalità esistenti? In contesti regolamentati, ogni decisione architetturale deve essere tracciabile, auditabile, giustificabile.
La programmazione come progettazione di sistemi
⬆ Torna suLa programmazione non è mai stata principalmente la scrittura di codice. È progettazione di sistemi, capacità di modellare problemi complessi in strutture gestibili, anticipare casi limite e comportamenti emergenti, bilanciare trade-off tra performance e manutenibilità, pensare in termini di invarianti e garanzie, comprendere le implicazioni di lungo termine nelle scelte architetturali.
L'AI generativa può certamente accelerare la produzione di codice boilerplate, suggerire implementazioni, aiutare con la sintassi. Ma non può sostituire la capacità di pensare il sistema. Ridurre la programmazione a prompt engineering è definito come una semplificazione che sottovaluta la profondità della disciplina, crea false aspettative nei non-tecnici e rischia di produrre sistemi fragili e non manutenibili.
L'AI è probabilistica, i sistemi sono deterministici. I modelli generativi operano nella sfera dell'incertezza; i sistemi software moderni richiedono invece determinismo, prevedibilità, riproducibilità. Un paradosso ingegneristico che solo gli sviluppatori possono risolvere stratificando: validazione, normalizzazione, sandboxing, controlli sintattici e semantici.
L'AI introduce failure modes nuovi e più pericolosi: errori silenziosi, allucinazioni strutturate, output formalmente corretti ma semanticamente errati, derive logiche nel tempo, dipendenza dal training data, deterioramento delle performance con il drift dei modelli, oltre alle vulnerabilità di prompt-injection. Queste failure non sono "bug" tradizionali: sono problemi sistemici che richiedono esperienza di ingegneria del caos, modellazione del rischio, governance del ciclo del modello, infrastructure resiliency.
Il rischio della decrescita delle competenze
⬆ Torna suSe un'azienda sposa la narrativa del "codice scritto dall'AI", vede un vantaggio immediato: riduzione apparente della dipendenza dagli sviluppatori. Nel breve periodo questo può sembrare efficiente; nel lungo periodo è devastante. Gli sviluppatori diventano operatori di AI, non ingegneri. Si ha inevitabilmente un'erosione delle skill: si perdono le capacità di leggere criticamente il codice, identificare bug strutturali, costruire architetture scalabili, ottimizzare performance o garantire la sicurezza del software.
Un aspetto ancora più grave è il lock-in cognitivo: l'azienda diventa progressivamente dipendente da modelli, provider, workflow "opachi", output non riproducibili. Quando la complessità diventa ingestibile, non esistono più skill interne per intervenire. Il debito tecnico generativo, codice generato senza governance, cresce in modo esponenziale: sistemi ingestibili, vulnerabilità non tracciabili, performance degradate, dipendenza totale da consulenti esterni.
Questo fenomeno è già stato osservato con il cloud computing. Negli ultimi dieci anni è emersa una generazione di sistemisti "cloud-nativi" cresciuti esclusivamente con AWS, Azure o Google Cloud. Sanno gestire container, orchestrare Kubernetes, configurare servizi gestiti, scalare automaticamente le risorse. Ma se si chiede loro di installare un server Exchange on-premise, configurare una Active Directory su un server Windows fisico, o gestire una SAN tradizionale, si trovano in difficoltà. Non hanno mai dovuto configurare manualmente protocolli di rete, debuggare problemi di DNS a livello di sistema, gestire storage fisico, comprendere le implicazioni di latenza su hardware reale.
Le conseguenze della dipendenza totale dal cloud
⬆ Torna suTra ottobre e novembre 2025, nell'arco di appena un mese, tre blackout devastanti hanno colpito l'internet globale. Il 20 ottobre 2025, AWS ha registrato oltre 15 ore di disservizio causate da una race condition nel sistema DNS automatizzato di DynamoDB che ha svuotato i record DNS per l'endpoint regionale. Servizi colpiti: Signal, Snapchat, Lyft, Roblox, Fortnite, Alexa, EC2, Lambda. Il 29 ottobre 2025, Microsoft Azure ha subito circa 8 ore di interruzione dovuta a una configurazione errata in Azure Front Door che ha causato il malfunzionamento di numerosi nodi globali. Servizi colpiti: Microsoft 365, Teams, Xbox Live, Minecraft, Azure Portal. Il 18 novembre 2025, Cloudflare ha registrato circa 6 ore di downtime provocato da una modifica ai permessi del database che ha raddoppiato le dimensioni di un file di configurazione critico per il sistema Bot Management. Servizi colpiti: X, ChatGPT, Spotify, Discord, Claude AI, Truth Social.
In tutti e tre i casi, i guasti sono derivati da errori interni nella configurazione e nel software delle infrastrutture core dei provider, non da attacchi esterni. E nessuna di queste organizzazioni aveva sistemi di backup on-premise funzionanti. Quando il cloud è collassato, non c'era piano B. Intere aziende si sono trovate completamente paralizzate, impotenti, in attesa che giganti tecnologici risolvessero problemi su cui non avevano alcun controllo.
La trasformazione del ruolo degli sviluppatori
⬆ Torna suIl Chief Scientist di Google ha dichiarato che almeno il 25% del codice dell'azienda viene oggi generato da sistemi di AI. Un dato che conferma come la trasformazione non sia più confinata a laboratori sperimentali, ma stia già avvenendo nelle aziende tecnologiche di punta che gestiscono miliardi di righe di codice attivo. GitHub Copilot ha conquistato oltre 1,3 milioni di utenti paganti.
L'impatto degli strumenti di AI sulla programmazione va oltre il semplice completamento del codice. Chi ha utilizzato Copilot ne comprende la vera natura solo quando è costretto a tornare alle metodologie tradizionali. Non si tratta semplicemente di digitare meno caratteri, ma di un cambiamento fondamentale nel flusso di lavoro e nel processo creativo. Il processo si trasforma radicalmente: dalla digitazione estesa di decine di caratteri seguita da un invio, a pochi tasti seguiti da un Tab per accettare il suggerimento dell'AI.
Copilot non è quindi solo uno strumento di completamento del codice, ma un vero e proprio predittore di pensiero. Non si limita ad accelerare la scrittura, ma anticipa ciò che lo sviluppatore sta pensando, eliminando il divario tra il concepimento di un'idea e la sua realizzazione concreta. Questa capacità predittiva, inizialmente limitata a suggerimenti riga per riga, si sta rapidamente evolvendo verso livelli di complessità sempre maggiori. Strumenti come Supercomplete stanno ampliando l'orizzonte, anticipando le intenzioni dello sviluppatore attraverso interi file di codice.
L'AI come moltiplicatore di competenze
⬆ Torna suSecondo diversi esperti, l'AI non elimina, ma amplifica la necessità di competenze tecniche. Le aziende che prospereranno saranno quelle che comprenderanno che l'AI deve essere integrata come una parte della pipeline, non come sostituto della pipeline. Gli sviluppatori devono diventare "AI-Augmented Engineers", non prompt writer. La programmazione non svanirà: si evolverà verso livelli più alti di astrazione.
L'AI potenzia gli ingegneri capaci e penalizza i team privi di visione tecnica. L'AI eleva l'asticella: non abbassa la soglia di ingresso, ma alza la soglia di comprensione richiesta. Gli sviluppatori del futuro continueranno a scrivere codice, analizzeranno il codice generato, metteranno guardrail ai modelli, costruiranno architetture e continueranno a fare debugging di pipeline complesse.
L'AI non sta eliminando il ruolo degli sviluppatori. Sta eliminando gli sviluppatori che non capiscono cosa stanno facendo. Sta funzionando come un acceleratore evolutivo professionale. Non elimina il valore della cognizione umana: la moltiplica quando è genuina e la elimina quando simulata. Gli sviluppatori che "googlavano" soluzioni e le incollavano sono sostituibili. Quelli che capiscono architetture, trade-off, contesto di business e sanno usare l'AI come strumento di amplificazione cognitiva sono i nuovi "senior", anche se giovani.
Il problema del "bad software" e la responsabilità
⬆ Torna suIl software difettoso è una presenza trasversale nell'industria. Tra il 1985 e il 1987, un errore del software espose a massicce dosi di radiazioni i pazienti che si sottoposero a radioterapia con il Therac-25. La prima serie della Mercedes Classe A immessa sul mercato nel 1997 non era in grado di superare il test dell'alce e fu necessario intervenire anche sul software che governava il controllo elettronico di stabilità. Ci sono voluti oltre vent'anni perché centinaia di addetti delle poste inglesi fossero scagionati da accuse infamanti causate nel 1999 da un errore del software che gestiva la contabilità.
Siamo abituati al fatto che il software "funzionicchi" da non arrabbiarci più di tanto quando un aggiornamento di sicurezza mal realizzato paralizza mezzo mondo, un'app realizzata in modo superficiale rende inservibile uno smartphone o un aggiornamento del sistema operativo cancella i file memorizzati sul computer. Abbiamo smesso di pretendere che il software funzioni correttamente.
La disinvoltura con la quale si stanno integrando piattaforme di AI all'interno di processi decisionali di vario tipo, inclusi quelli giudiziari, diagnosi mediche e controlli di macchine industriali, fa aumentare la probabilità che si verifichino danni sempre più diffusi e importanti. Se non siamo stati capaci di definire regole semplici per stabilire la responsabilità di chi sviluppa software "stupidi", difficilmente potremo fare lo stesso con quelli "intelligenti".
Il futuro della programmazione
⬆ Torna suSecondo alcuni esperti, l'AI sta distruggendo solo chi non si evolve. Il programmatore medio, quello che copia-incolla codice da Stack Overflow senza capire, quello che segue tutorial senza mai approfondire, quello è già finito. Ma chi sa pensare oltre il semplice "funziona o non funziona" rimane indispensabile.
Il codice è solo una parte dell'equazione. L'AI può generare righe di codice in pochi secondi, ma non può prendere decisioni strategiche, né comprendere a fondo i problemi da risolvere. Il valore di un programmatore non si misura più in righe di codice. Oggi questa mentalità è definita un biglietto di sola andata per l'obsolescenza.
Il programmatore del futuro non è un mero esecutore. È uno stratega, un direttore d'orchestra digitale, un architetto del pensiero computazionale. Le aziende non cercano più chi sa solo scrivere codice. Cercano chi sa pensare oltre il codice, chi sa creare soluzioni invece di limitarsi a implementarle.
La differenza tra chi sopravvive e chi domina è tutta nell'adattarsi prima che sia troppo tardi. Le opportunità sono enormi, ma solo per chi sa coglierle. L'AI non sostituisce gli sviluppatori. Sostituisce quelli che non sanno usarla. Il programmatore del futuro non sarà colui che scrive codice velocemente, ma chi sa orchestrare intelligenze artificiali per moltiplicare la propria efficienza.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Fonti
⬆ Torna su- https://www.rivista.ai/2026/03/10/quando-lintelligenza-artificiale-diventa-il-revisore-del-codice-il-caso-claude-opus-4-6-e-la-sicurezza-del-software/
- https://www.redhotcyber.com/post/sicurezza-del-software-i-nuovi-bug-emergono-piu-velocemente-di-quanto-riusciamo-a-sanarli/
- https://www.agendadigitale.eu/industry-4-0/codice-creato-dallai-perche-gli-errori-peggiori-sono-quelli-invisibili/
- https://www.ictsecuritymagazine.com/articoli/prompt-engineering/
- https://www.italian.tech/blog/lettere/2025/12/04/news/perche_abbiamo_accettato_che_il_software_possa_fallire_e_perche-non_possiamo_piu_permettercelo-425021777/
- https://www.tomshw.it/hardware/lai-minaccia-gli-sviluppatori-anche-se-molti-negano-2025-04-10
- https://sviluppatoremigliore.com/blog/il-futuro-della-programmazione
In breve
- news
- codice
- sicurezza
- software