Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica

Il disegno di legge italiano e l'AI Act europeo definiscono principi e vincoli per l'adozione dell'IA nella PA, ponendo il controllo umano al centro del proces…

Contenuto

Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica

Scopri anche

Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica

Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica

In questo articolo:

L'introduzione dell'intelligenza artificiale nella Pubblica Amministrazione italiana sta modificando i processi decisionali e operativi, sollevando questioni giuridiche e organizzative che coinvolgono responsabilità, trasparenza e tutela dei diritti dei cittadini. Il dibattito si concentra sulla necessità di bilanciare l'efficienza tecnologica con il mantenimento del controllo umano sulle decisioni amministrative, come previsto dal quadro normativo europeo e nazionale in fase di definizione.

Il quadro normativo italiano: il principio antropocentrico

⬆ Torna su

Il disegno di legge italiano in materia di intelligenza artificiale, recentemente approvato e prossimo alla pubblicazione, introduce regole per governare l'impiego delle tecnologie di IA anche nella Pubblica Amministrazione. L'obiettivo dichiarato è duplice: favorire l'innovazione e garantire che l'utilizzo delle nuove tecnologie avvenga in coerenza con i principi costituzionali e i diritti fondamentali riconosciuti a livello europeo.

L'articolo 14 del disegno di legge stabilisce che i sistemi di intelligenza artificiale possono essere utilizzati esclusivamente come strumenti di supporto all'azione amministrativa. La responsabilità e l'imputabilità della decisione restano interamente in capo al funzionario o all'organo competente. Questo approccio non è nuovo nell'ordinamento italiano: l'articolo 30 del d.lgs. 36/2023 (Codice dei contratti pubblici) ha già riconosciuto la possibilità di utilizzare sistemi automatizzati e strumenti di IA nelle procedure di gara, ma nel rispetto del principio di non esclusività della decisione algoritmica. La decisione finale deve sempre prevedere un apporto umano, capace di controllare, validare o smentire l'esito derivante dall'elaborazione algoritmica.

La ratio comune di queste disposizioni è chiara: l'intelligenza artificiale non deve mai sostituirsi al titolare del potere amministrativo, pena la violazione dei principi di legalità e imparzialità. Il modello antropocentrico di utilizzo dell'IA è l'unico effettivamente ammissibile e coerente con le norme costituzionali in materia di Pubblica Amministrazione ed esercizio del potere amministrativo.

Le misure tecniche, organizzative e formative

⬆ Torna su

L'articolo 14 del disegno di legge impone alle pubbliche amministrazioni di adottare misure tecniche e organizzative, oltre che formative, finalizzate a garantire un utilizzo responsabile dell'intelligenza artificiale e a sviluppare le capacità trasversali degli utilizzatori. Si tratta di una previsione che amplia il concetto di "governance algoritmica": non basta dotarsi di strumenti di sicurezza tecnologica, occorre anche strutturare processi organizzativi e percorsi di formazione che consentano al personale pubblico di comprendere e gestire l'IA con consapevolezza.

Il legislatore chiede alle PA di adottare un approccio basato sul rischio e sulla compliance, coerente con il modello europeo su cui si fonda l'AI Act, che classifica i sistemi di IA sulla base del rischio che essi comportano per i diritti fondamentali e impone obblighi proporzionati alla tipologia e alla gravità del rischio individuato. Lo stesso approccio è quello della Direttiva (UE) 2022/2555 e del d.lgs. n. 138/24 (NIS 2) in materia di sicurezza informatica, che richiede anche agli enti pubblici di implementare misure di gestione del rischio cyber proporzionate alla dimensione, alla natura delle attività e all'impatto potenziale delle minacce.

L'AI Act e la classificazione dei rischi

⬆ Torna su

L'AI Act europeo intende stabilire obblighi per fornitori e utenti per mitigare i rischi legati all'utilizzo dell'Intelligenza artificiale. I rischi sono classificati in quattro livelli: rischio inaccettabile (divieto), rischio elevato, rischio limitato e rischio minimo. I sistemi di intelligenza artificiale a rischio inaccettabile sono considerati una minaccia per le persone e quindi vietati: comprendono i sistemi di scoring sociale, le manipolazioni cognitive subliminali e i sistemi di identificazione biometrica remota in tempo reale per finalità di law enforcement in spazi pubblicamente accessibili. Possono essere ammesse alcune eccezioni: i sistemi di identificazione biometrica "ex-post", in cui l'identificazione avviene dopo un ritardo significativo, sono consentiti per perseguire reati gravi, ma solo dopo l'approvazione delle autorità giudiziarie.

I sistemi di IA ad alto rischio sono quelli che possono avere conseguenze negative sulla sicurezza o sui diritti fondamentali dell'uomo. La proposta di regolamento individua due categorie: i prodotti di sicurezza coperti dalla legislazione europea di armonizzazione e i sistemi in ambito biometrico. I sistemi di IA a rischio limitato dovrebbero soddisfare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. In generale, gli utenti devono essere informati quando interagiscono con l'IA, compresi i sistemi che generano o manipolano contenuti di immagini, audio o video.

La questione della responsabilità e della trasparenza

⬆ Torna su

La responsabilità e l'imputabilità delle decisioni amministrative basate su sistemi di intelligenza artificiale pongono interrogativi sostanziali. L'uso di algoritmi a supporto delle decisioni pubbliche è un fenomeno relativamente recente che si sta diffondendo nella prassi delle amministrazioni ai vari livelli di governo. Se applicata ai processi organizzativi e decisionali, l'IA potrebbe risolvere problemi strutturali di efficienza ed efficacia delle procedure amministrative: dalla riduzione dei tempi e costi di istruttoria procedimentale al miglioramento delle performance e all'ottimizzazione della gestione delle risorse umane.

Tuttavia, i casi più significativi mostrano cosa accade quando l'umano esce dal processo. Un chatbot istituzionale che fornisce indicazioni errate a cittadini e imprese non è solo un prodotto mal progettato: è un problema di responsabilità amministrativa. Quando l'errore riguarda diritti o prestazioni, l'impatto diventa sociale: sistemi che valutano condizioni di povertà con parametri incompleti possono escludere indebitamente persone fragili da programmi di sostegno. L'algoritmo non sbaglia per negligenza, ma perché è stato costruito per leggere solo ciò che è misurabile, non ciò che è contestuale.

Il problema della "black box" e il deep learning

⬆ Torna su

I sistemi di intelligenza artificiale più sofisticati usano reti neurali profonde che possono auto-apprendere, anche senza la supervisione umana. Il Deep Learning ha consentito l'implementazione di algoritmi che risolvono problemi che il Machine Learning e altre tecniche tradizionali non consentivano di affrontare con margini di errore accettabili. Tuttavia, ciò avviene al prezzo di una considerevole perdita in termini di trasparenza, controllo e tracciabilità. Le reti neurali profonde non permettono una piena "interpretabilità" (explainability) del processo decisionale attraverso il quale i sistemi arrivano a una decisione specifica.

Si pone la questione della "AI black box": il procedimento amministrativo, tramite i suoi principi, tutela il cittadino dall'Autorità. Tale tutela diventa a rischio di fronte alla mancata trasparenza e conoscibilità delle AI black box. Il problema di una decisione al buio pone anche un problema di assenza di un controllo antropocentrico e quindi della legittimazione democratico-elettiva della decisione pubblica. L'articolo 22 del GDPR ha fissato una regola di tutela secondo la quale l'interessato al trattamento dei dati ha diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.

Casi internazionali e rischi di discriminazione

⬆ Torna su

L'automazione delle pubbliche amministrazioni alle varie latitudini segnala casi di successo ed evidenti insuccessi, spesso dovuti a una errata costruzione del modello o a una scelta sbagliata dei dati. In Inghilterra, l'algoritmo utilizzato per assegnare agli studenti i voti finali della maturità ha prodotto risultati inferiori ai voti espressi dagli insegnanti nel 40% dei casi. L'algoritmo adottato da Ofqual ha tenuto in considerazione fattori come i voti di ingresso all'inizio del percorso scolastico e il ranking degli istituti, determinando una penalizzazione per coloro che, pur avendo un alto profito, provenivano da contesti disagiati e scuole meno qualificate.

Nei dipartimenti di polizia degli Stati Uniti e nel Regno Unito, la tecnologia di riconoscimento facciale viene utilizzata per identificare potenziali sospetti, e l'analisi di big data per la definizione di trend dei comportamenti criminali (pre-crime). Giudici e tribunali iniziano a fare affidamento sull'apprendimento automatico per guidare decisioni in merito a condanne, cauzioni o libertà condizionale. La non accuratezza di alcune metodologie predittive ha più volte prodotto decisioni discriminatorie, ad esempio di natura geografica o legate a un pregiudizio razziale. Quando i sistemi di apprendimento automatico sono addestrati su set di dati distorti, incorporano nei loro modelli le disuguaglianze sociali presenti alla base dei dati.

Il paradosso dell'innovazione tecnologica nella PA

⬆ Torna su

Nel dibattito sulla trasformazione digitale della pubblica amministrazione, l'intelligenza artificiale è diventata una sorta di parola magica, presentata come soluzione capace di rendere lo Stato più efficiente, ridurre tempi e costi, migliorare la qualità dei servizi. Tuttavia, dietro l'entusiasmo crescente, si nasconde il rischio di trasformare l'IA in un'etichetta di modernità che non affronta i problemi strutturali della burocrazia ma li maschera, alimentando illusioni più che cambiamenti reali. In molte amministrazioni, l'IA viene presentata come un rimedio universale: in realtà, senza una strategia coerente, rischia di diventare un contenitore vuoto.

Le innovazioni nella PA sono spesso introdotte per pressione politica o comunicativa, più che per reale maturità organizzativa. L'IA diventa una risposta "di immagine" a problemi che sono invece di sistema: processi ridondanti, carenza di competenze, governance frammentata, scarsa accountability. In assenza di infrastrutture solide e di personale formato, l'intelligenza artificiale non può che restare un esercizio di stile, un "nuovo vestito digitale" cucito su un corpo amministrativo che non ha ancora imparato a muoversi in modo agile e coordinato.

Le Linee guida AGID e la necessità di semplificazione

⬆ Torna su

Il contenuto dell'articolo 14 del disegno di legge trova riscontro nelle bozze di Linee guida per l'adozione dell'IA nella PA messe a consultazione pubblica da AGID nel febbraio 2025. Esse insistono su accountability, controllo umano, valutazioni d'impatto, formazione e gestione dei dati. Tuttavia, la versione originaria delle linee guida imponeva alle amministrazioni numerosi adempimenti e la produzione di un ampio apparato documentale, rischiando di trasformarsi in un ostacolo burocratico all'adozione effettiva dell'IA.

In prospettiva, sarebbe auspicabile che tali linee guida venissero semplificate, in coerenza con l'approccio del disegno di legge: regole chiare, ma proporzionate e sostenibili, così da rendere davvero praticabile l'introduzione dei sistemi di IA nella PA. La sfida sarà trovare un equilibrio tra garanzie normative e flessibilità operativa. Una regolazione eccessivamente onerosa rischierebbe di scoraggiare l'innovazione e di vanificare le potenzialità dell'IA nella PA.

I progetti concreti: INAIL, INPS e ISTAT

⬆ Torna su

L'INAIL ha avviato un percorso di adozione di tecnologie di IA attraverso un modello di Open Innovation per gestire le innovazioni e i cambiamenti anche dal punto di vista legislativo. L'introduzione dell'AI Act comporterà adeguamenti normativi per l'INAIL sia come fornitore che come utente di soluzioni IA. È prevista l'integrazione di un framework di governance dell'IA all'esistente quadro di governance del dato. I progetti in corso includono sistemi analitico-predittivi per la gestione del bilancio tecnico attuariale, sistemi cognitivi per l'analisi dei dati afferenti agli infortuni mortali, chatbot per gestire le richieste degli utenti, e sistemi per la prevenzione delle frodi nelle richieste di indennizzo.

L'INPS ha maturato una significativa esperienza in materia di intelligenza artificiale e IA generativa per potenziare i servizi offerti all'utenza. L'ISTAT utilizza tecniche di IA attraverso l'uso delle ontologie per modellare i dati, abilitando il "ragionamento automatico" (reasoner) per il controllo della qualità dei dati. Sta esplorando l'uso di algoritmi di AI generativa per produrre ontologie partendo da una descrizione in linguaggio naturale del contesto semantico che si vuole modellare, con applicazioni nella gestione dei dati delle pubbliche amministrazioni attraverso le tecniche del semantic web.

La formazione come elemento strategico

⬆ Torna su

Un'indagine FPA su "Intelligenza artificiale e PA: l'l'opinione dei dipendenti pubblici", presentata al FORUM PA 2025, ha raccolto le risposte di 1.042 persone, delle quali l'83% dipendenti pubblici. Il 47,1% ritiene che l'IA migliori la produttività quotidiana, mentre solo il 13% ne teme l'utilizzo per il rischio di obsolescenza della propria professione. Nonostante l'IA sia largamente valutata come un pratico aiuto, il 26,5% richiede percorsi di formazione più specializzati, mettendo in luce il divario tra potenzialità tecnologiche e offerta formativa. Per garantire un'adozione responsabile, è essenziale allineare i programmi di aggiornamento alle esigenze dei diversi profili professionali.

Il percorso verso il data management

⬆ Torna su

L'IA è la base per una transizione verso il data management perché il supporto al processo decisionale grazie alla capacità elaborativa di grandi moli di dati e all'attività predittiva determina un processo di monitoraggio sistematico e selezione delle politiche sulla base dei fatti, conducendo al data-driven decision making. I dati rappresentano l'elemento centrale per la realizzazione di applicazioni basate su metodi di apprendimento automatico. Per ottenere strumenti che rispondano alle esigenze e la cui introduzione sia sicura e affidabile sia sotto il profilo tecnico che sociale, i dati che alimentano il sistema di AI devono soddisfare requisiti di qualità.

L'adozione efficace e conforme alla normativa di strumenti di Intelligenza Artificiale nella Pubblica Amministrazione richiede un'attenta navigazione nel panorama legislativo corrente e una previsione strategica delle evoluzioni future. La PA deve garantire che i sistemi di IA adottati siano affidabili, controllati da apposite procedure di gestione del rischio, privi di implicazioni etiche e sociali negative. Tenuto conto delle incertezze e della rapida evoluzione del contesto, nel breve periodo occorre partire da una fase di acquisizione sistematica di conoscenze, seguita negli anni successivi da un approccio operativo.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'approccio antropocentrico previsto dalla normativa italiana e dall'AI Act europeo impone una trasformazione culturale nelle pubbliche amministrazioni, dove la formazione del personale diventa elemento abilitante quanto le misure tecniche.

  • Scenario 1: le PA potrebbero investire prioritariamente sulla governance algoritmica e sui percorsi formativi, ritardando l'adozione operativa ma riducendo rischi di errori nella fase iniziale.
  • Scenario 2: la tensione tra efficienza procedurale e obblighi di trasparenza potrebbe rallentare l'impiego di sistemi basati su deep learning, la cui "black box" risulta difficilmente compatibile con i principi di tracciabilità e explainability.
  • Scenario 3: la classificazione per livelli di rischio potrebbe determinare un differenziamento tra amministrazioni centrali e locali, con capacità disuguali nell'implementare misure di compliance proporzionate.

Cosa monitorare

⬆ Torna su
  • L'effettiva traduzione pratica del principio di non esclusività della decisione algoritmica nei bandi e nelle procedure amministrative.
  • Le sanzioni o i contenziosi derivanti da errori di sistemi automatizzati, come già emerso in casi internazionali.
  • Il grado di interoperabilità tra il disegno di legge italiano e le prescrizioni dell'AI Act europeo.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • intelligenzaartificiale
  • data
  • machinelearning
  • enterprise

Link utili

Apri l'articolo su DeafNews