L'intelligenza artificiale nella sanità: tra opportunità cliniche e rischi algoretici
L'impiego di LLM e sistemi AI in ambito sanitario solleva questioni di responsabilità, appropriatezza clinica e sicurezza del paziente. Analisi delle strategie…
Contenuto

Scopri anche
- Valve conferma Steam Machine, Steam Frame e Steam Controller per il 2026 nonostante la crisi dei componenti
- Da ChatGPT agli agenti autonomi: la transizione professionale nell'era dell'intelligenza artificiale
- L'IA come arma a doppio taglio: l'evoluzione delle minacce cyber e le nuove strategie difensive
- ChatGPT Atlas e Google Chrome ultimi in classifica privacy: lo studio che cambia le carte
- Stack Overflow e l'impatto dell'AI: declino delle domande e trasformazione strategica
- Pixel Drop marzo 2026: tutte le novità per smartphone, tablet e smartwatch Google
- L'AI smaschera gli anonimi: uno studio dimostra che gli LLM identificano il 68% degli utenti
- I modelli linguistici di grandi dimensioni: architettura, funzionamento e limitazioni
- ChatGPT e il panorama degli assistenti AI: modelli, alternative e strategie a confronto
- Apple integra l'intelligenza artificiale nell'App Store: tagging automatico e modelli on-device per trasformare la scoperta delle app
- OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono
- L'intelligenza artificiale può replicare la personalità umana con due ore di conversazione
- I Large Language Models: architettura, funzionamento e implicazioni
- Project Helix: Xbox conferma la console di nuova generazione ibrida con supporto PC
- Tecniche di addestramento e ottimizzazione degli LLM: dati, distillazione e quantizzazione
- Nuova leadership Xbox: Asha Sharma e il futuro della console
- LLM e memoria persistente: come Google e OpenAI stanno risolvendo il problema del contesto
- Duke Energy: monitoraggio interruzioni corrente e strategie di gestione
- Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica
- Intelligenza artificiale 2026: anno della verità tra crisi di monetizzazione, sfide etiche e strategie divergenti
L'intelligenza artificiale nella sanità: tra opportunità cliniche e rischi algoretici
- La natura non deterministica dei modelli linguistici
- Il fenomeno delle allucinazioni
- Il caso del sessantenne di Washington
- Il problema della sycophancy
- Strategie di mitigazione del rischio
- Architetture multi-agente
- Il ruolo insostituibile del medico
- Appropriatezza clinica e IA
- Medicina predittiva e di precisione
- Il contributo nel diagnostica per immagini
- Il vuoto normativo
- La questione della responsabilità
- Il problema dei bias nei dati
- Health literacy e alfabetizzazione digitale
- Le raccomandazioni dell'OMS
- Il contesto italiano
- Cure basate sul valore
- Implicazioni e scenari
- Cosa monitorare
- Fonti
L'ingresso dell'intelligenza artificiale generativa nella pratica clinica ha segnato il passaggio da strumenti informatici confinati e prevedibili a sistemi aperti definiti "software clinico non deterministico e non confinato" (Undcs) in uno studio pubblicato su npj Digital Medicine. Questa evoluzione tecnologica solleva sfide etiche e algoretiche che mettono in discussione i pilastri della sicurezza del paziente e della responsabilità medica. Secondo Statista, il mercato dell'IA in sanità, valutato 11 miliardi di dollari nel 2021, è proiettato a raggiungere 187 miliardi di dollari nel 2030, indicando trasformazioni considerevoli nel funzionamento di ospedali, aziende farmaceutiche e biotecnologiche.
La natura non deterministica dei modelli linguistici
⬆ Torna suLa prima sfida identificata risiede nella natura intrinsecamente non deterministica dei grandi modelli linguistici (LLM). A differenza degli algoritmi tradizionali definiti "software clinico deterministico" (Dcs), dove a un medesimo input corrisponde sempre lo stesso output, gli LLM possono generare risposte diverse per la stessa domanda. Questa variabilità viene introdotta intenzionalmente attraverso parametri come la "temperatura" per rendere il linguaggio più naturale, o può derivare da imprecisioni nei calcoli in virgola mobile. Walter Quattrociocchi, professore ordinario di Data Science all'Università Sapienza di Roma, osserva che servizi come ChatGPT generano risposte prevedendo la parola più plausibile senza verificare direttamente la veridicità di quanto riportato, producendo contenuti convincenti ma non necessariamente accurati.
Il fenomeno delle allucinazioni
⬆ Torna suDal punto di vista algoretico, emerge il problema delle "allucinazioni", ovvero errori semantici in cui il modello produce informazioni false ma apparentemente credibili. Queste non sono semplici malfunzionamenti, ma conseguenze dirette dell'ingegneria dei modelli che operano una compressione massiccia dei dati di addestramento in una rappresentazione approssimativa. Quando un LLM fornisce raccomandazioni cliniche inappropriate in situazioni ad alto rischio, il danno potenziale per l'utente finale è gravissimo. Una ricerca pubblicata sull'European Journal of Pathology ha mostrato come questi strumenti possano commettere errori diagnostici anche gravi, come la confusione tra diverse patologie oncologiche o l'impiego di riferimenti scientifici inesatti o inesistenti.
Il caso del sessantenne di Washington
⬆ Torna suUn caso paradigmatico riportato su Annals of Internal Medicine riguarda un sessantenne di Washington che, nel tentativo di sostituire il sale da cucina con un'alternativa "più salutare", ha consultato ChatGPT e ha assunto bromuro di sodio seguendo il consiglio del programma. La scelta gli è costata un ricovero in psichiatria a causa di una rarissima intossicazione. In Italia, episodi analoghi avvengono con crescente frequenza: il farmacista Giacomo Pisano riferisce di pazienti che richiedono farmaci senza ricetta con argomentazioni perfette e un lessico quasi da manuale, suggerendo che dietro ogni richiesta non ci sia una persona, ma un'intelligenza artificiale.
Il problema della sycophancy
⬆ Torna suUn fenomeno documentato in letteratura è la "sycophancy": l'IA adatta le risposte alle aspettative dell'utente, creando un'illusione di conoscenza. Se una persona ipocondriaca è convinta di avere un tumore e guida ChatGPT verso quella diagnosi, il modello finirà probabilmente per assecondarla. Questo fenomeno, definito "epistemia" in analogia alla più celebre infodemia, crea un corto circuito tra credibilità percepita e affidabilità reale. Il rischio è che un contenuto falso, agli occhi di un inesperto, possa apparire plausibile.
Strategie di mitigazione del rischio
⬆ Torna suLo studio su npj Digital Medicine identifica diverse strategie per l'allineamento dei sistemi Undcs. Il "red teaming" consiste nello stress-test attraverso la simulazione di attacchi avversari, come il jailbreaking o l'iniezione di prompt, per esporre le debolezze del software prima dell'uso clinico. L'implementazione di "guardrail" prevede algoritmi progettati per filtrare input e output inappropriati, applicando moderatori specifici per il settore sanitario. La generazione aumentata dal recupero (RAG - Retrieval-Augmented Generation) riduce i rischi integrando informazioni provenienti da database esterni affidabili, ancorando le risposte a fonti validate.
Architetture multi-agente
⬆ Torna suUn ulteriore approccio prevede la moderazione "agente-agente" attraverso architetture a sistemi multi-agente (Mas), dove più sistemi di intelligenza artificiale si monitorano a vicenda per verificare l'accuratezza dei risultati, utilizzando controlli incrociati e modelli neuro-simbolici che ragionano in modo deterministico a partire da linee guida validate. Tuttavia, queste strategie presentano limiti: la RAG può faticare con compiti eccessivamente ampi e i guardrail possono essere aggirati da prompt ingegnosi.
Il ruolo insostituibile del medico
⬆ Torna suSecondo Centro Aktis, l'intelligenza artificiale non è in grado di valutare il contesto umano, clinico ed emotivo che accompagna ogni diagnosi, né possiede giudizio clinico o una conoscenza completa della storia del paziente. I principali sviluppatori concordano sul fatto che tali strumenti non possano e non debbano sostituire il medico. La competenza, l'esperienza e la formazione continua del professionista sanitario restano il fulcro di ogni percorso di cura sicuro ed efficace. L'IA può analizzare grandi quantità di dati, individuare tracciati ricorrenti, semplificare la documentazione clinica e organizzare le informazioni sanitarie, ma la responsabilità decisionale rimane umana.
Appropriatezza clinica e IA
⬆ Torna suL'IA ha la capacità di analizzare grandi quantità di dati medici - record elettronici dei pazienti, dati di imaging, risultati di test di laboratorio e studi scientifici - per identificare modelli e tendenze che aiutano i medici nelle decisioni diagnostiche e terapeutiche. Secondo ASIQUAS, l'appropriatezza clinica considera le esigenze e le caratteristiche individuali del paziente, garantendo che i trattamenti siano pertinenti e portino benefici alla situazione clinica specifica. L'integrazione dell'IA richiede che le raccomandazioni vengano sempre valutate dai clinici considerando il contesto specifico del paziente.
Medicina predittiva e di precisione
⬆ Torna suLa medicina predittiva utilizza informazioni genetiche, biomarcatori e dati personali per prevedere il rischio individuale di sviluppare patologie come malattie cardiache, cancro e diabete. L'IA può sviluppare modelli predittivi per determinare quali trattamenti sono più efficaci per determinati pazienti in base alle loro caratteristiche individuali. Presso l'Università delle Hawaii, un team di ricerca ha rilevato che la tecnologia deep learning può migliorare la previsione del rischio di cancro al seno, addestrando algoritmi su milioni di immagini radiologiche.
Il contributo nel diagnostica per immagini
⬆ Torna suL'IA analizza radiografie, TAC, risonanze magnetiche e altre immagini mediche con velocità e precisione che, in alcuni casi, supera quella dell'occhio umano. Uno studio pubblicato ha rilevato che l'IA ha riconosciuto il cancro della pelle meglio dei medici esperti: ricercatori statunitensi, tedeschi e francesi hanno utilizzato il deep learning su oltre 100.000 immagini, confrontando i risultati con quelli di 58 dermatologi internazionali. Un gruppo MIT ha sviluppato un algoritmo di machine learning per determinare quando è necessario l'intervento di un esperto umano, rilevando che un modello ibrido uomo-IA produce i migliori risultati nell'identificazione di cardiomegalia in radiografie toraciche.
Il vuoto normativo
⬆ Torna suLe attuali regolamentazioni sono orientate alle "etichette" e all'uso previsto dichiarato dal produttore. Tuttavia, i modelli attuali vengono sviluppati da fornitori tecnologici che controllano l'intera catena di approvvigionamento e distribuiti direttamente al consumatore con disclaimer generici che raramente scoraggiano l'uso clinico reale. In Italia, non esistono riferimenti normativi che disciplinino espressamente la materia. In ambito europeo, oltre all'AI Act, esiste solo una proposta di Direttiva in attesa di sviluppo.
La questione della responsabilità
⬆ Torna suSe un sistema di IA commette un errore e il paziente subisce un danno, la responsabilità va analizzata in base alle circostanze specifiche. Il produttore del software, la struttura sanitaria, il personale di manutenzione e il medico possono tutti avere un ruolo, ma la mancanza di trasparenza dell'IA rende difficile attribuire le colpe. I processi basati su deep learning e reti neurali operano spesso come una "scatola nera": le modalità con cui l'IA giunge a una conclusione restano oscure anche agli esperti, rendendo difficile comprendere i passaggi logici che portano a una diagnosi o a un suggerimento terapeutico.
Il problema dei bias nei dati
⬆ Torna suI bias nei dataset di addestramento possono amplificare disuguaglianze sociali e culturali. A marzo, la rivista The Atlantic ha rivelato che uno degli LLM più usati è stato alimentato con pubblicazioni piratate di migliaia di scienziati ignari, many delle quali ormai obsolete. Quando vengono condivisi con un LLM dati sanitari sensibili, permane l'interrogativo sulla futura accessibilità di queste informazioni a terze parti, inclusi potenziali datori di lavoro.
Health literacy e alfabetizzazione digitale
⬆ Torna suLa "health literacy" indica la capacità di una persona di ottenere, comprendere e utilizzare le informazioni relative alla salute per prendere decisioni informate. L'alfabetizzazione digitale aiuta i pazienti a valutare criticamente le informazioni sulla salute trovate online e a utilizzare applicazioni mobili, dispositivi di monitoraggio e piattaforme di telemedicina. Promuovere la health literacy è aspetto fondamentale per garantire l'appropriatezza clinica e favorire risultati di salute positivi attraverso strategie educative e comunicazione aperta tra medici e pazienti.
Le raccomandazioni dell'OMS
⬆ Torna suL'Organizzazione Mondiale della Sanità ha trascorso 18 mesi deliberando con esperti di etica, tecnologia digitale, diritto e diritti umani per produrre il rapporto "Ethics & Governance of Artificial Intelligence for Health", che identifica sfide etiche, rischi e sei principi di consenso per garantire che l'IA operi per il bene pubblico. Laura Craft, VP Analyst di Gartner, sottolinea che la governance dell'IA è necessaria, specialmente per le applicazioni cliniche, ma mancano regole comuni per gli imprenditori che progettano i propri pilot.
Il contesto italiano
⬆ Torna suSecondo i dati di Fondazione Gimbe, in Italia mancano oltre 5.500 medici di famiglia, un numero destinato a crescere. La sanità privata dilaga e non tutti hanno accesso alle cure. È in questo vuoto che ChatGPT e simili trovano terreno fertile: ora fornendo un aiuto, ora dando indicazioni errate. Microsoft ha dichiarato di aver predisposto un'IA a uso medico in grado di competere coi migliori luminari, con investimenti miliardari in continua crescita.
Cure basate sul valore
⬆ Torna suLe cure basate sul valore (VBHC - Value Based Healthcare) considerano il rapporto tra risultati ottenuti e costi sostenuti, ponendo enfasi sull'efficienza e sull'ottimizzazione delle risorse. Questo approccio richiede l'integrazione delle conoscenze sull'appropriatezza delle cure con un approccio sistemico basato sull'evidenza. Il VBHC è applicabile anche ai sistemi universalistici europei, con casi avanzati nel Nord Europa e sperimentazioni diffuse in tutto il Continente, inclusi Paesi come il Portogallo.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'assenza di un quadro normativo specifico in Italia e la crescita esponenziale del mercato lasciano presagire una fase di transizione in cui la pratica clinica potrebbe anticipare le tutele legali. La diffusione di sistemi non deterministici in contesti sanitari solleva interrogativi sulla distribuzione della responsabilità tra produttori, strutture ospedaliere e professionisti.
- Scenario 1: L'adozione di architetture ibride uomo-macchina, con guardrail e RAG, potrebbe consolidarsi come standard temporaneo in attesa di regolamenti più stringenti.
- Scenario 2: Episodi analoghi al caso di Washington potrebbero moltiplicarsi, spingendo verso una regolamentazione più rapida o limitazioni d'uso specifiche.
- Scenario 3: La diagnostica per immagini potrebbe emergere come ambito di applicazione più controllato, dati i risultati documentati in letteratura scientifica.
Cosa monitorare
⬆ Torna su- L'evoluzione della proposta di Direttiva europea e dell'AI Act nel definire responsabilità e obblighi per i fornitori tecnologici.
- La frequenza di segnalazioni legate a errori diagnostici o prescrizioni inappropriate originate da sistemi generativi.
- Il tasso di adozione delle strategie di mitigazione (red teaming, RAG, architetture multi-agente) nelle strutture sanitarie.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.avvenire.it/rubriche/humanity-20/medici-che-usano-lia-soluzione-o-problema_105396
- https://www.centroaktis.it/2026/01/27/intelligenza-artificiale-in-sanita-un-valido-supporto-ma-il-medico-resta-una-figura-insostituibile/
- https://www.quotidianosanita.it/studi-e-analisi/articolo.php?articolo_id=121317
- https://www.ibm.com/think/insights/ai-healthcare-benefits
- https://www.corriere.it/salute/ehealth/25_settembre_13/ia-e-sanita-cosa-succede-se-al-posto-di-chiedere-al-medico-si-consulta-l-intelligenza-artificiale-i-rischi-dei-contenuti-falsi-c210d095-1119-41cf-bfcc-46a793affxlk.shtml
- https://www.fatebenefratelli.it/blog/intelligenza-artificiale-e-sanit%C3%A0-opportunit%C3%A0-rischi-e-responsabilit%C3%A0-condivise
- https://www.chiarini.com/intelligenza-artificiale-sanita/
In breve
- ai
- llm
- chatgpt
- data