Chatbot sanitari e diagnosi: i rischi dell'affidarsi all'intelligenza artificiale per la salute
Uno studio della Washington State University rivela che i chatbot AI mostrano un'accuratezza superficiale dell'80% ma gravi lacune nel riconoscere informazioni…
Contenuto

Scopri anche
- L'intelligenza artificiale tra opportunità di investimento e sfide etiche: un quadro del settore
- Corea del Sud lancia la "AI Squid Game" per competere con USA e Cina
- OpenAI unifica ChatGPT, Codex e Atlas in una super app desktop: la risposta a Anthropic
- Microsoft annuncia l'Xbox Partner Preview del 26 marzo: Stranger Than Heaven, The Expanse e Stalker 2 tra i protagonisti
- The Light Switch: dal podcast politico della Louisiana alle metafore visive di Better Call Saul
- Evo 2 e longevità: l'IA progetta genomi ma la vita richiede più del 70% di precisione
- Google Traduttore si evolve con Gemini: traduzioni contestualizzate e apprendimento integrato
- NVIDIA GTC 2026: Annunciate Vera Rubin, OpenClaw e la piattaforma per l'IA agentica
- La geometria del rifiuto nei LLM: come controllare il comportamento nello spazio latente
- OpenAI unifica ChatGPT, Codex e Atlas in una super app desktop
- La Casa Bianca e la gamification della guerra: videogiochi usati per promuovere il conflitto con l'Iran
- Bittensor e l'ecosistema delle subnet AI: dinamica di mercato e sviluppi tecnologici
- Intelligenza artificiale: storia, modelli generativi e confronto sull'affidabilità
- Vulnerabilità zero-day in SharePoint e Zimbra: attacchi globali e mitigazione
- Bittensor TAO: L'infrastruttura AI Decentralizzata e le Dinamiche di Mercato del Settore Crypto
- Omogeneizzazione del pensiero e specchio cognitivo: l'IA mette alla prova la mente umana
- LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU
- Honor of Kings International Championship 2025: record di viewership e vittoria malese
- MiniMax M2: architettura MoE, benchmark competitivi e la sfida cinese ai modelli occidentali
- L'intelligenza artificiale nel mercato del lavoro: adozione aziendale, competenze e governance
Chatbot sanitari e diagnosi: i rischi dell'affidarsi all'intelligenza artificiale per la salute
- L'incoerenza dei modelli linguistici
- La nuova generazione di chatbot sanitari negli Stati Uniti
- Il funzionamento e i benefici potenziali
- La questione privacy e la conformità normativa
- I rischi clinici documentati
- Il fenomeno della cybercondria
- I rischi per i dati personali
- Automation bias e de-skilling
- Le opportunità dell'IA in sanità
- Il quadro normativo
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Un recente studio condotto dalla Washington State University ha messo in luce una realtà preoccupante riguardo alle intelligenze artificiali utilizzate in ambito sanitario. Modelli come ChatGPT appaiono estremamente sicuri di sé anche quando forniscono informazioni scientifiche errate. Sebbene i test iniziali mostrino un'accuratezza superficiale di circa l'80%, i ricercatori hanno scoperto che, una volta corretto il dato rispetto alla probabilità di indovinare casualmente, la reale capacità di ragionamento dell'IA crolla drasticamente.
L'incoerenza dei modelli linguistici
⬆ Torna suUno dei risultati più allarmanti della ricerca riguarda la variabilità delle risposte. Sottoponendo la stessa identica domanda scientifica per dieci volte consecutive, l'IA ha spesso fornito risposte contrastanti, alternando "vero" e "falso" senza una logica apparente. Per un utente che interroga il sistema su sintomi o diagnosi, questa incoerenza rappresenta un rischio significativo: la correttezza della risposta dipende dal momento in cui viene posta la domanda.
Lo studio ha evidenziato una specifica debolezza: la difficoltà estrema nel riconoscere le affermazioni false. Mentre il sistema è relativamente efficace nel confermare fatti veri, riesce a identificare correttamente le ipotesi false solo nel 16,4% dei casi. Nel contesto sanitario, dove abbondano fake news e pseudoscienza, l'IA rischia di convalidare miti medici pericolosi invece di smentirli.
Il professor Mesut Cicek, professore associato presso il Dipartimento di Marketing e Commercio Internazionale del Carson College of Business della WSU e autore principale dello studio, sottolinea che l'IA non possiede un "cervello" ma si limita a memorizzare e prevedere sequenze testuali. La sua fluidità di linguaggio maschera una mancanza totale di comprensione dei concetti biologici o clinici.
La nuova generazione di chatbot sanitari negli Stati Uniti
⬆ Torna suNegli ultimi mesi, le principali aziende di intelligenza artificiale al mondo hanno lanciato strumenti dedicati alla salute personale. Microsoft ha presentato Copilot Health il 12 marzo 2026, seguendo OpenAI con ChatGPT Health (gennaio 2026), Amazon con Health AI (marzo 2026) e Anthropic con Claude for Healthcare. Il comune denominatore è l'accesso ai dati medici degli utenti, l'analisi automatizzata e le risposte personalizzate.
Microsoft Copilot Health consente di importare cartelle cliniche da oltre 50.000 ospedali e strutture sanitarie statunitensi tramite la piattaforma HealthEx, di collegare oltre 50 dispositivi wearable (tra cui Apple Watch, Fitbit, Oura Ring) e di interrogare il chatbot su sintomi, risultati di laboratorio e andamenti della salute nel tempo. Il tutto in uno spazio separato e cifrato all'interno di Copilot.
ChatGPT Health offre un ambiente isolato per le conversazioni mediche e, come Copilot Health, non utilizza i dati degli utenti per addestrare i propri modelli. È già HIPAA-compliant, ovvero conforme alla legge federale americana che regola la protezione dei dati sanitari elettronici. Amazon Health AI è anch'esso HIPAA-compliant e connette direttamente ai medici della rete One Medical quando serve un professionista. Claude for Healthcare si definisce "HIPAA-ready", predisponendo gli strumenti legali e tecnici necessari per trattare dati sensibili ma lasciando all'organizzazione cliente la responsabilità finale.
Il funzionamento e i benefici potenziali
⬆ Torna suIl funzionamento di questi strumenti segue uno schema simile. L'utente crea un profilo inserendo dati anagrafici di base e autorizza il sistema ad accedere alle proprie fonti di dati sanitari: cartelle cliniche elettroniche, esami di laboratorio, dati di attività fisica e sonno dai dispositivi indossabili. Una volta configurato, è possibile porre domande in linguaggio naturale e il sistema analizza l'intero storico disponibile fornendo risposte contestualizzate.
Il beneficio principale è l'integrazione. I dati sanitari di una persona sono normalmente dispersi tra il medico di base, lo specialista, il laboratorio di analisi e l'app del fitness tracker. Questi sistemi li raccolgono in un unico luogo e li rendono interrogabili. Il professor Stefano Carugo, direttore della cardiologia del Policlinico di Milano, conferma: «Oggi i dati sono disaggregati e questo, quando facciamo visite, è un problema. Tutto quel che può migliorare questa situazione ben venga».
Secondo report aggiornati al 2026, oltre 40 milioni di utenti americani pongono quotidianamente domande di salute a questi sistemi, mentre a livello globale si superano i 230 milioni di query settimanali su benessere e patologie. In Italia, l'11% dei cittadini ha già provato IA generativa per problemi di salute, farmaci o terapie.
La questione privacy e la conformità normativa
⬆ Torna suQui emerge una prima grande differenza tra le piattaforme. Negli Stati Uniti, la legge federale HIPAA impone requisiti stringenti sulla protezione dei dati sanitari ai fornitori di cure mediche. Le aziende tech, però, non sono legalmente classificate come fornitori di cure e quindi non sono obbligate a rispettare l'HIPAA. ChatGPT Health e Amazon Health AI hanno scelto di adottare volontariamente la compliance HIPAA. Microsoft, al lancio di Copilot Health, non lo ha fatto.
Il vice presidente della divisione AI di Microsoft, Dominic King, ha dichiarato al New York Times che «l'HIPAA non è richiesto per un'esperienza diretta al consumatore quando si usano i propri dati». La conseguenza pratica è che un'azienda tech non soggetta all'HIPAA potrebbe teoricamente fare con i dati cose che un ospedale non potrebbe mai fare, senza incorrere nelle stesse sanzioni.
La centralizzazione è, paradossalmente, il punto di forza e il tallone d'Achille di questi sistemi. Da un lato, avere tutti i dati in un posto rende le analisi più complete. Dall'altro, crea un bersaglio attraente per i criminali informatici. Matthew Green, professore di informatica alla Johns Hopkins University, ha usato un'immagine efficace: è come creare «un vaso d'oro di dati preziosi in un unico posto».
I rischi clinici documentati
⬆ Torna suLa ricerca indipendente dipinge un quadro prudente. Uno studio pubblicato a febbraio 2026 ha analizzato diversi chatbot, inclusi quelli di OpenAI e Meta, concludendo che non sono migliori di una ricerca su Google nel guidare verso diagnosi corrette. In alcuni casi, l'IA ha fornito informazioni errate o ha cambiato drasticamente le proprie raccomandazioni al variare di piccoli dettagli nella domanda.
Un altro studio recente ha evidenziato come ChatGPT Health abbia sottovalutato casi di emergenza e pensieri suicidiari nella metà dei casi in 60 diversi scenari clinici. Un caso della scorsa estate è emblematico: un uomo di 60 anni è stato ricoverato in psichiatria dopo che ChatGPT gli aveva consigliato di ridurre il sodio mangiando bromuro di sodio, una sostanza tossica, causandogli psicosi.
Il professor Carugo esprime preoccupazione: «Quello che mi spaventa davvero è l'auto-prescrizione: il paziente inserisce i propri dati, decide di prendere farmaci, magari venduti online, senza andare da uno specialista. Ci possono essere effetti collaterali, interazioni, patologie sottostanti che l'IA non può valutare come un medico».
Il fenomeno della cybercondria
⬆ Torna suUn sistema che analizza centinaia di parametri e offre una lista di "possibili condizioni da tenere d'occhio" può facilmente trasformare un mal di testa da tensione in un'allerta per ipertensione o un disturbo neurologico. I medici hanno sempre filtrato le informazioni in base al contesto clinico del paziente; un'IA che fornisce dati grezzi senza questo filtro umano può generare ansia e accessi non necessari al pronto soccorso.
La dottoressa Lisa Piercey, ex commissaria alla salute del Tennessee, ha sintetizzato il problema: «Potrebbe dirvi che avete un tumore al cervello. Questo genera una quantità enorme di ansia».
I rischi per i dati personali
⬆ Torna suLe conseguenze della condivisione di dati sanitari con le piattaforme AI possono essere rilevanti. Se un dato sanitario inesatto finisce nella disponibilità di una compagnia assicurativa, questo potrebbe incidere sulla possibilità di stipulare una polizza, sui premi assicurativi o su altri aspetti della vita giuridica della persona.
Le piattaforme di IA generativa dichiarano di tutelare i dati personali e di chiedere il consenso degli utenti, ma l'utente spesso concede quel consenso in modo inconsapevole. Il problema è che l'utente spesso non ha una reale consapevolezza di ciò che accade ai suoi dati.
Automation bias e de-skilling
⬆ Torna suUn fenomeno ben noto è l'automation bias, ovvero la tendenza dell'essere umano a fidarsi eccessivamente delle risposte fornite dalla tecnologia, soprattutto quando questa ha dimostrato nel tempo di essere efficace. Con il tempo e con l'uso ripetuto, anche il professionista può iniziare a prendere per buone le indicazioni dell'algoritmo senza esercitare un adeguato spirito critico.
Il de-skilling si riferisce all'uso continuativo di strumenti automatizzati che può portare a una progressiva riduzione dell'esercizio di alcune capacità. In ambito medico, questo processo è delicato perché l'errore non si traduce in un semplice disagio, ma può avere conseguenze gravi per i pazienti.
Le opportunità dell'IA in sanità
⬆ Torna suNonostante i rischi, l'IA si sta affermando come risorsa preziosa in diversi ambiti. Nella diagnostica per immagini, è in grado di analizzare radiografie, TAC, risonanze magnetiche con una velocità e una precisione che in alcuni casi supera quella dell'occhio umano, individuando in anticipo anomalie potenzialmente gravi come tumori o lesioni vascolari.
Nelle terapie personalizzate, analizzando i dati genetici e clinici di migliaia di pazienti, gli algoritmi possono suggerire trattamenti "su misura", ottimizzando l'efficacia terapeutica e riducendo gli effetti collaterali. Nella ricerca scientifica, l'analisi automatizzata di milioni di pubblicazioni consente di accelerare la scoperta di nuovi farmaci.
Uno studio recente eseguito a Taiwan e coordinato dal National Defense Medical Center di Taipei ha dimostrato come un elettrocardiogramma dotato di tecnologia IA sia stato in grado di identificare, tra pazienti ospedalizzati, quelli a maggior rischio di mortalità. La ricerca ha rilevato che solo il 3,6% dei pazienti nel gruppo di intervento è morto entro 90 giorni, rispetto al 4,3% del gruppo di controllo.
Il quadro normativo
⬆ Torna suIn Italia e nell'Unione Europea, i regolamenti AI Act classificano i tool medici ad alto rischio, richiedendo valutazioni rigorose. Il report ECRI 2026 pone il misuse di AI chatbots al primo posto tra i pericoli tecnologici in sanità. È stata recentemente approvata dal Consiglio dei Ministri la normativa che affronta temi cruciali nell'uso dell'IA, dalla protezione dei dati personali alla sicurezza informatica.
L'OCSE raccomanda l'elaborazione di politiche pubbliche chiare per garantire un utilizzo sicuro, equo ed etico dell'intelligenza artificiale in sanità. Le raccomandazioni per minimizzare i rischi includono: verificare sempre le risposte con fonti ufficiali o professionisti, usare prompt precisi e contestualizzati, confrontare output di più tool e non ignorare sintomi gravi.
Il messaggio degli esperti è netto: i servizi generalisti di intelligenza artificiale non sono medici e non sono stati progettati per interpretare esami o formulare diagnosi. L'intelligenza artificiale in sanità è un alleato, non un medico.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa diffusione di chatbot sanitari solleva interrogativi su come si evolverà il rapporto tra pazienti, tecnologia e professionisti della salute.
- Scenario 1: I regolatori potrebbero imporre vincoli più severi all'accesso ai dati clinici, riducendo il divario normativo tra obblighi degli ospedali e quelli delle aziende tech.
- Scenario 2: L'integrazione tra cartelle cliniche e dispositivi indossabili potrebbe migliorare la personalizzazione delle risposte, ma senza risolvere l'incoerenza documentata nei test ripetuti.
- Scenario 3: L'auto-prescrizione e la cybercondria potrebbero aumentare il ricorso non necessario ai servizi di emergenza, con conseguenze sui costi del sistema sanitario.
Cosa monitorare
⬆ Torna su- L'eventuale estensione della compliance HIPAA a tutti i fornitori di strumenti sanitari digitali.
- La frequenza di segnalazioni cliniche avverse legate a consigli generati automaticamente.
- Gli aggiornamenti sulla capacità dei sistemi di identificare affermazioni false e situazioni di emergenza.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.sanitainformazione.it/chatbot-e-diagnosi-perche-fidarsi-dellai-puo-essere-pericoloso/
- https://www.corriere.it/tecnologia/26_marzo_17/negli-usa-spopolano-i-chatbot-specializzati-sulla-salute-sono-affidabili-i-rischi-reali-e-i-vantaggi-concreti-f4b96364-d02a-480f-b955-39511a914xlk.shtml
- https://trendsanita.it/quando-lalgoritmo-legge-i-tuoi-esami-i-rischi/
- https://www.microbiologiaitalia.it/salute/chatbot-sanitari-rischi/
- https://www.eticasgr.com/storie/approfondimenti/intelligenza-artificiale-rischi-opportunita
- https://www.fatebenefratelli.it/blog/intelligenza-artificiale-e-sanit%C3%A0-opportunit%C3%A0-rischi-e-responsabilit%C3%A0-condivise
- https://www.micuro.it/enciclopedia/sanita/intelligenza-artificiale
In breve
- ai
- llm
- chatgpt
- microsoft