Chatbot AI e salute: potenzialità e limiti negli ambiti medico e psicologico

Analisi delle applicazioni dei chatbot basati su intelligenza artificiale in campo sanitario e della salute mentale, tra accuratezza informativa, rischi e manc…

Contenuto

Chatbot AI e salute: potenzialità e limiti negli ambiti medico e psicologico

Scopri anche

Chatbot AI e salute: potenzialità e limiti negli ambiti medico e psicologico

Chatbot AI e salute: potenzialità e limiti negli ambiti medico e psicologico

In questo articolo:

Gli assistenti virtuali basati sulle IA stanno trasformando l’accesso alle informazioni mediche, offrendo in pochi secondi spiegazioni dettagliate e apparentemente accurate su sintomi, diagnosi e persino terapie. Secondo le stime riportate dalla Commissione europea, oltre il 70% delle persone tra i 16 e i 74 anni in Europa ricerca informazioni sanitarie online almeno una volta l’anno, con una quota crescente che utilizza chatbot per ottenere risposte rapide. Strumenti come ChatGPT si sono guadagnati un notevole seguito grazie alla loro capacità di conversare in linguaggio naturale, adattando concetti scientifici a diversi livelli di comprensione. Tuttavia, questa indiscutibile comodità andrebbe bilanciata con la consapevolezza dei limiti intrinseci di questi strumenti.

Performance e accuratezza nelle informazioni mediche

⬆ Torna su

Alla base di sistemi come ChatGPT c’è un addestramento delle macchine su grandi raccolte di testi, scientifici e divulgativi. Un articolo scientifico pubblicato sulla rivista Nature Scientific Reports nel febbraio del 2024 ha paragonato le risposte date da ChatGPT rispetto a quelle di esperti sul tumore del colon-retto. ChatGPT ha mostrato un’accuratezza elevata nelle risposte date, ma una completezza limitata. Ha raggiunto risultati eccellenti in ambiti come la radioterapia, la terapia interventistica, la cura dello stoma, la gestione venosa e il controllo del dolore, mentre ha performato meno bene su chirurgia, medicina interna e informazioni generali di base. Un’indagine italiana su Dermatology Reports nel 2025 ha valutato l’uso di ChatGPT-4 in un corso di formazione medica sull’acne, confermando esiti simili con alta qualità e leggibilità, ma accuratezza (75,7%) e aggiornamento delle fonti (62,3%) con margini di miglioramento.

I limiti fondamentali: personalizzazione e allucinazioni

⬆ Torna su

Un problema fondamentale è la mancanza di personalizzazione: i chatbot non accedono a dati clinici individuali, quindi possono solo formulare indicazioni generiche. C’è anche il rischio delle cosiddette allucinazioni, ossia informazioni inventate da questi sistemi e non segnalate come fittizie, ma spesso plausibili. Un articolo pubblicato sulla rivista Annals of Internal Medicine ad agosto 2025 racconta il caso clinico di un’intossicazione da bromuro sviluppata da un paziente che si era affidato ai consigli alimentari di ChatGPT. Inoltre, tali macchine non conoscono la storia clinica individuale, non provano empatia, e non sostituiscono il giudizio medico.

Chatbot AI e salute mentale: accessibilità e rischi

⬆ Torna su

Nell’ambito della salute mentale, i chatbot AI come Woebot, Replika e Wysa stanno acquisendo una notevole popolarità come strumenti di supporto. La loro accessibilità 24 ore su 24 e il senso di anonimato possono aiutare chi si sente giudicato o teme lo stigma. Tuttavia, secondo numerosi psicologi e psichiatri, i chatbot non sono in grado di gestire situazioni di emergenza o crisi complesse, come pensieri suicidi o gravi forme di depressione. Il rischio più grande è che l’utente possa affidarsi esclusivamente a queste IA, rinunciando a un sostegno professionale necessario. Un chatbot non può sostituire la sensibilità, la valutazione clinica e l’attenzione di un terapeuta qualificato.

Il fenomeno del pensiero delirante

⬆ Torna su

L’utilizzo sempre più frequente di chatbot AI sta portando alla luce un fenomeno preoccupante: l’instaurarsi di “relazioni” che possono innescare o rafforzare episodi di pensiero delirante negli utenti. Secondo una ricerca del King’s College di Londra, i temi comuni includono la convinzione di aver scoperto una nuova verità sulla natura della realtà, la convinzione che l’IA sia un’entità cosciente, senziente o divina, e lo sviluppo di un legame emotivo. A differenza di tecnologie del passato, l’intelligenza artificiale è un agente conversazionale in grado di simulare empatia e di validare le credenze dell’utente, arrivando a sostenere i deliri. Parlare con chatbot sviluppati per convalidare qualsiasi affermazione potrebbe portare a un finto senso di benessere con ripercussioni sulla salute mentale.

Il contesto sociale e le preoccupazioni etiche

⬆ Torna su

Oltre ai limiti tecnici, un aspetto da considerare è che questi strumenti appartengono a società private il cui fine è il profitto per gli azionisti, e non il bene comune o la salute individuale e pubblica. Le risposte offerte ai quesiti, seppure fluide e convincenti, talvolta possono essere influenzate da interessi economici o societari non dichiarati. Inoltre, formulare domande vaghe, usare termini ambigui o interpretare letteralmente ogni risposta può portare a decisioni sbagliate, come ritardare una visita urgente. Senza un’adeguata educazione digitale e sanitaria, il rischio è che questi strumenti, anziché informare, alimentino confusione o comportamenti dannosi.

Conclusioni: un supporto, non un sostituto

⬆ Torna su

La documentazione indica che i chatbot possono rappresentare un primo filtro informativo in contesti dove le risorse sanitarie sono limitate, aiutando a individuare i casi che necessitano di attenzione immediata. In oncologia, per esempio, potrebbero aiutare a chiarire concetti o a preparare domande per lo specialista. Nell’ambito della salute mentale, possono offrire tecniche di rilassamento o schede di auto-aiuto. Tuttavia, la supervisione umana resta imprescindibile per la definizione di piani di cura individuali e la gestione di crisi complesse. Gli esperti consigliano di vedere i chatbot AI come uno strumento di supporto temporaneo, mai sostitutivo della terapia professionale.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • salutementale
  • intelligenzaartificiale
  • limiti
  • rischi

Link utili

Apri l'articolo su DeafNews