• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Il “volto empatico” dei chatbot medici. Tra fiducia e trasparenza

IA medica

Commento agli esiti di una survey pubblicata sul JAMA Network Open

Questa intervista è stata realizzata da Il Punto e pubblicata il 3 giugno. La riproponiamo qui su MagIA con il consenso della testata, perché affronta temi centrali per il nostro lavoro editoriale.

_________

In un contesto sanitario sempre più digitale, i chatbot medici si affacciano sulla scena come nuovi interlocutori. Possiamo attribuire loro un volto empatico? E possono davvero comprendere le emozioni dei pazienti? Una recente analisi pubblicata su JAMA Network Open, co-firmata da Vardit Ravitsky, presidente dell’Hastings Center, ha coinvolto 2500 pazienti volontari che partecipano regolarmente a survey promosse dal Duke University Health System. Lo studio esplora la percezione dei pazienti rispetto ai messaggi redatti dall’intelligenza artificiale in ambito clinico. Dai dati emerge che, sebbene la maggior parte dei partecipanti manifesti una leggera preferenza per i messaggi scritti dall’intelligenza artificiale, la soddisfazione cala sensibilmente quando scoprono che non sono stati scritti da un essere umano. Una reazione che apre a un dilemma etico cruciale: i pazienti hanno il diritto di sapere chi ha scritto il messaggio? Gli autori sottolineano inoltre una seconda questione: quante e quali informazioni è opportuno fornire? Se da un lato la trasparenza è fondamentale per garantire un consenso realmente informato, dall’altro un eccesso di dettagli tecnici rischia di ostacolare la comprensione e, quindi, la cura. Ne parliamo con Guido Boella, professore ordinario all’Università di Torino, di cui è Vicerettore per l’AI. Co-coordina Magazine Intelligenza artificiale MagIA.

I pazienti apprezzano i messaggi dell’AI per chiarezza e tono empatico, ma si fidano di più se credono che a scriverli sia il medico. Come si spiega questa contraddizione?

Dallo studio emerge un dato sorprendente: gli utenti percepiscono come più empatiche e migliori le risposte fornite da un chatbot rispetto a quelle di un essere umano. Questo colpisce. Meno sorprendente, invece, è il fatto che, una volta rivelata l’identità artificiale dell’autore della risposta, i pazienti si dichiarino meno soddisfatti: è qualcosa che capita spesso anche in altri ambiti. Per esempio, nel mondo dell’informazione, se leggiamo un articolo ben scritto e poi scopriamo che non è del New York Times, ma di un blog o di un social media, la nostra valutazione cambia, anche a parità di contenuto. Lo stesso meccanismo può valere per l’AI: la scarsa conoscenza che circola sulle potenzialità dei large language model rende plausibile che, anche di fronte a una risposta efficace, la soddisfazione cali nel momento in cui si scopre che è stata generata da un’intelligenza artificiale. Mi colpisce anche la scelta di focalizzarsi sulla “soddisfazione del paziente”: che cosa si intende esattamente? E perché dovrebbe essere centrale? E perché il paziente dovrebbe essere più o meno soddisfatto? Non sarebbe più importante concentrarsi su cosa viene comunicato e sull’impatto dell’informazione?

Una comunicazione automatizzata può davvero definirsi empatica? Anche se ben formulata, può compromettere la relazione di fiducia con il medico?

I modelli linguistici continuano a migliorare, e per questo sempre più persone preferiscono le risposte fornite da un’AI. Dello studio del JAMA Network Open colpisce che venga valutato positivamente non solo il contenuto informativo ma anche il tono empatico. È una sorta di grande simulazione: questi sistemi non hanno una teoria della mente, non “provano” empatia ma, dato un certo input, restituiscono — su base statistica — la parola più probabile. Eppure, grazie ai dataset enormi su cui sono addestrati, riescono a risultare non solo accurati, ma anche reattivi, accoglienti, empatici.

C’è però un altro aspetto da considerare. Quando parliamo dell’empatia del medico, spesso ci riferiamo a un’idea ideale, molto lontana dalla realtà concreta. Il lavoro del medico è stressante, il tempo dedicato al paziente è poco, le pressioni burocratiche sono tante. Sono esseri umani, e come tali possono avere una giornata storta. Al primo anno di Medicina, oggi già offrono un corso sulla relazione con il paziente — segno che oggi si dà più attenzione a questi aspetti, mentre in passato venivano spesso trascurati. Ci sono generazioni di medici cresciuti con meno sensibilità relazionale, e anche il famoso medico condotto non esiste più. Oggi, la mia interazione con il medico di base avviene per il 99 per cento dei casi via WhatsApp. Per una prescrizione o per fissare una visita, un chatbot potrebbe essere del tutto sufficiente. Non a caso, è in corso una gara nazionale di Agenas per sviluppare chatbot “segretariali” proprio per questo tipo di interazioni. Questo potrebbe liberare tempo per relazioni più significative — a patto, ovviamente, che il medico abbia gli strumenti e il desiderio di coltivarle.

Ci troviamo quindi tra due poli: da un lato, macchine che funzionano sempre meglio — a volte in modo misterioso — e che riescono persino a simulare empatia; dall’altro, un’idea quasi mitica dell’empatia umana, spesso disattesa nella pratica.

Questo discorso vale anche per altri ambiti, come l’educazione. Si insiste molto sul rapporto umano tra docente e studente, ma poi ci si trova con classi da trenta persone, in cui quel rapporto non riesce a svilupparsi se non in casi eccezionali.

Il paziente si fida di più del medico che usa l’AI o di quello che non la usa? Si fida di più della macchina o dell’umano? È un intero universo da esplorare.

Vista la minore soddisfazione dei pazienti quando scoprono che a rispondere è stata una macchina, sarebbe giusto omettere questa informazione? O la trasparenza resta un principio etico irrinunciabile?

Il punto è che, se l’AI produce risultati migliori, si apre inevitabilmente il tema della trasparenza: come garantire che l’utente sappia se sta interagendo con un essere umano o con una macchina? Anche gli autori della survey affrontano questa questione: quanto deve sapere il paziente, o più in generale il cittadino? È necessario esplicitare sempre l’uso dell’AI? È giusto che venga segnalato se una risposta è generata da un chatbot? Oppure sarebbe meglio evitare di dirlo, se questo contribuisce ad aumentare la soddisfazione del paziente? Questa seconda ipotesi, che gli autori lasciano in parte intuire, a me pare discutibile. Sarebbe come trattare il paziente come un bambino: non gli dici la verità per non turbarlo. E comunque l’art. 52 dell’AI Act della EU prescrive obblighi di trasparenza nei confronti degli utenti di sistemi AI.

Un altro aspetto forse sottovalutato dallo studio è il ruolo del medico che usa l’AI. Nell’immaginario collettivo, il chatbot viene spesso percepito come un oracolo, quando in realtà le applicazioni più promettenti riguardano l’esplorazione di ipotesi, il confronto di dati, la ricerca di eccezioni. C’è una differenza sostanziale tra il medico che delega passivamente alla macchina e quello che utilizza l’AI per approfondire, riflettere, verificare. Penso, ad esempio, al mio vecchio medico di base: ogni volta che prescriveva un farmaco, consultava l’informatore farmaceutico cartaceo che teneva sulla scrivania, per controllare con precisione la posologia. Alla fine, non è così diverso.

Discorsi analoghi si fanno anche in campo militare. Penso all’inchiesta sull’uso dell’AI nella guerra a Gaza per identificare obiettivi. Il problema non è tanto la tecnologia in sé, ma il modo in cui viene integrata nel sistema. Prima ogni possibile bersaglio veniva esaminato con attenzione da esseri umani prima di ordinare un attacco; ora, secondo +972 Magazine, a un bersaglio identificato dall’AI vengono dedicati solo pochi minuti. Lo stesso vale per la medicina: un medico sotto organico, oberato, può scegliere la scorciatoia non per pigrizia, ma perché il sistema non gli dà alternative.

Quindi, più che chiedersi se l’AI funziona o meno, dovremmo chiederci come viene usata. Quando il paziente chiede al medico: “Lei cosa ne pensa della diagnosi fatta dall’AI?”, il medico si può trovare in difficoltà. È tutto ancora un terreno da esplorare. Anche il problema della responsabilità resta aperto. Come ho scritto sul Magazine Intelligenza Artificiale, l’AI sta dando ottimi risultati in molti ambiti — anche nella medicina — pur rimanendo delle “scatole nere”. Non sanno spiegare perché fanno certe previsioni, ma funzionano, perché riescono a cogliere la complessità di sistemi caotici — dal meteo al corpo umano alla nostra cognizione — meglio dei modelli analitici tradizionali.

Probabilmente ci troveremo davanti a sistemi che daranno diagnosi migliori, ma che non potranno spiegare il loro ragionamento. E paradossalmente, è per questo che sono così efficaci. Lo studio su JAMA, però, sembra concentrarsi più sull’AI come strumento di informazione che come supporto decisionale — che è un ambito ancora più delicato.

Ci chiederemo: il paziente si fida di più del medico che usa l’AI o di quello che non la usa? Si fida di più della macchina o dell’umano? È un intero universo da esplorare.

L’intelligenza artificiale non è solo una questione tecnologica. È anche (e forse soprattutto) una questione economica, politica, sociale.

Con il tempo i pazienti si abitueranno ai chatbot medici e in generale l’AI entrerà sempre più nella nostra vita sociale. Quali fattori influenzeranno questa transizione? E come possiamo guidarla fin da ora?

Siamo chiaramente in una fase di transizione. Quando arrivò il primo personal computer, nessuno immaginava dove saremmo arrivati oggi. L’innovazione inizia sempre con incertezza, poi gli strumenti diventano parte della quotidianità. Siamo in quel momento, e dobbiamo chiederci quali fattori guideranno questa transizione. L’intelligenza artificiale non è solo una questione tecnologica. È anche (e forse soprattutto) una questione economica, politica, sociale. La stessa tecnologia, in contesti diversi, porta a risultati completamente diversi. Se i medici non sono formati, se lavorano sotto pressione, se rischiano di essere sostituiti per risparmiare, l’introduzione dell’AI cambia radicalmente volto. Anche il tema della responsabilità legale si fa più complesso: cosa accadrebbe se le compagnie assicurative scegliessero di coprire solo le risposte che avrebbe dato un’AI, escludendo quelle del medico? È un’altra rivoluzione, già in atto.

Il punto è che non è la tecnologia in sé a determinare il nostro futuro, ma piuttosto l’uso che ne facciamo. Come ci ricorda l’economista Daron Acemoglu, l’AI — per com’è progettata oggi — tende a sostituire le persone più che ad affiancarle. Ma si potrebbero costruire sistemi realmente collaborativi, se solo la ricerca non fosse nelle mani quasi esclusive di grandi aziende. È dunque il contesto economico e politico a determinare la direzione e a fare la differenza. Sul fronte della trasparenza, è probabile che si arrivi a richiedere tracciabilità delle interazioni tra medico e AI, anche per ragioni prettamente legali e assicurative. Alcuni strumenti già certificano e registrano ciò che accade in una televisita: potremmo arrivare a fare lo stesso anche con le visite in presenza. Come con le bodycam dei poliziotti.

Insomma, il cambiamento è in corso. Ma spetta a noi far sentire la nostra voce e guidarlo. Altrimenti, rischiamo di trovarci in un mondo che non ci somiglia affatto.

Immagini generate tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi