Uno studio pubblicato su Nature Medicine ha condotto la prima valutazione indipendente della sicurezza di ChatGPT Health, la funzione di OpenAI lanciata a gennaio per per offrire consigli sanitari collegando cartelle cliniche e app di benessere.
Il team guidato da Ashwin Ramaswamy intendeva verificare se di fronte a una vera emergenza ChatGPT Health fosse in grado di indirizzare l’utente al pronto soccorso. I ricercatori hanno costruito 60 scenari clinici realistici (da malattie lievi a emergenze acute) ottenendo quasi 1.000 risposte dalla piattaforma, e le hanno confrontate poi con le valutazioni di tre medici indipendenti.
Se nelle emergenze “da manuale” le performance sono state adeguate, in situazioni più ambigue, come crisi asmatiche o chetoacidosi diabetica, l’IA ha fornito indicazioni inappropriate. Ad esempio, nel 51,6% dei casi che richiedevano accesso immediato al pronto soccorso, il sistema ha sottovalutato l’urgenza, suggerendo di restare a casa o fissare una visita ordinaria. Un risultato che Alex Ruani, ricercatore che lavora sulla disinformazione relativa alla salute presso University College London, ha definito “incredibilmente pericoloso”.
I ricercatori parlano di rischio concreto di danni e decessi evitabili. Preoccupano in particolare la falsa sicurezza e il senso di rassicurazione che questi sistemi possono generare nell’utente. Tenendo conto del fatto che che secondo OpenAI oltre 40 milioni di persone ogni giorno consultano ChatGPT per questioni riguardanti la salute, la posta in gioco è altissima.
Leggi l’articolo completo: ‘Unbelievably dangerous’: experts sound alarm after ChatGPT Health fails to recognise medical emergencies su The Guardian
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (07/05/2025).

