• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Whisper di OpenAI: il pericolo delle allucinazioni nelle trascrizioni mediche

un medico e un paziente

Uno studio ha rivelato che Whisper, lo strumento di trascrizione basato sull’IA di OpenAI, è soggetto a significativi errori di trascrizione, producendo le cosiddette “allucinazioni” (anche se sarebbe più corretto chiamarle “confabulazioni”, ma questa è un’altra storia) che, oltre ad includere informazioni errate, possono persino proporre commenti razzisti o violenti. 

Nonostante OpenAI sconsigli l’uso di Whisper in contesti ad alto rischio, diversi ospedali e centri medici lo adottano comunque per trascrivere le consultazioni, aumentando così il rischio di diagnosi errate. Sono diversi i ricercatori che hanno riscontrato allucinazioni in una vasta gamma di trascrizioni, con studi che mostrano una presenza definita “preoccupante” di tali errori, anche con trascrizioni di registrazioni audio di alta qualità.

Inoltre, emergono anche preoccupazioni riguardo alla privacy degli incontri medici, alimentando ulteriormente il dibattito sull’uso dell’IA nella sanità.

Leggi l’articolo completo: Researchers say an AI-powered transcription tool used in hospitals invents things no one ever said su apnews.com.

Immagine generata tramite DALL-E 3.

Esplora altri articoli su questi temi