Un nuovo studio ha evidenziato un fenomeno inquietante negli algoritmi di sintesi vocale di OpenAI: il modello Whisper ha dimostrato di inventare frasi offensive nel 1,4% delle trascrizioni audio testate.
Questa scoperta solleva preoccupazioni anche sull’affidabilità degli strumenti di trascrizione vocale, specialmente in contesti clinici dove la precisione è fondamentale. Infatti, la lead researcher Allison Koenecke, ha sottolineato che queste invenzioni potrebbero avere gravi conseguenze specialmente se si tratta di informazioni mediche o legali. L’indagine ha rilevato che circa il 40% delle frasi inventate era potenzialmente dannoso o preoccupante, con allusioni a violenza, contenuti sessuali o stereotipi demografici.
È emerso che i modelli di linguaggio generativi possono amplificare questo rischio, il modello GPT 4 Turbo di OpenAI che ha un tasso di allucinazione del 2,5%. OpenAI ha risposto aggiornando il modello per ridurre le allucinazioni.
Leggi l’articolo completo: AI transcription tools ‘hallucinate,’ too su science.org.
Foto di Pawel Czerwinski su Unsplash.