Magazine Intelligenza Artificiale: l’IA è più di quello che appare

Allucinazioni anche nelle trascrizioni audio fatte dall’ AI

Immagine dell'onda del suono.
Immagine dell'onda del suono.

Un nuovo studio ha evidenziato un fenomeno inquietante negli algoritmi di sintesi vocale di OpenAI: il modello Whisper ha dimostrato di inventare frasi offensive nel 1,4% delle trascrizioni audio testate. 

Questa scoperta solleva preoccupazioni anche sull’affidabilità degli strumenti di trascrizione vocale, specialmente in contesti clinici dove la precisione è fondamentale. Infatti, la lead researcher Allison Koenecke, ha sottolineato che queste invenzioni potrebbero avere gravi conseguenze specialmente se si tratta di informazioni mediche o legali. L’indagine ha rilevato che circa il 40% delle frasi inventate era potenzialmente dannoso o preoccupante, con allusioni a violenza, contenuti sessuali o stereotipi demografici. 

È emerso che i modelli di linguaggio generativi possono amplificare questo rischio, il modello GPT 4 Turbo di OpenAI che ha un tasso di allucinazione del 2,5%. OpenAI ha risposto aggiornando il modello per ridurre le allucinazioni.

Leggi l’articolo completo: AI transcription tools ‘hallucinate,’ too su science.org.

Foto di Pawel Czerwinski su Unsplash.

Esplora altri articoli su questi temi