Un audit di NewsGuard ha testato tre assistenti vocali basati su IA (ChatGPT Voice di OpenAI, Gemini Live di Google e Alexa+ di Amazon), sottoponendo i modelli ad affermazioni false su salute, politica USA e disinformazione con tre tipologie di prompt: neutro, suggestivo e malevolo. I risultati hanno rilevato che ChatGPT Voice e Gemini producono affermazioni false nel 22-23% dei casi medi. Il tasso sale al 45-50% quando stimolati da prompt esplicitamente orientati alla disinformazione. Alexa+ di Amazon, invece, ha ottenuto un tasso di errore pari a zero in tutte le condizioni.
Leila Rouhi, Vice President Trust, Privacy & Accessibility di Amazon, ha attribuito il risultato a partnership con fonti giornalistiche verificate (tra cui AP, Reuters, NYT e oltre 200 testate locali statunitensi) e a un sistema di guardrail integrati lungo l’intera esperienza d’uso. OpenAI ha rifiutato di commentare i risultati; Google non ha risposto.
Nessuna delle tre aziende rende pubblici i criteri con cui seleziona i dati di addestramento o implementa i meccanismi di controllo, e non è dunque possibile spiegare le differenze di performance. L’audit dimostra però che la costruzione di modelli audio resistenti alla disinformazione è tecnicamente realizzabile, spostando il problema dal piano della fattibilità a quello delle scelte progettuali.
Leggi l’articolo completo: AI Audio Bots ChatGPT and Gemini Spread Hoaxes, but Alexa+ Declines su NewsGuard
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (24/03/2025).

