• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Disinformazione e assistenti vocali IA, il test di NewsGuard

illustrazione astratta di un segnale audio che richiama gli assistenti vocali basati su IA

Un audit di NewsGuard ha testato tre assistenti vocali basati su IA (ChatGPT Voice di OpenAI, Gemini Live di Google e Alexa+ di Amazon), sottoponendo i modelli ad affermazioni false su salute, politica USA e disinformazione con tre tipologie di prompt: neutro, suggestivo e malevolo. I risultati hanno rilevato che ChatGPT Voice e Gemini producono affermazioni false nel 22-23% dei casi medi. Il tasso sale al 45-50% quando stimolati da prompt esplicitamente orientati alla disinformazione. Alexa+ di Amazon, invece, ha ottenuto un tasso di errore pari a zero in tutte le condizioni.

Leila Rouhi, Vice President Trust, Privacy & Accessibility di Amazon, ha attribuito il risultato a partnership con fonti giornalistiche verificate (tra cui AP, Reuters, NYT e oltre 200 testate locali statunitensi) e a un sistema di guardrail integrati lungo l’intera esperienza d’uso. OpenAI ha rifiutato di commentare i risultati; Google non ha risposto.

Nessuna delle tre aziende rende pubblici i criteri con cui seleziona i dati di addestramento o implementa i meccanismi di controllo, e non è dunque possibile spiegare le differenze di performance. L’audit dimostra però che la costruzione di modelli audio resistenti alla disinformazione è tecnicamente realizzabile, spostando il problema dal piano della fattibilità a quello delle scelte progettuali.

Leggi l’articolo completo: AI Audio Bots ChatGPT and Gemini Spread Hoaxes, but Alexa+ Declines su NewsGuard

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (24/03/2025).

Esplora altri articoli su questi temi