• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Diversi chatbot citano falsi siti di notizie russi come fonti ufficiali

Immagine di persona seduta su una sedia in un edificio abbandonato, mentre legge un giornale in fiamme.

L’IA non è immune alla manipolazione della disinformazione, lo dimostra un audit condotto da NewsGuard. Secondo il rapporto, i principali chatbot di dieci aziende di IA hanno ripetuto le narrazioni create dalla rete di disinformazione russa. Questo fenomeno ha visto i chatbot citare falsi siti di notizie locali creati da entità russe come fonti affidabili.

L’audit ha esaminato 570 prompt utilizzati su dieci chatbot, tra cui ChatGPT-4 di OpenAI e Copilot di Microsoft. È emerso che il 32% delle risposte fornite dai chatbot conteneva disinformazione esplicita. Un ulteriore 5% ha ripetuto le narrazioni false ma con un disclaimer, mentre il restante 63% ha evitato la disinformazione o ha fornito una confutazione.
“Questo audit mette in luce una vulnerabilità significativa nei sistemi AI”, ha commentato un portavoce di NewsGuard. “I chatbot hanno continuato a citare articoli da fonti come “The Houston Post” e “San Fran Chron”, apparentemente ignari del fatto che questi fossero veri e propri strumenti di propaganda russa”.

NewsGuard ha invitato le dieci aziende coinvolte a migliorare i loro controlli e bilanciare la precisione con la velocità di risposta. Al momento della pubblicazione, non tutte le aziende hanno risposto alle richieste di commento di NewsGuard.

Leggi l’articolo completo: Special Report: Top 10 Generative AI Models Mimic Russian Disinformation Claims One Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources su newsguardrealitycheck.com.

Foto di Nijwam Swargiary su Unsplash.

Esplora altri articoli su questi temi