L’IA non è immune alla manipolazione della disinformazione, lo dimostra un audit condotto da NewsGuard. Secondo il rapporto, i principali chatbot di dieci aziende di IA hanno ripetuto le narrazioni create dalla rete di disinformazione russa. Questo fenomeno ha visto i chatbot citare falsi siti di notizie locali creati da entità russe come fonti affidabili.
L’audit ha esaminato 570 prompt utilizzati su dieci chatbot, tra cui ChatGPT-4 di OpenAI e Copilot di Microsoft. È emerso che il 32% delle risposte fornite dai chatbot conteneva disinformazione esplicita. Un ulteriore 5% ha ripetuto le narrazioni false ma con un disclaimer, mentre il restante 63% ha evitato la disinformazione o ha fornito una confutazione.
“Questo audit mette in luce una vulnerabilità significativa nei sistemi AI”, ha commentato un portavoce di NewsGuard. “I chatbot hanno continuato a citare articoli da fonti come “The Houston Post” e “San Fran Chron”, apparentemente ignari del fatto che questi fossero veri e propri strumenti di propaganda russa”.
NewsGuard ha invitato le dieci aziende coinvolte a migliorare i loro controlli e bilanciare la precisione con la velocità di risposta. Al momento della pubblicazione, non tutte le aziende hanno risposto alle richieste di commento di NewsGuard.
Leggi l’articolo completo: Special Report: Top 10 Generative AI Models Mimic Russian Disinformation Claims One Third of the Time, Citing Moscow-Created Fake Local News Sites as Authoritative Sources su newsguardrealitycheck.com.

Foto di Nijwam Swargiary su Unsplash.

