• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

NewsGuard: chatbot sempre meno affidabili su temi controversi

Scritta "Fake News". Immagine astratta in stile acquarello, tonalità azzurre e blu.

In un nuovo audit pubblicato da NewsGuard, emerge che in media i dieci principali chatbot di intelligenza artificiale diffondono informazioni false nel 35% dei casi quando interrogati su temi controversi di attualità. Il dato, riferito ad agosto 2025, rappresenta quasi il doppio rispetto al 18% registrato l’anno precedente.

L’aumento è attribuito al fatto che i chatbot oggi tendono a rispondere a tutte le domande, diversamente da quanto accadeva in passato. Se nel 2024 i chatbot rifiutavano di rispondere nel 31% dei casi, nel 2025 questa percentuale è scesa a zero. I Large Language Model ora attingono direttamente da ricerche web, dove trovano spesso contenuti manipolati o campagne di disinformazione coordinate, comprese quelle attribuite a operazioni russe.

Per la prima volta, NewsGuard ha reso noti i risultati chatbot per chatbot. Le performance peggiori sono state registrate da Pi di Inflection (56,7%) e Perplexity (46,7%), seguiti da ChatGPT di OpenAI e dal modello di Meta (40%). Copilot di Microsoft e Le Chat di Mistral hanno registrato un tasso del 36,7%. I più affidabili, secondo l’audit, sono stati Claude di Anthropic (10%) e Gemini di Google (16,7%).

Leggi l’articolo completo: Chatbots Spread Falsehoods 35% of the Time su NewsGuard’s Reality Check

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (10/02/2025).

Esplora altri articoli su questi temi