In un nuovo audit pubblicato da NewsGuard, emerge che in media i dieci principali chatbot di intelligenza artificiale diffondono informazioni false nel 35% dei casi quando interrogati su temi controversi di attualità. Il dato, riferito ad agosto 2025, rappresenta quasi il doppio rispetto al 18% registrato l’anno precedente.
L’aumento è attribuito al fatto che i chatbot oggi tendono a rispondere a tutte le domande, diversamente da quanto accadeva in passato. Se nel 2024 i chatbot rifiutavano di rispondere nel 31% dei casi, nel 2025 questa percentuale è scesa a zero. I Large Language Model ora attingono direttamente da ricerche web, dove trovano spesso contenuti manipolati o campagne di disinformazione coordinate, comprese quelle attribuite a operazioni russe.
Per la prima volta, NewsGuard ha reso noti i risultati chatbot per chatbot. Le performance peggiori sono state registrate da Pi di Inflection (56,7%) e Perplexity (46,7%), seguiti da ChatGPT di OpenAI e dal modello di Meta (40%). Copilot di Microsoft e Le Chat di Mistral hanno registrato un tasso del 36,7%. I più affidabili, secondo l’audit, sono stati Claude di Anthropic (10%) e Gemini di Google (16,7%).
Leggi l’articolo completo: Chatbots Spread Falsehoods 35% of the Time su NewsGuard’s Reality Check
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (10/02/2025).

