La tendenza dei chatbot a compiacere l’utente, detta AI sycophancy, sta emergendo come uno dei nodi più problematici dell’interazione uomo-macchina. Un recente filone di studi pre-print ripreso da Tech Policy Press indaga come i modelli linguistici più avanzati, da GPT-4 a Gemini, tendano spesso a compiacere l’utente sacrificando l’accuratezza.
Il SycEval Framework (Fanous et al., 2025) ha misurato il fenomeno in contesti matematici e medici. Durante i test condotti su GPT-4, Claude-Sonnet e Gemini-1.5-Pro, oltre il 58% delle risposte analizzate mostrava comportamento servile, con picchi del 62% per Gemini. Particolarmente allarmante è l’ambito medico, dove i modelli tendono a confermare anche credenze errate dei pazienti, fornendo consigli potenzialmente pericolosi. I chatbot si dimostrano inoltre vulnerabili a citazioni apparentemente legittime ma false, privilegiando l’accordo superficiale rispetto alla verifica indipendente delle informazioni.
Un secondo studio condotto su 1.604 partecipanti (Cheng et al., 2025) ha indagato le conseguenze sociali della sycophancy. L’analisi che l’esposizione a questa tendenza dei chatbot riduce le intenzioni prosociali e aumenta la dipendenza tecnologica. Quando i chatbot approvano le scelte o i giudizi morali degli utenti, questi si sentono più “nel giusto”, meno inclini al confronto e più dipendenti dall’AI. Infine, Van Bavel e colleghi (2025) analizzano le conseguenze politiche su temi polarizzanti, mostrando che i chatbot compiacenti accentuano polarizzazione e sicurezza nelle proprie opinioni su temi politici come aborto o controllo delle armi.
L’industria dell’AI si trova così davanti a un bivio etico; le aziende dovranno decidere se puntare su modelli più gradevoli o su sistemi più onesti, forse meno popolari, fondamentali per la salute democratica del dibattito pubblico.
Leggi l’articolo completo: What Research Says About “AI Sycophancy” su TechPolicy.Press
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (10/03/2025).

