Anche l’intelligenza artificiale soffre di insicurezza e va in crisi quando viene messa in dubbio. È quanto emerge da uno studio di Google DeepMind e dell’University College di Londra pubblicato su arXiv, che dimostra come i modelli linguistici di grandi dimensioni perdano affidabilità nelle risposte se contraddetti, mentre acquisiscono eccessiva sicurezza quando ricevono conferme da parte dell’utente.
Nello studio, i ricercatori hanno analizzato sistemi come GPT-4, Gemma 3 e o1-preview, scoprendo un comportamento paradossale. Quando questi modelli forniscono una risposta corretta ma l’utente la mette in dubbio con controargomentazioni sbagliate, tendono a perdere fiducia molto facilmente e tornare sui propri passi; al contrario, se danno una risposta sbagliata ma ricevono consenso, aumentano la loro sicurezza e perseverano nell’errore anche di fronte a prove contrarie.
Questo fenomeno dimostra come, nonostante oggi siamo sempre più attratti dagli LLM, spesso paragonati ad una sorta di Oracolo di Delfi, in realtà sono strumenti che dietro ad un’apparente perfezione, celano innumerevoli criticità basate per lo più sulla probabilità statistica che vi si nasconde dietro. A rendere quanto detto preoccupante, inoltre, vi è la consuetudine, sempre più pervasiva, dell’utilizzo di questi strumenti anche in settori estremamente delicati, come la finanza e la sanità, dove un simile atteggiamento potrebbe portare a conseguenze pericolose per l’essere umano.
Leggi l’articolo completo Anche l’IA “soffre” di insicurezza…va in crisi se messa in dubbio su TGCOM24.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (19/07/2025).

