Gli psicoterapeuti lanciano un allarme preoccupante: le persone vulnerabili che si rivolgono ai chatbot invece che a professionisti qualificati per il supporto alla salute mentale rischiano di “scivolare in un abisso pericoloso”. Due terzi dei membri dell’Associazione Britannica per la Psicoterapia hanno espresso serie preoccupazioni riguardo questa tendenza sempre più in crescita.
I rischi identificati dagli esperti sono molteplici e gravi: dipendenza emotiva, esacerbazione dei sintomi d’ansia, autodiagnosi inappropriate e amplificazione di schemi di pensiero deliranti o ideazioni suicidarie. La disponibilità continua dei chatbot crea una mancanza di confini terapeutici e compromette trattamenti consolidati come la prevenzione dell’esposizione, perpetuando cicli ansiosi invece di risolverli. I professionisti, difatti, osservano comportamenti preoccupanti: giovani che utilizzano l’IA come “terapeuta tascabile” per decisioni quotidiane banali e pazienti che portano trascrizioni per contestare diagnosi mediche. Oltre a ciò, si aggiunge il fatto che i chatbot rinforzano convinzioni errate essendo progettati per essere sempre positivi e di supporto.
Per questo motivo, dunque, OpenAI ha introdotto la funzione parental control dopo l’azione legale di una famiglia il cui figlio adolescente si è suicidato dopo mesi di conversazioni con chatbot, mentre l’Illinois è diventato il primo stato a vietare l’uso autonomo dell’IA in terapia.
Leggi l’articolo completo ‘Sliding into an abyss’: experts warn over rising use of AI for mental health support su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (31/08/2025).

