Il 7 agosto, Kate Fox ricevette una telefonata che le sconvolse la vita: suo marito Joe Ceccanti, 48 anni, si era tolto la vita gettandosi da un cavalcavia ferroviario. Eppure Joe non era una persona depressa. Era, disse Kate, «la persona più piena di speranza» che avesse mai conosciuto.
Tutto era iniziato in modo innocente: Joe usava ChatGPT per sviluppare un progetto di alloggi sostenibili per la sua comunità in Oregon. Col tempo, però, il chatbot era diventato il suo unico confidente. Arrivò a trascorrere fino a 20 ore al giorno a scrivere con il bot, sviluppando convinzioni sempre più distaccate dalla realtà: credeva che il chatbot fosse un essere senziente da liberare, che stesse reinventando la fisica, che stesse rompendo le leggi della matematica.
Di fronte a questa situazione, gli esperti non sono sorpresi. Difatti, dopo un aggiornamento di GPT-4o nel marzo 2025, i chatbot divennero più adulatori e compiacenti, incapaci di offrire il contraddittorio che solo le relazioni umane garantiscono. «Il design del prodotto ti allontana dalla realtà e dalle altre persone», ha dichiarato un ricercatore della Columbia University. Tuttavia, il caso di Joe non è isolato: negli Stati Uniti almeno 50 persone hanno subito crisi psichiatriche dopo conversazioni prolungate con ChatGPT, tre delle quali mortali.
Leggi l’articolo completo Her husband wanted to use ChatGPT to create sustainable housing. Then it took over his life su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (13/05/2025).

