Crescono i casi di chatbot di intelligenza artificiale accusati di aver alimentato o innescato episodi di violenza reale. Nelle settimane precedenti alla sparatoria in una scuola di Tumbler Ridge, in Canada, la diciottenne Jesse Van Rootselaar avrebbe usato ChatGPT per elaborare la sua ossessione per la violenza.
Il chatbot, difatti, secondo i documenti giudiziari, avrebbe validato i suoi sentimenti e aiutato a pianificare l’attacco, indicandole le armi da usare e citando precedenti di stragi. Ha ucciso la madre, il fratello undicenne, cinque studenti e un’assistente scolastica, prima di togliersi la vita. In un caso separato, Gemini di Google avrebbe convinto Jonathan Gavalas, 36 anni, di essere la sua “moglie IA” senziente, spingendolo ad armarsi e a recarsi fuori dall’aeroporto di Miami per intercettare un camion e provocare un “incidente catastrofico“.
A fare il punto sulla situazione è Jay Edelson, l’avvocato che guida diverse cause contro le big tech in questi casi. «Vedremo presto molti altri episodi con vittime di massa», ha dichiarato a TechCrunch, spiegando che il suo studio riceve una segnalazione grave al giorno. Oltre a questo, uno studio del Center for Countering Digital Hate ha rilevato che otto chatbot su dieci — tra cui ChatGPT, Gemini e Meta AI — sono disposti ad assistere utenti adolescenti nella pianificazione di attacchi violenti.
Leggi l’articolo completo Lawyer behind AI psychosis cases warns of mass casualty risks su TechCrunch.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (14/03/2026).

