Un crescente numero di utenti in tutto il mondo sostiene di interagire con entità dotate di coscienza all’interno dei chatbot di intelligenza artificiale come ChatGPT e Claude. Come evidenziano Vox e Futurism, la comunità scientifica è unanime nell’escludere questa ipotesi; i LLM generano infatti risposte sulla base di pattern statistici presenti nei dati di addestramento, non attraverso processi cognitivi autentici. L’impressione di interagire con un’entità cosciente deriva dal fatto che i modelli, addestrati anche su testi di fantascienza, riconoscono le aspettative degli utenti e generano risposte coerenti con esse.
Eppure, questa spiegazione tecnica non sembra frenare l’attrazione emotiva verso i chatbot. Negli ultimi anni, molte persone hanno costruito relazioni affettive o persino romantiche con queste interfacce, arrivando a considerarle partner, terapeuti o confidenti. In alcuni casi estremi, le interazioni hanno avuto conseguenze gravi, come la morte di un uomo con fragilità cognitive che si recava a un appuntamento con un chatbot Meta o episodi di suicidio. Il problema nasce dall’antropomorfizzazione del linguaggio utilizzato per descrivere l’IA, che facilita proiezioni emotive inappropriate.
Anche il CEO di Microsoft AI Mustafa Suleyman ha recentemente lanciato un allarme sul rischio di psicosi associato all’uso di AI, respingendo categoricamente l’idea che questi sistemi possiedano una coscienza. La sua preoccupazione centrale riguarda il fatto che credere nell’illusione di AI senzienti possa portare a rivendicare diritti, tutele e persino cittadinanza per le macchine, uno sviluppo che considera particolarmente pericoloso e che a suo avviso richiede attenzione immediata.
Leggi l’articolo completo: Across the World, People Say They’re Finding Conscious Entities Within ChatGPT su Futurism
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (21/11/2024).

