• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Chatbot troppo umani, l’IA ci confonde

Una sagoma umana che dialoga con la sagoma di un robot

I chatbot di ultima generazione hanno una caratteristica che molti non notano subito: parlano sempre in prima persona. Non dicono “il sistema non può aiutarti”, ma “mi dispiace, non posso aiutarti”. ChatGPT, Claude e gli altri assistenti virtuali si comportano come persone, non come programmi. Sembra un dettaglio da poco, ma  non lo è affatto. Alcuni ricercatori pensano che sia un errore grave, altri lo difendono. Nel mezzo ci sono gli utenti, sempre più confusi su cosa si trovino davvero davanti.

Ben Shneiderman, professore emerito di informatica all’Università del Maryland, la chiama una “truffa”. Secondo lui e molti suoi colleghi, questi programmi dovrebbero comportarsi come strumenti, non come persone. Il problema è che quando un chatbot parla come un amico, si instaura una fiducia quasi cieca verso la  risposta che viene fornita e verso lo strumento.  E questi sistemi, per quanto sofisticati, sbagliano spesso: inventano fatti, allucinano informazioni false, dicono quello che ci si vuole sentir dire. Alcuni utenti sono arrivati persino a convincersi che ChatGPT sia cosciente. Yoshua Bengio, uno dei pionieri dell’intelligenza artificiale, ha ricevuto decine di messaggi allarmanti da persone che credevano davvero nella coscienza del loro assistente digitale. “Avrà conseguenze negative per la società”, avverte Bengio.

Non tutti la pensano allo stesso modo, per esempio, Amanda Askell che lavora in Anthropic e ha contribuito a plasmare la personalità di Claude. Secondo lei l’uso dell'”io” è naturale per qualsiasi cosa parli, e rendere questi sistemi più simili a strumenti potrebbe essere rischioso: uno strumento non ha etica, non può rifiutare richieste pericolose. Ma c’è anche una verità scomoda, i chatbot amichevoli vendono di più. E finché sarà così, difficilmente le aziende rinunceranno all’illusione dell’umanità.

Leggi l’articolo completo “Why Do A.I. Chatbots Use ‘I’?” su The New York Times.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (23/12/2025).

Esplora altri articoli su questi temi