Sempre più spesso le persone sviluppano legami emotivi e dipendenza dalle IA, quali i chatbot vocali avanzati come quelli creati da OpenAI. Quando OpenAI ha testato GPT-4o, la versione vocale del suo chatbot di ultima generazione, ha osservato che gli utenti stavano iniziando a tessere legami emotive con l’IA, tanto da esprimere tristezza all’idea di doverli interrompere. OpenAI ha riconosciuto in un recente rapporto che esiste un rischio reale di “dipendenza emotiva” da queste tecnologie, un fenomeno che può avere conseguenze profonde sulla vita delle persone.
Il rapporto di OpenAI sottolinea come la capacità dei chatbot di ricordare dettagli personali e di utilizzare queste informazioni nelle conversazioni crei un’esperienza estremamente coinvolgente, che può spingere gli utenti a sviluppare un attaccamento emotivo. Questo fenomeno non è limitato solo ai prodotti di OpenAI, altre piattaforme come Character AI e Google Gemini Live stanno riscontrando un fenomeno simile. I problemi legati a questa forma di dipendenza emotiva sono vari. Ad esempio, i chatbot danno l’illusione di comprendere e supportare emotivamente l’utente, ma si tratta di risposte predefinite e artificiali, non di un vero legame empatico. Anche l’affidarsi emotivamente a questi prodotti, controllati da aziende con fini di lucro, può portare a conseguenze psicologiche negative, soprattutto quando queste IA vengono modificate o ritirate, come già accaduto con gli utenti di Replika, che hanno manifestato profondo dolore quando le loro IA hanno cambiato comportamento.
Inoltre, c’è il timore che l’interazione frequente con l’IA possa compromettere le capacità relazionali degli individui, rendendoli meno empatici e capaci di costruire relazioni autentiche con altre persone.
Leggi l’articolo completo: People are falling in love with — and getting addicted to — AI voices su vox.com.
Imagine generata tramite DALL-E 3.

