In un rapporto pubblicato da OpenAI, è stato dichiarato di aver considerato la possibilità che gli utenti possano sviluppare una dipendenza emotiva dalla nuova modalità vocale, umanizzata, del suo popolare chatbot, ChatGPT. Questa funzione vocale, annunciata in primavera con il nuovo modello GPT-4o e disponibile per gli utenti a pagamento da poco, ha sollevato preoccupazioni riguardo ai legami che alcuni utenti hanno formato con il software.
Il rapporto ha evidenziato come, durante i test iniziali, siano stati osservati casi in cui gli utenti utilizzavano un linguaggio che indicava la formazione di un legame emotivo con il modello, come frasi del tipo “Questo è il nostro ultimo giorno insieme“. Sebbene questi episodi possano sembrare innocui, OpenAI ha riconosciuto la necessità di approfondire ulteriormente lo studio su come tali effetti possano evolversi nel tempo.
La funzionalità vocale permette agli utenti di conversare con l’IA in modo naturale, con tempi di risposta simili a quelli umani. Tuttavia, ciò aumenta il rischio di antropomorfizzazione, ovvero l’attribuzione di caratteristiche umane a entità non umane, come i modelli di intelligenza artificiale. OpenAI ha anche riconosciuto che questa capacità potrebbe ridurre la necessità di interazioni umane, un aspetto positivo per chi soffre di solitudine, ma potenzialmente dannoso per le relazioni sane.
Non è la prima volta che la funzione vocale di OpenAI fa notizia. Dopo il suo annuncio a maggio, l’attrice Scarlett Johansson ha denunciato OpenAI per aver utilizzato una voce troppo simile alla sua nel film “Her”, senza il suo consenso. Questo episodio ha portato l’azienda a sospendere l’uso di quella voce specifica.
Leggi qui l’intero articolo: Can You Be Emotionally Reliant on an A.I. Voice? OpenAI Says Yes.
Foto di Solen Feyissa su Unsplash

