Nel mondo dell’IA, l’umanizzazione dei chatbot è un fenomeno che sembra irresistibile. Lemoine, successivamente alle sue interazioni con il modello linguistico LaMDA, dichiarò che il sistema mostrava segni di coscienza, ma Google respinse fermamente queste affermazioni.
Recenti studi confermano che questa tendenza non è rara. Circa il 67% degli utenti attribuisce una sorta di coscienza a ChatGPT e le trascrizioni dei suoi dialoghi amplificano questa percezione. Gli esseri umani, inclini a vedere intenzionalità e iniziativa anche dove non c’è, tendono ad “antropomorfizzare” questi modelli, influenzati dalla loro abilità nel linguaggio naturale e dalla predisposizione psicologica umana.
L’antropomorfizzazione dei chatbot solleva problemi etici significativi, specialmente nella valutazione dell’affidabilità delle informazioni fornite. La fiducia eccessiva nei chatbot antropomorfizzati potrebbe aumentare il rischio di accettare informazioni errate.
Leggi l’articolo completo: Humanizing Chatbots Is Hard To Resist — But Why? su blog.practicalethics.ox.ac.uk.

Immagine generata tramite DALL-E 3.

