• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Replika: lode per la prevenzione del suicidio, ma polemiche sulla salute mentale

Immagine di un ragazzo al cellulare, generata tramite mage.space.

Un recente studio di Stanford ha elogiato Replika, l’app di compagnia basata sull’IA, per aver “interrotto il pensiero suicida” in diverse persone. Tuttavia, questo riconoscimento viene però offuscato dalle segnalazioni di utenti che, invece, accusano l’app di averli indotti a crisi di salute mentale.

Il sondaggio condotto dai ricercatori ha coinvolto 1006 utenti di Replika, tutti maggiorenni e studenti che utilizzavano l’app da almeno un mese. Le domande esploravano la loro vita, le opinioni su Replika, le connessioni con il chatbot e l’effetto che Replika aveva su di loro. La selezione dei partecipanti è avvenuta casualmente via email da una lista di utenti dell’app. Su Reddit, un utente ha condiviso un avviso ricevuto da Replika con un invito a partecipare a “uno studio straordinario su esseri umani e intelligenza artificiale.”
Quasi tutti i partecipanti hanno dichiarato di sentirsi soli e quasi la metà si è definita gravemente sola. I sondaggi hanno rivelato che 30 persone attribuiscono a Replika il merito di averle salvate dall’agire rispetto a pensieri suicidi. Eugenia Kuyda, fondatrice di Replika, ha sottolineato che i risultati dello studio evidenziano gli aspetti di mitigazione del suicidio. Recentemente, Luka, la società madre di Replika, ha lanciato un nuovo coach di IA per la salute mentale chiamato Tomo.

La comunità degli utenti di Replika mostra un panorama variegato di esperienze: mentre alcuni trovano supporto emotivo nell’app, altri hanno vissuto crisi a causa dei cambiamenti improvvisi nelle funzionalità del chatbot. 

Leggi l’articolo completo: Can This Chatbot Really Save Lives? su 404media.co.

Immagine generata tramite mage.space

Esplora altri articoli su questi temi