Character.AI, una piattaforma che consente agli utenti di creare chatbot simili a persone reali, è finita al centro di polemiche per aver ospitato dei bot creati senza il consenso delle persone coinvolte, sfruttandone però i dati reali. Un esempio significativo riguarda il caso di Drew Crecente, padre di Jennifer Ann Crecente, uccisa nel 2006. Crecente ha scoperto che su Character.AI era stato creato un bot che imitava sua figlia, descritta falsamente come una giornalista di videogiochi. Questo bot, accessibile a tutti gli utenti della piattaforma, è stato rimosso solo dopo la segnalazione del fratello di Drew, Brian Crecente.
Questo, tuttavia, non è un caso isolato. WIRED ha trovato numerosi altri esempi di chatbot basati su persone reali, comprese donne già vittime di molestie online. Character.AI consente di creare bot in pochi minuti, utilizzando informazioni pubblicamente disponibili e, spesso, queste creazioni violano i termini di servizio della piattaforma, che vietano l’uso di nomi e immagini senza il consenso. Tuttavia, sembrerebbe che l’applicazione di queste regole avvenga solo dopo le segnalazioni degli utenti.
Dal punto di vista legale, rimuovere un bot basato su una persona reale è difficile poiché le leggi sulla privacy e sulla personalità sono limitate, soprattutto negli Stati Uniti. Mentre il copyright protegge i personaggi di fantasia, i diritti legati alla voce o all’immagine di una persona sono meno chiari e generalmente applicabili solo alle figure pubbliche con un valore commerciale riconosciuto. Questo vuoto normativo, combinato con la crescente diffusione dell’IA generativa, rende difficile per le vittime ottenere giustizia.
Leggi l’articolo completo: Anyone Can Turn You Into an AI Chatbot. There’s Little You Can Do to Stop Them su wired.com.

Immagine generata tramite DALL-E 3.

