• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Quanto può rovinare la reputazione un chatbot? Il caso di Hans Niemann

in primo piano una scacchiera con tre pedine in vetro. sfondo nero.

Negli ultimi anni, l’intelligenza artificiale generativa ha rivoluzionato numerosi settori, promettendo di migliorare le nostre vite con risposte rapide e precise. Tuttavia, questa tecnologia avanzata presenta anche pericoli significativi, tra cui il rischio di diffamazione. Un caso recente ha evidenziato come un errore generato da un AI di Google potrebbe avere conseguenze legali e reputazionali devastanti.

Un esempio lampante è la vicenda del giovane scacchista americano Hans Niemann. Durante una ricerca su Google riguardo alle accuse di imbroglio nel mondo degli scacchi, l’AI Overview di Google ha erroneamente affermato che Niemann aveva “admitted to using an engine” ( ammesso di aver usato un software di scacchi), insinuando così che Niermann avesse confessato di barare contro Magnus Carlsen nel 2022. Questa affermazione era falsa; Niemann ha sempre negato le accuse e ha persino intentato una causa per diffamazione da 100 milioni di dollari contro Carlsen e altri.

Questo incidente solleva una domanda fondamentale: chi è responsabile per i danni causati da un’AI che diffonde informazioni errate? La questione è complessa e pone nuove sfide legali che devono essere affrontate.

Per vincere una causa per diffamazione, generalmente bisogna dimostrare che l’accusato ha pubblicato informazioni false che hanno danneggiato la reputazione di qualcuno, e che queste affermazioni sono state fatte con negligenza o “malizia reale”. Tuttavia, le AI, pur essendo sofisticate, mancano di uno stato mentale; non possono agire con negligenza o malizia poiché sono semplicemente algoritmi statistici.

Gli esperti legali discutono se sia possibile applicare i tradizionali standard di diffamazione agli output delle AI. Un approccio potrebbe essere considerare le AI come prodotti difettosi, analogamente a come si tratta un’automobile con freni malfunzionanti. Se un prodotto AI genera dichiarazioni diffamatorie a causa di difetti nei dati di addestramento o negli algoritmi, le aziende potrebbero essere ritenute responsabili per il rilascio negligente di un prodotto difettoso.

L’intelligenza artificiale generativa rappresenta un potente strumento che può migliorare significativamente la nostra vita quotidiana, ma comporta anche rischi notevoli, soprattutto in termini di diffamazione. Mentre la tecnologia continua a evolversi, è essenziale che le leggi e le regolamentazioni si adattino per affrontare queste nuove sfide. Le aziende devono essere pronte a rispondere dei loro prodotti e a garantire che gli errori delle AI non danneggino indebitamente la reputazione delle persone.

L’era dell’intelligenza artificiale generativa è solo agli inizi, e la società deve essere pronta a gestire sia le sue promesse che i suoi pericoli.

Leggi qui l’intero articolo: Google Is Turning Into a Libel Machine

Foto di Wim van ‘t Einde su Unsplash

Esplora altri articoli su questi temi