• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA e allucinazioni: sono stati citati casi giuridici inesistenti

Martello in una sentenza giuridica

Il giudice Kelly Rankin del Wyoming ha contestato l’uso di casi giuridici inesistenti da parte di uno studio legale in documenti processuali. La vicenda è legata a una causa del 2023 contro Walmart e Jetson Electronic Bikes per un incidente causato da un hoverboard. In quest’episodio, si è verificato un malfunzionamento nella batteria al litio del dispositivo ha provocato un incendio con gravi conseguenze per una famiglia.

In una mozione preliminare di gennaio sul caso sopraesposto, gli avvocati hanno citato otto casi legali completamente inventati. Quando il giudice ha chiesto chiarimenti, lo studio ha ammesso che questi casi erano stati “allucinati” dalla loro piattaforma di intelligenza artificiale usata durante la stesura del documento. Lo studio dopo aver riconosciuto inizialmente l’errore con imbarazzo, lo ha poi definito un insegnamento per tutti i professionisti legali nell’era dell’IA.

Eventi simili si sono già verificati in passato: nel 2022, alcuni avvocati in una causa contro Avianca Airlines hanno citato casi inesistenti generati da ChatGPT, ricevendo una multa di 5.000 dollari per aver difeso le false citazioni anche dopo la scoperta. Nel 2024, invece, l’ex avvocato delle celebrità Michael Cohen e il suo legale David Schwartz hanno usato citazioni false generate da Google Bard, evitando sanzioni ma ricevendo un richiamo per l’errore commesso.

Leggi l’articolo completo Lawyers Caught Citing AI-Hallucinated Cases Call It a ‘Cautionary Tale’ su 404.

Immagine generata tramite DALL-E.

Esplora altri articoli su questi temi