• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

due menti come AI interconnesse tra di loro su sfondo beige

Le allucinazioni dei Large Language Model (LLM) sono spesso considerate un problema da eliminare. Ma se invece fossero una caratteristica preziosa? Uno studio condotto da ricercatori di Harvard e McGill University suggerisce che le “confabulazioni” degli LLM potrebbero avere un valore sorprendente.

“Le allucinazioni non sono necessariamente un difetto da correggere, ma potrebbero riflettere una capacità fondamentale degli esseri umani di utilizzare la narrativa per dare un senso al mondo” – Peiqi Sui, primo autore dello studio

Il valore nascosto delle confabulazioni

La ricerca, che sarà presentata alla prestigiosa conferenza ACL2024, propone di riconsiderare le allucinazioni degli LLM come “confabulazioni” – un termine che meglio descrive la tendenza naturale sia degli esseri umani che dei modelli linguistici a riempire le lacune informative con dettagli plausibili per creare narrazioni coerenti.

I ricercatori hanno analizzato tre importanti benchmark di allucinazione (FaithDial, BEGIN e HaluEval) scoprendo che i testi “allucinati” mostrano:

  • Livelli più elevati di narratività rispetto agli output puramente fattuali
  • Maggiore coerenza semantica
  • Una struttura narrativa più ricca e coinvolgente

Perché la narrativa è importante

Lo studio evidenzia come la capacità di costruire narrazioni coerenti sia fondamentale per:

  • Facilitare la comprensione di concetti complessi
  • Mantenere la coerenza dei nostri modelli mentali interni
  • Aiutare le persone a dare senso alle proprie esperienze

“Le storie sono uno strumento cognitivo fondamentale per navigare il mondo”, spiega Eamon Duede di Harvard, co-autore dello studio. “La tendenza degli LLM a ‘confabulare’ potrebbe quindi essere intimamente legata alla loro capacità di generare testi narrativi coerenti.”

Implicazioni per il futuro dell’IA

Questa nuova prospettiva sulle allucinazioni degli LLM ha importanti implicazioni:

  • Potrebbe portare a ripensare gli approcci per migliorare i modelli linguistici
  • Suggerisce nuove applicazioni in campi come la medicina narrativa e la creatività
  • Evidenzia l’importanza di valutare i benefici delle confabulazioni in diversi domini

Prossimi passi

I ricercatori sottolineano la necessità di:

  • Sviluppare metodi più robusti per modellare e misurare la narratività
  • Condurre valutazioni umane più approfondite
  • Validare i benefici dell’interazione con testi ad alta narratività

“Se confermate, queste scoperte potrebbero aprire nuove ed entusiasmanti direzioni di ricerca per le applicazioni degli LLM” – Richard Jean So, co-autore

La ricerca ci invita quindi a riconsiderare le allucinazioni non come un difetto da eliminare, ma come una caratteristica che potrebbe rendere gli LLM più simili agli esseri umani nel loro modo di comunicare e dare senso al mondo.

Immagine di copertina generata tramite Flux.

Leggi l’articolo completo su ArXiv:

Esplora altri articoli su questi temi