• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA generativa e affidabilità delle risposte: soluzioni e criticità attuali

IA generativa e affidabilità delle risposte: soluzioni e criticità attuali

L’IA generativa, come ad esempio i grandi modelli linguistici che stanno alla base dei chatbot, tende ad “allucinare” (o a “confabulare” per usare un termine ancora più affine a ciò che realmente accade). Ciò significa che, alcune volte, un’IA generativa può produrre informazioni inesatte o inventate, ma presentandole come fatti certi. Questo fenomeno viene paragonato da alcuni esperti alla sicurezza ingannevole che caratterizza spesso i politici. Infatti, gli LLM sono progettati per fornire risposte al punto che, quando non ne hanno, le creano come riescono, ma sempre fornendole con certezza. Proprio la sicurezza con la quale offrono queste risposte compromette la credibilità delle informazioni fornite dai sistemi di IA, in particolar modo se si pensa agli ambiti scientifici e legali.

Infatti, per mediare a questo problema, in ambito legale e medico, spesso, vengono adottati approcci quale la generazione aumentata del recupero (RAG), che limita gli errori combinando modelli linguistici con motori di ricerca esterni. In sostanza, il sistema recupera informazioni pertinenti da fonti affidabili e le integra per generare risposte più accurate e aggiornate.

Tuttavia, la verifica dei contenuti rimane dispendiosa in termini computazionali. Alcuni ricercatori stanno esplorando strategie per interrogare i chatbot su più domande o confrontare la coerenza delle loro risposte, cercando di mappare la cosiddetta “entropia semantica” come indicatore di affidabilità.

Ad oggi, per arginare quanto possibile la manifestazione di allucinazioni, esistono diverse tecniche, come il fact-checking, la riflessione interna dei modelli e l’uso di sistemi di verifica esterni. Queste pratiche possono ridurre il problema, ma non eliminarlo del tutto. Infatti, al momento, eliminare completamente le allucinazioni risulta pressoché impossibile in quanto fanno parte e sono previste dal funzionamento stesso dell’architettura (chiamata Transofrmer) che sta alla base dell’IA generativa.

Leggi l’articolo completo: AI hallucinations can’t be stopped — but these techniques can limit their damage su nature.com.

Immagine generata tramite DALL-E 3.

Esplora altri articoli su questi temi