• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Affrontare le allucinazioni degli LLM: Lamini introduce il Memory Tuning per un’IA più affidabile

due visi di persone con uno specchio che ne taglia circa la metà rispecchiando l'altra.

Nel mondo dell’IA, gli LLM hanno rivoluzionato il modo in cui le persone interagiscono con la tecnologia, tuttavia non sono esenti da problemi. Uno dei principali e più discusso negli ultimi tempi è quello delle “allucinazioni”, ovvero quando i modelli generano informazioni errate o fuorvianti non supportate dai dati. Questo fenomeno compromette l’affidabilità delle risposte fornite dai LLM, soprattutto in applicazioni come assistenti virtuali o chatbot.

Recentemente, la startup Lamini ha introdotto una soluzione innovativa, il “Memory Tuning”. Questa tecnica impiega MoME (Mixture of Memory Experts), ottimizzando specificamente le informazioni rilevanti per un dato dominio. Ciò consente ai modelli di accedere a dati più precisi e pertinenti, riducendo significativamente le allucinazioni fino al 95%. Questo approccio potrebbe rivoluzionare il campo dei LLM, migliorando l’accuratezza senza compromettere le prestazioni complessive.

Leggi l’articolo completo: How To Solve LLM Hallucinations su morethanmoore.substack.com.

Foto di cottonbro studio su Pexels:

Esplora altri articoli su questi temi