Nel mondo dell’IA, gli LLM hanno rivoluzionato il modo in cui le persone interagiscono con la tecnologia, tuttavia non sono esenti da problemi. Uno dei principali e più discusso negli ultimi tempi è quello delle “allucinazioni”, ovvero quando i modelli generano informazioni errate o fuorvianti non supportate dai dati. Questo fenomeno compromette l’affidabilità delle risposte fornite dai LLM, soprattutto in applicazioni come assistenti virtuali o chatbot.
Recentemente, la startup Lamini ha introdotto una soluzione innovativa, il “Memory Tuning”. Questa tecnica impiega MoME (Mixture of Memory Experts), ottimizzando specificamente le informazioni rilevanti per un dato dominio. Ciò consente ai modelli di accedere a dati più precisi e pertinenti, riducendo significativamente le allucinazioni fino al 95%. Questo approccio potrebbe rivoluzionare il campo dei LLM, migliorando l’accuratezza senza compromettere le prestazioni complessive.
Leggi l’articolo completo: How To Solve LLM Hallucinations su morethanmoore.substack.com.
Foto di cottonbro studio su Pexels:


