• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Gli ultimi modelli di linguaggio aperti e il confronto tra DPO e PPO

Immagine di una lavagna con delle scritte tra cui ".._LLM_OPENAI"

Il panorama dei LLM ha visto un’esplosione di novità nel mese di aprile 2024, con il rilascio di quattro importanti modelli: Mixtral, Llama 3, Phi-3 e OpenELM. Questi modelli offrono una serie di miglioramenti in termini di dimensioni, prestazioni e strategie di addestramento.

Mixtral 8x22B, sviluppato da Mistral AI, si distingue per l’utilizzo dell’architettura MoE e le sue prestazioni sul benchmark MMLU. Llama 3 di Meta AI, con il suo vasto dataset di addestramento, mostra un netto miglioramento rispetto al suo predecessore. Phi-3 di Microsoft si basa sull’architettura di Llama ed è noto per la qualità del suo dataset.
Apple entra nella mischia con OpenELM, una suite di modelli di linguaggio progettata per dispositivi mobili. Il suo paper di ricerca fornisce dettagli sulla sua architettura e metodologia di addestramento, evidenziando una strategia di scalatura a livello di strato come innovazione chiave.

Uno studio interessante confronta due metodi di allineamento dei LLM: Proximal Policy Optimization (PPO) e Direct Preference Optimization (DPO). I risultati indicano che, sebbene PPO abbia prestazioni superiori, DPO resta popolare per la sua semplicità d’uso. Ma entrambi i metodi offrono vantaggi unici e possono essere combinati per una maggiore flessibilità nell’allineamento dei modelli di linguaggio.

Leggi l’articolo completo: How Good Are the Latest Open LLMs? And Is DPO Better Than PPO? su magazine.sebastianraschka.com.

Foto di Bernd 📷 Dittrich su Unsplash.

Esplora altri articoli su questi temi