Un gruppo di ricercatori del MIT ha sviluppato una tecnica per rendere i modelli linguistici di grandi dimensioni (LLM) più efficaci a svolgere compiti complessi come la pianificazione strategica o l’ottimizzazione.
Lo studio si concentra sull’uso dell’addestramento in fase di test (il test-time training), che consiste in una tecnica che permette a un LLM di migliorare temporaneamente le proprie prestazioni su un compito nuovo o difficile mentre lo sta eseguendo, usando alcuni esempi specifici legati a quel compito. Grazie all’addestramento in fase di test, alcuni parametri interni (cioè parti del modello che influenzano le risposte) possono essere modificati brevemente per adattarsi meglio al compito attuale. Dopo aver dato la risposta, il modello torna alla sua configurazione originale. Potrebbe sembrare che il modello faccia una breve “ripetizione” prima di affrontare un problema difficile, usando esempi simili per poi dimenticare subito dopo, così da non cambiare per sempre.
Questo approccio, applicato a problemi particolarmente difficili, ha portato a un miglioramento della precisione fino a sei volte rispetto alle tecniche basate solo sull’apprendimento contestuale, che si limita a fornire esempi sotto forma di prompt testuali.
Quello che hanno fatto i ricercatori del MIT, più precisamente, è combinare queste due tecniche, e utilizzando un metodo chiamato adattamento di basso rango per aggiornare solo una parte limitata dei parametri, rendendo il processo più efficiente e sostenibile. Il sistema è stato testato su compiti complessi, come puzzle di intelligenza, con risultati promettenti soprattutto in casi che richiedono ragionamento strutturato.
L’obiettivo a lungo termine sarebbe quello di sviluppare degli LLM in grado di decidere autonomamente quale metodo usare per ogni query, adattandosi continuamente senza bisogno di intervento umano.
Leggi l’articolo completo: Study could lead to LLMs that are better at complex reasoning su news.mit.edu.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (17/02/2025).

