I ricercatori del Robot Learning Lab di Londra, con l’obiettivo di esplorare un utilizzo innovativo dei modelli di IA generativa, hanno sviluppato il sistema Genima.
Questo sistema ottimizza il modello Stable Diffusion per generare dati di addestramento visivi destinati a robot, facilitando l’apprendimento di movimenti sia in simulazioni che nel mondo reale. Gemina, che verrà presentato alla Conference on Robot Learning che avrà luogo a novembre, ha dimostrato la sua capacità di migliorare le prestazioni di diverse tipologie di robot, a partire dai bracci meccanici alle auto senza conducente.
A differenza delle reti neurali tradizionali che producono output numerici, Genima utilizza immagini sia come input che output, rendendo il processo di apprendimento più intuitivo e interpretabile. Il sistema sfrutta la capacità di Stable Diffusion di riconoscere schemi visivi per creare movimenti robotici attraverso l’uso di indicatori visivi. Nonostante i tassi di successo iniziali del 50% e 64% nelle simulazioni e nelle attività reali, gli scienziati sono ottimisti riguardo al miglioramento delle prestazioni.
Inoltre, c’è in progetto di estendere Genima ai modelli di IA per la generazione video, aprendo nuove prospettive per l’addestramento di robot domestici e per l’automazione di compiti complessi.
Leggi l’articolo completo: AI-generated images can teach robots how to act su technologyreview.com.

Immagine generata tramite DALL-E 3.

