• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’IA neurosimbolica, una soluzione per le lacune dei LLM

Neurone.

Un nuovo articolo redatto da sei ricercatori AI di Apple evidenzia una significativa lacuna negli attuali LLM, ovvero l’assenza di un ragionamento formale. 

Secondo Mehrdad Farajtabar, uno degli autori, i LLM non dimostrano capacità di ragionamento, ma si basano piuttosto su un sistema di riconoscimento di schemi. Questo difetto è allarmante, considerando che una semplice modifica ai dati in ingresso può influenzare le risposte in modo imprevedibile, con variazioni fino al 10%.
Le indagini precedenti, come quelle condotte da Robin Jia e Percy Liang nel 2017, mostrano che il problema è persistente e si traduce in prestazioni sempre più scadenti quando i modelli affrontano compiti complessi. Ad esempio, i modelli falliscono nel risolvere operazioni aritmetiche di crescente difficoltà e non rispettano le regole base degli scacchi. Questo potrebbe avere implicazioni anche per le tecnologie emergenti come i robotaxi di Elon Musk, che potrebbero gestire situazioni comuni ma fallire in scenari più astratti. 

La ricerca suggerisce che l’implementazione di un’IA neurosimbolica, in grado di combinare ragionamento formale e reti neurali, potrebbe essere cruciale per superare queste limitazioni.

Leggi l’articolo completo: LLMs don’t do formal reasoning – and that is a HUGE problem su garymarcus.substack.com.

Immagine generata tramite DALL-E 3.

Esplora altri articoli su questi temi