• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

I limiti linguistici degli LLM

immagine astratta di alcuni mattoncini colorati su un muro

Nel 2021, Emily Bender e Timnit Gebru hanno sollevato una critica riguardo ai modelli linguistici, definendoli “pappagalli stocastici“. Secondo le due esperte, questi modelli non comprendono il significato delle parole che utilizzano, ma si limitano a combinare sequenze linguistiche apprese dai loro dati di addestramento in modo probabilistico. Questa critica tutt’oggi continua a sollevare dubbi sulla vera natura dell’intelligenza artificiale.

Sam Altman, CEO di OpenAI, ha spesso respinto queste critiche, sostenendo che modelli come GPT-4 dimostrano un certo grado di ragionamento. Tuttavia, la comunità scientifica è divisa. Alcuni ritengono che, anche se i modelli attuali sembrano funzionare, essi mancano di una vera comprensione e intelligenza.

Un aspetto cruciale è che i modelli linguistici apprendono relazioni tra token linguistici, non tra fatti. Questo porta alla “maledizione dell’inversione”, dove i modelli falliscono nel rispondere correttamente a domande semplici ma inversamente strutturate.

Anche Gary Marcus, noto critico dell’IA, sottolinea che le reti neurali moderne, come i loro predecessori degli anni ’90, faticano a gestire situazioni fuori dal comune. Questo limita gravemente la loro capacità di affrontare problemi imprevisti, mettendo in discussione le promesse ambiziose fatte dai sostenitori dell’IA.

Leggi qui l’intero articolo: Why AI’s Tom Cruise problem means it is ‘doomed to fail’s

Foto di Ben Wicks su Unsplash

Esplora altri articoli su questi temi