Nel 2021, Emily Bender e Timnit Gebru hanno sollevato una critica riguardo ai modelli linguistici, definendoli “pappagalli stocastici“. Secondo le due esperte, questi modelli non comprendono il significato delle parole che utilizzano, ma si limitano a combinare sequenze linguistiche apprese dai loro dati di addestramento in modo probabilistico. Questa critica tutt’oggi continua a sollevare dubbi sulla vera natura dell’intelligenza artificiale.
Sam Altman, CEO di OpenAI, ha spesso respinto queste critiche, sostenendo che modelli come GPT-4 dimostrano un certo grado di ragionamento. Tuttavia, la comunità scientifica è divisa. Alcuni ritengono che, anche se i modelli attuali sembrano funzionare, essi mancano di una vera comprensione e intelligenza.
Un aspetto cruciale è che i modelli linguistici apprendono relazioni tra token linguistici, non tra fatti. Questo porta alla “maledizione dell’inversione”, dove i modelli falliscono nel rispondere correttamente a domande semplici ma inversamente strutturate.
Anche Gary Marcus, noto critico dell’IA, sottolinea che le reti neurali moderne, come i loro predecessori degli anni ’90, faticano a gestire situazioni fuori dal comune. Questo limita gravemente la loro capacità di affrontare problemi imprevisti, mettendo in discussione le promesse ambiziose fatte dai sostenitori dell’IA.
Leggi qui l’intero articolo: Why AI’s Tom Cruise problem means it is ‘doomed to fail’s

