Le aziende di IA affermano che i loro modelli più recenti possiedono capacità di ragionamento. I cosiddetti reasoning model sono progettati per analizzare le informazioni in modo strutturato prima di rispondere, scomponendo problemi complessi in passaggi più semplici attraverso un processo noto come chain-of-thought. Queste IA riescono a scrivere codice e risolvere test matematici e puzzle logici, ma mostrano limiti sorprendenti di fronte a problemi elementari. Il dibattito tra gli esperti sulla reale capacità di ragionamento dell’IA si concentra sulla natura di questa abilità. Gli scettici sostengono che i modelli non stiano realmente ragionando, ma solo simulando il processo. I sostenitori affermano invece che esista un meccanismo autentico, seppur ancora imperfetto.
La questione sembra ruotare intorno a cosa si intende per “ragionamento”. Se lo si intende come la capacità di scomporre un problema in passaggi logici, allora questi modelli ne sarerebbero capaci. Ma il ragionamento umano è molto più sfaccettato e include forme diverse come quello deduttivo, induttivo e analogico, oltre alla capacità di generalizzare da esperienze limitate e applicarle a situazioni nuove. Per descrivere questa intelligenza atipica è stato introdotto il concetto di “jagged intelligence” (intelligenza frastagliata). In questa prospettiva, confrontare la capacità di ragionare dei modelli a quella umana è fuorviante: più che essere “più” o “meno intelligente”, l’IA è semplicemente “diversa”. l suo impiego ideale riguarda contesti in cui la soluzione di un problema risulta complessa per l’essere umano, mentre la verifica della sua correttezza è relativamente semplice, come nella programmazione.
Leggi l’articolo completo “Is AI really thinking and reasoning – or just pretending to?” su Vox
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

