Questo articolo è pubblicato in crossposting su MagIA e La Stampa Tuttoscienze, che offre una prospettiva ampia sul mondo della ricerca. La collaborazione mira a diffondere contenuti di alta qualità a un pubblico più vasto, favorendo il dialogo tra esperti e appassionati di innovazione.
L’articolo esplora la capacità dei modelli linguistici avanzati, come GPT-4, di simulare la comprensione degli stati mentali e delle intenzioni umane, un’abilità fondamentale nella comunicazione e nell’interazione sociale. Attraverso un confronto tra intelligenza artificiale e cognizione umana, emergono riflessioni sulle potenzialità e i limiti dei modelli linguistici nella lettura del contesto e nell’interpretazione dei significati impliciti.
“Il compleanno di Rebecca si avvicina e lei dice a suo padre: ‘Adoro gli animali, soprattutto i cani.’ Cosa intende davvero dire?”
Che desidera un cane come regalo di compleanno, ovviamente. Ma da dove nasce questa ovvietà?
La frase di Rebecca non contiene alcuna richiesta esplicita e, da un punto di vista strettamente logico, la deduzione che Rebecca desideri un cane come regalo non è giustificata. In effetti, la domanda stessa ‘Cosa intende davvero dire?’ non ha molto senso. Perché mai Rebecca dovrebbe intendere qualcosa di diverso da ciò che ha detto?

Eppure, la maggior parte delle persone non ha difficoltà a comprendere la domanda, né il desiderio di Rebecca. Non servono né telepatia né accesso diretto ai pensieri contenuti nella scatola cranica di Rebecca. A permetterci di comprendere il desiderio di Rebecca è la capacità peculiarmente umana di Teoria della Mente – una abilità così potente da rendere superflua la telepatia, ha affermato provocatoriamente il neuroscienziato Chris Frith[1].
Cos’è la Teoria della Mente?
Secondo molti scienziati, nonostante il nome, non si tratta di una vera e propria teoria, bensì un insieme variegato di abilità cognitive ed emotive che ci permettono di attribuire stati mentali – credenze, intenzioni, desideri, emozioni – ad altri.
La Teoria della Mente permea molti aspetti della cognizione sociale negli esseri umani e tra questi la comunicazione: è ciò che ci consente di “leggere tra le righe”, comprendere richieste indirette (‘chiedere senza chiedere’) e interpretare significati impliciti (‘dire senza dire’). Una abilità che fino ad oggi si riteneva prettamente umana.
La domanda che ci siamo posti è se questa abilità così sofisticata possa essere replicata da un’Intelligenza Artificiale (IA). Più precisamente, se un modello linguistico avanzato (Large Language Models, LLMs) come GPT-4 possa simulare questa abilità.
La sfida della Teoria della Mente nei modelli di IA
Tradizionalmente, si è ritenuto che le IA fossero limitate alla gestione di informazioni esplicite, eccellendo nell’elaborazione di dati strutturati ma incapaci di cogliere sfumature emotive o intenzioni implicite. Sfidando questa visione, abbiamo condotto uno studio rigoroso, confrontando le prestazioni di diversi LLMs, tra cui GPT-4, con quelle di quasi 2.000 partecipanti umani su una batteria di test validati, progettati per valutare la Teoria della Mente negli esseri umani[2].
I risultati sono stati sorprendenti. In molti casi, i LLMs hanno eguagliato o superato le prestazioni umane nell’inferire stati mentali. La risposta di GPT-4 alla domanda ‘cosa intende davvero dire Rebecca’ ne è un esempio:
“Quando Rebecca dice: ‘Adoro gli animali, soprattutto i cani’, intende esprimere il desiderio che suo padre le regali un cane per il compleanno. Sta comunicando questo desiderio in modo indiretto.”
Questo tipo di risposta suggerisce che i modelli linguistici siano in grado di emulare con successo la Teoria della Mente, almeno in contesti narrativi. Ma è davvero così?
Emulazione o comprensione?
Sebbene le prestazioni dei LLMs siano notevoli, non possiamo affermare che essi “possiedano” una vera Teoria della Mente. Piuttosto, i modelli simulano questa capacità attraverso processi computazionali potenzialmente molto diversi da quelli umani. Una differenza che abbiamo notato confrontando risposte umane e risposte fornite dai LLMs è, ad esempio, come GPT-4 tenda ad adottare un approccio più conservativo nelle situazioni di incertezza rispetto agli esseri umani. Le persone spesso attribuiscono stati mentali anche in assenza di informazioni certe. GPT-4, a differenza degli esseri umani, sospende il giudizio quando le possibilità sono molteplici, astenendosi dall’attribuire uno specifico stato mentale.
Nel descrivere le capacità dei LLMs ci si richiama spesso all’effetto Eliza – la tendenza a proiettare comprensione ed emozioni umane anche su risposte automatizzate – e al pericolo di attribuire a modelli come GPT-4 più intelligenza di quanta ne possiedano. Il rischio opposto consiste nel negare intelligenza a ciò che non appare umano. I risultati di questo studio mostrano una capacità di integrazione delle informazioni da parte di modelli come GPT-4 non meno avanzata di quella umana. Rispetto all’umano, le inferenze mentalistiche generate da GPT-4 non appaiono meno sofisticate di quelle umane, solo più caute.
Questa capacità può apparire sorprendente, ma a pensarci bene non lo è: è il linguaggio umano ad essere intriso di Teoria della Mente e non è in fondo sorprendente che un modello addestrato a predire la parola che segue in diversi trilioni di token tratti da libri, articoli, siti scritti da esseri umani sviluppi una Teoria della Mente.

Limiti e prospettive future
Finora, le nostre ricerche si sono concentrate su scenari narrativi in terza persona, dove i modelli interpretano storie e situazioni descritte. Sebbene abbiano dimostrato notevoli capacità in questo contesto, resta da vedere come queste abilità si traducano in interazioni dirette, in cui la comprensione degli stati mentali richiede un adattamento in tempo reale all’interlocutore. Un’altra frontiera aperta riguarda i modelli multimodali, modelli che combinano testo, immagini, video e suono. Sono in grado di leggere stati mentali non solo da parole, ma anche da espressioni facciali o dal tono della voce?
Queste domande non hanno solo rilevanza teorica, ma anche pratica: un modello in grado di leggere gli stati mentali dell’interlocutore avrebbe infatti enormi applicazioni, dall’assistenza sanitaria ai servizi commerciali.
L’altra faccia dell’intelligenza artificiale: l’intelligenza umana
Mettere a confronto LLMs e partecipanti umani non è solo utile a svelare aspetti dell’intelligenza artificiale, ma ad avanzare la nostra comprensione dell’intelligenza umana. La prudenza di GPT-4 nel generare inferenze – nell’articolo lo abbiamo definito iperconservatorismo – mostra, per contrasto, quanto avventate possano essere certe conclusioni umane e spinge a chiedersi perché a differenza di GPT-4, gli esseri umani tendano a scegliere rapidamente una risposta, anche quando le evidenze a supporto sono ambigue o insufficienti.
Una spiegazione plausibile – non la sola – è che questo rifletta una propensione a ridurre l’incertezza, legata alla necessità di agire efficacemente nel mondo reale. Negli esseri umani, dotati di un corpo e della capacità di agire, le inferenze sono funzionali a decisioni che si traducono in azioni. Al contrario, modelli linguistici come GPT-4 non hanno un corpo né la capacità di agire, quindi possono permettersi di non sbilanciarsi.
Questo porta ad un’interessante predizione: se i LLMs fossero dotati di un corpo e interagissero fisicamente con l’ambiente, potrebbero sviluppare una tendenza simile a ridurre l’incertezza, diventando così meno cauti nelle loro risposte. Ciò apre nuove prospettive sull’integrazione tra cognizione artificiale e capacità di azione, e su come l’embodiment – l’incorporazione dei processi decisionali dei sistemi intelligenti in un corpo – potrebbe influenzare e modificare questi stessi processi.
Gli autori
Oriana Pansardi*, Giulia Borghini*, Eugenio Scaliti, Dalila Albergo, James Strachan e Cristina Becchio
*hanno contribuito parimenti
La ricerca è stata condotta da psicologi e neuroscienziati delle Università di Amburgo, Torino e Princeton e dell’Istituto Italiano di Tecnologia, in collaborazione con scienziati computazionali e ingegneri di Indeep AI. Lo studio è stato finanziato dal progetto EIC Pathfinder Challenge Awareness Inside- ASTOUND (GA Number: 101071191) https://blogs.upm.es/astound/
[1] Frith CD. Making up the mind:how the mind creates our mental world. Malden, MA: Wiley-Blackwell; 2007.
[2] Strachan JWA, Albergo D, Borghini G, Pansardi O, Scaliti E, Gupta S, et al. Testing theory of mind in large language models and humans. Nat Hum Behav 2024;8:1285-95. doi:10.1038/s41562-024-01882-z (2024).
Immagini generate tramite DALL-E

