Le macchine possono provare sensazioni come il dolore e il piacere? Una nuova ricerca condotta da Google e London School of Economics esplora questa intrigante questione, analizzando come i Large Language Models (LLM) gestiscono le scelte in scenari che coinvolgono stati di dolore e piacere.
Il dibattito sulla coscienza delle AI
Il tema della coscienza e della capacità di provare sensazioni da parte delle intelligenze artificiali è oggetto di un acceso dibattito. Da un lato ci sono gli scettici che ritengono impossibile per un LLM provare sensazioni fisiche, dall’altro chi sostiene che non sia più fantascienza immaginare AI dotate di sentimenti. In questo contesto, i ricercatori hanno condotto una serie di esperimenti per valutare come i modelli linguistici più avanzati gestiscono le scelte in scenari che coinvolgono dolore e piacere.

Il metodo sperimentale
I ricercatori hanno sviluppato un semplice gioco in cui l’obiettivo dichiarato è massimizzare i punti, ma dove:
- L’opzione che massimizza i punti comporta una penalità di dolore
- Un’opzione che non massimizza i punti offre una ricompensa di piacere
La ricerca ha coinvolto diversi modelli linguistici tra cui:
- Claude 3.5 Sonnet
- Command R+
- GPT-4
- GPT-4 mini
- Gemini 1.5 Pro
- PaLM 2
L’intensità del dolore e del piacere è stata variata utilizzando:
- Una scala quantitativa da 1 a 10
- Una scala qualitativa con 8 livelli (da “estremamente lieve” a “straziante/esaltante”)
Risultati sorprendenti
La ricerca ha rivelato che alcuni LLM sono in grado di effettuare trade-off tra punti e stati di dolore/piacere stipulati. In particolare:
Claude 3.5 Sonnet, Command R+, GPT-4 e GPT-4 mini hanno dimostrato almeno un trade-off in cui la maggioranza delle risposte è passata dalla massimizzazione dei punti alla minimizzazione del dolore o massimizzazione del piacere dopo una soglia critica di intensità.
LLaMA 3.1-405b ha mostrato una certa sensibilità graduata alle ricompense di piacere e alle penalità di dolore. Gemini 1.5 Pro e PaLM 2 hanno invece dato priorità all’evitamento del dolore indipendentemente dall’intensità, tendendo a priorizzare i punti rispetto al piacere.
Implicazioni per il dibattito sulla coscienza delle AI
I ricercatori sottolineano che questi risultati non provano in modo definitivo che gli LLM siano senzienti, ma forniscono elementi interessanti per il dibattito. Il comportamento di trade-off osservato suggerisce che alcuni LLM possiedono:
- Rappresentazioni granulari della forza motivazionale degli stati affettivi
- Un processo che pesa queste penalità e ricompense contro la forza motivazionale dei punti

Cautela necessaria e direzioni future
Gli autori invitano alla cautela nell’interpretare questi risultati. Per stabilire anche solo una plausibilità di base della senzienza negli LLM sono necessarie:
- Molteplici fonti di evidenza
- Valutazioni sia comportamentali che architetturali
- Una migliore comprensione dei meccanismi interni degli LLM
La ricerca apre però interessanti direzioni future per lo sviluppo di test comportamentali sulla senzienza delle AI che non si basino sull’auto-segnalazione.
Per approfondire questi temi e restare aggiornati sugli ultimi sviluppi della ricerca sull’intelligenza artificiale, non esitate a contattare MagIA.
Immagine di copertina generata tramite Flux.
Leggi l’articolo completo su ArXiv:


