• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Parole senza mondo: le macchine parlano, ma dicono qualcosa?

IA senza mondo

Il linguaggio come prodotto degli LLM

Sono passati più di tre anni da quando, nel novembre del 2022, ChatGPT ha reso accessibile al grande pubblico la potenza dei modelli linguistici di grandi dimensioni. Da quel momento molti passi avanti sono stati compiuti nel rendere sempre più affidabili e performanti tali modelli. A ChatGPT se ne sono affiancati molti altri (Claude, Gemini, Llama, Mistral, Grok ecc.) e la platea di chi ne fa un utilizzo quotidiano si è enormemente allargata. Anche gli ambiti di utilizzo si sono moltiplicati: dalla programmazione all’analisi dei dati, dalla scrittura all’assistenza allo studio, dall’ambito medico a quello legale, fino al sostegno psicologico ed emotivo.

Stante questa enorme diffusione, una domanda si fa sempre più stringente: il linguaggio prodotto da questi sistemi è davvero significante per l’uomo? Vale a dire: esso contribuisce alla costruzione del significato che attribuiamo al mondo oppure si limita a produrre sequenze linguistiche formalmente plausibili ma prive di reale portata semantica ed epistemica?

Un quesito quanto mai rilevante, tanto più che da esso ne derivano molti altri: le macchine del linguaggio pensano? Comprendono? Hanno o potranno avere una coscienza? Sono davvero creative?

Di primo acchito appare spontaneo, invero, associare la questione del linguaggio a quella della vera o presunta soggettività di tali macchine: se il linguaggio degli LLM è un prodotto delle macchine, non si potrà che porsi la domanda sulla natura del produttore.

LLM: pappagalli stocastici o portatori di proprietà emergenti?

Spostando l’attenzione sullo statuto ontologico delle macchine del linguaggio emergono diverse posizioni interpretative, che ruotano intorno a due poli: chi sostiene che i large language models non siano altro che dei sistemi che riproducono token (parole, parti di parole, spazi, segni di punteggiatura) su basi probabilistiche, senza alcuna comprensione di ciò che dicono; chi invece ha ravvisato nella produzione di alcuni modelli particolarmente performanti l’emergere di proprietà non direttamente derivabili dalle correlazioni statistiche sui dati.

La prima tesi è quella sostenuta da Emily Bender, Timnit Gebru, Angelina McMillan-Major e Shmargaret Mitchell nell’articolo divenuto ormai celebre, intitolato: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?[1]. Con un’immagine suggestiva, gli autori sostengono che gli LLM sono paragonabili a dei pappagalli stocastici, in quanto il loro meccanismo di funzionamento si attiene in modo stringente al principio probabilistico: dato un dataset di addestramento e una finestra di contesto (che pondera il “peso” dei token nell’ambito di una conversazione) i token vengono allocati uno dopo l’altro su basi statistiche in modo da generare una risposta il più plausibile possibile.

Stante questo schema di funzionamento, dunque, da un punto di vista architetturale, gli LLM non hanno e non possono avere una comprensione semantica di ciò che affermano. Il linguaggio da loro prodotto, in altre parole, per quanto ben formulato e convincete sul piano formale rimane imponderabile sul piano del contenuto. Il rischio palesato dagli autori dell’articolo è dunque quello di attribuire troppa importanza ad un linguaggio di cui non si può verificare l’affidabilità epistemica.

Una tesi di segno opposto è quella che emerge nell’articolo del 2022, pubblicato da un gruppo di ricercatori di Google Brain, dal titolo: Emergent Abilities of Large Language Models[2]. L’assunto fondamentale è qui l’idea che al superare di una certa soglia dimensionale del modello (numero di parametri, dimensione del dataset di addestramento, potenza di calcolo) emergerebbero delle proprietà non osservabili nei modelli di scala inferiore. In particolare, si riscontrerebbero capacità emergenti nell’ambito del ragionamento aritmetico, logico e analogico, nella capacità di articolare passaggi intermedi di ragionamento in modo spontaneo (chain-of-thought reasoning), nella comprensione del linguaggio naturale complesso, nella traduzione e nel trasferimento cross-linguistico, nella calibrazione dell’incertezza.

Un aumento quantitativo delle caratteristiche strutturali del modello produrrebbe, dunque, raggiunto un punto nodale, un cambiamento qualitativo delle performance del modello stesso.

Ora, per quanto questa tesi di hegeliana memoria sia affascinante, sul piano strettamente teorico ci pare alquanto fumosa. Se l’intero processo di produzione dell’output è avvolto nell’incertezza – stante la natura opaca delle operazioni combinatorie e statistiche che generano il linguaggio nei modelli di grandi dimensioni – l’idea che tali proprietà emergenti siano il frutto di una trasformazione qualitativa del modello e non piuttosto l’effetto di un miglioramento graduale delle performance dovuto allo scaling dei parametri rimane, allo stato attuale delle analisi, difficile da distinguere empiricamente.

Sebbene non si possa confutare in modo incontrovertibile la tesi delle proprietà emergenti – data l’impossibilità di individuare con certezza la causa del cambiamento di funzionamento dei modelli – una certa cautela metodologica imporrebbe dunque di non attribuire agli LLM proprietà non verificabili.  

Una sfida inedita per il linguaggio

Se in via ipotetica assumessimo dunque per vera la tesi di Bender et al., che ne conseguirebbe sul piano del linguaggio? Se gli LLM non fossero che pappagalli stocastici incapaci di comprensione semantica, dovremmo concludere che il linguaggio che tali modelli producono non può che essere insignificante per l’uomo? Ancora, se l’analisi sul funzionamento delle macchine del linguaggio ci porta ad affermare che queste ultime non hanno una conoscenza effettiva delle cose, ciò significa che il linguaggio dagli LLM non ci dice nulla sulla realtà?

Ora, se i large language models non sono programmati per avere una cognizione sul significato del linguaggio è pur vero che dal punto di vista formale mostrano un altissimo grado di correttezza. È del tutto comprensibile, allora, che l’utente sia portato ad attribuire a tale linguaggio un significato e dunque a lasciarsi interrogare ed influenzare da esso. Poco conta, infatti, che la lingua simulata dei modelli di AI non sia prodotta da un soggetto consapevole, se il risultato di tale “simulazione” impatta direttamente sulla costruzione del significato che attribuiamo alle cose. Se, come gran parte della filosofia del linguaggio contemporanea ha mostrato, il significato di un’espressione emerge dal suo uso all’interno di pratiche linguistiche condivise, allora anche il linguaggio prodotto dagli LLM può entrare a far parte di tali pratiche e contribuire alla configurazione del senso.

Certo, il linguaggio naturale, per quanto anch’esso manipolabile ed interpretabile dall’uditore o dal lettore, presenta un più alto tasso di resistenza ad un uso puramente strumentale. Trattandosi di una lingua viva e dialogica, infatti, se si vuole essere onesti intellettualmente, ai fini di una corretta interpretazione, si dovrà quanto meno fare i conti con quel mondo vitale da cui è scaturita. Per quanto il linguaggio degli LLM emerga dall’enorme corpus della tradizione linguistica umana, infatti, la lingua artificiale è priva di quella dimensione conflittuale e dialogica che invece caratterizza precipuamente la lingua umana.      

C’è però almeno un aspetto su cui a nostro avviso vale la pena riflettere: il linguaggio artificiale nel suo simulare il linguaggio naturale rivela una caratteristica specifica del linguaggio umano, ossia la disconnessione strutturale tra piano semantico e piano sintattico. Un discorso può essere infatti sintatticamente ineccepibile, ma semanticamente ambiguo.

Un problema su cui la filosofia del linguaggio e la linguistica si interrogano da secoli, ma che se riferito alle macchine del linguaggio assume un nuovo risvolto. Un conto è riflettere su questo disallineamento tra sintassi e semantica in riferimento al linguaggio naturale – laddove l’aspetto semantico è sempre aperto al confronto tra almeno due soggetti, ciascuno portatore di un proprio punto di vista – altro discorso è farlo nel contesto del linguaggio artificiale – dove l’utente si trova dinnanzi una lingua che, seppur ignora il piano semantico, è stata addestrata a rispecchiare determinati schemi e correlazioni che ha riconosciuto nel dataset di addestramento.

Se il disallineamento tra sintassi e semantica nel linguaggio naturale dà luogo, dunque, ad una serie di intrecci dialogici, che costituiscono il “luogo” di significanza del linguaggio stesso, nel caso della lingua artificiale, l’assenza del piano semantico finisce paradossalmente per alimentare una visione unilaterale della realtà.   

Le macchine del linguaggio ci pongono dinnanzi una nuova sfida, dunque, quella di una lingua che pur ignorando ab origine il piano semantico della realtà, produce paradossalmente una mutazione nel significato che attribuiamo al mondo. Si apre dunque la necessità di ripensare almeno in parte le categorie semantiche tradizionali, per comprendere come una lingua che nasce senza intenzionalità semantica possa tuttavia intervenire nella costruzione del significato che attribuiamo al mondo.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).


[1] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major e Shmargaret Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21) (New York: ACM, 2021), pp. 610–623, https://doi.org/10.1145/3442188.3445922.

[2] Jason Wei et al., Emergent Abilities of Large Language Models, Transactions on Machine Learning Research (2022), https://doi.org/10.48550/arXiv.2206.07682.

Esplora altri articoli su questi temi