• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Dalla Grammatica Universale ai Pappagalli Stocastici

Pappagallo stocastico

L’atrofia cognitiva e la nuova Neolingua nell’era dei Large Language Models

La paleontologia (branca che studia l’evoluzione della specie umana) ci insegna che l’uomo è in grado di adattare la propria struttura fisica a seconda dell’ambiente che lo circonda; ad esempio, l’ultima parte della colonna vertebrale (il coccige) è quel che resta dell’antica coda dei nostri antenati primati, i quali, quando hanno iniziato ad assumere la posizione eretta, hanno modificato completamente lo scheletro e costretto la coda a cambiare forma e di conseguenza anche il nostro osso.

Se la paleontologia ci testimonia la capacità adattativa del corpo umano nel corso dei millenni, la linguistica moderna ci pone di fronte ad un interrogativo più inquietante: cosa accade quando deleghiamo la capacità di sintassi alle macchine? Per rispondere, è necessario interrogare, seppur virtualmente, le figure di Noam Chomsky e Derek Bickerton.

Tra Chomsky e i Modelli Linguistici: il paradosso della sintassi

Chomsky ha rivoluzionato l’interpretazione della mente umana, postulando l’esistenza di una Grammatica Universale. Il linguaggio non è un semplice artefatto appreso per imitazione dal mondo esterno, ma è una facoltà innata biologica dell’uomo: l’essere umano possiede l’intento comunicativo, ancor prima di poter emettere un suono.

Qui sorge il paradosso biologico. I Large Language Models (LLM), operano in modo diametralmente opposto alla visione chomskiana. Non possiedono alcuna intenzionalità biologica, né Grammatica Universale. Sono dei puri motori statistici alimentati dalla probabilità: calcolando la parola successiva più probabile. L’AI simula la competenza linguistica senza in realtà avere nessuna padronanza e comprensione del significato. Assistiamo qui ad opposizione tra due realtà: da un lato l’uomo che costruisce una frase partendo dal significato, dall’altro la macchina che assembla una frase simulando un significato.

Dal Protolinguaggio all’Atrofia Cognitiva

Se ci spostiamo sulla prospettiva di Derek Bickerton, la riflessione si sposta sulla struttura neurocognitiva dell’uomo. Per Bickerton, il linguaggio è stato il motore trainante dell’evoluzione cerebrale umana: il passaggio dal “Protolinguaggio” dell’Homo Habilis, alla sintassi complessa dell’Homo Sapiens, ha modellato la nostra architettura neurale, persino modificando la nostra anatomia, come la discesa della laringe. Il linguaggio non è solo uno strumento che usiamo per comunicare, ma è ciò che siamo.

La domanda che ne deriva per l’etica dell’AI è cruciale: se il cervello umano si è perfezionato ed evoluto per gestire una grande complessità linguistica, cosa comporta l’interazione costante con testi generati artificialmente? Il rischio non è solo un impoverimento linguistico, ma una vera e propria “atrofia cognitiva”. Se smettiamo di sforzarci nel trovare la parola giusta, delegando la costruzione logica del pensiero ad un algoritmo, non stiamo forse percorrendo a ritroso il cammino tracciato da Bickerton?

Le istituzioni educative sono in allarme non tanto per il rischio di plagio, ma quanto per la perdita del processo generativo. Se l’AI scrive per noi, sta in parte pensando per noi. Il sistema biologico opera secondo la legge “ciò che non si usa si perde”, quindi la domanda è: l’uomo potrebbe modificare le proprie funzioni cognitive interagendo quotidianamente con l’Intelligenza Artificiale?

I nuovi modelli linguistici LLM (Large Language Models) sono sempre più evoluti e hanno reso ormai impossibile riconoscere un testo generato dall’AI e uno generato dall’uomo. La loro elevata capacità di addestramento con l’uso massivo di dati contenuti sul web ha perfezionato la loro abilità di generare testi e produrre interazioni con l’essere umano sempre più realistiche.

La Nuova Neolingua: il rischio di una normalizzazione statistica

Orwell dal lontano 1948, quando scrisse la sua opera più famosa “1984”, delineò chiaramente gli intenti politici della Neolingua: ridurre il vocabolario, per restringere l’orizzonte del pensiero sovversivo. Oggi con tale profezia, possiamo sempre più chiaramente cogliere un parallelismo, questa volta tecnologico.

Mentre la Neolingua operava per una “slessicazione”, i Large Language Models operano per “normalizzazione statistica”. Poiché l’algoritmo è programmato per restituire le parole più probabili, esso tende inevitabilmente ad una mediocrità linguistica. Il risultato è un appiattimento delle sfumature: in questo contesto, uno slancio poetico o una metafora ardita non vengono valorizzati come atti creativi, ma scartati come anomalie statistiche, vere e proprie allucinazioni di sistema.

Ciò che Orwell aveva sicuramente predetto è l’adattamento dell’uomo alla macchina. Nel tentativo di ottenere la risposta migliore dai grandi modelli linguistici, stiamo imparando l’arte del Prompt Engineering. Semplifichiamo, eliminando qualunque tipo di ambiguità, strutturando il più possibile secondo una logica sequenziale, priva di qualunque connotazione emotiva, che rende il linguaggio più umano.

Stiamo inconsapevolmente creando una Neolingua, ingegnerizzando il linguaggio, portandoci ad un’auto-limitazione cognitiva. Questo è l‘impoverimento del linguaggio che stiamo vivendo nei tempi moderni, dove esprimere un’emozione o una sfumatura sta diventando sempre più difficile, abituandoci sempre di più a scrivere il perfetto prompt per farci comprendere dall’AI.

È possibile un futuro in cui rimarremo senza parole, e non perché siamo sopraffatti dalle emozioni, ma perché non avremo parole per esprimerle?

Una macchina è sicuramente in grado di classificare un errore come tale, ma è l’uomo a comprendere l’importanza dell’errore. L’imperfezione è ciò che ci rende umani ed è questo che nobilita l’uomo a perseverare nel suo guizzo creativo, nel labor animi, l’uomo è in grado di mostrare la sua potenza in sintonia con il mundi motus universalis. Un’abbondanza non di dati statistici, ma in un flusso di coscienza che affonda le sue radici in una “resistenza linguistica” perseverando nella pratica della scrittura e del pensiero.

Il patrimonio umano e il suo futuro risiedono nelle nostre menti ed è solo in questo modo che conserveremo la nostra umanità.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

Esplora altri articoli su questi temi