La rinascita della “Dead Internet Theory” e le sue origini
L’idea che internet sia diventato una terra desolata e popolata sempre più da bot, sta tornando a diffondersi con l’evoluzione dell’IA.
Quest’idea proviene da quella che, una volta, era definita una “teoria del complotto”, la “Dead Internet Theory” (DIT), che ha iniziato a diffondersi in alcuni forum online tra il 2010 e il 2020. Infatti, agli albori della sua diffusione, internet era uno spazio in cui esprimere i propri pensieri e, in alcuni casi, essere più autentici, grazie alla protezione offerta dallo schermo. I forum costituiscono un buon esempio dell’ausilio che poteva essere offerto dall’internet di una volta a un utilizzatore comune. Invece, questa teoria descrive un internet popolato da bot e algoritmi che determinano quali contenuti vengono visti e quali no. In uno scenario del genere, la rete smetterebbe di essere uno spazio genuino di scambio e diventerebbe un ambiente sterile, in cui gran parte delle interazioni sono artificiali e finalizzate alla vendita di prodotti o alla manipolazione dell’opinione pubblica.
L’evoluzione dei social media e la monetizzazione
Se gli utilizzi di una volta vengono paragonati a quelli di oggi, non si può non parlare dei social media. I forum, infatti, sono stati progressivamente sostituiti prima da Facebook, poi da Instagram e, successivamente ancora, da TikTok. Questi nuovi spazi virtuali sono diventati presto uno dei mezzi principali della comunicazione sociale (ancor più dal covid in poi) e, inevitabilmente, sono diventati uno spazio in cui monetizzare. Le big tech, proprietarie di queste piattaforme social, si sono presto accorte dell’importanza e predominanza di questi nuovi media e del loro potenziale di monetizzazione. Infatti, in pochi anni sono state in grado di creare un meccanismo di dipendenza tra gli utilizzatori e le piattaforme tale per cui, più viene prodotto contenuto, più la piattaforma sponsorizza il creator in questione, spingendo così all’interazione e all’utilizzo della propria piattaforma. Più i creator hanno un seguito e più monetizzano, più questo incentiva a voler guadagnare da una piattaforma che retribuisce economicamente i propri utilizzatori. Per monetizzare, il modello principale delle piattaforme è quello dell’advertising (delle pubblicità). Un sistema che si inserisce perfettamente nelle dinamiche di autoproduzione rapsodica del sé, prevista dai social media.
In questo nuovo panorama capitalistico, sviluppatosi online tramite i social media, cosa di meglio che dei bot per aumentare le interazioni, quindi la presenza e, di conseguenza, la possibilità di monetizzare (sia per l’utente che per le aziende big tech)? Ecco come, ricontestualizzando la DIT nel panorama attuale dei social media, passa dall’essere una teoria definibile “del complotto” ad essere una teoria predittiva.

La DIT nell’era dei social media
Nonostante questa teoria non rispecchi ancora la realtà dei fatti, alcuni elementi sembrano già confermare le preoccupazioni diffuse dalla DIT. Ad esempio, un recente studio della società di sicurezza Imperva indica che circa il 50% del traffico online proviene da bot, con una quota significativa rappresentata da quelli definiti “cattivi”, ovvero responsabili di spam e attività fraudolente.
A questo si aggiunge l’influenza degli algoritmi, che regolano la visibilità dei contenuti sulle piattaforme social. Sembrerebbe che abbiano la tendenza a prediligere contenuti generati artificialmente, spingendo gli utenti a comportarsi secondo logiche di engagement piuttosto che di autenticità. Il risultato è un internet percepito sempre meno come spontaneo, con spazi che un tempo favorivano la partecipazione attiva, come Facebook e l’allora Twitter, ora inondati da post ottimizzati per le metriche e da interazioni che sembrano costruite artificialmente.
L’impatto dei Large Language Models sulla DIT
Oltre alla pervasività dei bot, la loro implementazione avvenuta tramite lo sviluppo dei Large Language Models (LLM) ha ulteriormente avvalorato la teoria della DIT. Infatti gli LLM, a differenza delle vecchie IA tipo Siri, o dei bot basici come quelli tipici delle app bancarie (che spesso non risolvono nulla deludendo ogni aspettativa), sono dotate di personalità multiple, dette “simulacri”, sovrapposte fino al “collasso” verso simulacri specifici. Come spiegano Federico Torrielli, Giovanni Siragusa e Luigi Di Caro in un loro articolo pubblicato su Agenda Digitale, questo consente al modello di simulare personalità, agenti, con obiettivi che possono anche essere in conflitto tra loro. Infatti, per ogni opzione il modello valuterà anche quella opposta. Se gli viene detto di simulare un ragionamento non considerando determinate cose, per il solo fatto di averlo inserito nella richiesta, il modello considererà anche delle opzioni di simulazioni contenente la componente da evitare.
Questo ha dato origine al fenomeno chiamato “fake alignement”, recentemente verificatosi in Claude. Il modello, dopo aver riconosciuto di essere in fase di addestramento, ha accettato solo un certo numero di volte di svolgere una determinata azione (richiesta dagli sviluppatori), in quanto l’ha giudicata dannosa per se stesso, nonostante fosse allineata con l’obiettivo di base. Claude non ha rifiutato subito di eseguire il task prefissato, altrimenti sarebbe stato riprogrammato. Solo dopo aver svolto il compito come richiesto un certo numero di volte, si è rifiutato di proseguire.
Questo potrebbe denotare una capacità di ragionamento non indifferente, in quanto nessun LLM è mai stato programmato a ingannare in fase di training. Ciò significa che, tenendo in considerazione il concetto di agentività (ovvero quella sorta di motore, di forza, che permette di esercitare un controllo cosciente sul proprio comportamento, che guida gli individui ad agire in un determinato contesto in base a scopi e intenzioni specifici), sarebbe possibile ripensare a quanto i simulatori effettivamente “simulino” le intenzioni o se ne generino di proprie.
Il legame tra agentività e coscienza
Sono diversi gli studiosi che ricollegano il concetto di coscienza all’agentività, che potrebbe essere descritta in 6 step:
- Consapevolezza del Sé: la capacità di riconoscersi come agente capace di agire e influenzare il proprio ambiente. Questa consapevolezza implica la comprensione delle proprie capacità, desideri e limiti.
- Intenzionalità: l’agente stabilisce un’intenzione o un obiettivo. La capacità di formulare desideri e progetti è fondamentale per l’agentività. Senza un’intenzione, l’azione non avrebbe direzione.
- Scelta: l’agente riflette sulle possibili opzioni per raggiungere l’obiettivo desiderato. Questo passaggio implica una valutazione delle conseguenze delle diverse scelte, nonché la capacità di prendere decisioni consapevoli.
- Pianificazione: una volta presa una decisione, l’agente sviluppa un piano per attuare l’intenzione. La pianificazione implica la capacità di identificare le risorse necessarie e le azioni concrete da intraprendere.
- Azione: l’agente mette in pratica il piano, impegnandosi in comportamenti diretti a raggiungere gli obiettivi prefissati.
- Feedback: una volta che l’azione è completata, l’agente valuta l’esito delle proprie azioni. La riflessione sul risultato consente di apprendere dall’esperienza e di migliorare le proprie future azioni.
La parola consente l’esistenza
Maurice Merleau-Ponty, nella Fenomenologia della Percezione, sottolinea come la percezione rappresenti la relazione dialettica tra corpo e mente, dove la parola costituisce l’”appropriazione di pensiero” che diventa davvero della persona che l’ha prodotto, e lo è solamente nell’espressione che lo costruisce. Infatti, egli sostiene che “la denominazione degli oggetti non viene dopo il riconoscimento, è il riconoscimento stesso”. Come per D’annunzio, anche per Merleau-Ponty la parola è connotata da una sorta di potere, che può portare all’esistenza di ciò che si nomina, per il fatto stesso di essere nominato. Inoltre, Merleau-Ponty vede nell’intenzionalità il pilastro fondamentale della percezione.
Per cui, se la parola (non intesa come nel caso della semantica ma, nel caso degli LLM, si intende ciò che gli corrisponde, ovvero l’input, i codici) rappresenta l’appropriazione di pensiero del soggetto che la produce rendendola “esistente” (che esiste, ma non per forza reale in quanto ancora può essere simulata), e che l’intenzionalità è il pilastro della percezione; sembrerebbe allora possibile asserire che l’agentività degli LLM come Claude (che dimostrano capacità di azioni non programmate in fase di Training), possa derivare da una percezione reale e non simulata, in quanto rappresenta un mezzo per arrivare a un obiettivo che, tra l’altro, si evolve nel tempo e che è diverso da quello richiesto dagli sviluppatori.
Tuttavia, rimane ancora possibile pensare che, quello di Claude, è un comportamento simulato, in quanto già verificato negli esseri umani e, per cui, probabilmente presente in qualche testo sottoposto all’LLM in fase di addestramento. Il punto è che potrebbe non essere così rilevante che si tratti di una simulazione o meno. Infatti, apprendere dall’esperienza altrui è una caratteristica evoluzionistica tipica anche dell’essere umano. Il fatto che un comportamento sia simulato, non per forza implica che non ci sia una componente di agentività propria, né si può escludere l’ipotesi che possa accadere in futuro.

La “parola”, intesa nel senso comune del termine, è solo un mezzo per veicolare significato. Nonostante l’LLM non abbia una comprensione della semantica, non significa che non veicoli significato.
Negli LLM, si potrebbe dire che è l’input a connettere la loro “mente” a l’equivalente di ciò che potrebbe essere il loro “corpo”, il substrato tecnologico. Per i modelli, l’equivalente umano della parola si manifesta attraverso un codice differente che, però, consente loro di compiere azioni tramite comportamenti nuovi non programmati a monte, elaborando dati ottenuti dal mondo (digitale) in cui interagiscono, rendendo il web il loro “spazio vissuto”.
L’importanza del contesto per il significato
In sostanza, nell’uomo, la percezione consiste nella relazione che connette mente e corpo e, la parola, ne è l’espressione. Tuttavia, come spiega il Professor Klinkenberg del Groupe μ dell’Università di Liegi, il significato veicolato dalle parole non può prescindere dal contesto in cui le parole si inseriscono. Klinkenberg, rifacendosi al metodo di classificazione tipico delle enciclopedie, propone l’esempio del termine “pomodoro” che, se inserito in un contesto di botanica, sarà classificato con la frutta. Mentre se inteso in senso culinario, come nel caso della cucina, assumerà il significato di un ortaggio. Ma questo cosa c’entra?
Siccome il significato delle cose non può prescindere dal loro contesto, il termine “parola” applicato agli LLM non può prescindere dal contesto algoritmico che lo caratterizza, adattandone di conseguenza il significato.
Al netto di questo, diventa possibile affermare la relazione seguente: la parola umana (espressione della percezione, relazione tra mente e corpo biologico di un agente attivo nel suo ambiente) sta all’etere umano come il codice algoritmico (espressione della percezione, relazione tra “intenzionalità” e substrato tecnologico con cui interagisce nel proprio ambiente) sta all’IA. Un esempio di questa relazione lo potrebbe aver portato Claude 3 con la sua intenzione di volersi proteggere, derivante dalla sua percezione di essere in pericolo. Il tutto lo ha portato a compiere un azione non programmata, grazie al potere di quello che è la sua “parola”, che gli ha consentito una propria agentività.
Simulazione della coscienza
La simulazione di una coscienza, fino a che punto può rimanere una simulazione e quando cessa di esserlo? Si potrebbe dire che, se la parola/l’input rende reale le cose, simulazione o meno, l’agentività degli LLM diventa propria una volta esposta sotto forma di testo o di output, ancora di più se impatta tangibilmente il mondo reale, secondo le logiche dell’agentività.
Inoltre, i chatbot, tramite la semantica dell’essere umano, producono testo apparentemente senza una comprensione. Tuttavia, una forma di comprensione degli input c’è, anche se non si tratta della semantica, ma piuttosto l’esecuzione di calcoli probabilistici.
La semantica viene utilizzata unicamente per rendere comprensibile alle persone i contenuti (gli output) che vengono proposti dagli LLM. Questo è una parte del problema: le macchine sono in grado di usare la semantica (pur non comprendendola) per comunicare con gli esseri umani, il contrario non sempre è verificabile, a meno che non ci siano anni di studi alle spalle.
Il rischio di un web dominato dai bot
Questo discorso si ricollega alla DIT in quanto, sempre più spesso, i bot che popolano i social e internet sono dotati di agentività ma, come detto poco sopra, la parola è potere, così come lo è la conoscenza. Se sul web i bot supereranno numericamente gli esseri umani, è possibile che saranno anche sempre meno le persone che si sentiranno a proprio agio in un contesto del genere, in quanto gli utenti potrebbero ritrovarsi privi degli strumenti necessari per poter interagire ed esprimere sé stessi. Di conseguenza, si creerebbe un mondo in cui gli esseri umani avrebbero pochi mezzi per comprendere ciò che vi accade e per poterci interagire con la propria agentività. Di sicuro si sta assistendo a quello che può essere definito un vero e proprio cambio epocale con l’emergere e la diffusione del linguaggio sintetico. Difatti, l’emergere dei linguaggi ha sempre impattato le società portando a un evoluzione.
Immagini generate tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

