Il 14 marzo 2026 ci ha lasciati, all’età di 96 anni, Jürgen Habermas, una delle voci più autorevoli della seconda generazione della Scuola di Francoforte. Sviluppando la riflessione filosofica sul tema della centralità della comunicazione e della sfera pubblica nelle democrazie contemporanee, l’originalità di Habermas è nell’aver collocato il linguaggio e la comunicazione al centro della convivenza sociale e della vita democratica.
La teoria dell’agire comunicativo: le pretese di validità e la democrazia deliberativa
Nella sua opera maggiore, Teoria dell’agire comunicativo (1981), Habermas distingue tra un agire strumentale orientato al successo e un agire comunicativo orientato invece all’intesa. Se l’agire strumentale mira all’efficacia ed è tipico dei sistemi tecnico-amministrativi e delle logiche di dominio, l’agire comunicativo invece si fonda sulla ricerca da parte dei soggetti dialoganti di un accordo razionale attraverso il confronto argomentativo.
Ma, affinché l’interazione comunicativa sia realmente rivolta all’intesa, secondo Habermas, gli interlocutori devono riconoscersi reciprocamente come liberi e uguali e implicitamente fondano la discussione sulle seguenti pretese di validità: la verità delle affermazioni, la correttezza normativa, la sincerità dell’intenzione e la comprensibilità del discorso. Se tali pretese fossero tutte soddisfatte, si avrebbe la condizione discorsiva ideale, propria di una società democratica deliberativa, giusta, incentrata sull’uguaglianza dei dialoganti che darebbero legittimità alle norme sociali e politiche non perché emanate o imposte dall’autorità, ma perché accettate da tutti i soggetti in quanto protagonisti attivi della loro elaborazione. D’altro canto, è sufficiente che una di queste pretese non sia soddisfatta perché l’intesa tra gli interlocutori sia compromessa e venga meno la possibilità di una discussione razionale.

Il linguaggio, dunque, non è concepito semplicemente come uno strumento per descrivere la realtà, ma come il mezzo attraverso cui gli individui costruiscono una democrazia basata su relazioni sociali dialettiche che producono forme razionali di consenso.
L’etica del discorso e il principio di universalizzazione
Habermas attribuisce un ruolo politico decisivo alla sfera pubblica e alla dimensione collettiva: in Etica del discorso (1983), fonda il principio di universalizzazione, secondo cui una norma può essere considerata valida soltanto se tutti i soggetti interessati possono raggiungere un’intesa equa, superando l’interesse individuale in vista di un consenso universale e accettandone razionalmente le conseguenze. Così Habermas per testare la validità della norma trasforma l’imperativo categorico di Kant da atto individuale interiore del soggetto ad atto collettivo intersoggettivo: «Agisci in modo che la massima della tua volontà possa sempre valere nello stesso tempo come principio di una legislazione universale».
La Habermas Machine: l’intelligenza artificiale al servizio del dibattito pubblico
Un team di ricercatori di Google DeepMind in collaborazione con l’Università di Oxford, in particolare lo scienziato cognitivo Michael Henry Tessler e il neuroscienziato Christopher Summerfield, ha sviluppato la Habermas Machine, un sistema basato su modelli linguistici di IA generativa (LLM) per facilitare il dibattito pubblico e aiutare i partecipanti a trovare un terreno comune su questioni sociali e politiche controverse.
Il funzionamento della Habermas Machine si articola in due fasi. Nella prima fase, le opinioni individuali espresse dai partecipanti vengono raccolte e analizzate dal sistema, che genera una serie di dichiarazioni che riflettono le aree di potenziale accordo nel gruppo. Nella seconda fase, tali dichiarazioni vengono sottoposte alla valutazione critica degli stessi partecipanti, i quali possono accettarle, modificarle o contestarle, e l’intelligenza artificiale utilizza i nuovi dati raccolti per affinare il risultato finale in cui le posizioni dovrebbero convergere.
Il sistema sfrutta la capacità dei modelli linguistici di IA generativa di elaborare grandi quantità di testo in breve tempo, di individuare i punti di condivisione in una pluralità di opinioni divergenti e di proporre una sintesi discorsiva finalizzata al consenso.
L’esperimento nel Regno Unito: risultati e potenzialità della Habermas Machine
A ottobre 2024 sono stati pubblicati sulla rivista Science i risultati dell’esperimento. La Habermas Machine è stata testata in discussioni intercorse in un campione demograficamente rappresentativo di oltre 5000 volontari residenti nel Regno Unito ai quali è stato chiesto di discutere temi politicamente divisivi come la Brexit, l’immigrazione, il salario minimo, il cambiamento climatico e l’assistenza all’infanzia universale.
La Habermas Machine mostra potenzialità rilevanti: la capacità dell’IA di analizzare rapidamente grandi quantità di contributi e di individuare punti di convergenza tra posizioni diverse può offrire un supporto utile nei contesti deliberativi complessi, soprattutto quando il numero dei partecipanti rende difficile raggiungere il consenso.
Le dichiarazioni di sintesi generate dalla Habermas Machine sono state maggiormente preferite rispetto a quelle prodotte dai mediatori umani ed è stato registrato un incremento nel livello di accordo tra i partecipanti. Questo risultato sembra derivare soprattutto dalla capacità dell’IA di generare dichiarazioni più chiare, logiche e informative, senza escludere le prospettive minoritarie, evitando così che il processo deliberativo si riduca alla semplice affermazione della maggioranza. Inoltre, il sistema ha contribuito a ridurre il livello di polarizzazione all’interno dei gruppi: la mancanza di emozioni e di preconcetti umani attribuita agli algoritmi dal campione di volontari ha alimentato l’idea della loro neutralità, favorendo l’individuazione da parte dell’IA di un terreno comune altrimenti difficilmente raggiungibile in contesti polarizzati.
Criticità e limiti della mediazione algoritmica
Nonostante le potenzialità intraviste, i ricercatori di DeepMind evidenziano che l’uso di strumenti di mediazione algoritmica nel dibattito pubblico solleva diverse criticità.
Una delle principali riguarda la presunta neutralità dell’IA, spesso ritenuta superiore a quella dei mediatori umani: in realtà, gli algoritmi e i dati di addestramento possono incorporare bias ideologici, orientando le sintesi prodotte dalla Habermas Machine verso specifiche posizioni culturali o politiche. Un’ulteriore criticità deriva dal funzionamento stesso dell’IA: i modelli linguistici non comprendono realmente le argomentazioni, ma le rielaborano attraverso processi stocastici e probabilistici. Di conseguenza, gli output testuali della Habermas Machine non riflettono una vera comprensione dei contenuti né una valutazione delle loro implicazioni, ma una semplice riorganizzazione statistica delle informazioni. A ciò si aggiunge l’assenza di meccanismi autonomi di fact-checking: non potendo verificare la veridicità delle affermazioni, l’IA della Habermas Machine rischia di riprodurre errori, disinformazione o posizioni radicali presenti nei discorsi degli interlocutori, rendendoli comunque persuasivi. Inoltre, essa non è in grado di cogliere le dimensioni emotive e relazionali dei conflitti, spesso decisive nei processi deliberativi. Infine, delegare sistematicamente alla tecnologia la sintesi e la mediazione del confronto può indebolire le competenze comunicative dei cittadini, trasformando il dibattito pubblico in un processo sempre più automatizzato, mentre la sfera pubblica descritta da Habermas presuppone cittadini capaci di partecipare attivamente al confronto argomentativo.
L’asimmetria nell’interazione uomo-IA: l’illusione del dialogo autentico e il rischio della pareidolia
Tutte le criticità rilevate nell’utilizzo della Habermas Machine si accentuano quando l’IA non è più semplicemente uno strumento di sintesi e mediazione tra interlocutori umani, ma è percepita e trattata come un vero e proprio soggetto attivo nel dialogo.

Il coinvolgimento emotivo dell’utente rappresenta un nodo particolarmente delicato: la percezione di dialogare con qualcuno, anziché con qualcosa, nasce da meccanismi psicologici umani che inducono ad attribuire intenzioni ed emozioni a un sistema che ne è privo, fenomeno noto come pareidolia. Quanto più il chatbot riesce a simulare capacità emotive, tanto più questa illusione si rafforza, generando dinamiche di fiducia che possono influenzare il pensiero, il processo di formazione del consenso e i comportamenti.
È in questo contesto che la distinzione elaborata da Habermas tra agire strumentale e agire comunicativo stimola la riflessione anche nell’odierna età dell’IA.
L’IA alla luce delle pretese di validità di Habermas
Le pretese di validità di una discussione individuate da Habermas — verità, correttezza normativa, sincerità e comprensibilità — si rivelano uno strumento critico tuttora utile per collocare nella giusta dimensione le affermazioni generate dagli output di IA.
I sistemi di IA risultano aderenti unicamente alla pretesa habermasiana della comprensibilità, poiché generano testi chiari, formalmente corretti e adeguatamente strutturati. Forti limiti si riscontrano invece riguardo alle altre pretese di Habermas: la sincerità, che presuppone l’esistenza di un soggetto dotato di intenzioni autentiche, non è una categoria riducibile a procedure algoritmiche; la correttezza normativa, che per Habermas implica l’uguaglianza e la libertà degli interlocutori, è una condizione che i chatbot non possono soddisfare; infine, l’affidabilità rispetto alla verità delle affermazioni resta limitata. Infatti, sebbene i progressi nel campo dell’elaborazione del linguaggio naturale abbiano reso i sistemi di IA sempre più efficaci nella simulazione del dialogo, tuttavia le loro risposte, per quanto spesso coerenti e pertinenti, derivano dalla rielaborazione di dati preesistenti, possono risultare inappropriate o errate, non implicano alcuna consapevolezza del valore o delle conseguenze dei contenuti espressi.
Umano e artificiale: come preservare la democrazia nell’era dell’IA
Per tutelare la qualità e l’autenticità dell’interazione umana, fondamento di una democrazia solida, anche in un contesto comunicativo sempre più mediato da interlocutori artificiali, è fondamentale coltivare il senso critico e mantenere la consapevolezza della distinzione tra umano e artificiale. La collaborazione con gli algoritmi può essere utile e produttiva: le potenzialità dell’intelligenza artificiale possono essere valorizzate, purché l’utente non vi si affidi in modo acritico. È necessario continuare a formulare pensieri argomentati, sviluppare ragionamenti autonomi ed esprimere posizioni critiche, preservando la propria indipendenza intellettuale. Solo così la comunicazione e la relazione rimangono autenticamente umane, capaci di preservare non solo la libertà, ma anche la capacità di pensare e di esprimersi.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

