• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Intelligenza artificiale e pace: responsabilità, linguaggio e convivenza

IA e pace

La barbarie non arriva all’improvviso

La barbarie avanza quando il pensiero si restringe, quando il linguaggio si degrada a slogan, quando la responsabilità si dissolve in procedure. La guerra è la sua forma estrema; ma la sua preparazione è spesso silenziosa. Per questo, parlare di pace nell’era dell’intelligenza artificiale significa, prima di tutto, parlare di cultura del pensiero: di come una società impara — o disimpara — a pensare.

Le guerre che segnano il nostro tempo, in aree diverse del mondo, mostrano con particolare evidenza che la violenza non è soltanto un evento militare o geopolitico. È anche il risultato di processi più lenti: erosione della fiducia pubblica, semplificazione propagandistica, impoverimento del linguaggio, assuefazione all’ostilità, difficoltà crescente a distinguere tra informazione, narrazione e manipolazione. In questo quadro, la questione della pace non può essere separata da quella delle condizioni culturali che la rendono pensabile.

L’intelligenza artificiale si colloca precisamente su questo crinale. Non solo perché può essere impiegata in ambiti sensibili, ma perché modifica l’ambiente cognitivo entro cui maturano giudizi, priorità, credenze e reazioni. Il problema, quindi, non riguarda soltanto ciò che questi sistemi fanno, ma ciò che rendono più probabile nel nostro modo di percepire e interpretare il reale (Floridi 2013).

La pace come disciplina del pensare

La pace non è soltanto un fatto politico-diplomatico. È un’architettura quotidiana: fiducia nella parola, disponibilità al confronto, capacità di riconoscere l’altro come fine e non come mero mezzo. Se queste condizioni si indeboliscono, la convivenza si irrigidisce e la violenza diventa, progressivamente, pensabile. La pace, in altre parole, ha anche condizioni epistemiche e morali: richiede attenzione, memoria, discernimento.

Da questo punto di vista, la pace non coincide semplicemente con l’assenza di conflitto aperto. Essa dipende anche dalla qualità del discorso pubblico, dalla tenuta delle mediazioni, dalla possibilità di articolare il dissenso senza degradarlo in ostilità permanente. Una società nella quale tutto viene accelerato, polarizzato o ridotto a schieramento binario diventa più vulnerabile non solo alla menzogna, ma anche all’indifferenza. E l’indifferenza è una delle premesse più insidiose della barbarie.

Hannah Arendt ha mostrato che il venir meno del pensiero come esercizio di giudizio apre spazi inquietanti alla deresponsabilizzazione; Paul Ricœur, da parte sua, ha insistito sul nesso tra memoria, identità narrativa e riconoscimento. Letti oggi, questi percorsi convergono su un punto decisivo: la pace dipende anche dalla capacità di mantenere vivo un rapporto non automatico con il vero, con il tempo e con gli altri (Arendt 1963; Ricœur 1990).

L’IA come ambiente cognitivo

L’intelligenza artificiale è spesso presentata come strumento. Ma, nell’uso sociale, tende a diventare ambiente: orienta ciò che appare plausibile, urgente, credibile. E sposta il baricentro della conoscenza dalla giustificazione alla prestazione: “funziona” prende il posto di “posso renderne ragione”. In tale passaggio si insinua un rischio civile: quando la domanda “perché?” diventa superflua o impraticabile, il dissenso si impoverisce e la fiducia si spezza (Floridi 2013).

La questione non riguarda soltanto l’efficienza dei sistemi, ma il tipo di rapporto con il sapere che essi favoriscono. Quando il criterio implicito diventa la rapidità della risposta o la fluidità dell’interazione, si corre il rischio di indebolire il valore della verificabilità, della discussione argomentata, del tempo necessario alla comprensione. Non si tratta di opporre nostalgia umanistica a innovazione tecnologica; si tratta di comprendere che ogni infrastruttura cognitiva educa, implicitamente, a certe abitudini mentali e ne scoraggia altre.

In parallelo, la generazione automatica di testi e immagini moltiplica il dicibile senza garantire comprensione. Non è solo un problema di quantità d’informazione; è una crisi della narrazione. Se l’esperienza non viene più trattenuta e interpretata, ma soltanto consumata e sostituita, si indeboliscono memoria, promessa, riconciliazione: cioè il tempo condiviso, materia della pace (Han 2023; Ricœur 1990).

La posta in gioco è dunque più ampia del dibattito sulla correttezza tecnica dei sistemi. Riguarda la qualità del tessuto simbolico comune: la possibilità di abitare uno spazio pubblico nel quale le parole non siano meri vettori di reazione, ma strumenti di comprensione e responsabilità.

Dal giudizio all’automatismo: una soglia antropologica

Sarebbe ingenuo attribuire alle tecnologie la causalità delle guerre. Ma sarebbe altrettanto ingenuo ignorare il clima antropologico che esse possono favorire. Ambienti che premiano reazione rapida, semplificazione e polarizzazione esercitano una pressione costante sul giudizio: ci addestrano all’automatismo più che alla riflessione. Quando l’immaginazione morale si atrofizza, la propaganda trova terreno; quando la verità diventa “contenuto” persuasivo, il conflitto si governa come gestione delle emozioni; quando il discorso pubblico perde argomentabilità, cresce l’ingiustizia epistemica: alcune voci non vengono ascoltate non perché false, ma perché rese irrilevanti. La barbarie, allora, non è un “altrove”: è una possibilità che riemerge quando il pensiero si impoverisce (Fricker 2007).

Qui emerge una soglia antropologica decisiva. L’IA non modifica soltanto procedure operative; incide anche sul rapporto tra decisione e responsabilità, tra visibilità e invisibilità, tra presenza e irrilevanza. Ogni volta che un sistema contribuisce a determinare che cosa conta, che cosa circola, che cosa resta ai margini, esso interviene indirettamente anche sulle condizioni della convivenza (Floridi 2013).

In tempi segnati da conflitti armati, guerre d’informazione, discredito sistematico della controparte e saturazione emotiva dello spazio mediatico, questa dinamica diventa ancora più rilevante. La pace non si logora soltanto sotto i colpi delle armi, ma anche quando si corrodono le condizioni cognitive e simboliche che permettono a una società di riconoscere il peso delle parole, il valore della prova, la dignità delle vite esposte alla violenza.

Responsabilità senza capri espiatori

Un punto va tenuto fermo: l’IA produce effetti reali, ma non è un soggetto morale. Attribuirle intenzioni — “ha voluto”, “ha deciso” — è un modo elegante per sottrarre responsabilità ai decisori umani. La pace, invece, esige tracciabilità: chi definisce obiettivi, dati, soglie, incentivi? Chi risponde degli impatti sui vulnerabili?

In un’epoca di potenza tecnica, la responsabilità non è solo colpa a posteriori: è rendicontabilità ex ante, dovere verso chi subirà conseguenze lontane nel tempo e nello spazio. Senza questa serietà, la tecnica diventa un dispositivo perfetto per “fare molto” senza che nessuno risponda di nulla (Jonas 1979).

Questo vale anche per la dimensione materiale dell’infosfera. Non esiste “digitale” senza infrastrutture, energia, estrazioni, filiere di lavoro, distribuzioni asimmetriche dei costi e dei benefici. Se i vantaggi della tecnologia si concentrano, mentre i costi umani e ambientali vengono spostati sui più fragili, cresce un’ingiustizia strutturale; e dove l’ingiustizia si accumula, la pace si indebolisce (Crawford 2021).

Per questa ragione, la questione della pace nell’era dell’IA non può essere ridotta a una discussione settoriale sulla regolazione tecnica. Essa richiede una riflessione più ampia sulla giustizia delle infrastrutture, sulla distribuzione delle vulnerabilità e sulla qualità politica delle decisioni che governano l’innovazione.

Promuovere la pace è promuovere un altro modo di pensare

Se la pace è anche una forma del pensare, allora non basta regolare strumenti: occorre coltivare disposizioni che l’ambiente algoritmico non premia spontaneamente.

Interiorità. Un luogo non colonizzato dall’urgenza, in cui l’esperienza possa diventare coscienza e decisione. Weil chiamava “attenzione” questa disponibilità al vero e all’altro: non efficienza mentale, ma disciplina dello sguardo (Weil 1951).

Senso critico. Difesa del contraddittorio, della verificabilità, della lentezza necessaria al discernimento. La libertà non coincide con la scelta rapida; spesso nasce dal tempo del giudizio (Popper 1959).

Cura delle relazioni e del mondo. La pace nasce da prossimità, mediazione e responsabilità della parola. E oggi include anche la materialità dell’infosfera: non esiste “digitale” senza infrastrutture, energia, estrazioni e filiere di lavoro spesso invisibili. Se i benefici della tecnologia si concentrano mentre i costi umani e ambientali vengono spostati sui più fragili, cresce un’ingiustizia strutturale; e dove l’ingiustizia si accumula, la pace si indebolisce (Crawford 2021; Jonas 1979).

A queste condizioni se ne può aggiungere un’altra, la qualità del linguaggio pubblico. Quando il linguaggio perde precisione, quando tutto diventa iperbole, quando il conflitto viene rappresentato esclusivamente come urto tra identità incompatibili, anche la capacità di mediazione si impoverisce. Difendere parole esatte, distinzioni pertinenti, nessi argomentativi non è un lusso formale: è una condizione della convivenza.

Un compito culturale prima ancora che tecnico

Per questa ragione, promuovere la pace nell’era dell’intelligenza artificiale è prima di tutto un compito culturale. Le norme sono necessarie; ma da sole non bastano. Nessuna regolazione può sostituire una società capace di formare giudizio, di sostenere il dissenso argomentato, di riconoscere la vulnerabilità senza spettacolarizzarla, di opporsi all’automatismo della reazione permanente.

L’educazione, qui, non riguarda soltanto l’alfabetizzazione digitale o l’acquisizione di competenze tecniche. Riguarda la formazione di soggetti capaci di abitare ambienti complessi senza rinunciare alla responsabilità del comprendere. In questo senso, la pace non è un tema esterno all’innovazione: è uno dei criteri più esigenti per valutarne la direzione.

Non si tratta di chiedere alla tecnica ciò che solo la politica, la cultura e le istituzioni possono garantire. Si tratta, piuttosto, di evitare che la tecnica venga assunta come surrogato del giudizio umano. Ogni volta che si attribuisce ai sistemi una neutralità autosufficiente, si prepara una forma di deresponsabilizzazione. Ogni volta che si rinuncia a interrogare fini, asimmetrie, impatti e implicazioni, si restringe lo spazio della libertà pubblica (Floridi 2013; Jonas 1979).

La barbarie non è inevitabile

In questa direzione si collocherà anche il prossimo Convegno multidisciplinare “Salus Hominis” alla Pontificia Università Lateranense (12–13 marzo 2026), dedicato al rapporto tra custodia del creato e intelligenza artificiale: un’occasione di confronto utile a ribadire che l’innovazione tecnologica non può essere separata dalle questioni della responsabilità, del limite e della giustizia intergenerazionale.

La barbarie non è inevitabile. L’IA può ampliare conoscenza e cooperazione, ma solo se la società investe nel contrario dell’automatismo: educazione del pensiero, responsabilità trasparente, cura del vero. Tutelare la pace, oggi, significa prima di tutto difendere la dignità del pensare.

Più precisamente, significa difendere le condizioni culturali del giudizio: la serietà della parola, la verificabilità dei discorsi pubblici, la tracciabilità delle responsabilità, la protezione dei vulnerabili, la capacità di sottrarsi agli automatismi della polarizzazione. In un tempo di potenza tecnica crescente, la questione decisiva non è soltanto che cosa i sistemi sappiano fare, ma quale forma di convivenza rendano possibile.

Riferimenti essenziali

Arendt, H. (1963), Eichmann in Jerusalem.
Crawford, K. (2021), Atlas of AI.
Floridi, L. (2013), The Ethics of Information.
Fricker, M. (2007), Epistemic Injustice.
Han, B.-C. (2023), Die Krise der Narration.
Jonas, H. (1979), Das Prinzip Verantwortung.
Popper, K. (1959), The Logic of Scientific Discovery.
Ricœur, P. (1990), Soi-même comme un autre.
Weil, S. (1951), Attente de Dieu.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

Esplora altri articoli su questi temi