• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Antiqua et Nova: l’umano nell’epoca dell’intelligenza artificiale

Volto umano e volto robotico che si osservano, simbolo del dialogo tra persona e intelligenza artificiale nel documento vaticano Antiqua et nova.

Terzo contributo della serie. Dopo le riflessioni di Guido Boella e Nicola Di Bianco, questo intervento approfondisce la distinzione tra calcolo e intelligenza, nodo centrale di “Antiqua et nova”, e indaga come tale discrimine possa orientare un uso dell’IA capace di tenere insieme persona, verità e responsabilità.

Premessa – Il nuovo alla prova dell’antico

Il titolo Antiqua et nova contiene una tesi: l’innovazione tecnica non abroga ciò che dell’umano è “antico”, ma lo mette alla prova. La Nota chiarisce fin dall’inizio che l’IA eccelle nell’esecuzione di compiti, ma non per questo pensa: confondere prestazione e giudizio, calcolo e verità significa preparare un trasferimento improprio di fiducia e di responsabilità (nn. 11–12). Questa chiarezza non nasce dal nulla: il documento si muove nell’orizzonte della tradizione classica e personalista — richiama esplicitamente Aristotele, Tommaso d’Aquino e Bonaventura, e tra i moderni Romano Guardini, Hannah Arendt, Nikolaj Berdjaev, Georges Bernanos — per attribuire alla tecnica un posto che non usurpi la misura dell’umano.

1. Ragione che calcola, intelletto che comprende

Uno dei passaggi più fecondi è il richiamo alla distinzione fra ratio e intellectus. La ragione discorsiva scompone, ordina, inferisce; l’intelletto coglie fini e significati, unifica conoscenza, volontà e affetti. L’IA può imitare porzioni della prima; non partecipa del secondo, che è orientamento al vero e al bene (nn. 14–15; 21–29; 30–35). Se l’intelligenza è teleologica, nessun aumento di prestazione computazionale produce da sé comprensione di ciò che è bene fare. Di qui una regola esigente: separare la previsione dalla decisione. Le macchine stimano e suggeriscono; la finalizzazione ai fini e l’assunzione di responsabilità restano umane e istituzionali (nn. 45–47). Non è un rifiuto della tecnica, ma un invito a non ridurre la prudenza a puro calcolo: esattamente la lezione che la tradizione (Aristotele; Tommaso) richiama, e che la Nota fa propria.

2. Corpo, relazione, narrazione

La persona non è un fascio di ingressi e uscite. Antiqua et nova insiste sull’incarnazione e sulla relazionalità: unità di anima e corpo, storia, legami, apertura al vero, al bene e al bello (nn. 16–20; 21–29). In questo quadro si comprende perché il documento metta in guardia dall’antropomorfizzare sistemi conversazionali: la simulazione di empatia non è esperienza di empatia; scambiare un’interfaccia loquace per un “tu” indebolisce la capacità di riconoscere l’altro nella sua imprevedibilità (nn. 56–63).

Per illuminare questo punto ricorro — come interlocutore contemporaneo, non citato nella Nota — a Byung-Chul Han. La sua diagnosi della società dell’informazione mette a fuoco lo scarto tra vita raccontabile e vita registrabile: l’istante misurato soppianta la durata, la memoria e il tessere trame, erodendo i luoghi in cui la verità diventa condivisa (Han 2024). La Nota, legando verità, bontà e bellezza all’unità della persona (nn. 21–29), mostra perché l’accumulo di informazioni non genera, da solo, senso: le grandi basi di dati colgono correlazioni; ma la ragione delle cose, ciò che rende un’azione giusta, domanda giudizio umano, maturato nel tempo lungo dell’esperienza. Restituire soglie, pause e spazi di narrazione non è nostalgia: è politica della verità.

3. Lo specchio e il disincanto

Il secondo correttivo riguarda l’immaginario. Antiqua et nova sottrae l’IA all’idolatria e all’allarmismo: chiede sobrietà e precisione. In questa direzione è utile — ancora come interlocutrice esterna alla Nota — l’immagine proposta da Shannon Vallor: l’IA come specchio che riflette e amplifica dati, abitudini, virtù e vizi nostri; il pericolo maggiore non è la nascita di una “super-mente”, ma la nostra auto-ipnosi davanti al riflesso (Vallor 2024). Il disincanto non impoverisce, libera a un uso più vero degli strumenti. Per questo la Nota invita a evitare antropomorfismi (nn. 56–63) e a costruire istituzioni che rendano trasparenti scopi e limiti, traccino l’intervento umano, aprano vie di contestazione per chi subisce decisioni automatizzate (nn. 39–47). Su questo crinale convergono anche le riflessioni di Hans Jonas sulla responsabilità verso il futuro: la potenza tecnica esige un’etica della pre-visione e della cura dei vulnerabili.

4. Dalla morale delle intenzioni alla responsabilità progettata

Tra i nn. 39 e 48, la Nota chiede di passare dal generico “uso responsabile” a un’architettura della responsabilità: chiarire scopi e limiti (n. 45), distinguere con nettezza sostegno alla decisione e decisione (n. 46), fissare soglie di intervento umano, garantire verifiche indipendenti su imparzialità e solidità dei modelli (nn. 46–47) e aprire canali di ricorso efficaci (n. 42). Questo impianto risuona con l’impostazione di Sven Nyholm — qui richiamato come interlocutore attuale, non come fonte della Nota — secondo cui la responsabilità non si “trova” a incidente avvenuto: si progetta a monte, definendo ruoli, registri e tracciabilità nei gruppi di lavoro che impiegano l’IA (Nyholm 2023). È un’etica istituzionale, non solo delle intenzioni: pretende regole, procedure e contropoteri. In controluce si intravede, ancora una volta, la lezione personalista (Guardini): la tecnica deve essere governata da forme della vita buona, non viceversa.

5. Tre luoghi di verità: lavoro, sanità, educazione

Lavoro. Opportunità e rischi si intrecciano: crescita di produttività e creatività, ma anche dequalificazione, sorveglianza, concentrazione del valore (nn. 64–70). Il criterio non cambia: i mezzi sono per le persone, non le persone per i mezzi (n. 69). A questo proposito è utile — come interlocutore non citato dalla NotaEthan Mollick, che parla di intelligenza condivisa: cooperare con strumenti che ampliano capacità e responsabilità umane, mantenendo processi leggibili e decisioni attribuibili (Mollick 2024). Dove l’adozione atrofizza competenze e giudizio, lì non c’è progresso ma perdita.

Sanità. La relazione di cura è insostituibile; l’IA può sostenere diagnosi e percorsi, ma la decisione clinica resta umana e personale (nn. 71–75). Qui la prospettiva di Anita Hointerlocutrice esterna alla Nota — chiarisce cosa significa parlare seriamente di autonomia relazionale: le scelte dei pazienti dipendono da condizioni reali (trasparenza dei modelli, possibilità effettiva di non aderire, partecipazione delle comunità alla gestione dei dati) e non da un individuo astratto posto davanti a un modulo (Ho 2023). La dignità si tutela nelle istituzioni, non solo nelle formule.

Educazione. Scuola e università non devono né proibire né celebrare in blocco: devono custodire l’alleanza formativa e la crescita integrale della persona (nn. 77–81). L’IA può essere tutor e strumento di esercizio, ma resta compito della relazione educativa allenare l’intellectus a riconoscere i fini e a usare la ratio come mezzo. Anche qui torna Han: servono tempi distesi di scrittura e confronto, luoghi in cui la conoscenza si fa racconto comune (Han 2024). È questo il modo concreto con cui l’antico — la forma della paideia — misura il nuovo senza soffocarlo.

6. Oltre la tecnocrazia

La Nota critica il paradigma tecnocratico, che pretende di risolvere ogni questione con “più tecnologia”, anche a costo di sacrificare dignità e fraternità all’efficienza (n. 54). Non ogni novità è progresso: è progresso solo ciò che rende la vita «più umana, più sociale, più integrale» (nn. 52–54). In questa direzione, Francesco Varaniniinterlocutore esterno alla Nota — indica con le sue “cinque leggi bronzee” le derive da disinnescare: ridurre l’umano a macchina misurabile, assolutizzare l’efficienza, spoliticizzare le scelte nelle piattaforme, delegare il governo agli algoritmi, desiderare di farsi macchina (Varanini 2020). Trasgredire queste “leggi” significa ricostruire fini, garanzie, ricorsi.

Conclusione – Una filosofia della misura

Antiqua et nova consegna una bussola sobria: chiamare l’IA per ciò che è — strumento potente, non soggetto —; difendere l’irriducibile della persona; progettare istituzioni che rendano la tecnologia alleata del bene comune. “Antico” e “nuovo” diventano così criteri: il nuovo vale dove amplia le possibilità della vita buona; l’antico regge dove protegge la persona dalla riduzione a cifra. Dire che l’IA «non pensa» non la sminuisce: la libera dall’onere di fare ciò che non può, e libera noi dall’illusione che il calcolo sostituisca il senso. Una società capace di raccontarsi, che istituisce responsabilità verificabili e non solo giudicate a posteriori, che coltiva l’intellectus come facoltà di vedere i fini: questa è la posta in gioco che la Nota affida al dibattito pubblico (nn. 39–48; 52–54). In questo cammino, gli autori contemporanei evocati qui come interlocutori — Han, Vallor, Ho, Nyholm, Varanini, Mollick — non colmano lacune del documento, ma lo mettono a fuoco sullo sfondo dei problemi che viviamo.

Bibliografia

  • Dicastero per la Dottrina della Fede; Dicastero per la Cultura e l’Educazione. 2025. Antiqua et Nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana. Città del Vaticano: Libreria Editrice Vaticana.
  • Aristotele. 1999. Etica Nicomachea. Testo greco a fronte; a cura di C. Natali. Roma-Bari: Laterza.
  • Bonaventura, san. 1993. Itinerario della mente in Dio, in Opere, vol. V/1: Opuscoli teologici/1, pp. 493-569. Roma: Città Nuova.
  • Guardini, Romano. 1959 (ed. it.; rist. successive). Lettere dal lago di Como. La tecnica e l’uomo. Brescia: Morcelliana.
  • Jonas, Hans. 2002. Il principio responsabilità. Un’etica per la civiltà tecnologica. Torino: Einaudi.
  • Han, Byung-Chul. 2024. La crisi della narrazione. Informazione, politica e vita quotidiana. Torino: Einaudi.
  • Ho, Anita. 2023. Live Like Nobody Is Watching: Relational Autonomy in the Age of Artificial Intelligence Health Monitoring. New York: Oxford University Press.
  • Mollick, Ethan. 2024. Co-Intelligence: Living and Working with AI. New York: Portfolio/Penguin. (Ed. it.: 2025, L’intelligenza condivisa. Vivere e lavorare insieme all’IA, Roma: Luiss University Press.)
  • Nyholm, Sven. 2023. This Is Technology Ethics: An Introduction. Hoboken (NJ): Wiley-Blackwell.
  • Vallor, Shannon. 2024. The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking. Oxford: Oxford University Press.
  • Varanini, Francesco. 2020. Le cinque leggi bronzee dell’era digitale e perché conviene trasgredirle. Milano: Guerini e Associati.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi