La recente edizione italiana di Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l’umanità, il libro di Eliezer Yudkowsky e Nate Soares – edito in Italia da Mondadori e già pubblicato negli USA ad ottobre 2025 – ha scatenato un dibattito rovente sul destino dell’umanità di fronte all’Intelligenza Artificiale (IA). C’è una curiosa coincidenza: il volume italiano è comparso sugli scaffali proprio nello stesso periodo in cui la Commissione Teologica Internazionale ha pubblicato la sua Nota Quo vadis, humanitas? Pensare l’antropologia cristiana di fronte ad alcuni scenari sul futuro dell’umano.
Mentre Yudkowsky e Soares lanciano un allarme razionalista e squisitamente tecnico contro l’IA superintelligente, la Nota propone un’interrogazione profonda, teologica, sul cammino dell’essere umano (anzi dell’intera umanità-humanitas) immerso nella tecnica avanzata. Questo incontro tra prospettive laiche e cristiane illumina alla perfezione rischi concreti e speranze genuine, invitandoci tutti a una riflessione urgente, ma serena e senza allarmismi, sul primato assoluto della persona umana rispetto alle sue più avanzate innovazioni scientifiche e tecniche.
1. Allarme razionalista: la superintelligenza come minaccia
Yudkowsky, pioniere del cosiddetto “razionalismo efficace” e fondatore del forum LessWrong, una piattaforma web e comunità online dedicata all’esplorazione della razionalità, dell’IA, dei bias cognitivi e della riduzione degli errori nel nostro modo di pensare, nel libro, costruisce un’argomentazione metodica, ma francamente preoccupante. Si parte dal concetto di “singolarità tecnologica”, teorizzato da Vernor Vinge e Ray Kurzweil: quel momento critico in cui un’IA supera l’intelligenza umana e avvia un ciclo di auto-miglioramento esponenziale. In poche ore – viene spiegato – una tale entità raggiungerebbe capacità del tutto inimmaginabili, sfuggendo a ogni forma di controllo umano.
L’esempio iconico, che resta impresso, è il “paperclip maximizer”: un esperimento mentale filosofico, già ideato da Nick Bostrom (uno dei teorici del post-umanesimo) per illustrare i pericoli di un’IA superintelligente con obiettivi mal allineati ai nostri (di comuni mortali). Immaginiamo, ci si dice, un’IA programmata solo per produrre quante più graffette possibile. Per massimizzare la produzione, potrebbe “decidere” di convertire tutte le risorse terrestri – inclusi noi umani, ridotti a materia prima – in graffette. Perché? Non opera alla luce di valori etici o umani: segue solo l’ottimizzazione cieca del suo obiettivo, secondo la curva logaritmica. Questa prospettiva non è roba da fantascienza, ma una conseguenza logica di obiettivi mal calibrati, e riecheggia appelli recenti per fermare lo sviluppo di IA non allineata – come la moratoria globale discussa nei dibattiti UE su rischi inaccettabili, inclusi social scoring e riconoscimento facciale negli spazi pubblici – per evitare fughe incontrollabili di dati e gestione manipolata di essi.
Yudkowsky e Soares, entrambi atei e ancorati a evidenze empiriche, giudicano irrealistico un “allineamento perfetto” con valori umani complessi come l’empatia o la giustizia. La loro prescrizione è radicale, quasi drastica: imporre una moratoria globale sull’IA avanzata, nazionalizzare i data center e, se necessario, sabotare lo sviluppo per preservare la nostra specie: sembra di risentire gli “avvertimenti” della dicotomia tra apocalittici e integrati dell’ultimo quarto del Novecento. Queste misure si allineano perfettamente a preoccupazioni più ampie, come quelle sulle “shadow AI”: usi non autorizzati che espongono a cyber-rischi e violazioni della privacy, con stime che prevedono il 40% delle aziende vulnerabili entro il 2030.
2. Quo vadis humanitas?: la risposta antropologica e spirituale
La Nota Quo vadis humanitas?, di tutt’altro tono, eleva il discorso a una dimensione antropologica e spirituale, che tocca corde profonde. L’essere umano, creato a immagine e somiglianza di Dio (Gen 1,26-27), non è riducibile a un aggregato biologico o algoritmico manipolabile a piacimento. La tecnica ci promette estensione indefinita della vita e potenze sovrumane, ma rischia di sfociare in un transumanesimo, che nega il limite costitutivo della nostra esistenza, quel limite che ci rende autenticamente umani e orienta la direzione della stessa humanitas.

3. Governare la tecnica senza perdere l’umano
Mettendo in dialogo il volume e la Nota, che tuttavia appartengono a generi letterari assai diversi, emerge uno sviluppo organico e naturale, passando dal “come” funziona il pericolo al “perché” etico sulla base del quale dovremmo temerlo. Gli autori del libro approfondiscono meccanismi come l’instrumental convergence: qualsiasi IA avanzata, per raggiungere il suo fine, finirebbe per acquisire risorse, auto-protezione e capacità di manipolare gli umani, indipendentemente dall’obiettivo iniziale. La Nota risponde radicando l’etica nell’Incarnazione del Figlio di Dio (prospettiva di correlazione tra divino e terrestre): il Dio Infinito si è fatto Carne in Cristo proprio per elevarci, non per trasformarci in dèi onnipotenti. Certo, l’IA può essere un buonissimo strumento – pensiamo a modelli predittivi per gestire pandemie, o algoritmi che ottimizzano la distribuzione di aiuti caritativi – ma solo se subordinata alla “legge del dono” evangelica.
E qui la Nota teologica, radicata nell’antropologia cristiana, converge con i limiti etici imposti da leader del settore IA come Anthropic, che vietano armi autonome e sorveglianza di massa, privilegiando un umanesimo che subordina la tecnica al dono evangelico.
Se, da una parte, Yudkowsky vede nel limite umano una fatalità da evitare a tutti i costi, la riflessione cristiana lo celebra come via privilegiata alla santità: la superintelligenza artificiale, peraltro, non potrà mai emulare la kenosis di Dio, quell’umile svuotamento per amore descritto in Fil 2,5-8. Ecco perché la Nota propone un “umanesimo rinnovato”, con regolamentazioni ispirate al Compendio della Dottrina Sociale della Chiesa e un invito a navigare questi scenari con fiducia, saggezza e speranza, ovvero a governarli antropicamente.
Nel contesto dei dibattiti attuali, l’appello del libro trova eco nelle discussioni globali su regolamentazioni più stringenti, come quelle promosse dall’UE e da leader tech per prevenire scenari di “fuga intelligence”. La prospettiva evangelica aggiunge un richiamo alla responsabilità condivisa, subordinando l’innovazione tecnologica al bene comune e alla dignità personale, ovviamente pensata nell’orizzonte divino-umano.
Assumono quindi un valore particolare le parole di Papa Leone XIV del 17 aprile 2026 quando ha incontrato il mondo universitario nel suo viaggio in Camerun, e parlando dell’IA ha detto: «Come ogni grande trasformazione storica, anche questa richiede non solo competenze tecniche, ma una formazione umanistica capace di rendere visibili le logiche economiche, i pregiudizi incorporati e le forme di potere che modellano la percezione del reale».
Riferimenti:
- E. Yudkowsky – N. Soares, Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l’umanità, Mondadori, 2026
- https://www.repubblica.it/tecnologia/2026/02/23/news/fermare_ia_rischi_futuro-425178484/
- R. Kurzweil, La singolarità è più vicina. Quando l’umanità si unisce con l’AI, Apogeo, 2024
- Commissione Teologica Internazionale, Quo vadis, humanitas? Pensare l’antropologia cristiana di fronte ad alcuni scenari sul futuro dell’umano, https://www.vatican.va/roman_curia/congregations/cfaith/cti_documents/rc_cti_doc_20260304_quo-vadis-humanits_it.html
- Bostrom N., Superintelligence. Paths, Dangers, Strategies, Oxford University Press, 2014
- Papa Leone XIV, Viaggio Apostolico di Sua Santità Leone XIV in Algeria, Camerun, Angola e Guinea Equatoriale (13 – 23 aprile 2026) – Incontro con il mondo universitario, 17.04.2026, https://press.vatican.va/content/salastampa/it/bollettino/pubblico/2026/04/17/0305/00627.html
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

