L’intelligenza è il “complesso di facoltà psichiche e mentali che consentono all’uomo di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e lo rendono insieme capace di adattarsi a situazioni nuove e di modificare la situazione stessa quando questa presenta ostacoli all’adattamento”. Non essendo le attuali architetture di computer (reti neurali) e i software implementati capaci di elaborare modelli astratti della realtà, di attuare generalizzazioni, di gestire la casualità, di avere buon senso, consapevolezza, autoconsapevolezza e auto-trascendimento sarebbe più appropriato definirli dispositivi/agenti in grado di assistere e cooperare con gli umani in alcune funzioni delegabili a un automa convenientemente addestrato. Pertanto, definirei i dispositivi dotati della cosiddetta “intelligenza artificiale” col sintagma cooperatori robotici. La millantata trilogia IA debole, forte e generale, che ascriverebbe a tali architetture la coscienza e la percezione dei qualia (insieme delle caratteristiche sensoriali soggettive, dettagli qualitativi inesprimibili dalla percezione individuale cui soltanto il soggetto percipiente può accedere) è palesemente inappropriata. Un’architettura composta da reti neurali (software di machine learning), collegate a robot muniti di sensori e arti elettromeccanici può certamente avere una percezione sensibile a prescindere dall’atto intellettuale (áisthēsis), ma difficilmente può raccogliere e ordinare gli oggetti percepiti nella propria coscienza (ghinôskō). L’áisthēsis indica la percezione, l’esperienza, la sensazione.
Per comprendere meglio il problema, mi sembra possa essere di aiuto un riferimento al Nuovo Testamento. Qui la conoscenza è indicata per lo più con il verbo ghinôskō, che indica l’atto del conoscere intellettivo, il comprendere, il sapere e il giudicare. E si riferisce a una comprensione piena della realtà e dell’essenza dell’oggetto cui essa intende. Inoltre, sempre facendo riferimento al dato biblico, va ricordato che l’albero piantato da Dio nel giardino in Eden (secondo il racconto di Genesi) fu denominato “albero della conoscenza/del conoscere (infinito sostantivato hadda ‘ at) [del bene e del male (tôb wärä)]”. Il sintagma “bene-male” sarebbe stato un’aggiunta posteriore del redattore. Perciò in origine l’autore sacro intese vietare il frutto dell’albero del “conoscere” o meglio del “conoscere il tutto”. Quando l’uomo viola il divieto divino e pretende di spingere la conoscenza o la scienza verso l’onniscienza, cade nella hybris. Il redattore del testo sembra indicare in ciò il male radicale che, a suo giudizio, lo allontana da Dio. Forse il progetto di un’IA collettiva, che si accresce morbosamente anywhere (ovunque) ed everytime (ogni volta) all’infinito e che senza alcun limite si accinge a valicare le colonne d’Ercole della conoscenza, potrebbe ricollegarsi al peccato originale dei progenitori.

Inoltre, un’IA, asservita alle élites transumaniste, rivelerebbe la sua forte somiglianza con il progetto babelico: “facciamoci un nome per non essere dispersi su tutta la terra” (Genesi 11,4). Esso, infatti, esprime la volontà imperialista di un unico popolo/Big Tech, che impone la monoglossia (una sola lingua/un’intelligenza collettiva) come progetto di “urbanizzazione cognitiva universale”, che secondo il redattore del testo trova la sua concretizzazione nella città di Babilonia. Baḅèl significa “porta di Dio”: il sostantivo deriva dal verbo bālal, “mescolare”, “confondere”/“disinformare”. Baḅèl è l’icona del dominio di “un solo popolo”(Big Tech), dell’omologazione (“un solo linguaggio”/“razionalità implacabile delle macchine”), dell’uniformità, della massificazione, del conformismo, del monopolio, che comprime e sopprime le identità, le diversità, la legittima pluralità, la poliglossia, la eteroglossia. Baḅèl è il capitalismo dell’abuso dell’informazione/disinformazione e della sorveglianza digitale dell’uomo planetario, il crypto algoritmo del pluriverso, che profila gli utenti per governarli in tutte le loro attività umane, il miraggio cognitivo della ‘pseudo-intelligenza artificiale’ delle classi egemoni, il totem rassicurante delle masse omologate dal pensiero unico dei data scientist, il dio a cui l’uomo della religione del Tecnocene offre il suo granello d’incenso.
E similmente sarebbe ragionevole attenersi alle indicazioni del Qoelet: “ho deciso allora di conoscere la sapienza e la scienza (γνῶναι σοφίαν καὶ γνῶσιν παραβολὰς), come anche la stoltezza e la follia, e ho capito che anche questo è un correre dietro al vento. Infatti: molta sapienza, molto affanno; chi accresce il sapere aumenta il dolore” (Qo 1,17-18). Il progetto umano di conoscere la sapienza e la scienza, espresso nell’endiadi del primo membro, è richiamato nell’endiadi della frase consecutiva per ricordare che c’è una “stoltezza della sapienza” e una “follia della scienza”. Perciò un progetto titanico, che abusasse dei nuovi dispositivi/agenti digitali, rischierebbe di cedere alla stoltezza e alla follia e assomigliare all’allegoria delle bestie del capitolo 13 dell’Apocalisse. Le visioni delle due bestie, incarnazioni del drago, simbolo del male assoluto, sono l’emblema della disumanizzazione fino al disfacimento della creazione o alla sua ricreazione. La bestia dell’apocalisse seduce gli abitanti della terra che le erigono una statua, che riceve lo spirito e comincia a parlare (vv. 14-15). La statua animata e parlante è lo scimmiottamento della creazione umana. Forse un’architettura composta da reti neurali (software di machine learning), implementate in robot parlanti, muniti di sensori e arti elettromeccanici, che esercita un potere idolatrico e seduttivo e minaccia homo Sapiens può evocare la situazione descritta nell’Apocalisse.

Il mainstream dell’uomo technosapiens è l’algoritmo. Per il tecnocentrismo ogni problema ha una soluzione algoritmica. Ma non tutto è computabile. Per alcuni occorrerebbe rendere gli algoritmi capaci di una computazione etica, mediante la progettazione di un’algoretica, o obbligarli a fermarsi qualora si corra il rischio di prendere decisioni potenzialmente lesive. Insomma, l’ingegneria del software intelligente dovrebbe organizzarsi in modo da non ledere i diritti umani. Si propone di eticizzare la logica computazionale, che opera con architetture complesse, ma basate su supporti di silicio che codificano gli stati della logica proposizionale “vero-falso”. Non si tratta di promuovere un’IA etica (le reti neurali non hanno un’anima), quanto di promuovere un’etica dell’IA. L’idea che l’IA possa generare i propri codici informatici e gestirli in modo totalmente autonomo, fino ad arrivare a formulare ragionamenti e prendere decisioni che non possano essere previste dai creatori dei programmi, mi pare del tutto mitologica o fantascientifica. Lo stesso dicasi dell’ipotesi secondo la quale i nuovi dispositivi/agenti digitali, condividendo la conoscenza acquisita con macchine gemelle, sarebbero in grado di creare una super intelligenza. Tutto questo potrà avvenire senza il controllo umano? E ove mai accadesse la responsabilità potrà essere ascritta solo alle macchine? Non sarebbe, poi, il caso di domandarsi se il principio della razionalità possa avere una forma morale? E se la forma morale può essere unicamente orientata dal progresso della scienza e della tecnologia conseguente? Il progetto dell’ AGI (Artificial Intelligence General) è al momento inattuabile a causa dei limiti della computabilità algoritmica e dell’indeterminazione semantica dei sintagmi sintattici (John Searle). Tuttavia, le sue applicazioni delegabili dall’uomo se prive di una governance rischiano pericolosamente di trasferire nella tecnica, animata da una pretesa prometeica, il tentativo di ri-creare l’uomo, di causare un pericoloso riduzionismo antropologico e di determinare un rovinoso conflitto tra Sapiens e technosapiens.
Bibliografia
N. DI BIANCO, Intelligenza Artificiale. Un punto di vista teologico, Edizione la valle del tempo, Napoli, 2024.
A. M. GOUW-B. P. GREEN -T. PETERS (EDD.), Religious Transhumanism and Its Critics, London 2022.
M. GRAVES, Theological Foundations for Moral Artificial Intelligence, in M. GAUDET – B. P GREEN (EDD.), Artificial Intelligence, in Journal of Moral Theology n. 11, Special Issue 1 (2022) 182-211.
S. MIDSON, Robo-Theisms and Robot-Theists. How do Robots Challenge and Reveal Notions of God?, in Implicit Religion n. 20 (2018) 299-318.
J. MITTELSTRASS, The moral substance of Science, in THE PONTIFICAL ACADEMY OF SCIENCES (edd.), The cultural value of Science, (Scripta varia 105) Vatican City 2003, 179-187.
S. ZUBOFF, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2019.
Immagine: Foto di Jamieson Gordon su Unsplash

