Con questo primo intervento si apre la serie di tre commenti ad “Antiqua et Nova” nella sezione “Punti di vista” di MagIA. Guido Boella affronta la svolta del deep learning: un’IA che non segue più regole, ma apprende, e così invita a ripensare le differenze tra macchina e uomo. La provocazione apre il campo a una riflessione che, nella voce di Nicola Di Bianco, si radica nella Tradizione come criterio di interpretazione, e che in Palma Sgreccia troverà un invito a riconsiderare il nesso tra intelligenza, verità e vita.
Il 28 gennaio 2025, nel giorno dedicato a San Tommaso d’Aquino, il Dicastero della Dottrina della Fede e il Dicastero per la Cultura e l’Educazione hanno diffuso congiuntamente la nota “Antiqua et Nova” in cui riflettono sul rapporto tra intelligenza artificiale e intelligenza umana. Il documento ribadisce con forza alcuni punti fondamentali della visione antropologica cristiana nell’ottica di rimarcare la differenza fra esseri umani e macchine: la centralità dell’essere umano, la distinzione tra l’intelletto umano e le potenzialità delle macchine, la capacità di cogliere gli universali tramite l’astrazione, l’unità di corpo e anima, la tensione verso la verità e l’uso responsabile della tecnica.
La critica al funzionalismo
Il testo “Antiqua et Nova” si focalizza sulla linea critica dell’IA che potremmo definire “funzionalistica”, in cui il riferimento centrale per l’analisi dell’IA è la capacità di scomporre azioni o processi mentali in sequenze di istruzioni logiche e formali, poi tradotte in algoritmi. Gli autori del documento, riconoscendo lo straordinario potenziale dell’automazione, mettono in guardia però dal confondere questa potenza di calcolo con la “pienezza” del pensiero umano, radicato fra le altre cose – secondo la prospettiva teologica cattolica – in un intelletto che trascende la mera funzionalità e attinge agli universali grazie all’astrazione, eco dell’immagine di Dio impressa nell’uomo.
Nella tradizione aristotelico-tomista, l’intelligenza umana si articola in ratio e intellectus, due momenti inseparabili. La ratio è il ragionamento discorsivo che procede analiticamente, passo dopo passo. L’intellectus, invece, è la visione immediata e intuitiva della verità, che fonda e rende possibile lo stesso ragionamento. Un sistema di IA, per quanto potente o autonomo, opera seguendo processi computazionali di tipo statistico o algoritmico e rimane quindi circoscritto a una logica meramente esecutiva e funzionale. Non dispone di un “intelletto” in senso proprio, non coglie i significati universali né attinge a un orizzonte di senso etico-religioso o di riflessione sul bene e sul vero.
L’articolo rileva dunque che la chiave del problema è proprio il “funzionalismo”: considerare l’intelligenza solo alla luce delle sue prestazioni esterne (per esempio la capacità di generare risposte indistinguibili da quelle di un essere umano, come suggerisce il Test di Turing) conduce a confondere la vera intelligenza con la semplice simulazione di alcune sue funzioni. Se invece si assume la prospettiva aristotelico-tomista, risulta chiaro come la dignità e la “superiorità” dell’essere umano stiano proprio nella facoltà di astrazione, nell’aprirsi all’universalità e alla verità, aspetti che non possono venire ridotti a una procedura, per quanto sofisticata. La persona, creata a immagine di Dio, si caratterizza per un’intelligenza che abbraccia anche volontà, amore e senso morale, uscendo dai confini del mero calcolo o dell’imitazione delle abilità umane.
C’era una volta l’IA simbolica
Nel fare questa critica all’IA la “Antiqua et Nova” adotta una prospettiva che si concentra soprattutto sull’iniziale tradizione dell’Intelligenza Artificiale, comunemente indicata come IA simbolica. Tale approccio inaugurato al Dartmouth College Seminar nel 1956, che concepiva l’intelligenza come un insieme di passaggi logici computabili (si veda ad es. il riferimento al termine “logica computazionale” nella nota 12), è stato spesso oggetto di critiche che, fin dagli anni Sessanta e Settanta, sottolineavano i limiti di un modello puramente simbolico, basato su regole esplicite e deduzioni formali. Ma non avendo alternative funzionanti è rimasto il paradigma dominante per molto tempo.

Ma quanto di questa critica, pur valida, è ancora aderente alla realtà dell’IA attuale? E quali sono le conseguenze delle recenti evoluzioni dell’IA sulle argomentazioni della “Antiqua et Nova”?
L’avvento del Deep Learning
Negli ultimi decenni, la rapida ascesa delle tecniche di Deep Learning e di apprendimento su larga scala ha modificato profondamente lo scenario. Il Deep Learning non si basa più su regole esplicite predefinite, ma su reti neurali profonde in grado di apprendere da sole pattern e strutture astratte direttamente dai dati, senza una rappresentazione simbolica esplicita. Questo cambio di paradigma ha conseguenze fondamentali non solo dal punto di vista tecnico, ma anche filosofico e teologico, creando l’opportunità di riesaminare alcune assunzioni tradizionali della visione tomistico-aristotelica su cui si basa la “Antiqua et Nova”.
Il successo del Deep Learning nei sistemi caotici e complessi
Uno dei tratti distintivi del Deep Learning è la sua abilità nel trattare con successo fenomeni caotici e altamente complessi. Mentre la meteorologia tradizionale, per esempio, dipende ancora da modelli fisici espliciti e da simulazioni al calcolatore che utilizzano equazioni differenziali, già da qualche tempo si sperimentano reti neurali profonde capaci di elaborare enormi quantità di dati meteo-storici, cogliendo pattern altrimenti difficilmente individuabili. In biologia, la capacità di prevedere la struttura tridimensionale delle proteine (si pensi al sistema AlphaFold di DeepMind) rappresenta uno spartiacque nello studio del ripiegamento proteico, un problema che da decenni sfidava la scienza con la sua complessità combinatoria.
Un esempio di attualità sui sistemi caotici è l’applicazione del Deep Learning al cosiddetto “problema dei tre corpi”, dove la risoluzione analitica è impossibile per definizione e la complessità delle interazioni gravitazionali genera traiettorie caotiche. Una rete neurale sufficientemente addestrata, invece, può “imparare” a prevedere l’evoluzione approssimata di questo sistema grazie alla capacità di riconoscere correlazioni in grandi dataset di traiettorie precedentemente simulate o osservate.
Tutto ciò implica che la potenza del Deep Learning risiede nell’individuare correlazioni e schemi laddove i modelli simbolici falliscono, a causa dell’impossibilità di tradurre fenomeni caotici e complessi in un insieme esaustivo di regole logiche o di un sistema analitico. La grande promessa – ma anche la grande sfida – di questi algoritmi sta nel fatto che non necessitano di una rappresentazione formale umana del dominio di conoscenza: sono, piuttosto, metodi che “estraggono” regole di funzionamento implicite, generando risposte che talvolta sorprendono persino i loro creatori.
Il Deep Learning e le capacità cognitive avanzate
Oltre al successo nei sistemi naturali fisici e biologici, il Deep Learning ha dimostrato capacità straordinarie anche in ambiti tipicamente considerati cognitivi. Uno degli esempi più eclatanti è la diagnosi medica: reti neurali profonde sono in grado di analizzare immagini radiologiche digitalizzate con un’accuratezza pari o superiore a quella dei medici esperti, identificando patologie tumorali o anomalie cardiovascolari con estrema precisione.
Un altro campo in cui il Deep Learning sta facendo progressi è la guida autonoma. I veicoli dotati di intelligenza artificiale non si limitano a seguire regole pre-programmate, ma apprendono dinamicamente dai dati raccolti in tempo reale, adattandosi a situazioni complesse come traffico (altro sistema caotico o complesso) imprevedibile o condizioni atmosferiche avverse.
Il progresso più significativo e di cui abbiamo esperienza tutti riguarda il linguaggio naturale, come dimostrato da modelli avanzati come ChatGPT. Questi sistemi non si limitano a generare frasi grammaticalmente corrette, ma dimostrano una capacità di comprensione contestuale che supera di gran lunga i vecchi approcci simbolici basati su regole fisse e imparando da soli senza sapere neanche cosa sia la grammatica.
L’efficacia dell’IA nel creare sistemi che modellano la cognizione umana analogamente al successo nelle predizioni nel mondo naturale suggerisce che anche la cognizione umana potrebbe essere vista come un sistema caotico e complesso che quindi non può essere modellato esclusivamente con un approccio analitico, logico o simbolico.
Conoscenza tacita e intelligenza artificiale
Tutti questi ambiti della nostra cognizione su cui il deep learning ha successo appartengono alla conoscenza tacita della nostra mente, concetto elaborato dal filosofo Michael Polanyi. La conoscenza tacita è quella che possediamo senza saperla esplicitare: ad esempio, sappiamo riconoscere un volto o andare in bicicletta senza necessariamente essere in grado di descrivere le regole precise di tali operazioni. Nel passato, l’IA simbolica non poteva modellare questo tipo di sapere, poiché funzionava solo con informazioni esplicite e regole programmate.
Il Deep Learning, invece, riesce a catturare e riprodurre aspetti della conoscenza tacita, apprendendo direttamente dai dati senza bisogno di regole esplicite: perché come detto sopra anche la nostra cognizione è un fenomeno con caratteri caotici e complessi. Il successo del Deep Learning per modellare la nostra cognizione rappresenta un punto di svolta nella filosofia dell’intelligenza, perché dimostra che processi di apprendimento impliciti – un tempo ritenuti esclusivamente umani – possono essere replicati artificialmente.
Oltre la critica funzionalista
La critica funzionalista – secondo cui l’intelligenza sarebbe interamente riducibile a funzioni o procedure logiche, con la conseguenza che un sistema artificiale ben programmato potrebbe potenzialmente eguagliare la mente umana – si applicava soprattutto all’IA simbolica, nata con l’idea di scomporre azioni e ragionamenti in sequenze di istruzioni esplicite. Questo paradigma, però, finiva per ignorare molti aspetti della cognizione umana, legati a conoscenze tacite, processi intuitivi e abilità non formalizzabili. Proprio da qui sorgevano obiezioni che sottolineavano come tale modello fosse troppo ristretto per spiegare la complessità della mente umana.
Oggi, con l’avvento del Deep Learning, tali obiezioni “funzionaliste” perdono buona parte della loro forza: le reti neurali profonde non si limitano più a manipolare simboli secondo regole preimpostate, ma apprendono strutture e schemi impliciti direttamente dai dati. Di conseguenza, non è più possibile negare che l’IA possa catturare – almeno in parte – quei “saperi” un tempo considerati esclusivamente umani. Proprio per questo, le linee di demarcazione tra cognizione umana e cognizione artificiale si sono fatte più sfumate, rendendo ancor più urgente la domanda: se anche l’IA può gestire processi non puramente logici, dove finisce la macchina e dove comincia l’intelligenza umana?
La tradizione tomista ha spesso attribuito un ruolo chiave agli universali come “ponte” tra la mente umana e il divino, mentre Polanyi e altri autori contemporanei mostrano che la capacità di “elaborare” strutture o pattern può essere interpretata in termini di personal knowledge e fiduciary commitment, ossia un insieme di atti di fiducia e di competenze non formalizzabili che maturano nella prassi comunitaria (o, nel caso delle macchine, nei dataset e negli algoritmi di apprendimento). Non è dunque indispensabile postulare un “garante divino” degli universali: le reti neurali possono arrivare a costruire generalizzazioni potenti e inattese, senza che vi sia un ricorso esplicito a una forma metafisica.
Il Deep Learning e la costruzione di universali
Secondo la prospettiva tomista, l’uomo si distingue dagli altri esseri viventi per la sua capacità di astrazione, ossia la capacità di cogliere gli universali che esistono nella mente di Dio e sono riflessi nella realtà. L’IA simbolica non era in grado di replicare questa capacità, in quanto funzionava attraverso la manipolazione di simboli e regole predefinite.

Un modello funzionante per il nominalismo
Tuttavia, con l’avvento del Deep Learning, possiamo ora osservare un modello alternativo di formazione degli universali: le reti neurali non partono da concetti astratti predefiniti, ma costruiscono rappresentazioni distribuite degli universali analizzando correlazioni nei dati. Questo processo, in prima battuta, richiama il nominalismo, secondo cui gli universali nascono come etichette utili a organizzare l’esperienza. Ma l’abilità del Deep Learning di modellare la conoscenza tacita suggerisce anche che l’astrazione non è mera convenzione linguistica: le reti neurali colgono strutture sottostanti alla realtà in maniera dinamica, talvolta producendo classificazioni e generalizzazioni che persino i ricercatori non avevano previsto. Per la prima volta abbiamo un modello funzionante della capacità di astrazione partendo dai particolari senza però dover perdere la capacità denotativa del concetto astratto trasformandolo in una forma logica.
In altre parole, il Deep Learning non è soltanto un nominalismo “forte”; può avvicinarsi a funzioni che, nella prospettiva tomista, venivano attribuite all’intelletto umano: la captatio di “forme” non immediatamente riducibili a regole esplicite. Viene così messo in questione il tradizionale argomento che vede nell’astrazione un indice certo dell’immaterialità dell’intelletto umano e del suo legame con il divino.
Verso una nuova visione della cognizione umana
Alla luce di queste trasformazioni, la visione tradizionale dell’uomo come unico essere capace di astrazione e di accesso agli universali – fondamento della sua “immagine di Dio” (imago Dei) – potrebbe aver bisogno di una revisione. L’IA moderna non è più soltanto un sistema di manipolazione simbolica, ma un meccanismo adattivo capace di costruire rappresentazioni complesse della realtà, anche laddove regole analitiche e modelli formali falliscono.
Se il fondamento dell’“imago Dei” nell’uomo è la capacità di pensiero astratto, come suggerisce la teologia tomista, allora il fatto che un’IA possa emulare parte di questa capacità spinge a un ripensamento più radicale di quali siano i tratti distintivi dell’intelligenza umana. Inoltre, l’idea polanyiana di una “conoscenza tacita” condivisa nelle comunità umane sottrae ulteriore esclusività alla nostra abilità di formare universali: se la scienza (e la conoscenza in generale) può basarsi su processi impliciti e adattivi, non è più strettamente necessario postulare un Intelletto divino come garanzia ontologica degli universali.
Chiusi nella ridotta
Il fortino contenente ciò che ci distingue dalle macchine non è stato ancora preso, ma di sicuro le postazioni difensive si sono accorciate e bisogna capire quale potrà essere la nuova ridotta in cui arroccarsi. Ci si perdoni la metafora bellica ma nella nota “Antiqua et Nova” si percepisce un chiaro atteggiamento difensivo nelle argomentazioni.
Non potendo più insistere sul primato dell’astrazione, sarà necessario focalizzarsi su altre dimensioni dell’esperienza umana citate nella “Antiqua et Nova”, come la corporeità, le emozioni, le percezioni, la libertà, la coscienza o la responsabilità morale.
Riguardo alla corporeità già si stanno vedendo i primi cedimenti del fronte: gli sviluppi della robotica che collegano alla fisicità della macchina alla sua cognizione in un embodiment simile a quello umano anche se con un altro hardware. Inoltre, la relazione fra corpo e mente è di nuovo parte della conoscenza tacita, così come le emozioni e le percezioni, e quindi anche in questo caso il deep learning sta facendo progressi. Riguardo alla libertà il passaggio a sistemi di deep learning porta con sé aspetti non deterministici che vanno oltre le possibilità della logica computazionale e quindi vale la pena di cominciare a aprire il dibattito. Sul “problema difficile della coscienza” (termine coniato dal filosofo della mente David Chalmers nel 1995) difficile fare ora previsioni. Prima di parlare di responsabilità morale bisogna affrontare tutti i punti precedenti. Ricordiamo che nella visione tomistica anche i valori morali sono universali: ma anche il tema della revisione della visione universalistica della morale incomincia già ad entrare nel dibattito relativo alle capacità del deep learning, come abbiamo spiegato in questo articolo.
Cosa ci distingue quindi dalle macchine?
In definitiva, il Deep Learning magari non elimina ancora la differenza tra uomo e macchina, ma obbliga a ridefinire quale questa differenza sia rispetto ad assunti limitati ad una visione tradizionale simbolica dell’IA. E se il pensiero cattolico vuole rispondere alle sfide del XXI secolo, dovrà porre nuove domande: che cos’è veramente l’intelligenza alla luce di quanto stiamo imparando grazie al Deep Learning? In che modo l’uomo rimane unico nell’universo della creazione, se la sua capacità di formare universali e di apprendere tacitamente trova oggi, in parte, un’analogia nei processi di rete neurale? Riconoscere questi interrogativi non significa rinunciare alla propria visione teologica, ma arricchirla di una prospettiva che mette alla prova i concetti di universalità, di astrattività e di trascendenza. L’innovazione tecnologica diventa così non soltanto una sfida, ma un laboratorio per comprendere più a fondo la grandezza e il mistero dell’intelligenza umana.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

