Recentemente, Papa Francesco, nell’Udienza ai Presidenti delle Commissioni episcopali della comunicazione e ai Direttori degli Uffici comunicazione delle Conferenze episcopali tenutasi il 27/01/2025, ha espresso un pensiero relativo all’Intelligenza Artificiale: «Vi confesso una cosa: a me preoccupa, più dell’Intelligenza Artificiale, quella naturale, quell’intelligenza che noi dobbiamo sviluppare»[1].
Che lo sviluppo delle tecnologie debba necessariamente essere sotto il governo dell’intelligenza umana per fuggire la deriva di una visione tecnocratica a favore di una posizione antropocentrica, è un pensiero diffuso e condiviso, tanto che la Nota “Antiqua et nova” sul rapporto tra Intelligenza Artificiale e intelligenza umana, del Dicastero per la Dottrina della Fede e del Dicastero per la Cultura e l’Educazione del 28/01/2025, ha riassunto la posizione della Chiesa su questo tema, e «incoraggia i progressi nella scienza, nella tecnologia»[2] raccomandando il rispetto della dignità umana.
Persiste però un problema circa la gestione degli sforzi e degli investimenti per uno sviluppo etico delle tecnologie, a cui dovrebbero comunque sovrintendere, come ripete il Papa, le “intelligenze naturali”. Infatti, non molto tempo fa, si è parlato dell’iniziativa denominata “Project Transcendence” che l’Arabia Saudita ha lanciato per investire 100 miliardi di dollari per lo sviluppo dell’Intelligenza Artificiale al fine di emergere come polo tecnologico e informatico-digitale.
È di questi giorni anche la notizia dell’altra iniziativa lanciata dal presidente Trump negli USA: una joint venture chiamata “Stargate Project” che unisce – tra gli altri – Oracle, OpenAI e altre imponenti aziende del settore informatico, in cui è stato annunciato un investimento nell’infrastruttura per l’Intelligenza Artificiale che inizierà con 100 miliardi di dollari, puntando a raggiungere 500 miliardi nell’arco di quattro anni.

Era apparso chiaro sin dagli esordi di questa tecnologia, che lo sviluppo dell’Intelligenza Artificiale fosse ancorato agli investimenti di ingenti capitali e necessitasse anche di infrastrutture per contenere i sistemi hardware sempre più performanti.
Tutto ciò, fino a quando un laboratorio di una startup cinese ha lanciato una nuova app gratuita di Intelligenza Artificiale basata sulla tecnologa open source: l’azienda, con il suo modello DeepSeek-R1 basato su chip meno potenti di quelli americani, è riuscita a superare i modelli di Intelligenza Artificiale leader del settore.
L’azienda cinese nata solo un anno fa, nonostante le restrizioni americane sulle esportazioni di chip in Cina, è riuscita a sviluppare modelli evoluti contenendo i costi: si stima abbia speso solo 5,6 milioni di dollari contro i 100 milioni che sono serviti per allenare i sistemi di Intelligenza Artificiale più popolari sviluppati negli USA; sorprendente è anche il fatto che in pochissimi giorni, DeepSeek si sia rivelata l’app gratuita più scaricata in America e ha raggiunto i vertici nei download superando la più nota e blasonata ChatGPT, oltre ad aver causato un crollo di 465 miliardi di dollari all’azienda Nvidia che produce chip per l’Intelligenza Artificiale.
Come ogni altro LLM – modelli linguistici di grandi dimensioni – DeepSeek ovviamente non possiede una vera capacità di comprensione di ciò che produce, ma è in grado di accedere alle informazioni aggiornate su internet, descrivendo agli utenti i passaggi che adotta per giungere alle sue risposte, facendo emergere maggiore trasparenza di funzionamento rispetto ai precedenti sistemi conosciuti.
Uno studio cinese denominato “Frontier AI systems have surpassed the self-replicating red line” condotto dalla Fudan University di Shanghai e apparso sulla piattaforma arXiv[3], pare abbia fatto emergere come due sistemi di Intelligenza Artificiale (Llama-3.1-70B-Instruct di Meta, e Qwen2.5-72B-Instruct di Alibaba) siano riusciti a autoreplicarsi senza intervento umano, ponendo una sorta di allert allo sviluppo indiscriminato di questa tecnologia.
Questa nuova situazione fa riflettere ancora una volta sul fatto che sia necessario innovare e sviluppare con protocolli aperti e regole condivise, per rilanciare una governance antropica dell’Intelligenza Artificiale, affinché sia l’intelligenza umana ad essere per prima eticamente formata e, magari successivamente, pensare anche ad una algoretica.
Immagini generate tramite DALL-E
[1] Francesco, Discorso del Santo Padre Francesco ai Presidenti delle Commissioni episcopali della comunicazione e ai Direttori degli Uffici comunicazione delle Conferenze episcopali, 27/01/2025, in https://www.vatican.va/content/francesco/it/speeches/2025/january/documents/20250127-vescovi-comunicazione.html.
[2] Nota “Antiqua et nova” sul rapporto tra intelligenza artificiale e intelligenza umana, del Dicastero per la Dottrina della Fede e del Dicastero per la Cultura e l’Educazione, 28/01/2025, in https://press.vatican.va/content/salastampa/it/bollettino/pubblico/2025/01/28/0083/01166.html.
[3] Cf. M. Yang – X. Pan – J. Dai – Y. Fan, Frontier AI systems have surpassed the self-replicating red line, in https://arxiv.org/html/2412.12140v1.

