1. Il costo nascosto dell’Intelligenza Artificiale
Uno dei paradossi più inquietanti della contemporaneità consiste nel fatto che la tecnologia destinata a risolvere i problemi dell’uomo – compresa la crisi climatica – genera essa stessa immensi danni ambientali. L’addestramento di un singolo modello linguistico di grandi dimensioni (LLM) produce tra 200 e 600 tonnellate di CO₂, con il modello GPT-3 di OpenAI che ha generato circa 552 tonnellate di emissioni. Questo costo “nascosto” è raramente reso visibile ai fruitori della tecnologia, che beneficiano della capacità computazionale senza percepire direttamente le conseguenze ambientali associate.
Il problema si amplifica quando consideriamo il ciclo di vita completo dell’Intelligenza Artificiale (IA). Oltre alle emissioni di carbonio durante l’addestramento dei modelli, bisogna considerare: la produzione dei componenti hardware (GPU, data center), il consumo energetico continuo durante la fase operativa, e l’estrazione delle materie prime necessarie per la realizzazione della componente fisica. Nel 2025, il consumo energetico dei sistemi di IA si è attestato a circa 23 gigawatt, rappresentando quasi il 50% del consumo totale dei data center globali. Questo si tradurrebbe in emissioni di carbonio equivalenti a quelle della città di New York, mentre il consumo idrico potrebbe raggiungere i 764,6 miliardi di litri – una quantità equiparabile al consumo globale annuale di acqua in bottiglia.
2. I limiti del paradigma tecnocentrico
Quest’analisi quantitativa rivela un aspetto cruciale: l’IA contemporanea non è “sostenibile” nel senso in cui frequentemente viene celebrata da attori tecnologici e governativi. L’assunzione che la tecnologia sia intrinsecamente positiva e che possa auto-correggersi verso la sostenibilità mediante innovazione incrementale, ignora la realtà fisica dei vincoli termodinamici e ambientali. Un paradigma tecnocentrico che postula l’illimitatezza del progresso tecnologico, si scontra inevitabilmente con i limiti finiti del pianeta.
3. Le sfide etiche: responsabilità, equità e lavoro umano
Oltre alla crisi ambientale, l’IA solleva interrogativi etici di portata ancora più profonda. Prima tra tutte la questione dell’autonomia decisionale: man mano che i sistemi di IA assumono responsabilità decisionali in contesti critici – dalla diagnostica medica alla giustizia penale, dalla gestione delle risorse economiche agli algoritmi di selezione del personale – emerge un vuoto di responsabilità morale. Come può una entità non-umana, senza intenzionalità e coscienza, essere considerata responsabile delle conseguenze delle sue decisioni? E, conseguentemente, come distribuire la responsabilità tra i progettisti del sistema, chi lo implementa, e chi lo utilizza?

Un’altra questione riguarda l’equità e la discriminazione. Gli algoritmi di IA non sono neutrali, ma incorporano i bias presenti nei dati utilizzati per l’addestramento e nelle scelte progettuali di chi li ha creati. Quando un algoritmo di selezione del personale sistematicamente discrimina donne o minoranze etniche, quando un sistema di valutazione del merito creditizio riproduce ineguaglianze storiche, quando un algoritmo di riconoscimento facciale funziona con accuratezza drammaticamente inferiore su volti non-caucasici, non si tratta di bugs tecnici correggibili, ma dell’espressione di strutture di potere e di disuguaglianza inscritte nel codice stesso.
Altra questione, ancora poco discussa, riguarda il significato e la dignità del lavoro umano. Mentre l’IA sostituisce sempre più attività lavorative – dalla traduzione al coding, dalla giornalistica al diritto – ci chiediamo: quale ruolo rimane per la creatività e la dignità umana in un’economia dove il valore è generato da sistemi automatizzati? La tradizionale risposta economica (“nuovi posti di lavoro verranno creati”), ignora tanto l’accelerazione della transizione quanto le competenze richieste per gli “altri” lavori che emergono.
L’IA, come tutte le tecnologie umane, non è neutrale: porta con sé i valori, gli obiettivi, le visioni del mondo di chi l’ha creata. Se continueremo a permette che l’IA sia governata da una logica di massimizzazione del profitto, di efficienza algoritmica senza freni morali, di centralizzazione del potere nelle mani di poche mega-corporazioni, allora avremo scelto di accelerare verso un futuro di profonda inumanità e devastazione ecologica.
4. Dalla logica del dominio alla logica del bene comune
Ma alternative sono possibili. Le intuizioni della teologia cattolica sulla dignità umana, il bene comune, l’ecologia integrale, le virtù morali, sono risorse profonde per pensare un futuro diverso. E il fatto empirico che la religiosità sia correlata con il benessere soggettivo, la coesione sociale, e l’equilibrio ecologico suggerisce che il ritorno a una visione antropologica e morale più completa non è semplicemente una questione di fede, ma di ragione ben intesa.
Rinnovare il governo etico dell’economia e dell’IA significa rinnovare la nostra concezione di cosa significhi vivere bene insieme. Non una vita di iperconsumo e di stimoli infiniti, ma una vita dove la dignità della persona è riconosciuta incondizionatamente, dove la comunità e la solidarietà sono coltivate come beni inestimabili, dove il creato è venerato come dono e non sfruttato come risorsa infinita. L’IA, in questa visione, potrebbe divenire uno strumento non di dominio ma di liberazione – liberazione dalla fatica, dalla malattia, dall’isolamento -permettendo agli uomini di dedicarsi a ciò che veramente importa: la ricerca del significato, la costruzione di relazioni autentiche, il servizio al bene comune.
Questa è una speranza audace, che richiede un atto di fede e una visione profetica. Ma è una speranza fondata non sulla cecità ideologica, bensì sulla lucida consapevolezza sia dei pericoli che della responsabilità che l’IA pone di fronte a noi. La scelta di come sviluppare, implementare, e governare l’IA è una scelta etica, politica, e spirituale.
Riferimenti
- N. E. Mitu – G. T. Mitu, «The Hidden Cost of AI: Carbon Footprint and Mitigation Strategies», in Revista de Științe Politice, 2024 (http://dx.doi.org/10.2139/ssrn.5036344);
- A. de Vries-Gao, «The Carbon and Water Footprints of Data Centers and What This Could Mean for Artificial Intelligence», in Patterns, 7 (2025), 101430 (https://doi.org/10.1016/j.patter.2025.101430);
- Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana (14 gennaio 2025), [in https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_it.html].
- N. Rotundo, «Artificial intelligence and human person», in Cuadernos de teología – Universidad Católica del Norte (En línea), 2025, 17: e6665 (https://doi.org/10.22199/issn.0719-8175-6665).
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2026).

