• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Intelligenza artificiale e responsabilità

volto

L’Intelligenza artificiale costituisce una sfida antropologica rilevante perché incide inevitabilmente sulla vita delle singole persone e sull’intera famiglia umana. Essa sta modificando in modo radicale l’informazione e la comunicazione, introducendo notevoli cambiamenti a livello sociale, culturale, comportamentale. Il fatto che le macchine siano in grado di svolgere attività un tempo riservate unicamente all’uomo, genera un forte impatto sulla vita delle persone. Tutto questo solleva interrogativi che trascendono l’ambito puramente tecnico-scientifico e riguardano principalmente il significato e il senso della vita umana, lo spazio di libertà e senso di responsabilità, i processi fondamentali della conoscenza, la certezza della verità.

L’intelligenza artificiale tra promesse e rischi

I considerevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano entusiasmanti vantaggi e promesse ma anche inevitabili rischi. Infatti, i sistemi di intelligenza artificiale possono memorizzare moltissimi dati e correlarli tra loro, facilitando lo scambio di informazioni tra popoli e generazioni diverse ma, al tempo stesso, possono essere strumenti di “inquinamento cognitivo”, di alterazione della realtà tramite false narrazioni che vengono proposte come fossero vere. Si pensi alle fake news che oggi si avvalgono del deep fake, cioè della creazione e diffusione di foto, video e audio creati grazie a software di intelligenza artificiale che sembrano perfettamente verosimili ma sono falsi. Alcune persone famose sono apparse in alcuni video o messaggi audio nei quali sembravano pronunciare parole che in realtà non avevano mai pronunciato o compiere azioni che non avevano mai compiuto. Questi attacchi gratuiti alla dignità delle persone, abbassano il livello di civiltà e di umanità, e generano inevitabilmente conflittualità.

Qualsiasi strumento posto nelle mani di una persona può essere usato per uno scopo benefico o malefico; molto dipende dalle intenzioni del suo cuore, dalla sua interiorità, se è ricca o povera di amore. Nessuna innovazione tecnologica è neutra ma dipende dall’uso positivo o negativo che se ne fa. I programmi di intelligenza artificiale «devono avere un’ispirazione etica. La decisione etica, infatti, è quella che tiene conto non solo degli esiti di un’azione, ma anche dei valori in gioco e dei doveri che da questi valori derivano»[1]. Pertanto, al fine di salvaguardare il bene integrale delle singole persone, il bene comune e il futuro dell’umanità, è necessario regolamentare eticamente lo sviluppo e l’uso dell’intelligenza artificiale nelle sue varie forme e contrastare eventuali risvolti negativi che producono discriminazione, violenza e ingiustizia sociale.

Lo sviluppo tecnologico, per essere autentico sviluppo, deve essere finalizzato al bene integrale delle persone e al miglioramento della loro qualità di vita e non deve mai ledere la dignità personale e l’interiorità. Tale sviluppo deve essere accompagnato sempre da un’adeguata formazione delle persone alla responsabilità.

Per una libertà responsabile

La persona è l’essere della libertà e della responsabilità, infatti esperimenta nel fondo della propria esistenza di essere libera e responsabile[2]. Libertà e responsabilità emergono nell’esperienza morale e fanno della persona un soggetto morale. Libertà e responsabilità si danno insieme e non possono mai essere separate: i due termini costituiscono una polarità dialettica, senza la quale si è fuori del campo della moralità. La libertà va vissuta nella responsabilità e mai deve essere dissociata da essa. «Infatti, l’ultima parola non spetta alla libertà, la quale può sfociare in arbitrio se non viene sostanziata e vissuta nella responsabilità»[3].

La libertà non consiste nel fare ciò che si vuole, ma è un orientamento radicale della persona verso la verità, il bene e i valori più alti e sublimi, pertanto, non può mai essere separata dalla responsabilità che comporta la valutazione (rem-ponderare) dei beni in questione che appaiono nell’orizzonte della coscienza e l’esigenza di dover rispondere (res-pondere) a qualcuno del proprio agire.

La persona è sempre responsabile di quello che fa e si assume le conseguenze del suo agire in tutta la sua portata personale e transpersonale.  Ogni atto umano libero non è mai indifferente o nullo, ma ha un contenuto: è un agire per qualche cosa o su qualche cosa o in direzione di qualcuno o su qualcuno o contro qualcuno; vi sono motivi e intenzioni profonde che spingono verso l’azione. Ogni atto umano, e anche l’omissione è atto umano, comporta sempre una responsabilità morale.

La responsabilità ha un orizzonte teologico, antropologico, etico, ecologico, sussiste in rapporto a Dio, a se stessi, agli altri, al mondo, conferisce valenza relazionale all’agire morale e si declina secondo le tre dimensioni che la temporalità comporta: passato, presente e futuro. Considerando la responsabilità nella dimensione prospettica verso il futuro, possiamo dire che la portata dei nostri atti a volte eccede quella dei nostri progetti. L’uomo, come afferma papa Francesco, «è nudo ed esposto di fronte al suo stesso potere che continua a crescere, senza avere gli strumenti per controllarlo. Può disporre di meccanismi superficiali, ma possiamo affermare che gli mancano un’etica adeguatamente solida, una cultura e una spiritualità che realmente gli diano un limite e lo contengano entro un lucido dominio di sé»[4].

La tecnoscienza, che avvia ricerche e promuove azioni i cui esiti finali non sempre sono prevedibili, è chiamata ad agire con maggiore saggezza e senso di responsabilità. Lo scenario dell’imprevedibile, spesso e volentieri, è imputabile a un eccesso del potere di fare che è enormemente maggiore del potere di prevedere e quindi di valutare e giudicare.

Per un’etica di estesa responsabilità

L’etica della responsabilità, formulata da Max Weber, proposta da Hans Jonas, Karl–Otto Apel, Jürgen Habermas, e riproposta da molti altri filosofi morali[5], delinea un’etica per il futuro e, al tempo stesso, risponde alle innumerevoli domande che emergono dagli sviluppi del progresso scientifico e tecnologico nei vari ambiti della vita personale e sociale. Hans Jonas, nella sua opera fondamentale Il principio responsabilità. Un’etica per la civiltà tecnologica[6], propone una nuova etica per la civiltà tecnologica, ossia un’etica della responsabilità che nasce dalla percezione dei nuovi pericoli determinati dall’era tecnologica: «La nostra tesi, egli scrive, è che le nuove forme e le nuove dimensioni dell’agire esigono un’etica della previsione e della responsabilità in qualche modo proporzionale, altrettanto nuova quanto le eventualità con cui essa ha a che fare»[7]. Infatti la situazione del mondo contemporaneo è caratterizzata dal massimo di potere tecnologico e dal minimo di sapere intorno agli scopi. È quindi necessario passare da un’etica antropocentrica a un’etica planetaria e da un’etica della prossimità, riguardante i contemporanei, a un’etica delle generazioni future.

Le nuove potenzialità della tecnica obbligano a fare riferimento a un’etica nuova di estesa responsabilità per il nuovo contesto e per le urgenze che abbiamo rispetto alle future generazioni. Afferma Jonas: «La novità del nostro agire esige un’etica nuova di estesa responsabilità, proporzionata alla portata del nostro potere»[8]; «le nuove potenzialità dell’agire esigono nuove regole dell’etica e forse persino una nuova etica»[9].

Il bisogno di questa nuova etica nasce dal fatto che le etiche classiche non sono più in grado di affrontare le nuove sfide a motivo delle nuove potenzialità tecnologiche e per l’incapacità di elaborare un sapere predittivo in grado di prospettare le conseguenze a lungo termine dell’agire umano sulla terra. La responsabilità deve essere assunta non solo a livello personale, ma anche sociale e politico. Infatti, come ha affermato papa Francesco al G7: «Questo è proprio il caso dell’intelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perché un tale buon uso sia possibile e fruttuoso»[10].


[1] Francesco, Discorso al G7, Borgo Egnazia 14 giugno 2024.

[2] Cfr. K. Rahner, Corso fondamentale sulla fede. Introduzione al concetto di cristianesimo, Paoline, Roma 19844, pp. 59-64.

[3] V. E. Frankl, La sofferenza di una vita senza senso. Psicoterapia per l’uomo di oggi (1977), Elle Di Ci, Leumann (TO) 1987, p. 120.

[4] Francesco, Lettera enciclica Laudato si’. Sulla cura della casa comune, Roma 24 maggio 2015, n. 105.

[5] Cfr. G. Piana, Etiche della responsabilità. La voce di alcuni protagonisti, Cittadella, Assisi 2019.

[6] H. Jonas, Il principio responsabilità. Un’etica per la civiltà tecnologica, a cura di P. P. Portinaro, Einaudi, Torino 1990.

[7]Ivi, p. 24.

[8]Ivi, p. 29.

[9]Ivi, p. 31.

[10] Francesco, Discorso al G7, Borgo Egnazia 14 giugno 2024.

Esplora altri articoli su questi temi