Il tema dell’intelligenza artificiale è un argomento davvero molto importante per la filosofia in generale, l’etica e soprattutto la bioetica. I sistemi di IA, sviluppati con gradi sempre maggiori di complessità e capacità autonome, stanno progressivamente entrando in maniera via via più massiccia nella nostra quotidianità e non è più possibile esimersi dall’affrontare profonde riflessioni circa il loro impatto sulla società in ogni livello ed ambito conoscitivo.
In particolare, dal punto di osservazione della bioetica, l’intelligenza artificiale si presenta come un oggetto di indagine assai affascinante, in particolar modo per una sua caratteristica peculiare. I grandi problemi della bioetica infatti, come ad esempio aborto, eutanasia, fecondazione assistita, questioni di genere e contraccezione, sono accomunati dal fatto che la loro rilevanza morale viene approfondita per stabilire quale soggetto coinvolto debba essere maggiormente tutelato e in che modo. Se si ragiona sull’aborto è soprattutto per stabilire se debba prevalere la tutela della gestante oppure quella della vita futura del nascituro; se si ragiona sull’eutanasia è soprattutto per stabilire quale sia il modo migliore di tutelare la dignità di un soggetto in stato di prolungata incoscienza o di acuta sofferenza; se si ragiona sulla fecondazione assistita è soprattutto per cercare di stabilire come si debbano tutelare i desideri di genitorialità di alcuni individui; contraccezione e questioni di genere chiamano in causa il problema della garanzia della tutela della sovranità di un individuo sul proprio corpo e sul suo uso. Nel caso dell’intelligenza artificiale, invece, la situazione si capovolge, in quanto la rilevanza morale di questo oggetto non è tanto importante perché va ad implicare la possibilità di una sua tutela – ad oggi viene difficile concepire come una macchina possa aver bisogno di “rispetto” e “protezione” – quanto piuttosto perché essa obbliga ad approfondire il suo ruolo in atti considerati universalmente come immorali o riprovevoli che potrebbero essere compiuti e la sua conseguente imputabilità. Insomma l’IA si impone all’attenzione della bioetica in quanto porta con sé uno spinoso ed intricato problema di attribuzione di responsabilità. Un sistema di intelligenza artificiale è dunque considerabile un soggetto morale autonomo a cui attribuire azioni o soltanto uno strumento coinvolto in atti compiuti da agenti umani? Entrambe le opzioni comportano serie criticità e sembrano purtroppo condurre ad un dilemma irrisolvibile.

Per attribuire ad un ente la responsabilità di un atto è necessario poter asserire che esso fosse pienamente cosciente al momento del compimento di quell’atto, viceversa non sarà possibile attribuirgli alcunché. Tuttavia già a questo livello, e lasciando per un attimo da parte l’IA, sorge una scomoda questione. Il termine coscienza infatti viene spesso adottato in maniera ambigua, dato che esso può essere inteso in due modi differenti:
- Come capacità di provare sentimenti riguardo azioni e pensieri propri, per esempio senso di colpa e pentimento;
- Come semplice capacità di essere consapevoli di se stessi, della propria realtà mentale interna e della realtà circostante.
Ritengo che il primo significato sia filosoficamente fuorviante e che sia il secondo quello davvero rilevante quando in bioetica ci si trova a riflettere sulla responsabilità.
Appurato come debba essere intesa in questa sede la coscienza è ora possibile ragionare sulla sua attribuzione a sistemi di intelligenza artificiale. Infatti, mentre è vero che adoperando il primo significato del termine diventa molto difficile conferire a qualcosa che non sia umano questa qualità, nel secondo caso essa diventa appannaggio di uno spettro ben più variegato di entità. Tutti gli animali reagiscono a stimoli esterni, e i più evoluti mostrano persino affascinanti barlumi di un mondo interiore, tutte caratteristiche ascrivibili ad un essere cosciente. Ma ancora, possiamo davvero non attribuire una coscienza ad una pianta carnivora, piuttosto che ad una pianta velenosa che percependo un tocco rilascia una sostanza per difendersi? Qualsiasi elementare manifestazione dell’istinto di sopravvivenza, qualsiasi risposta ad una situazione esterna, non possono che essere segno della presenza di coscienza. Viceversa, per fare chiarezza, non sono coscienti né i rami di un albero mossi dal vento, né i sassi che rotolano colpiti da qualcosa. E un sistema di intelligenza artificiale può essere considerato cosciente? Una risposta è inevitabile se si aspira a stabilirne l’eventuale responsabilità di atti riprovevoli. In un recente articolo Mario De Caro ha messo bene in luce la difficoltà di questa questione: «Molti esperti – da Bill Gates e Nick Bostrom a Geoffrey Hinton e Demis Hassabis, vincitori del Nobel 2024 – paventano la possibilità che l’IA si autonomizzi completamente dai programmatori umani e arrivi addirittura a ribellarsi. Secondo [Manfred] Spitzer, però, questa eventualità è puramente fantascientifica … a suo avviso, all’IA non si possono attribuire né la coscienza … né alcuna capacità di comprensione … difende però vigorosamente l’idea che ormai all’intelligenza artificiale non si possano non attribuire creatività e capacità di intuizione …».
Dalle considerazioni riportate emerge bene quanta ambiguità regni circa il concetto di coscienza, infatti è assai difficile immaginare di poter essere creativi ed intuitivi senza detenere capacità di coscienza di una realtà, qualunque essa sia. Dunque, stando a quanto puntualizzato da Spitzer, l’IA sarebbe eccome un soggetto agente dotato di responsabilità per eventuali atti riprovevoli, e quindi imputabile.
Molti altri invece potrebbero asserire che i sistemi di IA non sono altro che strumenti sofisticati nelle mani dell’uomo e che quindi non possono essere più responsabili di quanto lo sia la nostra TV per le immagini che trasmette. Come ricorda in proposito Tamburrini: «Affermando che un atto è stato eseguito meccanicamente – e cioè alla maniera di una macchina – si presuppone di solito che la macchina non abbia coscienza di sé e del mondo, né un’esperienza soggettiva del suo agire. Le macchine finora prodotte dall’uomo sono soggette a queste limitazioni». Una macchina autonoma dopotutto non è dotata di sensi per percepire l’ambiente circostante, non può provare sensazioni fisiche. Ed è poi difficile stabilire se e come un ente del genere possa essere consapevole di se stesso. Eppure l’assistente vocale di Google comprende benissimo il suono, nient’altro che una sensazione, della nostra voce; un robot aspirapolvere individua benissimo la sporcizia sul pavimento, come farebbe un essere umano con i suoi sensi. Ma soprattutto, un sistema missilistico autonomo di difesa aerea è in grado di tracciare i segnali radar e termici dei velivoli in transito e di elaborarli per decidere se attaccare oppure no.
L’esempio finale presenta uno spunto molto affascinante: gli umani sono coscienti della propria realtà in un modo peculiare, gli animali e le piante lo sono in altri modi, percepiscono cose che noi non percepiamo e non percepiscono cose che invece noi percepiamo. Per cui sorge spontaneo chiedersi se i sistemi di intelligenza artificiale non percepiscano semplicemente o la nostra realtà in un modo differente, oppure una realtà del tutto diversa da noi. Davvero c’è una differenza di consapevolezza tra i sensi di una pianta velenosa e i processi elettronici di un robot aspirapolvere? Davvero un complesso sistema di difesa aerea è meno consapevole di un cane? Forse ci rassicurerebbe proprio sapere che non è così.

Ora, se anche fosse vero che l’IA è cosciente e quindi direttamente responsabile dei propri atti si aprirebbe un altro problema: come potrebbe essere punita, non avendo essa una coscienza nel senso sentimentale del termine? Se fosse vero invece l’opposto, e cioè che l’IA non è cosciente dei suoi atti, di chi sarebbe la responsabilità di questi atti? Dell’azienda produttrice? Dell’ente che ha acquistato il sistema? Dei tecnici che l’hanno progettato? Degli addetti alla manutenzione? Si farebbe insomma concreto il pericolo di un vuoto di responsabilità. Infatti, una pistola, per esempio, non può essere colpevole di omicidio, ma chi lo è banalmente è colui che ha premuto il grilletto, nel caso del sistema di intelligenza artificiale invece nessuno impugna alcunché.
Per concludere, il tema della responsabilità in relazione all’IA è della massima rilevanza per l’etica e la bioetica e sarà fondamentale ragionarci a lungo, poiché con l’incessante avanzamento tecnologico delle macchine esso si imporrà sempre più come urgente. Certo sarebbe auspicabile un futuro ideale in cui i sistemi di addestramento dell’intelligenza artificiale avranno raggiunto una tale raffinatezza da consentire l’impianto di codici morali perfetti ed incontrovertibili all’interno delle macchine. Tuttavia la grande discordia che regna nel dibattito morale su quale debba essere la teoria etica corretta è lungi dall’essere sopita, anche se Isaac Asimov, celebre autore di Io, robot, formulando le tre leggi fondamentali della robotica, ci ha lasciato uno spunto per sperare.
Fonti
- Asimov Isaac, Io, robot (trad. it. a cura di Vincenzo Latronico), Mondadori, Milano 2021.
- De Caro Mario, L’IA è più creativa di Shakespeare ma incosciente come l’atomica, in “Tuttolibri” (inserto a “La Stampa”, quotidiano), 21 dicembre 2024.
- Tamburrini Guglielmo, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Carocci, Roma 2020.

