0. L’etica dell’Intelligenza Artificiale sta diventando un ambito profondamente scivoloso. Questo perché tende a deformare sia l’idea che abbiamo di IA, spesso approssimativa a causa dell’esuberante divulgazione sul tema – ma anche perché gli specialisti sono in disaccordo su una definizione univoca di IA, basti prendere le prime pagine del testo di Russell e Norvig (2011) -, sia l’idea che abbiamo dell’etica.
Ora, da una parte il grosso pregiudizio sull’etica, assunta solo nel suo valore normativo-deontologico e aprioristico (dovere/non dovere) è quello che maggiormente rischia di compromettere il senso di una genuina riflessione morale che si configura come guida allo sviluppo tecnologico, onde evitare rischi irreversibili. A questo proposito le due idee decentrate di etica e IA, nonché la disinformazione sul tema delle etiche pratiche o applicate, non solo alimentano circoli di misinformazione ma anche profonde incomprensioni su quale sia il ruolo dell’etica, confinandola a un “etichetta” da applicare. Per questo serve chiarire il vasto panorama dell’ “etica dell’IA”, espressione con cui si rischia di dire tutto o nulla, ma anche di equivocarne il senso tra riflessione strutturata e argomentata e mera compliance.
Per tentare di inquadrare il tema saranno proposti brevemente due argomenti:
- Etica dell’IA dovrebbe essere intesa al plurale (etiche);
- L’IA non possiede un’agentività propria, ma ricade sotto la sfera dell’etica che è specificatamente umana;
1. Per quanto riguarda il primo argomento, bisogna considerare alcuni punti che rischiano di generare un fraintendimento sul tema etico dell’IA introducendo una modellizzazione, e con ciò si intende una organizzazione concettuale interna che mostri l’intrinseca complessità della disciplina, la suddivida, mettendo in evidenza il rapporto con l’etica applicata.
Di fatto, l’etica dell’IA assume un significato per i medici che usano le nuove tecnologie, significa altro ancora per gli educatori e gli insegnanti, assume un altro valore nelle aziende e via discorrendo. Questo fenomeno si verifica per l’intrinseca proprietà/rischio della nuova tecnologia di IA: la pervasività.
Se l’IA è pervasiva e genera problemi etici diversi nei vari contesti in cui si inserisce, quindi anche nell’incontro con le varie deontologie professionali, allora, forse, bisognerebbe iniziare a parlare di “etiche” dell’IA, evitando l’uso di un singolare che risulta equivoco.
Vi saranno allora principi etici differenziati nell’utilizzo dell’IA da parte dei medici, così come da parte dei docenti, dei progettisti di veicoli autonomi, di droni, di algoritmi di selezione nelle aziende. Oggi risulta necessario spingere verso questa idea più capillarizzata di etica dell’IA, di modo che per ogni ambito vi sia una selezione di figure di riferimento utili a costruire principi etici adatti al singolo contesto (scuola, azienda, medicina, comunicazione etc. etc.), ma che siano principi di regolazione utili a evitare rischi etici non reversibili.

Adottando una postura etica di questo tipo – che sia flessibile e ragionata mediante dibattito interno agli specialisti di ogni settore di utilizzo dell’IA – un modello generalissimo di tipo principialista rischia di essere astratto, riduttivo e non risolutivo. Ad esempio, la proposta di Floridi in Etica dell’Intelligenza artificiale (2022), è proprio quella di unire ai principi di Beauchamp e Childress (1979) – autonomia, beneficenza, non-malevolenza, giustizia – quello della trasparenza; il tentativo è valido, ma presenta forse due elementi da problematizzare:
(i) uno etico-teorico, per cui è troppo generale, quindi diventando ancora un modello normativo-deontologico che ha una forma ma non un contenuto specifico o, meglio, che non presenta principi specifici;
(ii) uno etico-metodologico: Beauchamp e Childress teorizzano i principi, chiaramente all’interno di un paradigma di etica biomedica.
Dunque, considerato questo primo quadro, sarebbe auspicabile che l’etica dell’IA diventi “etiche dell’IA” considerando come necessaria la frame analysis; quest’ultima è una strategia su cui si può assolutamente essere d’accordo nella proposta di Floridi, al contrario del modello pseudo-principialista.
Concretamente, la proposta si traduce in (a) trovare e definire principi ma (b) per lo specifico ambito di applicazione dell’IA, considerata la sensibilità al contesto (phronesis). Lo sforzo concettuale è quello di esaminare le variabili diversificate che intervengono nei vari contesti di uso dell’IA e per cui, ad esempio, la tutela della privacy potrebbe non interviene affatto come principio in un determinato ambito rispetto a quello della non discriminazione. Il modello che occorre alle etiche dell’IA è quello di un ‘principialismo pratico’, in cui certo eleggiamo principi ma per lo specifico ambito in cui l’IA viene utilizzata.
In aggiunta a quanto detto, bisogna sottolineare che sempre l’espressione “etica dell’IA” nella sua ampiezza semantica, rischia di generare altri errori; se, infatti, il valore che assume “dell’IA” dovrebbe essere quello di un complemento di denominazione, rischia di essere confuso con un complemento di specificazione, generando un profondo errore concettuale, ossia che l’IA possieda intrinsecamente un’etica. Da qui il fraintendimento, come a voler intendere che l’IA sia produttrice di nuova moralità in quanto agente dotato di libertà e autorialità; ovviamente questo argomento è sviante e rischia di rendere l’etica dell’IA una disciplina inerente a un falso problema.
2. Per introdurre il secondo argomento, si può partire dall’affermazione di Stanislaw Lem in Summa Technologiae: «Fino a oggi l’essere umano non si è ingrandito. Si sono ingrandite e rese enormi solo le sue possibilità di fare agli altri del bene o del male» (Lem 1964, 42).
L’etica è un ambito che pertiene all’essere umano, tanto quanto la tecnica. Questo lo si può assumere come vero e proprio meccanismo funzionale alla sopravvivenza della specie, dato che siamo la specie che ha colonizzato maggiormente il mondo e che vive in gruppi sociali molto ampi (Harari 2011). In un’ottica etologica, allo stesso modo, alcune caratteristiche più o meno funzionali sono proprie di altre specie: dalle ali per i volatili alla cresta del gallo. A farla breve, esistono caratteristiche specie-specifiche e sicuramente l’etica è pertiene all’essere umano. Facendo riferimento alla ricostruzione proposta da Michael Tommasello (2016), qui si intende l’etica non come semplice processo simpatetico primario, che è anche condiviso da altre specie non umane, ma come il successivo definirsi prima di una morale della seconda persona (cooperazione e reciprocità) e poi di una morale istituzionalizzata e astratta nel corso dell’evoluzione della specie (giustizia).
Essendo anche la natura dell’essere umano “tecnica” come sostiene buona parte dell’antropologia del ‘900 [filosofica e non, fra tutti si veda Arnold Gehlen (1940)], ed essendo che la tecnica permette di dominare e invadere ambienti compromettendo la vita di altre specie oltre che la vita stessa dell’essere umano, va da sé che l’etica della responsabilità diviene essenziale per salvaguardare la vita stessa (Jonas 1979). Questa ricostruzione porta direttamente a una conseguenza: se l’etica appartiene alla specie umana, essa si irradierà verso tutto ciò con cui l’essere umano entra in relazione (sé stesso, gli altri, le altre specie, l’ambiente).

L’etica non può essere intrinseca alle macchine – a maggior ragione per il fatto che l’IA non è una specie naturale; l’etica dell’IA è estensione dell’etica dell’essere umano ai suoi prodotti e al modo in cui questi, proprio perché acquistano maggiore autonomia, rischiano di provocare danni agli altri, alle altre specie, e all’ambiente. Così come l’etica animalista è estensione della responsabilità umana sulle altre specie, e quindi non è un’etica degli animali, ma per gli animali e così come etica dell’ambiente è un’etica per l’ambiente, allo stesso modo quando si parla di IA, sarà necessario non solo pluralizzare l’etica in etiche (I argomento), ma trasformare un equivocabile complemento di denominazione in complemento di fine (II argomento). Per cui, la formula più adatta e potenzialmente non equivocabile potrebbe essere “Etiche per l’IA”.
Bibliografia
- Beauchamp, T. L., Childress J. F.: Principles of Biomedical Ethics. Oxford University Press, New York (1979).
- Bostrom, N.: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, Oxford (2016).
- De la Higuera, C.: “A report about Education, Training Teachers and Learning Artificial Intelligence: Overview of key issues” Universite de Nantes, 1-12 (2018).
- Floridi, L.: Etica dell’Intelligenza Artificiale. Sviluppi, opportunità, sfide. Raffaello Cortina, Milano (2022).
- Gigerenzer, G.: Perchè l’intelligenza umana batte ancora gli algoritmi. Raffaello Cortina, Milano (2023).
- Harari, Y. H.: From Animals to Gods: A Brief history of Humankind. Kinneret, Israel (2011).
- Jonas, H.: The Imperative of Responsibility. In Search of an Ethics for the Technological Age. Chicago University Press, chicago (1984).
- McFarlane, D. C., Latorella K. A.: The Scope and Importance of Human Interruption in Human-Computer Interaction Design, Human-Computer Interaction, 1-61 (2002).
- Mori, M.: Manuale di bioetica. Verso una civiltà biomedica secolarizzata. Le lettere, Firenze (2010).
- Russell, S., Norvig, P.: Artificial Intelligence: A Modern Approach 3rd edition. Prentice-Hall: Pearson (2010).
- Tommassello, M.: A Natural History of Human Morality. Harvard University Press, Harvard (2016).
- Weinberger, D. The Rise of Particulars: AI and the Ethics of Care. Philosophies, 1-7 (2024).
- Zuboff, S. The Age of Surveillance Capitalism: the Fight for the Human Future at the new Frontier of Power. Public Affairs, New York (2018).

