Negli ultimi anni, l’Intelligenza Artificiale (IA) ha rivoluzionato numerosi settori, compreso quello militare. L’IA in ambito militare viene utilizzata per una varietà di scopi, tra cui droni autonomi capaci di effettuare missioni di ricognizione o attacchi mirati e sistemi di difesa automatizzati che rilevano e neutralizzano minacce senza intervento umano. Le applicazioni dell’AI in questo settore spaziano dalla sorveglianza alla logistica, fino allo sviluppo di armi completamente autonome per l’uso sul campo di battaglia. Con l’introduzione dei sistemi completamente autonomi, noti anche come Lethal Autonomous Weapon Systems (LAWS) o più semplicemente Killer Robots, emergono dilemmi morali senza precedenti. Paul Scharre, nel suo libro “Army of None” (Scharre, 2018), definisce l’autonomia in riferimento a tre dimensioni: i compiti che devono svolgere, la relazione tra il sistema e l’utente e la complessità del processo decisionale del sistema. Questi aspetti sono cruciali per comprendere le sfide etiche poste dall’IA nell’ambito militare (Limata, 2023).
I Killer Robots sono capaci di identificare, selezionare e attaccare obiettivi senza nessun intervento umano diretto, compito già complesso per un soldato, che deve distinguere tra militari e civili, personale sanitario e combattenti e tra civili che supportano il nemico da quelli che non lo fanno. Se è difficile per un essere umano, lo è ancor più per un sistema IA. Infatti, questi sistemi funzionano grazie a sensori e algoritmi, sequenze di istruzioni matematiche che trasformano dati reali in codici binari comprensibili dai computer. Essendo basato su modelli matematici, un sistema autonomo non è in grado di comprendere le intenzioni dei comportamenti umani, soprattutto in contesti dinamici e mutevoli come quelli della guerra. Questo è facilmente intuibile se si pensa alla diversa interpretazione di un semplice gesto come alzare le mani, che può essere inteso come un segno di resa, un tentativo di attirare l’attenzione o persino un attacco. La capacità di effettuare tali distinzioni è così sofisticata da essere difficilmente traducibile in modelli matematici: richiede una comprensione profonda del contesto, della cultura e delle intenzioni umane.

Un’altra questione importante riguarda il ruolo dell’essere umano nelle decisioni di vita e di morte prese da questi sistemi. I Killer Robots sono definiti sistemi out-of the-loop perché decidono autonomamente di ingaggiare e neutralizzare il bersaglio individuato, senza alcun possibile intervento umano. Questo solleva interrogativi sul rispetto dei principi fondamentali delle leggi umanitarie internazionali. Uno dei principi basilari è quello di “proporzionalità dell’attacco”, che impone di bilanciare il vantaggio militare atteso con i danni collaterali previsti a civili e beni civili. Questo principio, che può sembrare di facile applicazione, richiede però tre distinti processi: la distinzione tra bersagli legittimi e non legittimi, la valutazione dell’attacco militare in termini di vantaggio concreto e diretto, e infine la valutazione dei danni collaterali e delle perdite civili. Un attacco militare è quindi proporzionale quando il bersaglio è legittimo e quando i danni collaterali e le perdite civili non sono eccessive rispetto al vantaggio militare previsto. I principi umanitari utilizzano termini come “eccessivo” che non sono facilmente traducibili in modelli matematici e per tale motivo il rispetto dei principi umanitari, come quello di proporzionalità, richiedono una valutazione profondamente ancorata al contesto in cui vengono prese le decisioni e un processo di valutazione e decisione umano sofisticato.
Un’altra fonte di questioni etiche è legata alla complessità del processo decisionale di questi sistemi. Infatti, i Killer Robots operano su algoritmi predeterminati e dati sensoriali che permettono al sistema di svolgere i suoi compiti in completa autonomia. Nel contesto bellico, dove le situazioni cambiano rapidamente e la vita umana è in gioco, la capacità di rispettare i principi umanitari, così come quella di distinguere tra bersagli legittimi e non, richiede una comprensione sofisticata e contestuale. Questo processo di valutazione non è solo una questione di precisione tecnologica, ma anche di sensibilità umana verso le conseguenze delle decisioni militari. Inoltre, questi sistemi sono progettati al di fuori del campo di battaglia e, per tale motivo, potrebbero non essere sufficientemente flessibili o adattabili alle variazioni e alle incertezze tipiche delle operazioni militari reali, portando a decisioni errate con conseguenze disastrose per le vite umane e per le missioni militari.
L’autonomia dei Killer Robots, resa possibile dall’IA, presenta questioni etiche in ogni sua dimensione. Tuttavia, è importante considerare che questi sistemi mirano a salvare le vite dei soldati, permettendo loro di seguire le operazioni a distanza invece di scendere sul campo di battaglia. Assistiamo di conseguenza ad una trasformazione del concetto stesso di etica militare, da un’etica del combattimento a un’etica dell’esecuzione (Chamayou, 2014), dove il soldato non è più coinvolto direttamente nel combattimento ma ha il compito di monitorare e gestire delle macchine che eseguono le azioni letali. L’uso di questi sistemi porta a una deumanizzazione dell’atto di uccidere; non è il soldato che uccide, ma una macchina che è stata programmata per questo. Questa deumanizzazione ha in sé aspetti positivi e negativi. Molti soldati tornano dal campo di battaglia con problemi psicologici dovuti alla natura della guerra e del combattimento; disturbi post-traumatici o dipendenze da stupefacenti e farmaci sono comuni tra i soldati che fanno ritorno a casa e questi problemi sono anche il risultato di vedere “l’altro”, “il nemico”, morire davanti a sé. Portando il soldato fuori dal campo di battaglia, si crea una distanza fisica e psicologica dal nemico, vantaggiosa per la salute mentale dei soldati ma problematica per quanto riguarda la responsabilità e la trasparenza nelle decisioni letali. Quando una macchina prende decisioni di vita e di morte, chi è responsabile? Se un’arma autonoma commette un errore e uccide civili, su chi ricade la colpa? Queste domande, ancora senza risposta, pongono sfide legali e morali complesse. L’assenza di una figura umana direttamente coinvolta nel processo decisionale potrebbe rendere difficile attribuire la responsabilità per eventuali crimini di guerra, complicando l’applicazione del diritto internazionale umanitario.

Inoltre, l’autonomia dei sistemi d’arma basati sull’IA potrebbe incentivare una corsa agli armamenti tecnologici tra le nazioni, aumentando il rischio di conflitti automatizzati su larga scala, riflettendo un cambiamento dall’etica del combattimento a un’etica più fredda e distante dell’esecuzione delle operazioni militari. La velocità e l’efficienza di tali sistemi potrebbero ridurre le barriere all’uso della forza militare, rendendo più facile per gli Stati entrare in guerra senza considerare pienamente le conseguenze umane e diplomatiche.
In sintesi, l’intelligenza artificiale ha il potenziale di trasformare radicalmente il campo di battaglia, offrendo vantaggi significativi in termini di sicurezza dei soldati ed efficienza operativa. Tuttavia, l’uso di sistemi d’arma completamente autonomi, come i Killer Robots, solleva gravi questioni etiche e legali che richiedono una riflessione approfondita. È fondamentale che la comunità internazionale stabilisca normative rigorose per garantire che queste tecnologie siano utilizzate in modo responsabile e umano. L’introduzione di armi autonome potrebbe non solo modificare la natura dei conflitti, ma anche influenzare la stabilità globale e la pace. Per questo motivo, è essenziale promuovere un dibattito etico approfondito e creare quadri giuridici adeguati per regolamentare lo sviluppo e l’uso di queste tecnologie. Solo attraverso un controllo trasparente e una regolamentazione rigorosa si potrà garantire che l’intelligenza artificiale sia un alleato della sicurezza globale, piuttosto che una minaccia. La sfida è grande, ma con la cooperazione internazionale e un impegno etico condiviso, è possibile indirizzare lo sviluppo tecnologico verso un futuro più sicuro per tutti.
Bibliografia
Scharre, P. (2018). Army of None: Autonomous Weapons and the Future of War. New York: Norton.
Chamayou, G. (2014). Teoria del drone. Principi filosofici del diritto di uccidere (trad. M. Tari). Roma: DeriveApprodi.
Limata, T. (2023). Decision-making in Killer Robots is not bias free. Journal of Military Ethics, 22(2), 118–128.

