Pubblicato simultaneamente su Tuttoscienze e su MagIA, questo contributo analizza il volto più ambiguo dell’intelligenza artificiale: una tecnologia capace di curare e colpire, generare conoscenza e disinformazione, ampliare l’umano e insieme minacciarlo.
Droni al fronte, deepfake a casa: la stessa tecnologia che ci aiuta nel quotidiano può uccidere, alimentare disinformazione e destabilizzare un paese.
Dal fronte ai feed: l’IA nella guerra ibrida
Quando un drone sul campo di battaglia continua a inseguire il bersaglio, nonostante la sua connessione con l’operatore sia stata disturbata dalle interferenze di un jammer, vuol dire che l’intelligenza artificiale è al lavoro per guidarlo. Quando, a pochi giorni da un’elezione politica, i social media vengono inondati di audio o video per diffondere disinformazione – come è accaduto con le telefonate deepfake attribuite al presidente Biden nel New Hampshire nel 2024 o con l’audio manipolato del candidato progressista di opposizione Michal Simecka durante le elezioni slovacche del 2023 – è di nuovo in gioco l’IA. I conflitti di oggi sono sempre più ibridi: non solo eserciti sul campo e mezzi convenzionali, ma anche incursioni di droni sugli aeroporti europei, attacchi informatici e operazioni di disinformazione. Attività spesso pensate per destabilizzare i paesi senza oltrepassare la soglia della guerra, tanto che la legislazione internazionale fatica a tenere il passo con l’evoluzione tecnologica. L’intelligenza artificiale non sta solo cambiando il modo di combattere, ma sta contribuendo a dissolvere i confini tra pace e guerra, tra informazione e manipolazione, tra sovranità nazionali e influenze straniere.
Duplice uso, potenza e limiti: perché serve ancora l’umano
La forza dell’IA è la sua natura “general purpose” (cioè di avere “finalità generali”, per usare la terminologia dell’AI Act della EU), ed è proprio per questo che è a rischio di duplice uso: militare e civile, offensivo e difensivo, utile e pericoloso al tempo stesso. Per fare due esempi. I modelli di visione artificiale, che in medicina permettono diagnosi a partire da una radiografia, sul campo di battaglia servono per aiutare piccoli droni a trovare bersagli. O ancora: i modelli di navigazione, che sulle nostre strade guidano le auto autonome, in guerra vengono usati per guidare il volo dei droni quando il segnale GPS è disturbato.
Nelle retrovie, gli eserciti usano l’IA per analizzare i video dei droni, combinare immagini satellitari, pianificare rotte e prevedere la manutenzione dei mezzi, accelerando le decisioni. Secondo le inchieste di fine 2023 della testata online +972 Magazine, fondata da giornalisti israeliani e palestinesi, di The Guardian e di TIME, l’esercito israeliano avrebbe utilizzato nella Striscia di Gaza sistemi di supporto decisionale basati su IA — come The Gospel, Lavender e Where’s Daddy? — per identificare infrastrutture, persone e obiettivi militari. Queste tecnologie hanno reso più rapida la selezione dei bersagli, ma hanno legittimamente sollevato dubbi etici e giuridici rispetto alle vittime civili, alla qualità dei dati usati e al reale livello di supervisione umana.

Nonostante l’uso intensivo di questi strumenti, le lethal autonomous weapons (armi letali autonome) sono ancora sistemi sperimentali non utilizzati su larga scala: la supervisione umana rimane centrale. I robot militari guidati dall’IA affrontano per il momento limiti strutturali. I loro sistemi di visione restano imprecisi: fumo, nebbia, mimetizzazione o folle per le strade possono confondere i sensori e portare a errori di identificazione. L’autonomia può fallire in modo imprevedibile quando il sistema opera fuori dai dati su cui è stato addestrato, e il cosiddetto “bias di automazione” spinge gli operatori a fidarsi troppo di macchine che si mostrano apparentemente sicure di sé.
Per questi motivi gli eserciti affidano ancora ad un essere umano la responsabilità del rilascio della “forza letale”, impongono soglie di sicurezza, prevedono interruttori di emergenza. Anche in aeronautica si punta a costruire sciami di droni che affiancano un aereo con un pilota, prima di realizzare un caccia totalmente autonomo. In sintesi, i robot, non solo in ambito bellico, possono essere assistenti per i lavori ripetitivi e pericolosi, ma non sono bacchette magiche: affidabilità e giudizio umani restano decisivi.
Oltre il campo di battaglia: regole, etica e coscienza civica
Anche lontano dal fronte, l’IA però è diventata una nuova arma. L’IA generativa può tradurre, personalizzare e diffondere contenuti persuasivi in molte lingue e piattaforme. La stessa capacità di produrre testi, immagini, audio e video può essere usata per seminare confusione, inondare i social con post personalizzati provenienti da identità sintetiche, o inventare nuovi cyber attacchi. OpenAI ha documentato tentativi di stati ostili di sfruttare strumenti di IA in commercio per realizzare operazioni di influenza occulte – come riportato da CyberScoop nel 2024. La maggior parte è stata certo subito intercettata, ma la barriera d’ingresso continua a diminuire ed è sempre più facile il loro utilizzo per operazioni del genere.
Tutto ciò mostra il significato del “duplice uso” dell’IA in senso militare, e come in un contesto di guerra ibrida l’IA amplifichi la velocità e l’ambiguità del conflitto.
Negli ultimi anni i dipendenti di Google, Amazon e Microsoft hanno protestato contro l’uso militare delle loro tecnologie. Dal Project Maven di Google nel 2018 alle manifestazioni del 2024-2025 contro gli accordi fatti da Google DeepMind, Amazon AWS e Microsoft Azure, queste mobilitazioni hanno dato voce a una crescente coscienza etica collettiva dei lavoratori tech, che chiedono responsabilità morale sull’impiego dell’intelligenza artificiale.

Per contenere l’abuso dell’IA, governi e organizzazioni internazionali hanno proposto linee guida, e le aziende informatiche hanno messo “guardrail” nei solo sistemi. Ma non basta. In un contesto globale di corsa tecnologica agli armamenti, è quasi impossibile raggiungere accordi internazionali vincolanti. Come nel settore civile, i tentativi di limitare l’IA attraverso filtri, controlli o blocchi risultano spesso inefficaci e rischiano di assomigliare a forme di censura, mentre gli attori malevoli migrano verso spazi meno regolamentati.
Per queste ragioni, la difesa più efficace contro la manipolazione e la guerra ibrida resta la consapevolezza. Diventa sempre più essenziale educare i cittadini a riconoscere i contenuti falsi, formare ricercatori e decisori politici capaci di comprendere le implicazioni etiche e geopolitiche dell’IA, rafforzare i media tradizionali come fonti affidabili. Le università e le organizzazioni civiche possono fungere da ponte tra la tecnologia e la democrazia, creando alfabetizzazione digitale e responsabilità culturale.
L’Università di Torino è da tempo in prima linea su questo fronte: i corsi di laurea e master sull’IA dei Dipartimenti di Informatica, Culture, Politica e Società, Studi umanistici e Medicina includono insegnamenti di etica delle tecnologie; dopo il successo dello scorso anno è ripartito nel Dipartimento di Filosofia e Scienze dell’Educazione il master interdisciplinare “Etica e intelligenza artificiale: scuola, pubblica amministrazione e società” (MEIA), primo in Italia su questi temi. L’Ateneo ha inoltre finanziato dal 2020 i progetti di public engagement AI Aware e AI Debating, ed è sede della Società Italiana per l’Etica dell’IA (SIpEIA), nata ormai 5 anni fa, assieme alla quale pubblica il Magazine Intelligenza Artificiale magia.news. Punto di forza è anche la ricerca orientata su questo delicato tema di stretta attualità.
In definitiva le cronache ci raccontano che la guerra ibrida può arrivare ovunque: l’IA rischia infatti di sfumare il confine tra guerra e pace. È quindi sempre più urgente promuovere lo sviluppo di una coscienza critica.
Guido Boella – Cofondatore della Società Italiana per l’Etica dell’IA (SIpEIA) – Università di Torino
Graziano Lingua – Direttore del Dipartimento di Filosofia e Scienze dell’Educazione – Università di Torino
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

