• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Come l’Intelligenza Artificiale sta cambiando la prevenzione e il contrasto alla violenza di genere

Scarpe Rosse

Come ogni anno, il 25 novembre celebriamo la Giornata Internazionale per l’Eliminazione della violenza contro le donne.

L’Assemblea Generale delle Nazioni Unite ha istituito questa giornata il 17 dicembre 1999 attraverso la risoluzione 54/134. Questa data fu scelta in ricordo del brutale assassinio nel 1960 delle tre sorelle Mirabal, che tentarono di contrastare il regime di Rafael Leónidas Trujillo Molina (1930-1961), un dittatore che tenne la Repubblica Dominicana nell’arretratezza e nel caos per oltre 30 anni.

Questa ricorrenza ha acquisito negli anni una visibilità sempre maggiore, in corrispondenza ad una crescente sensibilità dell’opinione pubblica di fronte ad un fenomeno che continua a turbare le coscienze.

In particolare, aumenta la contezza di quanto sia diffusa la violenza domestica, all’interno dei nuclei familiari, o perpetrata da ex-compagni, quando la relazione finisce. Ed è anche entrato nel linguaggio comune il termine femminicidio, ad indicare l’uccisione di una donna “in quanto tale”.

I dati ci dicono che la violenza di genere riguardi tutte le fasce di età, e tutte le fasce della popolazione indipendentemente dal livello di studio o dal reddito.

Queste caratteristiche non sono cambiate significativamente in questi ultimi decenni. È  forse aumentata l’emersione del sommerso, data la maggiore consapevolezza delle persone offese che comprendono di subire una violenza, che può essere fisica, sessuale, psicologica, economica e digitale.

In particolare, è proprio rispetto alla progressiva digitalizzazione del nostro quotidiano che possiamo registrare le trasformazioni più sensibili sia per quanto riguarda le nuove forme di violenza, che per gli strumenti che possono essere utilizzati per prevenirle o contrastarle.

L’intelligenza artificiale può diventare un mezzo fondamentale per identificare e combattere la violenza di genere. Dal monitoraggio di contenuti online potenzialmente offensivi alla creazione di piattaforme che aiutino le persone offese a cercare supporto in modo sicuro, la tecnologia ci offre nuove possibilità per affrontare questo problema. Opportunità da indagare, non rifiutare a priori, né adottare in modo acritico.

L’IA ha infatti un lato oscuro. Algoritmi con bias, utilizzati nei sistemi di riconoscimento facciale ad esempio, rischiano di esacerbare le disuguaglianze e di mettere a rischio la privacy delle donne, e più in generale la loro sicurezza. Così come altre applicazioni digitali che possono essere usate per controllare una persona a sua insaputa.

Nel digitale più in generale sono nate nuove forme di violenza, che determinano un aggiornamento progressivo della definizione dei reati: pornografia vendicativa o revenge porn, cyberstalking, doxing, vale a dire la pratica di diffondere pubblicamente online informazioni personali e private riguardanti una persona con intento malevolo.

La violenza digitale può iniziare online e proseguire offline, o viceversa, ed essere messa in atto da persone o gruppi di persone sia anonime o sconosciute, sia conosciute. Parliamo di un continuum, onlife, tra online e offline, digitale e fisico. Non possiamo infatti continuare a contrapporre reale a virtuale, anche perché il digitale è ormai parte della nostra realtà.

È difficile però trovare dati attendibili su questi fenomeni, poiché è complesso raccoglierli e classificarli. Risulta comunque che un’elevata percentuale degli autori di violenza domestica controlli il computer della partner e ne tracci i cellulari con software appositi.

A questo proposito purtroppo assistiamo alla denuncia di casi di cronaca nera, come quello di ottobre di quest’anno di una donna nel napoletano seguita e picchiata insieme al nuovo compagno con mazze e tubi di ferro dall’ex marito, che aveva nascosto un tag di localizzazione nella sua vettura. I sistemi di tracciamento bluetooth nascono con la finalità di permettere alle persone di ritrovare i propri oggetti smarriti, come una borsa o delle chiavi. Ma vengono usati in molti casi di stalking.

La questione è sempre quella del controllo che viene esercitato sulla persona offesa, che sarebbe preferibile non chiamare vittima, evitando un giudizio implicito di fragilità verso la donna che invece deve essere messa nella condizione di vivere la propria libertà. E dobbiamo essere consapevoli di quanto pesino i nostri pregiudizi, anche inconsci, trasferiti dal fisico nel digitale, e nell’intelligenza artificiale.

È stata recentemente denunciata, in corrispondenza con la seconda udienza del processo contro Filippo Turetta per il femminicidio di Giulia Checchettin, la presenza di chatbot sulla piattaforma Character.ai che riproducevano entrambi sotto forma di avatar, pronti a interagire con gli utenti tramite chat. È un esempio particolarmente raccapricciante, una nuova violenza nei confronti della ragazza, una violazione dei suoi dati. Come osserva Mauro Alovisio per Alley Oop, docente a contratto presso l’Università di Torino e coordinatore del corso Gdpr, “siamo di fronte a un caso di deep fake costruito con IA, una replica digitale che nel caso di una persona defunta prende il nome di thanabot, un fenomeno poco conosciuto in Italia”. Importante che l’Unione Europea abbia adottato l’AI Act che però ha considerato l’utilizzo di chatbot una tecnologia a basso rischio.

Più in generale i casi di deefake riguardano la diffusione di materiale intimo non consensuale e la creazione di contenuti pornografici. Secondo la ricerca The Naked Truth – How intimate image sharing is reshaping the world” (Kaspersky, 2024), il 45% degli uomini italiani intervistati pensa però che chi condivide immagini intime sia, almeno in parte, responsabile se queste vengono divulgate senza consenso. Questa considerazione è assolutamente in linea con i dati Istat diffusi nel mese di novembre 2023 per cui il 39,3% degli uomini ritiene che una donna possa sottrarsi a un rapporto sessuale se davvero non lo vuole e quasi il 20% che la violenza sia provocata dal modo di vestire delle donne. Siamo sempre di fronte al continuum fra mondo digitale e fisico.

Guardando ai lati positivi, algoritmi di machine learning aiutano sui social a identificare discorsi d’odio e molestie, con una diminuzione significativa dei contenuti violenti, segnalati anche dagli utenti, grazie all’intervento preventivo del sistema.

Durante la pandemia da COVID-19, si è registrato un aumento dei casi di violenza domestica. Questo ha accelerato lo sviluppo di chatbot e piattaforme di supporto per aiutare le persone offese, anche se sappiamo che l’intervento umano è sempre quello risolutivo, così come in altri settori.

Un esempio è l’app SafeLives, che consente alle donne di cercare assistenza senza dover parlare, un aspetto particolarmente importante per chi vive con un partner abusante. L’applicazione può fornire informazioni legali, supporto psicologico e connessione a centri di emergenza.

Un altro ambito sicuramente molto delicato è quello della valutazione del rischio che corre la donna. A questo riguardo esistono diversi metodi riconosciuti internazionalmente come il metodo S.A.R.A. (Spousal Assault Risk Assessment) per la stima del rischio della recidiva da parte degli autori di atti violenti, basato su indicatori e fattori di rischio. È naturale immaginare che il tutto possa essere tradotto in algoritmi predittivi.

Esistono già esempi utilizzati da tempo come l’algoritmo Viogen, utilizzato dal ministero dell’Interno spagnolo dal 2007 per prevedere il rischio di violenza di genere in base alle denunce presentate alla polizia. Una recente indagine ha dimostrato diverse criticità, come il fatto che vi siano stati numerosi casi di violenza di genere classificati come “a basso rischio” che sono sfociati in femminicidi o omicidi dei figli. Bisogna dire che purtroppo assistiamo a errate valutazioni del rischio che portano a tragedie, anche quando non vengono usati algoritmi. Si tratta quindi di potenziare l’utilizzo di questi metodi, anche impiegando degli algoritmi che possano efficacemente supportare le decisioni prese in ultima battuta dalle persone.

Da questi esempi ricaviamo l’importanza di bilanciare innovazione e responsabilità, sottolineando che solo con un approccio consapevole e collaborativo potremo sfruttare l’IA come uno strumento realmente utile nella lotta alla violenza di genere: da una parte possiamo fare leva sulla tecnologia per migliorare il monitoraggio, la prevenzione e il supporto alle persone offese; dall’altra, dobbiamo essere vigili e critici per evitare che l’IA diventi uno strumento di discriminazione o abuso.

Bibliografia

Esplora altri articoli su questi temi