La minaccia in rete dei deepfake sessuali è molto più seria di quello che probabilmente immaginiamo.
L’articolo “Would love to see her faked’: the dark world of sexual deepfakes – and the women fighting back” di Shanti Das pubblicato su The Guardian il 12 gennaio 2025 ci offre un quadro agghiacciante di questo fenomeno in Inghilterra.
Prima dell’uso massiccio dell’intelligenza artificiale assistevamo più semplicemente al furto di identità digitali, vale a dire l’atto illecito di acquisire e utilizzare informazioni personali di un individuo senza il suo consenso, comprese le foto, allo scopo di commettere truffe o altre attività criminali. In particolare, si è diffuso il fenomeno delle cosiddette truffe amorose o romantiche. Le foto rubate sono usate per creare profili falsi, in genere di uomini single, vedovi o separati, con i quali vengono contattate sui social le potenziali vittime, instaurando progressivamente un legame che spesso si trasforma in una storia d’amore on line. I truffatori quindi iniziano a chiedere denaro, accampando una serie di motivazioni legate a problemi di salute, oppure a furti subiti nel viaggio che li avrebbe portati a raggiungere la vittima. Purtroppo queste estorsioni sono molto numerose e di valore economicamente significativo poiché spesso le donne aspettano molto tempo prima di denunciare, in quanto non vogliono ammettere, innanzi tutto a se stesse, di essere state ingannate. Quasi certamente negli ultimi anni l’intelligenza artificiale interviene alterando i contenuti digitali di partenza, con deepfake, nell’elaborazione del profilo falso, e nella sua interazione con la vittima.

In questi casi sono in campo vere e proprie organizzazioni criminali. Invece il fenomeno dei deepfake sessuali o pornografici, descritto nell’articolo citato, vede il più delle volte come autori di un altro tipo di reato persone che consideriamo “normali”.
Alla fine del 2017, quando i deepfake iniziarono a diffondersi, il termine era collegato principalmente al mondo del porno, trattandosi della sovrapposizione dei volti di persone famose sui corpi degli attori nei film per adulti. Negli ultimi anni, si fa riferimento in generale a foto e video manipolati, spesso impiegati in campagne di disinformazione. Tuttavia ancora oggi la maggior parte dei deepfake sono di natura pornografica e prodotti in contesti patologici.
Il caso che viene raccontato dalla giornalista è quello di una donna che denuncia un uomo, ritenuto prima un amico, che ha condiviso le sue foto, in cui è completamente vestita, prese dal suo Instagram privato, invitando gli altri membri di un forum a modificarle, creando deepfake sessualmente espliciti.
Molti di questi prodotti sono realizzati utilizzando delle app in grado di denudare le immagini. Fortunatamente esistono associazioni di attiviste che supportano le vittime nella segnalazione di servizi di questo tipo ad Apple, ad esempio, per la loro rimozione. La maggior parte delle persone colpite, ma non tutte, sono donne, come per le truffe amorose. Circa il 72% dei casi di deepfake rilevati dalla linea di assistenza associativa raccontata nell’articolo riguarda infatti la popolazione femminile. Ci sono stati anche diversi casi di donne musulmane prese di mira con immagini deepfake in cui indossavano abiti succinti o a cui era stato rimosso l’hijab.
Il governo inglese ha annunciato un “giro di vite” sui deepfake espliciti, promettendo di estendere la legge attuale per rendere un reato penale la creazione di immagini senza consenso, così come la loro condivisione, che è illegale dal gennaio 2024. Ma al momento sollecitare i deepfake, come nell’episodio riportato, cioè trovare qualcuno che li realizzi per te, non è punibile.
I casi di deepfake sono ai massimi storici: le segnalazioni di abuso di immagini sintetiche sono aumentate del 400% dal 2017 in Inghilterra.
Se la vittima sa dove è stato pubblicato il suo contenuto, può inviare una richiesta di rimozione direttamente alla piattaforma, che non sempre però procede all’eliminazione. Inoltre, per evitare che le foto vengano nuovamente pubblicate, può essere utilizzato un servizio chiamato StopNCII, uno strumento creato con i finanziamenti di Meta da SWGFL, l’organizzazione benefica per la sicurezza online a cui fa capo anche la Revenge Porn Helpline. Le persone possono caricare foto – reali o sintetiche – e la tecnologia crea un hash unico, che viene condiviso con piattaforme partner – tra cui Facebook, Instagram, TikTok, Snapchat, Pornhub e Reddit (ma non X o Discord). Se qualcuno tenta di caricare quell’immagine, viene automaticamente bloccata. Vedremo cosa succederà con le nuove policy decise da alcune piattaforme.

In Italia, in accordo all’Europa e alla recente approvazione dell’AI Act, il deep fake è diventato reato. Il disegno di legge licenziato dal Governo il 23 aprile 2024 interviene sulla materia introducendo, all’interno del Codice penale, l’art. 612-quater che disciplina il nuovo reato di deepfake, ovvero l’illecita diffusione di contenuti generati o manipolati artificialmente, perseguibile con il carcere da 1 a 5 anni. A questo tipo di reato corrisponde dunque una norma molto recente e non abbiamo giurisprudenza in merito. E nel caso dei deepfake pornografici, si entra in un ambito che ha punti di contatto con il reato di revenge porn, che consiste nell’invio, consegna, cessione, pubblicazione o diffusione, da parte di chi li ha realizzati o sottratti e senza il consenso della persona cui si riferiscono, di immagini o video a contenuto sessualmente esplicito destinati a rimanere privati.
Si tratta di nuove forme preoccupanti di violenza di genere on line (cyber-violenza), così come ha sottolineato nella sua relazione all’apertura dell’anno giudiziario 2025, la presidente della Corte di Cassazione, Margherita Cassano, su cui è necessario lavorare anche nella formazione delle forze dell’ordine. E sicuramente ancor più che per le altre forme di violenza, gran parte del fenomeno rimane sommerso, e non ne conosciamo l’entità numerica.
Possiamo solo immaginare l’impatto devastante che ha nella vita della vittima. La donna dell’articolo, che denuncia l’amico, dice «per me è stato il tradimento definitivo da parte di qualcuno di cui mi fidavo davvero». « Ciò che molti non capiscono è che sono “le persone normali a fare questo”» aggiunge. «Non sono “mostri o strani”. Sono le persone che vivono in mezzo a noi: i nostri colleghi, partner, amici”».
Importante la consapevolezza, senza generalizzazioni.
Bibliografia
https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
https://www.securityhero.io/state-of-deepfakes/#deepfake-porn-survey
https://www.cortedicassazione.it/resources/cms/documents/Relazione_Corte_di_Cassazione_2025.pdf
Immagini generate tramite DALL-E

