La misoginia digitale corre più veloce dei ripari, trasformando l’intelligenza artificiale in una trappola. È accaduto con Grok di Musk, che ha sputato immagini intime di donne e minori prima che venissero messi dei tardivi cerotti al software, e accade ogni giorno su Reddit. Qui gli utenti scambiano “trucchi” per aggirare i divieti e generare falsi hardcore. Mentre Londra tenta di criminalizzare i deepfake non consensuali, il sottobosco del web accelera: non è semplice pornografia, ma un assalto sistematico che usa il codice come un’arma da taglio per ferire la dignità.
I numeri sono brutali: oltre 20 milioni di accessi mensili a siti nati per “spogliare” virtualmente le persone. Su Telegram e X si insegna a forzare i modelli linguistici, mascherando la violenza sotto l’etichetta di “nudo artistico”. Esperti come Anne Craanen avvertono che non siamo di fronte a una nicchia, ma ad una misoginia strutturale che invade il web quotidiano. Persino Apple e Google, nei loro store, finiscono per ospitare app nate per umiliare, rendendosi complici, quasi per inerzia burocratica, di questo mercato della gogna.
“Vogliono solo zittirci”, denuncia la deputata Jess Asato, finita nel mirino dei falsi espliciti. Il timore di giuriste come Clare McGlynn è che le recenti aperture di tool come ChatGPT ai contenuti erotici possano gettare benzina sul fuoco degli abusi. La posta in gioco è la tenuta della democrazia. Se una donna deve temere per la propria immagine ogni volta che prende parola, la sua partecipazione pubblica muore. È uno spettacolo crudele progettato per isolare, un rumore di fondo che punta a cancellare la presenza femminile dal futuro digitale.
Leggi l’articolo completo “Use of AI to harm women has only just begun, experts warn” su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (22/01/2026).

