Un rapporto del Cyber Policy Center di Stanford mette in luce come scuole, genitori, forze dell’ordine e legislatori non siano preparati a gestire la crescente diffusione tra studenti minorenni di materiale pedopornografico generato dall’AI. Sempre più spesso, infatti, sono gli studenti stessi a generare tali immagini non consensuali di coetanei. Questa pratica sembrerebbe normalizzarsi su alcune piattaforme online, in quanto le app di “nudificazione” sono facilmente accessibili trovandole negli store di Google e Apple e pubblicizzate su social come Instagram e TikTok.
Il documento evidenzia la mancanza di formazione specifica per insegnanti e dirigenti scolastici che, infatti, spesso ignorano come affrontare questi casi nonostante la gravità legale del fenomeno. Le vittime descrivono un sentimento di shock, senso di vulnerabilità e difficoltà nel tornare alla normalità scolastica. I genitori, dal canto loro, temono ripercussioni future sull’istruzione e sulle opportunità lavorative dei propri figli.
Le leggi esistenti contro il cyberbullismo non sono ancora adeguate a questo nuovo fenomeno, anche se si stanno iniziando a introdurre norme specifiche contro l’uso di queste app tra minori. Tra le raccomandazioni del rapporto vi sono l’istituzione di servizi di supporto psicologico per le vittime, linee di segnalazione anonime e protocolli chiari per le scuole, anche per non scoraggiare le denunce e rispettare gli obblighi legali di segnalazione.
Il rapporto, basato su interviste a ONG, forze dell’ordine, vittime e personale scolastico, sottolinea come il fenomeno sia amplificato da una percezione errata di legalità da parte degli studenti, che li porta a ritenere lecita la generazione di immagini AI non consensuali.
Leggi l’articolo completo: No One Knows How to Deal With ‘Student-on-Student’ AI CSAM su 404media.co.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

