• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Diffusione di app di nudificazione tra studenti minorenni

Immagine astratta di giovani al cellulare, rappresentate solo come sagome. Stile acquarello dai toni blu e azzurri.

Un rapporto del Cyber Policy Center di Stanford mette in luce come scuole, genitori, forze dell’ordine e legislatori non siano preparati a gestire la crescente diffusione tra studenti minorenni di materiale pedopornografico generato dall’AI. Sempre più spesso, infatti, sono gli studenti stessi a generare tali immagini non consensuali di coetanei. Questa pratica sembrerebbe normalizzarsi su alcune piattaforme online, in quanto le app di “nudificazione” sono facilmente accessibili trovandole negli store di Google e Apple e pubblicizzate su social come Instagram e TikTok.

Il documento evidenzia la mancanza di formazione specifica per insegnanti e dirigenti scolastici che, infatti, spesso ignorano come affrontare questi casi nonostante la gravità legale del fenomeno. Le vittime descrivono un sentimento di shock, senso di vulnerabilità e difficoltà nel tornare alla normalità scolastica. I genitori, dal canto loro, temono ripercussioni future sull’istruzione e sulle opportunità lavorative dei propri figli.

Le leggi esistenti contro il cyberbullismo non sono ancora adeguate a questo nuovo fenomeno, anche se si stanno iniziando a introdurre norme specifiche contro l’uso di queste app tra minori. Tra le raccomandazioni del rapporto vi sono l’istituzione di servizi di supporto psicologico per le vittime, linee di segnalazione anonime e protocolli chiari per le scuole, anche per non scoraggiare le denunce e rispettare gli obblighi legali di segnalazione.

Il rapporto, basato su interviste a ONG, forze dell’ordine, vittime e personale scolastico, sottolinea come il fenomeno sia amplificato da una percezione errata di legalità da parte degli studenti, che li porta a ritenere lecita la generazione di immagini AI non consensuali.

Leggi l’articolo completo: No One Knows How to Deal With ‘Student-on-Student’ AI CSAM su 404media.co.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

Esplora altri articoli su questi temi