A poche ore dal lancio di Sora 2, il nuovo generatore video di OpenAI, il feed social della piattaforma si è popolato di contenuti controversi: scene di violenza e razzismo, simulazioni di attacchi di massa e personaggi protetti da copyright in contesti inappropriati, in aperta violazione dei termini di servizio. Alcuni video includevano anche slogan associati a movimenti suprematisti. L’ondata di contenuti ha rapidamente messo in luce i limiti dei sistemi di moderazione di OpenAI. Nonostante l’accesso sia solo su invito, l’app ha rapidamente raggiunto la prima posizione nell’App Store.
Gli esperti avvertono che video così realistici possono diffondere disinformazione, intimidazione e truffe, rendendo difficile distinguere verità e finzione. Joan Donovan (Boston University) osserva come l’assenza di ancoraggio a riferimenti storici verificabili renda questi strumenti potenzialmente utilizzabili per usi manipolatori e impropri, come incitamento all’odio e molestie. Secondo Emily Bender (University of Washington), Sora e strumenti simili indeboliscono la fiducia nelle fonti affidabili, con effetti analoghi a un “versamento di petrolio” sull’ecosistema informativo, compromettendo le relazioni di fiducia tra utenti e piattaforme.
OpenAI sostiene di aver introdotto misure di sicurezza e restrizioni sull’uso dell’immagine di terzi, ma molti contenuti problematici sono già circolati online. I detentori di copyright possono segnalare violazioni caso per caso, ma non esiste un blocco generale.
Leggi l’articolo completo: OpenAI launch of video app Sora plagued by violent and racist images: ‘The guardrails are not real’ su The Guardian
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (17/03/2025).

