La crescente diffusione di video deepfake generati dall’IA sta preoccupando sempre di più i modelli le cui immagini e il loro aspetto potrebbero essere utilizzati senza il loro consenso. Synthesia, una startup londinese, ha creato video in cui dei modelli appaiono a sostegno di regimi autoritari, come nel caso del Burkina Faso, dove un giovane attore inneggiava al dittatore Ibrahim Traoré.
Modelli come Mark Torres e Connor Yeates hanno scoperto che le loro immagini sono state usate comunicazioni di propaganda, lasciandoli particolarmente colpiti dal fatto. Torres ha esclamato di sentirsi violato, mentre Yeates ha spiegato che, attratto da un’offerta di lavoro, non era consapevole delle possibili conseguenze. Synthesia ha affermato di aver bloccato gli account responsabili e di aver migliorato le sue politiche di moderazione, ma i danni causati dai deepfake risultano difficili da riparare.
Negli Stati Uniti è fase di discussione il NO FAKES Act, una proposta di legge che mira a tutelare gli artisti dai rischi della replicazione digitale delle loro immagini. Nonostante ciò, molti modelli si sentono esposti a potenziali danni personali e professionali.
Leggi l’articolo completo: ‘It’s not me, it’s just my face’: the models who found their likenesses had been used in AI propaganda su theguardian.com.
Immagine generata tramite DALL-E 3.

