• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Le ONG usano immagini AI economiche e stereotipate

Bambino con un cappuccio e maglia strappata. Immagine sfuocata e astratta in stile acuarello dai toni blu.

Immagini generate dall’intelligenza artificiale che ritraggono povertà estrema, bambini e sopravvissuti a violenze stanno comparendo sempre più spesso nelle campagne di comunicazione delle ONG. Questa scelta fa emergere preoccupazioni etiche. Ad esempio, secondo Noah Arnold di Fairpicture e Arsenii Alenichev dell’Istituto di medicina tropicale di Anversa, queste immagini replicano stereotipi visivi consolidati della povertà, creando quella che viene definita una “pornografia della povertà 2.0”.

Le immagini sono reperibili su piattaforme di foto stock come Adobe Stock e Freepik, sono convenienti per via del loro prezzo, spesso economico in quanto si tratta di immagini che non richiedono il consenso dei soggetti rappresentati. In un contesto di tagli ai finanziamenti, queste immagini risultano una buona opzione comunicativa per le ONG. Scene esagerate, razializzate e stereotipate alimentano pregiudizi e rischiano di entrare nei dataset di addestramento dell’IA, amplificando distorsioni sociali.

È già capitato che in passato, alcune campagne umanitarie, tra cui Plan International e le Nazioni Unite, abbiano ricorso a contenuti IA per proteggere la privacy delle vittime. Tuttavia, ma gli esperti avvisano che la pratica può compromettere la dignità delle persone rappresentate e diffondere immagini sensazionalistiche.

Leggi l’articolo completo: AI-generated ‘poverty porn’ fake images being used by aid agencies su theguardian.com

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (21/10/2025).

Esplora altri articoli su questi temi