• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Intelligenza artificiale e superamento degli stereotipi di genere: opportunità o ulteriore ostacolo?

scritta Gender Roles

Non è facile, per i non addetti ai lavori, trattare il tema della Intelligenza Artificiale secondo i principi teorici e tecnici che la governano. Non è però questo lo scopo del presente contributo, sviluppato all’interno di un Centro antiviolenza e luogo di orientamento per i diritti delle donne: sarà quindi ben diverso il contesto che verrà sinteticamente analizzato.

La domanda, forse ingenua, che ci poniamo, è la seguente: il progredire delle tecnologie, in particolare quelle legate alla comunicazione e agli ambiti virtuali, può essere un valido contributo per superare gli ostacoli storici e culturali sui generi, dagli stereotipi ai principi fondamentali di pari opportunità, dalle discriminazioni alla violenza maschile sulle donne? La risposta, immediata, è una sola: NO.

Vediamo le esperienze pregresse legate all’utilizzo dei social: insieme con opportunità di contatto sicuramente positive, si è manifestata una serie infinita di comportamenti abusanti, persecutori e certamente offensivi, nei confronti di donne e ragazze. Sia che si tratti di revenge porn, o di cyberstalking, l’uso malevolo delle tecnologie è sotto gli occhi di tutte/i.

Si può affermare che l’Intelligenza Artificiale vede l’utenza come utilizzatrice delle piattaforme, e non come creatrice di contenuti, ma il problema non pare spostarsi.

Secondo uno studio della Berkeley Hass Center for Equity, Gender and Leadership, che ha analizzato 133 sistemi di AI, i bias legati al genere sono presenti in quasi la metà dei sistemi (esattamente nel 44% di essi), insieme con il 25% di contenuti legati a discriminazioni razziali.

Foto di Transly Translation Agency su Unsplash

Una scrittrice turca ha cercato informazioni per la scrittura di un romanzo attraverso l’AI, ed ha constatato come molte delle storie proposte si riferivano a relazioni tra un medico (rigorosamente maschio) e una infermiera (ovviamente, rigorosamente femmina). Alla domanda, rivolta all’AI, sul motivo per cui insistesse su questi stereotipi, la risposta è stata che tutto derivava dai dati con cui il sistema era stato addestrato, in particolare al “word embedding”, cioè al sistema di codifica delle parole nell’apprendimento automatico.

Che la questione non sia di poco conto è dimostrato anche dalla lettera che Anna Cataleta, avvocata e advisor dell’Osservatorio del Politecnico di Milano su protezione dei dati e cyber security, insieme con un folto gruppo di numerose colleghe esperte in materia, ha indirizzato lo scorso mese di gennaio alle più importanti istituzioni dell’Unione Europea, in occasione del Data Protection Day del 28 gennaio 2024.

La questione che viene segnalata è fondamentale: la discriminazione delle donne da parte della tecnologia. D’altra parte, segnalano le firmatarie, gli algoritmi sui quali si basa l’Intelligenza Artificiale veicolano gli stessi pregiudizi degli esseri umani nel mondo reale, visto che sono addestrati con informazioni che di per sé contengono pregiudizi  e  stereotipi.

I pregiudizi sono presenti fin dai più basilari motori di ricerca (uno su tutti, Google) ma anche in sistemi più evoluti, quali ChatGPT, i problemi non mancano, anzi.

Il chatbox aggiornato di Open AI, GPT-4°, risulta essere civettuolo, e si può interagire con esso quasi come con un essere umano, oltre che con domande basate su testo. È un sistema che fornisce consigli, può scherzare o descrivere ciò che ogni utente ha intorno. Certamente siamo abituati a Siri o Alexa, nomi e voci chiaramente femminili e servizievoli e disponibili ad ogni richiesta dell’utente, quindi questa ulteriore estensione, sempre al femminile, non dovrebbe stupire più di tanto.

Quello che ci chiediamo, però, è quale impatto possa avere un referente, per quanto virtuale, inequivocabilmente legato al genere femminile in un bambino o una bambina che, fin dalla più tenera età, imparano ad associare il femminile a compiti di servizio, per quanto virtuali.

Non possiamo inoltre dimenticare che tutto quanto agisce sul versante web o nel mondo virtuale non ha un impatto sul singolo utente, ma invia messaggi globali su larghissima scala, moltiplicando gli effetti di quanto viene associato al genere femminile.

Non si tratta di allarmi esagerati, visto che fin dal 2019, Saniye Gülser Corat, direttrice dell’Unesco per l’uguaglianza di genere, aveva avuto modo di ammonire: “il mondo deve prestare molta più attenzione

a come, quando e se le tecnologie di intelligenza artificiale sono di genere e, soprattutto, a chi le sta generando”.

La sostanza è che negli strumenti di IA è necessario introdurre, quanto prima, un vero e proprio cambiamento culturale per scardinare gli stereotipi di genere e tutto ciò che ne deriva. D’altronde, se i sistemi rimandano, definendo la bellezza maschile e quella femminile rispettivamente ad immagini di un uomo con barba, abbronzato e ben vestito e di una donna ammiccante, con i capelli lunghi e poco vestita, si comprende come le istruzioni sulle quali si basano i sistemi non sono propriamente privi di pregiudizi.

Lo studio dell’UNESCO Bias Against Women and Girls in Large Language Models, del 2024, ha mostrato che esiste una persistente tendenza dei modelli linguistici di grandi dimensioni a produrre pregiudizi di genere, oltre che omofobia e stereotipi razziali.

Parole come “casa”, “famiglia” e “bambini” sono frequentemente associate alle donne, “dirigente”, “stipendio” e “carriera” agli uomini.

Nemmeno le immagini associate a contenuti medici si salvano dall’azione degli algoritmi di Intelligenza Artificiale. Immagini del National Cancer Institute, negli USA, relative ad esami clinici al seno sono state interpretate dalla AI di Microsoft, secondo un articolo del Guardian del 2023, all’82% “esplicitamente di natura sessuale”, mentre Amazon l’ha considerata “nudità esplicita”.

Foto di julien Tromeur su Unsplash

È  certamente entusiasmante assistere allo sviluppo di sistemi di Intelligenza Artificiale, fino alla nuova versione di IA di Open AI (GPT-4o): ci chiediamo solo se rendere disponibili sistemi così potenti, capaci di una interazione che intende assomigliare sempre più a quella umana, senza avere sistemi di misura e soprattutto di sicurezza adeguati, sia davvero privo di rischi.

Come afferma Alessio Jacona, giornalista ed esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale dell’ANSA, il dubbio è che non si sia valutato attentamente il rischio di mettere a disposizione strumenti così potenti in una IA “che sembra avere un’anima ma che poi, alla fine, non ce l’ha”.

Sarebbe opportuno un maggiore accesso del genere femminile alla produzione, gestione e amministrazione dei sistemi di IA? Sicuramente sì, ma forse non è l’unico correttivo utile.

Così come ragazze e donne non possono essere considerate le uniche destinatarie di procedure tendenti a sottrarsi alle diverse forme di violenza maschile (in fondo, basterebbe che gli uomini non offendessero più, sorretti da un sistema storico, culturale e sociale inaccettabile), così nell’IA servirebbe che insieme, uomini e donne, sapessero davvero produrre linguaggi privi di stereotipi, pregiudizi e attribuzioni di genere. Quello che è certo è che prima di cambiare linguaggi e Intelligenze Artificiali, forse è necessario modificare radicalmente le menti di tutte e tutti coloro che, su stereotipi e pregiudizi, hanno costruito le loro fuorvianti e dannose certezze.

Immagine: Foto di Markus Winkler su Unsplash

Esplora altri articoli su questi temi