• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA e bias di genere, l’intervista al ricercatore Valerio Basile

rappresentazione astratta di dati, donne e bias

Il gender bias si manifesta quando le IA perpetuano stereotipi di genere sulla base del contenuto dei dati di addestramento.

Nell’intervista rilasciata a Otto, Valerio Basile, ricercatore del dipartimento di Informatica dell’Università di Torino esperto in elaborazione del linguaggio naturale (NLP), approfondisce le cause del fenomeno. “Le associazioni tra parole che presentano gender bias” spiega il ricercatore “sono un sintomo di deformazioni nel tessuto del linguaggio naturale prodotto dalla società, che non si trovano solo sul web ma sono parte del contesto sociale.”

In quanto scienziati, i ricercatori cercano di osservare e quantificare il fenomeno dei bias in maniera più possibile oggettiva. Ad esempio, nell’analisi dei bias di genere è possibile misurare la cosiddetta “vicinanza semantica” tra le parole dei campi professionali relativi alla medicina e all’avvocatura e i termini maschili, e quella di ambiti come l’infermieristica e l’insegnamento scolastico e i corrispettivi femminili. Molte ricerche puntano poi a sviluppare azioni correttive automatiche. Dopo aver identificato le associazioni indesiderate, è possibile correggere il modello intervenendo su quelle che si intendono contrastare. A questo proposito Basile sottolinea una questione di tipo etico/filosofico: Chi decide cosa è eticamente accettabile nell’AI? In tal senso, secondo il ricercatore sono necessarie ulteriori ricerche transdisciplinari che coinvolgano anche filosofi, sociologi e altri esperti.

Basile spiega inoltre di star lavorando a un approccio all’NLP detto “prospettivista”, che mira a creare modelli in grado di riconoscere e gestire le diverse prospettive presenti nella società. L’obiettivo è sviluppare un’IA vicina ai bisogni umani, equa e sensibile nei confronti delle voci di minoranza.

Leggi l’articolo completo “Discriminazione artificiale, come l’AI rafforza il bias di genere” su Otto

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2024)

Esplora altri articoli su questi temi