• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’intelligenza artificiale sta riportando in auge la pseudoscienza: quali sono i rischi etici?

Diverse caratteristiche facciali sovrapposte a codice binario e pattern tecnologici. Sfondo blu

La recente proliferazione di studi che utilizzano il machine learning per predire caratteristiche personali dalle immagini del volto sta riportando in auge pericolose pratiche pseudoscientifiche del passato, con gravi implicazioni etiche. Un nuovo studio pubblicato su Patterns analizza questo fenomeno e le sue conseguenze.

Il ritorno della fisiognomica attraverso l’AI

Negli ultimi anni si è assistito a una preoccupante ripresa di studi che, utilizzando tecniche di deep learning, sostengono di poter predire orientamento sessuale, ideologia politica e propensione criminale dalle fotografie dei volti. Questa pratica, nota come “fisiognomica”, ha una lunga e controversa storia che risale all’antica Mesopotamia.

La fisiognomica mira a dedurre caratteristiche della personalità e comportamentali non osservabili dall’aspetto esteriore di una persona. Nonostante sia stata ampiamente screditata dalla comunità scientifica, soprattutto dopo il suo uso da parte del regime nazista, sta trovando nuovo vigore grazie all’intelligenza artificiale.

Come evidenziano gli autori dello studio:

“La fisiognomica assistita dall’AI sta riemergendo sia nella ricerca accademica che nelle applicazioni commerciali, spesso mascherata da analisi oggettiva e priva di pregiudizi grazie all’uso del machine learning”

Problemi metodologici ed etici

Gli autori analizzano nel dettaglio diversi studi recenti che utilizzano il deep learning per predire:

  • Orientamento sessuale dalle foto dei volti
  • Propensione criminale
  • Disturbi mentali e autismo
  • Tratti della personalità
  • Comportamenti disonesti

La critica principale è che questi studi:

  1. Non forniscono basi teoriche solide per le loro conclusioni
  2. Non controllano adeguatamente i fattori di confondimento
  3. Interpretano erroneamente le correlazioni come relazioni causali
  4. Ignorano decenni di ricerca scientifica che ha confutato le loro assunzioni

Le pericolose conseguenze pratiche

Questi studi non rimangono confinati all’ambito accademico. Diverse aziende stanno già commercializzando tecnologie basate su questi principi per:

  • Sorveglianza e forze dell’ordine
  • Colloqui di lavoro
  • Rilevamento di comportamenti fraudolenti
  • Diagnosi mediche

Come sottolineano gli autori, l’uso di queste tecnologie può causare gravi danni:

  • False detenzioni e condanne
  • Discriminazione nell’accesso al lavoro e all’istruzione
  • Diagnosi errate
  • Oppressione di minoranze e gruppi vulnerabili

La necessità di maggiori controlli

Gli autori concludono che è necessario:

  1. Aumentare la consapevolezza sui limiti delle tecnologie di AI
  2. Sfatare i miti sulla loro presunta oggettività
  3. Implementare standard rigorosi per la ricerca
  4. Promuovere collaborazioni interdisciplinari
  5. Considerare le implicazioni etiche e sociali degli sviluppi tecnologici

immagine di copertina generata tramite Flux

Leggi l’articolo completo su Patterns:

Esplora altri articoli su questi temi