La recente proliferazione di studi che utilizzano il machine learning per predire caratteristiche personali dalle immagini del volto sta riportando in auge pericolose pratiche pseudoscientifiche del passato, con gravi implicazioni etiche. Un nuovo studio pubblicato su Patterns analizza questo fenomeno e le sue conseguenze.
Il ritorno della fisiognomica attraverso l’AI
Negli ultimi anni si è assistito a una preoccupante ripresa di studi che, utilizzando tecniche di deep learning, sostengono di poter predire orientamento sessuale, ideologia politica e propensione criminale dalle fotografie dei volti. Questa pratica, nota come “fisiognomica”, ha una lunga e controversa storia che risale all’antica Mesopotamia.
La fisiognomica mira a dedurre caratteristiche della personalità e comportamentali non osservabili dall’aspetto esteriore di una persona. Nonostante sia stata ampiamente screditata dalla comunità scientifica, soprattutto dopo il suo uso da parte del regime nazista, sta trovando nuovo vigore grazie all’intelligenza artificiale.
Come evidenziano gli autori dello studio:
“La fisiognomica assistita dall’AI sta riemergendo sia nella ricerca accademica che nelle applicazioni commerciali, spesso mascherata da analisi oggettiva e priva di pregiudizi grazie all’uso del machine learning”
Problemi metodologici ed etici
Gli autori analizzano nel dettaglio diversi studi recenti che utilizzano il deep learning per predire:
- Orientamento sessuale dalle foto dei volti
- Propensione criminale
- Disturbi mentali e autismo
- Tratti della personalità
- Comportamenti disonesti
La critica principale è che questi studi:
- Non forniscono basi teoriche solide per le loro conclusioni
- Non controllano adeguatamente i fattori di confondimento
- Interpretano erroneamente le correlazioni come relazioni causali
- Ignorano decenni di ricerca scientifica che ha confutato le loro assunzioni
Le pericolose conseguenze pratiche
Questi studi non rimangono confinati all’ambito accademico. Diverse aziende stanno già commercializzando tecnologie basate su questi principi per:
- Sorveglianza e forze dell’ordine
- Colloqui di lavoro
- Rilevamento di comportamenti fraudolenti
- Diagnosi mediche
Come sottolineano gli autori, l’uso di queste tecnologie può causare gravi danni:
- False detenzioni e condanne
- Discriminazione nell’accesso al lavoro e all’istruzione
- Diagnosi errate
- Oppressione di minoranze e gruppi vulnerabili
La necessità di maggiori controlli
Gli autori concludono che è necessario:
- Aumentare la consapevolezza sui limiti delle tecnologie di AI
- Sfatare i miti sulla loro presunta oggettività
- Implementare standard rigorosi per la ricerca
- Promuovere collaborazioni interdisciplinari
- Considerare le implicazioni etiche e sociali degli sviluppi tecnologici
immagine di copertina generata tramite Flux
Leggi l’articolo completo su Patterns:


