Mary Louis, un’inquilina di un sobborgo del Massachusetts, ha fatto causa alla società SafeRent dopo essere stata respinta per un appartamento a causa di un punteggio basso determinato da un algoritmo.
Nonostante avesse un’ottima referenza da un padrone di casa di lunga data e utilizzasse un buono per l’alloggio, il sistema di screening basato sull’IA ha rifiutato la sua domanda senza spiegazioni adeguate. La causa, avviata nel 2022 insieme ad altri inquilini africani e ispanici, accusa SafeRent di discriminazione, poiché l’algoritmo penalizzava ingiustamente chi utilizzava buoni per l’alloggio.
Nel novembre 2023, SafeRent ha raggiunto un accordo che prevede un risarcimento di 2,3 milioni di dollari e l’abbandono dell’uso di punteggi algoritmici per le persone che utilizzano voucher per l’abitazione. I punteggi algoritmi fanno parte di un sistema automatizzato (un algoritmo) per valutare la credibilità di una persona come potenziale inquilino, sulla base di determinati dati e informazioni. Nel caso specifico dei voucher per l’abitazione (come quelli della Sezione 8 negli Stati Uniti), si tratta di sussidi statali che aiutano le persone a basso reddito a pagare l’affitto.
Questo caso ha attirato l’attenzione delle autorità governative, con implicazioni per l’uso futuro dell’IA nelle decisioni abitative. Nonostante la vittoria legale, rimangono preoccupazioni per l’uso diffuso e poco regolamentato dell’IA in ambiti cruciali come l’abitazione, la medicina e il lavoro, dove le persone a basso reddito risultano, al momento, essere particolarmente vulnerabili.
Leggi l’articolo completo: She didn’t get an apartment because of an AI-generated score – and sued to help others avoid the same fate su theguardian.com.
Immagine generata tramite DALL-E 3.

