🏗️ Il sito è in costruzione.

HUD lancia l'allarme su discriminazioni abitative alimentate dall'IA

HUD lancia l'allarme su discriminazioni abitative alimentate dall'IA

> La protezione da discriminazioni algoritmiche basate su razza e reddito confermata dal Dipartimento della Casa e dello Sviluppo Urbano.

Il Dipartimento per l'Abitazione e lo Sviluppo Urbano dell'America sta esaminando come le applicazioni di intelligenza artificiale (AI) possano violare le disposizioni protettive all'interno del Fair Housing Act, evidenziando in due nuovi documenti il potenziale discriminante nella selezione degli inquilini e nelle pubblicità sulla disponibilità di alloggi. Questa tecnologia emergente è sotto osservazione per il suo possibile uso improprio, che potrebbe introdurre pregiudizi e discriminazioni.

La ricerca citata dal HUD indica che il software di AI può indurre pregiudizi e discriminazioni potenziali in queste attività. "Sotto questa amministrazione, il HUD si impegna a far rispettare integralmente il Fair Housing Act ed eliminare tutte le forme di discriminazione nell'abitazione", ha affermato Adrianne Todman, Segretario ad interim del HUD, rilasciando nuove linee guida per garantire che i partner nel settore privato che utilizzano intelligenza artificiale e algoritmi siano consapevoli di come il Fair Housing Act si applica a queste pratiche.

Le linee guida sullo screening degli inquilini rilasciate dal HUD spiegano che i fornitori di alloggi non possono discriminare i candidati sulla base di razza, colore, religione, sesso o identità di genere, origine nazionale, disabilità o status familiare. Saranno ritenuti responsabili per azioni discriminatorie messe in atto internamente o attraverso algoritmi di terze parti.

Il documento sottolinea che una violazione del Fair Housing Act può avvenire quando viene utilizzato un carattere protetto - o un sostituto di un carattere protetto - come criterio di selezione. Questo è valido anche se la decisione di come selezionare i candidati è fatta interamente o in parte da un sistema automatizzato, inclusi sistemi che utilizzano machine learning o altre forme di AI.

Similmente, il HUD stipula che le pubblicità mirate per l'abitazione, che comprendono entità o individui che pubblicano annunci per alloggi e opportunità di servizi coperti dal Fair Housing Act, possono essere ritenute responsabili se risulta che discriminano sulla base delle caratteristiche protette dal HUD.

Le pratiche pubblicitarie discriminatorie includono il negare ai clienti opportunità abitative, prendere di mira popolazioni vulnerabili con prodotti predatori, dissuadere certe popolazioni dalle opportunità o indirizzare i consumatori verso aree particolari basandosi su caratteristiche protette. "La pubblicità discriminatoria può contribuire, rafforzare e perpetuare la segregazione residenziale e altri danni affrontati dal Fair Housing Act", si legge nelle linee guida.

La discriminazione tramite AI nell'abitazione è sotto la lente di ingrandimento

Il rilascio di tali documenti soddisfa una disposizione dell'AI Bill of Rights dell'amministrazione Biden, dei mandati all'interno dell'ordine esecutivo di Joe Biden del 2023 sull'AI e di una dichiarazione di aprile firmata dal HUD e altre sette agenzie federali per proteggere i diritti civili di fronte ai sistemi automatizzati comunemente utilizzati.

La questione della responsabilità algoritmica è stata evidenziata in almeno una proposta di legge, con il senatore Ron Wyden, D-Ore., che ha introdotto l'Algorithmic Accountability Act del 2023 per aiutare a proteggere i consumatori dall'uso improprio di AI e modelli di machine learning in aree come i processi abitativi.

Logo AiBay