AI-alapú bérlőértékelő rendszer diszkriminációs pere és következményei
A SafeRent AI-alapú bérlőértékelő rendszer 2,3 millió dolláros egyezséget kötött, miután diszkriminációval vádolták. Az eset rávilágít az AI-rendszerek lakáspiaci alkalmazásának kockázataira.
A SafeRent, egy bérbeadók által használt AI-alapú szűrőeszköz, a jövőben nem fog AI által generált ‘pontszámokat’ használni annak értékelésére, hogy a lakhatási utalványokat használó személyek jó bérlők lennének-e. Angel Kelley amerikai kerületi bíró szerdán véglegesen jóváhagyta a körülbelül 2,3 millió dolláros egyezséget, amely megakadályozza, hogy a SafeRent jövedelem és faji alapon diszkrimináljon a bérlőkkel szemben.
A per háttere és következményei
Az egyezség egy 2022-es, Massachusetts államban indított csoportos perből ered. A kereset azt állította, hogy a SafeRent pontozási rendszere aránytalanul hátrányosan érintette a lakhatási utalványokat használó személyeket – különösen a fekete és hispán jelentkezőket. A rendszer állítólag alacsonyabb pontszámokat adott ezeknek a bérlőknek, ami lakáskérelmeik elutasításához vezetett.
Az ötéves egyezség értelmében a SafeRent többé nem jelenít meg bérlői szűrési pontszámot a lakhatási utalványokat használó jelentkezők esetében országszerte, és nem adhat pontszámot, amikor a bérbeadók az ‘megfizethető’ SafeRent Score modellt használják. A szolgáltatás nem jeleníthet meg ajánlásokat sem arra vonatkozóan, hogy ‘elfogadják’ vagy ‘elutasítsák’ valakinek a jelentkezését, ha lakhatási utalványt használ.
‘A hitelpontszámok és a hasonlóan modellezett pontszámok, mint a SafeRent pontszámok, olyan információkon alapulnak, amelyeket csak a hiteltörlesztés előrejelzésére teszteltek,’ – nyilatkozta Shennan Kavanagh, a National Consumer Law Center peres ügyek igazgatója. ‘Nincs bizonyíték arra, hogy ezek az adatok előre jeleznék a bérlők lakbérfizetési képességét.’
Az AI-alapú rendszerek kockázatai a lakáspiacon
A SafeRent esete rávilágít az AI-alapú döntéshozatali rendszerek kockázataira a lakáspiacon. Az átláthatóság hiánya és a potenciális diszkrimináció komoly aggályokat vet fel. A bérbeadóknak mostantól a teljes nyilvántartás alapján kell értékelniük a lakhatási utalványokat használó bérlőket, nem csak a SafeRent pontszámukra támaszkodva.
A SafeRent a legújabb algoritmus-vezérelt ingatlankezelő szoftver, amely jogi eljárással szembesül. Augusztusban az Igazságügyi Minisztérium pert indított a RealPage ellen, azt állítva, hogy algoritmikus árazási szoftvere emeli a bérleti díjakat.
Összefoglalás: Az AI-alapú bérlőértékelő rendszerek használata komoly etikai és jogi kérdéseket vet fel. A SafeRent esete rámutat a potenciális diszkriminációra és az átláthatóság hiányára ezekben a rendszerekben. Az egyezség fontos lépés a fairebb lakáspiaci gyakorlatok felé, de továbbra is szükség van az AI-alkalmazások szigorú felügyeletére ezen a területen.