back to top
0.4 C
Budapest
hétfő, december 23, 2024
spot_img
Továbbiak

    AI-alapú bérlőértékelő rendszer diszkriminációs pere

    AI-alapú bérlőértékelő rendszer diszkriminációs pere és következményei

    A SafeRent AI-alapú bérlőértékelő rendszer 2,3 millió dolláros egyezséget kötött, miután diszkriminációval vádolták. Az eset rávilágít az AI-rendszerek lakáspiaci alkalmazásának kockázataira.

    A SafeRent, egy bérbeadók által használt AI-alapú szűrőeszköz, a jövőben nem fog AI által generált ‘pontszámokat’ használni annak értékelésére, hogy a lakhatási utalványokat használó személyek jó bérlők lennének-e. Angel Kelley amerikai kerületi bíró szerdán véglegesen jóváhagyta a körülbelül 2,3 millió dolláros egyezséget, amely megakadályozza, hogy a SafeRent jövedelem és faji alapon diszkrimináljon a bérlőkkel szemben.

    A per háttere és következményei

    Az egyezség egy 2022-es, Massachusetts államban indított csoportos perből ered. A kereset azt állította, hogy a SafeRent pontozási rendszere aránytalanul hátrányosan érintette a lakhatási utalványokat használó személyeket – különösen a fekete és hispán jelentkezőket. A rendszer állítólag alacsonyabb pontszámokat adott ezeknek a bérlőknek, ami lakáskérelmeik elutasításához vezetett.

    Az ötéves egyezség értelmében a SafeRent többé nem jelenít meg bérlői szűrési pontszámot a lakhatási utalványokat használó jelentkezők esetében országszerte, és nem adhat pontszámot, amikor a bérbeadók az ‘megfizethető’ SafeRent Score modellt használják. A szolgáltatás nem jeleníthet meg ajánlásokat sem arra vonatkozóan, hogy ‘elfogadják’ vagy ‘elutasítsák’ valakinek a jelentkezését, ha lakhatási utalványt használ.

    ‘A hitelpontszámok és a hasonlóan modellezett pontszámok, mint a SafeRent pontszámok, olyan információkon alapulnak, amelyeket csak a hiteltörlesztés előrejelzésére teszteltek,’ – nyilatkozta Shennan Kavanagh, a National Consumer Law Center peres ügyek igazgatója. ‘Nincs bizonyíték arra, hogy ezek az adatok előre jeleznék a bérlők lakbérfizetési képességét.’

    Az AI-alapú rendszerek kockázatai a lakáspiacon

    A SafeRent esete rávilágít az AI-alapú döntéshozatali rendszerek kockázataira a lakáspiacon. Az átláthatóság hiánya és a potenciális diszkrimináció komoly aggályokat vet fel. A bérbeadóknak mostantól a teljes nyilvántartás alapján kell értékelniük a lakhatási utalványokat használó bérlőket, nem csak a SafeRent pontszámukra támaszkodva.

    A SafeRent a legújabb algoritmus-vezérelt ingatlankezelő szoftver, amely jogi eljárással szembesül. Augusztusban az Igazságügyi Minisztérium pert indított a RealPage ellen, azt állítva, hogy algoritmikus árazási szoftvere emeli a bérleti díjakat.

    Összefoglalás: Az AI-alapú bérlőértékelő rendszerek használata komoly etikai és jogi kérdéseket vet fel. A SafeRent esete rámutat a potenciális diszkriminációra és az átláthatóság hiányára ezekben a rendszerekben. Az egyezség fontos lépés a fairebb lakáspiaci gyakorlatok felé, de továbbra is szükség van az AI-alkalmazások szigorú felügyeletére ezen a területen.

    Ezek is érdekelhetnek

    Ezt se hagyd ki!