SafeRent Solutions, eine KI-gestützte Plattform zur Überprüfung von Mietern, hat eine in Massachusetts eingereichte Sammelklage beigelegt.
Der US-Bezirksrichter Angel Kelley gab am 20. November seine endgültige Zustimmung zu einem Vergleich in Höhe von 2,3 Millionen Dollar.
In der Klage wurde behauptet, dass der KI-Algorithmus von SafeRent schwarzen und hispanischen Bewerbern sowie Personen, die Wohnberechtigungsscheine verwenden, ungerechtfertigterweise eine niedrigere Punktzahl zuweist als anderen potenziellen Mietern.
Der Vergleich bedeutet jedoch kein Eingeständnis eines Fehlverhaltens seitens SafeRent Solutions. In einer Erklärung des Unternehmens hieß es, man sei „weiterhin der Ansicht, dass die SRS-Bewertungen allen geltenden Gesetzen entsprechen, aber Rechtsstreitigkeiten sind zeitaufwändig und kostspielig“.
Bloomberg zitierte die Vereinbarung, die besagt, dass SafeRent in seinen Berichten keinen „SafeRent-Score oder eine Annahme-/Ablehnungsempfehlung auf der Grundlage eines Mieter-Screening-Scores“ angeben darf.
Folglich muss SafeRent nun sicherstellen, dass seine Kunden bestätigen, dass „der Mietinteressent, für den sie einen SafeRent-Score anfordern, derzeit kein Empfänger eines öffentlich finanzierten Wohnungsgutscheins des Bundes oder eines Bundesstaates ist“.
KI-Voreingenommenheit “ernsthaft besorgniserregend für faires Wohnen”
Brian Corman, Partner bei Cohen Milstein und Leiter der Prozessabteilung für faires Wohnen, spielte eine Schlüsselrolle bei den Vergleichsverhandlungen. In einer Erklärung sagte er: „Die Wohnungsgutscheinprogramme des Bundes und der Bundesstaaten wurden eingeführt, um den Empfängern, bei denen es sich überproportional um schwarze und hispanische Mieter handelt, mehr Wahlmöglichkeiten in Bezug auf ihren Wohnort zu geben.
„Die Änderungen, denen SafeRent zugestimmt hat, sind entscheidend, um die ursprüngliche Absicht der Gutscheinprogramme des Bundesstaates zu gewährleisten und dazu beizutragen, die historische Diskriminierung auf den Wohnungsmärkten zu beseitigen“.
Christine E. Webber, Co-Vorsitzende der Abteilung für Bürgerrechte und Beschäftigung bei Cohen Milstein, fügte hinzu, dass die Entscheidung des Gerichts einen Präzedenzfall für die Wohnungs- und Immobilienverwaltungsbranche darstelle.
Sie sagte: „Entscheidungsalgorithmen wie die, um die es hier geht, sind oft undurchsichtig.”
„Die Anbieter, die diese Algorithmen entwickeln, sind nicht bereit, alle Daten offenzulegen, die sie berücksichtigen, oder wie die Daten in der Bewertungsmodellierung gewichtet werden. Dies ist für Befürworter von fairem Wohnen, Beschäftigung und Bürgerrechten äußerst beunruhigend, da potenziell diskriminierende Vorurteile leicht in automatisierte Entscheidungsplattformen einprogrammiert werden können.“
Webber sagte, dass die Möglichkeit, Anbieter zur Rechenschaft zu ziehen, von entscheidender Bedeutung für die vollständige Umsetzung von Bürgerrechtsgesetzen sei.
Featured image: Ideogram