Rassismus in Algorithmen: Gesichtserkennung für die Tonne
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass automatisierte Gesichtserkennung, neben vielen anderen Problemen, erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu identifizieren. Das „Normal“, auf dem die Software trainiert wird, ist nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden kann, musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat Michigan erfahren.
Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von Williams Fahrerlaubnis.
Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines menschlichen Blicks auf die Bilder bedurft, und reichte in Williams Namen Beschwerde gegen das Detroit Police Department ein.
Dessen Chef musste nun einräumen, dass die false positives bei der Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft behaupteten korrekten Trefferrate in etwa derselben Dimension ist die absolute Zahl der falschen Identifizierungen viel zu hoch, um einen praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das Detroiter Ergebnis sprengt jeden Rahmen.
Verbot der Technologie
Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe Zahl an Schwarzen Verdächtigen sein. Im aktuellen Wochenreport der Detroiter Polizei werden von 70 per Gesichtserkennung gesuchter Personen 68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten racial bias der Algorithmen.
Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem offensichtlichen und systematischen Versagen der Technologie ziehen, ist noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst in der vergangenen Woche reihte sich Boston in die länger werdende Reihe von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der automatischen Gesichtserkennung warten wollen und sie für die polizeiliche Praxis verboten haben.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Interner Zwist bei Springer
Musk spaltet die „Welt“
Nach dem Anschlag von Magdeburg
Wenn Warnungen verhallen
Deutsche Konjunkturflaute
Schwarze Nullkommanull
Schäden durch Böller
Versicherer rechnen mit 1.000 Pkw-Bränden zum Jahreswechsel
Ende der scheinheiligen Zeit
Hilfe, es weihnachtete zu sehr