Rassismus in Algorithmen: Gesichtserkennung für die Tonne

In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen Dieb. Der aber sieht nicht annähernd wie der Täter aus.

Ein Polizist konfrontiert eine schwarze Person

Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz Foto: Nicole Hester/ap

Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass automatisierte Gesichtserkennung, neben vielen anderen Problemen, erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu identifizieren. Das „Normal“, auf dem die Software trainiert wird, ist nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden kann, musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat Michigan erfahren.

Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von Williams Fahrerlaubnis.

Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines menschlichen Blicks auf die Bilder bedurft, und reichte in Williams Namen Beschwerde gegen das Detroit Police Department ein.

Dessen Chef musste nun einräumen, dass die false positives bei der Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft behaupteten korrekten Trefferrate in etwa derselben Dimension ist die absolute Zahl der falschen Identifizierungen viel zu hoch, um einen praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das Detroiter Ergebnis sprengt jeden Rahmen.

Verbot der Technologie

Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe Zahl an Schwarzen Verdächtigen sein. Im aktuellen Wochenreport der Detroiter Polizei werden von 70 per Gesichtserkennung gesuchter Personen 68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten racial bias der Algorithmen.

Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem offensichtlichen und systematischen Versagen der Technologie ziehen, ist noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst in der vergangenen Woche reihte sich Boston in die länger werdende Reihe von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der automatischen Gesichtserkennung warten wollen und sie für die polizeiliche Praxis verboten haben.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.