Rassismus in Algorithmen: Gesichtserkennung für die Tonne
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass automatisierte Gesichtserkennung, neben vielen anderen Problemen, erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu identifizieren. Das „Normal“, auf dem die Software trainiert wird, ist nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden kann, musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat Michigan erfahren.
Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von Williams Fahrerlaubnis.
Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines menschlichen Blicks auf die Bilder bedurft, und reichte in Williams Namen Beschwerde gegen das Detroit Police Department ein.
Dessen Chef musste nun einräumen, dass die false positives bei der Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft behaupteten korrekten Trefferrate in etwa derselben Dimension ist die absolute Zahl der falschen Identifizierungen viel zu hoch, um einen praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das Detroiter Ergebnis sprengt jeden Rahmen.
Verbot der Technologie
Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe Zahl an Schwarzen Verdächtigen sein. Im aktuellen Wochenreport der Detroiter Polizei werden von 70 per Gesichtserkennung gesuchter Personen 68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten racial bias der Algorithmen.
Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem offensichtlichen und systematischen Versagen der Technologie ziehen, ist noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst in der vergangenen Woche reihte sich Boston in die länger werdende Reihe von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der automatischen Gesichtserkennung warten wollen und sie für die polizeiliche Praxis verboten haben.
Eine Koalition, die was bewegt: taz.de und ihre Leser:innen
Unsere Community ermöglicht den freien Zugang für alle. Dies unterscheidet uns von anderen Nachrichtenseiten. Wir begreifen Journalismus nicht nur als Produkt, sondern auch als öffentliches Gut. Unsere Artikel sollen möglichst vielen Menschen zugutekommen. Mit unserer Berichterstattung versuchen wir das zu tun, was wir können: guten, engagierten Journalismus. Alle Schwerpunkte, Berichte und Hintergründe stellen wir dabei frei zur Verfügung, ohne Paywall. Gerade jetzt müssen Einordnungen und Informationen allen zugänglich sein. Was uns noch unterscheidet: Unsere Leser:innen. Sie müssen nichts bezahlen, wissen aber, dass guter Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Es wäre ein schönes Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
CDU-Chef Friedrich Merz
Friedrich der Mittelgroße
Geiselübergabe in Gaza
Gruseliges Spektakel
Jugend im Wahlkampf
Schluss mit dem Generationengelaber!
Soziologische Wahlforschung
Wie schwarz werden die grünen Milieus?
Wahlentscheidung
Mit dem Wahl-O-Mat auf Weltrettung
+++ Nachrichten im Ukraine-Krieg +++
Russland und USA beharren auf Kriegsschuld des Westens