piwik no script img

die gesellschaftskritikRassistische Roboter

Schwarze Menschen und People of Color laufen eher Gefahr, von selbstfahrenden Autos übersehen zu werden. Schuld am blinden Fleck der Maschinenaugen ist natürlich der Mensch

Ein tödlicher Verkehrsunfall in Arizona machte im März 2018 nachdenklich: Beim nächtlichen Überqueren einer Landstraße wurde eine 49-Jährige von einem Fahrzeug der Firma Uber überrollt. Am Steuer bei der Probefahrt: niemand. Nur eine Testpassagierin war im Wagen – die konnte die Karambolage aber nicht verhindern. Hersteller autonomer Vehikel tüfteln seither daran, dass Fußgänger*innen zuverlässig identifiziert werden.

Wie eine Studie des Georgia Institute of Technology jetzt aber zeigt, sieht die entsprechende Erkennungssoftware darüber hinaus bei weißen Passanten genauer hin als bei anderen. So heißt es darin, die künstliche Intelligenz funktioniere schlechter bei Hauttönen von 4 bis 6 auf der Fitzpatrick-Skala, die in der Dermatologie über die Sonnenempfindlichkeit Auskunft gibt. Der Guardian schreibt von „Rassismus der Technologie“.

Tatsächlich wird eine Person mit hellerer Haut laut dieser Studie mit 10 Prozent höherer Wahrscheinlichkeit als Grund zum Bremsen erkannt. Bedenklich ist das vor allem, weil es nicht der erste Fall von rassistischen Algorithmen ist. In seiner Anfangsphase verwechselte Google Reverse Image Search (man lädt ein Bild hoch und erhält ähnliche Ergebnisse) schwarze Menschen mit Gorillas.

Wenn künstliche Intelligenz diskriminiert, liegt das an ihren menschlichen Lehrer*innen. Maschinengehirne werden mit Datensets gefüttert und trainieren so das Erkennen. Sind diese Sets unausgewogen zusammengestellt, eignet sich auch der Algorithmus eine Schieflage an. „Coded gaze“ nennt das Joy Buolamwini, „progammierter Blick“. Die MIT-Wissenschaftlerin war davon genervt, dass die Erkennungssoftware ihr Gesicht nur erkannte, wenn sie es mit einer weißen Maske überdeckte.

Ein Problem unbalancierter Datensätze: Mit ihnen werde ein weißer Mann von einer Gesichtserkennung zu 99 Prozent erkannt, eine nichtweiße Frau aber nur zu 65 Prozent, weil in den Trainingsdaten zu viele weiße Männer vorkommen. Das ist diskriminierend und gefährlich: Was vor dem Bildschirm ärgert, kann auf der Straße Leben kosten. Finn Holitzka

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen