piwik no script img

die gesellschaftskritikRassistische Roboter

Schwarze Menschen und People of Color laufen eher Gefahr, von selbstfahrenden Autos übersehen zu werden. Schuld am blinden Fleck der Maschinenaugen ist natürlich der Mensch

Ein tödlicher Verkehrsunfall in Arizona machte im März 2018 nachdenklich: Beim nächtlichen Überqueren einer Landstraße wurde eine 49-Jährige von einem Fahrzeug der Firma Uber überrollt. Am Steuer bei der Probefahrt: niemand. Nur eine Testpassagierin war im Wagen – die konnte die Karambolage aber nicht verhindern. Hersteller autonomer Vehikel tüfteln seither daran, dass Fußgänger*innen zuverlässig identifiziert werden.

Wie eine Studie des Georgia Institute of Technology jetzt aber zeigt, sieht die entsprechende Erkennungssoftware darüber hinaus bei weißen Passanten genauer hin als bei anderen. So heißt es darin, die künstliche Intelligenz funktioniere schlechter bei Hauttönen von 4 bis 6 auf der Fitzpatrick-Skala, die in der Dermatologie über die Sonnenempfindlichkeit Auskunft gibt. Der Guardian schreibt von „Rassismus der Technologie“.

Tatsächlich wird eine Person mit hellerer Haut laut dieser Studie mit 10 Prozent höherer Wahrscheinlichkeit als Grund zum Bremsen erkannt. Bedenklich ist das vor allem, weil es nicht der erste Fall von rassistischen Algorithmen ist. In seiner Anfangsphase verwechselte Google Reverse Image Search (man lädt ein Bild hoch und erhält ähnliche Ergebnisse) schwarze Menschen mit Gorillas.

Wenn künstliche Intelligenz diskriminiert, liegt das an ihren menschlichen Lehrer*innen. Maschinengehirne werden mit Datensets gefüttert und trainieren so das Erkennen. Sind diese Sets unausgewogen zusammengestellt, eignet sich auch der Algorithmus eine Schieflage an. „Coded gaze“ nennt das Joy Buolamwini, „progammierter Blick“. Die MIT-Wissenschaftlerin war davon genervt, dass die Erkennungssoftware ihr Gesicht nur erkannte, wenn sie es mit einer weißen Maske überdeckte.

Ein Problem unbalancierter Datensätze: Mit ihnen werde ein weißer Mann von einer Gesichtserkennung zu 99 Prozent erkannt, eine nichtweiße Frau aber nur zu 65 Prozent, weil in den Trainingsdaten zu viele weiße Männer vorkommen. Das ist diskriminierend und gefährlich: Was vor dem Bildschirm ärgert, kann auf der Straße Leben kosten. Finn Holitzka

40.000 mal Danke!

40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen