Diskriminierung? Rassismus? Das schaffen Maschinen auch. Und es ist schwer, dagegen vorzugehen
: In echt jetzt?

Foto: privat

Nullen und Einsen Meike Laaff

Es gibt sie ja doch noch, die guten Nachrichten. Sogar in der vergangenen Woche: Ein Gericht entschied, dass die Polizei nicht einfach so einen Mann am Bahnhof kontrollieren darf, allein aufgrund seiner Hautfarbe. Racial Profiling – warum das gar nicht geht, dürfte spätestens nach der Diskussion um Polizeikontrollen in der Silvesternacht in Köln jeder mitbekommen haben.

Was mich an der Debatte allerdings mal wieder etwas erstaunt hat, war, wie analog sie geblieben ist. Profilbildung, Rassismus, Vorurteile und Diskriminierung – das ist auch dort, wo Algorithmen uns bewerten, leider ganz alltäglich. Und passiert gerade dort unter dem Deckmantel mathematischer Unbestechlichkeit und Intransparenz.

Äpfel und Birnen? Es gibt Bilderkennungssoftware, die taggte Afroamerikaner versehentlich als Gorillas. Und Suchmaschinen, die spielten neben afroamerikanisch klingenden Namen besonders häufig Werbung aus, die einen Check anbot, ob der oder die gesuchte über ein Vorstrafenregister verfügt. Facebook bot seinen Werbetreibenden die Option an, bestimmte Anzeigen nicht an Angehörige gewisser Ethnien auszuliefern.

Alles vergleichsweise harmlos? In den USA werden zur Berechnung der Rückfallwahrscheinlichkeit von Straftätern Algorithmen genutzt. Laut dem Recherchebüro ProPublica stufte die Software Schwarze doppelt so häufig als rückfallgefährdet ein wie Weiße. Zu weit weg? In Bayern und anderen Bundesländern arbeitet die Polizei mit Predictive-Policing-Software: Algorithmen berechnen, wo wahrscheinlich als Nächstes eingebrochen wird, und schicken Streifen hin. Kritiker sagen, das verenge den Fokus der Ermittlungen und verzerrt die Statistik: Wo besonders oft kontrolliert wird, werden halt häufiger Übeltäter geschnappt als dort, wo nie kontrolliert wird. Drei Schritte weiter ist die „Heat List“ der Polizei von Chicago: Algorithmisch wird da errechnet, wer wahrscheinlich bald in Verbrechen verwickelt sein könnte. Wie? Betriebsgeheimnis.

Big Data! Effizienz! Wissenschaftlichkeit! Das sind die Versprechen der Softwaresysteme, die immer mehr Lebensbereiche für uns wuppen. Und die meisten lassen das einfach passieren. Warum eigentlich? Es gibt Verlierer dieser Automatisierung – Menschen, die von der Software diskriminiert und marginalisiert werden. In einer Form, die es schwer macht, dagegen vorzugehen.

Algorithmenurteile haben mit Gleichbehandlungsgrundsätzen selten was am Hut. Manches davon ist milde unangenehm, anderes richtige Sauerei bis schlicht unrechtmäßig. Doch man kommt halt damit durch – wenn niemand widerspricht, erst recht keiner versteht und auch nur nachfragt, was die Algorithmen dort eigentlich wie errechnen, welche Datensätze sie nutzen und welche Voreingenommenheiten, Verzerrungen und Stigmatisierungen dadurch entstehen könnten. Schon klar: Da durchzusteigen ist komplizierter als beim Thema Racial Profiling am Bahnhof. Wirkt vielleicht weniger bedrohlich. Abstrakt. Hat aber Wut und Widerstand mindestens ebenso verdient.

DIE FÜNFTAGEVORSCHAU | KOLUMNE@TAZ.DE

Donnerstag

Ambros Waibel

Mittelalter

Freitag

Hengameh Yaghoobifarah

Habibitus

Montag

Fatma Aydemir

Minority Report

Dienstag

Juri Sternburg

Lügenleser

Mittwoch

Ingo Arzt

Kapitalozän