piwik no script img

Diskriminierung? Rassismus? Das schaffen Maschinen auch. Und es ist schwer, dagegen vorzugehenIn echt jetzt?

Nullen und Einsen Meike Laaff

Es gibt sie ja doch noch, die guten Nachrichten. Sogar in der vergangenen Woche: Ein Gericht entschied, dass die Polizei nicht einfach so einen Mann am Bahnhof kontrollieren darf, allein aufgrund seiner Hautfarbe. Racial Profiling – warum das gar nicht geht, dürfte spätestens nach der Diskussion um Polizeikontrollen in der Silvesternacht in Köln jeder mitbekommen haben.

Was mich an der Debatte allerdings mal wieder etwas erstaunt hat, war, wie analog sie geblieben ist. Profilbildung, Rassismus, Vorurteile und Diskriminierung – das ist auch dort, wo Algorithmen uns bewerten, leider ganz alltäglich. Und passiert gerade dort unter dem Deckmantel mathematischer Unbestechlichkeit und Intransparenz.

Äpfel und Birnen? Es gibt Bilderkennungssoftware, die taggte Afroamerikaner versehentlich als Gorillas. Und Suchmaschinen, die spielten neben afroamerikanisch klingenden Namen besonders häufig Werbung aus, die einen Check anbot, ob der oder die gesuchte über ein Vorstrafenregister verfügt. Facebook bot seinen Werbetreibenden die Option an, bestimmte Anzeigen nicht an Angehörige gewisser Ethnien auszuliefern.

Alles vergleichsweise harmlos? In den USA werden zur Berechnung der Rückfallwahrscheinlichkeit von Straftätern Algorithmen genutzt. Laut dem Recherchebüro ProPublica stufte die Software Schwarze doppelt so häufig als rückfallgefährdet ein wie Weiße. Zu weit weg? In Bayern und anderen Bundesländern arbeitet die Polizei mit Predictive-Policing-Software: Algorithmen berechnen, wo wahrscheinlich als Nächstes eingebrochen wird, und schicken Streifen hin. Kritiker sagen, das verenge den Fokus der Ermittlungen und verzerrt die Statistik: Wo besonders oft kontrolliert wird, werden halt häufiger Übeltäter geschnappt als dort, wo nie kontrolliert wird. Drei Schritte weiter ist die „Heat List“ der Polizei von Chicago: Algorithmisch wird da errechnet, wer wahrscheinlich bald in Verbrechen verwickelt sein könnte. Wie? Betriebsgeheimnis.

Big Data! Effizienz! Wissenschaftlichkeit! Das sind die Versprechen der Softwaresysteme, die immer mehr Lebensbereiche für uns wuppen. Und die meisten lassen das einfach passieren. Warum eigentlich? Es gibt Verlierer dieser Automatisierung – Menschen, die von der Software diskriminiert und marginalisiert werden. In einer Form, die es schwer macht, dagegen vorzugehen.

Algorithmenurteile haben mit Gleichbehandlungsgrundsätzen selten was am Hut. Manches davon ist milde unangenehm, anderes richtige Sauerei bis schlicht unrechtmäßig. Doch man kommt halt damit durch – wenn niemand widerspricht, erst recht keiner versteht und auch nur nachfragt, was die Algorithmen dort eigentlich wie errechnen, welche Datensätze sie nutzen und welche Voreingenommenheiten, Verzerrungen und Stigmatisierungen dadurch entstehen könnten. Schon klar: Da durchzusteigen ist komplizierter als beim Thema Racial Profiling am Bahnhof. Wirkt vielleicht weniger bedrohlich. Abstrakt. Hat aber Wut und Widerstand mindestens ebenso verdient.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen