piwik no script img

Dokumentarfilm „Coded Bias“Einäugige Maschinen

Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded Bias“.

Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini Foto: 7th Empire Media

Hamburg taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen kombiniert – mittels Webcam und Gesichtserkennungssoftware. Dabei stieß die Computerwissenschaftlerin auf ein Problem: Keine ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft, identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder Frauengesichter.

Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die am Dienstagabend die Hamburger W3 streamt: Da beobachten Ak­ti­vis­t*in­nen der britischen NGO „Big Brother Watch“, wie ein Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten habe, mögen die Be­am­t*in­nen nicht erkennen.

Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern machen darf – gegenüber den einschlägigen Tech-Riesen willigen die Nut­ze­r*in­nen ja wenigstens noch so was wie ein in die jeweils irgendwo in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer das Internet nutzen will, der Gesichtserkennung zustimmen – und der Verarbeitung durch den Staat.

Und im US-Staat Massachusetts soll eine Software der gestressten Justiz helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und das eben wiederum erkennbar entlang den Linien von – Hautfarbe und Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge vielerorts auf der Welt bei Job- oder Kreditvergabe oder der Risikoberechnung in den entsprechenden Abteilungen der Versicherungen.

Der Termin

Coded Bias, USA/UK/CN 2020, Regie: Shalini Kantayya, 85 Min.

Online-Screening (OmU): Di, 11. 5., 18 Uhr, https://w3-hamburg.de/veranstaltung/coded-bias/; anschließend diskutieren

- Francesca Schmidt (Gunda-Werner-Institut),

- Matthias Spielkamp (Algorithm Watch) und

- Viktor Schlüter (Amnesty International).

Anmeldung: info@w3-hamburg.de

Aber jedes System, so muss angenommen werden, in dem ausreichend hoher Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren, zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum geht, wer ein gespendetes Organ bekommt?

Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für Vorurteile, als es die Menschen sind, die sie ins Werk setzen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!