Twitter-KI diverser machen: Suche nach dem Superprogrammierer

Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber reicht das am Ende, um die Diskriminierung zu stoppen?

Aneinandergebaute Ausschnitte von Gesichtern

Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen Foto: John M Lund/Ditial vision/getty

Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen, dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert. Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der Hackerkonferenz Defcon in Las Vegas veranstaltet hatte.

Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security and Privacy Engineering Lab der École polytechnique fédérale de Lausanne (EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar.

Dass Twitters Algorithmen verzerrt und strukturell rassistisch sind, ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter öffentlich in die Kritik geraten, nachdem mehrere Nut­ze­r:in­nen berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Pro­blem damit nicht. Dass Twitter seiner diskriminierenden KI mit einem öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte Bahnen zu lenken.

Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons – ­aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa Apple über eine Million Dollar „Kopfgeld“ an Si­cher­heits­forscher:innen, die Bugs in seinem Betriebssystem finden.

Immer noch unterrepräsentiert

Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie.

In den Software­schmieden sitzen noch immer mehr­heitlich weiße junge Männer der Mittel- und Oberschicht

Twitter und andere Techkonzerne haben zwar eigene Ethik­abteilungen, deren Re­prä­sen­tan­t:in­nen sich gerne mit hehren Worten an die Öffentlichkeit wenden, die jedoch nicht mehr als ein Feigenblatt sind – zumal das Management häufig selbst nicht den eigenen ethischen Standards genügt. So wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen Monaten gefeuert, nachdem sie in einer internen Mail offen die Unternehmenskultur und den Umgang mit Minderheiten kritisierte.

Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet.

Ausbeutung der Jungen

Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die iranischstämmige In­ge­nieu­rin Roya Pakzad, aufzeigen, dass bei englischsprachigen und arabischen Memes meist der englische Text hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen, vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass Englisch kulturell überlegen sei.

Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker monieren, dass Unternehmen dadurch junge Pro­gram­mie­re­r:in­nen ausbeuten würden.

Statt Ha­cke­r:in­nen mit einem Fingerlohn abzuspeisen, solle man ihnen lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es. Wie Google und Facebook beschäftigt auch Twitter Ver­trags­ar­bei­te­r:in­nen auf den Philippinen, einen digitalen Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de