piwik no script img

Twitter-KI diverser machenSuche nach dem Superprogrammierer

Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber reicht das am Ende, um die Diskriminierung zu stoppen?

Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen Foto: John M Lund/Ditial vision/getty

Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen, dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert. Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der Hackerkonferenz Defcon in Las Vegas veranstaltet hatte.

Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security and Privacy Engineering Lab der École polytechnique fédérale de Lausanne (EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar.

Dass Twitters Algorithmen verzerrt und strukturell rassistisch sind, ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter öffentlich in die Kritik geraten, nachdem mehrere Nut­ze­r:in­nen berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Pro­blem damit nicht. Dass Twitter seiner diskriminierenden KI mit einem öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte Bahnen zu lenken.

Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons – ­aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa Apple über eine Million Dollar „Kopfgeld“ an Si­cher­heits­forscher:innen, die Bugs in seinem Betriebssystem finden.

Immer noch unterrepräsentiert

Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie.

In den Software­schmieden sitzen noch immer mehr­heitlich weiße junge Männer der Mittel- und Oberschicht

Twitter und andere Techkonzerne haben zwar eigene Ethik­abteilungen, deren Re­prä­sen­tan­t:in­nen sich gerne mit hehren Worten an die Öffentlichkeit wenden, die jedoch nicht mehr als ein Feigenblatt sind – zumal das Management häufig selbst nicht den eigenen ethischen Standards genügt. So wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen Monaten gefeuert, nachdem sie in einer internen Mail offen die Unternehmenskultur und den Umgang mit Minderheiten kritisierte.

Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet.

Ausbeutung der Jungen

Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die iranischstämmige In­ge­nieu­rin Roya Pakzad, aufzeigen, dass bei englischsprachigen und arabischen Memes meist der englische Text hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen, vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass Englisch kulturell überlegen sei.

Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker monieren, dass Unternehmen dadurch junge Pro­gram­mie­re­r:in­nen ausbeuten würden.

Statt Ha­cke­r:in­nen mit einem Fingerlohn abzuspeisen, solle man ihnen lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es. Wie Google und Facebook beschäftigt auch Twitter Ver­trags­ar­bei­te­r:in­nen auf den Philippinen, einen digitalen Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!