piwik no script img

Facebooks Algorithmen werden geprüftDiskriminierung im System

Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.

Eine Gesellschaft wird immer die Algorithmen bekommen, die sie verdient Foto: Carsten Rehder/dpa

Die Erkenntnis, dass Algorithmen diskriminieren, ist nicht neu oder überraschend. Schließlich sind lernende Maschinen vollständig abhängig von menschlichem Input und der ist ganz offensichtlich nicht vorurteilsfrei.

Eine Gesellschaft, geprägt von Ungleichheit und den darauf basierenden vielfältigen Formen der Benachteiligung, wird bei ungesteuerter Beobachtung und der Verarbeitung der so gewonnenen Daten in kalten Rechenoperationen immer die Algorithmen bekommen, die sie verdient. Die werden dann in Suchmaschinen, sozialen Medien, bei der Schufa oder polizeilicher Gesichtserkennung ohne permanente Korrekturen vorhandene Stereotype und Vorurteile perpetuieren und verstärken.

Dass Facebook nun laut einem Bericht des Wall Street Journal eine Taskforce einrichtet, die untersuchen soll, ob es überhaupt einen racial bias in den eigenen Algorithmen gibt, kann da nur verwundern. Interessant wäre doch lediglich die Frage, wie genau die selbstlernende Werbemaschine des Konzerns beispielsweise Rassismus trainiert und welche Gegenstrategien möglich sind. Vor allem, wie die dann nicht zu sehr mit dem Geschäftszweck der Plattform kollidieren. Der besteht schließlich darin, Menschen zu kategorisieren und zu hierarchisieren, um zielgenau Werbung platzieren zu können, die dann wiederum jede nur denkbare Stereotypisierung reproduziert.

Glaubt man bei Facebook tatsächlich die eigene Propagandalüge von der vorurteils- und diskriminierungsfreien Plattform, dann können rassistisch operierende Algorithmen natürlich nur ein zufälliger Fehler sein. Das wird eine schöne Überraschung, wenn diese Fehler auch nach erfolgter Untersuchung wieder und wieder auftreten. Und das werden sie ganz sicher.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • "Die Erkenntnis, dass Algorithmen diskriminieren, ist nicht neu oder überraschend"

    Richtig. Sehr spannend geschrieben (aber technisch ein wenig ambitionierter) ist dieser Blog-Eintrag von Robyn Speer, einer Expertin in Sprachverarbeitung: "How to make a racist AI without really trying" [1] von 2017. Dort werden auch Mitigationstechniken gut veranschaulicht.

    Frau Speers Firma, Luminoso, ist in dieser Szene alles andere als unbekannt. Die Ergebnisse dürften für Fakebook --äh-- Facebook längst alte Hüte sein. Das ist kein Geheimwissen.

    "... Geschäftszweck der Plattform kollidieren"

    Und da genau dürfte der Hase im Pfeffer liegen. Die Plattformen werden nur was tun, wenn sie von der Politik getreten werden: eine globale Optimierungsaufgabe, eben.

    [1] blog.conceptnet.io...out-really-trying/

  • "[...] was man auf FB machen kann, um die Datensammelei zu bremsen"

    Da hätt' ich was: Stell Dir vor, es ist Facebook und keiner geht hin.

    • @tomás zerolo:

      Leider ist Facebook aktuell die einzige Plattform, wo ich meine internationalen Kontakte "sammeln" kann. Ich würde sehr gerne darauf verzichten und auf eine andere Plattform wechseln, was aber, zumindest jetzt, illusorisch ist.



      Solange das so ist, nutze ich FB, aber eben so, dass möglichst wenig (verwendbar) abgegriffen werden kann.



      Z.B. mache ich im Web nichts anderes, wenn FB offen ist und lösche danach Cookies etc. (Ein sogenanntes "Smart"phone habe ich nicht, somit ist das wohl auch einfacher).

      • @Grummelpummel:

        Es reicht nicht, dass Sie "sich selbst" schützen. Jede*r der/die das Netzwerk vergrössert trägt dazu bei.

        Wir werden uns jedenfalls nicht bei fakebook treffen, das steht fest.

  • Facebooks Alkorithmen sind sowieso kompletter Müll. Aus jedem Klick oder Kommentar wird ein "Interesse" abgeleitet. Wenn ich unter einem Fußballbeitrag etwas wie "Fußball ist langweiliger als Sandkörner zählen" schreibe, poppt garantiert unter den Werbe"interessen" irgendwas mit Fußball auf oder es werden irgendwelche entsprechenden Gruppen "vorgeschlagen". Obwohl mein Kommentar klar besagt, dass mich Fußball langweilt.



    Ich schaue alle paar Tage nach, was da wieder in meinen angeblichen "Interessen" auftaucht und klicke ausnahmslos alles weg. Vielleicht sollte man diese Algorhitmen nicht überbewerten, sondern mehr darüber aufklären, was man auf FB machen kann, um die Datensammelei zu bremsen.



    Auch immer wieder spassig: alle Werbeanzeigen (ist der verwendete Begriff "sponsored" statt Werbung eigentlich zulässig?) melden, den Grund zufällig auswählen. Das führt bei mir dazu, dass ich nach so 20 gemeldeten Werbeanzeigen für ein paar Wochen meine Ruhe davor habe. Und eine von 20 Anzeigen wird dann sogar gelöscht, weil sie gegen die "Community Standards" verstößt ;)