piwik no script img

Facebook fällt bei Test durchWeiter Hass-Postings gegen Rohingya

Sicherungen gegen Hass und Hetze von Facebook greifen nicht, zeigt eine Menschenschrechtsorganisation mit fingierten Anzeigen am Beispiel Myanmars.

Facebook hatte Fehler im Umgang mit den Hassekommentaren eingeräumt, doch wenig hat sich geändert Foto: Zikri Maulana/imago

Berlin taz | Der in Meta umbenannte US-Social-Media-Konzern Facebook geht immer noch nicht wirksam gegen die Verbreitung von Hass vor. Dies legt ein Test der in London ansässigen internationalen Menschenrechtsorganisation Global Whitness mit acht bei Facebook in Auftrag gegebenen Anzeigen voller Hetze und Hassbotschaften gegen die muslimische Minderheit der Rohingya in Myanmar nahe.

Denn ensprechende von der Nichtregierungsorganisation in Auftrag gegebene Anzeigen hatte Facebook unbeanstandet gelassen, wie die Global Whitness jetzt in einem Bericht dazu öffentlich machte.

Demnach enthielten die Anzeigen „stark beleidigende“ und „entmenschlichende Formulierungen“ einschließlich Aufrufen zur Ermordung von Rohingya. Die Ausdrücke stammten laut Global Whitness aus früheren Postings, die ein UN-Bericht zitiert hatte, der auch Facebooks damalige Rolle thematisierte.

2016 und 2017 waren mehrere Tausend Rohingya ermordet und in beiden Jahren zusammen bis zu 900.000 ins benachbarte Bangladesch vertrieben worden. Die US-Regierung hatte dies erst zu Wochenbeginn als Genozid eingestuft.

Facebook hatte nach 2017 Besserung versprochen

Facebook hatte später Fehler im Umgang mit den Hassekommentaren eingeräumt und Besserung versprochen. Doch laut Global Whitness ließ Facebook jetzt die inhaltlich gleichen Hassbotschaften wie damals unbeanstandet. Dabei unterliegen Anzeigen laut Facebook höheren Standards als Postings von Nutzern.

Erst im letzten Moment vor Veröffentlichung zog Global Whitness die Anzeigen zurück und wollte die hetzenden und hasserfüllten Sätze, die klar Facebooks Community Standards verletzen, jetzt auch lieber nicht einmal nennen.

Facebook wollte sich laut Global Whitness nicht zu dem Test äußern. Der Nachrichtenagentur AP erklärte ein Facebook-Sprecher jedoch schriftlich, dass der Konzern inzwischen in ein Team von Muttersprachlern und entsprechende Sprachtechnologie investiert habe. Auch seien Konten von Myanmars Militärs nach dessen Putsch 2021 verboten worden.

Facebook war vor dem Putsch zu Myanmars Hauptinformationsmedium avanciert, hatte aber bis 2015 überhaupt nur zwei muttersprachliche Mitarbeiter, welche die Posts lesen und notfalls löschen konnten. 2018 wurde die Zahl auf mindestens einhundert aufgestockt. Doch setzt Facebook hauptsächlich auf Sprachsoftware, was viele für nicht ausreichend halten.

Unterlassungen und der Algorithmus sind das Problem

Doch trägt Facebook nicht nur durch Unterlassung zur Verbreitung von Hasskommentaren bei. Auch sein auf die Steigerung von Clickzahlen programmierter Algorithmus trägt dazu bei. Im Dezember haben deshalb Rohingya in Kalifornien Facebook auf 150 Milliarden Dollar Schadensersatz verklagt.

Seit 2019 läuft vor dem Internationalen Gerichtshof in Den Haag zudem ein von Gamiba angestrengtes Verfahren wegen Völkermords gegen Myanmars Militär.

„Unsere Untersuchung zeigt, dass Facebook sich nicht selbst regulieren kann“, so Ava Lee von Global Whitness. Sie forderte Regierungen dazu auf, Facebook für die Beteiligung an Menschenrechtsverletzungen zur Verantwortung zu ziehen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Hass wird es immer geben auch ohne Facebook, ihn einfach zu blockieren und Postings zu löschen sorgt nicht dafür, dass er verschwindet , er ist immer noch da, also lasst diesen Hass in die Öffentlichkeit, damit man sich ihm entgegen stellen kann, anstatt ihn zu verbergen, damit man nicht damit konfrontiert wird und in seiner Heilen-Welt-Blase weiterleben kann.

  • Ich bin nicht in Facebook, und war dort auch noch nie, habe aber auch noch nie wirklich positives darüber vernommen. Also warum wird diese offensichtliche Hassplatform nicht einfach verboten?

    • @Eimsbüttler:

      Ich bin nicht auf dem Marktplatz/ in der Eckkneipe, und war dort auch noch nie, habe aber auch noch nie wirklich positives darüber vernommen. Also warum wird diese offensichtliche Hassplatform nicht einfach verboten?

      • @Affi:

        Was genau gibt es am Marktplatz denn negatives auszusetzen....also ich bin zwei- bis dreimal die Woche da und kaufe mein Gemüse, gehe gerne dorthin :D