Facebook fällt bei Test durch: Weiter Hass-Postings gegen Rohingya
Sicherungen gegen Hass und Hetze von Facebook greifen nicht, zeigt eine Menschenschrechtsorganisation mit fingierten Anzeigen am Beispiel Myanmars.
Denn ensprechende von der Nichtregierungsorganisation in Auftrag gegebene Anzeigen hatte Facebook unbeanstandet gelassen, wie die Global Whitness jetzt in einem Bericht dazu öffentlich machte.
Demnach enthielten die Anzeigen „stark beleidigende“ und „entmenschlichende Formulierungen“ einschließlich Aufrufen zur Ermordung von Rohingya. Die Ausdrücke stammten laut Global Whitness aus früheren Postings, die ein UN-Bericht zitiert hatte, der auch Facebooks damalige Rolle thematisierte.
2016 und 2017 waren mehrere Tausend Rohingya ermordet und in beiden Jahren zusammen bis zu 900.000 ins benachbarte Bangladesch vertrieben worden. Die US-Regierung hatte dies erst zu Wochenbeginn als Genozid eingestuft.
Facebook hatte nach 2017 Besserung versprochen
Facebook hatte später Fehler im Umgang mit den Hassekommentaren eingeräumt und Besserung versprochen. Doch laut Global Whitness ließ Facebook jetzt die inhaltlich gleichen Hassbotschaften wie damals unbeanstandet. Dabei unterliegen Anzeigen laut Facebook höheren Standards als Postings von Nutzern.
Erst im letzten Moment vor Veröffentlichung zog Global Whitness die Anzeigen zurück und wollte die hetzenden und hasserfüllten Sätze, die klar Facebooks Community Standards verletzen, jetzt auch lieber nicht einmal nennen.
Facebook wollte sich laut Global Whitness nicht zu dem Test äußern. Der Nachrichtenagentur AP erklärte ein Facebook-Sprecher jedoch schriftlich, dass der Konzern inzwischen in ein Team von Muttersprachlern und entsprechende Sprachtechnologie investiert habe. Auch seien Konten von Myanmars Militärs nach dessen Putsch 2021 verboten worden.
Facebook war vor dem Putsch zu Myanmars Hauptinformationsmedium avanciert, hatte aber bis 2015 überhaupt nur zwei muttersprachliche Mitarbeiter, welche die Posts lesen und notfalls löschen konnten. 2018 wurde die Zahl auf mindestens einhundert aufgestockt. Doch setzt Facebook hauptsächlich auf Sprachsoftware, was viele für nicht ausreichend halten.
Unterlassungen und der Algorithmus sind das Problem
Doch trägt Facebook nicht nur durch Unterlassung zur Verbreitung von Hasskommentaren bei. Auch sein auf die Steigerung von Clickzahlen programmierter Algorithmus trägt dazu bei. Im Dezember haben deshalb Rohingya in Kalifornien Facebook auf 150 Milliarden Dollar Schadensersatz verklagt.
Seit 2019 läuft vor dem Internationalen Gerichtshof in Den Haag zudem ein von Gamiba angestrengtes Verfahren wegen Völkermords gegen Myanmars Militär.
„Unsere Untersuchung zeigt, dass Facebook sich nicht selbst regulieren kann“, so Ava Lee von Global Whitness. Sie forderte Regierungen dazu auf, Facebook für die Beteiligung an Menschenrechtsverletzungen zur Verantwortung zu ziehen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Interner Zwist bei Springer
Musk spaltet die „Welt“
Nach dem Anschlag von Magdeburg
Wenn Warnungen verhallen
Deutsche Konjunkturflaute
Schwarze Nullkommanull
Schäden durch Böller
Versicherer rechnen mit 1.000 Pkw-Bränden zum Jahreswechsel
Aufregung um Star des FC Liverpool
Ene, mene, Ökumene