Facebook fällt bei Test durch: Weiter Hass-Postings gegen Rohingya

Sicherungen gegen Hass und Hetze von Facebook greifen nicht, zeigt eine Menschenschrechtsorganisation mit fingierten Anzeigen am Beispiel Myanmars.

Fischer helfen Rohingya-Migranten beim Aussteigen aus einem Boot

Facebook hatte Fehler im Umgang mit den Hassekommentaren eingeräumt, doch wenig hat sich geändert Foto: Zikri Maulana/imago

BERLIN taz | Der in Meta umbenannte US-Social-Media-Konzern Facebook geht immer noch nicht wirksam gegen die Verbreitung von Hass vor. Dies legt ein Test der in London ansässigen internationalen Menschenrechtsorganisation Global Whitness mit acht bei Facebook in Auftrag gegebenen Anzeigen voller Hetze und Hassbotschaften gegen die muslimische Minderheit der Rohingya in Myanmar nahe.

Denn ensprechende von der Nichtregierungsorganisation in Auftrag gegebene Anzeigen hatte Facebook unbeanstandet gelassen, wie die Global Whitness jetzt in einem Bericht dazu öffentlich machte.

Demnach enthielten die Anzeigen „stark beleidigende“ und „entmenschlichende Formulierungen“ einschließlich Aufrufen zur Ermordung von Rohingya. Die Ausdrücke stammten laut Global Whitness aus früheren Postings, die ein UN-Bericht zitiert hatte, der auch Facebooks damalige Rolle thematisierte.

2016 und 2017 waren mehrere Tausend Rohingya ermordet und in beiden Jahren zusammen bis zu 900.000 ins benachbarte Bangladesch vertrieben worden. Die US-Regierung hatte dies erst zu Wochenbeginn als Genozid eingestuft.

Facebook hatte nach 2017 Besserung versprochen

Facebook hatte später Fehler im Umgang mit den Hassekommentaren eingeräumt und Besserung versprochen. Doch laut Global Whitness ließ Facebook jetzt die inhaltlich gleichen Hassbotschaften wie damals unbeanstandet. Dabei unterliegen Anzeigen laut Facebook höheren Standards als Postings von Nutzern.

Erst im letzten Moment vor Veröffentlichung zog Global Whitness die Anzeigen zurück und wollte die hetzenden und hasserfüllten Sätze, die klar Facebooks Community Standards verletzen, jetzt auch lieber nicht einmal nennen.

Facebook wollte sich laut Global Whitness nicht zu dem Test äußern. Der Nachrichtenagentur AP erklärte ein Facebook-Sprecher jedoch schriftlich, dass der Konzern inzwischen in ein Team von Muttersprachlern und entsprechende Sprachtechnologie investiert habe. Auch seien Konten von Myanmars Militärs nach dessen Putsch 2021 verboten worden.

Facebook war vor dem Putsch zu Myanmars Hauptinformationsmedium avanciert, hatte aber bis 2015 überhaupt nur zwei muttersprachliche Mitarbeiter, welche die Posts lesen und notfalls löschen konnten. 2018 wurde die Zahl auf mindestens einhundert aufgestockt. Doch setzt Facebook hauptsächlich auf Sprachsoftware, was viele für nicht ausreichend halten.

Unterlassungen und der Algorithmus sind das Problem

Doch trägt Facebook nicht nur durch Unterlassung zur Verbreitung von Hasskommentaren bei. Auch sein auf die Steigerung von Clickzahlen programmierter Algorithmus trägt dazu bei. Im Dezember haben deshalb Rohingya in Kalifornien Facebook auf 150 Milliarden Dollar Schadensersatz verklagt.

Seit 2019 läuft vor dem Internationalen Gerichtshof in Den Haag zudem ein von Gamiba angestrengtes Verfahren wegen Völkermords gegen Myanmars Militär.

„Unsere Untersuchung zeigt, dass Facebook sich nicht selbst regulieren kann“, so Ava Lee von Global Whitness. Sie forderte Regierungen dazu auf, Facebook für die Beteiligung an Menschenrechtsverletzungen zur Verantwortung zu ziehen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.