Rassismus auf Facebook: „Zwarte Piet“ abschalten
Facebook kündigt an, härter gegen Antisemitismus und Blackfacing vorzugehen. Das trifft auch eine umstrittene niederländische Traditionsfigur.
Zu den „Blackface“-Stereotypen zählt Facebook schwarze Schminke, dicke Lippen und eine Kraushaar-Perücke. Fotos, Zeichnungen oder Videos von stereotypen Pieten können nach Hinweisen von Nutzern von den Plattformen entfernt werden.
„Facebook findet es nicht hinnehmbar, dass Menschen sich durch bestimmte Beiträge diskriminiert und nicht sicher fühlen“, erklärte das Unternehmen. „Sinterklaas ist ein Fest für alle.“ Sinterklaas heißt der Nikolaus in den Niederlanden und Belgien, der von den schwarz-geschminkten Helfern bei seinen Auftritten begleitet wird.
In den sozialen Netzwerken wurde zum Teil heftig auf die Regelung reagiert. Anhänger der Pieten sprechen von einem „Angriff auf die Meinungsfreiheit“. Antirassismusorganisationen loben dagegen das „positive und ermutigende Signal“.
Internationale Kritik
In den Niederlanden wird bereits seit Jahren heftig um den „Zwarte Piet“ gestritten. Für viele Niederländer, vor allem schwarze, ist die Darstellung des Piet rassistisch. Auch international werden die Niederlande dafür heftig kritisiert.
Bei der neuen Regelung spiele auch der Kontext eine Rolle, betonte Bickert. Wenn jemand etwa durch die Veröffentlichung eines „Blackface“-Fotos auf das Verhalten eines Politikers hinweisen wolle, sei das etwas anderes. Es könne auch andere Situationen geben, in denen Leute Fotos mit „Blackface“ auf der Plattform ohne beleidigende Absicht veröffentlichten, schränkte die Facebook-Managergin ein. Facebook wolle bei der Umsetzung auch solche „Nuancen“ wie im Fall der Niederlande berücksichtigen. Die Regelung sei neu und werde noch nicht angewendet.
Facebook machte die Ankündigung bei der vierteljährlichen Vorstellung von Zahlen zur Durchsetzung seiner Hausregeln. Dabei hieß es auch, dass von April bis Juni mehr als sieben Millionen Beiträge mit Informationen zum Coronavirus gelöscht wurden, die dem Onlinenetzwerk zufolge die Gesundheit von Menschen gefährden könnten. Rund 98 Millionen weniger gefährliche Inhalte mit zweifelhaften Informationen seien mit Warnhinweisen versehen worden.
Das Unternehmen räumte ein, dass es die Coronakrise schwieriger mache, bei Beiträgen einzugreifen, die darauf hinweisen, dass Nutzer sich Schaden zufügen wollen. Das gelte auch für Inhalte mit Kindesmissbrauch. Während zur Erkennung etwa von Hassrede automatisierte Software eingesetzt werde, sei in diesen Fällen immer noch die Rolle menschlicher Prüfer sehr groß. Die Verlagerung aus den Büros ins Homeoffice habe deren Arbeit erschwert, da zu Hause oft das Umfeld zum Ansehen solcher Beiträge nicht gegeben sei, erklärte Facebook-Manager Guy Rosen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Proteste bei Nan Goldin
Logiken des Boykotts
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Schwedens Energiepolitik
Blind für die Gefahren
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag