piwik no script img

Regeln für Facebook-BeiträgeHätte, hätte, Nettiquette

Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente.

Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen Foto: imago/Steinach

Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls wenn es um keine konkrete Frau aus Politik und Medien geht. So unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und solchen, die stehen bleiben dürfen – glaubt man internen Schulungsunterlagen des Social-Media-Konzerns, die der britische Guardian veröffentlicht hat.

Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt.

Bei den geleakten Dokumenten handelt es sich um Schulungsunterlagen, mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“ führen, und solchen, die das aus Sicht von Facebook nicht tun.

So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn, diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer.

Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass diese tatsächlich umgesetzt werden.

Diskurs der Gewalt vs. Meinungsfreiheit

Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf einerseits zu abstrakt ist und sich andererseits an eine nicht als „vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien für Gewaltaufrufe gegen Rothaarige oder dicke Kinder.

Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft, dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede, wird der Post gelöscht.

Facebook definiert einen kleinsten ­gemeinsamen Nenner für Hate Speech

Auch zum Umgang mit der Darstellung von Kindesmisshandlung gibt Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden, bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer Weise kommentiert wird, die die Misshandlung rechtfertigt oder glorifiziert.

Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen, die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen beitragen, fallen für Facebook unter die Meinungsfreiheit.

Intransparent und undemokratisch

Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook aufgerufen wurde, könnte dem Netzwerk einen erheblichen Image­schaden einbringen.

Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über freie Meinung einerseits und gefährliche Hasskommentare andererseits überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn befindet und wo der Post gelesen wird.

Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit liegt die Verantwortung bei den Falschen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Von wegen: Unzensiertes Internet!

    Mir ist lieber, eine demokratisch gewählte Regierung zensiert, als diese Medienkonzerne. Wo demonstrieren die Nerds gegen Zuckerberg & Co? Nix zu sehen von denen. Gegen den Justizminister werden sie plötzlich wach und versammeln sich um für ein "freies" Internet zu demonstrieren. Alle schon eingefangen, abhängig und gehirngewaschen von den Portalen, an denen ihr bißchen Leben so hängt.