Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert

Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab.

Silhouetten von drei Mobilfunknutzern mit Smartphones in der Hand

Facebook bekommt seine Probleme mit Hassreden und Falschinformationen nicht in den Griff Foto: Dado Ruvic/reuters

„Stop the Steal“, „Trump is our President“, „Stop the leftist insanity“: Bereits eine kurze Suche auf Facebook zeigt, dass radikalisierte Gruppen für das Unternehmen immer noch ein großes Problem sind. Zwar geht Facebook seit ein paar Monaten konsequenter gegen gegen Fake News und Hassrede auf seiner Plattform vor, besonders in Bezug auf die US-Wahl. Doch es bekommt das Problem offenbar nicht in den Griff.

Nachdem der Tech-Konzern bereits im August sämtliche Gruppen der Verschwörungsideologie QAnon gelöscht hat, geht das Unternehmen nun einen Schritt weiter, wie die Washington Post berichtet. Künftig sollen Gruppen, die innerhalb eines bestimmten Zeitraums mehrfach gegen die Gemeinschaftsstandards von Facebook verstoßen – dazu zählen etwa Hassrede oder gezielte Falschinformationen zur US-Wahl oder Covid-19 –, auf „Bewährung“ gesetzt werden.

2019 hat Facebook eigenen Angaben zufolge 13,5 Millionen Beiträge gelöscht, die entweder Hassrede oder organisierte Hetze enthielten. Rund 87 Prozent der Hassrede seien dem Unternehmen zufolge „proaktiv“ entfernt worden, also bevor User*innen sie überhaupt sehen konnten. Dafür nutzt der Konzern eine Kombination von automatisierten Tools und rund 35.000 bezahlten Mitarbeiter*innen, auch über Drittfirmen, weltweit, die sich um jene Beiträge kümmern, die durch das KI-Netz rutschen.

Während Postings in offenen und geschlossenen Gruppen bislang direkt veröffentlicht werden, sollen Moderator*innen künftig alle Beiträge erst lesen und dann freischalten oder ablehnen. Diese Beobachtung gelte laut Facebook für einen Zeitraum von zwei Monaten. Stellen die Moderator*innen in dieser Zeit zu viele Verstöße fest, soll die Gruppe gelöscht werden. Innerhalb der nächsten Wochen will Facebook einzelnen Mitgliedern in den beobachteten Gruppen Adminrechte geben, die sich dann um die Postings kümmern sollen. Erst mal sollen nur US-Gruppen untersucht werden.

Facebook wälzt seine Verantwortung ab

Auf den ersten Blick wirkt Facebooks Idee vernünftig. Denn das soziale Netzwerk steckt in einem Dilemma. Einerseits steht es seit der US-Präsidentschaftswahl von 2016 unter massivem öffentlichen Druck, gegen Fake News vorzugehen. Deshalb hat das Unternehmen bei Gruppen wie QAnon im August so hart durchgegriffen.

Auf der anderen Seite betont Facebookgründer Mark Zuckerberg immer wieder aufs Neue die Meinungsfreiheit. So sind Gruppen eines der Kernelemente des sozialen Netzwerks. Für Zuckerberg erscheint es daher logisch, kein Overblocking zu betreiben und Gruppen lieber die Möglichkeit zur „Besserung“ zu geben.

Doch das ist naiv und auf mehreren Ebenen problematisch. Wie sollen sich verschwörungsideologische Gruppen selbst moderieren? Und wie sollen meist ungeschulte und unbezahlte Moderator*innen die Flut von Beiträgen lesen? Sie sollen nun darüber entscheiden, wann die Meinungsfreiheit endet und ab wann Inhalte anstößig sind.

Es geht um ein Feld, in dem sich selbst Jurist*innen häufig uneinig sind und für das Facebook extra ein mehrköpfiges Gremium zusammengestellt hat. Schon in der Vergangenheit berichteten freiwillige Moderator*innen von Burnout-Erscheinungen. Facebook darf seine Verantwortung nicht abwälzen und muss mehr bezahlte Moderator*innen einstellen, die unabhängig sind und kritisch einordnen.

Verschwörungsideologische Codes

Denn verschwörungsideologische Akteure begreifen schnell, wie sie Regeln umgehen und Codes verwenden, die Algorithmen und Moderator*innen nicht erkennen. Zwar könnten Postings nun nicht mehr kurz gepostet und dann wieder zurückgenommen werden, um so trotzdem viele Leute zu erreichen. Aber ungeschulte Moderator*innen könnten auf rechte Ideolog*innen hereinfallen und im schlimmsten Fall sogar mit ihnen zusammenarbeiten.

Auch das befürchtete Overblocking passiert bereits. So wurde etwa eine Gruppe aus Aberdeen im US-Staat Washington mit völlig normalen Inhalten auf Moderation gesetzt. Die Moderator*innen überlegen aus Zeitmangel, die Gruppe zu schließen. Eine Gruppe, die in der Nachbarschaftshilfe betrieben wird und in der sich normale Leute miteinander austauschen. Facebook torpediert hier eines seiner Kernfeatures: Leute zusammenzubringen.

In der Gruppe „Stop the Steal“ drohen User*innen wegen angeblicher „Zensur“ indes damit, sich von Facebook zurückzuziehen und ihre Aktivitäten auf das 2018 gegründete und von vielen rechten Ideolog*innen genutzte Netzwerk „Parler“ zu wechseln. Das liegt auch an der konsequenteren Durchsetzung von Facebooks Hausrecht. Dafür muss das Unternehmen allerdings in Kauf nehmen, Nutzer*innen zu verlieren.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.