Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert
Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab.
„Stop the Steal“, „Trump is our President“, „Stop the leftist insanity“: Bereits eine kurze Suche auf Facebook zeigt, dass radikalisierte Gruppen für das Unternehmen immer noch ein großes Problem sind. Zwar geht Facebook seit ein paar Monaten konsequenter gegen gegen Fake News und Hassrede auf seiner Plattform vor, besonders in Bezug auf die US-Wahl. Doch es bekommt das Problem offenbar nicht in den Griff.
Nachdem der Tech-Konzern bereits im August sämtliche Gruppen der Verschwörungsideologie QAnon gelöscht hat, geht das Unternehmen nun einen Schritt weiter, wie die Washington Post berichtet. Künftig sollen Gruppen, die innerhalb eines bestimmten Zeitraums mehrfach gegen die Gemeinschaftsstandards von Facebook verstoßen – dazu zählen etwa Hassrede oder gezielte Falschinformationen zur US-Wahl oder Covid-19 –, auf „Bewährung“ gesetzt werden.
2019 hat Facebook eigenen Angaben zufolge 13,5 Millionen Beiträge gelöscht, die entweder Hassrede oder organisierte Hetze enthielten. Rund 87 Prozent der Hassrede seien dem Unternehmen zufolge „proaktiv“ entfernt worden, also bevor User*innen sie überhaupt sehen konnten. Dafür nutzt der Konzern eine Kombination von automatisierten Tools und rund 35.000 bezahlten Mitarbeiter*innen, auch über Drittfirmen, weltweit, die sich um jene Beiträge kümmern, die durch das KI-Netz rutschen.
Während Postings in offenen und geschlossenen Gruppen bislang direkt veröffentlicht werden, sollen Moderator*innen künftig alle Beiträge erst lesen und dann freischalten oder ablehnen. Diese Beobachtung gelte laut Facebook für einen Zeitraum von zwei Monaten. Stellen die Moderator*innen in dieser Zeit zu viele Verstöße fest, soll die Gruppe gelöscht werden. Innerhalb der nächsten Wochen will Facebook einzelnen Mitgliedern in den beobachteten Gruppen Adminrechte geben, die sich dann um die Postings kümmern sollen. Erst mal sollen nur US-Gruppen untersucht werden.
Facebook wälzt seine Verantwortung ab
Auf den ersten Blick wirkt Facebooks Idee vernünftig. Denn das soziale Netzwerk steckt in einem Dilemma. Einerseits steht es seit der US-Präsidentschaftswahl von 2016 unter massivem öffentlichen Druck, gegen Fake News vorzugehen. Deshalb hat das Unternehmen bei Gruppen wie QAnon im August so hart durchgegriffen.
Auf der anderen Seite betont Facebookgründer Mark Zuckerberg immer wieder aufs Neue die Meinungsfreiheit. So sind Gruppen eines der Kernelemente des sozialen Netzwerks. Für Zuckerberg erscheint es daher logisch, kein Overblocking zu betreiben und Gruppen lieber die Möglichkeit zur „Besserung“ zu geben.
Doch das ist naiv und auf mehreren Ebenen problematisch. Wie sollen sich verschwörungsideologische Gruppen selbst moderieren? Und wie sollen meist ungeschulte und unbezahlte Moderator*innen die Flut von Beiträgen lesen? Sie sollen nun darüber entscheiden, wann die Meinungsfreiheit endet und ab wann Inhalte anstößig sind.
Es geht um ein Feld, in dem sich selbst Jurist*innen häufig uneinig sind und für das Facebook extra ein mehrköpfiges Gremium zusammengestellt hat. Schon in der Vergangenheit berichteten freiwillige Moderator*innen von Burnout-Erscheinungen. Facebook darf seine Verantwortung nicht abwälzen und muss mehr bezahlte Moderator*innen einstellen, die unabhängig sind und kritisch einordnen.
Verschwörungsideologische Codes
Denn verschwörungsideologische Akteure begreifen schnell, wie sie Regeln umgehen und Codes verwenden, die Algorithmen und Moderator*innen nicht erkennen. Zwar könnten Postings nun nicht mehr kurz gepostet und dann wieder zurückgenommen werden, um so trotzdem viele Leute zu erreichen. Aber ungeschulte Moderator*innen könnten auf rechte Ideolog*innen hereinfallen und im schlimmsten Fall sogar mit ihnen zusammenarbeiten.
Auch das befürchtete Overblocking passiert bereits. So wurde etwa eine Gruppe aus Aberdeen im US-Staat Washington mit völlig normalen Inhalten auf Moderation gesetzt. Die Moderator*innen überlegen aus Zeitmangel, die Gruppe zu schließen. Eine Gruppe, die in der Nachbarschaftshilfe betrieben wird und in der sich normale Leute miteinander austauschen. Facebook torpediert hier eines seiner Kernfeatures: Leute zusammenzubringen.
In der Gruppe „Stop the Steal“ drohen User*innen wegen angeblicher „Zensur“ indes damit, sich von Facebook zurückzuziehen und ihre Aktivitäten auf das 2018 gegründete und von vielen rechten Ideolog*innen genutzte Netzwerk „Parler“ zu wechseln. Das liegt auch an der konsequenteren Durchsetzung von Facebooks Hausrecht. Dafür muss das Unternehmen allerdings in Kauf nehmen, Nutzer*innen zu verlieren.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
taz-Recherche zu Gewalt gegen Frauen
Weil sie weiblich sind
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen