Community-Management: Für Respekt in der Kommentar-Spalte
Community-Manager*innen sollen Kommentare auf den Seiten der Öffentlich-Rechtlichen regulieren. Doch der raue Ton geht vielen an die Substanz.
Islamistengesocks, unzivilisierte Halbwilde“, schreibt der User, dessen Profilbild einen Mann mit adrettem Haarschnitt und Anzug zeigt. Doch das ist nicht er selbst – sondern der Bösewicht aus einer TV-Serie. Das Profil ist Fake, der Nutzer ein Troll, der vorsätzlich im Internet Unruhe stiftet.
Im Jahr 2022 erhielt allein das ZDF nach eigenen Angaben über 12 Millionen Kommentare auf seinen Social-Media-Kanälen. Die meisten sind harmlos. Einige wie der obige, enthalten Hass, Beleidigungen und Drohungen. Um einen respektvollen Austausch zu ermöglichen, beschäftigen viele Rundfunkanstalten daher Community-Manager*innen wie Melissa.
Melissa arbeitet beim Deutschlandfunk (DLF) und heißt eigentlich anders. Ihren echten Namen möchte sie lieber nicht in der Zeitung lesen, auch weil sie befürchtet, dass User*innen sie kontaktieren könnten. Melissa löscht Hasskommentare auf Facebook, leitet Diskussionen auf Instagram und Twitter, beantwortet Fragen in den Foren des Senders. Im Fachjargon nennt sich das Moderation. Zu dieser ist der ÖRR laut einem Urteil des Bundesverwaltungsgerichts vom November 2022 nicht nur berechtigt, sondern teilweise sogar verpflichtet, um EU-Wettbewerbsrichtlinien zu erfüllen. Die Menschen, die sich darum kümmern, brauchen starke Nerven.
„Ich lese ungefähr 1.000 Kommentare am Tag, davon sind etwa 10 Prozent problematisch und noch mal 20 Prozent Spam, viele Sex-Bots und Finanz-Coaches“, erzählt Melissa. „Mit das Übelste, was ich bisher gelesen habe, war eine sehr plastische Beschreibung davon, wie jemand einen Klima-Kleber töten wollte.“
Wenig sichtbar
Community-Management ist ein wenig sichtbares Arbeitsfeld in Deutschland, obwohl es inzwischen in fast jedem größeren Unternehmen zu finden ist, besonders in der Medienbranche. Wie viele Community-Manager*innen es genau in Deutschland gibt ist schwer zu sagen. Das Berufsbild ist nicht geschützt und eine Erfassung daher schwer möglich. Mit 38 Jahren gehört Melissa zu den Älteren in der Branche. Viele der Community-Manager*innen, mit denen die taz für diesen Text sprach, studieren noch, verdienen sich mit dem Job etwas dazu. Für Melissa aber ist es ihre Haupttätigkeit.
Ein Ziel der Moderation ist, dass die Community die sogenannte Netiquette einhält. Diese hauseigenen Verhaltensregeln gehen bei den Formaten des ÖRR meist über die Guidelines von Facebook & Co hinaus. So kann die Netiquette z. B. vorschreiben, dass Kommentare sachbezogen, konstruktiv und respektvoll sein sollen. Leider gelingt das nicht immer.
„Moderation hat definitiv einen Effekt. Aus Studien wissen wir, dass allein die Präsenz von Moderation dazu führt, dass Nutzer*innen lieber an Diskussionen teilnehmen“, sagt die Kommunikationswissenschaftlerin Dominique Heinbach. Sie forscht an der Uni Mainz zu Moderation und Community-Management und hat mit Prof. Dr. Marc Ziegele (Uni Düsseldorf) in Kooperation mit der Landesanstalt für Medien NRW das sogenannte Kasi-Prinzip entwickelt. Dieses enthält verschiedene Moderationsstile, den kognitiven (K), affektiven (A) und den sozial-integrativen Stil (SI). Sie konzertieren sich auf die Bestärkung positiver, konstruktiver und bereichernder Kommentare. Dabei soll auf Gefühle der Menschen eingegangen, positive Rückfragen gestellt und die Interaktion untereinander gefördert werden.
„Häufig liegt in der öffentlichen Debatte und in Redaktionen ein großer Fokus auf dem Eindämmen von Hatespeech und Inzivilität, also von unerwünschten Beiträgen. Wir haben versucht, das Ganze andersrum anzugehen.“ Eine große Studie mit Praxispartnern zeigte, dass die Kasi-Methoden zu einem besseren Klima führten. Sie nahmen aber auch mehr Zeit in Anspruch als das bloße Löschen von Hasskommentaren. „Natürlich braucht man genug Personal dafür“, sagt Heinbach.
Es fehlt an Kapazitäten
Tom Klein koordiniert das Community-Management beim Hessischen Rundfunk und bestätigt die Wirksamkeit von Heinbachs Methoden: „Wir haben Testungen durchgeführt und nicht nur gemerkt, dass die Diskussionen besser geworden sind, sondern auch, dass die Arbeit für unsere Community-Manager*innen viel befriedigender geworden ist.“ Leider fehlten im eng getakteten Arbeitsalltag oft die Kapazitäten. „In der Coronazeit hatten wir manchmal Postings mit 10.000 und mehr Kommentaren. Da kann man nur noch das Schlimmste verhindern, aber keinen sachgerechten Diskurs mehr führen.“
Rechtlich ist es aber nicht ganz einfach, Kommentare zu löschen oder Nutzer*innen zu blockieren. Schnell hagelt es Vorwürfe: Der ÖRR betreibe „Propaganda“, erhebe „Zwangsgebühren“ und betreibe Zensur. Auch dem bereits erwähnten Urteil des Bundesverwaltungsgerichts ging die Klage eines Nutzers voraus. Das Gericht urteilte, dass die Löschung von Kommentaren auf der Facebookseite des MDR zwar weitgehend rechtens war, gab dem User aber in einem Fall recht. Ein Eintrag hätte nicht gelöscht werden dürfen.
Der Kläger hatte zu einem Beitrag über eine Razzia bei der verbotenen rechten Vereinigung „Blood & Honour“ gefragt, „ob man dabei den Attentäter von Straßburg finden wird“. Der MDR löschte, weil der Anschlag islamistisch motiviert war, die Razzia aber Neonazis traf. Hier sah das Gericht die fehlende Themenbezogenheit zu eng gefasst.
„Meinungsfreiheit heißt nicht, dass jeder alles überall sagen kann“, sagt Tom Klein. „Wir haben als Redaktionen ein Hausrecht.“ Der ÖRR kann davon Gebrauch machen, wenn Kommentare vom Thema abweichen. Private Medienhäuser haben beim Löschen recht freie Hand, doch der ÖRR muss ein breites Meinungsspektrum akzeptieren. Bei Beleidigungen, strafrechtlich relevanten Äußerungen, Gewaltandrohungen oder Volksverhetzung ist aber Schluss.
Es schlägt auf die Psyche
Täglich mit Hatespeech umzugehen kann auf die Psyche schlagen. Auch Melissa war wegen ihres Jobs bereits in therapeutischer Behandlung. Bei ihrem vorherigen Arbeitgeber war sie während Corona mehrere Wochen krankgeschrieben, weil der Druck zu groß wurde.
„Community-Manager*innen fragen sich häufig, wer hinter dem Hass steckt, in welche Richtung der Diskurs geht. Sie fragen sich: Ist das wirklich das Abbild unserer Gesellschaft?“ sagt Judith Strieder, Psychologin bei HateAid, einer Organisation, die sich für Betroffene von digitaler Gewalt einsetzt und für Community-Manager*innen. Einige ihrer Klient*innen entwickelten psychische Leiden aufgrund ihrer Arbeit, wie Konzentrationsschwierigkeiten, Schlafstörungen oder depressive Verstimmungen. „Das ist eine Arbeit, bei der man gut auf sich aufpassen muss“, sagt Strieder.
Besonders schwierig seien Themen, von denen Moderator*innen selbst betroffen sind, etwa geschlechtsspezifische Gewalt oder Rassismus. Vor allem Täter*innen aus dem rechten Spektrum nutzten das Internet strategisch, um politische Gegner*innen mundtot zu machen. So waren laut Bundeskriminalamt im Jahr 2019 ganze 73 Prozent aller strafbaren Hasspostings rechts motiviert. „Es ist wichtig, die Menschen darüber aufzuklären, dass Menschen, die digitale Gewalt verbreiten, nur eine kleine, aber sehr laute Minderheit sind“, sagt Strieder.
KI könnte helfen
Tatsächlich beteiligen sich nur wenige Menschen aktiv an Onlinediskussionen, während viele unbeteiligt mitlesen. Laut einer Studie von ARD und ZDF schrieben 2020 lediglich 10 Prozent der User*innen gelegentlich Kommentare auf Facebook und Instagram. Die Zahl der sogenannten „Heavy User“ ist noch deutlich geringer.
Um den Moderator*innen ihre Arbeit zu erleichtern, sieht Dominique Heinbach in der Zukunft Potenzial bei automatisierten KI-gestützten Modellen, die etwa Kommentare anhand von Reizwörtern und Sprachmustern filtern. Diese würden immer besser und seien zumindest bei eindeutigen Verstößen eine willkommene Unterstützung. Bis die KI jedoch wirklich zuverlässig funktioniere, werde es noch dauern. Bis dahin sei es wichtig, dass Community-Management auch in den Redaktionen weiter als journalistische Arbeit anerkannt und im redaktionellen Prozess mitgedacht wird, sagt Heinbach. Das sieht auch Melissa so: „Viele Institutionen geben das CM an unterbezahlte Studis oder Praktikant*innen weiter, die dann mit Anfang 20 Burnout haben.“ Das müsse sich ändern. „Es muss als richtiger Beruf wahrgenommen werden und dafür muss man auch Geld in die Hand nehmen.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Utøya-Attentäter vor Gericht
Breivik beantragt Entlassung
Böllerverbot für Mensch und Tier
Verbände gegen KrachZischBumm
Pistorius lässt Scholz den Vortritt
Der beschädigte Kandidat
Warnung vor „bestimmten Quartieren“
Eine alarmistische Debatte in Berlin
Umgang mit der AfD
Sollen wir AfD-Stimmen im Blatt wiedergeben?
+++ Nachrichten im Ukraine-Krieg +++
Scholz bezeichnet russischen Raketeneinsatz als „furchtbare Eskalation“