piwik no script img

Community-ManagementFür Respekt in der Kommentar-Spalte

Community-Ma­na­ge­r*in­nen sollen Kommentare auf den Seiten der Öffentlich-Rechtlichen regulieren. Doch der raue Ton geht vielen an die Substanz.

Wie Community-Ma­na­ge­r*in­nen täglich mit Hatespeech umzugehen kann auf die Psyche schlagen Foto: Pablo Blasberg/imago

Islamistengesocks, unzivilisierte Halbwilde“, schreibt der User, dessen Profilbild einen Mann mit adrettem Haarschnitt und Anzug zeigt. Doch das ist nicht er selbst – sondern der Bösewicht aus einer TV-Serie. Das Profil ist Fake, der Nutzer ein Troll, der vorsätzlich im Internet Unruhe stiftet.

Im Jahr 2022 erhielt allein das ZDF nach eigenen Angaben über 12 Millionen Kommentare auf seinen Social-Media-Kanälen. Die meisten sind harmlos. Einige wie der obige, enthalten Hass, Beleidigungen und Drohungen. Um einen respektvollen Austausch zu ermöglichen, beschäftigen viele Rundfunkanstalten daher Community-Ma­na­ge­r*in­nen wie Melissa.

Melissa arbeitet beim Deutschlandfunk (DLF) und heißt eigentlich anders. Ihren echten Namen möchte sie lieber nicht in der Zeitung lesen, auch weil sie befürchtet, dass Use­r*in­nen sie kontaktieren könnten. Melissa löscht Hasskommentare auf Facebook, leitet Diskussionen auf Instagram und Twitter, beantwortet Fragen in den Foren des Senders. Im Fachjargon nennt sich das Moderation. Zu dieser ist der ÖRR laut einem Urteil des Bundesverwaltungsgerichts vom November 2022 nicht nur berechtigt, sondern teilweise sogar verpflichtet, um EU-Wettbewerbsrichtlinien zu erfüllen. Die Menschen, die sich darum kümmern, brauchen starke Nerven.

„Ich lese ungefähr 1.000 Kommentare am Tag, davon sind etwa 10 Prozent problematisch und noch mal 20 Prozent Spam, viele Sex-Bots und Finanz-Coaches“, erzählt Melissa. „Mit das Übelste, was ich bisher gelesen habe, war eine sehr plastische Beschreibung davon, wie jemand einen Klima-Kleber töten wollte.“

Wenig sichtbar

Community-Management ist ein wenig sichtbares Arbeitsfeld in Deutschland, obwohl es inzwischen in fast jedem größeren Unternehmen zu finden ist, besonders in der Medienbranche. Wie viele Community-Ma­na­ge­r*in­nen es genau in Deutschland gibt ist schwer zu sagen. Das Berufsbild ist nicht geschützt und eine Erfassung daher schwer möglich. Mit 38 ­Jahren gehört Melissa zu den Äl­teren in der Branche. Viele der Community-Manager*innen, mit denen die taz für diesen Text sprach, studieren noch, verdienen sich mit dem Job etwas dazu. Für Melissa aber ist es ihre Haupttätigkeit.

Ein Ziel der Moderation ist, dass die Community die sogenannte Netiquette einhält. Diese hauseigenen Verhaltensregeln gehen bei den Formaten des ÖRR meist über die Guide­lines von Facebook & Co hinaus. So kann die Netiquette z. B. vorschreiben, dass Kommentare sachbezogen, konstruktiv und respektvoll sein sollen. Leider gelingt das nicht immer.

„Moderation hat definitiv einen Effekt. Aus Studien wissen wir, dass allein die Präsenz von Moderation dazu führt, dass Nut­ze­r*in­nen lieber an Diskussionen teilnehmen“, sagt die Kommunikationswissenschaftlerin Dominique Heinbach. Sie forscht an der Uni Mainz zu Moderation und Community-Management und hat mit Prof. Dr. Marc Ziegele (Uni Düsseldorf) in Kooperation mit der Landesanstalt für Medien NRW das sogenannte Kasi-Prinzip entwickelt. Dieses enthält verschiedene Modera­tionsstile, den kognitiven (K), affektiven (A) und den sozial-integrativen Stil (SI). Sie konzertieren sich auf die Bestärkung positiver, konstruktiver und bereichernder Kommentare. Dabei soll auf Gefühle der Menschen eingegangen, positive Rückfragen gestellt und die Interaktion untereinander gefördert werden.

„Häufig liegt in der öffentlichen Debatte und in Redaktionen ein großer Fokus auf dem Eindämmen von Hatespeech und Inzivilität, also von unerwünschten Beiträgen. Wir haben versucht, das Ganze andersrum anzugehen.“ Eine große Studie mit Praxispartnern zeigte, dass die Kasi-Methoden zu einem besseren Klima führten. Sie nahmen aber auch mehr Zeit in Anspruch als das bloße Löschen von Hasskommentaren. „Natürlich braucht man genug Personal dafür“, sagt Heinbach.

Es fehlt an Kapazitäten

Tom Klein koordiniert das Community-Management beim Hessischen Rundfunk und bestätigt die Wirksamkeit von Heinbachs Methoden: „Wir haben Testungen durchgeführt und nicht nur gemerkt, dass die Diskussionen besser geworden sind, sondern auch, dass die Arbeit für unsere Community-Ma­na­ge­r*in­nen viel befriedigender geworden ist.“ Leider fehlten im eng getakteten Arbeitsalltag oft die Kapazitäten. „In der Coronazeit hatten wir manchmal Postings mit 10.000 und mehr Kommentaren. Da kann man nur noch das Schlimmste verhindern, aber keinen sachgerechten Diskurs mehr führen.“

Rechtlich ist es aber nicht ganz einfach, Kommentare zu löschen oder Nut­ze­r*in­nen zu blockieren. Schnell hagelt es Vorwürfe: Der ÖRR betreibe „Propaganda“, erhebe „Zwangsgebühren“ und betreibe Zensur. Auch dem bereits erwähnten Urteil des Bundesverwaltungsgerichts ging die Klage eines Nutzers voraus. Das Gericht urteilte, dass die Löschung von Kommentaren auf der Facebookseite des MDR zwar weitgehend rechtens war, gab dem User aber in einem Fall recht. Ein Eintrag hätte nicht gelöscht werden dürfen.

Der Kläger hatte zu einem Beitrag über eine Razzia bei der verbotenen rechten Vereinigung „Blood & Honour“ gefragt, „ob man dabei den Attentäter von Straßburg finden wird“. Der MDR löschte, weil der Anschlag islamistisch motiviert war, die Razzia aber Neonazis traf. Hier sah das Gericht die fehlende Themenbezogenheit zu eng gefasst.

„Meinungsfreiheit heißt nicht, dass jeder alles überall sagen kann“, sagt Tom Klein. „Wir haben als Redaktionen ein Hausrecht.“ Der ÖRR kann davon Gebrauch machen, wenn Kommentare vom Thema abweichen. Private Medienhäuser haben beim Löschen recht freie Hand, doch der ÖRR muss ein breites Meinungsspektrum akzeptieren. Bei Beleidigungen, strafrechtlich relevanten Äußerungen, Gewaltandrohungen oder Volksverhetzung ist aber Schluss.

Es schlägt auf die Psyche

Täglich mit Hatespeech umzugehen kann auf die Psyche schlagen. Auch Melissa war wegen ihres Jobs bereits in therapeutischer Behandlung. Bei ihrem vorherigen Arbeitgeber war sie während Corona mehrere Wochen krankgeschrieben, weil der Druck zu groß wurde.

„Community-­Ma­na­ge­r*in­nen fragen sich häufig, wer hinter dem Hass steckt, in welche Richtung der Diskurs geht. Sie fragen sich: Ist das wirklich das Abbild unserer Gesellschaft?“ sagt Judith Strieder, Psychologin bei HateAid, einer Organisation, die sich für Betroffene von digitaler Gewalt einsetzt und für Community-Manager*innen. Einige ihrer Kli­en­t*in­nen entwickelten psychische Leiden aufgrund ihrer Arbeit, wie Konzentrationsschwierigkeiten, Schlafstörungen oder depressive Verstimmungen. „Das ist eine Arbeit, bei der man gut auf sich aufpassen muss“, sagt Strieder.

Besonders schwierig seien Themen, von denen Mo­de­ra­to­r*in­nen selbst betroffen sind, etwa geschlechtsspezifische Gewalt oder Rassismus. Vor allem Tä­te­r*in­nen aus dem rechten Spektrum nutzten das Internet strategisch, um politische Geg­ne­r*in­nen mundtot zu machen. So waren laut Bundeskriminalamt im Jahr 2019 ganze 73 Prozent aller strafbaren Hasspostings rechts motiviert. „Es ist wichtig, die Menschen darüber aufzuklären, dass Menschen, die digitale Gewalt verbreiten, nur eine kleine, aber sehr laute Minderheit sind“, sagt Strieder.

KI könnte helfen

Tatsächlich beteiligen sich nur wenige Menschen aktiv an Onlinediskussionen, während viele unbeteiligt mitlesen. Laut einer Studie von ARD und ZDF schrieben 2020 lediglich 10 Prozent der Use­r*in­nen gelegentlich Kommentare auf Facebook und Instagram. Die Zahl der sogenannten „Heavy User“ ist noch deutlich geringer.

Um den Mo­de­ra­to­r*in­nen ihre Arbeit zu erleichtern, sieht Dominique Heinbach in der Zukunft Potenzial bei automatisierten KI-gestützten Modellen, die etwa Kommentare anhand von Reizwörtern und Sprachmustern filtern. Diese würden immer besser und seien zumindest bei eindeutigen Verstößen eine willkommene Unterstützung. Bis die KI jedoch wirklich zuverlässig funktioniere, werde es noch dauern. Bis dahin sei es wichtig, dass Community-Management auch in den Redaktionen weiter als journalistische Arbeit anerkannt und im redaktionellen Prozess mitgedacht wird, sagt Heinbach. Das sieht auch Melissa so: „Viele Institutionen geben das CM an unterbezahlte Studis oder Prak­ti­kan­t*in­nen weiter, die dann mit Anfang 20 Burnout haben.“ Das müsse sich ändern. „Es muss als richtiger Beruf wahrgenommen werden und dafür muss man auch Geld in die Hand nehmen.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • Ich bin selbst Mitbetreiber eines politischen Forums. Aber solche Probleme gibt es bei uns nicht. Die Moderatoren sind hauptsächlich damit beschäftigt, einzelne Diskussionen beim Thema zu halten und wo nötig neue Themen zu eröffnen.

    Warum klappt das? Jeder Teilnehmer wird identifiziert. Jeder kann mit Pseudonym teilnehmen, aber hinter jeden Pseyudonym steht eine identifizierte Person. D.h. jeder ist für seine Beiträge haftbar. Das wirkt Wunder.



    Und wer Hasskommentare postet fliegt raus. Ist bisher aber noch nicht vorgekommen.

  • Ich hätte Verständnis dafür, wenn sich viele aus den "sozialen" Medien einfach zurückziehen würden. Dann bliebe das Gepöbel am physischen "Stammtisch" und wäre ab 2m Entfernung nicht mehr wahrnehmbar. Für mich ist die einst löbliche Idee "Jeder soll publizieren dürfen" jämmerlich am fehlenden Benehmen der Beteiligten gescheitert.

  • Hier sei ein Dank an die taz-Moderation ausgesprochen.

    Ich weiss, dass ich mich gelegentlich von meiner Wut hinreissen lasse. Zuweilen bleibt etwas von mir bei der Moderation "hängen", nicht selten auch noch mit Feedback.

    Für den Stress, den das verursacht, möchte ich mich entschuldigen.