piwik no script img

Kommentar Sperrungen bei TwitterTwitter unterläuft die Gewaltenteilung

Das soziale Netzwerk sperrte jüngst viele Konten. Die fehleranfälligen Verfahren sind ein schon länger bestehendes Problem.

Der Twitter-Vogel sieht so süß aus. Das täuscht Foto: dpa

A nfang Mai teilte die Initiative „Deutsche Wohnen und Co. enteignen“ auf Twitter ein Foto, das ein manipuliertes SPD-Wahlplakat im Berliner Straßenland zeigte. Es handelte sich um einen offensichtlich satirischen Kommentar auf die SPD-Wohnungspolitik: Unter dem Wahlslogan „Berlin bleibt bezahlbar“ war der ursprüngliche Text mit „Hahahahahaha. War nur Spaß! Anzug und Immobilienwirtschaft stehen uns besser als Latzhose und sozialer Wohnungsbau“ ersetzt worden. Auch der Hashtag #dwenteignen war auf dem manipulierten Plakat angeführt und verwies auf die Urheber*innen des Eingriffs.

Twitter sperrte prompt den Account der Initiative. „Du darfst keine Inhalte veröffentlichen, in denen falsche Informationen zu Wahlen oder zur Wahlregistrierung bereitgestellt werden“, so die Begründung. Die gleiche Verwarnung bekam wenige Tage zuvor die Berliner SPD-Staatssekretärin Sawsan Chebli.

Sie hatte auf eine von der AfD und rechten Medien verbreitete Falschmeldung reagiert, Mohammed sei 2018 der beliebteste Vorname bei Neugeborenen in Berlin gewesen. Als Antwort auf die damit verbundene Hetzkampagne gegen eine vermeintliche Islamisierung Deutschlands hatte Chebli eigene Familienmitglieder mit dem Namen „Mohammed“ aufgelistet und hinzugefügt: „Wir werden schon dafür sorgen, dass dieser Name nie verschwindet!“.

Seither mehren sich die Vorfälle. Ein weiterer SPDler, Sven Kohlhuber, wurde aufgrund eines AfD-kritischen Tweets gesperrt. Dasselbe passierte der Jüdischen Allgemeinen. Dass die Sperrungen eine beunruhigende Systematik aufweisen, lassen von User*innen initiierte Sammlungen unter dem Hashtag #twittersperrt vermuten: Ein AfD-freundlicher Meldemob scheint gezielt die Beiträge politischer Gegner*innen für Verstöße gegen Twitters Richtlinien zu melden – und damit Erfolg zu haben.

Twitter seit US-Wahl 2016 unter Druck

Die Verfahren, die Twitter zur Beurteilung manipulativer Inhalte verwendet, sind offenbar selbst hochgradig manipulations- und fehleranfällig. Auch die Vorladung des Konzerns in den Digitalausschuss des Bundestages am Mittwoch konnte diesen Eindruck nicht widerlegen. Nur in zwei Punkten hat er Gewissheit gebracht: Twitter erklärte, Satire gezielt zu sperren, und gab auch bekannt, dass in Deutschland aktuell zehnmal mehr Beiträge gelöscht werden würden als in anderen europäischen Ländern.

Warum zensiert Twitter überhaupt? Seit den US-Präsidentschaftswahlen im Jahr 2016 stehen soziale Medien unter großem öffentlichen Druck, die Verbreitung von Fake News im Zusammenhang mit politischen Wahlen zu unterbinden. Die Vorwürfe trafen zunächst Facebook, haben mittlerweile aber zu einer grundsätzlichen Debatte über die Regulierung großer Internetkonzerne geführt.

Verschiedene Einzelmaßnahmen in dieser Richtung wurden bereits beschlossen. So führte 2014 ein Urteil des Europäischen Gerichtshofs in einem Prozess gegen Google zur Einführung eines „Rechts auf Vergessenwerden“, welches der Plattform die Löschung einzelner Suchresultate auferlegt, wenn diese gegen Persönlichkeitsrechte verstoßen.

2017 wurde in Deutschland das umstrittene Netzwerkdurchsetzungsgesetz beschlossen, welches Plattformbetreiber zur wirksamen Bekämpfung von strafbaren Inhalten wie Hasskommentaren und Fehlinformation verpflichten möchte und den Konzernen mit hohen Bußgeldern droht. Im März 2019 beschloss das EU-Parlament die ebenfalls kontroverse Copyright-Reform, welche Plattformen dazu verpflichtet, alle Nutzer*innen-Beiträge auf Verstöße gegen Copyright-Verletzungen zu filtern.

Nach geheimen Kriterien

Tatsächlich ist eine behutsame Regulierung großer IT-Konzerne dringend nötig. Doch alle bisher ergriffenen Maßnahmen haben einen gravierenden Konstruktionsfehler gemeinsam: Sie delegieren die Entscheidungsgewalt über die Frage, ob ein Inhalt geltendes Recht verletzt oder falsche Informationen enthält, an die Plattformen selbst.

Nicht eine öffentliche Stelle und transparente Abläufe, sondern automatische Computersysteme und Content-Moderator*innen treffen nach geheimen Kriterien diese Entscheidungen – ohne öffentliche Rechenschaftspflicht. Bei komplexen politischen Debatten wie der Entlarvung von Fake News ist jedoch die Frage, ob ein Beitrag eine simple Meinungsäußerung, Satire oder Manipulation ist, nicht nur extrem sensibel, sondern selbst mitunter eine politische Fragestellung.

Darüber entscheiden dann Content-Moderator*innen, die höchstwahrscheinlich juristische Laien sind, wenige Sekunden Zeit zur Beurteilung eines einzelnen Beitrags haben und überdies – wie im Digitalausschuss am Mittwoch bekannt wurde – in der Regel nicht in Deutschland sitzen.

Die Entscheidungsverfahren, die von Tech-Plattformen aktuell eingesetzt werden, sind trotz der Verschaltung von künstlicher Intelligenz, Nutzer*innen-Meldungen und Content Moderation extrem fehler- und manipulationsanfällig. Der springende Punkt ist jedoch: Der Ärger über problematische Sperrungen ist falsch kanalisiert, wenn er nur in Forderungen nach besseren Filtermechanismen übersetzt wird.

Demokratische Gewaltenteilung wird unterlaufen

Denn die Fehleranfälligkeit ist keine momentane Unzulänglichkeit, sondern ein inhärentes Problem: Filterverfahren werden bei komplexen Debatten und „heiklen Themen“ stets mit Unsicherheit entscheiden. In einer Situation des wachsenden öffentlichen Drucks und drohender Bußgelder sind die Plattformen dazu gezwungen, auf Nummer sicher zu gehen und im Zweifelsfall einen unklaren Inhalt einfach zu löschen.

Es wäre somit keine Lösung des Problems, wenn Twitter seine Filtertechniken und Prüfmechanismen verbessern würde, wie es viele Stimmen jetzt fordern. Denn egal, wie „perfekt“ diese Verfahren sind, das eigentliche Problem besteht darin, dass hier die demokratische Gewaltenteilung unterlaufen wird: Die Plattform legt selbst die Regeln und Kriterien darüber fest, was ein valider Debattenbeitrag ist.

taz am wochenende

Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im praktischen Wochenendabo. Und bei Facebook und Twitter.

Zugleich urteilt sie über Verletzungen der Regeln und setzt entsprechende Sanktionen durch. Jede Regulierungsmaßnahme, die Gesetze schafft, deren Durchsetzung dann an die Plattformen selbst delegiert wird, verschärft das Problem der Intransparenz und Abhängigkeit von ihnen. Mit einem solchen „Outsourcing“ der Rechtsdurchsetzung an private Akteure sägt der Rechtsstaat am eigenen Ast.

Twitter, Facebook & Co. haben längst die Funktion einer öffentlichen Kommunikationsinfrastruktur. Deshalb ist es auch die Aufgabe der Öffentlichkeit, das geltende Recht in digitalen Räumen durchzusetzen. Eine progressive Lösung zur effektiven Regulierung von Social-Media-Plattformen wäre deshalb die Einrichtung einer transparent operierenden, unabhängigen, demokratisch kontrollierten Stelle, die für den digitalen Raum solche Entscheidungen trifft.

Kampf gegen Hetze, Hass und Beleidigung

Dagegen haben die bisherigen Regulierungsmaßnahmen den Plattformen im Effekt mehr Macht zugespielt, anstatt ihre schädlichen Wirkungen zu begrenzen. Denn sie laufen darauf hinaus, ein privates „Hausrecht“ der Plattformbetreiber zu stärken mit „Türstehern“, die den Zutritt zu diesen eigentlich öffentlichen Räumen nach unklarem Prinzip begrenzen.

Um dem entgegenzuwirken, müsste für soziale Medien eine Rechtskategorie „öffentliche digitale Infrastruktur“ eingeführt werden, die bewirkt, dass dort rechtsstaatliche, transparente und demokratisch kontrollierbare Verfahren der Streitschlichtung angewandt werden – im Kampf gegen Hetze, Hass und Beleidigung sowie gegen Fake News und Manipulation.

Das würde die sozialen Medien weder verstaatlichen noch enteignen. Aber das, was dort erlaubt und verboten ist, würde in die Verantwortung der Allgemeinheit fallen. Andernfalls übereignen wir Unternehmen die Kontrolle über das Herzstück der Demokratie – die politische Meinungsbildung in einem pluralen, dissensfähigen Diskurs.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • Na sowas, wer hätte das gedacht dass Filter nicht besonders funktionieren. Genau deshalb hat man ja Artikel 13/17 auf den Weg gebracht, oder? Weil dann funktioniert sicher alles super...

  • "Ein AfD-freundlicher Meldemob..."

    Hm. Werden linke Gruppen, die sich zum "melden" verabreden auch "Meldemob" genannt?

    Ansonsten stelle ich mir eine länderspezifische, dynamische Filterung von Beiträgen nicht nur rein technisch - äh - recht anspruchsvoll vor.

    Wie soll diese progressive Idee genau umgesetzt werden?

    Soll jedes Land eigenmächtig entscheiden dürfen, welche Beiträge dort angezeigt werden? Oder soll eine deutsche Meldebehörde das gleich weltweit übernehmen?

  • Das Thema ist Gewaltenteilung? Falls es jemand noch nicht bemerkt haben sollte: Die Rechtsextremen haben doch tatsächlich eine Online-Strategie. Und solange man die nicht versteht oder sich ihrer gar erwehrt, werden sie damit Punkte auf ihrem Weg zur kulturellen Hegemonie machen.

    Zum Wehren gehört unter anderem, dass man ihnen seine Reputation und Netz-Infrastruktur nicht kostenlos zur Verfügung stellt, damit sie ihre konstruktiven Diskussionsbeiträge“ hinterlassen können. Mögen sie es Zensur nennen, es ist reine Selbstverteidigung.