die steile these
: Soziale Medienwie
TwitterunterlaufendieGewaltenteilung

Von Jorinde Schulz
und Rainer Mühlhoff

Anfang Mai teilte die Initiative „Deutsche Wohnen und Co. enteignen“ auf Twitter ein Foto, das ein manipuliertes SPD-Wahlplakat im Berliner Straßenland zeigte. Es handelte sich um einen offensichtlich satirischen Kommentar auf die SPD-Wohnungspolitik: Unter dem Wahlslogan „Berlin bleibt bezahlbar“ war der ursprüngliche Text mit „Hahahahahaha. War nur Spaß! Anzug und Immobilienwirtschaft stehen uns besser als Latzhose und sozialer Wohnungsbau“ ersetzt worden. Auch der Hashtag #dwenteignen war auf dem manipulierten Plakat angeführt und verwies auf die Urheber*innen des Eingriffs.

Twitter sperrte prompt den Account der Initiative. „Du darfst keine Inhalte veröffentlichen, in denen falsche Informationen zu Wahlen oder zur Wahlregistrierung bereitgestellt werden“, so die Begründung. Die gleiche Verwarnung bekam wenige Tage zuvor die Berliner SPD-Staatssekretärin Sawsan Chebli. Sie hatte auf eine von der AfD und rechten Medien verbreitete Falschmeldung reagiert, Mohammed sei 2018 der beliebteste Vorname bei Neugeborenen in Berlin gewesen. Als Antwort auf die damit verbundene Hetzkampagne gegen eine vermeintliche Islamisierung Deutschlands hatte Chebli eigene Familienmitglieder mit dem Namen „Mohammed“ aufgelistet und hinzugefügt: „Wir werden schon dafür sorgen, dass dieser Name nie verschwindet!“.

Seither mehren sich die Vorfälle. Ein weiterer SPDler, Sven Kohlhuber, wurde aufgrund eines AfD-kritischen Tweets gesperrt. Dasselbe passierte der Jüdischen Allgemeinen. Dass die Sperrungen eine beunruhigende Systematik aufweisen, lassen von User*innen initiierte Sammlungen unter dem Hashtag #twittersperrt vermuten: Ein AfD-freundlicher Meldemob scheint gezielt die Beiträge politischer Gegner*innen für Verstöße gegen Twitters Richtlinien zu melden – und damit Erfolg zu haben. Die Verfahren, die Twitter zur Beurteilung manipulativer Inhalte verwendet, sind offenbar selbst hochgradig manipulations- und fehleranfällig. Auch die Vorladung des Konzerns in den Digitalausschuss des Bundestages am Mittwoch konnte diesen Eindruck nicht widerlegen. Nur in zwei Punkten hat er Gewissheit gebracht: Twitter erklärte, Satire gezielt zu sperren, und gab auch bekannt, dass in Deutschland aktuell zehnmal mehr Beiträge gelöscht werden würden als in anderen europäischen Ländern.

Warum zensiert Twitter überhaupt? Seit den US-Präsidentschaftswahlen im Jahr 2016 stehen soziale Medien unter großem öffentlichen Druck, die Verbreitung von Fake News im Zusammenhang mit politischen Wahlen zu unterbinden. Die Vorwürfe trafen zunächst Facebook, haben mittlerweile aber zu einer grundsätzlichen Debatte über die Regulierung großer Internetkonzerne geführt. Verschiedene Einzelmaßnahmen in dieser Richtung wurden bereits beschlossen. So führte 2014 ein Urteil des Europäischen Gerichtshofs in einem Prozess gegen Google zur Einführung eines „Rechts auf Vergessenwerden“, welches der Plattform die Löschung einzelner Suchresultate auferlegt, wenn diese gegen Persönlichkeitsrechte verstoßen. 2017 wurde in Deutschland das umstrittene Netzwerkdurchsetzungsgesetz beschlossen, welches Plattformbetreiber zur wirksamen Bekämpfung von strafbaren Inhalten wie Hasskommentaren und Fehlinformation verpflichten möchte und den Konzernen mit hohen Bußgeldern droht. Im März 2019 beschloss das EU-Parlament die ebenfalls kontroverse Copyright-Reform, welche Plattformen dazu verpflichtet, alle Nutzer*innen-Beiträge auf Verstöße gegen Copyright-Verletzungen zu filtern.

Nach geheimen Kriterien

Tatsächlich ist eine behutsame Regulierung großer IT-Konzerne dringend nötig. Doch alle bisher ergriffenen Maßnahmen haben einen gravierenden Konstruktionsfehler gemeinsam: Sie delegieren die Entscheidungsgewalt über die Frage, ob ein Inhalt geltendes Recht verletzt oder falsche Informationen enthält, an die Plattformen selbst. Nicht eine öffentliche Stelle und transparente Abläufe, sondern automatische Computersysteme und Content-Moderator*innen treffen nach geheimen Kriterien diese Entscheidungen – ohne öffentliche Rechenschaftspflicht. Bei komplexen politischen Debatten wie der Entlarvung von Fake News ist jedoch die Frage, ob ein Beitrag eine simple Meinungsäußerung, Satire oder Manipulation ist, nicht nur extrem sensibel, sondern selbst mitunter eine politische Fragestellung. Darüber entscheiden dann Conten-Moderator*innen, die höchstwahrscheinlich juristische Laien sind, wenige Sekunden Zeit zur Beurteilung eines einzelnen Beitrags haben und überdies – wie im Digitalausschuss am Mittwoch bekannt wurde – in der Regel nicht in Deutschland sitzen.

Die Entscheidungsverfahren, die von Tech-Plattformen aktuell eingesetzt werden, sind trotz der Verschaltung von künstlicher Intelligenz, Nutzer*innen-Meldungen und Content Moderation extrem fehler- und manipulationsanfällig. Der springende Punkt ist jedoch: Der Ärger über problematische Sperrungen ist falsch kanalisiert, wenn er nur in Forderungen nach besseren Filtermechanismen übersetzt wird. Denn die Fehleranfälligkeit ist keine momentane Unzulänglichkeit, sondern ein inhärentes Problem: Filterverfahren werden bei komplexen Debatten und „heiklen Themen“ stets mit Unsicherheit entscheiden. In einer Situation des wachsenden öffentlichen Drucks und drohender Bußgelder sind die Plattformen dazu gezwungen, auf Nummer sicher zu gehen und im Zweifelsfall einen unklaren Inhalt einfach zu löschen.

Es wäre somit keine Lösung des Problems, wenn Twitter seine Filtertechniken und Prüfmechanismen verbessern würde, wie es viele Stimmen jetzt fordern. Denn egal, wie „perfekt“ diese Verfahren sind, das eigentliche Problem besteht darin, dass hier die demokratische Gewaltenteilung unterlaufen wird: Die Plattform legt selbst die Regeln und Kriterien darüber fest, was ein valider Debattenbeitrag ist. Zugleich urteilt sie über Verletzungen der Regeln und setzt entsprechende Sanktionen durch. Jede Regulierungsmaßnahme, die Gesetze schafft, deren Durchsetzung dann an die Plattformen selbst delegiert wird, verschärft das Problem der Intransparenz und Abhängigkeit von ihnen. Mit einem solchen „Outsourcing“ der Rechtsdurchsetzung an private Akteure sägt der Rechtsstaat am eigenen Ast.

Twitter, Facebook & Co. haben längst die Funktion einer öffentlichen Kommunikationsinfrastruktur. Deshalb ist es auch die Aufgabe der Öffentlichkeit, das geltende Recht in digitalen Räumen durchzusetzen. Eine progressive Lösung zur effektiven Regulierung von Social-Media-Plattformen wäre deshalb die Einrichtung einer transparent operierenden, unabhängigen, demokratisch kontrollierten Stelle, die für den digitalen Raum solche Entscheidungen trifft.

Dagegen haben die bisherigen Regulierungsmaßnahmen den Plattformen im Effekt mehr Macht zugespielt, anstatt ihre schädlichen Wirkungen zu begrenzen. Denn sie laufen darauf hinaus, ein privates „Hausrecht“ der Plattformbetreiber zu stärken mit „Türstehern“, die den Zutritt zu diesen eigentlich öffentlichen Räumen nach unklarem Prinzip begrenzen. Um dem entgegenzuwirken, müsste für soziale Medien eine Rechtskategorie „öffentliche digitale Infrastruktur“ eingeführt werden, die bewirkt, dass dort rechtsstaatliche, transparente und demokratisch kontrollierbare Verfahren der Streitschlichtung angewandt werden – im Kampf gegen Hetze, Hass und Beleidigung sowie gegen Fake News und Manipulation. Das würde die sozialen Medien weder verstaatlichen noch enteignen. Aber das, was dort erlaubt und verboten ist, würde in die Verantwortung der Allgemeinheit fallen. Andernfalls übereignen wir Unternehmen die Kontrolle über das Herzstück der Demokratie – die politische Meinungsbildung in einem pluralen, dissensfähigen Diskurs.

Jorinde Schulz ist Philosophin, Politikwissenschaftlerin und Autorin

Rainer Mühlhoff forscht an der Freien Universität Berlin zu Emotionen in der Politik und zur digitalen Gesellschaft