Der Twitterweltkrieg: Empörend! Schändlich! Skandalös!

Warum ist so viel Aggression in der vernetzten Welt? Das Problem sind nicht die „Filterblasen“, sagt Bernhard Pörksen.

Foto: dpa

Von BERNHARD PÖRKSEN

Warum gibt es so viel Empörung, so viel enthemmte Aggression in der vernetzten Welt? Was ist die Tiefenursache der großen Gereiztheit? Was treibt die Menschen auseinander? Im Jahre 2011 erscheint ein Buch, das, vermeintlich zumindest, eine Erklärung liefert und fortan die Debatte dominiert. Geschrieben hat es der Netzaktivist Eli Pariser. Es trägt den Titel The Filter Bubble und ist ein Werk mit Weltwirkung. Hier wird auf wunderbar einfache Weise erläutert, warum die Gesellschaft auseinanderdriftet und sich unterschiedliche Realitätsinseln ohne wechselseitige Berührung herausbilden.

Eli Parisers Grundthese lautet: Die Filterblasen sind schuld. Und diese wiederum sind das Resultat verborgener algorithmischer Sortierspiele, die uns voneinander trennen und in einen Tunnel der Selbstbestätigung hineinlocken. Der Begriff selbst ist bald in aller Munde. Längst findet man ihn im Duden. Kaum eine Netztagung, bei der nicht sorgenvoll von der unheimlichen Hintergrundmacht der Algorithmen die Rede wäre. Und wann immer Kommunikationsschwierigkeiten auftauchen, sich gesellschaftliche Spannungen zeigen und vom Ende des gesellschaftlichen Zusammenhalts gesprochen wird, heißt es irgendwann gewiss: Wir müssen raus aus unserer Filterblase. Wir müssen, um Eli Pariser zu zitieren, das System der »unsichtbaren Autopropaganda, die uns mit unseren eigenen Vorstellungen indoktriniert«, verlassen. Wir müssen ausbrechen aus »einer statischen, immer enger werdenden Ich-Welt«, die uns bei Google, bei Facebook und auf den anderen Plattformen immer nur genau das zeigt, was uns gefällt und was unsere schon vorgefassten Ansichten bestätigt.

Dies ist eine ziemlich finstere Interpretation der Netzrealität, ein Denkbild der Düsternis. Aber es besitzt doch eine paradoxe Attraktivität. Immerhin gibt es jetzt simple Erklärungen und exakte technische Lösungen, um die Milieus des exklusiven Irrsinns aufzubrechen. Endlich lässt sich die große Gereiztheit der vernetzten Welt und die Radikalisierungs-Drift von Verschwörungsmythologen und Attila-Hildmann-Fans durch eine Sammlung von ein paar Standardsätzen begründen, die da heißen: Die verblendeten Anderen hocken leider in ihrer Filterblase. Sie putschen sich hier, von Algorithmen radikalisiert und manipuliert, kollektiv auf und transformieren in einem fortwährenden Feedbackloop den privaten Wahn in die gefühlte Wahrheit. Endlich kann man von faktischer sozialer Segregation abstrahieren und notwendige Bildungsprozesse im Zweifel als eine Frage des Softwaredesigns behandeln.

Filterblasen zum Platzen bringen

Ganz in diesem Sinne haben Programmierer und Diskursinitiativen überall auf der Welt darüber nachgedacht, wie man Algorithmen so programmiert, dass unsere Informationsblasen fortan durch Zufallsblitze und Überraschungen zum Platzen gebracht werden. Dies soll helfen auf dem Weg zu einer besser gelingenden Verständigung gerade noch verfeindeter Gruppen, die einander zuerst in ihrer Unterschiedlichkeit erkennen, um dann in einem nächsten Schritt zu neuer Toleranz zu finden. Soweit die Annahme, soweit die Theorie.

Das kleine, große Problem all dieser Überlegungen ist jedoch: Die Filterblasen-Idee hat sich, noch weitgehend unbemerkt von der Öffentlichkeit, längst als Mythos entpuppt. Und dies gleich aus mehreren Gründen. Zum einen zeigen zahlreiche Studien, dass das Informationsuniversum des Menschen unter vernetzten Bedingungen nicht eintöniger wird, sondern vielfältiger, heterogener. Jeder kann dies leicht prüfen und durch ein paar Klicks in ein Multiversum der Wirklichkeit eintauchen, von den Seiten des RKI zu den Netzportalen der Coronaleugner oder den Facebook-Gruppen der Impfgegner und zurück zu der Website des Kanzleramtsministers Helge Braun springen. All dies ist blitzschnell möglich, denn das Wesen des Netzes ist die Verlinkung. Und das heißt: Gerade noch entfernte, weltanschaulich radikal unterschiedliche Welten sind sich plötzlich ganz nah.

Zum anderen ist die sogenannte Filterblase immer auch Resultat der allgemeinen Bestätigungssehnsucht des Menschen (»confirmation bias«). Wir googeln uns – mal bewusst, mal unbewusst, mal halb bewusst – in unsere Wunschwirklichkeiten hinein, wählen die Quellen, die unsere schon vorgefassten Ansichten bestätigen. Wir müssen also, so lautet die Konsequenz, vom Menschen sprechen. Und nicht von Maschinen. Denn es sind unsere eigenen Motive und nicht algorithmische Manipulationen, die hier wirken. Und manche rufen sich dann in ihren selbst konstruierten Wahrnehmungswelten und bei großzügiger Verwendung von Ausrufezeichen zu: »Impfen erzeugt Autismus!«, »Journalisten lügen!!«, »Den menschengemachten Klimawandel gibt es gar nicht!!!«

Permanente Konfrontation

Die sogenannte Filterblase ist, so lautet der zentrale Befund aktueller Forschung, Ausdruck unserer Vorlieben, unserer Intentionen und Faszinationen. Sie ist ein Indikator unseres Informationsverhaltens. Es handelt sich im Zweifel um eine Echokammer der Marke Eigenbau, deren Konstruktion hintergründig nur schwach durch Empfehlungsalgorithmen mitgeprägt wird, wie die entsprechenden Studien belegen.

Fakt ist auch, dass die Sphären des exklusiven Irrsinns unter vernetzten Bedingungen nicht isoliert, sondern in permanenter Reibung existieren. Wir wissen, ganz gleich, ob wir in den entsprechenden Telegram-Gruppen Mitglied sind, was ein Xavier Naidoo in die Welt pustet und können seine Verrücktheiten bei Bedarf in YouTube-Videos in einer Endlosschleife anschauen. Wir bekommen über private Kanäle und soziale Netzwerke jede Menge Desinformationsmüll über die vermeintlichen Hintergründe der Pandemie. Und wir sind in den pulsierenden Empörungszyklen und den plötzlich aufschäumenden Hypes konstant mit Banalem, Berührendem und Bestialischem konfrontiert.

Das heißt: Das digitale Dorf ist keine Idylle, kein Behaglichkeitskosmos, kein Rückzugsort. Hier regiert nicht die informationelle Monotonie und die beschauliche Berechenbarkeit, sondern das Prinzip der Ad-hoc-Konfrontation – über Zeit- und Raumgrenzen hinweg. Kann man so denken, fragen wir uns, wenn wir die Postings mancher Facebook-Freunde lesen oder in unserer Timeline auftaucht, was andere über Geflüchtete und die Existenz von Echsenmenschen zu sagen haben.

Es ist die Gesamtgeistesverfassung der Menschheit, die gerade öffentlich wird. Und wir leiden unter der medial produzierten Transparenz der Differenz und den Schmerzen der Sichtbarkeit, die aus der Reorganisation der Informationskreisläufe resultiert. Noch einmal: Man kann sich mit großer Entschiedenheit für jede noch so abseitige Position seine Belege zusammensuchen, denn das Netz stellt im Grundsatz von der Logik des Senders auf die Logik des Empfängers um. (Das ist die positive Filtersouveränität im Sinne des Netztheoretikers Michael Seemann). Aber man kann unter den Bedingungen vernetzter Kommunikation nicht nicht registrieren, was andere sagen und meinen. (Negative Filtersouveränität im Sinne der Totalausblendung des Unerwünschten existiert nicht.)

Empathietraining statt Filterclash

Eben dies ist, so meine These, die Tiefenursache für die untergründige Nervosität ganzer Gesellschaften und den Taumel der großen Gereiztheit. Wir sehen im Zeitalter kollabierender Kontexte zu viel, nicht zu wenig. Und Vernetzung verstört. Sie bedingt das permanente Aufeinanderprallen von Parallelöffentlichkeiten, das ich als Filterclash bezeichnen will.

Wie verhindert man in einer solchen Situation die weitere Verhärtung der Fronten? Kann dies überhaupt gelingen? Und wie ließe sich eine Sprache der Mäßigung und der Abkühlung trainieren? Die Filterblasenidee legt nahe, dass man den Clash der Weltanschauungen algorithmisch fördern sollte, um Menschen auf dem Weg zur gelebten Toleranz zunächst massiv zu irritieren. Genau das kann jedoch der falsche Weg sein, wie eine Studie aus dem Jahre 2018 illustriert. Hier hat man US-Republikaner und Demokraten über Monate hinweg auf ihrem Twitter-Kanal mit anderen Ansichten konfrontiert, sie dafür bezahlt, einem Bot zu folgen, der ihnen regelmäßig die Ansichten der »anderen Seite« zuspielte. Die Leitfrage: Reduziert die Tatsache, dass man liest, was andere meinen, automatisch die Polarisierung? Das Ergebnis: Keine Seite wurde gemäßigter, im Gegenteil. Vielmehr nahm die Verhärtung der Standpunkte zu, und zwar in asymmetrischer Weise deutlich stärker aufseiten der Republikaner – ein Beleg für die Macht des ideologischen Denkens, das sich eben nicht einfach schon deshalb ändert, weil man noch mehr andere Positionen und jetzt eben auch die Tweets von LGBTQ-Aktivistinnen und -Aktivisten sieht.

Die Filterclash-Idee, die ich hier vorschlage, macht deutlich, dass eine derart pauschale Kontakt- und Konfrontationstherapie das eigentliche Problem nur verschärft: Denn Menschen sehen unter den gegenwärtigen Kommunikationsbedingungen nicht zu wenig, sondern zu viel Andersartigkeit. Was also tun? Und wie miteinander reden? Vermutlich bräuchte es auf dem Weg zu einem respektvolleren Diskurs ein Empathietraining anderer Art. Es bräuchte Zeit. Und Behutsamkeit. Und direkte, unmittelbare, positive Begegnungen sowie die Gelegenheit zur Kooperation – abseits der Schnell-schnell-Reaktionen und des kommentierenden Sofortismus.

Und es bräuchte, gerade und besonders unter vernetzten Bedingungen, eine Zukunftstugend der Kommunikation, die man die respektvolle Konfrontation nennen könnte. Das hieße: Sich nicht wegducken. Sich nicht ausweichen. Sagen, was zu sagen ist. Aber dies eben ohne unnötige Attacken und auf eine Weise, die das ohnehin schon überhitzte Kommunikationsklima nicht noch weiter ruiniert.

BERNHARD PÖRKSEN ist Professor für Medienwissenschaft an der Universität Tübingen. In seinen letzten Büchern (Die große Gereiztheit und Die Kunst des Miteinander-Redens, gemeinsam mit dem Kommunikationspsychologen Friedemann Schulz von Thun) führt er die hier entfalteten Ideen weiter aus.