Analyst über prorussische Desinformation: „Sowas haben wir noch nie gesehen“
Vor den EU-Wahlen haben Forscher:innen neue Methoden von Desinformation dokumentiert. Der Analyst Saman Nazari erklärt, was man dagegen tun kann.
wochentaz: Herr Nazari, Sie und Ihre Kolleg:innen beobachten die Bedrohung durch Desinformation im Kontext der EU-Wahl. Gerade erst flog eine großangelegte Aktion prorussischer Akteure gegen westliche Faktenchecker:innen auf. Was hat es damit auf sich?
Saman Nazari: Kolleg:innen konnten zeigen, dass prorussische Akteure zwischen August 2023 und Mai 2024 über 800 Faktenchecker:innen und Nachrichtenredaktionen in westlichen Ländern wie Deutschland und Frankreich mit massenhaft gefälschten Anfragen geflutet haben. Dabei wurden auf Plattformen wie Telegram und X zuerst hunderte gefälschte Videos, Fotos und Artikel verbreitet. Die wurden an die Faktenchecker:innen geschickt, verbunden mit der Aufforderung, die Inhalte zu überprüfen. Das Ziel war, diese Organisationen lahmzulegen. So etwas haben wir noch nie gesehen.
ist Open-Source-Intelligence-Analyst und Koordinator des Desinformationsforschungsnetzes ISAC. Sein Schwerpunkt liegt auf der Analyse der chinesischen Informationsmanipulation und -einmischung im Ausland. Er arbeitet mit der Organisation Alliance4Europe an Gegenstrategien und einer engeren europäischen Zusammenarbeit gegen Desinformation.
Es gibt Millionen von Social-Media-Kanälen – wie lassen sich solche Desinformationskampagnen überhaupt identifizieren?
Wir haben uns als Netzwerk aus 30 Organisationen zusammengeschlossen, um gemeinsam gegen die Bedrohung durch Desinformation zu kämpfen. Dazu setzen wir im Wesentlichen auf Software zur Überwachung von sozialen Medien. Solche Tools werden normalerweise von Unternehmen genutzt, um zu verfolgen, wie über ihre Marke gesprochen wird. Wir nutzen Kombinationen aus Suchwörtern, um Social-Media-Posts zu analysieren, die wir für relevant halten.
Welche sind das zum Beispiel?
Beispielsweise Posts, die mit der EU-Klimapolitik zu tun haben. Da suchen wir nach Begriffen wie „EU Green Deal“ oder „CO2-Steuer“, in Verbindung mit negativ aufgeladenen Worten, die man nicht in normalen Publikationen finden würde – beispielsweise „dumm“, „fanatisch“, „ideologisch“, „Schwindel“ oder „gefährlich“. Und da findet sich einiges. Die Herausforderung ist, herauszufinden, welche Posts manipuliert sind und welche nicht.
Gibt es auch Themenfelder außerhalb der Klimapolitik?
Die Ukraine, Gaza/Israel und natürlich die Immigration. Diese Themen waren schon immer da. Das Besondere ist, wie mit ihnen heute umgegangen wird.
Was ist denn daran das Neue?
Es gibt neue Strategien der Manipulation. Beispielsweise versteckte politische Werbung. Grundsätzlich ist es legal und legitim, auf Social-Media-Plattformen politische Werbung zu schalten. Dafür gelten aber bestimmte Regeln: Sie muss unter anderem als solche gekennzeichnet und der Urheber muss klar erkennbar sein. Wird beides verschleiert, betrachten wir dies als manipulativ. Meta und die anderen Plattformen haben sich selbst verpflichtet, die politische Werbung zu regulieren. Es gibt aber Massen an politischen Werbeanzeigen, die eben nicht als solche erkennbar sind.
Wie muss man sich das genau vorstellen?
Ein Beispiel sind von uns analysierte prorussische Facebook-Seiten, die Anzeigen mit manipulativen Inhalten und gefälschte Videos verbreiten. Darin wird beispielsweise behauptet, die Ukraine stecke hinter dem Anschlag des islamistischen IS in Russland Ende März. Eine Facebook-Seite konnte im Mai 400.000 Nutzer mit ihren Anzeigen erreichen. Sie wird von Konten im westafrikanischen Benin kontrolliert und die Facebook-Gebühren werden in kanadischen Dollar bezahlt. Sie zielt vor allem auf Frankreich und macht Werbung für das Rassemblement National.
Das ist doch von der Redefreiheit gedeckt.
Natürlich. Wir sagen nicht, dass das nicht gesagt werden darf, auch wenn wir damit nicht übereinstimmen. Uns geht es um den manipulativen Charakter. Die Inhalte werden nicht als politische Werbung deklariert, es werden mit Absicht bestimmte technische Elemente versteckt, um der automatisierten Moderation durch Facebook zu entgehen.
Gibt es auch Akteure, die offen auftreten und trotzdem manipulativ sind?
Es gibt beispielsweise Medien, die wegen der Nähe zum russischen Staat mit Sanktionen belegt werden, also etwa Russia Today und Sputnik sowie Journalist:innen dieser Sender. Deren Inhalte sind teils weiter auf Tiktok und Twitter verfügbar. Dabei hat die EU-Kommission klar entschieden, dass diese Medien in der EU nicht weiter verfügbar sein dürfen. Die Plattformen setzen die Sanktionen nicht um.
Es klingt, als sei das Ganze vor allem ein Russland-Problem.
Nein, nicht nur. Inländische Akteure sind ein großer Teil des Problems. Die rechtsextreme Schwedendemokraten-Partei etwa bezahlt Influencer dafür, dass sie ihre Talking points verbreiten und Feindseligkeit gegen Migrant:innen schüren – auch hier, ohne das zu kennzeichnen.
Viele hoffen darauf, dass der kürzlich in Kraft getretene Digital Services Act der EU das Problem der Desinformation eindämmt. Hierbei werden die großen Plattformen zum eigenständigen sogenannten Risikomanagement verpflichtet. Hat die Neuregelung etwas gebracht?
Sicher ist jedenfalls, dass das Gesetz die Plattformen verpflichtet hat, Forscher:innen umfassende Analysemöglichkeiten einzuräumen. Das hat uns ganz neue Möglichkeiten gegeben, die Dynamiken von Desinformation zu beobachten und zu verstehen, und das ist eine Voraussetzung, um überhaupt über Gegenstrategien nachdenken zu können.
Welche Gegenstrategien fallen Ihnen ein?
Vielleicht kann man von dem Blick lernen, den wir als Forscher:innen einnehmen. Wir beschäftigen uns stärker mit den Methoden von Desinformation statt mit den Inhalten. Dieser Ansatz könnte auch für die Aufklärung helfen. Wenn man den Leuten sagen kann: „Schaut her, hier ist ein anonymer Account aus Benin, der mit kanadischem Geld bezahlt wird und versucht, sich in die Debatte in Frankreich einzumischen – da stimmt doch was nicht“, dann ist das etwas völlig anderes als zu sagen, Macron oder die Ukraine zu attackieren sei falsch. Manipulatives Verhalten offenzulegen und auf Quellentransparenz zu drängen ist etwas, das auch Regierungen tun sollten.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Wie soll diese Quellentransparenz praktisch aussehen?
Ich arbeite beispielsweise an einer Datenbank von Social-Media-Kanälen, die mit autoritären Staaten wie China verbunden sind, aber vorgeben, unabhängige Medien zu sein. Die Identifizierung jedes einzelnen Kanals kostet mich viele Stunden, wenn nicht sogar Tage Arbeit. Für den normalen Nachrichtenkonsumenten ist das unmöglich zu schaffen. In diesem schnelllebigen Informationsumfeld holen sie sich ihre Informationen einfach von dort und verinnerlichen, was gesagt wird. Man kann das alles nicht in den Griff bekommen, wenn man einfach sagt, dies und das sei nicht wahr. Wenn Menschen Konten folgen, die an autoritäre Staaten gebunden sind, muss man ihnen sagen: „Was ihr hier lest, kommt von einer ausländischen Regierung.“ Man muss ihnen die Möglichkeit geben, sich selbst eine Meinung zu bilden, wenn sie weiterlesen wollen.
Es kommt aber nicht alles von ausländischen Regierungen, es gibt auch inländische Akteure, die destabilisierende, manipulative Informationen verbreiten, weil es ihrer eigenen Agenda nützt.
In der Tat. Und in der Summe sind die ein größeres Phänomen als jene, die etwa von Russland oder China gesteuert sind. Aber auch hier muss man versuchen, Transparenz herzustellen: Wer kommuniziert hier?
Was ist mit Menschen, die sich bewusst dafür entscheiden, sich von rechtsextremen Medien oder Parteien informieren zu lassen?
Ein Ansatz ist das sogenannte „Pre-Bunking“ – das gezielte Aufzeigen anderer Perspektiven und faktenbasierter Informationen. Dabei geht es darum, proaktiv zu sein, anstatt nur zu reagieren. Also nicht nur zu versuchen, Desinformationen im Nachhinein zu widerlegen. Dies kann besonders in Krisenzeiten und bei Wahlen wichtig sein.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Hoffnung und Klimakrise
Was wir meinen, wenn wir Hoffnung sagen
+++ Nachrichten im Ukraine-Krieg +++
Slowakischer Regierungschef bei Putin im Kreml
Rechte Gewalt in Görlitz
Mutmaßliche Neonazis greifen linke Aktivist*innen an
Spiegel-Kolumnist über Zukunft
„Langfristig ist doch alles super“
Lohneinbußen für Volkswagen-Manager
Der Witz des VW-Vorstands
Krieg in der Ukraine
„Weihnachtsgrüße“ aus Moskau