Meinungsmache im Netz: Bots schlafen nicht
Immer öfter imitieren Computerprogramme menschliches Verhalten in Online-Netzwerken. Wie groß ihr Einfluss ist, hängt von uns ab.
Als der Moderator Lester Holt sich bei den Kandidaten bedankte, legte Donald Trump die Hände auf sein Pult. Er blickte in die Menge, irgendjemand schrie „Go Donald, we love you!“, ein Teil des Publikums antwortete mit „Go Hillary!“. Das erste TV-Duell zwischen Trump und Clinton war vorbei.
Als die Menschen an der Ostküste der USA am nächsten Morgen aufwachten, war #trumpwon, der meistgenutzte Hashtag auf Twitter. Tausende Onlineprofile verbreiteten Nachrichten mit diesem Spruch. Doch später wurde klar: Mindestens ein Drittel dieser Trump-Unterstützer waren keine Menschen.
Es waren Bots, Programme, die menschliches Verhalten imitieren. Der Begriff ist ein abgekürztes „Robot“, bezeichnet also eine Maschine, die eine bestimmte Aufgabe erledigt, zum Beispiel mit KundInnen kommuniziert, Fragen beantwortet oder Nachrichtenartikel verschickt.
Klar, Bots sind weder gut noch schlecht. Wie bei allen Werkzeugen kommt es darauf an, wer sie benutzt, und wie.
Social Bots als Multiplikatoren
Als „Social Bots“ werden diejenigen Programme bezeichnet, die in den sozialen Netzwerken menschliches Verhalten imitieren. Für die NutzerInnen sehen die Social Bots zunächst aus wie andere Menschen auch: ein Foto, ein Name, eine kurze Selbstbeschreibung. Wenn hunderte oder tausende von ihnen beginnen, bestimmte Botschaften zu senden, wirkt das oft wie ein Trend. #Trumpwon, tausendfach wiederholt von vermeintlichen Menschen an hunderten verschiedenen Orten, das klingt nach Begeisterung.
2. Juni 1967: Ein Schuss tötet den Demonstranten Benno Ohnesorg. Dieses Datum markiert den Beginn einer bis heute geführten Debatte über Gegenöffentlichkeit, über die Medien, über Wahrheit und Lüge, oder, wie man heute formulieren würde, über Fake News und alternative Fakten, über Verschwörungstheorien, bürgerliche Zeitungen und alternative (auch rechte) Blätter, über die „Wahrheit“ und die Deutungshoheit gesellschaftlicher Entwicklungen. Nachdenken über 50 Jahre Gegenöffentlichkeit: taz.gegen den stromDie Sonderausgabe taz.gegen den strom – jetzt im taz Shop und auf www.taz.de/gegenoeffentlichkeit
Dabei war Trumps Auftritt eher so mäßig gelungen, Experten erklärten Hillary Clinton zur Punktsiegerin. Aber die Programme machen es einfach, Begeisterung vorzutäuschen. Einzelne können so ihre Propaganda vervielfachen. Wie in einem Spiegelkabinett taucht sie plötzlich in allen Richtungen auf. Twitter informiert seine Nutzer über beliebte Schlagworte und verstärkt so den Effekt.
Die Bots sind untereinander vernetzt und beginnen auf Befehl, ihre Botschaften zu senden. Sie können dann beispielsweise ein Schlagwort kapern und so oft in belanglosem Kontext verwenden, bis echte Diskussionen und Meinungen zu dem Thema in der Masse untergehen.
Aber: Bewirkt das etwas? Können Bots auch in Deutschland Wahlen beeinflussen?
„Don’t feed the trolls“ – gilt nicht mehr
Im Berliner Betahaus treffen sich die „Schmalbärte“, die besorgten Bürger der anderen Seite – besorgt durch Bots und Hetze von rechts. Das amerikanische Nachrichtenportal „Breitbart“, bekannt für Falschmeldungen im US-Wahlkampf, hatte einen deutschen Ableger angekündigt.
Auch Bots machten Artikel von Breitbart auf Facebook und Twitter publik. In Berlin trinken nun also Journalistinnen, Grundschullehrer und Studenten Kaffee aus sehr kleinen Tassen und brainstormen zwischen Sperrholztrennern Ideen gegen rechte Propaganda. Das ungeschriebene Gesetz, die Hetzer im Netz zu ignorieren – „don’t feed the trolls“ – gilt nicht mehr.
Zu wichtig erscheinen im Wahljahr die Diskussionen in den Kommentarspalten und Netzwerken. WissenschaftlerInnen konnten bisher nicht nachweisen, wie groß der Einfluss von Bots auf die Wählermeinungen wirklich ist.
Stefan Bohacek, Gründer der Initiative „Botmakers“, die international Bot-Interessierte zusammenbringt, ist aber überzeugt, dass in der Veränderung von Diskussionen im Web große Macht steckt: „Viele Menschen bekommen heutzutage ihre Nachrichten in den sozialen Medien und verfolgen die Diskurse dort. Sie lesen die Konversationen von anderen Menschen und stoßen auf Argumente und Fakten, die sie davor nicht in Erwägung gezogen haben.“
Braucht die Linke Bots?
Wer solche Konversationen automatisiert führt, beeinflusst also nicht nur die Person, mit der diskutiert wird, sondern auch all jene, die die Unterhaltung lesen. Die sind klar in der Überzahl. Auf Facebook lesen 60 Prozent der Menschen einfach nur mit, in den anderen Netzwerken sind es noch mehr.
Menschen legen mehr Wert auf Gedanken vermeintlich Gleichgesinnter als auf das, was fremde JournalistInnen verbreiten, auch das ist wissenschaftlich erwiesen. Diese Homophilie lässt sich mit gut gemachten Bot-Profilen ausnutzen.
Jahrgang 1992, ist freie Journalistin und wurde an der Deutschen Journalistenschule ausgebildet. Ihr Social Bot @JudithBotler, den sie für die taz programmiert hat, wurde im April für den Alternativen Medienpreis nominiert.
Im Schmalbart-Camp ist eine der diskutierten Konsequenzen diese: Auch die Linke und die Mitte brauchen Bots. „Wir können den Hetzern nicht das Feld überlassen, aber gegen diese Masse an Kommentaren kommen wir alleine nicht an“, sagt einer. „Warum fühlen wir uns plötzlich als Opposition?“, fragt ein anderer. Diejenigen, gegen die gekämpft werden soll, AfD-Sympathisanten, Fremdenhasser, Demokratiefeinde, machen doch in Umfragen lediglich ein paar Prozent aus. Warum sind sie im Internet so präsent?
Noch sind Bots in Diskussionen destruktiv – etwas anderes lassen die Mechanismen dahinter kaum zu. Die einfachen Programme können nur stupide Aufträge ausführen. Menschliche Sprache zu analysieren und darauf zu reagieren ist bislang noch aufwändig und teuer. Der Aktivist Raul Krauthausen sieht deshalb für die linke Mitte keine Anwendung für die Programme: „Als Bewegung, die gegen Hass und Hetze von rechts im Netz kämpft, sollten wir eher die Strukturen offenlegen, die die Hetzenden und Populisten benutzen, nicht mit den gleichen Mitteln zurückkämpfen.“
Bots schlafen nicht – so fallen sie auf
„Die Bots zielen auf schiere Masse und simple Aussagen. Sie erlauben es nicht, Dialoge zu führen – die wir politisch aber gerade brauchen.“
Der Menschenbonus ist zugleich auch das beste Mittel, um Bots zu entlarven: Sobald diese Computerprogramme in ein Gespräch verwickelt werden, können sie den Schein meist nicht aufrechterhalten.
„Offensichtliche Merkmale sind, dass Bots sehr schnell antworten, zu jeder Tageszeit – Bots schlafen nicht – und dass ihre Nachrichten und Antworten einem Muster folgen, zum Beispiel bestimmte Schlüsselworte beinhalten“, sagt Bohacek. Es gebe aber auch Programme, die besser täuschen ,„deshalb sollte man immer die Originalquelle suchen, bei allem, was man online findet.“
Initiativen wie die Website „Bot or Not“ der Indiana University oder das deutsche Projekt „Botswatch“ sind gute Hilfen bei Unsicherheit. Aber allgemein gilt: so lange man weiß, dass man vor einem Zerrspiegel steht, kann auch ein noch so verdrehtes Bild nicht täuschen.
Im leeren Raum
Ohne den Menschen als Rezipient können Bots nichts bewirken. Schon jetzt rufen viele Bots in einen leeren Raum hinein, folgen und unterstützen sich gegenseitig, werfen sich die immer selben Parolen hin und her. Ihr Ziel, die echte öffentliche Meinung zu beeinflussen, können sie aber nur verwirklichen, wenn Menschen ihre Botschaften aufgreifen. Mit menschlichen Gegenmeinungen umgehen musste die Welt aber schon immer.
Die Antwort auf die Frage „Was tun?“ ist also: reflektieren, durchatmen, ruhig bleiben. Das gilt für die einzelnen NutzerInnen wie für die Medien, die die Relevanz bestimmter Diskurse und Themen genau so verzerren können wie Bots.
61 Millionen Menschen sind in Deutschland wahlberechtigt. Twitter, das Netzwerk, in dem Bots den leichtesten Zugang haben und in dem sie am weitesten verbreitet sind, nutzen in Deutschland nur etwa fünf Millionen Menschen.
Selbst wenn 15 Prozent davon Bots sind, wie manche Studien nahelegen, ist es unwahrscheinlich, dass sie die Demokratie gefährden – solange Menschen nicht unreflektiert Falschaussagen aufgreifen, weiterverbreiten, und sich davon verunsichern lassen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!