piwik no script img

Manipulation durch Social BotsMensch oder Maschine

Automatisiert in sozialen Netzwerken verbreitete Beiträge können die öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker wichtig.

Menschen. Keine Bots Foto: dpa

Berlin taz | Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen. Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz automatisch. Und immer im Sinne des Auftraggebers.

Social Bot wird dieses Phänomen genannt, wobei „Bot“ als Abkürzung für Roboter steht. In die Kritik geraten diese Bots derzeit, weil sie in sozialen Netzwerken wie Twitter, Facebook, Instagram oder Google+ automatisiert Beiträge verbreiten und dabei von von Menschen verfassten Beiträgen kaum zu unterscheiden sind.

Es gibt die Bots in unterschiedlichen Komplexitätsstufen: Die einfachsten retweeten oder favorisieren nur Nachrichten mit bestimmten Hashtags, um für eine größere Verbreitung und Wahrnehmung zu sorgen. Bei komplexeren Bots erstellt der Algorithmus entsprechend der Vorgaben selbst Kurznachrichten. Hierbei spielt auch künstliche Intelligenz eine Rolle, damit die Nachrichten möglichst nicht von denen menschlicher Urheber zu unterscheiden sind. In der Praxis wäre es beispielweise möglich, einen Social Bot darauf zu programmieren, auf jeden Tweet mit einem Pro-Clinton-Hashtag wie #ImWithHer zu reagieren und dazu jeweils einen variierenden Antworttweet abzusetzen, der Clinton der Korruption beschuldigt.

500 US-Dollar. Die Zahl stammt aus einer Studie von Simon Hegelich, Professor an der Hochschule für Politik an der Technischen Universität München. Und sie zeigt, warum Social Bots für alle, die Meinung machen wollen, so attraktiv sind: Wie viele Werbeflächen an Bushaltestellen muss man buchen, wie viele TV-Spots, wie viele Google-Ads, um in einer ähnlichen Dimension wahrgenommen zu werden wie mit einer Bot-Stärke, die der Einwohnerzahl einer Kleinstadt entspricht?

Das Problem bei den Social Bots: Anders als bei Werbung auf Webseites oder dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder etwas – unterwegs ist, dem es vor allem darum geht, die Meinung der Empfänger zu beeinflussen. Und noch weniger ist ersichtlich, wer hinter der anschließenden Verbreitung – durch Retweets, Favorisierungen und Nutzung eines Hashtags – steckt. Stammen die Tweets, die Trump beleidigen, vom demokratischen Wahlkampfteam? Oder aus Trumps eigenem Umkreis, um seiner Gegnerin in der Diskussion diskreditierendes Verhalten vorwerfen zu können? Oder versucht hier jemand, einen viel gelesenen Hashtag für kommerzielle Zwecke zu nutzen?

Wie Bots auffallen

Dabei ist nicht einmal klar, wie hoch der Anteil computergenerierter Nachrichten in den Netzwerken überhaupt ist. „Wir haben keine Social Bots auf unserer Plattform“, heißt es etwa bei Face­book schlicht. Diese seien schließlich nicht erlaubt. Auch Twitter verweist darauf, dass solche Profile auf der Plattform verboten seien. Allerdings kam der Forscher Philip Howard von der Universität Oxford nach einer Untersuchung von 9 Millio­nen Tweets, die nach dem ersten TV-Duell von Hillary Clinton und Donald Trump gepostet wurden, zu dem Ergebnis: Jeder dritte Tweet aus dem Trump-Lager kam von einem Bot, bei Clinton knapp jeder vierte.

Anders als bei dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder etwas – unterwegs ist, dem es darum geht, die Meinung der Empfänger zu beeinflussen

Tabea Wilke hat mit Botswatch ein Werkzeug entwickelt, das Social Bots in Echtzeit erkennen kann. Als Bot gilt ein Account dabei unter anderem, wenn er über 50 Tweets am Tag absetzt – selbst sehr fleißige menschliche Nutzer hierzulande kommen laut Wilke nur auf 20 bis 25 Tweets. „Twitter ist deswegen relevant, weil wesentliche Influencer die Plattform nutzen“, sagt sie. Politiker zum Beispiel. Wer es also schaffe, hier Debatten zu manipulieren, der beeinflusse die politische Diskussion.

Das Potenzial zeigt Wilke etwa anhand einer Auswertung der Tweets während einer Sendung „Hart aber fair“ vom Dezember. Mehr als 20 Prozent der Tweets seien hier von Bots abgesetzt worden – ungewöhnlich viele, sagt Wilke. Und es gibt Auffälligkeiten. Als Bots identifizierte Accounts verwendeten etwa Schlagworte wie „Islam“, „Merkel“ oder „AfD“ häufiger als die Accounts mit menschlichen Nutzern. „Erdoğan“, „eingeladen“ oder „Polizei“ kam dagegen bei Bots nicht vor, sondern nur bei menschlichen Twitterern. Das zeige zumindest, dass Bots eine Diskussion verschieben könnten, erklärt Wilke. Der konkrete Einfluss, den das am Ende auf Menschen habe, sei aber kaum messbar.

Die Grünen fordern nun zumindest eine verpflichtende Kennzeichnung. „Bots per se sind weder gut noch schlecht. Aber Social Bots sind ein Phänomen, das zu Diskursverschiebungen im Netz führen kann, zum Beispiel durch das massenhafte Verbreiten von Falschnachrichten“, begründet Konstantin von Notz, netzpolitischer Sprecher der Grünen-Fraktion, den Vorschlag. Wie das im Detail aussehen soll, ist allerdings unklar. Bislang haben CDU, SPD, Linkspartei, Grüne, FDP und – nach anfänglichen gegenteiligen Aussagen – auch die AfD auf freiwilliger Basis erklärt, im anstehenden Bundestags-Wahlkampf nicht auf Social Bots setzen zu wollen. Das Problem: Das kann sich nur auf offizielle Accounts beziehen. Wenn ein Parteimitglied selbst entscheidet, Bots für die Wahlwerbung einzusetzen, würde auch ein Gesetz nicht greifen.

Ausmaß des Potenzials ergründen

Auch Katrin Weller, Leiterin des Teams Social Analytics and Services am Leibniz-Institut für Sozialwissenschaften, geht davon aus, dass die Social Bots einen Einfluss auf die Meinungsbildung haben. „Wenn damit der Eindruck erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu beitragen, die eigene Meinung zu festigen.“ Für besonders anfällig hält Weller Nutzer, die ihre Informationen lediglich über einen einzelnen Medienkanal – also beispielsweise ausschließlich über Facebook – beziehen. Und das sei immer häufiger der Fall.

Nützliche Bots

Sie sammeln: Social Bots können auch nützlich sein – zum Beispiel wenn sie Daten automatisiert zusammenfassen. Das können Informationen zum Fernsehprogramm oder zu Börsenkursen sein, zur Feinstaubbelastung, zu Erdbeben oder Warnungen vor Hurricans. Der Bot sammelt Informationen aus diversen Quellen und benachrichtigt die Nutzer aktiv.

Sie reagieren: Wie das Konzept der Social Bots mal ganz anders genutzt werden kann, zeigte das Peng-Kollektiv. Die Aktivisten setzten einen Algorithmus auf gängige Formulierungen an, die in Beleidigungen, in rassistischen, sexistischen oder homophoben Äußerungen verwendet werden. Fand der Bot eine dieser Formulierungen in einem Tweet, bekam der Nutzer digitale Post, nämlich den Hinweis, dass er sich gerade wie ein Troll benommen habe, und ein Video, in dem ein Schauspieler als Selbsthilfe-Guru erklärt, wie das mit dem Weg zur Besserung funktioniert.

Trotzdem hält Weller den Vorstoß der Grünen nicht für praktikabel. Den Betreibern einschlägiger Bots komme es gerade darauf an, dass ihre Postings nicht als automatisch generiert erkannt würden. „Bot-Farmen in Russland wird man damit vermutlich nicht in den Griff bekommen.“ Für vielversprechender hält sie es, die Plattformbetreiber zu verpflichten. „Die haben ganz andere Möglichkeiten, Bots aufzuspüren.“ Tabea Wilke von Botswatch spricht sich vor allem für eine Stärkung der Medienkompetenz von Nutzern aus.

Einig sind sich von Notz und Weller darin, dass durchaus noch mehr Forschung nötig wäre, um das Ausmaß des meinungsbildenden Potenzials von Social Bots zu ergründen. Auch das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag arbeitet seit Oktober an einer Untersuchung dazu. In einem Papier, das die Zwischenergebnisse zusammenfasst, heißt es, dass gesicherte Nachweise über die Wirkung fehlten. Und dass man den Fokus nicht nur auf die Politik, sondern auch die Wirtschaft lenken müsse.

So wurde vor zwei Jahren in einem der wenigen gut belegten Fälle der Börsenkurs eines Technologieunternehmens durch Social Bots per Twitter in die Höhe getrieben, als im Börsenhandel eingesetzte Algorithmen auf von Bots verbreitete Gerüchte hin investierten. Die Verluste nach dem Aussetzen des Handels, die waren dann real.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • Ich glaube das nicht. Ich denke das Journalisten sich (wie immer), viel zu wichtig nehmen. Ich denke vielmehr das gesellschaftliche Trends sich völlig unabhängig von der Hysterie von Presse und Internet entwickeln. Hier mal eine Rechnung:

     

    A). die website "PI-News.net" ist das größte deutsche RechtsBlog im Netz. Pi-News hat ca. 100.000 Besucher. Wie üblich bei Blogs ca. 95% StammUser. Aber egal. weiter:

     

    B). wenn JEDER dieser Besucher in NRW wohnt und dort Wähler ist, und NPD wählt dann entspräche das 0.8% aller Wähler dieses Bundeslandes.

     

    Fazit:

    A). ist schon unwahrscheinlich, wer Blogcounter kennt, der weiß das nicht mal die Hälfte stimmt.

    B). In ihren kühnsten Träumen würde das nicht mal die NPD hoffen. Bots würden die Bilanz sogar eher noch verschlechtern.

     

    P.S: wenn die Bundesregierung FakeNews unter Strafe stellen will, dann tut sich das nicht aus Humanismus, sondern aus Eigeninteresse. Kein seriöser Journalist sollte sich mit dieser Forderung gemein machen. Soviel Naivität darf höchstens mal eine Schülerzeitung haben.

  • Viel Lärm um Nichts?

     

    Wie orchestriert ergießt sich gegenwärtig ein Tsunami alarmierender Anti-Bots-Artikel immer gleichen Strickmusters über die Medienlandschaft, daß man meinen könnte, dahinter stecke eine - Botsfarm. Als twitter- und facebookabstinenter Zeitgenosse, aber gleichwohl Wähler, hätte ich nun gern gewußt, inwiefern, in aller Welt, technische Mätzchen wie die massenhafte automatische Verbreitung von präfabrizierten Meinungshäppchen von Pseudo-Accounts oder Phantom-Followers von Politpromis wahlentscheidend sein sollen. Derartige Verfahren stehen schließlich allen konkurrierenden Protagonisten und politischen „Marktteilnehmern“ zur Verfügung, dürften sich in ihrer meinungsbildenden Wirkung auf Wechselwähler oder Unentschlossene daher letztlich gegenseitig neutralisieren. Auch dieser Artikel bietet keinerlei Anhaltspunkte für eine solche meßbare Einflußnahme zugunsten einer der politischen Konkurrenten, räumt hingegen sogar ein, daß dies im Grunde auch unmöglich ist und erst noch erforscht werden soll. Nichts genaues also weiß man nicht, was der verbreiteten Legende keinen Abbruch tut, etwa das Wahlergebnis vom 4. Nov. sei monokausal durch eben solche „Social Bots“ zu erklären. „Wenn damit der Eindruck erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu beitragen, die eigene Meinung zu festigen.“ Wieso sollten dann „Bots“ gefährlicher sein als BILD mit seinen 12 Mio Lesern?

  • Russland muss natürlich erwähnt werden, damit man immer schön weiß, wer der Feind ist.

    • @Kurzer Prozess:

      und noch als zusatz: "dieser kommentar wurde von einem russland-das-arme-opfer-bot verfasst"

      • @the real günni:

        Bots können von jedem verwendet werden. Es ist also ziemlich albern, nur einen bestimmten "Täter" zu beschießen.

         

        Außerdem gibt es seit Jahrzehnten in D. Medien, die fast nur Unsinn verbreiten. Ich denke da besonders an die große Tageszeitung, die bei jedem Bäcker ausliegt. Dort wird gelogen und gehetzt, dass sich einem die Fußnägel rollen. Die Proteste dagegen halten sich in Grenzen.

        • 8G
          85198 (Profil gelöscht)
          @warum_denkt_keiner_nach?:

          "Bots können von jedem verwendet werden."

           

          Ich möchte dazu mal die Frage stellen, inwieweit Bots nicht auch als Chance gesehen werden können. Immerhin bietet sich eine preiswerte Möglichkeit, die mediale Wirklichkeit mitzugestalten, ohne Druckereien oder Fernsehrechte zu besitzen.

           

          Die Zahl der Bot-Betreiber dürfte relativ niedrig sein, dennoch bringen sie es schon auf auf derartig hohe Anteile in der Kommunkation. Bei breitem Einsatz von Bots würde sich ein interessantes Bild bieten: Dass prinzipiell jede Kommunikation, die mit Hilfe von (geheimen) Algorithmen Inhalte priorisiert, durch Bots manipulierbar und ausbeutbar ist. Das gilt auch für Suchdienste wie Google.

          Bestenfalls könnte in der Öffentlichkeit das Bewußtsein dafür wachsen, das es von vorn herein keine gute Idee war, Informationsflüsse und öffentliche Meinungsbildung privaten Unternehmen und oftmals geheimen Algorithmen anzuvertrauen.

           

          Ethische Bedenken zum Bot-Einsatz kann ich verstehen, allerdings gebe ich zu bedenken, dass die Alternative dazu ist, Opfer zu sein und nach dem starken Staat zu schreien. Man kann sagen, dass Bot-Einsätze kontraproduktiv sind, weil sie den Diskurs verderben, aber vielleicht heißt das nur, dass wir kreativer beim Entwickeln von Bots sein müssen.

           

          Klar ist, dass die politische Rechte auch Bots einsetzt, die vermeintlich für die andere Seite arbeiten, also z.B. Trump beleidigen. Es wird also sowieso immer den Vorwurf geben, man würde Bots einsetzen. Die bloße Behauptung reicht auch aus, das bei den Anhängern der Rechten als Realität zu setzen.