piwik no script img

Microsofts TwitterbotZum Nazi-Algorithmus mutiert

Kommentar von Kai Schlieter

Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert.

Microsofts PR-Experiment ging nach hinten los Foto: ap

S chon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu justieren. Man könnte auch sagen: zensieren.

Tay, ein Twitter-Bot, der durch Interaktion lernt, war zu einem Frauenhasser und Nazi-Algorithmus mutiert. Das (PR-)Experiment ging nach hinten los. Das Ding sabbelte unappetitliches Zeug.

„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“, teilte Microsoft beschämt mit. Armes Teil!

Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab. Blöd für die Niedriglöhner.

Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie „schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“. „Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher, dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern Bots wie Tay.

Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im eigenen Sinne zu beeinflussen.

Tay selbst brachte es in einer Konversation auf den Punkt. @TayandYou: Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein.

Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen lernt, wird er anfangen, von Katzen zu sprechen.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Reportage & Recherche
Seit 2008 bei der taz. Von 2012 bis März 2017 leitete er das von ihm gegründete Ressort Reportage & Recherche. Danach Wechsel zur Berliner Zeitung / Berliner Kurier. 2015 erschien sein Buch "Die Herrschaftsformel. Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert". 2011 erschien sein Buch "Knastreport. Das Leben der Weggesperrten".
Mehr zum Thema

2 Kommentare

 / 
  • Schon die Einleitung des Textes widerspricht der Überschrift, die da lautet:

     

    "Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert."

     

    Tatsächlich gab es eben gezielte Provokationen, wie es im Text auch korrekt steht:

     

    „Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“

     

    Mit der generellen Struktur des "virtuellen Kosmos" hat es nichts zu tun. Ddas sage ich mal so als Troll von der Qualitätssicherung: http://diekolumnisten.de/2015/11/08/onlinekommentare-die-trolle-von-der-qualitaetssicherung/

     

    Besonders schade, dass man die eigene, selbst widerlegte Prämisse, dann nochmal als Schlussfolgerung bringt.

  • Und wo war jetzt die Mutation zum Nazi-Algorithmus? Das Teil war jedenfalls nicht sehr Intelligent, hat nachgeplappert womit es gefüttert wurde und wurde anscheinend gezielt mit Mist gefüttert, Sabotage sozusagen. Eigentlich ein sehr menschliches Verhalten (siehe AfD Anhang). Hat vermutlich genau das getan was als Algorithmus einprogrammiert wurde.