piwik no script img

Microsofts TwitterbotZum Nazi-Algorithmus mutiert

Kommentar von Kai Schlieter

Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert.

Microsofts PR-Experiment ging nach hinten los Foto: ap

S chon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu justieren. Man könnte auch sagen: zensieren.

Tay, ein Twitter-Bot, der durch Interaktion lernt, war zu einem Frauenhasser und Nazi-Algorithmus mutiert. Das (PR-)Experiment ging nach hinten los. Das Ding sabbelte unappetitliches Zeug.

„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“, teilte Microsoft beschämt mit. Armes Teil!

Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab. Blöd für die Niedriglöhner.

Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie „schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“. „Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher, dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern Bots wie Tay.

Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im eigenen Sinne zu beeinflussen.

Tay selbst brachte es in einer Konversation auf den Punkt. @TayandYou: Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein.

Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen lernt, wird er anfangen, von Katzen zu sprechen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Reportage & Recherche
Seit 2008 bei der taz. Von 2012 bis März 2017 leitete er das von ihm gegründete Ressort Reportage & Recherche. Danach Wechsel zur Berliner Zeitung / Berliner Kurier. 2015 erschien sein Buch "Die Herrschaftsformel. Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert". 2011 erschien sein Buch "Knastreport. Das Leben der Weggesperrten".
Mehr zum Thema

2 Kommentare

 / 
  • Schon die Einleitung des Textes widerspricht der Überschrift, die da lautet:

     

    "Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert."

     

    Tatsächlich gab es eben gezielte Provokationen, wie es im Text auch korrekt steht:

     

    „Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“

     

    Mit der generellen Struktur des "virtuellen Kosmos" hat es nichts zu tun. Ddas sage ich mal so als Troll von der Qualitätssicherung: http://diekolumnisten.de/2015/11/08/onlinekommentare-die-trolle-von-der-qualitaetssicherung/

     

    Besonders schade, dass man die eigene, selbst widerlegte Prämisse, dann nochmal als Schlussfolgerung bringt.

  • Und wo war jetzt die Mutation zum Nazi-Algorithmus? Das Teil war jedenfalls nicht sehr Intelligent, hat nachgeplappert womit es gefüttert wurde und wurde anscheinend gezielt mit Mist gefüttert, Sabotage sozusagen. Eigentlich ein sehr menschliches Verhalten (siehe AfD Anhang). Hat vermutlich genau das getan was als Algorithmus einprogrammiert wurde.