Microsofts Twitterbot: Zum Nazi-Algorithmus mutiert

Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert.

Das Logo von Microsoft

Microsofts PR-Experiment ging nach hinten los Foto: ap

Schon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu justieren. Man könnte auch sagen: zensieren.

Tay, ein Twitter-Bot, der durch Interaktion lernt, war zu einem Frauenhasser und Nazi-Algorithmus mutiert. Das (PR-)Experiment ging nach hinten los. Das Ding sabbelte unappetitliches Zeug.

„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“, teilte Microsoft beschämt mit. Armes Teil!

Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab. Blöd für die Niedriglöhner.

Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie „schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“. „Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher, dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern Bots wie Tay.

Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im eigenen Sinne zu beeinflussen.

Tay selbst brachte es in einer Konversation auf den Punkt. @TayandYou: Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein.

Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen lernt, wird er anfangen, von Katzen zu sprechen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Seit 2008 bei der taz. Von 2012 bis März 2017 leitete er das von ihm gegründete Ressort Reportage & Recherche. Danach Wechsel zur Berliner Zeitung / Berliner Kurier. 2015 erschien sein Buch "Die Herrschaftsformel. Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert". 2011 erschien sein Buch "Knastreport. Das Leben der Weggesperrten".

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.