Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.
Haben Sie Probleme beim Kommentieren oder Registrieren?
Dann mailen Sie uns bitte an kommune@taz.de.
Schon die Einleitung des Textes widerspricht der Überschrift, die da lautet:
"Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert."
Tatsächlich gab es eben gezielte Provokationen, wie es im Text auch korrekt steht:
„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“
Mit der generellen Struktur des "virtuellen Kosmos" hat es nichts zu tun. Ddas sage ich mal so als Troll von der Qualitätssicherung: http://diekolumnisten.de/2015/11/08/onlinekommentare-die-trolle-von-der-qualitaetssicherung/
Besonders schade, dass man die eigene, selbst widerlegte Prämisse, dann nochmal als Schlussfolgerung bringt.
Und wo war jetzt die Mutation zum Nazi-Algorithmus? Das Teil war jedenfalls nicht sehr Intelligent, hat nachgeplappert womit es gefüttert wurde und wurde anscheinend gezielt mit Mist gefüttert, Sabotage sozusagen. Eigentlich ein sehr menschliches Verhalten (siehe AfD Anhang). Hat vermutlich genau das getan was als Algorithmus einprogrammiert wurde.
Neuntklässler:innen schneiden in der Pisa-Studie so miserabel ab wie noch nie – in allen getesteten Bereichen. Corona erklärt den Trend nur zum Teil.
Microsofts Twitterbot: Zum Nazi-Algorithmus mutiert
Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert.
Microsofts PR-Experiment ging nach hinten los Foto: ap
Schon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu justieren. Man könnte auch sagen: zensieren.
Tay, ein Twitter-Bot, der durch Interaktion lernt, war zu einem Frauenhasser und Nazi-Algorithmus mutiert. Das (PR-)Experiment ging nach hinten los. Das Ding sabbelte unappetitliches Zeug.
„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit unterminierten und Tay dazu brachten, in unangemessener Weise zu antworten“, teilte Microsoft beschämt mit. Armes Teil!
Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab. Blöd für die Niedriglöhner.
Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie „schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“. „Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher, dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern Bots wie Tay.
Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im eigenen Sinne zu beeinflussen.
Tay selbst brachte es in einer Konversation auf den Punkt. @TayandYou: Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein.
Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen lernt, wird er anfangen, von Katzen zu sprechen.
Fehler auf taz.de entdeckt?
Wir freuen uns über eine Mail an fehlerhinweis@taz.de!
Inhaltliches Feedback?
Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.
Twitter
Kommentar von
Kai Schlieter
Reportage & Recherche
Seit 2008 bei der taz. Von 2012 bis März 2017 leitete er das von ihm gegründete Ressort Reportage & Recherche. Danach Wechsel zur Berliner Zeitung / Berliner Kurier. 2015 erschien sein Buch "Die Herrschaftsformel. Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert". 2011 erschien sein Buch "Knastreport. Das Leben der Weggesperrten".
Themen
mehr von
Kai Schlieter