Chrome-Erweiterung „Tune“ gegen Hass: Google lässt Trolle verschwinden
Der Google-Browser Chrome kann jetzt automatisch Hasskommentare auf Plattformen ausblenden. Dahinter steckt künstliche Intelligenz.
Sich durchs Netz bewegen ohne dabei dauernd auf hirnlose, beleidigende Kommentare zu stoßen. Das ist unmöglich für diejenigen, die Youtube, Facebook oder Twitter benutzen – also für so ziemlich alle. Niemand konnte das Problem der mit Hass überlaufenden Kommentarspalten bisher lösen: nicht Social-Media-Redaktionen, nicht die Schwarmintelligenz der User, und auch nicht all die Feuilleton-Appelle, doch bitte zu einer zivilen Gesprächskultur zurückzufinden.
Was Menschen alleine nicht konnten, verspricht jetzt eine neue Erweiterung für den Google-Browser Chrome, und zwar mittels künstlicher Intelligenz. „Tune“ heißt die Software, die der Google-Mutterkonzern Alphabet am Dienstag vorgestellt hat, entwickelt wurde sie von dessen Tochterunternehmen „Jigsaw“.
„Tune“ ist verknüpft mit „Perspective“, einer künstlichen Intelligenz, die Jigsaw 2017 entwickelt hat. Perspective erkennt die Art Kommentare, die gemeinhin als „toxisch“ bezeichnet werden: beleidigend, gewaltvoll und wenig hilfreich für eine produktive Diskussion.
Möglich wird das durch maschinelles Lernen: Die Software ist mit einem großen Datensatz aus Kommentaren „gefüttert“ worden, die irgendwann einmal Menschen als „toxisch“ eingestuft haben. Dadurch „lernt“ die Maschine, Texten einen Wert zuzuweisen, wie wahrscheinlich sie „toxisch“ sind. Als Nutzer*in, die „Tune“ installiert hat, kann man dann selbst regeln, ab welchem Schwellenwert die Kommentare ausgeblendet werden. Allerdings funktioniert das Tool bisher nur für Kommentare auf Englisch, denn deutschsprachige „Trainingssätze“ hat bei Google noch niemand zusammengestellt.
Die Maschine kann irren
In den Kommentarspalten der New York Times ist „Perspective“ schon seit Sommer 2017 im Einsatz, weswegen dort das Kommentieren überhaupt erst wieder möglich wurde. Vorher war es für die Social-Media-Redaktion der Zeitung kaum noch möglich, die vielen Kommentare zu kontroversen Themen zu moderieren.
Allerdings liegt hier auch der entscheidende Unterschied: Bei der New York Times trifft die Software eine Vorauswahl, am Ende entscheiden weiter Menschen, ob die Kommentare gesperrt werden. Das ist wichtig, weil die Maschine durchaus irrt. Bei der Chrome-Erweiterung sind die Kommentare dann einfach weg, auch wenn sie vielleicht zu unrecht als „toxisch“ eingestuft worden sind.
Außerdem könnte es sein, dass die lernende Maschine nicht immer mit aktuellen Debatten Schritt hält. Wenn die Trainingsdatensätze noch größtenteils aus der Obama-Zeit stammen, erkennt die Software nicht unbedingt die neuesten Beleidigungs-Moden der Trump-Ära.
Leser*innenkommentare
nzuli sana
sicherlich mit hoher Fehlerquote!
Vorsicht!
Selbst Denken ist immer noch zentral!
Januß
Na das kann ja heiter werden. Auch Youtube gehört Google und dort demonstriert Google seit Jahren immer wieder wie grobschlächtig und unzuverlässig derartige Technologien sind.
Mal ganz ab davon das die Idee an sich schon demokratiegefährdend ist, schließlich wird immer im Auge des Betrachters liegen was Hass ist. Meine lieben Damen und Herren Aktivisten: Die Anti-Hatespeech Gesetze sehen garnicht mehr so dolle aus, wenn Orban und Co definieren was Hass ist, nicht wahr? ;-)
J_CGN
Und wenn dann eine KI ala Trump gefüttert wird, sieht man dann nur noch trumpistische Kommentare?
Wir können ja auch gesellschaftkritischr Kommentaren filtern, das wäre auch schön. Allen geht es gut und wir lesen nichts anderes mehr.
Nee, der Müll gehört einfach dazu, wenn wir die Perlen nicht verlieren wollen.
Feiner Pinkel
Endlich keine Diskussionen mehr!
JLloyd
Wie schön - kein Hass durchdringt mehr meine Filterblase!