Hate Speech im Netz: Wenn Maschinen moderieren

Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen.

Serverschrank mit zahlreichen Festplatten, die blau blinken

Facebook-Rechenzentrum in Luleå in Schweden Foto: David Levene/eyevine /laif

Beleidigungen und Schmähungen im Internet sind ein wachsendes Problem. Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nut­ze­r*in­nen im Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an.

Doch was danach passiert, ist für viele Nut­ze­r*in­nen der großen sozialen Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht werden, können tatsächliche Beschimpfungen eine solche umgehen, insbesondere wenn sie subtiler ausfallen.

Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von Menschen, sondern Künstlicher Intelligenz übernommen wird. „KI ist schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann.

Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard University, der Digital Asia Hub und das Leibniz-Institut für Medienforschung.

Künstliche Intelligenz ermittelt Straftatbestand

Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen, sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine Zentralstelle eingerichtet werden.

Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren, damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist problematisch, weil es sehr viel Beifang geben wird.“

Bereits während der Pandemie, als ein Großteil der Belegschaft ins Homeoffice geschickt werden musste, haben die großen Plattformen damit begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des entfernten Materials.

Während die Algorithmen insgesamt wesentlich großzügiger aussortierten, nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht.

Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen. Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und Nutzer darüber aufklären, wie die Algorithmen funktionieren.“

Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes („NetzDG“), wonach zumindest For­sche­r*in­nen von den Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte ein erster Schritt zu mehr Transparenz sein.

Neues Tool „Decoding Antisemitism“

Immerhin ist auch ein sogenann­tes Gegenvorstellungsverfahren vorgesehen, in dem Nut­ze­r*in­nen die Überprüfung von Mo­derationsentscheidungen einfordern können. Die Be­trei­be­r*in­nen müssen dann eine Begründung für ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der Künstlichen Intelligenz ist nicht vorgesehen.

Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als eine zentrale Priorität des von ihm geleiteten Projektes „Decoding Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin und dem King’s College London entwickelte Forschungsvorhaben soll der Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede ein wirksames, smarteres Moderationstool entgegensetzen:

„Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus funktioniert schon fast nach einem schablonenhaften Muster, das stets mit dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel zum Ausdruck zu bringen.“

Derzeit untersuchen For­sche­r*in­nen in Deutschland, Frankreich und Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das geplante Tool soll später in der Lage sein, besonders impliziten Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der Algorithmus ausführlich getestet und von Menschen trainiert wird.

Wie verändern sich Ressentiments mit der Zeit?

Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur definieren können, dass es sich um Antisemitismus handelt – sondern auch feststellen können, welche Stereotype und Sprachmuster bedient werden. Das soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit verändern.

Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen – vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln hervorrufen kann, betont Becker.

Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in den Augen der anderen. Solange die Menschen reden, werden sie also kreativ sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.