piwik no script img

Hate Speech im NetzWenn Maschinen moderieren

Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen.

Facebook-Rechenzentrum in Luleå in Schweden Foto: David Levene/eyevine /laif

Beleidigungen und Schmähungen im Internet sind ein wachsendes Problem. Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nut­ze­r*in­nen im Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an.

Doch was danach passiert, ist für viele Nut­ze­r*in­nen der großen sozialen Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht werden, können tatsächliche Beschimpfungen eine solche umgehen, insbesondere wenn sie subtiler ausfallen.

Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von Menschen, sondern Künstlicher Intelligenz übernommen wird. „KI ist schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann.

Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard University, der Digital Asia Hub und das Leibniz-Institut für Medienforschung.

Künstliche Intelligenz ermittelt Straftatbestand

Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen, sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine Zentralstelle eingerichtet werden.

Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren, damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist problematisch, weil es sehr viel Beifang geben wird.“

Bereits während der Pandemie, als ein Großteil der Belegschaft ins Homeoffice geschickt werden musste, haben die großen Plattformen damit begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des entfernten Materials.

Während die Algorithmen insgesamt wesentlich großzügiger aussortierten, nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht.

Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen. Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und Nutzer darüber aufklären, wie die Algorithmen funktionieren.“

Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes („NetzDG“), wonach zumindest For­sche­r*in­nen von den Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte ein erster Schritt zu mehr Transparenz sein.

Neues Tool „Decoding Antisemitism“

Immerhin ist auch ein sogenann­tes Gegenvorstellungsverfahren vorgesehen, in dem Nut­ze­r*in­nen die Überprüfung von Mo­derationsentscheidungen einfordern können. Die Be­trei­be­r*in­nen müssen dann eine Begründung für ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der Künstlichen Intelligenz ist nicht vorgesehen.

Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als eine zentrale Priorität des von ihm geleiteten Projektes „Decoding Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem Zentrum für Antisemitismusforschung der Technischen Universität Berlin und dem King’s College London entwickelte Forschungsvorhaben soll der Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede ein wirksames, smarteres Moderationstool entgegensetzen:

„Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus funktioniert schon fast nach einem schablonenhaften Muster, das stets mit dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel zum Ausdruck zu bringen.“

Derzeit untersuchen For­sche­r*in­nen in Deutschland, Frankreich und Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das geplante Tool soll später in der Lage sein, besonders impliziten Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der Algorithmus ausführlich getestet und von Menschen trainiert wird.

Wie verändern sich Ressentiments mit der Zeit?

Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur definieren können, dass es sich um Antisemitismus handelt – sondern auch feststellen können, welche Stereotype und Sprachmuster bedient werden. Das soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit verändern.

Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen – vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln hervorrufen kann, betont Becker.

Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in den Augen der anderen. Solange die Menschen reden, werden sie also kreativ sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Es ist ein sehr schmaler Grat in einer freiheitlichen Demokratie Kommunikation zu verbieten.



    Der Weg der Amerikaner die freie Rede im Grunde gar nicht zu untersagen, unabhängig vom Inhalt, scheint mir am praktikabelsten.



    Denn wenn nicht einmal Juristen sich oft einig sind ob etwas noch erlaubt und wann es verboten ist, wie soll dies ein Computer können ? oder wie sollen dies Leute die angestellt sind können, die vermutlich keine jahrelange juristische Ausbildung für diesen Job haben?