Video des Anschlags in Christchurch: Bild dir deinen Terror
Der Attentäter hat den Anschlag medial erfolgreich verbreiten können. Dafür allein die sozialen Medien verantwortlich zu machen, greift zu kurz.
Im Tarnanzug und mit einer Schrotflinte bewaffnet läuft Brenton Tarrant am vergangenen Freitagnachmittag in neuseeländischen Christchurch auf die Al-Noor-Moschee zu. Wenige Minuten später erschießt er 42 Muslim*innen, die sich dort zum Freitagsgebet versammelt hatten. Kurz darauf tötet er in einer zweiten Moschee acht weitere Gläubige. Der rassistische Terrorangriff lässt sich in einem 17-minütigen Video Schritt für Schritt nachvollziehen. Was sich nach einem fiktiven Computerspiel anhört, ist grausame Realität; denn der Täter streamte den Angriff mit einer Helmkamera live bei Facebook.
Obwohl die Polizei sowie Neuseelands Premierministerin Jacinda Ardern dazu aufgerufen hatten, das Video nicht zu teilen, verbreiteten Nutzer*innen es vielfach bei Facebook, Reddit, Twitter und YouTube. Was daran problematisch ist, wenn eine terroristische Tat massenmedial verbreitet wird, muss eigentlich nicht erklärt werden. Wer das Video in Gänze oder in Teilen zugänglich gemacht oder geteilt hat, folgt damit genau den Wünschen des Terroristen, verschafft ihm Aufmerksamkeit und inspiriert Nachahmer.
Tage nach dem Attentat wird nun diskutiert, wieso die Plattformen noch immer keinen Weg gefunden haben, solche Videos schneller zu löschen. So ließ sich auch Stunden nach der Tat das Video noch über einfache Schlagworte wie den Namen des Täters bei YouTube finden. Das Problem: Ein Video, das sich schnell verbreitet, aus dem Internet verschwinden zu lassen, ist nicht so einfach.
Mia Garlick, die neuseeländische Sprecherin von Facebook, teilte am Sonntag via Twitter mit, dass Facebook das Video und den Account des Attentäters schnell gelöscht habe. Zusätzlich habe man innerhalb von 24 Stunden 1,5 Millionen Videos des Anschlags gelöscht, 1,2 Millionen wurden schon während des Uploadversuchs entfernt. Dabei arbeitet Facebook mit Algorithmen, die die Videos schon vor dem Hochladen als gewaltvoll identifizieren und löschen.
Wenn die Algorithmen nicht greifen
Eine internationale Datenbank, bei der nach Facebook-Angaben das Ursprungsvideo hochgeladen wird, erkennt auch Kopien und löscht diese automatisch. Sobald die Videos jedoch verändert, also beispielsweise spiegelverkehrt oder von einem Bildschirm abgefilmt, hochgeladen werden, greifen die Algorithmen nicht mehr. Dann sind sozialen Medien auf menschlichen Sichter*innen angewiesen, die traumatisierende Bilder und Videos sichten müssen, um diejenigen von der Plattform zu entfernen, die gegen die Richtlinien verstoßen.
Den Plattformen deswegen komplett ihrer Verantwortung zu entziehen, ist nicht der richtige Schluss. Wer Applikationen auf den Markt bringt, ist dafür verantwortlich, wie sie genutzt werden. Doch sie tragen die Verantwortung auch nicht alleine. Es geht ebenso um die Nutzer*innen und Medien, die das Video verbreiten. So musste sich am Montag in Neuseeland ein 18-Jähriger vor Gericht verantworten, weil er den Livestream des Attentäters verbreitet hatte. Doch er ist nur einer von Millionen.
Noch vor 15 Jahren hätte ein Terrorist sein Videomaterial nur in der Welt schicken können, wenn ein Medium dazu bereit gewesen wäre, es zu veröffentlichen. Doch die Zeit, in der Medien diese Gatekeeper-Funktion innehatten, ist vorbei. Augenzeugenvideos von Tatorten gehen schneller online als Journalist*innen vor Ort sind. Milliarden Menschen können Fotos und Videos in Echtzeit veröffentlichen – auch Täter*innen.
Medien tragen Verantwortung, wenn sie die Videos verbreiten. So hat sich beispielsweise die Bild-Zeitung dazu entschieden, ausführliche Ausschnitte des Videos zu teilen. Bild-Chef Julian Reichelt erklärte, sie wollten das Video einordnen. Da bei dem Artikel von einer Einordnung nicht die Rede sein kann, liegt die Vermutung nahe, dass Reichelt die Klicks schlicht nicht den sozialen Medien überlassen wollte.
Weder in meiner Facebook-Timeline noch in meinem Twitter-Feed ist seit Freitag das Video oder das „Manifest“ des Täters aufgetaucht. Es gibt eben sehr viele Nutzer*innen, die wissen, dass sie mit dem Teilen des Videos dem Täter in die Hände spielen, der auf menschliche Abgründe und unfähige beziehungsweise kommerziellen Zwecken dienende Technik setzt, um seinen Rassismus zu verbreitet. Zum Glück gibt es eine Vielzahl von Nutzer*innen die klüger sind als Algorithmen und Julian Reichelt.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Prozess zu Polizeigewalt in Dortmund
Freisprüche für die Polizei im Fall Mouhamed Dramé
Ex-Wirtschaftsweiser Peter Bofinger
„Das deutsche Geschäftsmodell funktioniert nicht mehr“
Fake News liegen im Trend
Lügen mutiert zur Machtstrategie Nummer eins
Fall Mouhamed Dramé
Psychische Krisen lassen sich nicht mit der Waffe lösen
Proteste in Georgien
Wir brauchen keine Ratschläge aus dem Westen
Leben ohne Smartphone und Computer
Recht auf analoge Teilhabe