Verschwörungstheorien auf YouTube: Mit jedem Klick weiter nach rechts
Vielen Forschern gilt YouTube als Radikalisierer, der Nutzer auf kurzen Wegen zu Rassismus und Verschwörungstheorien lenkt. Stimmt das?
Gerade einmal zwei Klicks brauchte es, um auf YouTube knietief irgendwo zwischen AfD und rechten Verschwörungstheorien zu landen. Wenige Tage nach den Hetzjagden von Chemnitz war es, als Ray Serrato das herausfand. Er sei von diesem Ergebnis seiner Datenanalyse schon „etwas schockiert“ gewesen, sagt er.
Der in Berlin lebende Datenanalyst war über den Onkel seiner Frau auf ein YouTube-Video gestoßen, in dem zwei Männer so ziemlich jede Falschinformation austauschen, die rund um den Tod von Daniel H. damals kursierten. Binnen weniger Tage kam das Video auf über eine halbe Million Klicks – das sind ungewöhnlich viele für einen Clip des Leipziger YouTube-Kanals NuoViso. Ähnlich erfolgreich laufen dort nur Videos darüber, wie Stanley Kubrick die Mondlandung fingierte oder was mit den Türmen des World Trade Centers tatsächlich geschah.
Serratos Analysen sagen, dass die meisten YouTube-Videos zu Chemnitz, die in den Tagen nach den Ausschreitungen populär waren, stramm rechts waren. Und dass in der Empfehlungsspalte, die auf YouTube rechts neben dem Video auftaucht, auch dann schnell Verschwörungstheoretisches und Rechtsextremes vorgeschlagen wurde, wenn man eigentlich nur nach Nachrichten zu Chemnitz gesucht hat.
Überraschend kommt das nicht. Mehrere US-Forscher haben darauf hingewiesen, dass YouTubes Empfehlungen seine Nutzer zu immer extremeren Inhalten führen. Vor allem: politisch immer weiter nach rechts.
Intime Beziehung
Die US-Techniksoziologin Zeynep Tufekci von der University of North Carolina bemerkte, dass YouTube ihr nach Trump-Videos immer radikalere Inhalte vorschlug. Videos von linken US-Politikern wie Sanders und Clinton führten sie zu linken Verschwörungstheorien. Videos über Jogging zu Ultra-Marathons.
Die drittpopulärste Seite der Welt, die seine Nutzer ständig in Extreme führt. YouTube könne „eines der mächtigsten Radikalisierungswerkzeuge des 21. Jahrhunderts“ werden, analysierte Tufekci. Besonders gefährlich sei das, weil viele junge Menschen dort nach Informationen suchten.
YouTube, das sind knapp 2 Milliarden Nutzer in mehr als 190 Ländern. Es wächst doppelt so schnell wie Facebook und wird von der großen Mehrheit junger Menschen in Deutschland mehrmals täglich genutzt. YouTube-Stars haben es perfektioniert, mit direkter Ansprache eine scheinbar direkte, intime Beziehung mit ihren ZuschauerInnen zu führen. Läuft es gut, folgen ihnen ergebene Fans zu Tausenden, werden sie Wortführer in einem Mikrokosmos, während die breite Öffentlichkeit nicht mal ihre Namen kennt
Viel Geld gibt es da zu verdienen, aber eben auch Einfluss – in einem Universum, in dem jede Minute 400 Stunden Videomaterial hinzugefügt werden.
Lügende Populisten
Fast jeder kennt doch den Sog, den YouTube entfalten kann: ein Video, noch eins, noch eins. Und 90 Minuten später erwacht man wie aus einer Hypnose, überrascht, wohin man nun schon wieder abgedriftet ist. YouTubes Algorithmen machen das möglich, verführen uns mit Auto-Play und Empfehlungen, so lange wie irgend möglich auf der Seite zu bleiben. Denn so verdient YouTube Geld, indem es unsere Aufmerksamkeit verkauft. An Werbekunden.
YouTube, das sind für viele noch immer Musikvideos, das ist Unterhaltung: jungerwachsene Gamer und Schminkspezialistinnen. YouTube, das sind aber auch Videos, in denen Populisten lügen, Hetzer schreien und Menschen sterben. Wird über Hass und Hetze und Falschinformationen im Netz gesprochen, geht es dennoch meist um Facebook.
Vielleicht noch um Twitter, weil Forscher deren Daten so schön auswerten können. YouTube wird, wenn überhaupt, nur am Rande mitbesprochen. Gigantisch und doch merkwürdig unterbelichtet. Ein Fehler?
Jonas Kaiser widerspricht Tufekcis Rede von YouTube als großem Radikalisierer. „Für diese These gibt es keine belastbare Forschung“, sagt er. „Meines Erachtens schießt sie über das Ziel hinaus.“ Auch er erforscht, was YouTube seinen Nutzern empfiehlt – am von Google anschubfinanzierten Humboldt Institut für Internet und Gesellschaft in Berlin und derzeit am Berkman Center in Harvard.
Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im praktischen Wochenendabo. Und bei Facebook und Twitter.
Rechte Filterblasen
Wie Tufekcis Experimente stützten sich auch viele andere Analysen auf anekdotische Beweise, kritisiert er. „Es ist nicht verwunderlich, dass auf YouTube viele rechte und verschwörungstheoretische Inhalte empfohlen werden – weil es davon einfach besonders viel Content gibt“, sagt er.
Hinzu kommt: Wer Nazivideos anschaut, wird natürlich nicht automatisch Nazi. Jonas Kaiser sagt, man müsse hinterfragen, wer diese Videos suche und anschaue. Denn: Selbst wenn die Zahl der Aufrufe eines Videos hoch sei, sage das doch wenig darüber aus, wie diese Videos wahrgenommen würden. Extremisten würden die wenigsten, weil sie sich ein paar Videos auf YouTube angesehen hätten. Das funktioniere eher über persönliche Kontakte, Chats.
Auch Kaisers gemeinsam mit einem Kollegen erarbeitete Analysen haben ergeben, dass YouTube bei Suchen zu Politik rechte Kanäle bevorzugt empfehle. Dass der Weg etwa von AfD zu Identitären kurz sei, Nutzer schnell in rechte Filterblasen rutschten. „Wir wissen aber nicht, was ist die Henne und was das Ei“, sagt er und meint damit: ob dieser Effekt auf YouTubes Algorithmen zurückgeht oder auf die Klicks der Nutzer.
YouTubes Algorithmen analysieren, was in der Vergangenheit die Nutzer möglichst lange auf den Seiten gehalten hat. Wer Eulen-Videos schaut, klickt auch Igel-Content? Merken! Verschwörungstheoretisches über den 11. September läuft gut? Häufiger anbieten. Die Erklärung für den Rechtsdrall in den Empfehlungen könnte also ganz einfach sein: YouTubes lernende Maschinen bieten immer radikalere Videos feil, weil das bei diesem Nutzer oder bei vielen anderen, ihm ähnlichen Nutzern zieht.
Große Macht
Nur: Worauf genau YouTubes Algorithmen anspringen, was ihre Auswahl beeinflusst, lässt das Unternehmen weitgehend im Unklaren. „Das Ziel unserer Empfehlungen ist es, den Menschen Videos anzubieten, die sie mit der Erfahrung auf YouTube zufrieden machen“, ist YouTubes Standardreaktion auf Vorwürfe zu ihren Empfehlungsalgorithmen. „Milliarden Signale“ würden eine Rolle dabei spielen, was einem Nutzer angeboten werde, schreibt YouTube in einem Pressestatement weiter: Likes und Dislikes würden eine Rolle spielen, das Teilen des Videos oder andere Interaktionen mit den Inhalten.
Konkreter wird’s nicht, weil: Das Wirken ihrer Algorithmen ist, wie bei den anderen Tech-Plattformen auch, Geschäftsgeheimnis. „Wir legen das aus einem guten Grund nicht offen“, sagt der deutsche YouTube-Sprecher Henning Dorstewitz. „Weil manche Leute sofort anfangen würden, das auszutricksen.“
Datenanalysten wie Ray Serrato probieren, Diensten wie YouTube trotzdem unter die Motorhaube zu blicken. Für die Vereinten Nationen hat er analysiert, wie Hassrede bei Facebook Völkermord und Vertreibung der Rohingya in Myanmar befeuerte. „Auch wenn Facebook das nicht so designt hat, ist es doch verantwortlich dafür, wie seine Plattform genutzt wurde. Und bei YouTube ist es genauso: Auch hier gibt es eine Verantwortung dafür, Leute in Richtung von extremistischem Content zu stupsen.“
Spätestens seit der US-Wahl 2016 wird über diese Verantwortung von Social-Media-Plattformen gestritten. Was sie auffindbar machen, findet den Weg zu Nutzern. Darin wohnt große Macht und damit große Verantwortung. YouTube, Facebook und wie sie alle heißen, haben sich lange gesträubt, diese anzunehmen. Öffentlicher Druck erzeugt jetzt zumindest minimale Bewegungen.
Nachrichten sortieren
„Heute geht es uns primär darum, die Qualität des Nutzerlebnisses zu verbessern“, sagt YouTube-Sprecher Dorstewitz, „und nicht darum, immer noch schockierendere Inhalte anzuzeigen.“ Doch ob ein Inhalt gemäßigt oder extrem sei, das könne ein Algorithmus noch nicht erkennen.
Seit dem 11. September dieses Jahres hat YouTube auch in Deutschland zwei Funktionen eingeführt, die die Empfehlungen bei Nachrichtenthemen beeinflussen. „Breaking News“ soll dabei helfen, Falschmeldungen und unseriöse Nachrichtenquellen bei aktuellen Großereignissen weniger prominent anzuzeigen, „Top News“ sortieren nach der gleichen Logik Nachrichten auch dann noch, wenn die Aktualität etwas abgeebbt ist.
In beiden Fällen gelten als seriöse Quellen, was auch bei Google News gelistet ist – gehören doch YouTube und Google zum Alphabet-Konzern. Als Nachrichtenereignis werden Themen laut Dorstewitz automatisch ausgewählt – etwa, wenn auf Google News auffällig viele Texte in kurzer Zeit zum Thema erscheinen. In den USA ist das Feature bereits seit Juli aktiv.
Sucht man heute auf YouTube nach Chemnitz, erscheinen Videos von Medien wie Welt, Bild, „Tagesschau“ und MDR – und auch ein Klick weiter triggert keine Empfehlungen aus dem scharf rechten Spektrum.
Nur Flickschusterei?
„Das ist ein großartiger Schritt von YouTube“, sagt Chemnitz-Datenanalyst Serrato – wobei natürlich diskutiert werden wird, was eine seriöse Quelle ist, Forscher und Gesellschaft die Veränderungen genau beobachten müssten. Forscher Jonas Kaiser ist skeptischer. „Das ändert erst einmal nichts an den rechten Blasen auf YouTube“, sagt er. Man müsse schauen, ob das wirklich dazu führt, dass rechtsextreme und verschwörungstheoretische Videos weniger geschaut werden.
Genügt dieser Eingriff von YouTube? Ist er mehr als Flickschusterei an einem System aus Empfehlungsalgorithmen, das seinen riesigen Anforderungen nicht mehr gewachsen ist?
Die neuen Features funktionieren bei Nachrichtenereignissen. Forscher Kaiser weist allerdings auch darauf hin, dass die Abrufzahlen, auf die Let’s-Play- oder Fitness-YouTuber kommen, die Abrufzahlen der meisten Videos zu politischen Ereignissen deutlich in den Schatten stellen. Nachrichten suchten gerade einmal 10 Prozent aller YouTube-Nutzer in Deutschland, sagt Kaiser: „Da kann man schon darüber streiten, wie relevant das tatsächlich ist.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
taz-Recherche zu Gewalt gegen Frauen
Weil sie weiblich sind
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen