Algospeak auf TikTok und Instagram: Wtf heißt „slip n slide“?
Auf Tiktok entwickelt sich eine Art Geheimsprache, um Zensur durch den Algorithmus zu umgehen. Was macht das mit dem offenen Diskurs?
Es gibt diese bestimmten Anzeichen, an denen man merkt, dass man nicht mehr jung ist. Der Körper macht auf einmal mehr Knackgeräusche, man kennt nun das gute und das schlechte Knie, aber vor allem versteht man die Jugend von heute nicht mehr.
Auf Tiktok wird das besonders deutlich. Damit ist nicht der Humor oder der Modestil gemeint, sondern buchstäblich die Sprache. Oder verstehen Sie was „slip n slide“ ist? Oder „le dollar bean“? Ersteres soll „suicide“, also Selbstmord, heißen, Letzteres bedeutet „lesbian“, also Lesbe. Hätten Sie es gewusst?
Hinter seltsam anmutigen Neologismen wie Seggs (Sex), s<hwul (schwul), Ouid (Weed) und YT (white) steckt nicht einfach nur der Wunsch von jungen Leuten, sich via Sprache von den „Alten“ abzugrenzen. Sie werden quasi gezwungen, so zu sprechen – von den Algorithmen auf Tiktok und Instagram. Es hat sich eine Geheimsprache entwickelt: Algospeak.
Der Algorithmus, der hinter den Social-Media-Plattformen steckt, ist ein Mysterium. Ein mächtiges. Wenn ihm etwas nicht gefällt, schlägt er zu: Inhalte oder gar Nutzer*innen werden gesperrt. Auch die Sichtweite kann extrem eingeschränkt werden. Stichwort: „Shadow Banning“. Dabei werden die User*innen nicht einmal informiert, wenn sie so gebannt werden. Sie wissen nicht, was sie falsch gemacht haben.
Das größte Problem in der ganzen Situation ist, dass Tiktok, Instagram und Co nicht offenlegen, wie ihr Algorithmus funktioniert, und User*innen dem wenig entgegenzusetzen haben. Sie können zwar Einspruch einlegen, aber das ist so, wie zu hoffen, bei der nächsten Massenbesichtigung in Berlin die Wohnung zu bekommen.
Vorwand Hassrede verhindern
Man kann nur im Nachgang erahnen, was der Algorithmus nicht zu mögen scheint: Sex, LGBTQ-Themen, Auseinandersetzungen mit Rassismus und Gewalt etc. Dabei macht es keine Unterschiede, wie darüber gesprochen wird.
Eine Recherche von „Tagesschau“, NDR und WDR hat gezeigt, dass auf Tiktok Deutschland Posts mit Begriffen wie „homosexuell“, „LGBT“, „Auschwitz“ und „Nationalsozialismus“ weniger User*innen gezeigt wird. Tiktok begründet das Ausfiltern mit dem Versuch, Hassrede und Spam zu verhindern. Wir sehen ja, wie gut das funktioniert. Dieses automatisierte Filtern trifft vor allem marginalisierte Gruppen, die über ihre Lebensrealität sprechen möchten und gleichzeitig damit riskieren, ihre hart erkämpfte Bühne wieder zu verlieren.
Was, wenn man über diese Themen posten möchte, ohne Reichweite zu verlieren? Man spricht eben anders. Mit Rechtschreibfehlern, Emojis und Sonderzeichen versuchen User*innen den tyrannisch herrschenden Algorithmus zu umgehen. Die Journalistin Taylor Lorenz von der Washington Post hat dem Phänomen eine eigene Bezeichnung gegeben: „Algospeak“.
Man könnte jetzt meinen: Algospeak sei die neue Jugendsprache. Immerhin nutzen fast ein Drittel der 14- bis 29-Jährigen Tiktok und die Sprache schwappt auch immer mehr auf andere Social-Media-Plattformen wie Instagram über. Milliarden User*innen auf der ganzen Welt können auf eine Sprache zugreifen, die nur durch eine gemeinsame popkulturelle Identität verständlich ist. Völkerverständigung mit einem Auberginen-Emoji, wie schön.
Obwohl der kreative Umgang mit der Plattform spannend ist und die grauen Zellen angeregt werden, um aus dem Kontext zu erschließen, worum es im Post geht.
Sprechen ohne Euphemismen
Eigentlich gibt es hier nichts zu romantisieren. Es ist keine Jugendsprache, die entstanden ist, um sich von denen da oben mal abzugrenzen. Es ist ein Versuch, sich gegen das Silencing durch den Algorithmus zu wehren. Und gleichzeitig hat es Auswirkungen auf die Art, wie wir über Sachverhalte denken.
Sprache beeinflusst unser Denken. Wenn in der politischen Debatte über Geflüchtete Worte wie „Sozialtourismus“ fallen, beinflusst es das Denken über Flucht und Migrant*innen. Eine stetige negative Berichterstattung über Migrant*innen sorgt auch dafür, dass die Bevölkerung das Thema negativ konnotiert – mit den bekannten Folgen.
Doch es sind nicht nur Worte, die den Umgang mit etwas prägen, sondern auch wie wir über etwas sprechen können. Social Media schien der Ort der Normalisierung zu sein, in denen einzelne User*innen in der Lage waren, Menschen mit ihren Posts zu erreichen und zum Diskurs beizutragen. Viele – auch Marginalisierte – haben dieses Medium genutzt, um niedrigschwellig über ihre Angelegenheiten zu sprechen und zu normalisieren. Doch dazu gehört eben auch eine deutliche Sprache, ohne Abkürzungen, ohne Euphemismen.
Auch im Offline-Leben: In den 1950er und 1960er Jahren nutzten homosexuelle Männer im Vereinigten Königreich – vor allem in London – einen eigenen Soziolekt: Polari. Von verschiedenen Einflüssen von Cockney, Italienisch und Jiddisch geprägt, war Polari für heterosexuelle Menschen ein Kauderwelsch.
Für die Sprecher hingegen eine Sicherheitsmaßnahme, um in einer bedrohlichen Welt miteinander kommunizieren zu können und sich vor anderen zu outen. Es ist kein Wunder, dass die Sprache nach der Aufhebung des Verbots der Homosexualität 1967 nicht mehr genutzt wurde. Mit der beginnenden Normalisierung kam auch die eindeutige Sprache.
Allerdings sind wir bei Tiktok beinahe wieder bei einer Art „Don’t say gay“ angelangt. Wenn da steht „Is he *Lackierte Nägel Emoji“?, kann von einem offenen Diskurs nicht die Rede sein. Das hat die Vibes von „Ist er … du weißt schon *flüster* schwul“.
Aus fat wird f@t
Wenn Content-Creator*innen sich überlegen müssen, wie sie Themen benennen, findet eine Re-Tabuisierung statt, die teilweise lächerliche Blüten trägt. So wird aus „fat“, eben dem englischen Wort für dick, f@t. Plötzlich ist wohl auch das eigene Köpergewicht ein Stein des Anstoßes. Da kann einem noch so viel Bodypositivity in die Timeline gepült werden, das „@“ zeigt: Das ist etwas Schamvolles! Darüber reden wir nicht!
Erschwerend kommt hinzu, dass der Algorithmus nicht nur instransparent ist, sondern eben auch dynamisch. Es entwickelt sich ein Katz-und-Maus-Spiel zwischen User*innen und Algorithmus rund um die Frage: Was kann überhaupt wie gesagt werden? In einem vorauseilendem Gehorsam zensieren sich die Creator*innen selbst.
Dabei können die Nutzer*innen selbst wenig ausrichten. Die Politik ist gefragt. Hier geht es nämlich nicht um eine kleine Plattform, wo sich irgendwelche Teenies tummeln, sondern um ein mächtiges Instrument, das schon jetzt die politische Debatte prägt.
Tiktok wurde bereits mehrfach auch politische Zensur im Sinne der chinesischen Regierung vorgeworfen. So wurden beispielsweise eine Zeitlang Beiträge, die die chinesische Tennisspielerin Peng Shuai erwähnten, unterdrückt. Sie hatte den ehemaligen Funktionär Zhang Gaoli im November 2021 vorgeworfen, sie sexuell missbraucht zu haben.
Politik ist gefragt
Doch wir sind den Algorithmen nicht ausgeliefert, auch wenn es sich manchmal so anfühlt. Eines ist sicher: Ein gewisser Druck hilft, das zeigt auch wieder die Recherche von „Tagesschau“, NDR und WDR.
Nach Veröffentlichung des Artikels waren einige der Begriffe auf Tiktok wieder aufrufbar. Doch der Druck kann nicht nur von den Medien und der Öffentlichkeit kommen und auch nicht von den Content-Creator*innen, die fürchten müssen, ihre Bühne und teilweise ihre Einnahmequelle zu verlieren.
Die Politik ist gefragt. Bisher behandelt sie die Problematik der intransparenten Algorithmen eher stiefmütterlich, allenfalls reaktiv. Dabei gibt es Möglichkeiten, wie die Gesetzgebung dagegenhalten kann. Mit einer Überarbeitung des „Digital Services Act“ – des Gesetzes über digitale Märkte und Dienste.
So könnte die Europäische Union die Erforschung der Algorithmen vereinfachen. Dagegen sträuben sich die Plattformen nämlich bisher vehement. Ein gutes Zeichen, dass so eine Überarbeitung den Nerv treffen würde.
Doch bis es so weit ist, wird Algospeak weiter florieren, bis die Posts nur noch mit einem Stein von Rosetta zu verstehen sind.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Interner Zwist bei Springer
Musk spaltet die „Welt“
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Nach dem Anschlag von Magdeburg
Wenn Warnungen verhallen
Deutsche Konjunkturflaute
Schwarze Nullkommanull
Aufregung um Star des FC Liverpool
Ene, mene, Ökumene
Schäden durch Böller
Versicherer rechnen mit 1.000 Pkw-Bränden zum Jahreswechsel