Algospeak auf TikTok und Instagram: Wtf heißt „slip n slide“?

Auf Tiktok entwickelt sich eine Art Geheimsprache, um Zensur durch den Algorithmus zu umgehen. Was macht das mit dem offenen Diskurs?

gelber Dino mit rosa Krallen auf rosa Hintergrund und Sprechblase rawr

Schon Dinosaurier sprachen in Codes: „rawr“ heißt „Ich liebe dich“ Foto: Juj Winn/Moment/getty

Es gibt diese bestimmten Anzeichen, an denen man merkt, dass man nicht mehr jung ist. Der Körper macht auf einmal mehr Knackgeräusche, man kennt nun das gute und das schlechte Knie, aber vor allem versteht man die Jugend von heute nicht mehr.

Auf Tiktok wird das besonders deutlich. Damit ist nicht der Humor oder der Modestil gemeint, sondern buchstäblich die Sprache. Oder verstehen Sie was „slip n slide“ ist? Oder „le dollar bean“? Ersteres soll „suicide“, also Selbstmord, heißen, Letzteres bedeutet „lesbian“, also Lesbe. Hätten Sie es gewusst?

Hinter seltsam anmutigen Neologismen wie Seggs (Sex), s<hwul (schwul), Ouid (Weed) und YT (white) steckt nicht einfach nur der Wunsch von jungen Leuten, sich via Sprache von den „Alten“ abzugrenzen. Sie werden quasi gezwungen, so zu sprechen – von den Algorithmen auf Tiktok und Instagram. Es hat sich eine Geheimsprache entwickelt: Algospeak.

Der Algorithmus, der hinter den Social-Media-Plattformen steckt, ist ein Mysterium. Ein mächtiges. Wenn ihm etwas nicht gefällt, schlägt er zu: Inhalte oder gar Nut­ze­r*in­nen werden gesperrt. Auch die Sichtweite kann extrem eingeschränkt werden. Stichwort: „Shadow Banning“. Dabei werden die Use­r*in­nen nicht einmal informiert, wenn sie so gebannt werden. Sie wissen nicht, was sie falsch gemacht haben.

Das größte Problem in der ganzen Situation ist, dass Tiktok, Instagram und Co nicht offenlegen, wie ihr Algorithmus funktioniert, und Use­r*in­nen dem wenig entgegenzusetzen haben. Sie können zwar Einspruch einlegen, aber das ist so, wie zu hoffen, bei der nächsten Massenbesichtigung in Berlin die Wohnung zu bekommen.

Vorwand Hassrede verhindern

Man kann nur im Nachgang erahnen, was der Algorithmus nicht zu mögen scheint: Sex, LGBTQ-Themen, Auseinandersetzungen mit Rassismus und Gewalt etc. Dabei macht es keine Unterschiede, wie darüber gesprochen wird.

Eine Recherche von „Tagesschau“, NDR und WDR hat gezeigt, dass auf Tiktok Deutschland Posts mit Begriffen wie „homosexuell“, „LGBT“, „Auschwitz“ und „Nationalsozialismus“ weniger Use­r*in­nen gezeigt wird. Tiktok begründet das Ausfiltern mit dem Versuch, Hassrede und Spam zu verhindern. Wir sehen ja, wie gut das funktioniert. Dieses automatisierte Filtern trifft vor allem marginalisierte Gruppen, die über ihre Lebensrealität sprechen möchten und gleichzeitig damit riskieren, ihre hart erkämpfte Bühne wieder zu verlieren.

Was, wenn man über diese Themen posten möchte, ohne Reichweite zu verlieren? Man spricht eben anders. Mit Rechtschreibfehlern, Emojis und Sonderzeichen versuchen Use­r*in­nen den tyrannisch herrschenden Algorithmus zu umgehen. Die Journalistin Taylor Lorenz von der Washington Post hat dem Phänomen eine eigene Bezeichnung gegeben: „Algospeak“.

Man könnte jetzt meinen: Algospeak sei die neue Jugendsprache. Immerhin nutzen fast ein Drittel der 14- bis 29-Jährigen Tiktok und die Sprache schwappt auch immer mehr auf andere Social-Media-Plattformen wie Instagram über. Milliarden Use­r*in­nen auf der ganzen Welt können auf eine Sprache zugreifen, die nur durch eine gemeinsame popkulturelle Identität verständlich ist. Völkerverständigung mit einem Auberginen-Emoji, wie schön.

Obwohl der kreative Umgang mit der Plattform spannend ist und die grauen Zellen angeregt werden, um aus dem Kontext zu erschließen, worum es im Post geht.

Sprechen ohne Euphemismen

Eigentlich gibt es hier nichts zu romantisieren. Es ist keine Jugendsprache, die entstanden ist, um sich von denen da oben mal abzugrenzen. Es ist ein Versuch, sich gegen das Silencing durch den Algorithmus zu wehren. Und gleichzeitig hat es Auswirkungen auf die Art, wie wir über Sachverhalte denken.

Sprache beeinflusst unser Denken. Wenn in der politischen Debatte über Geflüchtete Worte wie „Sozialtourismus“ fallen, beinflusst es das Denken über Flucht und Migrant*innen. Eine stetige negative Berichterstattung über Mi­gran­t*in­nen sorgt auch dafür, dass die Bevölkerung das Thema negativ konnotiert – mit den bekannten Folgen.

Doch es sind nicht nur Worte, die den Umgang mit etwas prägen, sondern auch wie wir über etwas sprechen können. Social Media schien der Ort der Normalisierung zu sein, in denen einzelne Use­r*in­nen in der Lage waren, Menschen mit ihren Posts zu erreichen und zum Diskurs beizutragen. Viele – auch Marginalisierte – haben dieses Medium genutzt, um niedrigschwellig über ihre Angelegenheiten zu sprechen und zu normalisieren. Doch dazu gehört eben auch eine deutliche Sprache, ohne Abkürzungen, ohne Euphemismen.

Auch im Offline-Leben: In den 1950er und 1960er Jahren nutzten homosexuelle Männer im Vereinigten Königreich – vor allem in London – einen eigenen Soziolekt: Polari. Von verschiedenen Einflüssen von Cockney, Italienisch und Jiddisch geprägt, war Polari für heterosexuelle Menschen ein Kauderwelsch.

Für die Sprecher hingegen eine Sicherheitsmaßnahme, um in einer bedrohlichen Welt miteinander kommunizieren zu können und sich vor anderen zu outen. Es ist kein Wunder, dass die Sprache nach der Aufhebung des Verbots der Homosexualität 1967 nicht mehr genutzt wurde. Mit der beginnenden Normalisierung kam auch die eindeutige Sprache.

Allerdings sind wir bei Tiktok beinahe wieder bei einer Art „Don’t say gay“ angelangt. Wenn da steht „Is he *Lackierte Nägel Emoji“?, kann von einem offenen Diskurs nicht die Rede sein. Das hat die Vibes von „Ist er … du weißt schon *flüster* schwul“.

Aus fat wird f@t

Wenn Content-Creator*innen sich überlegen müssen, wie sie Themen benennen, findet eine Re-Tabuisierung statt, die teilweise lächerliche Blüten trägt. So wird aus „fat“, eben dem englischen Wort für dick, f@t. Plötzlich ist wohl auch das eigene Köpergewicht ein Stein des Anstoßes. Da kann einem noch so viel Bodypositivity in die Timeline gepült werden, das „@“ zeigt: Das ist etwas Schamvolles! Darüber reden wir nicht!

Erschwerend kommt hinzu, dass der Algorithmus nicht nur instransparent ist, sondern eben auch dynamisch. Es entwickelt sich ein Katz-und-Maus-Spiel zwischen Use­r*in­nen und Algorithmus rund um die Frage: Was kann überhaupt wie gesagt werden? In einem vorauseilendem Gehorsam zensieren sich die Crea­to­r*in­nen selbst.

Dabei können die Nut­ze­r*in­nen selbst wenig ausrichten. Die Politik ist gefragt. Hier geht es nämlich nicht um eine kleine Plattform, wo sich irgendwelche Teenies tummeln, sondern um ein mächtiges Instrument, das schon jetzt die politische Debatte prägt.

Tiktok wurde bereits mehrfach auch politische Zensur im Sinne der chinesischen Regierung vorgeworfen. So wurden beispielsweise eine Zeitlang Beiträge, die die chinesische Tennisspielerin Peng Shuai erwähnten, unterdrückt. Sie hatte den ehemaligen Funktionär Zhang Gaoli im November 2021 vorgeworfen, sie sexuell missbraucht zu haben.

Politik ist gefragt

Doch wir sind den Algorithmen nicht ausgeliefert, auch wenn es sich manchmal so anfühlt. Eines ist sicher: Ein gewisser Druck hilft, das zeigt auch wieder die Recherche von „Tagesschau“, NDR und WDR.

Nach Veröffentlichung des Artikels waren einige der Begriffe auf Tiktok wieder aufrufbar. Doch der Druck kann nicht nur von den Medien und der Öffentlichkeit kommen und auch nicht von den Content-Creator*innen, die fürchten müssen, ihre Bühne und teilweise ihre Einnahmequelle zu verlieren.

Die Politik ist gefragt. Bisher behandelt sie die Problematik der in­transparenten Algorithmen eher stiefmütterlich, allenfalls reaktiv. Dabei gibt es Möglichkeiten, wie die Gesetzgebung dagegenhalten kann. Mit einer Überarbeitung des „Digital Services Act“ – des Gesetzes über digitale Märkte und Dienste.

So könnte die Europäische Union die Erforschung der Algorithmen vereinfachen. Dagegen sträuben sich die Plattformen nämlich bisher vehement. Ein gutes Zeichen, dass so eine Überarbeitung den Nerv treffen würde.

Doch bis es so weit ist, wird Algo­speak weiter florieren, bis die Posts nur noch mit einem Stein von Rosetta zu verstehen sind.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.