TikTok drosselt Menschen mit Behinderung: Die Bequemlichkeitsfalle

Das angesagte soziale Netzwerk TikTok begrenzt die Reichweite von Nutzer*innen mit Behinderung. Angeblich um sie zu schützen.

Bunte gezeichnete Personen in einer Reihe mit Handys

TikTok möchte – natürlich – für alle da sein. Ist es aber nicht Foto: imago-images/Jenice Kim

TikTok ist die neueste angesagte Gute-Laune-Plattform im Netz. Inzwischen haben schon mehr als eine Milliarde Menschen die App heruntergeladen und publizieren ihre kurzen Videos, kommunizieren in Duetten miteinander, tanzen und lachen. TikTok hat eigene Stars und eigene Codes. Wie bei jedem „heißen Ding“ davor ist die Durchdringung seiner Funktionen fürs Erste den jungen Early Adoptern vorbehalten. Aber Vorsicht, seit selbst die „Tagesschau“ mit dem Dienst experimentiert, kann man die Plattform wohl als im kommunikativen Mainstream angekommen betrachten.

Im Hintergrund operiert jedenfalls ein internationaler Konzern, das chinesische Unternehmen ByteDance. Dass die Massen an Daten in irgendeiner Form gesteuert werden, und das nicht nur mit technischen Hilfsmitteln, überrascht kaum. Wie intensiv und auf welche Feinheiten fokussiert das jedoch passiert, ist erst durch einige Leaks bekannt geworden. Seit zwei Wochen präsentiert netzpolitik.org, eine Plattform für digitale Themen und Nachrichten, den letzten der Leaks – umfassend recherchiert und eingeordnet in inzwischen drei großen Beiträgen.

Im ersten Bericht ging es um politische Kontrolle und Zensur von Inhalten, im zweiten um Unterdrückung von Kritik am Unternehmen und der Plattform selbst. Der dritte Beitrag, über Moderationskriterien, die vorgeblich zum Schutz verletzlicher Nutzer*innen eingerichtet sind, sorgt aktuell für heftige Kritik an TikTok.

TikTok spart so jede Menge Ressourcen für empathische Moderation

Nicht zufällig wurde der Bericht am Vorabend des Internationalen Tages der Menschen mit Behinderungen veröffentlicht. Denn aus internen Moderationsregeln entnimmt netzpolitik.org, dass TikTok die Reichweite von bestimmten Nutzer*innen aktiv drosselt – zum Beispiel von Menschen, die mit Behinderungen leben. Begründet wird dieser Schritt, ebenfalls in den internen Dokumenten, mit dem Schutz dieser Menschen vor Mobbing. Die Logik dahinter ist, dass Nutzer*innen am besten vor Hatespeech und dergleichen bewahrt würden, wenn weniger Menschen ihre Beiträge sehen könnten.

Schwelle zur Sichtbarkeit

Dass damit das Prinzip jeder sozialen Plattform gebrochen wird, die zumindest theoretisch vorhandene weltweite Kommunikationsfähigkeit nämlich, scheint die Betreiberfirma nicht zu stören, Nutzer*innen dafür umso mehr. Das Unsichtbarmachen der „anderen“ ist eine gesellschaftlich praktizierte Bequemlichkeit, gegen die Aktivist*innen, ob aus der Enthinderungsbewegung, aus dem LGBTI-Kontext und traditionell auch Feminist*innen nicht ohne Grund Sturm laufen. Das Internet im Allgemeinen und soziale Medien im Besonderen hatten schon immer das Potential, genau diese Schwelle zur Sichtbarkeit zu nivellieren und Marginalisierten eine Stimme, ein Publikum und Verbündete zu geben.

Das an sich Großartige der Selbstpublikation vor einem potentiellen Millionenpublikum hat selbstverständlich seine Schattenseiten. Missgünstige, hasserfüllte und menschenverachtende Kommentare können unglaublich verletzend sein, vor allem wenn sie in Kaskaden hundert- oder gar tausendfacher Beleidigungen und Drohungen kommen. Konzepte zum Schutz möglicherweise gefährdeter Individuen zu entwickeln, ist daher wichtig – und eine gewaltige Herausforderung. An ihrem Anfang muss aber zwingend das Gespräch mit diesen Menschen stehen und nicht ihre erneute, ungefragte Marginalisierung, dieses Mal im digitalen Raum.

Die Unsichtbarmachung ist letztlich nicht nur eine vor der Welt, sondern auch eine vor dem Plattformbetreiber. Der spart so jede Menge Ressourcen für zugewandte und empathische Moderation. So aber geht es nicht.

Ohne materielle und emotionale Investition wird niemand geschützt. Außer das Normalmittel, das sich so von der Pflicht zu solidarischem Handeln entbunden sehen kann. Neben uns Nutzer*innen selbst bleibt TikTok genauso wie Twitter und Face­book jedoch in genau dieser Pflicht. Ohne Wenn und Aber und Abkürzungen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.