Auf allen Kanälen: Wtf heisst «YT»?

Nr. 8 –

Auf Tiktok und Instagram entwickelt sich ein neuer Code, um Zensur durch den Algorithmus zu umgehen. Was macht das mit dem offenen Diskurs?

Illustration des Codes «f@t», Synonym für das englischen Wort für «dick»


Verstehen Sie, was «slip n slide» ist? Oder «le dollar bean»? Ersteres soll «suicide» heissen, Letzteres bedeutet «lesbian». Hinter Neologismen wie «Seggs» (Sex), «s<hwul» (schwul) und «YT» (white/weiss) steckt nicht einfach nur der Wunsch von jungen Leuten, sich via Sprache von den älteren Menschen abzugrenzen. Sie werden quasi gezwungen, sich so auszudrücken – von den Algorithmen auf Tiktok und Instagram. Daraus hat sich eine Geheimsprache entwickelt: Algospeak.

Wenn dem Algorithmus, der hinter den Social-Media-Plattformen steckt, etwas nicht gefällt, schlägt er zu: Inhalte oder gar Nutzer:innen werden gesperrt. Auch die Reichweite der Inhalte kann extrem eingeschränkt werden. Stichwort «shadow banning»: Posts sind nur noch für diejenigen sichtbar, die sie hochgeladen haben. Die User:innen werden nicht informiert, wenn sie so gebannt werden, wissen oft nicht einmal, was sie falsch gemacht haben.

Wie in den Fünfzigern

Nur im Nachgang lässt sich erahnen, was der Algorithmus nicht zu mögen scheint: Sex, LGBTQ-Themen, Auseinandersetzungen mit Rassismus und Gewalt et cetera. Dabei spielt es keine Rolle, wie darüber gesprochen wird. Eine Recherche von NDR, WDR und der deutschen «Tagesschau» hat gezeigt, dass auf Tiktok Deutschland Posts mit Begriffen wie «homosexuell», «LGBT», «Auschwitz» und «Nationalsozialismus» weniger User:innen angezeigt werden. Tiktok begründet das Ausfiltern mit dem Versuch, Hassrede und Spam zu verhindern. Doch trifft das automatisierte Filtern vor allem diskriminierte Gruppen, die riskieren, hier eine hart erkämpfte Bühne wieder zu verlieren.

Dabei schienen Social Media doch einst der Ort der Normalisierung zu sein: Viele haben Tiktok und Co. genutzt, um niederschwellig über ihre marginalisierten Angelegenheiten zu diskutieren. Wenn man heute zu diesen Themen posten möchte, ohne Reichweite zu verlieren, drückt man sich eben anders aus. Mit Rechtschreibfehlern, Emojis und Sonderzeichen versuchen User:innen, den tyrannischen Algorithmus zu umgehen.

Wie einst auch im Offlineleben: In den 1950er und 1960er Jahren nutzten schwule Männer in Grossbritannien – vor allem in London – einen eigenen Soziolekt: Polari. Von verschiedenen Einflüssen von Cockney, Italienisch und Jiddisch geprägt, war Polari für nicht eingeweihte Menschen ein Kauderwelsch. Für die Sprechenden hingegen war es eine Sicherheitsmassnahme, um in einer bedrohlichen Welt miteinander kommunizieren zu können und sich untereinander zu outen. Es ist kein Wunder, dass die Sprache nach der Aufhebung des Verbots der Homosexualität 1967 nicht mehr genutzt wurde. Mit der beginnenden Normalisierung kam auch die eindeutige Sprache.

Allerdings sind wir bei Tiktok heute beinahe wieder bei einer Art «Don’t say gay» (benutze ja nicht das Wort «schwul») angelangt. Wenn da etwa steht: «Is he *Lackierte-Nägel-Emoji*?», kann von einem offenen Diskurs keine Rede mehr sein. Das erinnert an: «Ist er … du weisst schon *flüster* schwul?» Wenn man sich überlegen muss, wie man gewisse Themen benennt, findet eine Retabuisierung statt. So wird aus «fat» – dem englischen Wort für dick – «f@t». Da kann einem noch so viel Body Positivity in die Timeline gespült werden, das @ zeigt: Das ist etwas Schamvolles, darüber reden wir nicht. Erschwerend kommt hinzu, dass der Algorithmus nicht nur intransparent ist, sondern auch dynamisch. Es entwickelt sich ein Katz-und-Maus-Spiel zwischen User:innen und Algorithmus rund um die Frage: Was kann überhaupt wie gesagt werden? In vorauseilendem Gehorsam zensieren sich die Nutzer:innen selbst.

Allenfalls reaktiv

Dabei können sie selbst wenig ausrichten. Die Politik ist gefragt. Bisher behandelt sie die Problematik der intransparenten Algorithmen eher stiefmütterlich, allenfalls reaktiv. Dabei gäbe es Möglichkeiten, wie die Gesetzgebung dagegenhalten könnte. Mit einer Überarbeitung des Digital Services Act – des Gesetzes über digitale Märkte und Dienste – könnte etwa die Europäische Union die Erforschung der Algorithmen vereinfachen. Dagegen sträuben sich die Plattformen bisher vehement. Ein klares Zeichen, dass eine solche Überarbeitung den Nerv treffen würde.

Dies ist die gekürzte Fassung eines Textes, der ursprünglich in der «taz» erschienen ist.