Digitalfeminismus: «Wir machen uns zu viele Gedanken über die Belästiger»

Nr. 15 –

Die Netzaktivistin Caroline Sinders versucht, Algorithmen den Sexismus auszutreiben. Wegen ihrer kritischen Forschung, etwa zum Hass gegen Frauen in der Gamercommunity, wird sie immer wieder angegriffen – einmal hat ein Internettroll ihrer Mutter eine Spezialeinheit auf den Hals gehetzt.

«Es ist unmöglich, ein vollkommen unvoreingenommenes Datenset zu erstellen, Daten sind nie neutral»: Caroline Sinders.

WOZ: Caroline Sinders, wann sind Sie das letzte Mal online ausgeflippt?
Caroline Sinders: Ich flippe online nie aus, hier beherrsche ich mich – auch weil ich selbst Belästigung im Netz erforsche und keine Informationen über mich preisgeben möchte.

Gibt es nicht Situationen, in denen sie ausrasten wollen?
Wir alle sind im Internet in irgendeiner Form emotional, nur drückt sich jeder anders aus. Um ganz pedantisch zu sein: Auch Neutralität, Rationalität und Sachlichkeit drücken Gefühle aus.

Sie beschäftigen sich schon lange mit Hasskampagnen im Netz. Sind Sie selbst jemals Zielscheibe einer solchen Kampagne geworden?
Mir wurde schon mit Vergewaltigung gedroht, oder man sagte mir, ich sei hässlich oder eine Idiotin. Weil ich aber eine hohe Resilienz habe, berührt mich solches Zeugs nicht besonders, aus welchen Gründen auch immer. Als jedoch meine Mutter 2015 wegen meiner Arbeit bedroht wurde, war das eine ganz andere Sache. Ein Internettroll hat ihr ein Swat-Team nach Hause geschickt …

Das sogenannte Swatting ist ein bösartiger «Streich», bei dem jemand die Polizei anruft und behauptet, dass er ein Gewaltverbrechen verübt habe, sodass die Polizei anrückt.
Im Fall meiner Mutter hat ein Mann bei der Polizei angerufen und behauptet, er habe seine Freundin erschossen, sich im Haus verbarrikadiert, sei schwer bewaffnet und die Tochter seiner Freundin sei bei ihm im Haus. Er würde jeden Polizisten erschiessen, der sich dem Haus nähere. Dann gab er die Anschrift meiner Mutter durch und legte auf. Die Polizisten umzingelten das Haus; hätte meine Mutter ihren Anruf nicht beantwortet, wären sie gewaltsam eingedrungen. Da erlebte ich das, was ich erforsche, plötzlich hautnah. Anscheinend hat sich jemand derart an meiner Arbeit gestört, dass er sich so an mir rächen wollte.

Sie haben sich eingehend mit dem Hass in der Gamercommunity beschäftigt. Gamergate war 2014 eine der ersten gross angelegten Belästigungskampagnen im Netz, die gezielt gegen Feministinnen gerichtet war. Wie funktionierte diese Kampagne?
Die Gamergate-Bewegung nutzte ähnlich koordinierte Instrumente wie das anarchistische Hackerkollektiv Anonymous. Was als Gruppe eingefleischter Spieler begann, die sich über die sich verändernde Landschaft ihrer Subkultur beklagten, verwandelte sich in eine Horde von Trollen, die mit Belästigungstaktiken wie Swatting oder Doxing – der Veröffentlichung persönlicher Daten wie Sozialversicherungs- und Telefonnummern oder Adresse – gegen einzelne Personen vorgingen oder diese mit unzähligen belästigenden Tweets überhäuften. Gamergate richtete sich hauptsächlich gegen Frauen, People of Color und Transleute, die Spiele gemacht oder über Feminismus oder die Geschlechterprobleme in Mainstreamspielen gesprochen hatten.

Derzeit arbeiten Sie an einem kritischen Designprojekt, dem «Feminist Data Set». Wie funktioniert das?
Der feministische Datensatz ist eine Reaktion auf die Voreingenommenheit herkömmlicher Algorithmen. Das Ziel ist, dass damit Algorithmen trainiert werden können, die keine sexistischen Stereotypen reproduzieren. Um aber die üblichen Verzerrungen beim maschinellen Lernen zu beseitigen, brauche ich eine Sammlung von feministischen Daten.

Wie sammeln Sie Daten?
Während meiner Workshops besprechen wir Podcasts und Texte, schauen uns an, welches Geschlecht und welche Herkunft deren Verfasserinnen und Verfasser haben. Dabei suchen wir nach feministischen Inhalten. Feministische Daten können Kunstwerke, Essays, Interviews oder Bücher sein, die sich mit dem Feminismus beschäftigen oder eine feministische Perspektive einnehmen. Das Wort «Feminismus» muss in diesen Texten nicht vorkommen, es geht um den eingenommenen Standpunkt.

Können alte Texte wie der Koran oder die Bibel feministische Texte sein?
Nein, bei der Entstehung dieser Texte existierte noch kein Diskurs über Feminismus. Aber ein Text, der diese Bücher mit einer feministischen Perspektive untersucht, ist für den Datensatz relevant. Ein Beispiel: Mary Shelleys «Frankenstein» war zwar ein feministischer Akt, aber kein feministischer Text. Hingegen ist ein Essay, der davon handelt, dass Shelley zu den ersten Autorinnen gehörte, die so erfolgreich waren, ein feministischer Text.

Ist für die Auswahl der Texte auch die Perspektive der Person entscheidend, die diese auswählt?
Wichtig ist, dass nicht nur weisse Frauen über die Inhalte entscheiden. Deswegen gebe ich weltweit Workshops, in denen wir gemeinsam diskutieren, welche Texte sich für unsere Datenbank eignen. Dabei versuche ich auch die LGBT-Community, People of Color oder intersexuelle Personen miteinzubeziehen. Aber es ist unmöglich, ein vollkommen unvoreingenommenes Datenset zu erstellen, Daten sind nie neutral.

Ein Problem von künstlicher Intelligenz ist, dass sie von bestehenden Datensätzen lernt. Warum ist dem so?
Künstliche Intelligenz entsteht nicht aus dem Nichts, ihre Basis sind vorhandene Daten – etwa bei Instagram-Filtern, die für die Gesichtserkennung trainiert werden. Damit ein Algorithmus erkennt, was ein Gesicht ist, muss er mit vielen Bildern von Gesichtern gefüttert werden. Diese Daten werden oft von weissen Menschen gesammelt, die – wie alle Menschen – voreingenommen sind. Eine homogene Gruppe von Menschen kann nur Fragen stellen, die zwangsläufig Verzerrungen erzeugen. Aber eine vielfältige Gruppe erlaubt vielfältigere Fragen.

Ein Beispiel sind Probleme mit dem Sammeln von Haaren, wenn weisse Menschen den Standard mit einer Haarstruktur setzen, die ihrer eigenen entspricht. Ein Freund von mir, Jacky Alciné, hat Fotos von sich und einem Freund bei Google hochgeladen – die Bilder wurden als Fotos von Gorillas erkannt. Der Datensatz, aus dem diese Algorithmen gelernt haben, basiert also auf Vorurteilen. Das zeigt, es geht nicht mehr nur um die Vielfalt der Daten, sondern auch um die Vielfalt der Teams.

Lassen Sie uns zum Thema Hassrede zurückkommen. Was raten Sie Personen, die online bedroht werden?
Die Antwort darf nicht sein, zu verstummen oder off‌line zu gehen. Sich zu verstecken mag einem ein Gefühl von Sicherheit geben, aber es löst das Problem nicht. Die Anweisung, man müsse seine Filtereinstellung nur auf privat umstellen, ähnelt dem Rat, dass eine Frau nachts nicht alleine nach Hause gehen sollte, um vor Vergewaltigung sicher zu sein. Das Problem ist die Sicherheit im System und nicht die Sicherheitslücke der Benutzerin oder des Benutzers.

Was schlagen Sie vor?
Es braucht bessere Filtersysteme, die Userinnen und User festlegen können, sowie strengere Communityrichtlinien. Social-Media-Firmen und die Polizei müssen Drohungen ernst nehmen. Ausserdem müssen wir mehr über die Betroffenen reden, denn insgesamt machen wir uns zu viele Gedanken über die Belästiger.

Was sollten Netzgiganten wie Facebook oder Twitter gegen Hass im Netz tun?
Eine stärkere Regulierung dieser Firmen ist dringend notwendig. Wenn wir sie sich selber regulieren lassen, werden sie nicht auf die Menschenrechte fokussieren, sondern vor allem auf Richtlinien, die ihnen selber nützen. Ausserdem müssen diese Plattformen viel transparenter werden. Ich will wissen, wie viele Contentmoderatoren Facebook hat, wo sie arbeiten und wie sie trainiert werden. Ich möchte Statistiken, wie viele Anzeigen wegen Belästigung sie pro Jahr erhalten. Dann hätten wir endlich auch eine Übersicht, mit der sich arbeiten liesse. Aber die Techkonzerne sperren sich auch aus finanziellen Gründen gegen diese Transparenz.

Facebook etwa sagt, dass Moderatorinnen und Moderatoren das Netzwerk in Löschzentren bereinigen würden. Warum reicht Ihnen das nicht?

Die Moderatorinnen und Moderatoren machen einen harten Job, ich will sie nicht beschuldigen. Denn sie erhalten nicht genug Unterstützung und werden viel zu schlecht geschult. Vermutlich haben sie nur wenige Sekunden, um sich den Content anzusehen. Auch solche unmöglichen Arbeitsbedingungen sind ein Grund dafür, dass sie nicht selten falsche Entscheidungen treffen.

Können Sie Beispiele nennen?
Wenn mich jemand über Monate hinweg belästigt, ich mit einem «Fuck off» reagiere und der eigentliche Belästiger mich bei Facebook meldet, dann bin ich plötzlich die Täterin. Wenn jemand nicht den Kontext einer Aussage kennt, kann die Person auch nicht erkennen, wer der Troll ist. Ein anderes Beispiel ist das Foto aus dem Vietnamkrieg von einem nackten Mädchen, das aus einer Napalmwolke flieht. Obwohl es ein historisches Bild ist, verstösst ein nacktes Kind gegen die Facebook-Richtlinien. Der Moderator hat keine Zeit zu recherchieren und löscht das Foto im Zweifelsfall.

Braucht es ein stärkeres politisches Durchgreifen und mehr staatliche Überwachung zum Schutz von Betroffenen?
Es ist sehr schwer festzustellen, wer online belästigt, es sei denn, die Belästigung kommt von einem einzelnen User und geschieht fortlaufend. Belästigung im Netz geht häufiger von einem Mob aus, der schwer zu verfolgen ist. Belästigungstechniken im Netz unterscheiden sich sehr stark von solchen ausserhalb des Internets, und die Strafverfolgung ist es noch nicht gewohnt, mit diesem Unterschied umzugehen. Juristisch ist es schwierig, Dokumente zu erhalten, mit denen Personen wegen Belästigungen im Netz aufgespürt werden können.

Datenschutzprobleme und Belästigung im Netz sind direkt miteinander verbunden. Ich befürchte, dass als Reaktion auf Belästigung im Netz Gesetze verabschiedet werden, die unsere bürgerlichen Freiheiten und Rechte im Internet beeinträchtigen, und dass uns mehr Überwachung unter dem Deckmantel der Sicherheit verkauft wird. Mehr Überwachung hätte mir oder meiner Mutter jedoch nicht geholfen.

Die Digitaldesignerin

Caroline Sinders (32) wurde in New Orleans geboren und lebt derzeit in Berlin. Sie studierte Interactive Telecommunications an der New York University und forschte unter anderem zu Belästigung im Netz, künstlicher Intelligenz und zur Alt-Right-Bewegung.

Sinders arbeitete als Videospieldesignerin, User-Experience-Designerin und Designforscherin unter anderem für die Wikimedia Foundation, Intel und Amnesty International.