Content-Moderation in Kenia: Ausgelagert nach «Silicon Savannah»
In Nairobi filtern Tausende schlecht bezahlte Arbeiter:innen für globale Plattformen verstörende Inhalte heraus – unter extremen Bedingungen. Nun setzen sie sich zur Wehr.
Grossraumbüros, grelle Neonlichter, Kopfhörer, Monitore. Tausendfach flimmern in schneller Abfolge Gewaltvideos, Werbung und niedliche Tiervideos über die Bildschirme. So sieht der Alltag vieler Content-Moderator:innen in Kenia aus, die in Subunternehmen für Plattformen wie Tiktok, Facebook oder Instagram unangemessene Inhalte identifizieren – und so Nutzer:innen der sozialen Medien vor den schlimmsten Bildern schützen.
Die Arbeit der Moderator:innen ist extrem belastend. «Wir mussten oft auf mehreren Bildschirmen gleichzeitig Videos in doppelter oder dreifacher Geschwindigkeit ansehen», schrieb Sonia Kgomo, eine ehemalige Content-Moderatorin, im Februar in einem Gastbeitrag für den «Guardian». Die gebürtige Südafrikanerin und ihre Kolleg:innen kontrollierten in Kenia Inhalte für den Facebook-Konzern Meta. Viele Beschäftigte in der Branche leiden unter Schlafstörungen oder Symptomen einer posttraumatischen Belastungsstörung. Das zeigt auch eine Befragung der internationalen Gewerkschaft UNI Global Union von mehr als 200 Moderator:innen aus Ländern wie den Philippinen, der Türkei, Mexiko und Kenia. «Die Arbeit ist deprimierend, und man hat keine Zeit für soziale Kontakte. Der Verdienst ist gering», berichtet darin etwa ein Content-Moderator aus Nairobi.