Soziale Medien: Nonstopp getriggert
Hass und Hetze dominieren Social-Media-Plattformen. Weshalb ein Verbot für Kinder und Jugendliche der richtige Ansatzpunkt sein könnte, um die Konzerne endlich zur Verantwortung zu ziehen.
«We’re all doomed» – wir sind alle dem Untergang geweiht, titelte die britische Zeitung «Guardian» vergangene Woche. Anlass war eine BBC-Dokumentation der Investigativreporterin Marianna Spring: Whistleblower berichten darin aus dem Maschinenraum der Social-Media-Konzerne Meta, Tiktok und X. «Inside the Rage Machine» befeuert die aktuelle Debatte rund um ein Verbot von sozialen Medien für Kinder und Jugendliche neu – nicht nur in Grossbritannien, wo das Unterhaus dieses am 10. März stoppte.
Seit Australien Ende 2025 allen unter sechzehn Jahren den Zugang zu Social-Media-Plattformen verboten hat, um ihre psychische Gesundheit zu schützen, wird auch in Europa über ähnliche Massnahmen diskutiert. Spanien und Frankreich haben ein Verbot bereits beschlossen, Österreich und Tschechien wollen ein solches noch dieses Jahr auf den Weg bringen, in Deutschland fordern dies SPD und CDU. In der Schweiz hat der Bundesrat bereits mehrere Vorstösse aus dem Parlament abgelehnt, wie die Eidgenössische Kommission für Kinder- und Jugendfragen (EKKJ) betrachtet er ein Verbot als zu pauschal und nicht zielführend.
Acht Stunden online
Als zentrales Argument für ein Verbot wird ins Feld geführt, dass soziale Medien süchtig machten. Die Forschungslage dazu ist noch dünn, Anlass zur Sorge geben nicht zuletzt Daten zum Nutzungsverhalten. In Deutschland verbringen Teenager:innen gemäss einer repräsentativen Erhebung von Ende 2025 über vier Stunden täglich auf den Plattformen. Jede:r Zweite zeige als Folge «ausgeprägte suchtartige Symptome». Aktuelle Daten aus der Schweiz aus einer vergleichenden Langzeitstudie, an der die Universität Zürich beteiligt ist, weisen für junge Erwachsene eine Onlinepräsenz von über acht Stunden aus, die in erster Linie auf Plattformen wie Instagram oder Tiktok verbracht werden. Aber macht sie das zu Süchtigen?
Im Gehirn spielt der Antriebs- und Botenstoff Dopamin eine wichtige Rolle bei der Entwicklung von Suchtverhalten, weil er das Belohnungssystem aktiviert. Reize, die Glücksgefühle auslösen, werden im Gehirn als wichtig abgespeichert, und je häufiger wir diesen Reizen ausgesetzt sind, umso wichtiger werden sie für uns, weshalb wir sie immer wieder suchen. Das Problem: Weil sich das Gehirn dieser Reizüberflutung anpasst, indem es die Dopaminausschüttung herunterfährt, brauchen wir eine immer höhere Dosis an Reizen, damit unser Belohnungszentrum überhaupt noch anspringt. Wird der Dopaminmangel chronisch, hat das weitreichende psychische Folgen: Wir werden komplett triggergetrieben, verlieren die Kontrolle, vernachlässigen andere Lebensbereiche und setzen den Konsum trotz spürbar negativer Auswirkungen wie Antriebslosigkeit, Angst- und Schlafstörungen fort.
Kinder und Jugendliche sind besonders anfällig für diese Entwicklung, weil der präfrontale Kortex im Gehirn, der die Impulskontrolle steuert, noch nicht ausgereift ist. Und das macht sie auch besonders wehrlos: In der Zürcher Studie gaben vier von fünf Teenager:innen an, sie würden gerne weniger Zeit auf den Social-Media-Plattformen verbringen. Aber viele schaffen es einfach nicht, sich zu lösen.
Filter funktionieren nicht
Junge Menschen vor toxischen Inhalten auf den Plattformen zu schützen, vor Cybermobbing, Grooming und Desinformation, ist ein weiteres zentrales Argument für ein Verbot. Zumal die US-basierten Konzerne für den Inhalt, den andere auf ihren Plattformen verbreiten, juristisch nicht zur Verantwortung gezogen werden können, das verhindert die sogenannte Section-230-Regelung. Und sosehr etwa Meta betont, mit den «Teen Accounts» auf Instagram eine Schutzhülle zu bieten: Die Einstellungen und Filter funktionieren zu über achtzig Prozent nicht oder nur ungenügend, wie ein Report des Whistleblowers Arturo Béjar in Zusammenarbeit mit Forschenden und Elternorganisationen vor wenigen Monaten nachwies.
Auch in der BBC-Dokumentation beklagen sich Jugendliche, sooft sie verstörende Videoclips oder Posts von Unbekannten auf Tiktok auch als unerwünscht markierten, diese würden immer wieder im Feed aufploppen. Ein Teenager erzählt, wie er mit dreizehn auf Tiktok innert kürzester Zeit mit rechtsextremen Inhalten geflutet wurde und sich politisch radikalisierte: «Wenn du nur noch Reels und Posts über kriminelle Migranten siehst, dann macht dich das irgendwann zu hundert Prozent zum Rechtsradikalen.»
Solche Dynamiken hätten nichts mit ihren Plattformen zu tun, lautet die routinemässige Antwort der Konzerne. Auch Meta argumentiert in einem laufenden Gerichtsfall in Los Angeles so: Eine junge Frau mit dem Kürzel KGM wirft Meta und weiteren Social-Media-Konzernen vor, sie hätten sie süchtig und depressiv gemacht; Meta hält dagegen, sie habe bereits als Kind psychische Probleme gehabt.* Der Prozess gilt als Präzedenzfall, weil die Anklage auf das Design und den Algorithmus der Plattformen zielt – und für Schäden, die darauf zurückzuführen sind, haften die Konzerne. In einem anderen Fall wurde Meta am letzten Dienstag im US-Bundesstaat New Mexico zu einer Busse von 375 Millionen Dollar verurteilt, weil der Konzern nicht genug für den Schutz von Minderjährigen tue. Meta will Berufung einlegen.
Auch die Europäische Kommission nimmt mit ihrem Verfahren gegen Tiktok das «süchtigmachende Design» der Plattform ins Visier, denn das verstösst gegen den Digital Service Act der EU. Im Zentrum stehen Mechanismen wie unendliches Scrollen und ein Feed, der immer wieder aktualisiert werden kann; ultrakurze Videoclips, die automatisch starten – jeder neue Clip ein Dopaminkick, genauso wie die Likes und die ständigen Pushnachrichten auf dem Handybildschirm, die zurück auf die Plattform locken. Unterlegt von einem Algorithmus, der individuell passgenau zeigt, was triggert: eine massgeschneiderte, maximierte Belohnungsmaschinerie.
Genau deshalb liegt hier der wohl wirkmächtigste Hebel, um Social-Media-Konzerne in die Verantwortung zu zwingen: weil er auf die DNA ihres Geschäftsmodells zielt, das darauf beruht, Nutzer:innen möglichst lange auf der Plattform zu halten.
Diesem Prinzip wird im Wettkampf der Konzerne alles andere untergeordnet, wie die BBC-Doku offenlegt. Die langjährigen Mitarbeiter, die darin zu Wort kommen, sind zu Whistleblowern geworden, weil das gegenseitige Wettrüsten in den letzten Jahren immer groteskere und gefährlichere Züge angenommen hat. Im Wochentakt wird am Algorithmus herumgeschraubt, dabei werden Millionen von Menschen als Versuchskaninchen missbraucht, wie ein wissenschaftlicher Content-Moderator von Meta und ein Machine-Learning-Ingenieur von Tiktok berichten. Was die Leute «engaged» halte, bekomme immer mehr Gewicht, «typischerweise sind das Falschinformationen und toxische Inhalte», Dinge, die die Menschen gar nicht sehen wollten. Aber schon nach kurzer Verweildauer würden ihnen immer extremere Inhalte, intern als «borderline content» bezeichnet, gezeigt und ins Zentrum gerückt: Hass, Aufrufe zu Gewalt, rassistische, antisemitische, frauenverachtende Clips und Posts.
Der Ingenieur berichtet vom wachsenden Druck aus den Chefetagen, diesen «borderline content» zu pushen, dabei habe er einzig auf die Performance des Algorithmus zu achten (dessen interne Dynamik für ihn im Übrigen eine Blackbox sei). Für den Inhalt sei das Sicherheitsteam zuständig.
Und dieses Team ist hoffnungslos überfordert – ja sie hätten von Anfang an auf verlorenem Posten gestanden, berichten verschiedene Content-Moderatoren von Meta und Tiktok. Interne Warnungen werden routinemässig ignoriert, sämtliche Sicherheitsvorkehrungen hintangestellt. Meta-Chef Mark Zuckerberg hat sich mittlerweile offiziell von «content moderation» verabschiedet, Elon Musk seit der Übernahme von Twitter praktisch das gesamte Sicherheitsteam entlassen und die zuvor gesperrten Verbreiter:innen von Hetze und Hass auf X wieder zugelassen – sie seien «kinda fun», irgendwie lustig.
Ein anonymisierter Whistleblower von Tiktok zeigt BBC-Reporterin Marianna Spring seinen Laptopbildschirm: Meldungen von Minderjährigen zu toxischen Inhalten und Gewalt werden auf Order von oben systematisch als nicht prioritär eingestuft. Auf die Frage, was er Eltern denn raten würde, sagt er: «Löscht Tiktok und haltet eure Kinder so weit und so lange wie möglich davon fern!»
Gegen die Plattformbetreiber
Sollte man diese Verantwortung tatsächlich den Eltern aufbürden? Es ihnen überlassen, ob sie ihrem Kind den Zugang verbieten und es so vielleicht gerade sozial ausschliessen und zur Zielscheibe machen? Wäre ein Verbot, das alle Kinder und Jugendlichen gleichermassen betrifft, nicht gerechter?
In der Schweiz insistieren Bundesrat und EKKJ, in erster Linie seien Eltern und Schulen gefragt, um Kinder und Jugendliche in ihrer Medienkompetenz und ihrer Selbstregulierung zu stärken. Die EKKJ argumentiert ausserdem mit dem Recht auf Teilhabe auch im digitalen Raum – ein Votum, das international namentlich von Behindertenorganisationen unterstützt wird. Für viele Menschen mit Beeinträchtigung sind die sozialen Medien ein wichtiger Ort, um sich zu vernetzen und Gehör zu finden.
Dass die Plattformen reguliert werden müssen, finden hingegen auch viele Gegner:innen eines Social-Media-Verbots. Aber greift ein Verbot dafür tatsächlich zu kurz, wie sie behaupten? Das Beispiel Australien jedenfalls hält dagegen. Auch wenn das Verbot nicht lückenlos funktioniert und Alterssperren umgangen werden können: Dafür gebüsst werden nicht die Jugendlichen, sondern die Plattformbetreiber – ihnen drohen Strafen bis zu 27 Millionen Franken, wenn sie die Altersprüfung nicht sorgfältig genug durchführen.
Den juristischen Hebel am Design und beim Algorithmus anzusetzen, trifft die Konzerne ökonomisch ins Mark. Und je mehr Länder sich an einem Verbot beteiligen, desto teurer kommt es die Konzerne zu stehen, ihre Radikalisierungsmaschinen nicht zu zügeln.
* Inhaltliche Ergänzung von 26. März 2026: Am Mittwoch, 25. März 2026, hat das Gericht zugunsten der Klägerin entschieden und Meta schuldig gesprochen.