Social Media: Blick in den Maschinenraum der Macht

Nr. 40 –

Wer sich eine resiliente Demokratie wünscht, muss bei der Fähigkeit ansetzen, Medieninhalte kritisch zu hinterfragen, Algorithmen zu verstehen, Manipulation zu erkennen. Doch das kann nur gelingen, wenn die Techkonzerne klaren Regeln unterworfen werden.

Diesen Artikel hören (20:03)
-15
+15
-15
/
+15
als Römer verkleidete Büsser starren auf ein Smartphone während der Karwoche auf Marinduque, Philippinen
Empörung wird geklickt. Wut geteilt. Und Hass verbreitet sich viral – auch bei als Römern verkleideten Büssern während der Karwoche auf Marinduque, Philippinen. Foto: Erik De Castro, Reuters

Charlie Kirk war nicht schizophren. Das Internet präsentierte ihn jedoch in multiplen Facetten. Die einen sahen ihn so, wie er war: ein misogyner, homophober, hassschürender Rassist. Andere sahen nur den jungen Aktivisten, der für konservative Werte eintrat. Und manche sahen einfach den christlichen Redner, der Nächstenliebe predigte.

Ich vergesse manchmal, dass Algorithmen die Welt der Wahrnehmung in viele kleine Ländereien aufteilen. Was mir auf Social Media gezeigt wird, ist nicht die Wahrheit – schon gar nicht die ganze –, sondern bestenfalls ein kleiner Ausschnitt davon. Und genauso ergeht es vielen, die sich auf X, Facebook, Instagram oder Tiktok bewegen.

Das ländlich-konservative Amerika sieht Charlie Kirk als Heilsbringer, die Menschen in Boston, Chicago, Los Angeles oder San Francisco sehen ihn als Hetzer. Es gibt immer weniger Grauzonen, dafür mehr Schwarz und Weiss. Gut oder Böse. Wer nicht aktiv nach den anderen Facetten Kirks sucht, findet sie seltener. Und wenn die Algorithmen doch einmal den «anderen» Charlie Kirk in die Timeline spülen, folgt erst recht die grosse Empörung: Dann wird auf die Mainstreammedien geschimpft oder das Video als KI-generiert gebrandmarkt. Denn was man nicht sehen will, darf nicht sein.

Soziale Netzwerke sind keine Schaufenster der Welt. Sie sind Jahrmärkte der Gefühle. Und je schriller der Marktschreier, desto grösser der Andrang. Donald Trump, Giorgia Meloni, Alice Weidel, Marine Le Pen, Viktor Orbán, Narendra Modi und Jair Bolsonaro zählen zu den grössten Profiteur:innen dieser Dynamik. Und ich würde sogar so weit gehen, zu behaupten: Ohne Social Media wäre niemand von den Genannten je so weit gekommen. Kein Trump, kein Brexit, keine AfD in dieser Stärke. Kein so schneller und vernetzter Vormarsch des Rechtspopulismus.

Rechtspopulistische Botschaften sind wie geschaffen für die Logik der Plattformen: Sie spalten, statt zu einen, sie vereinfachen, statt zu differenzieren, sie empören, statt zu versöhnen. «Die da oben», «die Ausländer», «die Medien» werden zu Feindbildern gemacht. Das funktioniert perfekt in einem System, das Aufmerksamkeit über alles stellt. Denn was zählt, ist nicht, was stimmt. Relevant ist nur, was performt. Für linke Politik ist es komplizierter. Solidarität ist schwer zu vermitteln, Gerechtigkeit ist komplex, Nachhaltigkeit ist langweilig. Oder auf den Punkt:

Tatsachen? Zu sperrig. Sie brauchen Erklärung, sie fordern Differenzierung.

Zweifel? Zu leise. Sie stellen infrage, wo einfache Antworten längst parat liegen.

Empörung wird geklickt. Wut geteilt. Und Hass verbreitet sich viral.

Klammerbemerkung: Das stimmt natürlich nicht immer. Manchmal gehen auch politisch linke Themen viral. Die berühmtesten Beispiele: der Arabische Frühling Anfang der 2010er Jahre und die Hashtags #MeToo, #Fridays4Future und #BlackLivesMatter. Doch diese Erfolge sind die Ausnahme, nicht die Regel. Und sie haben meist einen entscheidenden Unterschied: Sie funktionieren nur, wenn sie starke persönliche Betroffenheit auslösen oder klare Feindbilder bieten. #MeToo funktionierte, weil Millionen Frauen eigene Erfahrungen teilten. #BlackLivesMatter explodierte nach einem konkreten, sichtbaren Unrecht: der Tötung von George Floyd. Und #Fridays4Future hatte mindestens so viel Gegenwind wie Unterstützung.

Süchtig nach Aufmerksamkeit

Die Technologie, die das ermöglicht, ist nur Mittel zum Zweck. Und dass Algorithmen funktionieren, wie sie funktionieren, ist kein Zufall. Sie wurden von den Plattformbetreibern mit Absicht so gebaut. Ich habe das lange nicht verstanden. Ich glaubte bis weit in die zehner Jahre hinein tatsächlich, dass soziale Medien gut sind, dass sie Demokratie fördern, jedem Menschen eine Stimme geben, die Gesellschaft stärken und globale Vernetzung ermöglichen.

Aber ich habe mich getäuscht. Meine damalige Haltung war naiv.

Die mächtigen Männer im Silicon Valley – Mark Zuckerberg mit Facebook, Elon Musk mit Twitter/X, Larry Page und Sergey Brin mit Google –, sie wollten keine bessere Welt schaffen, sondern einzig und allein ihren eigenen Profit maximieren.

Als sie Ende der neunziger und Anfang der nuller Jahre auftauchten, waren die Märkte für Aufmerksamkeit längst besetzt. Tabak- und Alkoholkonzerne hatten jahrzehntelang perfektioniert, wie man Menschen süchtig macht. Die Techbosse transferierten diese Mechanismen in die digitale Welt und schafften es, mit Algorithmen Bedürfnisse zu wecken, wo keine sind, Wiederholung in Gewohnheit zu verwandeln, Gewohnheit in Abhängigkeit.

Die Techkonzerne setzen auf sofortige Belohnungen: Herzchen, Kommentare, Retweets. Und auf endloses Scrollen, das süchtig macht. Denn: Je länger Nutzer:innen auf der Plattform bleiben, desto mehr Daten speichern die Konzerne über sie. Daten, die sie dann an die meistbietenden Werbekund:innen verkaufen.

Dieses Prinzip ist nicht nur perfide. Es ist auch unfassbar lukrativ. Die süchtig machenden Mechanismen haben aus ein paar kalifornischen Start-ups die mächtigsten Konzerne der Welt gemacht. Heute schwimmen die Techgiganten im Geld. Unter den zehn wertvollsten Unternehmen der Welt sind neun aus dem Technologiesektor. Ihre Marktkapitalisierung liegt bei über 20 Billionen Dollar – das ist mehr als das Zwanzigfache der jährlichen Wirtschaftsleistung der Schweiz!

Und auch ihre politische Macht ist ungebrochen: Google kontrolliert 90 Prozent der Suchanfragen weltweit. Und Meta, zu dem Facebook, Instagram und Whatsapp gehören, bis zu 85 Prozent aller sozialen Netzwerke. Auch X – vormals Twitter –, das wirtschaftlich längst keine Rolle mehr spielt, bleibt gesellschaftlich relevant, weil dort Politik gemacht wird. Unter anderem von Bundespräsidentin Karin Keller-Sutter.

Ende der gemeinsamen Wahrheit

Ich staune, dass es so weit kam. Meine Naivität gegenüber Social Media legte ich 2018 ab. Damals zeigte sich zum ersten Mal mit voller Wucht, wie verwundbar unsere Demokratien wegen Social Media geworden sind. In diesem Jahr kam an die Öffentlichkeit, wie Donald Trump in seinem ersten Wahlkampf 2016 gegen Hillary Clinton davon profitiert hatte – und dass den Plattformbetreibern Geld wichtiger ist als Werte wie Moral und Ethik.

Ein kleines britisches Unternehmen namens Cambridge Analytica hatte sich illegal und ohne Wissen der Betroffenen Zugang zu den persönlichen Profilen von Facebook-Nutzerinnen und -Nutzern verschafft. Die Methode war von bestechender Einfachheit. Der Psychologe Aleksandr Kogan entwickelte eine scheinbar harmlose App namens «This Is Your Digital Life», die rund 270 000 Menschen installierten. Was damals viele nicht wussten: Wer die App nutzte, gab nicht nur die eigenen Daten frei, sondern auch jene aller Facebook-Freund:innen.

Achtzig Millionen Menschen wurden so zum offenen Buch. Cambridge Analytica behauptete, aus den Daten präzise psychologische Profile ableiten zu können – zum Beispiel, wer für Patriotismus empfänglich war, wer sich vor Migration fürchtete, wer sich von Eliten verraten fühlte. Ob diese Fähigkeiten real waren oder nur Marketinggetöse, ist bis heute umstritten. Restlos bewiesen ist die Wirksamkeit der Methoden von Cambridge Analytica nicht. Sicher ist aber: Die Daten wurden in Donald Trumps Wahlkampf für gezieltes politisches Mikro­targeting genutzt.

Ich sah damals keine einzige Anzeige in diesem Wahlkampf. Kein Wunder, ich bin in den USA auch nicht stimmberechtigt. Aber das Targeting war noch viel gezielter: Abtreibungsgegner:innen erhielten nur Anzeigen zu diesem Thema; wer Angst vor Migration hatte, bekam Videos von brennenden Autos und überfüllten Grenzstationen. Wer sich betrogen fühlte vom Establishment, wurde mit Botschaften über Hillary Clintons E-Mails oder den vermeintlichen «Sumpf» in Washington versorgt. Wer wirtschaftlich unter Druck stand, erhielt Warnungen vor drohenden Jobverlusten durch Migration oder Globalisierung serviert – mit einer Schuldigen: Hillary Clinton.

Diese Art der politischen Kommunikation ist tückisch, weil sie unsichtbar bleibt. Keine Debatte darüber in den Medien, keine Gegenargumente, kein Korrektiv. Nur Algorithmen, die entscheiden, was wem gezeigt wird und wem nicht. So entstanden digitale Parallelwelten, in denen es keine gemeinsame Wahrheit mehr gibt. Die Demokratie hatte plötzlich einen blinden Fleck, weil die Anzeigen nicht öffentlich sichtbar waren. Zwei Nachbar:innen, die Trump wählten, konnten dies aus völlig unterschiedlichen Gründen tun. Und sie wussten nicht einmal davon. Das ist deshalb problematisch, weil keine Debatten mehr stattfinden.

Die Mechanismen sind nicht neu. Propaganda, Desinformation und Fehlinformation waren wichtige Instrumente der Nazis, der DDR oder des KGB. Nur waren deren Reichweiten auf Zeitungen, Radio und später Fernsehen begrenzt. Heute haben Algorithmen diese Erkenntnisse perfektioniert und «demokratisiert»: Jede:r kann zur Propagandist:in werden, jede Lüge kann sich viral verbreiten. Was Geheimdienste früher mit jahrelanger Planung erreichten, schaffen Algorithmen in wenigen Stunden.

Algorithmus prägt Weltanschauung

Zurück in die Gegenwart: Ich unterhalte keine eigenen Konten mehr bei Facebook, Tiktok, Instagram und Twitter/X, beobachte sie aber natürlich weiter – allerdings ohne eigenes Zutun. Meine Konten löschte ich vor zwei bis drei Jahren und verzichtete so auf rund 10 000 Follower:innen, weil ich nicht mehr Teil dieser Aufmerksamkeitsökonomie sein und meine Daten nicht mehr zur Fütterung rechtspopulistischer Algorithmen zur Verfügung stellen wollte. Ich tat mich mit diesem Entscheid nicht leicht, weil Onlinereichweite für Journalist:innen wichtig ist. Dennoch bereue ich den Entscheid nicht. Im Gegenteil: Angesichts der aktuellen Entwicklungen bin ich sogar froh darum.

Heute predigt Meta Meinungsfreiheit, meint damit aber: weniger Faktenchecks, weniger Moderation und weniger Verantwortung. Inhalte von Klimaleugnerinnen, Impfgegnern, rechten Hetzerinnen oder Verschwörungstheoretikern werden nicht mehr in gleichem Mass geprüft oder markiert. Stattdessen setzt der Konzern auf das Prinzip: «Wir zeigen alles, und die Leute sollen selbst entscheiden, was sie glauben.» Das ist nicht liberal, sondern brandgefährlich. Noch schlimmer ist die Entwicklung bei X. Seit Elon Musk Twitter übernommen hat, nutzt er die Plattform als politisches Instrument. X ist längst kein neutraler Raum mehr, sondern Musks persönliche Propagandamaschine. Was einst ein Ort für Nachrichten und Debatten war, ist heute ein toxisches Schlachtfeld geworden, auf dem ich es nur schwer aushalte.

Und mit Tiktok kam jüngst eine neue Plattform ins Spiel, die das Problem weiter verschärft. Die Plattform belohnt insbesondere emotionale, polarisierende Inhalte. Entsprechend verwundert es nicht, dass auch dort rechtspopulistische Inhalte besonders stark profitieren. Im Unterschied zu Facebook muss dafür nicht mal Werbung geschaltet werden: Tiktoks Algorithmus spült politische Inhalte direkt in die Feeds, insbesondere in jene von Jugendlichen.

Jetzt wird die App, die einst als chinesische Bedrohung galt, zumindest in den USA von Trump-Vertrauten wie Oracle-Chef Larry Ellison und anderen Silicon-Valley-Investor:innen übernommen. Trump und Xi Jinping haben den Deal bereits abgesegnet. Aus der «ausländischen Gefahr», wie sie Trump einst nannte, wird ein US-amerikanisches Propagandainstrument, mit dem vor allem junge Menschen erreicht werden, die längst keine klassischen Medien mehr konsumieren. So kann Trump politische Meinungen formen, ohne dass es jemand merkt. Kein Impressum, keine Kennzeichnung, keine Transparenz. Nur ein Algorithmus, der entscheidet, welche Weltanschauung eine ganze Generation prägt.

Doch was bedeutet all das für uns als Gesellschaft? Ich behaupte: Wenn alle alles sehen können, aber jede und jeder etwas anderes angezeigt bekommt, gibt es keine gemeinsame Öffentlichkeit mehr. Die Plattformen haben die Realität fragmentiert. Was früher in Zeitungen, Radio und Fernsehen noch einigermassen gemeinsam erlebt wurde, zerfällt heute in Millionen und Milliarden personalisierter Feeds. Jeder lebt in seiner eigenen Echokammer, kuratiert vom Algorithmus. Der demokratische Diskurs wird dadurch nicht lauter, sondern leiser. Debatten brauchen Widerspruch. Und den blendet das System konsequent aus.

Die grösste Bedrohung für die Demokratie ist nicht Desinformation allein, die haben schon frühere Generationen ausgehalten. Es ist das schleichende Ende eines gemeinsamen Realitätsbezugs, weil das Verbindende verloren geht. Den gemeinsamen Raum, in dem sich eine Gesellschaft über ihre Werte, Ziele und Konflikte austauschen kann, gibt es nicht mehr. Ohne diesen Raum zerfällt der Diskurs und mit ihm die Demokratie. Die Weltbilder entfernen sich voneinander, ohne je aufeinanderzutreffen. Wer rechts denkt, bekommt täglich Bestätigung. Wer links denkt, ebenso. Kompromisse werden immer schwieriger, weil niemand mehr die Sprache des anderen spricht.

Regulieren oder reguliert werden

Ich weiss, dass es bequem ist, sich mit dem Status quo abzufinden. Zu glauben, dass sich die Dinge eben so entwickelt haben, wie sie sich entwickeln mussten. Dass der Markt seine eigenen Regeln habe, Technologie neutral sei, dass das Publikum halt das erhalte, was es wolle. Aber das stimmt nicht. Plattformen sind gestaltbar. Algorithmen sind gemacht, nicht gegeben.

Wir regulieren Banken, damit sie nicht mit unserem Geld zocken. Wir regulieren Pharmaunternehmen, damit sie uns keine giftigen Pillen verkaufen. Wir regulieren Autohersteller, damit sie Airbags einbauen. Wir regulieren Lebensmittelproduzenten, damit sie Inhaltsstoffe deklarieren. Wir regulieren Tabakkonzerne, damit sie Warnhinweise auf Packungen drucken. Nur bei den mächtigsten Konzernen der Welt – den Techgiganten – soll das plötzlich unmöglich sein? Das will ich nicht glauben.

Was auf deren Plattformen passiert, ist keine Spielerei, kein Austausch von Ferienfotos und Katzenvideos. Was dort passiert, beeinflusst nicht nur unser Konsumverhalten, sondern unsere Wahrnehmung, unsere Meinungen, unsere Wahlen, ja unsere Demokratie. Es ist höchste Zeit, dass wir auch hier Verantwortung übernehmen. Leider tut der Bundesrat das Gegenteil: Er schiebt die Verantwortung weit von sich. Die eigentlich für Frühjahr 2024 geplante Vernehmlassungsvorlage zur Regulierung der grossen Plattformen hat die Regierung dieses Jahr zum dritten Mal verschoben. Der Bundesrat will weder entscheiden noch gestalten, sondern hofft, dass sich das Problem irgendwie von selbst löst.

Doch das wird es nicht.

Selbst die Europäische Union, die mittlerweile Regulierungen beschlossen hat, kommt gegen Big Tech nicht an. Die Gesetze – Digital Markets Act, Digital Services Act – klingen gut, sind aber zahnlos. Trump muss nur mit neuen, noch drastischeren Zöllen drohen, und schon zeigen sich die realen Machtverhältnisse: Europa ist wirtschaftlich zu abhängig von den USA, um konsequent zu regulieren. Und selbst wenn mal eine Busse gesprochen wird, spielen die Techkonzerne das Spiel perfekt: Sie nicken brav, versprechen Besserung und warten, bis der Sturm vorbei ist. Ein bisschen Transparenz hier, eine kosmetische Änderung dort, und schon glauben alle, das Problem sei gelöst.

Aber es passiert das Gegenteil. Plattformpolitik ist Machtpolitik. Wer nicht reguliert, der wird reguliert. Durch Algorithmen, durch Geschäftsmodelle, durch Konzerne, die keinerlei demokratischer Kontrolle unterstehen. Wir brauchen nicht weniger, sondern mehr demokratische Gestaltung – durch klare Regeln, algorithmische Transparenz, echte Aufsicht und Verantwortliche, die verstehen, was auf dem Spiel steht.

Erst wenn das erreicht ist, ist «Digital Literacy» überhaupt möglich. Ohne Regeln und Transparenz können digitale Systeme nicht verstanden und kritisch hinterfragt werden. Denn wie soll eine Gesellschaft digitale Mündigkeit erlangen, wenn selbst ihre politischen Institutionen die Mechanismen nicht durchschauen oder nicht durchschauen wollen? Wer sich eine resiliente Demokratie wünscht, muss an der Wurzel ansetzen: bei der Fähigkeit jedes einzelnen Menschen, Medieninhalte kritisch zu hinterfragen, Algorithmen zu verstehen, Manipulation zu erkennen. Dies zu ermöglichen, fängt bei der Regulierung der Plattformen an.

Die Zeit drängt, denn künstliche Intelligenz beschleunigt diese Entwicklung zusätzlich. Was wir heute auf den Plattformen beobachten, potenziert sich mit KI zu einer neuen Stufe der Individualisierung und Manipulierbarkeit. Mir hat das Buch «Views» von Marc-Uwe Kling die Augen geöffnet: Er beschreibt – Achtung, Spoiler – ein KI-generiertes Video. Es zeigt eine angebliche Vergewaltigung durch einen Geflüchteten, was Empörung auslöst, rechte Ressentiments schürt und einer rechtspopulistischen Partei enorme Zugewinne bei den Wähler:innen bringt.

Ehrlich gesagt: Ich habe Angst. Angst vor dem, was kommt, wenn wir nichts tun. Wenn wir weiter zusehen, wie Algorithmen unsere Demokratie zersetzen. Gerade im Wissen, dass künstliche Intelligenz die Unterscheidung zwischen Wahrheit und Lüge bald unmöglich machen könnte. Denn was heute als Deepfake belächelt wird, kann morgen einen Krieg auslösen. Ein manipuliertes Video eines Präsidenten, der den Notstand ausruft. Eine gefälschte Sprachnachricht, die Panik auslöst. Ein gefakter Livestream, der Gewalt rechtfertigt. Technisch ist all das längst möglich.

Sind die Plattformen in ihrer jetzigen Form mit der Demokratie vereinbar? Nein. Eindeutig nein. Sie untergraben systematisch das, was Demokratie ausmacht: einen gemeinsamen Diskursraum, geteilte Fakten, die Fähigkeit zum Kompromiss. Solange Profit über Wahrheit steht, solange Algorithmen darüber entscheiden, was wir sehen und glauben, werden sie die Demokratie weiter zersetzen. Wir stehen an einem Scheideweg. Entweder wir gestalten die digitale Zukunft bewusst. Oder sie gestaltet uns.

Reto Vogt ist Studienleiter Digitale Medien und Künstliche Intelligenz am MAZ in Luzern und schreibt als freier Journalist über Digitalisierung und Technologien.