Auf allen Kanälen: Die Software lernt, bleibt aber dumm

Nr. 37 –

Einfältig aus Kalkül: Die automatischen Selektionssysteme von Facebook arbeiten grobschlächtig und völlig undurchsichtig. Das dürfte im Interesse des Konzerns sein.

stilisierter Logo des Konzerns Meta (Facebook)

Werbung abgelehnt: «Anzeige verstösst gegen Richtlinien». Die Rückmeldung von Facebook sorgte auf der WOZ-Redaktion für Stirnrunzeln. Dabei wollte man bloss das Gespräch mit SP-Nationalrätin Jacqueline Badran bewerben, das auf Twitter besonders gut gelesen wurde (WOZ Nr. 33/22). Der Versuch wurde von Facebook aber nicht nur geblockt – die automatischen Selektionssysteme sorgten offenbar auch dafür, dass der Text kaum verbreitet wurde. Das legen zumindest die Nutzungszahlen auf Facebook nahe. Auch für Artikel zum Krieg in der Ukraine waren diese auffallend tief – und das trotz regen Interesses in der Leser:in­nen­schaft.

Facebook will sich dazu nicht äussern. Auf Anfrage schickt ein Sprecher des Mutterkonzerns Meta ein schriftliches Statement und ein paar Links zu Infoseiten. Das ist bezeichnend. Der Konzern versucht zu verschleiern, auf welche Weise Beiträge auf Facebook und Instagram gestreut werden – zusammen mit dem Messenger Whatsapp, der ebenfalls im Besitz von Meta ist, zählen die Plattformen 3,65 Milliarden aktive User:in­nen.

Wie ernst es der Konzern mit der Verschleierung meint, musste letzten Herbst Algorithm­watch erfahren. Die gemeinnützige Organisation versuchte zu ergründen, wie auf ­Instagram Debatten strukturiert und beeinflusst werden. Freiwillige konnten in ihrem Browser ein Add-on installieren, das ihren Newsfeed an eine Datenbank sendete. Ein Befund: Viel nackte Haut wird von den Algorithmen offenbar mit Reichweite belohnt. Solche heiklen Erkenntnisse sind der Konzernführung ein Dorn im Auge. Meta drohte mit einer Klage gegen Algorithm­watch, angeblich wegen Verstosses gegen die Nutzungsbedingungen.

Geschäft mit heiklen Inhalten

Die Geheimniskrämerei ist politisch brisant. Facebook unternahm auch lange nichts dagegen, dass die Algorithmen der eigenen Plattform Hass und Gewalt fördern – dies, obwohl man beim Unternehmen über Jahre davon wusste. Das belegen interne Dokumente, die eine Whistleblowerin letztes Jahr den Medien zugänglich machte. Geschäftssinn schlug Ethik. Die zentralen Algorithmen sollen nämlich Interaktionen fördern, so verkauft sich Werbung besser – und kaum etwas provoziert die aktive Beteiligung stärker als extreme Inhalte und Kontroversen.

Der Leak von 2021 drängte den Facebook-Konzern, der seit dem Datenskandal um Cambridge Analytica im Jahr 2018 politisch stark unter Beschuss steht, weiter in die Defensive. Im letzten Herbst, kurz nach der Anhörung der Whistleblowerin vor dem US-Kongress, bejubelte Meta seine automatischen Selektionssysteme: Mittlerweile würden 97 Prozent der heiklen Inhalte dank der maschinell lernenden Software gelöscht und nicht mehr aufgrund von Meldungen von User:in­nen. Genau da liegt aber ein Problem.

Autounfall oder Hahnenkampf?

Mittels Machine Learning soll ein Computerprogramm selbstständig aus vielen Einzelfällen allgemeine Regeln ableiten und sich so zur «künstlichen Intelligenz» entwickeln. Bei Facebook wird das System dazu mit unzähligen anstössigen Postings gefüttert – und soll so lernen, neue Beiträge selbst zu klassifizieren. Ein weiteres System wird ebenfalls maschinell trainiert, um zu entscheiden, ob ein Posting gelöscht, heruntergestuft oder von einem Menschen beurteilt werden muss. Im Zweifelsfall soll der menschliche Clickworker entscheiden, was dann wiederum ins System eingespeist wird und die Software klüger machen soll. Die Vision von Mark Zuckerberg: Maschinell trainierte Systeme sollen dereinst ganz selbstständig entscheiden können.

Mittlerweile sind aber viele Beispiele dafür dokumentiert, wie liederlich solche Machine-Learning-Systeme ihrer Arbeit nachkommen und wie leicht sie zu manipulieren sind. Laut dem «Wall Street Journal» ­bekundete das System von Facebook noch im Herbst 2021 Mühe, Hahnenkämpfe von Autounfällen zu unterscheiden. Zudem sind diese Systeme eine Blackbox – niemand weiss so genau, nach welchen Kriterien sie entscheiden. Das hat für Meta allerdings auch Vorteile. Es lässt dem Konzern argumentative Auswege bei Vorwürfen. Vielleicht wurde der ­Pressesprecher auch deshalb so wortkarg, als die WOZ zur automatisierten Verbreitung der Artikel zum Krieg gegen die Ukraine nachhakte. Er schrieb in einem dürren Satz sinngemäss: «Auskunft schwierig».