Facebook-Studie: Ein Grossexperiment namens Big Data

Nr. 28 –

Ein Grossversuch mit Facebook-NutzerInnen hat für einen Skandal gesorgt. Er wirft grundsätzliche Fragen auf zur Forschung in der digitalen Welt – und zur alltäglichen Datenanalyse privater Unternehmen.

Forschung mit Menschen – das ist aus zwei Gründen eine komplizierte Angelegenheit. Erstens ist es immer schwierig, genug «Versuchskaninchen» zu finden, um zu statistisch signifikanten Resultaten zu kommen. Und zweitens ist es ziemlich anspruchsvoll, eine Versuchsreihe mit Menschen auf ethisch korrekte Weise durchzuführen. Vor allem würde man natürlich erwarten, dass menschliche Testobjekte wissen, dass und warum mit ihnen geforscht wird. Und dass sie aussteigen können, wenn ihnen das Prozedere nicht behagt – in der medizinischen Forschung nennt man das Informed Consent, etwas schwerfällig mit «informierte Einwilligung» zu übersetzen. Es geht nicht zuletzt um Macht, wenn Menschen zu Objekten der Forschung gemacht werden.

Im Jahr 2012 machten Soziologen um Adam D. I. Kramer und James Fowler ein Experiment, das die erste Hürde locker nahm. Bei fast 700 000 Versuchspersonen konnten die amerikanischen Forscher untersuchen, ob das Lesen positiver beziehungsweise negativer Facebook-Nachrichten einen Effekt auf die Stimmung der ProbandInnen hat. Wo man früher Testreihen mit vielleicht fünfzig Freiwilligen machte, konnten die Forscher nun plötzlich das Verhalten von mehr als einer halben Million Menschen beobachten – man kann sich vorstellen, dass Teile der Soziologie ob solcher Möglichkeiten in der Social-Media-Welt ziemlich aus dem Häuschen geraten.

Es wäre ein Thema für sich, welche Chancen sich für kreative ForscherInnen in diesen digitalen Räumen bieten und vor allem: ob und wie man die Resultate aus der Online- auch in die gute alte Offlinewelt übersetzen kann.

Viel spektakulärer war allerdings, wie die Forscher über die zweite Hürde stolperten, als die Forschungsresultate Ende Juni publik wurden und in der Folge eine Welle der Empörung über die Forscher und Facebook hereinbrach. Informed Consent? Keine Rede davon, weder von «informiert» noch von «Einwilligung». 

Am Newsfeed herumdoktern

Die zu Facebooks eigenem Data-Science-Team gehörenden Forscher hatten den sogenannten Newsfeed beeinflusst («manipuliert», fanden KritikerInnen). Der Newsfeed wurde nach der Lancierung 2006 rasch zur eigentlichen Drehscheibe der Plattform, in der zusammenläuft, was all die Facebook-Freunde so tun – Fotos raufladen, Musik liken, Posts kommentieren. Eine Woche lang hatten die Forscher diesen Newsfeed bei 0,04 Prozent aller NutzerInnen mit ausgesucht positiven oder negativen Posts gefüttert und verfolgt, wie sich das auf deren weitere Facebook-Aktivität auswirkte. Und zwar ohne Zustimmung der Testpersonen – das Experiment beruhte nun einmal auf deren Ahnungslosigkeit.

Die heftigen Diskussionen nach der Publikation kreisten um ethische Fragen solcher Internetforschung; das Problem mit der angeblichen «Manipulation» liegt indes woanders: Weil durchschnittliche Facebook-NutzerInnen sehr viele Freunde haben und diese recht aktiv sind, ging Facebook schon sehr bald dazu über, den Newsfeed algorithmisch zu filtern. Damit wurde er zu einer stark vorsortierten, massgeschneiderten Gratiszeitung mit einem Best-of-Klatsch-und-Tratsch aus dem Freundeskreis.

Der Newsfeed ist ein Paradebeispiel für den maschinell gefilterten Zugang zur Welt (ein anderes Beispiel sind die Kaufempfehlungen von Amazon); unlängst rechnete Facebook vor, dass bei jedem Besuch rund 1500 neue Posts auf die NutzerInnen einprasseln würden, wenn nicht gefiltert würde. Mit anderen Worten: Der Newsfeed funktioniert überhaupt nur, weil an ihm die ganze Zeit herumgedoktert wird, weil Facebook den Auswahlalgorithmus immer wieder anpasst, um die NutzerInnen bei Laune zu halten.

Facebook ist keine Ausnahme, was dieses ständige Operieren am lebenden Objekt angeht. Auch von Google ist bekannt, dass die Suchresultate eine Feedbackschleife enthalten: Es gibt Berichte, wonach die Hälfte der Google-Treffer nicht beste Resultate, sondern interne Versuchsballone sind, um den Algorithmus zu verbessern. Transparent gemacht werden diese Methoden allerdings kaum. Insofern ist die publizierte Facebook-Studie ein Fortschritt.

Von keiner Ethikkommission bewilligt

Es geht hier also um ein weit grösseres Phänomen als die notorische Facebook-Arroganz, was den Umgang mit NutzerInnendaten angeht. Wir alle werden erforscht, die ganze Zeit. Big Data ist das grösste Forschungsunternehmen aller Zeiten – was die Menge der analysierten Daten und die Eindringtiefe in unser aller Alltag angeht: Die Daten fallen überall an, beim Einkaufen, beim Surfen im Netz, bald auch beim Stromverbrauchen – und sie wirken auf uns zurück.

Big Data ist ein soziologisches Grossexperiment mit unbekanntem Ausgang, und keine Ethikkommission hat es je bewilligt. Insofern bekommt das mit dem Informed Consent noch eine andere Note: Informiert sein könnten wir nämlich, wenn wir uns kümmern würden, aber raus aus dem Experiment kommen wir kaum. Bei Facebook und Co. wäre das ja noch einfach – niemand zwingt uns, einen bestimmten Service im Netz zu nutzen. Bei der immer stärkeren gesellschaftlichen Big-Data-Durchdringung sieht das allerdings ganz anders aus.

Siehe auch «Wenn die Dinge klug und hilfsbereit werden » und «Wenn die Kaffeemaschine zur Einbruchsgehilfin wird ».