Big Data: Wenn unser Datendoppel zu leben beginnt

Nr. 43 –

Datenspuren, die wir mit jedem Klick im Internet hinterlassen, werden von undurchsichtigen Algorithmen zu einem virtuellen Abbild von uns zusammengefügt. Mit durchaus realen Konsequenzen.

Die meisten von uns kennen ProfilerInnen aus Kriminalromanen: forensische ExpertInnen, die sich mit der Persönlichkeit von TäterInnen befassen. Aus ihren biografischen und Verhaltensdaten verfertigen sie ein möglichst genaues Charakterbild, um auf dieser Basis ihr künftiges Verhalten zu prognostizieren. Solche Fallanalysen werden zunehmend von Algorithmen übernommen – nicht nur im Strafvollzug, sondern auch im Finanz- und Gesundheitswesen und im Onlinehandel. Je mehr sich die Praxis des Self-Tracking durchsetzt, also der Selbstdatifizierung, desto mehr kursiert im Netz ein Datendoppel unser selbst, und es führt darin ein Quasi-Eigenleben.

Das hat etwas Gespenstisches: Ein Datenprofil meiner selbst löst sich ab von mir, reisst aus und geistert nun als digitales Phantom im verzweigten Flussnetz der Datenströme, verfängt sich hier, verfängt sich dort, verknüpft sich möglicherweise mit anderen Profilen. Die Algorithmen, die hier tätig sind, machen keinen Unterschied, für sie gilt: Ich = datifiziertes Ich. Aber ich habe keine Kontrolle über mein ausgerissenes Profil.

Ist der Ruf erst ruiniert

Das hat reale Folgen. Vor ein paar Jahren sorgte der Fall einer fünfzigjährigen Frau in Louisiana für Aufsehen, die eine individuelle Krankenversicherung abschliessen wollte. Die Versicherungsfirma lehnte ab. Der Grund: Nach Prüfung des medizinischen Datenprofils der Frau befand man sie als «versicherungsunwürdig». Ihr Mann hatte ihr Blutdruckmedikamente und Antidepressiva nach ärztlicher Verschreibung besorgt. Das Blutdruckmittel wurde ihr wegen geschwollener Fussgelenke und das Antidepressivum gegen Schlafstörungen verordnet; Letzteres «off-label», also ausserhalb seiner Zulassung. Aus irgendeiner Statistik schloss man nun, dass die Frau als Antidepressivakonsumentin ein Risiko darstelle. Der Ehemann versuchte, die Versicherer davon zu überzeugen, dass seine Frau nicht unter einer ernsthaften psychischen Störung litt, aber ein Mittel gegen Depression schien die Frau in den Augen der Versicherer hinreichend zu «profilieren», um nicht aufgenommen zu werden.

Es braucht nicht einmal eine Diagnose oder die Verschreibung eines ärztlichen Rezepts, um sich einen digitalen medizinischen Leumund zuzulegen. Ein paar Klicks genügen, und ehe man sichs versieht, ist man aufgrund dieser Nachfragen kategorisiert. Ein alleinstehender Mann schaut zum Beispiel viel Kabelfernsehen, kauft seine Kleider in einem Onlineshop, fährt einen Minivan – und sieht sich auf einmal der Kategorie der Fettleibigen zugeschlagen, das heisst als potenziellen Kunden von Mitteln und Therapien gegen Adipositas eingestuft. Warum? Weil irgendein Algorithmus eine Datenkompilation durchgekämmt hat und nun «alleinstehend», «männlich», «Onlinekleidershopper», «Minivanfahrer» und «Kabel-TV-Konsument» mit «fettleibig» korreliert. Bemühungen, die Quelle dieses falschen Profils ausfindig zu machen oder seine Reputation im Netz zu korrigieren, verlaufen im Niemandsland der digitalen Datenhalbwelt.

Diese aktuarische oder versicherungsmathematische Bestandesaufnahme erfreut sich im Zeitalter von Big Data wachsender Beliebtheit. Krankenversicherer, beziehungsweise ihre Rechenzentren, sammeln, speichern und analysieren Millionen von Medikamentenverschreibungen. Die Versicherer wollen wissen, was sich in der jeweiligen Hausapotheke befindet. Aufgrund dieses Wissens schätzen sie die Bonität des Patienten ein, so wie Banken die Kreditwürdigkeit einer Kundin oder Strafvollzugsbehörden die Rückfallgefahr eines Gefangenen bewerten.

Hier winkt natürlich der Wettbewerbsvorteil: KundInnen, die wahrscheinlich hohe Kosten verursachen, werden ausgeschieden. Daten über eine Medikamentenvorgeschichte geben also Versicherungen ein Instrument in die Hand, um die Rosinen herauszupicken und entsprechende Policen zurechtzuschneidern. Man könnte auch von einem diskriminierenden Gebrauch medizinischer Daten sprechen, die Gesetzgebung sucht diesen zu verhindern. In den USA etwa durch den Affordable Care Act: Versicherungen verpflichten sich, jeden Patienten anzunehmen und diese Annahme nicht von einem Test oder der Krankheitsvorgeschichte abhängig zu machen.

Ein immaterielles Babel

Die neuen Techniken bestimmen zunehmend – und zunehmend unausweichlicher – die Art und Weise, wie wir wahrgenommen werden. Eine regelrechte Kombinatorikindustrie greift sich Raum. Datenprofile werden mit anderen verknüpft – über Software, die sich uns unter dem Mantel des Firmengeheimnisses entzieht. Solche Geheimnisse sind die eigentlichen Waffen im entfesselten Kampf um Daten.

Der Ursprung eines Profils mag durchaus irgendein ausgefülltes Formular, eine Umfrage oder eine Subskription sein, aber wer garantiert, dass es nicht über kurz oder lang in fremden Datenbanken landet und auf weitere Verwendung wartet? An diesem Geschäft beteiligen sich Kohorten von «data brokers»: Marketingunternehmen, Werbefirmen, Institute für «predictive analytics», Personalbüros, Kreditanstalten, Prognostiker aller Arten und Unarten. Sie alle kombinieren, tauschen und rekombinieren Daten und bauen so an einem immateriellen Babel, in dem selbst Expertinnen ihre liebe Mühe haben, den Fluss der Datenströme zu verfolgen.

In dieser Unübersichtlichkeit sind nicht eigentlich die Daten das Problem, sondern die Algorithmen, die zu fehlerhaften Datenprofilen führen. Eine Bauingenieurin kann aus den Daten von 10 000 Brücken eine Kategorie für Risikobrücken gewinnen und einigermassen verlässlich voraussagen, ob eine bestimmte Brücke zusammenbricht. Finanzingenieure mögen aus der Datenanalyse eine ähnliche Kategorisierung für RisikokreditnehmerInnen konstruieren und das Verhalten eines Bankkunden prognostizieren.

Der Unterschied liegt darin, dass das Profiling den Brücken nichts anhat, der Kreditnehmerin aber unter Umständen schon. Hat sie eine Evaluationssoftware erst einmal als Risikokreditnehmerin eingestuft, wird das Darlehen entsprechend gering sein; was wiederum dazu führen kann, dass sich die Kundin nun tatsächlich riskant zu verhalten beginnt.

Überdies: Auf welchen Datenkorrelationen beruht die Software? Sind sie verlässlich? Das Problem ist das Geschäftsgeheimnis, in das sich die Software hüllt. Ein System aber, das nach nicht offengelegten Kriterien funktioniert, um die Kreditwürdigkeit des Kunden einzuschätzen, ist selbst des wissenschaftlichen Kredits nicht würdig. Und trotzdem werden allenthalben solche Systeme eingesetzt.

Wer kontrolliert die Blackbox?

Profiling ist das Big Business der Stunde. Und es begründet eine regelrechte Phantomökonomie, in der das Primat nicht auf dem Produkt, sondern auf dem algorithmisch ausgeheckten Profil der potenziellen KundInnen liegt. Das World Privacy Forum etwa hat 2014 mit seinem Bericht über «The Scoring of America» aufgezeigt, dass KonsumentInnen anhand Tausender von Kriterien durchleuchtet werden. Der Ruf nach einer Kontrolle der Algorithmen, nach einer «algorithmischen Haftung» erhebt sich immer vernehmlicher.

Das ist indes leichter gesagt als getan. Eine gängige Hinhaltetaktik gegenüber KritikerInnen lautet, sie würden nichts vom Code, von Kodierungssprache verstehen. Dadurch versieht man die Blackbox mit der Aura der Unantastbarkeit: ein äusserst gefährlicher Winkelzug, der die Demokratie gefährdet. Schliesslich sind auch Algorithmen von menschlichen EntscheidungsträgerInnen entworfen worden, und sie tragen deren Signatur.

Es braucht eine konzertierte Anstrengung von Softwaredesignern, Rechtsexpertinnen, Soziologen und Journalistinnen, um der schleichenden Machtübernahme der Programme entgegenzutreten. Vor allem, wenn man Googles neue Firmenholding Alphabet vor Augen hat, die die Welt von A bis Z mit algorithmengespickter Technik durchsetzen will. Gesetzliche Regulierungen erweisen sich schon bei Google als schwierig. Wie wird das bei einem Firmenkonglomerat aussehen, das sich im Brackwasser von halbregulierten Aktivitäten tummelt?

Begegnet man einem derartigen manipulativen Potenzial mit dem Google-Motto «Don’t be evil», mag das vielleicht gut gemeint sein. Aber gut gemeint bedeutet – mit Kurt Tucholsky gesprochen – das Gegenteil von gut.