Digitale Ethik: Wo bleibt der Mensch?

Nr. 36 –

Überwachung, Datenmissbrauch, künstliche Intelligenz auf Abwegen: Keine Woche vergeht ohne Digitalisierungsskandal. Zwei Bücher fragen, wie man die Ethik wieder in den Mittelpunkt rücken könnte.

«Es tut mir leid, ­Dave, aber das kann ich nicht tun»: Computer Hal verweigert in Stanley Kubricks «2001: A ­Space Odyssey» die Befehle. Still: Alamy

Eine unheilvolle Filmszene: Als der Astronaut Dave in Stanley Kubricks «2001: A Space Odyssey» (1968) ins Raumschiff zurückkehren will, verweigert der Bordcomputer Hal den menschlichen Befehl. «Es tut mir leid, Dave, aber das kann ich nicht tun», spricht der Computer, dargestellt durch ein bedrohliches rotes Auge: «Diese Mission ist zu wichtig für mich, als dass ich dir erlauben dürfte, sie zu gefährden.» Das ist die berechnete Begründung der künstlichen Intelligenz Hal, warum Dave geopfert werden muss. Die Mission ist wichtiger als ein mickriges Menschenleben.

Gegen diese Tendenz, immer mehr Entscheidungen an Algorithmen zu delegieren, schreiben der Philosoph Julian Nida-Rümelin und die Filmwissenschaftlerin Nathalie Weidenfeld in ihrem Buch «Digitaler Humanismus» an. Sie wollen darin eine Ethik für das Zeitalter der künstlichen Intelligenz ausführen – und primär die zentralen Unterschiede zwischen Menschen und Computern verdeutlichen. Denn künstliche Intelligenzen in Staubsaugrobotern, digitalen Assistenzsystemen oder autonomen Fahrzeugen sind Maschinen mit konkreten Limitierungen: Sie denken, wenn überhaupt, nicht wie wir, sie wägen anders oder gar nicht ab, und sie können keine ethischen Entscheidungen fällen.

Zu schwach, zu dumm

Der digitale Humanismus, wie er Nida-Rümelin und Weidenfeld vorschwebt, will deshalb «an der Besonderheit des Menschen und seiner Fähigkeiten» festhalten und sich der digitalen Technologien bedienen, «um diese zu erweitern, nicht um diese zu beschränken». Für die AutorInnen bedeutet das eine radikale Kritik an einer «Silicon-Valley-Ideologie», die im Menschen vor allem Verbesserungspotenzial sieht: Wir sind zu wenig rational, zu wenig altruistisch, zu schwach, zu dumm. Eine solche Optimierung laufe aber letztlich nicht auf «bessere» Menschen hinaus, sondern auf die Überwindung der Menschheit. In der transhumanistischen Vision des Silicon Valley bleibt das Menschliche auf der Strecke.

An Science-Fiction-Filmen wie «Matrix» (1999) und «Ex Machina» (2015) zeigen die AutorInnen plastisch die Ambivalenzen der digitalen Welt. Und sie liefern Gründe, warum wir eine «instrumentelle Haltung gegenüber der Digitalisierung» einnehmen müssen – sie muss uns und unseren Werten dienen, nicht umgekehrt. Können Computer denken und fühlen? Sollen wir ihnen im Auto oder im Krieg Entscheidungen über Leben und Tod überlassen? Die AutorInnen analysieren und kritisieren die philosophischen Positionen zwar verständlich, doch fehlt es an konstruktiven Vorschlägen, wie der digitale Humanismus gelebt und gefördert werden kann. Am Ende bleibt ein Plädoyer für mehr digitale Bildung, aber ohne die Brücken zu tatsächlichen Entwicklungen ist dieser Aufruf nicht sehr ergiebig.

Hier knüpft Sarah Spiekermann mit ihrem Buch «Digitale Ethik» an. Die Professorin für Wirtschaftsinformatik war früher in einer Silicon-Valley-Firma tätig und liefert nun ein «Plädoyer für Freiheit und Selbstbestimmung im Zeitalter der Digitalisierung». Darin legt sie den Fokus auf Fragen wie: Welche Werte müssen wir angesichts digitaler Technologien stärken? Wollen wir Effizienz oder Würde? Brauchen wir mehr Transparenz oder doch mehr Vertrauen? Wie sieht es dabei mit Menschlichkeit, Gemeinschaft und Nähe aus?

Auf die Sekunde ausgebeutet

Spiekermann beschreibt, wie Techfirmen oft nicht primär echten Wert schaffen und unser Leben verbessern. Im Gegenteil: Liefer-Apps etwa sind so ausgerichtet, dass FahrradkurierInnen sekundengenau überwacht und so noch effizienter ausgebeutet werden können. So entlarvt Spiekermann die besorgniserregenden Tendenzen des «Dataismus», des Glaubens also, dass «mehr Daten automatisch mehr Wissen ermöglichen». Und sie zeigt, wie die Digitalisierung zu einer verschleierten Entmenschlichung führt – etwa wenn Texte bewusst für Algorithmen geschrieben werden, damit sie in Suchmaschinen prominent erscheinen, statt für die Menschen, die diese Texte lesen sollen.

Auch Spiekermann verortet diese Entwicklung im Transhumanismus: Wir seien schwach, ineffizient und unberechenbar. Eine solche Auffassung liefert dann gleich die Rechtfertigung dafür, uns mit digitalen Technologien «in unserem eigenen Interesse» in die gewünschte Richtung zu schubsen. Statt den Menschen jedoch digital «aufzuwerten» oder gleich zu ersetzen, wäre ein Umdenken nötig. Digitale Technologien sollen echten Wert für Menschen schaffen, indem sie etwa Gemeinschaft, Wissen und Zufriedenheit in der Gesellschaft fördern. Das heisst auch: keine versteckte Datensammlung, keine perfiden Suchmechanismen.

Ist das möglich in Zeiten des globalen Überwachungskapitalismus? Verlangt die Marktlogik nicht geradezu nach Ausbeutungs- und Sammlungsstrukturen? Die Antworten auf solche Fragen bleiben im Buch leider undeutlich. «Ethics by Design» ist ein Stichwort: Technologien sollen von Anfang an ethisch entwickelt werden – die Ethik darf nicht erst am Schluss als Feigenblatt ergänzt werden. Doch wie gelangen wir an diesen Punkt? Vielleicht würde ein anderer Fokus helfen. Digitale Ethik darf nämlich nicht nur fragen, wie Technologien eingesetzt werden sollen, sondern vor allem auch: Sollen wir sie überhaupt einsetzen?

Julian Nida-Rümelin und Nathalie Weidenfeld: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper Verlag. München 2018. 224 Seiten. 38 Franken

Sarah Spiekermann: Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. Droemer Verlag. München 2019. 304 Seiten. 32 Franken