Künstliche Intelligenz: «Sexroboter sind hart gegendert»

Nr. 18 –

Muss ein Staubsaugerroboter vor einem Marienkäfer haltmachen? Die Philosophin Janina Loh über ethische Entscheidungen von Robotern und die emotionale Bindung zwischen Mensch, Tier und Maschine.

Janina Loh: «Das Problem ist, dass es gar keine beste Ethik gibt.» Foto: Andrea Vollmer

WOZ: Janina Loh, was macht eine Maschine eigentlich zu einem Roboter?
Janina Loh: Zunächst: Alle Roboter sind Maschinen, aber nicht alle Maschinen sind Roboter. Ein Roboter ist eine elektromechanische Maschine, die durch einen Prozessor gesteuert ist, durch Sensoren und einen Aktor, der Informationen aus der Umwelt aufnehmen und in mechanische Abläufe umsetzen kann. Er verfügt über einen eigenständigen Körper, ist autonom und kann dank seines Körpers in seine Umwelt hineinwirken.

Das Besondere am Roboter ist also eine bestimmte Form von Autonomie. Kann man sagen: Je mehr sich die Maschine der Kontrolle entzieht, desto menschenähnlicher wird sie?
Schöne These. Die spannendsten Roboterprojekte verfügen über eine gewisse Lernfähigkeit, etwa im Bereich des Deep Learning oder der neuronalen Netzwerke, die aus Erfahrung lernen. Bei Kindern ist das ähnlich, wir können sie nur bis zu einem gewissen Grad beeinflussen und hoffen, dass sie sich nach unseren Wünschen entwickeln. Dieses Unkontrollierbare, Unplanbare ist sicher ein Merkmal des Menschen. Indem wir also Roboter schaffen, die einen Funken dieser Unverfügbarkeit mitbringen, rücken sie uns näher.

Wir Menschen entscheiden reflexhaft und kontextabhängig. Wie entscheidet ein Roboter – zum Beispiel ein selbstfahrendes Auto?
Selbstfahrende Systeme oder Roboter, die in gewisser Weise eigenständig handeln, müssen entsprechend programmiert werden. Das heisst, diejenigen, die sie programmieren, müssen ethische Entscheidungen treffen. In unserer Gesellschaft gibt es jedoch mindestens drei im menschlichen Alltag nebeneinander existierende ethische Systeme, die sich durchaus auch widersprechen können: die aristotelische Tugendethik, die deontologische Ethik Immanuel Kants und den Utilitarismus von Jeremy Bentham und John Stuart Mill. Soll eine Maschine entscheiden, muss man ihr eine Ethik implementieren, also die beste. Das Problem ist aber, dass es gar keine beste Ethik gibt.

In diesem Zusammenhang wird immer das berühmte Trolley-Case-Beispiel aufgerufen.
Ja, es geht um die Vorstellung, vor einer Weiche zu stehen, der sich ein Zug nähert, der fünf Menschen überrollen wird, wenn er weiterfährt. Sie können ihn auf eine andere Weiche umlenken, dann wird er «nur» einen Menschen überfahren. Beim autonomen Fahren geht es um ganz ähnliche Entscheidungen: Soll das Auto in einer entsprechenden Situation den Vater mit dem kleinen Kind überfahren oder ausweichen und die drei Ärztinnen überfahren, die gerade unterwegs sind? Vonseiten der Industrie wird häufig der Eindruck erweckt, es gäbe eine richtige philosophische Lösung für dieses Dilemma. Die weltweit erste Ethikkommission zum autonomen Fahren hat 2017 einen Bericht dazu veröffentlicht, in dem zunächst einmal alle utilitaristischen Lösungen verworfen werden, das Auto darf also unter keinen Umständen nach irgendwelchen Kriterien – Alter, Anzahl oder Ähnliches – entscheiden. Menschenleben sind nicht aufrechenbar, das widerspricht dem Prinzip der Menschenwürde. Also muss das Auto – wie ich sagen würde – den einprogrammierten Kurs beibehalten, egal wer dabei zu Schaden kommt.

Wenn der Roboter ein lernendes System ist, könnte er vielleicht intuitive Entscheidungen treffen.
Ja, und deshalb müssen wir uns gut überlegen, welchen Maschinen wir diese Lernfähigkeit mitgeben wollen. Stellen Sie sich einen lernfähigen artifiziellen Soldaten vor, der loszieht und entscheidet, wen er tötet, oder ein Auto, das «erfahren» will, wie es ist, in die Wand zu fahren. Lernen bedeutet auch, Fehler machen zu dürfen, das wollen wir sicher nicht allen Systemen zugestehen.

Denken wir mal an Pflegeroboter: Wie soll ich mich gegen das Ding wehren, wenn es mir gegen meinen Willen Tabletten verabreichen will?
Es handelt sich derzeit um Assistenzsysteme wie die Roboterpuppe Paro, die nicht ernsthaft menschliche Pflegende ersetzen sollen. In Entwicklung sind Maschinen, die in Privathäusern zum Einsatz kommen sollen und Menschen im Alltag unterstützen. Sie können Menschen nicht vollumfänglich pflegen oder Tabletten verabreichen. Natürlich würden sich immense ethische Fragen stellen, wenn eine Patientin etwa sagt, ich möchte meine Medikamente heute nicht nehmen. Soll der Roboter sie zwingen oder die Ärztin oder Verwandte anrufen können?

Sie glauben also nicht, dass die Selbstkontrolle abgelöst wird durch eine neue Fremdkontrolle?
Vielleicht, aber nicht notwendigerweise. Der schwedische Philosoph Nick Bostrom schreibt Bücher über Superintelligenz und sagt, wir müssten uns überlegen, welche ethischen Werte wir dieser Superintelligenz geben wollen. Ich würde noch einen Schritt zurückgehen und fragen, ob wir solche Maschinen überhaupt haben wollen, denn das ist unsere Entscheidung, das passiert ja nicht automatisch. Ray Kurzweil, der Leiter der technischen Entwicklung bei Google, glaubt ganz optimistisch, diese Maschinen würden sich wie Kinder zu ihren Eltern verhalten, also gut. Ich wäre mir da nicht so sicher.

Mit Entscheidungen ist auch Verantwortung verbunden. Wie ist das beim Roboter: Kann er moralische oder zumindest juristische Verantwortung übernehmen?
Moralische Verantwortung würde ich für Roboter nicht per se ausschliessen, obwohl ihnen derzeit die Voraussetzungen fehlen, um in einem starken Sinn als verantwortlich gelten zu können: Handlungsfähigkeit oder Autonomie, Kommunikationsfähigkeit, Urteilskraft. Generell würde ich sagen, dass Maschinen diese Kompetenzen nur simulieren können müssen, um in ganz rudimentärem Sinn moralisch verantwortlich genannt zu werden. Das ist die sogenannte schwache Künstliche-Intelligenz-These. Was die juristische Verantwortung betrifft, entwickelt das EU-Parlament gegenwärtig ein Konzept, nach dem manche Roboter als elektronische Personen identifiziert werden können.

Sexroboter scheinen ein besonders interessantes Beispiel für die Belastbarkeit der Mensch-Roboter-Beziehung, je nachdem, ob man sie nur als menschliche Erweiterung denkt oder grundsätzlich andersartig …
Ich denke nicht – und das wird Sie jetzt enttäuschen –, dass Sexroboter etwas kategorial anderes sind. Die Steinzeitmenschen haben schon Dildos aus Stein benutzt, um ihre sexuellen Bedürfnisse zu befriedigen. Was ich bei Sexrobotern problematisch finde, ist nicht, dass es sie gibt, sondern wer sie baut und wie. Die derzeit verfügbaren Sexroboter sind hart gegendert, Roxxxy etwa verfügt über fünf vorprogrammierte Modi, wie zum Beispiel «Wild Wendy», «Frigid Farrah» oder «S&M Susan», was schon zeigt, dass sie nach äusserst fragwürdigen Geschlechterstereotypen konzipiert sind. Dann gibt es Roboter, die einen implementierten Rape-Modus haben beziehungsweise solche, die «Nein» sagen können, was die Besitzer dazu animiert, sich darüber hinwegzusetzen, und Vergewaltigung als normalen Bestandteil des sexuellen Begehrens erscheinen lässt. Generell habe ich aber nichts gegen Sexroboter, solange sie möglichst viel Genderdiversität repräsentieren. Und Sexroboter zeigen, dass Menschen in der Lage sind, emotionale Bindungen zu allen möglichen Wesen aufzunehmen, zu Tieren, Pflanzen und eben zu Maschinen. Das nimmt uns nichts von unserer Kompetenz, uns mit anderen Menschen zu verbinden.

Aber hängt gelingende menschliche Interaktion nicht davon ab, nicht nur eigene Bedürfnisse zu befriedigen, sondern auch die anderer Menschen zu antizipieren und zu erfüllen?
Ich glaube, ich muss nicht den Anspruch haben, die Bedürfnisse meines Gegenübers zu befriedigen, damit Kommunikation gelingt. Aber Menschen, die in der Lage sind, sich etwa mit Tieren einzulassen, können bestimmte Bedürfnisse befriedigen. In vielleicht etwas radikalerer Form gilt das auch für Maschinen. Menschen, die eine Beziehung mit ihnen aufbauen, gehen selbstverständlich davon aus, dass ihr artifizielles Gegenüber Bedürfnisse hat. Mir geht es nicht um die kategoriale Unterscheidung zwischen Mensch, Tier oder Maschine, sondern darum, ein gutes Miteinander zu entwickeln und ethische Grundsätze dafür zu schaffen. Das ist ein inklusiver Ansatz.

Es ist also nichts dagegen zu sagen, wenn die «Dull, dirty and dangerous»-Tätigkeiten von Robotern übernommen werden?
Ich glaube, in diesem Zusammenhang stellen sich die Fragen anders. Welche Arbeit ist so langweilig, schmutzig und gefährlich, dass sie keiner machen darf, und wer entscheidet darüber? Warum sollten Menschen nicht dumme, repetitive Arbeit tun dürfen? Ich muss mich als Philosophin fragen, was gute Arbeit überhaupt ist. Ich habe lange in der Gastronomie gearbeitet, wo es Tätigkeiten gab, die ich sehr gerne gemacht habe und als Akademikerin nicht mehr verrichten kann. Und politisch stellt sich die Herausforderung: Wenn wir Maschinen diese Arbeit machen lassen wollen, wie kommen wir dann dahin, dass alle Menschen dennoch ihren Lebensunterhalt verdienen können?

Eine der wesentlichen Prämissen Ihrer Arbeit ist, dass Technik nicht neutral ist, sondern normativ. Was resultiert daraus für eine Roboterethik?
Wir müssen uns darüber klar sein, dass, wenn wir Roboter bauen, wir ethische Werte mit hineinbauen, ob wir das wollen oder nicht, egal ob sie weitgehend autonom oder lernfähig sein werden oder nicht. Selbst in den langweiligsten Staubsaugerroboter werden Werte implementiert, zum Beispiel, ob er beim Saugen vor einem Marienkäfer haltmachen muss. Technik ist nicht neutral, das ist eine alte Kamelle, aber man muss sie wohl immer wieder wiederholen.

Technikphilosophin

Die promovierte Philosophin Janina Loh (34) lehrt und forscht an der Universität Wien im Bereich Technik- und Medienphilosophie. Im Herbst erscheint im Suhrkamp-Verlag ihr neues Buch «Roboterethik. Eine Einführung».