Künstliche Intelligenz : Die Roboterin, die behauptet, sie sei keine

Nr.  13 –

Die technisch immer weiter entwickelte Simulation von Intelligenz in Maschinen greift zunehmend auf den emotionalen Haushalt der Menschen über. Das sollte uns zu denken geben.

In den USA machte kürzlich eine Telefonverkäuferin namens Samantha West von sich reden. Sie rief den Chef der Washingtoner «Time»-Redaktion, Michael Scherer, an und versuchte, ihm eine Versicherung zu verkaufen. Scherer erschien schnell etwas faul am ganzen Gespräch – handelte es sich da um automatisiertes Marketing? Er und seine KollegInnen suchten Samantha durch Fangfragen zu entlarven. Was relativ schnell gelang. «Welcher Tag war gestern?» war eine Frage, die Samantha nicht zu verstehen behauptete.

Als Scherer unumwunden fragte, ob sie eine reale Person oder eine computergestützte Roboterstimme sei, antwortete Samantha hell auflachend, sie sei real. Auffallend war, wie sie sich mit seltsamer Hartnäckigkeit weigerte, den Satz «Ich bin kein Roboter» nachzusagen. Sie wich aus und antwortete stets gleich: «Ich bin eine reale Person.»

Samantha West gestattet uns eine neue Perspektive auf die Entwicklung der künstlichen Intelligenz: nicht als Geschichte der Maschinenintelligenz, sondern als Geschichte der fortschreitenden Vortäuschung, der Simulation von Intelligenz durch Maschinen. Es gibt zwei herausragende Meilensteine in dieser Chronik des laufenden Intelligenzwahns: den Turing-Test (1950) und das Gesprächsprogramm «Eliza» von Joseph Weizenbaum (1966).

Turing und «Eliza»

Der geniale englische Logiker und Codeknacker Alan Turing ersann seinen berühmten Test ausdrücklich als «Imitationsspiel». Statt zu fragen, ob ein Computer denken könne, solle man doch prüfen, ob er uns mit intelligentem Verhalten täuschen könne. Die TestkandidatInnen mussten dabei über eine Tastatur sowohl einer anderen Person als auch einem Computer Fragen stellen. Ziel war herauszufinden, wer die menschlichen und wer die maschinellen Antworten lieferte.

Der Test ist heimtückisch, denn er stellt ebenso Ansprüche an die Intelligenz der Maschine wie an die der Fragestellenden. Einen Dummkopf übertölpelt das Programm schnell. Der Turing-Test ist ein Spiel ohne Ende. In seiner Nachfolge üben sich Programmentwickler mit zunehmend ausgeklügelteren Kreationen in diesem nerdigen Täuschungssport. Seit 1991 wird jährlich der Loebner-Preis ausgeschrieben für das «menschenähnlichste» Programm, lies: für das Programm, das uns am erfolgreichsten intelligentes Kommunikationsverhalten vorgaukelt.

Joseph Weizenbaums Software «Eliza» ist der patientenorientierten Gesprächstherapie des US-amerikanischen Psychologen Carl Rogers nachempfunden. Die ursprüngliche Version war ziemlich einfach und beruhte grösstenteils auf ein paar wirkungsvollen Tricks, die beim Nutzer den Eindruck entstehen lassen, der virtuelle Partner verstehe ihn und gehe auf ihn ein.

Weizenbaum wollte damit nicht der psychologischen Gesprächsführung «Programmhaftigkeit» unterstellen; was ihn schockierte, war die Tatsache, dass die NutzerInnen von «Eliza» trotz der leichten Durchschaubarkeit am personalen Charakter des Programms festhielten: Ich weiss, dass das nur ein Programm ist, aber ich rede zu ihm, als ob es eine Person wäre. Im Klartext: «Eliza» zeigte, dass Vertrauen, also eines der Grundgefühle unseres Zusammenlebens, technisch erzeugt werden kann.

Was «Eliza» erstmals akzentuierte, war eine Art von Authentizitätskrise im Umgang mit dem Virtuellen. Und dieses Problem verschärft sich. Zunehmend werden wir von interaktiven elektronischen Gadgets überflutet, die alle mehr oder weniger auf dem «Eliza»-Effekt beruhen, zum Beispiel die heute viel verwendeten Spracherkennungssysteme wie Siri von Apple. Sie betätigen in uns sozusagen einen Knopf, der uns glauben macht, sie seien intelligente, empfindsame, einfühlsame Artefakte.

Furby, Siri und Co.

Man redet von der Moderne als von einer «entzauberten» Welt. Dabei ist nichts verzauberter als die technische Welt. Was stets wieder fasziniert und zugleich unheimlich anmutet, sind ja nicht so sehr die Kabinettstücke der Programmierer und Robotikerinnen, sondern vielmehr unsere Leichtgläubigkeit und unsere Begeisterung für das Quasileben von künstlichen Kreaturen. Sie spiegeln eine Dimension der Technik, die in unserer Gesellschaft immer dominanter wird: das Design und die Fabrikation von Verhalten, das uns vortäuscht, es sei «beseelt» – die Künstliche-Seelen-Industrie.

Betrachten wir zum Beispiel die Spielzeugentwicklung. Kriterium der Animation war beim herkömmlichen Typus von Spielzeug die Eigenbewegung – eben das Automatische: blechernes Pseudoleben. Die neuen elektronischen Spielzeuge mit ihren einprogrammierten «Psychen» verschieben das Kriterium vom Physikalischen zum Psychologischen. Exemplarisch demonstrierten dies in den neunziger Jahren die Tamagotchis, virtuelle Lebewesen aus Plastik, die von ihren Besitzern und Nutzerinnen so etwas wie ein emotionales Engagement – zum Beispiel Fürsorge – verlangten. Ihre pelzigen Nachfolger, die Furbys, finden reissenden Absatz.

Heute ist es technisch möglich, einem Robotergesicht eine künstliche Lachmuskulatur einzubauen. Sagen wir aber, wenn sich die Muskulatur im Robotergesicht unter bestimmten Bedingungen spannt: «Er freut sich»? Was würde ein Satz wie «Der Roboter spürt Freude» anderes bedeuten, als dass wir ihn gewissermassen in den Kreis von «unseresgleichen» aufgenommen haben, ungeachtet seiner Konstruiertheit?

Psychologische Experimente zeigen, dass Menschen durchaus geneigt sind, in einer engen «affektiven» Interaktion mit Computern diesen auch eine Art von «Persönlichkeit» zuzuschreiben. Das Problem liegt nicht im Technischen, sondern bei uns: Wollen wir gar nicht mehr zwischen Freude und Verhaltensrepertoire der Freude unterscheiden?

«Echte» Gefühle

In einer Homo-Robo-Gesellschaft mit menschlichen und künstlichen Samanthas feiert der Behaviorismus des US-amerikanischen Psychologen B. F. Skinner neue Urständ: Das äussere Verhalten ist alles. Die kritische Frage «Hat das künstliche Dingsda wirklich eine Psyche und Gefühle?» prallt an der hinterlistigen Gegenfrage ab: «Hast du sie denn?»

Der Computerwissenschaftler David Levy schreibt in seinem Buch «Love and Sex with Robots» (2007), die Gefühlssimulationen würden mit der Zeit derart überzeugend, dass wir sie nicht mehr von echten unterscheiden könnten. Was man von solch vollmundig-dreisten Prognosen auch halten mag, die schleichende Pervertierung unserer Umgangsformen liegt darin, dass wir uns das Fragen abgewöhnen, ob wir es mit einem echten Gegenüber zu tun haben.

Die in Science-Fiction-Szenarios immer wieder variierte Schreckensvision einer Übernahme der Herrschaft durch intelligente Maschinen spiegelt im Grunde das Unbehagen vor einem Teil unserer selbst. Wir alle sind Maschinen in dem Sinne, dass wir vieles roboterartig tun, lies: routinemässig, mechanisch, ohne nachzudenken, gefühllos. Im Roboter vor uns blickt uns der Roboter in uns an. Grund genug, bei allem Vertrauen in unsere Mitmenschen und Mitmaschinen auf der Hut zu bleiben – vor uns selber, vor anderen, ob vor echten oder unechten Samanthas.