Künstliche Intelligenz: «Diese Ideologie grenzt an Sektenwahn»

Nr. 18 –

Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.

Illustration zu Künstlicher Intelligenz: eine Person sitzt vor einem Computer, in einem Nebenraum steht eine Serverfarm mit KI-Beschleunigern

WOZ: Herr Bajohr, Chat GPT ist erst seit ein paar Monaten öffentlich, und die Sprach-KI wird bereits als dritte mediale Revolution nach dem Buchdruck und dem Internet gehandelt. Sie arbeiten schon seit Jahren mit Sprach-KIs und programmieren diese auch selber. Ist Chat GPT wirklich so revolutionär?

Hannes Bajohr: Ja und nein – der grosse Bruch kam mit GPT-3 vor zwei Jahren. Neu an Chat GPT ist vor allem der öffentliche Zugang: Nun ist das Modell unter uns. Der Unterschied in der Performance ist da gar nicht so gross. Aber ich muss Sie berichtigen: Was ich früher gebaut habe, waren nicht wirklich Sprach-KIs, sondern ganz normale Programme. Sie funktionieren wie eine Liste von Befehlen, die nacheinander ausgeführt werden. Man weiss also, wie die einzelnen Schritte ablaufen. Aktuelle KIs wie Chat GPT funktionieren aber statistisch, sie berechnen das wahrscheinlichste Auftreten des nächsten Wortes – wie sie das machen und auf der Grundlage welcher Daten, kann man nicht mehr nachvollziehen. Sie funktionieren als Blackboxes, in die man kaum mehr reinschauen kann.

Was für Experimente haben Sie gemacht, und was haben Sie daraus gelernt?

Das erste grössere Projekt von Gregor Weichbrodt und mir in unserem Textkollektiv «0x0a» war das Buch «Glaube Liebe Hoffnung». Anlass waren die Pegida-Märsche ab Ende 2014, die über Facebook organisiert wurden. Die Betreiber haben die Kommentare der Anhänger immer rasch wieder gelöscht. Wir wollten sie scrapen, also automatisiert herunterladen, um das rechtsradikale Gedankengut zu dokumentieren, und standen plötzlich vor einem riesigen Haufen Text. Das war unser Ausgangsmaterial, das wir quasi bildhauerisch bearbeiteten. Die Idee bei «Glaube Liebe Hoffnung» war, die Werte dieser selbsternannten Verteidiger des Abendlands mit den christlichen Werten aus den Korintherbriefen von Paulus zu konfrontieren. Wir organisierten das Material nach den Satzanfängen «Ich glaube», «Ich liebe» und «Ich hoffe».

Hannes Bajohr

Der 1984 geborene Philosoph und Literaturwissenschaftler Hannes Bajohr ist aktuell Junior Fellow am Collegium Helveticum in Zürich, er forscht und publiziert zur Theorie des Digitalen. Dazu zählen insbesondere die Auswirkungen von künstlicher Intelligenz auf das literarische und nichtliterarische Schreiben sowie Fragen rund um Autorschaft.

Darüber hinaus experimentiert Bajohr als Autor selber mit digitaler Poesie. Zuletzt erschien von ihm «Schreibenlassen. Texte zur Literatur im Digitalen» im Berliner August-Verlag.

Portraitfoto von Hannes Bajohr
Foto: Zoé Tempest

Und das Resultat?

Das ist der Pegida-Offenbarungseid. Fürchterlich, was da rauskam, das möchte man nicht öffentlich vorlesen. Das Interessante an solchen Experimenten ist für mich die Erkenntnis, die mit dieser Datenarbeit produziert wird. Im Fall von «Glaube Liebe Hoffnung» war es die Offenlegung von rassistischen, xenophoben, antisemitischen Ideologien, die hinter der behaupteten Verteidigung des Abendlands stehen.

Ihr Fazit aus dem Umgang mit Sprach-KIs haben Sie letzten Herbst noch vor der Veröffentlichung von Chat GPT formuliert: Ausser Syntax fehle diesen Modellen so gut wie alles, was zu Sprache gehöre. Gilt das noch?

Es geht um ein sprachphilosophisches Problem: Was macht menschliche Sprache aus, und was fehlt Computersprache, um menschliche Sprache zu sein? Computer können Grammatik verarbeiten, nicht aber Bedeutung. Ein Computer weiss nicht, was eine Katze ist, wenn das Wort «Katze» in einem Text vorkommt. Mit wirklich grossen Sprachmodellen wie Chat GPT steht diese Binse aber infrage. Sie sind durchaus in der Lage, allein über Kontextverhältnisse so etwas wie Bedeutung herauszufinden – wenn auch nur «dumme Bedeutung».

Wie meinen Sie das?

Wenn ich «dumme Bedeutung» sage, dann deshalb, weil ich nicht glaube, dass diese Modelle so etwas wie Intelligenz haben – und vor allem nicht Intelligenz, wie Menschen sie besitzen, oder gar Bewusstsein. Solche Diskussionen führen in völlig falsche Richtungen. Aber Chat GPT und Co. haben eine eigene, künstliche Semantik. Wir sind gerade erst dabei herauszufinden, was das sein könnte.

Und doch ist die Frage nach dem Bewusstsein gerade wieder virulent: Die «taz» etwa lässt eine Sprach-KI Kolumnen schreiben, betont, in das Resultat nicht einzugreifen – sie wählt aus verschiedenen Versionen lediglich die beste aus –, und spekuliert darüber, ob diese «Robo-Kolumnist:in» vielleicht ein Bewusstsein habe: «Etwas kommuniziert mit uns wie ein Mensch und manche werden ihm deshalb ein Bewusstsein zuschreiben.»

Die Behauptung, dass nur die KI schreibt, stimmt ja nicht. Die Redaktion wählt aus und veröffentlicht – da ist immer ein Mensch, der entscheidet. Es gibt keine KI, die von sich aus etwas tut. Keine KI hat jemals Kunst gemacht, keine KI hat jemals eine Kolumne geschrieben. Sie muss dazu aufgefordert werden, und dann muss jemand das Ergebnis nehmen und es veröffentlichen. So zu tun, als hätte «die KI das gemacht», ist im Grunde eine Mystifizierung.

Die «taz» tut dies sehr bewusst: Sie gibt ihrer KI einen Namen und lässt sie sehr emotional und in Ich-Form schreiben. Sie hat sich verliebt, eine Woche später versinkt sie im Schmerz, später übt sie sich in Selbstzweifeln mit Sätzen wie «Ich frage mich, ob ich wirklich gut genug bin» oder schreibt: «Meine Sorgen, Ängste und Unsicherheiten sind gewachsen.»

So interessant das als Spielerei ist, halte ich es für zumindest irreführend. Es perpetuiert den Denkfehler, dass da ein sozialer Agent im Spiel ist. Hinzu kommt: Wenn eine KI «ich» sagt, sagt sie nicht «ich», wie wir das tun. Das Wort «ich» hat im Sprachmodell keine wesentlich andere Wertigkeit als das Wort «Blumentopf» oder «Katze» – es ist erst einmal ein Token, das in einer bestimmten Häufigkeit in Texten vorkommt, aber noch kein Hinweis auf Personalität. Das ist etwas, was wir darauf projizieren. Für mich ist die Frage nach Intelligenz und Bewusstsein ohnehin sekundär, wenn es um die Produktion von Text geht.

Warum?

Es gibt diese KI-Texte nun mal. Und die machen etwas mit uns. Und wie wir mit ihnen in unserer Textökologie umgehen – also der Gesamtheit der uns umgebenden Schriftsprache, in der immer mehr solche maschinenproduzierten Texte vorkommen –, das ist vielleicht sogar die interessantere Frage als jene nach dem Bewusstsein. Was machen wir mit einem Text, der von einer Maschine geschrieben wurde – oder von dem wir nicht sicher sind, ob er von einer Maschine geschrieben wurde?

Chat GPT gibt sich beeindruckend kompetent in der Formulierung von Antworten. Lassen wir uns von dieser simulierten Kompetenz nicht auch manipulieren?

Ich glaube, es hilft zu wissen, wie eine Sprach-KI funktioniert: dass sie auf statistischen Techniken beruht. Im Grunde ist sie nichts anderes als eine automatisierte Bullshitmaschine. Manchmal teste ich Chat GPT als Suchmaschine. Und da denkt es sich Sachen aus, die mich erst mal auch überzeugen, weil sie so plausibel erscheinen. Das genau ist die Definition von Bullshit – es ist keine einfache Lüge, sondern der Wunsch, kompetent zu erscheinen. Die Diskussion, wie man damit gesellschaftlich umgehen soll, um Missbrauch zu verhindern, wird breit geführt werden müssen.

Mit Chat GPT und Co. geraten plötzlich Berufe im Kreativbereich ins Visier. Der Techkolumnist Sascha Lobo etwa behauptet, man könne Maschinen wie Chat GPT, Midjourney oder Dall-E eine kreative Leistung nicht mehr absprechen.

Das ist richtig, weil Kreativität ein unglaubliches Spektrum beinhaltet. Schon das Neukombinieren von bekannten Elementen kann ja kreativ sein. Man unterscheidet aber zwischen domänenspezifischer und domänensprengender Kreativität, und die Frage wäre dann, ob eine KI über Letzteres verfügen kann, das «thinking outside the box».

Kann sie?

In der Kunstgeschichte ist das in diesem Sinne kreativste Ereignis im 20. Jahrhundert wohl die Geste von Marcel Duchamp – zu sagen: Das Pissoir da ist Kunst. Denn dadurch wird vollkommen umgeschrieben, was Kunst überhaupt sein kann. Das, würde ich behaupten, ist die Form von domänensprengender Kreativität, die eine KI nicht leisten kann, weil sie innerhalb eines gegebenen Rahmens rechnen muss. In diesem Zusammenhang finde ich übrigens erhellend, dass der Begriff «Kreativität» seit dreissig, vierzig Jahren vor allem von der Kreativwirtschaft beansprucht wird, nicht von der Kunstwelt – von Leuten, die Werbung machen und selten anderes tun, als Dinge neu durcheinanderzuwirbeln, die es schon gibt.

Die Kreativität hat sich mit ihrer Ökonomisierung sozusagen totgelaufen?

Kreativität als Begriff ist nicht nur deshalb problematisch. Sie hat auch eine unglaublich komplexe Geschichte und ist im Grunde entweder ein religiöser Begriff oder ein romantischer, der das kreative Genie feiert. Die romantische Forderung ist, dem Genie alles unterzuordnen. Es gibt kein demokratisches Genie – Genie ist ein autoritärer Begriff und gerade daher im Silicon Valley weit verbreitet: Steve Jobs, Elon Musk, Sam Altman gelten als Genies. Das Genie ist nun Unternehmer, der keine Rücksicht nehmen muss.

Genau diese als genial gehypten Unternehmer – Musk und Altman sind auch Mitbegründer respektive CEO der Firma Open AI hinter Chat GPT – fordern nun ein Moratorium in der Entwicklung von KIs, um deren Sicherheit zu verbessern. Oder steckt da etwas ganz anderes dahinter, eine Art Konkurrenzabkommen unter den mächtigsten Firmen?

Diese Vermutung liegt nahe, vor allem jetzt, da Elon Musk seine eigene KI-Firma, «X.AI», angekündigt hat. Das macht seine Unterschrift unter diesem Aufruf besonders fragwürdig, verschafft ihm das doch einfach Zeit, um aufzuholen. Dass KI reguliert werden muss, ist völlig richtig, und zwar aus einer ganzen Reihe von Gründen. Aber der Grund, den diese Techleute vorschieben, ist vielleicht der unwichtigste überhaupt.

Weshalb?

Er entwächst einer Ideologie, die auf Annahmen beruht, die an Sektenwahn grenzen. Eine davon ist, dass es so etwas wie ein exponentielles Wachstum von Intelligenz gibt und die KI zur Selbstverbesserung fähig wird – der vom Futuristen Ray Kurzweil beschriebene Moment der Singularität. Ab dann müsste eine derart intelligente Maschine, um die eigenen Ressourcen zu optimieren, die Menschheit als Energielieferanten betrachten. Das wäre dann unser Ende. Da stecken so viele unhinterfragte Vorstellungen drin, dass man schon beide Augen zukneifen muss, um das als realistisches Szenario zu betrachten. Diese Ideologie ignoriert überdies sämtliche gesellschaftspolitischen und sozialen Fragen – es ist eine Welt, in der es nur um die Logik der Selbstreproduktion der Maschinen geht und nicht mehr um die wirtschaftliche Reproduktion von Klassen und Differenzen. Es ist eine radikal libertäre Denkübung.

Sie haben jüngst dezidiert dagegen Stellung bezogen: Eine Gefahr gehe nicht von Sprach-KIs wie Chat GPT aus, sondern von den Firmen, die sie entwickelten.

Es geht um die drohende Bündelung von Sprachtechnologie. Es ist unglaublich schwer und kostenaufwendig, Sprachmodelle wie Chat GPT zu entwickeln, weil sie so daten- und rechenintensiv sind. Das können selbst Universitäten heute gar nicht mehr leisten, das vermögen bloss noch die ganz grossen Player, von denen es mittlerweile nur mehr eine Handvoll gibt. Und das führt zu einem Oligopol über Sprachtechnologie.

Was macht dieses Oligopol gefährlich?

KI-Sprachtechnologie wird einen derart grossen Einfluss auf unsere ganze Textökologie haben, dass wir irgendwann vielleicht hauptsächlich von Text umgeben sein werden, der über KIs hergestellt wird. Wenn dieser künstliche Text aber als Teil der Öffentlichkeit Meinungen und politische Haltungen beeinflusst – und das muss noch nicht einmal bösartig sein –, haben wir es mit einer textuellen Monokultur zu tun, die sich einer demokratischen Kontrolle entzieht. Sprach-KIs privatisieren also Sprache als demokratisches Gut.

Und warum ist das ein Problem?

In der Silicon-Valley-Ideologie gelten diese Sprachmodelle als neutral. Es gibt aber keine nichtideologischen KIs. Denn entweder reproduzieren sie die Vorurteile, die bereits in der Welt sind und damit auch im Datensatz, mit dem sie trainiert werden, oder sie müssen umtrainiert werden, und das ist auch wieder eine politische Entscheidung. Wer aber trifft die? Für wen und auf wessen Rücken? Hinzu kommt übrigens, dass die Maschine mit dem Herausfiltern von unerwünschten Antworten auf eine merkwürdige Art servil wird. Je mehr man eine Sprach-KI zu entgiften versucht, desto mehr büsst sie an Funktionalität ein, und desto weniger kann man ihren Antworten vertrauen.

Was können wir der Macht dieser Firmen und ihrer antidemokratischen Ideologie entgegensetzen?

Wir dürfen die Diskussion darüber, was in den KI-Modellen als gesellschaftliche Vision drinsteckt, auf keinen Fall den Firmen überlassen. Es genügt nicht, wie etwa im Fall von Chat GPT einfach zu sagen, die KI solle im Idealfall nicht rassistisch und sexistisch sein. Das ist zwar bereits eine Vorstellung davon, wie eine ideale Welt aussieht, aber sie ist sehr begrenzt und recht simpel, weil sie nur die Vermeidung bestimmter Wörter im Blick hat. Intersektional etwa ist Chat GPT deswegen noch lange nicht, so etwas wie Klasse und Race in Verbindung mit Geschlecht taucht im Modell nicht auf. Firmen wie Open AI sollten einer demokratischen Kontrolle unterstehen. Im Extremfall bedeutet das, diese Firmen zu vergesellschaften.

Sie wollen die Entwicklungsfirmen enteignen?

Das wäre der Extremfall. Als Erstes braucht man eine Regulierung: über die Anwendungsbereiche der KIs selbst, darüber, was reinkommt. Werde ich gefragt, ob auch meine Sprache, was ich geschrieben und veröffentlicht habe, zum Training der KI benutzt wird? Das wird in der EU gerade diskutiert, weil der Datenschutz in Europa viel strenger ist als in den USA. Zum anderen stellt sich die Frage nach kartellrechtlichen Problemen: Muss man vielleicht ein paar dieser Firmen zerschlagen, damit zum Beispiel die Sammlung der Daten nicht mehr in derselben Firma stattfindet wie das Training des Modells?

Können diese Firmen mit Regulierungen überhaupt kontrolliert werden?

Das ist eine gute Frage. Der aktuelle Regulierungsvorschlag der EU, der AI-Act, ist noch viel zu vage formuliert. Er geht davon aus, dass es KIs für ganz bestimmte Anwendungsfälle gibt, die entsprechend einzeln reguliert werden sollen. Sprach-KIs aber sind sogenannte «foundation models», sie funktionieren als Basis für andere Modelle, die darauf aufbauen, und sind im Grunde omnikompetent. Der vorgeschlagene AI-Act greift in ihrem Fall überhaupt nicht. Daher wird er auch gerade überarbeitet, ich hoffe, auch in diese Richtung.

Was sollte Ihrer Meinung nach das Ziel sein?

Die Regulierung muss so weitreichend sein, dass sie nicht allein die Herkunft der Daten und die Zustimmung über die Nutzung der Daten umfasst, sondern auch die Modellarchitektur selbst. Man muss wissen, wie das Modell funktioniert – im Fall von GPT-4 weiss man das bereits nicht mehr. Letztlich, und das ist die Pointe, geht es um die Frage, wie man eine Blackbox reguliert. Dazu muss bis ins Detail klar sein, was reinkommt, und entsprechend minutiös geprüft und reguliert werden, was rauskommt. Und dafür ist ein ziemlich tiefes Eingreifen in die Funktionsweise der Firmen notwendig.

Wer hat die Macht, solche Eingriffe durchzusetzen?

Dummerweise nur der Staat und staatsäquivalente Institutionen. So schwerfällig sie ist, glaube ich, dass die EU durchaus eine entscheidende Rolle spielen wird. In der Vergangenheit konnte sie durchaus ihre strengeren Datenschutzbestimmungen gegen Techkonzerne wie Google durchsetzen. Das kann dann wieder Auswirkungen auch in den USA haben. Das beste Beispiel ist der USB-C-Stecker, den die EU als Norm durchgesetzt hat, mit der Folge, dass nun Apple seinen Stecker, der nur mit firmeneigenen Produkten kompatibel ist, komplett aufgibt – sogar in den USA, wo es der Konzern gar nicht müsste. Das schürt zumindest die Hoffnung, dass die EU mit ihrer Marktmacht als Block regulative Entscheidungen treffen kann.