Eine andere KI ist möglich
Die Fortschritte der künstlichen Intelligenz verblüffen, werfen aber auch die Frage auf, wozu die Technologie eigentlich dienen soll. In den 1970er Jahren träumten Hippie-Informatiker von Maschinen, die die menschliche Intelligenz fördern und die Welt besser machen sollten.
Ein Gespenst geht um in Amerika: das Gespenst des Kommunismus. Aber diesmal kommt es digital daher.
Daron Acemoğlu, Ökonom am Massachusetts Institute of Technology (MIT), stellt eine provozierende Frage: „Würde ein KI-gesteuerter Kommunismus funktionieren?“ Der Risikokapital-Unternehmer Marc Andreessen bangt: „Wird China eine kommunistische KI entwickeln?“1 Das Ratespiel macht sogar Vivek Ramaswamy mit. Der Trump-Anhänger und Geschäftsfreund von Donald Trumps Vizekandidaten J. D. Vance verkündet auf X, eine prokommunistische künstliche Intelligenz sei so gefährlich wie Corona.
Bei der ganzen Panikmache bleibt allerdings völlig unklar, was mit einer „kommunistischen KI“ gemeint sein soll. Hat man eine Entwicklung vor Augen, die dem chinesischen Tech-Modell folgt, mit Plattformen nach dem Vorbild US-amerikanischer Konzerne, die aber strenger staatlicher Kontrolle unterliegt? Oder eine Version, die sich am europäischen Sozialstaatsmodell orientiert, mit einer Konzentration der KI-Entwicklung in öffentlichen Institutionen?
Die zweite Version scheint attraktiver, wenn man sieht, dass im KI-Entwicklungswettlauf heutzutage Schnelligkeit mehr zählt als Qualität. Wie etwa beim katastrophal ausgegangenen Experiment mit der Google-Funktion „AI Overviews“, die Nutzern riet, ihre Pizza mit Kleister zu belegen und pro Tag einen Stein zu essen, um ihre Gesundheit zu verbessern.2 Eine öffentlich finanzierte generative KI mit bedachtsam ausgewählten Datensätzen und strenger Überwachung würde sicher qualitativ bessere Tools liefern. Zudem könnte man von den kommerziellen Nutzern mehr Geld verlangen, das in die Entwicklung zurückfließen würde.
Aber ist eine vergesellschaftete KI-Ökonomie überhaupt erstrebenswert – oder würden wir damit nur vor dem Silicon Valley kapitulieren?
Salvador Allendes sozialistisches Internet
Hätte eine „kommunistische KI“, was das Eigentum an Daten, Modellen, Rechenkapazitäten und deren Kontrolle betrifft, nur einen anderen Träger? Oder hätte ein solches Modell vielleicht sogar das Potenzial für eine echte und tiefere gesellschaftliche Transformation?
Zwei Beispiele aus der Vergangenheit scheinen dafür zu sprechen. Das erste ist CyberSyn, ein visionäres Vorhaben des chilenischen Präsidenten Salvador Allende.3 Mithilfe des ehrgeizigen, aber kurzlebigen Projekts (1970– 1973) unter der Leitung des britischen Kybernetik-Experten Stafford Beer sollte die chilenische Wirtschaft produktiver organisiert werden.
Das oft als „sozialistisches Internet“ bezeichnete CyberSyn speiste sämtliche Produktionsdaten der Staatsunternehmen über das chilenische Telexnetz in einen Zentralcomputer ein. Doch die eigentliche Innovation war eine Keimform des maschinellen Lernens, die den Einfluss der Beschäftigten erweitern sollte. Man wollte also, um die Macken des sowjetischen Zentralisierungsmodells zu überwinden, das praktisch erworbene Wissen der Belegschaft nutzen, das auch dem Management in kapitalistischen Betrieben normalerweise verborgen bleibt.
Die Experten besuchten die Fabriken und verschafften sich in Gesprächen mit den Beschäftigten ein Bild über die jeweiligen Produktionsabläufe und Steuerungsprozesse. Auf Grundlage dieser Informationen wurden dann schematisierte Operationsmodelle mit bis zu 10 Parametern pro Fabrik entwickelt. Die gewonnenen Daten wurden mittels einer speziellen Statistik-Software überwacht, die den Manager-Arbeitern auftretende Probleme fast in Echtzeit meldeten.
Im Kern fußte CyberSyn auf der Vision eines hybriden Systems, das die menschliche Intelligenz durch computergestützte Rechenleistung verstärken sollte. Die Transformation von implizitem Wissen in verwertbares explizites Wissen sollte die zur Führung des Landes aufgestiegene Arbeiterschaft befähigen, kompetent und selbstbewusst mit den Bürokraten in Santiago zu kooperieren, um die Leistungen unter der neuen Regierung zu verbessern. Ist das die „sozialistische KI“, die uns vorschwebt?
Um den möglichen Gehalt dieses eigentümlichen Konzepts zu ergründen, habe ich mich mit dem Wirken des inzwischen 100 Jahre alten Warren Brodey beschäftigt. Brodey – erst Psychiater, dann Kybernetik-Experte, dann Hippie – hatte Ende der 1960er Jahre in Boston mit dem Geld eines reichen Mitarbeiters eine experimentelle Einrichtung namens Environmental Ecology Lab (EEL) gegründet. Zuvor war er am renommieren MIT tätig gewesen, wo seine Freunde Marvin Minsky und Seymour Papert KI-Projekte entwickelten, die nach Brodeys Meinung in die falsche Richtung gingen.
Minsky und Papert gingen davon aus, dass das menschliche Denken von abstrakten algorithmischen Regeln und Prozessen gesteuert wird. Wenn man die entschlüsselt und komplett erfasse, könne man „künstliche Intelligenz“ in einen Computer einspeisen.
Brodey und seine fünf Mitarbeiter waren gegenteiliger Meinung: Sie waren überzeugt, dass Intelligenz nicht nur im Kopf entsteht, sondern vielmehr durch die Interaktion mit unserer Umwelt. So kamen sie auf den Begriff ökologische Intelligenz: Abstrakte Regeln und Abläufe als solche sind bedeutungslos; entscheidend ist allein der Kontext. Dieses Theorem veranschaulichten sie mit einem alltäglichen Beispiel: die Aufforderung, sich auszuziehen, kann sehr unterschiedliche Bedeutungen haben – je nachdem, ob sie ein Arzt formuliert oder ein Liebespartner oder ein Unbekannter in einer dunklen Gasse.
Künstliche Intelligenz, die solche kontextuellen Nuancen eigenständig erfassen kann, war für Brodey und seine Mitarbeiter schwer vorstellbar. Es reicht nicht, die mentalen Prozesse des Menschen nachzubilden, die Computer mussten auch unendlich viele Vorstellungen, Verhaltensweisen und Zusammenhänge und deren Verflechtungen erlernen – und vor allem die jeweiligen kulturellen Rahmenbedingungen verstehen, die jedem Kontext eine spezifische Bedeutung verleihen.
Statt sich an dieser anscheinend unmöglichen Aufgabe abzuarbeiten, träumten Brodeys Leute davon, Computer und kybernetische Technologien dem Menschen dienstbar zu machen. Für sie waren Informationstechnologien mehr als ein Hilfsmittel zur Erledigung bestimmter Aufgaben: Sie waren Instrumente, die den Menschen helfen, über die Welt nachzudenken und mit ihr zu interagieren. Sie dachten etwa an eine kybernetische Dusche, die ein Gespräch über Klimawandel und Wasserknappheit beginnt, oder ein Auto, das während der Fahrt über den Zustand der öffentlichen Verkehrsmittel reflektiert.
Das Environmental Ecology Lab vertrat eine dezidierte Gegenposition zur Frankfurter Schule und deren Kritik der instrumentellen Vernunft: Nicht die Technologie, sondern der industrielle Kapitalismus beraubt unsere Welt ihrer ökologischen Dimension und nötigt uns die von Adorno, Horkheimer und Marcuse angeprangerte Zweck-Mittel-Rationalität auf. Diese verlorene Dimension wollte Brodey in seinem Lab wiederherstellen, indem er das Bewusstsein des Menschen für die Komplexitäten, die sich hinter dem scheinbar Banalen verbergen, mithilfe von Sensoren und Computern fördert.
Brodeys wunderliche Ideen haben unsere Digitalkultur maßgeblich geprägt, jedoch kaum sichtbare Spuren hinterlassen. Während seines kurzen Wirkens am MIT war er Mentor eines gewissen Nicholas Negroponte, der dann als Informatik-Professor – ebenfalls am MIT – die allgemeinen Vorstellungen von der digitalen Revolution stark beeinflusst hat.4
Philosophisch trennten die beiden jedoch Welten. Für Brodey mussten sich die kybernetischen Geräte der neuen Generation vor allem durch „Reaktionsfähigkeit“ auszeichnen, also den Dialog zwischen Mensch und Maschine erleichtern und unser ökologisches Bewusstsein schärfen. Brodey unterstellte den Menschen den aufrichtigen Wunsch, sich weiterzuentwickeln, mit dem Computer als Verbündeten. Negroponte dachte in eine praktischere Richtung: Maschinen seien vor allem dazu da, unsere vorhandenen, aber noch nicht formulierten Bedürfnisse zu entdecken und zu befriedigen. Damit wurde er zum Verbündeten der KI-Strategien, die im Silicon Valley umgesetzt wurden.
Umweltbewusste Duschen und nachdenkliche Autos
Während Negroponte exzentrische Maschinen entwickelte, wollte Brodey in der Überzeugung, dass es Intelligenz nicht ohne den Menschen geben kann, eigenwillige und exzentrische Menschen erschaffen. Und während das Informatiker-Establishment der 1960er Jahre in der KI ein Instrument zur Human Augmentation – die Übernahme banaler Tätigkeiten zur Steigerung der Produktivität – sah, strebte Brodey nach Human Enhancement im Sinne einer Bereicherung des Menschen, die weit über Effizienz und Produktivität hinausging.5
Wir haben es also mit zwei grundverschiedenen Ansätzen zu tun. Ein Beispiel für Human Augmentation: das GPS unseres Smartphones, mit dem wir uns in unbekannter Umgebung leichter zurechtfinden. Doch der Vorteil ist ein flüchtiger, denn ohne die technologische Krücke sind wir so hilflos wie zuvor. Human Enhancement bedeutet dagegen, dass wir die Technologie nutzen, um neue Fähigkeiten zu erwerben; was in unserem Beispiel bedeutet: einen natürlichen Orientierungssinn zu entwickeln, indem wir etwa unsere Gedächtnisleistungen verbessern oder die Zeichen der Natur lesen lernen.
In einem Satz: Human Augmentation beraubt uns vorhandener Fertigkeiten im Namen der Effizienz, während uns Human Enhancement neue Fertigkeiten beschert und vertiefte Interaktionen mit unserer Umwelt ermöglicht. Die beiden grundlegend unterschiedlichen Arten der Aneignung von Technologie entscheiden darüber, ob wir lediglich passive Nutzer oder aber kreative Handwerker werden.
Brodey kam zu seinen Erkenntnissen in den früheren 1960er Jahren im Rahmen eines halb geheimen CIA-Programms, an dem er als Psychiater teilnahm. Die Geheimdienstler hatten die brillante Idee, einer Gruppe von ausgewählten sprachbegabten Blinden Russisch beizubringen und ihnen abgefangene Funksprüche vorzuspielen. Die Hypothese war, dass bei Blinden die anderen Sinne stärker ausgebildet sind als bei Analysten, die sehen können. Brodey versuchte über mehrere Jahre zu ermitteln, wie Blinde es schaffen, durch die Aufnahme und Verarbeitung äußerer, nichtvisueller Signale ihre sensorischen Fähigkeiten zu erweitern. Er kam zu der bahnbrechenden Erkenntnis, dass nicht nur Blinde, sondern alle Menschen ihre Wahrnehmungsfähigkeiten – riechen, hören, tasten – perfektionieren können.
Der eingefleischte Pragmatiker Brodey wusste sehr gut, dass die Umsetzung seiner Vorstellungen ohne Computer nicht möglich war. Doch als er seine Vision von Human Enhancement als Forschungsbereich am MIT etablieren wollte, stieß er auf heftigen Widerstand, nicht nur beim konservativen KI-Establishment, sondern auch bei Leuten, die sich an die Menschenversuche der Nazis erinnert fühlten. Diese Opposition gegen vermeintliche „Menschenversuche“ zwang Brodey, sich an private Geldgeber zu wenden.
Der entscheidende Unterschied zwischen Human Enhancement und Human Augmentation zeigte sich erst Jahrzehnte später auf dramatische Weise. Er betrifft die Indienstnahme für die Automatisierung: Die auf generativer KI basierenden Tools von heute drohen die Arbeit von Künstlern und Autoren nicht nur zu „optimieren“, sondern zu ersetzen. Human Augmentation zielt auf die Entwicklung von Maschinen, die denken und fühlen wie wir, und macht damit unsere Fähigkeiten potenziell überflüssig.
Ganz anders Brodeys Human Enhancement, das ein anderes Denken, eine andere Wahrnehmung ermöglichen soll. Statt eine automatengesteuerte Zivilisation hervorzubringen, die Menschen in standardisierte Wesen umzuformen droht, versprechen Brodeys intelligente Technologien, neue Potenziale zu erschließen, die menschliche Erfahrungswelt zu bereichern, statt zu beschränken.
Mitte der 1960er Jahre geriet Brodeys Leben beruflich und privat aus den Fugen. Seine Ideen trieben ihn aus der Mitte des US-Establishments in die avantgardistischen Randzonen der Gesellschaft. Wie viele Anhänger der Hippie-Bewegung hatte er mit Politik nichts mehr am Hut, weshalb es im schwerfiel, seine Theorien in politische Forderungen zu übersetzen.
Mit ähnlichen Fragestellungen wie Brodey beschäftigte sich der fast gleichaltrige sowjetische Philosoph Ewald Iljenkow (beide Jahrgang 1924), aber sozusagen in einer anderen Welt, im Rahmen eines „kreativen Marxismus“. Die Schriften des Moskauer Philosophen ermöglichen uns ein klareres Verständnis dessen, was Human Enhancement für kommunistische und sozialistische Projekte bedeutet.6
Iljenkow arbeitete wie Brodey intensiv mit Menschen ohne Sehvermögen. Aus seinen Untersuchungen schloss er, dass die kognitiven und sensorischen Fähigkeiten das Produkt von Sozialisation und von Interaktion mit Technologie sind. Unter angemessenen pädagogischen und technologischen Rahmenbedingungen können wir die in uns schlummernden Fähigkeiten mobilisieren. Für Iljenkow war Kommunismus gleichbedeutend mit dem staatlich gelenkten Bestreben, die latent vorhandenen Fähigkeiten freizusetzen, um jedem einzelnen Menschen die Realisierung seines Potenzials zu ermöglichen.
Als die sowjetischen Bürokraten in den 1960er Jahren einer Faszination für die künstliche Intelligenz in den USA erlagen, war Iljenkow so empört, dass er 1968 unter dem Titel „Idole und Ideale“ einen Essay publizierte, der als eine der wichtigsten kritischen Analysen der künstlichen Intelligenz gilt.7 Darin benutzt er einen frappierenden Vergleich: Die Entwicklung von KI sei wie der kostspielige Bau einer riesigen Fabrik, die mitten in der Wüste künstlichen Sand produziert. Die Fabrik mag perfekt funktionieren, aber wäre es nicht einfacher, den rundum in Massen verfügbaren Sand zu nutzen?
Iljenkows Kritik hat bis heute nichts von ihrer Aktualität eingebüßt. Noch immer hocken wir in dieser Wüste und rechtfertigen die Notwendigkeit der Sandfabrik, ohne zu merken, dass niemand sie braucht – außer dem militärisch-industriellen Komplex.
Brodey argumentierte mit einem anderen Bild, das er von Marshall McLuhan entlehnt hat: Die Wirkung seiner ökologischen Technologien sei wie bei einem Fisch, der plötzlich die Existenz des Wassers erkennt. Es ist höchste Zeit, dass ein ähnlich aufgeklärter Mensch die KI-versessenen Leute in der Sandfabrik auf die gigantische Wüste hinweist, die sich vor ihren Mauern erstreckt – eine Wüste voller kreativer, origineller und poetischer Intelligenz.
Bleibt die große ungelöste Frage: Werden die Menschen wirklich eine „Bereicherung“ erfahren, wenn wir weiterhin mit Konzepten „künstlicher Intelligenz“ operieren, die dem Grundanliegen, die Fähigkeiten der Menschen qualitativ zu bereichern, offenbar genau zuwiderlaufen.
In der Realität hat die Entwicklung der künstlichen Intelligenz weitaus mehr gekostet als die vielen Milliarden Dollar, die seit den 1950er Jahren vergeudet wurden. Einige haben auch persönlich draufgezahlt, wenn sie den skrupellosen Youngsters auf den Leim gingen, die frisches Risikokapital für die KI-Entwicklung einwarben. Deren aggressive Fundraising-Methoden trugen dazu bei, visionäre Denker wie Stafford Beer und Warren Brodey, die mit dem Etikett „künstliche Intelligenz“ nie glücklich waren, ins Abseits zu drängen.
Die beiden Männer, die sich 2002 kurz vor Beers Tod noch persönlich begegneten, stammten aus gänzlich verschiedenen Milieus. Beer hatte ein Unternehmen geleitet und war Mitglied des hochelitären britischen Athenaeum Club; Brodey war in einer jüdischen Mittelschichtsfamilie in Toronto aufgewachsen. Gemeinsam war ihnen jedoch, dass sie die KI als Wissenschaftsdisziplin ebenso verachteten wie den Dogmatismus derer, die sie praktizierten.
Beide Forscher fanden ihren Mentor in Warren McCulloch, der dominanten Figur auf dem Feld der Kybernetik. Diese neue Disziplin, als deren Vater Norbert Wiener gilt, war unmittelbar nach dem Zweiten Weltkrieg entstanden. Die frühen KI-Entwickler haben die künstliche Intelligenz zwar als quasi natürliche Weiterentwicklung der Kybernetik dargestellt, doch in vielerlei Hinsicht ist KI keine Weiter-, sondern eine Rückentwicklung des ursprünglichen kybernetischen Ansatzes.
Viele Wissenschaftler, die auf ihrem Fachgebiet – Mathematik, Neurophysiologie, Ingenieurwissenschaften, Biologie oder Anthropologie – Pionierleistungen vollbracht haben, entdeckten dabei auffällige Parallelen zwischen ihren Disziplinen: Alle erforschten komplexe, nichtlineare Prozesse, bei denen Ursache und Wirkung nicht zu unterscheiden waren. Was als Wirkung eines bestimmten (natürlichen oder sozialen) Prozesses erschien, konnte zugleich die Ursache eines anderen sein.
Die Kybernetik war keine wissenschaftliche Disziplin. Sie war eine Philosophie, die sich mit der wechselseitigen Abhängigkeit zwischen scheinbar völlig unverbundenen Phänomenen befasste. Die wichtigsten Kybernetiker gaben ihre angestammten Forschungsgebiete nicht auf, sondern reicherten ihre Analysen durch eine neue Sichtweise an. Mit diesem interdisziplinären Ansatz ließen sich Prozesse, die in Maschinen, menschlichen Gehirnen oder Gesellschaften ablaufen, mit demselben konzeptionellen Instrumentarium untersuchen.
Als die KI Mitte der 1950er Jahre auf die akademische Bühne trat, formulierte sie einen kühnen, ja dreisten Anspruch: Künstliche Intelligenz unterscheide sich klar von der Kybernetik, denn sie erschließe ein Neuland, in dem Maschinen „denken“ können wie Menschen. In Wahrheit hatte KI nicht zum Ziel, die Geheimnisse der menschlichen Erkenntnisprozesse zu ergründen, sondern die Forderungen ihres wichtigsten Kunden zu erfüllen.
Dieser Kunde war das US-Militär. Von Anfang an war die KI-Forschung auf die Anforderungen des Pentagon zugeschnitten. Indem sie sich zum Instrument der Militärpolitik machen ließ, war die entscheidende Weiche für ihre weitere Entwicklung gestellt.
Einige frühe Projekte, die von der kybernetischen Philosophie inspiriert waren, wurden sehr schnell für militärische Zwecke umfunktioniert. Beim Aufbau künstlicher Neuronennetze etwa ging es dann nicht mehr darum, komplexe Strukturen menschlichen Denkens zu entschlüsseln. Vielmehr sollten sie als Hilfsinstrument bei der Analyse von Luftbildern zur Ortung feindlicher Schiffe dienen. Das ehrgeizige Projekt, eine künstliche Intelligenz zu entwickeln, diente am Ende nur noch dazu, profanen Rüstungsaufträgen einen wissenschaftlicher Anstrich zu verpassen.
Für die KI spielte Interdisziplinarität – anders als bei der Kybernetik – kaum noch eine Rolle. Die jungen und brillanten Mathematiker und Informatiker, die das neue Feld beackerten, fanden die Kybernetik zu abstrakt und zu philosophisch und auch potenziell subversiv. Norbert Wiener hatte nach 1945 die Atombombenabwürfe auf Hiroshima und Nagasaki scharf kritisiert und verweigerte in der Folge jede Mitarbeit an militärischen Forschungsprojekten. Und so hatten Kybernetiker wenig Chancen auf finanzielle Förderung durch das Pentagon.
Kalte Krieger im Optimierungsrausch
Dieses Problem hatten die KI-Forscher, die den Militärs die Entwicklung autonomer Waffensysteme in Aussicht stellten, nicht. Während die traditionellen Wissenschaften versuchten, die Welt zu verstehen, und dabei teils auch mit Modellierungen arbeiteten, machten es sich die KI-Pioniere zur Aufgabe, vereinfachte Modelle eines realen Phänomens – der menschlichen Intelligenz – zu konstruieren. Und anschließend alles zu tun, um Außenstehenden einzureden, dass es zwischen Modell und Modelliertem keinen Unterschied gebe. Das ist in etwa so, als würden eigenwillige Geografen ein neues Fachgebiet namens „künstliches Land“ erfinden und ihrer Umwelt weiszumachen versuchen, dass es bald keinen funktionalen Unterschied mehr gebe zwischen der Landkarte und dem realen Territorium.
In vieler Hinsicht spiegelt sich in der Karriere – und der Tragödie – der künstlichen Intelligenz zu Zeiten des Kalten Kriegs der Entwicklungsverlauf, den die Wirtschaftswissenschaften in den USA genommen haben. Früher waren sie eine lebendige und vielstimmige Disziplin gewesen, die sich intensiv mit der Dynamik des weltwirtschaftlichen Geschehens auseinandersetzte, wozu vor allem auch der Einfluss gehörte, den der Staat und die Institutionen (von den Gewerkschaften bis zur Federal Reserve) auf Produktion und Wachstum ausübten.
Im Zuge des Kalten Kriegs wandten sich die akademischen Ökonomen jedoch von der realen Welt ab. Sie verlegten sich auf abstrakte Modelle, deren Relevanz für das wirkliche Leben beliebig war. Aufgrund dieser Fixierung auf Optimierungs- und Gleichgewichtsmodelle oder spieltheoretische Ansätze geriet die Rolle der Institutionen und realen Verhaltensweisen mehr und mehr aus dem Blick.
Heute basieren zwar manche digitale Anwendungen – wie Online-Werbung oder Mitfahrdienste – auf diesen mathematischen Ansätzen, aber solche gelegentlichen „Erfolge“ können einen verfehlten Ansatz nicht retten. Fest steht jedenfalls, dass die modernen orthodoxen Wirtschaftswissenschaften zur Bewältigung von Problemen wie Ungleichheit und Klimawandel außer marktbasierten Lösungen nicht viel anzubieten haben.
Gleiches gilt für die künstliche Intelligenz, die als technologischer Triumph gefeiert wird, oft aber nur ein Tarnbegriff für Militarismus und Kapitalismus ist. Selbst die glühendsten KI-Verfechter werden wohl zugeben, dass ein Mindestmaß an Kontrolle und Reglementierung vonnöten ist; aber eine Zukunft, in der unsere Vorstellung von Intelligenz nicht von der KI geprägt wird, können sie sich kaum vorstellen.
Die KI war von Anfang an weniger eine Wissenschaft – ergebnisoffen und mit letztlich unbekannten Zielen – als vielmehr eine Mischung aus Religion und Technik. Das Ziel war von Beginn an klar: ein computergestütztes Allzwecksystems zu schaffen, das jede Aufgabe ohne besonderes Training bewältigen kann. Diese Vision firmiert heute unter dem Namen Allgemeine Künstliche Intelligenz (AKI).
Hier zeigt sich eine weitere Parallele zu den Wirtschaftswissenschaften: Im Kalten Krieg hatten die Technologen von der AKI eine ähnlich Vorstellung wie ihre Kollegen vom freien Markt: eine sich selbst regulierende und autonome Kraft, an die sich die Menschen anzupassen haben.
Das ökonomische Modelldenken blendete die Rolle von kolonialer Gewalt, Patriarchat und Rassismus für die Expansion des Kapitalismus aus. Dieser galt als natürliche Äußerungsform des angeborenen menschlichen Hangs zum Tauschen galt, also zum ewigen „truck, barter and exchange“ im Sinne von Adam Smith.8
Ganz ähnlich wird im Standardnarrativ über die Ursprünge der KI der Beitrag von Kybernetik, Mathematik und Logik gewürdigt, während der geopolitische und historische Kontext unberücksichtigt bleibt. Das ist so, als würde man Eugenik und Phrenologie kurzerhand als Teilbereiche der Genetik und Biologie behandeln und kein Wort über ihre rassistische Dimension verlieren. Demgegenüber hat Yarden Katz in seinem Buch „Artificial Whiteness“9 aufgezeigt, dass es KI ohne den Militarismus, Korporatismus und Chauvinismus des Kalten Kriegs nie gegeben hätte.
Utopie eines ergebnisoffenen Werdens
Kann man ein derart korrumpiertes Konzept jemals für progressive Zwecke nutzbar machen? Oder ist der Traum von einer „kommunistischen künstlichen Intelligenz“ so hinfällig wie der Traum von nachhaltigen Sweatshops, vergnüglicher Bandarbeit oder humanen Foltertechniken?
Nach dem, was Stafford Beer und Warren Brodey erlebt haben, sollten wir das Fantasieren über eine „sozialistische KI“ wohl besser aufgeben und das ganze Konzept vergessen. Statt uns linke Anwendungen oder neue Eigentumsformen auszudenken, um die vorhandenen KI-Produkte zu „humanisieren“, sollten wir eine Strategie für eine sozialistische Technologie anstelle der herrschenden KI entwickeln.
Das zentrale Ziel einer solchen solidarischen Post-KI-Technologie müsste sein, allen Menschen unabhängig von Klasse, ethnischer Zugehörigkeit oder Geschlecht Zugang zu den Institutionen, Infrastrukturen und Technologien zu verschaffen, die ihre kreative Autonomie fördern und ihre individuellen Potenziale voll zur Entfaltung bringen. Mit anderen Worten: Wir müssen den großen Fortschritt von Human Augmentation zu Human Enhancement, von der Erweiterung zur Bereicherung der menschlichen Fähigkeiten hinbekommen.
Eine solche Strategie sollte auf den Komponenten des Sozialstaats aufbauen, die am weitesten von den konservativen Imperativen der kapitalistischen Ordnung entfernt sind: Bildung und Kultur, Bibliotheken, Hochschulen und öffentlich-rechtliche Medien. Eine Post-KI-Technologie würde nach dieser Vision eine sozialistischen Bildungs- und Kulturpolitik unterstützen, statt das neoliberale Wirtschaftsmodell zu stabilisieren.
Brodey selbst hat letztlich begriffen, dass es eine sozialistische KI ohne Sozialismus nicht geben konnte. Anfang der 1970er Jahre wurde ihm klar, dass es in den USA im Kontext des Kalten Kriegs keinen Sinn hatte, den Traum vom „Human Enhancement“ und einer „ökologischen Technologie“ zu verfolgen – zumal er wegen des Vietnamkriegs ablehnte, Forschungsmittel vom Pentagon und selbst von Universitäten wie dem MIT zu nutzen.
Nicholas Negroponte hat berichtet, dass Brodey nie an einer unbefristeten Stelle am MIT interessiert war. Ein bequemes Leben war seine Sache nicht. Lieber baute er sich inmitten der Wälder von New Hampshire ein Haus aus Schaumstoff und Luftballons, als ein ganz eigenes „reaktives und intelligentes“ Umfeld. Das war damals selbst für seine Bewunderer wie Negroponte befremdlich.
Brodeys Denken atmete den Geist der Utopie. Er und sein engster Mitarbeiter Avery Johnson hatten die Hoffnung, die amerikanische Industrie würde ihre Vision aufgreifen – reaktive und interaktive Produkte, die neue Vorlieben und Interessen wecken, statt Konsumbegierden auszubeuten. Doch die Konzerne interessierten sich mehr für Negropontes konservativere Version, bei der Interaktivität zu einem Instrument wurde, das unsere Ängste auslotet und uns immer mehr Zeug verkauft.
1973 zog der desillusionierte Brodey nach Norwegen, wo er sich aktiv in der maoistischen Kommunistischen Arbeiterpartei engagierte. Er reiste sogar nach China, wo er Ingenieuren seine Vision der „reaktiven Technologien“ nahebringen wollte. Eine bemerkenswerte Volte für jemanden, der im Kalten Krieg mit Projekten der U.S. Army und der CIA befasst gewesen war.
Nach vielen langen Gesprächen, die ich in den vergangenen zehn Jahren in Norwegen mit Brodey geführt habe, kann ich sagen: Brodey ist die perfekte Verkörperung jenes ergebnisoffenen Werdens, für das er sich seit den 1960er Jahren einsetzte. In seinem persönlichen Fall hat Human Enhancement definitiv funktioniert. Zeigt das womöglich, dass es uns allen etwas bringen könnte? Alles, was wir dafür brauchen, sind die richtigen Technologien und eine gehörige Skepsis gegenüber der künstlichen Intelligenz – ob kommunistisch oder nicht.
1 Daron Acemoğlu, „Would AI-enabled communism work?“, Project Syndicate, 28. Juni 2023; Marc Andreessen, „Future of the Internet, technology, and AI“; Podcast von Lex Fridman, Nr. 386, 21. Juni 2023.
2 „Glue pizza and eat rocks: Google AI search errors go viral“, BBC vom 24. Mai 2024.
3 Podcast „The Santiago Boys“, 2003; siehe auch Philippe Rivière, „Der Staat als Maschine“, LMd, November 2010.
4 Negropontes einflussreichstes Buch war „Total Digital. Die Welt zwischen 0 und 1 oder die Zukunft der Kommunikation“, München (Bertelsmann) 1997.
5 Siehe Warren M. Brodey und Nilo Lindgren, „Human enhancement through evolutionary technology“, IEEE Spectrum, Bd. 4, Nr. 9, New York, September 1967.
6 Zu Iljenkow siehe: Alex Levant, Veas Oittinen (Hg.), „Dialectics of the Ideal, Evald Ilyenkov and Creative Soviet Marxism“, Historical Materialism Book Series, Bd. 60, Leiden (Brill) 2014.
7 Der Text ist bis heute nicht übersetzt; eine englischsprachige Zusammenfassung bei: Keti Chukhrov, „The philosophical disability of reason: Evald Ilyenkov’s critique of machinic intelligence“, Radical Philosophy, Nr. 207, London, Frühjahr 2020.
8 Adam Smith, „Eine Untersuchung über das Wesen und die Ursachen des Reichtums der Nationen“, Bd. 1, Kapitel 2, „Von dem die Arbeitsteilung bewirkenden Prinzip“.
9 Yarden Katz, „Artificial Whiteness. Politics and Ideology in Artificial Intelligence“, New York (Columbia University Press) 2020.
Aus dem Französischen von Andreas Bredenfeld
Evgeny Morozov ist Autor des Podcasts „A Sense of Rebellion“, der im Juni 2024 veröffentlicht wurde und aus dem dieser Text hervorging.