Roland Meyer: «KI-Bild­generatoren sind Nostalgie­maschinen und Klischee­verstärker»

Nr. 20 –

Programme wie Midjourney seien wie gemacht, um rechte Weltbilder zu entwerfen, sagt Roland Meyer. Der Medienwissenschaftler erklärt, ob sich diese Tools auch für Kritik kapern lassen. Und was es bedeutet, wenn die Trump-Regierung Bildarchive säubern lässt.

Diesen Artikel hören (21:20)
-15
+15
-15
/
+15
Portraitfoto von Roland Meyer
«Ich komme immer mehr zur Überzeugung, dass man sich der KI-Bildgenerierung nur verweigern kann – zumindest was die jetzt verfügbaren kommerziellen Programme angeht»: Roland Meyer.

WOZ: Roland Meyer, als Professor für Digitale Kulturen befassen Sie sich mit bildpolitischen Fragen, gerade auch rund um den aktuellen Boom von KI-Bildern. Was beschäftigt Sie derzeit am meisten?

Roland Meyer: Was ich, wie viele andere, mit grosser Sorge beobachte, ist das sich verfestigende Bündnis zwischen Techoligarchie und autoritärer Staatsmacht in den USA. Die grossen Techfirmen setzen bei der Entwicklung sogenannter künstlicher Intelligenz auf schrankenlose Expansion, und dafür benötigen sie politische Unterstützung. Um sich immer grössere Datenmengen für das Training der KI-Modelle aneignen zu können, soll das Urheberrecht angepasst werden. Für die nötigen Rechenkapazitäten werden massenhaft Datenzentren mit enormem Energie- und Ressourcenverbrauch gebaut. Die Trump-Regierung trägt diesen Expansionskurs mit.

Roland Meyer: Das Bündnis von Big Tech und Trump-Regierung hat nicht nur eine politische, sondern auch eine ästhetische Dimension: KI-generierte Bildwelten sind zur bevorzugten Ästhetik des digitalen Faschismus, wie Simon Strick das genannt hat, geworden. Dieser Zusammenhang ist es, den ich zu verstehen versuche.

WOZ: KI-Bildgeneratoren wie Midjourney und Dall-E drängten sich für den Entwurf rechter Weltbilder geradezu auf, so schrieben Sie in einem Essay für «Geschichte der Gegenwart». Woran machen Sie das fest?

Roland Meyer: Es sind vor allem drei Momente, die für mich zusammenkommen. Erstens sind diese Programme strukturell nostalgisch. Sie lernen an Bildern und Daten der Vergangenheit, und sie sind besonders gut darin, vergangene Stile zu imitieren und in Bildern zu rekombinieren. Doch auch wenn solche Bilder historisch anmuten, haben sie mit der tatsächlichen Geschichte wenig zu tun.

Roland Meyer: Dieses Moment der Variation und Rekombination von bereits bekannten Mustern ist anschlussfähig an das rechte Versprechen der Wiederherstellung einer imaginären vergangenen Grösse, die vor allem in Bildern und Vorstellungen existiert, etwa im Sinne von «Make America Great Again». Dazu kommt, dass diese Bildgeneratoren nicht nur Nostalgiemaschinen sind, sondern auch Klischeeverstärker.

Der Bildforscher

Roland Meyer, geboren 1977, studierte Kunstwissenschaft und Medientheorie an der Staatlichen Hochschule für Gestaltung in Karlsruhe. Seine Dissertation «Operative Porträts. Eine Bildgeschichte der Identifizierbarkeit» ist 2019 bei Konstanz University Press erschienen. Zuletzt hat er den Band «Bilder unter Verdacht. Praktiken der Bildforensik» (2024; gratis zum Download bei De Gruyter) herausgegeben.

Als Brückenprofessor für Digitale Kulturen und Kunst verbindet er seit Juli 2024 die Lehre und die Forschung an der Universität Zürich und der Zürcher Hochschule der Künste (ZHdK).

Im Rahmen einer Gesprächsreihe des Zentrums Künste und Kulturtheorie spricht Meyer mit der Humangeografin Gillian Rose ­(University of Oxford) über Solutionismus und die digitale Stadt: Zürich, Cabaret Voltaire, Di, 20. Mai 2025, um 18.15 Uhr (in englischer Sprache).

 

WOZ: Inwiefern?

Roland Meyer: KI-Bildgeneratoren verfahren wie eine Art umgekehrte Mustererkennung: Aus grossen Datenmengen extrahieren sie Stereotype und Muster, die sie nicht nur reproduzieren, sondern sogar noch verstärken und vereindeutigen. Das gilt für Geschlechterklischees ebenso wie für rassistische Zuschreibungen und andere Stereotype.

WOZ: Und der dritte Punkt?

Roland Meyer: Das ist die populistische Ästhetik dieser Technologien, die daraufhin optimiert werden, bestimmte ästhetische und auch ideologische Erwartungen zu erfüllen. Sie sollen so ausschauen, dass sie gut geklickt werden, dass sie auf den ersten Blick ins Auge fallen und unmittelbare Reaktionen auslösen. Das ist etwas, worauf kommerzielle Bildgenerierungstools in ihrem sogenannten Feintuning, also der Optimierung dieser Modelle, tatsächlich trainiert werden.

WOZ: Wenn die Bilder daraufhin optimiert werden, bestimmte Erwartungen zu erfüllen, wie Sie sagen: Wessen Erwartungen sind das denn?

Roland Meyer: Es gibt eine Studie von Christo Buschek und Jer Thorp, die nachzeichnet, wessen Bewertungen und ästhetische Vorlieben in das Feintuning dieser Modelle eingehen. Das ist eine demografisch recht homogene Gruppe von überwiegend weissen, männlichen Mittelschichtsangehörigen aus dem Globalen Norden. Die Ästhetik von KI-Bildern ist ein Produkt der Reaktionsökonomien digitaler Plattformen. Zur Logik sozialer Medien gehört es ja, dass wir nie nur ein Bild teilen, sondern immer zugleich auch unsere Reaktion auf dieses Bild. Und diese Reaktionsökonomie, in der Bilder ständig miteinander um Klicks, Likes und Kommentare konkurrieren, verstärkt das populistische Moment.

WOZ: Die populistische Ästhetik dieser Modelle müsste sich aber auch von Progressiven kapern lassen, oder nicht?

Roland Meyer: Eine solche Aneignung hat es, glaube ich, mit grösseren Problemen zu tun. Generative KI basiert ja auf einem extraktivistischen Geschäftsmodell: Da werden riesige Mengen von Bildern, Texten und Tönen, in die die kreative Arbeit von unzähligen Menschen eingeflossen ist, zu Trainingsdaten gemacht. Damit findet eine Entwertung kreativer Arbeit statt, die in der Logik dieser Modelle angelegt ist: Das einzelne Bild zählt nichts, nur die Bildermassen und die Muster, die sich aus ihnen extrahieren lassen. Die endlose Variation und die Reproduktion dieser Muster treten dann in Konkurrenz mit der singulären kreativen Arbeit. Das ist eine nicht nur symbolische, sondern auch eine ökonomische Entwertung, gegen die viele Kreative zu Recht aufbegehren. Dazu kommen andere Formen von Ausbeutung, die die Grundlage dieser Modelle bilden.

WOZ: Woran denken Sie da?

Roland Meyer: An die Ausbeutung von Data Workers im Globalen Süden, die die Datensätze «reinigen», wie man das nennt, also etwa gewalttätige und pornografische Bilder aussortieren. Das ist eine ökonomisch prekäre und häufig traumatisierende Arbeit. Dazu kommt der enorme Ressourcenverbrauch: Der angekündigte Ausbau von Datenzentren ist eigentlich nur mit fossiler Energie oder neuen Atomkraftwerken zu bewerkstelligen.

Roland Meyer: Wenn also viele progressive Kräfte mittlerweile sehr kritisch gegenüber diesen Bildern sind, dann aus guten Gründen. Umso attraktiver wurde es für die Rechte, KI-Bilder als eine Art von Provokation und zum Trolling einzusetzen. Das zeigt sich darin, wie Leute wie Donald Trump oder Elon Musk diese Bildgeneratoren nutzen: Sie bedienen damit nicht nur die eigene Followerschaft, sondern produzieren vor allem Bilder, die für die Gegenseite eine gezielte ästhetische wie politische Zumutung darstellen. Daher bin ich sehr skeptisch, was die Aneignung von KI-Bildgenerierung von links angeht.

WOZ: Aus progressiver Perspektive man kann sich dem also nur verweigern?

Roland Meyer: Da ich selbst am Anfang von diesen Programmen durchaus fasziniert war, fällt es mir gar nicht so leicht, spontan Ja zu sagen. Aber ich komme immer mehr zur Überzeugung, dass das die richtige Antwort ist – zumindest was die jetzt verfügbaren kommerziellen Programme angeht. Wobei durchaus Formen des experimentellen künstlerischen Umgangs mit generativer KI möglich scheinen, die nicht auf diesen grossen Modellen basieren, sondern auf kleineren, lokalen, mit anderen Daten trainierten Technologien.

WOZ: Wenn ein Kollege auf Facebook ein KI-generiertes Gemäldeporträt postet, das Donald Trump als Richard III. zeigt: Bedient er damit also auch nur die Maschine? Oder sehen Sie da ein legitimes Moment von Satire?

Roland Meyer: Das zeigt jedenfalls, dass KI-Bildgeneratoren als eine Art Mememaschine funktionieren. Memes basieren ja auch auf der Variation und der Rekombination von bereits bekannten Mustern, die überraschend zusammengebracht werden: Man bedient sich gewissermassen im Bildarchiv und schafft in der Rekombination etwas Neues. Das Problem ist jedoch, dass Trump sich ja selbst bereits ständig zum Meme macht, wenn er etwa Bilder von sich als Papst oder Football-Quarterback teilt. Ob man ihm daher mit satirisch gemeinten Mitteln überhaupt beikommen kann? Da bin ich skeptisch.

Roland Meyer: Was bei KI-generierten Bildern, im Gegensatz zu klassischen Memes, noch dazukommt, ist die Ästhetik der Bruchlosigkeit, Glätte und Scheinperfektion. Wie beim Bild Ihres Kollegen: Die Montage von zwei Bildmotiven soll zwar einen kritisch gemeinten Vergleich visualisieren, aber der Bildgenerator verschweisst diese Motive zur glatten, bruchlosen Einheit. Das macht es schwieriger, kritische Aussagen zu machen – und bietet sich umso besser für propagandistische Zwecke an.

WOZ: Lassen sich diese Tools überhaupt subversiv gegen sich selbst wenden? Oder kann jeder Nonsens, den wir mit ihnen anstellen, sie nur besser trainieren?

Roland Meyer: Eine Zeit lang war es ja eine Strategie gerade im künstlerischen Bereich, diese Glätte aufzubrechen und die Fehler herauszustellen, also die Glitches und Seltsamkeiten, die in diesen Prozessen produziert werden. Das scheint mir eine legitime Strategie, wobei man jedoch immer nur auf einen bestimmten Stand der Technologie reagiert – man begleitet die technische Optimierungslogik zwar kritisch, rennt ihr aber zugleich tendenziell hinterher.

WOZ: Ihr Buch «Operative Porträts» ist gewissermassen eine Geschichte der modernen Gesichtserkennung, wobei Sie zurückgingen bis ins 18. Jahrhundert zu Johann Caspar Lavater, dem Zürcher Begründer der neuzeitlichen Physiognomik. Kann man sagen, dass dessen eugenischer Ungeist in den digitalen Tools von heute weiterspukt?

Roland Meyer: Ich würde bei Lavaters Physiognomik noch nicht von Eugenik sprechen. Der Begriff entsteht ja erst im späten 19. Jahrhundert, auch wenn man Lavater wohl zur Vorgeschichte zählen muss. An ihm hat mich vor allem interessiert, dass er ein geradezu fanatischer Bildersammler war. Er hat eine riesige Sammlung von Porträts und Schattenrissen angelegt, die ihm als Trainingsmaterial und Datenquelle dienen sollten – ähnlich wie heute bei den KI-Modellen.

Roland Meyer: Für diesen neuen Umgang mit Porträts, die nun nicht mehr als singuläre Darstellungen eines Individuums angesehen, sondern massenhaft als Datenquelle genutzt wurden, habe ich den Begriff des «operativen Porträts» vorgeschlagen, in Anlehnung an Harun Farockis Begriff der «operativen Bilder». Damit bezeichnet er Bilder, die nicht primär die Welt abbilden, sondern in technische Operationen der Datenauswertung, Luftaufklärung, Videoüberwachung und dergleichen eingebunden sind.

WOZ: Und Ihre These ist, dass ein solcher operativer Blick auf Bilder sich schon bei Lavater ankündigt?

Roland Meyer: Genau. Bei ihm wird das Bild buchstäblich zur Operationsfläche: Er zergliedert Schattenrisse in einzelne Abschnitte, isoliert Merkmale und vermisst sie, um daraus vergleichbare Daten zu extrahieren. Das geht allerdings bei Lavater letztlich nicht auf.

WOZ: Warum geht es nicht auf?

Roland Meyer: Unter anderem deshalb, weil bei Lavater noch keine Rolle spielt, was heute für die Auswertung von Bildern als Datenquelle entscheidend ist, nämlich die Statistik. Die Idee, Bilder statistisch auszuwerten, kommt erst im 19. Jahrhundert auf, etwa bei Francis Galton, der tatsächlich die Eugenik begründet.

Roland Meyer: Was bei Lavater aber bereits eine Rolle spielt, ist die Vorstellung von Norm und Abweichung: Für ihn gibt es so etwas wie ein Idealgesicht, das ist – da ist er ganz Pastor – das Gesicht Christi. Und die Frage, die sich bei allen anderen menschlichen Gesichtern stellt, ist ihre Ähnlichkeit oder Unähnlichkeit mit Christus. Darin sind natürlich alle möglichen, nicht zuletzt rassistischen Formen von Diskriminierung angelegt. Welche Gesichter als normal angesehen und welche als Abweichung behandelt werden: Diese Frage findet sich in heutigen Technologien der Gesichtserkennung wieder, auf ganz anderer technischer Basis. Wir wissen ja, dass Gesichtserkennungsalgorithmen bis heute einen massiven rassistischen Bias aufweisen, was schon zu Verhaftungen von Unschuldigen geführt hat.

WOZ: Wenn sich jetzt alle diese Techfirmen wie Google, Meta und Open AI in Zürich ansiedeln, schliesst sich also auch medienhistorisch der Kreis zu Lavater. Oder ist das jetzt zu überspitzt?

Roland Meyer: Das ist recht überspitzt und nimmt einen spekulativen Gedanken vielleicht allzu wörtlich. Allerdings habe ich tatsächlich versucht, Lavater als eine Art Medienunternehmer zu beschreiben, der die neusten technischen Medien seiner Zeit nutzt und miteinander verschaltet: zum Beispiel den Physionotrace, einen Apparat zur Erstellung von Schattenrissen, und das Postsystem, also die damaligen Möglichkeiten von Vernetzung und Fernkommunikation. Und Lavaters Sammlung beruht nicht zuletzt auf einer grossen Menge von Zuträger:innen, die ihm per Brief Silhouetten zur physiognomischen Deutung zugesandt hatten. In diesem Sinne etabliert er also bereits eine Art soziales Netzwerk der Bildzirkulation, auf der Basis von Postkutsche und Schattenriss. Mit den heutigen Plattformen hat das natürlich nur eine entfernte Ähnlichkeit, und es bewegt sich auch in ganz anderen Grössenordnungen.

WOZ: Die Fortschritte in der generativen KI waren in den letzten Jahren rasant. Wird das so weitergehen, oder werden diese Modelle schon bald total uninteressant sein, weil sie sich in Feedbackschleifen erschöpft haben?

Roland Meyer: Was wir auf jeden Fall beobachten können, ist, dass immer mehr Bilder und Daten im Netz bereits das Produkt generativer KI sind. Wenn diese nun in Feedbackschleifen wieder in das Training von KI-Modellen einfliessen, kann das deren Qualität negativ beeinflussen – manche warnen in diesem Zusammenhang bereits vor einem «model collapse», einem Zusammenbruch der Modelle. Das ist wohl auch ein Grund, warum KI-Firmen immer häufiger die Kooperation mit klassischen Contentanbietern und Rechteinhabern suchen, um ihre Datenbestände aufzufüllen – von journalistischen Medien über Filmstudios bis hin zu Museen und Archiven.

Roland Meyer: Wie die weitere Entwicklung aussieht, wird dann auch davon abhängen, welche Formen von Widerstand es gibt. Schon bei den jüngsten Streiks in Hollywood ging es ja um die Frage der Nutzung von generativer KI. Und wenn jetzt auch politisch versucht wird, diese Technologien in immer mehr Bereichen zu installieren, sei es im Kulturbereich oder an Universitäten und Schulen, wird die Frage sein: Kann man diese Entwicklung wenn vielleicht nicht immer aufhalten, so doch zumindest in eine Richtung lenken, die nicht auf eine immer grössere Machtkonzentration der Techkonzerne, auf immer mehr Datenextraktivismus und Überwachung sowie die weitere Entwertung menschlicher Arbeit hinausläuft?

WOZ: Sie haben jetzt nur Kritik und Widerstand erwähnt. Und die politische Regulierung?

Roland Meyer: Der zivilgesellschaftliche Diskurs ist aus meiner Sicht die Grundlage dafür, dass auch politische Regulierung stattfinden kann. Ohne laute Stimmen aus unterschiedlichster Richtung erscheinen das vermeintliche Zukunftsversprechen dieser Technologien und die Angst, etwas zu verpassen, zu gross, als dass man von politischer Seite mit wirksamen Regulierungen rechnen könnte – zumal der Druck gegen Regulierungsbemühungen wohl weiter wachsen wird.

WOZ: Es gibt ja aktuell noch eine handfeste Kehrseite zu dieser Entwicklung: Während wir mit KI-Bildern geflutet werden, lässt US-Präsident Trump Bildarchive säubern. Sollte uns das mehr Sorgen machen als die Wirkung von KI-Bildern?

Roland Meyer: Es sollte uns genauso viel Sorgen machen. Und ich denke, es kann erhellend sein, beides zusammenzudenken. Im Rahmen des Kampfes der Trump-Regierung gegen «diversity, equity, and inclusion», also die Anerkennung und Sichtbarmachung von marginalisierten Gruppen, haben Behörden wie das Pentagon schon massenhaft Bilder aus dem Netz genommen und Websites gelöscht. Im Fall des US-Militärs trifft das vor allem Bilder von Frauen, Schwarzen, Queers, trans Personen, People of Color und Native Americans. Da findet buchstäblich eine Säuberung statt, bei der alle, die nicht einem bestimmten Bild weisser soldatischer Männlichkeit entsprechen, unsichtbar gemacht werden – um damit, das ist ja absehbar, ihre Diskriminierung und Verfolgung vorzubereiten.

WOZ: Was bedeuten diese Säuberungsaktionen für unser Verständnis von Geschichte?

Roland Meyer: Übrig bleibt ein Bild von Geschichte, das allein von weissen Männern bestimmt wird. Das ist fast wie ein Spiegelbild der Klischees und Stereotype der KI-Bildgeneratoren. Und das alles findet statt, während gleichzeitig die digital verfügbaren historischen Bildmengen zur Grundlage des Trainings dieser KI-Generatoren werden. Das heisst, je mehr die Datengrundlage gereinigt wird, umso mehr verstärkt sich der ohnehin schon in der Technik angelegte Bias.

Roland Meyer: Daraus erwächst aber auch eine Aufforderung an institutionelle wie nichtinstitutionelle Akteure, Daten zu sichern, Gegenarchive anzulegen und auch im Digitalen das historisch Spezifische und Singuläre zu bewahren – all das, was nicht im Klischee und wiederholbaren Muster aufgeht. Diese im Grunde konservative Botschaft gewinnt unter den aktuellen Bedingungen an Radikalität.

WOZ: Heisst das, dass unter diesen Umständen auch das analoge Archiv wieder wichtiger wird, als physischer Ort, wo etwas abgelegt und gespeichert ist?

Roland Meyer: Ich würde sagen, dass es als Korrektiv und als Basis wichtig ist, Dinge möglichst auch in physischer Form zu bewahren. Zwei Punkte sollte man aber nicht vergessen: Sehr viele Daten, etwa grosse Teile der digitalen Bildproduktion der vergangenen Jahrzehnte, existieren gar nicht mehr in physischer Form. Und dann ist da natürlich das enorme Versprechen der Verfügbarkeit und der Zugänglichkeit, das die Digitalisierung gebracht hat. Das ist etwas, das viele nicht missen wollen.

Roland Meyer: Wir sehen allerdings jetzt gewissermassen die doppelte Kehrseite dieser digitalen Verfügbarkeit: einerseits diese grossmassstäbliche Aneignung durch KI-Konzerne, die alles, was verfügbar ist, zur extrahierbaren Ressource macht. Und anderseits, das zeigen die Löschungs- und Säuberungskampagnen, existieren digitale Daten nicht einfach irgendwo immateriell in einer Cloud, sondern an ganz konkreten Serverstandorten, auf die politische Kräfte Zugriff haben.

WOZ: Und wo sie auch verschwinden können, wenn sich die politischen Verhältnisse ändern.

Roland Meyer: Ja, das ist die Lektion, die wir gerade schmerzhaft lernen müssen. Wir sollten daher die Zugänglichkeit verteidigen und zugleich schärfer zwischen Zugänglichkeit und Verfügbarkeit unterscheiden: Es ist wichtig, dass die digitalen Archive zugänglich bleiben, aber das heisst nicht, dass man beliebig über sie verfügen kann.