Maschinensturm KI (6): Die KI will nur spielen – und zwar Krieg
Was es bedeutet, wenn künstliche Intelligenz militärische Entscheidungen trifft.
Schach mag die Krönung aller Strategiespiele sein, aber es bildet tatsächliche Konflikte schlecht nach. Echte Pferde laufen geradeaus und springen nicht in rechten Winkeln, echte Bauern desertieren ab und zu, und generell herrscht weder Symmetrie vor Spielbeginn noch ein zu hundert Prozent verlässlicher Regelkatalog.
Soldat:innen spielen allerdings gern. Die Geschichte moderner Kriegsspiele begann 1780 in Preussen, wo der Mathematikprofessor Johann Christian Ludwig Hellwig das Schachspiel abwandelte und «Kriegsspiel» taufte, um seinen Studenten Militärstrategien näherzubringen. Ein paar Jahrzehnte später liess ein preussischer Offizier namens Georg Heinrich Rudolf Johann von Reisswitz die Schachbezüge ganz fallen. Er verlegte das Kriegsspiel auf eine topografische Karte mit genau eingezeichneten Hindernissen. Reisswitz’ Erfindung hatte im preussischen Militär durchschlagenden Erfolg und wurde weltweit von anderen Armeen kopiert.
Zwei Jahrhunderte später sind Kriegsspiele noch immer angesagt. Nur dass die Spieler:innen nicht mehr nur Menschen sind – sie teilen sich das Feld mit KI. Die deutsche Bundeswehr entwickelt aktuell in Kooperation mit mehreren Unternehmen ein System namens «Ghostplay». Es ist eine Art Verteidigungsmetaversum mit KI-Simulationen realer Kriegsschauplätze. Die Defense Innovation Unit der US-Regierung wiederum paktiert mit dem umstrittenen Start-up Scale AI, hinter dem Amazon steht, um Metas KI-Modelle für ihre Zwecke nutzbar zu machen.
Wer nährt den KI-Krieg?
Alle massgeblichen KI-Anbieter – dieselben, mit deren Hilfe man Sitzungsprotokolle, Datingprofile oder Gedichte verfasst – haben mittlerweile Militäranwendungen. Der Trend setzte im Januar 2024 ein, als Open AI seine Selbsteinschränkung, GPT-Modelle nur ziviler Nutzung zur Verfügung zu stellen, widerrief. Im selben Jahr tat sich die Firma mit dem Waffen-Start-up Anduril zusammen, um Drohnenabwehrtechnologie zu bauen. Ein paar Monate später, als Donald Trump wiedergewählt wurde, gaben Meta und Anthropic ihre Modelle auf ähnliche Weise für Verteidigungszwecke frei.
Meta kündigte, ebenfalls in Kooperation mit Anduril, mit KI ausgestattete Helme für Soldat:innen an. Anthropic begann, mit dem Informationsdienstleister Palantir zusammenzuarbeiten, um dessen Zielerkennungssystem zu unterstützen. Im Februar beschloss Kriegsminister Pete Hegseth schliesslich, neben Gemini auch Grok in die Abläufe des Pentagons zu integrieren, den Chatbot von Elon Musks Firma xAI, der sich selbst einmal als «MechaHitler» bezeichnet hatte.
KI-Anbieter ausserhalb der USA gehen ähnlich vor. In China arbeitet Deepseek mit der Volksbefreiungsarmee an autonomen Fahrzeugen. Die französische Firma Mistral AI, die oft als die europäische Alternative zu Big Tech aus den USA gepriesen wird, pflegt eine Partnerschaft mit dem Drohnenhersteller Helsing.
Im Jahr 2026 einen Chatbot zu verwenden, bedeutet, Militärtechnik mit Daten auszuhelfen.
Funktioniert es wenigstens?
Am 28. Februar trafen die US-Streitkräfte zu Beginn ihres Krieges gegen den Iran eine Schule und töteten 168 Mädchen, alle jünger als zwölf Jahre. Eine CNN-Recherche legt nahe, dass der Angriff wegen einer veralteten Datenbank erfolgte, die die Schule fälschlich als Stützpunkt der Islamischen Revolutionsgarde zeigt. Künstliche Intelligenz hat keinerlei Kapazität, verkehrte Daten zu korrigieren.
Systeme maschinellen Lernens machen aber auch eigene Fehler. Wir sind bereits mit sogenannten Halluzinationen vertraut: Absurditäten, die KI-Modelle generieren, während sie das nächste Wort in einem Satz voraussagen. Von noch grundlegenderer Bedeutung ist, dass KI-Systeme nicht darauf ausgelegt sind, logische Operationen zu vollziehen. Sie scheitern zum Beispiel notorisch daran, Verneinungen richtig zu verarbeiten. Eine Studie des Massachusetts Institute of Technology zeigte 2025, dass die Modelle sehr oft ignorieren, wenn ein «nein» oder «nicht» in Sätzen auftaucht. Es liegt auf der Hand, dass der Satz «Das Ziel wurde an diesem Ort gesichtet» ein KI-System zu ganz anderen Schlüssen führen sollte als der Satz «Das Ziel wurde nicht an diesem Ort gesichtet». Aber gerade das ist nicht verlässlich.
KI-Systeme sind Mustererkennungsmaschinen. Befürworter:innen autonomer KI behaupten gern, dass neue Systeme in der Lage seien, sich dynamisch an geänderte Umweltbedingungen anzupassen, also mit dem Unerwarteten umgehen könnten. Das stimmt nur zu einem gewissen Grad. Tatsächlich können die KI-Agenten Verhaltensweisen anpassen, indem sie registrieren, wie ihr Umfeld auf ihr Vorgehen reagiert. Sie können auch von verwirrenden, unsauberen Daten absehen, um wesentliche Informationen herauszufiltern. Aber es bleibt dabei, dass das System in jeder noch so komplexen Situation umgehend auf bereits erlernte Muster zurückgreift. Für das wirklich Aussergewöhnliche hat es keine Zeit. Dieser Mechanismus wirkt sich tiefgreifend auf die Natur der Kriegsführung aus.
Krieg oder Blitzschach?
Meta veröffentlichte 2022 sein sogenanntes Cicero-Modell, eine KI, die das Strategiespiel Diplomacy beherrschte. Diplomacy ist ein Brettspiel, das die europäische Geopolitik von 1901 simuliert. Sieben Spieler:innen, die den Part der Hauptmächte der Ära übernehmen, kämpfen darum, die Hälfte des Spielbretts unter ihre Kontrolle zu bringen. Um das zu erreichen, müssen sie kooperieren, verhandeln und gelegentlich ihren Mitspieler:innen in den Rücken fallen. Kommunikation ist also ein wichtiger Bestandteil des Spiels.
Bei der Evaluation im Vergleich mit menschlichen Spieler:innen schnitt Cicero recht gut ab und gewann oft. Allerdings wurde das Modell, wie die «Wired»-Autorin Virginia Heffernan berichtete, nur in einer sehr spezifischen Situation ausgewertet: einer schnellen Onlinevariante, die viel kürzer und schneller gespielt wurde als das Original. Über das Spielverhalten der menschlichen Teilnehmer:innen befragt, gab einer der Meta-Forscher hinter Cicero zu, dass es eher einfallslos und maschinell gewesen sei. Heffernan resümiert: «Damit eine KI in Diplomacy gewinnen konnte, musste es erst mal ein weniger menschliches Spiel werden.»
So wird auch der echte Krieg weniger menschlich, damit KI zum Zuge kommen kann. Kriegsakzelerationist:innen, insbesondere in den USA, prognostizieren, dass das zukünftige Schlachtfeld ein Kampfplatz der KI-Systeme sein und dass Geschwindigkeit Konflikte entscheiden werde. Man nennt das auch «collapsing the kill chain», den Ausfall der Entscheidungskette auf dem Weg zu tödlicher Gewalt. Das Pentagon lobte Palantir für seinen Beitrag zu diesem Zweck; die Firmensoftware habe die Anzahl menschlicher Analyst:innen, die zur Freigabe eines Schlags erforderlich sind, um den Faktor hundert verringert.
Wenn KIs KIs bekriegen (oder Menschen, die KI-mässig agieren), verwandelt sich der Krieg in etwas, das er bislang nicht war: eine Art kollabierendes Blitzschach. Der Sinn von Systemen maschinellen Lernens ist, Muster aus Daten zu extrahieren. Und wenn auch die Muster der Kriegsschauplätze, anders als beim Schach, ausgesprochen komplex und dynamisch sein mögen, so folgen die KI-Agenten doch stets ihren abermals als Muster identifizierbaren Regeln. Hat der Gegner vergleichbare Rechenstärke und Datenmengen, würde das Spiel im Patt enden – es sei denn, es gelingt einer Seite, schneller zuzuschlagen als der anderen.
Die Notwendigkeit, möglichst schnell zu sein, unterscheidet KI-Konflikte vom aufgeschobenen nuklearen Armageddon des Kalten Krieges. Es reicht nicht, Uran zu bunkern, um die Oberhand zwischen den tödlichen Befehlsketten zu behalten. Man muss unentwegt neue Daten sammeln und riesige Serverfarmen mit ständig auf den neusten Stand gebrachter Hardware einsatzbereit halten. Während er sich einem höllischen Spiel annähert, ist der neue Krieg zugleich ein sehr gutes Geschäft.