Nr. 22/2013 vom 30.05.2013

Wer hat Angst vor den Killerrobotern?

Bald werden kriegführende Staaten selbstständig agierende Waffensysteme einsetzen. Das wird weitreichende Folgen haben. Eine internationale Regulierung ist unabdingbar.

Von Markus Spörndli

Der zunehmende Einsatz bewaffneter Drohnen ist schon lange umstritten. Doch im Vergleich zur neusten Generation von automatisierten Tötungsmaschinen wirken die ferngesteuerten, relativ langsamen Fluggeräte wie Kinderspielzeug. ExpertInnen sehen die neuste Entwicklung als eine weitere militärtechnische Revolution: Nach der Erfindung des Schiesspulvers und der Atombombe kämen nun die «tödlichen autonomen Roboter» (Lethal Autonomous Robotics, LARs), wie die neuen Waffensysteme offiziell genannt werden. Nach ihrer Aktivierung können sie selbstständig Ziele ausfindig machen und – ohne weitere menschliche Entscheidung – unter Beschuss nehmen.

Noch sind solche Systeme nicht in vollem Einsatz. Doch mehrere Staaten investieren viel in die Entwicklung. Die USA testen etwa ein autonomes Flugzeug, das fast Überschallgeschwindigkeit erreicht. Und Israel produziert und verkauft bereits eine Drohne, die all jene Radarsysteme bombardiert, die in ihrer Datenbank nicht als «befreundet» definiert sind. Die Auswirkungen dürften bedeutender sein als die der Atombombe: «LARs werden das Tempo von Kriegen dramatisch erhöhen», sagt Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. «Zudem können die verschiedenen LAR-Systeme auf dem Land, in der Luft und unter Wasser umfassend vernetzt werden.»

Anders als automatisierte Systeme können autonome Systeme auch in sich verändernden, unvorhersehbaren Situationen ohne menschliches Zutun funktionieren. Gerade deshalb sind sie bei MilitärstrategInnen beliebt. Doch dadurch werden die Aktionen der Waffensysteme auch für diejenigen unvorhersehbar, die sie eigentlich kontrollieren müssten. Und dieses Problem potenziert sich noch: «Niemand kann voraussagen, was passiert, wenn sich zwei geheime autonome Programme in einer Schlacht gegenüberstehen», sagte Sharkey: «Sicher wird aber die Zivilbevölkerung massiv leiden.» Auch Fehlprogrammierungen und Hackerangriffe seien nicht unwahrscheinlich.

Sharkey hat deshalb mit anderen WissenschaftlerInnen das International Committee on Robot Arms Control gegründet, das sich zusammen mit nichtstaatlichen Organisationen wie Human Rights Watch in der Campaign to Stop Killer Robots engagiert. Ein erster Erfolg der Anti-LAR-Kampagne: ein Bericht des Uno-Sonderberichterstatters für aussergerichtliche Exekutionen, der eine internationale Regulierung von LARs fordert – und, bis diese umgesetzt sind, sofortige nationale Moratorien. Am Erscheinungstag dieser WOZ diskutiert der Uno-Menschenrechtsrat die Empfehlungen des Berichts. Denn es bestehen Zweifel, ob die neuste militärische Revolution mit dem humanitären Völkerrecht überhaupt fassbar ist.

Es ist gut, dass die Diskussion um LARs in Gang kommt, bevor solche Waffensysteme voll eingesetzt werden. Dabei geht es um weit mehr als rein militärische Belange. Zwar hätten Staaten, die LARs einsetzen, kurzfristige Vorteile – doch mit fatalen Folgen für die globale Sicherheit. Ein Vorteil wäre, dass sich die eigenen SoldatInnen aus direkten Kampfhandlungen heraushalten könnten. Das wäre aber für demokratische Staaten ein Anreiz, sich vermehrt auf Interventionskriege einzulassen. Kommt hinzu: Wenn Interventionen aus der Ferne und von Robotern bestritten werden, könnten sich die Angegriffenen umso mehr legitimiert fühlen, ihre GegnerInnen ebenfalls mit unkonventionellen Mitteln anzugreifen, inklusive deren Zivilbevölkerung oder deren Alliierte. Zwischen robotergesteuerter Kriegführung und Terrorismus besteht letztlich kein klarer Unterschied. In beiden Fällen handelt es sich um ein einseitiges Morden aus dem Hinterhalt.

Doch das sind Fragen, die sich die in der Entwicklung von LARs führenden Nationen USA, Britannien, Israel, China und Russland wohl nur bedingt stellen. Hat eine internationale Regulierung oder gar Ächtung so überhaupt eine Chance? Noel Sharkey glaubt daran – immerhin seien inzwischen auch Antipersonenminen faktisch verboten, obwohl Grossmächte wie die USA, China oder Russland den völkerrechtlichen Vertrag nicht unterzeichnet haben. Doch ein wichtiger Unterschied besteht: Antipersonenminen können von vielen AkteurInnen relativ leicht beschafft und eingesetzt werden. Hoch technisierte Roboterwaffensysteme können hingegen ab einer gewissen Grösse nur von wenigen Staaten entwickelt und angeschafft werden. Diesen strategischen Vorteil werden diese Staaten kaum so rasch aus der Hand geben.

Somit liegt es nun an BürgerInneninitiativen und der Uno, das Gefahrenpotenzial von Roboterwaffen ins Bewusstsein der «Weltgemeinschaft» zu katapultieren. Nur so besteht die Chance, dass sich bald – wie es heute bei Antipersonenminen und Chemiewaffen der Fall ist – kein Land wird leisten können, solche Waffen einzusetzen, wenn es seinen Ruf nicht ruinieren will. Der Vorteil gegenüber den früheren militärtechnischen Revolutionen liegt diesmal zumindest darin, dass wir jetzt noch die Chance haben, die neue Technik zu regulieren, bevor sie im Einsatz ist. Zum Glück können die Menschen dies immer noch autonom entscheiden.

Wenn Ihnen der unabhängige und kritische Journalismus der WOZ etwas wert ist, können Sie uns gerne spontan finanziell unterstützen:

Überweisung

PC-Konto 87-39737-0
BIC POFICHBEXXX
IBAN CH04 0900 0000 8703 9737 0
Verwendungszweck Spende woz.ch