Noch gibt es sie nicht und vielleicht wird es sie nie geben: die „Tödlichen Autonomen Waffensysteme“ (LAWS). Mindestens sechs Staaten – die USA, Russland, China, Grossbritannien, Israel und Südkorea – arbeiten aber an ihrer Entwicklung. Es geht um Killerroboter, die ohne menschliches Zutun Kriege führen und selbst entscheiden, wen sie töten.
Überlegene "Künstliche Intelligenz"
Die heutigen Kampfdrohnen zählen nicht zu dieser Gattung, denn sie werden noch von Menschen an Bildschirmen ferngelenkt. Eine Vorstufe der LAWS bilden moderne Raketenabwehrsysteme, die vollautomatisch arbeiten. Künftige Waffengenerationen werden zweifellos auf „künstlicher Intelligenz“ beruhen. Diese reagiert schneller als das menschliche Gehirn und kann in Sekundenbruchteilen alle Optionen durchrechnen.
Bereits 1997 setzte der IBM-Computer „Deep Blue“ den Ex-Schachweltmeister Gary Kasparow matt. Vergangenen März besiegte der Rechner Google DeepMind den derzeit weltbesten Go-Spieler Lee Sedol in Seoul vier zu eins. Früher galt das Militär als die Mutter aller technischen Fortschritte. Jetzt ist es umgekehrt: Die vom Zivilsektor entwickelte künstliche Intelligenz wird bei den Streitkräften eingeführt. Ohne Begeisterung der Militärs, denn die Generäle lassen sich die Entscheidungen über den Einsatz ihrer Waffen nicht gern aus der Hand nehmen. Aber was machbar ist, wird meistens auch gemacht.
„Stop Killer Robots“
Die breite Öffentlichkeit ist auf diese fragwürdigen Fortschritte der Kriegstechnologie vor einigen Jahren aufmerksam geworden. Zahlreiche Wissenschaftler, Nicht-Regierungs-Organisationen wie Amnesty International und Human Rights Watch und humanitäre Institutionen wie das Internationale Komitee vom Roten Kreuz unterstützen die Kampagne „Stop Killer Robots“. Die Uno befasst sich seit 2013 damit. Bisher haben in Genf drei Expertentreffen im Rahmen der internationalen Konvention über gewisse konventionelle Waffen (CCW) stattgefunden. Sogar am letzten Weltwirtschaftsforum im Januar in Davos stand das Thema auf der Tagesordnung.
Die Diskussion leidet unter der Schwierigkeit, LAWS zu definieren. Man kann sich darunter zwar alles Mögliche vorstellen, aber noch niemand hat welche gesehen. Gewöhnlich wird auf die Erprobung unbemannter Kleinpanzer hingewiesen, die auf alles schiessen, was sich bewegt. Neben geländegängigen Fahrzeugen könnten auch vorprogrammierte Drohnen gegen feindliche Truppen eingesetzt werden. In Davos entwarf der US-Forscher Stuart Ruddell eine Vision von weniger als 30 Gramm schweren Drohnen, die winzige Sprengstoffprojektile zielgenau auf die Köpfe von Menschen verschiessen. Schwärme solcher autonomer Flugkörper könnten grosse Massaker anrichten.
Wehe, wenn sie losgelassen
Eines der ungelösten Probleme solcher Wunderwaffen ist, sie nach ihrem Einsatz wieder abzustellen. Die „künstlichen Intelligenz“ kennt keinen roten Knopf, auf den man drücken kann, um sie zu stoppen. Militärexperten weisen darauf hin, dass zum Beispiel autonome U-Boot-Jäger nach dem Ende eines Kriegs in den Tiefen der Meere weiterjagen würden.
Die grösste Schwierigkeit liegt aber in der Differenzierung zwischen Freund und Feind, Kämpfern und Zivilisten. Mit Blick auf den Krieg gegen den Islamischen Staat wurde ernsthaft der Vorschlag eingebracht, LAWS zu entwickeln, die die Gegner an ihren Bärten erkennen. Zuverlässig wäre eine solche Methode allerdings nicht, denn Bärte lassen sich abschneiden oder verhüllen – abgesehen davon, dass gerade in der islamischen Welt viele friedliche Männer Bartträger sind.
Automaten als Kriegsverbrecher
Dennoch hat die Herstellung autonomer Kampfmaschinen ihre Befürworter. Diese erwarten davon eine stabilisierende Wirkung auf den Schlachtfeldern besonders in „asymmetrischen“ Kriegen. Ein einleuchtendes Argument ist die Schonung der eigenen Soldaten. Nach verbreiteter Ansicht wären seriengefertigte Killerroboter weitaus billiger als gefallene oder verwundene Armeeangehörige mit den Entschädigungsansprüchen ihrer Angehörigen.
Auf dem diplomatischen Parkett stehen sich die Staaten mit Spitzentechnologie und der Rest der Welt gegenüber. Die ersteren wollen sich keine Fesseln anlegen lassen und lehnen ein präventives Verbot von LAWS ab. Grossen Raum in der Diskussion nimmt die Frage ein, wer für Kriegsverbrechen haftet, wenn Waffen selbständig entscheiden. Alle Regierungen sprechen sich für eine „bedeutende menschliche Kontrolle autonomer Waffen“ aus, aber kann man ihnen trauen?
Erosion des Völkerrechts
Deutschlands Vertreter versicherte in Genf: „Wir werden nicht akzeptieren, dass die Entscheidungen über Leben oder Tod von einem autonomen Waffensystem getroffen werden, ohne jegliche Möglichkeit eines menschlichen Eingreifens.“ In einem von der Schweiz unterbreiteten Arbeitspapier heisst es: „Staaten können nicht ihrer internationalen Verantwortung entfliehen, indem sie gewisse Aufgaben an LAWS delegieren.“
Nach geltendem Kriegsrecht müssen Soldaten die Möglichkeit haben, sich zu ergeben. Das können LAWS nicht gewährleisten. Niemand könnte für von Robotern begangene Verbrechen gegen die Menschlichkeit persönlich zur Verantwortung gezogen werden. Fachleute befürchten die Erosion des humanitären Völkerrechts. Sie fordern daher ein Moratorium der Entwicklung autonomer Waffensysteme, bis ein internationales Rahmenabkommen beschlossen wird. Die überwältigende Staatenmehrheit steht auf ihrer Seite.