Die militarisierte Phantasie kennt keine Grenzen. Nach den Bomben und den Bakterien liebäugelt sie nun mit der Idee der Killer-Algorithmen: softwaregesteuerte Roboter – «Slaughterbots» –, die für den Menschen das Geschäft des Tötens oder Unschädlichmachens von Gegnern übernehmen.
Wir sind in die Epoche des KI-Wettrüstens getreten. Im Fokus stehen zum Beispiel kleine insektenartige oder vogelartige Drohnen, die je nach Präferenz den Feind ausspähen, identifizieren und eliminieren. Der Zoo dieser todbringenden künstlich intelligenten Kreaturen wächst und wächst. Zur Zeit finden sie reissenden Absatz im Ukrainekrieg.
«Krabben auf der Insel»
Der russische Physiker Anatoly Dneprov ist nahezu unbekannt. Er schrieb in den 1950er Jahren Science-Fiction-Geschichten, welche die heutige Entwicklung der KI mit bemerkenswerter Klarsicht vorwegnahmen. Zum Beispiel «Krabben auf der Insel». Um Darwins Theorie zu testen, veranstalten Forscher auf einer Insel ein Selektionsexperiment mit selbstreproduzierenden Robotern. Verlierer verschwinden, Sieger breiten sich aus, bis sich einige von ihnen zu perfekten Killermaschinen entwickelt haben. Heute ist das nicht bloss Science-Fiction. Ein Wissenschaftler der US-Forschungsabteilung für militärische Projekte (DARPA) schlug ein ähnliches Szenario vor, das er «Jurassic Park für Roboter» nannte. Wir stehen auf der Schwelle zu einer postbiologischen Evolution der KI.
Die Maschinen werden unberechenbarer
Ob solche Szenarien realisierbar sind oder nicht, man muss sich genauer mit den Annahmen beschäftigen, von denen Verfechter einer Automatisierung kriegerischer Konflikte ausgehen. Und eine ist höchst fragwürdig: Der Grund für Brutalität und Massaker ist menschliche Irrationalität. So vertritt zum Beispiel der Computerethiker Ronald Arkin die Auffassung, autonome Waffensysteme könnten die Inhumanität reduzieren, da einem Roboter Emotionen fremd seien, er nicht aus Hass, Angst, Sadismus, Grausamkeit agiere. Wenn man also Menschen aus der «Schleife der Gewaltanwendung» herausnehmen könnte, hätte man einen Beitrag zur Entschärfung von Konflikten geleistet.
Ein dubioses Argument. Denn gerade die schrecklichsten Gräueltaten erfolgen oft aus der kalten Kalkulation und Legitimation einer möderischen Rationalität heraus. Die Geschichte der Kriege ist übervoll mit Beispielen geplanten und «befugten» Massakrierens. Ohnehin erscheint es paradox, die Unmenschlichkeit dadurch zu vermindern zu wollen, dass man diese Aufgabe ausgerechnet an nichtmenschliche Systeme delegiert. Als ob die menschliche Unberechenbarkeit mit maschineller Berechnung gezähmt werden könnte. Die Maschinen selbst sind ja auch nicht mehr völlig berechenbar. Wir haben schon heute die Schwelle zu einem Stadium der unbegreiflichen Maschine überschritten, von KI-Systemen, die ihren Designern zusehends über den Kopf zu wachsen beginnen.
Die inhärente Logik der militarisierten KI-Systeme neigt zur selbsterfüllenden Prophezeihung. Wer Technologie entwickelt, um die Technologie des Gegners zu schlagen, weckt beim Gegner genau den gleichen Impuls. Alles unter den Gesichtspunkt der Kompetition und Konfrontation zu subsumieren treibt uns in eine Endlosschleife, eine potenziell selbstzerstörerische No-Win-No-Win-Situation.
Mustererkennung des Feindes
Das internationale Menschenrecht stellt eine grosse Herausforderung für autonome Waffen dar. Das ethische Schlüsselprinzip der Kriegsführung basiert auf der Unterscheidung zwischen Kämpfern und Zivilisten. In den letzen Jahrzehnten hat die Zahl der Guerillakriege und Aufstände zugenommen, und in solchen Situationen verschwimmt die Unterscheidung oft. Wen definiert man als Feind und wie identifiziert man ihn? Wenn schon Menschen grosse Probleme mit dieser Frage haben, dann erst recht KI-Systeme. Eine Drohnenoperation verlangt im Übrigen einen enormen materiellen, logistischen, organisatorischen und menschlichen Aufwand.
Nun versichern uns die Verfechter der KI-Systeme, dass sie die Mustererkennung dank Maschinenlernen ständig verbessern würden. Das übliche Kinderschuhargument: Die Technologie ist noch jung. Indes, selbst wenn dies zutrifft, ist die Logik brüchig. Die Mustererkennung mag im Regelzustand eines KI-Labors gut funktionieren, aber im Ausnahmezustand eines unübersichtlichen Kriegsgewirrs? Die Kategorie des Kämpfers – eines «legitimen» Zielobjekts – tendiert dazu, in solchen diffusen Situationen zu verschwimmen, so dass man sie letztlich auf jede Mitgliedschaft, Kollaboration oder nur schon Sympathie für eine militante Gruppe anwenden kann. Wie soll ein KI-System hier klare Zuordnungen vornehmen, ohne die Voreingenommenheiten seiner Designer zu applizieren? Ein jüngst veröffentlichtes Dokument über den Drohneneinsatz im Irakkrieg demonstriert im Übrigen, wie fatal schludrig man oft im Erkennen von feindlichen Zielen handelte. Zum Beispiel entpuppten sich «weisse Säcke mit Ammoniumnitrat» in einer «selbstgebauten Sprengstofffabrik» als Baumwollsäcke in einer Baumwoll-Entkörnungsanlage; oder ein «erwachsener Mann, der mit ISIS in Verbindung steht», als eine ältere Frau. Sie wurde getötet.
Der Milliardenmarkt der KI-Geräte
Ein anderes Problem ist das Prinzip der Proportionalität. Es fordert, dass zwischen dem potenziellen militärischen Nutzen und dem zivilen Kollateralschaden einer Aktion ein Gleichgewicht herrsche. Aber das ist eine inhärent subjektive Bestimmung, die sich nur von Fall zu Fall einlösen lässt. Um Prinzipien durchzusetzen, braucht es Fingerspitzengefühl, ein Sensorium für die Ambiguitäten einer Situation – ein zentrales Problem für die KI. Bisher jedenfalls gibt es keine empirischen Anhaltspunkte dafür, dass lernende Maschinen zu einer Entscheidungsfindung in Situationen fähig wären, die eine auch nur schon geringfügig mehrdeutige Anwendung von Gesetzen oder Normen voraussetzt.
Aus einer weiteren Perspektive zeigt sich die Entwicklung von KI-Kriegsgeräten als bedenklich. Denn in gewissem Sinn findet eine Ausweitung der Kampfzone in unsere technisierten Lebenswelten statt. Die smarten Algorithmen finden heute vermehrt ihre Anwendung auf den «Schlachtfeldern» der sozialen Kontrolle, des Konsums, der Social Media, und nicht nur unter der Parteidiktatur Chinas. Es erscheint geradezu symptomatisch, wenn Digitalunternehmen wie Spotify nun in Militärtechnologie investieren. Spionierende Technologie ist bereits ein Überzehnmilliarden-Markt.
Eine Warnung
Es gibt durchaus warnende Stimmen aus dem Reich des Digitalen. Jüngst veröffentlichte Alex Karp – CEO von Palentir, einer grossen amerikanischen Datenanalysefirma – einen offenen Brief zum Jahr 2021. «Wir wissen, dass jede Technologie – auch die unsrige – gefährlich sein kann», schreibt er: «Software kann als Waffe eingesetzt werden. Die von uns entwickelten Softwareprodukte haben Leben gerettet und gekostet. Die meisten Unternehmen im Silicon Valley versuchen, die Existenz der zunehmend gravierenden Fragen zu verschleiern oder zu verleugnen, die sich aus der Entwicklung neuartiger Technologien ergeben, die es den Verteidigungs- und Geheimdiensten ermöglichen, ihre Tätigkeit auszuüben und Terroristen ins Visier zu nehmen.» Die Software von Palentir soll massgeblich daran beteiligt gewesen sein, das Versteck Osama Bin Ladens zu finden. Sie ist nur ein Beispiel dafür, dass in kriegerischen oder kriegsanfälligen Konflikten die Information immer eine zentrale Rolle spielt, und die Analyse der Information heute in empfindlichem Mass von der Technologie der KI-Systeme abhängt.
«Ethisch» trainierte Waffen?
Und wenn man die Entwicklung von KI-Waffen ethisch in den Griff bekäme? Man codiert einfach rechtliche und ethische Prinzipien in sie ein. Vielleicht könnte man dem KI-System sogar das moralisches Urteilen lehren? Robotiker, Informatiker, Mathematiker, Psychologen, Soziologen und vermehrt auch Philosophen tüfteln unentwegt an Automaten herum, die unter bestimmten Umständen ethisch relevante Entscheide fällen müssen.
Betrachten wir ein ziviles Beispiel: Myon, Prototyp eines Roboters, den das Team um den Berliner Neuro-Robotiker Manfred Hild zu sozialem Umgang erziehen will. Man gibt Myon nicht ethische Regeln ein, sondern lässt ihn selber aus Daten ethisch relevanter Aktivitäten den «Benimm» lernen. Er ist dadurch viel flexibler als ein fest programmierter Roboter, er gewinnt an humanoider Individualität, ja er hat eine «Biografie». Wird er zu einem Quasi-Menschen, den wir allmählich als «unseresgleichen» akzeptieren müssen?
Schauen wir auf die Softwaredesigner
Manfred Hild zeigt sich zuversichtlich: «Das hängt davon ab, wie wir die Roboter erziehen. Ich glaube nicht, dass wir Angst zu haben brauchen, wenn wir es schaffen, unsere Werte zu vermitteln.» Und was sind «unsere» Werte? Jene der Robotiker? Ihrer Investoren, der digitalen Techno-Oligarchen? Des «Westens»? Man stelle sich das nicht unwahrscheinliche Szenario vor, dass chinesische KI-Forscher einen Roboter bauen, der zur Werteordnung der kommunistischen Partei erzogen wird. Als ob es bloss eine Frage der Technik (und der Zeit) wäre, den Artefakten Werte einzupflanzen und womöglich moralische Konflikte aus der Welt zu schaffen. Zuerst bauen, und dann schauen. Bevor wir die Roboter erziehen, sollten wir also kritisch fragen, zu welcher Ideologie ihre Designer erzogen worden sind.