Bei ihren tödlichen Bombenangriffen in Gaza verlässt sich die israelische Armee (IDF) auch auf Künstliche Intelligenz (AI). Doch selbst militärintern wachsen Zweifel, wie effizient Algorithmen bei der präzisen Erfassung von Zielen sind. Noch äussert sich das Humanitäre Völkerrecht nicht zum Einsatz von KI.
Am 2. November 2023 informierten die IDF in einer Pressemitteilung, ein Algorithmus namens «The Gospel» habe mitgeholfen, 12’000 Ziele in Gaza zu bombardieren. Mit dramatischer Musik und Bildern einstürzender Häuser unterlegt, pries das Video «eine auf ihre Art erstmalige Kooperation», laut der Erkenntnisse aus einem KI-Zielerfassungssystem in Echtzeit an die kämpfende Truppe am Boden, in der Luft und zur See übermittelt würden. Was es, so die IDF, erlauben würde, Hunderte von Angriffen «im Handumdrehen» auszuführen.
Basierend auf einer Datenfülle, die abgehörte Telefongespräche, Satelliten- und Drohnenbilder, Sensoren und soziale Medien umfasst, spucken Algorithmen die Koordinaten von Tunneln, Raketenabschussrampen und anderen militärischen Zielen in Gaza aus. Nachrichten-Analysten entscheiden, welche Empfehlungen des Systems am Ende in der Datenbank Platz finden, die der Zielerfassung dient.
In diesem Kontext hat der israelische Historiker Adam Raz nach Gesprächen mit Beteiligten errechnet, dass die IDF nach Kriegsbeginn während der intensivsten Phase der Luftangriffe auf Gaza etwa zwei Ziele pro Minute trafen – eine laut Raz «erstaunliche Rate». Dabei hätten die IDF laut einem Nachrichtenoffizier, den die «Washington Post» zitiert, gängige Verfahren bei der Zielerfassung abgekürzt.
Frage der Verhältnismässigkeit
Offen bleibt bei einem Einsatz von KI jedoch nicht nur die Frage, wie korrekt die Daten sind, die ein Algorithmus verarbeitet, sondern auch die der Verhältnismässigkeit, d. h. die Überlegung, wie viele zivile Opfer die IDF bei Angriffen auf Mitglieder der Hamas in Kauf zu nehmen bereit sind. Ein israelischer Soldat hat berichtet, seine Einheit habe in einem Fall den Befehl erhalten, mittels KI abzuschätzen, wie viele Zivilisten ein Bombenangriff auf etwa 50 Gebäude in Nord-Gaza gefährden würde.
Die Formel für die Einschätzung, so der Armeeangehörige, sei einfach gewesen: Teile die Zahl der Leute in einem Distrikt durch die Zahl der Menschen, die Schätzungen zufolge im anvisierten Zielgebiet leben. Dabei sollte sich die Zahl der Betroffenen aus der Zahl der Handys ergeben, die im nahen Mobilfunkmast eingeloggt waren. Habe das System, einem Verkehrssignal gleich, grün aufgeleuchtet, habe der zuständige Kommandant selbst entscheiden können, ob er das Ziel angreifen wolle.
Ein abgekürztes Verfahren
Der beteiligte Soldat war seiner Aussage zufolge fassungslos, weil er ein solches Vorgehen für zu einfach hielt. Dies, weil der Prozess nicht in Betracht zog, ob Handys allenfalls abgeschaltet waren oder keinen Strom mehr hatten und auch nicht, ob in den angezielten Gebäuden Kinder ohne Handys lebten. Ohne KI hätte die Armee die Leute anrufen können, um zu erfahren, ob sie zu Hause waren – ein Vorgehen, das präziser gewesen wäre, aber länger gedauert hätte, und das die IDF in früheren Konflikten auch verfolgt hatte.
Wie unpräzis das Abstützen auf Handy-Daten sein kann, zeigte der «New York Times» zufolge am 16. November 2023 ein Luftangriff, der laut den IDF einem Tunnel der Hamas galt, aber stattdessen ein grosses Gebäude traf. Vor dem Krieg hatten im dreistöckigen Haus 16 Mitglieder der Familie Malaka gewohnt, doch nach Kriegsbeginn waren Dutzende von Verwandten eingezogen. Als die Bombe traf, befanden sich 52 Menschen dicht gedrängt auf den ersten beiden Stockwerken. Mindestens 42 Personen wurden getötet; zehn Bewohner überlebten. Dabei hätte die Formel der israelischen Armee, die sich auf Handy-Daten stützte, ergeben, dass sich nur noch eine Handvoll Zivilisten im Gebäude des fast entvölkerten Quartiers befand.
Ein Mangel an Präzision
Gemäss Dr. Heidy Khlaaf vom unabhängigen AI Now Institute in New York mangelt es KI-Systemen generell an eingebauter Präzision, ein Umstand, der sie für Entscheidungen über Leben und Tod ungeeignet macht. So habe, sagt die KI-Wissenschaftlerin, die Industrie, die selbstfahrende Autos baut, im vergangenen Jahrzehnt vergeblich versucht, ihre Machine Learning-Algorithmen 100-prozentig präzis zu machen.
Doch Israels Armee verlässt sich zunehmend auf KI, weil sie nach dem Massaker der Hamas am 7. Oktober 2023 festgestellt hatte, dass die Datenbanken möglicher Ziele in Gaza, die sie über Jahre hinweg akribisch aufgebaut hatte, mit der Zeit ausgeschöpft waren (www.journal21.ch/artikel/die-blumen-des-boesen). Weil die IDF aber die Intensität ihrer Attacken aufrechterhalten wollten, nahmen sie Zuflucht zu einem KI-Instrument namens Habsora («The Gospel»), das innert kurzer Zeit Hunderte von zusätzlichen Zielen im Küstenstreifen generierte.
Von der «New York Times» mit den Erkenntnissen ihrer Recherchen zur Kriegsführung in Gaza konfrontiert, hat die israelischen Armee geantwortet, ihre Truppen hätten Mittel und Methoden stets im Einklang mit geltendem Recht verwendet. Zu Änderungen im Bereich der Rules of Engagement oder beim Einsatz bestimmter Waffentypen sei es im Kontext eines Konflikts gekommen, «der noch nie dagewesen und kaum vergleichbar mit anderen Kriegsgebieten weltweit ist». Das gelte etwa für das Ausmass des Massakers der Hamas, die Bemühungen ihrer Kämpfer, sich unter Zivilisten zu verstecken, und ihr ausgedehntes Tunnel-Netzwerk: «Solche Schlüsselfaktoren wirken sich sowohl auf die Anwendung der Regeln (der Kriegsführung) als auch die Auswahl militärischer Ziele und die operationellen Einschränkungen aus, welche die Kriegsführung betreffen, einschliesslich der Fähigkeit, bei Angriffen die nötige Vorsicht walten zu lassen.»
Alle Informationen vereint
Mit ein Grund für die intensive Entwicklung von KI-Systemen in Israel waren Kommunikationspannen, die sich 2006 während des Krieges gegen den Hisbollah im Libanon ereigneten. Bis zu diesem Zeitpunkt hatten Aufklärungseinheiten der IDF ihre Erkenntnisse nicht mit den Truppen im Feld geteilt. Nun aber entwickelten der Auslandsgeheimdienst Mossad und die Aufklärungseinheit 8200 der Armee auf eigene Initiative hin und ohne Mithilfe von Firmen im Silicon Valley eine neue Datenbank, um alle relevanten Informationen an einem Ort zu sammeln.
«Was in Gaza passiert, ist ein Vorläufer einer breiteren Entwicklung, wie heute Kriege geführt werden», sagt Steven Feldstein von der Denkfabrik Carnegie Endowment in Washington DC, der zum Thema des militärischen Einsatzes von KI forscht. Ihm aber scheint, als hätten die IDF die Latte tiefer gelegt, was die Akzeptanz ziviler Opfer in Gaza betrifft: «Man kombiniere das mit der Beschleunigung, welche diese Systeme erlauben – auch mit der Frage der Genauigkeit – und das Ergebnis ist am Ende ein höhere Opferrate, als sie bisher in Kriegen vorzustellen war.»
Grössere «Kollateralschäden»
Hatte die israelische Armee früher nicht zugelassen, dass es bei der Tötung von weniger wichtigen Verdächtigen «Kollateralschäden» gab, d. h. dass bei einem Luftangriff auch unbeteiligte Zivilisten starben, nahm die Armeeführung in Gaza neu bis zu 20 tote Zivilisten in Kauf, wenn es galt, ein vom KI-System «Lavender» als untergeordnet identifiziertes Mitglied der Hamas zu eliminieren. Ein entsprechender Befehl erging der «New York Times» zufolge am 7. Oktober 2023 bereits um ein Uhr nachmittags.
Die Order erlaubte es, anders als üblich, auch weniger ranghohen Offizieren, Militante und militärische Ziele in Gaza zu attackieren, die in früheren Konflikten noch nicht anvisiert worden waren. Das bedeutete etwa, dass niederrangige Kämpfer der Hamas nicht nur angegriffen werden durften, wenn sie allein unterwegs waren, sondern auch zu Hause, umgeben von ihren Familien.
Ein zweiter Befehl des israelischen Militärkommandos vom 8. Oktober hielt fest, dass es bei Angriffen auf militärische Ziele in Gaza erlaubt sei, täglich das Leben von bis zu 500 Zivilisten zu gefährden. Was von einem Vertreter der US-Militärakademie in West Point von mittleren Armeekadern unter Umständen als Vorgabe aufgefasst wurde. Die Order wurde zwei Tage später aufgehoben: Jetzt durften Offiziere so viele Angriffe befehlen, wie sie es legal für nötig hielten.
Ein früher verbotenes Vorgehen
Wobei die israelische Armee nicht mehr weiss, wie viele Menschen oder wen genau ihre Luftangriffe töten, weil sie im Gegensatz zu früher auch bei niederrangigen Zielpersonen keine Einschätzung des Bombenschadens (BDA) mehr vornimmt, da eine solche bei der Zahl und der Dringlichkeit der Luftangriffe zu zeitraubend wäre. Im Falle eines übergeordneten Kämpfers, etwa eines Bataillons- oder Brigadekommandanten der Hamas, hielten die IDF laut Informanten in einzelnen Fällen die Tötung von mehr als 100 Zivilisten für zulässig – ein Ausmass an Kollateralschaden, das die Rechtsabteilung der Armee früher nicht erlaubt hätte.
Israels Streitkräfte weisen Steven Feldstein Einschätzung zurück, wonach Künstliche Intelligenz Leben gefährdet. «Je mehr Fähigkeiten es gibt, Informationshäppchen effizient zu sammeln, desto präziser ist der Prozess», haben die IDF gegenüber der «Washington Post» verlauten lassen: «Im Gegenteil, diese Mittel haben Kollateralschäden minimiert und die Präzision des von Menschen gesteuerten Verfahrens erhöht.»
Ausserdem hat der Stabschef der israelischen Armee ein Gremium eingesetzt, das die näheren Umstände von Hunderten Luftangriffen näher untersuchen soll. Doch bisher ist niemand angeklagt worden. Zwei Offiziere sind für ihre Rolle bei einem Drohnenangriff auf mehrere Mitarbeiter ausländischer Hilfsorganisationen aus der Armee entlassen worden.
Vage Vorgaben des Völkerrechts
Derweil hält es Dr. Tal Mimran, Professor der Hebrew University und früherer Jurist der IDF, für notwendig, dass sich westliche Armeen zunehmend auf KI abstützen, um gegen Rivalen wie China bestehen zu können. Auch er aber ist besorgt, was die Genauigkeit von KI-gesteuerten Entscheidungsprozessen im Nebel des Krieges betrifft: «In Sachen Tempo ist KI etwas Bahnbrechendes. Aber ist es auch ein Bahnbrecher in Sachen Qualität? Ich bezweifle es.»
Die IDF betonen wiederholt, dass sie sich bei der Einschätzung von Kollateralschäden an die Vorgaben des Kriegsvölkerrechts halten, das Kriegsparteien auffordert, zwischen Zivilisten und Kämpfern zu unterscheiden und Vorsichtsmassnahmen zu treffen, um Leben zu schützen. Doch diese Vorgaben sind vage und bedürften dringend einer Präzisierung.
Regulierungsrahmen gefordert
So haben vor drei Jahren 63 Leiter von wissenschaftlichen Instituten der Künstlichen Intelligenz und Informatik in der FAZ in einem offenen Brief ihre «tiefe Besorgnis» über Waffensysteme ausgedrückt, die Ziele ohne echte Kontrolle auswählen und angreifen. Die Wissenschaftler fordern einen rechtsverbindlichen internationalen Regulierungsrahmen für die Nutzung solcher Waffensysteme: «Der unregulierte Einsatz autonomer Waffensysteme stellt eine ernsthafte Gefährdung für das Völkerrecht und vor allem die Menschenwürde dar.».
«Technologische Überlegenheit hält Israel sicher», argumentiert dagegen Blaise Misztal vom Jewish Institute for National Security of America: «Je schneller Israel die Fähigkeiten des Feindes erkennen und vom Schlachtfeld eliminieren kann, desto kürzer wird ein Krieg verlaufen. Und er wird weniger Opfer fordern.»
Der Faktor Mensch
Bleibt das Rätsel, wie in Israel zuständige Stellen des Geheimdienstes und der Armee beim sich Stützen auf akribische Datenanalysen und KI Warnsignale haben übersehen können, die darauf deuten liessen, dass die Hamas für den 7. Oktober 2023 eine massive Attacke auf Israel plante. Zwei früheren hochrangigen Militärs zufolge hat die Bevorzugung technischer Mittel die «Warnkultur» der für Aufklärung verantwortlichen Unit 8200 unterhöhlt, wo früher Analysten ihre Bedenken Kommandanten direkt mitteilen konnten.
So war es zum Beispiel einer Aufklärungssoldatin, die Pläne der Hamas für einen Angriff auf Israel entdeckt hatte, nicht gelungen, vor dem Massaker am 7. Oktober rechtzeitig an einem Treffen mit höheren Vorgesetzten teilzunehmen. Hatte die Unit 8200 einst mehr Gewicht auf Analysten und Spezialisten wie Arabischsprecher gelegt, so waren im Oktober 2023 rund 60 Prozent der Angehörigen Ingenieure und Techniker. «KI war ein Faktor (für das Versagen), sagt ein früherer hochrangiger israelischer Militär: «Der Mensch ist durch die Maschine ersetzt worden.»
Katastrophale humanitäre Lage
Währenddessen verschlechtert sich, fern ausgeklügelter Algorithmen, die humanitäre Lage in Gaza. Uno-Angaben zufolge sind heute 90 Prozent der Bevölkerung mindestens einmal vertrieben worden. Zehntausende Palästinenserinnen und Palästinenser leben mit ihren Familien in Notunterkünften entlang der Küste, häufig in Zelten oder unter Blachen, die kaum Schutz vor Regen und Kälte bieten. Zelte, einst so schwierig zu finden, dass sie als Luxus galten, gehen nach 14 Monaten des Krieges kaputt und halten laut Hilfsorganisationen die beissenden Winterwinde kaum mehr ab.
Es gibt kaum Strom und nicht genügend Brennstoff, um Generatoren zu betreiben. Es fehlen Wolldecken, warme Kleider und Holz zum Feuermachen. «Kinder in Gaza frieren, sind krank und traumatisiert», sagt eine Sprecherin der Unicef: «Viele tragen noch Sommerkleider.» Mindestens fünf Kleinkinder haben die vergangene Woche nicht überlebt und sind laut der Gesundheitsbehörde in Gaza erfroren. Was die Künstliche Intelligenz aber ignoriert. Auch die Statistik der Instanz, dass im Küstenstreifen bis dato 17’492 Kinder getötet worden sind. Am Neu jahrstag töteten israelische Luftangriffe in Gza weitere fünf Kinder.