Israels Armee (IDF) hat laut Medienberichten zu Beginn des Krieges in Gaza ein System Künstlicher Intelligenz (KI) namens «Lavender» eingesetzt, um Ziele für Luftangriffe zu erfassen, die Hamas-Kämpfer töten sollen. Die IDF dementieren, Entscheide über Leben und Tod Algorithmen zu überlassen.
Israels Militäroperation in Gaza hat nach sechs Monaten über 34’000 Menschen getötet, unter ihnen Tausende von Frauen und Kindern. Zehntausende Palästinenserinnen und Palästinenser sind verwundet worden; Tausende Zivilisten werden noch vermisst. Eigenen Angaben zufolge hat die israelische Armee (IDF) bisher gegen 12’000 Kämpfer der Hamas getötet; die Hamas selbst spricht von 6’000 Toten. Die IDF beklagen seit Kriegsbeginn nach dem Massaker der Hamas am 7. Oktober mit rund 1’200 Toten und 240 entführten Geiseln über 600 getötete und mehr als 3’000 verwundete Armeeangehörige.
Israelische Offiziere als Informanten
Die Zahlen machen deutlich, dass Israel offenbar gewillt war, den Tod Zehntausender Zivilisten in Kauf zu nehmen, um das von der Regierung Benjamin Netanjahus erklärte Kriegsziel, die absolute Zerstörung der Hamas, mit allen militärischen Mitteln zu erreichen. Doch während Israels Recht auf Selbstverteidigung unbestritten ist, sind Fragen nach der Verhältnismässigkeit und Rechtmässigkeit der Militäroperation «Eisenschwerter» gestattet. Solche Fragen wirft Autor Yuval Abraham in einem längeren Bericht des linken Magazins «+972» in Tel Aviv und der hebräischsprachigen Website «Local Call» auf.
Gestützt auf die Aussagen von sechs Informanten, die alle als Offiziere in den IDF gedient haben oder noch dienen und die alle mit KI zu tun hatten, kommt der Bericht von Anfang April zum Schluss, dass die israelische Armee über ein auf KI basierendes Programm namens «Lavender» verfügt, das vor allem in der ersten Phase des Krieges in Gaza bei der Planung von Luftangriffen zum Einsatz gekommen ist. Zuständige hätten den Output des Programms so behandelt, als würde es sich «um eine menschliche Entscheidung» handeln.
«Lavenders» Aufgabe ist es, unter den 2,3 Millionen Bewohnern des Gaza-Streifens Mitglieder des militärischen Flügels der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) als Angriffszeile zu identifizieren. Die Maschine stuft sie mittels eines Massenüberwachungssystems auf einem Spektrum von 1 zu 100 ein – je höher, desto wahrscheinlicher, dass jemand ein Kämpfer ist. «Wir (Menschen) können so viele Informationen gar nicht verarbeiten», zitiert der Artikel einen mit KI beschäftigten IDF-Brigadier: «Es spielt keine Rolle, wie viele Menschen damit beauftragt sind, im Krieg Ziele zu erfassen – einer kann immer noch nicht genügend Ziele pro Tag produzieren.»
20 Sekunden Zeit für die Prüfung der Maschinen-Entscheide
Den Informanten aus den Reihen der IDF zufolge listete «Lavender» in den ersten Kriegswochen auf einer «kill list» bis zu 37’000 Palästinenser als mutmassliche Kämpfer der Hamas und mögliche Ziele von Luftangriffen auf. Das zuständige Personal hätte die Entscheidungen der Maschine lediglich abgesegnet und sich jeweils noch «rund 20 Sekunden» Zeit nehmen können, um sicherzustellen, dass eine Zielperson männlich war, und einen Luftangriff auszulösen. Dies, obwohl intern bekannt war, dass sich das System in rund 10 Prozent der Fälle «irrte» und auch Individuen als Ziele identifizierte, die keine oder nur eine lose Verbindung zur Hamas hatten. Dabei listete ein anderes auf KI gestütztes Programm namens «The Gospel» Gebäude und Strukturen auf, die sich als Angriffsziele eigneten
Eine «Null-Fehler Politik» gab es keine und auch keinen Überwachungsmechanismus, um allfällige Fehler zu entdecken. Es sei, so eine Quelle, wiederholt vorgekommen, dass jemand zu Hause mit seiner Familie bombardiert wurde, nur weil er vom System als Kämpfer der Hamas Identifiziert worden war, sein von den Israelis überwachtes Telefon einem Verwandten, einem Bekannten oder einem Fremden überlassen hatte.
Nächtliche Angriffe auf Wohnhäuser
Dabei wurden Zielpersonen systematisch nachts bombardiert, während sie bei ihren Familien zu Hause und dort leichter zu lokalisieren waren, nachdem ein anderes automatisiertes Überwachungssystem der IDF namens «Where’s Daddy?» sie dorthin verfolgt hatte. Als Folge davon, bezeugen die Informanten, töteten israelische Luftangriffe mit Hilfe von KI vor allem in den ersten Kriegswochen in Gaza Tausende von Menschen, in erster Linie unbeteiligte palästinensische Frauen und Kinder.
«Wir waren nicht daran interessiert, Militante (der Hamas) nur zu töten, wenn sie in einer militärischen Installation oder draussen militärisch aktiv waren», sagt ein Nachrichtenoffizier: «Im Gegenteil, die IDF bombardierte sie ohne zu zögern als erste Option zu Hause. Es ist viel leichter, ein Wohnhaus zu bombardieren.»
Kommt dazu, dass die IDF bei Angriffen auf niedrigrangige Kämpfer der Hamas statt «smarter» Präzisionsbomben bevorzugt ungelenkte «dumme» Bomben einsetzte, die aber im Ziel mehr Schaden anzurichten und mehr Opfer zu verursachen pflegen. «Du willst nicht teure Bomben gegen unwichtige Leute einsetzen», sagt denn ein anderer Nachrichtenoffizier: «Es wäre sehr teuer für das Land und es gibt nicht genug (dieser Bomben).»
Toleranz von Kollateralschäden
Einem Bericht von CNN im Dezember 2023 zufolge waren rund 45 Prozent der Waffen, welche die israelische Luftwaffe in Gaza bis zu dieser Zeit eingesetzt hatte, «dumme Bomben». Dem palästinensischen Gesundheitsministerium zufolge wurden in den ersten sechs Kriegswochen bis zu einer ersten Waffenruhe am 24. November gegen 15’000 Palästinenserinnen und Palästinenser getötet – die Folge einer loseren Interpretation gängiger Kriegsregeln, die Israel in früheren Konflikten noch strikt befolgt hatte.
So hatten die IDF früher nicht zugelassen, dass es bei der Tötung von weniger wichtigen Verdächtigen «Kollateralschaden» gab, d. h. dass bei einem Luftangriff auch unbeteiligte Zivilisten starben. In Gaza aber nahm die Armeeführung zumindest zeitweise 15 bis 20 tote Zivilisten in Kauf, wenn es galt, ein von «Lavender» als untergeordnet identifiziertes Mitglied der Hamas zu eliminieren. Wobei die israelische Armee nicht mehr weiss, wie viele Menschen und wen genau ihre Luftangriffe töten, weil im Gegensatz zu früher auch bei niedrigrangigen Zielpersonen keine Einschätzung des Bombenschadens (BDA) mehr vorgenommen wird, da sie bei der Menge und der Dringlichkeit der Einsätze zu zeitraubend wäre.
Keine Verhältnismässigkeit mehr
Im Falle eines übergeordneten Kämpfers, etwa eines Bataillons- oder Brigadekommandanten, hielten die IDF den Informanten zufolge die Tötung von mehr als 100 Zivilisten zulässig – ein Ausmass an Kollateralschäden, das die Rechtsabteilung der IDF früher nicht erlaubt hatte. «Es ist nicht mehr nur so, dass du jeden töten kannst, der ein Hamas-Kämpfer ist, was internationalem Recht zufolge zulässig und legitim ist», sagt ein Nachrichten-Offizier. «Doch sie sagen dir direkt: ‘Du darfst sie auch zusammen mit vielen Zivilisten töten’.» Jede Person, die im vergangenen Jahr oder in den letzten beiden Jahren eine Hamas-Uniform trug, habe unter Inkaufnahme von 20 getöteten Zivilisten als Kollateralschaden ohne besondere Bewilligung eliminiert werden können: «In der Praxis existierte das Prinzip der Verhältnismässigkeit nicht.»
«Ein Element der Rache»
Zu einem der tödlichsten Angriffe der IDF in Gaza kam es am 17. Oktober 2023. Ziel im Flüchtlingslager Al-Bureij war Ayman Nofal, Kommandant der Central Gaza Brigade der Hamas, dessen genauer Aufenthaltsort aber nicht bekannt war. Der Luftangriff zerstörte bis zu 18 mehrstöckige Wohnhäuser und tötete neben Nofal rund 300 Zivilisten. Mitte Dezember kamen bei einem Luftangriff der IDF auf ein Hochhaus in Rafah einer israelischen Armeequelle zufolge «Dutzende Zivilisten» ums Leben, wobei unklar blieb, ob das erklärte Ziel der Attacke, Mohammed Shabaneh, Kommandant der Rafah-Brigade, getötet worden war.
«Es gab völlig freizügige Vorschriften, was Opfer bei Luftangriffen betraf – so freizügig, dass sie meiner Meinung nach ein Element der Rache beinhalteten», erinnert sich ein Nachrichtenoffizier: «Hauptziel war die Tötung höherer Hamas- und PIJ-Kommandanten, wofür sie willens waren, Hunderte von Zivilisten zu töten. Wir machten folgende Rechnung: wie viele (Zivilisten) für einen Brigade-Kommandanten, wie viele für einen Bataillonskommandanten und so weiter.» Zum Vergleich: Für die US-Armee galten beim Kampf gegen den Islamischen Staat (IS) im Irak und in Syrien Angriffe mit 15 zivilen Opfern als ausserordentlich und waren von höchster Stelle zu bewilligen.
Dementis der IDF
Die israelische Armee dementiert die Aussagen ihrer Offiziere gegenüber «+972» und «Local Call» und betont, jedes Ziel in Gaza werde individuell überprüft, während eine individuelle Einschätzung des militärischen Vorteils und des bei einem Angriff zu erwartenden Kollateralschadens vorgenommen werde: «Die IDF startet keine Attacken, wenn die zu erwartenden Kollateralschäden im Vergleich zum militärischen Nutzen überwiegen.» Die IDF dementieren auch, dass sie bei der Zielerfassung in Gaza KI einsetzen.
Systeme wie «Lavender», sagt ein Armeesprecher, seien lediglich Hilfsmitteln für Analysten bei der Identifizierung von Tätern: «Auf jeden Fall ist eine unabhängige Überprüfung durch einen (Nachrichten-)Analysten notwendig, der ausgewählte Ziele als legitime Angriffsziele identifiziert, unter Berücksichtigung interner Reglemente der IDF und des Völkerrechts.» «Lavender», so ein Statement der IDF, sei eine Datenbank, die eingesetzt würde, um nachrichtendienstliche Erkenntnisse miteinander abzugleichen, um aktuelle Informationen über militärische Operateure terroristischer Organisationen zu erhalten: «Die IDF setzt keine KI ein, die Terroristen identifiziert und/oder zu prognostizieren versucht, ob eine Person ein Terrorist ist.»
Heikle Güterabwägung
Die von «+972» und «Local Call» zitierten Informanten räumen zwar ein, dass es angesichts des Umstands, dass die Hamas ihr Personal und ihre Installationen in einem zivilen Umfeld und in Tunnels im Untergrund platziert hat und Zivilisten als menschliche Schutzschilder missbraucht, für eine Armee schwierig ist, stets nach gängigen Regeln und Vorschriften zu operieren. Was aber laut Menschenrechtsorganisationen keine Erklärung oder keine Entschuldigung für ein unverhältnismässiges militärisches Vorgehen sein darf – insbesondere nicht die Taktik, Zielpersonen in Wohnhäusern zu attackieren und ganze Familien als zivile Opfer in Kauf zu nehmen.
So stammten gemäss Uno-Angaben im ersten Kriegsmonat in Gaza mehr als die Hälfte der 6’120 Opfer aus 1’340 Familien, unter denen etliche Betroffene völlig ausgelöscht wurden. 312 Familien verloren mehr als zehn Angehörige. «Unser Krieg ist gegen die Hamas, nicht gegen die Menschen in Gaza», sagte dazu ein Sprecher der IDF.
Längerfristige Konsequenzen
«Kurzfristig sind wir sicherer, weil wir der Hamas weh tun», sagt in Israel eine hochrangige Geheimdienstquelle, die überzeugt ist, dass die «unverhältnismässige» Politik des Tötens von Palästinenserinnen und Palästinensern die Sicherheit des Landes längerfristig gefährde: «Ich sehe, wie all die trauernden Familien in Gaza – was dort fast jeden und jede betrifft – die Motivation von Leuten stärken werden, sich in zehn Jahren der Hamas anzuschliessen. Und es wird für die Hamas viel leichter sein, solche Leute zu rekrutieren.» Niemand, so einer von Yuval Abrahams sechs Informanten, habe daran gedacht, was zu tun sei, wenn der Krieg vorüber ist, oder wie es noch möglich sein werde, in Gaza zu leben.