Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt
Seite 2: Tötungsschaden von mehr als 100 Zivilisten autorisiert
- Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt
- Tötungsschaden von mehr als 100 Zivilisten autorisiert
- Auf einer Seite lesen
Laut den IDF-Quellen soll die israelische Armee in den ersten Wochen des Gaza-Kriegs Entscheidungen getroffen haben, wonach erlaubt war, dass "für jeden von Lavender markierten Hamas-Kämpfer bis zu 15 oder 20 Zivilisten getötet werden durften".
Wenn es sich um Kommandanten oder einen höherrangige Hamas-Beamten handelte, durfte noch mehr "Kollateralschaden" in Kauf genommen werden. So wurde bei der Ermordung eines einzigen Befehlshabers in mehreren Fällen, so ein IDF-Vertreter gegenüber +972, die Tötung von mehr als 100 Zivilisten autorisiert.
Der US-Historiker und Nahost-Experte Juan Cole fasst den gesamten "Kollateralschaden" zahlenmäßig so zusammen:
Das wären insgesamt 77.700 Nichtkombattanten, die von einer ungenauen Maschine willkürlich eliminiert würden.
Soldaten können AI-Entscheidungen nur "durchwinken"
Die hohe zivile Opferzahl hängt schließlich auch damit zusammen, dass das israelische Militär laxen Einsatzregeln folgt und menschliche Kontrolle fehlt. Laut einer IDF-Quelle, die in der Recherche zitiert wird, hätten die Soldaten nur die Entscheidungen der Maschine "durchgewinkt".
Man habe normalerweise lediglich etwa "20 Sekunden" für jedes menschliche Ziel, bevor ein Bombenangriff genehmigt werde. Dabei werde nur sichergestellt, dass das von Lavender gewählte Ziel männlich ist.
Juan Cole wendet gegen die AI-Kriegsführung – die er für "beispiellos brutal" hält – zudem ein, dass die Tötungsliste an sich schon unrechtmäßig sei. Von den 37.000 gelisteten Personen könne nur eine kleine Minderheit die Angriffe vom 7. Oktober ausgeführt haben.
IDF hält Bericht für übertrieben
Die meisten auch innerhalb Hamas hätten außerdem vorher nichts von dem Übergriff gewusst. "Es war eine kleine, abgeschlossene Clique, die das geplant und durchgeführt hat", so Cole. Nicht-militante Hamas-Vertreter und auch Polizisten würden nun von Israel aber in der Gaza-AI-Kriegsführung zu rechtmäßigen Zielen erklärt.
Das Magazin +972 hatte schon früher über den Einsatz von Kriegs-AI in Gaza berichtet. Die israelische Seite und die IDF hatten zudem immer wieder Aussagen getätigt, die den AI-Einsatz im Gaza-Krieg nahelegen.
In Reaktion auf den jüngsten Bericht erklärte die IDF, dass die Rolle und der Einfluss von AI im Gaza-Krieg darin übertrieben worden sei.
KI-Kriege: Humanitäres Völkerrecht und Kriegsverbrechen
Professor Toby Walsh, ein KI-Experte an der University of New South Wales in Sydney, stellt fest, dass Rechtsexperten wahrscheinlich argumentieren werden, dass der Einsatz von KI gegen das humanitäre Völkerrecht verstößt.
Ben Saul, der Sonderberichterstatter der Vereinten Nationen für Menschenrechte und Terrorismusbekämpfung, betont zugleich, wenn sich die Angaben in dem Bericht bewahrheiten sollten, "würden viele israelische Angriffe im Gazastreifen den Tatbestand eines Kriegsverbrechens erfüllen, nämlich unverhältnismäßige Angriffe auszuführen".
"Das Weltuntergangsszenario der Killeralgorithmen spielt sich bereits in Gaza ab", meint Brianna Rosen, leitende Forscherin bei Just Security und an der Universität Oxford, die zuvor während der Obama-Regierung im Nationalen Sicherheitsrat der Vereinigten Staaten gearbeitet hat.
Die neue Targeting-Technik könnte bald schon in anderen Konflikten und Kriegen ihren Einsatz finden. Israel scheint bereits zu versuchen, die KI-Kriegstechnologie an interessierte andere Staaten zu verkaufen.