Killeralgorithmen: Wie Israel im Gaza-Krieg eine AI-Tötungsmaschine einsetzt

Palästinenser suchen nach einem israelischen Luftangriff im Flüchtlingslager Rafah im südlichen Gazastreifen am 12. Oktober 2023 nach Überlebenden

Palästinenser suchen nach einem israelischen Luftangriff im Flüchtlingslager Rafah im südlichen Gazastreifen am 12. Oktober 2023 nach Überlebenden. Bild: Anas Mohammad / Shutterstock.com

Explosiver Bericht: Über 30.000 Palästinenser auf Tötungsliste. KI nimmt Verdächtige mit Familie zu Hause ins Visier. Ein Kill-Programm außer Kontrolle.

Das israelische Militär verwendet eine von künstlicher Intelligenz gesteuerte "Tötungsliste" für seinen Krieg gegen die Hamas, auf der bis zu 37.000 Palästinenser im Gazastreifen stehen.

Die Tötungen würden dabei mit so gut wie keiner menschlichen Kontrolle ausgeführt. Das ist das Ergebnis einer explosiven investigativen Recherche des israelischen Magazins +972 und auf dem auf Hebräisch erscheinenden Medium Local Call.

Lavender und "Where's Daddy?"

Die dabei eingesetzten Programme heißen Lavender und "Where's Daddy?". Lavender erstellt die Tötungslisten. Die KI-Software stützt sich den Berichten zufolge auf Überwachungsnetze und weist jedem Gaza-Bewohner eine Punktzahl von 1 bis 100 zu, mit der die Wahrscheinlichkeit eingeschätzt wird, dass es sich um einen Hamas-Kämpfer handelt.

Die Soldaten geben diese Informationen dann in die Software "Where's Daddy" ein, die die Ziele per GPS identifiziert und ausmacht. Das KI-Programm wurde dabei so konzipiert, dass dem israelischen Militär ermöglicht wird, Einzelpersonen ins Visier zu nehmen, wenn sie nachts zu Hause bei ihren Familien sind. Die KI warnt die Soldaten, wenn eine Zielperson dort eintrifft.

Durch dieses automatisierte, maschinenbasierte Verfahren werde die Anzahl der zivilen Opfer im Krieg stark erhöht, heißt es in der Untersuchung. Die UN-Organisation Ocha meldet auf Basis des Gesundheitsministeriums vor Ort, dass bisher über 100.000 Palästinenser (bei einer Gaza-Gesamtpopulation von gut zwei Millionen Menschen) Opfer von israelischen Angriffen geworden sind.

Fehlerquote von zehn Prozent

Dabei wurden bislang 32.975 Menschen getötet, darunter mindestens 13.000 Kinder und 9.000 Frauen. Zudem gibt es 75.577 Verletzte.

Die hohe zivile Opferzahl, die insbesondere auf die spezifische Art der AI-Kriegsführung zurückzuführen ist, hat auch damit zu tun, dass in das System gewissermaßen ein "Mega-Kollateralschaden" künstlich einprogrammiert ist.

Die AI Lavender soll zum Beispiel eine Fehlerquote von zehn Prozent enthalten. Das heißt, von den 37.000 Tötungszielen sind 3.700 falsch. Dabei handelt es sich also um Fälle, in dem die Software Menschen als militante Hamas-Anhänger deklariert, wenn das nicht zutrifft.

Die Erkenntnisse der Medienberichte stützen sich auf Aussagen von Vertretern innerhalb der israelischen Armee (IDF).