Israels Armee in Gaza: Experten bezweifeln Präzision von KI-gesteuerten Angriffen

Israelische Soldaten in einem Kurs zur Cyber-Kriegsführung. Bild: IDF

Revolutionäres KI-System zur Identifizierung von Zielen. Israelische Armee kann bis zu 100 Schläge pro Tag ausführen. Doch Zweifel an Präzision und Ethik wachsen.

Das israelische Militär setzt die Luftangriffe auf Ziele im Gazastreifen mit unverminderter Intensität fort. Schon in den ersten Tagen der Offensive hatte der Chef der israelischen Luftwaffe, Generalmajor Tomer Bar, Luftangriffe "rund um die Uhr" angekündigt. Dabei nutzt die israelische Luftwaffe nach Recherchen der britischen Tageszeitung Guardian auch KI-Systeme.

Nach Angaben der Behörden im Gazastreifen hat die Offensive gegen die Hamas bisher mehr als 15.000 Menschenleben gefordert. Die Frage ist, wie sich die Methoden der Zielauswahl und die künstliche Intelligenz bei den Bombenangriffen auswirken. Die hohe Zahl ziviler Opfer sorgt international für zunehmende Kritik.

Nachdem Israel die Offensive nach einer siebentägigen Waffenruhe wieder aufgenommen hat, wurden neue Details zu einem KI-System namens "The Gospel" bekannt. The Guardian stützt seine Schilderungen auf Interviews mit Geheimdienstquellen, Aussagen der israelischen Streitkräfte (IDF) und Angaben pensionierter Beamter.

Der Bericht des Guardian basiert auch auf Berichte des israelisch-palästinensischen Magazins +972 und des hebräischen Magazins Local Call. Beide Redaktionen hatten Vertreter des israelischen Geheimdienstes befragt, die mit der KI arbeiten.

Die Aussagen böten einen Einblick "in eine verdeckt arbeitende, von KI unterstützte militärische Geheimdiensteinheit, die eine bedeutende Rolle bei Israels Reaktion auf das Hamas-Massaker im Gazastreifen im Oktober spielt", so der Guardian.

Im Zentrum steht die KI "The Gospel". Dieses System habe das Verfahren zur Auswahl von Zielen revolutioniert, heißt es vonseiten der Armee. Die KI habe die Geschwindigkeit der Zielidentifizierung drastisch gesteigert. Konnte die israelische Armee im Gazastreifen bisher 50 Ziele pro Jahr identifizieren, könnten nun 100 Ziele pro Tag anvisiert werden.

Maschinelles Lernen für Luftangriffe in Gaza

"The Gospel" nutzt maschinelles Lernen, um enorme Datenmengen zu analysieren und zu interpretieren, darunter Drohnenaufnahmen, Überwachungsdaten und abgefangene Kommunikation. Das System verbessert kontinuierlich seine Fähigkeit zur Zielidentifizierung durch das Lernen aus früheren Daten und Ergebnissen.

Die Fähigkeit des KI-Systems, komplexe Datensätze zu verarbeiten, ermögliche es ihm, anspruchsvolle Zielentscheidungen zu treffen und ein breiteres Spektrum von Zielen zu identifizieren, einschließlich rangniedriger Milizionäre, die zuvor nicht im Fokus gestanden hatten.

In einer Erklärung der israelischen Armee heißt es: "Wir geben Ziele für präzise Angriffe auf mit der Hamas verbundene Infrastrukturen vor und fügen dem Feind großen Schaden zu, während Unbeteiligte nur minimal betroffen sind."

Die Ziele werden demnach unter Berücksichtigung der wahrscheinlichen Anzahl ziviler Opfer bewertet. Experten sind jedoch skeptisch, ob die KI tatsächlich in der Lage ist, zivile Opfer zu reduzieren.

Die verantwortliche Einheit der israelischen Armee, die 2019 gegründet wurde, hat eine Datenbank mit 30.000 bis 40.000 mutmaßlichen Kämpfern aufgebaut. Auf dieser Basis gibt "The Gospel" automatisch Empfehlungen für Angriffe.

Während früherer Operationen im Gazastreifen habe die Luftwaffe oft untätig bleiben müssen, weil Ziele nicht ausgemacht werden konnten, schreibt der Guardian. Mit KI-basierten Systemen könne man nun viel mehr Zielen identifizieren und islamistische Kämpfer aufspüren, die zuvor schwer zu finden waren.

Ein ehemaliger IDF-Beamter berichtet, dass sich im aktuellen Konflikt die Taktik geändert hat, und nun auch die Häuser mutmaßlicher Hamas-Aktivisten unabhängig von ihrem Rang angegriffen werden.

Zweifel an Präzision des Systems

The Gospel ermögliche es, massenhaft tödliche Schläge auszuführen. Dabei gehe es um Quantität statt Qualität. Das bedeutet: Die KI macht automatisch Ziele aus, und es bleibt keine Zeit, sich eingehend mit jedem Ziel zu befassen. Es liegt nahe, dass es so zu Kollateralschäden kommt.

Das israelische Militär betont dennoch, dass die Experten präzise Angriffe durchführen und den Schaden für Nichtkombattanten minimierten. Ein hochrangiger IDF-Beamter erklärte, die zuständige Einheit plane "präzise Angriffe auf Infrastrukturen, die mit der Hamas in Verbindung stehen". Zivilisten kämen nicht zu Schaden.

Jedoch äußern einige Experten Skepsis gegenüber solchen Behauptungen. Ein Anwalt, der Regierungen in Fragen der KI und Einhaltung des humanitären Völkerrechts berät, betont, dass es "kaum empirische Belege" für derartige Behauptungen gibt.

"Schauen Sie sich die tatsächliche Beschaffenheit des Gazastreifens an", so Richard Moyes von der Organisation Artikel 36, die sich für die Verringerung von Schäden durch den Einsatz von Kriegswaffen einsetzt:

Wir sehen die großflächige Zerstörung eines Stadtgebiets mit schweren Sprengstoffwaffen. Die Behauptung, es werde Präzision und Enge der Gewalt ausgeübt, wird durch die Fakten nicht bestätigt.

Auch andere Experten weisen auf die sichtbaren Auswirkungen der Bombardierung im Gazastreifen hin und bezweifeln einen präzisen und begrenzten Einsatz von Bomben.

Es gibt auch Bedenken darüber, wie KI-basierte Systeme den Entscheidungsprozess beeinflussen können. Marta Bo vom internationalen Friedensforschungsinstitut in Stockholm warnt davor, dass Menschen, die sich zu sehr auf solche Systeme verlassen, eine "automatisierte Voreingenommenheit" entwickeln und möglicherweise die Fähigkeit verlieren könnten, das Risiko ziviler Schäden angemessen zu bewerten.