Israels Armee in Gaza: Experten bezweifeln PrÀzision von KI-gesteuerten Angriffen
Israelische Soldaten in einem Kurs zur Cyber-KriegsfĂŒhrung. Bild: IDF
RevolutionĂ€res KI-System zur Identifizierung von Zielen. Israelische Armee kann bis zu 100 SchlĂ€ge pro Tag ausfĂŒhren. Doch Zweifel an PrĂ€zision und Ethik wachsen.
Das israelische MilitĂ€r setzt die Luftangriffe auf Ziele im Gazastreifen mit unverminderter IntensitĂ€t fort. Schon in den ersten Tagen der Offensive hatte der Chef der israelischen Luftwaffe, Generalmajor Tomer Bar, Luftangriffe "rund um die Uhr" angekĂŒndigt. Dabei nutzt die israelische Luftwaffe nach Recherchen der britischen Tageszeitung Guardian auch KI-Systeme [1].
Nach Angaben der Behörden im Gazastreifen hat die Offensive gegen die Hamas bisher mehr als 15.000 Menschenleben gefordert. Die Frage ist, wie sich die Methoden der Zielauswahl und die kĂŒnstliche Intelligenz bei den Bombenangriffen auswirken. Die hohe Zahl ziviler Opfer sorgt international fĂŒr zunehmende Kritik.
Nachdem Israel die Offensive nach einer siebentĂ€gigen Waffenruhe wieder aufgenommen hat, wurden neue Details zu einem KI-System namens "The Gospel" bekannt. The Guardian stĂŒtzt seine Schilderungen auf Interviews mit Geheimdienstquellen, Aussagen der israelischen StreitkrĂ€fte (IDF) und Angaben pensionierter Beamter.
Der Bericht des Guardian basiert auch auf Berichte des israelisch-palÀstinensischen Magazins +972 und des hebrÀischen Magazins Local Call. Beide Redaktionen hatten Vertreter des israelischen Geheimdienstes befragt, die mit der KI arbeiten.
Die Aussagen böten einen Einblick "in eine verdeckt arbeitende, von KI unterstĂŒtzte militĂ€rische Geheimdiensteinheit, die eine bedeutende Rolle bei Israels Reaktion auf das Hamas-Massaker im Gazastreifen im Oktober spielt", so der Guardian.
Im Zentrum steht die KI "The Gospel". Dieses System habe das Verfahren zur Auswahl von Zielen revolutioniert, heiĂt es vonseiten der Armee. Die KI habe die Geschwindigkeit der Zielidentifizierung drastisch gesteigert. Konnte die israelische Armee im Gazastreifen bisher 50 Ziele pro Jahr identifizieren, könnten nun 100 Ziele pro Tag anvisiert werden.
Maschinelles Lernen fĂŒr Luftangriffe in Gaza
"The Gospel" nutzt maschinelles Lernen, um enorme Datenmengen zu analysieren und zu interpretieren, darunter Drohnenaufnahmen, Ăberwachungsdaten und abgefangene Kommunikation. Das System verbessert kontinuierlich seine FĂ€higkeit zur Zielidentifizierung durch das Lernen aus frĂŒheren Daten und Ergebnissen.
Die FĂ€higkeit des KI-Systems, komplexe DatensĂ€tze zu verarbeiten, ermögliche es ihm, anspruchsvolle Zielentscheidungen zu treffen und ein breiteres Spektrum von Zielen zu identifizieren, einschlieĂlich rangniedriger MilizionĂ€re, die zuvor nicht im Fokus gestanden hatten.
In einer ErklĂ€rung der israelischen Armee heiĂt es [2]: "Wir geben Ziele fĂŒr prĂ€zise Angriffe auf mit der Hamas verbundene Infrastrukturen vor und fĂŒgen dem Feind groĂen Schaden zu, wĂ€hrend Unbeteiligte nur minimal betroffen sind."
Die Ziele werden demnach unter BerĂŒcksichtigung der wahrscheinlichen Anzahl ziviler Opfer bewertet. Experten sind jedoch skeptisch, ob die KI tatsĂ€chlich in der Lage ist, zivile Opfer zu reduzieren.
Die verantwortliche Einheit der israelischen Armee, die 2019 gegrĂŒndet wurde, hat eine Datenbank mit 30.000 bis 40.000 mutmaĂlichen KĂ€mpfern aufgebaut. Auf dieser Basis gibt "The Gospel" automatisch Empfehlungen fĂŒr Angriffe.
WĂ€hrend frĂŒherer Operationen im Gazastreifen habe die Luftwaffe oft untĂ€tig bleiben mĂŒssen, weil Ziele nicht ausgemacht werden konnten, schreibt der Guardian. Mit KI-basierten Systemen könne man nun viel mehr Zielen identifizieren und islamistische KĂ€mpfer aufspĂŒren, die zuvor schwer zu finden waren.
Ein ehemaliger IDF-Beamter berichtet, dass sich im aktuellen Konflikt die Taktik geĂ€ndert hat, und nun auch die HĂ€user mutmaĂlicher Hamas-Aktivisten unabhĂ€ngig von ihrem Rang angegriffen werden.
Zweifel an PrÀzision des Systems
The Gospel ermögliche es, massenhaft tödliche SchlĂ€ge auszufĂŒhren. Dabei gehe es um QuantitĂ€t statt QualitĂ€t. Das bedeutet: Die KI macht automatisch Ziele aus, und es bleibt keine Zeit, sich eingehend mit jedem Ziel zu befassen. Es liegt nahe, dass es so zu KollateralschĂ€den kommt.
Das israelische MilitĂ€r betont dennoch, dass die Experten prĂ€zise Angriffe durchfĂŒhren und den Schaden fĂŒr Nichtkombattanten minimierten. Ein hochrangiger IDF-Beamter erklĂ€rte, die zustĂ€ndige Einheit plane "prĂ€zise Angriffe auf Infrastrukturen, die mit der Hamas in Verbindung stehen". Zivilisten kĂ€men nicht zu Schaden.
Jedoch Ă€uĂern einige Experten Skepsis gegenĂŒber solchen Behauptungen. Ein Anwalt, der Regierungen in Fragen der KI und Einhaltung des humanitĂ€ren Völkerrechts berĂ€t, betont, dass es "kaum empirische Belege" fĂŒr derartige Behauptungen gibt.
"Schauen Sie sich die tatsĂ€chliche Beschaffenheit des Gazastreifens an", so Richard Moyes von der Organisation Artikel 36, die sich fĂŒr die Verringerung von SchĂ€den durch den Einsatz von Kriegswaffen einsetzt:
Wir sehen die groĂflĂ€chige Zerstörung eines Stadtgebiets mit schweren Sprengstoffwaffen. Die Behauptung, es werde PrĂ€zision und Enge der Gewalt ausgeĂŒbt, wird durch die Fakten nicht bestĂ€tigt.
Auch andere Experten weisen auf die sichtbaren Auswirkungen der Bombardierung im Gazastreifen hin und bezweifeln einen prÀzisen und begrenzten Einsatz von Bomben.
Es gibt auch Bedenken darĂŒber, wie KI-basierte Systeme den Entscheidungsprozess beeinflussen können. Marta Bo vom internationalen Friedensforschungsinstitut in Stockholm warnt davor, dass Menschen, die sich zu sehr auf solche Systeme verlassen, eine "automatisierte Voreingenommenheit" entwickeln und möglicherweise die FĂ€higkeit verlieren könnten, das Risiko ziviler SchĂ€den angemessen zu bewerten.
URL dieses Artikels:
https://www.heise.de/-9566730
Links in diesem Artikel:
[1] https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
[2] https://tinyurl.com/rxnx2per
Copyright © 2023 Heise Medien