KI im Krieg: Wenn Algorithmen über Leben und Tod entscheiden

Seite 2: KI-Kriegseinsätze regulieren – womit beginnen?

▶ Welche Möglichkeiten der Regulation autonomer Waffensysteme in Kriegseinsätzen sehen Sie? Wäre nicht eine internationale Ächtung, wie bei Chemie- und Atomwaffen, notwendig?

Hälterlein: Notwendig wäre dies auf jeden Fall. Im Rahmen der UN Rüstungskontrolle gibt es seit über 10 Jahren Bemühungen, verbindliche Regulierungen für letale autonome Waffensysteme (LAWS) zu erwirken – bisher ohne Erfolg.

In erster Linie, da dies nicht im Interesse der Nationen ist, die solche Systeme entwickeln, einsetzen oder es in Zukunft beabsichtigen. Das sind die USA, Großbritannien, Israel, Russland und China. Deutschland hat sich zusammen mit Frankreich für ein Verbot von vollautonomen Waffensystemen bei gleichzeitiger Ermöglichung des Einsatzes von teilautonomen eingesetzt.

Wenn es für ein teilautonomes System bereits genügt, dass ein Mensch dem Output des Systems zustimmen muss, die Entscheidung über Leben und Tod also formal weiterhin durch einen Menschen getroffen wird, halte ich diesen Ansatz für hochproblematisch. Das entspricht keineswegs der Idee einer "Meaningful Human Control", die von der NGO Article 36 entwickelt wurde und sich als ein normativer Maßstab für die Bewertung solcher Systeme etabliert hat.

Die Entscheidung des Menschen muss auf einem ausreichend tiefen Verständnis der von einer Maschine "autonom" vollzogenen Prozesse beruhen. Das setzt die Möglichkeit zur Überprüfung und Bewertung des Outputs ohne übermäßigen Zeitdruck und sonstige einschränkende Faktoren voraus.

Auch die Beschränkung der Verhandlungen auf letale Systeme halte ich für problematisch, da die sogenannte Kill Chain bereits mit der Sammlung und Auswertung von Überwachungsdaten beginnt. Effekte und Fehler KI-basierter Prozesse in diesem Bereich können sich bis in eigentliche Kampfhandlungen durchziehen.

▶ Welche zivilen Forschungspotenziale werden durch eine Militarisierung der "KI"-Forschung, durch ihre militärische Nutzung vergeben?

Hälterlein: Grundsätzlich sollten die monetären und sonstigen Ressourcen, die in militärische KI-Forschung fließen, natürlich besser in zivile fließen. Die Kosten für das Future Combat Air System beispielsweise werden auf mehr 100 Milliarden Euro geschätzt. Allerdings zeigt der Umstand, dass mittlerweile fast alle Big Tech Unternehmen – Google, Amazon, META, Microsoft, inklusive Open AI! – in militärische Forschung involviert sind – und dass sich eine klare Unterscheidung in zivile und militärische Anwendungen von KI nicht mehr aufrechterhalten lässt.

Es sind die gleichen Gesichtserkennungssysteme und Large Language Models, die für beide Zwecke verwendet werden.

Wir sollten also unser Verständnis von und Verhältnis zu KI grundsätzlich überdenken.

Benjamin Roth sprach mit Jens Hälterlein. Jens Hälterlein ist wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaften der Universität Paderborn. Zurzeit ist er am Forschungsprojekt "Meaningful Human Control – Autonome Waffensysteme zwischen Regulation und Reflexion" beteiligt. Zuletzt veröffentliche er Studien zur Analyse von Pandemiepolitik und zur deutschen KI-Strategie "AI – Made in Germany."