KI und Krieg: Entgleitet uns Menschen die Kontrolle?
Viele KI-Tools führen zur Verbesserung der Lebensqualität. Bei militärischen Anwendungen lauern aber große Gefahren – bis hin zum Kontrollverlust. Eine Warnung. (Teil 1)
Immanuel Kant, der in diesem Jahr 300 Jahre alt geworden wäre, formulierte 1795 in seiner Schrift "Zum ewigen Frieden" grundlegende Überlegungen zu einer internationalen Friedenspolitik, die in einem Gegensatz zu der heutigen Realität zunehmend militärisch ausgetragener Konflikte stehen. Kant forderte hingegen die Überwindung des kriegerischen Zustands der Menschheit zugunsten einer bewussten Friedensstiftung:
Der Friedenszustand unter Menschen, die neben einander leben, ist kein Naturstand (status naturalis), der vielmehr ein Zustand des Krieges ist, d.i. wenn gleich nicht immer ein Ausbruch der Feindseligkeiten, doch immerwährende Bedrohung mit denselben. Er muß also gestiftet werden (…).
Immanuel Kant
Kant vertrat die Auffassung, dass republikanisch strukturierte Staaten eher zu Frieden als zu Krieg neigen würden und forderte einen internationalen Friedensbund als Voraussetzung der Beendigung aller Kriege.
Dann würde sich zeigen, "daß doch die Vernunft, vom Throne der höchsten moralisch gesetzgebenden Gewalt herab, den Krieg als Rechtsgang schlechterdings verdammt, den Friedenszustand dagegen zur unmittelbaren Pflicht macht, welcher doch, ohne einen Vertrag der Völker unter sich, nicht gestiftet oder gesichert werden kann: – so muß es einen Bund von besonderer Art geben, den man den Friedensbund (foedus pacificum) nennen kann, der vom Friedensvertrag (pactum pacis) darin unterschieden sein würde, daß dieser bloß einen Krieg, jener aber alle Kriege auf immer zu endigen suchte."
Was aber bedeutet diese legitime Anforderung an eine international zu organisierende und zu institutionalisierende Friedensstiftung in der aktuellen globalen Entwicklungssituation und unter dem Einfluss einer sich dynamisierenden Weiterentwicklung von KI im Internet?
Algorithmen, Internet und Künstliche Intelligenz waren für Kant unbekannte und unvorstellbare Phänomene. Liegt der friedenspolitische Königsweg daher noch in Friedensverträgen und Friedensbünden? Welchen Einfluss müssten gegebenenfalls die Vereinten Nationen auf die KI-Entwicklung in den einzelnen Staaten nehmen?
Skizzierung weltweiter globaler Großkonflikte
Derzeit befinden sich viele Regionen und Staaten miteinander in einem mit militärischen Mitteln ausgetragenen Großkonflikt oder kurz vor einem Krieg. Militärische Interventionen verdrängen zunehmend diplomatische und zivile Konfliktlösungen. Das gilt für:
- den Nahen Osten im Krieg zwischen Israel und der Hamas, unterstützt vom Iran;
- den Krieg zwischen der Russischen Föderation und der Ukraine oder dem westlichen Lager und den USA;
- die bedrohliche Lage zwischen der Volksrepublik China und Taiwan/unterstützt von den USA und;
- der Verwerfung diplomatischer Aktivitäten und der nuklearen Bedrohung im Konflikt zwischen Nord- und Südkorea.
In diesen Konflikten ist bei weiterer Eskalation das Potenzial eines dritten Weltkriegs mit der Option eines Einsatzes von Atomwaffen angelegt.
Bei allen genannten Krisensituationen sind Nuklearmächte beteiligt, die im Falle von Nordkorea und der Russischen Föderation sogar ganz offen mit dem Einsatz von Atomwaffen drohen.
Gleichzeitig befinden wir uns in einem Zustand der Vereinten Nationen, der durch eine gezielte Schwächung der UN gekennzeichnet ist.
Die Struktur der UN, insbesondere das Vetorecht der fünf ständigen Mitglieder im UN-Sicherheitsrat und die relative Machtlosigkeit der UN-Generalversammlung, führt zu einer institutionellen Hilflosigkeit der UN bei gegenwärtigen Konflikten.
Inzwischen kommt allerdings eine die Gesamtsituation verschärfende Problematik hinzu, auf die weder die UN noch die EU oder die nationale Politik vorbereitet sind: Die Entwicklung und der Einsatz von Künstlicher Intelligenz im Zusammenhang mit modernisierten Waffensystemen.
Folgen globaler Großkonflikte: ungebremster Rüstungswettlauf
Eine auf Konfrontation statt auf Zusammenarbeit ausgerichtete Politik zwischen den großen Industrienationen und Militärmächten wird einen ungebremsten Rüstungswettlauf befeuern. Dies gilt auch für softwarebasierte Systeme wie Cyber- und autonome Waffen.
Bei einem Konfrontationskurs der großen Nationen wird niemand das Risiko eingehen, in den technologisch wichtigen Bereichen Cyberraum und Künstliche Intelligenz (KI) den Konkurrenten hinterherzuhinken.
Die Softwareentwicklung auf diesen Gebieten kann völlig unkontrolliert und im Verborgenen ablaufen. Keine der Nationen kann wissen, welche Fähigkeiten ein Gegner bereits hat und welche in kurzer Zeit erreichbar sein werden.
Deshalb muss jede Seite allergrößte Anstrengungen aufnehmen, um mithalten zu können. Ein Rüstungswettlauf im Bereich KI könnte deutlich schneller als erwartet zu äußerst gefährlichen militärischen Produkten führen, die kaum noch beherrschbar sind.
Die Wahrscheinlichkeit nimmt zu, dass der Zeitpunkt der Möglichkeit einer international koordinierten und verantwortlichen Kontrolle von KI in Waffensystemen im Zuge des Rüstungswettlaufs bereits überschritten ist oder kurz davor steht, überschritten zu werden.
Bei üblichen Waffensystemen sind Rüstungskontrolle und Verifikation möglich. Flugzeuge, Schiffe, Panzer und Atomwaffen können gezählt werden. Bei Cyberwaffen und KI-basierten Waffen geht es indessen um Software.
Softwaresysteme haben spezielle Merkmale, für die eine Rüstungskontrolle und die Verifikation von Vereinbarungen kaum realisierbar sind. Ein Staat wird kaum zulassen, dass bzgl. Verifikation von Rüstungskontrollvereinbarungen Mitarbeiter eines gegnerischen Staates Einblick in die eigene Software erhalten.
KI-Waffen sind unkalkulierbar
Das Risiko wäre zu hoch, dass damit der Gegner eine Kopie dieser Software erhalten könnte. Des Weiteren wäre eine Überprüfung der möglichen Funktionalitäten sehr aufwendig und könnte Jahre dauern, währenddessen die Software ohnehin weiterentwickelt würde.
Es ist vollkommen unkalkulierbar, was in Zukunft hinsichtlich softwarebasierter Waffen auf uns zukommt.
Abrüstungsvereinbarungen bezogen auf Software werden kaum möglich sein. Bei Software sind beliebig viele Kopien in kurzer Zeit herstellbar und entsprechend beliebig oft anwendbar. Einmal entwickelte Software für autonome Waffen wird immer erhalten bleiben.
KI in Waffensystemen
Große Fortschritte im Gebiet "Künstliche Intelligenz" haben auch zu entsprechenden Fortschritten in der Militärtechnik geführt. Insbesondere können selbstständig agierende Roboter oder Drohnen auch für militärische Zwecke eingesetzt werden.
Auf der Basis einer automatischen Bilderkennung mit guter Objektklassifikation können feindliche Ziele automatisch identifiziert und attackiert werden.
Für Autonomie in Waffensystemen gibt es ein großes Anwendungsspektrum. Viele Arten von Waffen können mit immer mehr Autonomie versehen werden. Dies betrifft Roboter, Fahrzeuge, Flugobjekte und auch Schiffe oder U-Boote.
Wehrtechnik: Wo und wie Menschen durch KI ersetzt werden
In solchen Systemen können Menschen durch KI-Komponenten ersetzt werden. Dies kann ähnlich wie beim autonomen Fahren auch schrittweise erfolgen.
Unsere modernen Autos enthalten schon viele autonome Funktionen hin zum gänzlich autonomen Fahren, wobei aus rechtlichen Gründen aber ein Mensch noch jederzeit eingreifen können muss. Denn im Straßenverkehr werden Unfälle von autonomen Fahrzeugen bisher nicht toleriert.
In Kriegssituationen kann das anders sein, Kollateralschäden werden eher in Kauf genommen. Auch weniger gut ausgereifte autonome Funktionen könnten hier zum Einsatz kommen. Damit steigt das Risiko, dass solche Systeme in Kriegszeiten auch eingesetzt werden.
Krieg: Die KI entscheidet über Ziele
Bei der modernen Kriegsführung geht es nicht nur um Waffen, sondern auch um einen zunehmenden Einsatz von KI bei der Aufklärung, der Bestimmung von Lagebildern des Gegners und der eigenen Streitkräfte sowie bei der Planung von Aktionen. Auch im Ukraine-Krieg wird KI-basierte Software für diese Zwecke eingesetzt.
Auch Entscheidungen, die die Auswahl von Zielen betreffen, werden zunehmend von Maschinen getroffen. Im Gaza-Krieg setzt Israel KI-Systeme ein, um Angriffsziele zu bestimmen. Diese Systeme liefern erheblich mehr Ziele mit genauen Ortsangaben von Mitgliedern der Hamas, als das durch Geheimdienstinformationen möglich wäre.
In Waffensystemen der Zukunft wird die Angriffskette, die sogenannte "Kill-Chain" zeitlich reduziert, eventuell auf wenige Sekunden. Diese Angriffskette beschreibt den Prozess von der Beobachtung, der Identifikation von Zielen, der Planung und Entscheidung bis zur Durchführung einer Aktion.
KI im Krieg: Der Mensch kann kaum mehr eingreifen
In all diesen Phasen kann KI eingesetzt werden und damit den gesamten Entscheidungsprozess zeitlich so weit verkürzen, dass Menschen kaum noch eingreifen können. Auch wenn in der Politik immer wieder betont wird, dass letztlich die Entscheidung über den tödlichen Einsatz einer Waffe bei einem Menschen bleiben muss ("man in the loop"), wird dieses Prinzip teilweise bereits infrage gestellt.
In Situationen, in denen eine Maschine erkennt, dass das Leben eines Soldaten bedroht ist, müsse diese auch selbstständig über einen Waffeneinsatz entscheiden können, falls die Einbeziehung eines Menschen zu lange dauern würde. Lahl und Varwick argumentieren ähnlich:
Die formale Kompetenz ist das eine, die tatsächliche Eingriffschance das andere. Je komplexer ein kollektiver Verbund teilautonomer Waffensysteme ist, desto unmöglicher wird es dem kontrollierenden Menschen, die ‚Blackbox‘ zu durchschauen und Fehler oder Manipulation zu erkennen – also die von Algorithmen gelieferten Ergebnisse nachzuvollziehen, zu bewerten und notfalls auch zu korrigieren. In hochintensiven Lagen unter extremem Zeitdruck reduziert sich seine Rolle dann de facto auf eine Scheinkontrolle.
Die Forderungen, Menschen in der Entscheidungskette zu belassen, mit der Möglichkeit gegebene Situationen mit hinreichender Sicherheit bewerten zu können ("Meaningful Human Control"), wird in den meisten Fällen nicht realisierbar sein. Bei der Verwendung von neuronalen Netzen sind Entscheidungen der Maschine ohnehin nicht nachvollziehbar.
Auch bei der Verwendung von symbolischer KI würden Entscheidungen der Maschine in der Regel nicht im Sinne von If-Then-Else-Verzweigungen in einem Entscheidungsbaum erfolgen, was eventuell relativ einfach nachvollziehbar wäre.
Stattdessen basieren Entscheidungen auf Hunderten Merkmalen, die unsicher und vage sind und mit irgendwelchen Formeln verrechnet werden. Eine einfache Kontrolle wird hierbei nicht möglich sein.
Prof. Dr. Karl Hans Bläsius, Informatiker mit Schwerpunkt KI.
Prof. Dr. Klaus Moegling, Politikwissenschaftler und Soziologe.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.