Krieg mit KI-Systemen: Ohne Angst und Emotion, aber mit hoher Ungewissheit
Seite 2: Zunehmend unvorhersehbaren Feedback-Schleife
- Krieg mit KI-Systemen: Ohne Angst und Emotion, aber mit hoher Ungewissheit
- Zunehmend unvorhersehbaren Feedback-Schleife
- Auf einer Seite lesen
Die Einführung von KI in die Kriegsführung könne aber noch mehr Ungewissheit schaffen. Treten sich bekämpfende KIs gegenüber, könne dies zu einer zunehmend unvorhersehbaren Feedback-Schleife führen. Man habe allerdings bislang noch nie durch ein Netzwerk kooperierende spezielle KI-Systeme gehabt, um erkennen zu können, welche Interaktionen zwischen ihnen entstehen können, meint Work. Damit meint er KI-Systeme, die in bestimmten Bereichen gleichwertig der menschlichen Intelligenz sind, nicht solche, die an sie in allen Bereichen heranreichen.
Work bleibt allerdings bei der offiziellen Beruhigungspille des Pentagon, dass autonome Systeme ohne Befehl eines Menschen entscheiden werden, ein Ziel (target) zu töten (US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter). Mit Ziel ist ein Mensch gemeint. Allerdings rückt Work von der ausgegebenen Devise schon mal ab, dass dies niemals geschehen werden. Man könne sich zwar eine Welt vorstellen, in der Maschinen solche Entscheidungen treffen, "aber wir wollen sicherlich das nicht jetzt verfolgen" und Waffen entwickeln, "die entscheiden, welche Ziele sie treffen sollen".
Ziemlich gewunden macht er klar, dass man an Möglichkeiten denkt, den Menschen dennoch in der konkreten Situation auszuklammern, schließlich könne man damit einem Gegner unterlegen sein, der Maschinen und nicht langsame Menschen entscheiden lässt. Man könne ja eine Waffe wie eine smarte Rakete starten, der "auf eines von diesen fünf Zielen feuern kann, und nebenbei ist hier die Priorität, die wir abgearbeitet sehen wollen. Wenn du das fünfte Ziel nicht findest, wirst du nicht entscheiden, dafür jemand anderen zu töten. Du wirst ins Meer stürzen oder dich selbst zerstören."
Das würde natürlich heißen, dass vorgegebene Ziele angegriffen werden sollen, ohne jeweils Befehle im Einzelnen geben zu müssen. So werden auch von ihren Kommandeuren Soldaten losgeschickt, Kampfroboter treten an die Stelle, die dann vor Ort ohne einen Menschen entscheiden müssen, ob dies ein Ziel ist oder nicht. Sie treffen also eine autonome Entscheidung, ähnlich wie dies Soldaten an der Front machen (Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung).
Potenzierung der Ungewissheit
Ein Problem tritt freilich schon auf, wenn überhaupt lernende oder adaptive KI-Systeme eingesetzt werden. Sie können alleine schon deswegen außer Kontrolle geraten, weil niemand weiß, was und wie sie genau gelernt haben, bis sie dies im Verhalten zeigen. David Hanson von Hanson Robotics sagt, dass gerade dieses überraschende Element in komplexeren KI-Systemen ein Vorteil für die Anwender sein könnte. Die Gefahr bestünde allerdings auch, dass lernende KI-Systeme auch lernen könnten, sich der Kontrolle zu entziehen.
Spannend wird es, wenn KI-Systeme tatsächlich in militärischen Realspielen gegeneinander antreten, um wie die Programme beim Hochfrequenzhandel an Börsen in Millisekunden strategische Entscheidungen zu treffen, die einen Vorteil angesichts der vorweggenommenen Entscheidungen der anderen Programme versprechen. Was bei Traderprogrammen möglichst vermieden werden soll, der Zusammenbruch des Börsenhandels oder die Instabilität des Marktes, kann bei militärischen KI-Systemen, für die es auch noch keine internationalen Regeln für das Kriegsrecht gibt, auch der Zusammenbruch eine Möglichkeit sein, den Gegner dann mit anderen Mitteln zu überwältigen.
Mag allerdings sein, dass solche Überlegungen über einen KI-getriebenen Krieg fern der Wirklichkeit sind, wenn man den Stadtkrieg in Mosul oder anderen Städten betrachtet, wie die Washington Post in einem die Fahrer heroisierenen Bericht gerade klar machte. Letztlich sind die technisch avancierten Systeme von Präzisionsraketen bis Drohnen nicht kriegsentscheidend, wenn es um die Eroberung einer Stadt geht. Ohne Bulldozer könnte man nicht durch verminte Straßen ohne große Verluste kommen oder Autobomben ausrangieren, vor allem aber Gräben und Barrieren überwinden. Es handelt sich um massive, tonnenschwere Fahrzeuge, ganz das Gegenteil der immateriellen KI-Programme. Allerdings ließen sich die Bulldozer auch aus der Ferne steuern, sie könnten auch von einem KI-System gelenkt werden.