Der kriegerische KI-Schwarm: Was passiert, wenn Killer-Roboter anfangen, zu kommunizieren?

Seite 2: Mit KI China besiegen

Dieses Konzept der Kriegsführung liegt offenbar der neuen "Replicator"-Strategie zugrunde, die die stellvertretende Verteidigungsministerin Kathleen Hicks erst letzten Sommer angekündigt hat. Replicator" soll uns helfen, den größten Vorteil [Chinas] zu überwinden, nämlich die Masse. Mehr Schiffe. Mehr Raketen. Mehr Menschen", sagte sie im vergangenen August vor Vertretern der Rüstungsindustrie.

Durch den Einsatz von Tausenden von autonomen UAVs, USVs, UUVs und UGVs könne das US-Militär das chinesische Militär, die Volksbefreiungsarmee (PLA), überlisten, ausmanövrieren und überwältigen, meinte sie.

Um an der Spitze zu verbleiben, werden wir einen neuen Stand der Technik schaffen ... Wir werden der Masse der PLA unsere eigene Masse entgegensetzen, aber unsere wird schwieriger auszumachen, schwieriger zu treffen und schwieriger zu schlagen sein.

Um sowohl die Hardware als auch die Software zu beschaffen, die für die Umsetzung eines solch ehrgeizigen Programms erforderlich sind, holt das Verteidigungsministerium nun Angebote von traditionellen Verteidigungsunternehmen wie Boeing und Raytheon sowie von KI-Startups wie Anduril und Shield AI ein.

Von Orca bis Switchblade

Während Großgeräte wie das Collaborative Combat Aircraft der Air Force und das Orca Extra-Large UUV der Navy in dieses Programm einbezogen werden können, liegt der Schwerpunkt auf der schnellen Produktion kleinerer, weniger komplexer Systeme wie der Switchblade-Angriffsdrohne von AeroVironment, die derzeit von ukrainischen Truppen eingesetzt wird, um russische Panzer und Panzerfahrzeuge hinter den feindlichen Linien auszuschalten.

Gleichzeitig fordert das Pentagon bereits Technologie-Start-ups auf, die notwendige Software zu entwickeln, um die Kommunikation und Koordination zwischen solch unterschiedlichen Robotereinheiten und den dazugehörigen bemannten Plattformen zu erleichtern.

Um das zu erleichtern, hat die Air Force den Kongress um 50 Millionen Dollar in ihrem Budget für das Haushaltsjahr 2024 gebeten, um das Projekt Venom (Viper Experimentation and Next-generation Operations Model") zu finanzieren, während der Name Venom ("Gift") schon Unheil ankündigt.

Im Rahmen von Venom wird die Luftwaffe vorhandene Kampfflugzeuge in KI-gesteuerte Drohnen umwandeln und sie zur Erprobung fortschrittlicher autonomer Software für den Einsatz mehrerer Drohnen einsetzen. Das Heer und die Marine testen ähnliche Systeme.

Wenn Schwärme ihren eigenen Weg wählen

Mit anderen Worten: Es ist nur eine Frage der Zeit, bis das US-Militär (und vermutlich auch das Chinas, Russlands und vielleicht einiger anderer Mächte) in der Lage sein wird, Schwärme autonomer Waffensysteme einzusetzen, die mit Algorithmen ausgestattet sind, die es ihnen ermöglichen, miteinander zu kommunizieren und gemeinsam neuartige, unvorhersehbare Kampfmanöver zu wählen, während sie sich bewegen.

Jedes teilnehmende robotische Mitglied eines solchen Schwarms würde ein Missionsziel erhalten ("Aufspüren und Zerstören aller feindlichen Radare und Flugabwehrraketenbatterien, die sich innerhalb dieser [angegebenen] geografischen Koordinaten befinden"), aber keine genauen Anweisungen, wie dies zu tun ist.

Das würde es ihnen ermöglichen, ihre eigene Gefechtstaktik in gegenseitiger Absprache auszuwählen. Wenn die begrenzten Testdaten, über die wir verfügen, irgendetwas aussagen, könnte es bedeuten, dass sie höchst unkonventionelle Taktiken anwenden, die für menschliche Piloten und Befehlshaber nie erdacht wurden (und von diesen unmöglich nachgeahmt werden können).

Die Neigung solcher vernetzten KI-Systeme, neuartige, ungeplante Ergebnisse zu erzielen, wird von Computerexperten als "emergentes Verhalten" bezeichnet. ScienceDirect, eine Zusammenfassung wissenschaftlicher Zeitschriften, erklärt dies folgendermaßen:

Ein emergentes Verhalten kann als ein Prozess beschrieben werden, bei dem größere Muster durch Interaktionen zwischen kleineren oder einfacheren Einheiten entstehen, die selbst keine solchen Eigenschaften aufweisen.

Super-humaner Gruppengeist

In militärischer Hinsicht bedeutet es, dass ein Schwarm autonomer Waffen gemeinsam Kampftaktiken anwenden könnte, für die keines der einzelnen Geräte programmiert wurde – und so möglicherweise erstaunliche Ergebnisse auf dem Schlachtfeld erzielt, aber auch eskalierende Handlungen vornehmen könnte, die von ihren menschlichen Befehlshabern nicht beabsichtigt und nicht vorhergesehen wurden, einschließlich der Zerstörung kritischer ziviler Infrastrukturen oder Kommunikationseinrichtungen, die sowohl für nukleare als auch für konventionelle Operationen genutzt werden.

An diesem Punkt ist es natürlich fast unmöglich vorherzusagen, was ein nicht-menschlicher Gruppengeist tun könnte, wenn er mit mehreren Waffen ausgestattet und von menschlichen Beaufsichtigung abgekoppelt ist.

Man nimmt an, dass solche Systeme mit einem "Pannenschutz" ausgestattet sind, die sie zur Basis zurückkehren lassen, wenn die Kommunikation mit ihren menschlichen Vorgesetzten unterbrochen wird, sei es durch feindliche Störungen oder aus anderen Gründen.

Wer weiß jedoch, wie solche denkenden Maschinen unter den anspruchsvollen Bedingungen der realen Welt funktionieren würden oder ob der Gruppengeist tatsächlich in der Lage wäre, sich über solche Anweisungen hinwegzusetzen und selbständig zu handeln.

Was dann? Könnten solche Maschinen sich entscheiden, über ihre vorprogrammierten Grenzen hinaus zu kämpfen und damit eine unbeabsichtigte Eskalation zu provozieren – möglicherweise sogar eine nukleare?

Terminatoren oder Friedensstifter?

Oder würden sie ihre Angriffe auf feindliche Streitkräfte einstellen und sich stattdessen in die Operationen befreundeter Streitkräfte einmischen, vielleicht auf sie schießen und sie vernichten (wie Skynet in der klassischen Science-Fiction-Filmreihe Terminator)?

Oder könnten sie sich auf Verhaltensweisen einlassen, die sich unserer Vorstellungskraft im Guten wie im Schlechten völlig entziehen?

Hochrangige Vertreter des US-Militärs und der Diplomatie beharren darauf, dass KI in der Tat eingesetzt werden kann, ohne derartige zukünftige Risiken einzugehen, und dass die USA nur Geräte einsetzen werden, die gründlich angemessene Sicherheitsvorkehrungen gegen zukünftiges gefährliches Fehlverhalten enthalten.

Das ist in der Tat der wesentliche Punkt in der "Politischen Erklärung zum verantwortungsvollen militärischen Einsatz von künstlicher Intelligenz und Autonomie", die vom US-Außenministerium im Februar 2023 herausgegeben wurde.

Viele prominente Sicherheits- und Technologieexperten sind sich jedoch der potenziellen Risiken des aufkommenden Verhaltens zukünftiger Roboterwaffen nur allzu bewusst und warnen weiterhin vor dem schnellen Einsatz von KI in der Kriegsführung.

Kommen die robotergesteuerten Schlachtfelder?

Besonders hervorzuheben ist der Abschlussbericht, den die National Security Commission on Artificial Intelligence im Februar 2021 veröffentlichte. Unter dem gemeinsamen Vorsitz von Robert Work (der nach seiner Tätigkeit im Pentagon wieder zur CNAS zurückgekehrt ist) und Eric Schmidt, dem ehemaligen CEO von Google, empfahl die Kommission den raschen Einsatz von KI durch das US-Militär, um den Sieg in künftigen Konflikten mit China und/oder Russland sicherzustellen.

Sie äußerte sich jedoch auch besorgt über die potenziellen Gefahren von robotergesteuerten Schlachtfeldern.

"Der unkontrollierte weltweite Einsatz solcher Systeme birgt das Risiko einer unbeabsichtigten Konflikteskalation und instabiler Krisen", heißt es in dem Bericht.

Derartiges könnte aus einer Reihe von Gründen geschehen, unter anderem "wegen der schwierigen und unerprobten Komplexität der Interaktion zwischen KI-gestützten und autonomen Waffensystemen [d.h. emergenten Verhaltensweisen] auf dem Schlachtfeld".

Angesichts dieser Gefahr, so die Schlussfolgerung, "müssen die Länder Maßnahmen ergreifen, die sich auf die Verringerung der mit KI-gestützten und autonomen Waffensystemen verbundenen Risiken konzentrieren."

Risiko: "Rest in Peace" für die Menschheit

Wenn die führenden Befürworter autonomer Waffensysteme uns sagen, dass wir uns über die unbeabsichtigten Gefahren ihres Einsatzes im Gefecht Sorgen machen sollen, dann sollten wir uns in der Tat Sorgen machen.

Auch wenn uns die mathematischen Fähigkeiten fehlen, um das emergente Verhalten von KI zu verstehen, sollte es offensichtlich sein, dass die Menschheit einem erheblichen Risiko für ihre Existenz ausgesetzt sein könnte, sollten Tötungsmaschinen die Fähigkeit erlangen, selbstständig zu denken.

Vielleicht würden sie alle überraschen und beschließen, die Rolle eines internationalen Friedenswächters zu übernehmen. Aber da sie zum Kämpfen und Töten entwickelt wurden, ist es weitaus wahrscheinlicher, dass sie sich einfach dafür entscheiden, diese Anweisungen auf unabhängige und extreme Weise auszuführen.

In diesem Fall könnte es niemanden geben, der ein R.I.P. ("Rest In Peace") auf den Grabstein der Menschheit setzt.

Dieser Artikel erscheint in Kooperation mit dem US-Magazin TomDispatch. Das englische Original finden Sie hier. Übersetzung: David Goeßmann.

Michael T. Klare ist emeritierter Professor für Friedens- und Weltsicherheitsstudien am Hampshire College und Senior Visiting Fellow bei der Arms Control Association. Er ist Autor von 15 Büchern, von denen das jüngste "All Hell Breaking Loose: The Pentagon's Perspective on Climate Change". Er ist Mitbegründer des Komitees für eine vernünftige U.S.-China-Politik.