Der kriegerische KI-Schwarm: Was passiert, wenn Killer-Roboter anfangen, zu kommunizieren?

Logo auf RAIM-Konferenz zu Künstlicher Intelligenz im Militär, die am 16. Februar 2023 in Den Haag stattfand. Bild: Außenministerium der Niederlande / CC BY-SA 2.0 Deed

In Ukraine und Gaza operieren Drohnen bereits als Killer-Roboter. Doch es ist erst der Anfang. Was uns bevorsteht, ist viel bedrohlicher für die Menschheit. Gastbeitrag.

Ja, es ist bereits Zeit, besorgt zu sein – sehr besorgt. Wie die Kriege in der Ukraine und im Gazastreifen gezeigt haben, haben es die ersten Drohnen-Äquivalente von "Killer-Robotern" auf das Schlachtfeld geschafft und sich als verheerende Waffen erwiesen.

Michael T. Klare ist em. Professor für Friedens- und Weltsicherheitsstudien und Fellow der Arms Control Association.

Aber zumindest bleiben sie weitgehend unter menschlicher Kontrolle. Stellen Sie sich für einen Moment eine Welt des Krieges vor, in der diese Drohnen (oder ihre Äquivalente am Boden und auf See) uns kontrollieren und nicht andersherum.

Die Zukunft der Kriegsführung

Dann befänden wir uns auf einem zerstörerisch anderen Planeten, wie es heute fast unvorstellbar scheint. Leider ist es aber alles andere als unvorstellbar, wenn man bedenkt, dass die Großmächte bereits mit der Arbeit an künstlicher Intelligenz (KI) und Roboterwaffen begonnen haben.

Lassen Sie mich Sie nun in diese geheimnisvolle Welt entführen und versuchen Sie sich vorzustellen, was die Zukunft der Kriegsführung für uns alle bedeuten könnte.

Durch die Kombination von künstlicher Intelligenz und fortschrittlicher Robotik arbeiten das US-Militär und die Streitkräfte anderer weit entwickelter Staaten bereits intensiv an der Entwicklung einer Reihe von selbstgesteuerten "autonomen" Waffensystemen – Kampfdrohnen, die unabhängig von menschlichen Offizieren, die sie befehligen sollen, tödliche Gewalt anwenden können.

Diese von Kritikern als "Killer-Roboter" bezeichneten Maschinen umfassen eine Vielzahl von unbemannten Flugzeugen, Panzern, Schiffen und U-Booten, die zu einem autonomen Betrieb fähig sind. Die US-Luftwaffe zum Beispiel entwickelt ihr "Collaborative Combat Aircraft", ein unbemanntes Luftfahrzeug (UAV), das sich bei hochriskanten Einsätzen an die Seite von bemannten Flugzeugen stellen soll.

Kontroversen

Die Armee testet ebenfalls eine Reihe autonomer unbemannter Bodenfahrzeuge (UGVs), während die Marine sowohl mit unbemannten Überwasserschiffen (USVs) als auch mit unbemannten Unterwasserschiffen (UUVs oder Drohnen-U-Booten) experimentiert.

Auch China, Russland, Australien und Israel arbeiten an solchen Waffen für die Schlachtfelder der Zukunft.

Das bevorstehende Auftauchen dieser Tötungsmaschinen hat weltweit Besorgnis und Kontroversen ausgelöst, wobei einige Länder bereits ein vollständiges Verbot anstreben und andere, darunter die USA, planen, ihren Einsatz nur unter menschlicher Aufsicht zuzulassen.

In Genf hat eine Gruppe von Staaten sogar versucht, den Einsatz und die Verwendung vollständig autonomer Waffen zu verbieten, und beruft sich dabei auf einen UN-Vertrag aus dem Jahr 1980, das Übereinkommen über bestimmte konventionelle Waffen, das darauf abzielt, nichtnukleare Munition, die als besonders schädlich für die Zivilbevölkerung gilt, einzuschränken oder zu verbieten.

Außer Kontrolle

In New York hat die Generalversammlung der Vereinten Nationen im vergangenen Oktober erstmals über autonome Waffen diskutiert und plant für den kommenden Herbst eine umfassende Überprüfung des Themas.

Die Debatte über den Einsatz solcher Geräte auf dem Schlachtfeld dreht sich vor allem um die Frage, ob sie in der Lage sein werden, Menschenleben ohne menschliche Aufsicht zu töten. Viele religiöse und zivilgesellschaftliche Organisationen argumentieren, dass solche Systeme nicht in der Lage sind, zwischen Kämpfern und Zivilisten auf dem Schlachtfeld zu unterscheiden und daher verboten werden sollten, um Nichtkombattanten vor Tod oder Verletzung zu schützen, wie es das humanitäre Völkerrecht verlangt.

US-amerikanische Beamte hingegen behaupten, dass solche Waffen so konstruiert werden können, dass sie innerhalb der rechtlichen Grenzen einwandfrei funktionieren.

Keine der beiden Seiten hat sich jedoch mit dem potenziell beunruhigendsten Aspekt ihres Einsatzes im Kampf befasst: der Wahrscheinlichkeit, dass sie früher oder später in der Lage sein werden, ohne menschliches Zutun miteinander zu kommunizieren und, da sie "intelligent" sind, ihre eigenen, nicht vorgeschriebenen Taktiken zum Besiegen eines Feindes – oder etwas ganz anderes – zu entwickeln.

Gruppendenken und seine Folgen auf dem Schlachtfeld

Ein solches computergesteuertes Gruppendenken, das von Informatikern als "emergentes Verhalten" bezeichnet wird, birgt eine Reihe von Gefahren, die von den Verantwortlichen in Genf, Washington oder bei den Vereinten Nationen noch nicht berücksichtigt werden.

Vorerst werden die meisten autonomen Waffen, die vom US-Militär entwickelt werden, unbemannte (oder, wie man manchmal sagt, "nicht besetzte") Versionen bestehender Kampfflugzeuge sein, die so konzipiert sind, dass sie zusammen mit ihren bemannten Gegenstücken operieren.

Auch wenn sie in gewissem Umfang miteinander kommunizieren können, werden sie Teil eines "vernetzten" Kampfteams sein, dessen Einsatz von menschlichen Kommandeuren diktiert und überwacht wird. Das kollaborative Kampfflugzeug soll beispielsweise als "loyaler Flügelmann" für den bemannten Tarnkappenjäger F-35 dienen, während es risikoreiche Einsätze im umkämpften Luftraum durchführt.

Das Heer und die Marine haben bei der Entwicklung autonomer Waffen einen ähnlichen Weg eingeschlagen.

Der Reiz von Roboter-"Schwärmen"

Einige US-amerikanische Strategen haben sich jedoch für einen alternativen Ansatz für den Einsatz autonomer Waffen auf zukünftigen Schlachtfeldern ausgesprochen, bei dem sie nicht als Junior-Kollegen in von Menschen geführten Teams, sondern als gleichberechtigte Mitglieder von selbstgesteuerten Roboterschwärmen eingesetzt würden.

Solche Verbände würden aus Dutzenden oder sogar Hunderten von KI-gesteuerten UAVs, USVs oder UGVs bestehen, die alle miteinander kommunizieren, Daten über sich ändernde Bedingungen auf dem Schlachtfeld austauschen und ihre Kampftaktik gemeinsam ändern können, wenn der Gruppengeist es für notwendig hält.

"Neue Robotertechnologien werden es den Streitkräften von morgen ermöglichen, als Schwarm zu kämpfen, mit größerer Masse, Koordination, Intelligenz und Geschwindigkeit als die vernetzten Streitkräfte von heute", prognostizierte Paul Scharre, ein früher Verfechter dieses Konzepts, in einem Bericht für das Center for a New American Security (CNAS) aus dem Jahr 2014.

"Vernetzte, kooperative autonome Systeme", schrieb er damals, "werden zu echtem Schwarmverhalten fähig sein – kooperatives Verhalten zwischen aufgeteilten Elementen, das zu einem kohärenten, intelligenten Ganzen führt."

Schwarmkonzept soll Tierverhalten kopieren

Wie Scharre in seinem prophetischen Bericht klarstellte, würde die vollständige Verwirklichung des Schwarmkonzepts die Entwicklung fortschrittlicher Algorithmen erfordern, die es autonomen Kampfsystemen ermöglichen würden, miteinander zu kommunizieren und über bevorzugte Angriffsmethoden "abzustimmen".

Dazu müsste eine Software entwickelt werden, die in der Lage ist, Ameisen, Bienen, Wölfe und andere Lebewesen zu imitieren, die in der Natur ein "Schwarmverhalten" zeigen. Wie Scharre es ausdrückte:

So wie Wölfe in einem Rudel ihren Feind mit einer sich ständig verändernden Unschärfe von Bedrohungen aus allen Richtungen konfrontieren, könnten unbesetzte Fahrzeuge, die Manöver und Angriffe koordinieren, wesentlich effektiver sein als unkoordinierte Systeme, die in Massen operieren.

Im Jahr 2014 steckte die Technologie, die ein solches maschinelles Verhalten möglich macht, jedoch noch in den Kinderschuhen. Um diesen kritischen Mangel zu beheben, förderte das US-Verteidigungsministerium die Forschung im Bereich KI und Robotik und erwarb gleichzeitig entsprechende Technologien von Privatunternehmen wie Google und Microsoft.

Eine Schlüsselfigur in diesem Bestreben war Robert Work, ein ehemaliger Kollege von Paul Scharre am CNAS und ein früher Enthusiast der Schwarmkriegsführung. Work diente von 2014 bis 2017 als stellvertretender Verteidigungsminister, eine Position, die es ihm ermöglichte, immer höhere Geldsummen in die Entwicklung von Hightech-Waffen, insbesondere von unbemannten und autonomen Systemen, zu lenken.

Vom Mosaik zum Replikator

Ein Großteil dieser Bemühungen wurde an die Defense Advanced Research Projects Agency (DARPA), die interne Hightech-Forschungsorganisation des Pentagons, delegiert.

Im Rahmen der Entwicklung von KI für solche kollaborativen Schwarmoperationen initiierte die DARPA ihr "Mosaic"-Programm, eine Reihe von Projekten zur Perfektionierung der Algorithmen und anderer Technologien, die für die Koordinierung der Aktivitäten bemannter und unbemannter Kampfsysteme in künftigen Gefechten hoher Intensität mit Russland und/oder China erforderlich sind.

"Durch die Anwendung der großen Flexibilität des Mosaikkonzepts auf die Kriegsführung", erklärte Dan Patt, stellvertretender Direktor des DARPA-Büros für strategische Technologie, "können kostengünstigere, weniger komplexe Systeme auf vielfältige Weise miteinander verbunden werden, um die gewünschten, miteinander verwobenen Effekte zu erzielen, die auf jedes Szenario zugeschnitten sind.

Die einzelnen Teile eines Mosaiks sind angreifbar [entbehrlich], aber zusammen sind sie von unschätzbarem Wert, weil sie zum Ganzen beitragen."