Der kriegerische KI-Schwarm: Was passiert, wenn Killer-Roboter anfangen, zu kommunizieren?

Logo auf RAIM-Konferenz zu Künstlicher Intelligenz im Militär, die am 16. Februar 2023 in Den Haag stattfand. Bild: Außenministerium der Niederlande / CC BY-SA 2.0 Deed

In Ukraine und Gaza operieren Drohnen bereits als Killer-Roboter. Doch es ist erst der Anfang. Was uns bevorsteht, ist viel bedrohlicher für die Menschheit. Gastbeitrag.

Ja, es ist bereits Zeit, besorgt zu sein – sehr besorgt. Wie die Kriege in der Ukraine und im Gazastreifen gezeigt haben, haben es die ersten Drohnen-Äquivalente von "Killer-Robotern" auf das Schlachtfeld geschafft und sich als verheerende Waffen erwiesen.

Michael T. Klare ist em. Professor für Friedens- und Weltsicherheitsstudien und Fellow der Arms Control Association.

Aber zumindest bleiben sie weitgehend unter menschlicher Kontrolle. Stellen Sie sich für einen Moment eine Welt des Krieges vor, in der diese Drohnen (oder ihre Äquivalente am Boden und auf See) uns kontrollieren und nicht andersherum.

Die Zukunft der Kriegsführung

Dann befänden wir uns auf einem zerstörerisch anderen Planeten, wie es heute fast unvorstellbar scheint. Leider ist es aber alles andere als unvorstellbar, wenn man bedenkt, dass die Großmächte bereits mit der Arbeit an künstlicher Intelligenz (KI) und Roboterwaffen begonnen haben.

Lassen Sie mich Sie nun in diese geheimnisvolle Welt entführen und versuchen Sie sich vorzustellen, was die Zukunft der Kriegsführung für uns alle bedeuten könnte.

Durch die Kombination von künstlicher Intelligenz und fortschrittlicher Robotik arbeiten das US-Militär und die Streitkräfte anderer weit entwickelter Staaten bereits intensiv an der Entwicklung einer Reihe von selbstgesteuerten "autonomen" Waffensystemen – Kampfdrohnen, die unabhängig von menschlichen Offizieren, die sie befehligen sollen, tödliche Gewalt anwenden können.

Diese von Kritikern als "Killer-Roboter" bezeichneten Maschinen umfassen eine Vielzahl von unbemannten Flugzeugen, Panzern, Schiffen und U-Booten, die zu einem autonomen Betrieb fähig sind. Die US-Luftwaffe zum Beispiel entwickelt ihr "Collaborative Combat Aircraft", ein unbemanntes Luftfahrzeug (UAV), das sich bei hochriskanten Einsätzen an die Seite von bemannten Flugzeugen stellen soll.

Kontroversen

Die Armee testet ebenfalls eine Reihe autonomer unbemannter Bodenfahrzeuge (UGVs), während die Marine sowohl mit unbemannten Überwasserschiffen (USVs) als auch mit unbemannten Unterwasserschiffen (UUVs oder Drohnen-U-Booten) experimentiert.

Auch China, Russland, Australien und Israel arbeiten an solchen Waffen für die Schlachtfelder der Zukunft.

Das bevorstehende Auftauchen dieser Tötungsmaschinen hat weltweit Besorgnis und Kontroversen ausgelöst, wobei einige Länder bereits ein vollständiges Verbot anstreben und andere, darunter die USA, planen, ihren Einsatz nur unter menschlicher Aufsicht zuzulassen.

In Genf hat eine Gruppe von Staaten sogar versucht, den Einsatz und die Verwendung vollständig autonomer Waffen zu verbieten, und beruft sich dabei auf einen UN-Vertrag aus dem Jahr 1980, das Übereinkommen über bestimmte konventionelle Waffen, das darauf abzielt, nichtnukleare Munition, die als besonders schädlich für die Zivilbevölkerung gilt, einzuschränken oder zu verbieten.

Außer Kontrolle

In New York hat die Generalversammlung der Vereinten Nationen im vergangenen Oktober erstmals über autonome Waffen diskutiert und plant für den kommenden Herbst eine umfassende Überprüfung des Themas.

Die Debatte über den Einsatz solcher Geräte auf dem Schlachtfeld dreht sich vor allem um die Frage, ob sie in der Lage sein werden, Menschenleben ohne menschliche Aufsicht zu töten. Viele religiöse und zivilgesellschaftliche Organisationen argumentieren, dass solche Systeme nicht in der Lage sind, zwischen Kämpfern und Zivilisten auf dem Schlachtfeld zu unterscheiden und daher verboten werden sollten, um Nichtkombattanten vor Tod oder Verletzung zu schützen, wie es das humanitäre Völkerrecht verlangt.

US-amerikanische Beamte hingegen behaupten, dass solche Waffen so konstruiert werden können, dass sie innerhalb der rechtlichen Grenzen einwandfrei funktionieren.

Keine der beiden Seiten hat sich jedoch mit dem potenziell beunruhigendsten Aspekt ihres Einsatzes im Kampf befasst: der Wahrscheinlichkeit, dass sie früher oder später in der Lage sein werden, ohne menschliches Zutun miteinander zu kommunizieren und, da sie "intelligent" sind, ihre eigenen, nicht vorgeschriebenen Taktiken zum Besiegen eines Feindes – oder etwas ganz anderes – zu entwickeln.

Gruppendenken und seine Folgen auf dem Schlachtfeld

Ein solches computergesteuertes Gruppendenken, das von Informatikern als "emergentes Verhalten" bezeichnet wird, birgt eine Reihe von Gefahren, die von den Verantwortlichen in Genf, Washington oder bei den Vereinten Nationen noch nicht berücksichtigt werden.

Vorerst werden die meisten autonomen Waffen, die vom US-Militär entwickelt werden, unbemannte (oder, wie man manchmal sagt, "nicht besetzte") Versionen bestehender Kampfflugzeuge sein, die so konzipiert sind, dass sie zusammen mit ihren bemannten Gegenstücken operieren.

Auch wenn sie in gewissem Umfang miteinander kommunizieren können, werden sie Teil eines "vernetzten" Kampfteams sein, dessen Einsatz von menschlichen Kommandeuren diktiert und überwacht wird. Das kollaborative Kampfflugzeug soll beispielsweise als "loyaler Flügelmann" für den bemannten Tarnkappenjäger F-35 dienen, während es risikoreiche Einsätze im umkämpften Luftraum durchführt.

Das Heer und die Marine haben bei der Entwicklung autonomer Waffen einen ähnlichen Weg eingeschlagen.

Der Reiz von Roboter-"Schwärmen"

Einige US-amerikanische Strategen haben sich jedoch für einen alternativen Ansatz für den Einsatz autonomer Waffen auf zukünftigen Schlachtfeldern ausgesprochen, bei dem sie nicht als Junior-Kollegen in von Menschen geführten Teams, sondern als gleichberechtigte Mitglieder von selbstgesteuerten Roboterschwärmen eingesetzt würden.

Solche Verbände würden aus Dutzenden oder sogar Hunderten von KI-gesteuerten UAVs, USVs oder UGVs bestehen, die alle miteinander kommunizieren, Daten über sich ändernde Bedingungen auf dem Schlachtfeld austauschen und ihre Kampftaktik gemeinsam ändern können, wenn der Gruppengeist es für notwendig hält.

"Neue Robotertechnologien werden es den Streitkräften von morgen ermöglichen, als Schwarm zu kämpfen, mit größerer Masse, Koordination, Intelligenz und Geschwindigkeit als die vernetzten Streitkräfte von heute", prognostizierte Paul Scharre, ein früher Verfechter dieses Konzepts, in einem Bericht für das Center for a New American Security (CNAS) aus dem Jahr 2014.

"Vernetzte, kooperative autonome Systeme", schrieb er damals, "werden zu echtem Schwarmverhalten fähig sein – kooperatives Verhalten zwischen aufgeteilten Elementen, das zu einem kohärenten, intelligenten Ganzen führt."

Schwarmkonzept soll Tierverhalten kopieren

Wie Scharre in seinem prophetischen Bericht klarstellte, würde die vollständige Verwirklichung des Schwarmkonzepts die Entwicklung fortschrittlicher Algorithmen erfordern, die es autonomen Kampfsystemen ermöglichen würden, miteinander zu kommunizieren und über bevorzugte Angriffsmethoden "abzustimmen".

Dazu müsste eine Software entwickelt werden, die in der Lage ist, Ameisen, Bienen, Wölfe und andere Lebewesen zu imitieren, die in der Natur ein "Schwarmverhalten" zeigen. Wie Scharre es ausdrückte:

So wie Wölfe in einem Rudel ihren Feind mit einer sich ständig verändernden Unschärfe von Bedrohungen aus allen Richtungen konfrontieren, könnten unbesetzte Fahrzeuge, die Manöver und Angriffe koordinieren, wesentlich effektiver sein als unkoordinierte Systeme, die in Massen operieren.

Im Jahr 2014 steckte die Technologie, die ein solches maschinelles Verhalten möglich macht, jedoch noch in den Kinderschuhen. Um diesen kritischen Mangel zu beheben, förderte das US-Verteidigungsministerium die Forschung im Bereich KI und Robotik und erwarb gleichzeitig entsprechende Technologien von Privatunternehmen wie Google und Microsoft.

Eine Schlüsselfigur in diesem Bestreben war Robert Work, ein ehemaliger Kollege von Paul Scharre am CNAS und ein früher Enthusiast der Schwarmkriegsführung. Work diente von 2014 bis 2017 als stellvertretender Verteidigungsminister, eine Position, die es ihm ermöglichte, immer höhere Geldsummen in die Entwicklung von Hightech-Waffen, insbesondere von unbemannten und autonomen Systemen, zu lenken.

Vom Mosaik zum Replikator

Ein Großteil dieser Bemühungen wurde an die Defense Advanced Research Projects Agency (DARPA), die interne Hightech-Forschungsorganisation des Pentagons, delegiert.

Im Rahmen der Entwicklung von KI für solche kollaborativen Schwarmoperationen initiierte die DARPA ihr "Mosaic"-Programm, eine Reihe von Projekten zur Perfektionierung der Algorithmen und anderer Technologien, die für die Koordinierung der Aktivitäten bemannter und unbemannter Kampfsysteme in künftigen Gefechten hoher Intensität mit Russland und/oder China erforderlich sind.

"Durch die Anwendung der großen Flexibilität des Mosaikkonzepts auf die Kriegsführung", erklärte Dan Patt, stellvertretender Direktor des DARPA-Büros für strategische Technologie, "können kostengünstigere, weniger komplexe Systeme auf vielfältige Weise miteinander verbunden werden, um die gewünschten, miteinander verwobenen Effekte zu erzielen, die auf jedes Szenario zugeschnitten sind.

Die einzelnen Teile eines Mosaiks sind angreifbar [entbehrlich], aber zusammen sind sie von unschätzbarem Wert, weil sie zum Ganzen beitragen."

Mit KI China besiegen

Dieses Konzept der Kriegsführung liegt offenbar der neuen "Replicator"-Strategie zugrunde, die die stellvertretende Verteidigungsministerin Kathleen Hicks erst letzten Sommer angekündigt hat. Replicator" soll uns helfen, den größten Vorteil [Chinas] zu überwinden, nämlich die Masse. Mehr Schiffe. Mehr Raketen. Mehr Menschen", sagte sie im vergangenen August vor Vertretern der Rüstungsindustrie.

Durch den Einsatz von Tausenden von autonomen UAVs, USVs, UUVs und UGVs könne das US-Militär das chinesische Militär, die Volksbefreiungsarmee (PLA), überlisten, ausmanövrieren und überwältigen, meinte sie.

Um an der Spitze zu verbleiben, werden wir einen neuen Stand der Technik schaffen ... Wir werden der Masse der PLA unsere eigene Masse entgegensetzen, aber unsere wird schwieriger auszumachen, schwieriger zu treffen und schwieriger zu schlagen sein.

Um sowohl die Hardware als auch die Software zu beschaffen, die für die Umsetzung eines solch ehrgeizigen Programms erforderlich sind, holt das Verteidigungsministerium nun Angebote von traditionellen Verteidigungsunternehmen wie Boeing und Raytheon sowie von KI-Startups wie Anduril und Shield AI ein.

Von Orca bis Switchblade

Während Großgeräte wie das Collaborative Combat Aircraft der Air Force und das Orca Extra-Large UUV der Navy in dieses Programm einbezogen werden können, liegt der Schwerpunkt auf der schnellen Produktion kleinerer, weniger komplexer Systeme wie der Switchblade-Angriffsdrohne von AeroVironment, die derzeit von ukrainischen Truppen eingesetzt wird, um russische Panzer und Panzerfahrzeuge hinter den feindlichen Linien auszuschalten.

Gleichzeitig fordert das Pentagon bereits Technologie-Start-ups auf, die notwendige Software zu entwickeln, um die Kommunikation und Koordination zwischen solch unterschiedlichen Robotereinheiten und den dazugehörigen bemannten Plattformen zu erleichtern.

Um das zu erleichtern, hat die Air Force den Kongress um 50 Millionen Dollar in ihrem Budget für das Haushaltsjahr 2024 gebeten, um das Projekt Venom (Viper Experimentation and Next-generation Operations Model") zu finanzieren, während der Name Venom ("Gift") schon Unheil ankündigt.

Im Rahmen von Venom wird die Luftwaffe vorhandene Kampfflugzeuge in KI-gesteuerte Drohnen umwandeln und sie zur Erprobung fortschrittlicher autonomer Software für den Einsatz mehrerer Drohnen einsetzen. Das Heer und die Marine testen ähnliche Systeme.

Wenn Schwärme ihren eigenen Weg wählen

Mit anderen Worten: Es ist nur eine Frage der Zeit, bis das US-Militär (und vermutlich auch das Chinas, Russlands und vielleicht einiger anderer Mächte) in der Lage sein wird, Schwärme autonomer Waffensysteme einzusetzen, die mit Algorithmen ausgestattet sind, die es ihnen ermöglichen, miteinander zu kommunizieren und gemeinsam neuartige, unvorhersehbare Kampfmanöver zu wählen, während sie sich bewegen.

Jedes teilnehmende robotische Mitglied eines solchen Schwarms würde ein Missionsziel erhalten ("Aufspüren und Zerstören aller feindlichen Radare und Flugabwehrraketenbatterien, die sich innerhalb dieser [angegebenen] geografischen Koordinaten befinden"), aber keine genauen Anweisungen, wie dies zu tun ist.

Das würde es ihnen ermöglichen, ihre eigene Gefechtstaktik in gegenseitiger Absprache auszuwählen. Wenn die begrenzten Testdaten, über die wir verfügen, irgendetwas aussagen, könnte es bedeuten, dass sie höchst unkonventionelle Taktiken anwenden, die für menschliche Piloten und Befehlshaber nie erdacht wurden (und von diesen unmöglich nachgeahmt werden können).

Die Neigung solcher vernetzten KI-Systeme, neuartige, ungeplante Ergebnisse zu erzielen, wird von Computerexperten als "emergentes Verhalten" bezeichnet. ScienceDirect, eine Zusammenfassung wissenschaftlicher Zeitschriften, erklärt dies folgendermaßen:

Ein emergentes Verhalten kann als ein Prozess beschrieben werden, bei dem größere Muster durch Interaktionen zwischen kleineren oder einfacheren Einheiten entstehen, die selbst keine solchen Eigenschaften aufweisen.

Super-humaner Gruppengeist

In militärischer Hinsicht bedeutet es, dass ein Schwarm autonomer Waffen gemeinsam Kampftaktiken anwenden könnte, für die keines der einzelnen Geräte programmiert wurde – und so möglicherweise erstaunliche Ergebnisse auf dem Schlachtfeld erzielt, aber auch eskalierende Handlungen vornehmen könnte, die von ihren menschlichen Befehlshabern nicht beabsichtigt und nicht vorhergesehen wurden, einschließlich der Zerstörung kritischer ziviler Infrastrukturen oder Kommunikationseinrichtungen, die sowohl für nukleare als auch für konventionelle Operationen genutzt werden.

An diesem Punkt ist es natürlich fast unmöglich vorherzusagen, was ein nicht-menschlicher Gruppengeist tun könnte, wenn er mit mehreren Waffen ausgestattet und von menschlichen Beaufsichtigung abgekoppelt ist.

Man nimmt an, dass solche Systeme mit einem "Pannenschutz" ausgestattet sind, die sie zur Basis zurückkehren lassen, wenn die Kommunikation mit ihren menschlichen Vorgesetzten unterbrochen wird, sei es durch feindliche Störungen oder aus anderen Gründen.

Wer weiß jedoch, wie solche denkenden Maschinen unter den anspruchsvollen Bedingungen der realen Welt funktionieren würden oder ob der Gruppengeist tatsächlich in der Lage wäre, sich über solche Anweisungen hinwegzusetzen und selbständig zu handeln.

Was dann? Könnten solche Maschinen sich entscheiden, über ihre vorprogrammierten Grenzen hinaus zu kämpfen und damit eine unbeabsichtigte Eskalation zu provozieren – möglicherweise sogar eine nukleare?

Terminatoren oder Friedensstifter?

Oder würden sie ihre Angriffe auf feindliche Streitkräfte einstellen und sich stattdessen in die Operationen befreundeter Streitkräfte einmischen, vielleicht auf sie schießen und sie vernichten (wie Skynet in der klassischen Science-Fiction-Filmreihe Terminator)?

Oder könnten sie sich auf Verhaltensweisen einlassen, die sich unserer Vorstellungskraft im Guten wie im Schlechten völlig entziehen?

Hochrangige Vertreter des US-Militärs und der Diplomatie beharren darauf, dass KI in der Tat eingesetzt werden kann, ohne derartige zukünftige Risiken einzugehen, und dass die USA nur Geräte einsetzen werden, die gründlich angemessene Sicherheitsvorkehrungen gegen zukünftiges gefährliches Fehlverhalten enthalten.

Das ist in der Tat der wesentliche Punkt in der "Politischen Erklärung zum verantwortungsvollen militärischen Einsatz von künstlicher Intelligenz und Autonomie", die vom US-Außenministerium im Februar 2023 herausgegeben wurde.

Viele prominente Sicherheits- und Technologieexperten sind sich jedoch der potenziellen Risiken des aufkommenden Verhaltens zukünftiger Roboterwaffen nur allzu bewusst und warnen weiterhin vor dem schnellen Einsatz von KI in der Kriegsführung.

Kommen die robotergesteuerten Schlachtfelder?

Besonders hervorzuheben ist der Abschlussbericht, den die National Security Commission on Artificial Intelligence im Februar 2021 veröffentlichte. Unter dem gemeinsamen Vorsitz von Robert Work (der nach seiner Tätigkeit im Pentagon wieder zur CNAS zurückgekehrt ist) und Eric Schmidt, dem ehemaligen CEO von Google, empfahl die Kommission den raschen Einsatz von KI durch das US-Militär, um den Sieg in künftigen Konflikten mit China und/oder Russland sicherzustellen.

Sie äußerte sich jedoch auch besorgt über die potenziellen Gefahren von robotergesteuerten Schlachtfeldern.

"Der unkontrollierte weltweite Einsatz solcher Systeme birgt das Risiko einer unbeabsichtigten Konflikteskalation und instabiler Krisen", heißt es in dem Bericht.

Derartiges könnte aus einer Reihe von Gründen geschehen, unter anderem "wegen der schwierigen und unerprobten Komplexität der Interaktion zwischen KI-gestützten und autonomen Waffensystemen [d.h. emergenten Verhaltensweisen] auf dem Schlachtfeld".

Angesichts dieser Gefahr, so die Schlussfolgerung, "müssen die Länder Maßnahmen ergreifen, die sich auf die Verringerung der mit KI-gestützten und autonomen Waffensystemen verbundenen Risiken konzentrieren."

Risiko: "Rest in Peace" für die Menschheit

Wenn die führenden Befürworter autonomer Waffensysteme uns sagen, dass wir uns über die unbeabsichtigten Gefahren ihres Einsatzes im Gefecht Sorgen machen sollen, dann sollten wir uns in der Tat Sorgen machen.

Auch wenn uns die mathematischen Fähigkeiten fehlen, um das emergente Verhalten von KI zu verstehen, sollte es offensichtlich sein, dass die Menschheit einem erheblichen Risiko für ihre Existenz ausgesetzt sein könnte, sollten Tötungsmaschinen die Fähigkeit erlangen, selbstständig zu denken.

Vielleicht würden sie alle überraschen und beschließen, die Rolle eines internationalen Friedenswächters zu übernehmen. Aber da sie zum Kämpfen und Töten entwickelt wurden, ist es weitaus wahrscheinlicher, dass sie sich einfach dafür entscheiden, diese Anweisungen auf unabhängige und extreme Weise auszuführen.

In diesem Fall könnte es niemanden geben, der ein R.I.P. ("Rest In Peace") auf den Grabstein der Menschheit setzt.

Dieser Artikel erscheint in Kooperation mit dem US-Magazin TomDispatch. Das englische Original finden Sie hier. Übersetzung: David Goeßmann.

Michael T. Klare ist emeritierter Professor für Friedens- und Weltsicherheitsstudien am Hampshire College und Senior Visiting Fellow bei der Arms Control Association. Er ist Autor von 15 Büchern, von denen das jüngste "All Hell Breaking Loose: The Pentagon's Perspective on Climate Change". Er ist Mitbegründer des Komitees für eine vernünftige U.S.-China-Politik.