Pentagon drängt auf Entwicklung und Einführung autonomer Systeme
Der Defense Science Board (DSB) hat einen Bericht und Empfehlungen für die "Autonomie" im militärischen Bereich veröffentlicht - autonome Kampfsysteme werden nicht wirklich behandelt
Der Defense Science Board (DSB) hat eine schon länger erwartete Studie über die Zukunft von autonomen militärischen Systemen vorgelegt. In Auftrag gegeben wurde sie bereits 2014. Ziel war es, die wissenschaftlichen, technischen und politischen Probleme herauszuarbeiten, die gelöst werden müssen, um in allen Bereichen der Streitkräfte stärker auf Autonomie setzen zu können. Herausgekommen ist eine breite Palette von vielen Empfehlungen und Lageeinschätzungen. Vorherrschend ist, dass autonome Systeme viele Vorteile bringen und dass dringend gehandelt werden müsse, um im Rüstungswettlauf mit den Gegnern nicht in einen Rückstand zu geraten. Es habe zudem Fortschritte bei der Entwicklung der Künstlichen Intelligenz gegeben, die einen Umschlagspunkt erreicht habe und nun überall implementiert werde.
Der Pentagon-Führung geht der technische Fortschritt nicht schnell genug (Das Pentagon will möglichst schnell autonome Systeme), zudem scheint es auch in den Streitkräften einen Unwillen zu geben, autonome Systeme einsetzen zu wollen. Die würden dann nicht nur vielleicht effizienter und kostengünstiger sein, sondern auch manchen Soldatenjob ersetzen und erfordern, Kooperationsmodelle für das gemeinsame Vorgehen von Menschen und autonomen Systemen zu entwickeln (Das Pentagon setzt auf die Mensch-Maschine-Kooperation). Zwar hat sich mittlerweile der Einsatz auch von Kampfdrohnen durchgesetzt, aber selbst fernsteuerbare bewaffnete Bodenroboter sind bislang nicht in Einsatz gekommen.
Daher ist nicht verwunderlich, wenn als eines der vordringlichen Ziele des Berichts genannt wird, die "Übernahme autonomer Kapazitäten zu beschleunigen". Schließlich seien autonome Systeme "zunehmend allgegenwärtig", und zivile und militärische Autonomie stünde bereits Alliierten und Gegnern zur Verfügung. Als Vorteile werden über "Speed matters" hinaus genannt: schnelle und bessere Entscheidungsfindung, Verarbeitung hoher Daten-Volumen oder -Heterogenität, bessere Kommunikationsverbindungen, hohe Komplexität koordinierter Aktionen, Einsatz bei riskanten Missionen und hohe Persistenz und Durchhaltevermögen, was für Überwachung oder unbemannte Fahrzeuge wichtig sei. Man will aber wegen der Budgetzwänge keine neuen Programme vorschlagen, sondern die Entwicklung von Experimenten oder Prototypen, die den Einsatzwert belegen - und damit wohl auch für Überzeugung sorgen sollen.
The U. S. will face a wide spectrum of threats with varying kinds of autonomous capabilities across every physical domain—land, sea, undersea, air, and space—and in the virtual domain of cyberspace as well.
DSB
In dem Bericht wird erst einmal herausgestellt, was unter Autonomie verstanden werden soll, nämlich Systeme, die "unabhängig unterschiedliche Handlungsstränge zusammenstellen und auswählen können, um Ziele auf der Grundlage ihres Wissens und ihres Verständnisses der Welt, von sich selbst und der Situation zu erreichen". Entscheidend für autonome Systeme seien daher die technischen Lösung für die Wahrnehmung (Sensoren), für Denken und Entscheiden (KI), für das Handeln (Aktuatoren und Mobilität) sowie für Teamarbeit (Mensch-Maschine-Kooperation). Dabei wird darauf verwiesen, dass an autonomen Systemen überall in der Privatwirtschaft gearbeitet wird, die damit auch neue Geschäftsmodelle entwickeln. Besonders im Cyberbereich würde Autonomie auch militärisch neue Missionen ermöglichen, zumal hier Geschwindigkeit besonders wichtig sei.
Zwar würden in der Privatwirtschaft viele für die Autonomie entscheidenden Techniken entwickelt werden, aber das Pentagon könne sich nicht gänzlich darauf verlassen, da militärisch die Einsatzbedingungen komplexer seien und beispielsweise auch beinhalten, dass der Gegner selbst autonome Systeme einsetzt. Dabei gibt es auch die Schwierigkeit, dass militärisch Autonomie eigentlich gar nicht erwünscht ist, auch nicht bei den Soldaten. Das Verhalten muss regelkonform sein und Befehle höherer Kommandostellen gehorchen. Der Bericht geht davon aus, dass Menschen in der Regel noch die Zügel in der Hand halten werden, also "in the loop" sind. Es dürften auch nur Menschen Missionsparameter oder Einsatzregeln ändern dürfen. Schwierigkeiten könne es etwa geben, wenn die Systeme sich weiter entwickeln und die Soldaten sich permanent an die neuen Kapazitäten in der Kooperation anpassen müssen, überhaupt wird das Thema Vertrauen in autonome Systeme als sehr wichtig erachtet, also dass sie "effektiv" das machen, was sie machen sollen und ihr Einsatz keine unbeabsichtigten Folgen hat. Gleichzeitig müsse man aber autonome Systeme von Gegnern begegnen und ausschalten können.
Zögerlich ist man beim Thema autonome Waffensysteme, die in der Öffentlichkeit auf Vorbehalte stoßen. Die überwältigende Mehrheit der Anwendung autonomer Systeme werde nicht-tödlich sein, wird beschworen. Es werden intensive Tests und klare Regeln gefordert. Ansonsten ist man hier eher schmallippig und will offenbar Kontroversen vermeiden. Allerdings wird angeführt, dass andere Länder weniger strenge Regeln haben und man mit dem Einsatz von autonomen Kampfsystemen rechnen und sich darauf vorbereiten müsse. Gefahren gäbe es, wenn Systeme über das ganze Spektrum schwer zu entdecken seien oder wenn "große Schwärme von billigen Systemen eingesetzt würden, um Sensoren zu überwältigen und die Versorgung von Effektoren zu erschöpfen".
Ein Schwerpunkt liegt auf ständig der zu aktualisierenden Cybersicherheit, da alle autonomen Systeme auf "Software und adaptiven Software-Architekturen" basieren. Cyberangreifer würden solche Systeme "als umfangreiche Ziele mit vielen Kapazitäten sehen, die auch Verletzbarkeiten mit sich bringen". Damit hängen auch die Mensch-Maschine-Schnittstellen zusammen, von denen viel abhängt. So muss nicht nur die Kommunikation zweifelsfrei funktionieren, es muss auch abgeklärt werden, wie ein System auf einen vagen Befehl reagiert oder das Kommando unter veränderten Bedingungen umsetzt. Es muss also eine Übereinstimmung auch der mentalen Modelle vorhanden sein. Für den Zwecke müsse auch Personal entwickelt werden, das sich mit allen Aspekten der Autonomie auskennt: "autonomy-literate workforce".
Autonome Systeme haben wie andere "fast immer" Sicherheitslücken. Problematisch daran sei unter anderem, dass ihre Logik "ziemlich komplex" ist, wodurch es schwierig werde, Aktionen zu bewerten und zu verifizieren und eingeführte Verletzlichkeiten auszumerzen, wenn ein Gegner Zugang erhalten haben sollte". Auf gut deutsch heißt das, bei autonomen Systemen ist es schwierig zu beurteilen, ob ihr Verhalten "richtig" ist oder ob sie manipuliert wurden.
Schwärme gehören zur militärischen Utopie
Bei den Projekten, die vorgeschlagen werden, steht an erster Stelle die Entwicklung von autonomen Agenten für die Erkennung von Cyberangriffen. Sie würden auch die Möglichkeit bieten, zivile und militärische Systeme zu überwachen, Erkenntnisse zusammenzuführen, den Gegner besser zu identifizieren und Informationen an viele Quellen weiterzugeben, ohne dass damit geheime Quellen und Methoden bekannt gemacht werden müssten. Auf der anderen Seite sieht man offenbar interessante Möglichkeiten in der Entwicklung einer "automatisierter Cyber-Reaktion" durch das Cyberkommando in Zusammenarbeit mit den Geheimdiensten und der Darpa, um Schadsoftware zu entfernen, das angegriffene System zu reparieren und die Angreifer auszumachen - und das nicht erst nach Angriffen, sondern bereits dann, wenn sie stattfinden.
Dazu müsse ein umfassendes Sensornetzwerk gebaut und installiert werden, nicht nur im "blue space" der eigenen Systeme, sondern auch im "grey space" von Systemen, die von den Angreifern benutzt werden, aber einer dritten Partei gehören, und vor allem auch im "red space", in den Systemen, die den Angreifern gehören oder sich in deren Bereich befinden: "Es gibt mit einer solchen Architektur klarerweise", wird lapidar eingeräumt, "technische, operationale und politische Probleme." Letztlich wäre dann der Anspruch, in alle Netzwerke in allen Staaten einzudringen, um diese überwachen und kontrollieren zu können. Daneben wird empfohlen, große autonome Systeme zu nutzen, um in einer Kaskade kleinere, auch bewaffnete Roboter in Schwärmen auszusenden, die gegnerische Systeme überwältigen. So sollten Navy und Darpa ein Experiment durchführen, um "ein Minenfeld von autonomen tödlichen Unterwasserschiffen (UUVs)" zu schaffen. Mit einem großen UUV könnten intelligente Torpedos ausgesetzt werden, die ein Gebiet abdecken und selbständig Lücken schließen.
Überhaupt sind Schwärme die große Hoffnung - und die große Gefahr. Vorbild sind Insekten, die zeigen, dass sehr große Mengen an "Plattformen mit begrenzter individueller Kapazität" sinnvolle Missionen ausführen könnten. Attraktiv daran ist, dass dies kostensparend sein soll, Quantität schafft Qualität, heißt es im Bericht, was fast von Hegel inspiriert sein könnte. Zudem würden Insektenschwärme zeigen, dass aus einfachen Regeln komplexes Verhalten entstehen könne, das nicht aus dem Verhalten der einzelnen vorhergesagt werden kann.
Interessant findet man auch die Möglichkeiten, mit autonomen Systemen in der Präsenz von bewaffnetem Widerstand in ausländische Territorien einzudringen oder Einheiten mit diesen, beispielsweise mit Aufklärunsdrohnen, zu unterstützen. Die autonomen System können mit Sensoren, Waffen oder Sendern zum Jammen ausgestattet sein, die Soldaten am Boden schützen und den Angriff erleichtern. Gedacht wird an sich selbst organisierende Schwärme von autonomen und unabhängig operierenden Robotern, die wie eine Cloud kleine Kampfeinheiten begleiten oder selbständig Missionen ausführen. Da wäre man doch wieder bei autonomen Kampfrobotern.