Was ist besser daran, wenn nicht autonome Maschinen, sondern Menschen Waffen bedienen?

Seite 2: Autonome Waffensysteme sind etwa Raketen, die ihr Ziel suchen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Verteidigungsminister Carter dürfte deshalb so hervorkehren, dass autonome Robotersysteme nicht selbständig über das Töten von Menschen bzw. den Einsatz letaler Waffen entscheiden sollen, sondern immer ein Mensch "in the loop" sitzt, weil das Pentagon mit Nachdruck und viel Geld die Entwicklung autonomer Systeme vorantreibt (Pentagon drängt auf Entwicklung und Einführung autonomer Systeme). Sie versprechen, in realen und virtuellen Konflikten einen Vorteil zu bieten, weil sie schneller und präziser sind als Menschen. Daher setzt man zunächst darauf, autonome Systeme mit Mensch-Maschine-Schnittstellen zu schaffen. Das sind letztlich Mensch-Maschine-Systeme, Cyborg- oder Zentaur-Systeme, in denen Menschen ein Teil sind, aber sie übernehmen nur die Aufgaben, die die Maschinen noch nicht ausführen können.

Today, we have the finest fighting force the world has ever known. There’s no other military that’s stronger, more capable, more experienced, or frankly, more innovative. That’s why our military edge is second-to-none. And it’s a fact every American ought to be proud of. But it's also a fact that our military's excellence isn’t a birthright. It's not guaranteed.

Ash Carter

Aber man darf sich nicht vorstellen, dass autonome Kampfsysteme so aussehen müssen, wie man sich Roboter vorstellt. Virtuell sind es einfach Programme, als Waffe kann ein autonomes System auch eine Rakete, bestückt mit Sensoren und Rechner, sein. Wie ein Bericht vom Future of Life Institute kürzlich herausstellte, wird die Entwicklung von autonomen Kampfsystemen vor allem bei Raketen vorangetrieben, bei denen die wichtigsten Fähigkeiten die Zielfindung und die Abschusskontrolle sind. Die meisten der existierenden oder in der Entwicklung befindlichen Systeme können erst nach Abschuss den Weg zu ihren vorgesehenen Zielen finden.

Töten Menschen irgendwie humaner, verantwortlicher, besser als Maschinen? Bild: DoD

Neben der autonomen Wegfindung geht es um die Erkennung und Auswahl von Zielen und letztlich um die die Fähigkeit, Ziele zu setzen und zu verändern, was beinhaltet, gewisse Entscheidungen treffen zu müssen. Sonderlich intelligent im emphatischen Sinne müssen diese Systeme nicht sein. Und natürlich zielt die Entwicklung darauf, Menschen durch Maschinen im Krieg zu ersetzen (Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung). Kürzlich schrieb die New York Times: "Das Verteidigungsministerium hat Roboter-Kampfjets entwickelt, die in den Kampf zusammen mit bemannten Flugzeugen fliegen. Es hat Raketen getestet, die entscheiden können, was sie angreifen, und es hat Schiffe gebaut, die feindliche U-Boote ohne jede Hilfe von Menschen jagen und diese über Tausende von Meilen verfolgen können."

Es dürfte nicht abwegig zu sein, Carter die Absicht zu unterstellen, die vom Pentagon betriebene Aufrüstung in Richtung autonomer Systeme zu verharmlosen. Allein schon die für viele Bereiche angestrebte Möglichkeit, die auch Carter anspricht, autonome Systeme in größerer Anzahl in Schwärmen agieren zu lassen, würde die Kontrolle durch Menschen weit übersteigen und muss auf autonomen Prozessen basieren, die nur noch im Groben gelenkt werden.

Carter aber bleibt dabei: "Wenn es dazu kommt, Autonomie in unseren Waffensystemen einzusetzen, muss immer ein Mensch da sein, der über die Anwendung der Waffen entscheidet." Wollte man diese Argumentation auf den Einsatz autonomer Fahrzeuge auf Straßen umsetzen - die zudem letztlich bei Unfällen auch als Waffen wirken oder direkt so eingesetzt werden können -, dann müsste man auch sagen, dass immer ein Mensch die letzte Entscheidung treffen muss, also das Lenkrad oder die Bremse betätigen muss.

Allerdings werden autonome Fahrzeuge vor allem deswegen propagiert, weil sie doch viel sicherer seien und die Menschen, die für den Großteil der Unfälle verantwortlich sind, ersetzen sollen. Demgemäß könnte ein Krieg mit autonomen Waffensystemen auch sicherer sein, weil präziser und emotionsloser. Und man könnte sich einen Krieg vorstellen, in dem die autonomen Kampfsysteme wie früher die Soldaten oder Ritter gegeneinander kämpfen und Sieg und Niederlage aushandeln, während die Zivilbevölkerung mit ihrer Wetware verschont und Zuschauer bliebe. Aber natürlich ist das nur ein unrealistischer Traum, die autonomen Kampfsysteme werden wie jetzt schon die ferngesteuerten Drohnen menschliche Gegner jagen und töten.

Carter sprach übrigens auf einer Veranstaltung des Center for Strategic and International Studies über die "Third Offset Strategy" und die Empfehlungen, die das von ihm berufene Defense Innovation Board (DIB) dem Pentagon gegeben hat. Dem gehören Eric Schmidt (Google), Jeff Bezos (Amazon), Reid Hoffman (Linkedln), Jennifer Pahlka (Code for America), Astrophysiker Neil deGrasse Tyson, Mike McQuade (United Teechnologies) und der Bill McRaven, der Kanzler der University of Texas, früher Marinegeneral und Kommandeur der US-Spezialeinheiten, an.