zurück zum Artikel

Was ist besser daran, wenn nicht autonome Maschinen, sondern Menschen Waffen bedienen?

Leopardo B. Bild: Ordercrazy/gemeinfrei

Wieder einmal versuchte US-Verteidigungsminister Carter zu verschleiern, worauf die vom Pentagon forcierte Entwicklung autonomer Systeme hinauslaufen wird

Autonome Robotersysteme, die mit Waffen ausgerüstet sind und selbst über deren Anwendung entscheiden könnten, sind offenbar doch ein wichtiges Thema, das mit Ängsten einhergeht. Während das Pentagon - und andere Staaten - zwar bereits seit vielen Jahren Kampfroboter in Form von Drohnen, aber auch ihre Ziele suchende smarte Raketen einsetzen, scheint der Übergang von der Fernsteuerung durch Menschen zu autonom entscheidenden Robotern die Menschen mehr zu beunruhigen. Für die Opfer der Drohnenkriege, zumal wenn es sich um Zivilisten handelt, dürfte es hingegen ziemlich egal sein, ob letztlich ein vielleicht Tausende von Kilometern entfernt befindlicher Mensch die Waffe auslöst oder die Maschine selbst.

Wieder wie schon Ende September (US-Verteidigungsminister: "Niemals" volle Autonomie für Kampfroboter [1]) versicherte [2] nun US-Verteidigungsminister Ash Carter vergangenen Freitag, dass das Pentagon "niemals" Kampfroboter verwenden würde, die selbst entscheiden, wann sie töten. Wenn jemand ausgerechnet in Bezug auf Rüstung und Krieg von einem Niemals spricht, ist nicht nur höchste Skepsis geboten, sondern man muss sich auch wundern, warum der Verteidigungsminister der Meinung zu sein scheint, dass seine Äußerung überhaupt für glaubwürdig gehalten werden könnte. Wie könnte er allein schon dafür garantieren, dass künftige Regierungen und Verteidigungsminister sich doch anders entscheiden? Schon immer haben sich Militärs und Kriegsstrategen nicht zurückgehalten, neue Waffentechnik, die Überlegenheit verspricht, auch anzuwenden - und sei es nur zur Demonstration von deren Wirkung zur Abschreckung.

Immerhin waren die USA das bislang erste und einzige Land, die wahrscheinlich nicht einmal kriegsentscheidend die nukleare Massenvernichtungswaffe völlig ungerichtet und mit der Absicht, eine Maximalzahl an Toten und Verletzten zu erreichen, auf die Bevölkerung von zwei Großstädten richteten. Mehr als 200.000 Menschen wurden sofort von den beiden Atombomben getötet, an den Folgen starben Zehntausende weitere. Was wäre im Vergleich dazu etwa eine Drohne, die eine Hellfire-Rakete auf mutmaßliche Gegner abfeuert? Und was macht es besser, wenn ein Mensch den Knopf drückt, von dem weniger zu erwarten ist, dass er bestimmte Vorschriften einhält, als wenn eine programmierte Maschine dies macht.

Warum scheint die Welt eher in Ordnung zu sein, wenn Menschen, die bis jetzt Völker- und Massenmorde begehen, systematisch foltern und vergewaltigen, rücksichtlos oder auch emotionsgetrieben Mitmenschen töten und verletzen, über den Einsatz einer Waffe entscheiden, als wenn dies Maschinen machen, die letztlich auch nur die finale Form eines Soldaten sind, der wie eine mehr oder weniger intelligente Maschine Befehlen gehorchen soll? Nun könnte man sagen, dass dann, wenn Menschen verantwortlich sind, diese auch zur Rechenschaft gezogen werden können, während dies bei Maschinen möglicherweise schwieriger sein könnte. Aber wie man auch gegenwärtig sieht, werden Kriegsverbrechen kaum jemals verfolgt.

Autonome Waffensysteme sind etwa Raketen, die ihr Ziel suchen

Verteidigungsminister Carter dürfte deshalb so hervorkehren, dass autonome Robotersysteme nicht selbständig über das Töten von Menschen bzw. den Einsatz letaler Waffen entscheiden sollen, sondern immer ein Mensch "in the loop" sitzt, weil das Pentagon mit Nachdruck und viel Geld die Entwicklung autonomer Systeme vorantreibt (Pentagon drängt auf Entwicklung und Einführung autonomer Systeme [3]). Sie versprechen, in realen und virtuellen Konflikten einen Vorteil zu bieten, weil sie schneller und präziser sind als Menschen. Daher setzt man zunächst darauf, autonome Systeme mit Mensch-Maschine-Schnittstellen zu schaffen. Das sind letztlich Mensch-Maschine-Systeme, Cyborg- oder Zentaur-Systeme, in denen Menschen ein Teil sind, aber sie übernehmen nur die Aufgaben, die die Maschinen noch nicht ausführen können.

Today, we have the finest fighting force the world has ever known. There’s no other military that’s stronger, more capable, more experienced, or frankly, more innovative. That’s why our military edge is second-to-none. And it’s a fact every American ought to be proud of. But it's also a fact that our military's excellence isn’t a birthright. It's not guaranteed.

Ash Carter

Aber man darf sich nicht vorstellen, dass autonome Kampfsysteme so aussehen müssen, wie man sich Roboter vorstellt. Virtuell sind es einfach Programme, als Waffe kann ein autonomes System auch eine Rakete, bestückt mit Sensoren und Rechner, sein. Wie ein Bericht vom Future of Life Institute kürzlich herausstellte, wird die Entwicklung von autonomen Kampfsystemen vor allem bei Raketen vorangetrieben, bei denen die wichtigsten Fähigkeiten die Zielfindung und die Abschusskontrolle sind. Die meisten der existierenden oder in der Entwicklung befindlichen Systeme können erst nach Abschuss den Weg zu ihren vorgesehenen Zielen finden.

Töten Menschen irgendwie humaner, verantwortlicher, besser als Maschinen? Bild: DoD

Neben der autonomen Wegfindung geht es um die Erkennung und Auswahl von Zielen und letztlich um die die Fähigkeit, Ziele zu setzen und zu verändern, was beinhaltet, gewisse Entscheidungen treffen zu müssen. Sonderlich intelligent im emphatischen Sinne müssen diese Systeme nicht sein. Und natürlich zielt die Entwicklung darauf, Menschen durch Maschinen im Krieg zu ersetzen (Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung [4]). Kürzlich schrieb [5] die New York Times: "Das Verteidigungsministerium hat Roboter-Kampfjets entwickelt, die in den Kampf zusammen mit bemannten Flugzeugen fliegen. Es hat Raketen getestet, die entscheiden können, was sie angreifen, und es hat Schiffe gebaut, die feindliche U-Boote ohne jede Hilfe von Menschen jagen und diese über Tausende von Meilen verfolgen können."

Es dürfte nicht abwegig zu sein, Carter die Absicht zu unterstellen, die vom Pentagon betriebene Aufrüstung in Richtung autonomer Systeme zu verharmlosen. Allein schon die für viele Bereiche angestrebte Möglichkeit, die auch Carter anspricht, autonome Systeme in größerer Anzahl in Schwärmen agieren zu lassen, würde die Kontrolle durch Menschen weit übersteigen und muss auf autonomen Prozessen basieren, die nur noch im Groben gelenkt werden.

Carter aber bleibt dabei: "Wenn es dazu kommt, Autonomie in unseren Waffensystemen einzusetzen, muss immer ein Mensch da sein, der über die Anwendung der Waffen entscheidet." Wollte man diese Argumentation auf den Einsatz autonomer Fahrzeuge auf Straßen umsetzen - die zudem letztlich bei Unfällen auch als Waffen wirken oder direkt so eingesetzt werden können -, dann müsste man auch sagen, dass immer ein Mensch die letzte Entscheidung treffen muss, also das Lenkrad oder die Bremse betätigen muss.

Allerdings werden autonome Fahrzeuge vor allem deswegen propagiert, weil sie doch viel sicherer seien und die Menschen, die für den Großteil der Unfälle verantwortlich sind, ersetzen sollen. Demgemäß könnte ein Krieg mit autonomen Waffensystemen auch sicherer sein, weil präziser und emotionsloser. Und man könnte sich einen Krieg vorstellen, in dem die autonomen Kampfsysteme wie früher die Soldaten oder Ritter gegeneinander kämpfen und Sieg und Niederlage aushandeln, während die Zivilbevölkerung mit ihrer Wetware verschont und Zuschauer bliebe. Aber natürlich ist das nur ein unrealistischer Traum, die autonomen Kampfsysteme werden wie jetzt schon die ferngesteuerten Drohnen menschliche Gegner jagen und töten.

Carter sprach [6] übrigens auf einer Veranstaltung des Center for Strategic and International Studies über die "Third Offset Strategy" und die Empfehlungen, die das von ihm berufene Defense Innovation Board (DIB) dem Pentagon gegeben hat. Dem gehören Eric Schmidt (Google), Jeff Bezos (Amazon), Reid Hoffman (Linkedln), Jennifer Pahlka (Code for America), Astrophysiker Neil deGrasse Tyson, Mike McQuade (United Teechnologies) und der Bill McRaven, der Kanzler der University of Texas, früher Marinegeneral und Kommandeur der US-Spezialeinheiten, an.


URL dieses Artikels:
https://www.heise.de/-3453968

Links in diesem Artikel:
[1] https://www.heise.de/tp/features/US-Verteidigungsminister-Niemals-volle-Autonomie-fuer-Kampfroboter-3336688.html
[2] http://www.mcclatchydc.com/news/nation-world/national/national-security/article111052842.html#storylink=mainstage
[3] https://www.heise.de/tp/features/Pentagon-draengt-auf-Entwicklung-und-Einfuehrung-autonomer-Systeme-3305565.html
[4] https://www.heise.de/tp/features/Autonome-militaerische-Systeme-ersetzen-zunehmend-menschliche-Entscheidung-3340024.html
[5] http://www.nytimes.com/2016/10/26/us/pentagon-artificial-intelligence-terminator.html
[6] http://www.defense.gov/News/Article/Article/989582/carter-to-implement-3-recommendations-from-defense-innovation-board