Militärroboter
Die Kriege der Zukunft werden von Maschinen bestimmt - Trends 2014
Während der Konsument Roboter wünscht, die ihm die Hausarbeit erleichtern, haben die Militär- bzw. Kampfroboter die Schlachtfelder der Welt bereits erobert und hier die Spielregeln der Kriegsführung völlig neu definiert. Die Kriege der Zukunft werden definitiv von Maschinen bestimmt werden, einzig der Grad der Autonomie bleibt die entscheidende Frage.
Militär bzw. Kampfroboter sind autonome, halb-autonome oder ferngelenkte Systeme, die der Zielbekämpfung Beobachtung, Aufklärung, Spionage, Minenräumung oder Wachaufgaben eingesetzt werden. In den letzten Jahren wurden immer mehr Kampfdrohnen eingesetzt und aktuelle Kriege wie die gegen ISIS scheinen den Amerikanern willkommen zu sein, um ihre jeweils neuesten Warbot-Technologien zu testen.
Drohnen, die gezielt Raketen auf Bodenziele abschießen oder Aufklärungsbilder machen, sind allerdings keine intelligenten Systeme, da sie von Menschen gesteuert werden. Die ultimative Vision der Militärs sind vollautonome Kampfroboter, die ein Bewusstsein haben. Diese würde jedoch erhebliche Gefahren bergen, insbesondere wenn sich derartige Maschinen (siehe auch den Film, "I, Robot") selbst replizieren. Sie könnten in der Lage sein, die Menschheit innerhalb von Jahren oder sogar Monaten auszurotten.
Zur Geschichte
Als Vorläufer der militärischen Roboter gelten so genannte ferngelenkte Waffen. Einer der ersten Einsätze einer solchen Waffe fand am 22. August 1849 bei der Bombardierung Venedigs durch die österreichische Armee statt. Es handelte sich dabei um einen unbemannten, mit Sprengstoff beladenen Ballon, der durch Zeitzünder ausgelöst wurde.
Nikola Tesla stellt 1898 stellte auf der Electrical Exhibition in New York City einen funkgesteuerten Torpedo vor, was die Entwicklung von ferngelenkten Waffen forcierte. Vor allem waren ab den 1930er Jahren ferngesteuerte Flugzeuge im Einsatz wie die Fairey IIIF floatplane der britischen Armee. Heute ist die RQ-11 Raven mit einer produzierten Stückzahl von über 8.000 Einheiten das verbreitetste unbemannte Luftfahrtgerät (sogenannte Micro UAV, was für unmanned aerial vehicle steht). Es wird sowohl von der amerikanischen auch von mehreren europäischen Armeen eingesetzt und kann einerseits ferngesteuert werden oder andererseits über GPS-Koordinaten autonom ein Gebiet überwachen.
In der Luft setzt die USA als weitere unbemannte Flugzeuge UAVs wie Predator oder Reaper ein, die mit Hellfire-Raketen bewaffnet Luftangriffe durchführen. Die größte Drohne im Einsatz ist Global Hawk, ein unbemanntes autonomes Aufklärungsflugzeug, das zu tausenden Kilometer entfernten Einsatzorten fliegt, dort 24 Stunden kreist und zum Stützpunkt zurückkehrt. Im Irak und in Afghanistan kam RQ-7 Shadow in über 37.000 Einsatzflügen zum Einsatz. Hierbei handelt es sich um ein sogenanntes so genanntes "Battlefield System", das aus vier Flugzeugen und Kontrollstation sowie Bodenpersonal besteht und deren Aufgabe in einer permanenten Aufklärung und Überwachung eines bestimmten Gebietes besteht. Weitere Systeme sind Bodensysteme wie der Packbot des Herstellers iRobot, der Sprengsätze entschärfen kann, das Special Weapons Observation Reconnaissance Detection System (SWORDS), ein Roboter, der mit einem Maschinengewehr bestückt ist und von Foster Miller entwickelt wurde, wurde bislang noch nicht eingesetzt.
Menschen töten ungerne
Autonome Kampfroboter, die vollständig selbst entscheiden, ob auf einen Menschen geschossen wird oder nicht, werden von der britischen Initiative Landmine Action, die für eine Ächtung von Landminen und Streubomben eintritt, scharf kritisiert. Diese sollten international geächtet werden, da die Entscheidung in einer Kampfhandlung über die Tötung eines Menschen niemals von einer Maschine automatisiert getroffen werden sollte.
Der Militärpsychologe Dave Grossman hat sich in seinem Buch "On Killing" mit der Psychologie des Tötens befasst. Da der Mensch eine innere Tötungshemmung habe, hätte z.B. im Vietnamkrieg eine Mehrheit der Soldaten ihre Waffe nie auf einen feindlichen Soldaten gerichtet. Er erklärt, wie moderne Armeen versuchen, die "firing rate" ihrer Soldaten zu erhöhen, also ihre Tötungshemmung abzubauen. Möglicgerweise tragen heutige Computerspiele dazu bei, dieses Ziel zu erreichen.
Ausgangspunkt von Grossmans Buch ist eine Studie aus dem 2. Weltkrieg von Brigadegeneral S.L.A. Marshall, bei der man herausfand, dass in einem Gefecht nur 15-20% der Soldaten auf den Feind schießen. Umso gefährlicher ist es, wenn diese Urinstinkte in Killerspielen abtrainiert und Breivik-Monster herangezüchtet werden. Für Grossmann steht fest, Menschen wollen nicht töten, und deshalb sind die Militärs längst auf der Suche nach emotionslosen hocheffektiven Kampfmaschinen.
Während bisherige Technologien vom Schießpulver bis zur Atombombe nur verändert haben, wie Krieg geführt wird, können Roboter für den amerikanischen Politologen Peter W. Singer verändern, wer Krieg führt. Damit wird ein Krieg im 21. Jahrhundert von den Maschinen, wenn auch noch nicht bestimmt, aber doch mitbestimmt. Wenn Wahrnehmung mit Entscheidungsfindung gekoppelt wird, dann werden zukünftig Kampfroboter den Akt des Tötens übernehmen, vor dem der Mensch eine innere Abneigung hat. In seinem Buch "Wired for War" aus dem Jahr 2009 weist Singer darauf hin, dass das Töten durch Roboter völlig emotionslos wird.
Behalten wir die Kontrolle in der Matrix?
Das Hauptproblem von Militärrobotern ist, dass sich diese auch Terroristen leisten können. Bereits heute beteiligen sich an Kriegen nicht mehr nur Staaten, sondern immer mehr auch nichtstaatliche Organisationen, Söldner oder private Sicherheits- und Militärunternehmen. Seit den Kriegen der alten Griechen war Kriegsführung mit dem Risiko verbunden, nicht mehr lebend nach Hause zu kommen. Zumindest diejenigen, die nicht über Roboter verfügen, haben heute das gleiche Risiko, aber diejenigen, die aufrüsten, können mit einem Knopfdruck oder per Algorithmen Leben vernichten, ohne dass für den Ausführenden ein Überlebensrisiko besteht.
Heutige Drohnenpiloten erleben allerdings, obwohl sie nur virtuell am Kriegsschauplatz sind, den Krieg unmittelbarer als ein Bomberpilot, der seine tödliche Last über einem Zielgebiet abwirft. Doch gleich ob interaktive Mensch-Maschine-Systeme oder reine Roboter als Tötungsmaschinen, es stellt sich die Frage nach dem zukünftigen Moralkodex von Kriegen. Isaac Asimovs Robotergesetze scheinen wenig hilfreich zu sein, das Problem der Ethik in den Griff zu bekommen. Im Jahr 1942 veröffentlichte er in der Kurzgeschichte "Runaround" erstmals seine 3 Gesetze im Umgang mit Robotern:
1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss dem ihm von einem menschlichen Wesen gegebenen Befehlen gehorchen, es sei denn, dies würde das Erste Robotergesetz verletzen.
3. Ein Roboter muss seine Existenz schützen, es sei denn, dies würde das Erste oder Zweite Robotergesetz verletzen.
Im Krieg wird das erste Gesetz von Asimov schon gebrochen, denn es ist das Ziel der Roboter, Menschen zu töten. Und was ist, wenn ein Roboter in die Hände des Feindes gelangt? Muss er dann immer noch gehorchen, wenn das 1. Gesetz bereits von seinem ursprünglichen Besitzer gebrochen und er deshalb umprogrammiert wurde? Und was passiert, wenn ein Roboter seine Existenz schützt und sowohl den ursprünglichen Besitzer des Roboters als auch den Feind tötet und das Töten so außer Kontrolle gerät? Das Problem scheint zu sein, dass Asimovs Gesetze für Zeiten des Friedens geschrieben wurden, in Kriegszeiten jedoch zu einer Fiktion werden, die sich nicht aufrechterhalten lässt.
Roboter, die sich selbst schützen, können gegen die Menschen revoltieren und werden zu Terminatoren. In den Terminator-Filmen fürchtet Skynet, von den Menschen abgeschaltet zu werden, und entschließt sich, diese zuerst zu terminieren. Sind wir nicht längst in der Matrix der Mensch-Maschine-Systeme derart eingefangen, dass wir gar nicht bemerken, wie Ego-Shooterspiele und Kampfroboter uns und unser Leben verändern?