US-Soldaten schätzen autonome Roboter nicht
Der Defense Science Board gibt Ratschläge, wie sich Akzeptanz, Entwicklung und Einsatz von autonomen Roboter beschleunigen ließe
Seit 2002, kurz nach dem Beginn des Afghanistankrieges und des von der damaligen US-Regierung ausgerufenen Globalen Kriegs gegen den Terror (GWOT), haben die USA bewaffnete Drohnen eingesetzt, um gezielt mutmaßliche Terroristen zu jagen und aus der Ferne zu töten. Vor und während des Irak-Krieges war viel die Rede davon, die Drohnen durch Kampfroboter auf dem Boden zu ergänzen, vorangetrieben wurde auch die Konzeptionierung und Entwicklung von autonomen Robotern. Während vor allem unter Barack Obama der Einsatz von Kampfdrohnen in Pakistan, Somalia, im Jemen oder auch in Libyen erweitert wurde und man schon vom "Drohnenkrieg" spricht, scheint das Pentagon mit Kampfrobotern vor allem auf dem Land Bedenken zu haben (Aufgrund von "friendly fire" wurden Kampfroboter wieder aus dem Irak abgezogen).
Die Berater des Pentagon vom Defense Science Board empfehlen die beschleunigte Entwicklung und den Einsatz von Robotern, die auch eigenständig handeln können und nicht nur ferngesteuert werden, und sie haben sich gewundert, welche Gründe es geben könnte, warum man hier nicht vorankommt, würde doch wie schon bei den ferngesteuerten Drohnen das Leben von US-Soldaten geschont, während man den Gegner weiterhin überwachen, verfolgen und vernichten kann. Um das näher zu wissen, wurde ein Bericht über die "Rolle der Autonomie" in militärischen Systemen mit Empfehlungen für die schnellere Entwicklung in Auftrag gegeben, der im Juli fertiggestellt und vor kurzem von Steve Aftergood auf der Website der Federation of American Scientists der Öffentlichkeit zugänglich gemacht wurde. Das Hauptergebnis dürfte sein, dass die Menschen, die mit unbemannten Systemen umgehen, diesen nicht wirklich vertrauen. Das Potenzial autonomer Systeme sei "groß", aber es habe bei der Einführung "viele Hindernisse für eine breite Akzeptanz" gegeben
Trotzdem seien unbemannte Systeme für die Pentagonziele weltweit wichtig und hätten einen "positiven Einfluss" auf sie, so der DSB-Vorsitzende Paul Kaminski. Der wahre Wert bestünde aber nicht in der direkten Ersetzung von Menschen, sondern zur Erweiterung und Vervollständigung der menschlichen Kapazitäten. Unbemannte Systeme würden im Prinzip "unbegrenzt verfügbare" Einsatzmittel sein, die für das eigene Personal die Aussetzung an Gefahren und im richtigen Design die bislang für das Bedienungspersonal "hohe kognitive Belastung" reduzieren. Die aber wurde von den Soldaten, die mit unbemannten Systemen zu tun hatten, moniert.
Im Bericht wird festgehalten, dass man die Roboter in der Regel nur nach Maßgabe von drängenden Konflikten im Krieg eingesetzt habe. Dabei habe man zu wenig auf Unterstützung, Ausbildung, Ressourcen und Einsatzregeln geachtet. Das habe zusammen mit dem Misstrauen, ob die Systeme wirklich so funktionieren, wie sie sollen, zu "systemischen Barrieren" geführt. Das Problem von autonomen (Kampf)Robotern liegt danach also weniger primär auf der technischen Seite, sondern eher auf der Seite der Menschen, die sie einsetzen oder die sich auf sie verlassen müssen, also auch auf dem Bereich der Zusammenarbeit von Mensch und Maschine, um die man sich kaum gekümmert habe. Soldaten sind da nicht anders wie die Mehrzahl der Menschen, die größere Bedenken haben, sich einem automatisch gesteuerten Fahr- oder Flugzeug anzuvertrauen, als einem fremden Menschen.
Die skeptische Haltung rühre auch daher, dass der Begriff Autonomie für Vorstellungen sorgt, die die Realität treffen. Autonomie, so will man es sehen, ist eine Möglichkeit, eine bestimmte Aktion innerhalb bestimmter Grenzen automatisch auszuführen. In Medien und in höheren Militärkreisen würde man hingegen darüber sprechen, dass Computer unabhängig Entscheidungen treffen und Handlungen ausführen. Diese Vorstellungen und Ängste seien weit entfernt von der Wirklichkeit entfernt, würden aber die Akzeptanz erschweren: "Es müsste klar gestellt werden, dass alle autonomen Systeme von Menschen ab einer bestimmten Ebene überwacht werden und dass die Software der autonomen Systemen die gestalteten Begrenzungen der an den Computer delegierten Aktionen und Entscheidungen verkörpert." So gesehen, will man natürlich die heikle Diskussion vor allem umgehen, wie autonome Kampfroboter entscheiden sollen, ob sie einen mutmaßlichen Gegner angreifen und töten.
Um die Entwicklung von autonomen Systemen voranzutreiben, wird u.a. empfohlen, Hardware und Software zu trennen. Die Software solle dem Pentagon gehören und eine offene Architektur besitzen, so dass auch andere Unternehmen und die Behörden selbst Veränderungen, Verbesserungen und Weiterentwicklungen machen können. Bislang würden Hardware und proprietäre Software meist zusammen geliefert, was die Weiterentwicklung behindere. Ganz allgemein müsse die Entwicklung von autonomen Systemen gefördert werden, z.B. sollten sie auch in Kriegsspielen zum Training integriert werden. Es müsse mehr mit unbemannten Systemen trainiert werden und die Erfahrungen sollten systematisch in die Weiterentwicklung einfließen.
Es wird aber auch darauf hingewiesen, dass derzeit viele Staaten begierig unbemannte Systeme kaufen oder entwickeln lassen, dass es aber zu einem Rückschritt kommen könne, wenn sie Gegnern in die Hände fallen, die es mit Einsatzregeln nicht so ernst nehmen und Kollateralschaden in Kauf nehmen. Insbesondere könnten kleinere Drohnen, die verdeckt vom Boden aus gestartet werden, Probleme mit sich bringen, da sie nur schwer bekämpfbar seien, selbst wenn die USA absolute Lufthoheit besitzt. Gegner könnten diese zur Aufklärung vor Angriffen oder zu "Störungen auf dem Schlachtfeld" einsetzen, denkbar seien auch "asymmetrische Angriffe" auf das Territorium der USA. Obgleich diese Bedrohung sehr wahrscheinlich sei, habe man sich erstaunlich wenig mit der Bekämpfung von unbemannten und autonomen Systemen beschäftigt. Sie könnten die nächste Überraschung werden, obgleich man von ihr hätte wissen können. Überhaupt habe man sich bislang, verwöhnt durch Kämpfe in relativ harmlosen Schauplätzen, zu wenig um den Schutz der eigenen unbemannten Systeme vor Abschuss, Jamming oder Hacken gekümmert.
Drohnen werden auch in Zukunft eine wichtige Rolle spielen, schon jetzt gebe es durch autonome Abläufe wie beim Landen und Starten große Erleichterungen. Die größte Schwierigkeit sei hier, die unbemannten Flugzeuge mit ausreichend Personal auszustatten. So sind für eine Global Hawk 300 Mann Personal notwendig, allein schon 100 zur Auswertung der gesammelten Informationen, ein Predator benötigt 186 Mann. Auch unbekannte U-Boote würden wichtig bleiben.
Schwieriger wird die Entwicklung von Bodensystemen beurteilt. Sie werden vom Pentagon vorwiegend für die Erkennung und Entschärfung von Minen eingesetzt, seltener für die Aufklärung. Problematisch ist hier die Fortbewegung, also die Vermeidung oder Überwindung von Hindernissen, was nicht nur von den mechanischen Systemen abhänge, sondern in hohem Maße auch von Fähigkeiten der Mustererkennung und Problemlösung, die zumindest von kognitiven autonomen Systemen zur Entlastung der Steuerung durch Menschen übernommen werden sollte. Kritisiert wird zudem die Roadmap des Pentagon, die Landroboter lediglich zur Aufklärung oder Gefahrenbeseitigung vorsieht, aber sich keine Gedanken macht, wie sich tödliche Kampfroboter der Gegner bekämpfen ließen. Vom Einsatz von Kampfrobotern spricht man im Bericht nicht. Hier scheinen die Widerstände besonders groß zu sein, denn es wurden bereits in den Irak erste fernsteuerbare Kampfroboter gebracht, die aber nie verwendet wurden.