Autonome Kampfroboter: Wettrennen zwischen Ingenieuren und Diplomaten
Um die Entwicklung autonomer Killerroboter zu verhindern, bleibt nicht mehr viel Zeit
Vor eineinhalb Jahren erklärte die Bundesverteidigungsministerin Ursula von der Leyen, sich für eine "völkerrechtliche Ächtung autonomer Waffensysteme" einsetzen zu wollen. Ihr sei sehr daran gelegen, dass "es immer ein Mensch ist, der darüber entscheidet, ob eine Waffe ausgelöst wird oder nicht", sagt die Ministerin am 2. Juli 2014 in einer Aktuellen Stunde des Bundestages.
Zur gleichen Zeit arbeiten allerdings tausende Wissenschaftler in aller Welt mit großer Energie daran, die Intelligenz von Robotern zu steigern. Wenn Maschinen zukünftig mehr und mehr komplexe Aufgaben übernehmen sollen, etwa Fahrzeuge sicher durch den Verkehr zu steuern, Pflegebedürftige zu betreuen oder im engen Kontakt mit Menschen in Werkstätten zu arbeiten, geht es nicht ohne wachsende Autonomie. Wie soll diese wachsende Intelligenz auf Dauer von Waffen tragenden Robotern ferngehalten werden? Vor allem: Wann soll das geschehen?
Vonseiten der Wissenschaft gibt es dringende Mahnungen, die Entwicklung hin zu selbstständig agierenden Kampfrobotern ernst zu nehmen und rechtzeitig Maßnahmen dagegen zu treffen. Ein Offener Brief, der ein Verbot autonomer Waffen fordert, wurde Ende Juli 2015 zur Eröffnung der bedeutendsten Konferenz zu künstlicher Intelligenz vorgestellt und mittlerweile von über 3.000 Robotikforschern sowie mehr als 17.000 anderen Personen unterzeichnet, darunter namhafte Vertreter von Firmen, die mit der Technologie ebenfalls vertraut sind wie Steve Wozniak (Apple), Elon Musk (SpaceX) oder Jaan Tallinn (Skype). Sie alle warnen: "Die Technologie künstlicher Intelligenz hat einen Punkt erreicht, der den Einsatz solcher Systeme innerhalb von Jahren möglich macht, nicht erst in Jahrzehnten."
Diese Aussage wurde jetzt von anderer Seite noch einmal bestätigt. Brigadegeneral Nir Halamish von der israelischen Militärforschungsbehörde MAFAT erklärte vergangenen Monat, den militärischen Einsatz von Robotern in den kommenden fünf Jahren massiv ausbauen zu wollen, unter anderem durch unbemannte, bewaffnete Landfahrzeuge, die als Vorhut dienen sollen. Elad Aronson vom Rüstungskonzern Elbit Systems sagte dazu: "Wir werden viele neue Plattformen sehen, die in allen Dimensionen zum Einsatz kommen: auf See, unter Wasser, auf dem Boden, im Untergrund, in der Luft und im Weltraum. Entscheidend ist es, die Systeme dahin zu bringen, dass sie 90 Prozent der Arbeit autonom ausführen."
Wenn zu diesen 90 Prozent autonom ausgeführter Arbeiten nicht das Auslösen von Waffen zählen soll, ist es also höchste Zeit etwas dagegen zu unternehmen. Das Fenster zur Verabschiedung eines internationalen Abkommens gegen autonome Waffensysteme steht nicht mehr lange offen.
Ein Sprecher des Auswärtigen Amts, das bei der Bundesregierung für Rüstungskontrolle zuständig ist, verwies auf Nachfrage nach dem Stand der von der Verteidigungsministerin angekündigten Initiative auf das UN-Waffenübereinkommen (Convention on Certain Conventional Weapons - CCW). In dessen Rahmen sei im Mai 2014 in Genf eine erste informelle Arbeitsgruppe unter französischem Vorsitz zusammengekommen, um "das Thema der Letalen Autonomen Waffensysteme (LAWS)" zu beraten. Diese Arbeitsgruppe hat Deutschland, so der Sprecher, "durch die Entsendung nationaler Experten und die Übernahme des Co-Vorsitzes maßgeblich unterstützt, die zweite Sitzung vom 13. bis 17. April 2015 fand dann unter deutschem Vorsitz statt und erstellte erstmals einen substantiellen Bericht zu LAWS, der die unterschiedlichen Aspekte und Fragestellungen betrachtet (u.a. der definitorischen, technischen, völkerrechtlichen, militärischen, menschenrechtlichen und ethischen) und eine umfassende Basis für die weitere Behandlung des Themas bietet".
Die Beratungen sollen im kommenden Frühjahr, voraussichtlich von 11. bis 15. April, im Rahmen einer weiteren Expertengruppe fortgesetzt werden. "Dieses Treffen, das wiederum unter deutschem Vorsitz stattfinden wird, hat dabei die Aufgabe, für die Überprüfungskonferenz des UN-Waffenübereinkommens, die im Dezember 2016 stattfindet, Konsensempfehlungen für die weitere Behandlung des Themas zu erarbeiten."
Nach Einschätzung von Beteiligten hätten die bisherigen Diskussionen in Genf gezeigt, "dass es breite Übereinstimmung darüber gibt, dass der Mensch die Kontrolle über Entscheidungen zur gegen Menschen gerichteten Gewaltanwendung behalten muss. Die zunehmend im Detail geführte Debatte wirft aber immer wieder definitorische Fragen auf, zu denen unterschiedliche Positionen bestehen und zu denen auch in der Wissenschaft noch keine klaren Antworten existieren. Da letale autonome Waffensysteme bislang nicht existieren und nach dem derzeitigen Forschungsstand zu Autonomie ein Einsatz im Einklang mit dem humanitären Völkerrecht nicht möglich ist, stehen im Moment Fragen der Transparenz und Vertrauensbildung im Mittelpunkt, um mögliche Grenzüberschreitungen im Blick zu haben."
Die Aussage, dass letale autonome Waffensysteme noch nicht existierten, ist allerdings nicht ganz korrekt: Das von der UN-Arbeitsgruppe erstellte Dokument verweist selbst (auf Seite 9) auf "seit Jahrzehnten" eingesetzte Waffen mit unterschiedlichen Graden von Autonomie bis hin zur "automatischen Auswahl und Bekämpfung der Ziele" in der Flugabwehr. Auch sonst fasst es die wesentlichen Überlegungen zum Thema in 80 Paragraphen kompakt zusammen und bietet in der Tat eine gute Arbeitsgrundlage. Die Frage ist, wie schnell die "Vertrauensbildung" gelingt.
Denn die Technologie für autonome Kampfroboter ist da. Es geht nur noch darum, sie zu optimieren. Insbesondere die Paarung von Mobilität und Intelligenz wird in den kommenden Jahren viele neue Einsatzfelder erschließen.
Letztlich läuft es also auf ein Wettrennen hinaus, bei dem Ingenieure gegen Diplomaten antreten: Geht als erster der Terminator durchs Ziel - oder das Abkommen das seine Entwicklung verhindert? Noch ist das Rennen offen, aber die Ingenieure und Informatiker drücken ganz schön aufs Tempo.
Die Diplomaten sind aber auch nicht auf den Kopf gefallen. Eine ihrer Empfehlungen lautet, die Debatte auszuweiten, weitere Foren einzurichten und die Zivilgesellschaft einzubeziehen. Sie brauchen Unterstützung, wollen angefeuert werden. Das müsste doch zu machen sein.