"Drohnenkrieg hat tausende zivile Opfer gefordert"

Drohnenangriff, künstlerische Darstellung. Bild: TayebMEZAHDIA, Pixabay

Jakob Foerster und Christian Schröder de Witt über autonome Waffensysteme, atomare Drohnenschwärme und die FDP

Sie haben die möglichen künftigen Koalitionsparteien – SPD, Grüne und FDP – diese Woche in einem offenen Brief aufgefordert, von einem bewaffneten Drohnenprogramm Abstand zu nehmen. Wollen Sie deutschen Soldaten zusätzlichen Schutz verwehren?
Jakob Foerster: Der Schutz der Soldaten ist ein vorgeschobenes Argument. Bewaffnete Drohnen sind der nächste Schritt zur technologischen Hochrüstung mit zunehmend autonomen Waffen, verbunden mit Konsequenzen und Gefahren, die gegenüber der Öffentlichkeit verschwiegen und verharmlost werden.
Wir weisen in unserem Brief darauf hin: Die Künstliche Intelligenz entwickelt sich rasant, in Libyen gab es, so vermutet die UN, den ersten vollautonomen Angriff auf einen Menschen durch eine bewaffnete Drohne.
Diese Entwicklung kann nur gestoppt werden, wenn die Verbreitung von bewaffneten Drohnen, von der Hardware gestoppt wird, und zwar so schnell wie möglich. Denn grundsätzlich kann jede dieser Waffen künftig durch ein einfaches Software-Update in eine vollautonome Waffe umgewandelt werden.
Die noch im Amt befindliche Bundesregierung behauptet, sie sei gegen solche autonomen Waffen, real treibt sie ihre Entwicklung voran. Das "Future Combat Air System" wird schon jetzt zusammen mit Frankreich und Spanien entwickelt, dieses Waffensystem soll auf Künstlicher Intelligenz basieren, auf bewaffneten, weitgehend autonomen Drohnenschwärmen und ist als atomar bewaffnungsfähig geplant.
Christian Schröder de Witt: Gewalt ruft immer auch Gegengewalt hervor. Gerade der US-Drohnenkrieg in Afghanistan zeigt diese Spirale der Gewalt auf erschreckende Weise. Der angebliche Schutz der Soldaten wird oft ins Feld geführt, um diese Entwicklung öffentlich zu rechtfertigen. So einfach ist es aber nicht.
Weshalb tragen bewaffnete Drohnen Ihrer Ansicht nach nicht zum Schutz von Menschen bei?
Christian Schröder de Witt: Wir warnen als Wissenschaftler davor, technologischen Fortschritt bei offensiven Waffen wie Drohnen mit einer Humanisierung der Kriegsführung und dem Schutz von Menschen zu verwechseln.
Der Afghanistankrieg hat dies gerade auf tragische Weise belegt: Gerade der Drohnenkrieg hat tausende zivile Opfer gefordert. Nicht nur die Stimmen aus der Künstlichen Intelligenz, sondern auch die Stimmen von Menschen aus der Region, von Whistleblowern aus dem Drohnenprogramm und Journalisten vor Ort werden nach unserer Beobachtung zu wenig gehört.
Als Forscher der KI sehen wir zudem aufgrund unserer wissenschaftlichen Expertise, dass bewaffnete Drohnen aufgrund der technologischen Entwicklung der Autonomie der Kriegsführung immer näherkommen werden - dies liegt in der Logik des Rüstungswettlaufs und in mangelnden Möglichkeiten internationaler Kontrolle begründet. Ob eine Drohne bewaffnet ist oder nicht, lässt sich einfach feststellen.
Wie viele dieser Waffen schon heute mit teilautonomen Fähigkeiten ausgestattet sind, weiß vermutlich niemand – wie kann man da kontrollieren, welche Algorithmen bei einem Angriff eingesetzt worden sind?
Jakob Foerster: Wir haben in unserem Brief darauf hingewiesen: Solche Waffen würden die Möglichkeit globaler Überwachung und Tötungen als potenzielle Gefahr definierter Menschen in ungekanntem Ausmaß verstärken und die Kontrolle über die Elimination dieser Menschen zunehmend menschlichem Einfluss entziehen. Die zunehmende Automatisierung von bewaffneten Drohnen verschärft gleichzeitig die Gefahr einer militärischen Konfrontation zwischen Staaten, die mit solchen Waffen ausgerüstet sind.
Die Mittel, um Menschen zu schützen, liegen dagegen auf der Hand: Schon ein Bruchteil der Mittel, die in die Entwicklung immer gefährlicherer Waffen fließt, würde reichen, um den wachsenden Hunger auf dieser Welt zu beenden.

Keine hinreichende Überwachung autonomer Drohnenangriffe

Werden die Folgen von Drohnen-Angriffen überhaupt hinreichend erfasst? Wäre das nicht ein erster Schritt?
Jakob Foerster: Es gibt eine Reihe von staatlichen Institutionen, wie auch zivilgesellschaftlichen Initiativen, welche die Folgen von Drohnenangriffen auch dokumentieren – zumeist geschieht dies im Kontext allgemeiner Konfliktüberwachungen. Zum Beispiel hat das UN-Experten-Panel für Libyen einen möglichen autonomen Drohnen-Angriff in Libyen dokumentiert, Amnesty International hat den US-amerikanischen Drohnenkrieg eingehend untersucht.
Jedoch existieren nach unseren Erkenntnissen derzeit keine dedizierten Überwachungsstellen für autonome Drohnenangriffe. Solche zu etablieren und mit genügend Ressourcen und qualifiziertem Personal auszustatten, wäre sicherlich hilfreich, allerdings ist es technisch prinzipiell unmöglich, von außen zwischen autonomen und nicht- oder teilautonomen Vorgängen zu unterscheiden. Die bereits bekannten Fakten rund um das Thema sind zudem ausreichend, um eine nachdrückliche Empfehlung gegen bewaffnete Drohnen auszusprechen.
Sind Sie auch gegen ein unbewaffnetes Drohnenprogramm?
Christian Schröder de Witt: Über den Einsatz von unbewaffneten Drohnen zu Überwachungs- oder Aufklärungszwecken haben wir nicht eingehend debattiert, darum geht es ja auch in der aktuellen öffentlichen Debatte nicht.
Derzeit hat sich hauptsächlich die FDP-Politikerin Marie-Agnes Strack-Zimmermann für bewaffnete Drohnen ausgesprochen, bei SPD und Grünen gibt es Bedenken. Woher dann Ihre Unruhe?
Jakob Foerster: Koalitionsverhandlungen erfordern Kompromisse zwischen Bündnispartnern. Solange wir nicht schwarz auf weiß wissen, dass es keine faulen Kompromisse zulasten des Friedens und der Menschenrechte gibt, werden wir sicher nicht ruhig schlafen können.
Erlauben Sie mir hier eine Anmerkung zur FDP, die ständig mit dem Schutz der Soldaten argumentiert. Auch die FDP sollte das Grundgesetz ernst nehmen. Dort heißt es: Die Würde des Menschen ist unantastbar und jede Diskriminierung wird untersagt. Das ist mit bewaffneten Drohnen nicht vereinbar, die fast ausschließlich People of Colour in armen Ländern, in ihrer großen Mehrheit Zivilisten, treffen.

Drohenbewaffnung: der Bundestag entscheidet

Inwieweit ist diese Frage überhaupt eine deutsche Frage – oder, anders formuliert: Wird dies Entscheidung über Kampfdrohnen nicht auf europäischer Ebene getroffen?
Christian Schröder de Witt: Über die Bewaffnung von Drohnen für die Bundeswehr entscheidet letztlich der Deutsche Bundestag, nicht die EU – es wäre auch, vorsichtig gesagt, befremdlich, könnte die EU den einzelnen Staaten die Hochrüstung mit bewaffneten Drohnen unter Umgehung der nationalen Parlamente vorschreiben.
Deshalb ist es übrigens so problematisch, dass auf europäischer Ebene mit der Euro-Drohne und dem Future-Combat-Air-System (FCAS) Projekte vorangetrieben werden, die bewaffnete, auf Künstlicher Intelligenz basierende und weitgehend autonome Drohnen vorsehen - ohne, dass eine Entscheidung über die Bewaffnung von Drohnen für die Bundeswehr gefallen wäre.
Diese Projekte müssen unseres Erachtens sofort gestoppt werden, sie gefährden die internationale Stabilität und den Weltfrieden. Wir sprechen uns daher für die Ächtung von autonomen Waffen unter Einbeziehung bewaffneter Drohnen aus und fordern die Bundesregierung auf, endlich Initiative in diese Richtung zu ergreifen. Noch kann Deutschland hier seiner internationalen Verantwortung als Vorreiter gerecht werden.
Wer würde diese neuen Waffen ächten und welche juristischen Auswirkungen hätte so ein Schritt?
Christian Schröder de Witt: Das Paradebeispiel für erfolgreiche Ächtung und Regulierung sind Landminen und chemische Waffen. Im Endeffekt geht es immer um Konsensus und Normenfindung in der internationalen Staatengemeinschaft. Allerdings brauchen wir Länder, die diesen Prozess vorantreiben, anstatt das Wettrüsten weiter anzufachen.
Unterzeichnet wurde Ihr Appell von Forscherinnen und Forschern deutscher und österreichischer Universitäten sowie der Universität Oxford und des University College London. Wie verläuft die Debatte in der Wissenschaft?
Christian Schröder de Witt: Leider verläuft die Debatte bei Weitem nicht so aktiv, wie sie sein könnte. Noch immer halten viele Wissenschaftler es nicht für notwendig, sich mit den direkten und indirekten Folgen ihrer Arbeit auseinanderzusetzen.
Immerhin gibt es auf internationaler Ebene es schon seit längerer Zeit eine Debatte bzgl. dem Bann von autonomen Waffen. Die enge Verknüpfung dieser Debatte an die Bewaffnung von ferngesteuerten Drohnen ist erst in dem letzten Jahr geschehen.
Inwieweit ist die Finanzierung der KI-Forschung durch Staat und Rüstungsunternehmen ein Problem für die freie Entscheidungsfindung?
Jakob Foerster: Die Tatsache, dass wir in kurzer Zeit relativ viele Unterzeichner aus dem Gebiet der KI gefunden haben, ist sehr ermutigend. Natürlich ist es unmöglich zu wissen, wie viele gerne unterzeichnet hätten, aber sich aufgrund von finanziellen Abhängigkeiten dagegen entschieden haben. Die Frage, wie man Forschung von militärischen Interessen schützen kann, geht weit über das Gebiet der KI hinaus, aber wird hier sehr gut veranschaulicht.
Eine Besonderheit der KI ist es, dass hier die großen Technologiekonzerne fast komplette Kontrolle über die Forschung ausüben.
Welche Reaktionen haben Sie auf Ihren Brief erhalten?
Jakob Foerster: Wir haben sehr viele positive Reaktionen aus der Forschungsgemeinschaft erhalten. Viele unserer Kolleginnen und Kollegen halten den Brief für eine wichtige Initiative, und unterstützen den Appell an die Vertreterinnen und Vertreter der Parteien im Bundestag, die Bewaffnung von Drohnen zu stoppen.

Dr. Jakob Foerster ist designierter Assistant Professor der University Oxford, und Experte für Computer Science, maschinelles Lernen sowie Lernen in Multi-Agenten-Systemen. Foerster hat den hier dokumentierten Appell zuvor als offenen Brief an die SPD lanciert. Der Verfasser ist erreichbar unter: jakob.foerster@eng.ox.ac.uk.

Christian Schröder de Witt ist Technical and Outreach Officer bei der Oxford Drone Society. Er ist zudem angehender Postdoctoral Researcher bei Jakob Foerster. Seine Doktorarbeit an der Universität Oxford befasste sich zum Teil mit Dezentraler Steuerung mittels Deep Multi-Agent Reinforcement Learning und wurde u. a. vom UAS Drone Center der SDU (Odense, Dänemark) gefördert.