Liebe SPD-Abgeordnete, stoppen Sie das Töten mit Drohnen jetzt!

Durch die Bundeswehr geleaste Heron 1.Bild: DLR, CC-BY 3.0

Appell des KI-Experten Jakob Förster Appell gegen Kampfdrohnen. Gerichtet vor allem an die Sozialdemokratie in Bundestag und Regierung (Teil 1)

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Noch in diesem Jahr soll im Deutschen Bundestag eine Entscheidung über die Bewaffnung militärischer Drohnen der Bundeswehr gefällt werden. Als Forscher im Bereich der Grundlagenforschung zur künstlichen Intelligenz warne ich vor der Automatisierung des Krieges, die global mit dem Einsatz bewaffneter Drohnen forciert wird. Damit stehe ich nicht alleine: Vor den Gefahren einer Automatisierung der Kriegsführung warnen auch zahlreiche Kolleginnen und Kollegen, die im Bereich der künstlichen Intelligenz und des maschinellen Lernens forschen.

Nach meiner Kenntnis sieht auch die SPD diese Gefahren und will ihnen vorbeugen. Um dieses Ziel zu erreichen, muss diese problematische Entwicklung bereits jetzt, bevor es zu spät ist, gestoppt und umgekehrt werden: Um das Töten von Menschen ohne menschliche Entscheidung aufgrund von Algorithmen langfristig zu verhindern, müssen schon jetzt Kampfdrohnen abgerüstet und global geächtet werden.

Ich schreibe nicht nur als Grundlagenforscher im maschinellen Lernen und künstlicher Intelligenz, sondern insbesondere als Spezialist für Lernen in Multi-Agent Systemen und für die Grundlagenforschung von Lernproblemen, in denen Menschen und Maschinen als Team arbeiten müssen. Als Experte auf diesen Gebieten bin ich mir sowohl der Chancen als auch der Risiken bewusst, die sich mit der Anwendung unserer Technologien ergeben. Meine Forschungsergebnisse könnten direkt die Grundlage für autonome, lernende Drohnenschwärmen liefern.

Unsere Algorithmen sind generell öffentlich zugänglich, die Verbreitung dieser Erkenntnisse wird sich daher nicht mehr kontrollieren oder rückgängig machen lassen und kann daher prinzipiell jederzeit zur Automatisierung bestehender bewaffneter Drohnen eingesetzt werden. Ich sehe es daher in meiner dringenden Verantwortung, vor den Gefahren der automatisierten Kriegsführung zu warnen, für welche bewaffnete Drohnen und andere unbemannte Waffensysteme ein entscheidender und folgenschwerer Schritt sind.

Ich betone, dass ich es für unmöglich halte, der Automatisierung der Kriegsführung langfristig Einhalt zu gebieten, sollte die Verbreitung dieser ferngesteuerten Waffensysteme, insbesondere von Drohnen, nicht eingedämmt und rückgängig gemacht werden.

Algorithmen nicht fundamental von anderer KI zu unterscheiden

Es gibt schon heute keine moderne Drohne mehr, die komplett ohne jede Automatisierung fliegen kann. Sie benötigen eine große Anzahl von automatischen Steuerungs-, Assistenz- und Navigationssystemen. Diese notwendigen Algorithmen sind nicht in fundamentaler Weise von anderen Technologien der künstlichen Intelligenz zu unterscheiden. Daher gibt es wachsende Graubereiche der Autonomisierung bzw. der Reduzierung menschlicher Entscheidungsmöglichkeiten, die sich für eine sukzessive Annäherung an automatisierte Drohnen nutzen lassen.

Kampfdrohnen weltweit (13 Bilder)

MQ-1A "Predator" auf der Ali Base im Irak. Bild: U.S. Air Force

Entsprechende Entwicklungen lassen sich bei Drohnen bereits beobachten. Schon daher lässt sich meines Erachtens die Entwicklung automatisierter Waffensysteme nur durch die globale, komplette Ächtung von ferngesteuerter Kriegsführung stoppen.

Zudem ist es bisher auf internationaler Ebene nicht gelungen, sich auf eine gemeinsame Definition für autonome Waffensysteme zu einigen, welche sich dann durch etwaige zukünftige Abkommen verhindern lassen würden. Angesichts dieser Lage droht ein Wettlauf der hochtechnologisierten Länder um Definitionen von autonomen Waffensystemen, die so spezifisch sind, dass sie keine reale Anwendung finden.

Das zeigt sich zum Beispiel an der Haltung der Bundesregierung, die sich zwar gegen die Anschaffung von autonomen Waffensystem ausspricht, aber aufgrund der engen Definition der schrittweisen Automatisierung keine Schranken setzt. Wie Professor Stuart Russel, ein weltweit anerkannter Experte für KI von der University of Berkeley, California, schreibt1:

The net effect of the media’s portrayal of the issue has been to make it seem like science fiction. Even the German government has been taken in: it recently issued a statement asserting that ‘having the ability to learn and develop self-awareness constitutes an indispensable attribute to be used to define individual functions or weapon systems as autonomous.’ (This makes as much sense as asserting that a missile isn’t a missile unless it goes faster than the speed of light.) In fact, autonomous weapons will have the same degree of autonomy as a chess program, which is given the mission of winning the game but decides by itself where to move its pieces and which enemy pieces to eliminate.

Professor Stuart Russel, University of Berkeley

Inhumane und brandgefährliche Tendenz stoppen

Entsprechend sind auf europäischer Ebene unter maßgeblicher Beteiligung der Bundesrepublik Forschungs- und Rüstungsprojekte geplant, die weitere Schritte in Richtung autonomer Waffensysteme bedeuten würden. An diesen geplanten Rüstungsprojekten konkretisiert sich die Gefahr der Weiterentwicklung der Drohnentechnologie in Richtung Autonomie, auf die auch in der Stiftung Wissenschaft und Politik hingewiesen wird.

Ein "Nein" zu Kampfdrohnen durch die Bundesrepublik Deutschland wäre ein Signal, diese inhumane und brandgefährliche Tendenz zu stoppen. Die Entwicklung zu autonomer Kriegsführung muss umgekehrt werden. Die Welt braucht einen Wettlauf für Innovationen zu Abrüstung und menschlichem Fortschritt. Angesichts der drängenden Probleme und der hohen Geschwindigkeit der technologischen und wissenschaftlichen Entwicklung ist dafür jetzt der Zeitpunkt.

Lesen Sie morgen in Teil II: Jakob Foerster und Peter Förster über die Gefahren der Drohnen-Bewaffnung, die Debatte in der SPD im Bund und zur Rolle der Rüstungsindustrie.

Dr. Jakob Foerster ist designierter Assistant Professor der University Oxford, und Experte für Computer Science, maschinelles Lernen sowie Lernen in Multi-Agenten-Systemen. Der Verfasser ist erreichbar unter: jakob.foerster@eng.ox.ac.uk.