zurück zum Artikel

"Nichts, worüber Menschen entscheiden, ist unvermeidlich"

Jody Williams über Friedenskampagnen, Killerroboter und Terroristen

Nachdem sie elf Jahre lang Kampagnen gegen die Interventionen der USA in Lateinamerika geführt hatte, wurde Jody Williams im Jahr 1991 von der Vietnam Veterans of America Foundation [1] gefragt, ob sie sich an einer Kampagne gegen Landminen beteiligen wolle. Die Protestbewegung führte zu einem internationalen Bann dieser Waffengattung, für den Williams 1997 mit dem Friedensnobelpreis ausgezeichnet wurde. Gegenwärtig leitet sie die Nobel Women's Initiative [2] und organisiert Kampagnen gegen Vergewaltigungen in Kriegsgebieten [3] und gegen Killerroboter [4].

Frau Williams, unser Gespräch findet statt, weil ein Automobilkonzern die dafür nötigen Reisekosten übernommen hat. Das bringt mich auf die Frage, wie Sie sich und Ihre Kampagnen finanzieren?
Jody Williams: Mein letztes Gehalt als Aktivistin habe ich im Februar 1998 bekommen. Seitdem spende ich meine Arbeit. Als derzeitige Vorsitzende der Nobel Women’s Initiative werde ich nicht bezahlt, ebenso wenig für die Arbeit an der Kampagne gegen Killerroboter oder die Stop Rape Campaign. Ich bin Professorin in Houston, dafür bekomme ich Geld. Für Vorträge gibt es auch manchmal ein Honorar. Das gibt mir die finanzielle Basis, um meine übrige Zeit zu spenden. Kampagnen wie die Nobel Women's Initiative bekommen Geld von verschiedenen Stiftungen, etwa von der Oak Foundation in Genf. Die niederländische Regierung unterstützt uns über drei Jahre mit einem größeren Betrag. Wir haben gerade weitere fünf Jahre beantragt. Auch Norwegen engagiert sich finanziell, ebenso Women’s Philanthropists. Unsere Finanzquellen sind recht unterschiedlich.
Jody Williams. Bild: Mazda
Gibt es Sponsoren, von denen Sie keine Einladung annehmen würden?
Jody Williams: Wahrscheinlich, aber ich könnte jetzt keinen nennen. Mir ist wichtig, dass ich öffentlich sagen kann, was ich will. Ich denke, ich drücke mich sehr klar aus und kann Menschen anregen, über manche Dinge neu nachzudenken.
Eine verständliche Sprache ist immer wichtig. Inwieweit war der Kampf gegen Landminen, für den Sie den Friedensnobelpreis bekommen haben, auch ein Kampf um Worte und die richtige Terminologie?
Jody Williams: Kaum. Die Sache war ziemlich klar. Landminen sind scheußlich. Es ist nicht schwierig, das zu zeigen. Es gab auch wenig Gegenwehr von der Verteidigungsindustrie. Als wir begannen, gab es 54 Länder, die Landminen herstellten. Heute gibt es immer noch zwölf, die sich das Recht vorbehalten, welche zu produzieren. Aber die meisten tun es nicht.
Ich habe den Eindruck, dass es sich bei der Auseinandersetzung um Killerroboter anders verhält. Das Militär scheint den Begriff "Roboter" nicht zu mögen und spricht lieber von unbemannten Systemen.
Jody Williams: Als wir uns entschlossen, eine Kampagne zu starten, sprachen wir auch über den Namen. Bei der Geneva Convention on Certain Conventional Weapons (CCW) wurde das Thema unter dem Titel LAWS diskutiert, was zunächst einmal das englische Wort für "Gesetze" ist. Die Buchstaben stehen aber in diesem Fall für "Lethal Autonomous Weapon Systems".
Ich bin eine Graswurzelaktivistin. Für mich klingt das furchtbar langweilig. Ich kann doch nicht zu einer Veranstaltung einladen, wo über "tödliche autonome Waffensysteme" diskutiert wird. Also haben wir uns entschlossen, provokativ zu sein und von Killerrobotern zu sprechen. Zuerst bekamen wir negative Reaktionen. Uns wurde unterstellt, wir wollten nur Angst schüren. Dann wies ein Diplomat bei der CCW darauf hin, dass das Militär bei seiner Namensgebung nicht anders vorgeht. Was sollen denn Namen wie "Predator", "Reaper" oder "Desert Storm" anderes bewirken, als zu erschrecken?
Wir wollen mit dem Schreck einen Denkprozess in Gang bringen. Die Leute sollen sich fragen: Was ist ein Killerroboter? Sie sollen nicht darüber nachdenken müssen, wie das nun genau hieß, lethal autonomous... und was kam da noch? Ich habe viel mit Diplomaten über Waffen diskutiert und deren Klagen, das alles so verwirrend sei, haben immer den Unterton: Es lässt sich nicht verhindern.
Komplizierte Terminologie hält die Menschen davon ab, sich zu engagieren, weil sie suggeriert, dass nur Experten auf dem Gebiet der Robotik oder der künstlichen Intelligenz etwas dazu sagen können. Aber ich muss keine Atombombe bauen können, um zu wissen, dass sie unmoralisch und illegal ist. Ich muss keinen Killerroboter bauen können, um zu spüren, dass etwas falsch läuft, wenn Menschen sich auf diese Weise den Konsequenzen eines Krieges entziehen und Maschinen erlauben wollen, über Leben und Tod zu entscheiden. Das ist einfach nur verkommen.
Die deutsche Verteidigungsministerin hat erklärt, sich für eine internationale Ächtung autonomer Waffensysteme einsetzen zu wollen.
Jody Williams: Dann sollte sie die Führung übernehmen und zunächst ein nationales Verbot durchsetzen. Bei den Landminen war es Belgien, das im März 1995 als erstes Land ein umfassendes Verbot des Einsatzes, der Herstellung und des Handels beschlossen hat. Das erwies sich als ungeheuer wichtig. Andere europäische Staaten folgten bald, dann kamen Länder im Süden Afrikas hinzu.
Es braucht Staaten, die mutig genug sind, den Anfang zu machen. Es erfordert Führungsstärke wie sie etwa Barack Obama gezeigt hat, als er die 60 Jahre währende lächerliche Politik gegenüber Kuba beendet und den Dialog mit dem Iran vorangetrieben hat. Man darf nicht darauf warten, dass die anderen den ersten Schritt tun.
Mir scheint, unsere Verteidigungsministerin weiß gar nicht genau, was sie da ächten will. Wenn Vertreter des Militärs über das Thema reden, versuchen sie zumeist, den Begriff "Autonomie" zu vermeiden, weil er so unklar sei. Auch das Wort "Roboter" nehmen sie nicht gerne in den Mund.
Jody Williams: Und weil sie es nicht beim Namen nennen, glauben sie, sich nicht damit beschäftigen zu müssen? Es ist eine Taktik, um Menschen zu entmündigen und davon abzuhalten, sich in den Weg zu stellen. Aber, wie gesagt, ich muss die Dinger nicht selbst bauen können, um zu wissen, dass ein Roboter, der bei Feuerwehreinsätzen hilft, gut ist. Der gleiche Roboter, ausgestattet mit einem Granatwerfer, einer Uzi-Maschinenpistole oder einem AK-47: schlecht. Für mich ist das eine sehr klare Linie. Militärvertreter sagen bei den Genfer Diskussionen ständig: Wir müssen langsam vorgehen. Was sie meinen, ist: Lasst uns langsam verhandeln, damit wir die Dinger haben, bevor ihr etwas dagegen tun könnt.

Wir dürfen den Menschen aus der Entscheidung über Leben und Tod nicht herausnehmen

Es wird oft gesagt, dass die USA, Israel und Großbritannien, vielleicht auch andere Länder, bereits über bewaffnete Roboter verfügen. Das müssten wir als unabänderlich hinnehmen, weil sie kaum dazu bewegt werden könnten, ihre Roboter wieder zu entwaffnen.
Jody Williams: Die Drohnen fliegen zwar teilweise autonom. Es gibt aber einen Menschen, der auf der Creech Airforce Base in Nevada vor einem Bildschirm sitzt und das Geschehen verfolgt. Dieser Mensch trifft die Entscheidung darüber, ob ein Ziel angegriffen werden soll oder nicht. Er drückt den Knopf, der die Hellfire-Raketen abfeuert. Die Drohne fliegt nicht herum und sucht sich die Ziele selbst aus.
Noch nicht.
Jody Williams: Sicher, aber das ist die Linie, an der wir stoppen müssen. Wir dürfen den Menschen aus der Entscheidung über Leben und Tod nicht herausnehmen. Ich halte das für sehr klar. Wo ist das Problem?
Das Problem ist, dass mit der Bewaffnung fliegender Roboter bereits ein Wettrüsten in Gang gesetzt worden ist, das zwangsläufig auf autonom feuernde Roboter hinauslaufen wird.
WILLIAMS: Deswegen will ich sie stoppen. Sie wollen uns einreden, dass die Entwicklung unvermeidlich sei. Aber nichts, worüber Menschen entscheiden, ist unvermeidlich. Deswegen sollten Journalisten weiter darüber berichten. Deswegen muss die Zivilgesellschaft verstehen, was einige Regierungen da vorhaben. Es wäre bahnbrechend, wenn Deutschland den Mut hätte, ein nationales Gesetz gegen diese Waffensysteme zu verabschieden. Wenn das nicht geschieht, heißt das, dass die militärischen und politischen Führer sich das Recht vorbehalten wollen, sie doch zu nutzen, sobald die USA oder andere sie anbieten.
Beim Pressegespräch vorhin haben Sie den offenen Brief gegen Killerroboter [5] erwähnt, der bei der KI-Konferenz IJCAI von mehr als 2.000 KI-Wissenschaftlern sowie mehr als 15.000 anderen Personen unterzeichnet worden ist. Diese Erklärung nahm die heutigen ferngesteuerten Drohnen ausdrücklich aus. Das wurde in vielen Kommentaren als Billigung interpretiert, als seien diese Systeme grundsätzlich in Ordnung.
Jody Williams: Mein Mann leitet die Waffenabteilung bei Human Rights Watch [6] und ich habe ihn in den letzten Jahren immer wieder gedrängt, etwas gegen Drohnen zu unternehmen. Er hat gefragt, was für einen Unterschied es macht, ob der Pilot, der die Entscheidung über den Waffeneinsatz trifft, an Bord eines Kampfflugzeuges sitzt oder in einer Station am Boden. Wenn die Maschine selbst entscheidet, ist das etwas völlig anderes. Wir wollen nicht, dass das passiert. Deswegen sind die heutigen Drohnen ausgeklammert, denn sie werden noch von Menschen kontrolliert.
Einige Organisationen, die sich an unserer Kampagne gegen Killerroboter beteiligen, wenden sich auch gegen Drohnen. Aber wir sagen sehr deutlich, dass Drohnen nicht die Killerroboter sind, die wir verhindern wollen. Vielleicht ist es Haarspalterei. Ich habe Jahre gebraucht, um es zu verstehen.
Jody Williams im Gespräch mit Hans-Arthur Marsiske. Bild: Mazda
Ich denke, wir werden die Entwicklung von Killerrobotern nur verhindern können, wenn wir auch die Drohnen entwaffnen. Aber ist die militärische Nutzung von Robotern nicht ohnehin Teil von etwas Größerem? Künstliche Intelligenz und Roboter werden auch die zivile Gesellschaft grundlegend umwälzen.
Jody Williams: Ich arbeite daran, mein Land zu demilitarisieren. Daher konzentriere ich mich auf Waffen. Aber ich bin mir bewusst, dass da noch mehr passiert. Stephen Hawking und Elon Musk hatten schon vor dem offenen Brief gegen Killerroboter davor gewarnt, dass künstliche Intelligenz sich der Kontrolle des Menschen entziehen und unkontrollierbar werden könnte. Ich teile ihre Besorgnis.
Ich auch. Deswegen plädiere ich dafür, mit Robotern so umzugehen, als wären sie leidensfähige Lebewesen. Denn mit den Technologien, die wir heute entwickeln, schaffen wir möglicherweise die charakterlichen Grundstrukturen einer zukünftigen Superintelligenz.
Jody Williams: Ich befürchte, dass Technologie Menschen dazu bringt, Dinge zu tun, die sie lieber gelassen hätten, wenn sie etwas mehr darüber nachgedacht hätten. Sobald ein Kleinkind einen Gegenstand halten kann, bekommt es von vielen Eltern ein technisches Gerät, mit dem es spielen kann. Inzwischen zeigen Langzeitstudien, dass die Entwicklung des Gehirns dadurch beeinflusst wird. Aber es ist cool, es zeigt, was man sich leisten kann, und das Kind ist beschäftigt. Über die Wirkung wird wenig nachgedacht.
Mir scheint, dass viele Menschen Schwierigkeiten haben, mit sich allein zu sein. Sie finden in sich selbst nicht den Raum, um sich wohlzufühlen. Ich fürchte, diese Maschinen verstärken das. Menschen, die sich allein unwohl fühlen, empfinden sie als wohltuend. Wo auch immer du bist, du kannst dich mit all deinen Freunden auf Facebook unterhalten. Ich sehe junge Frauen mit Stöpseln im Ohr, die beim Trainieren im Park Musik hören und verstehe nicht, wie sie sich so von der Welt um sie herum abschotten können. Ist ihnen nicht bewusst, wie riskant das ist? Wir isolieren uns immer mehr von der physischen Welt. Das halte ich für unnatürlich.
Im Pressegespräch haben Sie beklagt, dass bei Berichten über Terrorismus und Kriegsflüchtlinge die Vorgeschichte zumeist ausgeblendet wird. Es wird gerne übersehen, dass wir die Krisen, mit denen wir heute kämpfen, selbst hervorgebracht haben. Mir scheint, das betrifft nicht nur die jüngere Zeitgeschichte, sondern reicht mindestens 500 Jahre zurück. Völkermord und Sklavenhandel als Fundament unserer Kultur haben keinen prominenten Platz im kollektiven Bewusstsein.
Jody Williams: Nein, das passt nicht in die Erzählung. Jede Nation schafft sich einen Mythos über sich selbst. Bei uns ist es die Mayflower, mit der die Siedler nach Amerika kamen. Mit so einem Schiff über den Ozean zu segeln, war zweifellos mutig. Die Ureinwohner, die vor ihnen da waren und die vertrieben und ermordet wurden, um sich ihr Land anzueignen, kommen in der Geschichte jedoch nicht vor.
Ich weiß nicht, wie heute in der Schule damit umgegangen wird. Zu meiner Zeit galt es noch als "manifest destiny", als göttliche Bestimmung der Pilgrim Fathers, sich auszubreiten und das von Gott gegebene Land in Besitz zu nehmen. Einige Idioten glauben den Mist heute noch. Die Menschen, die schon da waren, waren Wilde. Wir hätten sie ja gerne zivilisiert, aber sie wollten nicht. Da haben wir sie umgebracht und in Reservate gesteckt. Waren Sie schon mal in so einem Reservat?
Nein.
Jody Williams: Wenn Sie die Dritte Welt mitten in den USA erleben wollen, gehen Sie in die Pine Ridge Reservation [7] in South Dakota. Das haut Sie um. Es ist erschreckend. Aber es wird nicht gelehrt. Warum sollte man die Öffentlichkeit mit dem Gedanken beunruhigen, dass die Nation aus Völkermord erwachsen ist? Stattdessen mythologisieren wir unsere Geschichte mit manifest destiny und den Pilgrims.
Aber um Flüchtlinge als Frucht unserer eigenen Handlungen zu erkennen, müssen wir nicht so weit zurückgehen. Die Probleme im Mittleren Osten sind das Ergebnis jüngerer kolonialistischer Interventionen, erst von den Briten, dann von den USA, zuletzt mit George W. Bush's persönlichem Krieg gegen den Irak. Wir erklären Menschen zu Terroristen, die wir zuvor selbst terrorisiert und aus ihren Ländern vertrieben haben. Auch darüber denken wir nicht so gerne nach.

URL dieses Artikels:
https://www.heise.de/-3376965

Links in diesem Artikel:
[1] http://nationalvietnamveteransfoundation.org/
[2] http://nobelwomensinitiative.org/
[3] http://www.stoprapeinconflict.org/
[4] http://www.stopkillerrobots.org/
[5] http://futureoflife.org/AI/open_letter_autonomous_weapons
[6] http://www.hrw.org/de
[7] http://www.redcloudschool.org/reservation