Regulierung autonomer Waffen: Wettlauf zum Suizid der Menschheit?
Können autonome Waffensysteme wirksam reguliert werden? Konferenz in Wien. Dabei offenbar: Viel Ratlosigkeit und eine zunehmende Gefahr.
Wien durfte sich wieder einmal als große Kongressstadt präsentieren. Mehr als 900 Teilnehmer aus 140 Ländern nahmen an der Konferenz "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation" des österreichischen Außenministeriums teil. Mit UN-Hochkommissarin Izumi Nakamitsu und zahlreichen Außenministern waren die Panels hochkarätig besetzt.
Verdächtig könnte allerdings stimmen, dass viele der weit gereisten Gäste die Schönheiten der Stadt Wien lobten. Ein Schelm, wer Böses hierbei denkt, schließlich kann das Ziel des Zusammentreffens kaum mehr sein, mehr als ein Get-together und eine Sensibilisierung für die Thematik. Dem Treffen sind keine Gremien angeschlossen, mit denen multilaterale Abkommen ausgehandelt werden könnten.
Widersprüchliche Assoziationen
So ist die Konferenz letztlich eine Statement-Kaskade, die durchaus Raum für unfreiwillige Komik gibt. Allerdings sind die Details hier sehr bezeichnend. Teile der Einladungen und der Homepage wirken so, als seien sie von Maschinen geschrieben worden; das ist im Kontext der Thematik zumindest stilgerecht.
Auch das Einladungsdesign strahlt die für eine solche Konferenz typische Ambivalenz aus. Ein technisiertes Auge, aus glühenden Schaltkreisen geformt, blickt den Betrachter an – vermutlich mit Überwachungsabsicht. Es wirkt wie die Werbung für eine Netflix-Serie oder einen Hollywood-Blockbuster. Und tatsächlich werden die Filmserien Terminator und The Matrix im Laufe der Konferenz immer wieder erwähnt.
Aus gutem Grund. Die aktuellen Änderungen in der KI-Technik sind so rasant, dass vieles, was heute Realität ist, vor wenigen Jahren noch Science-Fiction war. Dies betonen insbesondere die Männer auf den Panels durchaus mit einer gewissen burschikosen Begeisterung, die nicht ganz dazu passt, dass man ja eigentlich energisch vor den Gefahren warnen will.
Eindämmung des Unaufhaltbaren
Damit ist die Kernproblematik gut zusammengefasst. Niemand will autonome Waffensysteme, aber zugleich wollen alle technische Innovation. Niemand will die moralische Verantwortung für automatisiertes Morden tragen und zugleich glaubt man unmöglich auf die neue Technologie verzichten zu können, weil die anderen sie unausweichlich einsetzen werden.
Mehr noch, alle können vorhersehen, dass ein Wettrennen um die autonome Waffentechnologie verheerende Folgen haben wird. Einige Vortragende sprechen sogar von einem Wettlauf zum Selbstmord der Menschheit und dennoch scheint es nur schwer möglich, das Wettrüsten noch abzublasen.
Das Ziel ist klar, es müssten Gesetze her und verbindliche, internationale Regeln, denn – und dies macht die Konferenz auch deutlich – diese helfen sehr wohl bei der Eindämmung der Gefahren, wie frühere internationale Abkommen zu Atom- und Biowaffen, Streumunition oder der atomaren Bewaffnung des Weltraums zumindest teilweise bewiesen haben.
Wenn auch nicht alles verhindert werden konnte, dann wurde doch vieles eingedämmt. Und letztlich gilt: Ohne entsprechende Abkommen, die überhaupt erst einmal von Übertäter verletzt werden können, hätte die Weltgemeinschaft nichts in Händen.
Ein Oppenheimer Moment
Die einleitenden Worte spricht der österreichische Außenminister Alexander Schallenberg, der seine Freude über die große Bühne, die er sich selbst gebaut hat, nicht verbergen kann. Er liefert im seltsam dramatischen, herunter gedimmten Licht der Wiener Hofburg die erste Blockbusterassoziation des Tages: Die Welt stünde vor ihrem "Oppenheimer-Moment".
Autonome Waffensysteme würden die Schlachtfelder erobern und die Politik hinke nur hinterher. Es sei sogar noch schlimmer als seinerzeit bei Oppenheimer und der Atombombe, denn die sei teuer gewesen. Die neue Weltuntergangstechnik hingegen sei potenziell spottbillig und könne leicht in die Hände von Terroristen fallen.
Autonome Waffensysteme: Die Welt braucht Normen
Die Welt brauche nun internationale Normen und er freue sich, dass heute Wien der Ausgangsort ist, um diese zu finden. Wichtig sei, sagt Schallenberg in das Dunkel des Hofburg-Saales: Die Entscheidung, wer lebt und wer stirbt, müsse in den Händen der Menschen bleiben.
Wenig später verlässt der österreichische Außenminister "überraschend" früh, aus "unvorhersehbaren" Gründen, die Konferenz und macht damit noch einmal unmissverständlich deutlich, wie ungeheuer wichtig ihm die Thematik ist. Er wird an diesem Tag nicht lernen, was er bei der Frage autonomer Waffentechnik geflissentlich übersehen hat.
Zwei zentrale Auslassungen
Ein simples Faktum wird in der tendenziell technikaffinen Konferenz nicht herausgearbeitet: Die KI-Technologie funktioniert nicht. Also zumindest gemessen an den in sie gesetzten Erwartungen. Das hat etwas mit dem Gestalt-Problem zu tun.
Das autonome Fahren, oder besser gesagt, das Scheitern des autonomen Fahrens illustriert dies gut. Die Gestalt ist eben nicht die Summe aller Messergebnisse und deswegen bleiben Hamster der besten KI überlegen. Es gibt zahllose Videos im Internet, die zeigen, was passiert, wenn eine Kinderpuppe vor ein autonom fahrendes Auto gestellt wird.
Bremsen oder nicht bremsen?
Manchmal bremst das Fahrzeug respektvoll, um dann mit einer gewissen Beharrlichkeit das "Kind" zu überfahren. Die Antizipation der Wahrnehmung der Welt durch menschliches und tierisches Sehen funktioniert über ein Schema, das Maschinen nicht haben können.
Maschinen können nur speichern, was einmal war. Da jeder neue Moment aber zumindest teilweise einzigartig ist, kann die spezifische Situation niemals vollständig maschinenverarbeitet werden.
Der Glaube von Elon Musk
Der Glaube des Elon Musk möchte uns lehren, dass eines Tages (den Musk dauernd nach hinten verlegt) die Datenmengen groß genug sein werden, um alles zu "erkennen". Aber das Erkennen ist kein quantitatives, sondern ein qualitatives Problem. Die Apparate haben nicht einmal angefangen zu "erkennen", sie gleichen nur immer größeren Datenmengen ab.
Den Maschinen wird sich folglich niemals ein Schema der Moral einprogrammieren lassen, das ihnen hilft, zwischen "gut" und "böse" oder zumindest zwischen richtigem und falschem Treffer zu unterscheiden. Die moralische Handlung wäre deshalb einzig die, gar nicht erst Maschinen dieser Art zu entwickeln.
Politik liebt einfach Innovation
Aber in dieser Untiefe steigt der österreichische Außenminister Schallenberg als ÖVP-Mitglied nicht. Er – und viele andere Konferenzteilnehmer – wollen bloß nicht als Technikfeinde dastehen. Bundeskanzler Karl Nehammer gab schließlich die "Innovation" als Allheilmittel aus.
Dadurch wird das Kernproblem auf der dunklen Hofburgbühne vernebelt: Die Maschinen machen grundsätzlich menschliche Arbeit unsichtbar. Mussten Mörder einst Keulen schwingen und waren höchst sichtbar, dürfen sie heute an Bildschirmen sitzen und werden bald – dank KI – nur mehr "Enter" drücken müssen und die Apparate übernehmen die schmutzige Arbeit.
Israels KI-Krieg und das Gewissen
Diejenigen, die heute in der Gestalt von Drohnenpiloten an den Bildschirmen sitzen, werden zuweilen von ihren Gewissensbissen eingeholt. Wie jüngst Mitglieder der Israeli Defence Force. Wenn diese ihre Skrupel offensiv ausleben und Befehle verweigern, dann wird es für die Feldherren (die dem Morden selten oder nie beiwohnen mussten) schwieriger, Befehle zu erteilen. Die Apparate aber werden nicht widersprechen.
Das ist das Hauptproblem, das nur wenige in der Wiener Hofburg ansprechen. Lieber reden die Vertreter der Politik von den Gefahren des Terrorismus, womit das Problem nach außen verlagert werden kann.
Die entscheidenden Einschränkungen beschließen
Der norwegische Außenminister Eivind Vad Petersson nimmt als Erstes das Donnerwort Gaza in den Mund. Tatsächlich läuft es gerade nicht perfekt mit der Einhaltung und Durchsetzung von Menschenrechten. Sein Amtskollege aus Bangladesch, Hasan Mahmud, pflichtet ihm später bei.
Wenn heute, ganz ohne KI, sich nicht an die UN-Regeln gehalten wird und Hilfsgüter bombardiert werden, dann stimmt dies schon sehr pessimistisch. Nur, so Mahmud, wir sitzen alle im gleichen "Rettungsboot" des Planeten Erde und wenn jetzt die KI nicht reguliert wird, dann haben wir zu all den existenziellen Problemen noch ein weiteres.
Am Ende hat die Konferenz sich noch einen Wert
Und hier zeigt die Konferenz ihren gewissen Wert. Es fehlen in der großen Politik zwar weitgehend die pazifistische Perspektive, denn im Grunde glaubt niemand der angereisten internationalen Spitzenpolitiker, dass sich Krieg an sich verhindern ließe, es gilt ihn nur einigermaßen menschenrechtskonform zu regulieren.
Aber, zumindest das. Es scheint auch allen Beteiligten klar zu sein, dass dies nun endlich angegangen werden muss. Die Wiener Konferenz ist nicht die erste ihrer Art. Es gab bereits im Februar 2023 eine ähnliche, regionale Veranstaltung für Südamerika in Costa Rica.
Die gesetzliche Eindämmung von autonomen Waffensystemen ist lediglich ein weiterer Präzedenzfall, der die Reife oder Unreife der internationalen Zusammenarbeit belegen wird. Die Weltgemeinschaft will und muss sich immer wieder ermahnen, dass der Witz bei Gesetzen darin liegt, dass die Gesetze auch alle eingehalten werden und nicht nur die, die einem gerade in den Kram passen.
Gesetzlosigkeit vermeiden
Eine Erkenntnis, die weder im Kreml noch im Washingtoner State Department gerne vernommen wird. Dennoch, je häufiger staatliche Akteure ermahnt und sogar rechtliche Konsequenzen international fürchten müssen, desto eher kann ein gesetzloser Raum vermieden werden.
Und die Gesetze gegen die autonomen Waffensysteme müssen an der Basis ansetzen, wie der Unternehmer und Informatiker Jaan Tallinn, der Mitgründer des Centre for the Study of Existential Risk der Universität Cambridge verdeutlicht: Es muss Entwicklern schlicht verboten werden gewisse Technologien zu entwickeln.
Wer es dennoch tut, ist bereits im Computerlabor ein Outlaw und kann als solcher behandelt werden und wird auch mit den entsprechenden Konsequenzen rechnen müssen. Nur so lässt sich vielleicht noch aufhalten, was tatsächlich der Menschheit den Garaus machen könnte.