Künstliche Intelligenz: Apocalypse now?

Seite 2: Moralisch akzeptabel töten – das können nur Menschen!

"Von allen Regelwerken ist das Regelwerk des Kriegsvölkerrechts dasjenige, das am meisten gebrochen wird", schreibt denn auch bedauernd Heribert Prantl in der Süddeutschen Zeitung ("Wenn KI killt", 3. Juni 2023).

Könnte man nicht dann die Waffen mit KI dergestalt "impfen", dass sie nur gemäß dem Kriegsvölkerrecht töten? So würden doch automatisch die Regeln eingehalten. Kein durchgeknallter General, Offizier oder einfacher Soldat würde sich mehr an Zivilisten vergehen können, weil in diesem Fall die KI die Waffen sperrte, beispielsweise.

Das würde zwar dem einen oder anderen Menschen den Tod ersparen, aber hier geht es um Grundsätzliches: "Die KI-Kampfmaschine kennt weder Hass noch Angst oder Verzweiflung. Sie kennt auch nicht Gnade und nicht Mitleid. Man kann einer Maschine nicht die Lizenz zum autonomen Töten überantworten. Das ist moralisch inakzeptabel", schreibt der Journalist Prantl kategorisch.

Die Entscheidung, einen anderen Menschen umzubringen, weil er einer von der Regierung als feindlich deklariertem Staat angehört, sollte doch bitteschön ganz frei und mit dem erwünschten Hass gegen die andere Nation fallen. Das darf dann durchaus mit Angst verbunden sein, man ist ja auch nur Mensch. Und in dem einen oder anderen Fall kann man vielleicht etwas weniger brutal vorgehen, wenn man sowieso auf die Gewinnerstraße einbiegt. Das alles ist dann offenbar "moralisch akzeptabel".

Weniger aus moralischen denn aus Gründen der politischen Entscheidungsfreiheit soll laut der KI-Projektgruppe der Bundestagsabgeordneten der Einsatz der Tödlichen Autonomen Waffensysteme international geächtet werden. Das findet Prantl auch, denn:

Es gibt Beispiele für Waffen, die erst eingesetzt, dann aber geächtet wurden: das Giftgas, die Blendlaser, die Landminen, die Streumunition. [Indes:] Aus der Welt sind die autonomen Waffen mit einer Ächtung nicht – so wenig, wie die Ächtung von Giftgas oder Streumunition deren Einsatz völlig verhindert.

Süddeutschen Zeitung, 3. Juni 2023

Eine Ächtung ist halt kein Verbot. Vielmehr erklären Staaten, diese Waffen nicht anwenden zu wollen – und verurteilen die Staaten, die das dennoch tun. Realistisch, wie Politiker nun einmal sind, wissen sie indes schon, was aus militärischer Sicht an dieser Sorte dran ist und dass deshalb im Ernstfall die Ächtung wenig bewirkt. Ihr Schluss: Jederzeit in der Lage sein, Angriffe mit ihnen abzuwehren – und mit noch wirksameren Gegenmitteln zu kontern.

Also wird fleißig an diesen Systemen geforscht und gebaut. Wie nun auch in puncto KI für militärische Zwecke. Explizit begrüßt dies die Bundestagsprojektgruppe.

Nicht auszudenken, wenn Deutschland und die EU hier ins Hintertreffen gerieten gegenüber den USA und China. Technologieführerschaft bei KI lautet die so harmlos daher kommende Umschreibung für den Anspruch, in Europa in der vielleicht kommenden maßgeblichen Militärtechnik führend zu werden. Gegen wen die wohl potenziell einsatzfähig sein soll...?

Der Übergang von einem defensiven zu einem offensiven Einsatz ist dabei, wie stets in militärischer Strategie, fließend. Es geht schließlich um den Sieg im Krieg. Wenn Gewalten aufeinander treffen, dürfen dem weder Ächtungen noch Verbote im Wege stehen.

Genau deshalb werden alle möglichen Waffen eingesetzt – die dem Kriegszweck am besten dienen. Giftgas kann in dieser Hinsicht kontraproduktiv sein, seine Wirkung ist schwer einzuhegen auf den Feind. Landminen hingegen oder Streumunition erfreuen sich in den kriegerischen Auseinandersetzungen weiter tödlicher Beliebtheit.

Nützliche Apokalypse: KI-Entwickler warnen vor ihrer Schöpfung

Vor einer noch viel umfassenderen Fähigkeit von KI warnen ausgerechnet jene, die sie maßgeblich entwickelt haben und weiter entwickeln.

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

Diesen Aufruf, KI als so ernstes gesamtgesellschaftliches Risiko zu behandeln wie Pandemien oder einen Atomkrieg, unterzeichneten – neben vielen anderen Wissenschaftlern und Führungskräften US-amerikanischer Universitäten und Institute – Sam Altman von OpenAI, Bill Gates und Manager von Microsoft, Lila Ibrahim von Google Deepmind, Daniel Amodei, Chef von Anthropic, sowie der Vorstandsvorsitzende von Stability AI, Emad Mostaque. Sie alle arbeiten mit ihren Unternehmen an KI-Systemen.

Einen Stopp jeglicher weiteren Entwicklung, gar die Aufgabe der neuen Technik, enthält der Aufruf allerdings nicht – was konsequent wäre, wenn damit ein solch immenses Risiko der Auslöschung der Menschheit tatsächlich bestünde. Vielmehr soll es entschärft (mitigating) werden. Soll man das wirklich glauben?

Die KI-Entwickler sind erschrocken über das Monster, das sie geschaffen haben, und mahnen dringend, es zu zähmen? Auf jeden Fall schüren sie den Hype um eine angeblich autonome Superintelligenz. Außerdem kommt man so Bestrebungen von Staaten zuvor, der KI Grenzen zu setzen.

"Wir sind doch so verantwortungsvoll und erkennen die Risiken. Das regeln wir schon selbst", lautet die Botschaft zwischen den Zeilen. Und so passt es: Das "Monster" ist bei seinen Schöpfern in den besten Händen. Gut verpackt und auf das jeweilige Bedürfnis der Anwender zugeschnitten verkaufen wir es gern – sei es ein Drehbuch für die Serie oder ein Programm, um den Krieg zu gewinnen!

Natürlich löscht KI die Menschheit nicht aus. Die neue Technik ist kein Subjekt mit einem Zweck, den es verfolgt. So wenig wie es die Dampfmaschine, der Dynamo, der Kunstdünger, die Gentechnik, der Computer oder die Atomenergie sind.

Im Unterschied zu bisheriger neuer Technik gibt es bei KI indes die Sorge, dass sie sich verselbstständigt, also ihre Anwender sie nicht vollständig im Griff haben. Bei der Erfindung der Dampfmaschine oder der Stromerzeugung musste man sich diese Sorgen nicht machen. Da standen Sicherheitsfragen im Vordergrund, wie auch bei der Gentechnik: Kann es zu unkontrollierten Explosionen kommen oder zur Verbreitung von gefährlichen Gensequenzen in der Natur?