Künstliche Intelligenz: Apocalypse now?
Nicht mehr Menschen töten im Krieg, sondern Maschinen. Mit KI ist das denkbar. Ihre Schöpfer warnen sogar vor der Auslöschung der Menschheit durch sie. Was kommen kann und was wohl nicht. (Teil 3 und Schluss)
Deutschland hat sich frühzeitig mit dem Thema KI befasst. Bereits 2019 hat eine "Projektgruppe KI und Staat" in der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages Überlegungen dazu vorgelegt. Den Augenmerk richteten die Politiker der Bundestagsfraktionen auf drei Bereiche [1]:
- KI in der öffentlichen Verwaltung, gemeinwohlorientierte Anwendungen, Teilhabe
- Smart City und Open Data
- Innere Sicherheit, Äußere Sicherheit/Verteidigung/Militär, IT-Sicherheit
Teil 1: Künstliche Intelligenz: Weder Fluch noch Segen [2]
Teil 2: Künstliche Intelligenz: Über Risiken und Nebenwirkungen [3]
Neben den schon damals als vielversprechend diskutierten Optionen, den Staat noch effizienter zu organisieren, kam auch die militärische Anwendung von KI zur Sprache. Denn was wäre, wenn andere Staaten diese neue Technik für überlegene Gewaltmittel einsetzten?
Auch im Bereich der Äußeren Sicherheit und Verteidigung sieht die Projektgruppe eine Vielzahl von KI-Anwendungen, deren Einsatz positive Effekte bringen kann und die allgemein nicht umstritten sind. Bei dem kritischen Bereich der Tödlichen Autonomen Waffensysteme ("Lethal Autonomous Weapon Systems (LAWS)") erzielte die Projektgruppe den Konsens, dass diese Waffen international geächtet werden sollen. […]
Die Mehrheit der Projektgruppe sprach sich auch dafür aus, dass bei der sicherheitsrelevanten KI-Forschung eine starke Kooperation im Rahmen der EU vorangetrieben werden soll, um die europäische Position zu stärken und die Technologieführerschaft bei schnellen Innovationen nicht anderen Staaten, beispielsweise den USA oder China, zu überlassen.
Deutscher Bundestag, Enquete-Kommission Künstliche Intelligenz [4]
Schneller als der Feind sein, seine Bewegungen früher erkennen und die passenden Waffen auf ihn richten und abfeuern: Dazu kann KI eine Menge beitragen. In den modernen Waffensystemen arbeiten seit langem Rechner mit spezialisierten Algorithmen, beispielsweise in Panzern, U-Booten, Raketen, Drohnen, Radaranlagen oder Aufklärungsflugzeugen – die vollständige Liste ist noch viel länger.
Eine KI, die auf Basis der militärischen Aufklärungsdaten und ihrem Lernen im Krieg in der Lage ist, eigenständig Waffen auf den Feind zu richten und ihn zu vernichten, fügte dem Schlachtfeld eine neue Qualität hinzu.
Nun bereitet die Technik nicht nur die beste Situation für die sie anwendende Kriegspartei vor, auf dass der sie benutzende Soldat im richtigen Moment auf den tödlichen Knopf drückt. Sondern der Soldat kann überflüssig werden. Seinen Job übernimmt die Maschine – rasend schnell und eiskalt.
So könnte ein Staat mit deutlich weniger Soldaten als der Feind trotzdem im Krieg bestehen. Sehr interessant für Nationen wie beispielsweise Deutschland, das gegenüber dem aktuellen Feind Russland und dem nächsten großen Gegner China in puncto Menschenmaterial klar das Nachsehen hat...
Dem Opfer kann es zwar ziemlich egal sein, durch wen es umkommt. Aus Sicht der Anwender ergibt sich allerdings mit den Tödlichen Autonomen Waffensystemen ein Problem: Der Regierung kann die Kriegsführung entgleiten. Nicht in dem Sinne, dass es zu Kollateralschäden kommt. Bei Bombardements und Artillerie-Beschuss werden stets auch militärisch unbedeutende Gebäude und Zivilisten getroffen. Das ist brutaler Alltag in modernen Kriegen.
Wenn es schlecht läuft, steuert KI aber auf dem Schlachtfeld kriegerische Aktionen, die dem menschlichen Schlachtplan zuwider laufen. Es werden andere Ziele angegriffen, andere Einheiten des Feindes, unter Einsatz von Mensch und Material, das anderswo vielleicht fehlt usw.
Unter Umständen legt die KI nahe, dass die Zerstörung von Infrastruktur des Feindes – wie Wohngebäude, Kraftwerke, Fabriken – aktuell sehr vorteilhaft ist und konzentriert sich darauf. Das passiert zwar auch menschengemacht in den meisten Kriegen; es wird aber offiziell geächtet.
Das Ideal im Kriegsrecht der Haager Landkriegsordnung und der Genfer Konvention lautet nun einmal: Nur die zum Töten und Zerstören berechtigten Krieger dürfen übereinander herfallen. Die "Nicht-Kombattanten" sollen außen vor bleiben. Diese Trennung findet tatsächlich nicht statt – und jeder, der sich mit dem Thema befasst, weiß das. Im Krieg zählt nur eins: Den Gegner zu besiegen, und zwar mit allen Mitteln.
Moralisch akzeptabel töten – das können nur Menschen!
"Von allen Regelwerken ist das Regelwerk des Kriegsvölkerrechts dasjenige, das am meisten gebrochen wird", schreibt denn auch bedauernd Heribert Prantl in der Süddeutschen Zeitung ("Wenn KI killt", 3. Juni 2023).
Könnte man nicht dann die Waffen mit KI dergestalt "impfen", dass sie nur gemäß dem Kriegsvölkerrecht töten? So würden doch automatisch die Regeln eingehalten. Kein durchgeknallter General, Offizier oder einfacher Soldat würde sich mehr an Zivilisten vergehen können, weil in diesem Fall die KI die Waffen sperrte, beispielsweise.
Das würde zwar dem einen oder anderen Menschen den Tod ersparen, aber hier geht es um Grundsätzliches: "Die KI-Kampfmaschine kennt weder Hass noch Angst oder Verzweiflung. Sie kennt auch nicht Gnade und nicht Mitleid. Man kann einer Maschine nicht die Lizenz zum autonomen Töten überantworten. Das ist moralisch inakzeptabel", schreibt der Journalist Prantl kategorisch.
Die Entscheidung, einen anderen Menschen umzubringen, weil er einer von der Regierung als feindlich deklariertem Staat angehört, sollte doch bitteschön ganz frei und mit dem erwünschten Hass gegen die andere Nation fallen. Das darf dann durchaus mit Angst verbunden sein, man ist ja auch nur Mensch. Und in dem einen oder anderen Fall kann man vielleicht etwas weniger brutal vorgehen, wenn man sowieso auf die Gewinnerstraße einbiegt. Das alles ist dann offenbar "moralisch akzeptabel".
Weniger aus moralischen denn aus Gründen der politischen Entscheidungsfreiheit soll laut der KI-Projektgruppe der Bundestagsabgeordneten der Einsatz der Tödlichen Autonomen Waffensysteme international geächtet werden. Das findet Prantl auch, denn:
Es gibt Beispiele für Waffen, die erst eingesetzt, dann aber geächtet wurden: das Giftgas, die Blendlaser, die Landminen, die Streumunition. [Indes:] Aus der Welt sind die autonomen Waffen mit einer Ächtung nicht – so wenig, wie die Ächtung von Giftgas oder Streumunition deren Einsatz völlig verhindert.
Süddeutschen Zeitung, 3. Juni 2023
Eine Ächtung ist halt kein Verbot. Vielmehr erklären Staaten, diese Waffen nicht anwenden zu wollen – und verurteilen die Staaten, die das dennoch tun. Realistisch, wie Politiker nun einmal sind, wissen sie indes schon, was aus militärischer Sicht an dieser Sorte dran ist und dass deshalb im Ernstfall die Ächtung wenig bewirkt. Ihr Schluss: Jederzeit in der Lage sein, Angriffe mit ihnen abzuwehren – und mit noch wirksameren Gegenmitteln zu kontern.
Also wird fleißig an diesen Systemen geforscht und gebaut. Wie nun auch in puncto KI für militärische Zwecke. Explizit begrüßt dies die Bundestagsprojektgruppe.
Nicht auszudenken, wenn Deutschland und die EU hier ins Hintertreffen gerieten gegenüber den USA und China. Technologieführerschaft bei KI lautet die so harmlos daher kommende Umschreibung für den Anspruch, in Europa in der vielleicht kommenden maßgeblichen Militärtechnik führend zu werden. Gegen wen die wohl potenziell einsatzfähig sein soll...?
Der Übergang von einem defensiven zu einem offensiven Einsatz ist dabei, wie stets in militärischer Strategie, fließend. Es geht schließlich um den Sieg im Krieg. Wenn Gewalten aufeinander treffen, dürfen dem weder Ächtungen noch Verbote im Wege stehen.
Genau deshalb werden alle möglichen Waffen eingesetzt – die dem Kriegszweck am besten dienen. Giftgas kann in dieser Hinsicht kontraproduktiv sein, seine Wirkung ist schwer einzuhegen auf den Feind. Landminen hingegen oder Streumunition erfreuen sich in den kriegerischen Auseinandersetzungen weiter tödlicher Beliebtheit.
Nützliche Apokalypse: KI-Entwickler warnen vor ihrer Schöpfung
Vor einer noch viel umfassenderen Fähigkeit von KI warnen ausgerechnet jene, die sie maßgeblich entwickelt haben und weiter entwickeln.
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
Diesen Aufruf [5], KI als so ernstes gesamtgesellschaftliches Risiko zu behandeln wie Pandemien oder einen Atomkrieg, unterzeichneten – neben vielen anderen Wissenschaftlern und Führungskräften US-amerikanischer Universitäten und Institute – Sam Altman von OpenAI, Bill Gates und Manager von Microsoft, Lila Ibrahim von Google Deepmind, Daniel Amodei, Chef von Anthropic, sowie der Vorstandsvorsitzende von Stability AI, Emad Mostaque. Sie alle arbeiten mit ihren Unternehmen an KI-Systemen.
Einen Stopp jeglicher weiteren Entwicklung, gar die Aufgabe der neuen Technik, enthält der Aufruf allerdings nicht – was konsequent wäre, wenn damit ein solch immenses Risiko der Auslöschung der Menschheit tatsächlich bestünde. Vielmehr soll es entschärft (mitigating) werden. Soll man das wirklich glauben?
Die KI-Entwickler sind erschrocken über das Monster, das sie geschaffen haben, und mahnen dringend, es zu zähmen? Auf jeden Fall schüren sie den Hype um eine angeblich autonome Superintelligenz. Außerdem kommt man so Bestrebungen von Staaten zuvor, der KI Grenzen zu setzen.
"Wir sind doch so verantwortungsvoll und erkennen die Risiken. Das regeln wir schon selbst", lautet die Botschaft zwischen den Zeilen. Und so passt es: Das "Monster" ist bei seinen Schöpfern in den besten Händen. Gut verpackt und auf das jeweilige Bedürfnis der Anwender zugeschnitten verkaufen wir es gern – sei es ein Drehbuch für die Serie oder ein Programm, um den Krieg zu gewinnen!
Natürlich löscht KI die Menschheit nicht aus. Die neue Technik ist kein Subjekt mit einem Zweck, den es verfolgt. So wenig wie es die Dampfmaschine, der Dynamo, der Kunstdünger, die Gentechnik, der Computer oder die Atomenergie sind.
Im Unterschied zu bisheriger neuer Technik gibt es bei KI indes die Sorge, dass sie sich verselbstständigt, also ihre Anwender sie nicht vollständig im Griff haben. Bei der Erfindung der Dampfmaschine oder der Stromerzeugung musste man sich diese Sorgen nicht machen. Da standen Sicherheitsfragen im Vordergrund, wie auch bei der Gentechnik: Kann es zu unkontrollierten Explosionen kommen oder zur Verbreitung von gefährlichen Gensequenzen in der Natur?
"Fluch oder Segen"? Wie bei jeder Technik die falsche Frage
Die Besonderheit von KI besteht darin, dass sie mit statistischen Wahrscheinlichkeiten arbeitet. Falsch oder richtig sind nicht ihre Kategorien, schon gar nicht moralische Kriterien. Sie entscheidet selbstständig nichts, aber ihre Rechnereien erledigen und ersetzen geistige Fließbandarbeit, generieren Texte, schreiben vorliegende Dateninhalte fort.
Noch gibt es keine KI, die Entscheidungen autonom trifft, unabhängig von der menschlichen Vorgabe. Indem sie auf Basis des vorliegenden Datenmaterials und ihrer Algorithmen ungeahnte logische Verknüpfungen herstellte, lernte – im Hinblick auf das von Menschen diktierte Ziel jedoch eine falsche Entscheidung treffen könnte. Daran arbeiten allerdings einige KI-Forscher – und dass natürlich mehrheitlich richtige Entscheidungen herauskämen.
Inwieweit sie ihrer Begeisterung für die neue Technik erliegen und sie überschätzen, oder sie tatsächlich so etwas wie eine denkende Maschine erschaffen, ist derzeit nicht abzusehen. Die führenden Staaten beobachten jedenfalls mit Argusaugen, wohin sich das entwickelt und welche Chancen und Risiken sich daraus für den Reichtum ihrer Nation und die darauf basierende Macht ergeben.
Ein "Monster" ist KI nicht. Vor allem nicht etwas, was wie aus heiterem Himmel über die Menschheit kommt und wahllos nach Anwendungen sucht. Sondern KI hilft Unternehmen und Staaten, ihre Ziele noch besser zu verfolgen. Selbstverständlich muss die Künstliche Intelligenz dazu ganz gezielt und mit möglichst wenigen Fehlern ihre Leistung bringen.
Darum, dass sie dies zuverlässig schafft, kursieren die vielen Bedenken. Wenn das durch entsprechende Verbesserungen funktioniert, steht der Verbreitung von KI nichts im Wege.
Die unterliegende Konkurrenz mag dann vielleicht fluchen, und die Sieger genießen den Segen des Erfolgs. "Fluch oder Segen" ist aber bei KI, wie bei jeder Technik, die falsche Frage. Sondern es kommt darauf an, wer Technik mit welchem Zweck benutzt. Für Profit und Macht eingesetzt sehen die Folgen halt anders aus als für ein Leben mit wenig Arbeit, viel Genuss und keinen Kriegen.
URL dieses Artikels:
https://www.heise.de/-9199773
Links in diesem Artikel:
[1] https://www.bundestag.de/resource/blob/672932/8dafccf73bce9d9560223d1683d82cb9/PG-2-Projektgruppenbericht-data.pdf
[2] https://www.heise.de/tp/article/Kuenstliche-Intelligenz-Weder-Fluch-noch-Segen-9199763.html
[3] https://www.heise.de/tp/article/Kuenstliche-Intelligenz-Ueber-Risiken-und-Nebenwirkungen-9199767.html
[4] https://www.bundestag.de/resource/blob/672932/8dafccf73bce9d9560223d1683d82cb9/PG-2-Projektgruppenbericht-data.pdf
[5] https://www.safe.ai/statement-on-ai-risk#open-letter
Copyright © 2023 Heise Medien