Begünstigt Künstliche Intelligenz die Gefahr eines Atomkriegs aus Versehen?
KI-Waffensysteme können Eskalationsspiralen antreiben. Ihnen fehlt die Fähigkeit zu rationaler Entscheidung. Wozu das führen kann. (Teil 1)
Interview mit Prof. Karl Hans Bläsius, Professor für Künstliche Intelligenz an der Hochschule Trier und Betreiber der Webseiten atomkrieg-aus-versehen.de und ki-folgen.de über die KI in der modernen Kriegsführung und die Gefahren für die Menschheit.
▶ Prof. Bläsius, Künstliche Intelligenz spielt heute die entscheidende Rolle bei der Konzeption von autonomen Waffensystemen. Wie beurteilen Sie diese Entwicklung?
Karl Hans Bläsius: Autonomie bei technischen Systemen ist grundsätzlich nicht schlecht. Ich hoffe auch noch auf autonome Autos, damit ich auch in hohem Alter fahren darf. Auch in gefährlichem Umfeld können autonom agierenden Roboter sehr nützlich sein. Natürlich möchten auch Militärs mehr Autonomie in Waffensystemen haben, da so in komplexem Umfeld und engen Zeitvorgaben mehr Wirkung erzielt werden kann.
Allerdings geht es hierbei um Waffen, die der Zerstörung und Tötung dienen, deshalb sollten hier andere Maßstäbe gelten. Einerseits sollte ohnehin nicht eine Automatisierung des Tötens angestrebt werden, andererseits ist mehr Autonomie für alle Waffensysteme möglich und dabei könnte es besonders gefährliche Entwicklungen geben, auch in Zusammenhang mit Atomwaffen, zum Beispiel im Falle von autonomen U-Booten, Flugzeugen oder Marschflugkörpern.
▶ Beim Hochfrequenzhandel der Finanzmärkte kommt es ja immer wieder zwischen verschiedenen Algorithmen zu unvorhergesehenen Interaktionsprozessen, die innerhalb von Sekunden zu massiven Kursabstürzen führen (sogenannte "flash crashs").
Kann es auch bei vollautonomen Waffensystemen zu solchen unvorhersehbaren Interaktionen zwischen den automatischen Systemen kommen, die zu unvorhergesehen Kettenreaktion von autonom geführten Angriffen und Gegenangriffen führen?
Karl Hans Bläsius: Ja, dieses Risiko wird auch in einem Bericht von Oktober 2020 mit dem Titel "Autonome Waffensysteme" vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag beschrieben. Hierbei wird auch der Begriff "flash war" verwendet. In sehr kurzen Zeitabschnitten könnten von konkurrierenden Systemen Angriffe und Gegenangriffe geführt werden, die von Menschen nicht mehr kontrollierbar und beherrschbar sind, und so zu einer Eskalationsspirale führen können.
Auch bei autonomen Internetagenten wäre eine solche Kettenreaktion denkbar. Ein solcher "flash war" könnte also auch im Internet erfolgen. Im Internet sind bereits einige Systeme der generativen KI vergleichbar mit ChatGPT im Einsatz und es werden noch weitere dazu kommen. Derzeit wird in vielen Unternehmen und Staaten an Systemen der generativen KI gearbeitet. Neben Menschen könnten auch Bots Fragen und Aufgaben an diese Systeme stellen. Es ist zu erwarten, dass es auch schon bald Interaktionen zwischen diesen Systemen selbst gibt.
Daraus können neue Gefahren entstehen, insbesondere wenn diese Systeme Cyberangriffsfähigkeiten haben. Durch Menschen, Bots oder ein anderes System der generativen KI beauftragt, könnte ein System wie ChatGPT Cyberangriffe ausführen. Andere Systeme der generativen KI, mit denen es ohnehin Interaktionen gibt, könnten dies erfassen und Gegenangriffe starten.
Ohne dass Menschen beteiligt sind, könnte so in kurzer Zeit eine Kettenreaktion zwischen diesen Systemen mit immer stärkeren Cyberangriffen entstehen, also ein "flash war" im Internet. Diese Systeme wären dann de facto autonome Cyberwaffen. Auch wenn die derzeitigen Systeme technisch dazu noch nicht in der Lage sind, ist zu erwarten, dass in regelmäßigen Abständen Erweiterungen aktiviert werden, die vielleicht irgendwann in den nächsten Jahren oder bereits sehr bald solche Fähigkeiten haben.
▶ Wird bereits heute Künstliche Intelligenz beispielsweise bei der Bestimmung militärischer Ziele in Kriegen verwendet? Und wenn ja, wie schätzen Sie dies ein?
Karl Hans Bläsius: Ja, Israel nutzt solche KI-basierten Systeme, um Kämpfer der Hamas und vermutete Aufenthaltsorte zu bestimmen. Hierbei werden umfangreiche Überwachungsdaten genutzt und in großem Umfang Bekämpfungsziele bestimmt. Telepolis hat auch bereits mehrfach darüber berichtet (hier, hier und hier).
Es ist äußerst fraglich, ob solche automatisch bestimmten Ziele noch von Menschen auf Korrektheit überprüft werden. Denn es geht offenbar um eine größere Anzahl. Wenn das nicht der Fall ist, dann entscheidet am Ende eine Maschine, wer getötet wird, auch bezüglich Zivilisten, die diesen Angriffen mit zum Opfer fallen. Dies ist nicht hinnehmbar.
▶ Militärische Aktionen erfolgen häufig unter extremen Zeitdruck und in einer hochkomplexen Situation. Daher bietet sich der zunehmende Einsatz von Künstlicher Intelligenz natürlich eigentlich an, um der unüberschaubaren Datenmengen Herr werden und eine Entscheidung fällen zu können. Ist dies aus Ihrer Sicht problematisch?
Karl Hans Bläsius: Aufgrund von Komplexität und geringen Zeitspannen wird es zunehmend erforderlich sein, Techniken der KI einzusetzen. Allerdings fallen solche Entscheidungen meist in unsicherem Kontext. Die für eine Entscheidung verfügbaren Daten sind in der Regel vage, unsicher und unvollständig.
Bei vagen Werten wie Größe oder Helligkeit von Objekten gibt es ein kontinuierliches Spektrum zwischen "trifft nicht zu" und "trifft zu". Entsprechende Merkmale gelten also nur in gewissem Maße und das ist auch nicht immer sicher, sondern sie gelten eventuell nur mit gewisser Wahrscheinlichkeit.
Dazu kommt, dass für eine Entscheidung wichtige Informationen fehlen könnten. In der KI gibt es auch Techniken, um auf Basis vager, unsicherer und unvollständiger Daten Probleme zu lösen und Entscheidungen zu treffen.
Allerdings gelten solche Entscheidungen dann nur mit bestimmter Wahrscheinlichkeit und können falsch sein. Dies ist eine Grenze, die prinzipiell gilt, egal, wie gut KI-Systeme mal sein werden. Menschlichen Entscheidern sollte diese Problematik immer bewusst sein.
▶ Sie haben es schon angesprochen: Die häufig zu hörende Forderung, die letzte Entscheidung über Leben und Tod müsse bei einem Menschen liegen, kann sich aber als Scheinkontrolle herausstellen. Denn ob der Mensch in der Kürze der Zeit die Informationen selbst bewerten und die Entscheidung der KI verwerfen kann, dürfte fraglich sein, oder?
Karl Hans Bläsius: Ja, das ist sehr fraglich. In vielen Fällen sind automatische Entscheidungen von Menschen schwer überprüfbar, denn diese basieren häufig auf Hunderten von gewichteten Merkmalen, aus denen mit einer speziellen Bewertungsformel ein Gesamtergebnis errechnet wird.
Ein solcher Lösungsweg, also die Begründung für ein Entscheidungsergebnis, ist meist nicht einfach nachvollziehbar. Eine Überprüfung könnte einige Stunden oder auch Tage in Anspruch nehmen, wofür die Zeit in der Regel nicht reicht. Dies wird vor allem im militärischen Kontext gelten.
Wenn nicht das Entscheidungsergebnis selbst von Menschen einfach und schnell bewertbar ist, bleibt dem Menschen nur übrig, zu glauben, was die Maschine liefert. Erfolgreiche und korrekte KI-Entscheidungen werden mit der Zeit auch dazu führen, dass das Vertrauen in solche Systeme steigt, und es für Menschen deshalb immer schwerer wird, sich den Entscheidungen der Maschine zu widersetzen.
Insbesondere könnten Menschen in besonderem Maße zur Rechenschaft gezogen werden, wenn sie anders entscheiden, als von der Maschine vorgeschlagen und sich dies als falsch herausstellt. Die Forderung, dass die letzte Entscheidung über Leben und Tod bei einem Menschen liegen, also das Prinzip "man in the loop" gelten muss, könnte sich als Scheinkontrolle herausstellen. Denn es ist fraglich, ob der Mensch die vorliegenden Informationen in der verfügbaren Zeit bewerten und damit eine geeignete Grundlage für seine Entscheidung haben kann.
▶ Konkret vielleicht im Hinblick auf den Ukraine-Krieg: Inwiefern sehen Sie Ihre Befürchtungen im Hinblick auf den Einsatz von KI dort bestätigt?
Karl Hans Bläsius: Im Ukraine-Krieg wird KI eingesetzt, zum Beispiel für eine detaillierte militärische Lagedarstellung auf deren Basis geeignete Angriffsziele bestimmt werden können. Hierbei wird eine Software des amerikanischen Unternehmens Palantir eingesetzt. Auch darüber hatte Telepolis bereits berichtet. In diesem Krieg sind auch Drohnen besonders wichtig, wobei mir aber nicht bekannt ist, inwieweit KI und Autonomie hierbei eine Rolle spielen.
▶ Sehen Sie die Gefahr einer Eskalationsspirale beim Ukraine-Krieg?
Karl Hans Bläsius: Ja, hier sehe ich ein großes Risiko. Seit Beginn des Krieges gibt es nukleare Drohungen. Die Auswirkungen eines Atomkriegs können so gravierend sein, dass auch in Krisen- und Kriegszeiten eine große Hemmschwelle für den Einsatz von Atomwaffen besteht.
Dennoch sind verschiedene Szenarien denkbar, in denen es zu einem Einsatz kommen kann. Nicht ausgeschlossen werden kann ein Atomwaffeneinsatz, wenn eine Atommacht in eine für sie inakzeptable Lage gerät, wobei von außen kaum abschätzbar ist, unter welchen Umständen dies gilt.
Dies wird für Russland zumindest dann gelten, wenn die Russische Föderation in eine existenzielle Notlage gerät, wobei auch nicht klar ist, unter welchen Bedingungen eine solche Situation eintritt. Ein Atomkriegsrisiko kann aber auch von Zufällen abhängen, zum Beispiel wenn aufgrund eines Fehlers in einem Frühwarnsystem für nukleare Bedrohungen ein nuklearer Angriff gemeldet wird, obwohl keiner vorliegt, es sich also um einen Fehlalarm handelt.
Auch in diesen Fällen gilt, dass die Datengrundlage zur Erkennung solcher Angriffe vage, unsicher und unvollständig ist. Deshalb können automatische Systeme auch in solchen Situationen nicht sicher entscheiden. Zur Bewertung muss der Kontext, also die weltpolitische Lage, herangezogen werden.
Auch weitere Ereignisse, die mit einer solchen Alarmmeldung in Zusammenhang gebracht werden können, könnten dazu führen, dass eine solche Meldung als echt eingeschätzt wird.
Des Weiteren könnte man in Kriegszeiten wie jetzt einem Gegner einen solchen Angriff eher zutrauen. Die vermeintlich angegriffene Nation muss in Erwägung ziehen, die eigenen Atomraketen zu starten, bevor die gegnerischen einschlagen und eine Gegenreaktion erschweren.
Dies könnte dann zu einem "Atomkrieg aus Versehen" führen. Drohungen mit dem Einsatz von Atomwaffen sind genauso unverantwortlich wie Angriffe auf Komponenten der Nuklearstreitkräfte einer Atommacht.
Solche Ereignisse können leicht zu Missverständnissen und Fehlinterpretationen und damit zu einem Atomkrieg aus Versehen führen. Dies gilt auch für die in den vergangenen Tagen bekannt gewordenen Angriffe auf russische Frühwarnsysteme, die das Eskalationsrisiko erheblich erhöht haben.
Karl Hans Bläsius ist Hochschullehrer i. R. Er promovierte 1986 an der Universität Kaiserslautern zu einem Thema aus dem Bereich der Künstlichen Intelligenz. Von 1990 bis 2017 vertrat er das Lehrgebiet „Wissensbasierte Systeme“ im Fachbereich Informatik der Hochschule Trier. Forschungsschwerpunkt war die Dokumentanalyse, wobei Ergebnisse dieser Projekte auch durch Unternehmensgründungen in der Praxis angewendet wurden. Inzwischen im Ruhestand werden im Rahmen einer Lehrveranstaltung „Informatik und Gesellschaft“ an der Hochschule Trier unter anderem auch die Risiken eines Atomkriegs aus Versehen in Zusammenhang mit Informatik und KI behandelt. Als Folge dieser Themenbearbeitung wurde 2019 die Seite www.atomkrieg-aus-versehen.de eingerichtet.