Atomkrieg aus Versehen: "Deepfakes und Cyberangriffe könnten Auswirkungen haben"

Cybersoldaten

Bild: metamorworks, Shutterstock.com

KI steigert Gefahr militärischer Eskalation. Komplexität nuklearer Bedrohung könnte unkontrollierbar werden. Experte sieht nur eine Lösung. (Teil 2 und Schluss)

Im ersten Teil dieses Interview diskutiert Prof. Karl Hans Bläsius, Experte für Künstliche Intelligenz, die Rolle und Gefahren von KI in der modernen Kriegsführung. Er betont, dass autonome Waffensysteme, obwohl effizient, ethische und sicherheitstechnische Bedenken aufwerfen, da sie Zerstörung und Tod verursachen.

Das Risiko unvorhersehbarer Interaktionen, ähnlich den "flash crashes" an Finanzmärkten, kann zu unkontrollierbaren Eskalationen führen. Bläsius hebt hervor, dass Israel bereits KI zur Zielbestimmung einsetzt und dies problematisch sein kann, wenn menschliche Überprüfung fehlt.

Die Komplexität und der Zeitdruck militärischer Entscheidungen erfordern KI-Einsatz, aber die Unsicherheit und Unvollständigkeit der Daten können zu fehlerhaften Entscheidungen führen. Im Ukraine-Krieg wird KI zur Lagebeurteilung genutzt, was das Eskalationsrisiko erhöht, insbesondere durch nukleare Drohungen und mögliche Fehlalarme in Frühwarnsystemen.

Bläsius warnt vor einem "Atomkrieg aus Versehen", der durch Missverständnisse und Fehlinterpretationen ausgelöst werden könnte.

Gesteigertes Risiko durch Ukraine-Krieg

▶ Sie sind auch Mitbegründer der Interessengemeinschaft "Atomkrieg aus Versehen". Weshalb sehen Sie die Notwendigkeit dafür, vor der Gefahr einen "Atomkriegs aus Versehen" zu warnen?

Karl Hans Bläsius: Bereits in den 1980er-Jahren hatte ich mich mit dem Risiko eines "Atomkriegs aus Versehen", zum Beispiel infolge eines Computerfehlers beschäftigt. Etwa ab 2016 hatte ich den Eindruck, dass das Risiko eines Atomkriegs wieder steigt und hatte 2019 die Seiten atomkrieg-aus-versehen.de eingerichtet, um auf diese Risiken hinzuweisen, da sie aus meiner Sicht viel zu wenig bekannt waren.

Meine größte Befürchtung war, dass der Klimawandel in den nächsten Jahrzehnten dazu führen wird, dass viele Regionen unbewohnbar werden, die Menschen woanders hinmüssen, und dies zu Krisen und Konflikten führen wird, sodass jeder Fehler in einem Frühwarnsystem immer gefährlicher wird und dies irgendwann zu einem "Atomkrieg aus Versehen" führen könnte.

Aus meiner Sicht ist das Risiko eines "Atomkriegs aus Versehen" nun aber auch aufgrund des Ukraine-Krieges deutlich gestiegen.

Der 26. September 1983

▶ Gab es denn in der Vergangenheit Situationen, in denen es um Haaresbreite zu einem Atomkrieg aus Versehen gekommen ist?

Karl Hans Bläsius: Ja, es gab einige solche Situationen, in denen es nur durch großes Glück nicht zu einem "Atomkrieg aus Versehen" kam. Insbesondere während der Kuba-Krise gab es einige sehr gefährliche Situationen.

Besonders bekannt geworden ist ein Vorfall vom 26. September 1983: Ein Satellit des russischen Frühwarnsystems meldet fünf angreifende Interkontinentalraketen. Da die korrekte Funktion des Satelliten festgestellt wurde, hätte der diensthabende russische Offizier Stanislaw Petrow nach Vorschrift die Warnmeldung weitergeben müssen. Er hielt einen Angriff der USA mit nur fünf Raketen aber für unwahrscheinlich, wollte nicht für einen dritten Weltkrieg verantwortlich werden und entschied trotz der Datenlage, dass es ein Fehlalarm sei.

▶ Sie sind überzeugt, dass die Komplexität von nuklearen Bedrohungssituationen in einem kaum beherrschbaren Maße zunehmen wird. Können Sie dies bitte näher erläutern?

Karl Hans Bläsius: In den vergangenen Jahren hat ein neues Wettrüsten in verschiedenen militärischen Dimensionen begonnen. Die meisten dieser Entwicklungen sind noch am Anfang und die Folgen kaum kalkulierbar. Dies gilt für neue Trägersysteme von Atomwaffen, wie Hyperschallraketen, die geplante Bewaffnung des Weltraums, der Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz bis hin zu autonomen Waffensystemen.

Alle diese Aspekte spielen auch in Frühwarnsysteme zu Erkennung von Angriffen mit Atomraketen rein und werden die Komplexität dieser Systeme deutlich erhöhen. Unkalkulierbar sind hierbei auch potenzielle Cyberangriffe, wobei Komponenten oder Daten eines Frühwarnsystems manipuliert werden könnten.

Desinformation und Deepfakes

Auch Desinformationen und Deepfakes können hierbei eine Rolle spielen. Mit Techniken des "Deepfake" können Audio- und Video-Dateien erzeugt werden, in denen eine Person einen beliebigen Text spricht, wobei Aussprache und Bild so zu dieser Person passen, dass diese Fälschung kaum erkennbar ist.

Besonders gefährlich kann es werden, wenn es Hackern gelingt, sich in eine Konferenz zur Bewertung einer nuklearen Alarmmeldung einzuschalten, dabei die Verbindung mit einem "falschen" Präsidenten herstellen und diesen sprechen lassen, was sie möchten. Auch die Tatsache, dass Bedienungsmannschaften wissen, dass alles (zum Beispiel Ton- und Videoaufnahmen) gefälscht sein mag, kann zu großen Unsicherheiten bei Konferenzen zur Bewertung von Alarmmeldungen in Krisensituationen führen.

Wahrscheinlichkeit ist keine Sicherheit

▶ Im November 2023 veröffentlichte das Pentagon seine Strategie für die Einführung von KI-Technologien. Darin heißt es, "die neuesten Fortschritte bei Daten, Analysen und KI-Technologien ermöglichen es den Führungskräften, schneller bessere Entscheidungen zu treffen, vom Sitzungssaal bis zum Schlachtfeld". Warum teilen Sie diesen Optimismus nicht?

Karl Hans Bläsius: Natürlich können solche Prozesse mithilfe von KI verbessert und beschleunigt werden. Allerdings gilt auch hier, dass solche Entscheidungen in unsicherem Kontext zu treffen sind und KI-Ergebnisse nicht mit Sicherheit, sondern nur mit gewisser Wahrscheinlichkeit gelten. Unser normales Alltagswissen ist in der Regel vage, unsicher und unvollständig und dies gilt auch für solche militärischen Kontexte. Das Problem der Unsicherheit ist nicht mit technischen Mitteln lösbar.

In einem Beitrag vom 11. 2. 2024 bei Telepolis wird vor dem Einsatz von KI-Systemen gewarnt. Hintergrund war, dass eine Studie auf Basis von Experimenten mit verschiedenen Systemen der generativen KI zu einem erschreckenden Ergebnis gekommen ist. Die Wissenschaftler schreiben: "Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt."

KI-Modelle neigen zu Krieg

▶ Wie ist dieses Verhalten der KI zu erklären?

Karl Hans Bläsius: Es ist nicht leicht dies zu erklären, dazu sind sicher noch weitere Untersuchungen erforderlich. Ein solches eskalierendes Verhalten könnte verschiedene Ursachen haben.

Ein Grundproblem in der KI sind häufig riesige Suchräume, also eine große Anzahl an Alternativen, die in einzelnen Situationen einer Entscheidung zugrunde liegen. Dies gilt auch für Systeme der generativen KI, wobei in jeder Situation sehr viele mögliche Alternativen für eine nächste Aktion oder eine Antwort existieren, und es kommt darauf an, unter diesen vielen Alternativen eine möglichst gute oder sogar optimale Auswahl zu treffen. Die einzelnen Alternativen sind in der Regel gewichtet und auf dieser Grundlage kann nach bestimmten Strategien und Heuristiken eine Auswahl erfolgen.

Mit dem Ziel, das Systemverhalten zu verbessern, kann versucht werden, den Erfolg einer Aktion zu bewerten, und auf dieser Grundlage die Gewichte von möglichen Operationen zu verändern.

Eine Bewertung des Erfolges kann zum Beispiel bei generativer KI auf Basis der Resonanz zu den gelieferten Antworten erfolgen. Dies könnte die weitere Kommunikation mit der Person oder dem technischen System, von dem die Anfrage kam, betreffen oder ein stärkerer "Traffic" im Internet, der dieser Aktion zugeordnet werden kann.

Erfahrungen in den sozialen Medien haben gezeigt, dass sich Falschinformationen, polarisierende und erregende Inhalte im Internet schneller verbreiten als sachliche, zurückhaltende Informationen.

Solche Inhalte binden die Aufmerksamkeit der Nutzer stärker, was dem Geschäftsmodell dieser Unternehmen entspricht. Dies führt zu höheren Gewichtungen entsprechender Alternativen bei der Auswahl der nächsten Systemvorschläge und begünstigt somit ein eskalierendes Verhalten von Nutzern und Bots, die in diese Prozesse einbezogen sind.

Ähnlich wie bei den sozialen Medien werden vermutlich auch die Unternehmen, die Systeme der generativen KI anbieten, Prioritäten in ihren Systemen so setzen, dass möglichst viele Nutzer möglichst lange aktiv sind. Dies wird am besten damit erreicht, dass mehr Resonanz auf Antworten höher bewertet wird, was ein eskalierendes Verhalten begünstigt.

▶ Sie äußern auch die Bedenken, dass es zu gefährlichen Wechselwirkungen zwischen KI-Systemen und Atomwaffen sowie anderen Massenvernichtungswaffen kommen kann, die sich einer menschlichen Kontrolle möglicherweise vollständig entziehen. Können Sie dies bitte erläutern?

Karl Hans Bläsius: Einige Wechselwirkungen zwischen KI und Atomwaffen sind schon angesprochen worden. Ob es Risiken bezüglich des Startens von Atomraketen gibt, darüber kann nur spekuliert werden. Jedenfalls wird die Aktivierung oder Befehlserteilung zum Starten von Atomwaffen über irgendwelche, nicht nachvollziehbare Netzwerke erfolgen. Auch hierbei gibt es vielfältige Risiken. Deepfakes und Cyberangriffe könnten Auswirkungen auf die Befehlskette haben.

Des Weiteren kann KI Auswirkungen auf eine mögliche oder vermutete Gefährdung der Zweitschlagfähigkeit haben. Zweitschlagfähigkeit bedeutet, dass man einen Einschlag der gegnerischen Raketen abwarten kann und danach immer noch genügend Zeit und Potenzial hat, die eigenen Raketen zu starten. Eine Zweitschlagfähigkeit könnte zum Beispiel gefährdet werden durch eine höhere Treffsicherheit und mehr Autonomie von Waffensystemen, zum Beispiel bei U-Booten. Wenn dies der Fall ist, könnten "Launch-on-warning"-Strategien in Betracht gezogen oder sogar automatisiert werden. "Launch-on-warning" besagt, dass die eigenen Raketen gestartet werden, bevor die gegnerischen einschlagen.

Auch von Systemen der generativen KI können erhebliche Risiken ausgehen. Systeme wie ChatGPT haben enorme Fähigkeiten in der sprachlichen Kommunikation, können programmieren und auch zur Erzeugung von Cyberangriffstechniken eingesetzt werden. Diese Systeme werden derzeit mit Hochdruck weiterentwickelt.

Systeme wie ChatGPT sind quasi-autonome Systeme, sie agieren im Internet ohne Kontrolle durch Menschen, mit entsprechenden Cyberangriffsfähigkeiten kombiniert, können sie autonome Cyberwaffenfunktionen erlangen. Solche Systeme könnten auch zur Herstellung von wirksamen Biowaffen und chemischen Waffen missbraucht werden. Das Verhalten von Systemen der generativen KI ist derzeit nicht in hinreichendem Maße kontrollierbar.

▶ Sie fordern eine Regulierung der KI. Wie könnte diese aussehen?

Karl Hans Bläsius: Das ist schwierig. Ein erster wichtiger guter Ansatz ist der AI-Act der EU. Auch in anderen Ländern gibt es bereits Vorgaben für die KI-Entwicklung. Dies reicht aber bisher nicht aus. Ein aktueller Artikel von führenden KI-Wissenschaftler bei Science enthält einige Vorschläge für verbindliche Regeln. Es wird aber auch verdeutlicht, dass noch weitere Forschung zur Bestimmung möglicher Risiken erforderlich ist.

Wichtig wären jedenfalls wirksame Vereinbarungen die weltweit gelten, wobei alle Nationen mitmachen müssten. Dies erscheint derzeit kaum realisierbar.

▶ Immer wieder kommen Sie bei Ihren Reflexionen über die Gefahr eines Atomkriegs aus Versehen auf die Notwendigkeit der Verbesserung von Beziehungen zwischen den verschiedenen Nationen und vertrauensbildenden Maßnahmen zurück. Warum?

Karl Hans Bläsius: Eine auf Konfrontation statt auf Zusammenarbeit ausgerichtete Politik zwischen den großen Industrienationen und Militärmächten wird einen ungebremsten Rüstungswettlauf befeuern. Keine der großen Nationen wird das Risiko eingehen, in den technologisch wichtigen Bereichen Cyberraum und Künstliche Intelligenz den Konkurrenten hinterherzuhinken. Als Folge könnten Waffensysteme entstehen, die für Menschen unbeherrschbar werden. Auch die Bestrebungen zur Entwicklung einer Superintelligenz werden beschleunigt. Niemand möchte dieses Rennen verlieren. Der Politik und dem Militär könnte die Kontrolle entgleiten.

Militärische Stärke und nukleare Abschreckung schützen nicht vor Risiken in Zusammenhang mit Systemen der generativer KI, da diese Risiken nicht in erster Linie von Staaten ausgehen. Schutz bieten können nur eine weltweite Zusammenarbeit und Vereinbarungen zwischen allen Nationen. Als Grundlage dafür ist ein gewisses Maß an Vertrauen erforderlich.

Für eine globale Sicherheit und eine friedlichere Welt sind dringend wirksame Vereinbarungen zwischen allen Nationen erforderlich zum Klimawandel, zur Rüstungskontrolle bei Atomwaffen, zu autonomen Waffen und Cyberwaffen sowie zur Regulierung der KI. Als Voraussetzung hierfür müssen Vertrauen, Zusammenarbeit und gute Kommunikationskanäle zwischen allen Nationen, auch heutigen Gegnern, aufgebaut und verbessert werden. Die kommenden Risiken sind nicht alleine auf technischer Ebene oder mit militärischer Stärke lösbar.