"Atomkrieg aus Versehen": Gesellschaft für Informatik sieht reale Gefahr

Auch in der "Terminator"-Filmreihe ging es um Künstliche Intelligenz und die Gefahr eines Atomkrieges, den keine Seite gewollt hat. Foto: Rendol112211 via Wikimedia Commons / CC BY-SA 4.0

Dokumentiert: Offener Brief – "Fehler in Frühwarnsystemen können zu Atomkrieg aus Versehen führen"

Sehr geehrter Herr Bundeskanzler Scholz, sehr geehrte Frau Ministerin Baerbock, sehr geehrte Frau Ministerin Lamprecht, sehr geehrte Fraktionsvorsitzende im Bundestag,

Die Informatik spielt auch bei militärischen Planungen und Operationen eine immer größere Rolle. Dies betrifft auch Atomkriegsrisiken, z. B. aufgrund von Fehlern in Frühwarnsystemen für nukleare Bedrohungen. Mit diesen Empfehlungen möchten wir aus Sicht von Informatikern auf solche Risiken in Zusammenhang mit dem Krieg in der Ukraine hinweisen. Mit diesem Krieg in der Ukraine wächst das Risiko einer nuklearen Eskalation.

Frühwarnsysteme für nukleare Bedrohungen nutzen automatisierte Informationsverarbeitung und basieren auf Sensoren und sehr komplexen Computernetzen, die darauf konfiguriert sind, Angriffe mit Atomwaffen früh genug zu erkennen, um einen unmittelbaren atomaren Gegenschlag auszulösen ("Launch on Warning").

Die aktuelle Lage führt zu einer erhöhten Gefahrensituation. Auch wenn grundsätzlich eine große Hemmschwelle für den Einsatz von Atomwaffen besteht, könnte Russland ihren Einsatz in Erwägung ziehen, etwa wenn der russische Präsident die Existenz seines Landes bedroht sieht oder die Nato aus russischer Sicht zu sehr in den Krieg eingreift.

Wenn mehrere solcher Kriterien jeweils zu einem gewissen Grad gleichzeitig zutreffen und womöglich zusätzlich ein Fehlalarm in einem Frühwarnsystem auftritt, kann dies Anlass für ein "Launch on Warning" sein. Dieses Risiko wird weiter steigen, wenn zunehmende Cyberangriffe zu einem Cyberkrieg zwischen der Nato und Russland eskalieren.

Wir empfehlen daher:

• Möglichkeiten zur Deeskalation zu nutzen,

• zu verhandeln, um Kompromisse zu finden,

• Maßnahmen zu vermeiden, die das Atomkriegsrisiko erhöhen,

• Kommunikationskanäle zwischen politischen und militärischen Entscheidungsträgern erhalten, verbessern und falls nicht mehr vorhanden, wieder aufbauen.

Hochachtungsvoll,

Ihre Christine Regitz, Präsidentin Gesellschaft für Informatik e.V.

Ihr Prof. Dr. Hannes Federrath, Past President Gesellschaft für Informatik e.V.

Ihr Prof. Dr. Jörg Siekmann, Gründer Deutsches Forschungszentrum Hochschule Trier / für Künstliche Intelligenz (DFKI)

Ihr Prof. Dr. Karl Hans Blaesius, Mit-Iniiator der Initiative "Atomkrieg aus Versehen"

Zum Hintergrund:

In Frühwarnsystemen kann es zu Fehlalarmen kommen, das heißt, es wird ein Angriff mit Atomwaffen gemeldet, obwohl keine Bedrohung vorliegt. Bei der Bewertung von Alarmmeldungen wird es in der verfügbaren geringen Zeitspanne von wenigen Minuten nicht möglich sein zu überprüfen, ob es sich um einen echten Angriff oder einen Fehlalarm handelt. Auch oder gerade weil hierbei immer mehr computergestützte Entscheidungsunterstützung im Einsatz ist, liefern die Frühwarnsysteme keine hinreichende Sicherheit:

Wichtige Daten für die Erkennung können fehlen, denn z.B. kann mit Mitteln der elektronischen Kampfführung die Erkennung durch Radaranlagen gestört werden. Des Weiteren spielen bei der Erkennung auch vage Aspekte eine Rolle wie Größe und Helligkeit von Signalen. Die Erkennung von Objekten und deren Merkmalen ist daher grundsätzlich unsicher.

Auch der Einsatz Künstlicher Intelligenz verhilft nicht zu mehr Zuverlässigkeit, da die Systeme stets Wahrscheinlichkeitswerte liefern. Automatische Entscheidungen auf Basis von vagen, unsicheren oder unvollständigen Daten können prinzipiell mit einer gewissen Fehlerwahrscheinlichkeit falsch sein.

In normalen Anwendungen computergestützter Entscheidungen, selbst bei autonomen Fahrzeugen beispielsweise, sind diese Risiken beherrschbar und im Allgemeinen akzeptabel – bei einem dritten Weltkrieg mit der Gefahr der Auslöschung allen Lebens sind sie es nicht.

Da eine Alarmmeldung nicht mit Sicherheit korrekt bewertet werden kann, spielt der Kontext eine entscheidende Rolle. Fehlinterpretationen aufgrund einer Erwartungshaltung in Krisensituationen können dann leicht zu falschen Entscheidungen führen, wie z.B. der versehentliche Abschuss einer ukrainischen Passagiermaschine im Januar 2020 im Iran nach der Tötung des iranischen Generals Soleimani durch die USA und anschließenden Vergeltungsangriffen des Iran auf amerikanische Stellungen im Irak.

Auch bei Alarmmeldungen in Frühwarnsystemen für nukleare Bedrohungen kann eine Erwartungshaltung in Krisensituationen zu fatalen falschen Entscheidungen führen.

Insbesondere zwischen den großen Atommächten USA und Russland ist es daher unerlässlich, dass es gute Kommunikationskanäle und ein gewisses Maß an Vertrauen zwischen den militärischen und politischen Entscheidungsträgern gibt.

Der Abbruch von Beziehungen auf vielen Ebenen (z.B. politisch, wirtschaftlich, kulturell) zwischen Nato-Staaten und Russland erhöht damit auch die Risiken einer versehentlichen nuklearen Konfrontation.

Weitere Informationen: atomkrieg-aus-versehen.de