Ansicht umschalten
Avatar von Prof. Dr. Klaus Moegling
  • Prof. Dr. Klaus Moegling

327 Beiträge seit 02.05.2019

Re: Die vermeintlichen "Russischen Sicherheitsinteressen"

"Seitdem es auf beiden Seiten ein ebenso überdimensioniertes Zweit- wie Erstschlags-potential gibt, ist es völlig egal wer wo strategische Atomwaffen stehen hat und wie lange die bis zur Stadt X benötigen. "
Das sehe ich anders: Die Verkürzung auf wenige Minuten vom Abschuss bis zum Einschlag bedeutet, dass ein Atomkrieg aus Versehen wahrscheinlicher wird. Hier bleibt keine Zeit zur Prüfung, ob sich nun eine Fehlermeldung des Systems vorliegt (was bereits mehrfach in der Vergangenheit der Fall war). Es verbleibt gerade noch einmal Zeit die nukleare Gegenreaktion auszulösen.
Noch problematischer wird es, wenn hierbei die Entscheidung von der KI vorstrukturiert wird und auch hier keine Zeit verbleibt, die Handlungsanweisung der KI zu überprüfen. Wir haben uns damit bei Telepolis kürzlich auseinandergesetzt:

Teil 1
Karl Hans Bläsius, Klaus Moegling
KI und Krieg: Entgleitet uns Menschen die Kontrolle?
Viele KI-Tools führen zur Verbesserung der Lebensqualität. Bei militärischen Anwendungen lauern aber große Gefahren. Eine Warnung.
https://www.telepolis.de/features/KI-und-Krieg-Entgleitet-uns-Menschen-die-Kontrolle-9638085.html, 25.2.2024

Teil 2
Klaus Moegling, Karl Hans Bläsius
KI und nukleare Risiken
Mitwirken der KI bei nuklearen Waffensystemen bedrohlich. Politische Forderungen müssen zu mehr Kontrolle führen.
https://www.telepolis.de/features/KI-und-Krieg-Nukleare-Risiken-und-politische-Forderungen-9638955.html, 26.2.2024

Bewerten
- +
Ansicht umschalten