logiko schrieb am 09.02.2021 14:19:
Wenn Drohnen einen Angreifer ausschalten, ist das eine Abwehr - zumindest im philosophischen Sinne. Schalten sie einen Verteidiger aus, ist das ein Angriff.
Künstliche Intelligenz ist übrigens dann gefährlich, wenn sie leicht zu täuschen und damit zu missbrauchen ist, während dumme autonome Systeme mehr wie wie Streubomben wirken, die in Massen über feindliches Territorium abgeworfen wurden, sie machen Infrastruktur kaputt und Kollateralschaden. Kommt immer dauf an, was man für einen Sieg braucht, falls man siegen will, statt vernichtet zu werden. Letztlich wird aber niemand ein System so autonom machen, dass es keinen Ausschaltknopf gibt.^^
Das Hauptproblem ist die Verantwortung bei Kriegsverbechen oder "Unfällen"*.
Wenn die Drohnen gehackt wurden und man das nachweisen kann - geschenkt.
Was aber wenn eine autonome Drohne sich dazu entscheidet
Zivilisten zu bombardieren?
Klar, viele Kriegsverbrecher werden ohnehin nie verurteilt,
aber hier wüsste man ja nicht mal wen man anklagen soll...
Das die USA das nicht als Problem sehen,
liegt daran dass sie kein Problem mit Kriegsverbechen haben.
Sie sagen einfach dass sie keine begehen, fertig.
Gottseidank gibt es aber in Deutschland noch Leute die sich über so etwas Gedanken machen.
Andere (USA?, Türkei?) scheinen das dann eher so zusehen,
dass es einfach keine Verantwortlichen mehr gibt.
Da lässt es sich doch gleich viel entspannter Krieg führen!
(* "Hey Jungs, bevor ihr die autonomen Drohnen losschickt, stellt noch schnell die Zivilistenerkennung aus. Ja, war dann ein dummer Unfall, und wir werden dann näher untersuchen wie es zu dieser Fehlfunktion kam... <zwinkerzwinker>")