KI, wie sie derzeit durchaus auch schon verwendet wird, soll automatische Anpassungen zur Ausführung einer Vernichtung eines vorher durch einen Menschen ausgewählten Ziels bewerkstelligen - nicht die Auswahl eines Ziels! Wir haben Baumarktdrohnen, ein Ziel (einbestiommter Soldat, ein Fahrzeug oä.) wird ausgewählt und wenn die Verteidiger mit einer Funkstörwaffe, die es aktuell als Handwaffen gibt, den Funk stört und so den "Fernpiloten" von der Drohne trennt, kann die Drohne allein diesen Soldaten vernichten (töten). Ethisch bedenklich ist dabei eventuell, dass die Drohne nach ausgeschalteter Fernbedieung auch nicht mehr gestoppt werden kann. Wenn sich die gegnerischen Soldaten plötzlich ergeben, werden sie, wie früher beim 1. und 2. Preußischen Garderegiment üblich, trotzdem vernichtet. Eine Entscheidung trifft diese KI dabei aber nicht - sie trifft eben gerade ausdrücklich keine Entscheidung.
Large Language Models auf der anderen Seite können gar nichts bewegen, sie labern irgendeinen Menschen voll. Im UK soll es schon Gerichtsprozesse gegeben haben, wo sich Richter nicht mehr genügend Zeit genommen haben, eine Urteilsprädiktion eines LLM zu hinterfragen, aber bei Zielauswahl für Töten mit Einsatz von Atomwaffen würde ich tatsächlich nicht befürchten, dass diejenigen Menschen, die in entsprechende Positionen gewählt werden, einfach nur "Computer says no!" rezitieren. (vgl. Little Britain) Skynet ist nicht das, was auf absehbare Zukunft überhaupt denkbar wäre, sondern tatsächlich nur eine Computer-Says-No-Mentalität.