Das KI-System GPT-3.5 hat demnach im Vergleich zu anderen KI-Modellen aggressivere Entscheidungen getroffen, wenn es um den Einsatz von Atomwaffen ging. Das LLM GPT-4 war demnach besonders kreativ, um den Einsatz von Kernwaffen zu rechtfertigen.
Wer in seiner Forschung zu KI im Militärischen Bereich zu Sprachmodellen greifen muss, hat damit nur absolute Unfähigkeit unter Beweis gestellt. Wer dann meint derartigen "Ratschlägen" der KI folgen zu müssen, sollte direkt nuklearen Suizid anstreben, anstatt andere Menschen mit derart dämlichen Ansätzen zu belästigen.