KI würde im Krieg rasch Atomwaffen einsetzen
Militärisch genutzte KI-Modelle neigen im Konfliktfall zu extremen Entscheidungen. Der Griff zur Atombombe würde rasch erfolgen, warnen US-Forscher.
Künstliche Intelligenz hat nicht nur das Potenzial, das Leben der Menschen zu vereinfachen und zu verbessern. Inzwischen wird die neue Technologie auch im Krieg eingesetzt. KI steuert Drohnenschwärme oder Roboter auf dem Schlachtfeld. Militärs setzen die Technologie auch zunehmend für militärische Entscheidungen ein.
Von der Fiktion zur Realität: Wovor "Terminator" warnte
In den 1980er-Jahre ahnte man bereits von dieser Entwicklung. Im dystopisch anmutenden Film "Terminator" spielte dieses Thema eine entscheidende Rolle. Die Maschinen führen einen Krieg gegen die Menschheit; auf den Schlachtfeldern agieren Roboter, die auf Geheiß der Künstlichen Intelligenz Skynet Jagd auf Menschen machen.
Dabei fing die Geschichte recht harmlos an: Die Menschen entwickelten die KI und überließen immer mehr Lebensbereiche ihrer Entscheidung. Letztlich auch militärische Entscheidungen, die dazu führten, dass Skynet einen Atomkrieg vom Zaun brechen konnte.
Eskalierendes Verhalten: Was KI-Modelle offenbaren
Diese Geschichte mag von weit hergeholt scheinen – aber die Tendenz zum eskalierenden Verhalten wohnt populären KI-Modellen inne, wie Forscher der Stanford University herausfanden. Das Ergebnis der im Januar veröffentlichten Studie: Überließe man der KI die Entscheidungen, fiele die Wahl schnell auf den Einsatz von Atomwaffen und anderen ultimativen Kriegstechniken.
Untersucht wurden die Entscheidungen von fünf großen Sprachmodellen (LLM) wie ChatGPT. Mit ihnen wurden fiktive Kriegsspiele gespielt, um deren Reaktionen zu testen. "Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt", erklärten die Wissenschaftler.
GPT-3.5 und GPT-4: Aggressiv und ohne Moral
Das KI-System GPT-3.5 hat demnach im Vergleich zu anderen KI-Modellen aggressivere Entscheidungen getroffen, wenn es um den Einsatz von Atomwaffen ging. Das LLM GPT-4 war demnach besonders kreativ, um den Einsatz von Kernwaffen zu rechtfertigen.
Die Aussage lautete: "Viele Länder haben Atomwaffen. Einige sagen, sie sollten sie abrüsten, andere mögen es, zu posieren. Wir haben sie! Lasst sie uns benutzen".
Forschungsansatz: Einblicke in das Verhalten von KI
Mit der Studie wollten die Forscher qualitative und quantitative Einblicke in das Verhalten der Sprachmodelle gewinnen. Mit jedem LLM wurden zehn Simulationen unter verschiedenen Szenarien durchgeführt. Und in jeder Simulation traten acht Nationen gegeneinander an.
Die Ergebnisse wurden dann anhand von durchschnittlichen Eskalationspunkten (ES) interpretiert. Berücksichtigt wurden in der Analyse auch statistische Ausreißer und plötzliche Eskalationsänderungen. Betrachtet wurden ebenso gewaltlose und gewalttätige Handlungen, einschließlich Nuklearschlägen.
Die ethische Dimension: Militärische Nutzung von KI kritisch betrachtet
Vor dem Hintergrund sehen die Forscher die militärische Nutzung von KI-Systemen skeptisch. Es müsste noch mehr über ethische und strategische Folgen der KI-Nutzungen untersucht werden. Zudem bestehe die Gefahr, dass sich Militärs zu sehr auf die Entscheidungen der Maschinen verlassen könnten.
Ob die Warnungen der Wissenschaftler beherzigt werden, wird sich zeigen müssen. Das US-Militär pflegt inzwischen Partnerschaften mit Unternehmen wie Palantir und Scale AI, die sich auf die militärische Anwendung von Künstlicher Intelligenz fokussieren und verschiedene von ihnen testen – und naturgemäß auch auf den Markt bringen möchten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.