Militarisierung von KI: Ehemaliger NSA-Chef steigt bei OpenAI ein

General a.D. Nakasone

General a.D. Nakasone, jetzt bei OpenAI. Bild: National Security Agency

Ex-Militär Nakasone in den Vorstand berufen. Zweifel an ziviler Zukunft des Unternehmens. Dazu trägt auch eine still und heimlich entfernte Formulierung bei.

Die prominente Forschungsorganisation für künstliche Intelligenz OpenAI hat kürzlich den pensionierten US-Armeegeneral und ehemaligen Direktor der National Security Agency (NSA), Paul M. Nakasone, in seinen Vorstand berufen.

Dem Vernehmen nach soll Nakasone einem neu gegründeten Sicherheitsausschuss des Vorstands angehören, der den Vorstand von OpenAI in kritischen sicherheitsrelevanten Fragen und Entscheidungen beraten wird.

Das neue Safety and Security Committee wurde nach einem Exodus hochrangiger OpenAI-Mitarbeiter gegründet, die sich über die angebliche Vernachlässigung sicherheitsrelevanter Angelegenheiten durch das Unternehmen beschwert hatten.

Neues Gremium soll Ruf schützen

Die Gründung des neuen Gremiums ist der offensichtliche Versuch von OpenAI, seinen Ruf als sicherheitsbewusstes Unternehmen in einer zunehmend wachsamen Öffentlichkeit wiederherzustellen.

Sicherheitsbedenken in Bezug auf KI sind von größter Bedeutung. Aber OpenAI sollte sie nicht dazu nutzen, eine Ernennung zu rechtfertigen, die der Militarisierung von Künstlicher Intelligenz Vorschub leistet. Zudem mit dem Schritt der Personalaustausch zwischen Verteidigungs- und Geheimdienstbehörden auf der einen Seite und den großen Technologiekonzernen auf der anderen Seite befördert wird.

Wachsender Personalpool

Nakasone blickt auf eine 38-jährige Militärkarriere zurück, in deren Verlauf er fünf Jahre lang das Cyber-Kommando der US-Armee leitete. Seine Berufung zu OpenAI nach seiner Pensionierung und sein Wechsel in den Unternehmenssektor weist auf den wachsenden Personalpool aus hochrangigen Beamten der Verteidigungs- und Geheimdienstbehörden und der Privatwirtschaft hin.

Stavroula Pabst ist Schriftstellerin und Doktorandin an der Nationaluniversität Athen.

Dieses Phänomen manifestiert sich sowohl in massiven Interessenkonflikten als auch in enormen Militärausgaben: Laut einem Bericht über die Kosten des Krieges vom April 2024 haben die Aufträge, die US-Militär und -Geheimdienste zwischen 2019 und 2022 an große Technologieunternehmen vergeben haben, einen Gesamtwert von mindestens 53 Milliarden US-Dollar.

OpenAI hat Anfang des Jahres ohne viel Aufsehen die Formulierung von seiner Website entfernt, die die militärische Nutzung seiner Technologie verbietet. Offenbar möchte das Unternehmen auch an die Geldtöpfe.

Derzeit arbeitet das Unternehmen mit dem Pentagon an Cybersicherheitstools, um Selbstmorde von Veteranen zu verhindern.

Keine Verwendung für Waffen

OpenAI besteht darauf, dass seine Technologie nicht für die Entwicklung oder den Einsatz von Waffen verwendet werden darf – trotz der jüngsten Änderungen seiner Unternehmenspolitik.

Die rasche Verbreitung von KI in den Kriegen im Gazastreifen und in der Ukraine zeigt jedoch, dass auch andere Akteure in der Branche nicht zögern: Wenn OpenAI jetzt nicht mitzieht, riskieren das Unternehmen den Verlust lukrativer Militäraufträge in einem hart umkämpften und unberechenbaren Markt.

Noch heißt es in den Nutzungsrichtlinien von OpenAI, dass die Produkte des Unternehmens nicht dazu verwendet werden dürfen, "die Privatsphäre anderer zu gefährden", insbesondere in Form der "Erleichterung von Spionageprogrammen, Kommunikationsüberwachung oder unbefugter Überwachung von Personen".

Doch Nakasones frühere Rolle als Direktor der NSA, einer Organisation, die für das illegale Ausspionieren von US-Amerikanern berüchtigt ist, lässt vermuten, dass solche Richtlinien kein großes Gewicht mehr haben werden.

Um es mit den Worten des NSA-Whistleblowers Edward Snowden zu sagen: "Es gibt nur einen Grund, einen [NSA-]Direktor in den Vorstand zu berufen. Das ist ein vorsätzlicher, kalkulierter Verrat an den Rechten jedes Menschen auf der Erde."

Angesichts der zunehmenden militärischen Nutzung KI-gestützter Überwachungssysteme, einschließlich KI-gestützter Aufklärungsdrohnen und KI-gestützter Gesichtserkennungstechnologie, könnenkriegerische Überwachungsimplikationen der NSA-Einstellung von OpenAI nicht mehr ausgeschlossen werden.

Beunruhigend ist in diesem Zusammenhang nicht nur der Skandal um den angeblichen Diebstahl der Stimme der Schauspielerin Scarlett Johansson für ChatGPT. Auch die gescheiterte Absetzung von CEO Sam Altman und restriktive, oft lebenslange Geheimhaltungsvereinbarungen für ehemalige OpenAI-Mitarbeiter lassen aufhorchen.

Vor diesem Hintergrund signalisiert der Einstieg Nakasones bei OpenAI, dass dieses Unternehmen – wie auch KI im Allgemeinen –auf dem direkten Weg zu einer weiteren Militarisierung ist.

Stavroula Pabst ist Schriftstellerin und Doktorandin an der Nationaluniversität Athen in Athen, Griechenland. Ihre Texte sind in Publikationen wie Grayzone, Reductress und Harvard Business Review erschienen.

Der vorliegende Texte erschien zuerst bei unserer US-Partnerredaktion Responsible Statecraft.