KI-Waffen: Google streicht rote Linien aus Ethik-Kodex

Symbolbild einer Drohne mit künstlicher Intelligenz

(Bild: metamorworks/Shutterstock.com)

Google-Konzern Alphabet hebt Beschränkungen für KI in Waffen auf. Menschenrechtler warnen vor den Folgen. Was bedeutet das für autonome Waffensysteme?

Die Google-Konzernmutter Alphabet hat angekündigt, langjährige Beschränkungen für den Einsatz von Künstlicher Intelligenz (KI) zur Entwicklung von Waffen und Überwachungstools aufzuheben. Menschenrechtsorganisationen wie Amnesty International üben heftige Kritik an der Entscheidung.

Änderung bei den ethischen Richtlinien für KI

Wie am Dienstag bekannt wurde, hat Alphabet eine überarbeitete Version seiner ethischen Richtlinien für KI vorgestellt. Ein Abschnitt, der bisher Anwendungen ausschloss, die "wahrscheinlich Schaden verursachen", wurde gestrichen.

Die Menschenrechtsorganisation Human Rights Watch zeigte sich darüber gegenüber der BBC höchst besorgt. KI könne "die Verantwortlichkeit für Entscheidungen auf dem Schlachtfeld, die lebenswichtige Folgen haben können, beeinträchtigen", warnte die leitende KI-Forscherin Anna Bacciarelli.

In einem Blogbeitrag verteidigte Google die Änderungen. Unternehmen und demokratische Regierungen müssten bei der Entwicklung einer KI, die "die nationale Sicherheit unterstützt", zusammenarbeiten, heißt es darin.

KI wird bereits auf dem Schlachtfeld eingesetzt

Experten gehen davon aus, dass KI künftig in großem Stil auf dem Schlachtfeld eingesetzt werden könnte. Zugleich gibt es aber auch Befürchtungen, insbesondere in Bezug auf autonome Waffensysteme.

"Wenn ein weltweit führendes Unternehmen die selbst gesetzten roten Linien aufgibt, ist das ein besorgniserregendes Signal – gerade jetzt, wo wir mehr denn je verantwortungsbewusste Führung bei KI brauchen", mahnte Bacciarelli.

Der "einseitige" Beschluss zeige auch, "warum freiwillige Prinzipien kein angemessener Ersatz für Regulierung und verbindliches Recht sind".

Bereits jetzt nutzt beispielsweise Israels Armee sowohl Alphabet-Dienste als auch Amazon-Webservices (AWS) und Microsofts Azure als technische Infrastruktur im laufenden Gaza-Krieg (Telepolis berichtete). Der Einsatz von Googles Künstlicher Intelligenz im Krieg wäre jedoch ein Novum.

Google verteidigt Entscheidung

In seinem Blog betonte Alphabet, Demokratien sollten bei der Entwicklung von KI die Führung übernehmen – geleitet von "Grundwerten" wie Freiheit, Gleichheit und Achtung der Menschenrechte.

"Und wir glauben, dass Unternehmen, Regierungen und Organisationen, die diese Werte teilen, zusammenarbeiten sollten, um eine KI zu schaffen, die Menschen schützt, globales Wachstum fördert und die nationale Sicherheit unterstützt", heißt es weiter.

Der Beitrag wurde vom Senior Vice President James Manyika und Demis Hassabis verfasst, dem Leiter des KI-Labors Google DeepMind. Darin argumentieren sie, dass die ursprünglichen KI-Prinzipien des Unternehmens von 2018 angesichts der rasanten Entwicklung der Technologie aktualisiert werden mussten.

Amnesty warnt vor automatisiertem Töten

"Googles Entscheidung, sein Verbot von KI-Waffen aufzuheben, ermöglicht es dem Unternehmen, Produkte zu verkaufen, die Technologien wie Massenüberwachung, Drohnen für halbautomatische Signaturangriffe und Software zur Zielgenerierung zur Beschleunigung von Tötungsentscheidungen antreiben", warnt indes die Menschenrechtsorganisation Amnesty International.

Google müsse die jüngste Entscheidung "dringend rückgängig machen", so die Organisation, die auch staatliche Akteure dazu aufforderte "verbindliche Vorschriften" für den Einsatz Künstlicher Intelligenz im Krieg zu erarbeiten.