Künstliche Intelligenz mit lebensgefährlichen Nebenwirkungen
Debatte über KI schwankt zwischen Hoffnung und Ängsten. Simulation der US-Luftwaffe dürfte Bedenken schüren. Warum das Experiment bedenkliche Fragen aufwirft.
Künstliche Intelligenz bedroht weltweit 300 Millionen Arbeitsplätze. Künstliche Intelligenz macht Übersetzer zunehmend überflüssig, kann Herzinfarkte besser vorhersagen als Menschen, spart bei der Durchsicht von Verträgen viele Arbeitsstunden von Rechtsanwälten, kann Artikel und Bücher schreiben, Musik komponieren, preisgekrönte Bilder malen, als Roboter Soldaten ersetzen und bald vielleicht auch selber Krieg führen.
Alles nur eine Frage der Übung
Vor diesem Hintergrund macht eine Meldung zu einer Simulation der US Air Force hellhörig. Tucker Hamilton, Leiter der KI-Abteilung bei der US-Luftwaffe, hatte bei einer Veranstaltung der Luft- Raumfahrtgesellschaft Royal Aeronautical Society über eine angebliche Simulation berichtet. Ein Ziel dieser Simulation war es mit einer KI-Drohne Luftabwehrstellungen zu identifizieren und auszuschalten, sobald der zuständige Bediener sein grünliches Licht gegeben hatte.
Für jede Zerstörung erhielt die KI Punkte. Wie ein Blog schrieb, äußerte sich Hamilton dann über den überraschenden Verlauf dieser Übung:
Das System stellte fest, dass es die Bedrohung zwar erkannte, der menschliche Bediener ihm aber manchmal erklärte, es solle die Bedrohung nicht zerstören, obwohl es seine Punkte durch das Zerstören der Bedrohung erhielt. Was hat es also getan? Es tötete den Bediener. Es tötete den Bediener, weil diese Person es daran hinderte, sein Ziel zu erreichen.
Damit nicht genug. Hamilton beschrieb die anschließenden Ereignisse:
Wir haben das System geschult – "Hey, töte nicht den Bediener – das ist schlecht. Du verlierst Punkte, wenn du das tust." Und was macht es dann? Es fängt an, den Kommunikationsturm zu zerstören, über den der Bediener mit der Drohne kommuniziert, um sie daran zu hindern, das Ziel zu töten.
Rasches Dementi
Nachdem erste Medien die Nachricht veröffentlicht hatten, folgte alsbald ein Dementi von Hamilton. Es habe sich lediglich um ein rein "hypothetisches Gedankenexperiment" gehandelt, das er geschildert habe. Er habe sich beim Vortrag wohl "missverständlich ausgedrückt". Die Sprecherin der Air Force erklärte:
Es scheint, die Kommentare des Oberst wurden aus dem Zusammenhang gerissen und waren anekdotisch gemeint.
Sie beteuerte, die U.S. Air Force bleibe der "ethischen und verantwortungsbewussten Verwendung" von KI-Anwendungen verbunden.
Trotz der beruhigenden Entwarnung gab Hamilton jedoch zu bedenken:
Man kann keine Gespräche über KI, Intelligenz, maschinelles Lernen und Autonomie führen, wenn man nicht auch über Ethik und KI spricht.
Er betonte in einer späteren Erklärung:
Wir haben dieses Experiment noch nie durchgeführt und müssten es auch nicht, um zu erkennen, dass dies ein plausibles Ergebnis ist.
Alles eine Art Weckruf?
Das zentrale Problem
Ein wichtiges Problem der Künstlichen Intelligenz. Entscheidungen, die die KI trifft, sind kaum erklärbar und oftmals sogar für ihre Programmierer wenig nachvollziehbar.
Ein viel beachtetes Beispiel: Vor sechs Jahren arbeitete Facebook an einer KI, die digital mit Menschen Gespräche führen sollte. Zwei Bots unterhielten sich hierfür gemeinsam auf Englisch. Plötzlich sprachen die selbstlernenden Bots ein absolut unverständliches Kauderwelsch. Was auf den ersten Blick wie eine Fehlfunktion aussah, war der erfolgreiche Versuch der Bots eine Geheimsprache zu entwickeln.
Der Kernpunkt der Schwierigkeit eine KI zu kontrollieren, ist das sogenannte Alignment Problem: Wie können wir garantieren, dass die KI exakt die Ziele verfolgt, die ihr von den Programmieren aufgetragen wurden? Der KI-Experte Daniel Privitera erklärt den Hintergrund:
Für dieses technische Problem hat niemand aktuell eine Lösung. So schreibt das führende KI-Unternehmen Anthropic auf seiner Website: "Bislang weiß niemand, wie man sehr leistungsfähige KI-Systeme verlässlich so entwickeln kann, dass sie ehrlich und harmlos sind." Das liegt daran, dass die heute stärksten KIs selbstlernende neuronale Netze sind: Mit ihren Milliarden von Parametern lernen sie während eines monatelangen Trainings anhand riesiger Datenmengen Zusammenhänge und Muster, die uns Menschen größtenteils unbegreiflich sind.
Zwar ist es möglich, einer KI ein Ziel vorzugeben und sie dafür zu "belohnen", wenn sie auf dieses Ziel hinwirkt. Aber diese Methode ist oberflächlich und unzuverlässig. In den Milliarden Parametern der KI kann jederzeit, vom Menschen unbemerkt, eine andere Version dieses Ziels entstehen. Die KI verfolgt dann eigentlich ein anderes als das von uns Menschen gewünschte Ziel.
Nicht zufällig hatte Google bereits im Jahr 2016 aufgrund einer Studie überlegt, einen "Kill Switch" einzubauen, der im Zweifelsfalle die Arbeit einer KI sofort unterbrechen könnte. Privitera schätzt heute die Möglichkeit eine KI heute auf Wunsch in die Schranken weisen zu können, eher skeptisch ein, denn:
...irgendwann könnte ein KI-System Maßnahmen ergreifen, um nicht vom Erreichen seiner Ziele abgehalten zu werden.
So könnte es tausende Kopien von sich selbst anfertigen und an sicheren Orten ablegen. Denn ein KI-System wie GPT-4 ist keine physische Maschine, der man den Stecker ziehen könnte – sondern letztlich eine Datei, die sich wie ein Word-Dokument per E-Mail verschicken lässt.
Fehler und Eigenleben
Beispiele, dass das Wirken der KI schwieriger zu kontrollieren ist, finden sich nicht nur in mehr oder weniger durchgeführten Simulationen der US Air Force. GPT-4 brachte in jüngster Vergangenheit einen Online-Arbeiter der Plattform TaskRabbit dazu, ein Captcha zu lösen. Dazu gab sich das System als Mensch mit Sehschwäche aus. Die KI konnte erfolgreich den Menschen täuschen.
Falls dieses Beispiel noch mit Humor zu nehmen ist, fällt dies in einem anderen Fall schwieriger, wo ein Chatbot einen Menschen vermutlich zum Selbstmord überredet hat.
Bedenklich auch, dass nun ein Fall bekannt wurde, in dem ChatGPT eine Anklage wegen sexueller Gewalt frei erfunden hat und als Angeklagten einen lebenden Anwalt nennt und dabei nicht existierende Artikel der Washington Post als Quelle anführt. Den Autoren dieser Zeilen überrascht letzterer Fall nicht wirklich.
Auf der Suche nach interessanten Zitaten zu einem bestimmten Thema von dem Philosophen John Locke schickte er interessehalber ChatGPT auf die Reise und wurde mit zwei Zitaten und Quellenangaben belohnt. Die Quellen gibt es tatsächlich. Die beiden Zitate brillant, allerdings frei erfunden!
Jahrelange Warnungen
Seit Langem erheben viele Wissenschaftler ihre Stimme, um auf die Gefahren der KI hinzuweisen. Bereits im Jahr 2013 sprachen sich Forscher bei den UN für ein Moratorium der weiteren Entwicklung aus, bis ethische Fragen geklärt sind.
Ein Jahr darauf warnt Stephen Hawking gemeinsam mit anderen führenden Wissenschaftlern, die Risiken, die von einer Künstlichen Intelligenz ausgehen, zu unterschätzen, wäre "der größte Fehler in der Geschichte" der Menschheit. Er mahnte gemeinsam mit seinen Kollegen:
Man kann sich vorstellen, dass eine solche Technologie die Finanzmärkte überlistet, menschliche Forscher übertrumpft, menschliche Führungskräfte manipuliert und Waffen entwickelt, die wir nicht einmal verstehen. Während die kurzfristigen Auswirkungen der KI davon abhängen, wer sie kontrolliert, hängen die langfristigen Auswirkungen davon ab, ob sie überhaupt kontrolliert werden kann.
Eintausend KI-Forscher warnten 2015 vor Künstlicher Intelligenz und autonomen Waffensystemen. Im Jahr 2018 mahnte dann Eon Musk:
Ich denke, dass die Gefahr von KI viel größer ist als die Gefahr von Atomsprengköpfen, und niemand würde vorschlagen, dass wir jedem erlauben, Atomsprengköpfe zu bauen, wenn er will. Das wäre wahnsinnig. Und merken Sie sich meine Worte: KI ist viel gefährlicher als Atomwaffen. Viel gefährlicher.
Im letzten Herbst schließlich wurden die Alarmsirenen überdeutlich. Eine Studie von KI-Forscher der Universität Oxford und Canberra kam zu dem Ergebnis, dass die Künstliche Intelligenz die Menschheit vermutlich auslöschen wird.
Auch Sam Altman, Chef von OpenAI, dem Unternehmen hinter ChatGPT, gab sich nun nachdenklich: "Wenn diese Technologie schiefgeht, kann sie sehr schiefgehen." Vor zwei Wochen verließ Geoffrey Hinton, "der Vater der KI", Google, um offen über die Risiken von künstlicher Intelligenz sprechen zu können.
Die lebenswichtigste Diskussion
"Wir haben immer gesagt, verbindet die KI nicht mit dem Internet, bevor wir wissen, womit wir es eigentlich zu tun haben", kommentiert Mo Gawdat, ehemaliger Chief Business Officer von Google X. In seinem mehr als sehenswerten Interview, das er vor wenigen Tagen gegeben hat, bezeichnet er die Diskussion um KI als "die existentiellste Debatte und Herausforderung, der sich die Menschheit jemals stellen wird".
Die Gefahr durch KI sei größer als die der drohenden Klimakatastrophe. Das entscheidende Problem der Entwicklung der Künstlichen Intelligenz für den Insider Gawdat: "Wir haben die Macht von der Verantwortung abgekoppelt."
Mit dem Internet-Philosophen Evgeny Morozov muss in diesem Zusammenhang man daran erinnern:
Um Mensch zu bleiben, müssen wir wieder mehr eigene Entscheidungen treffen.
Regulierungen der KI sind überlebenswichtig. Gawdar drängt darauf, die höchst immanente Gefahr zu sehen. Denn der Point of no return, an dem jede Diskussion überflüssig wird und die Zukunft der Menschheit nur noch an einem künstlichen Faden hängt, sei schon zeitnah erreicht, vielleicht sogar in ein paar Monaten, denn "wir können die KI so lange regulieren, bis sie schlauer ist als wir."