"Ein Chatbot quasselt Kriegsherren unter den Tisch. Das halte ich für legitim"
Telepolis ließ Sprach-KI ChatGPT Friedensplan für Ukraine entwerfen. Reaktionen fielen unterschiedlich aus. Experiment warf Fragen auf, brachte aber auch Erkenntnisse.
Zu Ostern hatte Telepolis in zwei Teilen Texte der Sprach-KI ChatGPT zum Ukraine-Konflikt veröffentlicht, darunter den Entwurf eines Friedensvertrags. Die Idee zu dem Experiment hatte unser Heise-Kollege Hartmut Gieselmann aus der Redaktion des Magazins c’t.
Angesichts zahlreicher Reaktionen sprach Telepolis-Chefredakteur Harald Neuber mit Hartmut Gieselmann über die Intention, das Ergebnis und die journalistische Einordnung der Antworten, die unter anderem auch von unserem Partnermedium Berliner Zeitung veröffentlicht wurden.
Die Sprach-KI ChatGPT Briefe an Wolodymyr Selenskyj und Wladimir Putin schreiben und einen Friedensvertrag entwerfen lassen – wie bist Du auf diese Idee gekommen?
Hartmut Gieselmann: Ist das nicht naheliegend? Die aktuelle Diskussion um den Krieg in der Ukraine ist extrem emotional aufgeladen und jede Seite denkt in dichotomen Freund-Feind-Schemata. Mit dazu beigetragen hat der Dauerbeschuss der Medien in den vergangenen 14 Monaten.
Diplomatische Verhandlungen gelten als naive Träumereien, denn es gilt ja auf jeder Seite, das absolute Böse zu vernichten. In dieser Logik wird dann auch gerne immer wieder Adolf Hitler zum Vergleich rausgekramt. Damit berauben wir Menschen uns aber notwendiger Handlungsoptionen.
ChatGPT ist davon frei. Nicht nur, dass die Maschine ihre Antworten emotionslos rein mathematisch anhand von Wahrscheinlichkeiten berechnet, ihr Erfahrungshorizont Endet im September 2021. Viele sehen das ja als Nachteil. Aber wir haben zum Beispiel beim Test von Bing gesehen, dass diese Suchmaschine dümmere Antworten gibt als ChatGPT mit GPT-4. Wenn man es positiv betrachtet: Ihr Trainingsmaterial wurde in den vergangenen 14 Monaten nicht mit Propaganda vergiftet.
Was wäre also – so meine Überlegung – wenn wir jemanden aus der Vergangenheit befragen, der immer noch im September 2021 lebt? Gewiss, das Sprachmodell halluziniert zu 20 bis 30 Prozent Humbug. Aber ich wollte wissen, wie es reagiert, wenn ich ihm erzähle, dass im Februar 2022 ein Krieg ausgebrochen ist.
Es sollte erraten, welcher das sein könnte und dann Handlungsoptionen aufzeigen, wie man im September 2021 eine Eskalation hätte verhindern können. ChatGPT hat gelernt, dass Gewalt keine Lösung ist. Er würde also nicht vorschlagen, Putin mit einem Killerkommando auszuschalten, bevor ein Krieg ausbricht.
In Science-Fiction-Filmen wie "Colossus: The Forbin Project" oder "Wargames" sind emotionslose Computer die Bösen, die den Dritten Weltkrieg auslösen und die Menschheit zu vernichten drohen. Ich wollte den Spieß umdrehen und sehen, ob eine reale KI Konzepte hat, dies zu verhindern.
Zum Thema:
Teil 1: Wie ChatGPT den Ukraine-Krieg einschätzt
Teil 2: Diesen Friedensvertrag schlägt ChatGPT für die Ukraine vor
Sind die Antworten so ausgefallen, wie Du es erwartet hast?
Hartmut Gieselmann: Es hat sich über drei Stunden eine Diskussion entwickelt, in der ich mir zunächst die politische Ausgangssituation von ChatGPT mit GPT-4 erklären ließ. Ich habe zwar in den 90ern Sozialwissenschaften studiert und zu Kriegspropaganda gearbeitet, aber die exakten Hintergründe zum Konflikt in der Ostukraine und zum Maidan waren mir nicht geläufig.
Da fand ich manche Erläuterungen von ChatGPT durchaus erhellend. GPT-4 ist ziemlich gut darin, die verschiedenen Aspekte eines Themas sowie die Vor- und Nachteile aufzuzählen. Und da die Kriegsparteien extrem auf Selenskyj und Putin personifiziert wurden, interessierte mich die psychologische Komponente, wie man beide an einen Verhandlungstisch bringen könnte.
Nachdem Telepolis die KI-generierten Texte über Ostern in zwei Teilen veröffentlicht hat, gab es ziemliche Debatten im Forum. Einige Leser haben uns heftig kritisiert. Er könne den Zweck des Artikels nicht ganz erkennen, schrieb User K3 unter dem zweiten Teil: "Das Ergebnis hat das Niveau eines Schulaufsatzes. Wenn es ernst gemeint ist, einen Chatbot-Text als Friedenslösung vorzuschlagen, dann ist das in meinen Augen eher eine Verhöhnung." Kannst Du das nachvollziehen?
Hartmut Gieselmann: Natürlich kann ich nachvollziehen, dass ein Großteil der Leser so reagiert. Schließlich haben alle in den vergangenen 14 Monaten fleißig Nachrichten konsumiert und sich eine Meinung gebildet. Das ist ja gerade die Krux, warum sich die Seiten so unversöhnlich gegenüberstehen. Ob ein Text in der Schule geschrieben wurde, sagt übrigens nichts über seine Qualität aus.
User Flake sah in den Beiträgen "ein Zeugnis, wie KI bewusst missbraucht werden kann, diesmal sogar von einem kritischen Medium wie Telepolis". Die Antworten fielen jetzt kritisch gegenüber dem Westen aus. "In ein paar Monaten, wenn die Daten bis April 2023 zurückreichen, wird ChatGPT für Waffenlieferungen und eine militärische Lösung plädieren und das 'Interview' wird auf der Homepage des Verteidigungsministeriums wiedergegeben werden", kommentierte der User. Kann doch sein, oder?
Hartmut Gieselmann: Natürlich kann das passieren. Aber jetzt hat GPT-4 nun mal Vorschläge aufgeschrieben, wie man beide Seiten diplomatisch ansprechen könnte und wer eventuelle Friedensverhandlungen einleiten und überwachen könnte. Warum nicht die OSZE? Zum Spaß habe ich ChatGPT sogar einen Einakter für ein Theaterstück im Stil von Bertolt Brecht schreiben lassen, in dem Putin und Selenskyj unter Aufsicht eines OSZE-Gesandten einen Friedensvertrag unterzeichnen.
Dramaturgisch ist das banal, aber warum diskutiert niemand solche Optionen in der Öffentlichkeit? Wenn sich in einem Land verschiedene Bevölkerungsgruppen in einzelnen Regionen nicht grün sind: Warum arbeitet man keine föderale Länderstruktur mit Autonomierechten aus, wie GPT-4 es vorschlägt? So halten es ja auch die Bayern, Preußen und Sachsen in Deutschland miteinander aus.
ChatGPT im Journalismus: "Autor ist verantwortlich, im Guten wie im Schlechten"
Spannend fand ich, wie ernst viele Leser die Antworten genommen haben. Dazu noch einmal Flake: "ChatGPT darf von einem kritischen Medium niemals als Argumentationsstütze verwendet werden, nicht für ein Für und auch nicht für ein Wider." Ich wäre gar nicht auf die Idee gekommen, dass solche KI-Texte als "Argumentationsstütze" aufgefasst werden. Wobei ich selbst wohl eine Mitschuld an der Reaktion habe, denn ich hatte getitelt: "Wie ChatGPT den Ukraine-Krieg einschätzt." Das war eine unzulässige Vermenschlichung.
Hartmut Gieselmann: Gewiss, ein Sprachmodell hat so viel Menschliches in sich wie ein Taschenrechner. Trotzdem fallen wir Menschen immer wieder gerne auf einfache sprachliche Tricks herein, die das Programm "Eliza" schon 1966 beherrschte. Aber wozu Milliarden in die Entwicklung von Maschinen stecken, wenn sie nicht die größten Probleme der Menschheit lösen oder zumindest Ideen dafür liefern?
Supercomputer berechnen Klimamodelle und Sprachmodelle quasseln Kriegsherren unter den Tisch. Das halte ich für legitim. Es gibt bei uns in der Redaktion auch kein Verbot, ChatGPT einzusetzen. Als Sparringspartner fallen der Maschine durchaus Argumente ein, für die selbst menschliche Experten einen blinden Fleck haben. Letztere müssen nur die richtigen Fragen stellen und den Unsinn herausfiltern.
In einer E-Mail schrieb mir ein Leser erbost, Journalismus führe sich durch die ChatGPT-Texte selbst und freiwillig ad absurdum und beraube sich seiner Zukunft. Wie erklärst Du Dir die teils heftigen Reaktionen?
Hartmut Gieselmann: Die Frage wird ja auch beim Presserat derzeit heftig diskutiert. Mir sind folgende Punkte wichtig: Es muss immer einen menschlichen Autor geben, der für einen Text verantwortlich ist. Er muss alle Fakten prüfen und sicherstellen, dass der Text nicht "zufällig" woanders abgeschrieben wurde. Er ist es, der über den Aufbau, die Argumentationskette, die Aussagen und den Diskussionsverlauf entscheidet.
Dabei kann er sich technischer Hilfsmittel bedienen. Wenn diese Hilfsmittel Fehler machen, kann er sich nicht herausreden und der Maschine die Schuld geben. Er als Autor ist verantwortlich, im Guten wie im Schlechten.
Im Text ging es ja explizit um ein Experiment mit einer KI, das für den Leser völlig transparent erklärt wurde. Das ist auch der Unterschied zu den Myriaden von ChatGPT-Texten, die heute auf Knopfdruck produziert und veröffentlicht werden. Die sind langweilig und provozieren auch nicht so heftige Diskussionen.
Spannend fand ich einen Forenkommentar von User Mamabär, der dieselben Fragen erneut an ChatGPT gestellt, aber andere Antworten erhalten hat. Wie das?
Hartmut Gieselmann: Am Ende der dreistündigen Diskussion waren 80.000 Zeichen Text entstanden. Ich habe nur Fragen und Antworten herausgelassen, die eher banal waren oder nicht weiterführten. Die abgedruckten Antworten sind jedoch ungekürzt und unverändert. Ebenso wenig habe ich der Maschine "geheime" Rollenanweisungen gegeben oder die Richtung der Antworten durch "Prompt Injections" manipuliert.
Da ChatGPT ein generatives Sprachmodell ist, können die Antworten beim nächsten Gespräch durchaus anders ausfallen. Ein Sprachmodell ist nicht deterministisch, selbst die Entwickler und Hersteller wissen nicht, was die Maschinen alles von sich geben. Deshalb versuchen sie, die krudesten Auswüchse mit primitiven Filtern in Schach zu halten. Beim Test von Bing haben wir auch schon erlebt, dass die gleiche Frage zweimal hintereinander widersprüchlich beantwortet wurde.
Ich bin froh, dass ChatGPT sich überhaupt zu Politik, Geschichte und einigen kontroversen Themen äußert. Es ist aber noch zu früh, um beurteilen zu können, ob solche Diskussionen in einer Echokammer enden, die nur die eigene Meinung verstärkt, oder ob sie immer den Horizont erweitern.
Welche Erkenntnis bleibt?
Hartmut Gieselmann: Es ist prima, dass die Leser allem, was KIs von sich geben, skeptisch gegenüberstehen. Ebenso bin ich froh, dass KIs noch immer so fehlerhaft sind und es hoffentlich noch lange bleiben. Und egal, wie sehr sich die Entwickler anstrengen, ein Sprachmodell übernimmt immer Tendenzen aus dem Trainingsmaterial und dem Feintuning. Eine mathematische Neutralität kann es schon per definitionem nicht geben – sonst wären alle Gewichtungen zwischen den Hunderten von Milliarden Parametern gleich null.
Trotzdem kann man sie als Werkzeuge in einer Diskussion einsetzen. Und gerade wenn es im Krieg um die Frage geht: Wie können wir ihn schnell beenden, um möglichst viele Leben zu retten, kann eine Maschine Ansätze finden, auf die sich ein emotional aufgeladener Mensch nie einlassen würde, weil er tausend gute Gründe kennt, warum er nicht vergessen und nicht vergeben kann.