"Ein Chatbot quasselt Kriegsherren unter den Tisch. Das halte ich für legitim"

Seite 2: ChatGPT im Journalismus: "Autor ist verantwortlich, im Guten wie im Schlechten"

Spannend fand ich, wie ernst viele Leser die Antworten genommen haben. Dazu noch einmal Flake: "ChatGPT darf von einem kritischen Medium niemals als Argumentationsstütze verwendet werden, nicht für ein Für und auch nicht für ein Wider." Ich wäre gar nicht auf die Idee gekommen, dass solche KI-Texte als "Argumentationsstütze" aufgefasst werden. Wobei ich selbst wohl eine Mitschuld an der Reaktion habe, denn ich hatte getitelt: "Wie ChatGPT den Ukraine-Krieg einschätzt." Das war eine unzulässige Vermenschlichung.

Hartmut Gieselmann: Gewiss, ein Sprachmodell hat so viel Menschliches in sich wie ein Taschenrechner. Trotzdem fallen wir Menschen immer wieder gerne auf einfache sprachliche Tricks herein, die das Programm "Eliza" schon 1966 beherrschte. Aber wozu Milliarden in die Entwicklung von Maschinen stecken, wenn sie nicht die größten Probleme der Menschheit lösen oder zumindest Ideen dafür liefern?

Supercomputer berechnen Klimamodelle und Sprachmodelle quasseln Kriegsherren unter den Tisch. Das halte ich für legitim. Es gibt bei uns in der Redaktion auch kein Verbot, ChatGPT einzusetzen. Als Sparringspartner fallen der Maschine durchaus Argumente ein, für die selbst menschliche Experten einen blinden Fleck haben. Letztere müssen nur die richtigen Fragen stellen und den Unsinn herausfiltern.

In einer E-Mail schrieb mir ein Leser erbost, Journalismus führe sich durch die ChatGPT-Texte selbst und freiwillig ad absurdum und beraube sich seiner Zukunft. Wie erklärst Du Dir die teils heftigen Reaktionen?

Hartmut Gieselmann: Die Frage wird ja auch beim Presserat derzeit heftig diskutiert. Mir sind folgende Punkte wichtig: Es muss immer einen menschlichen Autor geben, der für einen Text verantwortlich ist. Er muss alle Fakten prüfen und sicherstellen, dass der Text nicht "zufällig" woanders abgeschrieben wurde. Er ist es, der über den Aufbau, die Argumentationskette, die Aussagen und den Diskussionsverlauf entscheidet.

Dabei kann er sich technischer Hilfsmittel bedienen. Wenn diese Hilfsmittel Fehler machen, kann er sich nicht herausreden und der Maschine die Schuld geben. Er als Autor ist verantwortlich, im Guten wie im Schlechten.

Im Text ging es ja explizit um ein Experiment mit einer KI, das für den Leser völlig transparent erklärt wurde. Das ist auch der Unterschied zu den Myriaden von ChatGPT-Texten, die heute auf Knopfdruck produziert und veröffentlicht werden. Die sind langweilig und provozieren auch nicht so heftige Diskussionen.

Spannend fand ich einen Forenkommentar von User Mamabär, der dieselben Fragen erneut an ChatGPT gestellt, aber andere Antworten erhalten hat. Wie das?

Hartmut Gieselmann: Am Ende der dreistündigen Diskussion waren 80.000 Zeichen Text entstanden. Ich habe nur Fragen und Antworten herausgelassen, die eher banal waren oder nicht weiterführten. Die abgedruckten Antworten sind jedoch ungekürzt und unverändert. Ebenso wenig habe ich der Maschine "geheime" Rollenanweisungen gegeben oder die Richtung der Antworten durch "Prompt Injections" manipuliert.

Da ChatGPT ein generatives Sprachmodell ist, können die Antworten beim nächsten Gespräch durchaus anders ausfallen. Ein Sprachmodell ist nicht deterministisch, selbst die Entwickler und Hersteller wissen nicht, was die Maschinen alles von sich geben. Deshalb versuchen sie, die krudesten Auswüchse mit primitiven Filtern in Schach zu halten. Beim Test von Bing haben wir auch schon erlebt, dass die gleiche Frage zweimal hintereinander widersprüchlich beantwortet wurde.

Ich bin froh, dass ChatGPT sich überhaupt zu Politik, Geschichte und einigen kontroversen Themen äußert. Es ist aber noch zu früh, um beurteilen zu können, ob solche Diskussionen in einer Echokammer enden, die nur die eigene Meinung verstärkt, oder ob sie immer den Horizont erweitern.

Welche Erkenntnis bleibt?

Hartmut Gieselmann: Es ist prima, dass die Leser allem, was KIs von sich geben, skeptisch gegenüberstehen. Ebenso bin ich froh, dass KIs noch immer so fehlerhaft sind und es hoffentlich noch lange bleiben. Und egal, wie sehr sich die Entwickler anstrengen, ein Sprachmodell übernimmt immer Tendenzen aus dem Trainingsmaterial und dem Feintuning. Eine mathematische Neutralität kann es schon per definitionem nicht geben – sonst wären alle Gewichtungen zwischen den Hunderten von Milliarden Parametern gleich null.

Trotzdem kann man sie als Werkzeuge in einer Diskussion einsetzen. Und gerade wenn es im Krieg um die Frage geht: Wie können wir ihn schnell beenden, um möglichst viele Leben zu retten, kann eine Maschine Ansätze finden, auf die sich ein emotional aufgeladener Mensch nie einlassen würde, weil er tausend gute Gründe kennt, warum er nicht vergessen und nicht vergeben kann.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.