KI im Journalismus: Wenn Sprachmodelle irren

Hände, die auf einer Computertastatur tippen

Bild: Shutterstock.com

Die KI im Einsatz bei der Lokalpresse. Detektoren versagen bei der Unterscheidung zwischen maschinellen und menschlichen Texten. Journalisten bald arbeitslos?

Die großen Sprachmodelle werden immer effektiver verfeinert. Längst hat die Künstliche Intelligenz ihren Einzug in den Journalismus gehalten. Es gibt bereits Anwendungen für Kinder, mit denen der Nachwuchs eigene Geschichten erstellen oder eventuelle Leseschwächen abmildern kann.

Der Facebook und Instagram Mutterkonzern Meta hat einen KI-Videogenerator mit synchroner Tonspur angekündigt. Es bleiben die bangen Fragen, wer uns vor Fehlern der KI schützt und wie KI-generierte Inhalte identifiziert werden können? Eine Spurensuche mit Beispielen aus der Lokalpresse.

Ein Fußballspiel, das nie endete, von der KI als verlorenes Unentschieden gewertet

Menschen machen Fehler, daran haben wir uns mehr oder weniger gewöhnt. Wie aber sieht es mit Fehlern durch die Anwendung der KI aus?

Können wir akzeptieren, dass auch Sprachmodelle "irren" können? Die Anführungszeichen sollen betonen, dass die Sprachmodelle, wenn sie fehlerhafte Ergebnisse liefern, eigentlich korrekt funktionieren.

Technisch sind sie in diesem Fall von einem Menschen nicht richtig programmiert worden. Denn, dass Irren menschlich ist, darüber belehrt uns auch der Duden bei der Definition des Verbs.

Für den Chefredakteur des Mindener Tagblattes Benjamin Piel kann die KI nicht nur irren, sondern auch lügen. In einem Kommentar greift Piel ein denkwürdiges Fußballspiel auf.

Zum Meisterschaftsspiel des neunten Spieltags der Kreisliga A Minden zwischen dem FC Ezidxan Minden und dem FC Bad Oeynhausen II gab es auf dem Portal Fupa.net einen mittlerweile nicht mehr abrufbaren Spielbericht.

"Fußballspiel nach Schlägerei abgebrochen: Keiner da gewesen – und die KI lügt", titelt Piel seinen Kommentar. Denn der mittlerweile gesperrte Spielbericht bei Fupa war KI-generiert und widersprüchlich.

Keine der beiden Mannschaften habe sich durchsetzen können, heißt es darin. Es wird aber auch erwähnt, dass der Mindener Trainer Rudolfo Kanyo wegen der Niederlage seines Teams nicht begeistert sein dürfte.

Eine Niederlage bei einem Unentschieden bei einem abgebrochenen Spiel? Der Chefredakteur identifiziert einen weiteren Fehler im Text, denn Minden spielt seine Heimspiele keineswegs in einem Stadion. Sie würden auf dem Schulsportplatz des Bessel-Gymnasiums ausgetragen, ließ Piel seine Leser wissen.

Die Leser seiner Zeitung hätten die Wahrheit erfahren. Im Mindener Tageblatt "stand es richtig – mit Prügelei, Spielabbruch und allem, was dazu gehört". Sein Ärger ist verständlich. Berichtet Fupa.net doch in Konkurrenz zur Lokalpresse kostengünstig mit Einsatz von KI und Auswertung von Daten vom Fußballverband von den Fußballplätzen der Amateurvereine. Den Spielabbruch konnte das System offensichtlich nicht richtig verarbeiten.

Einen offiziellen Sieger konnte die KI nicht liefern. Die Logik besagt, dass ein Spiel ohne Sieger ein Unentschieden sein müsste. Andererseits hatte Ezidxan Minden drei Tore kassiert und nur eins erzielt. Das wiederum sieht für ein rein logisch entscheidendes System nach einer Niederlage für Minden aus. Die Fupa-KI packte beide sich widersprechende Möglichkeiten in den Text und lag damit grundlegend falsch.

Piel verurteilt den "Automatisierungswahn und den Wunsch, es müsse doch auch ohne teure Mitarbeiter gehen". Für ihn ist das Scheitern der KI bei der Erstellung eines Spielberichts zum Amateurfußball ein Beleg, dass es bei komplexeren Fragestellungen zu gravierenden Folgen kommen könnte.

Es gibt allerdings auch eine weitere Möglichkeit der Deutung. Vielleicht erschien es bislang niemandem wichtig genug, mögliche Spielabbrüche bei KI-erstellten Match-Berichten aus der Welt der unteren Ligen des Amateurfußballs in die KI-Modelle einzuarbeiten.

KI übersetzte Beiträge werden meist als "von Menschen erstellt" identifiziert

Die Aachener Zeitung, die größte Lokalzeitung in Deutschlands westlicher Großstadt, gehört zur belgischen Mediahuis-Gruppe. Der multinational operierende Medienkonzern hat rund um Aachen auch in Belgien und den Niederlanden Lokalzeitungen.

Viele Aachener arbeiten in den Nachbarstaaten der Euregio genannten Grenzregion oder haben dort Freunde und Bekannte. Somit sind Lokalnachrichten aus der gesamten Euregio für die Aachener Zeitung interessant. Statt diese komplett neu zu erstellen, wird auf Beiträge der Partnermedien zurückgegriffen. Diese werden mit KI-Hilfe preiswert übersetzt.

Gängige einfache, kostenlos verfügbare KI-Detektoren, wie QuillBot und Detecting-AI identifizieren die Texte als "von Menschen erstellt".

Beide KI gestützten Detektoren schlugen bei einem von ChatGPT erstellten Kontrolltext zur griechischen Finanzkrise korrekt an und meldeten den Beitrag als "von der KI erstellt". Bei einem weiteren Kontrolltext, einem vom ChatGPT kurzem Porträt des ukrainischen Präsidenten Wolodymyr Selenskyj, scheitert Detecting-AI und erklärt den Text als human erstellt.

Beide Kontrolltexte, noch einmal mit dem GPTZero-Tool auf KI-Beteiligung überprüft, brachten differenzierte Wertungen. Der Selenskyj-Text wird als teilweise mit KI erstellt, aber in der Gesamtwertung als vom Menschen geschrieben identifiziert.

In einer Situation, die an das Kreisliga-Spiel in Minden erinnert, werden von GPTZero die KI übersetzten Texte der Aachener Zeitung als menschlich geschrieben gewertet, obwohl ein KI-Beitrag im zweistelligen Bereich erkannt wird.

So ist ein relativ simpler Text zu einer Haschischplantage in einer Frittenbude direkt gegenüber der Polizeiwache im niederländischen Sittard laut GPTZero zu 11 Prozent KI zu einem Prozent gemischt und zu 88 Prozent aus der Feder eines Menschen.

Den hier veröffentlichten Text wertet der Detektor von isgen.ai, der sich als der akkurateste auf dem Markt preist, zu 100 Prozent als von einem Menschen geschrieben eingestuft. Das beruhigt mich.

Menschen, die das berühmte "halb leere Glas" sehen, werden sowohl bei der Erstellung von KI-Beiträgen für Onlinemedien als auch bei den Detektoren noch viel Luft nach oben beklagen. Die andere Seite mit dem "halb vollen Glas" ist dagegen beeindruckt, was in kürzester Zeit seit der Einführung der KI alles möglich ist. Es bleibt die ethische Frage hinsichtlich der Vernichtung von Arbeitsplätzen.