Von KI zu Fakenews: Fallen Sie nicht auf künstliche Bilder herein

Immer öfter erscheinen in Medien KI-Bilder. Die Abbildungen können leicht zur Desinformation genutzt werden. Warum das nicht nur ein Thema für Medienethik und Journalismus ist

Künstliche Intelligenz taucht immer häufiger in journalistischen Beiträgen auf. Dies gefährdet, vor allem bei unsachgemäßer Anwendung, die derzeit ohnehin oft angezweifelte Glaubwürdigkeit der Presse. Gleichzeitig wird KI immer mehr zum Geschäftsfeld.

So lassen sich aus realen Bildquellen, die der KI zum Training zugeführt werden, real wirkende Bilder generieren, die vermarktet werden können. Es gibt bereits einen ersten Kalenderhersteller, der einen Preis für KI-Kalender ausgeschrieben und anlässlich der Frankfurter Buchmesse verliehen hat (https://www.calvendo.de/index.cfm?id=1148).

Einer der Gewinnerkalender wird mit den Worten beworben: "Reise in die faszinierende Welt des Mittelalters mit dem einzigartigen Fotokalender ‚Mittelalter-Selfies‘!" (https://www.thalia.de/shop/home/artikeldetails/A1069070624). Die Bilder werden ausdrücklich als "Fotos" bezeichnet.

Es handelt sich keineswegs um Produkte eines bildgebenden Verfahrens, bei dem mit Hilfe optischer Verfahren ein Lichtbild auf ein lichtempfindliches Speichermedium projiziert wird.

Es gab keinen Fotografen, der die Motive durch ein Objektiv gesehen und mit einer Kamera festgehalten hat.

Was bei einem Wandkalender noch als Etikettenschwindel zu Marketingzwecken durchgehen mag, ist bei Nachrichtenbildern fatal für den Wahrheitsgehalt.

Das jüngste Beispiel, die Verwendung von KI-generierten Bildern für die Berichterstattung über den Konflikt im Gaza-Streifen, ist kein Einzelfall. Bei Adobe Stock sind immer wieder phantasievolle KI-Bilder zum Krieg zu finden. Es gibt auch mehr oder weniger gut gemachte Videos.

Dass solche Bilder zur Desinformation beitragen, liegt auf der Hand.

Kennzeichnung fehlt oft

Eigentlich müssten die Bilder als von künstlicher Intelligenz erzeugte Illustrationsbilder gekennzeichnet werden, was aber nur bedingt umgesetzt wird. Ein Bild, das bei Adobe Stock eindeutig als KI gekennzeichnet ist, findet sich in Blogs, sei es in Frankreich oder in Deutschland – ohne Quellenangabe oder ohne eindeutigen Hinweis auf die künstliche Intelligenz.

Welcher Leser macht sich schließlich die Mühe, die Quellenangabe "Fotocredit: AdobeStock 606179065 / Brisystem" aufzuschlüsseln, wenn er ein Interview mit dem israelischen Botschafter Ron Prosor auf der Homepage des Rundfunks Berlin-Brandenburg liest?

Das Phänomen fehlender KI-Angaben findet sich in zahlreichen kleineren Online-Publikationen.

Am 3. November veröffentlichte die Berliner Zeitung sechs Porträts als Aufmacher eines Artikels über den Mauerfall.

Das Schwarz-weiß-Bild zeigt Bärbel Bohley, Jitzchak Rabin, Martin Luther King, Václav Havel, Lech Wałęsa und Mahatma Gandhi.

Was auf den ersten Blick wie eine Montage mehrerer Fotografien aussieht, ist keine Montage. Es handelt sich um KI-verfremdetes Bildmaterial des "Ostberliner Gestalters Raban Ruddigkeit".

Ein Fake-Model im Video und eine falsche Flagge

Während man in diesem Fall noch über den Sinn der Bilder, die in dieser Form nicht als Fotos vorliegen, diskutieren könnte, liegt der Fall des Models Shereen Wu anders.

Sie lief für den Modedesigner Michael Costello über den Laufsteg, wurde gefilmt und tauchte dann mit einem anderen Gesicht in einem von Costello geteilten Video auf.

Der Designer selbst gibt sich unschuldig, Tatsache ist jedoch, dass das Gesicht des Models durch das KI-generierte Gesicht einer weißen Person ersetzt wurde. Der Vorwurf eines rassistischen Motivs für die Verfälschung des Videos steht im Raum.

Ungewollt skurril war ein Social-Media-Beitrag einer zypriotischen Parlamentarierin zum griechischen Nationalfeiertag am 28. Oktober. Sie postete das Bild eines jungen Mädchens mit einer griechischen Flagge bei einer Parade.

Über die Ästhetik des KI-generierten Bildes lässt sich streiten. Unstrittig ist jedoch, dass die KI die Flagge falsch dargestellt und nur drei statt neun Streifen abgebildet hat. Die Abgeordnete, die ihren Patriotismus zur Schau stellen wollte, erntete statt Zuspruch einen Shitstorm und zog die Veröffentlichung zurück.

Auch die Nürnberger Nachrichten bedienten sich der KI, um eine Friedensdemonstration anzukündigen.

Das Aufmacherbild zeigt mehrere Menschen, die eine Kerze halten. Im Mittelpunkt des "Motivbildes" steht eine junge blonde Frau. In der Online-Ausgabe gibt die Zeitung als Urheber mit Copyright "Ihor - stock.adobe.com" an.

Ein für Laien verständlicher Hinweis, dass es sich um ein KI-Bild handelt, fehlt. Zumal es bei KI-Bildern tatsächlich keinen Urheber mit "Copyright"-Rechten gibt.

Probleme mit Urheberrecht

Die Bilder werden von der KI aus einer großen Datenmenge vorhandener, realer Bilder generiert. Dies geschieht nicht immer mit dem Einverständnis der Urheber.

Der Fotografenverband Freelens fordert, dass die Rechte der Urheber, deren Bilder zum Training von KI verwendet werden, geschützt werden. Außerdem sollten KI-Bilder und von KI bearbeitete Fotografien deutlich als solche gekennzeichnet werden.

"Fotografie und Fotojournalismus bilden unsere Kultur nicht nur ab, sie sind ein wichtiger Teil unserer Kultur. Sie formen unser visuelles Gedächtnis.

Wir alle können uns an Fotografien erinnern, die uns besonders berührt haben, ob wir sie in einer Ausstellung oder in einer Zeitung gesehen haben, ob sie Menschen oder vielleicht eine Landschaft zeigen", schreibt der Verband in seiner Stellungnahme.

Nicht nur Fotos von professionellen Bildanbietern werden für AI verwendet. Mit dem Posten eigener Fotos oder Bilder auf Social-Media-Plattformen werden den Plattformen weitreichende Nutzungsrechte übertragen, die Bilder in jeder erdenklichen Weise zu verwenden.

Den Kreativen stehen zahlreiche Tools zur Verfügung, um zu überprüfen, ob ihre Bilder für die KI verwendet werden. Manchen reicht das nicht.

So gibt es inzwischen erste Tools, mit denen Bilddaten für den menschlichen Betrachter unsichtbar so manipuliert werden können, dass die KI regelrecht "vergiftet" wird.

Werden "vergiftete" Bilder in großer Zahl in die KI eingespeist, können die Ergebnisse der Bildgenerierung durch die KI entscheidend verfälscht werden.

Statt des gewünschten Autos zeigt das KI-Bild dann eine Kuh und statt eines Hundes eine Katze.

Das ist freilich noch die harmlosere Variante.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.