Von KI zu Fakenews: Fallen Sie nicht auf künstliche Bilder herein
- Von KI zu Fakenews: Fallen Sie nicht auf künstliche Bilder herein
- Ein Fake-Model im Video und eine falsche Flagge
- Auf einer Seite lesen
Immer öfter erscheinen in Medien KI-Bilder. Die Abbildungen können leicht zur Desinformation genutzt werden. Warum das nicht nur ein Thema für Medienethik und Journalismus ist
Künstliche Intelligenz taucht immer häufiger in journalistischen Beiträgen auf. Dies gefährdet, vor allem bei unsachgemäßer Anwendung, die derzeit ohnehin oft angezweifelte Glaubwürdigkeit der Presse. Gleichzeitig wird KI immer mehr zum Geschäftsfeld.
So lassen sich aus realen Bildquellen, die der KI zum Training zugeführt werden, real wirkende Bilder generieren, die vermarktet werden können. Es gibt bereits einen ersten Kalenderhersteller, der einen Preis für KI-Kalender ausgeschrieben und anlässlich der Frankfurter Buchmesse verliehen hat (https://www.calvendo.de/index.cfm?id=1148).
Einer der Gewinnerkalender wird mit den Worten beworben: "Reise in die faszinierende Welt des Mittelalters mit dem einzigartigen Fotokalender ‚Mittelalter-Selfies‘!" (https://www.thalia.de/shop/home/artikeldetails/A1069070624). Die Bilder werden ausdrücklich als "Fotos" bezeichnet.
Es handelt sich keineswegs um Produkte eines bildgebenden Verfahrens, bei dem mit Hilfe optischer Verfahren ein Lichtbild auf ein lichtempfindliches Speichermedium projiziert wird.
Es gab keinen Fotografen, der die Motive durch ein Objektiv gesehen und mit einer Kamera festgehalten hat.
Was bei einem Wandkalender noch als Etikettenschwindel zu Marketingzwecken durchgehen mag, ist bei Nachrichtenbildern fatal für den Wahrheitsgehalt.
Das jüngste Beispiel, die Verwendung von KI-generierten Bildern für die Berichterstattung über den Konflikt im Gaza-Streifen, ist kein Einzelfall. Bei Adobe Stock sind immer wieder phantasievolle KI-Bilder zum Krieg zu finden. Es gibt auch mehr oder weniger gut gemachte Videos.
Dass solche Bilder zur Desinformation beitragen, liegt auf der Hand.
Kennzeichnung fehlt oft
Eigentlich müssten die Bilder als von künstlicher Intelligenz erzeugte Illustrationsbilder gekennzeichnet werden, was aber nur bedingt umgesetzt wird. Ein Bild, das bei Adobe Stock eindeutig als KI gekennzeichnet ist, findet sich in Blogs, sei es in Frankreich oder in Deutschland – ohne Quellenangabe oder ohne eindeutigen Hinweis auf die künstliche Intelligenz.
Lesen Sie auch
Welcher Leser macht sich schließlich die Mühe, die Quellenangabe "Fotocredit: AdobeStock 606179065 / Brisystem" aufzuschlüsseln, wenn er ein Interview mit dem israelischen Botschafter Ron Prosor auf der Homepage des Rundfunks Berlin-Brandenburg liest?
Das Phänomen fehlender KI-Angaben findet sich in zahlreichen kleineren Online-Publikationen.
Am 3. November veröffentlichte die Berliner Zeitung sechs Porträts als Aufmacher eines Artikels über den Mauerfall.
Das Schwarz-weiß-Bild zeigt Bärbel Bohley, Jitzchak Rabin, Martin Luther King, Václav Havel, Lech Wałęsa und Mahatma Gandhi.
Was auf den ersten Blick wie eine Montage mehrerer Fotografien aussieht, ist keine Montage. Es handelt sich um KI-verfremdetes Bildmaterial des "Ostberliner Gestalters Raban Ruddigkeit".
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.