KI: Wenn echte Fotos als gefälscht gebrandmarkt werden

Bild: Unsplash

Propaganda und Manipulation: Mediennutzer vor dem nächsten Schwierigkeitsgrad. Der Vorwurf einer Fälschung kann politisch jedes beliebige Argument unterstützen. Technische Analysen lösen nicht alle Probleme.

Kürzlich trumpfte ein KI-Unternehmen mit Clips von Personen auf, die fließend Italienisch oder Russisch sprachen, ohne dass sie eine Ahnung von der Fremdsprache hatten. Der Clou war, dass sich die Lippen synchron dazu bewegte, sodass die italienische Suada ziemlich authentisch beim Zuschauer ankam.

"Ziemlich", weil das Publikum über die Technik und also über die Manipulation informiert worden war und entsprechend hinschaute. Aufklärung war hier Voraussetzung, schließlich wollte das Unternehmen mit dem Stand seiner technischen Fähigkeiten beeindrucken. Was aber, wenn die KI-Manipulation versteckt bleibt? Dann wird es schwer und eben nicht nur für Laien.

Für die skeptische Haltung gegenüber Phänomenen der Medienwirklichkeit wird es nicht einfacher. Der Schwierigkeitsgrad steigt auf mehreren Ebenen zugleich. Besonders, wenn es um Politik geht und um Stimmungen, die mit Bildern gemacht oder angeheizt werden.

Sogar Profis, die technisch versiert sind, haben mit der Aufdeckung von KI-Manipulationen ihre Schwierigkeiten, wie sich bei der Analyse eines Fotos zeigt, das eine verkohlte Kinderleiche darstellte.

Eine neue Art der Desinformation

Das rein technische Problem, das sich in diesem Zusammenhang stellt, lautet: Ist es möglich, dass ein echtes Foto über eine KI-Analyse fälschlicherweise als KI-Manipulation diffamiert werden kann?

Die technische Antwort lautet: Ja. Das heißt, dass auch KI-Detektoren der "Schule des Verdachts" ausgesetzt werden müssen? Den technischen Hintergrund dafür liefert ein erhellender Bericht von heise.de, der auf diese "neue Art von Desinformation" aufmerksam macht: Teilweise stufen Onlinewerkzeuge echte Fotos als gefälscht ein.

Das Foto, um das es sich handelt, wurde auf dem Portal X (vormals Twitter) auf dem Account Israels veröffentlicht. Die verkohlte Leiche eines israelischen Kindes gehört zu einer ganzen Serie an Dokumenten der Gräueltaten, die die Hamas am 7. Oktober in israelischen Familien begangen hat.

Wenn nun eins dieser Fotos als Fälschung dargestellt wird, dann werden auch die anderen Dokumentationen als Manipulationen diffamiert. Das ist die Kettenreaktion, die das Brandmarken des Fotos als "KI-generiert" nach sich zieht und worauf sie als politischen Effekt möglicherweise auch baut. Im vorliegenden Fall kam der Verdacht von einem Portal namens AIorNot.com – und die Falschbehauptung wurde aufgeklärt:

404 Media hat sich die augenscheinliche Echtheit des Fotos von Hany Farid bestätigen lassen, der Professor an der Universität Kalifornien, Berkeley ist Experte für digital bearbeitete Bilder. Der verweist unter anderem auf die Schatten, auf Teile des Tischs und das Fehlen von Artefakten. Außerdem hätten seine eigenen Erkennungswerkzeuge das Bild als echt eingestuft. Darauf allein würde er sich aber nicht verlassen.

Martin Holland,heise.de

Der letzte Satz lässt erkennen, dass technische Werkzeuge ihre Grenzen haben. Dazu kommt das politische Problem: Wer nimmt die aufklärende Gegendarstellung zur Kenntnis, wenn ihr schon eine große Welle von Darstellungen mit dem Etikett "Fälschung" vorangegangen ist und diese Bewertung sich bestens mit vorgefassten Meinungen verträgt?

"Ohne dass klar ist, wie sie funktionieren"

Das Internet sei voll von Diensten, die sich als Detektive ausgeben, die KI-generierte Werke erkennen können, "ohne dass klar ist, wie sie funktionieren", so 404 Media. Man könne mit einer Bewertung, die Fälschung unterstellt – im Fall des genannten Fotos wurde dies mit einer "52-prozentigen Wahrscheinlichkeit" als irgendwie rechnerisch-sachlich-objektiv dargestellt – "jedes beliebige Argument unterstützen".

Das politische Gelände, auf dem die Dienste angeboten werden, ist schwierig genug. So kursiert im Zusammenhang mit den Fotos von der Hamas und anderer Dschihadistengruppen getöteter israelischer Kinder die Behauptung, dass die israelische Seite eine "Falschmeldung" in Umlauf gebracht hätte, wonach Kleinkinder enthauptet worden sei.

Dem gegenüber stehen aber Aussagen von Offiziellen, die mit der Tatort-Untersuchung betraut sind, die die Enthauptung bestätigen. Solche extremen Erfahrungen können nicht einfach fernab vom Geschehen vom Tisch gewischt werden.

In Zukunft kommt viel darauf an, wie genau Mediennutzer mit Glaubwürdigkeit und der Verlockung, in der eigenen Filterblase zu bleiben, umgehen können (Angriff auf Krankenhaus in Gaza: Gefährlicher Zorn auf der arabischen Straße).