Ein Bild lügt mehr als tausend Worte
Wissenschaftler hat ein mathematisches Analyseverfahren entwickelt, um digitale Manipulationen an Fotos zu entlarven
Wer ein Foto betrachtet, muss sich immer fragen, ob der Fotograf das Motiv wirklich so vor der Linse hatte, oder ob nachträglich wesentliche Elemente verändert wurden. Foto-Montagen gibt es schon lange, aber heute sind sie durch die digitale Bildverarbeitung so gut wie perfekt, jede Fotosoftware bietet eine breite Palette an Möglichkeiten Farben zu verändern, durch mehr Dunkelheit Dramatik zu erzeugen, zu retuschieren oder gleich ganze Komponenten zu verschieben, zu entfernen oder hinzuzufügen. Jeder Hobbyfotograf kann sich im Internet über die vielen Möglichkeiten informieren (vgl. PhotoGuide).
Die Glaubwürdigkeit der dokumentarischen Fotografie schwindet. Die letzte öffentliche Debatte entbrannte, als sich heraus stellte, dass während des Irak-Krieges ein Fotos auf dem Titelblatt der Los Angeles Times manipuliert worden war. Einige der abgebildeten Zivilsten waren doppelt zu erkennen. Der preisgekrönte Fotograf Brian Walski hatte zwei Bilder, die er in Folge geschossen hatte, übereinander kopiert, um die Komposition zu verbessern. Die Zeitung informierte ihre Leser über die Fälschung und entließ den Fotografen (vgl. Das manipulierte Bild auf der Titelseite). Wie viele andere Nachrichtenfotos aus der Kriegberichterstattung ebenfalls "verbessert" wurden, darüber lässt sich nur mutmaßen.
Eigentlich gibt es seit Jahren klare Richtlinien der Fotografen-Verbände, in Deutschland das Memorandum zur Kennzeichnungspflicht manipulierter Fotos, das ein [M] als klares Kennzeichen bei Veröffentlichung von modifizierten Bildern vorschreibt. Aber letztlich ist das eine freiwillige Selbstverpflichtung, der sich nicht alle Medien verschrieben haben.
Natürlich lügen nicht nur Bilder im Zeitalter des Borderline-Journalismus (vgl. Der Fake-Journalismus) und die Geschichte sensationeller Bildfälschungen sowie inszenierter Fotos geht weit zurück (vgl. Picture Manipulations). Hitler ließ sich propagandistisch vom Leibfotografen ins rechte Licht rücken (vgl. Heinrich Hoffmann), Stalin sorgte dafür, dass Trotzki durch Retusche von alten Fotos verschwand und das Hissen der Sowjetfahne auf dem Reichstag 1945 sorgfältig gestellt wurde.
Das sind herausragende Beispiele großer Diktatoren, aber jeder Öffentlichkeitsreferent bedient die Presse mit inszenierten Bildern. Zudem verändern die Medien selbst Fotos, wenn es ihnen ins Konzept passt. Bekannte Beispiele sind das National Geographic Magazin, das 1982 die große Pyramide von Gizeh etwas "einrückte", damit die gesamte altägyptische Anlage aufs Cover passte (vgl. Vegas, virtuelle Stadt) oder das Titelbild von Time 1996, auf dem das Polizeifoto von O.J. Simpson viel dunkler erscheint, damit es dramatischer wirkt.
Einen kleinen Einblick in die Herstellung der schönen neuen Welt der Hochglanzmagazine und Modefotografie gibt die Website von Greg Apodaca.
Skepsis ist also angebracht, aber was bleibt einem anderes, als der Kennzeichnungspflicht zu vertrauen? Der Computerwissenschaftler Hany Farid vom Darmouth College beschäftigt sich seit Jahren mit elektronischer Bildverarbeitung und er berichtet in der aktuellen Ausgabe des Newscientist über eine statistische Methode, mit der man manipulierte Bilder enttarnen kann.
Wasserzeichen sind nur bedingt brauchbar, da Versuche gezeigt haben, dass sie entfernt und anschließend wieder eingefügt werden können. Sie erschweren eine Bildfälschung, verhindern sie aber nicht grundsätzlich. Farid und seine Arbeitsgruppe haben einen umfassenderen Ansatz gewählt, um den Manipulateuren auf die Schliche zu kommen. Unveränderte Bilder, die so wiedergegeben werden, wie sie geschossen wurden, weisen ihrer Erkenntnis nach mathematische Eigenschaften auf, die sie von veränderten Versionen grundsätzlich unterscheiden. Das Team hat sich eingehend mit Komprimierungstechniken beschäftigt.
Dort haben sie die "Achilles-Ferse" der digitalen Manipulation gefunden, wie Farid berichtet. Normale Fotografien haben bestimmte typische statistische Eigenschaften, die sich zum Beispiel aus Unterschieden der Helligkeit oder Kontrastes zwischen einzelnen, benachbarten Bildpunkten ergeben. Die Wissenschaftler untersuchten die Wavelets, kleine Wellen, die durch die Komprimierung der Daten entstehen. Sie analysierten rund tausend garantiert "natürliche" Fotos und berechneten deren typische Wavelets. Dann überprüften sie ihre Resultate anhand von 10'000 zufällig ausgewählten Bildern. Es erwies sich, dass die Überprüfung mithilfe der errechneten Parameter funktionierte.
Es gibt acht verschiedene statistische Eigenschaften, die bei den meisten unveränderten Fotografien vorhanden und schwer zu fälschen sind. Bei einer hohen mathematischen Rate der Abweichung von dem typischen Muster ist eine Fälschung sehr wahrscheinlich.
Es gelang den Forschern vor allem sechs Typen von Bildmanipulation mit ihrem System zu entdecken: Kombinationen von Teilen digitaler Bilder, Veränderung von Bildgrößenanteilen, Scannen-Verändern-Scannen, doppelte Komprimierung mit Veränderung dazwischen, digitale Grafik und Steganografie (vgl. Die al-Qaida-Terroristen und die Steganografie).
Die Methode ist noch nicht perfekt, aber sehr vielversprechend, um künftig Bildfälschungen durch entsprechende Software auf die Spur zu kommen. Mit einem solchen Computerprogramm hätten dann auch Gerichte ein brauchbares Instrument zur Hand, um die Beweiskraft von Fotos zu prüfen.