... und etwa auf dem Niveau der üblichen "Aufklärungsblogs" die im Netz zu finden sind.
Ich lasse mich gerne von schlüssigen und fundierten Beweisführungen überzeugen - egal von welcher Seite sie stammen - die vorliegende "forensische Analyse" fällt allerdings nicht in diese Kategorie und hat in meinen Augen nur eine sehr geringe Aussagekraft - weder in die eine, noch in die andere Richtung.
Warum das so ist, möchte ich hier kurz anreißen:
Schon beim groben Überfliegen fällt auf, dass die Analyse hauptsächlich aus Text besteht. Keine Tabellen, keine Diagramme, keine Formeln. Bei einer Arbeit, die sich mit Bildverarbeitung und Analyse auseinandersetzt, erwarte ich zumindest eine mathematische Beschreibung der Methoden, mit denen Fehler quantifiziert werden, und wie ermittelt wurde, ob Abweichungen statistisch relevant sind oder nicht.
Ein wichtiges Kriterium für die Wissenschaftlichkeit einer solchen Untersuchung ist, dass die Ergebnisse reproduzierbar sind - also auch für andere durchführbar sind, und sie zu den selben Ergebnissen kommen können. Dafür ist es unabdingbar, dass die angewendeten Methoden mathematisch exakt beschrieben werden - was im vorligenden Dokument für die zentrale Analysemethode ELA (Error Level Analysis) jedoch nicht der Fall ist. Die Methode wird lediglich mit 4 schwammig formulierten Zeilen beschrieben - keine Angabe der verwendeten Parameter, nichts über die Verfahren, mit denen die DCT-Koeffizienten der JPEG-Kompression quantisiert wurden (welche Quantisierungsmatrix? JPEG-Bibliotheken verwendet? Welche? Welche Version?).
Hinzu kommt, dass bei der Fehlerstufenanalyse weiterhin keine Angaben über die Größe des Fehlers gemacht werden (wo ist die Legende?). Man sieht ein verrauschtes Bild, das Abweichung der einzelnen Pixel nach erneuter Kompression zeigen soll, aber es gibt keine Indikation dafür wie groß diese Abweichung ist (oder sogar ob - anders als erwartet - dunkle Pixel nicht vielleicht für hohe Abweichung stehen und helle Pixel für niedrige?). In diesen Punkten lässt die Wissenschaftlichkeit des Dokuments einiges zu wünschen übrig.
Ähnlich oberflächlich verhält es sich mit den Schlussfolgerungen aus der Fehleranalyse:
Richtigerweise wird zwar darauf hingewiesen, dass die größeren Abweichungen im Bereich nachträglich hinzugefügter Bildelemente zu erwarten sind, die Folgerung, dass niedrigere Fehler nur auf Bildmanipulation zurückzuführen sei ist jedoch voreilig und offenbart ein mangelhaftes Verständnis der Autoren von den mathematischen Grundlagen und den Algorithmen auf denen die JPEG-Kompression basiert:
Nehmen wir z.B. die Wolken im ersten untersuchten Bild: Der obere linke und der untere rechte Bildbereich, in dem die Wolken zu sehen sind weisen eine geringere Fehlerrate auf als der Rest des Bildes (die Bereiche erscheinen dunkler im Fehler-Bild, im Falle der überbelichteten Wolke links oben sogar fast schwarz). Die Erklärung der Autoren für den geringen Fehler der linken obere Wolke lautet lapidar "sie ist überbelichtet". Das ist jedoch lediglich eine Aussage und keine Antwort auf die Frage "Warum ist dort der Fehler geringer?". Die korrekte Antwort würde lauten weil es ein großer, nahezu einfarbiger Bereich ist der sich mit nur wenigen, stellenweise sogar nur mir einer einzigen DCT-Basisfunktion vollständig abbilden lässt.
Um das etwas klarer zu machen muss doch ich ein wenig ausholen:
JPEG-Kompression unterteilt ein Bild in Blöcke (üblicherweise 8x8 pixel groß), und interpretiert die Pixel in diesen Blöcken als Linearkombination von "2D"-Basisfunktionen, den DCT-Basisfunktionen (Diskrete Kosinustransformation, siehe http://en.wikipedia.org/wiki/File:Dctjpeg.png). Das ist vergleichbar mit Wellen unterschiedlicher Frequenz und Amplitude, welche aufsummiert wieder das ursprüngliche Bild ergeben. Ähnlich wie eine Schallwelle kann man auch Bilder in ihre Frequenzen (und Amplituden) zerlegen - überlagert man diese wieder (indem man sie aufsummiert), so erhält man wieder die ursprüngliche Schallwelle, bzw. das ursprüngliche Bild. JPEG-Kompression funktioniert vereinfacht gesagt so, dass diejenigen "Wellen", die nur wenig zum Bild beitragen (eine Amplitude nahe 0), Stück für Stück weggelassen werden, je nach abweichung vom "Original" und der Kompressionsstufe.
Das erklärt allerdings auch, weshalb die Wolken in dem Bild einen nur geringen Fehler aufweisen: Die Wolkenstrukturen haben nur wenige Frequenzanteile (homogene, gleichförmige Strukturen), und lassen sich daher mit nur wenigen DCT-Basisfunktionen vollständig reproduzieren (u.a. ein Grund weshalb sich Bilder mit weichen Farbverläufen und wenigen harten Kanten besonders gut mit JPEG komprimieren lassen).
Das bedeutet, dass auch bei schwacher Kompression (möglichst nah am "Original") diese Wolkenbereiche schon früh maximal effizient gespeichert werden können (nur wenige niederfrequente DCT-Basisfunktionen reichen um die Wolke mit geringer Abweichung vom Original darzustellen). Eine weitere Kompression, wie sie bei der ELA zur Anwendung kommt, führt daher nur zu einem geringen Fehler im Bereich der Wolken, früh ihr "Minimum" erreichen.
Kurz: Der untere rechte Bildbereich im Fehler-Bild ist aus dem selben Grund "dunkler" aus dem auch der obere linke Bildbereich fast schwarz ist. Die Autoren geben nicht nur keine Erklärung dafür weshalb die geringeren Frequenzanteile im Bereich der Wolken keine mögliche Erklärung für den geringeren Fehler sind, sie erwecken sogar den Eindruck als kennen sie nicht einmal diesen möglichen Zusammenhang (geschweige denn dass sie überhaupt wissen wie JPEG und ELA funktionieren). Das hält sie allerdings nicht davon ab, die Unterschiede im weiteren als "Signifikant" zu bezeichnen, obwohl in dem Dokument nirgendwo auch nur der Ansatz einer statistischen Berechnung oder die Angabe einer Irrtumswahrscheinlichkeit zu finden wäre.
Auch was die "Referenzfotos" auf Seite 11 angeht, so erschließt sich mir nicht, weshalb die ebenfalls dort im Bereich der Wolken zu erkennende "Verdunklung" nach Aussage der Autoren nicht relevant sein soll, beim anderen Bild jedoch schon. Da würde ich gerne ein paar mehr Zahlen und etwas mehr Mathematik sehen, bevor ich mich davon überzeugen lasse.
Zur Metadatenanalyse will ich nicht allzu viel schreiben. Es sollte klar sein, dass die Bilder mit einem Bildverarbeitungsprogramm bearbeitet wurden, zumindest um die Rahmen und die Beschriftungen hinzuzufügen. Die Aussagekraft dieser Informationen ist daher nur äußerst gering.
Die restliche "Beweisführung", die "Referenzanalyse" unterscheidet sich nicht von den eingangs erwähnten "Aufklärungsblogs", da mag sich jeder sein eigenes Bild von machen. Allerdings haben die letzten Jahre gezeigt, dass hierbei Vorsicht geboten ist: Mit solchen Methoden wurden schon die abstrusesten Theorien scheinbar "belegt".
Fazit: Unwissenschaftlich, Autoren kennen offenbar die Funktionsweise der Werkzeuge nicht, mit denen sie versuchen eine Beweisführung zu machen (tolles Photoshop-Plugin im App-Shop gefunden?)
-> wenig glaubwürdige "Analyse", auch wenn das nicht ausschließt, dass sie "zufällig" mit ihren Schlussfolgerungen recht haben könnten, so bringt das Dokument keinen Erkenntnisgewinn.
Finn