Umgekehrter Turing-Test: Welches Gesicht ist real?
Mit Algorithmen wie StyleGAN lassen sich fotorealistische Gesichter von Menschen erzeugen, die es nicht gibt. Können wir noch echte von simulierten Gesichtern unterscheiden?
Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert.
Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet.
Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten.
Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.
Begonnen wird mit Bildern geringer Auflösung, die dann immer weiter ergänzt werden, um schließlich zu hochaufgelösten realistischen Bildern zu kommen. Das eine neuronale Netz schlägt dabei ein Gesicht vor, das andere verbessert den Entwurf, indem es Originale gegen Fälschungen vergleicht. Endprodukt ist ein Gesicht, das von der KI nicht mehr als Fälschung erkannt wird.
Auf der Website werden alle paar Minuten neue Gesichter von Menschen vorgestellt, die es nicht gibt. Sie wirken sehr authentisch und haben Befürchtungen über Missbrauch ausgelöst, beispielsweise um Fake News herstellen oder verbreiten zu können, auch wenn der Missbrauch wohl größer ist, wenn man Gesichter oder Köpfe von existierenden Menschen auf andere Körper in kompromittierenden Szenen versetzt oder etwa Politiker etwas sagen lässt, was zu ihrem Nachteil gereicht.
Wettrüsten zwischen Täuschen und Erkennen
Jevin West und Carl Bergstrom haben nun im Rahmen ihres Projekts Calling Bullshit die Website Which Face is Real? ins Netz gestellt, auf der sie Besucher testen lassen, ob sie Gesichter von wirklichen Menschen von KI-erzeugten Gesichtern unterscheiden können, die jeweils paarweise gegenübergestellt werden. Sie wollen damit einen Beitrag zur Aufklärung leisten und berichten detailliert, anhand welcher Bildeigenschaften sich gefälschte oder simulierte Gesichter erkennen lassen. Allerdings beziehen sie sich nur auf StyleGAN und die von dem Algorithmus noch gemachten Ungenauigkeiten wie Asymmetrien oder Fehler im Hintergrund, bei anderen Algorithmen könnten andere Probleme auftreten.
Beruhigend schreiben sie zunächst, dass Computer zwar gut seien: "Aber deine Bildverarbeitungssysteme sind besser. Wenn du weiß, worauf du achten sollst, kannst du die Täuschungen mit einem einzigen Blick erkennen." Es ist jedenfalls ganz interessant, gegen den Algorithmus in einem umgekehrten Turing-Test anzutreten und dabei auch zu bemerken, wie weit fortgeschritten die Gesichtsfälschung schon ist.
West und Bergstrom warnen auch gleich, dass die Technik sich weiter verbessern wird und schließlich die Menschen allein visuell nicht ausmachen können, welches Gesicht wirklich und welche gefakt ist: "Es wird vielleicht nur noch ein paar Jahre dauern, bis die Menschen im Wettrüsten zwischen Täuschung und Entdeckung zurückfallen." Längst werden natürlich KI-Systeme gegen Algorithmen wie GAN eingesetzt, um die Schwachstellen der Täuschungen herauszufinden, was auch hier in eine Spirale des Wettrüstens zur Optimierung der Programme mündet, die Wirklichkeit und Simulation ununterscheidbar werden lassen - mit der Folge einer "Agonie des Realen", wie dies Jean Baudrillard ausgedrückt hätte.