Text trifft auf Film: Sora bricht die Barriere zwischen Worten und Videos
Seite 2: Deepfakes und die Rolle von Sora im Superwahljahr 2024
- Text trifft auf Film: Sora bricht die Barriere zwischen Worten und Videos
- Deepfakes und die Rolle von Sora im Superwahljahr 2024
- Auf einer Seite lesen
Experten sind skeptisch. Professor Dr. Christian Hoffmann vom Institut für Medien- und Kommunikationswissenschaft der Universität Leipzig meint, dass Deepfakes noch relativ selten sind. Er verweist aber darauf, dass die experimentelle Forschung gezeigt habe, dass Mediennutzer "nicht sehr gut darin sind, Deepfakes zuverlässig als solche zu erkennen".
Die Deepfakes wären umso glaubwürdiger, wenn sie etwa Politikern Worte in den Mund legen würden, von denen auszugehen ist, dass sie die gesagt haben könnten. Professor Hoffmann fürchtet nicht, dass Wähler durch Deepfakes zur Wahl einer Partei verführt werden können:
Wahrscheinlicher ist, dass ein Deepfake "akzeptiert" wird, weil es ein bestehendes Weltbild bestätigt – und somit eine bestehende Wahlabsicht unterstützt.
Dass KI-Inhalte als solche gekennzeichnet werden sollen, findet er wichtig. Er warnt aber vor alarmistischen Kampagnen, denn diese würden seiner Ansicht nach das Gegenteil bewirken und auch Misstrauen gegen seriöse Medien und seriöse Berichterstattung schüren.
Sora und die öffentliche Wahrnehmung: Zwischen Faszination und Skepsis
Die Professorin für Digitalisierung und Öffentlichkeit am Institut für Kommunikationswissenschaft der Friedrich-Schiller-Universität Jena Edda Humprecht möchte sich nicht nur auf technische Lösungen verlassen und schreibt Awareness-Kampagnen dagegen eine wichtige Rolle zu.
Ferner sollen die Plattformbetreiber in die Verantwortung genommen werden. Sie fürchtet, "in einem Wahlkontext können solche manipulierten Inhalte genutzt werden, um die öffentliche Meinung zu beeinflussen, indem sie gezielt eingesetzt werden, um falsche Narrative zu verstärken oder politische Gegner in ein schlechtes Licht zu rücken."
Der Politikwissenschaftler Professor Dr. Andreas Jungherr von der Otto-Friedrich-Universität Bamberg sieht die Verantwortung für den Missbrauch von KI-Bildmaterial auch bei den Medien und bei politischen Eliten, die bereit sind, Deepfakes für ihre Zwecke einzusetzen.
Gleichartige Diskussionen gibt es nicht nur in der Wissenschaft, sondern auch bei Profis der Fotografie und der Videotechnik. KI-Produkte müssen für Medienkonsumenten als solche erkennbar sein.
Dass dazu auch die Medienkonsumenten selbst ihren Teil betragen müssen, und sich mit Medieninhalten kritisch auseinandersetzen sollen, ist Tenor der vielfältigen Diskussionen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.