Wie Wissenschaftler durch Deepfakes zu Werbeträger für Betrüger werden

Das Gesicht einer Person wird mit KI bearbeitet.

(Bild: Tero Vesalainen / Shutterstock.com)

KI-Deepfakes bedrohen Forscher. Betrüger nutzen deren Reputation für Fake- Werbung. Wie können sich Wissenschaftler dagegen wehren?

Nach Politik und Showbusiness haben Cyberkriminelle nun auch die Welt der Wissenschaft für ihre Zwecke entdeckt. Dank künstlicher Intelligenz (KI) können sie mit Deepfakes Wissenschaftler als Werbeträger für fragwürdige Medikamente oder andere Betrügereien missbrauchen.

Nature-Magazin diskutiert über Deepfakes

Mit dieser Methode wurden bereits Journalisten und Wirtschaftsexperten als Werbeträger für betrügerische Finanzprodukte eingesetzt. Alles schon da gewesen und doch neu. Wissenschaftler riskieren nicht nur ihren Ruf. Sie müssen im Zweifelsfall beweisen können, dass sie nicht gegen die Berufsethik verstoßen haben.

Die Diskussion über ein so profanes Thema wie Deepfakes hat das Wissenschaftsmagazin Nature erreicht. Die 1869 gegründete englischsprachige Zeitschrift ist vor allem für ihre naturwissenschaftlichen Artikel über neueste Forschungsergebnisse bekannt. Daneben finden sich aber auch fast schon populärwissenschaftlich vereinfachte Zusammenfassungen aktueller Forschung sowie Themen aus dem Alltag von Wissenschaftlern.

Falsche Werbung mit renommierten Forschern

Dass renommierte Forscher im Internet auf Videos stoßen, in denen sie – oder besser angeblich sie – für Potenzmittel werben, gehört heute zum Alltag. Der jüngste Beitrag zu diesem Thema, der am 7. August veröffentlicht wurde, handelt von dem Urologen Kgomotso Mathabe, der an der Universität von Pretoria in Südafrika lehrt.

Mathabe erhielt Anfang Januar von einem Kollegen einen Videolink. "Es war ein Video von mir, in dem ich sagte, dass es dieses neue Medikament gibt, das auf Forschung basiert, an der ich beteiligt war", zitiert Nature die Medizinerin, die auch am Steve Biko Academic Hospital in Pretoria praktiziert. Mathabes falsches Alter Ego warb in dem Video für ein angeblich wirksames Medikament gegen erektile Dysfunktion.

Die Forscherin, die in den sozialen Medien nicht präsent ist, konnte sich nun auch erklären, warum sie von Verwandten und Bekannten darauf angesprochen wurde, dass ihr Foto auf Facebook sehr präsent sei.

Statt eines Medikaments, das die erektile Dysfunktion von Männern zwischen 40 und 89 Jahren zu 99 Prozent heilen soll, erhalten diejenigen, die auf die Anzeige klicken und das Medikament bestellen, eine sehr schlechte Nachricht. Für die Lieferung des in Wirklichkeit nicht existierenden Wundermittels verlangen die Betrüger Vorkasse und begehren zu diesem Zweck die Bankverbindung.

Mit der Kontonummer plündern die Betrüger die Konten ihrer ahnungslosen Opfer. Diese wiederum wenden sich verärgert an die Person, die sie angeblich zum Kauf des Medikaments verleitet hatte, Dr. Mathabe. Die Betrogenen verlangten ihr Geld zurück. Mathabe, die als erste Frau überhaupt an der Witwatersrand-Universität Urologin wurde und erst die zweite in Südafrika ist, ging zur Polizei. Dort erfuhr sie, dass ihr Schicksal kein Einzelfall ist.

Schließlich sind die Deepfakes, die mit realem Video- und Audiomaterial trainiert werden, relativ einfach und kostengünstig herzustellen. Die Macher des Materials setzen darauf, dass die Glaubwürdigkeit bekannter, seriöser Wissenschaftler für ihren Betrug genutzt werden kann. Es wird erwartet, dass der Trend zu Deepfakes mit Wissenschaftlern zunehmen wird.

Wie sich Wissenschaftler gegen Deepfakes wehren können

Für die geschädigten Wissenschaftler ist es weniger einfach, sich zu wehren. Nature empfiehlt den Wissenschaftlern, sich an die jeweilige Social-Media-Plattform zu wenden, auf der das sie kompromittierende Material veröffentlicht wurde.

Außerdem sollten sie umgehend ihren Arbeitgeber oder Vorgesetzten kontaktieren und informieren. Es wird empfohlen, die Videos von Experten analysieren zu lassen, die anhand von Artefakten und optischen Unstimmigkeiten wie fehlenden Schatten leicht nachweisen können, dass es sich um Deepfakes handelt.

Auch der Diabetes-Experte Viswanathan Mohan, der ein Kompetenzzentrum der International Diabetes Foundation in Chennai leitet, befürchtet, dass ihm ein Deepfake, mit dem er angeblich unwirksame Kräuter bewirbt, Ärger einbringen könnte.

Er befürchtet, dass der Fall von der indischen Ärztekammer verfolgt wird. Dabei ist das Video leicht als Fälschung zu erkennen. Denn Mohan spricht darin Hindi, eine Sprache, die er nicht beherrscht. "Mein Name ist in Indien ein Synonym für Diabetes. Alles, was ich über Diabetes sage, gilt daher als reine Wahrheit", zitiert Nature Mohan.

Betroffenen wird daher empfohlen, sich an Berufsverbände zu wenden, sofern es solche für ihr Forschungsgebiet gibt. Damit hätten die Wissenschaftler einen Verbündeten im Kampf gegen Deepfakes an ihrer Seite und verringerten gleichzeitig das Risiko, selbst ins Visier ihrer Kammer zu geraten. Die Unterstützung durch Berufsrechtsschutzversicherungen ist noch gering.

Deepfakes: Nicht immer mit böser Absicht

Deepfakes müssen nicht immer böse Absicht sein. Anlässlich der Olympischen Spiele in Paris hat die Düsseldorfer Agentur TeamBBDO in Zusammenarbeit mit dem AI-Filmstudio Tektite Videos über ukrainische Sportler produziert, die im Krieg umgekommen sind. Darin sprechen sie über ihren eigenen Tod und ihren Traum, an den Olympischen Spielen teilzunehmen.

Deepfakes, digital manipulierte audiovisuelle Medien hoher Qualität, Cheap Fakes, Fälschungen geringer Qualität und sogenannte Softfakes – im Zeitalter der KI tauchen immer mehr neue Begriffe auf. Bei Softfakes sind es die Akteure selbst, Politiker oder Prominente, die KI einsetzen, um ihr Image oder ihre Wahlkampagne zu verbessern. Die ethische Dimension dieser Manipulationen ist bisher nicht abschließend erfasst oder eingegrenzt.