KI: Warnung vor neuen Möglichkeiten der Populisten
Ordnungspolitische Denkfabrik cep fürchtet Manipulation im Europa-Wahlkampf. Die bestehenden Regeln seien veraltet. Man sollte schnell handeln.
Da wartet eine interessante Zukunft auf die Mediennutzer: Neunzig Prozent der Online-Inhalte könnten bis 2026 synthetisch erzeugt werden. Der Trend wird sich bei Wahlkämpfen zeigen – und, wie es der Think Tank Centrum für Europäische Politik (cep) befürchtet: über Manipulationen, die Populisten zu einen weiteren Aufschwung verhelfen.
"Wenn wir an die Europawahl im kommenden Jahr denken, sind die bestehenden Regeln zur Moderation von Inhalten, wie sie im Gesetz über digitale Dienste (DSA) vorgesehen sind, im Zeitalter von generativer KI bereits veraltet", so die Warnung des Berliner cep-Digitalexperten Anselm Küsters. Er ist einer der Verfasser der Studie "Die Bedrohung der europäischen Demokratie durch den digitalen Populismus".
Vorneweg zur Einordnung: Die Denkfabrik steht politisch nicht auf der linken Seite. Sie ist mit der Stiftung Ordnungspolitik verbunden. Und die Probleme, die sie anspricht, werden nicht aus der Warte eines Elfenbeinturms gesehen. Die Zeiten, in denen etwa Twitter (jetzt X) als Kanal, der nur eine Minderheit aus einem bestimmten Milieu beschäftigt, sind längst vorbei. Spätestens seit der Corona-Krise und den langen Stunden zuhause vor den Bildschirmen.
Tempovorsprung
Wer nachrichtenmüde ist, holt sich Häppchen aus Twitter-Debatten. Und, wie es gerade in der israelischen Öffentlichkeit vorgebracht wird: Twitter und Telegram waren schneller bei den Infos zur Situation beim massenmörderischen Angriff der Hamas auf israelisches Territorium.
Mit "Erzählt mir doch etwas, das ich noch nicht weiß", reagierte Ha’aretz-Autor Yonatan Englender auf die verspätete Berichterstattung der Leitmedien. Orientierung war in dieser Situation lebenswichtig. Yonatan Englender wird mit dieser Wahrnehmung nicht der Einzige gewesen sein.
Das ist zugegebenermaßen ein besonders krasses Beispiel für den Tempovorsprung, den Twitter und Telegramm haben, aber die Zahl derer, die sich ihre Infos in leicht konsumierbarer Form an gewöhnlichen Tagen, aus sozialen Medien Kanälen hohlen, wird nicht klein sein.
Kluft der Fähigkeiten
Daraus ergeben sich über KI Möglichkeiten der Manipulation. Das ist längst keine neue Feststellung mehr, aber im täglichen Medienverhalten ist möglicherweise noch nicht im Bewusstsein präsent, was die Denkfabrik mit ordnungspolitischer Orientierung hervorhebt:
Manipulierte Bilder herzustellen wie etwa über Midjourney erfordert "so gut wie keine Fähigkeiten". Das erforderliche Fachwissen, um etwa Deepfakes zu erkennen, werde dagegen "immer umfangreicher".
Der "abartige Vatertag"
Wer sich an das Deepfake-Video von Ricarda Lang erinnert, in dem sie den "abartigen Vatertag" abschaffen wollte, und daran, welche Entrüstung dies hervorrief, bekommt eine sachte Ahnung davon, was möglich ist und wie viele darauf hereinfielen, weil der Inhalt gut zum Bubble-Bias passt.
Durch die Bereitstellung "verschiedener gefilterter Realitäten haben diese digitalen Technologien zu einer Situation geführt, in der der Einzelne "Informationen, die aus anderen Filtern stammen, nicht glaubt. Diese Probleme werden nun durch die generative KI auf eine ganz neue Ebene gehoben, so die cep-Studie.
Sie liefert auf einigermaßen kurzer Länge (34 Seiten) Beispiele dafür, wie populistische Parteien in Deutschland, Italien und Frankreich KI-Generatoren für ihre Zwecke nutzen
Zum Beispiel veröffentlichte der stellvertretende Vorsitzende der AfD-Bundestagsfraktion Fraktion, Norbert Kleinwächter, unter anderem KI-generierte Deep-Fake-Bilder von wütenden, schreienden Migranten schreienden Migranten und von Klimaaktivisten, die aggressiv auf der Straße sitzen. Solche KI-generierten Bilder wurden verwendet, um "politische Meinungen zu illustrieren", so Kleinwächter gegenüber deutschen Medien, und räumte ein, dass "die Verwendung von Stereotypen" durchaus beabsichtigt sei. Diese KI-Bilder sind jedoch kaum als solche erkennbar als solche, vor allem, wenn man schnell durch die Feeds der sozialen Medien scrollt.
Cep, The Threat of Digital Populism to European Democracy
Die Regeln zur Moderation von Inhalten seien veraltet, stellen die Verfasser fest. Der Schwierigkeitsgrad für einen ausgewogenen Ansatz sei hoch, da bekanntlich der Schutz vor Desinformation und Hassrede mit freier Meinungsäußerung kollidieren kann.
So fallen auch die Vorschläge ziemlich unverbindlich aus: Förderung von digitaler Medienkompetenz, die Stärkung der Transparenz von Algorithmen und die Schaffung von Mechanismen zur Überprüfung von Fakten und zur Kennzeichnung von falschen Informationen.
Konkrete Maßnahmen
Als konkretere technische Maßnahmen empfehlen:
- "Slow Content Transmission": Die Einführung von technischen Maßnahmen, um die schnelle Verbreitung von Inhalten zu verlangsamen und dadurch die Möglichkeit zur Überprüfung und Korrektur von Fehlinformationen zu verbessern.
- "Alternative Source Digital Nudging": Die Entwicklung von digitalen Werkzeugen, die den Nutzern alternative Quellen und Perspektiven präsentieren, um ihre Informationsvielfalt zu erweitern und Filterblasen zu durchbrechen.
- "AI-Watermarking": Die Kennzeichnung von Inhalten, die von KI generiert wurden, um ihre Authentizität zu überprüfen und die Verbreitung von Deepfakes einzudämmen.
Der interessanteste politische Ansatz wäre bei dieser Feststellung zu finden: Um digitalem Populismus entgegenzuwirken, so die Studie, sollten auch sozioökonomische und psychologische Faktoren berücksichtigt werden, wie z.B. Ängste vor Arbeitsplatzverlust und Identitätskrisen in Zeiten der Globalisierung.