KI-Technologie in der Politik: Wie Wahlkämpfe manipuliert werden können

In diesem Jahr wird in etwa 50 Ländern gewählt und KI dürfte ihren Ausgang beeinflussen. Welche Gefahren im Wahlkampf lauern und wie man ihnen begegnen kann.

Stellen Sie sich vor, in Deutschland sind Wahlen und Sie suchen in den sozialen Netzwerken nach Informationen zu den einzelnen Parteien. Sie stoßen auf eine Vielzahl von Bildern, auf denen die Gesichter von Grünen-Politikern mit markigen Sprüchen zu sehen sind.

Fake News erkennen: Eine Herausforderung für Wähler

Neben Robert Habeck stehen Sprüche, die seine Leistungen als Wirtschaftsminister loben. Zum Beispiel, dass er für faire Energiepreise sorge; dass mit ihm die Wirtschaft wachse; oder der Standort Deutschland für die Industrie attraktiv werde.

Bilder von Ricarda Lang sind garniert mit Ernährungstipps oder rigiden Hinweisen, dass nur noch in die Politik gehen darf, wer eine abgeschlossene Berufsausbildung hat. Oder Annalena Baerbock hält eine weiße Taube in der Hand und sagt: "Ich bin für Frieden und dafür stehe ich mit meinem Namen".

Die Macht der sozialen Netzwerke in politischen Kampagnen

Wie würden solche Botschaften auf Sie wirken?

Was man nicht immer wissen kann: Hier könnten böswillige Akteure am Werk sein, die mit künstlicher Intelligenz in sozialen Netzwerken Desinformation betreiben. Genau vor diesem Szenario warnt jetzt eine aktuelle Studie der George Washington University.

Das Thema ist umso brisanter, als in diesem Jahr in mehr als 50 Ländern Wahlen stattfinden. Die wichtigste Wahl dürfte die Präsidentschaftswahl in den USA sein. Aber auch das Europaparlament wird gewählt, in Deutschland einige Landtage, in Österreich der Nationalrat und in der Schweiz finden Volksabstimmungen statt.

Desinformation im Netz: Wie erkennen, wie bekämpfen?

Die Studie wurde von dem renommierten Physikprofessor Neil Johnson geleitet, der an der George Washington University auf dem Gebiet der Datenwissenschaften forscht. Das Ergebnis: Einfache KI-Systeme wie Generative Pre-trained Transformer (GPT) reichen aus, um Informationen auf Online-Plattformen zu manipulieren.

Die Forscher schlagen Alarm, weil solche Systeme weitverbreitet und leicht zugänglich sind. Sie betonen, dass die Gefahr nicht von fortgeschritteneren Systemen wie GPT-3 oder GPT-4 ausgeht. Diese hätten zu viele eingebaute Schutzvorrichtungen, um einen Missbrauch zu verhindern. Die Gefahr gehe vielmehr von den einfacheren GPT-Versionen aus.

Das Thema dürfte in Zukunft noch an Brisanz gewinnen. Denn KI-Experten haben bereits die Befürchtung geäußert, dass bis 2026 rund 90 Prozent der im Internet verbreiteten Informationen nicht von Menschen, sondern von KI-basierter Software erstellt werden.

Medienkompetenz im digitalen Zeitalter: Unverzichtbar für jeden Wähler

"Alle reden über die Gefahren der KI, aber bis zu unserer Studie gab es keine wissenschaftlichen Beweise für diese Bedrohung", sagt Johnson. "Man kann keine Schlacht gewinnen, wenn man das Schlachtfeld nicht genau kennt."

Die Studie zeigt, dass ein Netzwerk aus 23 Social-Media-Plattformen es böswilligen Akteuren ermöglicht, Milliarden von Nutzern zu erreichen, ohne dass diese sich dessen bewusst sind. Dieses Netzwerk wurde bereits in früheren Untersuchungen von Johnson kartiert und stellt eine direkte Verbindung zu einem globalen Publikum dar.

Die Forscher erwarten, dass KI-gesteuerte Aktivitäten böswilliger Akteure im Sommer 2024 zum Alltag gehören werden. Diese Prognose basiert auf Daten von zwei Ereignissen, die als historisch und technologisch ähnlich eingestuft wurden.

Wie Fake News eingedämmt werden könnten

Der erste Datensatz stammt von automatisierten Algorithmus-Angriffen auf die US-Finanzmärkte im Jahr 2008, der zweite von chinesischen Cyberangriffen auf die US-Infrastruktur im Jahr 2013. Durch die Analyse dieser Datensätze konnten die Forscher einen Blick in die mögliche Zukunft von KI-gesteuerter Desinformation werfen.

Die Autoren der Studie gehen davon aus, dass Unternehmen, die soziale Netzwerke betreiben, daran arbeiten, Fake News einzudämmen. Gezielte Desinformationskampagnen von Einzelpersonen, Gruppen oder Staaten könnten damit jedoch nicht wirksam bekämpft werden.

Social-Media-Unternehmen sollten deshalb nicht jeden einzelnen Inhalt löschen, sondern sich mit koordinierten Aktivitäten auf größere Bereiche konzentrieren. Diese Strategie könnte effektiver sein, um die Verbreitung von Desinformation einzudämmen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.