KI-Chatbots in der politischen Kommunikation kaum von Menschen zu unterscheiden
KI-Chatbots mischen unbemerkt in Debatten mit. Ihre Meinungen wirken so echt, dass sie kaum noch von Menschen zu unterscheiden sind. Was Forscher dazu sagen.
Künstliche Intelligenz beeinflusst Wahlen – und manch einer schreibt ihr sogar zu, den Ausgang einer Wahl mitentscheiden zu können. Erst kürzlich haben sich große Technologiekonzerne zum Ziel gesetzt, gemeinsam gegen Wahlmanipulation durch KI vorzugehen.
Der Kampf gegen KI-generierte Fake News
Im Visier der Unternehmen stehen primär Audio-, Video- und Bildmaterialien, die von künstlicher Intelligenz erstellt werden. Einige sind so gestaltet, dass sie das Aussehen oder die Stimmen von politischen Kandidaten und Wahlhelfern täuschend echt nachahmen oder verfälschen.
Aber auch Chatbots sollten kritisch betrachtet werden, wie Forscher der University of Notre Dame herausgefunden haben. Nutzern fällt es immer schwerer, zwischen Bots und menschlichen Gesprächspartnern zu unterscheiden.
Die täuschend echte Welt der KI-Bots
In einer Studie ließen die Forscher Menschen und KI-Bots, die auf großen Sprachmodellen basieren, über politische Themen diskutieren. Das Experiment wurde in drei Runden durchgeführt, von denen jede vier Tage dauerte. Nach jeder Runde wurden die Teilnehmer gebeten, die Accounts zu identifizieren, die sie für KI-Bots hielten.
Das Ergebnis: In 58 Prozent der Fälle lagen die Probanden falsch, sagt Paul Brenner, Erstautor der Studie. Das spricht einerseits für die Qualität der KI-Bots. Sie stellen aber auch eine Gefahr für die demokratische Willensbildung dar.
Wir wissen, dass Informationen, die von einem anderen Menschen stammen, der an einem Gespräch teilnimmt, stärkere Auswirkungen haben als ein abstrakter Kommentar oder Verweis. Es ist wahrscheinlicher, dass diese KI-Bots bei der Verbreitung von Fehlinformationen erfolgreich sind, weil wir sie nicht erkennen können.
Paul Brenner
Die Studie verwendete in jeder Runde verschiedene LLM-basierte KI-Modelle: GPT-4 von OpenAI, Llama-2-Chat von Meta und Claude 2 von Anthropic. Den KI-Bots wurden zehn verschiedene Identitäten mit realistischen Profilen und Meinungen zur Weltpolitik zugewiesen.
Die Forscher waren überrascht, dass alle Sprachmodelle ähnlich gut funktionierten und sich kaum oder gar nicht auf die Vorhersagen der Teilnehmer auswirkten.
Die unterschätzte Bedrohung durch KI in sozialen Medien
"Wir hatten vermutet, dass das Llama-2-Modell schwächer sein würde, weil es ein kleineres Modell ist, das nicht unbedingt in der Lage ist, tiefgründige Fragen zu beantworten oder lange Artikel zu schreiben", sagt Brenner. Es habe sich aber gezeigt, dass es sich beim Chatten in sozialen Netzwerken kaum von den anderen Modellen unterscheide.
Das ist besorgniserregend, denn es handelt sich um eine frei zugängliche Plattform, die jeder herunterladen und verändern kann. Und es wird nur noch besser werden.
Paul Brenner
Fake News effektiv bekämpfen: Ein mehrschichtiger Ansatz
Bedenklich ist diese Entwicklung, weil die Verbreitung von Fake News mit KI-Bots schnell und kostengünstig möglich ist. Menschen könnten so effektiv manipuliert werden. Um die Verbreitung von Falschinformationen vorzubeugen, schlägt Brenner einen dreigleisigen Ansatz vor: Aufklärung, entsprechende Gesetze und Richtlinien zur Validierung von Konten in sozialen Netzwerken.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.