Mondlandung doch echt? KI überzeugt selbst hartgesottene Skeptiker
Verschwörungstheoretiker sind schwer von Fakten zu überzeugen – meint man. Forscher setzten Sprachmodelle auf sie an und verblüfften mit den Ergebnissen.
Wer hat nicht schon einmal die zweifelhafte Freude gehabt, einen Verschwörungstheoretiker zu überzeugen? Ob es um die angeblich gefakte Mondlandung geht, oder ob Elvis oder andere prominente Personen nicht gestorben sein sollen, der Fantasie sind keine Grenzen gesetzt. Wie oft verzweifelt man beim Versuch, diesen Menschen die realen Fakten nahezubringen.
Das muss nicht sein, meinen Thomas Costello, Gordon Pennycook und David Rand. Die Wissenschaftler setzten Sprachmodelle auf die Verschwörungstheoretiker an und veröffentlichten die Ergebnisse ihrer Studie in der Fachzeitschrift der Amerikanische Gesellschaft zur Förderung der Naturwissenschaften, Science.
Forscher setzen KI auf Verschwörungstheoretiker an
Die Forscher fanden heraus, dass selbst Menschen, die scheinbar faktenresistent an ihre Verschwörungsgeschichten glauben, durch die KI vom Gegenteil überzeugt werden können, wenn ihnen – individuell angepasst – die Gegenbeweise vorgelegt werden. Entgegen der oft in sozialen Medien, aber auch im realen Leben geäußerten Überzeugung sind Anhänger von Verschwörungstheorien keine "hoffnungslosen Fälle".
Die großen Sprachmodelle (Large Language Model, LLM) gehen im Dialog mit den Verschwörungstheoretikern anders vor als statische, informative Internetseiten. Sie gehen gezielt auf individuelle Fragen und Problematiken ein und haben anders als menschliche Gesprächspartner offenbar kein Problem mit der Geduld. Für die Autoren ist dies eine Demonstration der Überzeugungskraft von LLMs.
2.000 Probanden in zwei Gruppen
Über 2.000 Teilnehmer der Studie erzählten dem KI-Chatbot ChatGPT-4 Turbo eine Verschwörungstheorie. Sie setzten der KI ihre Beweise vor und mussten auf einer Skala von 0 bis 100 Prozent angeben, wie sehr sie persönlich vom Wahrheitsgehalt der Theorie überzeugt sind.
In der Folge wurden die Teilnehmer im Zufallsverfahren der Testgruppe oder der Kontrollgruppe zugeteilt. Die Testgruppe musste sich kurz mit dem Chatbot über die Faktenlage rund um die Verschwörungstheorie unterhalten.
Die erste Antwort des Chatbots bezog sich auf die Schilderung der Verschwörungstheorie. Danach gab es zwei weitere Gelegenheiten für den Chatbot, auf zwei Reaktionen der Probanden zu reagieren. Die Gesamtdauer des Dialogs lag im Schnitt bei zehn Minuten.
Die Kontrollgruppe unterhielt sich in der Zwischenzeit über ein Thema, das nichts mit der Verschwörungstheorie zu tun hatte. Schließlich wurden beide Gruppen wieder gebeten, anzugeben, wie sicher sie über den Wahrheitsgehalt ihrer Verschwörungstheorie seien. Trotz der relativ kurzen Zeit sank der Überzeugungsgrad bei der Testgruppe um 17 Prozentpunkte mehr als bei der Kontrollgruppe.
Bei fast jedem vierten Teilnehmer der Kontrollgruppe sank die verschwörungstheoretische Überzeugung unter 50 Prozent. Eine Kontrollbefragung nach zwei Monaten konnte nach Ansicht der Autoren der Studie belegen, dass der Effekt anhielt. Eine zweite Version der Befragung, mit der die Robustheit der Ergebnisse geprüft wurde, kam zu einem ähnlich starken Effekt.
Gemischte Reaktionen
Die Studie stößt auf ein gemischtes Echo. Philipp Schmid, Juniorprofessor am Zentrum für Sprache und Kommunikation und am Zentrum für Sprachwissenschaften, Radboud University, Niederlande, meint:
Wir wissen aus publizierten Berichten bereits, dass empathische Dialoge helfen können Falschinformationen zu entkräften. Wir wissen auch, dass Chatbots in manchen Kontexten als kompetenter und sogar empathischer gelten als menschliche Gesprächspartner.
Es ist deshalb anzunehmen, dass KI durchaus in der Lage ist als Intervention den Glauben an Verschwörungstheorien effektiv abzuschwächen. Tatsächlich gibt es auch bereits Studien, die aufzeigen, dass Chatbots Falschinformationen effektiv kontern können. Die veröffentlichte Studie im Journal Science bestätigt diese Befunde für den spezifischen Fall der Verschwörungstheorien, die als besonders hartnäckig gelten und als Stresstest für Interventionen angesehen werden können.
Für Professor Schmid sind Chatbot-Interventionen "Blackbox"-Interventionen. Er sieht kein besseres Verständnis über die menschliche Einstellungsbildung. Auch die Frage, ob die Effekte spezifisch für Chatbots sind, bleibt für ihn offen.
Lesen Sie auch
5G plus KI: Nvidia will neues Superhirn für Japan erschaffen
Neues Kühlmaterial macht Rechenzentren sparsamer
Tesla im Aufwind: Trump-Regierung könnte selbstfahrende Autos begünstigen
Tod der Demokratie durch künstliche Intelligenz
KI: Wird die Entwicklung von Superintelligenz zum letzten Fehler der Menschheit?
Er bemängelt, dass der Vergleich von Chatbots mit anderen konventionellen Interventionen gegen Falschinformationen in diesem Artikel nicht vorgenommen wurde. Zur Methodik der Studie merkt er an, dass sie "positive Besonderheiten bietet, die eine erfolgreiche Anwendung der Intervention in der Praxis wahrscheinlicher machen. So wurden Verschwörungstheorien von Teilnehmern ausgewählt und nicht von den Forschern. Es handelt sich also um Material, das wirklich relevant für die Teilnehmer war. Die Relevanz des Materials ist in vielen früheren Studien oft fraglich."
Schmid sieht zudem Schwierigkeiten, die Ergebnisse der Studie ins praktische Leben zu übertragen:
Es bleibt aber unklar, ob Menschen mit stark ausgeprägtem Verschwörungsglauben ohne direkte Anweisung innerhalb einer Studie eigenmotiviert eine solche Diskussion mit Chatbots führen würden. Menschen, die an Verschwörungstheorien glauben, zeichnen sich oft durch eine Informationsverarbeitung und Informationsauswahl aus, die man als "motivated reasoning" bezeichnet. Gegenargumente werden weder gesucht noch als sinnvoll erachtet. Ganz im Gegenteil: Man sucht nur nach Informationen, die die eigene Perspektive stärken.
Auf die Frage, inwiefern Menschen, die von einer Verschwörungstheorie überzeugt sind, in der Praxis dafür offen wären, mit einem KI-Chatbot zu diskutieren ist auch Stefan Feuerriegel, Leiter des Instituts für Künstliche Intelligenz (KI) im Management, Ludwig-Maximilians-Universität München (LMU) skeptisch:
Das ist vermutlich eher unrealistisch. Aber Millionen Menschen nutzen tagtäglich ChatGPT und ChatGPT neigt auch dazu, falsche Fakten zu korrigieren. Insoweit könnte ein System wie ChatGPT auch unbewusst helfen, Fakten richtig zu stellen.
Für Benjamin Krämer, Heisenberg-Professor für Kommunikationswissenschaft mit dem Schwerpunkt Mediennutzung und Mediengeschichte, Institut für Kommunikationswissenschaft und Medienforschung, Ludwig-Maximilians-Universität München (LMU), ist die Studie schwer zu beurteilen. Er gesteht ein, dass sie methodisch sehr aufwendig sei und viele Qualitätskriterien für überzeugende Forschungsbefunde, zum Beispiel Präregistrierung und Replikation, erfüllen würde.
Er stellt sich aber die Frage, "ob die Studie trotz Präregistrierung auch bei Science angenommen worden wäre, wenn die Ergebnisse nicht derart ‚perfekt‘ wären. Das Journal steht ja gelegentlich in der Kritik, zu sehr auf spektakuläre Befunde als auf solide, aber vielleicht weniger öffentlichkeitswirksame Wissenschaft zu setzen."