Vertrauen in die Wissenschaft: Gefährlicher Trend zur besseren Konsumierbarkeit

Bild: Pixabay

Wissenschaftsbarometer 2023: Vertrauen in Wissenschaft und Forschung nach wie vor hoch. Aber es gibt Hürden. Dort liegen die Chancen von ChatGPT – und von Falschinformationen.

Es soll ja Schwarzseher geben, die uns mit der Drohung eines neuen dunklen Zeitalters ("dark age") nach Jahrhunderten der Aufklärung und dem Siegeszug der Wissenschaften den Optimismus schwermachen.

Zum Glück gibt es Umfragen, die erstmal beruhigen. Noch steht die Mehrheit aufseiten der Wissenschaften, wie das Wissenschaftsbarometer 2023 in einer repräsentativen Studie (1.037 Telefoninterviews) aktuell feststellt.

Das Vertrauen der Bevölkerung in Wissenschaft und Forschung ist nach wie vor hoch, wenngleich etwas niedriger als in den Jahren der Coronapandemie. (…) 56 Prozent der Befragten vertrauen in Wissenschaft und Forschung. Dieser Wert liegt wieder nahe an den Ergebnissen vor der Coronapandemie.

Wissenschaft im Dialog

Zum Vergleich im Jahr 2022 lag der Vertrauenswert etwas höher, bei 62 Prozent, im Jahr davor bei 61 Prozent und 2020 bei 60 Prozent. 2019 markiert mit 46 Prozent einen Tiefpunkt.

Kein überwältigender Vertrauensbeweis

Nun, nach ausgiebigen Diskussionen und Disputen über die Einordnung wissenschaftlicher Ergebnisse zum Thema Corona und Klimawandel, freut man sich über die 56 Prozent, die der Wissenschaft "voll und ganz oder eher vertrauen".

Das ist nicht gerade ein überwältigender Vertrauensbeweis, aber immerhin die Mehrheit.

Wobei zu erwähnen ist, dass der Anteil der Befragten, die angeben, "(eher) nicht in Wissenschaft und Forschung zu vertrauen", zwar im Vergleich zum Vorjahr leicht gestiegen ist, aber in der aktuellen Erhebung lediglich 13 Prozent beträgt.

Erwartungsgemäß ist das Vertrauen in die Wissenschaft bei Befragten mit hohem formalen Bildungsniveau höher: 79 Prozent aus dieser Bevölkerungsgruppe geben an, der Wissenschaft zu vertrauen. Bei denjenigen, denen via Abschlusszeugnis eine niedrigere Bildung attestiert wird, werden 31 Prozent angegeben, die dieses Vertrauen teilen.

Das Interesse an Wissenschaft

Soweit das bekannte Gelände. Neu ins Wissenschaftsbarometer wurden dieses Mal Einstellungen zur Künstlichen Intelligenz aufgenommen. Da zeigt sich zusammen mit anderen Umfrageantworten ein interessanter Aspekt.

Dass man erhebliche Skepsis bei den Befragten gegenüber der Richtigkeit von wissenschaftlichen Aussagen, die von KI-Programmen übermittelt werden, feststellt, ist keine große Überraschung:

44 Prozent der Befragten gaben an, einer solchen KI bei der Wiedergabe wissenschaftlicher Inhalte eher nicht oder gar nicht zu vertrauen. Ein Drittel der Befragten ist bei dieser Frage unentschieden und 16 Prozent geben an, Programmen wie ChatGPT eher oder voll und ganz zu vertrauen.

Das Vertrauen in ChatGPT und ähnliche Programme ist bei jungen Menschen ausgeprägter: 45 Prozent der 14- bis 29-Jährigen zeigten ein vergleichsweise hohes Vertrauen, bei der Gruppe ab 60 Jahren waren es neun Prozent.

Wissenschaft im Dialog

Doch zeigt sich in den Antworten zum Interesse an Wissenschaften auch ein Trend, der den KI-Programmen entgegenkommt. Wie die Umfrage mit Freude feststellt, ist zwar das Interesse an Vermittlung von Wissenschaft groß.

Zugleich aber gibt es Vorbehalte gegen zu anspruchsvolle oder voraussetzungsreiche Inhalte.

Schwindendes Interesse an Ingenieurswissenschaften

So könnte man das Ergebnis interpretieren, wonach das Interesse der Deutschen an den Lebenswissenschaften mit 70 Prozent der Befragten sehr groß ist, aber nicht bei den Naturwissenschaften.

Dort sind es lediglich 49 Prozent der Befragten gegenüberstehen, die nach eigener Aussage an Themen aus diesem Bereich interessiert sind ("gegenüber 66 Prozent in 2019"). Und nur 46 Prozent sind an Themen aus den Ingenieurwissenschaften ("gegenüber 56 Prozent in 2019") interessiert.

Liegt das auch an schwindenden mathematischen Voraussetzungen (siehe Pisa-Ergebnisse), die nötig sind, um Natur- und Ingenieurswissenschaften aufzuschlüsseln, oder ist das hauptsächlich mit Zeitgeist oder den verwendeten Einteilungen zu erklären?

In vorgängigen Befragungen wurde statt nach "Lebenswissenschaften" nur nach "Medizin" gefragt, "in stärkerer Anlehnung an die Fachsystematik der Wissenschaftsbereiche der DFG", was das frühere höhere Interesse gut erklärt.

Und statt nach "Ingenieurwissenschaften" wurde zuvor nach einem Interesse für "Technik und neuen Technologien" gefragt.

Die neuen Kategorisierungen könnte das schwindende Interesse zumindest teilweise erklären. Zu einem guten Teil hat dies aber augenscheinlich auch damit zu tun, wie verständlich das Wissensgebiet vermittelt wird bzw. vermittelt werden kann.

37 Prozent der Befragten sind der Meinung, dass Wissenschaftler sich zu wenig bemühen, die Öffentlichkeit über ihre Arbeit zu informieren. Dieser Wert ist größer als in den Pandemiejahren (2021: 29 Prozent, 2020: 33 Prozent).

Wissenschaft im Dialog

Die einfache Vermittlung

Dieses Ergebnis kann man mit anderen Aussagen verknüpfen und man bekommt die Chancen der Wissenschaftsvermittlung durch KI-Programme zu sehen: Für die Hälfte der Befragten ist es positiv, sich mit Programmen wie ChatGPT komplexe Sachverhalte aus Wissenschaft und Forschung stark vereinfacht erklären lassen zu können.

Hier tut sich ein gewisses Risikogelände auf.

Es ist zwar "wichtig, die Risiken hinsichtlich Desinformation zu minimieren. Gleichzeitig aber sollten wir alle Potenziale nutzen, die Künstliche Intelligenz für die Kommunikation mit und über Wissen birgt", wird Benedikt Fecher, Geschäftsführer von Wissenschaft im Dialog, zitiert.

Das ist keine einfach einzulösender Anspruch, wie ein aktuell erschienener Beitrag im österreichischen Standard illustriert:

Heute schon können Large Language Models (LLMs) wie ChatGPT in kürzester Zeit große Mengen überzeugender Desinformation generieren. Das Journal of the American Medical Association, die weltweit auflagenstärkste medizinische Fachzeitschrift, veröffentlichte kürzlich einen Beitrag dazu, wie leicht es ist, das Internet mit medizinischer Falschinformation zu fluten.

Eine Gruppe von Gesundheitsexperten, die keine besondere Erfahrung mit LLMs hatten, erstellte zu den Themen Impfstoffe und E-Zigaretten innert einer Stunde 102 Blog-Artikel mit mehr als 17.000 Wörtern, inklusive gefälschter Patienten- und Arztberichte.

Zusätzlich erstellte sie mit KI-Tools in weniger als zwei Minuten 20 realistische Illustrationen. Die Absicht war, junge Eltern, Schwangere und chronisch Kranke zu verunsichern.

Standard, Die verschüttgehende Wahrheit

Aber es gibt doch Sicherheitsschranken?

Die Forscher im Experiment hatten keine Erfahrung darin, diese Sicherheitsschranken zu umgehen – trotzdem konnten sie in kurzer Zeit massenweise sehr professionell anmutende Falschinformation produzieren.

Standard, Die verschüttgehende Wahrheit