Hirnforschung in den Medien

Wie aufgeklärt ist unsere Wissenschaftskommunikation im 21. Jahrhundert? (Teil 4)

Als der Neurowissenschaftler Roger Sperry (1913-1994) im Jahr 1981 den Nobelpreis für Medizin oder Physiologie verliehen bekam, schrieb er in einem Aufsatz für seine Fachkollegen:

Ideologien, Philosophien, religiöse Doktrinen, Weltmodelle, Wertsysteme und Ähnliches mehr werden mit den Antworten stehen und fallen, die die Hirnforschung schließlich enthüllt. Es kommt alles im Gehirn zusammen.

Roger Sperry, 1981, S. 4; Übers. d. A.

Einige Jahre später würde US-Präsident Bush senior (1924-2018) die "Dekade des Gehirns" ausrufen. Damit forderte er sowohl die Institutionen als auch die breite Öffentlichkeit dazu auf, der Hirnforschung mehr Mittel und Aufmerksamkeit zu schenken. Das sei für die Behandlung neurodegenerativer Erkrankungen wichtig. Und, typisch amerikanisch, für den Jahrzehnte vorher von Präsident Nixon (1913-1994) begonnenen "Krieg gegen die Drogen".

Letzteres macht vor allem unter der Prämisse Sinn, Sucht als Gehirnerkrankung aufzufassen. (Für Interessierte: In einem aktuellen Interview erklärt der Psychiatrie-Direktor Andreas Heinz von der Charité das Zusammenspiel biologischer, psychologischer und sozialer Faktoren der Substanzabhängigkeit.) In den Jahrzehnten danach konnten wir sehen, wie Psychiatrie und Psychologie ihre Fragestellungen ans Gehirn anpassten. Dort gab (und gibt) es das meiste Forschungsgeld. Und das ist erforderlich, um auf der Karriereleiter nach oben zu klettern.

Andere Prioritäten

Nobelpreisträger Sperrys Aufsatz erschien unter der Überschrift "anderer Prioritäten" (engl. Changing Priorities). Was meinte er damit? Der Hirnforscher zeigte sich darüber betrübt, dass Anfang der 1980-er das öffentliche Vertrauen in die Wissenschaft abgenommen habe. Um es zurückzugewinnen, empfahl er den kommenden Generationen: Ändert eure Prioritäten, weg von der Grundlagenforschung und hin zu angewandten Fragen. Versprecht den Menschen, ihre Probleme zu lösen!

Nun ist es eine komplexe Frage, inwiefern die Bevölkerung Experten und Wissenschaftlern ihr Vertrauen schenkt. Die Mitte-Studie von 2018/2019 unter Federführung von Andreas Zick, Professor für Sozialisation und Konfliktforschung an der Universität Bielefeld, kam zum Ergebnis, dass rund die Hälfte der Befragten eher ihren Gefühlen glaubt als Expertinnen und Experten.

Dazu passend sehen wir immer häufiger, dass viele Menschen - etwa im Themenbereich Klimawandel oder Impfungen - mit wissenschaftlichen Argumenten überhaupt nicht mehr erreichbar sind. Manche scheinen sogar prinzipiell das Gegenteil von dem anzunehmen, was Experten oder Wissenschaftler sagen.

Wie stark das eine Gesellschaft polarisieren und spalten kann, wurde unter der Präsidentschaft Donald Trumps deutlich (Wie gefährlich Fake News wirklich sind). Und es ist noch stets offen, wie das ausgeht.

Nun haben sich die Neurowissenschaften - wie wir eingangs gesehen haben, in den Fußstapfen des Nobelpreisträgers Sperry - im 21. Jahrhundert als die Wissenschaft vom Menschen positioniert. Es sei hier noch einmal an das vieldiskutierte Manifest "führender Hirnforscher" von 2004 erinnert. Von deren Vorhersagen hat sich bisher übrigens (so gut wie?) nichts bewahrheitet. Leider, denn für Menschen mit schweren neurologischen Erkrankungen oder psychischen Störungen wären Durchbrüche bei der Behandlung wichtig.

Nun liegt es auf der Hand, dass eine gestiegene Lebenserwartung mit einer Zunahme chronischer Krankheiten einhergeht, die häufiger im Alter auftreten. Das sind oft Erkrankungen des Nervensystems, beispielsweise Demenz oder Parkinson. Und das ist ein starkes Argument für die Bedeutung der Hirnforschung. Aber auch hier ist es wichtig, verschiedene Ansätze zu verfolgen und Fortschritte nicht nur in die Zukunft zu verlagern, sondern den schon heute Betroffenen besser zu helfen.

In der Biologischen Psychiatrie sind neue, innovative Medikamente leider ausgeblieben (Psychiatrie: Gebt das medizinische Modell endlich auf!). Die Pharmafirmen haben diesen Bereich wegen der schlechten Aussichten schon vor rund zehn Jahren weitgehend fallengelassen. Im Folgenden soll es aber vor allem um die Versuche der Hirnforschung gehen, den Menschen zu erklären.

Von der Philosophie zur Neurowissenschaft

Was tut also der nicht-klinische Teil der Neurowissenschaften, um die besondere Bedeutung der Disziplin - und damit auch die Rechtfertigung für die umfangreichen Fördermittel - zu unterstreichen? Ich denke, dass es hier inzwischen genügend Beispiele gibt, um von regelmäßigen Übertreibungen und Hypes zu sprechen:

Eine typische Strategie besteht darin, an große philosophische Debatten anzuknüpfen. So schrieben beispielsweise Francis Crick (1916-2004), wie Sperry ein Nobelpreisträger, und Christof Koch in den 1990ern, dass das Rätsel Bewusstsein eine der größten wissenschaftlichen Herausforderungen unserer Zeit sei. Über die Ansätze von Philosophen berichteten sie:

Wir werden hier nicht die verschiedenen Meinungen von Philosophen beschreiben, mit der Ausnahme, dass Philosophen in der Vergangenheit zwar interessante Fragen aufgeworfen und auf mögliche begriffliche Verwirrungen hingewiesen haben. Doch beim Finden wissenschaftlich gültiger Antworten hatten sie historisch eine sehr schlechte Bilanz vorzuzweisen. Aus diesem Grund sollten Neurowissenschaftler sich die Fragen anhören, die Philosophen aufwerfen, sich jedoch nicht von deren Diskussionen einschüchtern lassen.

Crick & Koch, 1998, S. 103; Übers. d. A.

Die beiden Forscher meinten außerdem, die meisten philosophischen Aspekte sollten nun beiseitegelassen werden. Jetzt sei die Zeit für den "wissenschaftlichen Angriff" (S. 97) aufs Thema Bewusstsein gekommen. Nach vielen tausend Jahren der Spekulation sei es wünschenswert, endlich eine Lösung zu finden.

Rund zwanzig Jahre später würde Koch mit anderen führenden Bewusstseinsforschern berichten, dass man jetzt relativ sicher wisse, die wesentlichen Regionen für die Entstehung des Bewusstseins befänden sich im hinteren Teil des Gehirns. Sie sprechen von einer "hinteren heißen Zone" (Koch et al., 2016). Problematisch sei gewesen, in Experimenten häufig Aufmerksamkeit und Bewusstsein miteinander zu verwechseln. Wie war das noch mit der Begriffsverwirrung?

Das "moralische" Gehirn

Anfang des Jahrtausends erschien auch die vielzitierte Arbeit von Joshua Greene und Kollegen in Science, für die moralische Entscheidungen im Kernspintomographen untersucht wurden (Greene et al., 2001). Einige Jahre später würde das das Thema meiner eigenen Doktorarbeit werden. Auch Greene und seine Koautoren kokettierten mit der Möglichkeit, die ewige Uneinigkeit unter Philosophen endlich experimentell entscheiden zu können.

Die Diskussion der Trolley- und Fußbrückendilemmata ging um die Welt: Unter welchen Umständen darf man eine Minderheit zum Wohl der Mehrheit opfern? Rund 15 Jahre später landete Ferdinand von Schirach mit seinem an diese Frage angelehnten Theaterstück und später auch Fernsehfilm "Terror" einen internationalen Riesenerfolg ("Terror" im Fernsehen). Das Beispiel hat aber wohl schon der deutsche Rechtswissenschaftler Karl Engisch (1899-1990) in seiner Habilitationsschrift von 1930 diskutiert.

Greenes Ergebnisse schienen nahezulegen, dass sich viele Menschen hier von ihren Gefühlen leiten ließen. Die vernünftigere Alternative - denn mit Aktivierungen im Frontalhirn verbunden - sei das Opfer der Minderheit. So wurden neurowissenschaftliche und normative Kategorien miteinander vermischt.

Die Science-Redaktion begleitete das mit der Schlagzeile: "Moralisches Urteilen basiert auf Emotionen". Die neurowissenschaftlichen Ergebnisse würden gar die Arbeitsplatzsicherheit von Philosophen gefährden, die auch nach Jahrzehnten mit keiner logisch schlüssigen Lösung aufwarten könnten. Die gravierenden methodischen wie theoretischen Mängel von Greenes Arbeit thematisierten sie hingegen nicht. Diese mussten Jahre später in eher abseitigen Zeitschriften aufgearbeitet werden.

Greene selbst, heute Professor an der Harvard-Universität, setzte das in seinem Buch von 2014 ("Moral Tribes") schließlich in Bezug zu Kulturkonflikten bis hin zum Terrorismus. Manchmal scheint es, als wäre es wichtiger, mit etwas der Erste zu sein, als seine Arbeit gut zu machen. Forscher werden dafür belohnt, wenn ihre Arbeiten oft zitiert werden. Das kann man natürlich auch mit extremen Aussagen erreichen, denen dann viele widersprechen.

Hirnforschung und Menschenbild

Was solche "Erkenntnisse" mit der öffentlichen Meinung machen, ist schwer abzuschätzen. Eine moralphilosophische Position zu vertreten, die Interessen von Minderheiten für das "Glück der größten Zahl" opfert, wie der klassische Utilitarismus, ist die eine Sache. Es ist dann ja nur eine Möglichkeit unter vielen, gegen deren Missbrauch übrigens die Menschenwürde-Formel ins deutsche Grundgesetz aufgenommen wurde.

Diesen Standpunkt als Ergebnis der Hirnforschung darzustellen, hat aber eine andere Qualität - und Autorität. Wir haben im 20. Jahrhundert gesehen, wie der auch von Wissenschaftlern begründete Rassismus schließlich zu Zwangssterilisation und Menschenversuchen mit "minderwertigem Leben" geführt haben, übrigens nicht nur in Deutschland.

Ein anderes Beispiel ist die Psychochirurgie: Bis in die 1960er Jahre zerstörte man tausenden Patienten Teile des Frontalhirns, weil kritische Stimmen über dieses Verfahren kaum wahrgenommen wurden. Auch im Bereich der Psychopharmakologie gab es mehrere Wellen von extremem Optimismus, nennen wir es "Neurophorie". Bis man viele Jahre später einräumen musste, dass es doch keine Wundermittel sind. Die Zeche zahlen nicht nur die Krankenkassen, sondern auch die Menschen, die mit Folgeschäden leben müssen.

Die Auswirkungen eines anderen Menschenbilds sind weniger konkret. Es gibt aber wenigstens Indizien dafür, dass dann gesellschaftspolitische Lösungen in den Hintergrund und molekularbiologische Eingriffe in den Vordergrund treten: Wenn der Mensch nur die Summe seiner Hirnzellen ist, wie es Nobelpreisträger Crick mit seiner "erstaunlichen Hypothese" formulierte (Crick, 1994), oder der Amsterdamer Neurologe Dick Swaab in seinem gleichnamigen Bestseller "Wir sind unser Gehirn" verkündet (deutsch: Saab, 2013, dann muss man Probleme vor allem dort erforschen und beheben, im Gehirn.

So fällt es dann auch auf, dass anno 2021 die renommierten Hirnforscher Gerhard Roth ("Über den Menschen") und John-Dylan Haynes ("Fenster ins Gehirn", mit Matthias Eckoldt) in ihren neuen Büchern erst einmal gegen den Dualismus argumentieren. Diese Position sei angesichts neuer Ergebnisse der Hirnforschung nicht mehr haltbar.

Wieder lautet der Tenor: Philosophen konnten das Problem nicht lösen, jetzt kommen die Neurowissenschaftler. Meiner Argumentation zufolge lässt sich die Frage nach einer Seele aber gar nicht experimentell lösen (Hirnforschung und Dualismus: Wie war das mit der Seele?). Geht es um mehr als nur Imponiergehabe? Roth meint einstweilen, zur Erklärung des Bewusstseins müsse es ein bisher unentdecktes Teilchen geben. Die Physiker werden sich freuen.