Hirnforschung in den Medien

Wie aufgeklärt ist unsere Wissenschaftskommunikation im 21. Jahrhundert? (Teil 4)

Als der Neurowissenschaftler Roger Sperry (1913-1994) im Jahr 1981 den Nobelpreis für Medizin oder Physiologie verliehen bekam, schrieb er in einem Aufsatz für seine Fachkollegen:

Ideologien, Philosophien, religiöse Doktrinen, Weltmodelle, Wertsysteme und Ähnliches mehr werden mit den Antworten stehen und fallen, die die Hirnforschung schließlich enthüllt. Es kommt alles im Gehirn zusammen.

Roger Sperry, 1981, S. 4; Übers. d. A.

Einige Jahre später würde US-Präsident Bush senior (1924-2018) die "Dekade des Gehirns" ausrufen. Damit forderte er sowohl die Institutionen als auch die breite Öffentlichkeit dazu auf, der Hirnforschung mehr Mittel und Aufmerksamkeit zu schenken. Das sei für die Behandlung neurodegenerativer Erkrankungen wichtig. Und, typisch amerikanisch, für den Jahrzehnte vorher von Präsident Nixon (1913-1994) begonnenen "Krieg gegen die Drogen".

Letzteres macht vor allem unter der Prämisse Sinn, Sucht als Gehirnerkrankung aufzufassen. (Für Interessierte: In einem aktuellen Interview erklärt der Psychiatrie-Direktor Andreas Heinz von der Charité das Zusammenspiel biologischer, psychologischer und sozialer Faktoren der Substanzabhängigkeit.) In den Jahrzehnten danach konnten wir sehen, wie Psychiatrie und Psychologie ihre Fragestellungen ans Gehirn anpassten. Dort gab (und gibt) es das meiste Forschungsgeld. Und das ist erforderlich, um auf der Karriereleiter nach oben zu klettern.

Andere Prioritäten

Nobelpreisträger Sperrys Aufsatz erschien unter der Überschrift "anderer Prioritäten" (engl. Changing Priorities). Was meinte er damit? Der Hirnforscher zeigte sich darüber betrübt, dass Anfang der 1980-er das öffentliche Vertrauen in die Wissenschaft abgenommen habe. Um es zurückzugewinnen, empfahl er den kommenden Generationen: Ändert eure Prioritäten, weg von der Grundlagenforschung und hin zu angewandten Fragen. Versprecht den Menschen, ihre Probleme zu lösen!

Nun ist es eine komplexe Frage, inwiefern die Bevölkerung Experten und Wissenschaftlern ihr Vertrauen schenkt. Die Mitte-Studie von 2018/2019 unter Federführung von Andreas Zick, Professor für Sozialisation und Konfliktforschung an der Universität Bielefeld, kam zum Ergebnis, dass rund die Hälfte der Befragten eher ihren Gefühlen glaubt als Expertinnen und Experten.

Dazu passend sehen wir immer häufiger, dass viele Menschen - etwa im Themenbereich Klimawandel oder Impfungen - mit wissenschaftlichen Argumenten überhaupt nicht mehr erreichbar sind. Manche scheinen sogar prinzipiell das Gegenteil von dem anzunehmen, was Experten oder Wissenschaftler sagen.

Wie stark das eine Gesellschaft polarisieren und spalten kann, wurde unter der Präsidentschaft Donald Trumps deutlich (Wie gefährlich Fake News wirklich sind). Und es ist noch stets offen, wie das ausgeht.

Nun haben sich die Neurowissenschaften - wie wir eingangs gesehen haben, in den Fußstapfen des Nobelpreisträgers Sperry - im 21. Jahrhundert als die Wissenschaft vom Menschen positioniert. Es sei hier noch einmal an das vieldiskutierte Manifest "führender Hirnforscher" von 2004 erinnert. Von deren Vorhersagen hat sich bisher übrigens (so gut wie?) nichts bewahrheitet. Leider, denn für Menschen mit schweren neurologischen Erkrankungen oder psychischen Störungen wären Durchbrüche bei der Behandlung wichtig.

Nun liegt es auf der Hand, dass eine gestiegene Lebenserwartung mit einer Zunahme chronischer Krankheiten einhergeht, die häufiger im Alter auftreten. Das sind oft Erkrankungen des Nervensystems, beispielsweise Demenz oder Parkinson. Und das ist ein starkes Argument für die Bedeutung der Hirnforschung. Aber auch hier ist es wichtig, verschiedene Ansätze zu verfolgen und Fortschritte nicht nur in die Zukunft zu verlagern, sondern den schon heute Betroffenen besser zu helfen.

In der Biologischen Psychiatrie sind neue, innovative Medikamente leider ausgeblieben (Psychiatrie: Gebt das medizinische Modell endlich auf!). Die Pharmafirmen haben diesen Bereich wegen der schlechten Aussichten schon vor rund zehn Jahren weitgehend fallengelassen. Im Folgenden soll es aber vor allem um die Versuche der Hirnforschung gehen, den Menschen zu erklären.

Von der Philosophie zur Neurowissenschaft

Was tut also der nicht-klinische Teil der Neurowissenschaften, um die besondere Bedeutung der Disziplin - und damit auch die Rechtfertigung für die umfangreichen Fördermittel - zu unterstreichen? Ich denke, dass es hier inzwischen genügend Beispiele gibt, um von regelmäßigen Übertreibungen und Hypes zu sprechen:

Eine typische Strategie besteht darin, an große philosophische Debatten anzuknüpfen. So schrieben beispielsweise Francis Crick (1916-2004), wie Sperry ein Nobelpreisträger, und Christof Koch in den 1990ern, dass das Rätsel Bewusstsein eine der größten wissenschaftlichen Herausforderungen unserer Zeit sei. Über die Ansätze von Philosophen berichteten sie:

Wir werden hier nicht die verschiedenen Meinungen von Philosophen beschreiben, mit der Ausnahme, dass Philosophen in der Vergangenheit zwar interessante Fragen aufgeworfen und auf mögliche begriffliche Verwirrungen hingewiesen haben. Doch beim Finden wissenschaftlich gültiger Antworten hatten sie historisch eine sehr schlechte Bilanz vorzuzweisen. Aus diesem Grund sollten Neurowissenschaftler sich die Fragen anhören, die Philosophen aufwerfen, sich jedoch nicht von deren Diskussionen einschüchtern lassen.

Crick & Koch, 1998, S. 103; Übers. d. A.

Die beiden Forscher meinten außerdem, die meisten philosophischen Aspekte sollten nun beiseitegelassen werden. Jetzt sei die Zeit für den "wissenschaftlichen Angriff" (S. 97) aufs Thema Bewusstsein gekommen. Nach vielen tausend Jahren der Spekulation sei es wünschenswert, endlich eine Lösung zu finden.

Rund zwanzig Jahre später würde Koch mit anderen führenden Bewusstseinsforschern berichten, dass man jetzt relativ sicher wisse, die wesentlichen Regionen für die Entstehung des Bewusstseins befänden sich im hinteren Teil des Gehirns. Sie sprechen von einer "hinteren heißen Zone" (Koch et al., 2016). Problematisch sei gewesen, in Experimenten häufig Aufmerksamkeit und Bewusstsein miteinander zu verwechseln. Wie war das noch mit der Begriffsverwirrung?

Das "moralische" Gehirn

Anfang des Jahrtausends erschien auch die vielzitierte Arbeit von Joshua Greene und Kollegen in Science, für die moralische Entscheidungen im Kernspintomographen untersucht wurden (Greene et al., 2001). Einige Jahre später würde das das Thema meiner eigenen Doktorarbeit werden. Auch Greene und seine Koautoren kokettierten mit der Möglichkeit, die ewige Uneinigkeit unter Philosophen endlich experimentell entscheiden zu können.

Die Diskussion der Trolley- und Fußbrückendilemmata ging um die Welt: Unter welchen Umständen darf man eine Minderheit zum Wohl der Mehrheit opfern? Rund 15 Jahre später landete Ferdinand von Schirach mit seinem an diese Frage angelehnten Theaterstück und später auch Fernsehfilm "Terror" einen internationalen Riesenerfolg ("Terror" im Fernsehen). Das Beispiel hat aber wohl schon der deutsche Rechtswissenschaftler Karl Engisch (1899-1990) in seiner Habilitationsschrift von 1930 diskutiert.

Greenes Ergebnisse schienen nahezulegen, dass sich viele Menschen hier von ihren Gefühlen leiten ließen. Die vernünftigere Alternative - denn mit Aktivierungen im Frontalhirn verbunden - sei das Opfer der Minderheit. So wurden neurowissenschaftliche und normative Kategorien miteinander vermischt.

Die Science-Redaktion begleitete das mit der Schlagzeile: "Moralisches Urteilen basiert auf Emotionen". Die neurowissenschaftlichen Ergebnisse würden gar die Arbeitsplatzsicherheit von Philosophen gefährden, die auch nach Jahrzehnten mit keiner logisch schlüssigen Lösung aufwarten könnten. Die gravierenden methodischen wie theoretischen Mängel von Greenes Arbeit thematisierten sie hingegen nicht. Diese mussten Jahre später in eher abseitigen Zeitschriften aufgearbeitet werden.

Greene selbst, heute Professor an der Harvard-Universität, setzte das in seinem Buch von 2014 ("Moral Tribes") schließlich in Bezug zu Kulturkonflikten bis hin zum Terrorismus. Manchmal scheint es, als wäre es wichtiger, mit etwas der Erste zu sein, als seine Arbeit gut zu machen. Forscher werden dafür belohnt, wenn ihre Arbeiten oft zitiert werden. Das kann man natürlich auch mit extremen Aussagen erreichen, denen dann viele widersprechen.

Hirnforschung und Menschenbild

Was solche "Erkenntnisse" mit der öffentlichen Meinung machen, ist schwer abzuschätzen. Eine moralphilosophische Position zu vertreten, die Interessen von Minderheiten für das "Glück der größten Zahl" opfert, wie der klassische Utilitarismus, ist die eine Sache. Es ist dann ja nur eine Möglichkeit unter vielen, gegen deren Missbrauch übrigens die Menschenwürde-Formel ins deutsche Grundgesetz aufgenommen wurde.

Diesen Standpunkt als Ergebnis der Hirnforschung darzustellen, hat aber eine andere Qualität - und Autorität. Wir haben im 20. Jahrhundert gesehen, wie der auch von Wissenschaftlern begründete Rassismus schließlich zu Zwangssterilisation und Menschenversuchen mit "minderwertigem Leben" geführt haben, übrigens nicht nur in Deutschland.

Ein anderes Beispiel ist die Psychochirurgie: Bis in die 1960er Jahre zerstörte man tausenden Patienten Teile des Frontalhirns, weil kritische Stimmen über dieses Verfahren kaum wahrgenommen wurden. Auch im Bereich der Psychopharmakologie gab es mehrere Wellen von extremem Optimismus, nennen wir es "Neurophorie". Bis man viele Jahre später einräumen musste, dass es doch keine Wundermittel sind. Die Zeche zahlen nicht nur die Krankenkassen, sondern auch die Menschen, die mit Folgeschäden leben müssen.

Die Auswirkungen eines anderen Menschenbilds sind weniger konkret. Es gibt aber wenigstens Indizien dafür, dass dann gesellschaftspolitische Lösungen in den Hintergrund und molekularbiologische Eingriffe in den Vordergrund treten: Wenn der Mensch nur die Summe seiner Hirnzellen ist, wie es Nobelpreisträger Crick mit seiner "erstaunlichen Hypothese" formulierte (Crick, 1994), oder der Amsterdamer Neurologe Dick Swaab in seinem gleichnamigen Bestseller "Wir sind unser Gehirn" verkündet (deutsch: Saab, 2013, dann muss man Probleme vor allem dort erforschen und beheben, im Gehirn.

So fällt es dann auch auf, dass anno 2021 die renommierten Hirnforscher Gerhard Roth ("Über den Menschen") und John-Dylan Haynes ("Fenster ins Gehirn", mit Matthias Eckoldt) in ihren neuen Büchern erst einmal gegen den Dualismus argumentieren. Diese Position sei angesichts neuer Ergebnisse der Hirnforschung nicht mehr haltbar.

Wieder lautet der Tenor: Philosophen konnten das Problem nicht lösen, jetzt kommen die Neurowissenschaftler. Meiner Argumentation zufolge lässt sich die Frage nach einer Seele aber gar nicht experimentell lösen (Hirnforschung und Dualismus: Wie war das mit der Seele?). Geht es um mehr als nur Imponiergehabe? Roth meint einstweilen, zur Erklärung des Bewusstseins müsse es ein bisher unentdecktes Teilchen geben. Die Physiker werden sich freuen.

Neuromythos Willensfreiheit

Erinnern wir uns noch einmal an den eingangs erwähnten Aufruf von Nobelpreisträger Sperry, Hirnforscher müssten der Bevölkerung praktische Lösungen versprechen. Bei den bisher genannten Beispielen - Bewusstsein, moralisches Urteilen und Leib-Seele-Dualismus - liegen diese aber gar nicht auf der Hand.

Das ist beim Willensfreiheitsproblem anders: Angeblich müsse das Strafrecht revidiert werden. Dass Kriminalität Aufmerksamkeit auf sich zieht, weiß jede Redaktion. Und so leiten Haynes und Eckoldt ihr Kapitel über den freien Willen dann auch mit Verbrechen und terroristischen Anschlägen ein (Hirnforschers Märchen: Von Terroranschlägen zur Willensfreiheit).

Die Frage, wie der Mensch frei sein könne, wenn die Natur kausal determiniert ist, lässt sich bis in die Antike zurückverfolgen (Das kleine Einmaleins des Leib-Seele-Problems). Dabei ist es übrigens nicht weniger rätselhaft, wie Bewusstsein, Wahrnehmungs- und Denkvorgänge überhaupt entstehen. Und wie diese wiederum unser Verhalten und damit auch den Verlauf der Welt beeinflussen können.

Als sich die moderne Biologie entwickelte, schlug Thomas Huxley (1825-1895) mit einer Weiterentwicklung von René Descartes' (1596-1650) Gedanken den Epiphänomenalismus vor: Bewusstseinsvorgänge entstünden zwar aus physiologischen Prozessen, hätten aber keinen Einfluss auf den Körper. Willensfreiheit bestehe schlicht in einem Gefühl und der Freiheit von äußerem Zwang.

Bewusster und freier Wille

In der neuen Diskussion konzentrierte man sich dann vor allem auf das Problem der bewussten Steuerung unseres Verhaltens: Daher spricht man eher vom bewussten als vom freien Willen. Die Frage ist dann, inwiefern wir die bewusste Kontrolle über unsere Entscheidungen und unser Verhalten haben.

Diese warf natürlich schon vor rund 100 Jahren Sigmund Freud (1856-1939) auf, was aber meist nicht erwähnt wird. Dabei diskutierten auch schon seine Schüler die Frage, ob man für Trauminhalte verantwortlich ist, wenn diese ohne eigenes Zutun entstehen. Das ist ganz analog zur heutigen Diskussion, ob man für seine Taten verantwortlich ist, wenn man darüber keine bewusste Kontrolle hat.

Anders als bei Freud, der zwar neurologisch forschen wollte, dafür aber keine Förderung erhielt, schienen dann die Experimente Benjamin Libets (1916-2007) Anfang der 1980er gefundenes Fressen. Jedenfalls für diejenigen, die den Menschen als unbewusst gesteuerten Automaten darstellen wollten. Im dritten Teil meiner Kritik von Haynes' und Eckoldts neuem Buch erklärte ich, warum ich das für einen Mythos halte (Hirnforschers Märchen: Von Terroranschlägen zur Willensfreiheit).

Kurz zusammengefasst: Libets Versuch zeigte zwar, dass dem Moment der bewussten Entscheidung ein Bereitschaftspotenzial im Gehirn vorausging. Dieses allein konnte aber gar nicht die vollständige Ursache der Entscheidung sein. Dafür sprachen nicht nur Libets Daten, sondern auch seine eigenen Erklärungen: Immerhin entstand dasselbe Gehirnsignal auch, wenn sich die Versuchspersonen nicht für eine Bewegung entschieden ("Veto").

Doch es hat wenig genutzt. Die alternative Sichtweise vom unbewusst gesteuerten Menschen war wohl schlicht zu verlockend. Rund vierzig Jahre lang und eben bis ins neue Buch von Haynes und Eckoldt lässt sich nachvollziehen, wie die neurowissenschaftliche Mär vom unfreien Menschen verbreitet wurde.

Haynes selbst versuchte, mit einem Versuch im Kernspintomographen noch eins draufzulegen. Entscheidungen seien nicht nur einige hundert Millisekunden vorher unbewusst im Gehirn festgelegt, wie angeblich bei Libet, sondern mindestens sieben Sekunden! Ich habe hier ausführlich dargelegt, warum ich auch diese Erklärung für unplausibel halte.

Schnellkurs Neuro-Kosmologie

In Nature, wo seine vielzitierte Studie erschien und gleich in Bezug zu strafrechtlichen Konsequenzen gesetzt wurde, folgte ein paar Jahre später ein knalliger Artikel über den freien Willen. Wieder einmal spielte man Philosophie und Hirnforschung gegeneinander aus.

Haynes erklärte darin, er hätte seine Ergebnisse selbst nicht glauben können:

Der erste Gedanke, den wir hatten, war: "Wir müssen kontrollieren, ob das wahr ist." Daher führten wir mehr Gültigkeitsprüfungen durch, als ich jemals bei einer anderen Studie gesehen habe.

Smith, 2011, S. 24; Übers. d. A.

Unglaublich, aber wahr? Der Hirnforscher weiter: "Ich bin sehr ehrlich mit Ihnen, ich finde es schwierig, hiermit umzugehen. Wie kann ich einen Willen 'meinen' nennen, wenn ich nicht einmal weiß, wann er stattfand und was er entschieden hat?" (ebenda). Die Journalistin, die Haynes hier interviewte, spricht schließlich von einer "Epiphanie" (Erscheinung einer Gottheit unter den Menschen; Moment einer großen und plötzlichen Enthüllung).

Haynes Worte klingen tatsächlich nach einem Erleuchtungsmoment: "Plötzlich hatte ich diese große Vision über das ganze deterministische Universum, mich selbst, meinen Platz in ihm und all diesen verschiedenen Punkten, wo wir glauben, selbst Entscheidungen zu treffen, doch nur irgendeinen Kausalfluss spiegeln" (ebenda, S. 25). Manch ein Guru spricht so über "Karma".

Erinnern wir uns an den Versuch, um den es hier geht: Versuchspersonen wurde alles verboten, was unsere Entscheidungen sonst auszeichnet: etwa Abwägen oder Vorausplanen. Wer nicht spontan oder zufällig genug die Knöpfe drückte, wurde erst gar nicht zum Experiment zugelassen oder sogar nach Datenerhebung ausgeschlossen.

Von der ohnehin schon exklusiven Gruppe der rechtshändigen, 21- bis 30-Jährigen, erfüllte gerade einmal ein Drittel die Ansprüche der Hirnforscher. Was sagen dann aber die Ergebnisse noch über den Menschen aus, zumal die Wahl zwischen linkem oder rechtem Knopf völlig sinnlos war?! Natürlich werden diese wesentlichen Einschränkungen hinterher nicht mehr erwähnt. In ihrem neuen Buch hätten Haynes und Eckoldt dafür auf 300 Seiten genug Platz gehabt.

Es ist doch alles anders

Doch ein paar Jahre nach der "Epiphanie" sah die Welt schon wieder ganz anders aus. In einem Folge-Experiment ließen Haynes und seine Kollegen die Versuchspersonen gegen eine Gehirn-Computer-Schnittstelle antreten (Schultze-Kraft et al., 2016). Die Teilnehmer sollten einen Schalter betätigen, bevor der Computer die Bewegung vorhersagte. Das Ergebnis des "Gehirn-Duells" war ein Unentschieden.

Siehe da: Wenn man anders testet, scheint der Mensch auf einmal nicht mehr unbewusst determiniert, sondern die Kontrolle über seine Entscheidungen zu haben (was Benjamin Libet schon Anfang der 1980-er berichtete). In der Studie selbst gehen die Forscher nicht näher auf das Willensfreiheitsproblem ein:

Die Möglichkeit eines Vetos hat in der Diskussion über den freien Willen eine wichtige Rolle gespielt, was hier nicht weiter diskutiert wird.

Schultze-Kraft et al., 2016, S. 1084; Übers. d. A.

Doch wie würde dann die Berliner Charité, an der Haynes Professor ist, die Ergebnisse präsentieren? Natürlich unter dem Aufmacher der Willensfreiheit: "Wie frei ist der Wille wirklich?". Nachdem er jahrelang vom unbewusst determinierten Menschen sprach, hieß es nun: "Dies bedeutet, dass die Freiheit menschlicher Willensentscheidungen wesentlich weniger eingeschränkt ist, als bisher gedacht", erklärt darin der Hirnforscher.

Schließen wir damit das Thema Willensfreiheit ab: Selbst in Situationen, in denen man Versuchspersonen alles verbietet, was wichtige Entscheidungen sonst ausmacht, können diese bewusst kontrolliert entscheiden. Einige Philosophen, Psychologen und Hirnforscher haben das Bild vom unbewusst determinierten Menschen nur konstruiert. Mitunter wechselt ein renommierter Forscher innerhalb weniger Jahre seine Ansichten radikal.

Aufgrund solch unsicherer Erkenntnisse sollte man besser nicht die ganze Gesellschaft umkrempeln. Insbesondere das Strafrecht tut hier gut daran, nicht gleich jedem Hype hinterherzulaufen. Es ist immerhin das schärfste Schwert im demokratischen Rechtsstaat.

Freiheit - in Grenzen

Heißt das, dass wir völlig frei von unbewussten Einflüssen sind? Natürlich nicht. Schon ein Besuch im Supermarkt setzt uns Reizen aus, die unser Kaufverhalten beeinflussen, ohne dass wir es merken (Mensch in Körper und Gesellschaft: Was heißt Freiheit?). Diese Einflüsse sind aber eher stochastisch und nicht strikt determinierend; und was macht es eigentlich aus, ob man ein Produkt der Marke A oder B kauft; oder etwas mehr hiervon und etwas weniger davon?

Problematisch wäre es, könnte man beispielsweise überzeugte Vegetarier zum Kauf von Fleischprodukten bringen; oder strikte Antialkoholiker zum Griff nach Schnapsflaschen. Das ist aber gerade nicht der Fall. Bei solchen Konstellationen würden wir zudem schnell von Zwang oder Bewusstseinsstörungen sprechen. Das zeigt, dass wir sinnvoll zwischen Zuständen mit mehr oder weniger Freiheit unterscheiden können. Und so handhabt es auch das Recht.

Der Mensch ist also - im Großen und Ganzen - ein bewusster und rationaler (will sagen: im Einklang mit seinen Absichten und Vorlieben) Entscheider. Das schließt nicht aus, dass wir unter bestimmten Bedingungen manipulierbar sind: etwa durch geschickte Werbung, Propaganda, Substanzkonsum oder Drohungen.

Doch selbst in einem Terrorregime wie dem NS-Staat widersetzen sich immer wieder Menschen den äußeren Zwängen. Und so schrieb beispielsweise Sophie Scholl (1921-1943) kurz vor der Hinrichtung auf die Rückseite der Anklageschrift: Freiheit (hier in einer Großaufnahme). Diese ließ sie sich auch von einer Marionette wie dem NS-Richter Roland Freisler (1893-1945) nicht nehmen.

Solche Schicksalsentscheidungen wie die der Mitglieder der Weißen Rose gehören eben auch zur menschlichen Natur. Man vergleiche deren Bedeutung und Tragweite mit den Knopfdrücken, die manch Hirnforscher seinen Versuchspersonen aufzwängt.

Alter Wein in neuen Schläuchen

Doch es ist nicht nur so, dass die Mär vom unbewusst gesteuerten Menschen von einigen Philosophen, Psychologen und Neurowissenschaftlern konstruiert wurde. Sie ist auch gar nicht neu.

Sigmund Freud habe ich oben schon erwähnt. Wenig bescheiden beschrieb er seine Erkenntnisse über die Psyche und dass das Ich nicht der "Herr im eigenen Hause" sei als eine der größten Kränkungen der Menschheit. Diese verglich er mit den Entdeckungen von Charles Darwin (1809-1882) und Nikolaus Kopernikus (1473-1543). In naturalistischen Kreisen ist die Figur der großen Kränkungen der Menschheit durch die Wissenschaft bis heute beliebt.

Doch schon im 19. Jahrhundert gab es ganz ähnliche Diskussionen, beispielsweise den Materialismusstreit. Phrenologen erhielten viel Zulauf für ihre Predigten dessen, was wir heute "Gehirnjogging" nennen würden. Cesare Lombroso (1835-1909) wollte menschliches Kriminalverhalten an Eigenschaften des Körpers festmachen und inspirierte hier und da präventive und therapeutische Maßnahmen, später sogar rassenbiologische Theorien.

Mahnende Stimmen wie etwa die des Anatomen und Rektors der Wiener Universität Joseph Hyrtl (1810-1894) gab es auch, konnten sich aber nicht durchsetzen. Denen, die im Menschen nur einen determinierten Automaten sahen, hielt der Anatom einen Mangel an guten Argumenten entgegen. Sie überzeugten nur mit der "Kühnheit ihres Auftretens".

Und, für unsere Betrachtung besonders interessant: "Ihre Erfolge beruhen […] in dem herrschenden Geiste der Zeit, welcher Lehren dieser Art umso lieber popularisiert, je gefährlicher sie der bestehenden Ordnung der Dinge zu werden versprechen", kritisierte er in seiner Antrittsvorlesung 1864. Manche Dinge scheinen sich nie zu ändern! Weil Sensationsmeldungen so viel mehr Aufmerksamkeit bekommen, werden sie immer wieder vertreten - und verbreitet.

Ähnlich zurückhaltend wie Hyrtl äußerte sich sein Zeitgenosse Emil Heinrich du Bois-Reymond (1818-1896), ein berühmter Physiologe. Wie Bewusstsein entsteht oder woher der freie Wille stamme, hielt er wissenschaftlich für prinzipiell unlösbar: "Ignorabimus!", nie werden wir es wissen. Mit dieser Haltung behält man vielleicht Recht - jedenfalls bis heute -, aber erhält man eher kein Forschungsgeld. Seinen Standpunkt der "Entsagung" hielt er übrigens für eine männliche Tugend.

Blick aus der Zukunft

Wie man in Zukunft über unsere Zeit der Übertreibungen und Hypes denken wird, muss sich zeigen. Wird die Nachwelt ähnlich über uns lachen wie viele heute über die Phrenologen im 19. Jahrhundert? Zur Ehrenrettung sei gesagt, dass nicht alle so arbeiten und denken.

Und überhaupt sei der Fairness halber erwähnt, dass die große Mehrheit der Hirnforscher verborgen im Labor arbeitet und in kleinen Erkenntnisschritten voranschreitet. Von deren Erkenntnisse hören wir nichts, weil sie weniger sensationell scheinen. Ein philosophischer Lehrer sagte mir einmal: "Die Stimme der Vernunft spricht leise." Das war ausgerechnet ein lebender Vertreter des von vielen so gescholtenen Leib-Seele-Dualismus.

Eine fast schon tragische Facette am Standpunkt von Haynes und Eckoldt, mit dem ich mich hier in vier Teilen ausführlicher beschäftigte, findet sich im Schlusskapitel ihres Buchs: Da werfen sie der Presse vor, "völlig übertriebene Erwartungen" zu verbreiten. Tragisch, da sie nicht merken, wie sie selbst den Hype anfeuern.

Zwar weisen sie weitreichende Aussagen über die Möglichkeiten des Gedankenlesens etwa des selbsternannten "Techno King" Elon Musk oder von Facebook zurück. Sie spielen aber selbst immer wieder mit Hinweisen auf Kriminalität und Strafrecht sowie mit bedeutungsschweren Bildern und Metaphern.

Wie Hypes entstehen

So hat Kommunikationsforschung schon vor vielen Jahren gezeigt, wie bildgebende Verfahren der Neurowissenschaften als "Fenster ins Gehirn" dargestellt werden (Racine et al, 2010). Damit übergeht man die vielen Verarbeitungs- und Rechenschritte, mit denen der Hirnforscher seinen Ergebnissen überhaupt erst Signifikanz gibt. "Fenster ins Gehirn", klingt das nicht irgendwie bekannt? Ach ja, das war der Titel von Haynes' und Eckoldts Buch.

Es ist außerdem gut belegt, dass Durchbrüche nahelegende Aussagen von Forschern - wie war das noch mit der "Epiphanie"? - und Pressemitteilungen ihrer Institute Hypes befeuern (Caulfield & Condit, 2012). Journalisten kann man nicht vorwerfen, diese Aussagen aufzugreifen. So wird dann auch die Studie von Haynes und Kollegen, in der die Willensfreiheit allenfalls am Rande behandelt wird, vor allem unter diesem Gesichtspunkt reflektiert (Beispiel 1, Beispiel 2, Beispiel 3 usw.).

Die Wissenschaftsjournalisten könnten allerdings kritischer Nachfragen und mehrere Standpunkte berücksichtigten. Wir sahen, dass Fragen nach den Voraussetzungen und dem Kontext von Experimenten deren Ergebnisse besser einordnen. Natürlich würde man damit einem Teil der Sensationslust aufgeben. Vielleicht bekäme man von seinen Leserinnen und Lesern dann aber auch wieder mehr Vertrauen.

Wir haben in dieser vierteiligen Serie gesehen, dass bei den Themen Bewusstsein, moralische Entscheidungen, Dualismus und Willensfreiheit immer wieder dieselben Muster auftraten: Hirnforscher wissen es besser als Philosophen. Bei näherer Betrachtung sind deren Erkenntnisse aber gar nicht so eindeutig, häufig sogar übertrieben und unplausibel.

Ausblick

Es ließen sich viele weitere Beispiele anführen, doch irgendwann müssen wir auch einmal zum Ende kommen. Daher ein paar weitere Themengebiete in Kürze, ohne Anspruch auf Vollständigkeit:

  • Die von Antonio Damasio Anfang der 1990er wieder popularisierte und vielfach kopierte Geschichte vom Bahnarbeiter Phineas Gage, der bei einem Unfall einen Teil seines Frontalhirns verlor, beruht auf krassen Verzerrungen und Auslassungen; Gage war danach kein "Psychopath", fand im Gegenteil wieder Arbeit und lebte ein geregeltes Leben. Der Fall wird auch heute noch dazu verwendet, die Determinierung der Persönlichkeit durch das Gehirn zu untermauern.
  • Gerhard Roth hat sogar Quellen ins Gegenteil verkehrt, um nachzuweisen, dass sich Menschen über ihren eigenen Willen täuschen würden (siehe z.B. in Schleim, 2011). Solche Berichte über angebliche Willenstäuschungen wurden vielfach kopiert, ohne die Originalquellen zu kontrollieren.
  • Daniel Dennett hat sich ein Experiment ausgedacht oder zumindest falsch erinnert, um zu belegen, dass der Mensch quasi unbewusst ferngesteuert werden könnte, ohne es zu bemerken (Das unfreie Subjekt ist ein Konstrukt des Hirnforschers). Auch diese Geschichte wurde vielfach kopiert, ohne dass man sie mit einer Quelle belegen könnte.
  • Um den Gedanken der adulten Neurogenese, also dass im Erwachsenengehirn neue Nervenzellen entstehen können, ist ein wahrer Hype entstanden. Es gibt Erklärungen für "Gott und die Welt", die auf diesem Mechanismus aufbauen. Dabei ist zweifelhaft, ob es adulte Neurogenese überhaupt gibt (Vielleicht doch keine neuen Nervenzellen im Gehirn - na und?!).
  • Wer hätte die "Spiegelneuronen" vergessen, mit denen ebenfalls "Gott und die Welt" erklärt werden sollte? Gregory Hickok, Professor für Kognitionswissenschaft an der University of California in Irvine, entlarvte sie weitgehend als Mythos ("The myth of mirror neurons", 2014).
  • Und das "Kuschelhormon" Oxytocin darf natürlich nicht fehlen, mit dem der Komiker John Oliver 2016 die Hirnforschung aufs Korn nahm. Manche Wissenschaftler bieten mit ihren Übertreibungen sogar Satirikern eine Angriffsfläche.

Traurig, aber wahr: Bei vielen dieser Beispiele liefert die Netzcommunity auf Wikipedia akkuratere Beschreibungen als einige renommierte Hirnforscher in ihren Büchern und mitunter sogar die wissenschaftlichen Fachzeitschriften, "Peer Review" zum Trotz. Ob man so das Vertrauen der Öffentlichkeit zurückgewinnt, ist fraglich.

Fazit

Wie eingangs erwähnt, empfahl der Nobelpreisträger Roger Sperry seinen Kollegen, der Öffentlichkeit Lösungen für ihre Probleme zu versprechen. Viele dieser Anwendungen sind vierzig Jahre später immer noch in weiter Ferne, falls sie überhaupt realistisch sind.

Komisch, dass diejenigen, die sich selbst so lautstark auf die Standards der Wissenschaft berufen und Philosophen als unproduktiv darstellen, bei näherer Betrachtung oft so unsauber arbeiten. Es kann schon einmal passieren, im Experiment Aufmerksamkeit und Bewusstsein zu verwechseln. Den Menschen aber immer wieder als unbewusst determinierten Roboter darzustellen, wo die Versuche das Gegenteil bestätigen, ist schon ein starkes Stück.

Dass wir Menschen unbewusst beeinflusst werden können, wussten wir zudem schon lange vor der "Dekade des Gehirns". Experimente wie die von Libet oder Haynes zeigen vor allem, dass Menschen die Anweisungen der Forscher befolgen. Wenn das die Möglichkeit beinhaltet, sich bewusst umzuentscheiden, sieht man das auch in den Ergebnissen. Natürlich geht auch so eine Entscheidung dann mit Gehirnvorgängen einher, die wir aber noch gar nicht verstanden haben.

Mir scheint es kein Ruhmesblatt für die Hirnforschung zu sein, dass die Kernspintomographie nach viel Gerede über Lügendetektion und Gedankenlesen im Strafprozess vor allem dies ist: ein Instrument, um das Strafmaß verurteilter Mörder zu reduzieren (Farahany, 2016). Die wissenschaftlichen Standards sind für diesen Teil des Gerichtsprozesses in den USA besonders niedrig. Dann soll gezeigt werden, dass die Täter aufgrund ihrer Gehirnanatomie oder -Funktion nicht anders konnten.

In dem Eingangszitat erhob Sperry die Hirnforschung zur obersten Autorität: "Es kommt alles im Gehirn zusammen." Der Satz ist richtig, doch in einem ganz anderen Sinne: Unser Gehirn ist Ergebnis von sowohl Natur als auch Kultur. So können Sperry und seine Nachfolger zwar nicht den Menschen erklären. Doch wir können umgekehrt das Verhalten des Hirnforschers historisch, philosophisch, soziologisch und psychologisch verstehen.

Hinweis: Dieser Artikel erscheint ebenfalls im Blog "Menschen-Bilder" des Autors.