Lauschangriff auf das Gehirn

Bild: PLoS

Kalifornischen Wissenschaftlern ist es gelungen, gehörte Wörter aus der Gehirnaktivität zu identifizieren und zu rekonstruieren

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Neurowissenschaftler wollen das Gehirn transparent machen und abhören, was im Inneren des Schädels vor sich geht. Während die einen etwa einen unbestechlichen Lügendetektor anstreben, geht es anderen nicht nur um den Einblick in die neuronalen Prozesse, sondern letztlich um die Simulation des Gehirns, schließlich können erst dann bei Menschen, die gelähmt sind und nicht mehr sprechen können, die Gedanken übersetzt bzw. Neuroprothesen als Ersatz für kognitive Funktionen entwickelt werden, wenn im Detail bekannt ist, wie das Gehirn denkt, sieht, fühlt, den Körper bewegt, spricht und auch hört.

Vor kurzem sind kalifornische Wissenschaftler einen Schritt weiter gekommen, um mittels funktioneller Magnetresonanztomographie (fMRT) zu erkennen und zu rekonstruieren, welche Filmbilder ein Mensch gesehen hat (Weiterer Erfolg im "Gedankenlesen"). Aber bis zur tatsächlichen Rekonstruktion ist es noch ein weiter Weg (Gedankenlesen im Zeitalter der Gehirnscanner). Ebenfalls kalifornische Wissenschaftler hatten zuvor herausgefunden, wie bestimmte gelesene Wörter neuronal repräsentiert werden. Aus einem (kleinen) Wörterbuch mit semantischen Dimensionen, mit denen Wörter verknüpft werden und die als Voxel abgelesen werden, lässt sich mit einer gewissen Wahrscheinlichkeit herausfinden, welches Wort einer Versuchsperson gezeigt wurde(Code für neuronale Repräsentation von Wörtern entschlüsselt).

Wiederum kalifornische Wissenschaftler von der University of California in Berkeley um Brian N. Pasley haben nun auch die neuronale Repräsentation von gesprochenen Wörtern erkennen und aus dem neuronalen Aktivitätsmuster im auditorischen Areal des Temporallappens nicht nur ableiten können, welche Wörter Versuchspersonen gehört haben, sondern sie konnten die Wörter auch akustisch rekonstruieren.

Für ihre Studie, die im Open-Access-Journal PLoS Biology erschienen ist, setzten die Forscher nicht die üblichen nichtinvasiven fMRI-Scans ein, sondern ein Elektrocorticogramm (ECoG). Dabei werden Elektroden nach der Öffnung des Schädels direkt auf die Hirnrinde gelegt. 15 Patienten, die unter schwerer Epilepsie oder einem Hirntumor litten und einige Tage vor einer Operation ein solches ECoG mit bis zu 256 Elektroden zu erhielten, um damit präzise zu erkennen, wo Eingriffe gemacht werden müssen, haben ihre Zustimmung zu dem Versuch gegeben.

CT-Bild des Kopf seiner Versuchsperson mit den auf dem Temporallappen befindlichen Elektroden. Bild: Adeen Flinker, UC Berkeley

Die Wissenschaftler spielten den Versuchspersonen Aufnahmen einzelner, von unterschiedlichen Menschen gesprochenen Wörter oder Sätze vor und zeichneten die neuronale Aktivität auf, die beim Hören im Temporallappen zu beobachten war. Dabei wurden "echte" Wörter wie deep, jazz oder cause und nicht existierende Scheinwörter wie fook, ors oder nim vorgesprochen. Allerdings handelte es sich nur um ein kleines Sample von 47 Wörtern, was die Wiedererkennung erleichterte.

Da das Gehirn Töne in die akustischen Frequenzen zerlegt, woraus sich, so die Ausgangsthese, Vokale, Obertöne, Silben, Phoneme etc. ableiten lassen, können diese auch anhand der Gehirnaktivität identifiziert und durch ein Spektrogramm rekonstruiert werden. Die Forscher verwendeten ein lineares und ein nonlineares Modell zur Aufzeichnung und Rekonstruktion, letzteres schnitt deutlich besser ab. Damit konnten die Forscher selbst bei nur einmaligen Tests, abhängig von der Zahl der Elektroden, der Stelle, an der sie angebracht sind, und der einzelnen Wörter, mit einer Wahrscheinlichkeit von 76% und mit Wiederholungen mit einer Wahrscheinlichkeit von 89 Prozent mittels eines Spracherkennungsprogramms vorhersagen, welche Wörter die Patienten gehört haben. Deutlich schlechter war die Erkennung der Wörter in Sätzen. Die Korrelation zwischen der Vorhersage des Modells und der Wirklichkeit lag bei einem einzigen Test über alle Versuche hinweg, also bei allen Patienten und bei allen Wörtern und Sätzen, bei r = 0.28. Aus dem Spektrogram ließ sich auch durch einen Synthesizer ein Sound erzeugen, aus dem die Wissenschaftler mitunter auch das Wort, das dadurch repräsentiert wird, erraten konnten.

Bild: PLoS

Die Wissenschaftler sagen, sie wollten mit ihrer Studie die Bedingungen für ein realistisches System zur Identifizierung von Wörtern erkunden, weswegen auch die Erkennung nur durch einen einmaligen Testlauf ausprobiert wurde, anstatt die Wörter oft zu wiederholen und so die Erkennung zu lernen. Auch wenn es sich nur um erste Schritte für eine mögliche Neuroprothese zur Spracherkennung handelt, zumal auch nur die neuronale Repräsentation von gehörtern Wörtern Gegenstand der Studie war, kündigen die Wissenschaftler schon an, dass sich mit dieser Methode vermutlich auch innere versprachlichte Gedanken, die nicht ausgesprochen werden, erkennen ließen. Das könne für Menschen, die etwa wegen eines Hirnschlags nicht mehr sprechen können, hilfreich sein, um mit anderen Menschen kommunizieren zu können.

Würde man Menschen bitten, sich vorzustellen, ein Wort zu sprechen, dann würden, so die Begründung, ähnliche Gehirnareale aktiviert werden, als wenn das Wort tatsächlich mit der Aktivierung der motorischen Areale und der entsprechenden Muskeln gesprochen wird. Aber wenn man denkt, stellt man sich meist nicht vor, das Wort zu sprechen, weswegen man selbst dann, wenn die Annahme zutrifft, nur einen Teil der Gedanken "lesen" könnte, nämlich diejenigen, die gedanklich bewusst "gesprochen" oder artikuliert werden. Zudem dürfte es noch ein weiter Weg sein, von der Erkennung einzelner, klar abgegrenzter Wörter zur Rekonstruktion von Sätzen und Monologen überzugehen.