Gehirn-Computer-Schnittstellen und der (Alb-)Traum vom Gedankenlesen
Letzte Chance für Patienten, letzte Hürde vorm gläsernen Menschen?
"Heute sind es noch Geheimzeichen, morgen wird man vielleicht Geistes- und Hirnerkrankungen aus ihnen erkennen und übermorgen sich gar schon Briefe in Hirnschrift schreiben." Dieser Satz könnte aus der Ankündigung der Tagung "Privatsphäre Gehirn! Können Maschinen unsere Gedanken lesen?" am Leibniz-Institut für Neurobiologie in Magdeburg stammen.
Tatsächlich ist er aber schon über 90 Jahre alt: Er stand im Stadt-Anzeiger Düsseldorf vom 6. August 1930 und feierte die Entwicklung der Elektroenzephalographie (EEG) durch den Jenenser Hirnforscher Hans Berger (1873-1941).
Der Traum, Menschen an einen EEG-Apparat oder ein neueres Verfahren (etwa die Positronenemissionstomographie, PET; oder funktionelle Magnetresonanztomographie, fMRT) anzuschließen und so psychische Störungen zu diagnostizieren, ist bis heute unerfüllt (Psychiatrie: Gebt das medizinische Modell endlich auf!). Nach wie vor müssen Psychiater oder Psychotherapeuten vor allem mit den Patienten reden.
Wie steht es ums Gedankenlesen, Voraussetzung für die "Briefe in Hirnschrift"? Für Patienten in einem fortgeschrittenen Locked-In-Zustand ist dies mitunter die letzte Möglichkeit, mit der Außenwelt zu kommunizieren. Wenn nach und nach die Kontrolle von immer mehr Muskeln versagt, buchstabieren sie mit Augenbewegungen ihre Gedanken und Wünsche. Und wenn selbst das nicht mehr geht?
Gehirn-Computer-Schnittstellen (englisch Brain-Computer-Interfaces, BCI) könnten hier eine große Rolle spielen. Leider erfuhr diese Forschung durch den Skandal um den Neurowissenschaftler Niels Birbaumer einen Dämpfer (System-Logik: Der Fall Professor Birbaumers). Schließlich wiesen ihm die Universität Tübingen und die Deutsche Forschungsgemeinschaft wissenschaftliches Fehlverhalten nach.
Ein entscheidendes Problem hierbei verrät uns etwas Wesentliches über die Arbeitsweise solcher Schnittstellen: Ein Computeralgorithmus versucht, in der Gehirnaktivierung von Menschen Muster zu erkennen, die sich sinnvoll interpretieren lassen. Hierfür müssen die Forscherinnen und Forscher oft die Parameter anpassen, bis die Erkennungsrate zufriedenstellend ist.
Wenn es nun darum geht, dass gesunde Versuchspersonen einen Cursor steuern, Wörter buchstabieren oder "Brain Pong" spielen, kann man die Personen einfach fragen, ob ihre Gedanken richtig erkannt wurden. Das ist bei den Patienten im schweren Locked-In-Zustand aber gerade nicht möglich, denn für die ist die Gehirn-Computer-Schnittstelle ja die letzte bleibende Verbindung. Und hier warf man Birbaumer und seinen Kollegen unter anderem vor, die Daten der Patienten falsch interpretiert zu haben.
Was wäre echtes Gedankenlesen?
Um zu entscheiden, ob echtes Gedankenlesen möglich ist, muss man mehr über die Funktionsweise solcher Verfahren wissen. Wenn wir etwa einen Text lesen, dann erfassen wir die Bedeutung von aus Buchstaben zusammengesetzten Wörtern, die wiederum Sätze bilden. Was gültige Sätze sind, definieren die Regeln einer Sprache (Pragmatik, Semantik, Syntax).
Dabei kann ein Satz wie: "Das Fenster ist ja offen", je nach Situation und Sprecher ganz unterschiedliche Bedeutungen haben: Etwa als Antwort auf die Bitte, das Fenster zu öffnen; als Hinweis darauf, dass es drinnen zu kalt ist; oder auch als Vorwurf der Energieverschwendung, während die Heizung auf dem Maximum steht.
Gehirn-Computer-Schnittstellen suchen in der Regel aber nicht nach den Mustern von Buchstaben in der Gehirnaktivierung, geschweige denn ganzen Wörtern oder Sätzen in einem bestimmten Kontext. Sie arbeiten vielmehr indirekt und machen sich zunutze, dass Menschen durch ihre Vorstellung bestimmte Gehirnregionen stärker aktivieren können. Beliebt sind hierfür motorische Areale, die für Körperbewegungen zuständig sind.
Das EEG-System, mit dem Studierende an der Virginia Tech ein Brain Pong-Turnier spielten, erkannte beispielsweise das Öffnen und Schließen der Augen als binäres Signal, um den Balken nach oben oder unten zu steuern. Erst in diesem Jahr machte Elon Musks Neuralink damit Schlagzeilen, einen Affen über implantierte Elektroden Pong spielen zu lassen.
Man sieht im Video, dass der Affe gleichzeitig einen Joystick bedient. Den Tieren kann man wohl schlechter vermitteln, sich Bewegungen nur vorzustellen. Das Computersystem hat aber offenbar mit recht guter Genauigkeit gelernt, die elektrische Aktivierung im motorischen Kortex des Affen als entsprechende Joystickbewegung zu interpretieren.
Klinische Realität
Für eine vielzitierte Studie von Mariska Vansteensel von der Universitätsklinik Utrecht und Kollegen im renommierten New England Journal of Medicine wurden einer Patientin im fortgeschrittenen Locked-In-Zustand Elektroden direkt auf das Gehirn gelegt. Das erlaubt auch beim Menschen bessere Aufnahmen als mit einem störanfälligen EEG-System auf der Kopfhaut, bei dem Schädelknochen, Flüssigkeit und mehrere Hautschichten dazwischenliegen.
Über viele Wochen hinweg lernte die Patientin damit, einen Computer zu bedienen. Die Elektroden registrierten Aktivität im motorischen Kortex, die mit der Vorstellung, die linke Hand zu bewegen, einhergingen. Aber nicht nur die Patientin lernte, das System zu bedienen, sondern auch die Forscherinnen und Forscher passten die Parameter immer wieder an.
Schließlich konnte die Betroffene mit einer Geschwindigkeit von nur rund einem Zeichen pro Minute Wörter buchstabieren. Durch die Verwendung der Wortvorhersage, wie wir sie vom Smartphone kennen, ließ sich dieser Wert in etwa verdoppeln. Das war für die Patienten nützlich, wenn sie mit ihrer Pflegerin beispielsweise im Freien war, wo die Lichtverhältnisse das Erkennen ihrer Augenbewegungen zum Buchstabieren nicht mehr zuließen.
Interpretationsvorgänge
Es zeigt uns aber auch zwei Dinge: Erstens sind die Möglichkeiten relativ bescheiden, auch wenn sie für einen einzelnen Patienten von großer Bedeutung sein mögen; zweitens werden auch hier keine Buchstaben oder gar Wörter, mithin auch keine Gedanken gelesen. Vielmehr interpretiert man Gehirnsignale dahingehend.
Dieser - philosophisch wie wissenschaftlich - wesentliche Zwischenschritt wird in der Darstellung von Gehirn-Computer-Schnittstellen in der Öffentlichkeit meist übergangen. Das System erkennt beziehungsweise liest also keine Gedanken, sondern registriert nur eine Gehirnaktivität, die (beispielsweise) mit Körperbewegungen einhergeht.
Erst durch die Regeln des Algorithmus wird dann ein Signal auf bestimmte Weise definiert: beim System der Patientin als Auswahl des zurzeit hervorgehobenen Buchstabens (man könnte auch sagen: als "Klick"); beim Pong-Spiel als Rauf- oder Runter-Bewegung.
So gesehen ist das Gehirn dann schlicht ein anderes Eingabegerät. Denn auch wenn man einen klassischen Joystick verwendet, wird das elektrische Signal A beispielsweise als "nach oben" definiert, das Signal B aber als "nach unten". Auch hier steht dann Signal A dafür, dass der Spieler den Balken nach oben bewegen will, also für einen Gedankenvorgang. Direkt gelesen werden Gedanken so aber nicht.
Fazit
Der schon 1930 in den Medien geäußerte Traum vom Gedankenlesen bleibt meiner Einschätzung nach bis auf Weiteres ein Traum. Insbesondere werden Gedanken nicht direkt gelesen, sondern immer nur indirekt hergeleitet. Es sind Interpretationsvorgänge.
Das sollte vorläufig diejenigen beruhigen, die fürchten, dass Hirnforscher ihr innerstes Seelenleben erkennen können. Wahrscheinlich verraten unsere Gewohnheiten, unsere Einkaufslisten oder unsere "Likes" auf sozialen Medien sehr viel mehr über uns als - beim heutigen Stand der Forschung - unsere Gehirnaktivitäten. Deshalb unterliegen solche Verhaltensdaten dem Datenschutz.
Leute wie Elon Musk, selbsternannter "Techno King" des Autoherstellers Tesla, sind es gewohnt, mit Übertreibungen Aufmerksamkeit für ihre Projekte zu erzeugen. Das greifen bestimmte Medien dankenswert auf. Regelmäßig beteiligen sich aber auch Wissenschaftler an diesem Spiel.
Dabei könnten uneingelöste Versprechen auf Dauer die Glaubwürdigkeit der Forschung beschädigen (Hirnforschung in den Medien). Es ist aber auch eine Systemeigenschaft, diejenigen mit den blumigsten Versprechen zu belohnen - wie auch der Affe im Neuralink-Video wahrscheinlich mit Saft belohnt wird, wenn er mit dem Pong-Balken den Ball zurückspielt.
1930, 2020… Wie weit wird man im Jahr 2110 wohl mit dem Gedankenlesen sein? Und werden die Menschen dann über unsere heutigen Vorstellungen schmunzeln?
Hinweis: Dieser Artikel erscheint ebenfalls im Blog "Menschen-Bilder" des Autors.