Mit neuronalen Signalen direkt einen Roboterarm steuern
Wissenschaftler konnten aus der Ableitung neuronaler Signale von Affengehirnen Greifbewegungen erfolgreich vorhersagen
Neuronale Impulse, die aus Neuronenverbänden des motorischen Cortex abgeleitet und mathematisch in Stromsignale umgeformt werden, können dazu dienen, einen Roboterarm zu steuern. Was bereits bei Neunaugen und bei Ratten funktioniert hat (Cyborg-Ratten), konnten Wissenschaftler jetzt an Affen zeigen. Eine Gehirn-Maschine-Schnittstelle zur neuronalen Steuerung von Prothesen ist damit einen Schritt näher gerückt.
Bei der Steuerung von Greifbewegungen sind bei Primaten unterschiedliche Areale des motorischen Kortex beteiligt, mit dem die Feinmotorik der Finger kontrolliert wird. Der motorische Kortex gilt als ein "Bewegungszentrum" im Gehirn, der auch vier andere motorische Bahnen steuert, die sich vom Hirnstamm das Rückenmark hinunterziehen und verantwortlich sind für halbautomatische rhythmische Bewegungen, die Koordination mit sensorischen Informationen, die Aufrechterhaltung des Gleichgewichts und die Beegung der einzelnen Gliedmaßen. Allerdings spielen für die Steuerung der Bewegung auch noch die Basalganglien und das Kleinhirn eine Rolle, das für automatische, durch sensorische Informationen veränderte Bewegungen verantwortlich ist. Das Bewegen der Hände ist also ein kompliziertes Prozess, an dem, wie auch sonst im Gehirn, unterschiedliche Regionen beteiligt sind, ohne dass es ein übergeordnetes autonomes Zentrum gibt.
Diese komplizierte Struktur der verteilten Repräsentationen von motorischen Informationen macht es natürlich kompliziert, die neuronalen Impulse abzuleiten, die bestimmten Bewegungen entsprechen, was aber ganz entscheidend dafür wäre, dass einmal Menschen, die eine Prothese benötigen, diese mithilfe ihres Gehirns steuern können. Die Wissenschaftler von der Duke University, der State University of New York und dem MIT haben für ihr Experiment, das sie in einem Artikel im heute erschienen Heft von Nature schildern, zwei Affen dauerhaft Mikroelektroden in den motorischen Cortex implantiert. Einem Affen wurden zur Ableitung der gleichzeitigen Aktivität größerer Neuronenpopulationen insgesamt 96 Mikroelektroden in sechs Arealen des motorischen Kortex implantiert, beim zweiten Affen waren es 32 in zwei Arealen. Ein bis zwei Wochen nach der Implantation wurden die Affen für 12 bzw. 24 Monate trainiert, zwei unterschiedliche motorische Aufgaben auszuführen: einmal mussten sie einen Hebel in einer eindimensionalen Bewegung bei einem optischen Signal nach links oder rechts schieben, um einen Saft als Belohung zu erhalten; bei der anderen Aufgabe mussten sie ihre rechte Hand auf eine kleine Plattform legen und dann, wenn eine undurchsichtige Klappe geöffnet wurde, ein Fruchtstück, das auf einer von vier Plattformen lag, nehmen, was einer Bewegung im dreidimensionalen Raum entspricht.
Während des Trainings wurden bereits die neuronalen Aktivitäten aufgezeichnet. Die Wissenschaftler konnten feststellen, dass die Aktivität der meisten einzelnen Neuronen bei einer Bewegung in einer Region eng zusammenhing, auch wenn die Korrelationen und Frequenzen in einer Regionen und zwischen den Regionen sehr unterschiedlich sein konnten. Die kollektive Aktivität der Neuronengruppen wurde dann in Algorithmen, die unabhängig von den physiologischen Eigenschaften der Neuronen angesetzt wurden, umgewandelt, mit denen sich bereits nach wenigen Minuten des "Lernens" schließlich Bewegungen voraussagen und Roboterarme in Echtzeit steuern ließen. Die Wissenschaftler konnten damit auch Roboterarme über das Internet steuern.
Mandayam Srinivasan, Direktor des Laboratory for Human and Machine Haptics am MIT und Mitautor des Nature-Artikels: "Als wir ursprünglich die Idee entwickelten, die Hirnsignale des Affen zu benutzen, um über das Internet einen Roboter zu steuern, waren wir nicht sicher, wie sich verschiedene Verzögerungen bei der Signalübertragung auf das Ergebnis auswirken werden. Aber selbst mit einer gewöhnlichen TCP/IP-Verbindung klappte das wunderbar. Es war ganz erstaunlich zu sehen, wie sich der Roboter in meinem Lab bewegte, und dabei zu wissen, das er von Signalen eines Affen an der Duke University gesteuert wurde. das war so, als hätte der Affe einen 1000 Kilometer langen Arm."
Da die Steuerung im Fall der neuronalen Aktivität beider Affen trotz unterschiedlich vieler Areale und Mikroelektroden nahezu gleich gut funktionierte, versuchten die Wissenschaftler festzustellen, ob sich dieselben Ergebnisse auch mit wenigeren vernetzten Neuronen erreichen ließen. Zu diesem Zweck wurde im Fall der eindimensionalen Bewegung ein Neuron nach dem anderen in den einzelnen Regionen und in allen Regionen "abgezogen", wobei sich zeigte, dass sich auch mit erheblich weniger Neuronen und im wesentlichen mit der Abnahme neuronaler Signale vom lateralen prämotorischen Areal noch eine hohe Genauigkeit der Voraussage erzielen ließ.
Diese Ergebnisse stimmen, wie die Wissenschaftler schreiben, mit der Hypothese überein, dass motorische Kontrollsignale für Armbewegungen gleichzeitig in großen Bereichen des Cortex geschehen. Theoretisch ließe sich durch jedes dieser Areale Handbewegungen steuern. Aber das ist wahrscheinlich nur im Rahmen der jeweiligen funktionalen Spezialisierung möglich, wovon die Unterschiede zwischen den gemessenen und den vorhergesagten Bewegungen Zeugnis ablegen können. Sie könnten zusätzliche Informationen, beispielsweise von den Augen, entsprechen und sich auch nach Lernerfahrungen ändern.
Prinzipiell aber glauben die Wissenschaftler demonstriert zu haben, dass motorische Signale, die von Neuronenpopulationen abgeleitet werden, auch zur Steuerung von Prothesen dienen können. Überdies habe man gezeigt, dass dauerhaft implantiert Mikroelektroden mindestens zwei Jahre lang verlässliche Ableitungen ermöglichen: "Das legt nahe, dass eine Kombination von dichter gepackten Mikroelektroden mit implantierbaren Schaltkreisen, die die Echtzeitaverarbeitung aller Signale und die mathematische Analyse durchführen können, eines Tages die Grundlage einer Gehirn-Maschine-Schnittstelle bilden kann, die es gelähmten Patienten ermöglichen wird, willentlich die Bewegungen von Prothesen zu steuern.
"Dieses System eröffnet ein neues Paradigma, um grundlegende Fragen zu untersuchen, wie das Gehirn Informationen codiert", sagt Miguel Nicolelis, Neurobiologe an der Duke University und Mitautor des Artikels. "Nachdem wir jetzt Hirnsignale benutzt haben, um einen künstlichen Arm zu steuern, können wir beispielsweise weiter zu Experimenten voranschreiten, bei denen wir die Eigenschaften des Arms verändern oder für den Affen visuelles oder taktiles Feedback ermöglichen und dabei erforschen, wie sich das Gehirn daran adaptiert. Durch das Verstehen einer solchen Adation können wir erschließen, wie das Gehirn normalerweise Informationen codiert."
Für die Integration von gehirngesteuerten Prothesen wird es wichtig sein, ob das Gehirn das künstliche Glied wirklich als Körperteil akzeptiert. Nicolelis ist sich da ziemlich sicher: "Das Gehirn lernt ständig und passt sich an, und frühere Studien haben gezeigt, dass die Körperrepräsentation im Gehirn dynamisch ist. Wenn man also einen geschlossenen Rückkopplungskreis erzeugt, in das Gehirn das Gerät steuert und das Gerät ein Feedback zum Gehirn zurück gibt, dann sage ich voraus, dass in der Zeit, in der die Menschen oder Tiere lernen, das Gerät zu benutzen, auch ihre Gehirne neuronalen Platz schaffen werden, um dieses Gerät zu repräsentieren." Und falls das alles wirklich so funktionieren sollte, könnte man über das Internet ja auch den menschlichen Körper durch solche Implantate noch ganz anders erweitern: "In unserem bescheidenen Experiment haben wir Gehirnwellen benutzt, um den Roboterarm über das Internet zu steuern. Wenn wir die Kapazitäten des Arms vergrößern. in dem wir ein visuelles, Druck-oder Tast-Feedback schaffen, dann könnte eine solche rückgekoppelte Steuerung zu einem Tele-Arm führen, der in die Körperrepräsentation des Gehirns integriert ist."