Mit Gedanken einen Roboter steuern
Japanische Wissenschaftler haben eine Gehirn-Maschinen-Schnittstelle entwickelt
Bislang konnte man mit der Abnahme von Gehirnwellen einen Cursor auf dem Bildschirm steuern. Honda ist nun einen Schritt weiter gekommen und hat eine Gehirn-Maschinen-Schnittstelle (BMI) entwickelt, um mit Gedanken einen Roboter im Raum zu steuern.
Zusammen mit dem Advanced Telecommunications Research Institute International (ATR) and Shimadzu Corporation hat Honda einen Helm gebaut, dessen Sensoren wie ein EEG, aber berührungslos die elektrischen Signale abnehmen. Zudem wird über Nah-Infrarotspektroskopie (NIRS) optisch Veränderung der Blutzirkulation im Gehirn gemessen. Der Träger des Helms muss sich nur vorstellen, die Arme oder Beine zu bewegen, um diese motorischen Impulse, die von beiden Sensortypen aufgenommen und durch ein neu entwickeltes Programm verarbeitet werden, auf den Roboter zu übertragen, der nach einigen Sekunden entsprechend reagiert.
Vorgeführt haben die japanischen Wissenschaftler ihr System mit einem Humanoiden des Typs Asimo. Angeblich kann mit der neuen Methode, gleichzeitig die elektrische Aktivität und den Blutfluss auszuwerten, eine Genauigkeit bei der Erkennung der motorischen neuronalen Impulse von 90 Prozent erzielt werden. Allerdings kann der Benutzer des Helms den Roboter noch nicht frei steuern, sondern nur vier vorprogrammierte Bewegungsprogramme starten, allerdings auch Bein- und Armbewegungen gleichzeitig (Video).
Der Roboter wird durch eine solche Gehirnsteuerung zu einem erweiterten Körper, zumindest zu einem neuen Körperteil, der Mensch zu einem Cyborg. Denkbar wären, wenn die Technik schrumpft und mobil wird, viele Anwendungen, gerade weil keine Elektroden mehr auf die Haut angebracht oder gar implantiert werden müssen. Prothesen, Rollstühle, Fahrzeuge, alle Maschinen und Geräte ließen sich so steuern oder bedienen, ohne noch die Hände gebrauchen zu müssen – natürlich auch Avatare. Und wenn man noch durch die "Augen" eines Humanoiden sehen und mit dessen "Augen" hören würde, dann würde auch die Telepräsenz über einen entfernten Körper noch ein Stuck näher rücken, als dies bislang der Fall ist, wenn beispielsweise Drohnen im Telekrieg an Bildschirmen und mit Joysticks geflogen werden.