Durham in North Carolina liegt etwa 400 km südwestlich von Washington und hat mit der Duke University eine angesehene Hochschule und an dieser ein hochrenommiertes Medical Center. Viele wissenschaftliche Forschungsinstitute und Firmen haben sich im nahe gelegenen Triangel Park angesiedelt.

Am 15. Januar 2008 gab das Medical Center der Universität von Durham bekannt, dass es zum ersten Mal auf der Welt geglückt ist, die Hirnaktivitäten eines Affen zur Echtzeitsteuerung eines Roboters zu nutzen – und zwar am anderen Ende der Welt. Die Forscher der Duke University arbeiteten dabei mit Forschern des Computational Brain Projekts der japanischen Science and Technology Agency (JST) zusammen. In Durham führt das Projekt Professor Dr. Dr. Miguel Nicolelis. Chef des JST in Japan und gleichzeitig Direktor des Computational Neuroscience Laboratories ist Prof. Dr. Mitsuo Kawato.

Die Forscher nutzten sehr spezielle Methoden, um die Aktivitäten von hunderten von Hirnzellen beim Rhesusaffen zu erfassen. Dann wurde über Sensoren ermittelt, wie der Affe physisch auf die Hirnströme reagierte. Dazu ließ man ihn auf einem Laufband laufen, das unterschiedlich schnell und auch rückwärts laufend eingestellt werden konnte. Sensoren an den Beinen des Affen erfassten genau die Bewegungen, die von den Hirnsignalen ausgelöst wurden.
Mit mathematischen Modellen wurde dann ein Zusammenhang zwischen den Bewegungen und den Hirnströmen hergestellt, so dass bald verlässliche Erkenntnisse für die verschiedenen Formen der Bewegung vorlagen. Das galt z.B. auch für die notwendige Laufgeschwindigkeit und Schrittlänge, um auf dem Laufband nicht vorn oder hinten „abzustürzen“. Da bestimmten Neuronen in verschiedenen Hirngebieten zu unterschiedlichen Zeiten „feuern“ und gleichzeitig mit unterschiedlichen Frequenzen arbeiten, war es ein ziemliches Puzzlespiel, bevor man ein Gehmuster zusammen hatte.

Sagte Nicolelis: „ In unserem Experiment haben wir zunächst die Hirnaktivitäten erfasst, daraus das Bewegungsmuster vorhergesagt und dann die motorischen Signale vom Affen auf den fernen Roboter übertragen. Und weil wir das in Echtzeit machen können, kann jetzt der Roboter in Japan mit dem Affen in den USA synchron auf zwei verschiedenen Laufbändern laufen, die räumlich weit voneinander entfernt sind.“

Kawato gibt sich etwas zurückhaltender (wie bei den Japanern meist üblich): „Wir freuen uns sehr über die gemeinsam erreichten Ergebnisse. Wir werden die neuen Erkenntnisse dazu nutzen, unser Verständnis über die Prozesse der Informationsverarbeitung im Gehirn weiter auszubauen.“

Man sollte noch hinzufügen, das Nicolelis kein Neuling auf diesem Gebiet ist. Schon Anfang des Jahrzehnts hatte er mit seinem Institut demonstriert, dass Greifvorgänge bei einem Affen auf Roboter übertragen werden können, ausschließlich gesteuert durch die Hirnsignale des Tieres. Ein „gehender“ Roboter ist da natürlich ungleich komplexer, denn er muss sich ja auch noch selbst im Gleichgewicht halten: Wegen Unterschieden in Größe, Gewicht und Schwerpunkt des Affen lassen sich solche Daten für den Roboter nicht auswerten, sondern müssen vor Ort generiert werden.
Doch das Experiment hat ein Nachspiel, das selbst die Forscher leicht außer Tritt brachte: Wenn man das Laufband ausrollen ließ und der Affe das Laufen beendete, lief der Roboter noch ein paar Minuten weiter. Eine mögliche Erklärung: Beim Laufen konnte der Affe den Roboter auf dem Bildschirm sehen, was sicher zum Synchronlaufen beigetragen hat. Allein die visuelle Rückkopplung, die der Affe auf dem Bildschirm wahrnahm, hat das Gehirn des Affen noch eine Zeitlang „laufen lassen“, so dass der ferne Roboter nur durch die Gedankenarbeit des Affen in Gang gehalten wurde.

Nach soviel Sensationen nun doch noch ein sachlicher Schluss: Im nächsten Jahr sollen die Arbeiten an einer ersten Hirngesteuerten Beinprothese aufgenommen werden, deren Ziel ein Einsatz beim Menschen ist.

Duke University
www.duke.edu