Talk to the Hand

20. Mai 2005
Teilen

Science Fiction in den 70er Jahren: Steve Austin ist in der Serie "The 6-Million-Dollar-Man" der Titelheld mit künstlichen Beinen, künstlichen Armen und künstlichem Auge. Realität 2000: Das Eulenaffen-Weibchen Belle in North Carolina steuert mit eigenen Kortexneuronen einen Roboterarm via Internet in Boston. Vision 2005: Hirn-Signale, die bereits die Absicht einer Bewegung signalisieren, werden "just in time" zur Steuerung von Arm- oder Beinprothesen umgesetzt...

Vereinfachte Steuerung von Neuroprothesen

Neuroprothesen, beispielsweise Armprothesen, verwenden seit einigen Jahren Bewegungssignale, die vom motorischen Kortex abgegriffen werden. Der Nachteil des bisherigen Systems ist, dass die Signale aufwändig an einzelnen Nervenzellen gemessen werden müssen. Das ist nicht nur unpräzise, sondern auch langsam. Die Bewegung der künstlichen Gelenke erfolgt daher gewissermaßen zeitversetzt. Das Forscher-Team um Hansjörg Scherberger vom Institut für Neuroinformatik an der Universität Zürich, und Wissenschaftler des California Institute of Technology haben vor kurzem eine neue, einfachere Methode in der Fachzeitschrift „Neuron“ vorgestellt. Statt eine Vielzahl von Signalen zu messen, leiten sie die motorischen Informationen aus dem so genannten „lokalen Feldpotential“, einem Summationssignal aus mehreren Nervenzellen, ab.

Fortschritt für Gehirn-Maschinen-Interface

Die „Grasping Group“, wie sich die Züricher Wissenschaftler nennen, hat sich darauf spezialisiert, den Greifmechanismus der Hand im motorischen Kortex zu lokalisieren. Hansjörg Scherberger: „We deal with the problem of how to „Talk to the Hand!”” Bevor ein Körperteil sich bewegt, kann im Gehirn bereits die Bewegungsabsicht gemessen und für die Steuerung von Neuroprothesen decodiert werden. Mikroprozessoren errechnen die Bewegungsrichtung und veranlassen die Ausführung durch die Prothese. Das alles ist nicht neu. Innovativ ist, dass auch aus Summationssignalen Bewegungsmuster herausgelesen werden können. Das sei einfacher, präziser, schneller und reduziere die Gefahr, dass im Gehirn Abwehrreaktionen gegen die Elektroden einsetzen. Die Forscher konnten in Experimenten mit Rhesusaffen, denen kleinste Sonden im Hirn implantiert wurden, die Funktionsfähigkeit nachweisen. Für die Wissenschaft bedeutet diese neue Erkenntnis ein weiterer Fortschritt in der Entwicklung von Gehirn-Maschinen-Interfaces.

Direkter Draht vom Gehirn zum Computer

Insbesondere Menschen mit amputierten Armen oder Beinen werden von der Weiterentwicklung des Brain-Computer Interface profitieren. Was heute schon möglich ist, zeigen die Sportler der Paralympics jährlich in beeindruckender Weise. Aber auch Patienten mit Multipler Sklerose (MS), Amyotrophischer Lateralsklerose (ALS) oder Morbus Parkinson verspricht die Technologie, einen begrenzten Zugang zur Umwelt zu ermöglichen. So ermöglichten beispielsweise Verhaltens-Neurobiologen der Universität Tübingen einem ALS-Kranken auf einem virtuellen Keyboard Buchstaben auszuwählen und sie zu Worten zusammenzufügen. Ausgangspunkt sind willentlich kontrollierte Hirnsignale. Noch ist es ein mühseliger Prozess für die Patienten. Auch die Versiertesten bringen es zu kaum mehr als einem Wort in der Minute. Die Wissenschaftler hoffen, dass stärkere und besser lokalisierbare Hirnsignale erfasst werden können mit Elektroden, die direkt in die Kopfhaut des Patienten eingepflanzt werden. Bisher wird dies hauptsächlich in Tierversuchen getestet.

Patient denkt, Technik lenkt

Für weltweite Schlagzeilen sorgte das Eulenaffen-Weibchen „Belle“, das im Labor der Forschungsgruppe von Miguel Nicolelis an der Duke-University gelernt hatte, mit der Aktivität der eigenen Kortexneuronen einen Roboterarm zu steuern – und das auch via Internet über eine Distanz von 1000 Kilometern. Das Ganze hatte lediglich einen Schönheitsfehler. Es funktionierte nur, wenn das Affen-Weibchen seinen eigenen Arm bewegte, was für gelähmte Patienten natürlich keine Lösung darstellt. Das Forschungsteam von Richard Andersen am California Institute of Technology – in Zusammenarbeit mit der Züricher „Grasping Group“ – ging einen Schritt weiter. Es gelang ihnen, Affen über ein Brain-Computer Interface einen Cursor auf dem Bildschirm in ein Ziel steuern zu lassen.(DocCheck berichtete). Ohne eigene Muskelkraft, sondern allein mit Signalen, die die Bewegungsplanung in reale Bewegungen umsetzen. Wenn sich die Ergebnisse bei Tieren auf Menschen übertragen lassen, dann heißt es vielleicht bald: der Patient denkt und die Computer- und Robotertechnik lenkt!

0 Wertungen (0 ø)
Allgemein

Die Kommentarfunktion ist nicht mehr aktiv.

Copyright © 2016 DocCheck Medical Services GmbH
Sprache:
DocCheck folgen: