Sogenannte Brain-Computer-Interfaces (BCIs) sollen querschnittgelähmten Menschen ein Stück Bewegungsfreiheit und damit mehr Lebensqualität zurückbringen – das sind Gehirn-Computer-Schnittstellen, die die Hirnaktivität einer Person messen und die elektrischen Ströme in Steuerungssignale für Neuroprothesen umwandeln.
„Steuern nur durch Denken“, wie es Gernot Müller-Putz vereinfacht formuliert. Der Leiter des Instituts für Neurotechnologie der TU Graz zählt zu den „alten Hasen“ der BCI-Forschung und beschäftigt sich intensiv mit nicht-invasiven BCI-Systemen. Er und sein Team haben in den letzten zehn Jahren erste positive Ergebnisse mit der EEG-basierten Steuerung von Neuroprothesen oder robotischen Armen bei Personen mit Rückenmarksverletzungen erzielt. Allerdings war die Steuerung bislang unnatürlich und umständlich, weil die Denkmuster wiederholt imaginiert werden mussten. Im Rahmen seines jüngst abgeschlossenen ERC-Consolidator Grant-Projekts „Feel your Reach“ haben Müller-Putz und sein Team nun den Durchbruch bei der Entwicklung natürlicherer und kontinuierlicher BCI-Steuerungssysteme geschafft.
Den TU Graz-Forschenden ist es gelungen, einen Roboterarm rein durch Gedanken in Echtzeit zu steuern, gewohnt nicht-invasiv mittels EEG-Kappe (siehe auch Video © Projekt-Website "Feel Your Reach"). Möglich wurde das durch das Dekodieren kontinuierlicher Bewegungsintention aus den Hirnsignalen – das war bislang unmöglich. Die Forschenden untersuchten zunächst eine Vielzahl an Bewegungsparametern wie Position, Geschwindigkeit aber auch Distanz, und extrahierten deren Korrelate aus der neuronalen Aktivität.
„Wesentlich hierbei ist der Beitrag der Augen“, erklärt Müller-Putz. „Es ist wichtig, dass Benutzerinnen und Benutzer die Augen verwenden dürfen, um die Bewegungsbahn des robotischen Armens zu verfolgen.“ Allerdings erzeugen Augenbewegungen und Lidschläge eigene elektrische Signale, sogenannte okulare Artefakte im EEG. „Diese Artefakte verzerren das EEG-Signal. Sie müssen daher in Echtzeit rausgerechnet werden. Es ist aber essentiell, dass die Auge-Hand-Koordination stattfinden kann und so einen Beitrag zur Dekodierung der zielgerichteten Bewegungswünsche liefert“, betont Müller-Putz. Mit anderen Worten: Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen. Die Störsignale des Auges selbst aber müssen aus der elektrischen Aktivität herausgerechnet werden.
Wesentlich ist auch, dass eines der von den Forscherinnen und Forschern entwickelten BCIs erkennen kann, ob man mit einer Bewegung starten möchte – es erkennt den Start einer zielgerichteten Bewegung. Darüber hinaus erkennt und korrigiert ein weiteres BCI des Forschungsteams Fehler, also nicht erwünschte Bewegungen des Roboterarms; ein weiterer Puzzlestein für eine natürlichere Prothesensteuerung. „Die Fehlerantwort des Gehirns lässt sich aus dem EEG ablesen. Das BCI erkennt, dass die ausgeführte Bewegung nicht mit der Intention der Person übereinstimmt. Es stoppt die Bewegung des Roboterarms oder setzt diese zurück an den Anfang“, so Müller-Putz. Im Projekt wurde die Fehlererkennung mehrfach in Tests mit querschnittgelähmten Personen erfolgreich getestet.
Ebenfalls erfolgreich waren die TU Graz-Forschenden beim sogenannten kinästhetischen Feedback. „Die Testpersonen sehen die Bewegungen der Prothese nicht nur, sie spüren sie auch“, freut sich Müller-Putz. Technisch wurde dies mithilfe von Vibrationsgebern möglich. Diese kleben an der Haut am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Theoretisch sei es damit auch komplett Querschnittsgelähmten möglich, Bewegungen nachzuempfinden. „Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen“, spricht Müller-Putz zukünftige Ziele an. Allen voran möchten die Forschenden das Dekodieren einer Bewegung aus visuellen, intentionalen und bewegungsempfindenden Informationen verbessern, dabei Fehler erkennen und alle vier BCI-Systeme in einem „Vierfach-BCI-System“ vereinen.
Quelle: Technische Universität Graz