Forscher aus Baden-Württemberg entwickeln eine Stützstruktur für gelähmte Hände, durch die Patienten wieder Gegenstände greifen können. Gesteuert wird dieses Exoskelett mittels Hirnströmen, Augenbewegungen und Künstlicher Intelligenz
von FRANK FRICK
Annette Dreher lebt „bereits länger mit Schlaganfall als ohne“, wie sie sagt. Denn als die 52-Jährige den Schlag bekam, war sie 25 Jahre alt. „Anfänglich konnte ich kaum sprechen – und habe zudem Wörter vertauscht. Außerdem war die rechte Körperhälfte nahezu komplett gelähmt“, berichtet Dreher.
Heute ist sie eine Vorzeigepatientin. Zum einen im übertragenen Sinn: Sie strahlt Lebensfreude aus und findet stets die richtigen Worte. „Ich bin selbstständige Informatikerin und tippe mit fünf Fingern – ist doch besser als mit zweien“, sagt Annette Dreher lächelnd. Zwar hat sie seit dem Schlaganfall viele Fertigkeiten zurückerlangt, doch die rechtsseitige Beweglichkeit ist noch immer eingeschränkt – und die rechte Hand spastisch gelähmt.
Ein geniales Gefühl
Doch auch im wörtlichen Sinn wird Annette Dreher vorgezeigt – von den Forschern der Arbeitsgruppe Angewandte Neurotechnologie der Universität Tübingen. Dreher berichtet gerne darüber, wie die Mediziner vor rund zehn Jahren damit begonnen haben, aus ihren Hirnströmen gleichsam die Absicht einer Arm- oder Handbewegung auszulesen. Und sie erinnert sich, wie es sich anfühlte, als sie erstmals kraft ihrer Gedanken eine primitive Variante eines Hand-Exoskeletts – auch als Hand-Orthese bezeichnet – öffnete und schloss: „Das war genial. Obwohl ich mit der Konstruktion nichts greifen konnte, war das Gefühl einfach toll – es war, als ob ich die eigene Hand auf einmal wieder aktiv beeinflussen könnte.“ Langfristig hofft die Informatikerin auf Exoskelette, die sie beispielsweise in die Lage versetzen, wieder mit Messer und Gabel zu essen.
Hirnsignale auf der Kopfhaut lesen
Nicht nur in Tübingen, sondern weltweit arbeiten Wissenschaftler daran, dass Gelähmte Exoskelette oder Roboterarme mit ihren Gedanken steuern können. Um das zu erreichen, pflanzen sie den Patienten normalerweise einen kleinen Chip mit rund 100 Elektroden in die Hirnrinde ein. Allerdings: „Bei dieser Operation kann es zu Infektionen und Blutungen kommen“, sagt Surjo Soekadar. „Das Risiko ist auch deshalb vergleichsweise hoch, weil Schlaganfallpatienten oder Querschnittsgelähmte häufig ein geschwächtes Immunsystem und eine gestörte Wundheilung haben.“ Der Oberarzt am Tübinger Universitätsklinikum und Leiter der Arbeitsgruppe Angewandte Neurotechnologie setzt daher auf eine andere Methode: Auf der Kopfhaut getragene Elektroden registrieren die Hirnsignale.
Doch dieses sanfte Verfahren bringt eine Schwierigkeit mit sich: Die Elektroden auf der Kopfhaut messen die Summe der Signale von mehreren Millionen Nervenzellen. Sie können die Signale längst nicht so gut auflösen wie ein Implantat. Denn das ist so dicht an den bewegungssteuernden Nervenzellen platziert, dass es die Signale sehr kleiner Hirnareale getrennt voneinander erfasst.
Trotzdem ist auch mit außen angelegten Elektroden die Absicht erkennbar, wenn die Hand bewegt werden soll. Das haben die Tübinger Mediziner schon vor einigen Jahren demonstriert, unter anderem mit Annette Dreher. „Das heißt aber nicht, dass wir den genauen neuronalen Code des Gehirns auslesen können, sondern vielmehr wird die Gehirnaktivität des Patienten für die Steuerung des Exoskeletts konditioniert“, betont Surjo Soekadar.
Nicht an eine Bewegung denken!
Was das für Patienten bedeutet, schildert Dreher so: „Ich musste lernen, mich auf die Absicht zu konzentrieren, das Exoskelett an der rechten Hand zu schließen. Dabei zeigte mir ein Monitor einen Ball, den ich während dieser Konzentrationsphase zwischen zwei Linien halten musste. Doch regelrecht lernen musste ich auch, zu entspannen und nicht an eine Bewegung zu denken.“
Die Tübinger Mediziner registrieren bestimmte Signale in den Hirnströmen, die sogenannten µ-Wellen. Die genaue Frequenz der Wellen und die Lage des Hirn-areals, von dem sie ausgesendet werden, variiert von Person zu Person. Insbesondere bei Schlaganfallpatienten sind die Unterschiede oft erheblich. Doch durch entsprechendes Training können selbst Schlaganfallpatienten lernen, ihre µ-Wellen sehr zuverlässig zu regulieren. Auch die Tageszeit kann eine Rolle spielen. „Wir haben Software entwickelt, durch die ein Computer selbstständig lernen kann, individuell verschiedene Muster in der Gehirnaktivität zu erkennen“, sagt Martin Spüler. Der Forscher vom Wilhelm-Schickard-Institut für Informatik in Tübingen arbeitet bereits seit mehreren Jahren mit den Medizinern zusammen.
Im Training lernen Patient und Computer gemeinsam als Team
Dank der Algorithmen der Informatiker um Martin Spüler lässt sich die Signalauswertung auf jeden Patienten individuell abstimmen. Nach einer Lernphase erkennt der Computer aus den Hirnströmen in Bruchteilen einer Sekunde automatisch die Bewegungsabsicht des Patienten. Computer und Patient lernen dabei sozusagen gemeinsam in einem Team – eine Phase des Trainings, die heute üblicherweise innerhalb von wenigen Stunden abgeschlossen ist.
Die Tübinger Wissenschaftler haben einfache über die Gedanken gesteuerte Hand-Exoskelette bereits für Forschungszwecke eingesetzt. „Unter anderem haben wir in einer klinischen Studie mit 30 Schlaganfallpatienten nachgewiesen: Verwenden Patienten täglich eine solche Orthese, so verbessern sich ihre motorischen Fähigkeiten“, berichtet Soekadar. Nun gehen die Wissenschaftler im Projekt „KONSENS-NHE“, das von der Baden-Württemberg Stiftung finanziert wird, den nächsten Schritt: Seit rund anderthalb Jahren arbeiten sie zusammen in einem Verbundprojekt von Forschern aus Tübingen, Stuttgart und Reutlingen an einem Exoskelett, das Schlaganfallpatienten in ihrem täglichen Leben einsetzen können, um zum Beispiel verschiedene Gegenstände zu greifen oder technische Geräte zu bedienen.
Im unruhigen Alltag gelingt das Auslesen der Bewegungsabsicht aus den Hirnströmen nicht mit 100-prozentiger Sicherheit. „Wenn aber ein gefülltes Trinkglas bei zehn Versuchen zwei Mal auf Grund einer plötzlichen Lockerung des Griffs runterfällt, dann ist das zwei Mal zu viel“, sagt Soekadar trocken.
Doch mit dem zuverlässigen Erkennen der Absichten eines Patienten ist es nicht getan. Das Exoskelett selbst, also die Stützstruktur für die gelähmte Hand, muss den Patienten in die Lage versetzen, die beabsichtigten Griffe auch durchzuführen. Und: „Das Exoskelett soll möglichst unauffällig und leicht sein. Trotzdem soll es die notwendigen Kräfte bereitstellen“, beschreibt Jonathan Eckstein die Anforderungen. „Schließlich muss es auch noch individuell auf die weiche, gelähmte Hand des jeweiligen Patienten angepasst werden können.“
Intelligente Software wie bei Gesichtserkennung oder Fahrassistent
Bei existierenden Handprothesen oder Roboterhänden hat sich der Biomechatroniker vom Institut für Industrielle Fertigung und Fabrikbetrieb der Universität Stuttgart nur bedingt etwas abschauen können: Handschuhsysteme etwa kommen nicht infrage, weil Schlaganfallpatienten mit spastisch verkrümmten Händen sie nicht anziehen können. „Außerdem haben wir bei unserer Orthese nicht so viel Raum zur Verfügung wie bei Roboterhänden, in deren Innerem sich viele Bauteile unterbringen lassen“, sagt Eckstein. Sein Entwurf sieht eine Stützstruktur aus dem Kunststoff Polyamid vor, die per 3D-Druck kostengünstig individuell gefertigt werden kann. Steuern lassen sich Gelenke und Finger über ein System von Zugseilen.
Ergreift ein gesunder Mensch ein Objekt, passt er seine Fingerhaltung und Griffstärke unwillkürlich den Erfordernissen an – wobei ihm Auge und Tastsinn die nötigen Rückmeldungen liefern. Daher wollen die Projektpartner in die nächste Version ihres Exoskeletts auch eine Art Ersatz für den Tastsinn einbauen.
Vibrationen am Arm
„Die beim Greifen erzeugte Kraft soll dem Patienten vibrotaktil zurückgemeldet werden“, sagt Leonardo Gizzi vom Institut für Mechanik der Universität Stuttgart. Damit meint er, dass vibrierende Signalgeber Informationen auf die Haut am Unterarm übertragen – ähnlich wie ein stumm geschaltetes Smartphone das Eintreffen einer Nachricht durch Vibrationen anzeigt. Einen entsprechenden Demonstrator hat Gizzi bereits gebaut. „Das vibrotaktile Feedback ist kostengünstig zu verwirklichen, sehr zuverlässig und diskret“, sagt der Forscher.
Genau genommen arbeiten die Partner an zwei Versionen ihres Exoskelett-Systems: Eine einfache Variante soll am Ende der Projektlaufzeit Mitte 2020 zuverlässig funktionieren und Patienten direkt zugutekommen. In eine andere Variante werden die Forscher alle derzeitigen technischen Möglichkeiten integrieren. Während das vibrotaktile Feedback fest für den abgespeckten Prototyp vorgesehen ist, arbeiten Forscher der Hochschule Reutlingen und am Tübinger Centrum für Integrative Neurowissenschaften (CIN) bereits an der noch zukunftsweisenderen zweiten Variante.
Das Hand-Exoskelett intelligenter zu machen und zu erreichen, dass es mithilfe einer Kamera Objekte selbstständig erkennt und seinen Griff entsprechend wählt: Das ist das Ziel der Forscher im Team von Cristòbal Curio an der Hochschule Reutlingen. Dazu nutzen sie unter anderem eine Software zur Bildverarbeitung, wie sie ähnlich in Fahrassistenzsystemen oder zur Gesichtserkennung für die Zutrittskontrolle im Einsatz ist. Die Algorithmen passen die Forscher an die Alltagsumgebung von gelähmten Patienten an.
Ihre Tübinger Projektkollegen am CIN dagegen konzentrieren sich darauf, die koordinierten Bewegungen des Arms und der Finger des Hand-Exoskelettes schon vor dem eigentlichen Zugreifen mit einer Software vorzugeben. In Computermodellen werden dazu alle Bewegungsbahnen auf möglichst wenige Kontrollgrößen zurückgeführt, damit die erforderlichen Rechenvorgänge nicht zu viel Zeit kosten und dadurch das Greifen mit dem Hand-Exoskelett verlangsamen.
Um einen von Annette Drehers größten Wünschen zu erfüllen, wird indes vermutlich bereits die einfache Variante des Hand-Exoskeletts aus Baden-Württemberg genügen: „Ich möchte“, sagt die Schlaganfallpatientin, „wieder klatschen können, wenn mir etwas gefallen hat.“
Die Aufgabe gilt als Königsdisziplin in der Robotik: Bauteile, die chaotisch in einer Kiste lagern, sollen möglichst rasch entnommen und beispielsweise in definierter Position und Orientierung auf ein Transportband gelegt werden. Was für einen Menschen recht simpel ist, stellt automatische Systeme vor große Herausforderungen. Daher wird seit 2001 am Stuttgarter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA an der Software bp3 entwickelt, die aus 3D-Punktewolken Werkstücke identifiziert und dem Roboter eine Bahn zum Greifen vorgibt.
„Die Software wurde zwischenzeitlich in mehr als 20 Produktionsanlagen realisiert und ist damit marktreif“, sagt Werner Kraus vom IPA. Die größten Probleme bereiten die letzten Teile in einer Kiste: Mit den eingesetzten Sensoren, meist Laserscannern, lassen sie sich nicht immer vom Kistenboden unterscheiden. Weitere Schwierigkeiten: Zur Inbetriebnahme der Systeme sind Expertenwissen und höhere Mathematik nötig. Das motiviert die Forscher am IPA mit Künstlicher Intelligenz noch eine Schippe auf bp3 draufzulegen.
Im Projekt „Deep Grasping“, wollen sie für Abhilfe sorgen, gemeinsam mit Kollegen des Instituts für Parallele und Verteilte Systeme der Universität Stuttgart. Die Idee: In einer Computersimulation lernt ein virtueller Roboter durch Tausende von Versuchen und Fehlversuchen selbstständig, Bauteile in einer Kiste – alles ebenfalls virtuell – zuverlässig zu erkennen und zu entnehmen. „Dass dieses maschinelle Lernen funktioniert, konnten wir bereits demonstrieren“, sagt Kraus. Durch Trainieren in einer virtuellen Umgebung werden reale Schäden durch Fehlgriffe an Bauteilen und am Robotersystem vermieden. Wird später das antrainierte Wissen auf den echten Roboter übertragen, kann er ohne weiteren Programmieraufwand rasch beginnen, zu arbeiten – mit zuverlässigen Griffen und kürzerer Rechenzeit, hoffen die Wissenschaftler.