IDSIA

Roboter zur Unterstützung von Menschen mit Behinderungen:Die Steuerung erfolgt mit den Augen, Gehirnwellen und 2 Algorithmen

Freitag, 24. November 2023 ca. 5 Minuten lesen In lingua italiana

Die Fachzeitschrift Scientific Reports veröffentlicht eine bahnbrechende Studie von Loris Roveda in Zusammenarbeit mit dem Polytechnikum Mailand. Ein neues Gerät "liest" Gehirnsignale und verwandelt sie in Befehle für Roboter
von Elisa Buson

Mit den Augen kann man lächeln, drohen, Geheimnisse gestehen, Verständnisbekundungen übermitteln. Ab heute ist es sogar möglich, einen Roboter aus der Ferne zu steuern. Alles, was es dazu braucht, ist ein Wimpernschlag, dank der neuen Gehirn-Computer-Schnittstelle, die durch die Zusammenarbeit zwischen dem Polytechnikum Mailand und dem Dalle Molle Institut für Studien zur Künstlichen Intelligenz (IDSIA USI-SUPSI) in Lugano geschaffen wurde.

Das Forschungsprojekt, das als einfache Dissertation begann und in der renommierten Fachzeitschrift Scientific Reports veröffentlicht wurde, zielte ursprünglich darauf ab, ein System für die kollaborative Robotik zu entwickeln, das die Interaktion zwischen Mensch und Maschine in einem industriellen Umfeld erleichtern sollte. «Aber dann wurde uns klar, dass diese Technologie auch eine interessante Rolle bei der Unterstützung von Menschen mit Behinderungen spielen könnte», erklärt der Maschinenbauingenieur Loris Roveda, leitender SUPSI-Forscher am Institut Dalle Molle und einer der Autoren der Studie zusammen mit Kaan Karas, Luca Pozzi, Alessandra Pedrocchi und Francesco Braghin vom Polytechnikum Mailand.

«Auf dem Markt sind bereits verschiedene Eye-Tracking-Geräte, bzw. Geräte zur Blickaufzeichnung, erhältlich, die es Lähmungspatienten ermöglichen, über einen Bildschirm mit ihrer Umgebung zu kommunizieren und zu interagieren», so Roveda. «Diese Geräte werden jedoch von den Umgebungsbedingungen beeinflusst, z. B. von der schwachen Beleuchtung im Raum, und erfordern vom Patienten eine gute Kontrolle über den Nacken, um die Position zu halten und die Augen auf einen bestimmten Punkt auf dem Display zu richten, was nicht immer möglich ist, vor allem, wenn Müdigkeit dazu führt, dass man den Kopf auf dem Kissen zurücklegt. Daher haben wir uns überlegt, eine Schnittstelle zu entwickeln, die in jeder Situation eine grössere Autonomie ermöglicht».

Schau in die Galerie Schau in die Galerie Schau in die Galerie (3 foto)

Daher die Idee, die Augenbewegungen nicht von aussen mit einer Kamera zu beobachten, sondern direkt an der Quelle, indem man die Gehirnsignale aufzeichnet, die sie steuern. Dieser Durchbruch wurde durch ein am Polytechnikum Mailand entwickeltes Gerät ermöglicht, das in der Lage ist, spezifische Signale in der Elektroenzephalogramm-Spur zu erkennen.

Mit der Erfahrung aus jahrelanger Forschung am IDSIA entwickelten die Forscher zwei verschiedene Algorithmen, die in der Lage sind, drei absichtliche Augenbewegungssignale zu erkennen und zu isolieren: Blick nach rechts, Blick nach links und Blinzeln. Ein Algorithmus war für die Identifizierung der regelmässigen Signale zuständig, während der zweite Algorithmus für die Erkennung der schwächeren Signale trainiert wurde. Eine Methode mit zwei Schwellenwerten, die noch nie zuvor erprobt worden war.

Die beiden Algorithmen wurden nach ihrer Entwicklung offline trainiert, um Daten zu sammeln und die Impulserkennungsleistung zu verbessern. Anschliessend wurden sie in eine Online-Schnittstelle integriert, die eine Kommunikation in Echtzeit ermöglichte, so dass die Forscher einem Hilfsroboter befehlen konnten, einen Gegenstand vom Tisch zu nehmen.

«Im Moment kann der Roboter über die Schnittstelle ferngesteuert werden, so dass er sich bewegt, einen Gegenstand ergreift und ihn verschiebt, aber die Schnittstelle kann weiter optimiert werden, um andere Gehirnsignale des Patienten zu erkennen und weitere Aktionen auszuführen», versichert Roveda, der sich optimistisch gegenüber möglichen zukünftigen Anwendungen dieser Technologie zeigt. «Es gibt keine besonderen Hindernisse, um sie schnell am Patientenbett einzusetzen: Helme zur Aufnahme von Elektroenzephalogrammsignalen sind bereits auf dem Markt, ebenso wie Roboter», betont der Forscher.

In der Zwischenzeit arbeitet seine Forschungsgruppe LEON (LEarning for Optimisation and coNtrol) am IDSIA, die etwa fünfzehn “Gehirne” umfasst, bereits intensiv an der Anpassung der Schnittstelle für den industriellen Einsatz. «Unser Ziel ist es, die Signale des Gehirns zu nutzen, um den Roboter in die Lage zu versetzen, im Voraus zu erkennen, welche Handlungen der Mensch an seiner Seite ausführen wird, um ihn bei seinen Aufgaben zu unterstützen, ohne ihn zu behindern: Dies ist der Schlüssel zu einer effizienteren Zusammenarbeit zwischen Mensch und Maschine unter absolut sicheren Bedingungen», erklärt Roveda. Zu den künftigen Herausforderungen gehört sicherlich der Ersatz des Helms durch eine andere, komfortablere Lösung, die es dem menschlichen Bediener ermöglicht, sich freier und ohne besondere Beschwerden zu bewegen.

Das bedeutet nicht, dass der Helm sofort auf dem Dachboden landet, ganz im Gegenteil. «Wir untersuchen bereits eine Möglichkeit, ihn mit dem Rückenexoskelett zu verbinden, das wir entwickelt haben, um Menschen beim Heben und Tragen schwerer Lasten zu helfen, z. B. im Logistiksektor», fügt der Forscher hinzu. Diese Art von Hightech-Rüstung, die die Zahl der Arbeitsunfälle verringern soll, wurde in zwei Versionen entwickelt: einer aktiven, die durch Motoren bewegt wird, und einer passiven, die sich durch einen rein automatischen Mechanismus bewegt. «Derzeit basiert die Steuerung auf der Einschätzung der Interaktion zwischen Person und Exoskelett: Algorithmen des maschinellen Lernens werden eingesetzt, um die Steuerung zu optimieren, kurz gesagt, um die Zusammenarbeit so natürlich wie möglich zu gestalten. In Zukunft wird die Verbindung mit dem Elektroenzephalogramm-Helm die Möglichkeit bieten, die Bewegungsabsicht des Benutzers im Voraus vorherzusagen, wodurch die Zusammenarbeit noch intuitiver und unmittelbarer wird».