BCI – Mit Gedanken steuern

Brain-Computer-Interfaces (BCI) können Gedanken in Handlungen übersetzen. Die Welt mit Gedanken zu steuern, ist ein Menschheitstraum und eine reale Chance.

Ein Mädchen lacht in die Kamera. Sie trägt Elektroden am Kopf und beobachtet etwas außerhalb des Bildes Das Mädchen heißt Gisele Alnaser.
Toronto im Mai 2023: Die siebenjährige Gisele Alnaser benutzt ihr BCI, um Musik zu hören. © Getty Images
×

Auf den Punkt gebracht

  • Was ist ein BCI? Brain-Computer-Interfaces sind die Schnittstelle zwischen Hirnsignalen und einem Computer. BCI lesen Hirnwellen aus und übersetzen sie.
  • Was heißt das? Nichts weniger, als dass Geräte wie etwa ein Roboterarm oder ein Computer mit den Gedanken gesteuert werden können.
  • Wem nutzt das etwas? Hauptsächlich Menschen mit Behinderungen – die Hoffnung ist, dass etwa Patienten mit ihren Gedanken künstliche Gliedmaße steuern können.
  • Wohin geht die Reise? An der direkten Dekodierung von Sprache wird noch geforscht. Das würde es Locked-in-Patienten ermöglichen, zu kommunizieren.

Haushaltsgeräte, Roboter, Avatare oder Flugzeuge mit Gedanken steuern? Diese Idee inspiriert seit vielen Jahrzehnten die Menschen. Funktioniert das wirklich? Kann man tatsächlich Gedanken lesen, und was ist ein Brain-Computer Interface (BCI)?

Mehr über Gedanken

Alle diese Fragen hat es 1998 noch nicht so gegeben, nur die Frage eines damaligen Assistenten an der TU Graz an mich, ob ich nicht gerne eine Projektarbeit machen möchte, bei der man mit Denken einen Roboterarm steuert. Das war genau nach meinem Geschmack. Seither ist viel Zeit vergangen, das Feld ist aus den Kinderjahren in das junge Erwachsenenalter gekommen. Viele Methoden wurden erfunden und evaluiert, und mehr denn je erkennt man, was noch fehlt, um ein BCI in den täglichen Einsatz zu bringen.

Vom Gedanken zur Handlung

Doch was ist überhaupt ein BCI? Es ist ein System, das bestimmte Gehirnsignale mit Hilfe von Mustererkennungsmethoden einem Kommando zuweist. Die Person, deren Gehirnsignale gemessen werden, muss ihre Gehirnaktivität bewusst verändern. Allerdings darf sie das nicht durch irgendeine Muskelaktivität, also eine Bewegung eines Körperteils, machen, sondern nur durch das Denken von bestimmten „Gedanken“. Vom System erhält die Anwenderin oder der Anwender direktes Feedback über das Ergebnis.

Auch nur das Bewegen-Wollen, zum Beispiel einer gelähmten Hand, kann zu messbaren Veränderungen der Gehirnströme führen.

Eine sehr populäre Möglichkeit, Gehirnsignale zu messen, ist die Elektroenzephalographie, kurz EEG. Dabei werden Elektroden mittels einer Haube an bestimmten Stellen am Kopf angebracht und mit einem Verstärker verbunden – schon können die Millionstel-Volt kleinen Spannungen gemessen werden. Um erkennbare EEG-Muster zu erzeugen, müssen BCI-Nutzerinnen und Nutzer bestimmte kognitive Aktivitäten ausführen oder unterschiedliche mentale Zustände herbeiführen.

Durch die gedankliche Beschäftigung mit einer Aufgabe kann man bewusst Hirnsignale und damit die EEG-Muster verändern. Zum Beispiel führt die Vorstellung von Gliedmaßenbewegungen zu Veränderungen von EEG-Oszillationen. Auch nur das Bewegen-Wollen, zum Beispiel einer gelähmten Hand, kann zu diesen messbaren Veränderungen führen. Mit Hilfe von Algorithmen für maschinelles Lernen und Mustererkennung wandelt man diese Veränderungen dann in Steuersignale um.

Werden Gedanken gelesen?

Die ursprüngliche Anwendung von BCIs war die Wiederherstellung von Kommunikation bei Menschen, die diese Fähigkeit aufgrund von schwerer Erkrankung verloren haben; zum Beispiel durch neurodegenerative Erkrankungen wie Amyotrophische Lateralsklerose oder nach einem schweren Schlaganfall im Hirnstamm (dies führt zu einem Locked-in-Zustand).

Foto des Bildschirms von Stephen Hawking über die Schulter des Physikers hinweg. Man sieht einen Teil der Brille und auf dem Bildschirm Zeichenreihen in gelb.
Der Physiker Stephen Hawking bei einer Konferenz in Kapstadt 2008. Ein Versuch mit BCI schlug bei Hawking fehl, der viele Jahrzehnte mit Hilfe eines Computers forschte und kommunizierte. Kurz vor seinem Tod 2018 versuchten Sprachwissenschaftler die Hardware seiner Stimme zu bewahren, da die Hardware zu versagen drohte. © Getty Images

Verschiedene BCI-Typen wurden in den vergangenen zwanzig Jahren entwickelt, um den Betroffenen zu helfen, zumindest einzelne Buchstaben hintereinander auszuwählen und dadurch zu kommunizieren. Eine mühsame Sache, die grundsätzlich aber funktioniert.

Hier wurde vor allem das sogenannte Odd-Ball-Paradigma eingesetzt. Dabei werden in einer Matrix von Buchstaben die Zeilen und Spalten in zufälliger Abfolge beleuchtet, und immer wenn der Buchstabe dabei ist, den eine Userin oder ein User auswählen möchte, dann zählt diese oder dieser im Kopf mit. Dieses Mitzählen führt dazu, dass die durch das schnelle Aufblitzen erzeugten Hirnsignale verändert werden. Mithilfe von Mustererkennungsmethoden kann nun herausgefunden werden, bei welchem Buchstaben die Nutzerinnen und Nutzer mitgezählt – und somit ausgewählt haben.

Ein direktes Auslesen von Sprache ist es nicht.

Eine sehr robuste Sache, die aber auch lange dauert. Man kann hier realistischerweise zwei Buchstaben pro Minute auswählen. Viele Forschungsgruppen haben diese Art der BCI-Kommunikation in vielen Varianten erstellt und auch mit verschiedenen Anwendergruppen getestet. Ein direktes Auslesen von Sprache ist es aber nicht.

Allerdings kann man nicht nur Buchstaben auswählen, sondern jedes Symbol oder jeden Computerbefehl. Während beispielsweise die Arbeitsgruppe um Prof. Andrea Kübler an der Universität Würzburg ein BrainPainting System entwickelte, mit dem wunderbare Bilder erstellt wurden, hat unser Grazer BCI-Lab ein System entwickelt, mit dem man Musik komponieren kann.

Die „Unterbrechung“ im Rückenmark umgehen

An der TU Graz beschäftigen wir uns schon sehr lange mit dem sensomotorischen System. Die Problemstellung: Menschen mit hoher Querschnittlähmung können ihre Arme und Hände nicht verwenden, weil auf Grund der Rückenmarksverletzung der Befehl zur Bewegung nicht mehr vom Gehirn in die Arme und Hände geleitet wird. In den vergangenen mehr als zwanzig Jahren haben wir verschiedene Ansätze erforscht, die, aufeinander aufbauend, diverse neue Erkenntnisse zu diesem Thema gebracht haben.

Unser Ziel: Wir wollen die „Unterbrechung“ im Rückenmark umgehen und die Intention der Bewegung direkt in eine Bewegung zum Beispiel einer Neuroprothese oder eines robotischen Armes umsetzen. Dazu leiten wir die Ansteuerung des Greifens und von Armbewegungen direkt aus dem EEG ab.

Zu Beginn war nicht klar, ob eine motorische Neuroprothese, basierend auf funktioneller Elektrostimulation, und ein Brain-Computer Interface gleichzeitig an einer Versuchsperson verwendet werden können. Das konnten wir inzwischen beweisen und arbeiten nun an der Verbesserung der Zuverlässigkeit und Geschwindigkeit.

Willst du deine rechte Hand öffnen?

Im Laufe der Jahre lernten wir viel dazu: Anfangs arbeiteten wir mit Bewegungsvorstellungen von Gliedmaßen – und zwar jenen, die wir am besten mit dem BCI erkennen können (zum Beispiel Auf-und-Ab-Bewegungen des Fußes), und nicht unbedingt jenen, die wir steuern wollen.

Dann fanden wir in unserem von der EU geförderten Projekt „MoreGrasp“ heraus, dass es auch mit einem einmaligen tatsächlichen Versuch einer Bewegung, zum Beispiel die rechte Hand zu öffnen, funktioniert. Man kann tatsächlich Signalunterschiede zwischen verschiedenen einzelnen Bewegungen (also „Hand auf“ versus „Hand drehen“) und auch Griffen (also Zylindergriff versus Pinzettengriff) zur Bewegungserkennung heranziehen.

Dies hat den Vorteil, dass die Steuerung für Betroffene intuitiver und natürlicher wird. „Willst Du Deine gelähmte rechte Hand öffnen? Dann versuche es zu tun.“ In den Hirnsignalen kann man das erkennen. Das funktioniert im Labor und unter perfekten Rahmenbedingungen bereits gut, muss aber noch verbessert werden, um als Hilfe für Personen mit Querschnittlähmung zum Einsatz zu kommen.

In einem weiteren Projekt, gefördert vom Europäischen Forschungsrat ERC, haben wir untersucht, ob es möglich ist, aus nichtinvasiven, also auf der Kopfhaut gemessenen Gehirnsignalen gesamte Armbewegungen zu entschlüsseln und zur Steuerung eines robotischen Armes zu verwenden.

Dafür wurden die Schritte einer Bewegung – zum Beispiel das Ergreifen eines Gegenstandes auf dem Tisch – in einzelne Phasen zerlegt und untersucht: Plan und Start der Bewegung, Ausführen der Armbewegung, Greifen, parallel dazu Fehler vermeiden und Feedback geben. Begonnen wird hier mit zielgerichteter Bewegungsplanung und der Erkennung des Bewegungsbeginns in einem asynchronen Klassifikationsszenario.

Fehler sind wichtig

Darauf folgt unser Ansatz zur Dekodierung der Bewegungsbahn des Armes aus dem EEG, wobei Studienteilnehmerinnen und -teilnehmer entweder einen Punkt auf einem Bildschirm oder einen Roboterarm steuern. Während das Greifen ein logisches Ende einer zielgerichteten Armbewegung ist, haben wir in diesem Projekt untersucht, wie eine große Vielfalt von Griffen in neuronalen Mustern dargestellt wird. Ein weiterer wichtiger Punkt: BCIs gehen immer mit falschen Erkennungen und Fehlklassifizierungen einher.

×

Zahlen & Fakten

Filmstill aus dem Film Minority Report. Tom Cruise rennt in Richtung Kamera, im Hintergrund eine Straßenszene bei Nacht. Das Bild illustriert einen Beitrag, in dem es unter anderem um die Möglichkeit geht, Gedanken zu lesen.
Wenn die Gedanken nicht frei sind, ist es der Körper auch nicht: Tom Cruise in Minority Report 2002. © Getty Images

Können wir bald Gedankenlesen?

  • Brain-Computer-Interfaces sind letzten Endes nichts anderes als eine Form des Gedankenlesens: Ein Patient denkt etwas, wie zum Beispiel: „Ich möchte meinen Arm bewegen“. Das BCI lernt, wie dieser Bewegungswunsch aussieht und lernt, diesen zu erkennen.
  • Der nächste Schritt: Das BCI erkennt von allein, was eine Person denkt. „Viele Neurowissenschaftler in diesem Bereich sind sehr vorsichtig und sagen, dass wir nicht davon sprechen können, die Gedanken von Menschen zu lesen. Im Moment stimmt das auch, aber wir machen so schnelle Fortschritte, dass es nicht mehr lange dauern wird, bis wir mit einem gewissen Grad an Sicherheit sagen können, ob sich jemand eine Geschichte ausgedacht hat oder ob jemand ein Verbrechen begehen wollte“, sagte die Neurowissenschaftlerin Barbara Sahakian bereits 2007.
  • 2015 gelang es einem japanischen Wissenschaftler, bei einem Schere-Stein-Papier-Spiel die Antwort des Probanden bereits auszulesen, bevor dieser seine Hand bewegte.
  • Im Sommer 2022 erreichten Wissenschaftler aus den Niederlanden etwas erstaunliches: Sie zeigten einer Person ein Foto eines Gesichtes und eine künstliche Intelligenz konnte dieses Gesicht anhand der Gehirnwellen dieser Person nahezu identisch rekonstruieren.
  • Die niederländischen Wissenschaftler glauben, dass die KI demnächst so weit sein wird, Gesichter auch dann zu erkennen, wenn eine Person nur an dieses Gesicht denkt.
  • Mark Zuckerbergs Meta arbeitet an einer Technologie, die Gedanken automatisch in Sprache übersetzen kann.
  • Bei all diesen Studien wird betont, dass sie dazu dienen sollen, Patienten zu helfen, die nicht mehr selbst kommunizieren können. Dass sich diese Technologien nicht darauf beschränken würden, zeigte die chinesische Regierung: Sie entwickelte eine KI, die angeblich anhand der Gehirnwellen messen kann, wie aufmerksam Parteimitglieder sind, wenn sie politische Fortbildung im Sinne der Partei erhalten. 

Daher untersuchten wir die neuronalen Korrelate von Fehlern, zum Beispiel bei der Steuerung eines Roboterarms, und nutzten die Erkennung so genannter Fehlerpotentiale zur Korrektur falscher Bewegungen. Ein wesentliches Ziel des Projekts war es, zusätzlich zum visuellen Feedback auch kinästhetisches Feedback einzubeziehen – also ein künstliches sensorisches Feedback der Armbewegung, um die Dekodierung der Bewegungsbahnen zu verbessern.

Alle diese Erkenntnisse führen wir nun Schritt für Schritt zusammen, um ein Gesamtsystem zu erstellen und so eine Steuerung eines künstlichen Armes zu ermöglichen. Einzelne Komponenten des Systems konnten wir bereits mit der Zielgruppe von Personen mit sehr hoher Querschnittlähmung testen, bei anderen sind wir noch nicht soweit.

BCI: Wohin geht die Reise?

Zusammengefasst gibt es sehr viele Ansätze, die in unterschiedlichen Stadien der Entwicklung und Erprobung sind und mit den Zielgruppen getestet werden. Eine Anwendung von BCIs zur Kommunikation beziehungsweise zur Steuerung von Neuroprothesen bei Endnutzerinnen und -nutzern ist derzeit ohne Forschungkontext noch nicht möglich. Da fehlt es einfach am nötigen Geld, um die final notwendigen Schritte zu machen.

Die nächsten vier Jahre werden sehr spannend.

Doch wohin geht die Reise? Gehirnsignale können auch invasiv gemessen werden. Das heißt, entweder werden Elektroden, wie ganz feine Nadeln, in die Gehirnrinde eingebracht, um direkt Neuronenaktivität zu messen, oder es werden Elektroden (kleine Scheiben auf einer Matte) auf das Gehirn aufgelegt um Gehirnaktivität – ähnlich zum EEG, nur mit besserer Auflösung – zu messen. Im ersteren Falle haben Kolleginnen und Kollegen an der US-amerikanischen University of Pittsburgh sehr schön gezeigt, dass sie damit robotische Arme mit vielen Freiheitsgraden steuern können , im zweiten Fall konnten Kolleginnen und Kollegen in Utrecht eine sehr einfache Kommunikation (Buchstaben auswählen) erstellen, die auch zu Hause funktioniert.

Ein BCI für zuhause

Genau hier beginnt auch eine neue Ära in Graz. Gemeinsam mit University Medical Center Utrecht, dem Wyss Center in Genf und der Firma CorTec in Freiburg beginnen wir im Dezember 2022 ein neues Projekt das vom European Innovation Council gefördert wird. Das Ziel: Bei Personen in einem Locked-In-Zustand soll Sprache direkt erkannt und dargestellt werden. Dabei werden Elektroden auf die Gehirnoberfläche gebracht und ein drahtloser Verstärker implantiert. Mit modernsten Machine- Learning-Methoden soll die Sprachdekodierung erfolgen und den Endnutzerinnen und -nutzern das Benutzen dieser BCI-Technologie auch zu Hause wieder mehr Lebensqualität bringen. Die nächsten vier Jahre werden sehr spannend.

×

Conclusio

Es klingt futuristisch, aber bereits seit den 1990ern wird erfolgreich daran geforscht, Geräte mit Gedanken zu steuern. Das soll vor allem Menschen mit Behinderungen helfen, die Prothesen steuern werden können, indem sie an eine Bewegung nur denken.

Mehr zum Thema

Unser Newsletter