Interview: Wenn Geist und Maschine verschmelzen
Allein mittels Gedanken einen Computer oder sogar eine Prothese zu steuern klingt nach Science Fiction – doch moderne Neurotechnologie macht das bereits möglich. Verfolgt werden entsprechende Ansätze vom "Nationalen Bernstein Netzwerk Computational Neuroscience", einer im Jahr 2004 ins Leben gerufenen Förderinitiative des Bundesforschungsministeriums. Jüngst nun flossen knapp sechs Millionen Euro in ein Projekt namens "Nichtinvasive Neurotechnologie für Mensch-Maschine-Interaktion". Im Interview spricht der Neurologe Gabriel Curio von der Charité Berlin über die Grundlagen dieser Forschung, ihre Chancen und Gefahren
Herr Curio, Ihre Arbeitsgruppe gehört dem "Nationalen Bernstein Netzwerk" an. Sie entwickeln Schnittstellen zwischen Gehirn und Computer?
Richtig, im Berliner "Bernstein: Fokus Neurotechnologie" arbeiten Mediziner, Neurobiologen, Physiker und Computerspezialisten gemeinsam daran, dass der Mensch allein mit seinen Gedanken einen Computer steuern oder eine Prothese bewegen kann. Das Brain-Computer Interface BCI nutzt dabei die Tatsache, dass alle Hirnaktivitäten schwache Spannungsschwankungen auf der Kopfhaut hervorrufen. Diese Hirnsignale können wir mit einem Elektroenzephalografen, einem EEG, messen. Dazu setzen wir dem Probanden eine Haube mit bis zu 128 Elektroden auf, die auf der Kopfhaut verteilt werden. Weil wir die Elektroden nicht in das Gehirn selbst einführen, sind unsere Signale zwar nicht so spezifisch wie sie es sein könnten, dafür aber ist dieses nichtinvasive Verfahren risikolos für den Patienten.
Wie gut versteht das EEG meine Gedanken?
Mit einem EEG kann man nur Signale von ganzen Hirnarealen unterscheiden, nicht etwa von einzelnen Nervenzellen. Wir sehen also nur die Integration, die Summe über Hunderttausende von Neuronen. Das sind keine Gedanken, sondern allenfalls Tendenzen. Ich persönlich denke ohnehin nicht, dass es das berühmte "Großmutterneuron" gibt.
Das Großmutterneuron?
Nun, es tauchte lange Jahre in der öffentlichen Diskussion immer wieder die Vermutung auf, dass einzelne Bilder, Erinnerungen oder Gedanken mit einzelnen Neuronen im Gehirn verbunden seien – dass es also beispielsweise ein spezifisches Neuron gibt, das nur aktiviert wird, wenn ich an meine Großmutter denke. Im Gegensatz dazu geht man heute davon aus, dass jeder Gedanke eine komplexe Interaktion Tausender von Zellen in verschiedenen Hirnbereichen erfordert.
Aber dennoch zeigen sich eindeutige Muster im Gehirn, wenn wir eine bestimmte Absicht haben?
Ja, aber nur mit begrenzter Genauigkeit: Wenn ein Proband beispielsweise an eine Bewegung der linken oder rechten Hand denkt, dann führt dies zu hinreichend eindeutigen und voneinander verschiedenen EEG-Mustern. Was genau er mit der Hand beabsichtigt, etwa die Finger zu beugen oder zu strecken, lässt sich im Oberflächen-EEG jedoch nicht ablesen.
Aber schon mit einer rechts-links-Unterscheidung kann man schrittweise einen ganzen Text zusammenbauen. Gemeinsam mit der Arbeitsgruppe "Intelligente Datenanalyse" von Klaus-Robert Müller von der TU Berlin und unserer Arbeitsgruppe "Neurophysik" an der Neurologischen Klinik der Charité haben wir ein Programm entwickelt, bei dem man sich allein durch "links"- und "rechts"-Denken an einem Entscheidungsbaum entlanghangelt und Buchstaben auswählt. Durch diese Gedankensteuerung können Sie mit unserem System binnen zwei Minuten einen kompletten Satz zusammenstellen – was wir übrigens auch live auf der CeBit vorgeführt haben.
Und per Gedanken kann man auch Prothesen bewegen?
Das ist richtig, bei uns war das zunächst einmal ein virtueller Arm auf einem Bildschirm, aber mit einer realen Prothese kann es analog funktionieren. Unser "Arm" besaß zwei "Freiheitsgrade": Per Gedanken konnte eine "Hand auf-Hand zu"-Greifbewegung und alternativ eine "hoch-runter"–Stützbewegung angesteuert werden. Vom Prinzip her sind zumindest solche rechts-links-Unterscheidungen heutzutage Routine, das machen inzwischen Dutzende von Laboren weltweit.
Die Berliner Forschungsgruppierung war aber seit dem Jahr 2000 an einer wesentlichen Verbesserung des Systems beteiligt: Im Berliner BCI konnte die Trainingsdauer, die ein Nutzer für den Umgang mit einer BCI-Anwendung benötigte, von mehreren Monaten auf zwanzig Minuten verkürzt werden. Bei uns lernt nicht mehr der Mensch, sondern die Maschine. Und das geht schneller.
Und wie trainieren Sie den Computer?
Innerhalb von zwanzig Minuten nehmen wir etwa hundert bis zweihundert EEG-Muster von einem Probanden auf, der entweder an eine Handbewegung "rechts" oder "links" denkt. Die Muster aus dieser Kalibrierungsphase spielen wir in den Computer ein, in dem ein mathematischer Algorithmus der Kollegen von der TU Berlin einen Filter formt, der die korrespondierenden Signale aus dem EEG herausfiltern kann. Dieser Filter hift dem Computer in den Hirnsignalen zu erkennen, wann der Mensch seinen Arm wie bewegen möchte. Nach wenigen Minuten schon können unsere Probanden recht gut einen Maus-Cursor steuern.
Kommt es nicht vor, dass sich die EEG-Muster verändern?
Hier sprechen Sie einen spannenden Punkt an, denn das kommt tatsächlich vor. Das Gehirn lernt, es macht Erfahrung mit der Schnittstelle zum Computer. Wenn ich als Nutzer beispielsweise bemerke, dass die Prothese nicht hundertprozentig funktioniert, wende ich mehr mentale Anstrengung auf – die von spezifischen Hirnsignalen begleitet wird. Dies sind aber nicht mehr dieselben wie die, die der Computer aus der Kalibrierungsphase kennt, so dass eine Prothesensteuerung eher schlechter funktioniert als zuvor. Das Besondere bei den Berliner Algorithmen ist nun, dass sie adaptiv sind, das heißt, sie lernen mit ... somit passt sich die Schnittstelle wieder dem Gehirn an. Sie sehen, beide Systeme, Mensch und Maschine, beeinflussen sich gegenseitig. Das birgt übrigens das Problem von Instabilitäten, denn wir haben wir es mit zwei gekoppelten lernfähigen Systemen zu tun. Das ist heute eine ganz eigene Forschungsrichtung, an der aktuell unsere Kollegen Klaus-Robert Müller und Benjamin Blankertz an der TU Berlin arbeiten.
Woran forschen Sie momentan?
Wir arbeiten unter anderem an einem Verbundprojekt mit der Industrie, in dem es darum geht, LKW- oder Busfahrer auf Langstrecken zu schützen und rechtzeitig zu warnen, wenn sie müde werden oder ihre Aufmerksamkeit sinkt. Es gibt jetzt schon Vigilanzwarnsysteme, aber die beobachten die Augen des Fahrers – und wenn die zufallen, ist es möglicherweise schon zu spät. Für das Projekt bin ich selbst einmal eine Langstrecke gefahren und hatte während der Fahrt eine EEG-Haube mit 128 Kanälen auf, die überprüfte, wie sich meine Aufmerksamkeit im Gehirn abzeichnete. Unser Ziel ist, den Fahrer frühzeitig durch akustische Reize zu warnen – und nicht erst in letzter Sekunde.
Kommt die Verbindung von Geist und Computer auch klinisch zum Einsatz?
Natürlich, und für mich als Neurologen besonders wichtig ist dabei die Perspektive für Patienten mit "Locked-In-Syndrom". Diese Menschen sind bei Bewusstsein, können sich aber zum Beispiel wegen eines Schlaganfalls im Hirnstamm, tief unter der eigentlich intakten Hirnrinde, nicht mehr bewegen. Ihnen wollen wir mit unseren BCIs verlorene Freiheitsgrade, etwa bei der Steuerung von Geräten, wieder zugänglich machen. Ob man dies nichtinvasiv oder invasiv löst, hängt von der Risiko-Nutzen-Abwägung des einzelnen Patienten ab. Invasive Methoden gehen zwar potentiell mit mehr Nebenwirkungen einher, können aber auch eine präzisere, dreidimensionale Prothesensteuerung ermöglichen.
Müssen wir uns in Zukunft auch vor Lauschangriffen auf unser Gehirn fürchten?
Unsere Forschungsgruppe macht keine Lauschangriffe. Letzten Endes wäre gerade das EEG dafür auch nur bedingt geeignet. Es löst nur große Areale auf und erhält elektrische Signale nur aus oberen Hirnschichten. Ein Magnetresonanztomograf kann viel tiefer ins Gehirn blicken. In den USA verfolgen einige Firmen damit durchaus kommerzielle Ansätze, in denen beispielsweise Lügendetektoren auf MRT-Basis auch vor Gericht verwendet werden sollen.
Kann man denn per MRT sehen, wenn jemand lügt?
Man kann das "Lügen" als einen Prozess interpretieren, bei dem sich das Gehirn mehr anstrengen muss, als wenn es die Wahrheit sagt. Diese Mehranstrengung rekrutiert mehr Hirnareale, und das lässt sich mit einem MRT bis auf Millimeter genau beobachten. Psychologische Abwehrstrategien können die Messung jedoch verfälschen. Wer beispielsweise eine Wahrheit umständlich erzählt, aktiviert mehr Hirnareale und verdeckt somit den Unterschied zum Lügen und damit den relevanten Kontrast. Effektive Lügendetektoren müssten also "countermeasure resistant" sein und den Unterschied zwischen Wahrheit und Lüge trotz Gegenmaßnahmen erfassen.
Elektroenzephalogramme sind zeitlich gut auflösbar, während andere Verfahren eine bessere räumliche Hirnauflösung versprechen. Was wird sich langfristig durchsetzen?
Eine mögliche Zukunft liegt in der Kombination verschiedener Techniken. Wir hier in Berlin verwenden beispielsweise nicht nur EEG-Daten, sondern auch MRTs und die Nahinfrarotspektroskopie, die in Zusammenarbeit mit der Physikalisch-Technischen Bundesanstalt weiter entwickelt werden. Jede Technik überdeckt einen spezifischen Anwendungsbereich und macht bestimmte biologische Phänomene sichtbar. Die Nahinfrarotspektroskopie beispielsweise zeigt langsame lokale Durchblutungsänderungen in oberen Hirnrindenschichten an. Damit können wir langsam veränderliche Prozesse wie Änderungen in der Aufmerksamkeit genauer beobachten.
Das neue Projekt "Bernstein: Fokus Neurotechnologie" reicht über Berlin hinaus. Was machen Ihre Kollegen?
Die Gruppe aus Frankfurt befasst sich mit einer neuen Generation von künstlichen Sehsystemen, bei dem Christoph von der Malsburg, Jochen Triesch und ihre Kollegen biologische Konzepte integrieren. In Freiburg-Tübingen arbeiten Ulrich Egert und Kollegen an einem Projekt, das sich "Hybrid Brain" nennt – ein Brain-Computer Interface auf Basis invasiver Methoden. In Göttingen schließlich baut Florentin Wörgötter mit seinem Team neurobionische Kontrollsysteme, die unter anderem die Rehabilitation sensomotorischer Defizite vorantreiben sollen, auch in Zusammenarbeit mit Otto Bock Health Care, dem weltweit führenden Spezialisten auf dem Gebiet der Orthopädie und Prothetik.
Herr Curio, vielen Dank für das Gespräch.
Das Interview führte Vera Spillner.
Herr Curio, Ihre Arbeitsgruppe gehört dem "Nationalen Bernstein Netzwerk" an. Sie entwickeln Schnittstellen zwischen Gehirn und Computer?
Richtig, im Berliner "Bernstein: Fokus Neurotechnologie" arbeiten Mediziner, Neurobiologen, Physiker und Computerspezialisten gemeinsam daran, dass der Mensch allein mit seinen Gedanken einen Computer steuern oder eine Prothese bewegen kann. Das Brain-Computer Interface BCI nutzt dabei die Tatsache, dass alle Hirnaktivitäten schwache Spannungsschwankungen auf der Kopfhaut hervorrufen. Diese Hirnsignale können wir mit einem Elektroenzephalografen, einem EEG, messen. Dazu setzen wir dem Probanden eine Haube mit bis zu 128 Elektroden auf, die auf der Kopfhaut verteilt werden. Weil wir die Elektroden nicht in das Gehirn selbst einführen, sind unsere Signale zwar nicht so spezifisch wie sie es sein könnten, dafür aber ist dieses nichtinvasive Verfahren risikolos für den Patienten.
Wie gut versteht das EEG meine Gedanken?
Mit einem EEG kann man nur Signale von ganzen Hirnarealen unterscheiden, nicht etwa von einzelnen Nervenzellen. Wir sehen also nur die Integration, die Summe über Hunderttausende von Neuronen. Das sind keine Gedanken, sondern allenfalls Tendenzen. Ich persönlich denke ohnehin nicht, dass es das berühmte "Großmutterneuron" gibt.
Das Großmutterneuron?
Nun, es tauchte lange Jahre in der öffentlichen Diskussion immer wieder die Vermutung auf, dass einzelne Bilder, Erinnerungen oder Gedanken mit einzelnen Neuronen im Gehirn verbunden seien – dass es also beispielsweise ein spezifisches Neuron gibt, das nur aktiviert wird, wenn ich an meine Großmutter denke. Im Gegensatz dazu geht man heute davon aus, dass jeder Gedanke eine komplexe Interaktion Tausender von Zellen in verschiedenen Hirnbereichen erfordert.
Aber dennoch zeigen sich eindeutige Muster im Gehirn, wenn wir eine bestimmte Absicht haben?
Ja, aber nur mit begrenzter Genauigkeit: Wenn ein Proband beispielsweise an eine Bewegung der linken oder rechten Hand denkt, dann führt dies zu hinreichend eindeutigen und voneinander verschiedenen EEG-Mustern. Was genau er mit der Hand beabsichtigt, etwa die Finger zu beugen oder zu strecken, lässt sich im Oberflächen-EEG jedoch nicht ablesen.
Aber schon mit einer rechts-links-Unterscheidung kann man schrittweise einen ganzen Text zusammenbauen. Gemeinsam mit der Arbeitsgruppe "Intelligente Datenanalyse" von Klaus-Robert Müller von der TU Berlin und unserer Arbeitsgruppe "Neurophysik" an der Neurologischen Klinik der Charité haben wir ein Programm entwickelt, bei dem man sich allein durch "links"- und "rechts"-Denken an einem Entscheidungsbaum entlanghangelt und Buchstaben auswählt. Durch diese Gedankensteuerung können Sie mit unserem System binnen zwei Minuten einen kompletten Satz zusammenstellen – was wir übrigens auch live auf der CeBit vorgeführt haben.
Und per Gedanken kann man auch Prothesen bewegen?
Das ist richtig, bei uns war das zunächst einmal ein virtueller Arm auf einem Bildschirm, aber mit einer realen Prothese kann es analog funktionieren. Unser "Arm" besaß zwei "Freiheitsgrade": Per Gedanken konnte eine "Hand auf-Hand zu"-Greifbewegung und alternativ eine "hoch-runter"–Stützbewegung angesteuert werden. Vom Prinzip her sind zumindest solche rechts-links-Unterscheidungen heutzutage Routine, das machen inzwischen Dutzende von Laboren weltweit.
Die Berliner Forschungsgruppierung war aber seit dem Jahr 2000 an einer wesentlichen Verbesserung des Systems beteiligt: Im Berliner BCI konnte die Trainingsdauer, die ein Nutzer für den Umgang mit einer BCI-Anwendung benötigte, von mehreren Monaten auf zwanzig Minuten verkürzt werden. Bei uns lernt nicht mehr der Mensch, sondern die Maschine. Und das geht schneller.
Und wie trainieren Sie den Computer?
Innerhalb von zwanzig Minuten nehmen wir etwa hundert bis zweihundert EEG-Muster von einem Probanden auf, der entweder an eine Handbewegung "rechts" oder "links" denkt. Die Muster aus dieser Kalibrierungsphase spielen wir in den Computer ein, in dem ein mathematischer Algorithmus der Kollegen von der TU Berlin einen Filter formt, der die korrespondierenden Signale aus dem EEG herausfiltern kann. Dieser Filter hift dem Computer in den Hirnsignalen zu erkennen, wann der Mensch seinen Arm wie bewegen möchte. Nach wenigen Minuten schon können unsere Probanden recht gut einen Maus-Cursor steuern.
Kommt es nicht vor, dass sich die EEG-Muster verändern?
Hier sprechen Sie einen spannenden Punkt an, denn das kommt tatsächlich vor. Das Gehirn lernt, es macht Erfahrung mit der Schnittstelle zum Computer. Wenn ich als Nutzer beispielsweise bemerke, dass die Prothese nicht hundertprozentig funktioniert, wende ich mehr mentale Anstrengung auf – die von spezifischen Hirnsignalen begleitet wird. Dies sind aber nicht mehr dieselben wie die, die der Computer aus der Kalibrierungsphase kennt, so dass eine Prothesensteuerung eher schlechter funktioniert als zuvor. Das Besondere bei den Berliner Algorithmen ist nun, dass sie adaptiv sind, das heißt, sie lernen mit ... somit passt sich die Schnittstelle wieder dem Gehirn an. Sie sehen, beide Systeme, Mensch und Maschine, beeinflussen sich gegenseitig. Das birgt übrigens das Problem von Instabilitäten, denn wir haben wir es mit zwei gekoppelten lernfähigen Systemen zu tun. Das ist heute eine ganz eigene Forschungsrichtung, an der aktuell unsere Kollegen Klaus-Robert Müller und Benjamin Blankertz an der TU Berlin arbeiten.
Woran forschen Sie momentan?
Wir arbeiten unter anderem an einem Verbundprojekt mit der Industrie, in dem es darum geht, LKW- oder Busfahrer auf Langstrecken zu schützen und rechtzeitig zu warnen, wenn sie müde werden oder ihre Aufmerksamkeit sinkt. Es gibt jetzt schon Vigilanzwarnsysteme, aber die beobachten die Augen des Fahrers – und wenn die zufallen, ist es möglicherweise schon zu spät. Für das Projekt bin ich selbst einmal eine Langstrecke gefahren und hatte während der Fahrt eine EEG-Haube mit 128 Kanälen auf, die überprüfte, wie sich meine Aufmerksamkeit im Gehirn abzeichnete. Unser Ziel ist, den Fahrer frühzeitig durch akustische Reize zu warnen – und nicht erst in letzter Sekunde.
Kommt die Verbindung von Geist und Computer auch klinisch zum Einsatz?
Natürlich, und für mich als Neurologen besonders wichtig ist dabei die Perspektive für Patienten mit "Locked-In-Syndrom". Diese Menschen sind bei Bewusstsein, können sich aber zum Beispiel wegen eines Schlaganfalls im Hirnstamm, tief unter der eigentlich intakten Hirnrinde, nicht mehr bewegen. Ihnen wollen wir mit unseren BCIs verlorene Freiheitsgrade, etwa bei der Steuerung von Geräten, wieder zugänglich machen. Ob man dies nichtinvasiv oder invasiv löst, hängt von der Risiko-Nutzen-Abwägung des einzelnen Patienten ab. Invasive Methoden gehen zwar potentiell mit mehr Nebenwirkungen einher, können aber auch eine präzisere, dreidimensionale Prothesensteuerung ermöglichen.
Müssen wir uns in Zukunft auch vor Lauschangriffen auf unser Gehirn fürchten?
Unsere Forschungsgruppe macht keine Lauschangriffe. Letzten Endes wäre gerade das EEG dafür auch nur bedingt geeignet. Es löst nur große Areale auf und erhält elektrische Signale nur aus oberen Hirnschichten. Ein Magnetresonanztomograf kann viel tiefer ins Gehirn blicken. In den USA verfolgen einige Firmen damit durchaus kommerzielle Ansätze, in denen beispielsweise Lügendetektoren auf MRT-Basis auch vor Gericht verwendet werden sollen.
Kann man denn per MRT sehen, wenn jemand lügt?
Man kann das "Lügen" als einen Prozess interpretieren, bei dem sich das Gehirn mehr anstrengen muss, als wenn es die Wahrheit sagt. Diese Mehranstrengung rekrutiert mehr Hirnareale, und das lässt sich mit einem MRT bis auf Millimeter genau beobachten. Psychologische Abwehrstrategien können die Messung jedoch verfälschen. Wer beispielsweise eine Wahrheit umständlich erzählt, aktiviert mehr Hirnareale und verdeckt somit den Unterschied zum Lügen und damit den relevanten Kontrast. Effektive Lügendetektoren müssten also "countermeasure resistant" sein und den Unterschied zwischen Wahrheit und Lüge trotz Gegenmaßnahmen erfassen.
Elektroenzephalogramme sind zeitlich gut auflösbar, während andere Verfahren eine bessere räumliche Hirnauflösung versprechen. Was wird sich langfristig durchsetzen?
Eine mögliche Zukunft liegt in der Kombination verschiedener Techniken. Wir hier in Berlin verwenden beispielsweise nicht nur EEG-Daten, sondern auch MRTs und die Nahinfrarotspektroskopie, die in Zusammenarbeit mit der Physikalisch-Technischen Bundesanstalt weiter entwickelt werden. Jede Technik überdeckt einen spezifischen Anwendungsbereich und macht bestimmte biologische Phänomene sichtbar. Die Nahinfrarotspektroskopie beispielsweise zeigt langsame lokale Durchblutungsänderungen in oberen Hirnrindenschichten an. Damit können wir langsam veränderliche Prozesse wie Änderungen in der Aufmerksamkeit genauer beobachten.
Das neue Projekt "Bernstein: Fokus Neurotechnologie" reicht über Berlin hinaus. Was machen Ihre Kollegen?
Die Gruppe aus Frankfurt befasst sich mit einer neuen Generation von künstlichen Sehsystemen, bei dem Christoph von der Malsburg, Jochen Triesch und ihre Kollegen biologische Konzepte integrieren. In Freiburg-Tübingen arbeiten Ulrich Egert und Kollegen an einem Projekt, das sich "Hybrid Brain" nennt – ein Brain-Computer Interface auf Basis invasiver Methoden. In Göttingen schließlich baut Florentin Wörgötter mit seinem Team neurobionische Kontrollsysteme, die unter anderem die Rehabilitation sensomotorischer Defizite vorantreiben sollen, auch in Zusammenarbeit mit Otto Bock Health Care, dem weltweit führenden Spezialisten auf dem Gebiet der Orthopädie und Prothetik.
Herr Curio, vielen Dank für das Gespräch.
Das Interview führte Vera Spillner.
Schreiben Sie uns!
Beitrag schreiben