Direkt zum Inhalt

Neuroprothesen: War das ich oder mein Implantat?

Mit Neuralink will Elon Musk eine neue Generation von Hirnimplantaten schaffen. Schon heute helfen solche Geräte Patienten mit bestimmten Krankheiten – wecken aber auch ethische Bedenken.
Gehirn Hologramm

»Es wird ein Teil von dir«, beschreibt Patientin 6 das Gerät, das ihr Leben nach einer 45-jährigen Leidensgeschichte mit schwerer Epilepsie veränderte. Implantierte Hirnelektroden senden Signale an ein Handgerät, sobald Anzeichen für einen bevorstehenden epileptischen Anfall auftauchen. Ein Warnton erinnert nun die Patientin daran, den drohenden Anfall mit Medikamenten zu unterdrücken. »Man wächst da langsam rein und gewöhnt sich so sehr daran, dass es irgendwann alltäglich wird«, erzählt sie dem Neuroethiker Frederic Gilbert von der australischen University of Tasmania, der sich mit Gehirn-Computer-Schnittstellen (brain-computer interfaces, BCI) befasst.

2019 hatten Gilbert und seine Kollegen sechs BCI-Träger aus einer ersten klinischen Studie dazu befragt, wie das Gerät sie psychisch beeinflusst. Die extremste Erfahrung machte Patientin 6: Es handle sich um eine Art Symbiose, so Gilbert. Ökologen verstehen unter dem Begriff eine enge Koexistenz von Individuen zweier Arten zum Vorteil beider.

Hirn-Computer-Schnittstellen lassen sich unterteilen in solche, die das Gehirn »lesen«, die also die Hirnaktivität aufzeichnen und deren Bedeutung entschlüsseln, und jene, die in das Gehirn »schreiben«, um die Aktivität bestimmter Regionen zu manipulieren und damit deren Funktion zu beeinflussen. Wissenschaftler der Social-Media-Plattform Facebook erfanden beispielsweise Gehirn-Lese-Techniken für Kopfhörer, welche die Hirnaktivität der Anwender in Text umwandeln sollen.

Neurotechnologiefirmen wie Kernel in Los Angeles oder das von Elon Musk gegründete Unternehmen Neuralink in San Francisco spekulieren sogar auf bidirektionale Verbindungen, bei denen der Computer sowohl auf die Hirnaktivität des Menschen reagiert als auch Informationen in den neuronalen Kreislauf einspeist.

Neuroethiker beobachten solche Entwicklungen sehr genau. Die seit rund 15 Jahren wachsende Disziplin wacht darüber, dass Techniken, die das Gehirn direkt beeinflussen, ethisch vertretbar bleiben. »Wir wollen nicht die Ordnungshüter der Neurowissenschaften sein oder vorschreiben, welche Anwendungen die Neurotechnologie hervorbringt«, betont der Neuroethiker Marcello Ienca von der Eidgenössischen Technischen Hochschule Zürich. Vielmehr fordern seine Kollegen und er, ethische Überlegungen sollten bereits bei den ersten Entwürfen sowie den verschiedenen Entwicklungsstadien dieser Technologien einfließen. Denn so könne man frühzeitig mögliche Risiken erkennen und eindämmen – sei es für den Einzelnen oder für die Gesellschaft als Ganzes.

Bereits jetzt zeichnet sich ab, dass die Verschmelzung digitaler Techniken mit dem menschlichen Gehirn mitunter weit reichende Folgen für eine Person hat. Das kann sogar ihren freien Willen betreffen, also die Fähigkeit, sich gemäß eigener Entscheidungen zu verhalten. Auch wenn der Fokus der Neuroethiker auf der medizinischen Praxis liegt, mischen sie sich ebenfalls in die Debatten über die Entwicklung kommerzieller Neurotechnologien ein.

In den späten 1980er Jahren setzten französische Wissenschaftler Elektroden in das Gehirn von Parkinsonpatienten ein, bei denen die Krankheit schon weit fortgeschritten war. Elektrische Ströme in den mutmaßlich für das Zittern verantwortlichen Hirnarealen sollten dort die neuronale Aktivität unterdrücken. Vielen Betroffenen half diese tiefe Hirnstimulation enorm: Heftige und kräftezehrende Zitteranfälle ließen augenblicklich nach, sobald die Elektroden angeschaltet wurden.

Gesteigerter Sexualtrieb nach Hirnstimulation

1997 genehmigte die US-amerikanische Food and Drug Administration (FDA) die tiefe Hirnstimulation zur Behandlung von Parkinsonsymptomen. Seitdem wird die Methode bei diversen anderen Erkrankungen erprobt: Sie ist mittlerweile zur Therapie von Zwangsstörungen und Epilepsie zugelassen und wird für psychische Störungen wie Depression oder Magersucht getestet.

Da das Verfahren direkt auf das Organ abzielt, aus dem unser Identitätsempfinden entspringt, ist es mit vielerlei Befürchtungen behaftet. Eine davon betrifft unsere Autonomie, meint die Neuroethikerin Hannah Maslen von der University of Oxford. Manch ein Parkinsonpatient etwa verspürte nach einer tiefen Hirnstimulation einen gesteigerten Sexualtrieb oder konnte seine Impulse schlechter kontrollieren. Ein Schmerzpatient dagegen wurde zutiefst apathisch. »Die Methode ist sehr nützlich«, sagt Gilbert, »bis zu dem Punkt, an dem sie die Selbstwahrnehmung des Patienten verzerrt.«

Andere Personen, deren Gehirn wegen einer Depression oder Zwangsstörung stimuliert worden war, hatten sogar das Gefühl, nicht mehr frei über ihre Handlungen entscheiden zu können. »Du fragst dich, wie viel noch von dir übrig bleibt«, erzählt eine Betroffene. »Welcher Anteil meiner Gedanken stammt wirklich von mir? Und wie würde ich mich verhalten, wenn ich das Stimulationssystem nicht hätte? Man fühlt sich irgendwie künstlich.«

Erst nach und nach erkennen Neuroethiker die echte Tragweite der Therapie. »Einige Nebenwirkungen wie Persönlichkeitsveränderungen sind gravierender als andere«, meint Maslen. Wichtig ist, ob der Patient nach der Stimulation bewusst merkt, wie er sich verändert. Gilbert beschreibt etwa einen Patienten, der spielsüchtig wurde und hemmungslos die Ersparnisse seiner Familie verzockte. Erst als die Stimulation ausgeschaltet wurde, konnte er nachvollziehen, wie problematisch sein Verhalten war.

Solche Fälle wecken ernsthafte Befürchtungen, wonach die Technik die Urteilsfähigkeit beeinträchtigt. Sollte ein Familienmitglied oder ein Arzt sein Veto einlegen können, wenn ein Stimulationspatient die Weiterbehandlung wünscht? Falls ja, würde das implizieren, dass die Methode die Fähigkeit einschränkt, eigene Entscheidungen zu treffen. Denn Gedanken, die nur auftreten, solange ein elektrischer Strom die Hirnaktivität beeinflusst, entspringen möglicherweise nicht dem eigenen Selbst.

Besonders schwierig werden solche Dilemmata, wenn die Therapie explizit auf Verhaltensänderungen abzielt wie etwa bei Magersucht. »Wenn ein Patient vor einer tiefen Hirnstimulation sagt: ›Ich bin jemand, dem Schlanksein wichtiger ist als alles andere‹, und man dann sein Gehirn stimuliert, so dass sich sein Verhalten oder seine Einstellung ändert«, erklärt Maslen, »dann müssen wir wissen, ob dieser Sinneswandel vom Patienten wirklich gewollt ist.«

Sie und andere Wissenschaftler wollen genauere Einverständniserklärungen für die Stimulationsbehandlung entwerfen. Sie soll eine ausführliche Beratung einschließen, bei der alle möglichen Folgen und Nebenwirkungen umfassend besprochen werden.

Es ist beeindruckend, einem Querschnittsgelähmten zuzusehen, wie er mit einem Roboterarm, den er über ein auslesendes BCI steuert, ein Wasserglas zum Mund führt. Die sich rasch entwickelnde Technik beruht auf Elektrodenarrays, die an oder in einer für Planung und Ausführung von Bewegungen zuständigen Hirnregion implantiert werden. Während der Proband sich beispielsweise vorstellt, seine Hand zu bewegen, wird seine Hirnaktivität aufgezeichnet, um daraus Befehle für den Roboterarm zu generieren.

Ließen sich diese neuronalen Signale vom Grundrauschen unterscheiden und eindeutig dem Willen der Person zuordnen, wären die ethischen Probleme überschaubar. Das ist aber nicht der Fall. Die neuronalen Korrelate geistiger Prozesse sind wenig verstanden, so dass die Hirnsignale durch künstliche Intelligenz (KI) verarbeitet werden müssen.

Wie der Neurologe Philipp Kellmeyer von der Universität Freiburg meint, habe der Einsatz von KI und Algorithmen des maschinellen Lernens zur Entschlüsselung neuronaler Aktivität das gesamte Feld auf den Kopf gestellt. Er verweist auf eine 2019 veröffentlichte Studie, bei der eine solche Software die Hirnaktivität von stummen Epilepsiepatienten interpretierte, um daraus synthetische Sprachlaute zu erzeugen. »Vor zwei oder drei Jahren«, sagt er, »hätten wir gedacht, das sei entweder unmöglich oder werde noch 20 Jahre dauern.«

Blackbox mit Zugriff aufs Gehirn

Allerdings werfen KI-Werkzeuge auch ethische Fragen auf, mit denen etwa Aufsichtsbehörden bislang wenig Erfahrung haben. Software zum maschinellen Lernen beruht auf einer Datenanalyse, die schwer zu durchschauen ist. Dadurch steht ein unbekannter und kaum nachvollziehbarer Prozess zwischen den Gedanken einer Person und der Technik, die in ihrem Auftrag handelt.

Prothesen funktionieren besser, wenn BCI-Geräte versuchen vorherzusagen, was der Patient als Nächstes tun will. Die Vorteile hierfür leuchten ein: Bei scheinbar simplen, in Wirklichkeit aber hochkomplexen Handlungen wie dem Griff zur Kaffeetasse stellt das Gehirn unbewusst viele Berechnungen an. Prothesen, die mit Hilfe von Sensoren zusammenhängende Bewegungen autonom durchführen, erleichtern dem Anwender erheblich, damit umzugehen. Das bedeutet aber auch, dass vieles von dem, was ein Roboterarm tut, nicht wirklich vom Patienten stammt.

Tiefe Hirnstimulation | Chirurgisch ins Gehirn von Patienten eingeführte Elektroden sollen das krankhafte Zittern unterdrücken, das etwa bei Morbus Parkinson oder Bewegungsstörungen auftritt.

Derartige prädiktive Eigenschaften bergen weitere Probleme, die jeder Handynutzer kennt. Die automatische Texterkennung der Mobiltelefone ist oft hilfreich und spart Zeit – wer aber unbeabsichtigt schon einmal eine Nachricht mit falscher Autokorrektur gesendet hat, weiß, dass hier mitunter etwas schiefgehen kann.

Solche Algorithmen lernen aus früheren Daten und nehmen dem Anwender, basierend auf seinen Handlungen in der Vergangenheit, Entscheidungen ab. Wenn aber ein Algorithmus beständig das nächste Wort oder die nächste Aktion vorschlägt und der Mensch lediglich den Vorschlag akzeptiert, wird die Autorenschaft der Nachricht oder des Handelns fraglich. »Irgendwann entsteht dieser merkwürdige Zustand eines gemeinsamen oder Hybridwillens«, erklärt Kellmeyer. Ein Teil der Entscheidung stammt vom Anwender und ein anderer von der Maschine. »So entsteht eine Verantwortungslücke.«

Hannah Maslen befasst sich damit im Rahmen des EU-Projekts BrainCom, das Sprachgeneratoren entwickelt. Die Systeme sollen hörbar machen, was eine Person sagen möchte. Um Fehlern vorzubeugen, kann man dem Anwender die Möglichkeit geben, jedes einzelne Wort freizugeben. Doch eine ständige Rückmeldung von Sprachfragmenten würde das Ganze wohl zu einem mühsamen Geschäft machen.

Solche Rückversicherungen wären allerdings besonders wichtig, wenn die Geräte nur schwer zwischen der neuronalen Aktivität fürs Sprechen und der fürs Denken unterscheiden können. Unsere Gesellschaft fordert zu Recht grundlegende Grenzen zwischen privaten Gedanken und äußerem Verhalten.

Die Symptome vieler Hirnerkrankungen tauchen unvorhersehbar auf. Deshalb kommen zunehmend Methoden zur Hirnüberwachung zum Einsatz. Solche Aufzeichnungselektroden – wie etwa bei Patientin 6 – verfolgen die Hirnaktivität, um zu erkennen, wann Symptome auftreten oder kurz bevorstehen. Doch statt lediglich dem Anwender einen Hinweis zu geben, senden manche autonom einen Befehl an eine Stimulationselektrode. Diese unterdrückt die relevante Hirnaktivität, sobald sich ein epileptischer Anfall oder bei Parkinsonpatienten ein Tremor abzeichnet. Einen derartigen geschlossenen Regelkreis hat die FDA bereits 2013 zur Behandlung von Epilepsie zugelassen; ähnliche Systeme zur Parkinsontherapie werden klinisch getestet.

Plötzlich nicht mehr fähig zu trauern

Problematisch dabei ist: Handelt eine Person nach Einführung eines entscheidungstreffenden Geräts in ihrem Gehirn – eventuell verknüpft mit einer autonom agierenden KI-Software – noch selbstbestimmt? Bei Geräten, die für Diabetiker den Blutzuckerspiegel und die Insulingabe kontrollieren, ist diese automatische Entscheidungsfindung unumstritten. Bei Interventionen im Gehirn sieht die Sache jedoch anders aus. Beispielsweise könnte eine Person, die mit einem geschlossenen Regelkreissystem eine affektive Störung behandelt, unfähig werden, jegliche negative Emotion zu empfinden, auch wenn das wie etwa bei einer Beerdigung völlig normal wäre. »Wenn ein Gerät sich ständig in dein Denken oder deine Entscheidungsfindung einmischt«, sagt Gilbert, »kann es dich als frei handelnden Menschen einschränken.«

Das Epilepsie-BCI, das die von Gilbert interviewten Anwender benutzten, überließ diesen die Kontrolle, indem sie vor anstehenden Anfällen warnte. Ihnen blieb so die Entscheidung, ob sie Medikamente nehmen wollten oder nicht. Dennoch avancierte das Gerät für fünf der sechs Patienten zum hauptsächlichen Entscheidungsträger in ihrem Leben. Nur einer der sechs ignorierte es meist. Patientin 6 akzeptierte ihr Gerät vollständig als integralen Bestandteil ihres neuen Selbst. Drei Anwender verließen sich bereitwillig darauf, ohne dadurch das Gefühl zu bekommen, ihr Selbstempfinden hätte sich grundlegend verändert. Ein weiterer Proband verfiel allerdings in Depressionen und berichtete, das BCI habe ihm das Gefühl gegeben, keine Kontrolle mehr zu haben.

»Die Entscheidung liegt letztlich bei einem selbst«, meint Gilbert. »Aber in dem Moment, in dem man merkt, dass das Gerät in bestimmten Situationen effektiver ist als man selbst, achtet man nicht mehr auf die eigene Einschätzung. Man verlässt sich auf das Gerät.«

Das Ziel der Neuroethiker – Maximierung der Vorteile und Minimierung der Risiken – ist schon lange in die medizinische Praxis eingebettet. Die Entwicklung kommerzieller Techniken für Verbraucher läuft im Gegensatz dazu meist verborgen ab und unterliegt kaum einer Kontrolle. So erforschen Technologieunternehmen bereits die Realisierbarkeit von BCI-Geräten für den Massenmarkt. Marcello Ienca sieht hier einen wichtigen Moment gekommen: »Wenn sich eine Methode noch im Anfangsstadium befindet, sind die Ergebnisse sehr schwer vorhersehbar. Ist sie jedoch hinsichtlich Marktgröße oder -öffnung ausgereift, kann sie schon zu sehr etabliert sein, um noch eingreifen zu können.« Seiner Ansicht nach wissen wir inzwischen genug, um sachkundig zu handeln, bevor es zu einer verbreiteten Anwendung von Neurotechnologien kommt.

Ein Problem liegt laut Ienca in der Privatsphäre. »Informationen aus dem Gehirn sind wahrscheinlich die intimsten und privatesten Daten überhaupt«, betont er. Sie könnten von Hackern gestohlen oder von Firmen, denen die Nutzer Zugang hierzu gewährt haben, unangemessen verwendet werden. Ienca betont, wegen der Bedenken von Neuroethikern hätten die Hersteller sich mit der Sicherheit ihrer Geräte befassen müssen, um die Daten ihrer Nutzer besser zu schützen. Sie könnten nicht mehr den Zugang zu Social-Media-Profilen und anderen Quellen persönlicher Angaben als Voraussetzung für die Gerätenutzung fordern. Dennoch bleibt der Datenschutz für Verbraucher auf Grund der sich immer schneller entwickelnden Neurotechnologien eine Herausforderung.

Privatsphäre und freier Wille gehören zu den Hauptthemen in den Empfehlungen, die von verschiedenen Arbeitsgruppen sowie von groß angelegten Neuroforschungsprojekten herausgegeben werden. Dennoch bleibe viel zu tun, meint Philipp Kellmeyer. »Die Grundannahmen der herkömmlichen Ethik, die sich auf Autonomie, Gerechtigkeit und damit zusammenhängende Konzepte stützen, werden nicht ausreichen«, sagt er. »Wir brauchen auch eine Ethik und Philosophie der humantechnischen Interaktionen.« Viele Neuroethiker halten auf Grund der Möglichkeit, das Gehirn direkt zu manipulieren, eine Überarbeitung der grundlegenden Menschenrechte für nötig.

Hannah Maslen berät die Europäische Kommission zu Richtlinien über frei verkäufliche, nichtinvasive Geräte, die das Gehirn verändern. Derzeit gelten hierfür nur lasche Sicherheitsbestimmungen. Die Apparate mögen zwar harmlos aussehen, leiten jedoch elektrische Ströme durch die Schädeldecke, um die Hirnaktivität zu manipulieren. Laut Maslen kann die Stimulation Kopfschmerzen und Sehstörungen nach sich ziehen und im Einzelfall sogar zu Verbrennungen führen.

Sie nennt ebenfalls klinische Studien, wonach Techniken der nichtinvasiven Hirnstimulation zwar bestimmte geistige Fähigkeiten steigern, aber nur auf Kosten anderer kognitiver Leistungen.

Frederic Gilberts Forschung zu den psychischen Auswirkungen von BCI-Geräten verdeutlicht, was auf dem Spiel steht, wenn Unternehmen Methoden entwickeln, die das Leben von Personen grundlegend verändern können. Da die Firma, die Patientin 6 das BCI ins Gehirn implantiert hatte, in Konkurs ging, musste es entfernt werden. »Sie weigerte sich und zögerte es so lange wie möglich hinaus«, erzählt Gilbert. Weinend sagte sie nach der Entfernung des Geräts zu Gilbert: »Ich habe mich selbst verloren.«

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

Gilbert, F. et al.: Embodiment and estrangement: Results from a first-in-human »intelligent BCI« trial. Science and Engineering Ethics 25, 2019

Klein, E. et al.: Brain-computer interface-based control of closed-loop brain stimulation: Attitudes and ethical considerations. Brain-Computer Interfaces 3, 2016

Der Artikel im Internet: www.spektrum.de/artikel/1758148

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.