Gehirn-Computer-Interface: Computer erkennt Wörter in Hirnsignalen
Die Idee ist keine ganz neue, doch die Schwierigkeiten sind immens: Elektroden unter der Schädeldecke sollen eines Tages vollständig gelähmten Patienten das Sprechen ermöglichen. Dabei würden die Geräte schwache elektrische Felder erfassen, wie sie typischerweise durch Nervenaktivität entstehen, und sie anschließend mit einer Mustererkennungssoftware auswerten.
Einen neuen Ansatz für diese Idee präsentieren jetzt Bradley Greger von der University of Utah in Salt Lake City und Kollegen. Sie brachten einen Computer dazu, in den Daten zu erkennen, welches von zehn einfachen englischen Wörtern (ja, nein, heiß, kalt, hungrig, durstig, Hallo, Tschüss, mehr, weniger) ein Proband gesagt hatte. Dabei erreichten sie zwar lediglich eine magere Trefferquote, demonstrierten aber, dass der Ansatz prinzipiell machbar ist.
Ihre Testperson ließen sie nun an vier aufeinander folgenden Tagen eine knappe Stunde lang die zehn Wörter wiederholen. Dabei zeichneten sie fortwährend die elektrischen Signale auf. In dieser Masse an Daten suchte anschließend ein Computer nach wiederkehrenden Mustern.
Um ihr System auf die Probe zu stellen, pickten sie nach dem Zufallsprinzip einzelne Aufzeichnungen aus. In günstigsten Fällen erreichten sie Trefferwahrscheinlichkeiten von 85 Prozent. Dabei musste die Software allerdings lediglich entscheiden, zu welchem von zwei Wörtern die Hirndaten gehörten. Sollte der Computer das richtige unter allen zehn erkennen, sank die Quote auf 28 bis 48 Prozent, je nachdem, ob sie alle Elektroden einbezogen oder nur diejenigen, die sich als die aussagekräftigsten Datenlieferanten herausgestellt hatten. Das Wernicke-Areal, in dem aller Wahrscheinlichkeit nach höherrangige kognitive Prozesse ablaufen, war tendenziell schlechter geeignet für diese Aufgabe: Daten, die hier gewonnen wurden, lieferten im Schnitt die ungenauesten Resultate.
Dass ihr System mit einer solchen Erfolgsquote noch längst nicht die Anwendungsreife erlangt hat, ist den Autoren wohl bewusst. Deutlich mehr Messgeräte und bessere Auswertungsalgorithmen könnten es in Zukunft richten, hofft Greger. Bis es so weit ist, dürften die Ergebnisse schon für Forscher interessant sein, die zu verstehen versuchen, wie das Gehirn Sprache verarbeitet. So zeigte sich beispielsweise, dass vielfach nur Millimeter voneinander entfernte Elektroden auf völlig verschiedene, nicht ähnlich klingende Wörter reagierten.
Die Möglichkeit zu dieser Studie verdankte das Team der Mitwirkung eines Freiwilligen, dessen Gehirn zur Vorbereitung einer Epilepsie-Operation freigelegt wurde. Dabei versuchen Chirurgen über mehrere Tagen hinweg präzise einzugrenzen, wo die epileptischen Anfälle ihren Ausgang nehmen. Diesen Zeitraum nutzte auch das Team um Greger, um seine eigenen Messgeräte zu platzieren. (jd)
Einen neuen Ansatz für diese Idee präsentieren jetzt Bradley Greger von der University of Utah in Salt Lake City und Kollegen. Sie brachten einen Computer dazu, in den Daten zu erkennen, welches von zehn einfachen englischen Wörtern (ja, nein, heiß, kalt, hungrig, durstig, Hallo, Tschüss, mehr, weniger) ein Proband gesagt hatte. Dabei erreichten sie zwar lediglich eine magere Trefferquote, demonstrierten aber, dass der Ansatz prinzipiell machbar ist.
Sie verwendeten zwei Gitter von je vier mal vier Elektroden und platzierten sie auf der Kortexoberfläche über zwei Regionen, die eng mit der Sprachverarbeitung betraut sind: dem Wernicke-Sprachzentrum und einem motorischen Areal zur Bewegung der Gesichtsmuskulatur. Ihre Vorrichtung dringe nicht ins Hirngewebe ein und könne trotzdem eine hinreichend genaue räumliche Auflösung liefern, so die Forscher. Selbst die Aktivität einzelner Grundbausteine neuronaler Verarbeitung – der so genannten kortikalen Säulen – sei damit zu erfassen.
Ihre Testperson ließen sie nun an vier aufeinander folgenden Tagen eine knappe Stunde lang die zehn Wörter wiederholen. Dabei zeichneten sie fortwährend die elektrischen Signale auf. In dieser Masse an Daten suchte anschließend ein Computer nach wiederkehrenden Mustern.
Um ihr System auf die Probe zu stellen, pickten sie nach dem Zufallsprinzip einzelne Aufzeichnungen aus. In günstigsten Fällen erreichten sie Trefferwahrscheinlichkeiten von 85 Prozent. Dabei musste die Software allerdings lediglich entscheiden, zu welchem von zwei Wörtern die Hirndaten gehörten. Sollte der Computer das richtige unter allen zehn erkennen, sank die Quote auf 28 bis 48 Prozent, je nachdem, ob sie alle Elektroden einbezogen oder nur diejenigen, die sich als die aussagekräftigsten Datenlieferanten herausgestellt hatten. Das Wernicke-Areal, in dem aller Wahrscheinlichkeit nach höherrangige kognitive Prozesse ablaufen, war tendenziell schlechter geeignet für diese Aufgabe: Daten, die hier gewonnen wurden, lieferten im Schnitt die ungenauesten Resultate.
Dass ihr System mit einer solchen Erfolgsquote noch längst nicht die Anwendungsreife erlangt hat, ist den Autoren wohl bewusst. Deutlich mehr Messgeräte und bessere Auswertungsalgorithmen könnten es in Zukunft richten, hofft Greger. Bis es so weit ist, dürften die Ergebnisse schon für Forscher interessant sein, die zu verstehen versuchen, wie das Gehirn Sprache verarbeitet. So zeigte sich beispielsweise, dass vielfach nur Millimeter voneinander entfernte Elektroden auf völlig verschiedene, nicht ähnlich klingende Wörter reagierten.
Die Möglichkeit zu dieser Studie verdankte das Team der Mitwirkung eines Freiwilligen, dessen Gehirn zur Vorbereitung einer Epilepsie-Operation freigelegt wurde. Dabei versuchen Chirurgen über mehrere Tagen hinweg präzise einzugrenzen, wo die epileptischen Anfälle ihren Ausgang nehmen. Diesen Zeitraum nutzte auch das Team um Greger, um seine eigenen Messgeräte zu platzieren. (jd)
Schreiben Sie uns!
Beitrag schreiben