Alltagsgeräusche: »Was im Hirn geräuschsensibler Personen passiert, ist kaum erforscht«
Daniel Hölle erforschte an der Universität Oldenburg die Geräuschwahrnehmung im Alltag und hat dafür ein mobiles Ohr-EEG verwendet. Hinters Ohr geklebt, ermöglicht es den Versuchspersonen, ihrem normalen Alltag nachzugehen – ein Novum in der Hirnforschung. Für seinen Beitrag »Können Sie das bitte abstellen?« erhielt er 2024 den Klartext-Preis für Wissenschaftskommunikation der Klaus Tschira Stiftung. Im Interview erklärt er, wie genau die Technik funktioniert und warum es so herausfordernd ist, die individuelle, alltägliche Hörwahrnehmung zu ergründen.
Herr Hölle, kennen Sie das auch – dass leise Geräusche Sie nerven, obwohl sie anderen vielleicht gar nicht auffallen?
Das kenne ich tatsächlich gut, beispielsweise wenn ich im Zug sitze. Das ist mir letztens erst wieder passiert. Ich war gerade dabei, meinen Beitrag für den Klartext-Preis zu schreiben. Ein Mann im Abteil tippte auf seinem Handy – und hatte die Tastentöne dabei an. Ich konnte mich nur noch darauf konzentrieren. Meine Freundin, die mit mir reiste, hatte das Tippen gar nicht bemerkt. Sie konnte das offenbar komplett ausblenden.
Wie man auf leise Störgeräusche reagiert, ist also individuell sehr variabel?
Ja, Menschen reagieren grundsätzlich unterschiedlich auf solche Reize. Ein klassisches Beispiel ist der tropfende Wasserhahn. Einige wollen ihn sofort abstellen, anderen ist er völlig egal. Uns hat interessiert: Wie kann man diese Unterschiede erfassen? Was im Hirn geräuschsensibler Personen passiert, ist kaum erforscht, und die Technik dazu steckt noch in den Kinderschuhen. Unser Ziel war es, die entsprechende Hirnaktivität im Alltag überhaupt messbar zu machen.
Für diesen Zweck haben Sie ein mobiles EEG verwendet, das man einfach hinters Ohr klebt.
Vor einigen Jahren erlebte die Mobile-EEG-Technik einen rasanten Aufschwung. Es gab bereits mobile Kappen, mit denen sich Probandinnen und Probanden relativ frei bewegen konnten. Meine Kollegen in der Neuropsychologie der Universität Oldenburg haben sich gefragt: Was ist der nächste Schritt? Und sie haben dann ein Ohr-EEG entwickelt, um das Ganze noch alltagstauglicher zu machen. Den c-förmigen Elektrodenstreifen klebt man hinter die Ohren – er befindet sich somit in unmittelbarer Nähe zum Hörzentrum im Schläfenlappen. Das gab es in dieser Form noch nicht. Zwar haben andere Teams bereits EEGs in Ohrstöpsel integriert, die damit gemessenen Signale sind jedoch sehr klein.
Weshalb ist ein EEG grundsätzlich gut dafür geeignet, die Hörwahrnehmung zu untersuchen?
Die zeitliche Auflösung ist sehr gut, man kann damit neuronale Signale im Millisekundenbereich messen – und in diesem zeitlichen Rahmen spielen sich auch die Reaktionen des Gehirns auf Klänge ab. Die räumliche Auflösung ist dagegen eher schlecht. Aber beim Ohr-EEG kann man sich das zu Nutze machen. Wir zeichnen um das Ohr herum viel weitere Aktivität auf, die aus anderen Hirnbereichen kommt.
Wie genau sah das technische Equipment aus, mit dem Sie Ihre Probanden ausgestattet haben?
Um unsere Experimente alltagstauglich zu machen, musste auch der Rest der Ausrüstung viel kompakter sein als beim klassischen EEG. Den Computer ersetzten wir durch ein Smartphone, den schweren Verstärker durch ein Modell in der Größe einer Streichholzschachtel. Ein am Hals angebrachter Nackenlautsprecher spielte Töne ab. Das Tragegefühl ist insgesamt viel angenehmer als bei einer klassischen EEG-Kappe. Wer so etwas schon einmal aufhatte, weiß: Das juckt, der Kiefer ist angespannt. Ein Ohr-EEG kann man hingegen viele Stunden tragen.
Und mit dieser Ausrüstung haben Sie die Leute dann in den Alltag geschickt?
Mit dem Aufbau zeichneten wir sechs Stunden lang die Hirnaktivität der Teilnehmenden auf, während sie ihrer alltäglichen Büroarbeit nachgingen. Sie durften sich normal bewegen, zum Mittagessen gehen oder sich unterhalten. Sie hatten keinerlei Beschränkungen. Das gab es in der Forschung so noch nie.
Sie erwähnten, dass dabei über Nackenlautsprecher Töne abgespielt wurden. Warum, wenn es doch eigentlich darum ging, Alltagsgeräusche zu erfassen?
Wir mussten erst einmal testen, ob wir über eine so lange Zeit überhaupt gute Signale messen können. Dazu brauchten wir Referenztöne, die wir vorher im Labor validiert haben: Die Versuchspersonen hörten dabei eine Reihe gleichartiger Töne. Ein paar davon wichen von den anderen ab. Das Gehirn registriert diese Ausreißer und lenkt kurzzeitig die Aufmerksamkeit darauf – es stuft sie als relevant ein. Man sieht das im EEG unter anderem in den so genannten N1- und P3-Wellen. Das sind ereigniskorrelierte Potenziale, kurz EKPs genannt, die 100 beziehungsweise 300 Millisekunden nach solchen Reizen auftreten. Die Stärke des Ausschlags sagt etwas darüber aus, wie tief gehend der Ton verarbeitet wurde. Spielt man zwei gleiche Töne schnell hintereinander ab, so fällt die N1 beim zweiten Ton niedriger aus, da dieser als irrelevant rausgefiltert wird. Im Labor haben wir das deutlich messen können. Die Frage war, ob wir die Signale dann später auch in den Alltagsdaten sehen.
Und, hat es geklappt?
Ja, wir konnten die EKPs in den Alltagsdaten messen. Also als Reaktion auf die abgespielten Töne via Nackenlautsprecher. Das N1-Signal war aber generell kleiner als im Labor, vermutlich weil im Alltag einfach mehr Störfaktoren mit reinspielen. Die Reaktionen auf Alltagsgeräusche fanden wir leider nicht. Das hatte technische Gründe, daran muss noch gearbeitet werden. Doch grundsätzlich konnten wir mit der Studie zeigen, dass es möglich ist, mittels Ohr-EEG neuronale Antworten auf bestimmte Töne zu erfassen – und das bei Probanden, die sich frei im Alltag bewegen und nicht explizit darauf achten.
Die Technik muss also noch optimiert werden. Langfristig soll ja erforscht werden, was im Gehirn bei Geräuschüberempfindlichkeit passiert. Inwiefern sind die erwähnten EKPs hierfür relevant?
Unter anderem die N1 und die P3 könnten Charakteristika sein, anhand derer sich Betroffene und Nichtbetroffene voneinander unterscheiden. Es gibt zwei Theorien bezüglich Geräuschüberempfindlichkeit. Was man schon weiß: Das sensorische Gating filtert wiederkehrende, unwichtige Geräusche heraus. Bei geräuschsensiblen Menschen überwinden vielleicht mehr Reize die Wahrnehmungsschwelle. Dann gibt es einen weiteren möglichen Mechanismus. Demnach stuft das Gehirn mehr Geräusche als relevant ein. Diese ziehen die Aufmerksamkeit auf sich und lenken somit ab. Wir erwarten, dass sich das in den EKPs widerspiegelt.
Haben Sie irgendwelche Unterschiede zwischen den Probanden feststellen können?
Wir haben die Teilnehmenden nach ihrer Geräuschempfindlichkeit befragt. Es gab da kaum Unterschiede, nur ein paar Ausreißer. Das reichte allerdings nicht für einen sinnvollen Vergleich. Einer der Probanden war sehr schnell genervt von akustischen Reizen und hatte in den Fragebögen auch die höchsten Werte. In der Hirnaktivierung konnten wir das jedoch nicht sehen – denn womit will man das vergleichen? Jeder Mensch verarbeitet Geräusche anders. Dementsprechend variabel fallen die EEG-Hörsignale aus, die wir im Mikrovoltbereich messen.
Vielleicht könnte man, wenn man sehr viele Leute misst, im Mittel Unterschiede zwischen den Gruppen sehen. Auf individueller Basis ist das viel aussagekräftiger. Im besten Fall misst man eine Person den ganzen Tag und fragt sie, welche Geräusche nervig waren. Dann vergleicht man das mit Kontrollgeräuschen bei derselben Person.
Wäre es nicht ein wichtiges Ziel zu sehen: Ah, da reagiert ein Mensch besonders stark und genervt, etwa auf einen tropfenden Wasserhahn. Also ohne ihn fragen zu müssen?
Genau, das ist der Knackpunkt. Wie schafft man das, ohne zu fragen, also rein per Mustererkennung? Das konnte ich im Rahmen meiner Promotion leider nicht lösen. Generell ist es aber ein guter Ansatz, eine Person zuerst einmal gründlich im Labor zu erfassen. Also zu schauen, wie die individuellen Signale aussehen, wenn der- oder diejenige besondere Aufmerksamkeit auf Töne lenkt. Geht man dann mit diesen Referenzdaten raus in den Alltag, müsste man theoretisch gar nicht mehr fragen. Was in Zukunft dabei auch wichtig wäre: mehr Informationen über die akustischen Rohdaten. Doch das ist bislang nicht möglich, zum Schutz der Privatsphäre.
Sie können demnach gar nicht mit den konkreten Alltagsgeräusche arbeiten?
Nein. Wir haben die Geräuschkulisse, zum Beispiel aus dem Büro, per eigens entwickelter App in einzelne Komponenten zerlegt, erfassten also, wann es beispielsweise einen Sound gab und wie laut er im Vergleich zu anderen war. Diese Information wurde dann mit Hilfe der App mit den Hirnsignalen korreliert. Gespräche oder sonstige Schallinformationen ließen sich damit nicht rekonstruieren. In USA geht das, in Europa ist es datenschutzrechtlich schwierig. Mal schauen, was sich da noch tut. Aber technisch ist es auch sehr herausfordernd, die akustischen Rohdaten zu analysieren.
Inwiefern?
Die Datensynchronisation ist sehr schwierig und langwierig. Man müsste immerhin die gesamte Schallinformation mit den entsprechenden Hirnsignalen im Millisekundenbereich korrelieren. Theoretisch ist das möglich. Es gibt bereits entsprechende Studien, wo man Freiwilligen zwei verschiedene Hörbücher vorspielt – eines in das linke und eines in das rechte Ohr. Dann sagt man ihnen, dass sie sich etwa nur auf das Gesagte im linken Ohr konzentrieren sollen. Und tatsächlich bekommt man auf der Seite auch eine bessere Korrelation mit der Hirnaktivität.
Sie sagten, dass das Forschungsfeld der mobilen Elektroenzephalografie boomt. Welche anderen Einsatzmöglichkeiten ergeben sich hier bereits?
Es gibt unter anderem schon Langzeitstudien mit Lkw-Fahrern. Man will hier die Aufmerksamkeit beziehungsweise Wachheit messen. Ziel ist es, Menschen davon abzuhalten, in den Sekundenschlaf zu fallen. Ein anderes Beispiel sind Pilotinnen und Piloten. Es kommt immer wieder vor, dass sie in Stresssituationen selbst laute Warnsignale im Cockpit überhören – ein Phänomen, das als »inattentional deafness« bezeichnet wird. Es gab Situationen, in denen vergessen wurde, im Landeanflug das Fahrwerk auszufahren, obwohl es deutliche Warnhinweise gab. Ein französisches Team hat dazu eine Studie mit unserem Ohr-EEG durchgeführt. Auch in Schlafstudien wird es mittlerweile verwendet. Das ist viel natürlicher, als die Nacht im Schlaflabor zu verbringen.
Und was plant das Oldenburger Labor für die Zukunft? Wie soll das Ohr-EEG weiterentwickelt werden, welche Schritte sind noch nötig?
Technisch wird hier immer nachjustiert – etwa bei den Nackenlautsprechern oder den Elektrodenstreifen, was Design und Material angeht. Um die Ergebnisse besser interpretieren zu können, brauchen wir zudem einen genaueren Einblick in das Verhalten. Dafür eignen sich etwa Kameraaufnahmen. So bekäme man genaue Informationen über die Geräuschquellen. Sonst weiß man beispielsweise nicht, ob die Person das Geräusch selbst verursacht hat. Dabei muss die Privatsphäre, so gut es geht, gewahrt werden. Außerdem sollen Sensoren zukünftig Bewegungsdaten erfassen, um Störsignale effektiver herausrechnen zu können. Damit kommen wir dem Ziel, die individuelle Geräuschwahrnehmung besser zu verstehen, Schritt für Schritt näher.
Um dann auch Menschen mit Geräuschüberempfindlichkeit besser helfen zu können?
Richtig. Optimal wäre es, wenn man von einer betroffenen Person weiß, wie sie Geräusche normalerweise verarbeitet. Hat der- oder diejenige dann vielleicht ein Achtsamkeitstraining oder Meditationsübungen durchlaufen, wiederholt man die EEG-Messungen. Indem man die Daten mit denen von früher vergleicht, könnte man den Behandlungserfolg evaluieren.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.