Direkt zum Inhalt

Springers Einwürfe: Wie Hirnzellen Sprache verstehen

Feinste Sonden erfassen die Aktivität einzelner Neurone, während Versuchspersonen Sätzen lauschen. Winzige Zellgruppen reagieren in Echtzeit differenziert auf unterschiedliche Bedeutungen. Unterschiede und Parallelen zu KI-Sprachmodellen drängen sich auf.
Eine stilisierte Nervenzelle, dunkelblau dargestellt mit leuchtendem gelbem Fleck im Inneren
Nervenzellen im Gehirn sind verblüffend stark spezialisiert. Manche von ihnen reagieren, wenn der Mensch Wörter aus ganz bestimmten Bedeutungsfeldern hört.
Ist die Energiewende sauber durchgerechnet? Kann die Forschung wirklich die Zukunft voraussagen? Und widerspricht die Quantenphysik sich selbst? In seinen Kommentaren geht der Physiker und Schriftsteller Michael Springer diesen und anderen Fragen am Rande des aktuellen Wissenschaftsgeschehens nach. Seit 2005 erscheint seine Kolumne »Springers Einwürfe«.

Das komplexeste Objekt im uns bekannten Universum ähnelt zwei Hand voll grauen Haferbreis. Trotz seines unscheinbaren Äußeren leistet das menschliche Gehirn Unglaubliches; erst allmählich verstehen wir, wie es uns ermöglicht, die Welt zu erleben – und uns mit den Mitteln der Sprache einen Reim darauf zu machen.

Wo sitzt die Fähigkeit, mit Worten umzugehen? Eine erste grobe Antwort gaben Hirnverletzungen, die mit bestimmten Störungsbildern einhergehen. So konnte man gewisse Areale als Zentren der Sprachverarbeitung identifizieren. Einen großen Fortschritt brachten bildgebende Verfahren, die aus dem Blutfluss indirekt auf die lokale Nerventätigkeit schließen ließen.

Aber was geschieht auf der Ebene einzelner Neurone? Das lässt sich erst beantworten, seit haarfeine Sonden mit jeweils hunderten Sensoren die elektrische Aktivität von Nervenzellen in der Hirnrinde abgreifen können.

Eine US-Forschungsgruppe um die Neurochirurgen Mohsen Jamali und Benjamin Grannan vom Massachusetts General Hospital in Boston platzierte solche »Neuropixel« im präfrontalen Kortex von Patienten, die auf einen neurochirurgischen Eingriff vorbereitet wurden. Die Testpersonen lauschten Sätzen, während die nadelartigen Sonden das Aktionspotenzial einzelner Neurone aufzeichneten.

Tatsächlich reagierten die Zellen sehr selektiv auf Bedeutungen – besser gesagt auf bestimmte Bedeutungsfelder. Ein Neuron, das signifikant auf »Salat« ansprach, feuerte auch bei Begriffen wie »Karotten« oder »Kuchen«, weil sie alle zum semantischen Feld Nahrung gehören. Entsprechendes zeigte sich bei Aktionen (»ging«, »lief« und »warf«) oder Tieren. Sogar für abstraktere räumlich-zeitliche Relationen wie »über« oder »hinter« erwiesen sich einzelne Neurone als exklusiv zuständig.

Erstaunliche Differenzierung auf kleinster Ebene

Nicht nur das. Die Neurone sprachen auf echte Wörter deutlich stärker an als auf Nonsens-Laute (»blacket«, »florp«). Zudem spielte der Kontext eine Rolle: Das Wort »rose« kann im Englischen »stand auf« bedeuten oder die entsprechende Blume. Auch dafür waren die Nervenzellen sensibel.

Insgesamt bedeuten diese erstaunlichen Befunde: Im für Sprachverarbeitung zuständigen Teil des Frontallappens repräsentieren kleine Zellverbände je nach Kontext oder semantischer Verwandtschaft ganze Hierarchien von Wortbedeutungen – und dies in Echtzeit, während die betreffende Person einem Sprecher lauscht.

Drängt sich da nicht ein Vergleich mit den künstlichen Sprachsystemen auf, die als »Large Language Models« (LLMs) Furore machen? Dort müssen spezielle Algorithmen aufwändig darauf trainiert werden, nach gewissen Vorgaben plausible, das heißt wahrscheinliche Texte zu produzieren. Das Trainingsmaterial besteht aus gigantischen Datenbanken, die das Wissen der Menschheit zusammenfassen, soweit es digitalisiert und auf Englisch vorliegt.

Einem Kind, das sprechen lernt, wird hingegen nur ein winziger Bruchteil aus dem Fundus möglicher Sätze präsentiert. Aber sein Gehirn ist offenbar evolutionär präpariert, die Wort- und Satzbeispiele in komplexe Bedeutungshierarchien einzubauen, die ihm eine unendliche Vielfalt sinnvoller Sprachäußerungen ermöglichen.

Trotzdem erkennt Mohsen Jamali Parallelen zwischen Neuronen und LLMs, wie er in einer anderen Veröffentlichung schreibt. Die Hoffnung: Wenn wir bei einem System genauer nachvollziehen können, wie es einer Eingabe Bedeutung zumisst, verstehen wir auch das emergente Verhalten der jeweils anderen hochkomplexen Maschine besser.

  • Quellen

Jamali, M. et al.: Semantic encoding during language comprehension at single-cell resolution. Nature 631, 2024

Jamali, M. et al.: Unveiling theory of mind in large language models: A parallel to single neurons in the human brain. ArXiv 2309.01660, 2023

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.