Direkt zum Inhalt

Neuromorphe Computer: Mit dem Gehirn als Vorbild zu besserer KI

Computerchips stoßen an ihre Grenzen, künstliche Intelligenz ist noch immer fehleranfällig und braucht Unmengen an Energie. Um diese Probleme zu lösen, wenden sich Forscher der Funktionsweise des Gehirns zu.
Illustration eines künstlichen Hirns auf einem Computer. Digitaler Verstand. Visualisierung des Konzepts der künstlichen Intelligenz des Gehirns
Nicht nur die Software soll nach dem Vorbild des Gehirns funktionieren, sondern auch die Hardware.

Was noch vor 20 Jahren nach Sciencefiction klang, ist mittlerweile Realität: Menschen unterhalten sich wie selbstverständlich mit Chatbots und lassen sich von Sprachmodellen dabei helfen, Texte und Programmiercodes zu schreiben. Besucht man etwa die Website von OpenAI, um mit ChatGPT herumzuspielen, öffnet sich ein einfach gehaltenes Dialogfeld. Dort kann man ein paar Wortschnipsel eingeben und schon erscheint die Antwort der künstlichen Intelligenz (KI). Das Ganze funktioniert schnell und ohne großen Aufwand. Doch der Schein der Einfachheit trügt: Um das KI-Modell zu trainieren, mussten zahlreiche Supercomputer wochenlang auf Hochtouren laufen. Und sogar für den laufenden Betrieb sind riesige Rechenzentren nötig, die enorme Ressourcen verschlingen.

Die meisten KI-Forscherinnen und -Forscher konzentrieren sich darauf, einzelne Aufgaben umzusetzen. Sie trainieren ein Modell etwa speziell darin, entweder Sprache zu verarbeiten oder Bilder zu erkennen. Insbesondere in der Bilderkennung sind die Systeme inzwischen sehr gut geworden. Allerdings können kleinste Ungereimtheiten noch immer mitunter fatale Auswirkungen haben. So muss etwa ein autonom fahrendes Auto blitzschnell erkennen, ob eine Person auf die Straße stolpert oder ob es sich nur um einen harmlosen Zweig handelt, der gerade von einem Busch fällt. Während das schon einem Kleinkind ohne Mühe gelingt, ist das für intelligente Algorithmen eine große Herausforderung.

Um die automatisierte Bilderkennung genauso wie andere Bereiche des maschinellen Lernens weiter zu verbessern, wenden sich Expertinnen und Experten daher dem biologischen Vorbild zu: dem menschlichen Gehirn. Zehn Jahre lang haben 500 Fachleute von mehr als 150 Forschungseinrichtungen aus 19 europäischen Ländern daran gearbeitet, das Denkorgan zu entschlüsseln, zu kartieren und besser zu verstehen. Ausgestattet mit rund 600 Millionen Euro war das Human Brain Project eines der größten und ehrgeizigsten Forschungsvorhaben in Europa. Involviert waren so unterschiedliche Fachrichtungen wie Neurowissenschaft, Medizin und Computertechnologie. Die Erkenntnisse sollen nicht nur die Hirnforschung selbst und mögliche medizinische Anwendungen nach vorne bringen, sondern auch Impulse für die Entwicklung neuer Informationstechnologien liefern. Nun ziehen die Forschenden Bilanz.

Simulation eines Mäusehirns

Besonders beeindruckend ist dabei eine Arbeit der Forschungsgruppe um den Neuroinformatiker Wolfgang Maass von der Technischen Universität Graz: Ihr ist es im Rahmen des Human Brain Projects gelungen, einen Teil des Mäusehirns zu simulieren. Das Team schuf ein Computermodell des knapp 52 000 Neuronen umfassenden visuellen Kortex einer Maus, des bisher am genauesten untersuchten Teils eines Säugerhirns. Das auf diese Art simulierte neuronale Netzwerk war in der Lage, ähnliche visuelle Aufgaben zu erfüllen wie eine lebende Maus. Die Fachleute konnten also erstmals den Sehsinn eines Tiers nachbauen.

Die Idee, biologische Nervensysteme als Inspiration für künstliche Intelligenz zu nutzen, ist nicht neu. So basieren die am weitesten verbreiteten KI-Algorithmen auf so genannten neuronalen Netzen, die in ihrem Aufbau an den visuellen Kortex von Säugetieren angelehnt sind: Nervenzellen, die Neurone, sind in Schichten hintereinander aufgebaut und durch Synapsen miteinander verbunden. Informationen bewegen sich von vorne nach hinten durch ein solches System, wobei jede Nervenzelle die Daten verarbeitet, die sie von den zu ihr führenden Synapsen erhält. Allerdings stellen die Algorithmen bisher keine genauen Kopien der biologischen Synapsen und Nervenzellen dar – was Maass und sein Team zu ändern versuchen.

Neuronales Netz | Ein neuronales Netz ist ein Algorithmus, der in seinem Aufbau dem menschlichen Gehirn nachempfunden ist. Er besteht aus Recheneinheiten, den »Neuronen« n und h, sowie geeigneten Gewichten w, die durch das Training bestimmt werden. Die Ausgabe des Programms (etwa n8) hängt dann von den Werten vieler verschiedener Neurone und Gewichte ab (rot).

»Man darf sich das nicht wie einen realen Schaltplan der neuronalen Verbindungen vorstellen«, erklärt Maass. »Es handelt sich dabei vielmehr um statistische Informationen über die Verbindungswahrscheinlichkeiten zwischen den Neuronen.« Schließlich sei es nicht ohne Weiteres möglich, ein lebendes Mäusehirn zu vermessen und dabei jede einzelne synaptische Verbindung genau festzustellen. Stattdessen führten Biologen im Vorfeld eine Vielzahl von Experimenten an verschiedenen Mäusen durch: Die Tiere konnten sich auf einem Laufband bewegen, während sie über drei Monitore unterschiedlichen optischen Reizen ausgesetzt waren. Dabei vermaßen die Forscher mit bildgebenden, auf Lasern basierenden Methoden die Gehirnvorgänge und ermittelten so die Wahrscheinlichkeiten dafür, dass einzelne Nervenzellen miteinander kommunizieren. Auf solchen Wahrscheinlichkeiten bauten Maass und seine Kollegen schließlich ihre Simulation des visuellen Kortex auf.

Um ihr künstliches neuronales Netz zu testen, haben die Forschenden ihrem Computerprogramm die gleichen Bilder vorgelegt, die sie den Mäusen in den vorangegangenen Experimenten vorgesetzt hatten. Diese zeigten etwa Abfolgen von einfachen Streifenmustern oder Aufnahmen anderer Tiere wie Hunde oder Papageie. Die Mäuse mussten jedes Mal reagieren, wenn ein neues Bild sich vom vorherigen unterschied – zur Motivation bekamen die Nager für richtig gelöste Aufgaben kleine Belohnungen. »Das ist schon eine recht komplexe Aufgabe, weil sich die Maus zum einen merken muss, wie das zuvor gezeigte Bild aussah, und zum anderen enthält so ein Bild sehr viele verschiedene Informationen«, sagt Maass. »Eine Maus schafft das mit einer Trefferquote von etwa 80 bis 90 Prozent, und unser Computermodell hat am Ende die gleiche Trefferquote erzielt.«

Zudem stellten die Neuroinformatiker fest, dass die Sehfunktion ihres Modells deutlich weniger fehleranfällig war als die gewöhnlichen KI-Systeme, die klassischerweise für solche Aufgaben zum Einsatz kommen. Enthielten die Bilder etwa absichtlich eingefügte Bildstörungen in Form einiger falscher Pixel, entstanden im simulierten Mäusehirn bei der Klassifizierung weniger Fehler als in einem herkömmlichen künstlichen neuronalen Netz. »Das ist sehr wichtig etwa für das autonome Fahren, wo viele fatale Unfälle passieren können, wenn die Bildverarbeitung nicht richtig funktioniert«, sagt Maass.

Inzwischen zeigt auch die Industrie großes Interesse am biologischen Sehen, weil das Prinzip wesentlich energieeffizienter ist als die bisher eingesetzten Methoden. Während in einem künstlichen neuronalen Netzwerk immer alle Neuronen auf einen Reiz reagieren, sind die Nervenzellen des visuellen Kortex jeweils für sich genommen nur sehr selten aktiv. »Auf Bildern, wie sie den Mäusen gezeigt wurden, reagiert gerade einmal ein Prozent der Zellen«, sagt Maass. »Das ist ein sehr raffinierter, Energie sparender Prozess, den wir auf technische Anwendungen übertragen wollen.«

Nicht nur die Software soll das Gehirn imitieren

Für eine wirklich effiziente Verarbeitung von Bildern und Informationen genügt es nicht, die Funktionsweise des Gehirns bloß auf Seiten der Software zu imitieren. Die Hardware, auf der die Berechnungen letztlich stattfinden, sollte ebenfalls dem biologischen Vorbild folgen.

Dieser Aufgabe widmeten sich Forschende der Technischen Universität Dresden und der University of Manchester ebenfalls im Rahmen des Human Brain Project. Die von ihnen entwickelten SpiNNaker-Chips (Spiking Neural Network Architecture) werden als neuromorph bezeichnet, weil manche ihrer Funktionsweisen vom Gehirn inspiriert sind.

Das Auslesen der Speicher kann schon bald nicht mehr mit der Geschwindigkeit der Prozessoren mithalten

Die SpiNNaker-Chips verwenden als elementare Schaltelemente zwar nach wie vor herkömmliche Transistoren, mit denen auch gewöhnliche Computer funktionieren. Der Aufbau der Chips ist allerdings biologischen Nervensystemen nachempfunden. So ist das Gehirn etwa darauf ausgelegt, die über die Sinnesorgane eintreffenden Informationen auf das absolut Wesentliche zu reduzieren. Allein die Netzhaut mit ihren vier Zellschichten komprimiert die auf das Auge auftreffenden Informationen auf etwa ein Prozent. Daher kommen bei den SpiNNaker-Chips ebenso Codierungsprinzipien zum Einsatz, die redundante Informationen entfernen. Und während herkömmliche Computerhardware synchron und immer auf der gleichen Betriebsspannung sowie Taktfrequenz läuft, lassen sich die neuromorphen Prozessoren je nach Bedarf automatisch hoch- und wieder herunterfahren, um Energie zu sparen.

Neben dem hohen Energieverbrauch haben klassische Rechner weitere Nachteile, zum Beispiel, dass die Verarbeitung und Speicherung von Daten baulich voneinander getrennt ist. Für jeden Rechenschritt muss das System die Werte aus dem Arbeitsspeicher holen und zum Prozessor leiten, um sie dort zu verarbeiten. Anschließend wird das Ergebnis wieder zurück in den Speicher transferiert. Dieser Vorgang ist sehr zeitaufwändig: Während die Prozessoren immer schneller werden, kann das Auslesen der Speicher mit der Geschwindigkeit schon bald nicht mehr mithalten.

SpiNNaker-Chips | Der Aufbau der Computerchips ist an manche Funktionsweisen des Gehirns angelehnt. Unter anderem lassen sich die verbauten Prozessoren je nach Bedarf hoch- und wieder herunterfahren – anders als bei herkömmlicher Computerhardware.

Im Gehirn gibt es jene Trennung hingegen nicht. Im Zentrum der biologischen Informationsverarbeitung und -speicherung stehen die Synapsen. Sie bilden die Verbindungen zwischen den einzelnen Nervenzellen, über die sie ihre elektrischen Pulse, die Spikes, zu den benachbarten Neuronen schicken. Wird ein Neuron von genügend solcher Spikes angeregt, beginnt es seinerseits zu feuern, was die Datenverarbeitung in vollen Gang setzt. Gleichzeitig stimuliert das Feuern die Synapsen, was die Verbindungen zwischen den Neuronen verstärkt. Dadurch speichert ein biologisches Nervensystem die Information also unmittelbar während der Verarbeitung. Darüber hinaus setzt ein Lernprozess ein: Das biologische Netzwerk passt sich so an die aktuelle Aufgabe an.

Wie schafft man künstliche Synapsen?

Bei Ansätzen zu neuromorphen Systemen gibt es zwar bereits physische Neurone, doch die Synapsen werden bislang weiterhin über die Software realisiert. Ein Rechner schreibt also ständig die Stärke der Verbindungen, die so genannten Gewichte, in den Speicher, nur um sie beim nächsten Rechenschritt wieder von dort zurückzuholen. »Das kostet nicht nur Zeit, sondern verbraucht auch sehr viel Energie«, sagt Regina Dittmann. Die Elektrotechnikerin ist Professorin an der Justus-Liebig-Universität Gießen und stellvertretende Direktorin des Peter-Grünberg-Instituts im Forschungszentrum Jülich. Sie entwickelt neuartige, elektronische Bauelemente, die ähnliche Eigenschaften aufweisen wie biologische Synapsen. Diese »Memristoren« – ein Kofferwort aus Memory (Speicher) und Resistor (Widerstand) – sind im Wesentlichen elektrische Widerstände, deren Leitfähigkeit sich ändert, wenn Strom durch sie hindurchfließt. »Memristor-Netzwerke speichern die Gewichte [der Synapsen] direkt im Element selbst ab« – genau wie das biologische Vorbild.

Bisher existieren solche Netzwerke allerdings lediglich in Form von Prototypen, die aus einigen hundert Memristoren bestehen und damit einfache KI-Aufgaben bewältigen, wie handgeschriebene Ziffern zu erkennen. »Die Memristor-Technologie ist noch weit davon entfernt, große Aufgaben aktueller neuronaler Netze wie ChatGPT zu bewältigen«, sagt Dittmann. »Man wird Memristoren zunächst wohl eher im Internet-of-Things sehen, um vor Ort schnell Daten aufnehmen und klassifizieren zu können.« In solchen Fällen sei die Energieeffizienz oft ein zentraler Aspekt und die Menge der zu verarbeitenden Daten gering. »Wenn etwa ein Sensor daheim den Gesundheitszustand eines älteren Menschen überwachen oder Alarm schlagen soll, wenn dieser stürzt, ist das eine recht einfache Aufgabe. Die kann auch ein kleines Netzwerk ausführen«, sagt die Forscherin. »So ein Netzwerk lässt sich dann mit einer Batterie betreiben und kann seine Aufgaben vor Ort ausführen, ohne ständig Daten in eine Cloud zu transferieren.«

»Hirnforscher wünschen sich einen Memristor-Computer, mit dem sie das Gehirn simulieren können, um es besser zu verstehen«Regina Dittmann

Einer der Gründe für die geringe Leistungsfähigkeit von Memristor-Netzwerken ist, dass sich die einzelnen Memristoren nur ein- und ausschalten lassen: Man kann ihren elektrischen Widerstand nicht auf Zwischenzustände einstellen. Exemplare, deren Verbindungen sich wie bei ihren biologischen Vorbildern graduell verstärken beziehungsweise abschwächen lassen, existieren bisher nur in Laboratorien wie dem am Forschungszentrum Jülich und funktionieren noch nicht zuverlässig genug, um sie in großer Stückzahl herzustellen.

Bei der Entwicklung neuartiger Soft- und Hardware auf Basis von Memresistoren wird ebenso in Jülich Interdisziplinarität großgeschrieben. »Wir arbeiten sehr eng mit den Kolleginnen und Kollegen aus den Neurowissenschaften zusammen und versuchen, von ihnen zu lernen«, sagt Dittmann, die selbst nicht am Human Brain Project beteiligt war. »Und umgekehrt wünschen sich die Hirnforscher von uns einen Memristor-Computer, mit dem sie das Gehirn simulieren können, um es besser zu verstehen.«

Selbst wenn das Human Brain Project nun offiziell abgeschlossen ist, werden die Fachleute für Hirnforschung und Informatik wohl weiterhin Hand in Hand arbeiten. Denn um leistungsfähige KI-Modelle (etwa für verlässliche autonome Fahrzeuge) zu entwickeln und den Energieverbrauch zu reduzieren, sind wir sowohl auf technologische als auch biologische Erkenntnisse angewiesen.

  • Quellen

Chen, G. et al.: A data-based large-scale model for primary visual cortex enables brain-like robust and versatile visual processing. Science Advances 8, 2022

De Vries, A.: The growing energy footprint of artificial intelligence. Joule 7, 2023

Dittmann, R. et al.: Nanoionic memristive phenomena in metal oxides: the valence change mechanism. Advances in Physics 2, 2021

Yan, Y. et al.: Efficient Reward-Based Structural Plasticity on a SpiNNaker 2 Prototype. IEEE 13, 2019

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.