Neuromorphe Computer: Ein Hirn aus Silizium
Seinen ersten Computer bekam Kwabena Boahen als Teenager im Jahr 1982. Damals lebte er im ghanaischen Accra. "Das war ein ziemlich cooles Ding", erinnert er sich. Man musste nur einen Kassettenspieler als Datenspeicher anschließen und einen Fernseher als Monitor, schon konnte man losprogrammieren.
Dann fand Boahen heraus, wie der Rechner im Innersten funktioniert, und die Begeisterung war dahin. "Der Prozessor muss permanent Daten hin und her schieben, und ich dachte mir: 'Mensch, der muss ja wie verrückt arbeiten!'" So ein Computer könne ein bisschen mehr "Afrika" vertragen, sagte sich Boahen, "etwas Verteilteres, Flüssiges, was weniger starr ist."
Nun ist Boahen Bioingenieur an der Stanford University in Kalifornien und zählt zu einem kleinen Kreis von Forschern, die genau solche Computer zu entwickeln versuchen – durch "Reverse Engineering" des Gehirns, den Nachbau unseres Denkorgans.
Das Hirn ist bemerkenswert energieeffizient und kann trotzdem Berechnungen ausführen, die selbst die besten Supercomputer in die Knie zwingen. Und das, obwohl sie lediglich aus höchst unzuverlässigen Komponenten bestehen: einem Haufen organischer, langsamer und veränderlicher Nervenzellen, die in einer Schuhschachtel bequem Platz hätten und dabei weniger Energie als eine Glühbirne verbrauchen. Nichts in diesem System erinnert auch nur entfernt an einen zentralen Prozessor.
Damit das auch mit heutiger Siliziumtechnologie möglich wird, setzen Forscher auf nicht digitale Chips, die Netzen aus natürlichen Neuronen möglichst ähnlich sind. Erst vor wenigen Jahren entwickelte Boahen sein Neurogrid, ein System, das eine Million Neurone nachbilden kann, etwas so viel wie im Kopf einer Honigbiene stecken. Nach einem Vierteljahrhundert kontinuierlicher Entwicklung rücken nun sogar konkrete Anwendungen für die "neuromorphe Technologie" in Reichweite.
Sie gilt als viel versprechend für alle Apparate, die klein sein müssen und nur wenig Strom verbrauchen dürfen – wie Smartphones und Roboter, künstliche Augen oder Ohren. Das machte in den letzten fünf Jahren immer mehr Investoren hellhörig, auch Einrichtungen in den USA und Europa steuerten bereits hunderte Millionen Euro bei.
Forschungswerkzeug und Hoffnungsträger
Außerdem erweisen sich neuromorphe Chips als leistungsfähiges Forschungswerkzeug für Neurowissenschaftler, erklärt Giacomo Indiveri vom Institut für Neuroinformatik der Universität Zürich. Wenn man überprüfen kann, welche Modelle der Informationsverarbeitung im Gehirn auch in real existierenden physischen Systemen funktionieren, "kann man einiges darüber lernen, warum das Gehirn so aufgebaut ist und nicht anders", erklärt er.
Und, ergänzt Boahen, die neuromorphe Technologie könnte helfen, eines der größten drohenden Probleme der herkömmlichen Computertechnologie zu umgehen: das Ende von Moores Law. Die gut zweijährliche Verdoppelung der Transistoranzahl auf einem Chip, der wir den rasanten technologischen Fortschritt der Vergangenheit verdanken, könnte bald an eine Grenze stoßen. Geht das unablässige Schrumpfen der Bauteile nämlich weiter wie bisher, werden die Siliziumkomponenten bald so klein sein, dass Elektronen durch Barrieren schlüpfen und dabei die Signale verschmieren. Das würde sie im Endeffekt den chaotischen Neuronen viel ähnlicher machen.
Einige Forschungsgruppen versuchen, diesem Problem Herr zu werden, indem sie die Software um statistische Fehlerkorrekturverfahren erweitern, wie sie auch für den Datenverkehr im Internet verwendet werden. Doch am Ende sei es wohl das Effektivste, dieselbe Lösung zu verwenden, die sich im Gehirn vor Millionen von Jahren eingestellt hat, meint Boahen. "Mein Ziel ist ein neues Computerparadigma", sagt er, "etwas, das auch dann noch rechnet, wenn die Komponenten zu klein sind, um noch verlässlich zu arbeiten."
Die Idee zur neuromorphen Technologie stammt aus den 1980er Jahren und wurde maßgeblich von Carver Mead vorangetrieben, einem renommierten Pionier der Microchipentwicklung am California Institute of Technology in Pasadena. Er hat sich nicht nur den Begriff ausgedacht, sondern betonte auch als einer der Ersten den enormen Energiesparvorteil, den eine gehirnähnliche Computerarchitektur bieten würde: "Das war für mich das Faszinierende", sagt er: "Wie um alles in der Welt schafft dies das Gehirn?"
Meads Lösungsansatz bestand darin, Siliziumkomponenten im "unterschwelligen" Bereich zu betreiben. Er richtete Schaltkreise so ein, dass die elektrische Spannung darin nicht ausreichte, um ein gewöhnliches Computerbit von null auf eins zu schalten. Dabei tritt in den Transistoren ein sehr schwaches, unregelmäßiges Durchsickern von Elektronen auf. Es ist in Größe und Schwankungsbreite dem Fluss von Ionen durch die Kanäle der Nervenzellmembran erstaunlich ähnlich.
Mit mikroskopischen Kondensatoren, Widerständen und ein paar anderen Komponenten zur Regelung des Stromflusses müssten sich komplette kleine Schaltkreise bauen lassen, die in ihrem elektrischen Verhalten ein natürliches Neuron nachahmen, überlegte Mead. Diese wiederum könnte man zu dezentralen Netzen ganz ähnlich wie im Gehirn zusammenschalten. Signale würden beispielsweise über direkte Kommunikationsverbindungen ausgetauscht anstatt über eine zentrale Steuereinheit [1, 2].
Ein erstes Siliziumneuron
Etwa um das Jahr 1990 herum hatten Mead und seine Arbeitsgruppe gezeigt, dass sich so ein realitätsnahes Kunstneuron tatsächlich bauen lässt [3]. Ihre Vorrichtung verfügte über Verbindungselemente nach außen, die die Rolle von Synapsen spielten und elektrischen Input entgegennahmen. Diese Eingangssignale summierten sich intern auf, genau wie im richtigen Neuron. Und sobald die angesammelte Spannung einen bestimmten Schwellwert überstieg, "feuerte" das Siliziumneuron und sendete eine Serie von Spannungsimpulsen entlang eines Drahts, der das Axon der Nervenzelle darstellte – jenem Kabel also, mit dem Neurone ihre Signale auf andere Zellen übertragen.
Obwohl diese Spikes genannten Spannungsspitzen in gewissem Sinne digital waren, also entweder vorhanden oder nicht, operierte der eigentliche Körper des Kunstneurons wie sein natürliches Vorbild auf nicht digitale Weise: Die Änderungen in der Spannung und im Stromfluss waren anders als bei herkömmlichen Chips nicht auf diskrete Werte festgelegt.
Dieses Verhalten imitiert eine jener Energie sparenden Schlüsseleigenschaften der Nervenzelle: Wie sein biologisches Gegenstück muss das Siliziumneuron die meiste Zeit lediglich Eingaben integrieren, was sehr wenig Energie verbraucht, um dann gelegentlich ein Signal abzusetzen. Im Gegensatz dazu muss ein konventioneller Computer permanent Energie aufwenden, um seine interne Uhr am Laufen zu halten – egal, ob gerade etwas berechnet wird oder nicht.
Meads Gruppe entwickelte außerdem Systeme aus verteilten neuronalen Schaltkreisen, darunter eine Art Siliziumvariante der menschlichen Retina. Über ein Raster aus 50 mal 50 Sensoren sammelte das Gerät Licht und verarbeitete die Signale intern weiter. Stellte man die Aktivität der neuronalen Komponenten auf einem Monitor dar, zeigte sich, dass die Kunstzellen ganz ähnlich auf Licht, Schatten und Bewegungen reagierten wie ihr natürliches Vorbild [4]. Wie das Gehirn sparte ihr Gerät Strom, indem es nur die wichtigen Daten weiterreichte: Die Retinazellen blieben die meiste Zeit stumm und feuerten nur dann, wenn sich das einfallende Licht änderte. Das hat zwei Vorteile, denn einerseits werden so die Kanten von sich bewegenden Objekten betont, und andererseits schrumpft die Menge an Daten, die übertragen und verarbeitet werden, auf ein Minimum.
Weil die Technologie damals noch in den Kinderschuhen steckte, hatten die Forscher mit solchen Einchipsystemen bereits alle Hände voll zu tun, sagt Boahen, der im Jahr 1990 zu Meads Labor stieß. Aber ab Ende der 1990er Jahre "wollten wir anfangen, ein Gehirn zu bauen. Und dafür brauchten wir Kommunikationsverfahren, die auch im größeren Maßstab funktionierten."
"Mein Ziel ist ein neues Computerparadigma"Kwabena Boahen
Eine beträchtliche Herausforderung. Die damals gebräuchlichen Kodierungsalgorithmen für die Kommunikation von Chip zu Chip waren auf präzise koordinierte, digitale Signale ausgelegt. Bei den sporadischen Spikes der Zellen versagten sie. Erst nach dem Jahr 2000 fanden Boahen und andere Forscher Schaltkreise und Algorithmen, die mit den chaotischen neuromorphen Systemen zurechtkamen. Damit stand die Tür zu deutlich umfangreicheren Chipanordnungen sperrangelweit offen.
Jenseits der Millionenmarke
Eine betriebsame Zeit begann. Zunächst entstanden Systeme, mit denen Neurowissenschaftler ihre Modelle neuronaler Verarbeitung testen konnten. Im September 2006 stellte Boahen das Neurogrid-Projekt auf die Beine, bei dem insgesamt eine Million biologischer Neurone emuliert wurden. Das war freilich immer noch nur ein winziger Bruchteil der rund 86 Milliarden Neurone im menschlichen Gehirn, aber immerhin ausreichend, um eine Hand voll der dicht gepackten "Säulen" nachzubilden, die als elementare Recheneinheiten im Informationsverarbeitungssystem der Großhirnrinde gelten.
Hirnforscher könnten Neurogrid darauf programmieren, nahezu jedes Modell des Kortex zu emulieren, erklärt Boahen. Und sie könnten ihrem Modell bei der Arbeit zuschauen, da es mit der Geschwindigkeit des biologischen Gehirns abläuft – das ist hundert- bis tausendmal schneller als bei konventionellen digitalen Simulationen. Forscher hätten damit bereits Theorien über so unterschiedliche Hirnleistungen wie Arbeitsgedächtnis, Entscheidungsfindung oder visuelle Aufmerksamkeit überprüft.
"Was Effizienz und Abbildungstreue zum natürlichen Vorbild angeht, hat Kwabenas Neurogrid einen deutlichen Vorsprung gegenüber anderen großen neuromorphen Systemen", erläutert Rodney Douglas, Mitgründer des Züricher INI und Mitentwickler des Siliziumneurons.
Aber kein System ist perfekt, gibt auch Boahen bereitwillig zu. Zu den gewichtigsten Nachteilen von Neurogrid zählt die Tatsache, dass seine Synapsen – im Mittel hat jede Nervenzelle 5000 davon – durch stark vereinfachte Verbindungen dargestellt werden, die sich nicht individuell verändern lassen. Lernvorgänge, die im Hirn durch erfahrungsabhängige Modifikation der Synapsen vonstattengehen, können daher nicht modelliert werden. Der Raum, der auf einem Chip zur Verfügung steht, ist extrem begrenzt, wollte man Schaltkreise einbauen, die den Synapsen ein naturgetreues Verhalten verleihen, müsste ihr Flächenbedarf um den Faktor 1000 schrumpfen.
Besser doch digital?
Damit wäre man im Bereich der Nanotechnologie angelangt – außerhalb der Reichweite heutiger Verfahren. Allerdings entwickeln Forscher derzeit einen neuartigen Typus von nanometergroßen Speicherelementen, die so genannten Memristoren, mit denen sich das Problem eines Tages lösen lassen könnte.
Probleme bereiten auch unvermeidliche Qualitätsschwankungen bei der Fertigung. Sie sind der Grund, dass sich Chips immer ein bisschen anders verhalten als geplant. "Die Variabilität ist zwar immer noch geringer als im Gehirn", sagt Boahen, trotzdem sei es nicht leicht, Software zu entwickeln, die die erheblichen Unterschiede in der Feuerfrequenz aushalten kann.
Aus diesem Grund haben sich einige Wissenschaftler von Meads unterschwellig betriebenen Chips abgewandt. Sie setzen stattdessen auf eher konventionelle digitale Systeme, die zwar auch das Verhalten von Neuronen imitieren – und folglich zu den neuromorphen Schaltkreisen zählen –, aber vorhersehbarer arbeiten und leichter zu programmieren sind. Der Preis dafür ist ihr erhöhter Energieverbrauch.
Eines der führenden Beispiele ist das Projekt SpiNNaker, das seit 2005 unter der Leitung von Steve Furber an der University of Manchester entsteht. Die Forscher verbauen dazu eine Variante verbrauchsarmer Chips, wie sie in vielen Smartphones zu finden sind und an deren Entwicklung Furber selbst beteiligt war. Laut Furber kann SpiNNaker derzeit bis zu fünf Millionen Neurone emulieren, allerdings sind sie simpler als im Neurogrid und ziehen mehr Strom. Der Grundgedanke bleibt jedoch der gleiche: "Wir wollen umfangreiche Gehirnmodelle in biologischer Echtzeit laufen lassen", sagt Furber.
"Wir wollen umfangreiche Gehirnmodelle in biologischer Echtzeit laufen lassen"Steve Furber
Ein anderer Ansatz hingegen behält das neuronenähnliche Design bei, schraubt aber deren Geschwindigkeit stark nach oben. Die künstlichen Zellen im Neurogrid arbeiten mit exakt derselben Feuerfrequenz wie natürliche Nervenzellen. Beim europäischen BrainScaleS-Projekt einer Gruppe um Karlheinz Meier von der Universität Heidelberg entsteht ein neuromorphes System, dessen Bausteine 10 000-mal schneller als die Zellen im Gehirn arbeiten. Derzeit emulieren die Forscher um den ehemaligen Beschleunigerphysiker Systeme mit 400 000 Neuronen. Leider verbraucht ihr System auch um den Faktor 10 000 mehr Energie als vergleichbare Vorgänge im Gehirn. Trotzdem kommt das Verfahren einigen Kollegen aus der Hirnforschung wie gerufen. "Wir können die Nervenzellaktivität eines Tags in nur zehn Sekunden simulieren", erklärt Meier.
Dank einer kräftigen Finanzspritze werden er und sein Kollege Furber bald noch eine Schippe drauflegen können: Gemeinsam bilden sie den Neuromorphikarm des auf zehn Jahre angelegten und eine Milliarde Euro schweren Human Brain Projects der Europäischen Union. In dem Förderprogramm, das vergangenen Monat offiziell an den Start ging, sind knapp 100 Millionen Euro für die Weiterentwicklung neuromorpher Systeme reserviert. Furbers Gruppe will damit auf 500 Millionen digitale Neurone aufstocken, Meier und Kollegen peilen dagegen die Vier-Millionen-Marke an.
Auf Grund des Erfolgs dieser Projekte in der neurowissenschaftlichen Forschung überlegen Hardwareentwickler nun, ob sich der extrem geringe Energieverbrauch der neuromorphen Architektur nicht auch für andere Geräte nutzen lasse. Bis vor Kurzem war Sparsamkeit kaum je Thema in der Computerindustrie, Smartphones und Roboter haben das geändert. Nun wurde der Energieverbrauch minimiert, indem Schaltkreise vereinfacht oder Berechnungen auf mehrere Prozessorkerne verteilt wurden, die sich nach Bedarf an- und abschalten lassen.
Praktische Anwendungen in Sicht
Doch diesem Vorgehen sind Grenzen gesetzt. Seit 2008 hat die Förderagentur des US-Verteidigungsministeriums DARPA über 100 Millionen Dollar für ihr Projekt SyNAPSE ausgegeben. Ziel des Unternehmens war die Entwicklung kompakter und sparsamer neuromorpher Technologie. Einer der Hauptvertragspartner in diesem Projekt, die Cognitive Computing Group am IBM-Forschungszentrum im kalifornischen Almaden, hat ihren Anteil am Geld dafür aufgewendet, digitale Chips mit 256 neuronalen Elementen zu bauen, die als Bausteine für größere Einheiten dienen könnten.
Boahen hat indessen einen eigenen Weg zur Entwicklung praxistauglicher Anwendungen eingeschlagen. Das noch namenlose Programm läuft seit April dieses Jahres und baut auf Spaun auf, einem Design zur Implementierung eines Computermodells des Gehirns, das Komponenten für visuelle Wahrnehmung, Bewegung und Entscheidungsfindung umfasst. Spaun verwendet dazu eine eigene Programmiersprache, mit der sich neuronale Schaltkreise steuern lassen. Entwickelt wurde es vor einem Jahrzehnt von Chris Eliasmith, einem Experten für theoretische Neurowissenschaft an der University of Waterloo im kanadischen Ontario. Der Benutzer muss lediglich eine gewünschte neuronale Funktion – etwa die Erzeugung von Steuerkommandos zur Bewegung eines Arms – spezifizieren, woraufhin Eliasmiths System vollautomatisch ein Netzwerk feuernder Neurone entwirft, das diese Aufgabe leistet.
Ob das wie gewünscht funktioniert, überprüften Eliasmith und Kollegen, indem sie Spaun auf einem konventionellen Computer simulierten: Ein System aus 2,5 Millionen künstlichen Nervenzellen, einer simulierten Retina sowie einer Greifhand war beispielsweise dazu in der Lage, handschriftliche Zahlen zu kopieren, Listeneinträge abzuspeichern und das fehlende Element einer vorgegebenen Zahlfolge zu rekonstruieren [5]. Eine solche Bandbreite an Fähigkeiten sei für neuronale Simulationen ohne Vergleich, sagt Boahen. Nur lief die Spaun-Simulation rund 9000-mal langsamer als in der Wirklichkeit. Um eine Sekunde natürlichen Verhaltens abzuarbeiten, rechnete der Computer zweieinhalb Stunden.
Eine gesegnete Verbindung
Boahen unterbreitete Eliasmith den zu erwartenden Vorschlag: gemeinsam eine in Echtzeit laufende physische Version von Spaun mit Hilfe seiner neuromorphen Hardware zu bauen. "Ich war von Anfang an begeistert", sagt Eliasmith. Es sei ihm als die perfekte Verbindung erschienen: "Sie hatten sozusagen die Erdnussbutter, wir die Schokolade."
Mit Geldern vom US Office of Naval Research, der Forschungsabteilung der US-Marine, stellten Boahen und Eliasmith ein Team zusammen, mit dem sie binnen drei Jahren einen kleinen Prototypen aufsetzen wollen. In fünf Jahren soll das System dann in vollem Umfang betriebsbereit sein.
Für den Input sind laut Plan neuromorphe Retinas und Cochleas aus den Labors des INI zuständig. Als Output diene ein Roboterarm, sagt Boahen. Das Herzstück, die kognitive Hardware, werde allerdings von Grund auf neu entworfen. "Das ist kein neues Neurogrid, sondern eine völlig neue Architektur", erläutert der Forscher. Aus Gründen der Praktikabilität müssten allerdings Abstriche beim Realismus gemacht werden, man baue auf "sehr einfache, sehr effiziente Neurone, die wir in millionenfacher Stückzahl in das System integrieren können."
Immerhin geht es den Forschern ja explizit um Praxistauglichkeit. Innerhalb von fünf Jahren, stellt sich Boahen vor, könnten sie vollautonome Roboter bauen, die mit ihrer Umwelt in Echtzeit sinnvoll interagieren, während ihre Gehirne gerade einmal so viel Energie wie ein Mobiltelefon verbrauchen. Solche Geräte wären deutlich flexibler und anpassungsfähiger als heutige autonome Roboter und dabei obendrein noch sparsamer im Verbrauch.
Auf lange Sicht sieht Boahen die Chance, dank des Projekts jeden beliebigen Computer mit einem kompakten, Strom sparenden Prozessor ausrüsten zu können, nicht nur die der Roboter. Sollte die Wissenschaft tatsächlich eines Tages dahinterkommen, welchen entscheidenden Zutaten das Gehirn seine Effizienz, Kompaktheit und Widerstandsfähigkeit verdankt, wäre dies womöglich die Rettung für eine Industrie, die drauf und dran ist, mit ihren immer kleineren Chips gegen eine Wand zu fahren.
"Aber ob das wirklich so ist, wissen wir nicht", sagt Boahen,"nur werden wir es eben nie wissen, wenn wir es nicht versuchen."
Dieser Artikel erschien unter dem Titel "Smart Connections" in Nature 503, S. 22-24, 2013.
Schreiben Sie uns!
Beitrag schreiben