Springers Einwürfe: Quo vadis, Computer?
Mit dem visionären Satz »Unten ist eine Menge Platz« sah Richard Feynman schon 1959 die heutige Nanotechnologie und miniaturisierte Computer voraus. Einmal in Gang gekommen, schien das Schrumpfen der Schaltkreise kein Halten zu kennen. Gut 50 Jahre lang folgte es dem mooreschen Gesetz, wonach etwa alle zwei Jahre doppelt so viele Transistoren auf einen Chip passten. Doch allmählich ist es da unten wirklich eng geworden (siehe meinen Einwurf von April 2016).
Wie kann es weitergehen? Mit einem programmatischen Artikel stellen sieben Informatiker um Charles E. Leiserson vom Massachusetts Institute of Technology den Satz von Feynman auf den Kopf: Oben ist eine Menge Platz, verkünden sie. Nach dem Ende von Moores Gesetz werde die Computerleistung durchaus weiter wachsen, zwar nicht mehr durch Miniaturisierung, aber dafür an den drei Fronten Software, Algorithmen und Hardware (Science 368, eaam9744, 2020).
Tatsächlich habe der zur Lösung komplizierter Probleme erforderliche Rechenaufwand seit Ende der 1970er Jahre fast ebenso sehr von besseren Algorithmen profitiert wie von der immer schnelleren Hardware. In der Nach-Moore-Ära werde es darauf ankommen, die Komponenten optimal auf einander abzustimmen. Der vertraute Computer als Alleskönner würde demnach von eigens für spezifische Aufgaben entwickelten Rechenmaschinen abgelöst werden. Diese Entwicklung wird, wie die Forscher einräumen, wohl nicht so gleichmäßig voranschreiten wie bisher, sondern weniger vorhersehbar, sprunghafter und aufwändiger.
Allmählich ist es da unten wirklich eng geworden
Ein Beispiel für eine völlig neuartige, auf ein spezielles Problem zugeschnittene Hardware liefert ein Team von Computerwissenschaftlern um Tao Chen an der niederländischen Universität Twente in Enschede. An Stelle üblicher Transistoren arbeiten hier zufallsverteilte »Tümpel« von Gold-Nanopartikeln auf einer Siliziumoberfläche. Zwischen bestimmten Ladungsinseln können je nach einer von außen angelegten Steuerspannung Ladungsträger überspringen oder nicht. Diese Verschaltung ist zu maschinellem Lernen fähig und kann handgeschriebene Ziffern leichter identifizieren als das neuronale Netz eines herkömmlichen Computers (Nature 577, S. 341–345, 2020).
Ähnelt schon solche Hardware der flexiblen Verknüpfung von Nervenzellen, so nehmen sich Roboterentwickler für die Software neuerdings Insektengehirne zum direkten Vorbild. Das berichtet die Informatikerin Barbara Webb von der University of Edinburgh (Science 368, S. 244–245, 2020). Nach dem Vorbild der Natur spüren künstliche Neurone schnelle Bewegungen in einem Sensorfeld auf; sie lernen, da sie mit der eigenen Motorik verschaltet sind, zu unterscheiden, ob die Veränderungen im Sehfeld von den Eigenbewegungen des Roboters stammen. Es gelingt ihnen schnell, die räumliche Orientierung eines Insekts nachzubilden, das zum Ausgangspunkt seiner Nahrungssuche zurückfindet.
Die Hardware funktioniert zwar auf der Basis herkömmlicher neuronaler Netze, aber die Software ist ganz auf ihre besondere Aufgabe zugeschnitten: Sie simuliert getreu die Spezialisierung verschiedener lernfähiger Regionen im Gehirn von Libellen oder Gottesanbeterinnen.
Die Beispiele zeigen: Die spektakulärsten Fortschritte der Computerentwicklung könnten künftig auf lernenden Maschinen beruhen, deren Hardware, Algorithmen und Software die noch lange unerreichten Leistungen natürlicher Gehirne nachzubilden versuchen. Und dort oben ist wirklich noch viel Platz.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.