Hochleistungsrechner: Kampf gegen die Hitze
Neben seinem eigentlichen Zweck eignet sich ein Laptop auch hervorragend als tragbarer und effektiver Schoßwärmer – angenehm in einem kalten Büro. Desktop-PC sind bereits auf einen Lüfter angewiesen, und große Rechenzentren wie das von Google beispielsweise kommen nicht mehr ohne gewaltige Mengen an Kühlwasser aus. Bei den modernsten Supercomputern muss man sogar aufpassen, dass sie nicht einschmelzen. Einer der weltweit leistungsstärksten Supercomputer läuft am Leibniz-Rechenzentrum in München: Mit einer Leistung von drei Petaflops (3 mal 1015 Operationen pro Sekunde) produziert der Rechner genügend Abwärme, um mehrere Institutsgebäude zu heizen. Aktuelle Prognosen mutmaßen, dass der nächste Meilenstein im Computerwesen – ein Rechner im Exaflopsbereich, also mit gut 1018 Operationen pro Sekunde – Hunderte von Megawatt (das entspricht der Leistung eines kleinen Kernkraftwerks) verbrauchen und praktisch die gesamte Energie in Wärme umwandeln wird.
Tatsächlich droht Wärme mehr und mehr zum größten Hindernis für die Weiterentwicklung von Computern zu werden [1]. Das Problem ist fundamental: Je kleiner und kompakter die Schaltungen sind, desto stärker heizen sie sich auf. "Die von heutigen Mikroprozessoren erzeugte Wärmestromdichte ist locker vergleichbar mit derjenigen auf der Sonnenoberfläche", sagt Suresh Garimella von der Purdue University in West Lafayette, Indiana. "Aber im Gegensatz zur Sonne müssen wir die Bauteile auf Temperaturen unter 100 Grad Celsius herunterkühlen, damit sie richtig funktionieren", erklärt der Spezialist für Energiemanagement bei Computern.
Um sich diesem immer schwieriger zu erreichenden Ziel zu nähern, erproben Ingenieure neue Kühltechniken. So bringen sie beispielsweise flüssiges Kühlmittel direkt auf die Chips auf, anstatt Luft um sie herum zu blasen. In einem radikaleren Ansatz versuchen Forscher, die Wärmestromdichte durch eine geschickte Bauweise der Schaltkreise zu reduzieren. Anstatt diese auf zweidimensionale Leiterplatten zu beschränken, könnten die elektronischen Schaltungen zum Beispiel in dreidimensionalen Strukturen und Netzwerken angeordnet sein, inspiriert von der Architektur des Gehirns – schließlich bedarf es hier trotz enormer Rechenleistung keiner speziellen Kühlung. Vielleicht werden künftige Supercomputer nicht einmal mehr mit elektrischem Strom aus metallischen Leiterbahnen versorgt, sondern mittels Ionen im hindurchströmenden Kühlmittel elektrochemisch angetrieben.
Zwar handelt es sich hierbei nicht um die glamouröseste Aufgabe in der Computerentwicklung – sicherlich nicht zu vergleichen mit dem viel beachteten Bestreben, elektronische Bauteile immer kleiner und schneller zu machen. Doch diese prestigeträchtigen Innovationen nützen wenig, wenn Ingenieure nicht das Problem mit der Hitze lösen.
Mit dem Strom schwimmen
Das Problem ist so alt wie Computer selbst. Ende des Zweiten Weltkriegs entstand der erste moderne elektronische Computer an der University of Pennsylvania in Philadelphia – in Form einer 30 Tonnen schweren Maschine namens ENIAC. Darin waren 18 000 Vakuumröhren verbaut, die durch eine Reihe von Lüftern gekühlt werden mussten. Der Wechsel zu Halbleiterbauelementen aus Silizium in den 1960er Jahren verschaffte eine kurze Verschnaufpause, doch mit steigender Bauteildichte kehrte der Kühlungsbedarf zurück. In den frühen 1990er Jahren ging man dann von "bipolaren" Transistoren zu so genannten komplementären Metall-Oxid-Halbleitern (englisch: Complementary Metal Oxide Semiconductor, kurz CMOS) über, was ein weiteres Durchatmen erlaubte, denn die Verlustenergie pro Bauelement ließ sich damit drastisch senken. Doch die Anzahl der Schaltkreiskomponenten pro Computerchip verdoppelt sich ungefähr alle 18 Monate, wie das berühmte mooresche Gesetz beschreibt, und durch dieses exponentielle Wachstum rückt das Problem wieder in den Vordergrund [2]. Einige der heutigen Mikroprozessoren geben Wärme von mehr als einer Milliarde Transistoren ab. Würden die Chips eines herkömmlichen Desktop-Rechners ihre Wärme einfach in ein Vakuum abstrahlen, würde sich sein Inneres auf mehrere tausend Grad Celsius aufheizen.
Genau aus diesem Grund sind Desktop-PC (sowie einige Laptops) mit Lüftern ausgestattet. Zwar würde die aufgeheizte Luft auch ohne diese etwas Wärme durch Konvektion von den Chips forttragen, allerdings nicht genug: Erst durch einen Lüfter zirkuliert ausreichend Luft um die Bauteile, um deren Temperaturen auf erträglichen 75 Grad Celsius zu halten. Nur verbraucht ein Lüfter auch Strom – bei einem Laptop bedeutet das eine zusätzliche Belastung für den Akku. Zudem reichen Lüfter allein nicht immer aus, beispielsweise in den Computern in Rechenzentren. Viele davon arbeiten mit Wärmetauschern, um die aufgewärmte Luft über den heißen Chips abzukühlen.
Noch größere Rechner erfordern dagegen drastischere Maßnahmen. Bruno Michel leitet den Bereich Advanced Thermal Packaging von IBM im schweizerischen Rüschlikon und erklärt: "Ein moderner Supercomputer bräuchte pro Tag einige Kubikkilometer Luft, um gekühlt zu werden." Das ist einfach nicht praktikabel, und so müssen Computeringenieure stattdessen auf eine Flüssigkeitskühlung zurückgreifen [3]. Wassergekühlte Computer kamen bereits 1964 auf den Markt, auch mehrere Generationen von Großrechnern aus den 1980er und 1990er Jahren kühlte man mit Wasser. Heute werden manchmal nichtwässrige, nichtreaktive flüssige Kühlmittel wie Fluorkarbone eingesetzt, die oft in direkten Kontakt mit den Chips kommen. Diese Substanzen kühlen für gewöhnlich, indem sie kochen – sie absorbieren die Wärme, und der Dampf trägt sie fort.
SuperMUC, ein von IBM entwickelter Supercomputer am Leibniz-Rechenzentrum, ging 2012 in Betrieb. Mit einer Leistung von drei Petaflops gehört er zu den weltweit leistungsstärksten Supercomputern. Gekühlt wird der Rechner mit Wasser, und zwar mit einer Temperatur von rund 45 Grad Celsius. Es fließt durch Mikrokanäle, die in einen maßgeschneiderten Kühlkörper aus Kupfer oberhalb des Prozessors gefräst wurden. Mit dieser Konstruktion lässt sich die Kühlung auf solche Bereiche des Systems konzentrieren, in denen sie am meisten benötigt wird. Der Einsatz von warmem Wasser mag seltsam erscheinen, doch verbraucht man damit weniger Energie als mit anderen Kühlmethoden: Kommt das Wasser aufgeheizt aus dem System heraus, muss es nicht so stark abgekühlt werden, bevor man es erneut verwenden kann. Darüber hinaus lässt sich das warme Wasser nutzen, um benachbarte Bürogebäude zu heizen und so weitere Energie einzusparen.
Michel und seine Kollegen bei IBM glauben, dass sich mit dem fließenden Wasser nicht nur Wärme aus dem System entziehen, sondern auch Strom für die elektronischen Schaltungen generieren ließe: Im Wasser gelöste Ionen könnten elektrochemische Reaktionen an speziellen Elektroden hervorrufen und dadurch Energie erzeugen. Letzten Endes fungiert das Kühlmittel gewissermaßen als "Elektrolyt-Treibstoff". Die Idee ist nicht ganz neu, sagt Yogendra Joshi, ein Maschinenbauingenieur am Georgia Institute of Technology in Atlanta. "Man nutzt sie seit vielen Jahren im Thermomanagement von Flugzeugelektronik, die man mit Hilfe von Kerosin kühlt", sagt er.
In so genannten Flussbatterien oder Redox-Flow-Zellen, einer Form der Brennstoffzelle, erzeugt man bereits Strom mit Elektrolytströmungen. Dazu werden zunächst zwei Elektrolytlösungen in eine elektrochemische Zelle gepumpt. Dort trennt die beiden eine Membran, durch die Ionen hindurchströmen können. Durch Redoxreaktionen werden nun Elektronen zwischen den einzelnen Ionen in der Lösung übertragen und dadurch die gespeicherte chemische in elektrische Energie umgewandelt, die sich dann abgreifen lässt.
Versalzene Logik
Die Größe von Redox-Flow-Zellen lässt sich erheblich reduzieren, wenn das Fluid durch mikroskopische Kanäle strömt, die in ein Substrat wie Silizium geätzt wurden [4]. Auf diesen winzigen Skalen können die Flüssigkeiten aneinander vorbeifließen, ohne sich dabei zu vermischen. Aus diesem Grund benötigt man keine Membran mehr, um sie voneinander zu trennen. Mit dieser Vereinfachung lassen sich die Zellen nicht nur leichter, sondern auch billiger herstellen – und sie sind kompatibel mit der Siliziumchip-Technologie.
Mit Hilfe solcher mikrofluidischen Systeme wollen Michel und seine Kollegen künftig Mikroprozessoren mit dem nötigen Strom versorgen. Die Redoxreaktionen in den von ihnen entwickelten Zellen basieren auf Vanadiumionen. Der Elektrolyt strömt durch 100 bis 200 Mikrometer breite Mikrokanäle – ähnlich denen, die Kühlmittel zu Computerchips transportieren. Die elektrische Energie an Elektroden wird entlang der Kanäle abgeführt und dann durch herkömmliche metallische Leiterbahnen zu den einzelnen Bauelementen geleitet. Die Forscher präsentierten ihre vorläufigen Ergebnisse im August bei einem Treffen der Internationalen Gesellschaft für Elektrochemie in Prag [5].
Allerdings gelingt es dem Team bisher noch nicht, die Schaltkreise allein auf diese Weise zu betreiben. Derzeit liegt die Leistungsdichte der mikrofluidischen Redox-Flow-Zellen unter einem Watt pro Quadratzentimeter bei einem Volt – und damit noch zwei oder drei Größenordnungen unterhalb dessen, was heutige Mikroprozessoren verlangen. Zukünftige Prozessoren dürften aber einen deutlich geringeren Energiebedarf aufweisen, mutmaßt Michel. Zudem sollte sich die Verlustenergie mindestens halbieren lassen, wenn man den Strom durch mikrofluidische elektrochemische Zellen und nicht durch konventionelle Leiterbahnen bereitstellt, in denen rund 50 Prozent der elektrischen Energie als Wärme verloren geht.
Etwas mehr auf dem Kasten
Eine elektrochemische Stromversorgung könnte die Verlustwärme von Prozessoren reduzieren, ein anderer Ansatz würde aber noch deutlich mehr bewirken. Denn die meiste Wärme entsteht nicht etwa beim Schalten mit den Transistoren auf einem Chip, sondern durch den elektrischen Widerstand in den Leiterbahnen, die Signale zwischen den Transistoren übertragen. In den späten 1990er Jahren, als die Transistoren noch rund 250 Nanometer maßen, fielen die thermischen Verluste in beiden Fällen etwa gleich aus. Aber heute, sagt Michel, "sind die Energieverluste in den Leiterbahnen mehr als zehnmal größer als beim Schalten mit den Transistoren". Tatsächlich, fügt er hinzu, machen diese Verluste nahezu 99 Prozent der gesamten Energieverluste aus. Denn alle Komponenten müssen aktiv bleiben, während sie auf Informationen warten.
Aus diesem Grund "bewegt sich die Industrie weg von den traditionellen Chipbauweisen, in denen Kommunikationsverluste die Leistung und Effizienz drastisch beeinträchtigen", sagt Garimella. Die Lösung scheint auf der Hand zu liegen: Man müsste lediglich die Wege für die elektrischen Impulse – in ihrer Rolle als Signalträger zwischen logischen Operationen – verkürzen. Nur lassen sich die Transistoren auf zweidimensionalen Chips fast nicht mehr dichter drängen. Würde man sie stattdessen allerdings in einer dreidimensionalen Struktur anordnen, könnte der Energieverlust beim Datentransfer drastisch reduziert werden. Zudem ginge der Transfer schneller vonstatten. "Reduziert man die Weglängen um das Zehnfache, spart man ebenso viel Energie in den Leiterbahnen ein, und die Daten erreichen ihr Ziel fast zehnmal schneller", sagt Michel. Seine Vision sind 3-D-Supercomputer in der Größe eines Zuckerwürfels.
Wie könnte so eine 3-D-Bauweise aussehen? "Wir müssen nach Beispielen mit einer besseren Kommunikationsarchitektur suchen", erklärt Michel. "Das menschliche Gehirn wäre so ein Beispiel." Das Gehirn erfüllt eine anspruchsvolle Aufgabe: Nervengewebe verbraucht durchschnittlich rund zehnmal mehr Energie pro Volumen als anderes menschliches Gewebe – ein Energiehunger, an den nicht einmal der Quadrizeps eines Läufers bei den Olympischen Spielen herankommt. Obwohl das Gehirn nur zwei Prozent des Körpervolumens ausmacht, beansprucht es 20 Prozent seines gesamten Energiebedarfs.
Dennoch arbeitet das Gehirn erstaunlich sparsam im Vergleich zu elektronischen Rechnern: Für jedes Joule an Energie erbringt es fünf oder sechs Größenordnungen mehr an Rechenleistung. Michel ist überzeugt davon, dass diese Effizienz teilweise in der Architektur des Gehirns begründet liegt – ein dreidimensionales, hierarchisches Netzwerk aus lauter Querverbindungen und nicht etwa die rasterförmige Anordnung von elektronischen Schaltungen.
Gut gebaut
Auf diese Weise kann das Gehirn den verfügbaren Platz viel wirtschaftlicher ausnutzen. In einem Computer werden rund 96 Prozent des gesamten Volumens für den Wärmetransport genutzt, ein Prozent für die Kommunikation (Signalübertragung) und nur ein Millionstel von einem Prozent für Transistoren und andere logische Bauteile. Im Gegensatz dazu verwendet das Gehirn nur zehn Prozent seines Volumens zur Energiebereitstellung und zum Wärmetransport, 70 Prozent für Kommunikation und 20 Prozent für Rechenvorgänge. Darüber hinaus liegen das Gedächtnis und "Rechenzentren" im Gehirn nahe beieinander, so dass sich vor langer Zeit abgespeicherte Daten augenblicklich abgerufen lassen. In Computern sind die beiden Komponenten hingegen üblicherweise voneinander getrennt. "Computer werden bei schnellen Datenabrufen weiterhin schlecht abschneiden, wenn ihre Bauweise den Speicher nicht weiter in den Mittelpunkt rückt", sagt Michel. Dreidimensionale Anordnungen würden die jeweiligen Komponenten viel näher zusammenbringen.
Sollten Computer einmal mit einer dreidimensionalen Architektur ausgestattet werden, so spreche einiges dafür, so Michel, auch die hierarchische Struktur des Gehirns nachzubilden [6]. Eine solche Hierarchie steckt bereits implizit in einigen Entwürfen für 3-D-Designs: Blöcke aus einzelnen Mikroprozessorchips (auf denen die Transistoren selbst in einem verzweigten Netzwerk verdrahtet sind) werden zu Türmen aufgestapelt und auf Leiterplatten miteinander verbunden. Diese werden wiederum aufeinandergestapelt, was eine vertikale Kommunikation zwischen ihnen ermöglicht. Das Ergebnis ist eine Art "geordnete fraktale" Struktur: Über viele Größenordnung hinweg wiederholt sich das gleiche Muster.
Im Prinzip könnte die dreidimensionale Bauweise, so schätzt Michel, das Computervolumen um das 1000-Fache und den Energieverbrauch um das 100-Fache reduzieren, im Vergleich zu gegenwärtigen 2-D-Modellen. Gehirnähnliche, "bionische" Strukturen einzuführen, sagt er, würde den Stromverbrauch noch einmal etwa um das 30-Fache senken und das Volumen nochmals um das 1000-Fache. Die Wärmeverluste wären ebenfalls kleiner: Computer mit einer Leistung von einem Petaflops, die momentan noch eine kleine Lagerhalle ausfüllen, ließen sich in einem Volumen von zehn Litern unterbringen.
Stoßen Computeringenieure jemals in den Zetaflopsbereich (1021 Operationen pro Sekunde) vor, wird eine gehirnähnliche Struktur dagegen unabdingbar sein: Mit der gegenwärtigen Bauweise fiele ein solcher Rechner größer als der Mount Everest aus – und sein Stromverbrauch läge über dem der gesamten heutigen Welt. Zetaflopscomputer scheinen also nur mit einem neuen Ansatz, wie eben einer bionischen Struktur, umsetzbar. Michel und seine Kollegen spekulieren, dass Computer mittels solcher Innovationen etwa im Jahr 2060 die Effizienz des menschlichen Gehirns erreichen können – wenn auch nicht unbedingt dessen Fähigkeiten.
Der Artikel erschien ursprünglich unter dem Titel "Feeling the heat" in Nature 492, S. 174-176, 2012.
Schreiben Sie uns!
2 Beiträge anzeigen