Das simulierte Universum
In einer der großen Herausforderungen der virtuellen Astronomie versuchen Forscher in Europa und USA mit massiv parallelen Supercomputern, das beobachtete Universum zu modellieren.
Es gibt Herausforderungen, die für die Forscher einfach unwiderstehlich sind. Sie motivieren nicht nur die Forscher selbst, sondern bewegen (und überzeugen) auch Forschungspolitiker und Sponsoren und zeigen dem Nachwuchs, daß auf diesen Gebieten packende Probleme warten, vielleicht auch Karriere und Ruhm.
In der Astronomie gibt es daneben noch die Großen Herausforderungen, die Grand Challenges, etwa die Gasbewegungen im Innern eines Sterns oder die Entwicklung des Universums. Solche Projekte, so genannt von der US-amerikanischen National Science Foundation und der NASA, bilden eine Sonderklasse unter den ohnehin schon komplexen astrophysikalischen Problemen. Sie sind so kompliziert, daß sie nur als Simulation mit multiparallelen Supercomputern bewältigt werden können. Sie betreffen Objekte unterschiedlichster Skalengröße – von Sternen über interstellare Wolken bis hin zu Galaxien und riesigen Galaxienhaufen.
Die Entwicklung des Universums ist zweifellos solch eine Große Herausforderung. Während neue Teleskope laufend Daten über merkwürdige Strukturen im All liefern – galaktische Fäden, Wände, Leerräume oder Superhaufen –, verweigern die mathematischen Gleichungen einfache Modellierungen dieser Musterbildung. Mehrere internationale Projekte sind daher auf dem Weg, um wenigstens in Computerexperimenten den Kosmos modell- und prozeßhaft abzubilden.
In den USA haben sich zwei Grand Challenge-Konsortien diesen Problemen zugewandt; in Europa ist es das Virgo-Konsortium mit deutschen, britischen und amerikanischen Wissenschaftlern, die Computer der Max-Planck-Gesellschaft in Garching sowie des Edinburgh Parallel Computing Centre benutzen. "Simulationen an der Grenze des derzeit Möglichkeiten", notieren Simon D.M. White und Volker Springel vom Max-Planck-Institut für Astrophysik, "erfordern parallele Supercomputer und Spezialsoftware, die die vollen Kapazitäten dieser Maschinen ausschöpfen" (siehe das Interview am Kastenende).
Im Virgo-Team, geleitet von den Astrophysikern Carlos S. Frenk von der englischen Durham-Universität und Simon D. M. White vom Max-Planck-Institut in Garching, entwickelten vier Programmierer ein Jahr lang spezielle Programme, um damit die Simulationen im Garchinger Rechenzentrum der Max-Planck-Gesellschaft durchzuführen. Dort steht ein SGI/Cray T3E-Supercomputer mit 816 Parallelprozessoren und einem Arbeitsspeicher von 102 Gigabyte. Jeder Lauf dauert etwa 70 bis 100 Rechenstunden. Die Berechnungen und Auswertungen lieferten insgesamt Daten in der Größenordnung von Terabytes, also Tausend Milliarden Bytes.
Die Materie des Universums repräsentierten die Forscher mit einer Milliarde virtueller Teilchen – weniger als die Anzahl sichtbarer Galaxien im sichtbaren Universum, jedoch schon mehr als die Zahl der Galaxienhaufen. Verknüpft durch eine Milliarde Bewegungsgleichungen im Gravitationsfeld aller anwesenden Massen berechnet der Computer in jedem Zeitschritt jeweils die neuen Positionen und Geschwindigkeiten aller Teilchen. Wie in einem Trickfilm driften die Teilchen in spinnenartige Netzwerke, bilden schaumartige Haufenstrukturen und große Leerräume, ähnlich wie sie auch in der Galaxienverteilung am Himmel beobachtet werden.
Auffälligerweise treten in den Simulationen des Virgo-Projekts wenige große und ferne Galaxienhaufen auf. "Bisher wurde angenommen", sagt August Evrard von der Universität von Michigan in Ann Arbor, "daß sich galaktische Haufen erst relativ spät formieren." Eigentlich dauere es einige Zeit, bis sich kleine Objekte zu einem großen Haufen zusammenballen. Doch die Virgo-Simulationen zeigen, daß der heißeste, größte Galaxienhaufen schon entstand, als das Universum erst fünf Milliarden Jahre alt war, ein Drittel des kosmischen Gesamtalters. Außerdem sei die Temperatur dieses Objekts "höher als bei allen bekannten Galaxienhaufen". Anders als andere Simulationen des Universums berücksichtigt das Virgo-Modell, daß das Licht uns nur mit endlicher Geschwindigkeit erreicht: Fernere Objekte werden daher auch in ihren früheren Entwicklungsstadien gezeigt. Die Programme können somit Bilder vom Universum erzeugen, in denen sich mit wachsender Entfernung der Blick in die Vergangenheit auftut.
Satelliten werden die Virgo-Vorhersagen testen können: im Röntgenbereich das Chandra X-Ray Observatory (Start war im Juli 1999) sowie die X-Ray Multi-Mirror Mission (Start im Januar 2000), im Radiobereich die Microwave Anisotropy Probe der NASA (Start 2000) sowie der europäische Satellit Planck (Start im Jahre 2007).
Im Laboratory for Computational Astrophysics des National Center for Supercomputing Applications der Universität von Illinois arbeitet sozusagen die Konkurrenz zum Virgo-Konsortium am US-Projekt der Great Challenges. Einer der GC-Forscher, der Astrophysiker Michael Norman, und sein Team simulieren einen würfelförmigen Ausschnitt des Universums mit einer Kantenlänge von 500 Millionen Lichtjahren, seinen Cosmocube. "Das ist groß genug, um die grundlegende Physik des Universums einzufangen", meint Michael Norman.
Die Rechnungen der Amerikaner verfolgen die Strukturbildung ab eine Million Jahre nach dem Urknall bis zur Gegenwart. Das Programm erforscht Objekte auf verschiedensten Skalen und Größenordnungen: Sterne, sternbildende Gasnebel, Galaxien und Galaxienhaufen. Seinen Cosmocube unterteilt Norman in 100 Millionen Zellen, in denen der Computer die Bewegung der Materie verfolgt. Bisher untersuchte das GC-Team die Entstehung großer und kleiner Strukturen, von heißen Gasen in Galaxienhaufen und ihre Aufheizprozesse. Jetzt wartet das Team auf Daten von den neuen Satelliten. Denn "am Schluß", sagt Norman, "müssen unsere Simulationen zu dem passen, was die Astronomen beobachten." n
Aus: Spektrum der Wissenschaft 9 / 1999, Seite 49
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben