Interview: Die dunkle Seite des Universums
Sterne und Weltraum: Herr Springel, Sie sind einer breiteren Öffentlichkeit durch die Millennium-Simulation bekannt. Was ist das Besondere an diesem Experiment im Computer?
Volker Springel: Es handelt sich dabei um eine sehr große Simulation der Strukturentstehung im Universum, die im Jahr 2005 durchgeführt wurde. Das Besondere daran war damals, dass wir durch einen neuen, besonders leistungsfähigen Code eine viel größere Simulation berechnen konnten, als alles, was zu dieser Zeit bereits existierte. So haben wir 20 Millionen Galaxien in ihrer Entstehung verfolgt. Das Neuartige an der Millennium-Simulation waren insbesondere auch die Galaxienkataloge: Die Berechnungen lieferten eine genaue theoretische Vorhersage, wie die Eigenschaften der Galaxien zu unterschiedlichen Zeiten verteilt sein sollten.
Die Millennium-Simulation basiert auf dem Standardmodell der Kosmologie. Was besagt dieses Standardmodell?
Das Standardmodell beinhaltet zwei große Zumutungen für uns: Das ist die Existenz von Dunkler Materie und Dunkler Energie. Der Materieinhalt wird von der Dunklen Materie dominiert, die nur über die Schwerkraft wechselwirkt. Das Universum hat vor etwa 13 Milliarden Jahren in einem sehr dichten, sehr heißen Zustand begonnen und sich danach sehr schnell ausgedehnt. Aber wie sah das Universum eigentlich direkt nach dem Urknall aus? Und: Woher sind die Störungen gekommen, die man im Mikrowellenhintergrund sieht? Daraus sind anschließend die Strukturen im Universum entstanden. Die Theorie der Inflation im Standardmodell nimmt an, dass diese anfänglichen Störungen wie ein weißes Rauschen gewesen sind. Diese Theorie ist zwar unbewiesen, aber plausibel.
Fängt denn die Simulation direkt mit dem Urknall an?
Nein, die Simulation fängt etwa 380 000 Jahre nach dem Urknall an, da es zu diesem Zeitpunkt die ersten Beobachtungen gibt. Zu diesem Zeitpunkt wurde der Mikrowellenhintergrund emittiert, den man mit Satelliten wie WMAP, COBE oder Planck vermessen hat. Diese spüren auch die kleinen Temperaturfluktuationen im Mikrowellenhintergrund auf. Am Anfang sind diese Schwankungen noch sehr klein und können sogar analytisch berechnet werden. Aber wenn sie größer werden, kann man diese so genannte nichtlineare Wachstumsphase nur korrekt mit dem Computer berechnen. Deshalb sind Modelle wie Millennium so wichtig geworden. Sie sind quasi alternativlos.
In den Visualisierungen sieht man diese wunderbaren Filamente und die hellen Zentren – allerdings ist das alles eigentlich Dunkle Materie. Woran lag es, dass die gewöhnliche, also baryonische Materie auf dieser Größenskala außer Acht gelassen wurde?
Die baryonische Materie verhält sich auf großen Skalen sehr ähnlich wie die Dunkle Materie, da nur die langreichweitige Schwerkraft wirkt – also tut man einfach so, als ob die baryonische Materie auch Dunkle Materie wäre. Aber natürlich braucht man baryonische Materie, um Sterne oder Planeten entstehen zu lassen. In der idealen Simulation würde man die baryonische Materie direkt berechnen. Das ist aber viel aufwändiger, weil man zusätzlich zur Schwerkraft die Hydrodynamik des Gases berechnen muss. Und dann sind da noch die Strahlungsprozesse: Das heiße Gas der baryonischen Materie emittiert Röntgenstrahlung und kühlt so ab. Diese Prozesse sind komplex, so dass der Rechenaufwand auch heute noch sehr groß ist. Doch wir arbeiten daran: Acht Jahre später sind wir so weit, dass man eine Simulation wie die Millennium-Simulation auch mit dem Gas der baryonischen Materie durchführen kann.
Welche Größen berechnet man denn konkret in solchen Simulationen?
Die Simulationen berechnen zunächst einmal die Schwerkraft für die gesamte Materie und lösen so genannte Bewegungsgleichungen. Von Wasserstoff und Helium werden dann die Strahlungsprozesse berechnet, also wie dieses Gas sich abkühlt. Das Ergebnis ist, dass sich plötzlich eine sehr dichte und kalte Gasscheibe bildet, die rotiert. Dann berechnet die Simulation auch noch, wie viele Sterne in dieser Scheibe entstehen. Allerdings kann sie nicht berechnen, wie ein einzelner Stern entsteht. Stattdessen arbeiten wir mit Makroteilchen mit einer typischen Masse von einer Million Sonnenmassen. So kann man berechnen, wie viele Sternpopulationen pro Zeit entstanden sind, sowie ihre mittlere Farbe und Leuchtkraft. Was wir am Ende bekommen, ist tatsächlich eine räumliche Verteilung von Millionen einzelner Galaxien, welche selbst Gruppen von tausenden und zehntausenden dieser Makroteilchen sind.
Die Millennium-Simulation basiert auf dem GADGET-Code, den Sie geschrieben haben. Ihr neuer Code aus dem Jahr 2009 heißt AREPO. Was sind die Unterschiede zwischen beiden Codes?
Der Hauptunterschied besteht in der Behandlung der baryonischen Materie und in der Genauigkeit, mit der die Gleichungen der Gasdynamik gelöst werden. Das wurde in GADGET mit einer relativ ungenauen Methode gemacht, während die Hydrodynamik mit dem AREPO-Code viel präziser berechnet wird. Da liegt eine wichtige Herausforderung. Oft weiß man nicht, ob die Simulationen genau genug sind oder ob es numerische Ungenauigkeiten gibt, die die Zuverlässigkeit verringern. Wir wissen heute, dass das im Fall von GADGET in bestimmten Bereichen der Fall war.
Also ist die Simulation nicht deshalb nicht korrekt, weil die Physik nicht stimmt, sondern weil die Simulation zu ungenau ist ...
Genau so ist es. Die numerischen Verfahren haben mitunter große Fehler und das ist etwas, was man aufklären muss. Das Ziel des AREPO-Codes ist es, die bestmöglichen numerischen Verfahren zu verwenden und damit die Fehler so genau kontrollieren zu können, dass man sicher sein kann, dass sie das Ergebnis nicht beeinflussen und die physikalischen Aussagen nicht kompromittieren.
Wie viele Zeilen hat der AREPO-Code und in welcher Sprache ist er geschrieben?
Er ist in der Sprache C geschrieben und er hat rund 200000 Zeilen. Wir rechnen damit jetzt auch die ersten Simulationen, die größer sind als die Millennium-Simulation.
Und wann sind die Berechnungen dann fertig?
Wir haben von PRACE, dem europäischen Konsortium für Supercomputer, 20 Millionen CPU-Stunden bekommen. Das Projekt hat vor ein paar Monaten angefangen und wir werden die Simulation im Mai dieses Jahres fertigstellen. Zum Vergleich: Die Millennium-Simulation hat etwa 400000 CPU-Stunden gebraucht – wobei der AREPO-Code die Millennium-Simulation wesentlich schneller rechnen könnte als damals GADGET.
Konnten mit den Simulationen denn auch prinzipiell Vorhersagen getroffen werden, die sich erst hinterher experimentell bestätigen ließen, also etwas, das man noch nicht wusste?
Das ist eine interessante Frage, denn im Grunde genommen lautet sie: Kann man eigentlich mit einer Simulation Dinge entdecken? Als Astronom kann man einfach mal über etwas stolpern. In einer Simulation wird das nur selten passieren können.
Weil ich nur Sachen einbringen kann, die ich schon weiß ...
Genau. Aber es gibt manchmal schon solche Situationen. In der Millennium-Simulation haben wir zum Beispiel den Effekt des so genannten Assembly Bias entdeckt. Die gängigen Theorien besagten, dass die Eigenschaft einer Galaxie nur von der Masse des Halos aus Dunkler Materie abhängt, in dem sie sich befindet. Aber die Simulation hat gezeigt, dass es einen Umgebungseinfluss gibt. Das heißt, ich muss nicht nur eine bestimmte Masse des Halos annehmen, sondern mindestens noch einen weiteren Parameter kennen, zum Beispiel die Entstehungszeit. Nachdem dieser Assembly Bias entdeckt worden war, ist er von anderen unabhängigen Simulationen bestätigt und danach auch beobachtet worden.
Etwas persönlicher: Sie sind nach einer Postdoc-Stelle in den USA nach Deutschland zurückgekommen und haben dann erst einmal der Wissenschaft den Rücken gekehrt. Warum denn?
Richtig, ich hatte einen kurzen Ausflug in die Privatwirtschaft gemacht. Gute Frage. Ich war damals desillusioniert über meine eigenen Karrieremöglichkeiten. Ich habe mich vor allem mit dem Gedanken schwer getan, dass ich keine Wahlmöglichkeiten bezüglich meines Wohnorts und Landes mehr hätte. Sobald ich die Wissenschaft verlassen hatte, habe ich es sofort sehr bereut. Mir ist es dann möglich gewesen, diese Entscheidung noch einmal umzukehren.
Bereuen Sie inzwischen, dass Sie diese Wahlfreiheit eben nicht mehr haben?
Nicht wirklich, aber man muss sagen, dass ich auch sehr großes Glück hatte, kurzfristig bei meinem ehemaligen Doktorvater in Garching noch einmal eine Postdoc-Stelle bekommen zu haben und, was selten genug ist, später am Max-Planck-Institut eine Dauerstelle zu erhalten. Aber selbst wenn man noch dazu eine der seltenen Professorenstellen bekommt, kann man sich natürlich nicht aussuchen, wo man die kriegt.
Was würden Sie Studenten raten, die sich überlegen: Gehe ich in die Wissenschaft oder lieber in die Wirtschaft oder Industrie?
Es ist zum Glück so, dass man als promovierter Physiker auch außerhalb der Wissenschaft relativ gute Berufsaussichten hat. Letztlich muss man sich die Frage schon vor der Promotion stellen: Warum promoviere ich überhaupt? Die Karrierechancen in der Wissenschaft sind für Doktoranden schlechter, als noch vor zehn oder zwanzig Jahren. Man braucht in jedem Fall Leidenschaft für die Wissenschaft. Aber wenn es gut läuft, ist die Promotion eine der anregendsten Phasen im Leben. Man ist noch relativ frei, man hat schwierige, interessante akademische Probleme, die in der Astronomie im Prinzip zweckfrei sind, die also keinen ökonomischen Zwängen unterliegen. Man verschreibt sich einzig dem Erkenntnisgewinn. Und das ist etwas Wunderbares.
Das Gespräch führte Franziska Konitzer
Schreiben Sie uns!
Beitrag schreiben