WissensLogs: Grundkurs in Kosmologie
Gewissermaßen einen Grundkurs in Kosmologie bieten heute die WissensLogs. Über eine Stunde lang spricht der Podcaster Markus Völter in englischer Sprache mit dem Simulationsexperten Volker Springel über die Entstehungsgeschichte des Universums. Der Forscher vom Max-Planck-Institut für Astrophysik, der mittlerweile in Heidelberg lehrt, ist für die so genannten Millennium-Simulationen bekannt, die er gemeinsam mit Kollegen seit einigen Jahren durchführt. Die Gleichungen, die den Kosmos beschreiben, so sagt Springel, seien schlicht zu kompliziert, um sie direkt zu lösen – stattdessen müsse man dessen Evolution mit Hilfe von Computersimulationen nachbilden.
Das sieht nicht nur er so. Die mehr als dreihundert Publikationen über die Simulationen stammen nur zum kleinsten Teil von der Forschergruppe selbst; vielmehr haben auch viele andere Teams die frei verfügbaren Daten genutzt, um ihre eigenen Modelle zu überprüfen. Ausgehend von einem Zeitpunkt einige hundert Jahre nach dem Urknall arbeiten sich die Computermodelle in Zehntausenden von Zeitschritten bis in die Gegenwart voran und beschreiben dabei ein Volumen mit einer Kantenlänge von 2,5 Milliarden Lichtjahren. Zu den physikalischen Zutaten gehören im im Wesentlichen Dunkle Materie, Dunkle Energie und die Gravitation; den geringen Einfluss "normaler" Materie vernachlässigen die Forscher meist.
Springel versteht seine Arbeit, auch wenn das nicht jeder so sieht, als die eines Theoretikers. Experimente sind in der Kosmologie naturgemäß nicht möglich, also sind die Forscher auf Beobachtungen angewiesen, die sie dann wiederum erklären müssen. Simulationen erlauben es aber auch, den Dingen auf umgekehrtem Weg auf die Spur zu kommen. Eines der überraschendsten Resultate: Ursprünglich hielt man die Größe von Galaxien für den einzigen Einflussfaktor, der die Art bestimmt, wie sich zu übergeordneten Strukturen zusammenfinden – zu Galaxienhaufen etwa oder zu filamentartigen Aneinanderreihungen. Aus den fünfzig Terabyte an gewonnenen Daten lässt sich jedoch entgegen bisherigen Theorien ein zusätzlicher Einflussfaktor herauslesen, dass nämlich Sternsysteme, die sich in früheren kosmischen Epochen bildeten, auf andere Weise zusammenfinden als jüngere Galaxien – ein Phänomen, das die Forscher nun "assembly bias" nennen.
Dass dieses Ergebnis nicht nur ein Artefakt der Berechnungen ist, gilt als sehr sicher. Denn schließlich beschreiben die Simulationen nachgewiesenermaßen ein Universum, das dem unseren in vieler Hinsicht gleicht. Auch Phänomene wie etwa der Gravitationslinseneffekt finden sich hier wieder, bei dem Licht durch die Schwerkraft riesiger Materieansammlungen gleichsam um die Kurve gelenkt wird und in den Teleskopen der Astronomen charakteristische Muster hinterlässt.
Die Zukunft der Kosmologie ist "computational quite costly"
Auf einem PC würde eine Millenniums-Simulation schon mal dreißig oder vierzig Jahre laufen. Springel und seine Kollegen nutzen aber mittlerweile Ensembles von über 10 000 miteinander verschalteten Rechenkernen. Und ihre Pläne reichen weit über die Gegenwart hinaus. Bislang zerstückelten sie den Kosmos in bis zu zehn Milliarden Partikel, die repräsentativ für die Masseverteilung standen – nun bereiten sie die Millennium XXL-Berechnungen am Jülich Supercomputing Centre vor, wo sie die gravitativen Wechselwirkungen zwischen 400 Milliarden Partikeln berechnen wollen.
Auch weitere Verbesserungen stehen an. Insbesondere soll die baryonische Physik – also die Physik der "normalen" Materie, aus der Sterne (ebenso wie Menschen) bestehen – künftig stärker berücksichtigt werden, auch wenn es "computationally quite costly" sei, etwa Gaswolken, Magnetfelder und die Prozesse der Sternbildung in die Algorithmen zu integrieren. Einer weiteren Schwäche der Modelle müssen die Forscher ebenfalls noch abhelfen. Derzeit ist selbst die höchste erreichbare Auflösung längst nicht fein genug, um auch in das Innere der Computergalaxien zu sehen. Darum haben die Forscher auch das Aquarius-Projekt gestartet. Bei diesem soll nur eine einzige Galaxie simuliert werden, die dann aber von gleich zwei Milliarden Teilchen repräsentiert wird.
Das sieht nicht nur er so. Die mehr als dreihundert Publikationen über die Simulationen stammen nur zum kleinsten Teil von der Forschergruppe selbst; vielmehr haben auch viele andere Teams die frei verfügbaren Daten genutzt, um ihre eigenen Modelle zu überprüfen. Ausgehend von einem Zeitpunkt einige hundert Jahre nach dem Urknall arbeiten sich die Computermodelle in Zehntausenden von Zeitschritten bis in die Gegenwart voran und beschreiben dabei ein Volumen mit einer Kantenlänge von 2,5 Milliarden Lichtjahren. Zu den physikalischen Zutaten gehören im im Wesentlichen Dunkle Materie, Dunkle Energie und die Gravitation; den geringen Einfluss "normaler" Materie vernachlässigen die Forscher meist.
Springel versteht seine Arbeit, auch wenn das nicht jeder so sieht, als die eines Theoretikers. Experimente sind in der Kosmologie naturgemäß nicht möglich, also sind die Forscher auf Beobachtungen angewiesen, die sie dann wiederum erklären müssen. Simulationen erlauben es aber auch, den Dingen auf umgekehrtem Weg auf die Spur zu kommen. Eines der überraschendsten Resultate: Ursprünglich hielt man die Größe von Galaxien für den einzigen Einflussfaktor, der die Art bestimmt, wie sich zu übergeordneten Strukturen zusammenfinden – zu Galaxienhaufen etwa oder zu filamentartigen Aneinanderreihungen. Aus den fünfzig Terabyte an gewonnenen Daten lässt sich jedoch entgegen bisherigen Theorien ein zusätzlicher Einflussfaktor herauslesen, dass nämlich Sternsysteme, die sich in früheren kosmischen Epochen bildeten, auf andere Weise zusammenfinden als jüngere Galaxien – ein Phänomen, das die Forscher nun "assembly bias" nennen.
Dass dieses Ergebnis nicht nur ein Artefakt der Berechnungen ist, gilt als sehr sicher. Denn schließlich beschreiben die Simulationen nachgewiesenermaßen ein Universum, das dem unseren in vieler Hinsicht gleicht. Auch Phänomene wie etwa der Gravitationslinseneffekt finden sich hier wieder, bei dem Licht durch die Schwerkraft riesiger Materieansammlungen gleichsam um die Kurve gelenkt wird und in den Teleskopen der Astronomen charakteristische Muster hinterlässt.
Die Zukunft der Kosmologie ist "computational quite costly"
Auf einem PC würde eine Millenniums-Simulation schon mal dreißig oder vierzig Jahre laufen. Springel und seine Kollegen nutzen aber mittlerweile Ensembles von über 10 000 miteinander verschalteten Rechenkernen. Und ihre Pläne reichen weit über die Gegenwart hinaus. Bislang zerstückelten sie den Kosmos in bis zu zehn Milliarden Partikel, die repräsentativ für die Masseverteilung standen – nun bereiten sie die Millennium XXL-Berechnungen am Jülich Supercomputing Centre vor, wo sie die gravitativen Wechselwirkungen zwischen 400 Milliarden Partikeln berechnen wollen.
Auch weitere Verbesserungen stehen an. Insbesondere soll die baryonische Physik – also die Physik der "normalen" Materie, aus der Sterne (ebenso wie Menschen) bestehen – künftig stärker berücksichtigt werden, auch wenn es "computationally quite costly" sei, etwa Gaswolken, Magnetfelder und die Prozesse der Sternbildung in die Algorithmen zu integrieren. Einer weiteren Schwäche der Modelle müssen die Forscher ebenfalls noch abhelfen. Derzeit ist selbst die höchste erreichbare Auflösung längst nicht fein genug, um auch in das Innere der Computergalaxien zu sehen. Darum haben die Forscher auch das Aquarius-Projekt gestartet. Bei diesem soll nur eine einzige Galaxie simuliert werden, die dann aber von gleich zwei Milliarden Teilchen repräsentiert wird.
Schreiben Sie uns!
Beitrag schreiben