Kosmologie: Warum die hellsten Sterne die kleinste Magnitude haben
Die Astronomie ist eine sehr alte Wissenschaft, und es ist nicht verwunderlich, wenn sich im Laufe der Jahrhunderte einige Traditionen angesammelt haben. Andererseits sollte gerade in der Wissenschaft auf Traditionen keine Rücksicht genommen werden – zumindest dann, wenn es um die Beschreibung der Realität geht. Nur weil man etwas "immer schon so" gemacht hat, heißt das nicht, dass alles auch immer so bleiben muss. Ganz im Gegenteil: Neue Erkenntnisse bringen stets Veränderungen. Manche Traditionen halten sich aber trotzdem hartnäckig. Zum Beispiel die Beschreibung der Helligkeit von Himmelskörpern in der Astronomie. Dafür wird diese Formel verwendet:
m steht für die scheinbare Helligkeit, zum Beispiel eines Sterns oder Planeten. F ist der Lichtfluss, also die tatsächliche Menge an Strahlung, die uns von dort erreicht, und sie wird in diesem Fall auf einen Referenzwert F0 bezogen.
Die in dieser Formel versteckte "Tradition" ist nicht unbedingt auf den ersten Blick sichtbar. Die scheinbare Helligkeit gibt – wenig überraschend – an, wie hell ein Himmelskörper erscheint. Sie wird in der Astronomie in "Größenklassen" oder in "Magnituden" (deshalb das "m") gemessen. Eigentlich wäre es logisch, wenn eine größere Magnitude auch ein helleres Objekt beschreibt. Das Minuszeichen in der Formel dreht die Beziehung aber um. Der Polarstern hat beispielsweise eine scheinbare Helligkeit von etwa 2 Magnituden. Der rot leuchtende Antares im Sternbild Skorpion ist deutlich besser zu sehen; seine scheinbare Helligkeit beträgt allerdings 1 Magnitude. Der hellste sichtbare Stern am Himmel – Sirius – wird mit einer scheinbaren Helligkeit von etwa -1,5 Magnituden gemessen. Je heller ein Objekt leuchtet, desto geringer also seine Magnitude.
Diese eher unübliche Konvention reicht zurück bis in die Zeit der babylonischen Astronomen. Damals teilte man alle sichtbaren Sterne am Himmel in sechs Gruppen ein. Die hellsten waren Sterne der "ersten Größe"; die gerade noch sichtbaren fielen in die sechste Größenklasse. Dieses System wurde zuerst vom griechischen Astronomen Hipparch für seinen Sternenkatalog übernommen und dann von allen ihm nachfolgenden Gelehrten. Selbst als man die Helligkeit nicht mehr mit freiem Auge schätzte, sondern mit Instrumenten messen konnte, behielt man diese Konvention bei.
Anstatt die alten Beobachtungen zu verwerfen und ein komplett neues System zu etablieren, gab man sich erstaunliche Mühe, eine kompatible Definition zu konstruieren. Darum führte der Astronom Norman Pogson 1850 auch den Logarithmus in die Gleichung für die Helligkeit ein. Er legte fest, dass ein Stern erster Größenklasse genau 100-mal heller sein soll als ein Stern sechster Größenklasse. Das entspricht der Art und Weise, wie unser Auge Reize verarbeitet: Auch das geschieht nicht linear, denn eine Verdoppelung des Reizes entspricht keiner Verdoppelung der Empfindung. Die besten Teleskope können zum Beispiel noch Sterne der 30. Größenklasse beobachten. Der Unterschied zu den Sternen der sechsten Größenklasse, die wir gerade noch mit freiem Auge wahrnehmen können, beträgt nur 24 Magnituden. Der Unterschied im tatsächlichen Lichtfluss ist aber deutlich größer. Ein Teleskop kann Sterne sehen, von denen vier Milliarden Mal weniger Strahlung auf der Erde ankommt als von den Sternen, die für das freie Auge sichtbar sind.
Diese alten Konventionen – von denen es in der Astronomie noch viel mehr gibt – machen die Arbeit zwar manchmal ein wenig kompliziert. Aber man gewöhnt sich auch daran und will sie irgendwann gar nicht mehr missen. Sie sind eine ständige Erinnerung daran, wie lange die Menschen sich schon mit der Erforschung des Himmels beschäftigen und wie weit wir dabei schon gekommen sind. Ich betrachte die seltsamen Formeln, wie die zur Beschreibung der Helligkeit, gerne als eine Art Würdigung all der Menschen, die in den letzten Jahrtausenden Stück für Stück zum Wissen über unseren Kosmos beigetragen haben.
Schreiben Sie uns!
1 Beitrag anzeigen