Interferometrie: Ein schärferer Blick auf die Sterne
Eine neue Generation optischer Interferometer vermag weit feinere Einzelheiten auf Himmelskörpern zu entdecken als selbst das Hubble-Weltraumteleskop. Astronomen können damit die Oberflächen ferner Sterne kartieren und selbst einen Astronauten auf dem Mond erkennen.
Vor etwa zwanzig Jahren nahm einer der Autoren dieses Artikels den Feldstecher seines Vaters und stahl sich nachts aus dem Haus. Der Junge wollte sich nach Spielkameraden umsehen – auf anderen Planeten, die seiner Meinung nach um die Sterne am Himmel kreisen müssten. Doch zu seiner Enttäuschung vermochte er keine Einzelheiten zu erkennen: Die flimmernden Lichtpunkte am Firmament, die er mit bloßem Auge sah, blieben auch im Feldstecher punktförmig. Die Sterne sind nämlich so weit entfernt, dass selbst die größten von ihnen nicht mit einem optischen Instrument "aufgelöst", das heißt als flächiges Objekt erkannt werden können. Einzig die Sonne ist uns nahe genug, um sie als Scheibe zu sehen.
Zwei Jahrzehnte später kann derselbe Junge – inzwischen vom Hobby- zum Profi-Astronomen herangewachsen – einige der hellsten Sterne tatsächlich als runde Scheiben wahrnehmen. Die extrem hohe Auflösung, die dafür erforderlich ist, ermöglicht eine Technik, die der französische Physiker Armand Hippolyte Louis Fizeau vor mehr als 130 Jahren vorgeschlagen hat: die Interferometrie. Anstatt durch einen Feldstecher oder wenigstens ein herkömmliches Teleskop zu blicken, muss man allerdings auf einen Bildschirm schauen, der an ein optisches Interferometer angeschlossen ist.
Über ein halbes Jahrhundert lang lieferte die Interferometrie mittels Radiowellen brillante Ergebnisse und wurde eingesetzt, um die Strukturen ferner Galaxien und Quasare anhand ihrer Radiostrahlung zu entschlüsseln. Erst in den letzten fünfzehn Jahren jedoch gelangen die technologischen Durchbrüche, die den Einsatz dieses Verfahrens auch bei den viel kürzeren Wellenlängen im infraroten und sichtbaren Bereich des Spektrums ermöglichten. Inzwischen ist die Technik so weit fortgeschritten, dass optische Interferometer selbst das Auflösungsvermögen des Hubble-Weltraumteleskops übertreffen, das von außerhalb der störenden Erdatmosphäre beobachtet: Bei den hellsten Sternen machen diese modernen Instrumente noch Einzelheiten sichtbar, die hundertmal kleiner sind als diejenigen, die das Weltraumteleskop noch zeigen kann.
Die optische Interferometrie ist dabei, sich von einem komplizierten Laborverfahren zu einer Standardbeobachtungstechnik in der Astronomie zu entwickeln. In Kürze gehen Interferometer in Betrieb, die in der Lage sein werden, Sternoberflächen und enge Mehrfachsternsysteme sichtbar zu machen. Auch Staubscheiben um ferne Sterne als Vorläufer von Planetensystemen und sogar die Schatten von Planeten, die vor ihrem Zentralgestirn vorüberziehen, werden zu erkennen sein (siehe "Die Suche nach erdähnlichen Planeten", Spektrum der Wissenschaft 1/2001, S. 42). Nicht mehr lange, und die Astronomen können auf spektakulären Bildserien die Rotation von Sternen verfolgen und Flecken auf ihren Oberflächen beobachten. Aus dem reichhaltigen Fundus neuartiger Daten werden sich neue Erkenntnisse über Entstehung, Aufbau, Aktivität, Entwicklung und Vergehen der Sterne gewinnen lassen.
Das Besondere an der Interferometrie ist, dass sich durch Kombination zweier nahezu identischer Signale mehr Informationen ergeben als aus einem einzelnen Signal. Überlagert man beispielsweise die Bilder eines Objekts, die mit zwei getrennten Teleskopen aufgenommen werden, so bildet sich ein Interferenzmuster aus hellen und dunklen Streifen. Der Abstand dieser Streifen und die Veränderungen, die sie während einer Positionsverschiebung der Teleskope aufweisen, geben den Astronomen Hinweise auf die Struktur der Lichtquellen, und das mit viel höherer Auflösung als mit einem einzelnen Teleskop.
Das Auflösungsvermögen eines Fernrohrs wird generell durch zwei Faktoren beschränkt: den Durchmesser der Licht sammelnden Fläche und die Turbulenz der Erdatmosphäre. Um ein Objekt bestimmter Ausdehnung sehen zu können, muss ein Astronom also ein Teleskop geeigneter Größe auswählen und möglichst auch versuchen, die Luftunruhe in den Griff zu bekommen. Aber welchen Winkeldurchmesser – fachsprachlich auch scheinbarer Durchmesser genannt – haben die Sterne am Firmament?
Die Venus beispielsweise erscheint bei ihrer größten Annäherung an die Erde als teilweise beleuchtete Scheibe mit einem Durchmesser von etwa einer Bogenminute, also dem Sechzigstel eines Grades. Ein Mensch mit gutem Sehvermögen könnte diesen Winkel gerade noch mit bloßem Auge auflösen, das heißt er könnte die Venus als Scheibe und nicht nur als Punkt erkennen. Ein Teleskop mit einem Spiegel- oder Objektivdurchmesser von 15 Zentimetern hat eine 60-mal bessere Auflösung als das Auge, weil seine Öffnung, die Apertur, etwa um diesen Faktor größer ist als die Pupille. In einem solchen Teleskop erscheint ein Stern als verwaschenes Scheibchen mit einem Durchmesser von etwa einer Bogensekunde – und das unabhängig von der tatsächlichen Größe des Sterns am Firmament. Denn die Unschärfe ist instrumentell bedingt, weil das Licht auf seinem Weg durch das Teleskop gebeugt wird. Je kleiner dessen Öffnung, desto größer ist das entstehende Beugungsbild.
Eine Bogensekunde ist der Winkel, unter dem eine 1-Mark-Münze aus einer Entfernung von 4700 Metern erschiene. Unter dem gleichen Winkel können wir die vier hellsten Monde des Jupiters von der Erde aus sehen. Der Stern mit dem größten Winkeldurchmesser am Himmel (abgesehen von unserer Sonne natürlich) ist Beteigeuze im Sternbild Orion; mit etwa 0,06 Bogensekunden (60 Millibogensekunden) liegt er deutlich unterhalb des Auflösungsvermögens eines 15-Zentimeter-Teleskops. (Unter diesem Winkel würden wir das Markstück sehen, wenn es sich 80 Kilometer entfernt befände.) Die große Mehrheit der am Himmel sichtbaren Sterne ist noch weit kleiner.
Trickreich Turbulenzen ausbügeln
Das Auflösungsvermögen eines Teleskops – seine Fähigkeit, zwei benachbarte Objekte voneinander zu unterschei-den – steigt proportional zu seiner Öffnung an. Deshalb liegt es nahe, ein größeres Teleskop zu verwenden, wenn wir die Oberfläche ferner Sterne sehen wollen. Eines mit 2,5 Meter Durchmesser sollte Beteigeuze auflösen können. Mit einem der beiden zehn Meter großen Keck-Teleskope auf Hawaii sollten sogar Details auf der Oberfläche dieses Sternes erkennbar werden. Doch in der Praxis hilft uns der Sprung von einem Amateur- zu einem Großteleskop nicht viel weiter, solange wir nicht die Einflüsse der turbulenten Erdatmosphäre ausschalten.
Das Problem ist vergleichbar mit dem Versuch, die Schrift am Boden eines Schwimmbads zu lesen, während ein starker Wind Wellen auf der Wasseroberfläche aufpeitscht. Die turbulenten Wellen stören den geradlinigen Verlauf der Lichtstrahlen, die vom Boden des Beckens reflektiert werden. Die Beobachtung der Sterne durch die Erdatmosphäre hindurch ist fast genauso schwierig.
Licht pflanzt sich als elektromagnetische Welle fort. Das Licht eines Sterns erreicht die Erde praktisch als ebene Wellenfronten, die man sich ähnlich wie die Abfolge von Blättern in einem Buch vorstellen kann. Die Wellenfronten werden aber nun von den Turbulenzen in der Atmosphäre verformt, bevor sie das Teleskop erreichen. Sie wirken also eher wie Papierbögen, die zuerst zusammengeknüllt und dann wieder unvollkommen geglättet wurden.
Insgesamt verzerren die Luftturbulenzen das Bild des Sterns in einer Weise, als bestünden die gestörten Wellenfronten aus einzelnen ebenen Bereichen, die alle ein wenig gegeneinander gekippt sind. Im sichtbaren Licht sind diese Abschnitte je nach Wind- und Wetterbedingungen fünf bis zwanzig Zentimeter groß. Die Wellenfronten, die ein Teleskop mit zehn Meter Durchmesser erreichen, bestehen deshalb aus Tausenden solcher ebener Abschnitte. All jene Bereiche, deren Orientierung identisch ist, erzeugen an einem bestimmten Punkt in der Brennebene ein Bild des Sterns, einen als "Speckle" bezeichneten Fleck. Wegen der Vielzahl an Untermengen der Wellenfrontabschnitte mit jeweils gleicher Orientierung besteht das Gesamtbild des Sterns aus zahlreichen solcher Speckles, die entsprechend den atmosphärischen Änderungen sehr schnell hin- und herwabern. Sofern die Belichtungszeit nicht deutlich kleiner als eine Sekunde ist, überlagern sich alle Speckles zu einem verschmierten Scheibchen. Dieses ist selbst unter den besten Bedingungen nicht viel kleiner als das Bild in einem 15-Zentimeter-Teleskop.
Mit der so genannten Speckle-Interferometrie versuchen die Astronomen, den Einfluss der atmosphärischen Turbulenzen auszuschalten, indem sie ein herkömmliches Teleskop einsetzen und mit Belichtungszeiten von etwa 0,01 Sekunden Momentaufnahmen des Speckle-Bildes erzeugen. Dieses Verfahren hat sich beim Vermessen der Bahnen von Doppelsternen bewährt. Doch damit tatsächlich Bilder zu erzeugen, erwies sich als viel schwieriger als anfangs erwartet.
Eine andere Technik, die adaptive Optik, nutzt Sensoren, um die Verbiegung der ankommenden Wellenfront zu messen. Ein Computer deformiert daraufhin einen Hilfsspiegel im Strahlengang in umgekehrter Weise, sodass diese Verzerrung so weit wie möglich kompensiert wird. Die Form des Spiegels muss dabei in Zeitschritten von wenigen Millisekunden angepasst werden. Das Verfahren hat die Qualität von Großteleskopen in geradezu revolutionärer Weise verbessert, denn es ermöglicht scharfe Abbildungen mit einer Winkelauflösung, die nahe an die durch die Öffnung des Teleskops vorgegebene theoretische Grenze heranreicht (siehe "Adaptive Optik", Spektrum der Wissenschaft 8/1994, S. 48).
Doch selbst wenn man die Störungen durch die Erdatmosphäre vollständig eliminierte, könnte ein 10-Meter-Teleskop nur wenige Dutzend Sterne als Scheiben auflösen, nämlich nur diejenigen, die größer als etwa 10 Millibogensekunden erscheinen. Um aber zum Beispiel die Winkeldurchmesser aller mit bloßem Auge sichtbaren Sterne zu bestimmen, benötigten wir ein Teleskop mit 500 Meter Durchmesser. Einen solch riesigen Spiegel, dessen Oberfläche zudem nicht mehr als ein tausendstel Millimeter von der Idealform abweichen dürfte, herzustellen und einem Stern nachzuführen, ist weder technisch noch ökonomisch machbar.
Doch zum Glück ist ein solcher Aufwand gar nicht vonnöten. Anstelle eines 500-Meter-Spiegels genügen zwei kleinere Teleskope in einem Abstand von 500 Metern, um dasselbe Auflösungsvermögen zu erzielen. Man muss nur dafür sorgen, dass die durch die Atmosphäre bedingte Bildunruhe eliminiert und das von beiden Fernrohren empfangene Licht an einer zentralen Stelle interferometrisch vereinigt wird.
Betrachten wir einmal drei verschiedene Instrumente:
- ein gewöhnliches Spiegelteleskop,
- ein baugleiches Teleskop, bei dem allerdings bis auf zwei kleine Segmente der komplette Spiegel abgedeckt wurde,
- und ein Interferometer, bestehend aus zwei kleinen Hauptspiegeln sowie einer Vorrichtung, die das von den beiden Spiegeln empfangene Licht zu einem Detektor leitet.
Die Art und Weise, wie das einfallende Licht gesammelt und zum jeweiligen Detektor gebracht wird, unterscheidet sich bei diesen Beobachtungsgeräten.
Im Falle des gewöhnlichen Teleskops sorgt die Krümmung des Hauptspiegels dafür, dass alle von einem Stern eintreffenden Lichtstrahlen zur selben Zeit den Brennpunkt erreichen. (Genau genommen definiert diese Gleichzeitigkeit die Lage des Brennpunkts.) Das Teleskop mit teilweise abgedecktem Hauptspiegel arbeitet auf dieselbe Weise: Die zwei Spiegelsegmente reflektieren das Licht, und jedes leitet seinen Teil der Wellenfront zum Brennpunkt. Beide Teleskope bilden die Lichtquelle auf einem im Brennpunkt befindlichen Detektor ab, zum Beispiel auf einem Film oder – wie heute meist üblich – auf einem Halbleiterdetektor, einem so genannten CCD. Allerdings ist die Bildqualität des zweiten Instruments infolge der unvollständigen Ausnutzung seiner Spiegeloberfläche schlechter.
Das dritte Gerät, das Interferometer, nutzt nun nicht zwei Segmente desselben Spiegels, sondern zwei getrennte Teleskope, um das Licht zu sammeln. Demzufolge ist keine gemeinsame große und mechanisch aufwendige Konstruktion erforderlich, die den Spiegel auf den Stern ausrichtet, sondern jedes der Teleskope befindet sich auf einer eigenen relativ kleinen Montierung. Jetzt müssen allerdings besondere Anstrengungen unternommen werden, um das Licht beider Teleskope synchron zusammenzuführen. Im Allgemeinen befindet sich einer der beiden Hauptspiegel etwas näher an dem zu beobachtenden Stern (Grafik auf Seite 45). Folglich trifft die Wellenfront – oder anders ausgedrückt: ein bestimmtes Signal – an diesem Spiegel etwas früher ein als am zweiten Teleskop. Um diese Zeitdifferenz auszugleichen, ist in den Strahlengang, also den Weg, den das Licht von den Hauptspiegeln zum gemeinsamen Detektor zurücklegen muss, ein justierbarer Umweg eingebaut, eine so genannte Verzögerungsstrecke. Diese besteht aus Spiegeln, die auf einer Schiene mit hoher Präzision positionierbar sind.
Eine weitere Besonderheit des Interferometers ist, dass das Licht aus den beiden getrennten Strahlengängen nicht zu einem herkömmlichen Bild, sondern zu einem Interferenzmuster vereinigt wird. Treffen jeweils die Wellenberge und Wellentäler der beiden Lichtstrahlen gleichzeitig ein, dann sind die beiden Wellen in Phase und sie interferieren konstruktiv, das heißt sie verstärken sich. Treffen im anderen Extremfall jeweils ein Wellenberg des einen Strahls und ein Wellental des anderen Strahls zusammen, so befinden sich die Lichtwellen in Gegenphase, und sie interferieren destruktiv, löschen sich also aus. In der Gesamtheit entsteht in der Bildebene ein Muster, in dem sich helle und dunkle Streifen abwechseln.
Die Astronomen messen nun den Kontrast beziehungsweise die Sichtbarkeit dieser Interferenzstreifen. Der Kontrast wird zum einen von Eigenschaften der Lichtquelle bestimmt (beispielsweise von der Größe eines Sterns oder vom Abstand der beiden Komponenten in einem Doppelsternsystem), zum anderen von der Länge und Orientierung der Verbindungslinie zwischen den beiden zusammengeschalteten Teleskopen. Weil sich die Erde dreht, verändert sich die Lage dieser Basislinie zum beobachteten Objekt kontinuierlich; die Astronomen können deshalb auf einfache Weise Messungen mit vielen verschiedenen Basislinien vornehmen. Die Vielfalt der Messmöglichkeiten ist noch größer, wenn mehr als zwei Spiegel zusammengeschaltet werden und diese auf Schienen verschiebbar angeordnet sind.
Mit Computern werten die Wissenschaftler die Interferenzmuster aus. Sie verwenden dabei so genannte Fouriertransformationen, um die gemessenen Signale in ein reales Bild des untersuchten Himmelskörpers umzurechnen. Ein ähnliches Bild würde ein Teleskop liefern, dessen Spiegel genauso groß wie die Basislinie, aber durch eine Maske bis auf zwei freie Ausschnitte abgedeckt wäre. Ein solches Bild ist aber trotz der hohen Auflösung unvollständig. Man erhält also nur eine Teilinformation über das Objekt – so als würde man durch die Öffnungen eines Zauns hindurch das dahinterliegende Haus nur teilweise sehen. Aber je mehr Daten von unterschiedlichen Basislinien miteinander kombiniert werden, desto mehr vervollständigt sich die Bildinformation – etwa so, als würde man das Haus jetzt aus einem Fahrzeug heraus beobachten, das mit hoher Geschwindigkeit am Zaun vorbei fährt.
Ein optisches Interferometer ist einerseits erheblich preiswerter und einfacher zu bauen als ein einzelnes Riesenteleskop mit monolithischem Spiegel, erfordert aber andererseits besondere Vorkehrungen, die bereits beim Entwurf bedacht werden müssen. Die Lichtstrahlen jedes Teleskops müssen über Dutzende von Metern zu einer zentralen Einrichtung geleitet werden, um sie zu überlagern. Da sich Licht verschiedener Wellenlänge in Luft mit unterschiedlicher Geschwindigkeit ausbreitet, muss das Licht durch luftleer gepumpte Röhren geführt werden. Die Kosten für die Infrastruktur eines Interferometers steigen deshalb steil mit der Länge der Basislinie und der Anzahl der zusammengeschalteten Teleskope an.
Neben den Kosten sind es praktische Randbedingungen, die sich auf die sinnvolle Anzahl optischer Elemente in einem Interferometer auswirken. Je mehr Teleskope zusammengeschaltet werden, desto umfassendere Informationen lassen sich über einen Himmelskörper gewinnen, denn man erhält gleichzeitig Interferenzmuster für viele unterschiedliche Basislinien. Deren Anzahl steigt ungefähr quadratisch mit der Anzahl der Teleskope an: Während eine Anordnung aus zwei Fernrohren eine einzige Basislinie hat, sind es bei zehn Teleskopen bereits 45. In letzterem Falle wäre es wünschenswert, den Lichtstrahl jedes Teleskops in neun Teilstrahlen zu zerlegen, um diese mit den Teilstrahlen aller anderen Teleskope zu überlagern. Doch die Empfindlichkeit des Instruments würde dadurch sinken, denn jedes Interferenzmuster müsste mit weniger Photonen erzeugt werden. Noch praktikabel ist eine Anzahl von fünf bis zwanzig Teleskopen in einem Interferometer. Beschränkend wirkt sich auch die mit der Anzahl der Basislinien steigende Komplexität der optischen Elemente zum Lenken der Lichtstrahlen aus; denn jeder Spiegel im Strahlengang absorbiert etwa ein Prozent des Lichts.
Atmosphärische Turbulenzen bereiten einem Interferometer genau dieselben Probleme wie einem Großteleskop. Sie bewirken, dass die scheinbare Position eines Sterns unregelmäßig hin- und herspringt. Mit bloßem Auge beobachtet mag dieses Funkeln der Sterne noch romantisch wirken. Für ein Interferometer bedeutet das, dass die zu überlagernden Lichtstrahlen oftmals nur unvollständig oder gar nicht zur Deckung kommen. Eine adaptive Optik im Strahlengang kann hier zumindest teilweise Abhilfe schaffen.
Die Turbulenzen verursachen aber noch ein weiteres Problem: Sie verzögern die Lichtlaufzeit auf zufällige und schnell veränderliche Weise, da jedes Teleskop durch einen unterschiedlichen Ausschnitt der turbulenten Atmosphäre blickt. Dieser Effekt beeinträchtigt die Interferenz, die zur Erzeugung der Streifen im sichtbaren icht benötigt wird. Um schwächere Sterne beobachten zu können und die Präzision der Interferometer zu erhöhen, muss er deshalb so weit wie möglich beseitigt werden.
Die Notwendigkeit dieser Korrekturen schränkt die Empfindlichkeit des Interferometers erheblich ein. Man kann diese Einschränkung nicht umgehen, indem man das Teleskop vergrößert oder die Beobachtungszeit verlängert. Denn die Informationen, die man für die Korrekturen benötigt – und die im Licht
des zu untersuchenden oder dazu eng benachbarten hellen Sterns enthalten sind –, müssen mit Öffnungen von maximal 20 Zentimeter Durchmesser und innerhalb von zehn Millisekunden gewonnen werden (damit der Sensor nur einen Speckle verfolgen muss und sich die Interferenzmuster nicht merklich verändern). Das Interferenzsignal selbst muss ebenfalls innerhalb von wenigen Millisekunden registriert und ausgewertet werden, um eine Verschmierung durch atmosphärische Störungen zu vermeiden.
Beobachtungstechnik mit Zukunft
Zu den technischen Gerätschaften, die dies leisten, gehören zum Beispiel Hochgeschwindigkeits-Fotozellen, Computer, die jede Nacht mindestens einige Gigabyte an Daten aufzeichnen, und frequenzstabilisierte Laser, die präzise die Länge der über mehrere Millisekunden einstellbaren Verzögerungsstrecke überwachen. Derartige Hilfsmittel wurden erst im Lauf der letzten dreißig Jahre entwickelt und zur Einsatzreife gebracht. Dann haben die Astronomen extrem schnell gelernt, wie sie damit umgehen müssen.
All diese Probleme verursachen den einzigen großen Nachteil der heutigen optischen Interferometer: Sie sind trotz ihrer hohen Auflösung kaum empfindlicher als das menschliche Auge. Obwohl ihr Einsatz somit auf die wenige tausend hellsten Sterne beschränkt ist, liefern Interferometer bereits jetzt große Mengen wertvoller Beobachtungsdaten, deren einzigartige Ergebnisse den benötigten Aufwand rechtfertigen (siehe Kasten auf Seite 44). Und die noch bestehenden Einschränkungen werden sich in naher Zukunft überwinden lassen, wenn ausgefeilte adaptive Optiken zur Verfügung stehen.
In den vergangenen Jahren haben die Astronomen zahlreiche optische und infrarote Interferometer errichtet, deren Leistungsfähigkeit immer mehr anwuchs. Anlagen mit mehreren Teleskopen werden bald in Betrieb gehen – beispielsweise das Navy Prototype Optical Interferometer (NPOI) auf der Anderson Mesa in Arizona mit sechs Teleskopen und fünfzehn Basislinien. Im Prinzip könnten die Astronomen damit Oberflächenkarten von Sternen anfertigen, mit denselben Verfahren, die sie bei Radiointerferometern einsetzen. In der Praxis werden solche traditionellen Methoden in der optischen Interferometrie nur bei Quellen mit der einfachsten Struktur eingesetzt: nämlich bei Doppelsternen. Spezielle Algorithmen für beliebig geformte Quellen – beispielsweise elliptische Sterne, Sterne mit Flecken und Sterne mit Masseabströmungen oder -ausbrüchen – werden bereits entwickelt. Dennoch steht den optischen Interferometern noch ein weiter Weg bevor, bis sie mit Radiointerferometern gleichziehen können.
Interferometer mit modernen adaptiven Optiken wie das Keck-Interferometer (zwei Teleskope mit zehn Meter Durchmesser in einem Abstand von 85 Metern) oder das Very Large Telescope Interferometer (eine Gruppe von vier Teleskopen der Europäischen Südsternwarte in Chile mit jeweils 8,2 Metern Durchmesser) werden lichtschwache astronomische Objekte mit hervorragender Auflösung untersuchen. Beide Anlagen werden durch kleinere Hilfsteleskope im Umfeld ergänzt. Vorgeschlagene Satellitenprojekte wie die Space Interferometer Mission, der Terrestrial Planet Finder und die MicroArcsecond X-Ray Imaging Mission werden die Astrometrie (das Forschungsgebiet, das sich mit der exakten Positionsbestimmung von Sternen befasst) in den Mikrobogensekundenbereich vorantreiben und sogar in der Lage sein, Planeten um andere Sterne zu entdecken – oder einen Spaziergänger auf dem Mond. Spielkameraden auf fernen Planeten werden unsere Kinder indes selbst mit solchen Interferometern nicht finden können. Aber dennoch liegt eine Zeit ungeheurer technischer und wissenschaftlicher Resultate vor uns.
Literaturhinweise
Speckle-Interferometrie und ihre Anwendung auf die Sonnenbeobachtung. Von Claus Rüdiger de Boer. Shaker Verlag, 1994.
Long-Baseline Optical and Infrared Stellar Interferometry. Von M. Shao und M. M. Colavita in: Annual Reviews of Astronomy and Astrophyiscs, Bd. 30, S. 457, 1992.
The Intensity-Interferometer: It’s Application to Astronomy. Von R. Hanbury Brown. Halsted Press, 1974.
Interferometrie. Von R. Wohlleben und H. Mattes. Vogel Verlag, 1973.
Interferometrie in der Astronomie
Optische Interferometrie ist weit mehr als eine technische Spielerei. Mit ihrem extremen Auflösungsvermögen liefert diese Technik ansonsten unzugängliche Informationen über die physischen Eigenschaften von Sternen.
Durchmesser von Einzelsternen:
Die ersten Messungen von Sterndurchmessern führten Albert A. Michelson und Francis G. Pease 1920 durch. Die beiden Wissenschaftler fanden für den Winkeldurchmesser von Beteigeuze und fünf weiteren Überriesen Werte zwischen 20 und 50 Millibogensekunden. Wenn das menschliche Auge ein solches Auflösungsvermögen besäße, könnten Sie bei ausgestrecktem Arm die einzelnen Atome in Ihrer Hand erkennen.
Etwa ein halbes Jahrhundert später bestimmte ein Team um Robert Hanbury Brown am Intensity-Interferometer in Australien die Winkeldurchmesser von 32 Sternen, die zwischen 0,4 und 5,5 Millibogensekunden betragen. Bis heute haben Astronomen die Durchmesser von mehr als hundert Sternen interferometrisch bestimmt, wobei der Messfehler oft nur ein Prozent beträgt. Nur gelegentlich konnten auch andere Verfahren eingesetzt werden, etwa dann, wenn der Mond vor einem Stern vorbeizieht und man die Zeit misst, innerhalb der das winzige Sternscheibchen vom Mondrand verdeckt wird.
Umlaufbahnen von Mehrfachsternen:
Mindestens die Hälfte aller Sterne befindet sich in Doppel- oder Mehrfachsystemen, in denen zwei oder mehr Sterne um ihr gemeinsames Gravitationszentrum kreisen. Die Bestimmung der Umlaufbahnen der einzelnen Komponenten ist die einzige Möglichkeit, die Masse von Sternen direkt zu ermitteln.
1920 untersuchte John A. Anderson am Mount-Wilson-Observatorium in Kalifornien den Doppelstern Capella mit einem sechs Meter langen Michelson-Interferometer. Er bestimmte so den Winkelabstand der beiden Komponenten an sechs Punkten entlang ihrer Umlaufbahn. Bis dahin war Capella als spektroskopischer Doppelstern bekannt – das heißt, dass man nur anhand der Doppler-Verschiebung von Linien in seinem Spektrum auf die Doppelsternnatur geschlossen hatte. Anderson verknüpfte seine Resultate mit den spektroskopischen Daten, um daraus die Neigung der Umlaufbahn gegen die Sichtlinie zu bestimmen und konnte so die Massen der beiden Sterne und die Entfernung des Systems ermitteln.
Moderne Interferometer erreichen ein weit höheres Auflösungsvermögen als die Geräte von damals. Der kleinste jemals gemessene Abstand zwischen zwei Komponenten eines Doppelsternsystems beträgt zwei Millibogensekunden; Christopher D. Koresko und seine Kollegen erhielten diesen Wert für den Stern TZ Trianguli (im Sternbild Dreieck) mit Hilfe des Palomar-Testbed-Interferometers. Heute messen optische Interferometer so präzise, dass meistens die spektroskopischen Daten die Genauigkeit beschränken, mit der Sternmassen bestimmt werden können.
Oberflächenstrukturen von Sternen:
Noch schwieriger als die Messung des Durchmessers von Sternen ist das Beobachten von Einzelheiten auf ihrer Oberfläche. Man braucht dazu nicht nur eine noch bessere Auflösung, sondern auch eine weit höhere Empfindlichkeit, um die sehr kleinen Helligkeitsdifferenzen erkennen zu können. Ein Beispiel ist die so genannte Randverdunkelung: Der Rand einer Sternscheibe erscheint weniger hell als ihre Mitte. Blickt man nämlich zentral auf einen Stern, so schaut man auch tiefer in seine Atmosphäre hinein und betrachtet somit heißere und hellere Schichten. Licht vom Sternrand hingegen stammt aus höher gelegenen und kühleren Schichten, die auch weniger Licht aussenden.
Eine solche Randverdunkelung ist bei unserer Sonne zu beobachten, und sie sollte auch bei allen anderen Sternen nachweisbar sein, was allerdings von deren Spektraltyp abhängt. Moderne optische Interferometer können zwischen einer einheitlich leuchtenden Scheibe und einer mit Randverdunkelung unterscheiden. Solche Beobachtungen helfen, die Theorien über den Aufbau von Sternatmosphären zu überprüfen.
Geschichte der astronomischen Interferometrie
1868: Der französische Physiker Armand Hippolyte Louis Fizeau entwickelt die grundlegende Idee eines optischen Interferometers: Er schlägt vor, eine Maske mit zwei Löchern in den Strahlengang eines Teleskops zu bringen und die überlagerten Bilder des zu vermessenden Sterns zu beobachten. Der Kontrast des entstehenden Interferenzmusters aus hellen und dunklen Streifen nimmt ab, wenn man den Abstand der beiden Löcher vergrößert. Fizeau erkennt, dass der Lochabstand, bei dem das Interferenzmuster verschwindet, ein Maß für den Winkeldurchmesser des Sternes ist.
1876: Édouard Stephan testet das von Fizeau vorgeschlagene Verfahren am 80-Zentimeter-Teleskop in Marseille. Der Abstand von 65 Zentimetern zwischen den Löchern in der Maske reicht jedoch nicht aus, um den Durchmesser von Sternen zu bestimmen: Die überlagerten Bilder weisen stets Interferenzstreifen auf; die Sterne erscheinen also noch als Punktquellen. Stephan kann daraus nur schließen, dass der Winkeldurchmesser der von ihm beobachteten Sterne kleiner als 0,16 Bogensekunden sein muss.
1891: Albert A. Michelson, der offenbar die Arbeiten von Fizeau und Stephan nicht kennt, nutzt dieselbe Methode. Er wendet sie aber auf die Galileischen Monde des Jupiters an – und zwar erfolgreich, denn mit Winkeldurchmessern zwischen einer und zwei Bogensekunden erscheinen diese Himmelskörper weit größer als die fernen Sterne.
1920: Michelson setzt das damals größte Teleskop der Welt, den 2,5-Meter-Hooker-Reflektor auf dem Mount Wilson in Kalifornien, für die interferometrische Messung von Sterndurchmessern ein. Die Öffnung des Teleskops vergrößert er künstlich, indem er einen sechs Meter langen Metallträger mit Spiegeln an beiden Enden vor den Lichteinlass montiert (Bild). 1930 versucht Michelsons Kollege Francis G. Pease das Gleiche mit einem fünfzehn Meter langen Träger. Er scheitert jedoch, vermutlich weil der Träger keine ausreichende mechanische Steifigkeit besaß.
1950–1970: Astronomen perfektionieren den Einsatz von Interferometern im Radiowellenbereich. Weil die Wellenlängen in diesem Abschnitt des elektromagnetischen Spektrums vieltausendfach größer sind als als Licht, machen sich die störenden Einflüsse der Erdatmosphäre weit weniger bemerkbar, und die Technik zur Erzeugung von Interferenzen ist weniger aufwendig. Vorteilhaft ist zudem die Möglichkeit, die Radiosignale zu verstärken und in jedem Teleskop für die spätere Auswertung aufzuzeichnen.
1958–1976: Robert Hanbury Brown, Richard Q. Twiss und ihre Mitarbeiter setzen zwei wesentliche Meilensteine mit dem Bau des Intensity-Interferometers in der Nähe von Narrabri (Australien). Die künstliche Vergrößerung der Öffnung erreichen sie nicht mit einer Hilfskonstruktion aus mehreren Spiegeln vor einem Teleskop, sondern sie verwenden zwei räumlich getrennte Teleskope mit einem Spiegeldurchmesser von jeweils 6,5 Metern, deren Abstand sich zwischen 10 und 188 Metern variieren lässt. Zudem verwenden sie elektronische Detektoren und Datenaufzeichnungsgeräte, während zuvor mit bloßem Auge beobachtet wurde.
Brown und Twiss nutzen auch das damals neuartige Verfahren, einzelne Photonen an den Teleskopen nachzuweisen und deren Ankunftszeiten miteinander zu korrelieren. Diese einfache Technik ist von Vorteil, da die Lichtstrahlen der beiden Teleskope selbst nie miteinander in Verbindung gebracht werden müssen, allerdings ist sie weniger empfindlich. Selbst mit einer Belichtungszeit von 100 Stunden können die Astronomen nur Sterne beobachten, die heller sind als die mit bloßem Auge recht hell erscheinenden Gürtelsterne des Orion (im astronomischen Sprachgebrauch haben sie eine Helligkeit von 2,5 Größenklassen).
1974: Zwei weitere Arbeitsgruppen setzen getrennte Teleskope ein, nutzen aber empfindlichere Detektoren. Antoine Labeyrie und seine Mitarbeiter beobachten den Stern Wega bei optischen Wellenlängen und mit einer Basislänge von zwölf Metern. Sie nutzen Michelsons Verfahren, bei dem die beiden Lichtstrahlen vor dem Detektor interferometrisch überlagert werden. Auf dem Kitt Peak in Arizona verwendet eine Gruppe um Charles H. Townes im mittleren Infrarot-Bereich eine aus der Radioastronomie entliehene Technik, um den Planeten Merkur mit einer Basislinie von 5,5 Metern zu untersuchen. Ihre Methode beruht auf der Frequenzwandlung, wobei die registrierten hochfrequenten Signale in niedrigere Frequenzen umgesetzt werden, ähnlich wie die hochfrequenten Radiosignale von einem Radio in die für Menschen hörbaren Frequenzen umgewandelt werden.
1980: Das Very Large Array, ein Radiointerferometer, nimmt in Socorro (Neu-Mexiko) seinen Betrieb auf (siehe "Radiointerferometrie mit sehr großen Basislängen", Spektrum der Wissenschaft 3/1988, S. 58).
Jüngste optische Arbeiten: Als Resultat der Arbeiten von Labeyrie und Townes wird die optische Interferometrie weiterentwickelt. Townes hat seine Experimente im Bereich des mittleren Infrarot aus den frühen siebziger Jahren fortgesetzt. Seine Gruppe betreibt nun ein Heterodyne-Interferometer aus zwei 1,6-Meter-Teleskopen mit einer Basislinie von maximal 32 Metern. Ein drittes Teleskop wird gebaut; zudem soll die Basislinie auf 75 Meter erweitert werden.
Seit 1974 wurden acht Interferometer für den optischen Bereich und das nahe Infrarot in Betrieb genommen. Fünf weitere befinden sich noch im Bau. Sie alle haben verschiedene Rekorde gesetzt:
- Die längste Basislinie erreicht das Sydney University Stellar Interferometer (SUSI) in Australien mit 80 Metern;
- die größte Öffnung weist das GI2T in Frankreich mit 1,5 Metern auf;
- bis zu vier Teleskope können am Cambridge Optical Apertur Synthesis Array (England) gleichzeitig genutzt werden; am Very Large Telescope der Europäischen Südsternwarte (Chile) werden es nach Fertigstellung der gesamten Anlage sogar vier 8,20-Meter-Teleskope und drei 1,80-Meter-Teleskope sein;
- das Navy Prototype Optical Interferometer (USA) deckt den größten Wellenlängenbereich ab (450 bis 850 Nanometer).
Aus: Spektrum der Wissenschaft 6 / 2001, Seite 42
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben