Kartierung der Erde mit Radar-Interferometrie
Aus den Daten sehr präziser Satelliten-Radarsensoren kann man unter günstigen Bedingungen Interferogramme berechnen, aus denen sich wiederum die Topographie des Erdbodens ermitteln läßt.
Kartenwerke, die vielfältige und feinste Geländemerkmale detailgetreu wiedergeben, gelten in den Industriestaaten als selbstverständlich. Von den oft dünn besiedelten Regionen der Dritten Welt hingegen sind weite Gebiete nach wie vor kaum erfaßt. Das erschwert nicht nur die Verwaltung dieser Länder – auch Satellitenaufnahmen sind kaum für ökologische und landwirtschaftliche Zwecke, für den Ausbau der Infrastruktur oder für die Prospektion von Bodenschätzen auszuwerten (Spektrum der Wissenschaft, Januar 1995, Seite 104). Denn je nach Blickwinkel und Stand der Sonne ändern sich Helligkeit und Spektrum des am Boden reflektierten Lichts. Um daraus beispielsweise Rückschlüsse auf den Zustand der Vegetationsdecke zu ziehen, bedarf es eines Geländemodells zur Korrektur der Daten.
Nun eignen sich optische Präzisionskameras durchaus dazu, die Topographie eines Areals darzustellen. So nimmt der Modulare Optoelektronische Multispektrale Stereoabtaster (MOMS), ein im Rahmen des deutschen Weltraumprogramms entwickeltes System, das überflogene Gebiet mit mehreren verschieden gerichteten Objektiven gleichzeitig digital auf; die Projektion einer schräg stehenden Fläche, etwa einer Bergflanke, auf die Bildebene ist dann je nach Objektivrichtung verschieden lang und ihre Neigung somit präzise berechenbar (Spektrum der Wissenschaft, Januar 1995, Seite 93).
Allerdings benötigen optische Sensoren ausreichend Licht – die Sonne sollte mehr als 30 Grad über dem Horizont stehen – und einen wolkenfreien Himmel. Der Tropengürtel, der sich zwischen den Wendekreisen, also zwischen 23 Grad und 27 Bogenminuten nördlicher beziehungsweise südlicher Breite erstreckt, erfüllt zwar bei Tage die erste Bedingung, denn die Sonne sinkt dort nie unter 43 Grad; doch verschleiern Wolken und Dunst meist die Sicht. Immerhin umfaßt diese nur schlecht kartierte klimatische Zone etwa 40 Prozent der Erdoberfläche.
Radarsensoren eignen sich als Alternative, denn sie senden selbst den beleuchtenden Strahl in Form von Mikrowellen-Pulsen aus. Diese Wellen durchdringen Wolken zudem praktisch ungehindert und werden erst von sehr massiven Niederschlägen gedämpft.
SAR-Interferometrie
Astronomen legten Mitte der fünfziger Jahre die Grundlagen der Radio-Interferometrie. Sie berechneten die Richtung zu einer kosmischen Quelle von Radiostrahlung, indem sie deren Signal mit zwei oder mehr voneinander entfernten Antennen aufnahmen und den Zeitunterschied des Empfangs bestimmten; bei der neueren very long baseline interferometry (VLBI) ist der Abstand zwischen den Stationen, die sogenannte Basislänge, fast so groß wie der Erddurchmesser, beträgt also bis zu 12000 Kilometer. Weil die Antennen unterschiedlich weit vom Stern entfernt sind, erreichen beispielsweise die Maxima der Radiowellen sie zu verschiedenen Zeitpunkten beziehungsweise unterscheiden sich ihre Phasen zum Zeitpunkt der Messung (als Zeitreferenz benutzt man Atomuhren). Wenn man die aufgezeichneten Daten überlagert, ergeben sich deshalb Interferenzmuster. Daraus und aus dem bekannten Abstand der Antennen sowie deren Position auf der Erdoberfläche läßt sich die Richtung zu dem betrachteten Radiostern ermitteln (allerdings senden Radiosterne nicht Signale einer Frequenz, sondern ein breites Rauschen, was die Auswertung erschwert).
Mit zwei zueinander rechtwinklig angeordneten Basislängen, also vier Antennen auf den Eckpunkten eines Quadrats oder dreien auf den Ecken eines rechtwinkligen Dreiecks, wurden bis Mitte der siebziger Jahre auch die Bahnen der ersten Satelliten verfolgt. Man verwendete dafür das Trägersignal des Datentransfers zur Bodenstation. Dessen Laufzeit ließ sich in Bruchteilen der Wellenlängen von etwa zwei Metern messen. Mit den besten Anlagen erhielt man bei einer Basislänge von 100 bis 150 Metern die Richtung zum künstlichen Erdtrabanten auf zehn Bogensekunden genau. Größere Abstände der Antennen hätten die Auflösung zwar theoretisch verbessert, aber in der Praxis wären sie durch die atmosphärischen Fehler bei etwa zehn Bogensekunden geblieben. Diese entstehen durch Brechen des Signalstrahls an den Luftschichten, infolge lokaler Schwankungen der Luftdichte und durch die unterschiedliche Ladungsdichte der Ionosphäre. Zudem differieren die Laufzeiten der Signale meist um mehrere ganze Wellenlängen plus einen Bruchteil einer Wellenlänge; nur über letzteren – den Phasenunterschied – gibt die Interferenz Auskunft, und die Messung ist mehrdeutig. Beide Effekte wachsen aber mit der Basislänge; die Mehrdeutigkeit ließ sich mit zusätzlichen Interferometern geringer Basislänge korrigieren.
Seit mehr als 20 Jahren beobachten Satelliten mit Radarsensoren nun auch die Erdoberfläche. Um allerdings feine Details unterscheiden zu können, müßten die Antennen enorme Ausmaße haben; so würde bei einer Wellenlänge von 5,7 Zentimetern, rund 200 Kilometern Entfernung und einer erwünschten Auflösung von etwa zehn Metern der Antennendurchmesser einen Kilometer betragen. Zudem wären die Sensoren quer zur Flugbahn hin- und herzuschwenken, damit nicht nur eine schmale Spur, sondern ein Streifen abgebildet wird. Beides ist technisch nicht möglich.
Die Lösung dieses Problems fanden ebenfalls Radioastronomen: Indem eine Gruppe relativ kleiner Antennen durch die Erdrotation gegenüber dem Zielobjekt bewegt und diese Bewegung bei der Signalauswertung berücksichtigt wird, läßt sich eine viel größere wirksame Antennenfläche simulieren. Man gewinnt mithin künstlich die Apertur (lateinisch für Öffnung) einer hypothetisch sehr großen Antenne und eine entsprechende Auflösung. Mit dem synthetic aperture radar (SAR), das sich nun freilich auf einem Satelliten gegenüber der Erdoberfläche bewegt, beleuchtet man aktiv eine aufzunehmende Fläche mit Mikrowellen. Die synthetische Apertur wird in Flugrichtung aufgebaut und hat etwa die Länge des beleuchteten Flecks (Bild 1 links). Quer dazu lassen sich Objekte durch Schrägsicht des Sensors unterscheiden: Die ausgesandten Pulse müssen unterschiedlich lange Wege zurücklegen (Spektrum der Wissenschaft, Januar 1995, Seite 86).
Der Satellit sendet und empfängt mit stabiler Frequenz, so daß man das Datengemisch anhand theoretischer Referenzfunktionen verarbeiten kann. Die Schrägsicht verkürzt allerdings beispielsweise Bergflanken auf der dem Sensor zugewandten Seite. Dieser Effekt muß anhand kartographischer Paßpunkte oder eines digitalen Geländemodells korrigiert werden.
Ein solches Modell läßt sich aber auch mit SAR-Interferometrie erstellen: Überlagert man zwei SAR-Bilder desselben Gebiets, die bei nicht zu großer Basislänge – das heißt bei geringem Abstand der Flugbahnen – aufgenommen worden sind, lassen sich aus den in Wellenlängen und Phasenunterschieden gemessenen Entfernungsunterschieden auch Richtungen zu den Bildelementen bestimmen (Bild 1 rechts).
Anders als im vorigen Artikel beschrieben, vergleicht man bei kartographischen Anwendungen also gerade nicht die Phasen zweier aus möglichst gleicher Position und identischem Beobachtungswinkel gewonnenen Datensätze (weil es nicht darum geht, Veränderungen des Erdbodens zu erfassen), sondern nimmt wie mit einer optischen Stereokamera ein und dasselbe Objekt aus leicht verschiedenen Blickwinkeln auf. Allerdings geschieht dies bisher nicht gleichzeitig, sondern im Abstand einiger Stunden, Tage oder sogar Wochen; dementsprechend exakt müssen die Positionsdaten des Sensors oder der Sensoren jeweils bestimmt sein.
Entsprechend dem Auflösungsvermögen wird der interessierende Bereich der Erdoberfläche in einem Raster abgetastet. Ein einzelnes Bildelement (Pixel) läßt sich als Quadrat vorstellen, dessen Seitenlänge dem bestenfalls zu unterscheidenden Abstand zweier Objekte entspricht; bei zivilen SAR-Systemen sind dies einige Meter. Darin reflektieren Hunderte und häufig sogar Tausende von Objekten das Radarsignal mit verschiedener Stärke und Richtung; in der Summe ergibt sich das rückgestreute Signal. Schon geringfügige Änderungen des Beleuchtungswinkels – wie zwischen zwei Aufnahmen – können es stark beeinflussen. Dieser Effekt wächst mit der Größe des Rasterelements. Ist die Änderung aufgrund der gewählten Basislänge zu groß, geht der Bezug zwischen den beiden Aufnahmen verloren, und eine interferometrische Auswertung ist unmöglich – eine mißliche Beschränkung, denn theoretisch gilt auch hier, daß die Auflösung mit der Basislänge wächst.
Praktische Nutzung
Die Idee der SAR-Interferometrie diskutieren und erproben Wissenschaftler seit etwa zwanzig Jahren (sie wurde bereits in den sechziger Jahren in der militärischen Forschung der USA entwickelt und geheim patentiert). Der erste mit einem SAR ausgerüstete Satellit, "SEASAT" startete 1978, ein weiterer Sensor flog drei Jahre später an Bord der Raumfähre "Columbia" mit (Spektrum der Wissenschaft, Februar 1983, Seite 52). Ihm folgten 1992 "JERS-1" sowie – vor allem zur Umweltbeobachtung – 1991 "ERS-1" und 1995 "ERS-2".
Ursprünglich sollte "ERS-1" nur zwei Jahre in Betrieb sein, doch weil das System auch 1995 noch hervorragend arbeitete und sich das Gespann "ERS-1" und "ERS-2" für interferometrische Messungen eignet, verschob man das Ende seiner Mission – auf Anregung deutscher Forscher hin – zunächst auf 1996 (derzeit wird der Satellit nur überwacht, um ihn bei Bedarf wieder für eine Tandem-Mission zu aktivieren). Beide Satelliten fliegen in Bezug zur Ekliptik in derselben Bahnebene in einem Abstand von etwas mehr als einer halben Stunde. Während dieser Zeit dreht sich die Erde unter ihnen nach Osten weiter, so daß sich bezüglich des Globus scheinbar zwei Bahnebenen ergeben, die einander jeweils nahe den Polen schneiden. Der Abstand beider Ebenen beträgt am Äquator etwa 870 Kilometer und wäre damit dort viel zu groß für eine interferometrische Auswertung (Bild 2 links). Man hat jedoch die Bahnparameter und den zeitlichen Abstand der beiden Flugkörper so gewählt, daß "ERS-2" jeweils 24 Stunden nach "ERS-1" fast dasselbe Gebiet überquert: Die Bahnen liegen am Äquator nur noch etwa 100 bis 300 Meter auseinander und kreuzen sich in Polnähe (Bild 2 rechts).
Ein Problem ist der mit einer Neigung von 23 Grad gegen das Lot recht steile Beobachtungswinkel. Bis zu acht Szenen können erforderlich sein, um die Topographie von Gebirgen zu berechnen. Indem man ein Gebiet auf nach Norden beziehungsweise nach Süden verlaufenden Bahnen beobachtet, ergeben sich aufgrund der Schrägsicht Ansichten aus Westen beziehungsweise Osten. Um eventuelle Laufzeitunterschiede infolge von Änderungen atmosphärischer Verhältnisse zwischen einzelnen Überflügen zu erkennen und zu korrigieren, verwendet man mehrere Aufnahmen.
Die ERS-Daten werden nicht über geostationäre Nachrichtensatelliten als Relaisstationen, sondern direkt zu den Bodenstationen im Sichtbereich des Satelliten übertragen. Mobile Empfangseinrichtungen, wie die Deutsche Forschungsanstalt für Luft- und Raumfahrt (DLR) sie zusätzlich zu ihren fest installierten betreibt, sind dementsprechend wichtig.
Die Sensoren der Satelliten messen nur bei einer Frequenz. Ein Multifrequenz-System wurde 1994 bei Flügen von Raumfähren erprobt. Dieses modernste SAR-System ist eine Kombination des amerikanischen Sensors SIR-C (Shuttle Imaging Radar C) und des X-SAR von DLR und italienischer Raumfahrt-Agentur ASI. Der erste Sensor arbeitet bei 1,25 und 5,3 Gigahertz (Milliarden Schwingungen pro Sekunde), auch als L- und C-Band bezeichnet; das X-Band des deutschen Geräts mißt bei 9,6 Gigahertz. Zudem sind im L- und C-Band verschiedene Polarisationen einsetzbar (Spektrum der Wissenschaft, Januar 1995, Seite 87).
Aus den Daten der Satelliten- wie der Shuttle-Missionen werden von weltweit verteilten Einzelgebieten topographische Darstellungen abgeleitet. Typische Basislängen waren bei Shuttle-Radarlab-Missionen etwa 30 bis 100 Meter und bei "ERS-1" beziehungsweise "ERS-1"/ "ERS-2" etwa 100 bis 300 Meter. Damit erreichte man eine Auflösung von 30 bis 5 Metern in der Vertikalen bei einer Seitenlänge der Bildelemente von etwa 25 Metern. Die Entfernungsunterschiede der beiden über dem erfaßten Areal praktisch parallel verlaufenden SAR-Bahnen zu den einzelnen Geländepunkten lassen sich im Interferometerbild in Wellenlängen darstellen, die mit den Regenbogenfarben gekennzeichnet werden. Zieht man davon die Entfernungsunterschiede zu der Bezugsebene auf Meereshöhe ab (dies wären lauter parallele Streifen), so erhält man angenähert ein Bild der Höhenlinien, aus dem sich die dreidimensionale Darstellung des Geländes berechnen läßt (Bilder 3 und 4).
Weil Änderungen der reflektierenden Objekte, insbesondere in bewaldeten Gebieten, wie auch der atmosphärischen Bedingungen den Bezug zwischen nacheinander aufgenommenen Bildern gänzlich aufheben können, wird auch die gleichzeitige Signalaufnahme mit mehreren Sensoren entwickelt: Die 1994 auf Shuttle eingesetzten C- und X-Band-SAR-Systeme sollen jeweils eine zweite Empfangsantenne erhalten, die an einen 60 Meter langen Träger montiert ist. Damit lassen sich gleichzeitig aufgenommene SAR-Bildpaare für Interferometrie mit 60 Metern Basislänge gewinnen. Im C-Band wird die vertikale Auflösung etwa 12, im X-Band etwa 5 Meter betragen. Durch den auf 57 Grad beschränkten Neigungswinkel der Shuttle-Bahn wird man die Erde ungefähr zwischen 60 Grad nördlicher beziehungsweise südlicher Breite topographisch kartieren können. Der erste Flug findet voraussichtlich in zwei Jahren statt.
Im Unterschied zu den optischen Verfahren ist die SAR-Interferometrie bei Tag und Nacht sowie fast wetterunabhängig einzusetzen. Darüber hinaus werden derzeit Auswertungsverfahren entwickelt, um das aufwendige Einpassen der Interferometriebilder zu automatisieren. Auch topographische Veränderungen etwa infolge von Erdbeben dürften in naher Zukunft aus dem Vergleich von Aufnahmen verschiedener Zeitpunkte abzuleiten sein. Zudem wird man auch gerodete Waldflächen, überschwemmte Gebiete und städtebauliche Veränderungen damit ausmachen können.
Herwig Öttl, promovierter Ingenieur, ist stellvertretender Programmdirektor Raumfahrt der Deutschen Forschungsanstalt für Luft- und Raumfahrt (DLR). Gemeinsam mit Diane Evans vom Jet Propulsion Laboratory in Pasadena (Kalifornien) und Mario Calamia von der italienischen Raumfahrt-Agentur ASI leitet er das SIR-C/X-SAR Science Team. Die im Beitrag gezeigten Bilder wurden von Mitarbeitern dreier Einrichtungen der DLR – des Instituts für Hochfrequenztechnik, des Deutschen Fernerkundungsdatenzentrums und der Hauptabteilung Raumflugbetrieb – prozessiert und aufbereitet
Aus: Spektrum der Wissenschaft 9 / 1997, Seite 65
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben