Radar-Interferometrie zur Messung der Erdkrustendynamik
Aus Hunderten von Kilometern Entfernung vermögen Wissenschaftler mit Radar-Sonar auf Satelliten selbst geringe Hebungen und Senkungen der Erdoberfläche aufzuspüren. Interferogramme, die beim Überlagern geeigneter Bilder entstehen, spiegeln die Auswirkungen von Erdbeben, Vulkanausbrüchen und Masseströmen.
Tektonische Platten gleiten fast un- merklich aneinander entlang, Gletscher fließen träge von Gebirgen herab, und das Niveau des Erdbodens hebt oder senkt sich langsam in weiten Bereichen – geologische Kräfte formen die Oberfläche unseres Planeten meist unauffällig. Ein plötzliches Beben in dichtbesiedeltem Gebiet wie auch der explosive Ausbruch eines Vulkans machen jedoch auf erschreckende Weise deutlich, daß der Untergrund, auf dem der Mensch lebt, so fest nicht ist.
Um diese Dynamik besser zu verstehen und katastrophale Ereignisse womöglich doch rechtzeitig vorhersagen zu können, will man die Verformungen und Bewegungen der Erdkruste kontinuierlich verfolgen. Zwar gibt es dazu ein vielfältiges Instrumentarium vom altbewährten Theodoliten bis zu satellitengestützten Positionsmeßgeräten (Spektrum der Wissenschaft, Januar 1996, Seite 115), doch sind die Verfahren meist bodengebunden: Jemand muß in das Untersuchungsgebiet reisen, die Apparate aufstellen und an Ort und Stelle ablesen oder sie für einen automatischen Betrieb einrichten.
Im Rahmen einer theoretischen Untersuchung wies ich 1985 auf eine Alternative hin – die Auswertung von Radarbildern. Damals arbeiteten zwar Wissenschaftler bereits seit einigen Jahren daran, aus den Daten der Radargeräte an Bord von Satelliten und Flugzeugen Darstellungen der überflogenen Gebiete zu berechnen; die meisten Geologen bezweifelten aber noch, daß sich aus Hunderten von Kilometern Entfernung horizontale und vertikale Deformationen von oft nur wenigen Millimetern erfassen ließen. Indes ermöglichte mir die französische Raumfahrt-Agentur, die Idee in die Tat umzusetzen.
In den vergangenen zwölf Jahren ist es meinem Team wie auch anderen Forschergruppen in aller Welt gelungen, die Radar-Interferometrie per Satellit zur Praxisreife zu bringen. Wir selbst haben mit dieser neuen Technik Verwerfungen infolge von Erdbeben kartiert sowie das Heben und Senken des Ätna auf Sizilien erfaßt; Fachkollegen überwachten auf diese Weise langsame Erdrutsche in schwer zugänglichen Gebirgen und die schleppende Fortbewegung von Gletschereis.
Hilfreiche Interferenz
Daß es möglich ist, mit Funksignalen kleiner Wellenlänge – also im Millimeter- bis Dezimeterbereich – Abstände zu bestimmen, war schon 1904 Grundlage einer Erfindung des deutschen Hochfrequenztechnikers Christian Hülsmeyer (1881 bis 1957). Mit seinem Telemobiloskop hatte er im Sinn, den Straßenverkehr zu kontrollieren. Das patentierte System sollte die Laufzeit des Signals zu einem reflektierenden Metallgegenstand mit der für den Rückweg vergleichen, funktionierte jedoch nicht recht (der heutige Verkehrsradar zur Geschwindigkeitsbestimmung nutzt den von bewegten Objekten bewirkten Doppler-Effekt). Ernsthaft mit dem Prinzip befaßte sich erst wieder 1922 der Italiener Guglielmo Marconi (1874 bis 1957; Nobelpreis 1909). Auf solchen Grundlagen aufbauend suchte man etwa von 1930 an in Großbritannien, Frankreich, Deutschland und den USA Geräte zur Ortung von Schiffen und Flugzeugen zu entwickeln, hauptsächlich zu militärischen Zwecken, doch war beispielsweise eines auch zur Eisbergwarnung vorgesehen, das der französische Passagierdampfer "Normandie" 1936 einsetzte. Zu jener Zeit sprach man erstmals kurz von "Radar" für radio detecting and ranging (wörtlich: Funkermittlung und Entfernungsmessung). Der Zweite Weltkrieg stimulierte dann enorme Fortschritte auf diesem Gebiet.
Während zunächst für die Flugüberwachung große rotierende Antennenschüsseln installiert wurden, entstanden später auch kleinere Festantennen, die von Flugzeugen aus mit scharf gebündelten, abwärts gerichteten Strahlen Radaraufnahmen der Erdoberfläche ermöglichten: Die Echos können mit Computern in ein sichtbares Bild umgesetzt werden. Mittlerweile umkreisen solche Sende- und Empfangsantennen an Bord von Satelliten die Erde (Spektrum der Wissenschaft, Januar 1995, Seite 86, und Februar 1995, Seite 56). Ein großer Vorteil gegenüber optischen Verfahren wie der Photographie ist, daß Wassertropfen und Eiskristalle Radiosignale nur geringfügig dämpfen und somit selbst dicke Wolkenschichten das beobachtete Areal nicht verdecken. (Tropische Gewittertürme bis zu 20 Kilometern Höhe lassen sich allerdings bei bestimmten Frequenzen durchaus erkennen, und spezielle Systeme zeichnen sogar vom Boden aus Profile von Wind, Turbulenzen, Lufttemperatur sowie Regen, Schnee und Hagel bis in mehrere Kilometer Höhe auf. Die Redaktion.) Außerdem können Bilder sowohl bei Tag als auch bei Nacht gewonnen werden.
Freilich liegen den verschiedenen Beobachtungstechniken auch unterschiedliche physikalische Prinzipien zugrunde. Optische Sensoren zeichnen die elektromagnetische Strahlung auf, die im Wellenlängenbereich des sichtbaren Lichts von der Sonne ausgesandt und vom Erdboden reflektiert wird. Sie umfaßt alle Frequenzen der Spektralfarben, und die einzelnen Wellen haben zueinander keine feste Phasenbeziehung: Die Maxima und Minima der jeweiligen Schwingungszustände liegen unterschiedlich weit auseinander. Deshalb ist jedes Element der resultierenden Abbildung – Pixel genannt – nur durch die Helligkeit beziehungsweise Amplitude des registrierten Lichts im aufgenommenen Gebiet charakterisiert, gleichbedeutend mit der Menge der reflektierten Photonen. Hingegen sendet eine Radarantenne nur Strahlung einer Wellenlänge aus. Darum läßt sich nicht nur die Amplitude, sondern auch die Phasenlage der zurückgeworfenen Wellen bestimmen und verarbeiten (Bild 2).
Daraus kann man den Abstand zwischen Sender und reflektiertem Objekt bestimmen. Da abbildende Radargeräte mit Frequenzen von einigen Gigahertz (Milliarden Schwingungen pro Sekunde) arbeiten und sich das Signal mit Lichtgeschwindigkeit fortpflanzt, legt es während einer Schwingung nur eine kurze Strecke zurück – bei einer Frequenz von sechs Gigahertz fünf Zentimeter. Beträgt nun die Entfernung einer Radarantenne an Bord eines Satelliten zum Erdboden beispielsweise 800 Kilometer, legt der Echo-Anteil des Radarsignals die doppelte Entfernung zurück, bis er wieder beim Flugkörper anlangt. Würde der Abstand präzise eingehalten, entspräche dies 32 Millionen vollständiger Schwingungszyklen für beide Richtungen. Falls er jedoch um nur einen Zentimeter differiert, muß das Echo-Signal zwei Zentimeter mehr oder weniger zurücklegen, was bereits 40 Prozent seiner Wellenlänge entspricht. Dann weicht die Phase des empfangenen Signals um eben diesen Betrag gegenüber der des gesendeten ab, und die Entfernung ist auf Zentimeter oder sogar Millimeter genau zu bestimmen.
Doch jahrzehntelang waren solche Radarmessungen kaum zu nutzen. Ein Bildelement in einer Satellitenaufnahme repräsentiert beispielsweise eine Fläche von etwa 100 Quadratmetern, die Kieselsteine, Felsen, Pflanzenbewuchs und andere Unebenheiten enthalten kann. Sie reflektieren den Radarstrahl auf unvorhersehbare Weise, und die Phase des rückgestreuten Summensignals scheint ein Zufallsprodukt zu sein, das in keiner Beziehung zu denen angrenzender Bildelemente steht.
Zumindest zeigt dieser Umstand aber an, daß viele Reflektoren zum entsprechenden Pixel beitrugen. Diese Information kann wichtig sein, weil auch die Amplitudenmessungen gestört werden: Reflexionen können sich addieren und die Gesamtreflexion verstärken oder einander aufheben. Deshalb entsteht bei der Berechnung des gesamten Radarbilds eine körnige Struktur. Dieses Phänomen bei der Reflexion kohärenter Strahlung, also Strahlung gleicher Wellenlänge, wird als Speckle – fleckenartige Lichtverteilung – bezeichnet; es tritt auch bei Anwendungen von Laserstrahlung auf. Zur Korrektur nimmt man häufig den Durchschnitt der Amplituden einander benachbarter Bildelemente, wobei dann allerdings die Phaseninformationen verlorengehen.
L. C. Graham, Mitarbeiter der Firma Goodyear Aerospace in Acro (Ohio), zeigte 1974 erstmals, daß sich die Phasenverschiebung von Signalen eines Radars an Bord eines Flugzeugs nutzen läßt. Forscher am Jet Propulsion Laboratory in Pasadena (Kalifornien) verarbeiteten dann vom zivilen Radarsatelliten "SEASAT" 1978 gemessene Phasen. Sie verglichen zwei Datensätze, die bei etwa 100 bis 1000 Meter auseinanderliegenden Umläufen aufgenommen worden waren. Zwar erschienen die Werte je Pixel zufällig verteilt zu sein, weil die reflektierenden Objekte es waren; doch bestand zwischen denen korrespondierender Bildelemente ein Zusammenhang, so daß sich beim Überlagern ein relativ einfaches Interferenzmuster ergab.
Sofern die Beobachtungspositionen sehr gut übereinstimmen, läßt sich eine solche Interferenz nur durch leichte Bewegungen der Erdoberfläche zwischen den zwei Aufnahmezeiten erklären. Üblicherweise werden Radar-Interferogramme farbcodiert und zeigen die Bodenveränderung als Regenbogenspektrum; ein kompletter Durchlauf – von Rot über Orange, Gelb, Grün und Blau bis Violett – entspricht einer Phasenverschiebung von einer halben Wellenlänge. Bei dem europäischen Satelliten "ERS-1" beispielsweise bedeutet das einen Entfernungsunterschied von lediglich etwa drei Zentimetern. Auch wenn so nur Verlagerungen in der oder gegen die Flugrichtung zu erfassen sind, nicht quer dazu, werden in jedem vom Radar abgetasteten Landstreifen so viele kartiert, wie auf konventionelle Weise nur in jahrelangen Vermessungen zu entdecken wären.
Die Methode erfordert jedoch, daß die vielen kleinen reflektierenden Objekte, die zu jedem Bildpunkt beitragen, unverändert bleiben. Falls zwischen den beiden Aufnahmen viel Zeit verstreicht, ist dies nicht mehr gewährleistet: Bäume können unterdes ihr Laub verlieren, Oberflächen sich begrünen, Regenfälle Rinnen in den Boden graben und dergleichen mehr.
Ein heikleres Problem ist allerdings, daß die Positionen bei den Aufnahmen idealerweise übereinstimmen sollten, denn ein veränderter Beobachtungswinkel verschiebt ebenfalls die Phasen: Ähnlich wie stereoskopische Luftaufnahmen unterscheiden sich auch zwei aus verschiedenen Perspektiven gewonnene Radarbilder. Nur geringfügige Differenzen der Strahlwege lassen sich berechnen und korrigieren.
Mitunter dürfen die jeweiligen Bahnabschnitte, auf denen sich der Satellit bewegt, nicht mehr als etwa einen Kilometer auseinander liegen; der genaue Wert hängt von der Höhe über Grund, der Wellenlänge des Signals und der Größe des abgebildeten Areals ab. Die vier derzeit in Betrieb befindlichen Radarsatelliten – der kanadische "Radarsat", die europäischen "ERS-1" und "ERS-2" sowie der japanische "JERS-1" – erfüllen diese Anforderungen in der Regel, obwohl keiner speziell für die Interferometrie entwickelt wurde.
Erste Ergebnisse
In der südkalifornischen Mojave-Wüste ereignete sich in der Nähe von Landers 1992 ein größeres Erdbeben; das wurde unser erster Praxistest. Wir nahmen uns sämtliche "ERS-1"-Radardaten des Gebiets vor und berechneten Interferogramme, indem wir jeweils eine frühere mit einer späteren Aufnahme aus ungefähr derselben Position kombinierten (Bild 1). Da die Satellitenbahnen nie exakt identisch waren, beeinträchtigte das zerklüftete Bodenrelief der Region zwar die Resultate, aber anhand einer digitalisierten Höhenlinienkarte ließ sich das korrigieren. Es ergaben sich vielfältige Interferenzmuster – nur zeigten sie wirklich die Auswirkungen des Bebens?
Um dies zu prüfen, berechneten wir anhand von Daten, die Geologen entlang der Hauptverwerfung erhoben hatten, wie das perfekte Interferogramm aussehen müßte. Damit stimmten unsere realen Muster sehr gut überein. Ein weiteres Indiz für deren Richtigkeit war, daß sie sogar geringe Bodenbewegungen an anderen Verwerfungen aufzeigten, die das Gebiet durchziehen. Zum Beispiel ermittelten wir einen Versatz von lediglich sieben Millimetern an einer Störung, die hundert Kilometer vom Epizentrum des Erdbebens entfernt ist.
Bald darauf erprobten Richard M. Goldstein vom Jet Propulsion Laboratory in Pasadena (Kalifornien) und seine Mitarbeiter die Methode an einem antarktischen Gletscher. Sie nutzten dazu Daten, die "ERS-1" im Abstand von sechs Tagen auf Bahnen aufgenommen hatte, die nur wenige Meter voneinander entfernt waren. Unterschiedliche Perspektiven der Topographie verfälschten das Interferenzmuster somit nicht, und es gab direkt die – relativ rasche – Eisbewegung dieses Gletschers mit großer Detailgenauigkeit wieder (Bild 3).
Noch geringere Deformationen suchten wir mit einem Satz von Radarbildern des Ätna auf Sizilien zu entdecken. Der Vulkan war 1992 und 1993 in einer 18 Monate währenden Phase eruptiver Tätigkeit gewesen, und "ERS-1" hatte ihn gegen deren Ende dreißigmal überflogen. Mit einer Höhenlinienkarte als Grundmuster der realen Verhältnisse gewannen wir Dutzende von korrigierten Interferogrammen. Wohl waren etliche durch Veränderungen der Vegetation an den Bergflanken beeinträchtigt, weil die jeweils zwei zugrundeliegenden Bilder im Abstand von Monaten oder gar mehr als einem Jahr aufgenommen wurden. Dennoch konnten wir mit Hilfe von Wissenschaftlern des Pariser Instituts für Geophysik demonstrieren, wie sich der Gipfel des Ätna absenkte, als die restliche Lava ausfloß und der Druck innerhalb des Berges nachließ: während der letzten sieben Monate der eruptiven Phase um zwei Zentimeter pro Monat (Bild 4 und Titelbild). Die Deformation reichte rund um den Vulkan sehr weit; deshalb dürfte die Magmakammer viel tiefer liegen, als Geologen zuvor angenommen hatten.
Diese Technik ist unseres Erachtens gut geeignet, die Hunderte von aktiven Vulkanen auf der Erde zu beobachten – auch in ansonsten unzugänglichen Gegenden. Insbesondere langsame Hebungen infolge steigenden Drucks sollte man so entdecken können, bevor eine gefährliche Eruption einsetzt. Weitere Anwendungen sind durchaus möglich, denn eine Reihe anderer physikalischer Phänomene als Krustenbewegungen beeinflußt ebenfalls die Interferogramme; ihre Effekte müssen entweder korrigiert oder können genutzt werden, etwa Einflüsse der Atmosphäre und sogar der Ionosphäre.
Die derzeit betriebenen vier Radarsatelliten tasten bereits einen Großteil der Erdoberfläche ab (vergleiche "Die ERS-2-Mission", Spektrum der Wissenschaft, April 1995, Seite 30). Europa, Japan und Kanada werden zudem weitere Satelliten starten. Ideal für die Interferometrie sind Geräteplattformen, die eine Bahn mit hoher Genauigkeit wiederholt durchlaufen. Wenn sie hingegen dasselbe Areal jeweils um einen bestimmten geringen Betrag versetzt überfliegen, ergibt sich ein stereoskopischer Effekt, und die Höhe des Bodenreliefs läßt sich exakt messen, wie der folgende Beitrag darlegt.
Literaturhinweise
- Radarbilder der Erde. Von Charles Elachi in: Spektrum der Wissenschaft, Februar 1983, Seite 52.
– Synthetik-Apertur-Radar für die zivile Fernerkundung. Von Herwig Öttl in: Spektrum der Wissenschaft, Mai 1987, Seite 22.
– Mapping Small Elevation Changes over Large Areas: Differential Radar Interferometry. Von A. K. Gabriel, R. M. Goldstein und H. A. Zebker in: Journal of Geophysical Research: Solid Earth and Planets, Band 94, Heft B7, Seiten 9183 bis 9141, 10. Juli 1989.
– SAR Geocoding – Data and Systems. Herausgegeben von Gunter Schreier. Wichmann, Heidelberg 1993.
– The Displacement Field of the Landers Earthquake Mapped by Radar Interferometry. Von Didier Massonnet und anderen in: Nature, Band 364, Seiten 138 bis 142, 8. Juli 1993.
– Deflation of Mount Etna Monitored by Spaceborn Radar Interferometry. Von D. Massonnet, P. Briole und A. Arnaud in: Nature, Band 375, Seiten 567 bis 570, 15. Juni 1995
Aus: Spektrum der Wissenschaft 9 / 1997, Seite 56
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben