Seismische Verifikation
Nach einem 50 Jahre währenden Rüstungswettlauf in der Kernwaffentechnik einigte sich die internationale Staatengemeinschaft im Sommer 1996 darauf, Nuklearexplosionen jeder Art zu verbieten; eine eigens einzurichtende Organisation mit Sitz in Wien wird die Erfüllung des Vertrags überwachen und dazu globale Meßnetze aufbauen und betreiben (siehe "Atomteststopp-Verifikation I", Spektrum der Wissenschaft, Juli 1997, Seite 88). Innerhalb dieses Internationalen Überwachungssystems (International Monitoring System, IMS) kommt der Seismologie eine Schlüsselrolle zu, denn ein potentieller Vertragsbrecher würde einen Kernsprengsatz sehr wahrscheinlich unterirdisch zünden.
Die Vereinigten Staaten, Großbritannien und die damalige Sowjetunion hatten bereits 1963 alle ihre Kernwaffentests unter die Erde verlagert. Frankreich und China folgten dieser Praxis zwar erst sehr viel später, doch haben sie in den letzten Jahren – bis zur endgültigen Einstellung der Versuche 1996 – ebenfalls keinen Kernsprengsatz mehr in der Atmosphäre gezündet. Die Seismologen konnten also mehr als 30 Jahre lang Daten und Erfahrungen sammeln sowie Verfahren entwickeln, mit denen sich Kernwaffentests entdecken, lokalisieren und identifizieren lassen; selbst die Explosionsenergie vermag man aus den Seismogrammen abzuleiten.
Bereits nach dem ersten unterirdischen Kernwaffentest, den die USA am 19. September 1957 auf ihrem Versuchsgelände in Nevada durchführten, erwies sich die Eignung seismischer Verfahren zur Verifikation: Trotz der relativ geringen Explosionsenergie, die der von 1700 Tonnen des chemischen Sprengstoffs TNT (Trinitrotoluol) entsprach, registrierten etwa 50 Meßstationen die Erschütterungen des Erdbodens, und zwar bis in einer Entfernung von 3000 Kilometern. Die Seismologen, die im Sommer 1958 zu den ersten Genfer Verhandlungen über einen Atomteststopp als Berater hinzugezogen wurden, waren sich denn auch zunächst darüber einig, daß man mit einem aus 170 seismischen Landstationen (control posts) bestückten Netz unterirdische Kernwaffentests zuverlässig entdecken und identifizieren könne, wenn ihre Explosionsenergie mindestens ein bis fünf Kilotonnen TNT-Äquivalent betrüge.
Doch die Daten weiterer unterirdischer Kernwaffenversuche ließen Zweifel am Identifikationsvermögen seismischer Verfahren aufkommen. Zudem sorgte man sich um die Möglichkeit, Kernexplosionen zu verschleiern, indem man den Sprengsatz in großen Hohlräumen – beispielsweise einem ausgespülten Salzstock oder einer eigens angelegten Kaverne – zündet, um die Anregung seismischer Wellen im umgebenden Gestein beträchtlich abzuschwächen. Deshalb vermochten sich die Verhandlungsführer 1958 nicht auf ein Verifikationssystem zu einigen. Aus heutiger Sicht erscheint diese Entwicklung verständlich, da mit dem damals verfügbaren Instrumentarium und dem Kenntnisstand das angestrebte Ziel nicht zu erreichen gewesen wäre.
In der Zwischenzeit jedoch haben die Nuklearstaaten, insbesondere die USA, erhebliche Anstrengungen unternommen, um die Forschung auf allen mit der Überwachung von unterirdischen Kernwaffentests zusammenhängenden Disziplinen voranzutreiben. Von der intensiven Förderung profitierte vor allem die Seismologie, so daß sich dadurch auch die wissenschaftlichen Kenntnisse etwa über Aufbau und Struktur der Erde, ihre Seismizität und die Herdprozesse erheblich erweitert haben.
Seismische Methoden
Unterirdische Sprengungen – gleich ob chemischer oder nuklearer Art – erzeugen ähnlich wie Erdbeben elastische Verformungen des umgebenden Gesteins, die sich wellenförmig durch die Erde und entlang der Erdoberfläche fortpflanzen (Bilder 1 und 2). Die Eignung seismischer Meß- und Analyseverfahren zur Verifikation eines Kernwaffenteststopps beruht nun darauf, anhand der unterschiedlichen Signaturen im Seismogramm Explosionen und natürliche Beben voneinander zu trennen. Eine möglichst genaue Kenntnis der seismischen Aktivität der Erde ist dabei unerläßlich, denn aus der Vielzahl registrierter Ereignisse müssen die wenigen herausgefiltert werden, die Indizien für einen heimlich durchgeführten Nukleartest enthalten.
Erdbeben treten nicht überall auf dem Globus mit gleicher Häufigkeit auf, sondern sie konzentrieren sich überwiegend entlang der Grenzen zwischen den ozeanischen und kontinentalen Lithosphärenplatten (Bild 3 links); ihre Anzahl nimmt dabei mit zunehmender Stärke ab (Bild 3 rechts). Jährlich werden im Mittel etwa 7000 Erdbeben der Magnitude 4 und höher registriert. (Die Magnitude ist ein logarithmisches Maß für die Stärke eines seismischen Ereignisses; die Zunahme um eine Einheit entspricht einer Erhöhung der umgesetzten Energie auf das Dreißigfache.) Seismische Wellen vergleichbarer Stärke würde eine in nassem Festgestein verdämmte unterirdische Kernsprengung erzeugen, deren Explosionsenergie dem Äquivalent von einer Kilotonne TNT entspricht.
Mit modernen Digitalseismographen vermag man nicht nur Bodenbewegungen zu messen, deren Amplitude etwa so groß ist wie der Durchmesser eines Atoms, so daß sich selbst noch äußerst schwache seismische Ereignisse registrieren lassen; sie können zudem das gesamte Frequenzspektrum seismischer Wellen und damit deren gesamten Informationsgehalt erfassen. Die Empfindlichkeit des in Deutschland entwickelten Breitbandseismometers STS-2 beispielsweise ist von 0,008 bis 50 Hertz (entsprechend einer Schwingungsperiode von 120 bis 0,02 Sekunden) konstant, wobei der Dynamikumfang, der das Verhältnis zwischen kleinster und größter aufnehmbarer Bodenbewegung bestimmt, 140 Dezibel beträgt – dies entspricht einem Größenverhältnis von eins zu 16 Millionen.
Meldungen registrierter Beben werden routinemäßig an regionale und internationale Datenzentren gemeldet, wo man sie in Form von Bulletins zusammenfaßt. In Deutschland nimmt das seismologische Datenzentrum der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover diese Aufgabe wahr. Wegen der hohen Dichte der betriebenen Stationen bleibt innerhalb der Bundesrepublik kein seismisches Ereignis der Magnitude 2 und höher unentdeckt. In anderen Ländern, die über weniger dichte seismische Stationsnetze verfügen wie vor allem in solchen auf der Südhalbkugel, liegt diese Schwelle wesentlich höher. Diese heterogenen Netze reichen zwar aus, um Aufgaben der Erdbebenseismologie zu lösen, doch den Anforderungen, die sich aus der Verifikation des Atomteststoppvertrags ergeben, genügen sie nicht. Völlig unzureichend ist zudem die lange Zeitspanne bis zur Fertigstellung der endgültigen seismologischen Bulletins, die gegenwärtig bis zu zwei Jahre beträgt. Um im Verdachtsfall durch Inspektionen vor Ort eine Vertragsverletzung nachweisen zu können, müßten die Ergebnisse hingegen innerhalb von Tagen vorliegen.
Detektion
Die natürliche Seismizität der Erde und die in über- und untertägigen Bergwerken gezündeten chemischen Sprengungen verursachen ein starkes Hintergrundrauschen, aus dem die Signatur einer unterirdischen Kernexplosion herauszufiltern ist. Zusätzlich erzeugen Wind und Wasserwellen, Verkehr, Maschinen und Landwirtschaft seismische Bodenunruhe, die sich aus den verschiedensten Wellentypen zusammensetzt und unablässig aus unterschiedlichen Richtungen am Standort eines Seismographen eintrifft. Auch die geologischen Verhältnisse im Untergrund einer Station beeinflussen den Pegel dieser Störung. Der von einem Erdbeben oder einer Sprengung herrührende Wellenzug läßt sich nur dann entdecken, wenn das Signal sich in Frequenz oder Amplitude von der Bodenunruhe abhebt.
Eine zuerst in der Radioastronomie angewandte Technik erhöht jedoch die Detektionswahrscheinlichkeit. Schaltet man mehrere seismische Stationen innerhalb eines Gebietes zu einem sogenannten Array zusammen, lassen sich mittels digitaler Signalverabeitungstechniken – ähnlich wie bei einem Radarsystem – Richtstrahlen bilden, um den Untergrund nach ankommenden seismischen Wellen mit bestimmter Richtung und Geschwindigkeit abzusuchen. Mit diesem Verfahren kann man sowohl das Signal-Stör-Verhältnis verbessern als auch die Lage des Epizentrums bestimmen.
Das leistungsfähigste System dieser Art in Mitteleuropa ist das von der Bundesanstalt für Geowissenschaften und Rohstoffe betriebene GERESS (German Experimental Seismic System), dessen 25 Elemente im Bayerischen Wald in Form von vier konzentrischen Kreisen mit einem maximalen Durchmesser von vier Kilometern um eine Zentralstation angeordnet sind. Das Signal-Stör-Verhältnis dieser Anlage ist theoretisch fünfmal so hoch wie für eine Einzelstation. In Magnituden ausgedrückt verbessert sich die Empfindlichkeit um etwa 0,5 Einheiten, wodurch sich entsprechend schwächere Nuklearexplosionen nachweisen lassen.
Lokalisierung
Ein detektiertes Ereignis muß – so die Vorgabe des Kernwaffen-Teststoppabkommens – innerhalb eines Gebiets von maximal 1000 Quadratkilometern lokalisiert werden können, um im Verdachtsfall Inspektionen vor Ort zu ermöglichen. Diese Fläche entspricht einem Kreis mit knapp 18 Kilometern Radius. Das Lokalisierungsvermögen eines Arrays würde dazu nur im Nahbereich ausreichen. Für größere Entfernungen müßten im Idealfalle mindestens drei herkömmliche Stationen oder Arrays gleichmäßig um das Epizentrum verteilt sein, um aus den jeweiligen Einsatzzeiten der eintreffenden P- und S-Wellen die Herdkoordinaten berechnen zu können. Dies geschieht durch Inversion der Laufzeiten anhand eines Modells, das die Ausbreitung seismischer Wellen beschreibt. Der sich ergebende Lokalisierungsfehler ist dabei eine formale mathematische Größe und stellt ein Maß für die Güte des Inversionsprozesses dar.
Um systematische Fehler zu eliminieren, die durch Abweichungen des für die Inversion verwendeten Geschwindigkeits-Tiefen-Modells zustande kommen, ist eine sorgfältige Kalibrierung aller Stationen erforderlich. Um den jeweiligen Korrekturfaktor bestimmen zu können, muß wenigstens von einem Ereignis jeder Herdregion das wahre Epizentrum bekannt sein. Als Eingangsdaten für die Kalibrierung eignen sich Herdbestimmungen lokaler seismischer Netze, große chemische Explosionen an bekannten Sprengorten oder starke Erdbeben, deren Auswirkungen an der Erdoberfläche sichtbar werden, wie es zum Beispiel bei dem Einsturzbeben vom 11. September 1996 in der Grube Teutschenthal bei Halle geschehen ist.
Die Erfassung dieser Kalibrationsdaten ist allerdings ein langwieriger und mühevoller Prozeß, der kaum wissenschaftliche Anerkennung verspricht. Vermutlich deswegen haben die Seismologen dieser Aufgabe bislang wenig Begeisterung entgegengebracht. Zudem bleiben viele Regionen der Erde, in denen Erdbeben nie oder selten auftreten, von der Kalibrierung ausgeschlossen. Doch selbst wenn ein Staat in einem derartigen Gebiet einen unterirdischen Kernwaffentest erwägen sollte, müßte er das Risiko eingehen, daß die Explosion sehr wohl mit ausreichender Genauigkeit lokalisiert werden würde, denn der systematische Fehler könnte durchaus klein sein.
Identifizierung
Wegen der immens hohen Anzahl von Erdbeben und der Vielzahl chemischer Explosionen in Bergwerken über und unter Tage stellt die Identifizierung aller entdeckten und lokalisierten Ereignisse für die Seismologen eine große Herausforderung dar. Oftmals reichen indes schon zwei Parameter – die Koordinaten des Epizentrums und die Herdtiefe – aus, um die Natur eines seismischen Ereignisses zu erkennen. Viele Gebiete auf dem Land oder im Meer scheiden bereits aus plausiblen Gründen als potentielle Testgebiete aus; und sobald die Herdtiefe mehr als zehn Kilometer beträgt, muß es sich um ein Erdbeben handeln – es sei denn, das Ereignis läge just am Ort einer der wenigen Tiefbohrungen auf der Erde.
Die ermittelte Herdtiefe ist freilich oft mit einem großen Fehler behaftet, was speziell für flache Ereignisse mit einer Tiefe von weniger als zehn Kilometern ein Problem darstellt. Mit konventionellen Verfahren ließe sich die erforderliche Genauigkeit nur dann erzielen, wenn seismische Stationen in unmittelbarer Nähe des Epizentrums liegen. Es gibt zwar bereits eine Reihe vielversprechender Ansätze mit neuen Verfahren, doch steht der Nachweis ihrer routinemäßigen Anwendbarkeit noch aus.
Weitere Indizien für die Klassifizierung seismischer Ereignisse ergeben sich aus typischen Unterscheidungsmerkmalen zwischen Explosionen und Erdbeben, die sich in Parameterform erfassen lassen. Explosionen beruhen auf einem einfachen Herdprozeß (Bild 4 links), was sich durch eine einfache Signalform äußert. Zudem treten im allgemeinen keine starken Oberflächenwellen auf, so daß das Verhältnis aus Raumwellen- zu Oberflächen-Magnitude für Sprengungen größer ist als für Erdbeben.
Andere Parameter quantifizieren Unterschiede der Seismogrammform (Komplexität) und des Frequenzgehalts (Spektralverhältnisse) von Beben und Explosionen. Fehlen Scherwellen, ist dies ein Indikator für eine Explosion, da bei diesem Prozeß nur Kompressionswellen abgestrahlt werden; zudem weisen diese eine Kugelsymmetrie auf, so daß der Erstausschlag der P-Welle im Seismogramm aller Stationen prinzipiell in positive Richtung weist. Für Erdbeben mit ihrem komplizierteren Herdmechanismus hingegen registrieren manche Stationen zunächst eine Kompression (positives Signal), andere eine Dilatation (negatives Signal). Das Erkennen des Erstausschlages setzt allerdings voraus, daß die Meßinstrumente richtig gepolt sind. Mit dem Abschluß des Teststoppabkommens entfällt die bislang oft genutzte Möglichkeit, die Polung anhand der Registrierung einer Kernsprengung zu überprüfen.
Die genannten Verfahren werden vor allem zur Identifizierung teleseismischer Ereignisse angewandt, also für solche, bei denen die registrierenden Seismographen 3000 bis 10000 Kilometer vom Epizentrum entfernt sind (Bild 2). Starke Beben oder Explosionen lassen sich damit ohne weiteres klassifizieren. Schwieriger wird es bei Ereignissen geringerer Magnitude: Je schwächer die Signale sind, um so eher werden sie von der störenden seismischen Bodenunruhe überdeckt und um so weniger Stationen erfassen sie. Nach den bisherigen Erfahrungen liegt die Untergrenze für einer zuverlässige Identifizierung etwa 0,5 Magnitudeneinheiten über der zur Detektion und Lokalisierung erforderlichen Magnitudenschwelle.
Schwache Ereignisse, die nur von lokalen und regionalen Stationen erfaßt werden, weisen im Vergleich zu teleseismischen Registrierungen ein völlig anderes Erscheinungsbild der Seismogramme auf. Doch kann man in ähnlicher Weise Identifikationsparameter zur Charakterisierung der einzelnen Wellengruppen bestimmen. Nur sind die Ergebnisse für eine Herdregion wegen der variierenden geologischen Verhältnisse nicht auf andere übertragbar, sondern müssen für jede Herdregion neu ermittelt werden. Unter diesem Aspekt ist die Identifizierung aller von einem Überwachungssystem erfaßten seismischen Ereignisse unter einem Teststoppvertrag mit erheblichem Aufwand verbunden, da zuverlässige Aussagen in der Regel nur durch Bestimmung und Kombination mehrerer Identifikationsparameter möglich sind.
Neuerdings zieht man auch Verfahren der Mustererkennung zur Identifikation heran. Dabei nutzt man zum Beispiel die große Ähnlichkeit der aus einem bestimmten Herdgebiet stammenden seismischen Signale chemischer Explosionen, um deren Herkunft zu klären und von Erdbeben zu trennen.
Die Unterscheidung, ob ein als Explosion identifiziertes Ereignis chemischer oder nuklearer Natur ist, läßt sich mit seismologischen Verfahren nicht treffen. Dies gilt vor allem für Kernsprengungen im sogenannten Subkilotonnen-Bereich, deren Energiefreisetzung in der Größenordnung starker chemischer Sprengungen liegt. Dieser Nachweis bleibt letztlich den Meßverfahren zur Bestimmung der Radioaktivität vorbehalten.
Umgehungsszenarien
Im Zusammenhang mit der Verifikation des Teststoppabkommens wurde immer wieder überlegt, ob ein Staat unbemerkt einen Kernwaffenversuch unternehmen und so die Vereinbarungen unterlaufen könnte. Als untauglich erwies sich die Idee, einen Kernsprengsatz dann zu zünden, wenn ein starkes Erdbeben auftritt, um die seismischen Wellen der Sprengung gleichsam in denen des natürlichen Ereignisses zu verstecken. Zufällige Koinzidenzen von Beben und Sprengungen in der Vergangenheit haben gezeigt, daß Arrays die Signale von zwei gleichzeitig registrierten Ereignissen aufgrund azimutaler Unterschiede voneinander zu trennen und eine Explosion zu entdecken vermögen. Nur wenn der Explosionsort sehr nahe am Epizentrum des Bebens läge, könnte die Tarnung gelingen. Weil sich jedoch weder Ort, Zeitpunkt noch Stärke eines Erdbebens vorhersagen lassen, müßte ein großtechnisches Experiment, wie ein Nuklearversuch es darstellt, vielleicht auf Jahre hinaus in ständiger Bereitschaft gehalten werden.
Weitaus realistischer ist das Szenario, eine Kernsprengung in einer ausgedehnten unterirdischen Kaverne durchzuführen. Die Stoßwelle der Explosion würde dann das umgebende Gestein nicht zertrümmern, sondern nur elastisch verformen – mit der Folge, daß der Anteil der in seismische Wellen umgesetzten Energie erheblich geringer wäre als bei einer verdämmten Explosion. Entsprechende Nuklearversuche der USA und der ehemaligen UdSSR, die in geeigneten geologischen Formationen wie etwa Salzstöcken durchgeführt wurden, haben Entkopplungsfaktoren von 60 bis 80 ergeben. Eine Kernexplosion, die eine Energie von einer Kilotonne TNT-Äquivalent freisetzte, hätte in diesem Falle nur noch die seismische Wirkung einer Sprengung von 12 Tonnen, was einer Verringerung der Magnitude um nahezu zwei Einheiten entspräche.
Vorbereitung und Durchführung einer entkoppelten Kernsprengung würden indes erheblichen zeitlichen und technischen Aufwand erfordern. Abschätzungen zufolge wäre zur vollständigen Entkopplung einer Ein-Kilotonnen-Explosion ein Hohlraum erforderlich, dessen Durchmesser mehr als 30, in weniger geeignetem Gestein sogar mehr als 70 Meter betragen müßte. Selbst wenn es gelänge, solche Kavernen unbemerkt anzulegen, wäre keinesfalls gewährleistet, daß ein solcher Test unentdeckt bliebe. Es gibt zahllose Beispiele, wo chemische Sprengungen mit einer Stärke von wenigen Tonnen über Distanzen von 1000 Kilometern und mehr seismisch registriert werden konnten. Wenn zudem nahe der Gebiete, die zur Durchführung von entkoppelten Explosionen potentiell geeignet sind, seismische Stationen betrieben würden, wäre die Entdeckungswahrscheinlichkeit ausreichend groß.
Entwicklung des seismischen Verifikationssystems
Mit der Etablierung eines Expertengremiums, der Group of Scientific Experts (GSE), hatte die Genfer Abrüstungskonferenz 1976 den Grundstein für das heutige seismische Verifikationssystem gelegt. Zwei Jahre später schlug die Gruppe ein globales seismisches Überwachungsnetz aus etwa 50 Stationen vor. Bereits vorhandene Einrichtungen sollten einbezogen, aber systematisch verbessert und den Anforderungen angepaßt werden. Zur Übermittlung seismischer Parameter sollte das globale Telekommunikationssystem der Weltorganisation für Meteorologie (World Meteorological Organization, WMO) dienen. Spezielle internationale Datenzentren waren für Erfassung, Bearbeitung und Datenaustausch mit den teilnehmenden Ländern vorgesehen. Entsprechend der damals üblichen Zugehörigkeit eines Staates zu einem politischen Block (West, Ost, unabhängig) war an insgesamt drei Datenzentren gedacht.
Die GSE beschränkte sich nicht darauf, technische Konzepte auszuarbeiten; sie begann auch, die Vorschläge in internationaler Zusammenarbeit praktischen Eignungstests zu unterziehen. Die daraus gewonnenen Erkenntnisse erwiesen sich als entscheidend für die Verbesserung und Weiterentwicklung des seismischen Verifikationssystems. Das erste Experiment, an dem sich 37 Länder mit 75 seismischen Stationen beteiligten, fand 1984 unter der Bezeichnung GSETT-1 (Group of Scientific Experts Technical Test 1) statt. Getestet wurden vor allem das Bestimmen von Parametern entdeckter seismischer Ereignisse – der sogenannten Level-I-Daten – und deren rasche Übermittlung über das globale Kommunikationsnetz der WMO an eines der drei Datenzentren in Washington, Moskau und Stockholm.
Dieses erste Systemkonzept baute auf denselben Prinzipien auf, die noch heute in der Seismologie angewandt werden, um ein internationales seismologisches Bulletin zu erstellen. Allerdings leitete man in GSETT-1 aus den Seismogrammen mehr als 50 verschiedene Parameter ab, um nicht nur den Herd bestimmen, sondern auch die registrierten Ereignisse identifizieren zu können. Das Experiment belegte zwar, daß man grundsätzlich innerhalb weniger Tage ein seismisches Bulletin global verteilter Stationen erstellen kann, doch offenbarte es auch einige Probleme.
Die Weiterentwicklung des Systemkonzepts mündete 1991 in einem zweiten Experiment, GSETT-2. Hierbei wurden auch erstmals Zeitsegmente digitaler seismischer Meßdaten – sogenannter Level-II-Daten – von den Stationen zu einem von nunmehr vier experimentellen internationalen Datenzentren übermittelt. (Australien hatte durch Errichten eines vierten Zentrums dieser Art sein Engagement gegen Nuklearversuche im pazifischen Raum unterstrichen.)
GSETT-2 stellte weitaus höhere technische Anforderungen als das Vorläufer-experiment. Voraussetzung für die Teilnahme waren digitale seismische Stationen und – wegen des höheren Datenvolumens der Level-II Daten – moderne Kommunikationstechniken; dennoch beteiligten sich 34 Länder mit insgesamt 60 Stationen und Arrays.
Die Hoffnung, durch schnelles Übermitteln von Level-II-Daten die bei GSETT-1 erkannten Probleme lösen zu können, erfüllte sich nur zum Teil. So gelang es den vier Datenzentren nicht, die Datenbasen und Prozeduren in vollem Umfang abzustimmen und identische seismische Bulletins zu erzeugen. GSETT-2 war gleichwohl ein Erfolg, vor allem aus technischer Sicht, da erstmals in globalem Maßstab digitale Datenerfassungs- und Kommunikationstechniken kombiniert zum Einsatz kamen.
Zwei Entwicklungen ermöglichten eine baldige weitere Verbesserung des Systemkonzepts: Die rasanten Fortschritte in der Telekommunikation erlaubten, auf das Übertragen von Level-I-Daten gänzlich zu verzichten und statt dessen die digitalen seismischen Meßwerte vollständig als kontinuierlichen Datenstrom zu übertragen; die politischen Umwälzungen gestatteten zudem, die Arbeiten an einem einzelnen Internationalen Datenzentrum (International Data Centre, IDC) durchzuführen, wodurch sich nun Abstimmungsprobleme erübrigen.
Theoretische Untersuchungen des Lokalisierungsvermögens eines aus etwa 50 seismischen Stationen bestehenden globalen Netzes ließen erkennen, daß die angestrebte Genauigkeit nur mit zusätzlichen Stationen zu erreichen ist. Deshalb wurde ein zweischichtiges Systemkonzept vorgeschlagen: 50 sogenannte Primärstationen, denen die eigentliche Aufgabe der Detektion zukommt, senden ihre Meßwerte kontinuierlich über schnelle Datenleitungen an das Internationale Datenzentrum; ein Netz aus Sekundärstationen, deren Meßwerte auf Abruf zur Verfügung stehen, vermag bei Bedarf die Lokalisierung zu verbessern. Vorbild für diesen zweiten Stationstyp waren die in Deutschland bereits 1985 entwickelten offenen seismischen Stationen, deren vor Ort gespeicherte Meßdaten sich jederzeit von Interessenten abrufen lassen.
Um den Vorteil der modernen Kommunikationstechniken tatsächlich für das rasche Erkennen einer Vertragsverletzung nutzen zu können, erarbeitete man am IDC Techniken zur Erstellung eines automatischen Bulletins binnen vier Stunden. Nach Überarbeitung und Kontrolle der so definierten und lokalisierten Ereignisse vergehen insgesamt maximal 48 Stunden, bis das Endprodukt, das sogenannte Reviewed Event Bulletin vom IDC an Interessenten per elektronischer Post übermittelt werden kann.
Dem Internationalen Datenzentrum obliegt demnach das Erstellen der Bulletins aus den eingegangenen Meßwerten sowie das Archivieren und Verteilen der Daten. Sofern Staaten eine unabhängige Bearbeitung wünschen, können dem Konzept zufolge ausgewählte Datensegmente oder sogar der gesamte Datenstrom aller Meßstellen bereitgestellt werden. Die nationalen Datenzentren sind für den Betrieb der beteiligten seismischen Stationen des jeweiligen Landes verantwortlich und fungieren als Ansprechpartner für externe Nutzer.
Mit der Erprobung dieses jüngsten GSE-Konzepts mit dem zweischichtigen seismischen Überwachungssystem wurde am 1. Januar 1995 begonnen. Dieses GSETT-3 genannte Unterfangen sollte ursprünglich bis Ende 1996 dauern. Durch den Abschluß des Teststoppabkommens wurde diese Planung jedoch von der politischen Wirklichkeit überholt. Das GSETT-3-System wird nun schrittweise in ein operatives seismisches Verifikationssystem überführt, das seine volle Kapazität in etwa zwei Jahren erreicht haben wird.
Leistungsvermögen des internationalen seismischen Überwachungssystems
Die technischen Voraussetzungen, um eine Vertragsverletzung ohne Verzögerung aufzudecken, sind nun optimal. Vermag das System aber auch jede Kernsprengung – und sei sie noch so klein – zu entdecken und zu identifizieren?
Zweifellos ließe sich durch Erhöhen der Stationsdichte die Detektionsgrenze nahezu beliebig absenken – freilich nur unter immensen Kosten. Die Abrüstungskonferenz selbst legte keine Untergrenze für die Stärke der kleinsten zu entdeckenden Kernsprengung fest, da der Vertrag nukleare Explosionen jeglicher Art verbietet. Das System sollte jedoch politisch glaubwürdig und den Aufgaben angemessen sein, ohne allzu hohe Kosten zu verursachen.
Unter diesem Gesichtspunkt wurden für das globale seismische Netz 50 Primär- und 120 Sekundärstationen festgelegt. Die Auswahl der Standorte erfolgte nach bestimmten Kriterien wie zum Beispiel globale Gleichverteilung, seismische Aktivität der Region, Beschaffenheit des geologischen Untergrunds und seismische Bodenunruhe. Deutschland ist in dem Primärnetz mit dem GERESS-Array vertreten, dem empfindlichsten seismischen Registriersystem in Zentraleuropa. Eine weitere Station mit deutscher Beteiligung liegt in der Antarktis und ist Bestandteil des globalen Sekundärnetzes. Wissenschaftler des Alfred-Wegener-Instituts in Bremerhaven haben sie dort aufgebaut; der Betrieb erfolgt in Zusammenarbeit mit Südafrika.
Für die Berechnung des globalen Detektionsvermögens der Primärstationen wurde angenommen, daß mindestens drei von ihnen mit einer Wahrscheinlichkeit von 90 Prozent ein seismisches Ereignis bestimmter Magnitude entdecken (Bild 6). Betrüge die Entdeckungswahrscheinlichkeit nur 60 Prozent, würden sich etwa um den Faktor 0,3 kleinere Magnituden ergeben. Die Modellrechnungen zeigen, daß innerhalb der Kontinente ein verdämmter unterirdischer Kernwaffenversuch mit einer Explosionsenergie von etwa einer Kilotonne mit hoher Wahrscheinlichkeit entdeckt werden würde. Für geringere Ladungsstärken nimmt die Entdeckungswahrscheinlichkeit zwar ab, doch wird das Abschreckungspotential des Verifikationssystems als ausreichend angesehen, Vertragsverletzungen zu verhindern.
Auch die Fähigkeit des gesamten, aus Primär- und Sekundärstationen bestehenden Netzes zur Lokalisierung läßt sich berechnen, zum Beispiel für Ereignisse der Magnitude 4 (Bild 7). Bei den Modellrechnungen sind systematische Fehler nicht berücksichtigt, die sich durch Kalibration des Netzes kompensieren lassen. Anhand von Falluntersuchungen während GSETT-3 gelang der Nachweis, daß durch sorgfältige Kalibration die geforderte Obergrenze von 1000 Quadratkilometern für die Fläche des Fehlerbereichs erreichbar ist. Insofern sind die Ergebnisse der Modellrechnungen eher als konservative Abschätzung des Lokalisierungsvermögens des seismischen Primär- und Sekundärnetzes zu werten. Im Vergleich zu anderen Modellrechnungen, die auf günstigeren Eingangsdaten beruhen, differieren die Ergebnisse um bis zu 0,5 Magnitudeneinheiten.
Das Identifikationsvermögen des seismischen Netzes als Instrument der Verifikation des Teststoppabkommens ist gegenwärtig nicht quantifizierbar. Dieser Aspekt mußte bei den Experimenten der GSE unberücksichtigt bleiben, da die Abrüstungskonferenz in den Erläuterungen zum Mandat dieser Expertengruppe ausdrücklich darauf hingewiesen hat, daß eine derartige Bewertung nicht vorgenommen werden sollte. Nach wie vor liegt es in der Verantwortung der Vertragsstaaten, aufgrund von Daten des Verifikationssystems oder aufgrund eigener Erkenntnisse einen Verdachtsfall zu begründen und eine Inspektion vor Ort zu verlangen. Um diese Aufgabe zu erleichtern, bestimmt das Internationale Datenzentrum für alle weltweit erfaßten Ereignisse routinemäßig Identifikationsparameter, die den Vertragsstaaten zur Verfügung gestellt werden, ohne jedoch eine Bewertung vorzunehmen.
Vor diese Aufgabe sind künftig die nationalen Datenzentren gestellt, die im Falle kritischer oder verdächtiger Ereignisse Stellung beziehen müssen. In Deutschland ist dies die Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover. Bereits in der Zeit vor Abschluß des Teststoppabkommens hat diese Institution ungeklärte seismische Ereignisse identifiziert; durch Verwenden seismischer Daten eigener und internationaler Stationen des GSETT-3 Netzes ließ sich diese Aufgabe zufriedenstellend lösen.
Der weitere Ausbau des seismischen Netzes und die Nutzung der übrigen Verifikationstechnologien versprechen für die Zukunft noch bessere Möglichkeiten zur Identifizierung kritischer Ereignisse. Vor allem wird man bei seismischen Erschütterungen in den Weltmeeren durch die Synergie mit hydroakustischen Verfahren profitieren. Die Frage, ob eine Explosion nuklearen oder chemischen Ursprungs war, wird letztlich durch die Analyse der Meßdaten des weltweiten Radionuklidnetzes beantwortet. Für die wenig wahrscheinliche Zündung einer Kernsprengung in der Atmosphäre steht ein aus 60 Infraschallsensoren bestehendes globales Netz zur Verfügung. Durch Kombination der verschiedenen Technologien werden in naher Zukunft vollends die Voraussetzungen zur wirksamen Verifikation des Atomwaffen-Teststoppvertrags geschaffen, auch wenn es noch viele technische und methodische Probleme zu lösen gilt.
Aus: Spektrum der Wissenschaft 8 / 1997, Seite 94
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben