Extremwetter: Schuld ist der Klimawandel
Es gab eine Zeit, sie ist gar nicht so lange her, da haben Klimaforscher diese eine Frage gefürchtet. Wenn irgendwo im Land nach starken Niederschlägen die Flüsse über die Ufer traten, wenn eine Region unter einer Hitzewelle stöhnte, wenn ein besonders schwerer Sturm Bergwälder knickte oder Orte an der Küste zerstörte, dann rief bestimmt am nächsten Tag jemand an und fragte: Ist das schon der Klimawandel?
Früher ließ die Datenlage kaum mehr zu als allgemeine Aussagen über Wahrscheinlichkeiten. Das ist heute anders: "Wenn wir die richtigen Fragen stellen, können wir den Einfluss des Klimawandels auf Wetterextreme abschätzen", sagt David Titley von der Pennsylvania State University. Unter seiner Leitung legte die National Academy of Sciences (NAS), die amerikanische Wissenschaftsakademie in Washington, im März 2016 einen Bericht vor, in dem es heißt: "Die Wissenschaft hat Fortschritte gemacht (…) In vielen Fällen ist es nun möglich, quantitative Aussagen zu machen und zu verteidigen, in welchem Ausmaß der von Menschen ausgelöste Klimawandel (…) die Stärke oder die Wahrscheinlichkeit des Eintretens besonderer Typen von Ereignissen beeinflusst hat." Unter dem Namen "Attribution" ist eine neue Teildisziplin der Klimaforschung entstanden, die sich mit solchen Zuschreibungen befasst. "Bei Hitze- und Kälterekorden sowie bei Starkregen und Dürre klappt das Verfahren recht gut", sagt Titley. "Bei Waldbränden oder Stürmen haben wir noch viel Arbeit vor uns."
100 Jahre Hitzerekorde
Besonders das Studium von Rekordtemperaturen hat die Wissenschaftler vorangebracht, ergänzt Theodore Shepherd von der Universität im englischen Reading, der ebenfalls zur NAS-Arbeitsgruppe gehörte: "Die Hitzewellen in Europa 2003 und in Russland 2010 stehen oben auf der Liste." Auch globale Spitzenwerte wurden analysiert. Die Forscher können zwar immer noch nicht sagen: Diesen oder jenen Rekordsommer hätte es ohne die globale Erwärmung niemals gegeben. Aber sie können feststellen: Der Klimawandel hat ihn viermal so wahrscheinlich gemacht, als er sonst gewesen wäre, und die Spitzentemperaturen um zwei Grad Celsius angehoben. Im Januar 2016 zum Beispiel hat eine internationale Arbeitsgruppe um Michael Mann, auch er forscht an der Pennsylvania State University, die Wahrscheinlichkeit berechnet, dass der Zeitraum 2000 bis 2014 die 13 wärmsten Jahre der Temperaturstatistik enthielt: Ohne Klimawandel läge die Chance dafür bestenfalls bei 1 : 1700.
Während die meisten Arbeitsgruppen solche gezielten Blicke in die jüngere Vergangenheit werfen, hat ein Team um Andrew King von der University of Melbourne die gesamte Temperaturstatistik bis zum Anfang des 20. Jahrhunderts zurück durchleuchtet. Das wichtigste Ergebnis ist spektakulär: Der Einfluss des Klimawandels lässt sich global für alle der letzten 16 Rekordjahre nachweisen – bis zurück in Jahr 1937.
1937, da war die Erde noch fast ein Grad kühler als heute. Die Weltwirtschaftskrise war nach dem Börsencrash von 1929 noch immer nicht ganz überwunden. In den folgenden Jahren wurde der Rekord noch viermal gebrochen, zuletzt 1944. Allein in diesem kurzen Zeitraum stieg die globale Mitteltemperatur fast um ein drittel Grad. Doch dann wendete sich der Trend: Kohle war fast überall der Stoff, der die Konjunktur antrieb – vor allem die Luftverschmutzung ließ die Temperaturen wieder vorübergehend fallen. Erst Anfang der 1980er Jahre zeigten die Thermometer erneut höhere Werte.
Um den Einfluss des Klimawandels auf diesen Verlauf zu bestimmen, haben die Forscher um Andrew King und Erich Fischer von der ETH-Zürich 17 Computersimulationen miteinander verglichen. Solche Modellrechnungen sollen zwar das künftige Klima prognostizieren, müssen aber ihre Glaubwürdigkeit belegen, indem sie die Wettermuster der Vergangenheit korrekt nachvollziehen. Diese so genannten Hindcast-, also Nachhersage-Daten haben die Forscher verwendet. Sie vergleichen jeweils die nachgestellten tatsächlichen Temperaturwerte mit denen einer fiktiven, kühleren Welt, in der alle Spuren menschlicher Aktivität ausgeschaltet sind.
Die Fallstricke der Statistik
Die Größe, die das King-Team dann berechnet hat, ist das anteilige, dem menschlichen Eingreifen zuzuschreibende Risiko, nach dem englischen Fachbegriff FAR (fraction of attributable risk) abgekürzt. Es gibt an, zu welchem Prozentsatz der Klimawandel das Ereignis ausgelöst hat: Liegt die Zahl zum Beispiel bei 50 Prozent, dann bedeutet das, dass ohne die globale Erwärmung mindestens die Hälfte vergleichbarer Hitzeperioden ausgeblieben wären. Umgekehrt formuliert hätte sich ihre Anzahl also durch den Klimawandel verdoppelt. Diese Schwelle hat das Rekordjahr 1944 deutlich überschritten, genau wie alle folgenden. Für 1937 liegt der FAR-Wert etwas niedriger, aber deutlich über null: Damals hatte der Klimawandel einen Anteil von etwa 30 Prozent an den hohen Thermometerausschlägen.
Diese statistische Methode wirkt kompliziert, hat jedoch ihre Berechtigung, sagt zum Beispiel Reto Knutti von der ETH Zürich. Er ist der Chef des Koautors Erich Fischer, hat aber an der Studie selbst nicht mitgearbeitet. "Man könnte es vielleicht mit dem Auftreten einer Grippewelle vergleichen, wo man zuerst an einzelnen Orten unerwartet viele Fälle beobachtet, aber noch nicht sicher ist, ob das ein deutliches Indiz ist für etwas Größeres."
Ob sich der Einfluss des Klimawandels wirklich schon 1937 nachweisen lässt, ist allerdings umstritten, wie bei einer jungen Wissenschaft kaum anders zu erwarten. Die verwendeten Klimamodelle, kritisiert Kevin Trenberth vom National Center for Atmospheric Research in Boulder, Colorado, seien nicht genügend abgesichert, um Aussagen bis zurück ins Jahr 1937 zu rechtfertigen. "Es ist fraglich, ob die Simulationen das korrekte Maß an natürlicher Schwankung wiedergeben, besonders auf Zeitskalen von einem Jahrzehnt."
Knutti jedoch sowie der Geophysiker Dim Coumou vom Potsdam-Institut für Klimafolgenforschung bewerten die Ergebnisse als konsistent mit dem Stand der Forschung. Auch Theodore Shepherd bescheinigt dem King-Team, es habe die Bedingungen erfüllt, die der NAS-Report für solche Berechnungen aufgestellt hat: erstens eine klare physikalische Vorstellung von den Wirkmechanismen, in diesem Fall, wie zusätzliche Treibhausgase die Temperatur steigern. Zweitens sollten langfristige Datenreihen existieren, die sich drittens per Computersimulation nachvollziehen lassen.
Der englische Forscher kritisiert aber ein Detail: den Einsatz der FAR-Methodik. Davon rate der NAS-Bericht eigentlich ab, weil die statistische Auswertung eine übertriebene Genauigkeit vortäuschen und zur Überinterpretation der Daten verleiten könne. Erich Fischer teilt die grundsätzlichen Bedenken: "Wenn man das Verfahren auf kleinskalige Wetterextreme anwendet, die für Modelle schwierig zu reproduzieren sind, kann es Probleme geben. Aber wir haben uns großskalige monatliche Werte angeschaut, für welche die Modelle seit Jahrzehnten getestet werden."
Planen für das Klima
Wegen dieser Schwierigkeiten beschreibt sein Team eine Reihe weiterer Ergebnisse der Studie, die sich auf regionale Temperaturen beziehen, eher vorsichtig. Die Forscher haben neben den globalen Daten auch jene aus fünf kleineren Regionen verarbeitet, darunter Mitteleuropa, die zentralen USA und Mittelengland. Hier könnte der Klimawandel 1959, 1954 und 1950 zum ersten Mal Temperaturrekorde begünstigt haben.
Allerdings handelt sich jeweils um die industriellen Herzen der Wirtschaftsräume, und die aus den Schornsteinen dringenden Partikel hingen als kühlende Aerosole in der Atmosphäre. Das hatte damals zwar nicht verhindert, dass die Thermometer in die Höhe schnellten, doch es erschwert im Nachhinein die Berechnung der FAR-Werte. Erst als die Autoren in ihren Simulationen gezielt den Einfluss der Aerosole ausschalteten, warf die Rechnung ein Ergebnis aus: Ohne den Abkühlungseffekt zeigten die Treibhausgase in Europa und den USA schon früher ihre Wirkung. Erich Fischer betont aber die beträchtlichen Unsicherheiten: "Gerade die Daten über den Aerosolausstoß dieser Regionen in früheren Jahrzehnten sind ziemlich unsicher."
Doch die Statistik der Wetterextreme spricht auch in kleinen Regionen eine deutliche Sprache: zum Beispiel der Schweiz. Ein Team um Reto Knutti und Simon Scherrer von Meteo-Swiss hat Starkregenfälle und Spitzentemperatur zwischen 1901 und 2015 verglichen. In dieser Zeit hat sich die Regenmenge, die jeweils am nassesten Tag des Jahres fiel, um fast zwölf Prozent erhöht. Die Zahl der Tage, an denen besonders starke Niederschläge herunterkamen, ist um fast 30 Prozent gewachsen. Die Temperatur im ganzen Land ist währenddessen um 1,9 Grad gestiegen, die jeweils wärmste Woche des Jahres war zuletzt sogar um 2,3 Grad wärmer als Anfang des 20. Jahrhunderts. "Das sind eindrückliche Trends, auch wenn wir hier nicht formal zeigen, zu wie viel Prozent der Mensch dafür verantwortlich ist", sagt Knutti.
Solche Veränderungen in die Zukunft fortschreiben zu können, ist das eigentliche Ziel der Attributionsstudien. Es geht den Forschern nicht mehr darum, nachzuweisen, dass der Klimawandel existiert; dieser Punkt ist abgehakt. Sie wollen erkennen, wie stark er wirkt. Auch wenn weiter unklar bleiben wird, wo und wann Wetterextreme genau zu erwarten sind, können sich Nothilfe-Organisationen sowie Versicherer umso besser auf die Zunahme einstellen, je genauer die Berechnungen werden. "Wir leben mit Wetter", sagt der Leiter der NAS-Arbeitsgruppe David Titley, "wir planen für Klima."
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.