Klima: Wie warm wird's?
Klimamodelle sind die einzige Methode, uns vielleicht einen kleinen Blick in die Zukunft zu erlauben. Und obwohl sie bereits kaum durchschaubar komplex sind, reichen sie noch lange nicht an das natürliche Original heran. Wie zuverlässig also sind ihre Vorhersagen?
Wolken, Wind und Wetter beherrschen nicht nur so manchen Smalltalk, sie sind zum globalen Thema geworden: Wie wird das Klima in den nächsten Generationen aussehen? Welches Eis- oder wohl eher Treibhaus überantworten wir unseren Kindern?
Immer wieder zitiert und so etwas wie eine internationale Grundlage sind die Daten des Intergovernmental Panel on Climate Change (IPCC), die bei einer Verdopplung der Kohlendioxid-Konzentrationen eine Erwärmung von 1,4 bis 5,8 Grad Celsius bis zum Ende des 21. Jahrhunderts prognostizieren. Und damit wird auch gleich schon der Knackpunkt klar: Zwischen dem niedrigsten und höchsten Wert liegt eine Differenz von 4,4 Grad – alles andere als ein Pappenstiel im Klimageschehen.
Dahinter stecken nicht nur regionale Unterschiede, sondern vor allem das Problem, dass die Modelle zwar inzwischen immer ausgetüftelter und komplexer werden, die natürliche Klimamaschinerie aber bei weitem nicht bis ins kleinste Detail wiedergeben können. Jede kleine Drehung an jeder noch so winzigen Schraube löst unzählige damit verkettete Prozesse aus, die das Resultat in oft unvorhersehbarer Weise beeinflussen – sofern der Effekt überhaupt schon bekannt und integriert ist. Kein Wunder also, dass die Ergebnisse mit entsprechender Unsicherheit behaftet sind.
Doch wie soll man diese Unsicherheit beseitigen? Der eine Weg ist natürlich, die Modelle nach bestem Wissen und Gewissen immer weiter zu verfeinern. Den umgekehrten Weg, mehr eine Kontrolle, schlugen nun James Murphy vom britischen Hadley Centre for Climate Prediction and Research und seine Kollegen ein: Sie drehten nacheinander 29 einzelne Schrauben in ihrem Modell in beide Richtungen jeweils bis zum Anschlag und beobachteten dann, welche Auswirkungen dies auf die Gesamtvorhersage hatte. So ermittelten sie die Bandbreite möglicher Temperatur-Szenarien – auch wenn diese durch Rückkopplungen oder andere regulierende Faktoren im natürlichen System wohl gar nicht auftreten könnten.
Ihre Resultate bestätigen das IPCC und auch viele weitere Modelle: Im Wahrscheinlichkeitsbereich von 5 bis 95 Prozent werden die Temperaturen bei einer Verdopplung des Kohlendioxidgehaltes der Atmosphäre bis zum Ende des Jahrhunderts um 2,4 bis 5,4 Grad Celsius steigen, selbst bei den extremsten Vorgaben für Einzelfaktoren. Bemerkenswert ist die höhere untere Grenze, denn sie lässt schlimmere Auswirkungen erwarten – vom Meeresanstieg bis zur Sturmfrequenz – als der IPCC-Wert.
Natürlich würden die Forscher gern alle möglichen Kombinationsvarianten der unbekannten Variablen testen – doch dazu fehlt ihnen die Rechnerkapazität. Ähnlich dem Seti@Home-Projekt haben sie daher eine Initiative gestartet, bei der Computer weltweit mittels eines herunterzuladenden Programms dezentral Rechnerzeit zur Verfügung stellen, die sie selbst gerade nicht benötigen. Mit weltweiter Hilfe sollte es dann vielleicht gelingen, die Grenzen der Zuverlässigkeit noch weiter zu festigen.
Immer wieder zitiert und so etwas wie eine internationale Grundlage sind die Daten des Intergovernmental Panel on Climate Change (IPCC), die bei einer Verdopplung der Kohlendioxid-Konzentrationen eine Erwärmung von 1,4 bis 5,8 Grad Celsius bis zum Ende des 21. Jahrhunderts prognostizieren. Und damit wird auch gleich schon der Knackpunkt klar: Zwischen dem niedrigsten und höchsten Wert liegt eine Differenz von 4,4 Grad – alles andere als ein Pappenstiel im Klimageschehen.
Dahinter stecken nicht nur regionale Unterschiede, sondern vor allem das Problem, dass die Modelle zwar inzwischen immer ausgetüftelter und komplexer werden, die natürliche Klimamaschinerie aber bei weitem nicht bis ins kleinste Detail wiedergeben können. Jede kleine Drehung an jeder noch so winzigen Schraube löst unzählige damit verkettete Prozesse aus, die das Resultat in oft unvorhersehbarer Weise beeinflussen – sofern der Effekt überhaupt schon bekannt und integriert ist. Kein Wunder also, dass die Ergebnisse mit entsprechender Unsicherheit behaftet sind.
Doch wie soll man diese Unsicherheit beseitigen? Der eine Weg ist natürlich, die Modelle nach bestem Wissen und Gewissen immer weiter zu verfeinern. Den umgekehrten Weg, mehr eine Kontrolle, schlugen nun James Murphy vom britischen Hadley Centre for Climate Prediction and Research und seine Kollegen ein: Sie drehten nacheinander 29 einzelne Schrauben in ihrem Modell in beide Richtungen jeweils bis zum Anschlag und beobachteten dann, welche Auswirkungen dies auf die Gesamtvorhersage hatte. So ermittelten sie die Bandbreite möglicher Temperatur-Szenarien – auch wenn diese durch Rückkopplungen oder andere regulierende Faktoren im natürlichen System wohl gar nicht auftreten könnten.
Ihre Resultate bestätigen das IPCC und auch viele weitere Modelle: Im Wahrscheinlichkeitsbereich von 5 bis 95 Prozent werden die Temperaturen bei einer Verdopplung des Kohlendioxidgehaltes der Atmosphäre bis zum Ende des Jahrhunderts um 2,4 bis 5,4 Grad Celsius steigen, selbst bei den extremsten Vorgaben für Einzelfaktoren. Bemerkenswert ist die höhere untere Grenze, denn sie lässt schlimmere Auswirkungen erwarten – vom Meeresanstieg bis zur Sturmfrequenz – als der IPCC-Wert.
Natürlich würden die Forscher gern alle möglichen Kombinationsvarianten der unbekannten Variablen testen – doch dazu fehlt ihnen die Rechnerkapazität. Ähnlich dem Seti@Home-Projekt haben sie daher eine Initiative gestartet, bei der Computer weltweit mittels eines herunterzuladenden Programms dezentral Rechnerzeit zur Verfügung stellen, die sie selbst gerade nicht benötigen. Mit weltweiter Hilfe sollte es dann vielleicht gelingen, die Grenzen der Zuverlässigkeit noch weiter zu festigen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.