Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Kürzlich las ich einen kurzen Artikel zum Thema, in dem behauptet wurde, das Problem sei gelöst worden. Als Ursache wurden unterschiedliche Bindungslängen im Wassernolekül präsentiert, die sich bei verschiedenen Temperaturen ergeben sollen, und die wohl metastabil einen gewissen Zeitraum überdauern sollen. Leider finde ich den etwas unklar formulierten Artikel nicht mehr, so dass ich nichts Genaueres sagen kann. Wissen Sie etwas darüber?
Stellungnahme der Redaktion
Lieber Herr Polak,
Sie beziehen sich wahrscheinlich auf diese Publikation von Chang Qing Sun arXiv 1310.6514, 2013.
Möchte mit folgendem Ansatz einen Erklärungsversuch wagen und zur Diskussion stellen. Heißes Wasser hat ein größeres Volumen als kaltes und somit sind auch die Wassermoleküle und die molekularen Zwischenräume größer. Damit bietet eine heiße Flüssigkeit größere Freiräume für das Eindringen des kühlen Mediums und die größeren Moleküle bieten auch eine größere Oberfläche für einen schnellen Energieaustausch an das kältere eindringende Medium. Nun kommt es zu dem Mitkopplungseffekt. Das kühle Medium nimmt Energie vom heißen Medium auf, erwärmt sich dabei und dehnt sich selbst aus. Damit öffnet es die Struktur des noch heißen Mediums weiter auf und der Energieaustausch an das kalte Medium kann noch schneller erfolgen da sich größere Kontaktflächen zum kalten Medium ergeben. Außerdem wird durch diese Expansion des kalten Mediums ein Sog enstehen, der noch weiteres kaltes Medium hereinzieht. Die Durchdrinung des heißen Mediums durch das kalte Medium kann also schneller ablaufen. Somit sollte der Energieaustausch nochmal beschleunigt werden. Wasser hat bekanntlich bei 4 Grad seine größte Dichte, so dass derartiges Wasser deswegen am langsamsten gefrieren müsste. Interessant wäre, ob durch eine kalorimetrische Messung die Energiebilanz im zeitlichen Ablauf dieses Prozesses genau erfasst werden kann um dies zu bestätigen.
Andere, die dieses Buch gelesen haben, wie David Albert, Professor der Philosophie an der Columbia University, müssen sich teilweise selbst im Zaun halten, ob dessen geradezu desolater philosophischer Kurzsichtigkeit. In der New York Times pointiert Albert seine Aussage wie folgt:
"Vor hundert Jahren, so meint er [Krauss], hätte niemand auch nur einen Moment gezögert, eine räumliche Ausdehnung ohne jegliche Materie darin als 'Nichts' zu bezeichnen. [...] Doch alles, was man meiner Ansicht nach hierauf erwidern kann, ist, dass Krauss völlig Unrecht hat und seine theologischen und philosophischen Kritiker goldrichtig liegen: Wen kümmert es schon, ob wir damals einen Moment gezögert hätten? Vor hundert Jahren hatten wir schlicht Unrecht und wissen nun weitaus mehr. Und wenn das, was wir zuvor für Nichts gehalten hätten, bei genauerer Betrachtung die Grundbedingungen für die Entstehung von Protonen und Neutronen, Tischen und Stühlen, Planeten und Sonnensystemen, Galaxien und Universen bereits in sich trägt, dann war es nie wirklich Nichts und hätte es auch niemals sein können. [...] Als ich aufwuchs [...] war Kritik an Religion allgegenwärtig. Ihrzufolge war Religion grausam, ein Schwindel, ein Werkzeug der Unterdrückung, etwas voller Verachtung und Abscheu für alles, das fundamental menschlich war. Vielleicht war das die Wahrheit, vielleicht auch nicht, [...] aber es ist mehr als nur ein Jammer, dass alles, was Typen wie dieser [Krauss], in Büchern wie diesen vor diesem Hintergrund anbieten, der blasse, mickrige, albern-dümmliche, streberhafte Vorwurf ist, Religion wäre, nun, dumm.”
Sicher ist der Ansatz über die Energiebilanz des Systems in die Berechnungen der mittleren Temperaturen eingegangen. Das Gesamtsystem besitz so viele unbekannte, bisher nicht quantifizierte Energiesenken, dass die mittlere Temperatur zwar eine populäre, weil fassbare Größe darstellt, aber eher eine untergeordnete Rolle spielen sollte. Bei dem Klimasystem handelt es sich um ein "chaotisches" System. Es ensteht hier die Frage welche Attraktoren den Verlauf bestimmen. Auf welcher Bifurkationslinie bewegen wir uns ? Solche Diagramme zeigen durchaus "Pausen" in den Übergängen zwischen unterschiedlichen Zuständen. Diese Zusammenhänge nur über die Temperatur als Indikator zu diskutieren greift deutlich zu kurz! Es steht wohl noch viel Forschungsarbeit aus um die richtigen Attraktoren in dem Energieszenario zu bestimmen und zu quantifizieren. Wann finden wir den mathematischen Ansatz um einer derart komplexen Materie nicht hilflos mit unvollständigen Modellen und mangelnder Rechenleistung begegnen zu müssen. Alle Modelle sind nur so gut wie das investierte Wissen. Man sollte mit dem Versuch aufhören ein hochkomplexes Modell wie das Erdklima über einfache Phänomene populärwissenschaftlich zu diskutieren. Die meisten Menschen verstehen deshalb diese Diskussion vermutlich auch falsch.
In den letzten Jahren häufen sich Meldungen über zunehmendes Abschmelzen von Antarktiseis und andern Eismassen. Wasser hat bekanntlich eine relative hohe Schmelzwärme. Welcher Anteil der auf die Erde treffenden Sonnenenergie ist für das Schmelzen der Eismassen erforderlich? Welchen Einfluss hat dies auf die globalen Durchschnittstemperaturen?
In dem Beitrag werden verschiedene Modelle für den Wärmetransport und deren Transformation erwähnt. Ein Wärmeaustausch zwischen Ozean, hier der Pazifik, und dem Erdmantel findet keine Erwähnung. Da es sich um langfristige Phänomene handelt, sollte meines Erachtens diese Schittstelle auch Betrachtung finden. Es kann auch sein, dass nicht nur ein Wärmeaustausch zwischen Ozean und Erdmantel stattfindet, sondern auch ein Austausch von Energie über andere physikalische Parameter, wie z.B. den Druck stattfindet. Vielleicht liesen sich die Werte der Veränderungen des Erdmantels in dem genannten Zeitraum mit den Temparaturwerten korrelieren.
Schön, dass die multidekadischen Oszillationen als wichtige Einflussgröße auf das Klima auch in den etablierten Kreisen der Klimaforscher angekommen sind. Zwar ist die PDO nicht die Ursache, aber immerhin in wichtiger Indikator für diese Oszillationen, die den möglichen Hauptgrund für den derzeitigen Erwärmungs-Stillstand darstellen. Die Stellgröße selbst ist ENSO.
Drei wichtige Schlussfolgerungen kann man daraus ziehen.
1. Natürliche Einflüsse sind mindestens so groß wie anthropogene Einflüsse. Andernfalls könnte der Temperatur-Anstieg durch Treibhausgase derzeit nicht vollständig kompensiert werden.
2. Nachdem die derzeit negative Phase der Oszillationen (Periode ~60 Jahre) zur Kompensation des globalen Temperatur-Anstiegs führt, muss die positive Phase Ende des 20. Jhdt. einen natürlichen Beitrag zum damaligen Temperatur-Anstieg geführt haben. Tollefson erwähnt dies zwar nicht in seinem Nature-Artikel. Der von ihm ausführlich zitierte Kevin Trenberth hat diesen Schluss allerdings selbst gezogen: http://www.reportingclimatescience.com/news-stories/article/global-warming-pause-due-to-pacific-says-trenberth.html
"The picture emerging is one where the positive phase of the PDO from 1976 to 1998 enhanced the surface warming somewhat by reducing the amount of heat sequestered by the deep ocean, while the negative phase of the PDO is one where more heat gets deposited at greater depths, contributing to the overall warming of the oceans but cooling the surface somewhat. The Pacific Ocean appears to account for the majority of the decadal variability."
3. Dies bedeutet aber, dass die vom IPCC angenommene Sensitivität von CO2 (1,5° - 4,5° Erwärmung bei Verdopplung der CO2-Konzentration) systematisch zu hoch angesetzt ist, weil im AR5 die Stellgröße ENSO nicht berücksichtigt ist.
Könnte beim MPEMBA-Effekt nicht auch die Brownsche Molekularbewegung eine entscheidende Rolle spielen? Man könnte ja vermuten, dass sich schneller bewegende (bzw. schneller zitternde) Moleküle sich schneller zu einem Kristallgitter ordnen können als die "kalten". Und im Kristallgitter in der Bewegung eingeschränkte Moleküle sind halt kälter als freibewegliche. Das nur als Frage, bin nicht vom Fach.
Der Artikel präsentiert einige bemerkenswerte Aspekte, gibt aber in zwei Punkten Anlass zu Nachfragen.
Anders Celsius (1701-1744), René-Antoine Ferchault de Réaumur (1683-1757) und Daniel Gabriel Fahrenheit (1686-1736) sind die einzigen heute bekannten Wissenschaftler, die sich etwa zu gleicher Zeit mit der objektiven Temperaturmessung beschäftigt haben. Fahrenheit soll (Brockhaus) 1714 erstmals die Herstellung übereinstimmender Thermometer gelungen sein. Um 1742 präsentierte Celsius seine Temperaturskala. Wie können dann im Bild Seite 84 Sommertemperaturen ab 1500 berücksichtigt werden? Zumindest bedürfte die Behauptung einer Erläuterung.
Im Bild Seite 83 wird ein sehr kleinteiliges Raster für die Messwerte über den Meeren gewählt, ohne zu erläutern, wie ab 1880 so viele Messreihen auf Monatsbasis auf der riesigen Meeresoberfläche ermittelt wurden und mit welcher Genauigkeit.
Bei retrospektiven Betrachtungen des Klimas missachtet man üblicherweise die (mangels Messtechnik) qualitativen Angaben in vielen Ortschroniken. Für die Stadt Gengenbach nahe Straßburg wird überliefert: 1518: Es herrscht Hungersnot und überall sind schlechte Ernten; 1530: Am Josefs-Tag (19. März) gibt es schon Früchte, die sonst erst im Juni reif sind. Eine zweite Ernte im Herbst ist möglich; 1540: Große Trockenheit und viel Wein. Dieser ist billiger als Wasser. 1570: Nacheinander 12 Fehljahre für die Bauern. 1719: Das außergewöhnlichste Jahr war 1719. Der Winter war stürmisch und regnerisch, aber ohne Kälte und Schnee. Unvermittelt wurde es Ende Februar hochsommerlich mit solcher Hitze und Trockenheit, dass bis zum Sommer fast kein Regen fiel. Fluss und Brunnen trockneten aus, viel Vieh kam um, alles reifte vorzeitig. Endlich im August stürzte das ersehnte Nass vom Himmel, was eine Weinernte von ungeahntem Ausmaß bescherte …
Rekorde dieser Art sind uns heute völlig fremd. Es wäre sicher ein lohnendes Projekt, in die aktuelle Klimadiskussion die historischen Ereignisse etwas differenzierter miteinzubeziehen.
Stellungnahme der Redaktion
Vielen Dank für die interessierte Nachfrage! Die gezeigte Studie der europäischen Sommertemperaturen ab dem Jahr 1500 von Barriopedro et al. (Science 2011) basiert für die Zeit vor der Existenz von Thermometermessungen auf der Auswertung von Proxydaten durch Luterbacher et al. (Science 2004). Unter den hier verwendeten Proxydaten sind Klimainformationen aus Baumringen und Eisbohrkernen, aber es wurden auch schriftliche Aufzeichnungen aus früheren Jahrhunderten verwendet, wie Sie sie zitieren. Solche Beschreibungen von klimatisch beeinflussten Ereignissen sind eine wichtige Datenquelle in der Paläoklimaforschung und werden systematisch ausgewertet - zum Beispiel die Termine der Weinlese bis zurück ins Jahr 1354.
Die Abbildung auf S. 83 basiert auf dem globalen Temperaturdatensatz des Goddard Institute for Space Studies der NASA in New York. Das Verfahren ist beschrieben in Hansen und Lebedeff (Journal of Geophysical Research 1987). Sie haben Recht, dass gemessene Meerestemperaturen vor der Satellitenära nicht auf einem feinen Gitter verfügbar sind. Die NASA macht sich bei der Erstellung der Karten die Beobachtung zunutze, dass Temperaturveränderungen in den Monatsmittelwerten einen räumlichen Korrelationsradius von rund 1200 Kilometern aufweisen, so dass man auch mit der vorhandenen, begrenzten Datendichte nahezu globale Karten erstellen kann. Bewusst haben wir in unserer Grafik die Meeresgebiete abgeblendet, um die Aufmerksamkeit auf die besser mit Daten abgedeckten Landgebiete zu lenken.
Vielen Dank für diesen sehr informativen Artikel über einen interessanten deutschen Physiker und Menschen, der wirklich zu Unrecht nicht bekannt ist. Sein Leben und Wirken verdient es in die Erinnerung gerufen und gehalten zu werden. Der Autor hat es verstanden, die Einflüsse auf Houtermans und seine Einflüsse auf seine Kollegen und Wissenschaft gut darzustellen.
Die Definition des Halteproblems auf S. 72 stellt tatsächlich das schwerere Totalitätsproblem dar: Totalitätsproblem = { p: Programm p hält für jede Eingabe an} Halteproblem = { (p,n) : Programm p hält für die Eingabe n an}
In jeder hinreichend reichhaltigen Axiomatisierung der Zahlentheorie lassen sich alle wahren Aussagen der Form "p(n) hält an" formalisieren und beweisen.
Aus Gödel-Turing folgt jedoch, dass es unendlich viele wahre Aussagen der Form "p(n) hält nicht an" gibt, die nicht beweisbar sind.
Die Goldbachsche Vermutung kann man als Instanz des Halteproblems darstellen. Das Programm p prüft, etwa bei Eingabe 0, der Reihe nach für jede gerade Zahl, ob sie Summe zweier Primzahlen ist. Falls eine Zahl gefunden wird, für die das nicht der Fall ist, so hält es an (terminiert), sonst nicht. (In analoger Weise kann man auch für Fermats letzten Satz vorgehen.) Das Programm hält also genau dann an, wenn die Goldbachsche Vermutung falsch ist. Wenn sie wahr ist, terminiert es nicht. Wenn nun die Goldbachsche Vermutung wahr ist, so könnte es sein, dass die zugehörige Nichtterminierungsaussage in der Axiomatischen Mengenlehre (die Grundlage der heutigen Mathematik) zu den nicht beweisbaren Aussagen aus dem Komplement des Halteproblems gehört.
Die Collatz-Vermutung oder allgemeiner Conways "Collatzian Games" sind Instanzen des Totalitätsproblems, d.h. die Frage ist hier, ob das Game für jeden Startwert schließlich mit dem Wert 1 anhält.
Conway hat nun gezeigt, dass es universelle Collatzian games gibt, in denen man jede Programmiersprache interpretieren kann. Diese können nicht total sein, da es ja viele partielle Programme gibt, die interpretiert werden können. Aus der Natur des Beweises (in dem explizit angegeben wird, wie eine bekannte universelle Programmiersprache als Collatz game codiert wird) folgt, dass für unendlich viele Startwerte beweisbar ist, dass das game für diese Startwerte nicht terminiert.
Der letzte Absatz auf S. 75 bringt die Dinge etwas durcheinander: Ist das Collatz game universell? Dann wäre die Collatz-Vermutung falsch, da es ja dann wie eben bemerkt unendlich viele Startwerte gäbe, für die die Folge nicht terminiert. Es folgt aber dann nicht, dass das Collatzproblem unlösbar ist, denn es könnte durchaus für bestimmt Werte bewiesen werden, dass für sie als Startwert die Collatzfolge nicht terminiert.
Conway vermutet jedoch, dass die Collatzvermutung wahr ist, aber dies nicht beweisbar ist. Hier hätten wir dann eine Instanz des Totalitätsproblems, die in der Mengenlehre nicht beweisbar ist. In seinem Artikel hat Conway das vielleicht irreführend dargestellt, da die Collatzian games ja gerade für diejenigen Startwerte unlösbar sind, für die die Folge nicht terminiert. Die Collatzvermutung besagt aber, dass dies nicht auftritt, dass jede Folge stets terminiert. Also hätte Conway eigentlich ein Collatzian game präsentieren müssen, das stets terminiert, diese Eigenschaft jedoch unbeweisbar ist. Das steht noch aus, kann aber vermutlich mit seinen Methoden gezeigt werden.
Unbeweisbarkeit ist immer relativ zu einer Axiomatisierung. Wenn Conway unsettleable schreibt, bezieht er sich auf die Mengenlehre. Hier sind ja viele Aussagen A bekannt, die ebenso wie ihre Verneinung non-A nicht beweisbar sind, z. B. die Kontinuumshypothese. Von diesen ist aber bewiesen, dass sie nicht beweisbar sind. Für eine unbeweisbare wahre Aussage A der Form "Das Collatzian game g mit Startwert n terminiert nicht" ist auch non-A unbeweisbar und falsch. Es ist jedoch nicht beweisbar, dass non-A unbeweisbar ist. Denn damit hätte man ausgeschlossen, dass für eine gewisse Zahl tg(n) nach t Schritten terminiert, d. h. man hätte A bewiesen. Hier muss man im Hinterkopf behalten, dass in der Mengenlehre alle wahren Aussagen der Form "g(n) terminiert nach t Schritten" beweisbar sind, wie oben schon einmal erwähnt.
Conway spekuliert, dass die Probleme im Umkreis der Collatzfunktion generell nicht nur nicht beweisbar sind, sondern auch ihre Unbeweisbarkeit nicht beweisbar ist usw. Das nennt er dann "unsettleable". Eine ausgearbeitete Theorie hierzu ist mir nicht bekannt.
In der Logik werden auch schwächere Theorien als die Mengenlehre betrachtet, z. B. die Peano-Arithmetik (PA). Hier konnten konkrete Aussagen aus der endlichen Kombinatorik als wahr, aber unbeweisbar bewiesen werden. Es gibt eine notwendige Bedingung dafür, dass eine berechenbare Funktion in PA als total bewiesen werden kann. Und zwar darf sie nicht stärker wachsen als eine so genannte ε0-rekursive Funktion. Dies kann man sich zunutze machen, indem man zeigt, dass im konkreten Fall aus dem Beweis der Aussage A eine berechenbare Funktion ableitbar ist, die stärker wächst als die ε0-rekursiven. Dann ist A in PA nicht beweisbar. Diese Unbeweisbarkeit ist aber dann in einer stärkeren Theorie wie der Mengenlehre wiederum beweisbar.
Hier noch ein paar Literaturangaben zu klassischen Standardwerken: Zur Logik und Mengenlehre allgemein: Barwise, Handbook of Mathematical Logic, North-Holland, 1977 (dort auch Kap. D.8, A mathematical incompleteness in PA) Zur Berechenbarkeit allgemein: P. Odifreddi, Classical Recursion Theory, North-Holland, 1989. Zur Theorie der ε0-rekursiven Funktionen: H.E. Rose, Subrecursion, Oxford University Press, 1984.
Erinnert mich irgendwie an hiesige Projekte, bei denen naturnahe Schutzgebiete mit riesigem Aufwand errichtet werden. In die darf dann aus Schutzgründen kein Mensch mehr seinen Fuß reinsetzen, aber dafür muss man alle 2 Jahre mit großen Baggern drin herumfahren, um dafür zu sorgen, dass das Gebiet "naturnah" erhalten wird. Warum entwickeln sich Industriebrachen und aufgelassene Truppenübungsplätze, die auch als Erholungsgebiete des Menschen genutzt werden, meist am Besten hinsichtlich der Biodiversität? Vielleicht, weil man dort keine "Naturschützer" hineinlässt, die besser wissen als die Natur selbst, wie es geht?
Der zusammenfassende Terminus des organisierten Metabolismus gefällt mir, fasst alles zusammen, und muss ich zur Weiterdiskussion unter Ökologen empfehlen, da wir alle "nur" unser Schul- und Erfahrungswissen von lebenden Organismen hernehmen. Hoffentlich hat das Buch auch den holistischen Aspekt (Holismus…) drinnen, alles mit allem im übergeordneten Kontex usw., da wäre "Kommunikation" zu wenig…
Rätsel gelöst?
30.01.2014, Manfred PolakLieber Herr Polak,
Sie beziehen sich wahrscheinlich auf diese Publikation von Chang Qing Sun arXiv 1310.6514, 2013.
Eine (leider englische) Zusammenfassung finden Sie z.B. hier: www.telegraph.co.uk/science/science-news/10420496/Have-scientists-worked-out-why-hot-water-freezes-faster-than-cold-water.html. Inwiefern der von den Autoren beschriebene Effekt tatsächlich existiert und genügt, um den Mpemba-Effekt zu erklären, ist allerdings noch offen.
Beste Grüße, Jan Dönges (Redaktion)
MPEMBA-EFFEKT - Mitkopplung beschleunigt schnelles Gerfrieren.
30.01.2014, Josef RauhMöchte mit folgendem Ansatz einen Erklärungsversuch wagen und zur Diskussion stellen.
Heißes Wasser hat ein größeres Volumen als kaltes und somit sind auch die Wassermoleküle und die molekularen Zwischenräume größer.
Damit bietet eine heiße Flüssigkeit größere Freiräume für das Eindringen des kühlen Mediums und die größeren Moleküle bieten auch eine größere Oberfläche für einen schnellen Energieaustausch an das kältere eindringende Medium.
Nun kommt es zu dem Mitkopplungseffekt. Das kühle Medium nimmt Energie vom heißen Medium auf, erwärmt sich dabei und dehnt sich selbst aus. Damit öffnet es die Struktur des noch heißen Mediums weiter auf und der Energieaustausch an das kalte Medium kann noch schneller erfolgen da sich größere Kontaktflächen zum kalten Medium ergeben. Außerdem wird durch diese Expansion des kalten Mediums ein Sog enstehen, der noch weiteres kaltes Medium hereinzieht. Die Durchdrinung des heißen Mediums durch das kalte Medium kann also schneller ablaufen. Somit sollte der Energieaustausch nochmal beschleunigt werden.
Wasser hat bekanntlich bei 4 Grad seine größte Dichte, so dass derartiges Wasser deswegen am langsamsten gefrieren müsste.
Interessant wäre, ob durch eine kalorimetrische Messung die Energiebilanz im zeitlichen Ablauf dieses Prozesses genau erfasst werden kann um dies zu bestätigen.
"Albern-dümmlich" (New York Times)
29.01.2014, Matthias Noe"Vor hundert Jahren, so meint er [Krauss], hätte niemand auch nur einen Moment gezögert, eine räumliche Ausdehnung ohne jegliche Materie darin als 'Nichts' zu bezeichnen. [...] Doch alles, was man meiner Ansicht nach hierauf erwidern kann, ist, dass Krauss völlig Unrecht hat und seine theologischen und philosophischen Kritiker goldrichtig liegen: Wen kümmert es schon, ob wir damals einen Moment gezögert hätten? Vor hundert Jahren hatten wir schlicht Unrecht und wissen nun weitaus mehr. Und wenn das, was wir zuvor für Nichts gehalten hätten, bei genauerer Betrachtung die Grundbedingungen für die Entstehung von Protonen und Neutronen, Tischen und Stühlen, Planeten und Sonnensystemen, Galaxien und Universen bereits in sich trägt, dann war es nie wirklich Nichts und hätte es auch niemals sein können. [...] Als ich aufwuchs [...] war Kritik an Religion allgegenwärtig. Ihrzufolge war Religion grausam, ein Schwindel, ein Werkzeug der Unterdrückung, etwas voller Verachtung und Abscheu für alles, das fundamental menschlich war. Vielleicht war das die Wahrheit, vielleicht auch nicht, [...] aber es ist mehr als nur ein Jammer, dass alles, was Typen wie dieser [Krauss], in Büchern wie diesen vor diesem Hintergrund anbieten, der blasse, mickrige, albern-dümmliche, streberhafte Vorwurf ist, Religion wäre, nun, dumm.”
http://www.nytimes.com/2012/03/25/books/review/a-universe-from-nothing-by-lawrence-m-krauss.html
Mittlere Temperatur ist der falsche Indikator !
29.01.2014, Michael SchmidtBei dem Klimasystem handelt es sich um ein "chaotisches" System. Es ensteht hier die Frage welche Attraktoren den Verlauf bestimmen. Auf welcher Bifurkationslinie bewegen wir uns ? Solche Diagramme zeigen durchaus "Pausen" in den Übergängen zwischen unterschiedlichen Zuständen. Diese Zusammenhänge nur über die Temperatur als Indikator zu diskutieren greift deutlich zu kurz!
Es steht wohl noch viel Forschungsarbeit aus um die richtigen Attraktoren in dem Energieszenario zu bestimmen und zu quantifizieren.
Wann finden wir den mathematischen Ansatz um einer derart komplexen Materie nicht hilflos mit unvollständigen Modellen und mangelnder Rechenleistung begegnen zu müssen. Alle Modelle sind nur so gut wie das investierte Wissen.
Man sollte mit dem Versuch aufhören ein hochkomplexes Modell wie das Erdklima über einfache Phänomene populärwissenschaftlich zu diskutieren. Die meisten Menschen verstehen deshalb diese Diskussion vermutlich auch falsch.
Eine Pause?
29.01.2014, KarenGut, daß man hier jetzt auch Nature-Artikel übersetzt und endlich die Debatte im größerern Rahmen abgebildet wird...
(Es gibt eine Pause, pssssssssssssst! :-)
Werte Karen,
ich empfehle die Lektüre dieses Interviews mit Herrn von Storch und Herrn Latif:
https://www.spektrum.de/alias/klimaforschung/nur-die-temperaturen-pausieren/1207873
Mit freundlichen Grüßen
Daniel Lingenhöhl
Redaktion Spektrum.de
Eisschmelze
29.01.2014, ZukunftWärme-/Energieaustausch Pazifik und Erdmantel
29.01.2014, Ralf WeingartMultidekadische Oszillationen
29.01.2014, Werner KohlZwar ist die PDO nicht die Ursache, aber immerhin in wichtiger Indikator für diese Oszillationen, die den möglichen Hauptgrund für den derzeitigen Erwärmungs-Stillstand darstellen. Die Stellgröße selbst ist ENSO.
Drei wichtige Schlussfolgerungen kann man daraus ziehen.
1. Natürliche Einflüsse sind mindestens so groß wie anthropogene Einflüsse. Andernfalls könnte der Temperatur-Anstieg durch Treibhausgase derzeit nicht vollständig kompensiert werden.
2. Nachdem die derzeit negative Phase der Oszillationen (Periode ~60 Jahre) zur Kompensation des globalen Temperatur-Anstiegs führt, muss die positive Phase Ende des 20. Jhdt. einen natürlichen Beitrag zum damaligen Temperatur-Anstieg geführt haben. Tollefson erwähnt dies zwar nicht in seinem Nature-Artikel. Der von ihm ausführlich zitierte Kevin Trenberth hat diesen Schluss allerdings selbst gezogen:
http://www.reportingclimatescience.com/news-stories/article/global-warming-pause-due-to-pacific-says-trenberth.html
"The picture emerging is one where the positive phase of the PDO from 1976 to 1998 enhanced the surface warming somewhat by reducing the amount of heat sequestered by the deep ocean, while the negative phase of the PDO is one where more heat gets deposited at greater depths, contributing to the overall warming of the oceans but cooling the surface somewhat. The Pacific Ocean appears to account for the majority of the decadal variability."
3. Dies bedeutet aber, dass die vom IPCC angenommene Sensitivität von CO2 (1,5° - 4,5° Erwärmung bei Verdopplung der CO2-Konzentration) systematisch zu hoch angesetzt ist, weil im AR5 die Stellgröße ENSO nicht berücksichtigt ist.
Nochmal MPEMBA-EFFEKT
28.01.2014, Helmi GnaukHistorische Klimadaten
28.01.2014, Karl D. May, GengenbachDer Artikel präsentiert einige bemerkenswerte Aspekte, gibt aber in zwei Punkten Anlass zu Nachfragen.
Anders Celsius (1701-1744), René-Antoine Ferchault de Réaumur (1683-1757) und Daniel Gabriel Fahrenheit (1686-1736) sind die einzigen heute bekannten Wissenschaftler, die sich etwa zu gleicher Zeit mit der objektiven Temperaturmessung beschäftigt haben. Fahrenheit soll (Brockhaus) 1714 erstmals die Herstellung übereinstimmender Thermometer gelungen sein. Um 1742 präsentierte Celsius seine Temperaturskala. Wie können dann im Bild Seite 84 Sommertemperaturen ab 1500 berücksichtigt werden? Zumindest bedürfte die Behauptung einer Erläuterung.
Im Bild Seite 83 wird ein sehr kleinteiliges Raster für die Messwerte über den Meeren gewählt, ohne zu erläutern, wie ab 1880 so viele Messreihen auf Monatsbasis auf der riesigen Meeresoberfläche ermittelt wurden und mit welcher Genauigkeit.
Bei retrospektiven Betrachtungen des Klimas missachtet man üblicherweise die (mangels Messtechnik) qualitativen Angaben in vielen Ortschroniken. Für die Stadt Gengenbach nahe Straßburg wird überliefert: 1518: Es herrscht Hungersnot und überall sind schlechte Ernten; 1530: Am Josefs-Tag (19. März) gibt es schon Früchte, die sonst erst im Juni reif sind. Eine zweite Ernte im Herbst ist möglich; 1540: Große Trockenheit und viel Wein. Dieser ist billiger als Wasser. 1570: Nacheinander 12 Fehljahre für die Bauern. 1719: Das außergewöhnlichste Jahr war 1719. Der Winter war stürmisch und regnerisch, aber ohne Kälte und Schnee. Unvermittelt wurde es Ende Februar hochsommerlich mit solcher Hitze und Trockenheit, dass bis zum Sommer fast kein Regen fiel. Fluss und Brunnen trockneten aus, viel Vieh kam um, alles reifte vorzeitig. Endlich im August stürzte das ersehnte Nass vom Himmel, was eine Weinernte von ungeahntem Ausmaß bescherte …
Rekorde dieser Art sind uns heute völlig fremd. Es wäre sicher ein lohnendes Projekt, in die aktuelle Klimadiskussion die historischen Ereignisse etwas differenzierter miteinzubeziehen.
Vielen Dank für die interessierte Nachfrage! Die gezeigte Studie der europäischen Sommertemperaturen ab dem Jahr 1500 von Barriopedro et al. (Science 2011) basiert für die Zeit vor der Existenz von Thermometermessungen auf der Auswertung von Proxydaten durch Luterbacher et al. (Science 2004). Unter den hier verwendeten Proxydaten sind Klimainformationen aus Baumringen und Eisbohrkernen, aber es wurden auch schriftliche Aufzeichnungen aus früheren Jahrhunderten verwendet, wie Sie sie zitieren. Solche Beschreibungen von klimatisch beeinflussten Ereignissen sind eine wichtige Datenquelle in der Paläoklimaforschung und werden systematisch ausgewertet - zum Beispiel die Termine der Weinlese bis zurück ins Jahr 1354.
Die Abbildung auf S. 83 basiert auf dem globalen Temperaturdatensatz des Goddard Institute for Space Studies der NASA in New York. Das Verfahren ist beschrieben in Hansen und Lebedeff (Journal of Geophysical Research 1987). Sie haben Recht, dass gemessene Meerestemperaturen vor der Satellitenära nicht auf einem feinen Gitter verfügbar sind. Die NASA macht sich bei der Erstellung der Karten die Beobachtung zunutze, dass Temperaturveränderungen in den Monatsmittelwerten einen räumlichen Korrelationsradius von rund 1200 Kilometern aufweisen, so dass man auch mit der vorhandenen, begrenzten Datendichte nahezu globale Karten erstellen kann. Bewusst haben wir in unserer Grafik die Meeresgebiete abgeblendet, um die Aufmerksamkeit auf die besser mit Daten abgedeckten Landgebiete zu lenken.
Stefan Rahmstorf
Zu Unrecht vergessen
27.01.2014, Dr. Ansgar Hofmann, HeidelbergMPEMBA-EFFEKT
27.01.2014, Mathias VöllingerRichtigstellung zur Unerledigbarkeit
27.01.2014, Martin KummerTotalitätsproblem = { p: Programm p hält für jede Eingabe an}
Halteproblem = { (p,n) : Programm p hält für die Eingabe n an}
In jeder hinreichend reichhaltigen Axiomatisierung der Zahlentheorie lassen sich alle wahren Aussagen der Form "p(n) hält an" formalisieren und beweisen.
Aus Gödel-Turing folgt jedoch, dass es unendlich viele wahre Aussagen der Form "p(n) hält nicht an" gibt, die nicht beweisbar sind.
Die Goldbachsche Vermutung kann man als Instanz des Halteproblems darstellen. Das Programm p prüft, etwa bei Eingabe 0, der Reihe nach für jede gerade Zahl, ob sie Summe zweier Primzahlen ist. Falls eine Zahl gefunden wird, für die das nicht der Fall ist, so hält es an (terminiert), sonst nicht. (In analoger Weise kann man auch für Fermats letzten Satz vorgehen.) Das Programm hält also genau dann an, wenn die Goldbachsche Vermutung falsch ist. Wenn sie wahr ist, terminiert es nicht. Wenn nun die Goldbachsche Vermutung wahr ist, so könnte es sein, dass die zugehörige Nichtterminierungsaussage in der Axiomatischen Mengenlehre (die Grundlage der heutigen Mathematik) zu den nicht beweisbaren Aussagen aus dem Komplement des Halteproblems gehört.
Die Collatz-Vermutung oder allgemeiner Conways "Collatzian Games" sind Instanzen des Totalitätsproblems, d.h. die Frage ist hier, ob das Game für jeden Startwert schließlich mit dem Wert 1 anhält.
Conway hat nun gezeigt, dass es universelle Collatzian games gibt, in denen man jede Programmiersprache interpretieren kann. Diese können nicht total sein, da es ja viele partielle Programme gibt, die interpretiert werden können. Aus der Natur des Beweises (in dem explizit angegeben wird, wie eine bekannte universelle Programmiersprache als Collatz game codiert wird) folgt, dass für unendlich viele Startwerte beweisbar ist, dass das game für diese Startwerte nicht terminiert.
Der letzte Absatz auf S. 75 bringt die Dinge etwas durcheinander: Ist das Collatz game universell? Dann wäre die Collatz-Vermutung falsch, da es ja dann wie eben bemerkt unendlich viele Startwerte gäbe, für die die Folge nicht terminiert. Es folgt aber dann nicht, dass das Collatzproblem unlösbar ist, denn es könnte durchaus für bestimmt Werte bewiesen werden, dass für sie als Startwert die Collatzfolge nicht terminiert.
Conway vermutet jedoch, dass die Collatzvermutung wahr ist, aber dies nicht beweisbar ist. Hier hätten wir dann eine Instanz des Totalitätsproblems, die in der Mengenlehre nicht beweisbar ist. In seinem Artikel hat Conway das vielleicht irreführend dargestellt, da die Collatzian games ja gerade für diejenigen Startwerte unlösbar sind, für die die Folge nicht terminiert. Die Collatzvermutung besagt aber, dass dies nicht auftritt, dass jede Folge stets terminiert. Also hätte Conway eigentlich ein Collatzian game präsentieren müssen, das stets terminiert, diese Eigenschaft jedoch unbeweisbar ist. Das steht noch aus, kann aber vermutlich mit seinen Methoden gezeigt werden.
Unbeweisbarkeit ist immer relativ zu einer Axiomatisierung. Wenn Conway unsettleable schreibt, bezieht er sich auf die Mengenlehre. Hier sind ja viele Aussagen A bekannt, die ebenso wie ihre Verneinung non-A nicht beweisbar sind, z. B. die Kontinuumshypothese. Von diesen ist aber bewiesen, dass sie nicht beweisbar sind. Für eine unbeweisbare wahre Aussage A der Form "Das Collatzian game g mit Startwert n terminiert nicht" ist auch non-A unbeweisbar und falsch. Es ist jedoch nicht beweisbar, dass non-A unbeweisbar ist. Denn damit hätte man ausgeschlossen, dass für eine gewisse Zahl tg(n) nach t Schritten terminiert, d. h. man hätte A bewiesen. Hier muss man im Hinterkopf behalten, dass in der Mengenlehre alle wahren Aussagen der Form "g(n) terminiert nach t Schritten" beweisbar sind, wie oben schon einmal erwähnt.
Conway spekuliert, dass die Probleme im Umkreis der Collatzfunktion generell nicht nur nicht beweisbar sind, sondern auch ihre Unbeweisbarkeit nicht beweisbar ist usw. Das nennt er dann "unsettleable". Eine ausgearbeitete Theorie hierzu ist mir nicht bekannt.
In der Logik werden auch schwächere Theorien als die Mengenlehre betrachtet, z. B. die Peano-Arithmetik (PA). Hier konnten konkrete Aussagen aus der endlichen Kombinatorik als wahr, aber unbeweisbar bewiesen werden. Es gibt eine notwendige Bedingung dafür, dass eine berechenbare Funktion in PA als total bewiesen werden kann. Und zwar darf sie nicht stärker wachsen als eine so genannte ε0-rekursive Funktion. Dies kann man sich zunutze machen, indem man zeigt, dass im konkreten Fall aus dem Beweis der Aussage A eine berechenbare Funktion ableitbar ist, die stärker wächst als die ε0-rekursiven. Dann ist A in PA nicht beweisbar. Diese Unbeweisbarkeit ist aber dann in einer stärkeren Theorie wie der Mengenlehre wiederum beweisbar.
Hier noch ein paar Literaturangaben zu klassischen Standardwerken:
Zur Logik und Mengenlehre allgemein:
Barwise, Handbook of Mathematical Logic, North-Holland, 1977 (dort auch Kap. D.8, A mathematical incompleteness in PA)
Zur Berechenbarkeit allgemein:
P. Odifreddi, Classical Recursion Theory, North-Holland, 1989.
Zur Theorie der ε0-rekursiven Funktionen:
H.E. Rose, Subrecursion, Oxford University Press, 1984.
Tolle neue Idee !
27.01.2014, Gilbert BrandsWarum entwickeln sich Industriebrachen und aufgelassene Truppenübungsplätze, die auch als Erholungsgebiete des Menschen genutzt werden, meist am Besten hinsichtlich der Biodiversität? Vielleicht, weil man dort keine "Naturschützer" hineinlässt, die besser wissen als die Natur selbst, wie es geht?
Holismus?
26.01.2014, Krimm Hans