Direkt zum Inhalt

Kommentare - - Seite 1008

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Nicht bessere Fahrer fordern, sondern bessere Autos

    15.12.2009, Stephan Fröde
    Der Artikel greift eine viel zu wenig diskutierte Problematik auf. Allerdings gibt es drei Dinge kritisch einzuwenden:
    1) Statt mehr und anspruchsvollerer Mathematik und deswegen mehr mathematischer Kompetenz in den Banken brauchen wir vielmehr leichter zu benutzende Modelle, die auch von Menschen mit durchschnittlicher mathematischer Begabung zu verstehen sind. Für die anspruchsvollere Technik in Autos soll man nicht bessere Fahrer fordern, sondern dass die anspruchsvolle Technik so verpackt wird, dass sie leicht zu bedienen ist. Das vermindert das Risiko in der Anwendung und steigert die Produktivität.

    2) Eine Grundannahme der mathematischen Modelle ist, dass ich in der Lage bin, Einschätzungen über die mögliche Zukunftsentwicklung eines Preises zu gewinnen. Benoit Mandelbrot schlägt eine fraktale Modellierung der Kurse vor (naheliegenderweise, da er dieses Thema entdeckt hat), er sagt aber auch, dass es noch 30 Jahre dauern wird, bis eine zufriedenstellende Modellierung des Chaos/der Unbestimmbarkeit möglich scheint.
    Im Zusammenhang mit dem Artikel ist es sehr wichtig zu verstehen, wie stark die Aussagekraft der Modelle überhaupt sein kann. Dies wird in dem Artikel aber nicht beleuchtet; wie kann man den Anwendern mangelnde Kompetenz vorwerfen, wenn sie nie verstanden haben konnten, wo die Grenzen der Modelle überhaupt liegen? Obendrein reicht es eben nicht aus, die Modelle einfach nur zu verstehen wie ein Mathematiker. Vielmehr ist es erforderlich, eine Risikokultur zu etablieren, welche eine Organisation als Ganzes in die Lage versetzt, mit den Risiken adäquat umzugehen. Das lässt sich aber nicht quantitativ erreichen, sondern ist eine Management-Aufgabe und eine philosophische Aufgabe, bei der es sehr hilfreich wäre, wenn die Forschung mindestens in der Lage wäre, die Restriktionen der Modelle zu qualifizieren.

    3) Der Artikel handelt ja von unserer aktuellen Krise, schweigt aber über den Fall LCTM von 1998. LTCM war ein Hedge-Fonds, der im Zuge der Asien-Finanzkrise von 1998 unterging. Zu den Angestellten von LTCM gehörten Myron Samuel Scholes und Robert C. Merton, die Nobelpreisträger für eben jenes Standardmodell. Die aktuelle Krise ist also keineswegs die erste, in der die Modelle eine tragende Rolle spielen; das war im Prinzip die von 1987. Das Problem ist alles andere als neu.
    Man kann also nicht behaupten, dass die Modelle bisher in der Lage waren, Krisen zu verhindern, und ich glaube, das werden sie auch nie können, selbst wenn eine Bank nur von Mathematikern betrieben würde.

    Abgesehen von den rein praktischen Schwierigkeiten, die Kausalitäten im Markt vollständig zu erfassen - de facto totale Markttransparenz herzustellen -, würde die Herstellung der Markttransparenz selbst in hohem Maße mit dem Markt wechselwirken und ihn beeinflussen, was wiederum zu einem unendlichen Regress führen würde. Ich wäre also nie in der Lage, den Einfluss meines eigenen Modells auf sich selbst zu erklären, was wiederum zu einer eingeschränkten Aussagekraft führen würde.

    Genau das sind auch die Diskussionspunkte, die ich für wichtig halte und die in der Anwendung der Modelle eine maßgebliche Rolle spielen müssen. Den Managern vor diesem Hintergrund mangelnde Kompetenz vorzuwerfen, halte ich so für nicht akzeptabel.
    Stellungnahme der Redaktion

    1) Die Forderung nach leichter zu benutzenden Modellen verkennt den Stellenwert, den der rasante technische Fortschritt in jeder Hightech-Industrie hat und den somit das Risikomanagement in den großen international agierenden Banken haben sollte. Wer in dieser Liga spielen möchte, kommt um den Aufbau des erforderlichen Knowhows im Hause nicht herum. Die Vorstellung, dass es sich hierbei um eine lästige Routineaufgabe handelt, die man mit 'bedienungsfreundlich verpackten Systemen' erledigen kann, verkennt die Dynamik, die in der Entwicklung moderner Finanzinstrumente wie etwa CDOs liegt. Es gibt eine ganze Industrie, die Risikomanagementsysteme entwickelt. Aus gutem Grunde verlassen sich die Spitzeninstitute nur auf Systeme, bei denen sie jede Modellannahme und jede Programmzeile der Implementierung selbst verstehen. Eine black box zu benutzen, kann auf diesem Feld keinem Institut empfohlen werden. Angesichts von Investitionen in der Größenordnung von vielen Milliarden, die mit solchen Systemen analysiert werden, handelt sich hier eben nicht um ein Massenprodukt, das für den technisch unversierten Endverbraucher möglichst bedienungsfreundlich verpackt werden muss. Um ein weiteres Bild zu gebrauchen: Kaum jemand wird die großen Fortschritte in der Herzchirurgie loben, dank derer das Leben vieler Menschen verlängert werden kann, und gleichzeitig die Forderung erheben, dass die Technik so vereinfacht werden muss, dass ein praktischer Arzt in der Lage ist, ein Herz zu verpflanzen.



    2) Mit Hilfe von finanzmathematischen Modellen lassen sich Risiken quantifizieren und somit Entscheidungsprozesse unterstützen. Ohne hinreichendes Verständnis der dabei verwendeten Begriffe (wie etwa verschiedene Risikomaße oder
    Modellannahmen) kommt man leicht zu Fehlurteilen. Ein einfaches Beispiel hierzu: In einer sonst ernst zu nehmenden überregionalen Tageszeitung habe ich Sätze gelesen wie 'Der Value at Risk (VaR) bezeichnet den maximalen Verlust, den ein Portfolio erleiden kann'. Wer ein einfaches statistisches Konzept wie das Quantil einer Verteilung so gründlich missversteht, darf sich nicht wundern, wenn er zu Fehlurteilen kommt. Aus diesem Grunde habe ich ausdrücklich hervorgehoben, dass modernes Risikomanagement eine Teamaufgabe ist, die Expertise aus mehreren Bereichen erfordert. Mathematik ist dabei nur ein, allerdings wesentlicher Bereich. Richtigerweise stellt der Schreiber des Leserbriefs noch einmal fest, dass das Risikomanagement in die Gesamtunternehmenskultur an der richtigen Stelle eingebettet sein muss, um wirksam werden zu können. Es ist zu hoffen, dass dies eine der Lehren ist, die solche Unternehmen aus der Krise ziehen werden, die diesen Unternehmensbereich bisher auf einer zu niedrigen Ebene angesiedelt hatten.


    Der Äußerung, dass die Forschung nicht in der Lage wäre, die Restriktionen der Modelle aufzuzeigen, kann ich entgegenhalten, dass ich seit Beginn der 1990er Jahre diese Restriktionen in einer ganzen Reihe von Veröffentlichungen untersucht und dargestellt habe. Damit bin ich im Übrigen keineswegs allein.



    3) Über den Fall LTCM vor mehr als zehn Jahren sind inzwischen nicht nur viele Artikel, sondern ganze Bücher geschrieben worden. Dem ist nicht mehr viel hinzuzufügen.
    Betont werden sollte, dass die Mittel, die von einem Bankenkonsortium unter der Führung der US-Notenbank eingesetzt wurden, um eine folgenschwerere Krise zu vermeiden, gut angelegt waren. Durch die bestens gemanagte Abwicklung der von LTCM eingegangenen Positionen in den folgenden Jahren wurden weitere Verluste vermieden, ohne dass die finanzierenden Banken selbst Verluste erlitten hätten. Insofern war die damalige Vorgehensweise von Notenbank und Finanzindustrie sehr erfolgreich. Die LTCM-Krise wurde nicht durch Modelle verursacht, sondern durch das Eingehen von Risiken, für deren Beherrschung nicht genügend Eigenkapital zur Verfügung stand. Dies gilt auch für die jetzige um vieles größere Krise. Hinzugekommen sind jetzt vor allem die systemischen Effekte. Modelle können Fehlentscheidungen und als deren Folge Krisen nicht verhindern. Modelle können nur helfen, richtige Entscheidungen zu fällen. Sie unterstützen das Management, können dieses jedoch nicht ersetzen. Es wird in der Diskussion über die Krise häufig vergessen, dass eine ganze Reihe von Banken dank erfolgreichen Risikomanagements bestens über die Krise gekommen sind.


    Prof. Dr. Ernst Eberlein

  • Klimagarten

    15.12.2009, Dominique Boursillon, Scheer
    Es heißt an einer Stelle im Text: "(...), dass die zahlreichen Forscher, die hier anders denken als er [von Storch], aus guten fachlichen Gründen zu ihrer Einschätzung gekommen sind." Das ist polemisch und letztlich unzutreffend. Sachlich wäre es völlig leidenschaftslos zu sagen was passiert, wenn es so weitergeht: Die Meerespiegel steigen, wodurch Inselstaaten bedroht sind oder Korallenriffe. Die Temperaturen werden steigen und zu einer globalen Erwärmung führen usw.

    Da hört die Sachlichkeit aber schon auf. So stellt sich die Diskussion aber nicht dar: Man geht nach Kopenhagen und schreit "Alarm!", weil man sachlich und nüchtern das Klima der Zukunft prognostiziert hat. Man muss was tun! Insofern irrt Herr Rahmstorf. Er ist genau so wenig sachlich wie Herr von Storch. Er vertritt seine persönliche Meinung. Ob er die besseren Daten hat und seine Prognosen daher zutreffender sind als die anderer Forscher steht gar nicht zur Debatte.

    Es geht doch nur darum: der eine will das Klima ändern, der andere nicht so sehr. das ist alles Ansichtssache und beruht nur auf persönlichem Empfinden.

    Fast wie im Kindergarten ist das...
  • Verschränkung ist nur die halbe Miete

    14.12.2009, Mag. Johann Angsüsser, Physikprof. BORG PERG
    Ohne Herrn Dr. Brewig zu nahe treten zu wollen, scheint er mir das Wesen der EPR-Paare nicht ganz verstanden zu haben, wenn er "keine Fernwirkung benötigt". Die verschränkte Wellenfunktion ist nämlich nur die halbe Miete der ganzen Sache, so richtig seltsam wird die Sache erst durch den Kollaps der Wellenfunktion durch eine Messung.

    Vielleicht ein Beispiel, das das Rätsel der "spukhaften Fernwirkung" (O-Ton Einstein) etwas klarer macht: Sie erzeugen Photonenpaare, die sich im selben Polarisationszustand α befinden. Sie stellen auf der Erde und auf Beteigeuze zwei Pol-Filter auf, deren Stellung Sie kurz vor dem Eintreffen der Photonen (durch einen Zufallsgenerator) einstellen und zwar so, dass das Photon eine Trillionstelsekunde vor dem auf Beteigeuze gemessen wird. Der gemessene Polarisationszustand auf der Erde beeinflusst also den Polarisationszustand auf Beteigeuze.

    Greifen wir eine Messreihe heraus:
    Auf der Erde befindet sich der Polfilter in Durchlassrichtung β. Die Durchlasswahrscheinlichkeit ist cos2(α - β). Nehmen wir an, die Photonen sind nummeriert und 5,6,10,12,16,20, ... kommen durch. Durch die Messung befinden sich die Geschwister von 5,6,10,12,16,20, ... nicht mehr im Anfangszustand &alpha, sondern im Zustand β. Ihre Durchlasswahrscheinlichkeit auf einen Polfilter mit Winkel γ auf Beteigeuze ist also cos2(γ - β). Obige Ergebnisse lassen sich durch einfaches Zählen der Photonen verifizieren bzw. falsifizieren.

    So und jetzt haben wir den Salat:
    Die Durchlasswahrscheinlichkeit auf Beteigeuze hängt für gewisse Photonen vom Einstellungswinkel &beta auf der Erde ab. Und noch besser: Herr Bell hat bewiesen, das sich dieses Verhalten nicht mit verborgenen, inhärenten Eigenschaften der Photonen verträgt.

    In der obigen Betrachtung kommen Begriffe früher oder später vor, Begriffe, die in der Relativitätstheorie als relativ gedeutet werden (zumindest wenn die Ereignisse im selben Lichtkegel liegen) und daher keine absolute Gültigkeit haben dürften. Beide Theorien sind aber experimentell gut abgesichert.

    Also das wird noch spannend!
  • Emissionshandel als einfache Lösung?

    14.12.2009, Dr. Ruth Berger, Frankfurt
    Herr Rahmstorf stellt den Emissionshandel als einfache Lösung aller Klimaprobleme dar. Doch wie kann sichergestellt werden, dass mit den von den Industriestaaten zur Verfügung gestellten Geldern tatsächlich in den Schwellen- und Entwicklungsländern "ein klimafreundliches Energiesystem" aufgebaut wird?

    Seit Jahrzehnten versickern EU-Milliarden zum Bau von Kläranlagen und Müllverbrennungsanlagen in Süditalien in dunkle Kanäle; mit den Afghanistan-Hilfsgeldern der UN war es ähnlich. Es gibt wenig Grund anzunehmen, dass die Verwendung der Emissionszertifikatserlöse in Ländern wie Indien, Pakistan oder Kongo besser kontrollierbar wäre.

    Gut kontrollierbar wären nur direkte Maßnahmen bei uns, die höchstwahrscheinlich aber teurer und/oder entbehrungsreicher wären als die zwanzig bis sechzig Euro "Klimaspende" pro Person und Jahr, die Herr Rahmstorf nennt.

    Führt die Möglichkeit, von Entwicklungsländern Emissionszertifikate zu erwerben, nicht dazu, dass hochentwickelte Länder die eigene harte Umstellung auf den Sankt Nimmerleinstag verschieben?
  • Der NMR-Helm im Auto

    13.12.2009, Harald Schmidt, St. Andrä-Wördern
    wird nicht funktionieren, da die Erschütterungen ganz einfach zu groß sind. Im fahrenden Auto ist nicht einmal herkömmliches Blutdruckmessen möglich. Und außerdem kann man im Auto ohnehin nichts machen, bei Schlaganfallpatienten z.B.
    Der immer wieder angesprochene Tricorder nutzt nur was, wenns auch eine sofortige therapeutische Konsequenz gibt.
    Die NMR-Maus in der Medizin hat auch das Problem, dass sich daraus zwar Zusammensetzungen der Materie (die ja in der Medizin im Allgemeinen bekannt sind) analysieren lassen, aber zur Bildgebung, und nur die bringt was, braucht man dann heute noch schrankgroße Rechner und eine "Rundumantwort" und nicht nur eine begrenzte Eindringtiefe.
  • Alte Harddisks gegen neue Technologie?

    12.12.2009, Harald Schmidt, 3423 St. Andrä - Wördern
    Der Autor hat wohl etwas ältere Daten der HDDs verwendet. 7200 min-1 sind die Standardgeschwindigkeit seit 1-2 Jahren in normalen Heim-PCs bei 3,5" Festplatten. Echte Serverplatten (und dort braucht man sehr viel mehr Temo) laufen schon seit Längerem (Jahren) mit 15.000 min-1. Diese SCSI oder SAS Platten sind noch dazu dauerbetriebsfest, was bei den Heim-PC-Platten ja nicht der Fall ist.
    Ein großes Problem der derzeitigen HDDs werden aber die Nanodraht-Speicher nicht lösen können: die magnetische Beeinflußbarkeit. Wer auf eine Notebook-Platte schon mal ein Handy gelegt hat, dass dann angerufen wurde, kennt das Problem. Damit hat man ganz schnell mal die Daten unbrauchbar gemacht. Das ist aber bei jeder magnetischen Datenspeicherung so, und im Prinzip ist’s ja auch eine, sonst gäbe es ja keinen Kernspintomografen.
  • Astronomie in der Schule als freiwillige Zugabe!

    11.12.2009, Claus Fischer, Eschwege
    Die Idee, Astronomie als Unterrichtsfach zu lehren, ist prinzipiell gut. Ich bin selber Mathe-, Physik- und Astronomielehrer und habe als solcher sehr viel Erfahrung als Leiter einer Astronomiestation in Mecklenburg-Vorpommern gesammelt. Heute bin ich in Hessen Lehrer und muss feststellen, das es viele Baustellen im Fächerkanon gibt, die noch lange nicht geschlossen werden können. Ein neues Fach bringt nichts. Die Argumente des fächerübergreifenden Unterrichts kann jedes Fach für sich in Anspruch nehmen. Auch Philosophie, Geschichte und andere Kulturtechniken können sich Schüler dort aneignen.

    Wenn die Möglichkeiten vorhanden sind, können Arbeitsgemeinschaften und ähnliches sinnvoll sein. Wenn Jugendliche ihr Interesse an der Astronomie entdecken sollten, dann finden sie auch Wege, dieses zu vertiefen. Ein Pflichtfach ist dabei selten förderlich.
  • Finanzmathematik: Schmücken mit fremden Federn

    11.12.2009, W. Hinderer
    Der Name "Finanzmathematik" ist eigentlich ein Schmücken mit fremden Federn. Das Interesse dieser Disziplin ist das Geld und nicht die Mathematik, demnach müsste es "Mathematische Finanzlehre" oder "Mathematische Finanztheorie" oder ähnlich heißen. Es heißt ja auch "Mathematische Physik" und nicht "Physikmathematik".
    Stellungnahme der Redaktion

    Widerspruch!

    Das Interesse der Finanzmathematik ist die Mathematik und nicht das Geld. Die Finanzen sind für die Finanzmathematik insofern wesentlich, als sie die Probleme liefern, mit denen sich die Mathematiker beschäftigen. So verhält es sich übrigens auch mit der Physik. Allerdings heißt der entsprechende Teil nicht "Physikmathematik", sondern "angewandte Mathematik" – aus historischen Gründen, vermute ich. Dort findet sich nicht selten die jeder Bestrebung nach korrekten Etiketten spottende Situation, dass von zwei Leuten, die an ein und derselben Sache arbeiten, der eine sie der angewandten Mathematik zuordnet und der andere der mathematischen Physik. Das einzige, was sie unterscheidet, ist die Motivation.

    Christoph Pöppe, Redaktion

  • Und wie haben sie das gemacht?

    10.12.2009, Kai Hiltmann, Coburg
    Wie wurde denn das Angstgedächtnis nun gelöscht?
    Stellungnahme der Redaktion

    Sehr geehrter Herr Hiltmann,



    Beim so genannten Löschungstraining zeigen Forscher den Versuchspersonen wiederholt einen Angstauslöser, ohne dass die befürchteten negativen Folgen eintreten. In diesem Experiment bedeutet das konkret: Die Probanden sahen zwar das farbige Quadrat, erhielten aber keinen Stromschlag. Fand dieses Training innerhalb der Rekonsolidierungsphase statt, wurde das zuvor "angstauslösende" Quadrat im Gedächtnis dauerhaft als harmlos abgespeichert.



    Viele Grüße

    Julia von Sengbusch

  • Die Verantwortung des Ichs

    10.12.2009, Univ.-Prof. Dr. Uwe Lehnert
    Die Auffassung von Prof. Singer, dass der Mensch für sein Tun verantwortlich sei, obwohl seine Entscheidungen determiniert sind, ist absolut nachvollziehbar und in sich logisch. Begeht ein Mensch eine gesellschaftlich unerwünschte Tat, dann macht er sich zwar nicht schuldig, schließlich konnte er nicht anders, aber er bleibt verantwortlich für das, was er angerichtet hat. Er ist verantwortlich, weil er in seiner Person die Ursache für das ausgelöste Geschehen ist.

    Um zu verhindern, dass er in vergleichbaren Situationen wieder genau so gesellschaftsschädigend handelt, nimmt sich die Gesellschaft das Recht heraus, solche Handlungen zu sanktionieren und veranlasst therapeutische oder erzieherische Maßnahmen, gegebenenfalls in Form von Geldbußen oder Freiheitsentzug. Ziel ist es, eine veränderte Motiv- bzw. Verhaltensstruktur zu erreichen.

    Um die Autonomie des Menschen zu wahren, ist das Konstrukt der Willensfreiheit entbehrlich. Wenn ich mich frei von allen äußeren Zwängen so entscheiden kann, wie es meinem Charakter, meiner Erziehung, meiner Erfahrung und meinen Einsichten entspricht, dann realisiere ich das, was wir Selbstbestimmung nennen. Und nur darauf kommt es an, denn meine persönliche Freiheit drückt sich in der Möglichkeit zur Selbstbestimmung aus.
  • Mit keinem Wort die eigentliche Herkunft erwähnt

    09.12.2009, Dr. Thomas Ebel, Mildstedt
    In Ihrem Artikel wird mit keinem Wort die eigentliche Herkunft dieser Verbindungsklasse erwähnt.

    Die Verbindungen wurden nämlich nicht, wie im Artikel suggeriert, in Japan, sondern schon viele Jahre zuvor an der Westfälischen Wilhelms Universität in Münster, in der Gruppe von Prof. Wolfgang Jeitschko in Deutschland gefunden (s. Zitate).

    Ich war zu der Zeit, als die Verbindungen entdeckt wurden, selber Doktorand bei Prof. Jeitschko.

    Zitate:

    Barbara I. Zimmer, Wolfgang Jeitschko, Jörg H. Albering, Robert Glaum and Manfred Reehuis (1995). The rare earth transition metal phosphide oxides LnFePO, LnRuPO and LnCoPO with ZrCuSiAs type structure in: Journal of Alloys and Compounds 229 (2): 238–242, 1.11.1995.

    P. Quebe, L. J. Terbüchte, W. Jeitschko. Quaternary rare earth transition metal arsenide oxides RTAsO (T=Fe, Ru, Co) with ZrCuSiAs type structureJ. Alloys and Compounds 302, 70 (2000).

    Link auf Physics Today: New family of quaternary iron-based compounds superconducts at tens of kelvin, Mai 2008
  • Das Verhalten moderner Menschen mit dem ihrer Vorfahren erklären?

    09.12.2009, Jürgen Wüllrich, Ostfildern
    In dem Essay "Führen und Folgen" von Mark van Vugt wird wieder einmal versucht, das menschliche Verhalten in modernen Organisationen und Gruppen aus der Vorzeit des Menschen zu erklären. Gegen die Erkenntnisse und Einsichten in dem Essay möchte ich nichts einwenden.

    Wohl aber gegen die Logik der Argumentation und gegen die Methode.

    Denn es ist ein logischer Zirkelschluss, das Verhalten des modernen Menschen mit einem Verhalten des vorzeitlichen Menschen zu erklären, das man aus dem Verhalten der Menschen unserer Tage erst erschließt. Diesen Zirkelschluss kann man durch eine noch so große Fülle an Fakten und Plausibilitäten nicht durchbrechen: Wir können kaum etwas Gesichertes über das Denken und Verhalten der vorzeitlichen Menschen aussagen. Das Kaninchen, das der Autor aus dem Hut zaubert, hat er zuvor hineingesteckt.

    Auch ist es fraglich, weil unbewiesen, ob man tatsächlich von "dem" Verhalten der vorzeitlichen Menschen sprechen kann. Was berechtigt uns zu der Annahme, dass beispielsweise die Europäer des Gravettien sich so verhalten haben wie die Europäer des Magdalénien? Und warum sollten die Jäger der Eiszeit so gelebt haben wie die Jäger in Namibia? Die Unterschiede unter den verbliebenen Jägern und Sammlern der Gegenwart sind doch so gewaltig, dass es schon eine drastische Vereinfachung darstellt, ungeachtet aller offensichtlichen Gemeinsamkeiten überhaupt von "den" Jägergesellschaften zu sprechen.

    Angesichts der überlieferten kulturellen Vielfalt der vorgeschichtlichen Gesellschaften ist es im Gegenteil sogar höchst plausibel, dass es keine einheitliche Verhaltensweise und Sozialstruktur gab. Den Typus Alphamännchen, Big Man, Häuptling und Politiker etc. mag es also zu allen Zeiten in allen Ausprägungen gegeben haben - bis heute.
  • Quantenverschränkung und lokaler Realismus

    09.12.2009, Prof. Dr. A. Kilian, Merseburg
    In SDW 12/09 schreibt Herr Dr. Brewig in seinem Leserbrief zum Thema quantenphysikalische Verschränkung, dass es keiner Fernwirkung bedürfe, um die beobachtete Koinzidenz der Messergebnisse zu erklären, weil ja die verschränkten Wellenfunktionen denselben Zustand beschreiben würden und daher die beobachtete Kopplung der Messergebnisse ganz natürlich sei. Dies wäre auch so, wenn die Wellenfunktion das Ergebnis der Messung bereits in sich tragen würde. Diese Vermutung ist als die Theorie der verborgenen Parameter lange bekannt, konnte aber nie bestätigt werden. Tatsächlich erlaubt die Wellenfunktion nur eine Vorhersage des Erwartungswerts, also des statistischen Mittelwerts bei sehr vielen Messungen, der Ausgang der Einzelmessung ist hingegen in der Regel völlig unbestimmt. Unter dieser Prämisse ist die heute wohl am weitesten verbreitete Folgerung aus den experimentellen Befunden, dass unsere Welt nicht "lokal-realistisch" ist.
  • Fragwürdige Beweisführung

    09.12.2009, Dr. Steffen Eckmann
    In obigem Artikel werden Beispiele für positive (Gaia-Hypothese) und insbesondere negative (Medea-Hypothese) Rückkopplungen der Biosphäre auf die Lebensgrundlagen aufgeführt. Hieraus ein allgemeines Prinzip abzuleiten ist jedoch fragwürdig, da es auf großen Zeitskalen die lebensexternen Ursachen – wie z. B. Supervulkanismus, Einschläge von Asteroiden oder Kometen sowie nahe Supernova- oder Gammastrahlenausbrüche – unterschätzt. In diesem Zusammenhang verwundert es sehr, wie der Autor alle Massensterben (bis auf das Kreide-Tertiär-Ereignis) der letzten 500 Millionen Jahre für die Medea-Hypothese vereinnahmt. Das Fehlen eines – aufgrund der enormen zeitlichen Distanzen immerhin sehr schwer zu führenden – schlüssigen Beweises für eine externe Ursache eines weit zurückliegenden Massensterbens bedeutet eben nicht, dass nicht doch eine solche Ursache vorlag. In der Medea-Hypothese scheint sich der moderne Zeitgeist zu spiegeln: Die beliebte These "Der Mensch zerstört seine Umwelt" wird eine Ebene höher transformiert: "Die Biosphäre zerstört
    ihre eigene Lebensgrundlage".
  • Ward ist fantasielos

    09.12.2009, Daniel Arnold, 91322 Gräfenberg
    Der Essay "Gaias böse Schwester", ist meiner Ansicht nach in erster Linie eine Polemik. Anscheinend ist die eigentliche (unerwähnte) Kritik des Autors an der Gaiatheorie, dass diese in jeder Form teleologisch sei. Dieser Eindruck verstärkte sich durch Anmerkungen wie "All das will nicht zu dem anheimelnden Gaia-Bild passen".

    Auch in einem Essay wie diesem kann man erwarten, dass die Regelmechanismen von Gaia nicht nur durch Aneinanderreihung von Details unklar darstellt werden. Wenigstens hätte der Autor die Funktionsweise von Gaia anhand eines einfachen Modells anschaulich erläutern können, wie Lovelocks Daisyworld [1], welches beschreibt, wie das Leben den Wärmehaushalt eines Planeten bei veränderlicher Strahlungsleistung seines Sterns regelt [2]. Die Zusammenfassung von Gaia auf Kernsätze muss daher wie Postulate einer quasireligiösen Theorie auf den Leser wirken. Dem stellt der Autor die globalen Katastrophen der Erdgeschichte gegenüber, welche er im Widerspruch zu Gaia sieht. So lässt sich leichtfertig argumentieren.

    Auch halte ich seine Ansicht, dass die Erde ohne Leben eine kohlendioxidreiche Atmosphäre wie der Mars oder die Venus hätte, für schlichtweg falsch. Auf der Erde gab und gibt es neben einer dichten Atmosphäre große Mengen offenen Wassers. Der allergrößte Teil des früheren Kohlendioxids der Erdatmosphäre ist in Form von in Wasser gebildetem Kalk gebunden. Würde das Leben heute verschwinden gäbe es immer noch die Ozeane, welche Kohlendioxid (wenn auch nicht mehr ganz so effektiv wie mit Leben) binden würden. Die Erde würde ohne Leben eine stickstoffreiche, sauerstoffarme Atmosphäre haben, deren Kohlendioxidanteil durch die Ozeane relativ niedrig gehalten wird. Auch die Venus dürfte am Beginn ihres galoppierenden Treibhauseffekts wenig Kohlendioxid in ihrer Atmosphäre gehabt haben. Vielmehr dürfte der Treibhauseffekt durch einen zu hohen Wasserdampfanteil ausgelöst worden sein, als die Venus komplett in Wolken gehüllt war und eine Zunahme des Wasserdampfes die Albedo nicht mehr erhöhen und somit keine weitere Kühlung mehr erreichen konnte. Erst als die Ozeane der Venus verdampft waren, konnte das vulkanische Kohlendioxid nicht mehr gebunden werden. Eine kohlendioxidreiche heiße Atmosphäre steht bei erdähnlichen Planeten also wohl erst ganz am Ende und nicht am Anfang eines galoppierenden Treibhauseffekts. Das heißt, rudimentäre Gaiaregelkreisläufe können sogar vollkommen abiotisch ablaufen.

    Vor allem in der Vergangenheit, aber auch noch heute sorgt das Leben durch einen geregelten Treibhauseffekt für eine mittlere optimale Temperatur. Dass ein einzelner Regelkreislauf durch einen Eingriff in seinen Mechanismus empfindlich gestört werden kann, ist nicht weiter verwunderlich, genauso wenig, dass der zeitweilige Ausfall eines einzelnen dominierenden Regelkreislaufs drastische Folgen haben kann. So geschehen bei der Sauerstoffrevolution mit dem Methanregler. Die methanerzeugenden Archaeen sind aber dennoch nicht von der Erde verschwunden. Zu ihrem heute nicht mehr dominanten, aber immer noch funktionsfähigen Regler kamen weitere biogene Temperaturregler hinzu, wie die Landpflanzen, welche unter anderem die Albedo der Erde beeinflussen (außerdem hat sich die Sonneneinstrahlung erhöht, sodass es weniger Temperaturerhöhung bedarf). Je mehr redundante gleichgerichtete Regelkreisläufe es gibt, desto stabiler reagiert das System auf Störung, ganz gleich welcher Art diese ist – dies kann natürlich auch eine biogene Störung sein. Es wäre doch viel merkwürdiger, wenn es überhaupt keine biogenen Störungen gegeben hätte. Dann würde Gaia doch noch viel teleologischer, ganz so als hätte das Leben einen ihm innewohnenden lenkenden Oberhirten. Gaia heißt nicht, dass es niemals Katastrophen gibt, sondern dass das Leben das Klima eines Planeten in der Summe (aber nicht auch stets in allen seinen Teilen) auf Werten stabilisiert, die dem Leben zuträglich sind.

    Wie stark dieser Stabilisierungseffekt ist, ist eine offene und wie ich finde auch spannende Frage, welche unmittelbar mit der Zukunft des Lebens auf der Erde in den nächsten 500 Millionen Jahren zusammenhängt. Ohne Zweifel wird es den gegenwärtigen natürlichen Treibhauseffekt durch die weiter erhöhte Sonneneinstrahlung dann nicht mehr brauchen – im Gegenteil, die Erde muss gekühlt werden. Dies kann auf verschiedenen Wegen geschehen:
    * Zum einen abiotisch durch Reflexion an Wolken und Eis, wie auch schon heute, zum anderen durch erhöhte Reflexion durch Landpflanzen. Schon heute gibt es sehr helle bis fast weiße Pflanzen ganz unterschiedlichster Ordnungen an lichtdurchfluteten Standorten: Kakteen mit ihren dichten hellen Stacheln, Pappeln und Sanddorn durch silbrige Blätter, ebenso viele Gräser. Diese sind gegenüber dunkelgrünen, stark absorbierenden Schattenpflanzen an diesen Standorten im Vorteil, und derartige Standorte werden in erdgeschichtlicher Zukunft mehr werden. Die Farbe der Pflanzen der Zukunft wird weiß-grün sein.
    * Wenn schon Landpflanzen durch konvergente Evolution mehrfach auf denselben Trick kamen, wieso dann nicht auch Algen im Meer? Vielleicht geschieht das zuerst im Wattenmeer und in Seen, wo durch Trockenfallen Algen mit Verdunstung klarkommen müssen und weißere Algen somit länger feucht blieben. Das Meer der Zukunft hätte dann keine grüne, sondern eine milchige Algenblüte, und das Meer würde insgesamt mehr hellblau werden.
    * Aber noch ein ganz anderer Regler wäre über die Verringerung der Dichte der Atmosphäre und somit größere Transparenz (dank nachlassender Druckverbreiterung von Absorptionslinien) auch im die Temperatur der Erde bestimmenden Infrarot möglich (vgl. [3]). Heute gibt es bereits Pflanzen, die sich auf schlechten Böden einen Standortvorteil durch Symbiose mit luftstickstoffbindenden Bakterien verschaffen. In Zukunft wird der Vulkanismus nachlassen, welcher fruchtbare Böden schafft und Gase in die Atmosphäre ausstößt. Stickstoffbindende Pflanzen werden also zunehmen, und zudem wird das Inertgas Stickstoff wieder in den Boden zurückgeführt, was ohne Leben nicht möglich wäre.

    All diese kühlenden Effekte könnten dann auch ausreichen, einen Mindestanteil von 1 bis 40 ppm Kohlendioxid, auf heutige Atmosphärendichte (je nach Pflanzentyp die untere Grenze für Photosynthese) bezogen, auch länger als 500 Millionen Jahre ohne galoppierenden Treibhauseffekt zu halten. Ich halte daher auch die derzeit in dieser Zeitschrift häufiger zu lesende Ansicht, dass das Leben in seiner Spätblüte sei und das heutige reiche Leben auf der Erde in 200 bis maximal 500 Millionen Jahren vorbei sei, für phantasielosen Defätismus, welchen ich mir auch zum Teil psychologisch als Ist-Sowieso-Egal- Antwort auf die in viel kürzeren Zeitspannen ablaufende drohende Selbstauslöschung der Menschheit in der aktuellen biogenen Katastrophe interpretiere.

    Die wirklich entscheidende Frage in Sinne der Tauglichkeit der Gaiatheorie ist also nicht, ob Gaia immer fürsorgend ist, sondern wie widerstandsfähig Gaia gegen alle Arten von Störungen ist und ob wirklich – und wenn ja, wie sehr – diese Widerstandsfähigkeit mit der Entwicklungszeit zunimmt. Eine Frage, deren erster Teil sich vielleicht auch durch die spektrale Untersuchung von erdähnlichen Exoplaneten in den nächsten Jahrzehnten entscheiden lassen kann, selbst wenn man dabei nur vollkommen abiotische Gaias entdecken sollte.

    [1] Ein Überblicksartikel zu Daisyworld siehe:
    http://de.wikipedia.org/wiki/Daisyworld
    [2] Eine interaktive Javasimulation von Daisyworld:
    http://gingerbooth.com/courseware/pages/demosdaisy.html
    [3] Atmospheric pressure as a natural climate regulator for a terrestrial planet with a biosphere:
    http://www.pnas.org/content/early/2009/06/01/0809436106.abstract
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.