Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
auch in Anbetracht der politischen Dimension der aktuellen Klimadiskussion werden Behauptungen durch Wiederholung nicht zutreffender.
Ich beziehe mich den Text "Wider den Klimanonsens": "Laut des Geological Survey der USA produzieren wir durch Abgase oder Brandrodung jährlich etwa 30 Milliarden Tonnen CO2 – mehr als 130-mal so viel wie Vulkane gegenwärtig ausstoßen."
Der italienische Ätna steuert an einem müden Tag rund zwei Kilotonnen CO2 bei, an Tagen mit erhöhter Aktivität können es auch mal vier Megatonnen sein. Dazu kommen erhebliche Mengen an SO2 und weitere Gase - 365 Tage im Jahr. Es werden weit über 1000 Vulkane als aktiv eingeschätzt, die in nicht unerheblichem Ausmaß auch ohne besondere Ausbrüche permanent Gase emittieren. Aktuelle Ausbrüche lassen sich ebenfalls zeitnah verfolgen (http://www.volcano.si.edu/).
Ein Blick auf den VEI-Index (Volcanic Explosive Index) gibt Aufschluss über die Dimensionen einer Eruption: - Pinatubo, VEI 5, 10 Milliarden Kubikmeter Auswurf - Krakatau, VEI 6, 18 Milliarden m³ - Tambora, VEI 7, 160 Milliarden m³ - Toba (Supervulkan), VEI 8, 2800 Millarden m³ Bereits ein "kleinerer" Ausbruch wie der des Pinatubo senkte im Folgejahr die Durchschnittstemperaturen weltweit um 0,5 Grad Celsius. Die obige Einschätzung von 0,2 Milliarden Tonnen CO2 (30/130) Emissionen durch Vulkane entbehrt meines Erachtens jeder Grundlage.
Mit freundlichen Grüssen Thomas Lindner
Stellungnahme der Redaktion
Sehr geehrter Herr Lindner,
vielen Dank für Ihre Zuschrift. John Rennie bezieht sich in seiner Aussage auf Daten des US Geological Survey. Zu ähnlichen Ergebnissen kommt eine Untersuchung von Nils-Axel Morner und Giuseppe Etiope aus dem Jahr 2002 im Journal "Global and Planetary Change" (Band 33, S. 185-203), die von 300 bis 600 Megatonnen CO2 pro Jahr durch Vulkane ausgehen, was immerhin einem bis zwei Prozent der anthropogenen Emissionen entspräche. Die Untersuchung basiert auf CO2-Messungen an einer ganzen Reihe von Vulkanen.
Zu noch geringeren Zahlen kommt eine Studie von Stanley Williams und seinen Kollegen aus dem Jahr 1992 im Journal "Geochimica et Cosmochimica Acta" (Band 56, S. 1765-1770), die ebenfalls auf weltweiten Daten beruht. Sie kommt zum Schluss, dass Vulkane sogar nur 30 bis 60 Millionen Tonnen CO2 emittieren - mithin 0,1 bis 0,2 Prozent der Menge, die durch Menschen freigesetzt wird.
Sie haben natürlich Recht, wenn Sie darauf verweisen, dass heftige Vulkaneruptionen das Klima beeinflussen - vor allem durch ihren Ausstoß an Schwefelverbindungen, die als eine Art Sonnenschirm abkühlend wirken. Im Gegensatz zum recht trägen Kohlendioxid verbleiben sie aber deutlich kürzer in der Atmosphäre und beeinflussen entsprechend auch das Klima weniger lang. Exakte Daten zu allen Vulkanen liegen ebenfalls nicht vor, da nur ein Teil dementsprechend überwacht wird: Aus den vorhandenen Daten wird daher extrapoliert, und so könnten die Werte auch noch etwas höher liegen. Doch selbst bei einer weiteren Verdoppelung der Emissionen lägen sie noch weit unter jenen aus Industrie und Waldrodung.
Die oben erwähnten Autoren bestätigen zudem, dass starker Vulkanismus in der Vergangenheit das Klima stark beeinflusst hat. Gegenwärtig spielen die CO2-Emissionen aus Vulkanismus jedoch nur eine untergeordnete Rolle.
Prof. Eberlein schreibt, dass die Banken den Kreditvermittlern übermäßig vertrauten. Hatten sie die nötige Fachkompetenz? Da hilft nur ein Gesetz: Wer mit dem Geld anderer fahrlässig umgeht, muss mit seinem Privatvermögen haften. Es ist inakzeptabel, wenn unsere Regierungen es zulassen, dass Gewinne privat vereinnahmt werden dürfen und Verluste von der Solidargemeinschaft getragen werden müssen.
Zwei Ökonomie-Nobelpreisträger haben den Hedge-Fonds LTCM (Long Term Capital Management) beraten, wo man meinte, die Investoren bei minimalem Risiko mit 40 Prozent pro Jahr belohnen zu können. Wie Paul Blustein in dem sehr lesenswerten Buch "The Chastening. Inside the Crisis that Rocked the Global Financial System and Humbled the IMF" (2001) beschreibt, hat sich in nur fünf Wochen alles in Rauch aufgelöst, was die Krise von 1998 näher denn je an den Punkt brachte, an dem die gesamte US-Ökonomie erschüttert worden wäre. Das war 10 Jahre vor der jetzigen Krise! Was haben wir daraus inzwischen gelernt?
Es gibt kein validiertes mathematisches Modell, das alle globalen ökonomischen Aktivitäten korrekt zu beschreiben gestattet. Das liegt am Menschen und seinem emotionalen Verhalten, das man in ein mathematisches Modell nicht quantitativ einbauen kann. Die Ökonomie ist in dieser Hinsicht viel schwieriger als die Physik. Sie braucht aber nicht nur gute Mathematik, sondern sollte auch biologische Tatsachen berücksichtigen (vor allem menschliche Zeitkonstanten) und, physikalisch gesprochen, eine Dämpfung wie bei den Stoßdämpfern am Auto ins System einbauen. Für gierige kurzfristige Spekulation bleibt dann kein Raum.
Umso mehr wir über die Frühgeschichte des Menschen erfahren, umso deutlicher wird, dass sich historisch langsame (im Vergleich zu Tieren jedoch unglaublich schnelle!), biokulturelle Evolutionsprozesse vollzogen, die dann - etwa bei Ansteigen der Bevölkerungsdichte - auch neue Ausdrucksformen fanden. Die Vorstellung, dass das Gehirn der Menschen erst in jüngerer Zeit zu entsprechenden Leistungen verschaltet worden wäre, wie dies etwa einige Vertreter einer "symbolischen Revolution" für etwa 40.000 Jahre vuZ vermuteten, ist dagegen auf dem Rückzug.
Danke dafür, dass spektrumdirekt immer wieder solche "kleinen" Spezialmeldungen sichtet und veröffentlicht, die sich im Gesamtbild zu neuen Gesamtansichten fügen!
Ihnen allen freudvolle Feiertage und viel Erfolg auch in 2010!
Heute, im Dezember 2009, ist schon mehr als ein Jahr vergangen seit dem Ende des Wettbewerbes. Zusammen mit Kurt Karlheinz Hugo Ballay schicke ich immer noch Beiträge. Für mich ist es ein kleines morgendliches Ritual geworden. Es ist wie das Drehen eines Kalenderblattes. Immer wieder eine neue Surf-Überraschung.
Was mich stört, ist der scharfe Ton, der schon auf einen gewissen Fanatismus bei zumindest Teilen der in dem derzeitigen Mainstream schwimmenden Forscher hindeutet. Dass der Mainstream nicht immer richtig liegt, ist historisch belegt. Auch hier ist die Möglichkeit eines Irrtums nicht ausgeschlossen, zumal die Materie sehr komplex und in großen Teilen noch nicht verstanden ist.
Es spricht allerdings nichts dagegen, sicherheitshalber den CO2-Ausstoß soweit wie möglich zurückzufahren. Es spricht aber auch nichts dagegen, die Möglichkeiten der Geoengineerings vorurteilsfrei zu untersuchen. Schließlich ist es immer besser, mehr als einen Pfeil im Köcher zu haben. Leider stößt so ein pragmatischer Ansatz zum Beispiel bei den Grünen wie auch großen Teilen der SPD (siehe das Verhalten des Ex-Umweltministers Gabriel beim Versuch, die Eisendüngung der Ozeane zu testen) auf völliges Unverständnis, ja sogar auf eine mit nichts Sinnvollem begründete krasse Ablehnung. Es ist zu hoffen, dass sich auch in diesen Politikkreisen irgendwann einmal vernünftiges Denken durchsetzt
Es bringt herzlich wenig Sachliches in die Diskussion, wenn ein paar Kritikpunkte genau mit den Argumenten widerlegt werden, die kritisiert worden sind. Die einzige Konstante am Klima ist dessen stetige Änderung seit 4 Milliarden Jahren, und das stellt auch niemand in Frage. Aber was sollen die verstiegenen Rechnungen, die behaupten, man könne durch Beeinflussung eines Gases das Klima insgesamt steuern? Und diese Berechnungen kommen ausnahmslos von Leuten, die noch vor wenigen Jahren behauptet haben, derartige (vereinfachte) Rechnungen seien absoluter Blödsinn. Herr Latif ist beispielsweise in den 1990er Jahren wiederholt in den Medien aufgetreten, um die Eiszeit herbeizureden, und nun? Solche 180-Grad-Kehrwendungen schaffen nun nicht gerade Vertrauen.
schon seit ein paar Jahren lese ich Ihre Artikel und offensichtlich gefallen sie mir sehr gut, sonst wäre ich nicht so lange dabei.
Allerdings hat das zum Artikel gehörende Video bei mir einiges "Stirnrunzeln" verursacht. Zwar stammt das Video aus den USA und bin mir auch bewusst, dass in der Bundesrepublik derartige Experimente (auch reine Verhaltensexperimente!) bei Vertebraten als Tierversuch eingestuft werden und mit entsprechend Auflagen versehen sind. Dennoch finde ich es nicht schön, dass derartige Videos so öffentlich gezeigt werden. Offensichtlich wird mit einer gewissen Kraft an dem Tier gezogen, was mutmaßlich für das Tier (in irgendeiner Form) unangenehm ist.
Es ist ein gefundenes Fressen für "Extrem-Tierschützer", die am liebsten jegliche Tierexperimente zu Forschungszwecken verbieten würden. (Der Begriff "Extrem-Tierschützer" ist hier keineswegs polemisch gemeint. Nur ich kenne keinen passenden Begriff um sie von gemäßigten Tierschützern abzugrenzen.) Vielleicht hätte es eine Großaufnahme von einem der Saugnäpfe zur Illustration auch getan?
Mit freundlichen Grüßen In Sorge S. Form
Stellungnahme der Redaktion
Sehr geehrter Herr Form,
soweit ich weiß, darf in den Vereinigten Staaten keinem Tier unnötig Leid zugefügt werden. Ich gehe daher davon aus, dass der Forscher keine "rohe Gewalt" anwendet.
Der Artikel greift eine viel zu wenig diskutierte Problematik auf. Allerdings gibt es drei Dinge kritisch einzuwenden: 1) Statt mehr und anspruchsvollerer Mathematik und deswegen mehr mathematischer Kompetenz in den Banken brauchen wir vielmehr leichter zu benutzende Modelle, die auch von Menschen mit durchschnittlicher mathematischer Begabung zu verstehen sind. Für die anspruchsvollere Technik in Autos soll man nicht bessere Fahrer fordern, sondern dass die anspruchsvolle Technik so verpackt wird, dass sie leicht zu bedienen ist. Das vermindert das Risiko in der Anwendung und steigert die Produktivität.
2) Eine Grundannahme der mathematischen Modelle ist, dass ich in der Lage bin, Einschätzungen über die mögliche Zukunftsentwicklung eines Preises zu gewinnen. Benoit Mandelbrot schlägt eine fraktale Modellierung der Kurse vor (naheliegenderweise, da er dieses Thema entdeckt hat), er sagt aber auch, dass es noch 30 Jahre dauern wird, bis eine zufriedenstellende Modellierung des Chaos/der Unbestimmbarkeit möglich scheint. Im Zusammenhang mit dem Artikel ist es sehr wichtig zu verstehen, wie stark die Aussagekraft der Modelle überhaupt sein kann. Dies wird in dem Artikel aber nicht beleuchtet; wie kann man den Anwendern mangelnde Kompetenz vorwerfen, wenn sie nie verstanden haben konnten, wo die Grenzen der Modelle überhaupt liegen? Obendrein reicht es eben nicht aus, die Modelle einfach nur zu verstehen wie ein Mathematiker. Vielmehr ist es erforderlich, eine Risikokultur zu etablieren, welche eine Organisation als Ganzes in die Lage versetzt, mit den Risiken adäquat umzugehen. Das lässt sich aber nicht quantitativ erreichen, sondern ist eine Management-Aufgabe und eine philosophische Aufgabe, bei der es sehr hilfreich wäre, wenn die Forschung mindestens in der Lage wäre, die Restriktionen der Modelle zu qualifizieren.
3) Der Artikel handelt ja von unserer aktuellen Krise, schweigt aber über den Fall LCTM von 1998. LTCM war ein Hedge-Fonds, der im Zuge der Asien-Finanzkrise von 1998 unterging. Zu den Angestellten von LTCM gehörten Myron Samuel Scholes und Robert C. Merton, die Nobelpreisträger für eben jenes Standardmodell. Die aktuelle Krise ist also keineswegs die erste, in der die Modelle eine tragende Rolle spielen; das war im Prinzip die von 1987. Das Problem ist alles andere als neu. Man kann also nicht behaupten, dass die Modelle bisher in der Lage waren, Krisen zu verhindern, und ich glaube, das werden sie auch nie können, selbst wenn eine Bank nur von Mathematikern betrieben würde.
Abgesehen von den rein praktischen Schwierigkeiten, die Kausalitäten im Markt vollständig zu erfassen - de facto totale Markttransparenz herzustellen -, würde die Herstellung der Markttransparenz selbst in hohem Maße mit dem Markt wechselwirken und ihn beeinflussen, was wiederum zu einem unendlichen Regress führen würde. Ich wäre also nie in der Lage, den Einfluss meines eigenen Modells auf sich selbst zu erklären, was wiederum zu einer eingeschränkten Aussagekraft führen würde.
Genau das sind auch die Diskussionspunkte, die ich für wichtig halte und die in der Anwendung der Modelle eine maßgebliche Rolle spielen müssen. Den Managern vor diesem Hintergrund mangelnde Kompetenz vorzuwerfen, halte ich so für nicht akzeptabel.
Stellungnahme der Redaktion
1) Die Forderung nach leichter zu benutzenden Modellen verkennt den Stellenwert, den der rasante technische Fortschritt in jeder Hightech-Industrie hat und den somit das Risikomanagement in den großen international agierenden Banken haben sollte. Wer in dieser Liga spielen möchte, kommt um den Aufbau des erforderlichen Knowhows im Hause nicht herum. Die Vorstellung, dass es sich hierbei um eine lästige Routineaufgabe handelt, die man mit 'bedienungsfreundlich verpackten Systemen' erledigen kann, verkennt die Dynamik, die in der Entwicklung moderner Finanzinstrumente wie etwa CDOs liegt. Es gibt eine ganze Industrie, die Risikomanagementsysteme entwickelt. Aus gutem Grunde verlassen sich die Spitzeninstitute nur auf Systeme, bei denen sie jede Modellannahme und jede Programmzeile der Implementierung selbst verstehen. Eine black box zu benutzen, kann auf diesem Feld keinem Institut empfohlen werden. Angesichts von Investitionen in der Größenordnung von vielen Milliarden, die mit solchen Systemen analysiert werden, handelt sich hier eben nicht um ein Massenprodukt, das für den technisch unversierten Endverbraucher möglichst bedienungsfreundlich verpackt werden muss. Um ein weiteres Bild zu gebrauchen: Kaum jemand wird die großen Fortschritte in der Herzchirurgie loben, dank derer das Leben vieler Menschen verlängert werden kann, und gleichzeitig die Forderung erheben, dass die Technik so vereinfacht werden muss, dass ein praktischer Arzt in der Lage ist, ein Herz zu verpflanzen.
2) Mit Hilfe von finanzmathematischen Modellen lassen sich Risiken quantifizieren und somit Entscheidungsprozesse unterstützen. Ohne hinreichendes Verständnis der dabei verwendeten Begriffe (wie etwa verschiedene Risikomaße oder Modellannahmen) kommt man leicht zu Fehlurteilen. Ein einfaches Beispiel hierzu: In einer sonst ernst zu nehmenden überregionalen Tageszeitung habe ich Sätze gelesen wie 'Der Value at Risk (VaR) bezeichnet den maximalen Verlust, den ein Portfolio erleiden kann'. Wer ein einfaches statistisches Konzept wie das Quantil einer Verteilung so gründlich missversteht, darf sich nicht wundern, wenn er zu Fehlurteilen kommt. Aus diesem Grunde habe ich ausdrücklich hervorgehoben, dass modernes Risikomanagement eine Teamaufgabe ist, die Expertise aus mehreren Bereichen erfordert. Mathematik ist dabei nur ein, allerdings wesentlicher Bereich. Richtigerweise stellt der Schreiber des Leserbriefs noch einmal fest, dass das Risikomanagement in die Gesamtunternehmenskultur an der richtigen Stelle eingebettet sein muss, um wirksam werden zu können. Es ist zu hoffen, dass dies eine der Lehren ist, die solche Unternehmen aus der Krise ziehen werden, die diesen Unternehmensbereich bisher auf einer zu niedrigen Ebene angesiedelt hatten.
Der Äußerung, dass die Forschung nicht in der Lage wäre, die Restriktionen der Modelle aufzuzeigen, kann ich entgegenhalten, dass ich seit Beginn der 1990er Jahre diese Restriktionen in einer ganzen Reihe von Veröffentlichungen untersucht und dargestellt habe. Damit bin ich im Übrigen keineswegs allein.
3) Über den Fall LTCM vor mehr als zehn Jahren sind inzwischen nicht nur viele Artikel, sondern ganze Bücher geschrieben worden. Dem ist nicht mehr viel hinzuzufügen. Betont werden sollte, dass die Mittel, die von einem Bankenkonsortium unter der Führung der US-Notenbank eingesetzt wurden, um eine folgenschwerere Krise zu vermeiden, gut angelegt waren. Durch die bestens gemanagte Abwicklung der von LTCM eingegangenen Positionen in den folgenden Jahren wurden weitere Verluste vermieden, ohne dass die finanzierenden Banken selbst Verluste erlitten hätten. Insofern war die damalige Vorgehensweise von Notenbank und Finanzindustrie sehr erfolgreich. Die LTCM-Krise wurde nicht durch Modelle verursacht, sondern durch das Eingehen von Risiken, für deren Beherrschung nicht genügend Eigenkapital zur Verfügung stand. Dies gilt auch für die jetzige um vieles größere Krise. Hinzugekommen sind jetzt vor allem die systemischen Effekte. Modelle können Fehlentscheidungen und als deren Folge Krisen nicht verhindern. Modelle können nur helfen, richtige Entscheidungen zu fällen. Sie unterstützen das Management, können dieses jedoch nicht ersetzen. Es wird in der Diskussion über die Krise häufig vergessen, dass eine ganze Reihe von Banken dank erfolgreichen Risikomanagements bestens über die Krise gekommen sind.
Es heißt an einer Stelle im Text: "(...), dass die zahlreichen Forscher, die hier anders denken als er [von Storch], aus guten fachlichen Gründen zu ihrer Einschätzung gekommen sind." Das ist polemisch und letztlich unzutreffend. Sachlich wäre es völlig leidenschaftslos zu sagen was passiert, wenn es so weitergeht: Die Meerespiegel steigen, wodurch Inselstaaten bedroht sind oder Korallenriffe. Die Temperaturen werden steigen und zu einer globalen Erwärmung führen usw.
Da hört die Sachlichkeit aber schon auf. So stellt sich die Diskussion aber nicht dar: Man geht nach Kopenhagen und schreit "Alarm!", weil man sachlich und nüchtern das Klima der Zukunft prognostiziert hat. Man muss was tun! Insofern irrt Herr Rahmstorf. Er ist genau so wenig sachlich wie Herr von Storch. Er vertritt seine persönliche Meinung. Ob er die besseren Daten hat und seine Prognosen daher zutreffender sind als die anderer Forscher steht gar nicht zur Debatte.
Es geht doch nur darum: der eine will das Klima ändern, der andere nicht so sehr. das ist alles Ansichtssache und beruht nur auf persönlichem Empfinden.
14.12.2009, Mag. Johann Angsüsser, Physikprof. BORG PERG
Ohne Herrn Dr. Brewig zu nahe treten zu wollen, scheint er mir das Wesen der EPR-Paare nicht ganz verstanden zu haben, wenn er "keine Fernwirkung benötigt". Die verschränkte Wellenfunktion ist nämlich nur die halbe Miete der ganzen Sache, so richtig seltsam wird die Sache erst durch den Kollaps der Wellenfunktion durch eine Messung.
Vielleicht ein Beispiel, das das Rätsel der "spukhaften Fernwirkung" (O-Ton Einstein) etwas klarer macht: Sie erzeugen Photonenpaare, die sich im selben Polarisationszustand α befinden. Sie stellen auf der Erde und auf Beteigeuze zwei Pol-Filter auf, deren Stellung Sie kurz vor dem Eintreffen der Photonen (durch einen Zufallsgenerator) einstellen und zwar so, dass das Photon eine Trillionstelsekunde vor dem auf Beteigeuze gemessen wird. Der gemessene Polarisationszustand auf der Erde beeinflusst also den Polarisationszustand auf Beteigeuze.
Greifen wir eine Messreihe heraus: Auf der Erde befindet sich der Polfilter in Durchlassrichtung β. Die Durchlasswahrscheinlichkeit ist cos2(α - β). Nehmen wir an, die Photonen sind nummeriert und 5,6,10,12,16,20, ... kommen durch. Durch die Messung befinden sich die Geschwister von 5,6,10,12,16,20, ... nicht mehr im Anfangszustand &alpha, sondern im Zustand β. Ihre Durchlasswahrscheinlichkeit auf einen Polfilter mit Winkel γ auf Beteigeuze ist also cos2(γ - β). Obige Ergebnisse lassen sich durch einfaches Zählen der Photonen verifizieren bzw. falsifizieren.
So und jetzt haben wir den Salat: Die Durchlasswahrscheinlichkeit auf Beteigeuze hängt für gewisse Photonen vom Einstellungswinkel &beta auf der Erde ab. Und noch besser: Herr Bell hat bewiesen, das sich dieses Verhalten nicht mit verborgenen, inhärenten Eigenschaften der Photonen verträgt.
In der obigen Betrachtung kommen Begriffe früher oder später vor, Begriffe, die in der Relativitätstheorie als relativ gedeutet werden (zumindest wenn die Ereignisse im selben Lichtkegel liegen) und daher keine absolute Gültigkeit haben dürften. Beide Theorien sind aber experimentell gut abgesichert.
Herr Rahmstorf stellt den Emissionshandel als einfache Lösung aller Klimaprobleme dar. Doch wie kann sichergestellt werden, dass mit den von den Industriestaaten zur Verfügung gestellten Geldern tatsächlich in den Schwellen- und Entwicklungsländern "ein klimafreundliches Energiesystem" aufgebaut wird?
Seit Jahrzehnten versickern EU-Milliarden zum Bau von Kläranlagen und Müllverbrennungsanlagen in Süditalien in dunkle Kanäle; mit den Afghanistan-Hilfsgeldern der UN war es ähnlich. Es gibt wenig Grund anzunehmen, dass die Verwendung der Emissionszertifikatserlöse in Ländern wie Indien, Pakistan oder Kongo besser kontrollierbar wäre.
Gut kontrollierbar wären nur direkte Maßnahmen bei uns, die höchstwahrscheinlich aber teurer und/oder entbehrungsreicher wären als die zwanzig bis sechzig Euro "Klimaspende" pro Person und Jahr, die Herr Rahmstorf nennt.
Führt die Möglichkeit, von Entwicklungsländern Emissionszertifikate zu erwerben, nicht dazu, dass hochentwickelte Länder die eigene harte Umstellung auf den Sankt Nimmerleinstag verschieben?
wird nicht funktionieren, da die Erschütterungen ganz einfach zu groß sind. Im fahrenden Auto ist nicht einmal herkömmliches Blutdruckmessen möglich. Und außerdem kann man im Auto ohnehin nichts machen, bei Schlaganfallpatienten z.B. Der immer wieder angesprochene Tricorder nutzt nur was, wenns auch eine sofortige therapeutische Konsequenz gibt. Die NMR-Maus in der Medizin hat auch das Problem, dass sich daraus zwar Zusammensetzungen der Materie (die ja in der Medizin im Allgemeinen bekannt sind) analysieren lassen, aber zur Bildgebung, und nur die bringt was, braucht man dann heute noch schrankgroße Rechner und eine "Rundumantwort" und nicht nur eine begrenzte Eindringtiefe.
12.12.2009, Harald Schmidt, 3423 St. Andrä - Wördern
Der Autor hat wohl etwas ältere Daten der HDDs verwendet. 7200 min-1 sind die Standardgeschwindigkeit seit 1-2 Jahren in normalen Heim-PCs bei 3,5" Festplatten. Echte Serverplatten (und dort braucht man sehr viel mehr Temo) laufen schon seit Längerem (Jahren) mit 15.000 min-1. Diese SCSI oder SAS Platten sind noch dazu dauerbetriebsfest, was bei den Heim-PC-Platten ja nicht der Fall ist. Ein großes Problem der derzeitigen HDDs werden aber die Nanodraht-Speicher nicht lösen können: die magnetische Beeinflußbarkeit. Wer auf eine Notebook-Platte schon mal ein Handy gelegt hat, dass dann angerufen wurde, kennt das Problem. Damit hat man ganz schnell mal die Daten unbrauchbar gemacht. Das ist aber bei jeder magnetischen Datenspeicherung so, und im Prinzip ist’s ja auch eine, sonst gäbe es ja keinen Kernspintomografen.
Die Idee, Astronomie als Unterrichtsfach zu lehren, ist prinzipiell gut. Ich bin selber Mathe-, Physik- und Astronomielehrer und habe als solcher sehr viel Erfahrung als Leiter einer Astronomiestation in Mecklenburg-Vorpommern gesammelt. Heute bin ich in Hessen Lehrer und muss feststellen, das es viele Baustellen im Fächerkanon gibt, die noch lange nicht geschlossen werden können. Ein neues Fach bringt nichts. Die Argumente des fächerübergreifenden Unterrichts kann jedes Fach für sich in Anspruch nehmen. Auch Philosophie, Geschichte und andere Kulturtechniken können sich Schüler dort aneignen.
Wenn die Möglichkeiten vorhanden sind, können Arbeitsgemeinschaften und ähnliches sinnvoll sein. Wenn Jugendliche ihr Interesse an der Astronomie entdecken sollten, dann finden sie auch Wege, dieses zu vertiefen. Ein Pflichtfach ist dabei selten förderlich.
Der Name "Finanzmathematik" ist eigentlich ein Schmücken mit fremden Federn. Das Interesse dieser Disziplin ist das Geld und nicht die Mathematik, demnach müsste es "Mathematische Finanzlehre" oder "Mathematische Finanztheorie" oder ähnlich heißen. Es heißt ja auch "Mathematische Physik" und nicht "Physikmathematik".
Stellungnahme der Redaktion
Widerspruch!
Das Interesse der Finanzmathematik ist die Mathematik und nicht das Geld. Die Finanzen sind für die Finanzmathematik insofern wesentlich, als sie die Probleme liefern, mit denen sich die Mathematiker beschäftigen. So verhält es sich übrigens auch mit der Physik. Allerdings heißt der entsprechende Teil nicht "Physikmathematik", sondern "angewandte Mathematik" – aus historischen Gründen, vermute ich. Dort findet sich nicht selten die jeder Bestrebung nach korrekten Etiketten spottende Situation, dass von zwei Leuten, die an ein und derselben Sache arbeiten, der eine sie der angewandten Mathematik zuordnet und der andere der mathematischen Physik. Das einzige, was sie unterscheidet, ist die Motivation.
Kontribution durch Vulkane
22.12.2009, Thomas Lindner, 69207 Sandhausenauch in Anbetracht der politischen Dimension der aktuellen Klimadiskussion werden Behauptungen durch Wiederholung nicht zutreffender.
Ich beziehe mich den Text "Wider den Klimanonsens":
"Laut des Geological Survey der USA produzieren wir durch Abgase oder Brandrodung jährlich etwa 30 Milliarden Tonnen CO2 – mehr als 130-mal so viel wie Vulkane gegenwärtig ausstoßen."
Bereits mit mäßigem Aufwand lassen sich auf seriösen Internetseiten mit wissenschaftlichem Anspruch (wie z.B. http://adsabs.harvard.edu,http://www.springerlink.com/content/3v1474623q351756/fulltext.pdf?page=1) verwertbare Daten recherchieren.
Der italienische Ätna steuert an einem müden Tag rund zwei Kilotonnen CO2 bei, an Tagen mit erhöhter Aktivität können es auch mal vier Megatonnen sein. Dazu kommen erhebliche Mengen an SO2 und weitere Gase - 365 Tage im Jahr. Es werden weit über 1000 Vulkane als aktiv eingeschätzt, die in nicht unerheblichem Ausmaß auch ohne besondere Ausbrüche permanent Gase emittieren. Aktuelle Ausbrüche lassen sich ebenfalls zeitnah verfolgen (http://www.volcano.si.edu/).
Ein Blick auf den VEI-Index (Volcanic Explosive Index) gibt Aufschluss über die Dimensionen einer Eruption:
- Pinatubo, VEI 5, 10 Milliarden Kubikmeter Auswurf
- Krakatau, VEI 6, 18 Milliarden m³
- Tambora, VEI 7, 160 Milliarden m³
- Toba (Supervulkan), VEI 8, 2800 Millarden m³
Bereits ein "kleinerer" Ausbruch wie der des Pinatubo senkte im Folgejahr die Durchschnittstemperaturen weltweit um 0,5 Grad Celsius. Die obige Einschätzung von 0,2 Milliarden Tonnen CO2 (30/130) Emissionen durch Vulkane entbehrt meines Erachtens jeder Grundlage.
Mit freundlichen Grüssen
Thomas Lindner
Sehr geehrter Herr Lindner,
vielen Dank für Ihre Zuschrift. John Rennie bezieht sich in seiner Aussage auf Daten des US Geological Survey. Zu ähnlichen Ergebnissen kommt eine Untersuchung von Nils-Axel Morner und Giuseppe Etiope aus dem Jahr 2002 im Journal "Global and Planetary Change" (Band 33, S. 185-203), die von 300 bis 600 Megatonnen CO2 pro Jahr durch Vulkane ausgehen, was immerhin einem bis zwei Prozent der anthropogenen Emissionen entspräche. Die Untersuchung basiert auf CO2-Messungen an einer ganzen Reihe von Vulkanen.
Zu noch geringeren Zahlen kommt eine Studie von Stanley Williams und seinen Kollegen aus dem Jahr 1992 im Journal "Geochimica et Cosmochimica Acta" (Band 56, S. 1765-1770), die ebenfalls auf weltweiten Daten beruht. Sie kommt zum Schluss, dass Vulkane sogar nur 30 bis 60 Millionen Tonnen CO2 emittieren - mithin 0,1 bis 0,2 Prozent der Menge, die durch Menschen freigesetzt wird.
Sie haben natürlich Recht, wenn Sie darauf verweisen, dass heftige Vulkaneruptionen das Klima beeinflussen - vor allem durch ihren Ausstoß an Schwefelverbindungen, die als eine Art Sonnenschirm abkühlend wirken. Im Gegensatz zum recht trägen Kohlendioxid verbleiben sie aber deutlich kürzer in der Atmosphäre und beeinflussen entsprechend auch das Klima weniger lang. Exakte Daten zu allen Vulkanen liegen ebenfalls nicht vor, da nur ein Teil dementsprechend überwacht wird: Aus den vorhandenen Daten wird daher extrapoliert, und so könnten die Werte auch noch etwas höher liegen. Doch selbst bei einer weiteren Verdoppelung der Emissionen lägen sie noch weit unter jenen aus Industrie und Waldrodung.
Die oben erwähnten Autoren bestätigen zudem, dass starker Vulkanismus in der Vergangenheit das Klima stark beeinflusst hat. Gegenwärtig spielen die CO2-Emissionen aus Vulkanismus jedoch nur eine untergeordnete Rolle.
Mit freundlichen Grüßen
Daniel Lingenhöhl
Redaktion spektrumdirekt
Haftung der Banker
21.12.2009, Otto Schult, JülichZwei Ökonomie-Nobelpreisträger haben den Hedge-Fonds LTCM (Long Term Capital Management) beraten, wo man meinte, die Investoren bei minimalem Risiko mit 40 Prozent pro Jahr belohnen zu können. Wie Paul Blustein in dem sehr lesenswerten Buch "The Chastening. Inside the Crisis that Rocked the Global Financial System and Humbled the IMF" (2001) beschreibt, hat sich in nur fünf Wochen alles in Rauch aufgelöst, was die Krise von 1998 näher denn je an den Punkt brachte, an dem die gesamte US-Ökonomie erschüttert worden wäre. Das war 10 Jahre vor der jetzigen Krise! Was haben wir daraus inzwischen gelernt?
Es gibt kein validiertes mathematisches Modell, das alle globalen ökonomischen Aktivitäten korrekt zu beschreiben gestattet. Das liegt am Menschen und seinem emotionalen Verhalten, das man in ein mathematisches Modell nicht quantitativ einbauen kann. Die Ökonomie ist in dieser Hinsicht viel schwieriger als die Physik. Sie braucht aber nicht nur gute Mathematik, sondern sollte auch biologische Tatsachen berücksichtigen (vor allem menschliche Zeitkonstanten) und, physikalisch gesprochen, eine Dämpfung wie bei den Stoßdämpfern am Auto ins System einbauen. Für gierige kurzfristige Spekulation bleibt dann kein Raum.
Biokulturelle Evolutionsprozesse
20.12.2009, Dr. Michael BlumeDanke dafür, dass spektrumdirekt immer wieder solche "kleinen" Spezialmeldungen sichtet und veröffentlicht, die sich im Gesamtbild zu neuen Gesamtansichten fügen!
Ihnen allen freudvolle Feiertage und viel Erfolg auch in 2010!
Mathematik-Kunst-Wettbewerb
17.12.2009, Eduard BaumannVertrauenssache
16.12.2009, Fritz Kronberg, RondeshagenEs spricht allerdings nichts dagegen, sicherheitshalber den CO2-Ausstoß soweit wie möglich zurückzufahren. Es spricht aber auch nichts dagegen, die Möglichkeiten der Geoengineerings vorurteilsfrei zu untersuchen. Schließlich ist es immer besser, mehr als einen Pfeil im Köcher zu haben. Leider stößt so ein pragmatischer Ansatz zum Beispiel bei den Grünen wie auch großen Teilen der SPD (siehe das Verhalten des Ex-Umweltministers Gabriel beim Versuch, die Eisendüngung der Ozeane zu testen) auf völliges Unverständnis, ja sogar auf eine mit nichts Sinnvollem begründete krasse Ablehnung. Es ist zu hoffen, dass sich auch in diesen Politikkreisen irgendwann einmal vernünftiges Denken durchsetzt
Das ist Religion, keine Wissenschaft
16.12.2009, Dr. Gilbert Brands, KrummhörnVerhaltensforschung?
15.12.2009, 97072 Würzburgschon seit ein paar Jahren lese ich Ihre Artikel und offensichtlich gefallen sie mir sehr gut, sonst wäre ich nicht so lange dabei.
Allerdings hat das zum Artikel gehörende Video bei mir einiges "Stirnrunzeln" verursacht. Zwar stammt das Video aus den USA und bin mir auch bewusst, dass in der Bundesrepublik derartige Experimente (auch reine Verhaltensexperimente!) bei Vertebraten als Tierversuch eingestuft werden und mit entsprechend Auflagen versehen sind. Dennoch finde ich es nicht schön, dass derartige Videos so öffentlich gezeigt werden. Offensichtlich wird mit einer gewissen Kraft an dem Tier gezogen, was mutmaßlich für das Tier (in irgendeiner Form) unangenehm ist.
Es ist ein gefundenes Fressen für "Extrem-Tierschützer", die am liebsten jegliche Tierexperimente zu Forschungszwecken verbieten würden. (Der Begriff "Extrem-Tierschützer" ist hier keineswegs polemisch gemeint. Nur ich kenne keinen passenden Begriff um sie von gemäßigten Tierschützern abzugrenzen.) Vielleicht hätte es eine Großaufnahme von einem der Saugnäpfe zur Illustration auch getan?
Mit freundlichen Grüßen
In Sorge
S. Form
Sehr geehrter Herr Form,
soweit ich weiß, darf in den Vereinigten Staaten keinem Tier unnötig Leid zugefügt werden. Ich gehe daher davon aus, dass der Forscher keine "rohe Gewalt" anwendet.
Mit freundlichen Grüßen
Daniel Lingenhöhl
Redaktion spektrumdirekt
Nicht bessere Fahrer fordern, sondern bessere Autos
15.12.2009, Stephan Fröde1) Statt mehr und anspruchsvollerer Mathematik und deswegen mehr mathematischer Kompetenz in den Banken brauchen wir vielmehr leichter zu benutzende Modelle, die auch von Menschen mit durchschnittlicher mathematischer Begabung zu verstehen sind. Für die anspruchsvollere Technik in Autos soll man nicht bessere Fahrer fordern, sondern dass die anspruchsvolle Technik so verpackt wird, dass sie leicht zu bedienen ist. Das vermindert das Risiko in der Anwendung und steigert die Produktivität.
2) Eine Grundannahme der mathematischen Modelle ist, dass ich in der Lage bin, Einschätzungen über die mögliche Zukunftsentwicklung eines Preises zu gewinnen. Benoit Mandelbrot schlägt eine fraktale Modellierung der Kurse vor (naheliegenderweise, da er dieses Thema entdeckt hat), er sagt aber auch, dass es noch 30 Jahre dauern wird, bis eine zufriedenstellende Modellierung des Chaos/der Unbestimmbarkeit möglich scheint.
Im Zusammenhang mit dem Artikel ist es sehr wichtig zu verstehen, wie stark die Aussagekraft der Modelle überhaupt sein kann. Dies wird in dem Artikel aber nicht beleuchtet; wie kann man den Anwendern mangelnde Kompetenz vorwerfen, wenn sie nie verstanden haben konnten, wo die Grenzen der Modelle überhaupt liegen? Obendrein reicht es eben nicht aus, die Modelle einfach nur zu verstehen wie ein Mathematiker. Vielmehr ist es erforderlich, eine Risikokultur zu etablieren, welche eine Organisation als Ganzes in die Lage versetzt, mit den Risiken adäquat umzugehen. Das lässt sich aber nicht quantitativ erreichen, sondern ist eine Management-Aufgabe und eine philosophische Aufgabe, bei der es sehr hilfreich wäre, wenn die Forschung mindestens in der Lage wäre, die Restriktionen der Modelle zu qualifizieren.
3) Der Artikel handelt ja von unserer aktuellen Krise, schweigt aber über den Fall LCTM von 1998. LTCM war ein Hedge-Fonds, der im Zuge der Asien-Finanzkrise von 1998 unterging. Zu den Angestellten von LTCM gehörten Myron Samuel Scholes und Robert C. Merton, die Nobelpreisträger für eben jenes Standardmodell. Die aktuelle Krise ist also keineswegs die erste, in der die Modelle eine tragende Rolle spielen; das war im Prinzip die von 1987. Das Problem ist alles andere als neu.
Man kann also nicht behaupten, dass die Modelle bisher in der Lage waren, Krisen zu verhindern, und ich glaube, das werden sie auch nie können, selbst wenn eine Bank nur von Mathematikern betrieben würde.
Abgesehen von den rein praktischen Schwierigkeiten, die Kausalitäten im Markt vollständig zu erfassen - de facto totale Markttransparenz herzustellen -, würde die Herstellung der Markttransparenz selbst in hohem Maße mit dem Markt wechselwirken und ihn beeinflussen, was wiederum zu einem unendlichen Regress führen würde. Ich wäre also nie in der Lage, den Einfluss meines eigenen Modells auf sich selbst zu erklären, was wiederum zu einer eingeschränkten Aussagekraft führen würde.
Genau das sind auch die Diskussionspunkte, die ich für wichtig halte und die in der Anwendung der Modelle eine maßgebliche Rolle spielen müssen. Den Managern vor diesem Hintergrund mangelnde Kompetenz vorzuwerfen, halte ich so für nicht akzeptabel.
1) Die Forderung nach leichter zu benutzenden Modellen verkennt den Stellenwert, den der rasante technische Fortschritt in jeder Hightech-Industrie hat und den somit das Risikomanagement in den großen international agierenden Banken haben sollte. Wer in dieser Liga spielen möchte, kommt um den Aufbau des erforderlichen Knowhows im Hause nicht herum. Die Vorstellung, dass es sich hierbei um eine lästige Routineaufgabe handelt, die man mit 'bedienungsfreundlich verpackten Systemen' erledigen kann, verkennt die Dynamik, die in der Entwicklung moderner Finanzinstrumente wie etwa CDOs liegt. Es gibt eine ganze Industrie, die Risikomanagementsysteme entwickelt. Aus gutem Grunde verlassen sich die Spitzeninstitute nur auf Systeme, bei denen sie jede Modellannahme und jede Programmzeile der Implementierung selbst verstehen. Eine black box zu benutzen, kann auf diesem Feld keinem Institut empfohlen werden. Angesichts von Investitionen in der Größenordnung von vielen Milliarden, die mit solchen Systemen analysiert werden, handelt sich hier eben nicht um ein Massenprodukt, das für den technisch unversierten Endverbraucher möglichst bedienungsfreundlich verpackt werden muss. Um ein weiteres Bild zu gebrauchen: Kaum jemand wird die großen Fortschritte in der Herzchirurgie loben, dank derer das Leben vieler Menschen verlängert werden kann, und gleichzeitig die Forderung erheben, dass die Technik so vereinfacht werden muss, dass ein praktischer Arzt in der Lage ist, ein Herz zu verpflanzen.
2) Mit Hilfe von finanzmathematischen Modellen lassen sich Risiken quantifizieren und somit Entscheidungsprozesse unterstützen. Ohne hinreichendes Verständnis der dabei verwendeten Begriffe (wie etwa verschiedene Risikomaße oder
Modellannahmen) kommt man leicht zu Fehlurteilen. Ein einfaches Beispiel hierzu: In einer sonst ernst zu nehmenden überregionalen Tageszeitung habe ich Sätze gelesen wie 'Der Value at Risk (VaR) bezeichnet den maximalen Verlust, den ein Portfolio erleiden kann'. Wer ein einfaches statistisches Konzept wie das Quantil einer Verteilung so gründlich missversteht, darf sich nicht wundern, wenn er zu Fehlurteilen kommt. Aus diesem Grunde habe ich ausdrücklich hervorgehoben, dass modernes Risikomanagement eine Teamaufgabe ist, die Expertise aus mehreren Bereichen erfordert. Mathematik ist dabei nur ein, allerdings wesentlicher Bereich. Richtigerweise stellt der Schreiber des Leserbriefs noch einmal fest, dass das Risikomanagement in die Gesamtunternehmenskultur an der richtigen Stelle eingebettet sein muss, um wirksam werden zu können. Es ist zu hoffen, dass dies eine der Lehren ist, die solche Unternehmen aus der Krise ziehen werden, die diesen Unternehmensbereich bisher auf einer zu niedrigen Ebene angesiedelt hatten.
Der Äußerung, dass die Forschung nicht in der Lage wäre, die Restriktionen der Modelle aufzuzeigen, kann ich entgegenhalten, dass ich seit Beginn der 1990er Jahre diese Restriktionen in einer ganzen Reihe von Veröffentlichungen untersucht und dargestellt habe. Damit bin ich im Übrigen keineswegs allein.
3) Über den Fall LTCM vor mehr als zehn Jahren sind inzwischen nicht nur viele Artikel, sondern ganze Bücher geschrieben worden. Dem ist nicht mehr viel hinzuzufügen.
Betont werden sollte, dass die Mittel, die von einem Bankenkonsortium unter der Führung der US-Notenbank eingesetzt wurden, um eine folgenschwerere Krise zu vermeiden, gut angelegt waren. Durch die bestens gemanagte Abwicklung der von LTCM eingegangenen Positionen in den folgenden Jahren wurden weitere Verluste vermieden, ohne dass die finanzierenden Banken selbst Verluste erlitten hätten. Insofern war die damalige Vorgehensweise von Notenbank und Finanzindustrie sehr erfolgreich. Die LTCM-Krise wurde nicht durch Modelle verursacht, sondern durch das Eingehen von Risiken, für deren Beherrschung nicht genügend Eigenkapital zur Verfügung stand. Dies gilt auch für die jetzige um vieles größere Krise. Hinzugekommen sind jetzt vor allem die systemischen Effekte. Modelle können Fehlentscheidungen und als deren Folge Krisen nicht verhindern. Modelle können nur helfen, richtige Entscheidungen zu fällen. Sie unterstützen das Management, können dieses jedoch nicht ersetzen. Es wird in der Diskussion über die Krise häufig vergessen, dass eine ganze Reihe von Banken dank erfolgreichen Risikomanagements bestens über die Krise gekommen sind.
Prof. Dr. Ernst Eberlein
Klimagarten
15.12.2009, Dominique Boursillon, ScheerDa hört die Sachlichkeit aber schon auf. So stellt sich die Diskussion aber nicht dar: Man geht nach Kopenhagen und schreit "Alarm!", weil man sachlich und nüchtern das Klima der Zukunft prognostiziert hat. Man muss was tun! Insofern irrt Herr Rahmstorf. Er ist genau so wenig sachlich wie Herr von Storch. Er vertritt seine persönliche Meinung. Ob er die besseren Daten hat und seine Prognosen daher zutreffender sind als die anderer Forscher steht gar nicht zur Debatte.
Es geht doch nur darum: der eine will das Klima ändern, der andere nicht so sehr. das ist alles Ansichtssache und beruht nur auf persönlichem Empfinden.
Fast wie im Kindergarten ist das...
Verschränkung ist nur die halbe Miete
14.12.2009, Mag. Johann Angsüsser, Physikprof. BORG PERGVielleicht ein Beispiel, das das Rätsel der "spukhaften Fernwirkung" (O-Ton Einstein) etwas klarer macht: Sie erzeugen Photonenpaare, die sich im selben Polarisationszustand α befinden. Sie stellen auf der Erde und auf Beteigeuze zwei Pol-Filter auf, deren Stellung Sie kurz vor dem Eintreffen der Photonen (durch einen Zufallsgenerator) einstellen und zwar so, dass das Photon eine Trillionstelsekunde vor dem auf Beteigeuze gemessen wird. Der gemessene Polarisationszustand auf der Erde beeinflusst also den Polarisationszustand auf Beteigeuze.
Greifen wir eine Messreihe heraus:
Auf der Erde befindet sich der Polfilter in Durchlassrichtung β. Die Durchlasswahrscheinlichkeit ist cos2(α - β). Nehmen wir an, die Photonen sind nummeriert und 5,6,10,12,16,20, ... kommen durch. Durch die Messung befinden sich die Geschwister von 5,6,10,12,16,20, ... nicht mehr im Anfangszustand &alpha, sondern im Zustand β. Ihre Durchlasswahrscheinlichkeit auf einen Polfilter mit Winkel γ auf Beteigeuze ist also cos2(γ - β). Obige Ergebnisse lassen sich durch einfaches Zählen der Photonen verifizieren bzw. falsifizieren.
So und jetzt haben wir den Salat:
Die Durchlasswahrscheinlichkeit auf Beteigeuze hängt für gewisse Photonen vom Einstellungswinkel &beta auf der Erde ab. Und noch besser: Herr Bell hat bewiesen, das sich dieses Verhalten nicht mit verborgenen, inhärenten Eigenschaften der Photonen verträgt.
In der obigen Betrachtung kommen Begriffe früher oder später vor, Begriffe, die in der Relativitätstheorie als relativ gedeutet werden (zumindest wenn die Ereignisse im selben Lichtkegel liegen) und daher keine absolute Gültigkeit haben dürften. Beide Theorien sind aber experimentell gut abgesichert.
Also das wird noch spannend!
Emissionshandel als einfache Lösung?
14.12.2009, Dr. Ruth Berger, FrankfurtSeit Jahrzehnten versickern EU-Milliarden zum Bau von Kläranlagen und Müllverbrennungsanlagen in Süditalien in dunkle Kanäle; mit den Afghanistan-Hilfsgeldern der UN war es ähnlich. Es gibt wenig Grund anzunehmen, dass die Verwendung der Emissionszertifikatserlöse in Ländern wie Indien, Pakistan oder Kongo besser kontrollierbar wäre.
Gut kontrollierbar wären nur direkte Maßnahmen bei uns, die höchstwahrscheinlich aber teurer und/oder entbehrungsreicher wären als die zwanzig bis sechzig Euro "Klimaspende" pro Person und Jahr, die Herr Rahmstorf nennt.
Führt die Möglichkeit, von Entwicklungsländern Emissionszertifikate zu erwerben, nicht dazu, dass hochentwickelte Länder die eigene harte Umstellung auf den Sankt Nimmerleinstag verschieben?
Der NMR-Helm im Auto
13.12.2009, Harald Schmidt, St. Andrä-WördernDer immer wieder angesprochene Tricorder nutzt nur was, wenns auch eine sofortige therapeutische Konsequenz gibt.
Die NMR-Maus in der Medizin hat auch das Problem, dass sich daraus zwar Zusammensetzungen der Materie (die ja in der Medizin im Allgemeinen bekannt sind) analysieren lassen, aber zur Bildgebung, und nur die bringt was, braucht man dann heute noch schrankgroße Rechner und eine "Rundumantwort" und nicht nur eine begrenzte Eindringtiefe.
Alte Harddisks gegen neue Technologie?
12.12.2009, Harald Schmidt, 3423 St. Andrä - WördernEin großes Problem der derzeitigen HDDs werden aber die Nanodraht-Speicher nicht lösen können: die magnetische Beeinflußbarkeit. Wer auf eine Notebook-Platte schon mal ein Handy gelegt hat, dass dann angerufen wurde, kennt das Problem. Damit hat man ganz schnell mal die Daten unbrauchbar gemacht. Das ist aber bei jeder magnetischen Datenspeicherung so, und im Prinzip ist’s ja auch eine, sonst gäbe es ja keinen Kernspintomografen.
Astronomie in der Schule als freiwillige Zugabe!
11.12.2009, Claus Fischer, EschwegeWenn die Möglichkeiten vorhanden sind, können Arbeitsgemeinschaften und ähnliches sinnvoll sein. Wenn Jugendliche ihr Interesse an der Astronomie entdecken sollten, dann finden sie auch Wege, dieses zu vertiefen. Ein Pflichtfach ist dabei selten förderlich.
Finanzmathematik: Schmücken mit fremden Federn
11.12.2009, W. HindererWiderspruch!
Das Interesse der Finanzmathematik ist die Mathematik und nicht das Geld. Die Finanzen sind für die Finanzmathematik insofern wesentlich, als sie die Probleme liefern, mit denen sich die Mathematiker beschäftigen. So verhält es sich übrigens auch mit der Physik. Allerdings heißt der entsprechende Teil nicht "Physikmathematik", sondern "angewandte Mathematik" – aus historischen Gründen, vermute ich. Dort findet sich nicht selten die jeder Bestrebung nach korrekten Etiketten spottende Situation, dass von zwei Leuten, die an ein und derselben Sache arbeiten, der eine sie der angewandten Mathematik zuordnet und der andere der mathematischen Physik. Das einzige, was sie unterscheidet, ist die Motivation.
Christoph Pöppe, Redaktion