Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Hummeln gehören zum Faszinierendesten in der Insektenwelt und waren bisher so ein wenig als der "Willi" zur schlauen Biene Maja eingestuft worden. Zudem bietet das Buch nicht nur die von ihm erwarteten Informationen - Goulson versteht es, den wissenschaftlichen Blick zurückzunehmen und Hummeln als das anzusehen, was sie eben auch sind: kleine, dicke, geschäftige Flieger, die das Herz erfreuen...
Schon bei der Kurzrezension wirft sich doch die Frage nach den Alternativen auf. Bei der katastrophalen therapeutischen Lage in Deutschland mit Wartezeiten von bis zu einem Jahr und überfüllten Kliniken wirft sich doch schlicht die Frage auf: Soll man dann lieber gar nichts machen? Ich bin ein Gegner von Psychopharmaka, auch weil ich nicht darauf reagiere (Non-Responder) - nur die Wünsche, die die Autorin hat, wären in einer idealen Welt mit idealer Versorgung ideal. Die haben wir aber nicht. Wieder einmal Wunschdenken aus dem wissenschaftlichen Elfenbeinturm.
Der "Artikel" ist Schleichwerbung pur für wissenschaftlich nicht haltbare Thesen und einen von ihm selbst entwickelten Test des Heilpraktikers Hans-Heinrich Jörgensen, der sich primär auf die Anwendung von Schüßler-Salzen (und Pferderennsport) spezialisiert hat (siehe auch die Nachrufe auf http://www.nam.de/89.html, abgerufen am 13.09.2014) - im Körper entsteht z.B. nie freie Schwefelsäure, und Paradontotitis (umgangssprachlich Paradontose) hat primär nichts mit dem Puffersystem des Körpers zu tun. Das Ganze gipfelt dann im letzten Satz in der Empfehlung eines konkreten Produktes (man befrage Google nach Basica - hier die Homepage: http://www.basica.de/). Nach den Kriterien des Medien-Doktors (den es zur Zeit der Veröffentlichung des Artikels noch nicht gab) für gut recherchierte Artikel (http://www.medien-doktor.de/medizin/bewertungen/die-kriterien/) fällt diese Arbeit vollständig durch. Der Artikel ist nicht sorgfältig recherchiert, nichts darin gegengeprüft, nichts darin hinterfragt - es handelt sich um eine reine Wiedergabe der Ideen von Herrn Jörgensen. Eine einfache Nachfrage bei einem Physiologen, Lebensmittelchemiker oder Biochemiker hätte da korrigierend wirken können. Vielleicht sei noch angemerkt, dass es sich beim "Biochemischen Bund Deutschlands" mitnichten um einen Bund von Biochemikern handelt - es ist vielmehr ein Bund von Anhängern der Schüßler-Salze. Mir ist nicht klar, wie so etwas vollkommen unkommentiert so lange auf den Seiten von Spektrum stehen kann.
Kurzfristige, dicke Gewinne und steigende Aktienkurse zwilichtiger Einrichtungen stehen hier wohl an erster Stelle. Nicht auszudenken was passiert wenn sich aufgrund von Missbrauch Resistenzen gegen diesem "natürichen" Schutz entwickeln.
Die wirtschafliche Verwertung ist ein solcher Missbrauch - und diese Verwertung ist schonungslos sowie grenzenlos solange sich damit einpaar Mäuse verdienen lassen.
Solchen Wissenschaftlern solte keine Platform für ihre Forschungen gegeben werden: Nieder und Mitarbeiter forschen über das Zählvermögen von Rhesusaffen. Über einem Bohrloch im Schädel werden den Tieren eine Kammer für Elektroden sowie ein Metallbolzen auf dem Kopf implantiert. Die Tiere müssen jeden Tag mehrere Stunden in einem Primatenstuhl sitzen und Punkte und Zahlen auf einem Bildschirm erkennen. Ihr Kopf ist dabei mit dem Bolzen unbeweglich an ein Gestell geschraubt. Gleichzeitig werden über die Elektroden Hirnströme gemessen. Lässt der Affe einen gedrückten Hebel im richtigen Moment los, erhält er über einen Schlauch im Mund etwas Saft. Außerhalb der Experimente gibt es nichts zu trinken. Für einen Tropfen Saft tun die durstigen Affen alles, was von ihnen verlangt wird. Das Leid dieser Tiere erstreckt sich oft über viele Jahre. Quelle: aerzte-gegen-tierversuche.de/de/?option=com_content&view=article&id=227:affenqual-in-tuebingen&catid=55:tierversuche-an-affen&Itemid=65
Nehmen wir an, die Pharmaindustrie findet einen Weg solche Antibiotika künstlich herzustellen.
Dann wäre das Produkt zuerst ein Meilenstein in der Medizin. Sehr verträglich, da praktisch vom menschlichen Körper bekannt.
Wie bei jeder intensiver Verbreitung von Antibiotika wäre die Gefahr vorhanden, dass Keime Resistenzen bilden.
Das Problem ist nun, dass nun der eigene Körper kein Mittel mehr hat, sich gegen resistente Keime zu wehren.
Wir beschleunigen gerade in immer schnellerem Zyklus die Evolution. Leider auch der Erreger und Keime.
Ich wäre persönlich dagegen solche Mittel außerhalb von Kliniken einzusetzen, da unsere heutiges Antibiotika-Problem vornehmlich durch Nichteinhaltung der Vorschriften entstanden ist, bzw. durch unverantwortliche Entsorgung über die Kanalisation.
Wie kann das Verhältnis von Wasserstoff zu Deuterium etwas aussagen?
Die Erde ist ja vor 4,5 Milliarden Jahren aus dem selben Material entstanden wie 67P/Tschurjumow-Gerasimenko und all die anderen Kometen. Von daher sollte das Verhältnis von Wasserstoff zu Deuterium in der Erde ohnehin mit dem der Kometen übereinstimmen, ob es nun bei der Entstehung schon da war oder im nachhinein durch Kometen auf die Erde gebracht wurde.
Im Artikel "Chaos auf dem Billardtisch" bezeichnet Christoph Pöppe das Billardspiel auf einem rechteckigen Tisch als "langweilig regulär". Aber einen sogar noch einfacheren Fall, nämlich die eindimensionale Version des Spiels, haben Albert Einstein und Max Born hingebungsvoll untersucht. Born hat seinen etwas verstörenden Befund erstmals in seiner Nobelpreis-Rede 1954 vorgetragen ("Die statistische Deutung der Quantenmechanik", in "Physik im Wandel meiner Zeit", 2. Auflage, Vieweg 1958, S. 173): "Der Determinismus der klassischen Physik erweist sich als Trugbild, erzeugt durch eine Überschätzung mathematisch-logischer Begriffsbildungen." Die Bewegung ist nämlich instabil und indeterministisch: Auch in diesem einfachen Fall ist nach einer bestimmten Zeit die Position der Kugel (bzw. des Gaspartikels) völlig unbestimmt, wegen der unvermeidlichen Ungenauigkeiten in der Kenntnis der Anfangsbedingungen. Er bemerkt dazu weiter (M. Born, Dan. Mat. Fys. Medd. 30, no. 2 (1955), p. 1-26): "Though this is perfectly trivial, I have never seen it pointed out." Gerhard Vollmer hat M. Born deswegen als Entdecker der Chaos-Theorie bezeichnet (G. Vollmer, Naturwissenschaftliche Rundschau, 9 (1988), 345; als Anmerkung im Literaturverzeichnis).
Stellungnahme der Redaktion
Der Hinweis wirft ein interessantes Licht auf die Frage nach dem Chaos. Es stellt sich nämlich heraus, dass die Grenze zwischen "regulär" und "chaotisch" längst nicht so klar definiert ist, wie es den Anschein hat.
Erstes Beispiel: Ein Massenpunkt wird angestoßen und bewegt sich ab dort ohne Einwirkung einer Kraft durch den leeren Raum. Jeder würde die Bewegung als regulär bezeichnen, denn sie gehorcht einer linearen Gleichung: x(t) = vt+a, und die Unsicherheit in der Position x(t) steigt zwar mit der Zeit an, aber nur proportional der Zeit; der Proportionalitätsfaktor ist die Unsicherheit in der Anfangsbedingung v.
Zweites Beispiel: Der Massenpunkt gehorcht einer linearen Differenzialgleichung der Form (d/dt)x = cx mit der Lösung x = x0 exp(ct). Das nennt auch noch niemand ein chaotisches System; denn die Unsicherheit über den Ort den Massenpunkts wächst zwar exponentiell mit der Zeit, aber die relative Unsicherheit, also Unsicherheit geteilt durch die Größe des Raums, in dem der Massenpunkt sich aufhalten könnte, bleibt konstant. Vor allem ist zwar nicht die Kurve, auf der das Teilchen sich bewegt, linear, wohl aber das "Naturgesetz", sprich die Gleichung, der es gehorcht, und ein nichtlineares Naturgesetz gilt allgemein als notwendige Bedingung für Chaos.
Jetzt packen wir beide Teilchen in einen quaderförmigen Kasten mit reflektierenden Wänden. Dann ist Beispiel 1 in einer Dimension das, worüber Born nachgedacht hat, und in zwei Dimensionen Sinais Billard. In Borns Augen ist es chaotisch (was heute ein Vertreter der Theorie der dynamischen Systeme wohl nicht mehr so sehen würde), in Sinais Theorie definitiv nicht.
Ob Beispiel 2 im Kasten nach Sinai chaotisch wäre (also Entropie größer als null hätte), weiß ich nicht. In der Theorie der dynamischen Systeme ist es eines der klassischen Beispiele für Chaos. Das Argument mit der relativen Unsicherheit zieht nicht mehr, denn der Raum, in dem das Teilchen sich aufhalten könnte, wird ja mit der Zeit nicht größer; und vor allem ist die diskrete Version des Problems: xn+1 = 2xn mod 1 (die "Blätterteigtransformation") das klassische Beispiel für deterministisches Chaos.
Allem Anschein nach ist "Sinai-Chaos" (Entropie größer als null) eine verschärfte Form von Chaos.
Das "langweilige" Billard zeigt übrigens eine sehr empfindliche Abhängigkeit von den Anfangsdaten: Wenn die Anfangsrichtung des Teilchens (y-Koordinate durch x-Koordinate der Anfangsgeschwindigkeit) rational ist, trifft die Bahn irgendwann wieder ihren Anfangspunkt und wird dann periodisch; ist die Richtung irrational, so wird die Bahn ergodisch, das heißt, sie kommt jedem Punkt des Rechtecks beliebig nahe. Für Sinai ist also noch nicht einmal Ergodizität eine hinreichende Bedingung für Chaos. Soweit ich weiß, ist ein Prozess mit positiver Entropie nicht nur ergodisch, sondern sogar "mischend" (zwei beliebige Trajektorien kommen sich immer wieder beliebig nahe).
"Dabei müssten Menschen erst gar nicht mit antibiotischen Medikamenten behandelt werden, wenn es zum Beispiel mit Handhygiene und Isolationsmaßnahmen gelänge, die Ausbreitung eines Krankheitserregers zu stoppen."
Dasist sehr naiv bis arrogant. Es stimmt, dass für normale Krankheitsverläufe gerade junger, nicht chronisch kranker Menschen Antibiotika mehr oder weniger ohne große Bedeutung, lediglich ein gigantischer Markt sind. Die Forderung von "Händewaschen hilft" bei chronisch Kranken ist ein Witz. Die meisten gefährlichen und multiresistenten Keime kommen erst über das Wasser. Und einmal nicht richtig abgetrocknet, zack. Oder Freibäder, Seen. Man müsste Wasser komplett meiden. Nein, gerade bei Mukoviszidose steckt sich JEDER irgendwann mit einem harten Keim an. Das ist durch keine Hygienemaßnahme der Welt vermeidbar. Nur konkrete Angriffe auf diese Bakterien behindert ihr zerstörerisches Werk. Bislang waren diese Angriffe sehr aggressiv, aber nicht sonderlich klug. Durch den Selektionsdrang wurden richtige Monsterbakterien herangezüchtet. Wer die noch chemisch vergiften will, vergiftet auch den Körper. Dahingend sind beide im Text beschrieben Ansätze sehr wichtig. Wenn man allerdings sieht, mit welchen Forschungs-Budgets deutsche Universitäten mittlerweile auskommen, mit welcher rechtlicher Hinterwelten sich auseinandergesetzt werden müssen, ist das sehr beschämend.
Seltsam. Jetzt wird der schnellste Anstieg an Treibhausgasen seit 30 Jahren festgestellt und resümmiert, dass "uns die Zeit davonläuft". Dabei wird völlig unterschlagen, dass die "globale Temperatur" seit längerem stagniert. Letzteres ist ein allgemein bekannter Fakt und wird im Englischen meist als "Hiatus" bezeichnet.
Eine kürzlich publizierte Arbeit (Steve McIntyre, dx.doi.org/10.4236/ojs.2014.47050) hat diesen "Hiatus" genauer analysiert und kommt zu folgendem Ergebnis: - Die HadCRUT4-Reihe der Oberflächentemperaturen zeigt eine Stagnation über die letzten 19 Jahre - Die UAH-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 16 Jahre - Die RSS-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 26 Jahre
Keines der gängigen Klimamodelle, die Eingang in den neusten Klimareport AR5 des IPCC gefunden haben, kann diesen Stillstand reproduzieren. Diese sind damit falsifiziert und folglich völlig ungeeignet, Prognosen anzustellen.
Führende Klimaforscher wie Kevin Trenberth erkennen inzwischen natürliche Einflüsse als Ursache für den augenblicklichen und möglicherweise weiter andauernden Stillstand an. Explizit genannt sind multidekadische Zyklen (z.B. PDO oder AMO), die derzeit ihre negative Phase durchlaufen bzw. in diese eintreten. Da diese den anthropogenen Einfluss auf die Temperaturentwicklung derzeit komplett kompensieren, lässt sich unmittelbar schlussfolgern, dass deren positive Phase Ende des letzten Jahrhunderts mindestens zur Hälfte zum damaligen Temperaturanstieg beitrug. Daraus folgt wiederum, dass die vom IPCC angenommene Sensitivität des CO2 deutlich zu hoch angesetzt ist.
Ich würde mir sehr wünschen, dass SdW diese wissenschaftlichen Erkenntnisse in seine Artikel einfließen lässt und auch kritische Stimmen (wie dieses Posting) zulässt.
Der Artikel zur menschlich beeinflussten Entwicklung der Pfirsiche benutzt mehrfach den Bergriff der Zucht. Das ist jedoch sehr fraglich, denn darunter verseht man die bewusst gelenkte Modifikation von Eigenschaften. Dies wiederum setzt ein Wissen um die Vererbbarkeit von Eigenschaften - in diesem Fall von Pflanzen - voraus. Selbst wenn die Erfahrung mit Tieren (und Menschen) eine solche Machbarkeit sichtbar machen sollte, kann dies zumindest bei Pflanzen nicht einfach unterstellt werden. Wohl aber ist es natürlich, dass man die schönsten und größten Pfirsiche pflückt bzw. auch mitnimmt und dabei unwillkürlich eine Auswahl (Auslese) trifft. So können sich an festen Standorten langsam immer mehr dieser Kerne sammeln und dabei zwangsläufig, aber ungeplant eine Evolution einleiten. Im Gegensatz zu Tieren fördert hier der Verzehr der besten Individuen deren Entwicklung. Das lässt sich sogar auch auf deren Ergiebigkeit (Zahl der Früchte am Baum) übertragen.
Es ist schön, dass Regina Nuzzo auf die Gefahren einer Missinterpretation des so genannten p-Wertes bei statistischen Befunden hinweist, umso mehr, da Studenten und Wissenschaftler in solchen Situationen häufig eine statistische Software anwerfen und den ausgeworfenen p-Wert (zusammen mit ähnlich fragwürdigen Kennzahlen) unreflektiert übernehmen.
Jedoch schießt die Autorin dabei über das Ziel hinaus, indem sie die ebenso fragwürdige Arbeit von Sellke et al. als Basis ihres Artikels nimmt. Da in dem Kasten "Magerer Erkenntnisgewinn" viele Annahmen unerwähnt bleiben, habe ich die zugrundeliegenden Publikation (Thomas Sellke, M. J. Bayarri, James O. Berger: Calibration of p Values for Testing Precise Null Hypotheses, The American Statistician, 55:1, 62-71, 2001) genauer angeschaut. Die Annahmen in der mittleren Situation "Münzwurf" sind dabei wie folgt:
1. In 50 Prozent der Fragestellungen ist der wahre Wert genau X=0 (die Nullhypothese H0 trifft zu), während er in den anderen Fällen immer denselben positiven Wert hat.
2. Die Messung weist einen normalverteilten Messfehler bekannter und von X unabhängiger Varianz auf.
3. Der p-Wert wird für eine Punkt-Nullhypothese (z. B. X=0) berechnet. In diesen so genannten symmetrischen Tests bekommen auch hinreichend negative Messungen ("das Medikament wirkt weniger als ein Placebo") einen kleinen p-Wert.
Punkt 3 ist zwar dem Sachverhalt meist nicht angemessen, aber ebenso wie Punkt 2 eher unproblematisch. Annahme 1 hingegen ist meist unrealistisch und führt zu falschen Schlussfolgerungen, wie folgendes Beispiel zeigt: In 50 % der getesteten Medikamente sei der wahre Wert X=0 entsprechend der Nullhypothese (Medikament ist wirkungslos) und in den anderen 50 % X=5 (Medikament wirkt). Ferner sei die Standardabweichung des normalverteilten Messfehlers gleich 1 und die Messung ergebe x=2, was einem p-Wert von etwa 5 % entspricht. Das Messergebnis ist also zwei Standardabweichungen vom wahren Wert der wirkungslosen Medikamente, aber drei Standardabweichungen von dem der wirkenden Medikamente entfernt, und daher ist es wahrscheinlicher, dass diese Messung von einem wirkungslosen Medikament herrührt: Eine einfache Rechnung zeigt, dass diese Messung mit einer Wahrscheinlichkeit von etwa 95 % von einem wirkungslosen Medikament herrührt, nicht etwa zu 5 %, wie es der p-Wert nahelegt.
Führt der p-Wert also wirklich zu solch massiven Fehlinterpretationen? Nicht wirklich: Zunächst einmal ist im Falle eines wirkungslosen Medikaments ein solch hoher oder höherer x-Wert sehr unwahrscheinlich (nämlich 2,5 %), und man muss schon sehr viel Pech haben, solch einer Fehlinterpretation aufzusitzen. Wichtiger jedoch ist die Verfälschung durch die unrealistischen Annahmen. Realistischer ist es sicherlich, nicht nur den Messfehler Y als normalverteilt anzusehen, sondern auch die wahren Werte X. Ferner sollte man unsymmetrisch auf die Nullhypothese H0: X ≤ 0 testen.
Die hier abzurufende Grafik zeigt für symmetrisch um null verteilte wahre Werte (also P(H0)=1/2) die dann resultierende Wahrscheinlichkeit P(H0|p) dafür, dass die Nullhypothese "X ≤ 0" bei gegebenem p-Wert wahr ist, und zwar in Abhängigkeit vom Verhältnis der Standardabweichung σy des Messfehlers zur Standardabweichung σx der wahren Werte. Daraus erhält man folgende Anleitung zur Interpretation des p-Werts:
* Ist die Standardabweichung des Messfehlers deutlich geringer als die vermutete Schwankungsbreite der wahren Werte, sagt der p-Wert des unsymmetrischen Tests in Wesentlichen die Wahrheit, zumindest, wenn die Nullhypothese in etwa 50 % der Fälle zutrifft.
* Ist die Standardabweichung des Messfehlers hingegen deutlich höher als die Schwankungsbreite der wahren Werte, ergibt die Messung kaum Informationsgewinn, und die a-priori-Wahrscheinlichkeit (hier 50 %) bleibt nahezu unverändert.
* Bei etwa gleichen Standardabweichungen trifft die Nullhypothese etwa doppelt so häufig zu, wie es der p-Wert impliziert.
Diese Aussagen sind robust bezüglich der Verteilung der wahren Werte und der Messfehler: Sie gelten beispielweise auch für gleichverteilte wahre Werte oder eine unbekannte und aus der Messung zu schätzende Standardabweichung der Schätzfehler. Wichtig ist nur, dass die wahren Werte nicht auf einen Punkt konzentriert sind wie im oben angesprochenen Artikel.
Das zunehmende Ausmaß der Beleuchtung ist sicherlich eng an ein Naturverständnis geknüpft, das Natur zunächst und vor allem als Gefährdung auffasst - eine erstaunlich mittelalterliche Denkweise. Die Verbannung der Dunkelheit verbannt das Unbeherrschbare, mithin das Natürliche. Es hat eine gewisse Konsequenz, dass im selben Zuge das älteste Kulturgut - der Sternhimmel - ausgelöscht wird.
Die beschriebene "Mobilisierung" eines Ikosaeders durch Verdopplung der Seiten ist etwas unhandlich; es scheint ein einheitliches einfaches Mobilisierungsprinzip für bestimmte archimedische Körper zu geben. Man betrachte zu den platonischen Körpern die Kantengraphen. Die entsprechenden Polyeder (wie in Abb. d auf S.67) bestehen dann aus Dreiecken (gelb) sowie 3-, 4- oder 5-Ecken (grün). Bei entsprechender einseitiger Befestigung der gelben Dreiecke an den grünen n-Ecken lassen sich die Körper analog mobilisieren:
Die von Ihnen übersichtlich aufgeführten Mobilisierungen funktionieren alle – in der unhandlichen Version mit verdoppelten Seitenflächen. Es ist auch kein Problem, von den beiden Exemplaren jeder Seitenfläche nur eines auszuwählen und es dieselbe Bewegung ausführen zu lassen wie eine der Flächen des "doppelseitigen" Modells – in der Computergrafik. Unterwegs haben dann die Ecken der Seitenflächen im Allgemeinen keinen Kontakt untereinander, so dass ein "reales" mechanisches Modell nicht funktionieren kann.
Letzteres gelingt nur dann, wenn sich in jeder Ecke des Ursprungskörpers eine gerade Anzahl von Flächen trifft. Dann kann man jeweils zwei benachbarte Flächen an den Ecken verbinden, ohne dass eine Ecke unverbunden bleibt. Benachbarte Flächen rotieren dann stets gegenläufig.
Die Bedingung "gerade Anzahl von Flächen an jeder Ecke" erfüllt unter den platonischen Körpern nur das Oktaeder. Unter den archimedischen Körpern ist die Auswahl schon reichhaltiger: Kuboktaeder, Ikosidodekaeder, kleines Rhombenkuboktaeder, kleines Rhombenikosidodekaeder. Ob die beiden letzten Körper schon einmal beweglich gebaut worden sind, ist mir nicht bekannt.
Endlich!
14.09.2014, Guido Nicolaus PoliwodaUnd die Alternativen ?
14.09.2014, HorstSchleichwerbung pur ohne jede kritische Distanz
14.09.2014, Holger SchaalLactobacillus gasseri und sein Lactocilin ist in seiner Wirkungsstätte der Vagina gut aufbewahrt.
13.09.2014, Susi ParthenerDie wirtschafliche Verwertung ist ein solcher Missbrauch - und diese Verwertung ist schonungslos sowie grenzenlos solange sich damit einpaar Mäuse verdienen lassen.
Andreas Nieder und seine grausamen Tierversuche
12.09.2014, gegen solche TierversucheSehr gefährliches Vorgehen
12.09.2014, Jakob DemirDann wäre das Produkt zuerst ein Meilenstein in der Medizin. Sehr verträglich, da praktisch vom menschlichen Körper bekannt.
Wie bei jeder intensiver Verbreitung von Antibiotika wäre die Gefahr vorhanden, dass Keime Resistenzen bilden.
Das Problem ist nun, dass nun der eigene Körper kein Mittel mehr hat, sich gegen resistente Keime zu wehren.
Wir beschleunigen gerade in immer schnellerem Zyklus die Evolution.
Leider auch der Erreger und Keime.
Ich wäre persönlich dagegen solche Mittel außerhalb von Kliniken einzusetzen, da unsere heutiges Antibiotika-Problem vornehmlich durch Nichteinhaltung der Vorschriften entstanden ist, bzw. durch unverantwortliche Entsorgung über die Kanalisation.
Grüße
DJ
Wie das?
12.09.2014, BaluDie Erde ist ja vor 4,5 Milliarden Jahren aus dem selben Material entstanden wie 67P/Tschurjumow-Gerasimenko und all die anderen Kometen. Von daher sollte das Verhältnis von Wasserstoff zu Deuterium in der Erde ohnehin mit dem der Kometen übereinstimmen, ob es nun bei der Entstehung schon da war oder im nachhinein durch Kometen auf die Erde gebracht wurde.
Rechteck gar nicht langweilig
10.09.2014, Wolfram GraserDer Hinweis wirft ein interessantes Licht auf die Frage nach dem Chaos. Es stellt sich nämlich heraus, dass die Grenze zwischen "regulär" und "chaotisch" längst nicht so klar definiert ist, wie es den Anschein hat.
Erstes Beispiel: Ein Massenpunkt wird angestoßen und bewegt sich ab dort ohne Einwirkung einer Kraft durch den leeren Raum. Jeder würde die Bewegung als regulär bezeichnen, denn sie gehorcht einer linearen Gleichung: x(t) = vt+a, und die Unsicherheit in der Position x(t) steigt zwar mit der Zeit an, aber nur proportional der Zeit; der Proportionalitätsfaktor ist die Unsicherheit in der Anfangsbedingung v.
Zweites Beispiel: Der Massenpunkt gehorcht einer linearen Differenzialgleichung der Form (d/dt)x = cx mit der Lösung x = x0 exp(ct). Das nennt auch noch niemand ein chaotisches System; denn die Unsicherheit über den Ort den Massenpunkts wächst zwar exponentiell mit der Zeit, aber die relative Unsicherheit, also Unsicherheit geteilt durch die Größe des Raums, in dem der Massenpunkt sich aufhalten könnte, bleibt konstant. Vor allem ist zwar nicht die Kurve, auf der das Teilchen sich bewegt, linear, wohl aber das "Naturgesetz", sprich die Gleichung, der es gehorcht, und ein nichtlineares Naturgesetz gilt allgemein als notwendige Bedingung für Chaos.
Jetzt packen wir beide Teilchen in einen quaderförmigen Kasten mit reflektierenden Wänden. Dann ist Beispiel 1 in einer Dimension das, worüber Born nachgedacht hat, und in zwei Dimensionen Sinais Billard. In Borns Augen ist es chaotisch (was heute ein Vertreter der Theorie der dynamischen Systeme wohl nicht mehr so sehen würde), in Sinais Theorie definitiv nicht.
Ob Beispiel 2 im Kasten nach Sinai chaotisch wäre (also Entropie größer als null hätte), weiß ich nicht. In der Theorie der dynamischen Systeme ist es eines der klassischen Beispiele für Chaos. Das Argument mit der relativen Unsicherheit zieht nicht mehr, denn der Raum, in dem das Teilchen sich aufhalten könnte, wird ja mit der Zeit nicht größer; und vor allem ist die diskrete Version des Problems: xn+1 = 2xn mod 1 (die "Blätterteigtransformation") das klassische Beispiel für deterministisches Chaos.
Allem Anschein nach ist "Sinai-Chaos" (Entropie größer als null) eine verschärfte Form von Chaos.
Das "langweilige" Billard zeigt übrigens eine sehr empfindliche Abhängigkeit von den Anfangsdaten: Wenn die Anfangsrichtung des Teilchens (y-Koordinate durch x-Koordinate der Anfangsgeschwindigkeit) rational ist, trifft die Bahn irgendwann wieder ihren Anfangspunkt und wird dann periodisch; ist die Richtung irrational, so wird die Bahn ergodisch, das heißt, sie kommt jedem Punkt des Rechtecks beliebig nahe. Für Sinai ist also noch nicht einmal Ergodizität eine hinreichende Bedingung für Chaos. Soweit ich weiß, ist ein Prozess mit positiver Entropie nicht nur ergodisch, sondern sogar "mischend" (zwei beliebige Trajektorien kommen sich immer wieder beliebig nahe).
Christoph Pöppe, Redaktion
Nachtrag: Soeben (6. 10. 2014) bin ich auf eine ältere Arbeit gestoßen, die den Zusammenhang zwischen physikalischer Entropie und Kolmogorow-Sinai-Entropie zum Thema hat: Vito Latora
und Michel Baranger: Kolmogorov-Sinai Entropy-Rate vs. Physical Entropy.
Dasist sehr naiv bis arrogant. Es stimmt, dass für normale Krankheitsverläufe gerade junger, nicht chronisch kranker Menschen Antibiotika mehr oder weniger ohne große Bedeutung, lediglich ein gigantischer Markt sind. Die Forderung von "Händewaschen hilft" bei chronisch Kranken ist ein Witz. Die meisten gefährlichen und multiresistenten Keime kommen erst über das Wasser. Und einmal nicht richtig abgetrocknet, zack. Oder Freibäder, Seen. Man müsste Wasser komplett meiden. Nein, gerade bei Mukoviszidose steckt sich JEDER irgendwann mit einem harten Keim an. Das ist durch keine Hygienemaßnahme der Welt vermeidbar. Nur konkrete Angriffe auf diese Bakterien behindert ihr zerstörerisches Werk. Bislang waren diese Angriffe sehr aggressiv, aber nicht sonderlich klug. Durch den Selektionsdrang wurden richtige Monsterbakterien herangezüchtet. Wer die noch chemisch vergiften will, vergiftet auch den Körper. Dahingend sind beide im Text beschrieben Ansätze sehr wichtig. Wenn man allerdings sieht, mit welchen Forschungs-Budgets deutsche Universitäten mittlerweile auskommen, mit welcher rechtlicher Hinterwelten sich auseinandergesetzt werden müssen, ist das sehr beschämend.
"Uns läuft die Zeit davon"
10.09.2014, Werner KohlEine kürzlich publizierte Arbeit (Steve McIntyre, dx.doi.org/10.4236/ojs.2014.47050) hat diesen "Hiatus" genauer analysiert und kommt zu folgendem Ergebnis:
- Die HadCRUT4-Reihe der Oberflächentemperaturen zeigt eine Stagnation über die letzten 19 Jahre
- Die UAH-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 16 Jahre
- Die RSS-Reihe der Satellitenaufzeichnungen der unterem Troposphäre belegt eine Stagnation über die letzten 26 Jahre
Keines der gängigen Klimamodelle, die Eingang in den neusten Klimareport AR5 des IPCC gefunden haben, kann diesen Stillstand reproduzieren. Diese sind damit falsifiziert und folglich völlig ungeeignet, Prognosen anzustellen.
Führende Klimaforscher wie Kevin Trenberth erkennen inzwischen natürliche Einflüsse als Ursache für den augenblicklichen und möglicherweise weiter andauernden Stillstand an. Explizit genannt sind multidekadische Zyklen (z.B. PDO oder AMO), die derzeit ihre negative Phase durchlaufen bzw. in diese eintreten. Da diese den anthropogenen Einfluss auf die Temperaturentwicklung derzeit komplett kompensieren, lässt sich unmittelbar schlussfolgern, dass deren positive Phase Ende des letzten Jahrhunderts mindestens zur Hälfte zum damaligen Temperaturanstieg beitrug. Daraus folgt wiederum, dass die vom IPCC angenommene Sensitivität des CO2 deutlich zu hoch angesetzt ist.
Ich würde mir sehr wünschen, dass SdW diese wissenschaftlichen Erkenntnisse in seine Artikel einfließen lässt und auch kritische Stimmen (wie dieses Posting) zulässt.
Pfirsichzucht?
09.09.2014, Ulrich HeemannZweiter Teil der Frage
09.09.2014, Raimund Zopp, Gföhl/NiederösterreichSo schlecht ist der p-Wert nicht
09.09.2014, Dr. Martin TreiberJedoch schießt die Autorin dabei über das Ziel hinaus, indem sie die ebenso fragwürdige Arbeit von Sellke et al. als Basis ihres Artikels nimmt. Da in dem Kasten "Magerer Erkenntnisgewinn" viele Annahmen unerwähnt bleiben, habe ich die zugrundeliegenden Publikation (Thomas Sellke, M. J. Bayarri, James O. Berger: Calibration of p Values for Testing Precise Null Hypotheses, The American Statistician, 55:1, 62-71, 2001) genauer angeschaut. Die Annahmen in der mittleren Situation "Münzwurf" sind dabei wie folgt:
1. In 50 Prozent der Fragestellungen ist der wahre Wert genau X=0 (die Nullhypothese H0 trifft zu), während er in den anderen Fällen immer denselben positiven Wert hat.
2. Die Messung weist einen normalverteilten Messfehler bekannter und von X unabhängiger Varianz auf.
3. Der p-Wert wird für eine Punkt-Nullhypothese (z. B. X=0) berechnet. In diesen so genannten symmetrischen Tests bekommen auch hinreichend negative Messungen ("das Medikament wirkt weniger als ein Placebo") einen kleinen p-Wert.
Punkt 3 ist zwar dem Sachverhalt meist nicht angemessen, aber ebenso wie Punkt 2 eher unproblematisch. Annahme 1 hingegen ist meist unrealistisch und führt zu falschen Schlussfolgerungen, wie folgendes Beispiel zeigt: In 50 % der getesteten Medikamente sei der wahre Wert X=0 entsprechend der Nullhypothese (Medikament ist wirkungslos) und in den anderen 50 % X=5 (Medikament wirkt). Ferner sei die Standardabweichung des normalverteilten Messfehlers gleich 1 und die Messung ergebe x=2, was einem p-Wert von etwa 5 % entspricht. Das Messergebnis ist also zwei Standardabweichungen vom wahren Wert der wirkungslosen Medikamente, aber drei Standardabweichungen von dem der wirkenden Medikamente entfernt, und daher ist es wahrscheinlicher, dass diese Messung von einem wirkungslosen Medikament herrührt: Eine einfache Rechnung zeigt, dass diese Messung mit einer Wahrscheinlichkeit von etwa 95 % von einem wirkungslosen Medikament herrührt, nicht etwa zu 5 %, wie es der p-Wert nahelegt.
Führt der p-Wert also wirklich zu solch massiven Fehlinterpretationen? Nicht wirklich: Zunächst einmal ist im Falle eines wirkungslosen Medikaments ein solch hoher oder höherer x-Wert sehr unwahrscheinlich (nämlich 2,5 %), und man muss schon sehr viel Pech haben, solch einer Fehlinterpretation aufzusitzen. Wichtiger jedoch ist die Verfälschung durch die unrealistischen Annahmen. Realistischer ist es sicherlich, nicht nur den Messfehler Y als normalverteilt anzusehen, sondern auch die wahren Werte X. Ferner sollte man unsymmetrisch auf die Nullhypothese H0: X ≤ 0 testen.
Die hier abzurufende Grafik zeigt für symmetrisch um null verteilte wahre Werte (also P(H0)=1/2) die dann resultierende Wahrscheinlichkeit P(H0|p) dafür, dass die Nullhypothese "X ≤ 0" bei gegebenem p-Wert wahr ist, und zwar in Abhängigkeit vom Verhältnis der Standardabweichung σy des Messfehlers zur Standardabweichung σx der wahren Werte. Daraus erhält man folgende Anleitung zur Interpretation des p-Werts:
* Ist die Standardabweichung des Messfehlers deutlich geringer als die vermutete Schwankungsbreite der wahren Werte, sagt der p-Wert des unsymmetrischen Tests in Wesentlichen die Wahrheit, zumindest, wenn die Nullhypothese in etwa 50 % der Fälle zutrifft.
* Ist die Standardabweichung des Messfehlers hingegen deutlich höher als die Schwankungsbreite der wahren Werte, ergibt die Messung kaum Informationsgewinn, und die a-priori-Wahrscheinlichkeit (hier 50 %) bleibt nahezu unverändert.
* Bei etwa gleichen Standardabweichungen trifft die Nullhypothese etwa doppelt so häufig zu, wie es der p-Wert impliziert.
Diese Aussagen sind robust bezüglich der Verteilung der wahren Werte und der Messfehler: Sie gelten beispielweise auch für gleichverteilte wahre Werte oder eine unbekannte und aus der Messung zu schätzende Standardabweichung der Schätzfehler. Wichtig ist nur, dass die wahren Werte nicht auf einen Punkt konzentriert sind wie im oben angesprochenen Artikel.
Auslöschung des Natürlichen - und eines Kulturguts
08.09.2014, ChristopherMoblilisierung archimedischer Körper
08.09.2014, Werner HilgerMan betrachte zu den platonischen Körpern die Kantengraphen. Die entsprechenden Polyeder (wie in Abb. d auf S.67) bestehen dann aus Dreiecken (gelb) sowie 3-, 4- oder 5-Ecken (grün).
Bei entsprechender einseitiger Befestigung der gelben Dreiecke an den grünen n-Ecken lassen sich die Körper analog mobilisieren:
Tetraeder -> Oktaeder -> Kuboktaeder
Oktaeder/Würfel -> Kuboktaeder -> kleines Rhombenkuboktaeder
Dodekaeder/Ikosaeder -> Ikosidodekaeder -> kleines Rhombenikosidodekaeder
Die von Ihnen übersichtlich aufgeführten Mobilisierungen funktionieren alle – in der unhandlichen Version mit verdoppelten Seitenflächen. Es ist auch kein Problem, von den beiden Exemplaren jeder Seitenfläche nur eines auszuwählen und es dieselbe Bewegung ausführen zu lassen wie eine der Flächen des "doppelseitigen" Modells – in der Computergrafik. Unterwegs haben dann die Ecken der Seitenflächen im Allgemeinen keinen Kontakt untereinander, so dass ein "reales" mechanisches Modell nicht funktionieren kann.
Letzteres gelingt nur dann, wenn sich in jeder Ecke des Ursprungskörpers eine gerade Anzahl von Flächen trifft. Dann kann man jeweils zwei benachbarte Flächen an den Ecken verbinden, ohne dass eine Ecke unverbunden bleibt. Benachbarte Flächen rotieren dann stets gegenläufig.
Die Bedingung "gerade Anzahl von Flächen an jeder Ecke" erfüllt unter den platonischen Körpern nur das Oktaeder. Unter den archimedischen Körpern ist die Auswahl schon reichhaltiger: Kuboktaeder, Ikosidodekaeder, kleines Rhombenkuboktaeder, kleines Rhombenikosidodekaeder. Ob die beiden letzten Körper schon einmal beweglich gebaut worden sind, ist mir nicht bekannt.
Christoph Pöppe, Redaktion