Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Sehr geehrte Verfasser, ich bedanke mich für den detaillierten Artikel über Fukushima, der sich wohltuend von der oftmals verzerrten Berichterstattung - besonders in den "öffentlich-rechtlichen" Medien - abhebt. Ich erlaube mir darauf hinzuweisen, dass die im Artikel gezeigte Landkarte der Evakuierungszone nicht ganz aktuell ist.
Auch die in der Landkarte orange schraffierte und die dunkelrot eingezeichnete Sperrzone ist inzwischen aufgehoben und nach radioaktiver Belastung gestaffelt neu organisiert worden. Als Zone mit weitgehendem Betretungsverbot (>50 mSv/Jahr) sind im wesentlichen die Gemeinden Futaba und Okuma sowie der Nordosten von Tomioka und der Westen von Namie verblieben. In diesem Gebiet lebten vor dem Störfall rund 25 000 Menschen. Die Evakuierungsanordnung für dieses Gebiet soll nicht innerhalb von fünf Jahren aufgehoben werden.
Die beiden anderen Zonen (unter 20 mSv/Jahr und 20-50 mSv/Jahr) betreffen die Gemeinden Tomioka (außer Nordostteil), Naraha, Kawauchi (Ostteil), Tamura(Ostteil), Katsurao, Iitate, Minamisoma-Odaka und Namie (außer Westteil). In diesem Gebiet wohnten ca. 70 000 Menschen. Für 30 000 von diesen soll die Evakuierungsanordnung innerhalb von zwei Jahren aufgehoben werden.
Von den 2011 nach der Havarie evakuierten 154 000 Personen durften bereits ca. 60 000 zurückkehren (Wie viele davon Gebrauch gemacht haben, steht auf einem anderen Blatt). Die Rückkehr-Erlaubnis gilt für die 20-30 km Ringzone um das Kraftwerk, soweit das Gebiet nicht in eine der anderen Kategorien fällt.
Warum sind einige Antworten bei abweichenden Gedanken so gereizt formuliert? Aber dies ist nicht das Thema.
Die Hirnforschung erlebt einen Paradigmenwechsel. Weg von den Lokalisationstheorien hin zum Konnektom. Letzteres wird 2014- massiv mit Milliarden gefördert. Die Evolutionstheorien dagegen werden langsamer korrigiert und noch heimlich.
Der obige Beitrag berichtet über eine Genmodifikation an T-Zellen um sie immun gegen HIV-Angriffe zu machen. Gleichzeitig gibt es auch Berichte über T-Zellen, die mit dem Einschleusen neuer Gene so verändert wurden, dass sie Krebszellen angreifen. Leukämien im Endstadium und andere Blutkrebskrankheiten wurden so erfolgreich behandelt. Es scheint eine goldene Zukunft für diese Formen der extrakorporalen Gentherapie angebrochen zu sein. Extrakorporal heisst diese Form der Gentherapie weil die Zellen dem Patienten entnommen und dann ausserhalb des Körpers genetisch verändert und wieder zurückinfundiert werden. Mit solchen extrakorporalen Gentherapien kann man gezielt bestimmte Zellen verändern während Gentherapien, die Viren als Genfährten benutzen nicht von vornherein spezifisch wirken.
Interessant die Entstehungsgeschichte des XFEL. Mich verwundert nur, dass man nicht schon früher drauf gekommen ist. Das Wirkprinzip, einen Elektronenstrahl in einem starken Magnetfeld zu beschleunigen und damit Röntenstrahlen zu erzeugen ist doch Grundlagenphysik, die schon anfangs 20. Jahrhundert verstanden wurde.
Ich hatte es erwartet: wenn alle Evolutionsstricke reißen, wenn also entscheidende Komponenten schlicht fehlen (wie hier ein Selektionsdruck in einer genügend weit zurückliegenden Zeit), wird prompt die Epigenetik bemüht - aber im Sinne reinster Lamarckismus-Lehre! Auch ein durch Epigenetik anschaltbarer Zustand muß doch zwingend eimal in der Vergangenheit mit den normalen Evolutions-Komponenten entstanden sein, und das ist ganz einfach aus den von mir in meinem vorigen Beitrag dargestellten Gründen unmöglich.
Ich erlaube mir einen sachlichen Nachtrag und nutze dazu bekannte Fakten zur Epigenetik.
Die Kenntnisse zur Epigenetik veränderten sich. Die zur Darwin-Theorie gehörige Weismann-Barriere ist überholt. Genabschnitte werden bei Bedarf aktiviert, an- und abgeschaltet . Und noch mehr gilt, die Gene werden aktiv verändert. Und es betrifft eben nicht nur existenzielle Funktionen. Schon beim Erlernen einer Fähigkeit oder krassen Erlebnissen werden Gene verändert. Alles wird gespeichert. Dadurch haben wir ein Wissenspool in uns. Wir nutzen das in den Genen gespeicherte Wissen, ohne davon zu bemerken. Und erweitern dieses von Generation zu Generation.
Und das Gehirn verändert all dieses. Macht all dies passend. Das Wie kann nur spekulativ beantwortet werden. Aber diese Veränderungen nützen egoistisch.
Damit haben wir einen Helfer in uns und das Gehnirn nutzt den genetischen Wissenspool. Und meist folgen wir blind deren Appetenz. Die Ratschläge der Bibel oder des Korans sind dagegen Peanuts.
Und jetzt ein Vergleich zu Bibelsprüchen: „Und ob ich schon wanderte im finstern Tal, fürchte ich kein Unglück; denn du bist bei mir, dein Stecken und dein Stab trösten mich.“ oder „ Was ihr für einen meiner geringsten Brüder getan habt, das habt ihr mir getan.“ Es passt.
In uns ist ein helfendes Wissen, welches nur ansatzweise begriffen wird.
Ich bin überrascht, wie oft die alte Religion-Epiphänomen-These wiederbelebt wird, die z.B. als "Religion is Cheesecake" bereits vor einigen Jahren groß durch die Medien ging.
Die empirische (und, im Gegensatz zu so reduktionistischen Ansätzen, interdisziplinäre) Evolutionsforschung zu Religiosität und Religionen ist da schon viel weiter und war z.B. bereits 2009 als "Homo religiosus" eine Gehirn & Geist-Titelgeschichte.
Aber falls das Buch noch ein paar Leute dazu bringen sollte, sich dann auch vertieft mit dem Thema auseinander zu setzen, soll es recht sein. Auf jeden Fall Danke für die Rezension! :-)
ich erlaube mir zu Beginn, darauf hinzuweisen, dass entgegen dem, was die Literaturliste des schönen Aufsatzes von Regina Nuzzo vielleicht suggeriert, die abgehandelte mehrschichtige Problematik nicht erst in den letzten Jahren diskutiert wird. Selbst ich (Andreas Quatember, Institut für Angewandte Statistik, Johannes Kepler Universität Linz, Österreich) bin immerhin seit Mitte der 90er Jahre in Konferenzbeiträgen und Veröffentlichungen darauf eingegangen. So enthält auch mein Studienbuch "Statistik ohne Angst vor Formeln" (2011, 3. Auflage, Pearson Studium, München) beispielsweise einen Abschnitt "3.13 Probleme in der Anwendung statistischer Tests". Diese Problematik wird von mir (und allen Kolleginnen und Kollegen, die nach meinem Buch ihre Hochschullehrveranstaltung gestalten), den Studierenden gelehrt. Ich möchte auf drei Punkte kurz aus meiner Perspektive eingehen, die im Buch und auch im oben genannten Artikel angeschnitten werden.
1. Das RELEVANZPROBLEM: Nuzzo erwähnt "die Tatsache, dass der p-Wert die Aufmerksamkeit von der Effektgröße weglenkt." Und nennt als Beispiel eine Untersuchung, die zeigt, dass Scheidungsraten und Zufriedenheit mit der Ehe sich in den Gruppen derer, die sich "offline kennenlernten" und derer, die sich "online kennenlernten", zwar statistisch signifikant, aber nur minimal unterscheiden. "Die Signifikanz eines Ergebnisses sage eben nichts über die praktische Bedeutung aus, erklärt Geoff Cumming". Dazu darf ich von S.192 aus Quatember (2011) zitieren: "Tatsächlich handelt es sich hierbei jedoch keineswegs um eine Schwäche der Methoden des statistischen Testens. Es sind vielmehr die von den Anwendern dieser Methoden festgelegten Hypothesen, die oftmals unbrauchbar sind, weil sie einfach nicht das überprüfen, was offenbar überprüft werden soll." Wenn man oben überprüfen möchte, ob ein praktisch bedeutsamer Unterschied zwischen den zwei Gruppen besteht und nicht nur irgendein Unterschied, dann ist die Einshypothese H1 natürlich auch so aufzustellen, dass sie nur jene Differenzen enthält, die in der Einschätzung des Anwenders praktisch bedeutsam sind, und nicht so, dass sie alle Parameterwerte umfasst, die ungleich null sind. Genau so wird die Diskrepanz zwischen Signifikanz und Relevanz von Testergebnissen aufgehoben. Schätzt man etwa nur Scheidungsraten, die sich um mehr als 10 %-Punkte unterscheiden praktisch relevant ein und möchte man überprüfen, ob ein praktisch bedeutsamer Unterschied zwischen den Scheidungsraten der beiden Gruppen besteht, dann müssen die Hypothesen eben folgendermaßen formuliert werden: H0: Betrag der Differenz der Anteile ≤ 0,1 und H1: Betrag > 0,1. Das erfordert dann eine etwas andere Teststrategie, was auch bei Verwendung eines Statistik- Programmpakets berücksichtigt werden muss. Ein signifikantes Ergebnis ist genau dann aber auch praktisch relevant. FORDERUNG: Formuliere die richtigen Hypothesen!
2. DATENMASSAGE: Das habe ich zB in meinem Buch als "forschungshypothesenfreies Alles-mit-Allem-Testen" bezeichnet und dementsprechend kritisiert: "Das dieser Vorgehensweise des forschungshypothesenfreien Testens eigene Abwarten der Anwender darauf, welche aus der Unmenge berechneter Testergebnisse signifikant werden, ist jedoch der Qualität der damit gewonnenen Erkenntnisse sehr abträglich. Denn „der Witz ist, dass wir stets etwas Besonderes finden, wenn wir nicht nach etwas Bestimmtem suchen. Irgendwelche Muster entstehen letztlich immer. ... Interessant sind sie nur, wenn eine Theorie sie vorhergesagt hat. Deshalb gehört es zum Standard wissenschaftlicher Studien, dass erst das Untersuchungsziel und die Hypothese angegeben werden müssen und dann die Daten erhoben werden. Wer aber nach irgendwelchen Mustern in Datensammlungen sucht und anschließend seine Theorien bildet, schießt sozusagen auf die weiße Scheibe und malt danach die Kreise um das Einschussloch“ (von Randow (1994), Das Ziegenproblem, S.94; Hervorhebungen wie dort)." Eine – wenn überhaupt – nachträglich auf Basis signifikanter Testergebnisse eines "Alles-mit-Allem-Tests" formulierte Theorie zur Erklärung dieser Ergebnisse hatte nie die Chance, innerhalb des Testkonzepts widerlegt zu werden! Ein beträchtlicher Teil des so erzeugten „Wissens“ ist schlicht und einfach falsch. FORDERUNG: Man halte sich an die Handlungslogik des statistischen Signifikanztests, die die Überprüfung von vorab formulierten und durch eine wissenschaftliche Erklärung motivierten Hypothesen postuliert!
3. ZWEISTUFIGE ANALYSEN: Quatember (2011) schreibt dazu: "Signifikante Ergebnisse von Alles-mit-Allem-Tests können nur dann einen nützlichen Beitrag auf dem Weg zu neuen Erkenntnissen leisten, wenn sie, sofern sie durch eine sinnvolle erklärende Theorie unterlegt werden können, in einer neuen Untersuchung – als Forschungshypothesen formuliert – (erstmalig) überprüft werden. In einem solchen Fall unterstützt diese Vorgehensweise sozusagen das Nachdenken des Anwenders zur Auffindung interessanter Fragestellungen. Diesen wenigen Fragestellungen kann dann mit der herkömmlichen Handlungslogik statistischer Tests nachgegangen werden. Und eine geringere Anzahl von auch noch begründeten Tests produziert schließlich eine geringere Anzahl von Fehlentscheidungen." FORDERUNG: Können signifikante Ergebnisse von "Alles-Mit-Allem-Tests" durch eine Theorie unterlegt werden, können sie als Basis für einen neuen Hypothesentest dienen!
Dies als Ergänzung zu dem gelungenen Aufsatz, um deutlich zu machen, dass diese Anwendungsproblematik als solche bekannt ist und auch gelehrt wird und dass es Auswege aus dem Fehlverhalten der Anwender gibt.
Nachdem ich diesen Artikel gelesen habe, möchte ich mich gern dafür einsetzen, dass die Europäische Union möglichst schnell Vernunft annimmt. Wo kann ich eine entsprechende Petition unterschreiben?
1) Warum endet die Collatz-Folge (CF) im Schwarzen Loch "1"? Immer durch den Schritt der CF "n/2", n eine gerade natürliche Zahl; und dann folglich auch nur durch n = eine Zweierpotenz 2m mit m > 0, m eine natürliche Zahl Richtig? Ich denke richtig
2) Was kann in der CF nur die geraden natürlichen Zahlen 2m erzeugen, die über den Schritt n/2 ins Schwarze Loch führen ? Immer der Schritt 3n+1, n>0, n eine ungerade natürliche Zahl.
3) Folglich gilt: Es muss natürliche Zahlenpaare (n, m) geben, die 3n+1= 2m erfüllen. Richtig? Ich denke richtig
4) Diese Gleichung hat unendlich viele Zahlenpaare als Lösung! Oder nach einfacher Umformung und/oder Umformulierung: Es gibt unendlich viele ungerade natürliche Zahlen der Form n=(2m - 1)/3. Richtig? Ich denke richtig
5) Wenn es unendlich viele natürliche Lösungen n gibt (s. o.), trifft der Schritt 3n+1 unabhängig von der Anzahl der Iterationen irgendwann auf eine Zahl der 2m-Reihe und fällt auf Grund von "n/2" ins Schwarze Loch! D. h. für alle natürlichen Zahlen n>0 fällt die CF in den Kreislauf 1, 4, 2, 1 ...
Richtig?
Stellungnahme der Redaktion
1) Richtig. Wenn eine Collatz-Folge den Wert 1 annimmt, muss sie zuvor irgendeine Zweierpotenz angenommen haben.
2) Richtig.
3) Folgt zwar nicht aus Obigem, ist aber richtig. Es gibt solche Zahlenpaare (n, m).
4) Richtig. Nicht für jedes m ist n eine ganze Zahl, aber es gibt unendlich viele Werte m, für die das der Fall ist.
5) Falsch. Genauer gesagt: In der Ausage "Wenn a, dann b" ist a richtig (s. o.), b ist höchstwahrscheinlich richtig (das ist die Aussage der Vermutung von Collatz), aber aus a folgt nicht b!
Wir haben unendlich viele "Fallen" unter den natürlichen Zahlen, nämlich die Zahlen 2m. Eine Collatz-Folge, die da reintritt, ist verloren. Aber die natürlichen Zahlen sind selbst unendlich – da ist viel Platz. Es ist einer Collatz-Folge nicht verboten, in den natürlichen Zahlen herumzuhüpfen, ohne jemals auf eine Falle zu treten. Was heißt das? Es gibt keinen offensichtlichen Grund dafür, dass eine Collatz-Folge je auf eine Falle treten müsste. Dass es unendlich viele Fallen gibt, ist kein Grund.
So wie es aussieht, gibt es einen Grund, aber der ist nicht offensichtlich. Wer ihn findet, hat das Collatz-Problem gelöst.
Triticale bindet Uran und soll dann in "Bio"Gasanlagen verwertet werden. Sind dies spezielle Anlagen ? Was passiert mit dem uranhaltigen Rest ?
Stellungnahme der Redaktion
Lesen Sie dazu bitte die Antwort unter dem vorangegangenen Leserbrief.
04.03.2014, Käthe Paulus
Fast Food kann süchtig machen, daher gilt wohl die vom russischen Diktator Lenin aufgestellte These: Religion ist das Opium für das Volk. Und Drogenentzug ist ein sehr schmerzhafter Prozess. Immanuel Kant hat schon vor 200 Jahren mit der Aufklärung versucht und das Ergebnis? Zwar brauchen immer weniger Homo Sapiens Sapiens ein imaginäres Wesen um mit ihrem realen Dasein zurecht zu kommen, es wird wohl aber bis zum dritten "Sapiens" brauchen, bis die Götter uns in Ruhe gelassen haben. Und so lange die Entscheidungsträger vorm Zorn der Letzteren und des gemeinen Volkes Angst haben, wird es das Fach "evolutionäre kognitive Neurowissenschaft der Religion" in der Schule nicht geben. Leider.
"… das durch Kreuzung von Roggen und Weizen gezüchtete Triticale, dem der Winter auf mitteldeutschen Uranhalden nichts ausmacht [2]. Regelmäßig geerntet und zu Bioenergie verarbeitet, ließe sich aus solchen Pflanzen sogar noch ein Gewinn erzielen. …"
Wo, bitte, bleibt das vom Triticale aufgenommene Uran, nachdem sie in einer Biogasanlage verabeitet wurden? Die Gärreste, die normalerweise auf dem Acker landen, sind dann doch auch hoch mit Uran belastet.
Stellungnahme der Redaktion
Danke für diese gute Frage - das ist ein wichtiger Aspekt, der im Text aber zu weit geführt hätte: Das mit Uran angereicherte Triticale-Getreide kann nicht für Nahrungsmittel verwendet werden. Bioenergie: Die Versuche der Forscher zeigten zwar (nach ihren Angaben) keine Uranbelastung im Energieträger (etwa im Biogas), allerdings sind Rückstände der Bioenergieerzeugung natürlich belastet und müssten fachgerecht entsorgt werden. Immerhin würden dieses Uran dann aber in einer Sondermülldeponie lagern, statt weiter großflächig und schwer überwachbar in der Bodenschicht.
Ist ja fein, dass das Uran von Feuchtgebieten zurückgehalten wird. Wenn aber über längere Zeit hinweg ständig neue Uranfrachten durch ein solches Feuchtgebiet geleitet werden, muss sich das Element doch mit der Zeit immer mehr anreichern. Ich würde erwarten, dass die Konzentration irgendwann einen für die Pflanzen - und Tierwelt kritischen Wert überschreitet, der die Angelegenheit zum Kippen bringt. Was dann? Alles abernten und mit unbelasteten Böden und unbelasteten Pflanzen von vorn anfangen? (Woher nehmen und wie genau soll das funktionieren?) Irgendwie und irgendwann muss doch das in das Feuchtgebiet eingebrachte Uran auch wieder aus diesem entfernt werden, oder ist die zu erwartende Gesamtmenge über die nächsten 1000 Jahre so gering, dass man sich da keine Gedanken machen muss?
Landkarte und Evakuierungszonen
08.03.2014, Björn Hauptfleischich bedanke mich für den detaillierten Artikel über Fukushima, der sich wohltuend von der oftmals verzerrten Berichterstattung - besonders in den "öffentlich-rechtlichen" Medien - abhebt. Ich erlaube mir darauf hinzuweisen, dass die im Artikel gezeigte Landkarte der Evakuierungszone nicht ganz aktuell ist.
Auch die in der Landkarte orange schraffierte und die dunkelrot eingezeichnete Sperrzone ist inzwischen aufgehoben und nach radioaktiver Belastung gestaffelt neu organisiert worden. Als Zone mit weitgehendem Betretungsverbot (>50 mSv/Jahr) sind im wesentlichen die Gemeinden Futaba und Okuma sowie der Nordosten von Tomioka und der Westen von Namie verblieben. In diesem Gebiet lebten vor dem Störfall rund 25 000 Menschen. Die Evakuierungsanordnung für dieses Gebiet soll nicht innerhalb von fünf Jahren aufgehoben werden.
Die beiden anderen Zonen (unter 20 mSv/Jahr und 20-50 mSv/Jahr) betreffen die Gemeinden Tomioka (außer Nordostteil), Naraha, Kawauchi (Ostteil), Tamura(Ostteil), Katsurao, Iitate, Minamisoma-Odaka und Namie (außer Westteil). In diesem Gebiet wohnten ca. 70 000 Menschen. Für 30 000 von diesen soll die Evakuierungsanordnung innerhalb von zwei Jahren aufgehoben werden.
Von den 2011 nach der Havarie evakuierten 154 000 Personen durften bereits ca. 60 000 zurückkehren (Wie viele davon Gebrauch gemacht haben, steht auf einem anderen Blatt). Die Rückkehr-Erlaubnis gilt für die 20-30 km Ringzone um das Kraftwerk, soweit das Gebiet nicht in eine der anderen Kategorien fällt.
Paradigmenwechsel brauchen Zeit
07.03.2014, Stefan PscheraDie Hirnforschung erlebt einen Paradigmenwechsel. Weg von den Lokalisationstheorien hin zum Konnektom. Letzteres wird 2014- massiv mit Milliarden gefördert.
Die Evolutionstheorien dagegen werden langsamer korrigiert und noch heimlich.
Wie lässt sich mit heutiger Evolutionstheorie erklären?
„Die Forscher vermuten, dass Hirschkühe über Generationen die Abgrenzung ihres Territoriums an ihre Nachkommen weitergeben.“
Quelle http://www.spiegel.de/wissenschaft/natur/hirsche-stoppen-an-frueherer-grenze-zwischen-ost-und-west-a-945071.html
Inzwischen viele solcher Fakten dokumentiert.
Milliardstel, nicht millionstel Meter
07.03.2014, Christian HartlDie x-Achse des Diagramms ist beschriftet mit "Wellenlänge (Millionstel Meter)", es muss aber Milliardstel Meter heißen.
Sie haben recht, danke für den Hinweis! Nur der Wert in der nebenstehenden Bildunterschrift hat die korrekte Größenordnung.
Genetisch veränderte T-Zellen sind auch für die Krebstherapie vielversprechend
07.03.2014, Martin HolzherrPackend geschrieben
06.03.2014, Martin HolzherrZum Beitrag Nr.8
06.03.2014, Walter WeissEs passiert mehr im Gehirn
05.03.2014, Stefan PscheraDie Kenntnisse zur Epigenetik veränderten sich. Die zur Darwin-Theorie gehörige Weismann-Barriere ist überholt. Genabschnitte werden bei Bedarf aktiviert, an- und abgeschaltet . Und noch mehr gilt, die Gene werden aktiv verändert. Und es betrifft eben nicht nur existenzielle Funktionen. Schon beim Erlernen einer Fähigkeit oder krassen Erlebnissen werden Gene verändert. Alles wird gespeichert. Dadurch haben wir ein Wissenspool in uns. Wir nutzen das in den Genen gespeicherte Wissen, ohne davon zu bemerken. Und erweitern dieses von Generation zu Generation.
Und das Gehirn verändert all dieses. Macht all dies passend. Das Wie kann nur spekulativ beantwortet werden. Aber diese Veränderungen nützen egoistisch.
Damit haben wir einen Helfer in uns und das Gehnirn nutzt den genetischen Wissenspool. Und meist folgen wir blind deren Appetenz. Die Ratschläge der Bibel oder des Korans sind dagegen Peanuts.
Und jetzt ein Vergleich zu Bibelsprüchen: „Und ob ich schon wanderte im finstern Tal, fürchte ich kein Unglück; denn du bist bei mir, dein Stecken und dein Stab trösten mich.“ oder „ Was ihr für einen meiner geringsten Brüder getan habt, das habt ihr mir getan.“ Es passt.
In uns ist ein helfendes Wissen, welches nur ansatzweise begriffen wird.
Der Käsekuchen ist wieder da...
05.03.2014, Dr. Michael BlumeDie empirische (und, im Gegensatz zu so reduktionistischen Ansätzen, interdisziplinäre) Evolutionsforschung zu Religiosität und Religionen ist da schon viel weiter und war z.B. bereits 2009 als "Homo religiosus" eine Gehirn & Geist-Titelgeschichte.
Aber falls das Buch noch ein paar Leute dazu bringen sollte, sich dann auch vertieft mit dem Thema auseinander zu setzen, soll es recht sein. Auf jeden Fall Danke für die Rezension! :-)
Anwendungsproblematik der Statistik
05.03.2014, Andreas Quatemberich erlaube mir zu Beginn, darauf hinzuweisen, dass entgegen dem, was die Literaturliste des schönen Aufsatzes von Regina Nuzzo vielleicht suggeriert, die abgehandelte mehrschichtige Problematik nicht erst in den letzten Jahren diskutiert wird. Selbst ich (Andreas Quatember, Institut für Angewandte Statistik, Johannes Kepler Universität Linz, Österreich) bin immerhin seit Mitte der 90er Jahre in Konferenzbeiträgen und Veröffentlichungen darauf eingegangen. So enthält auch mein Studienbuch "Statistik ohne Angst vor Formeln" (2011, 3. Auflage, Pearson Studium, München) beispielsweise einen Abschnitt "3.13 Probleme in der Anwendung statistischer Tests". Diese Problematik wird von mir (und allen Kolleginnen und Kollegen, die nach meinem Buch ihre Hochschullehrveranstaltung gestalten), den Studierenden gelehrt. Ich möchte auf drei Punkte kurz aus meiner Perspektive eingehen, die im Buch und auch im oben genannten Artikel angeschnitten werden.
1. Das RELEVANZPROBLEM: Nuzzo erwähnt "die Tatsache, dass der p-Wert die Aufmerksamkeit von der Effektgröße weglenkt." Und nennt als Beispiel eine Untersuchung, die zeigt, dass Scheidungsraten und Zufriedenheit mit der Ehe sich in den Gruppen derer, die sich "offline kennenlernten" und derer, die sich "online kennenlernten", zwar statistisch signifikant, aber nur minimal unterscheiden. "Die Signifikanz eines Ergebnisses sage eben nichts über die praktische Bedeutung aus, erklärt Geoff Cumming".
Dazu darf ich von S.192 aus Quatember (2011) zitieren: "Tatsächlich handelt es sich hierbei jedoch keineswegs um eine Schwäche der Methoden des statistischen Testens. Es sind vielmehr die von den Anwendern dieser Methoden festgelegten Hypothesen, die oftmals unbrauchbar sind, weil sie einfach nicht das überprüfen, was offenbar überprüft werden soll." Wenn man oben überprüfen
möchte, ob ein praktisch bedeutsamer Unterschied zwischen den zwei Gruppen besteht und nicht nur irgendein Unterschied, dann ist die Einshypothese H1 natürlich auch so aufzustellen,
dass sie nur jene Differenzen enthält, die in der Einschätzung des
Anwenders praktisch bedeutsam sind, und nicht so, dass sie alle Parameterwerte
umfasst, die ungleich null sind. Genau so wird die Diskrepanz zwischen Signifikanz
und Relevanz von Testergebnissen aufgehoben. Schätzt man etwa nur Scheidungsraten, die sich um mehr als 10 %-Punkte unterscheiden praktisch relevant ein und möchte man überprüfen, ob
ein praktisch bedeutsamer Unterschied zwischen den Scheidungsraten der beiden Gruppen besteht, dann müssen die Hypothesen eben folgendermaßen formuliert werden:
H0: Betrag der Differenz der Anteile ≤ 0,1 und H1: Betrag > 0,1.
Das erfordert dann eine etwas andere Teststrategie, was auch bei Verwendung eines Statistik-
Programmpakets berücksichtigt werden muss. Ein signifikantes Ergebnis ist genau dann aber auch praktisch relevant.
FORDERUNG: Formuliere die richtigen Hypothesen!
2. DATENMASSAGE: Das habe ich zB in meinem Buch als "forschungshypothesenfreies Alles-mit-Allem-Testen" bezeichnet und dementsprechend kritisiert: "Das dieser Vorgehensweise des forschungshypothesenfreien Testens eigene Abwarten der Anwender darauf, welche aus der Unmenge berechneter Testergebnisse signifikant werden, ist jedoch der Qualität der damit gewonnenen Erkenntnisse sehr abträglich. Denn „der Witz ist, dass wir stets etwas Besonderes finden, wenn wir nicht nach etwas Bestimmtem suchen. Irgendwelche Muster entstehen letztlich immer. ... Interessant sind sie nur, wenn eine Theorie sie vorhergesagt hat. Deshalb gehört es zum Standard wissenschaftlicher Studien, dass erst das Untersuchungsziel und die Hypothese angegeben werden müssen und dann die Daten erhoben werden. Wer aber nach irgendwelchen Mustern in Datensammlungen sucht und anschließend seine Theorien bildet, schießt sozusagen auf die weiße Scheibe und malt danach die Kreise um das Einschussloch“ (von Randow (1994), Das Ziegenproblem, S.94; Hervorhebungen wie dort)."
Eine – wenn überhaupt – nachträglich auf Basis signifikanter Testergebnisse eines "Alles-mit-Allem-Tests" formulierte Theorie zur Erklärung dieser Ergebnisse hatte nie die Chance, innerhalb des Testkonzepts widerlegt zu werden! Ein beträchtlicher Teil des so erzeugten „Wissens“ ist
schlicht und einfach falsch.
FORDERUNG: Man halte sich an die Handlungslogik des statistischen Signifikanztests, die die Überprüfung von vorab formulierten und durch eine wissenschaftliche Erklärung motivierten Hypothesen postuliert!
3. ZWEISTUFIGE ANALYSEN: Quatember (2011) schreibt dazu: "Signifikante Ergebnisse von Alles-mit-Allem-Tests können nur dann einen nützlichen Beitrag auf dem Weg zu neuen Erkenntnissen leisten, wenn sie, sofern sie durch eine sinnvolle erklärende Theorie unterlegt werden können, in einer neuen Untersuchung – als Forschungshypothesen formuliert – (erstmalig) überprüft werden. In einem solchen Fall unterstützt diese Vorgehensweise sozusagen das Nachdenken des Anwenders
zur Auffindung interessanter Fragestellungen. Diesen wenigen Fragestellungen kann dann mit der herkömmlichen Handlungslogik statistischer Tests nachgegangen werden. Und eine geringere Anzahl von auch noch begründeten Tests produziert schließlich eine geringere Anzahl von Fehlentscheidungen."
FORDERUNG: Können signifikante Ergebnisse von "Alles-Mit-Allem-Tests" durch eine Theorie unterlegt werden, können sie als Basis für einen neuen Hypothesentest dienen!
Dies als Ergänzung zu dem gelungenen Aufsatz, um deutlich zu machen, dass diese Anwendungsproblematik als solche bekannt ist und auch gelehrt wird und dass es Auswege aus dem Fehlverhalten der Anwender gibt.
Beste Grüße, Andreas Quatember
Was tun?
05.03.2014, Liane MayerSie können hier unterzeichnen:
https://www.change.org/petitions/european-union-diclofenac-the-vulture-killing-drug-is-now-available-on-eu-market#share
Collatz Folge
04.03.2014, helmut schmidtImmer durch den Schritt der CF "n/2", n eine gerade natürliche Zahl;
und dann folglich auch nur durch n = eine Zweierpotenz 2m mit m > 0, m eine natürliche Zahl
Richtig? Ich denke richtig
2) Was kann in der CF nur die geraden natürlichen Zahlen 2m erzeugen, die über den Schritt n/2 ins Schwarze Loch führen ?
Immer der Schritt 3n+1, n>0, n eine ungerade natürliche Zahl.
3) Folglich gilt: Es muss natürliche Zahlenpaare (n, m) geben, die 3n+1= 2m erfüllen.
Richtig? Ich denke richtig
4) Diese Gleichung hat unendlich viele Zahlenpaare als Lösung!
Oder nach einfacher Umformung und/oder Umformulierung:
Es gibt unendlich viele ungerade natürliche Zahlen der Form n=(2m - 1)/3.
Richtig? Ich denke richtig
5) Wenn es unendlich viele natürliche Lösungen n gibt (s. o.), trifft der Schritt 3n+1 unabhängig von der Anzahl der Iterationen irgendwann auf eine Zahl der 2m-Reihe und fällt auf Grund von "n/2" ins Schwarze Loch! D. h. für alle natürlichen Zahlen n>0 fällt die CF in den Kreislauf 1, 4, 2, 1 ...
Richtig?
1) Richtig. Wenn eine Collatz-Folge den Wert 1 annimmt, muss sie zuvor irgendeine Zweierpotenz angenommen haben.
2) Richtig.
3) Folgt zwar nicht aus Obigem, ist aber richtig. Es gibt solche Zahlenpaare (n, m).
4) Richtig. Nicht für jedes m ist n eine ganze Zahl, aber es gibt unendlich viele Werte m, für die das der Fall ist.
5) Falsch. Genauer gesagt: In der Ausage "Wenn a, dann b" ist a richtig (s. o.), b ist höchstwahrscheinlich richtig (das ist die Aussage der Vermutung von Collatz), aber aus a folgt nicht b!
Wir haben unendlich viele "Fallen" unter den natürlichen Zahlen, nämlich die Zahlen 2m. Eine Collatz-Folge, die da reintritt, ist verloren. Aber die natürlichen Zahlen sind selbst unendlich – da ist viel Platz. Es ist einer Collatz-Folge nicht verboten, in den natürlichen Zahlen herumzuhüpfen, ohne jemals auf eine Falle zu treten. Was heißt das? Es gibt keinen offensichtlichen Grund dafür, dass eine Collatz-Folge je auf eine Falle treten müsste. Dass es unendlich viele Fallen gibt, ist kein Grund.
So wie es aussieht, gibt es einen Grund, aber der ist nicht offensichtlich. Wer ihn findet, hat das Collatz-Problem gelöst.
Christoph Pöppe, Redaktion
Triticale bindet Uran
04.03.2014, gruenes_edertalLesen Sie dazu bitte die Antwort unter dem vorangegangenen Leserbrief.
Immanuel Kant hat schon vor 200 Jahren mit der Aufklärung versucht und das Ergebnis? Zwar brauchen immer weniger Homo Sapiens Sapiens ein imaginäres Wesen um mit ihrem realen Dasein zurecht zu kommen, es wird wohl aber bis zum dritten "Sapiens" brauchen, bis die Götter uns in Ruhe gelassen haben. Und so lange die Entscheidungsträger vorm Zorn der Letzteren und des gemeinen Volkes Angst haben, wird es das Fach "evolutionäre kognitive Neurowissenschaft der Religion" in der Schule nicht geben. Leider.
Wo bleibt das Uran?
04.03.2014, Thomas PrußWo, bitte, bleibt das vom Triticale aufgenommene Uran, nachdem sie in einer Biogasanlage verabeitet wurden? Die Gärreste, die normalerweise auf dem Acker landen, sind dann doch auch hoch mit Uran belastet.
Danke für diese gute Frage - das ist ein wichtiger Aspekt, der im Text aber zu weit geführt hätte: Das mit Uran angereicherte Triticale-Getreide kann nicht für Nahrungsmittel verwendet werden.
Bioenergie: Die Versuche der Forscher zeigten zwar (nach ihren Angaben) keine Uranbelastung im Energieträger (etwa im Biogas), allerdings sind Rückstände der Bioenergieerzeugung natürlich belastet und müssten fachgerecht entsorgt werden. Immerhin würden dieses Uran dann aber in einer Sondermülldeponie lagern, statt weiter großflächig und schwer überwachbar in der Bodenschicht.
Mit freundlichen Grüßen
Karl Urban
Und die Anreicherung?
04.03.2014, Liane Mayer