Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Auch in der Technik wird der Druck meist über eine verstellbare Ventilöffnung eingestellt. Interessanter finde ich aber folgenden Aspekt:
Der Fisch will einen sowohl großen als auch schnellen Tropfen erzeugen, um das Ziel mit hoher Leistung zu treffen. Diese Leistung hat er jedoch nicht zur Verfügung. Außerdem kann er mit weitem Maul entweder einen breiten Strahl oder, mit schmalem, einen schnellen Strahl erzeugen. Der Strahl soll sowohl breit (großer Querschnitt) als auch schmal (schnell) sein, was aber offensichtlich nicht gleichzeitig möglich ist. Auch Ingenieure würden hier meist kapitulieren. Die Lösungstechnik nach TRIZ heißt "Separation in der Zeit" und "Separation im Raum": ERST wird die Energie über längere Zeit erzeugt (Strahl, geringe Leistung), DANN in einem Tropfen konzentriert (hohe Leistung). Im Maul ist der Strahl lang gestreckt, am Ziel gebündelt. Beide Lösungstechniken sind anspruchsvoll, ihre Kombination ist genial. Auch der verwendete physikalische Effekt, eine intensive Welle durch Überlagerung verschiedener Geschwindigkeiten zu erzeugen, ist in der Technik sehr selten (wenn er auch jeder sich brechenden Welle am Strand zugrunde liegt).
"Lichtverschmutzung" ist ein unwissenschaftlicher Kampfbegriff. Meinetwegen kann die BILD-Zeitung ihn gern verwenden, aber bitte nicht SdW.
Öffentliche Beleuchtung wird ja nicht gemacht, um Astronomen zu ärgern, sondern weil die Bürger im großen und ganzen zufrieden und einverstanden mit ihr sind. Natürlich gibt es wie überall auch bei der öffentlichen Beleuchtung Optimierungspotential. Aber unter dem Strich ist sie kein Problem, sondern eine Errungenschaft.
da möchte ich aber mal mindestens einen Kasten Bier wetten (ohne entsprechend recherchiert zu haben), dass die "Milliardenschäden" von 1996 in isländischen Kronen bewertet wurden! (1 EUR sind nämlich ca. 156 davon)
Stellungnahme der Redaktion
Sehr geehrter Herr Rupp,
Sie haben Recht: der Schaden in Euro betrug nur "nur" etwa 30 Millionen Euro. Ich ergänze die Devisenangaben.
Ich freue mich, daß sich Spektrum der Wissenschaft vermehrt mit Fragen der Qualität in der Wissenschaft befaßt. Frau Nuzzos Artikel zum besorgniserregenden "p-Wert-Kult" ist ein wichtiger Beitrag, um die überfällige Diskussion über unwissentlich oder auch bewußt fehlinterpretierte statistische Aussagen auch ins Bewußtsein der interessierten Öffentlichkeit zu rücken, die schließlich für den Großteil dieser Forschung auch bezahlt und – schlimmer noch – mit den Folgen leben muß, wenn zum Beispiel aus falsch verstandenen Statistiken politische Entscheidungen hervorgehen.
Ob Nullhypothesentests à la Fisher-Neyman-Pearson und die damit verbundenen p-Werte im Speziellen überhaupt sinnvoll nutzbar zur Beantwortung üblicher wissenschaftlicher Fragestellungen sind, ist schließlich Gegenstand einer seit Jahrzehnten, teilweise recht leidenschaftlich, geführten Dikussion; ganz zu schweigen von der wohl noch länger geführten Debatte über die "richtige" Interpretation von Wahrscheinlichkeiten (Laplace, Boole, Venn etc.). Leider wird Statistik-Anwendern meiner Erfahrung nach praktisch nie vermittelt, daß dieser grundsätzliche Gegensatz zwischen der frequentistischen und der bayesianischen Interpretation überhaupt existiert. Das wäre aber wichtig, um nicht den Eindruck entstehen zu lassen, es gäbe nur eine zulässige, quasi sakrosankte Methode, an die man sich geradezu sklavisch halten müsse, um Schlüsse aus den Ergebnissen eines Experiments ziehen zu dürfen, bzw. die auf scheinbar geradezu magische Art und Weise selbst aus einer eigentlich offensichtlich unzureichenden Datenbasis noch "signifikante" Ergebnisse extrahieren kann, auch wenn das jedem gesunden Menschenverstand widerspricht.
Die Ursachen für den allgegenwärtigen Mißbrauch von Nullhypothesentests und die Fehlinterpretationen von p-Werten sind vielfältig, und entsprechend schwer ist ihnen beizukommen. Ein wesentlicher Grund dürfte aber schlicht Bequemlichkeit sein: Nicht-Statistiker sind in der Regel nicht an Statistik interessiert, das ist jedenfalls meine Erfahrung. Folglich wird das Knöpfchen im Statistikprogramm halt gedrückt, damit man den für die Publikation notwendigen p-Wert erhält. Was sich dahinter verbirgt, interessiert in der Regel wenig, solange nur das Ergebnis statistische Signifikanz signalisiert (und wie immer bestätigen Ausnahmen nur die Regel). Aber wie sollte sich an dieser Praxis auch etwas ändern, solange die Qualität eines Wissenschaftlers alleine an der Länge seiner Publikationsliste gemessen wird?
Auch das ist ein Grund, warum man der Open-Science-Bewegung nur Erfolg wünschen kann oder, noch besser, aktiv zu ihrem Erfolg beitragen sollte. Ein solcher Kulturwechsel ist meines Erachtens schlicht überlebensnotwendig für die wissenschaftliche Forschung. Zwar wird ein offener, transparenter Umgang mit Forschungsdaten allein weder die gegenwärtige Praxis allgegenwärtiger statistischer Tests noch bewußten Betrug unterbinden können. Aber so wäre es, als erster Schritt in eine bessere, offenere Zukunft, zumindest möglich, daß Dritte die Daten und deren Interpretation überprüfen und so zumindest methodische Fehler aufdecken.
Ihren Einwand verstehe ich nicht. Es geht doch wohl in erster Linie darum, interne Operationen des Prozessors oder der Speicher usw. zu beschleunigen. Wieso müssten dann mehr Kabel verbaut werden? Und Photonen haben doch gar keine (Ruhe)Masse. Im Übrigen haben in einem Computer sowieso nicht alle Bauteile die gleiche Taktfrequenz. Viele Peripherie-Bauteile arbeiten mit niedrigeren Taktfrequenzen als der Prozessor - oder auch höheren, wie bei einigen Grafik-Chips.
ein Computer mit hohen Taktfrequenzen im Herz Bereich ist wie ein stau in der Stadt erstens würde mehr kabel verbaut werden müssen. 2. müsste man ein kurz frequentes beschleunigen verhindern was nur mit schwerer Masse möglich ist (Photonen) um eine halbwegs gleiche Frequenz aller Bauteile zu erlangen.
Das ist ja eine interessante Forderung, die der Iran da stellt. Wie wäre es denn erst mal mit der Regulierung der Geburtenzahl auf zwei Kinder - dann würde sich das Problem reduzieren. Dann mit der Ausbildung und Gesundheitsförderung der Kinder. Wir können unser Trinkwasser natürlich auch für das gleiche Geld verkaufen, wie der Iran sein Öl an uns. So wendet sich das Blatt.
Stellungnahme der Redaktion
Sehr geehrter Herr Seemann,
das Bevölkerungswachstum liegt im Iran übrigens derzeit bei 1,3 Prozent (in Deutschland bei 0,2 Prozent); pro Frau wurden 2011 im Mittelwert 1,6 Kinder geboren. Insgesamt sank die Geburtenrate seit mehreren Jahrzehnten recht drastisch, teilweise unter dem Einfluss politischer Steuerungsmaßnahmen.
Auch der Bildungspolitik stellen neutrale Beobachter ein eher positives Zeugnis aus, vor allem im Vergleich mit anderen islamischen Staaten. Gerade der recht hohe Anteil an weiblichen Studierenden überrascht Uninformierte oft. Die Probleme des Landes liegen offenkundig auf anderem Gebiet.
Mit freundlichen Grüßen Jan Osterkamp Redaktion Spektrum.de
01.09.2014, Ferdinand Wegrostek, Zillingdorf Bergwerk (Österreich)
Der Beitrag hat mir als ehemaligem Wirtschaftspsychologen, Markt- und Meinungsforscher gut gefallen, weil er der Signifikanz die zugeschriebene Göttlichkeit nimmt und aufzeigt, was der p-Wert (nicht) zu leisten im Stande ist. Gefallen hat mir auch das Herausstreichen anderer wichtiger Orientierungsparameter wie Effektgröße und Konfidenzintervall. Das Spektrum der Faktoren, welche die Ergebnisse einer Untersuchung beziehungsweise den p-Wert beeinflussen können, ist so breit, dass es nicht verwundert, dass ein guter Teil aller mit Signifikanz deklarierten Studien schlichtweg falsche und nicht replizierbare Ergebnisse enthält. Die Einflussfaktoren beginnen beim Untersucher selbst, seinen Beweggründen, Zielen und Erwartungen an die Studie, reichen über das Prozedere von Hypothesenformulierung, Art des gewählten experimentelles Designs, Stichprobenart und -größe, das benutzte statistische Verfahren und enden letztlich mit einer vorsichtig-richtigen oder gewagt-fragwürdigen Interpretation. Unzureichendes Fachwissen selbst erscheint mir dabei nicht als vordergründige Ursache, dass ein guter Teil aller Studien falsch ist. Die Ursachen liegen häufig im Ehrgeiz und Erfolgsdruck, dem sich Forscher und Doktoranden aussetzen. Man ist a priori bestrebt die eigene Hypothese zu bestätigen, arbeitet konzentriert darauf hin und vermeidet jede Art von möglicher Falsifizierung. Bei kommerziellen Unternehmungen wie etwa Markt- und Meinungsforschungsinstituten führen Zeitdruck und wirtschaftliche Zielstrebungen, Profitorientierung und Minimierung des Kostenaufwandes zu Fehlern und Nachlässigkeiten in Planung, Durchführung und Auswertung – oder gar zu mehr oder weniger bewusster Ergebnismanipulation. Abhilfe kann hier nur eine noch stärkere Reglementierung als bisher durch Fachgremien bringen. Kontrolle und Sanktion müssten mit vorgesehen werden. Es gilt noch strengere Standards im wissenschaftlichen Bereich als auch in den einzelnen kommerziellen Branchen sowie für die Ergebnisveröffentlichung zu setzen. Möglichst viele Untersuchungsparameter müssten dargestellt werden und Eingang in die Publikationen der Studien an die Öffentlichkeit, also an den statistischen Laien, finden. Im Bereich von Umfragen und deren Publikationen müssten vom Journalisten standardmäßig Stichprobengröße und Konfidenzintervall (mit Erklärung) anführt werden. Denn nur durch Offenlegung möglichst vieler statistischer Parameter und deren richtige Interpretation kann man letzten Endes den bestehenden Vorurteilen gegenüber Umfrageergebnissen in der breiten Öffentlichkeit wirkungsvoll begegnen und den strapazierten Spruch "Es gibt drei Arten von Lügen: Lügen, verdammte Lügen und Statistiken“ selbst als oberflächlichen Sager entlarven.
Sowohl die ATLAS als auch die CMS Collaboration des LHC haben keine supersymmetrischen Teilchen entdeckt (ATLAS Coll., Phys. Rev. Lett. 106 (2011) 131802; CMS Coll., Phys. Rev. Lett. 107 (2011) 221804). Die untere Grenzmasse für gleichschwere Squarks und Gluinos liegt nun bei 1700 GeV (ATLAS Coll., arXiv: 1405.7875). Vorhergesagt waren Squark- und Gluino-Massen von höchstens 300 GeV.
Die LUX Collaboration hat keine Neutralinos aus der kalten dunklen Materie entdeckt (LUX Coll., Phys. Rev. Lett. 112 (2014) 091303) und damit die Beobachtung der DAMA Collaboration widerlegt, die vielfach als Evidenz für SUSY-CDM galt.
Die indirekte Evidenz für Gravitationswellen im inflationären Universum (BICEP2 Coll., Phys. Rev. Lett. 112 (2014) 241101) konnte als Effekt des interstellaren Staubs erklärt werden (K. M. Smith et al., Phys. Rev. Lett. 113 (2014) 031301; M. J. Mortonson and U. Seljak, arXiv: 1405.5857; R. Flauger et al., arXiv: 1405.7351). Diese Erklärung schließt kosmische Inflation auf der Energie-Skala von 10¹⁶ GeV oder mehr aus, also SUSY-GUT-Skala oder Planck-Skala.
Die Supersymmetrie ist damit widerlegt. Damit sind auch die auf der Supersymmetrie basierenden Theorien wie Supergravitation, Superstring-Theorie, M-Theorie, supersymmetrische Große Vereinheitlichung obsolet geworden.
Ein Argument für die Existenz von Supersymmetrie war bislang, dass sie die Existenz von Fermionen (mit asymmetrischem Energie-Impuls-Tensor) im Gravitationsfeld erklären kann. Der Energie-Impuls-Tensor der allgemeinen Relativität ist bekanntlich symmetrisch. Aber auch eine Erweiterung der Allgemeinen Relativität, die Einstein-Cartan-Theorie, die Cartans Torsion enthält, beschreibt einen asymmetrischen Energie-Impuls-Tensor. (Siehe R. W. Kühne, Quantum Field Theory with Electric-Magnetic Duality and Spin-Mass Duality but Without Grand Unification and Supersymmetry, African Review of Physics 6 (2011) 165-179 http://lamp.ictp.it/index.php/aphysrev/article/download/460/211.pdfhttp://inspirehep.net/record/1182299?ln=de .)
Die Quantisierung der elektrischen Ladung kann durch Diracs magnetische Monopole erklärt werden, dazu bedarf es nicht der Großen Vereinheitlichung. Das Problem der Massenhierarchie entfällt, da es keine Große Vereinheitlichung gibt. (Siehe mein obengenanntes Paper in African Review of Physics.)
Meine in diesem Paper vorgestellte Theorie kann durch das dort vorgeschlagene Tabletop-Experiment verifiziert werden.
Zu den von Joseph Lykken und Maria Spiropulu genannten Alternativen sei gesagt, dass ich alle Theorien als leicht widerlegbar halte, die mehr als drei Raumdimensionen oder mehr als eine Zeitdimension besitzen. Der Grund ist, dass ein Raum mit n Dimensionen n(n-1)/2 orthogonale Rotationsachsen besitzt. Bei n=1 Dimension sind dies null Rotationsachsen, das ist möglich, wie bei der Zeit. Bei n=2 Dimensionen gibt es eine Rotationsachse, die senkrecht auf den beiden Dimensionen steht (z. B. Zeigeruhr), eine zweidimensionaler Raum ist also prinzipiell unvollständig. Bei n=3 Dimensionen gibt es drei orthogonale Rotationsachsen, von denen sich jede in eine der Dimensionen des Raums erstreckt, also ein vollständiges und konsistentes System. Bei mehr als drei Dimensionen gibt es mehr orthogonale Rotationsachsen als Dimensionen, das System ist also inkonsistent. Auch kompaktifizierte Dimensionen helfen nicht, da Objekte, die kleiner als die kompaktifizierten Dimensionen sind, rotieren sollten.
Der Anti-deSitter-Raum (zwei zeitliche und drei räumliche Dimensionen) ist also schon aus diesem Grund unmöglich. Abgesehen davon ist er physikalisch unmöglich, da er statisch ist, also keinen Hubble-Effekt enthält, und eine negative kosmologische Konstante beschreibt, was der Beobachtung einer positiven kosmoligischen Konstanten widerspricht. Damit sind sowohl die Randall-Sundrum-Theorie als auch alle Theorien obsolet, die eine Analogie zwischen konformer Feldtheorie und Anti-deSitter-Raum behaupten.
Zum Leserbrief von Werner Preuß: Die Bosonen können nicht aus Konstituenten aufgebaut sein. Wäre z. B. das W-Boson zusammengesetzt, so müssten, wegen der Mischung der Felder gemäß Quantenflavourdynamik = Weinberg-Salam-Theorie, auch das Z-Boson und das Photon zusammengesetzt sein. Konstituenten haben aber ein Schwerpunktssystem, so dass für das Gesamtsystem eine endliche Ruhmasse vorliegt. Das Photon hat aber die Ruhmasse null. Somit kann das Photon nicht zusammengesetzt sein, ebensowenig das Z-Boson und das W-Boson.
Der Redakteur hätte mal besser lesen sollen, bevor er diese Überschrift titelte. Denn das PIK schrieb eigentlich in seiner typischen Manier: Dieser Meeresspiegelanstieg könnte - vielleicht, eher nicht - so in 5000 Jahren verstärkt steigen. Zumindest haben wir nach verzeifelter Suche in der sich dem Klimawandel völlig verweigernden Antarktis wenige Gletscher gefunden, die so etwas wie einen "Propfen" vor dem Weg ins Meer haben. Sofern so ein "Pfropfen" schmelzen würde - nicht in Sicht, aber könnte doch - müsste der Gletscher schneller fließen. Dann würde doch der Meeresspiegel steigen, wenn das die ganze Arktis mit machen würde. Geht zwar nicht, weil der wesentliche Teil Festlandeis ist. Klingt aber doch alarmistisch gut. Unsere Simulationen haben das auf jeden Fall sofort mit ungeheurer Präzision, aber hoher Streuung rechnen können, wann das dann passiert ist. Und dass dieser Schwachsinn von uns in allen Zeitungen veröffentlicht wird, belegt, dass es wieder eine gute Klimawandel-Alarm-Story ist. Denn wer Klimawandelangst hat, den lasssen wir nicht im Stich.
Stellungnahme der Redaktion
Sehr geehrter Klimarealist,
der Titel des Papers in Nature Climate Change lautet "Ice plug prevents irreversible discharge from East Antarctica". Weder hier noch anderswo im Paper ist die Rede davon, der Meeresspiegel steige erst in 5000 Jahren verstärkt. Laut den Simulationen könnte der Eisverlust in der Ostantarktis bereits in den kommenden Jahrhunderten deutlich zum Anstieg des Meeresspiegels beitragen. Genauso ist es auch im Abstract wiedergeben: "Our results are robust with respect to variation in ice parameters, forcing details and model resolution as well as increased surface mass balance, indicating that East Antarctica may become a large contributor to future sea-level rise on timescales beyond a century". Die Anhebung des Meeresspiegels ist dabei eine Art Sättigungsfunktion mit zunächst starkem, später flachem Anstieg. Der Wert von 3-4 Meter wird - hier haben Sie recht - im bereits flachen Kurvenabschnitt nach einigen tausend Jahren erreicht. Das ist aber nicht der wesentliche Punkt. Die zentrale Aussage des Papers ist, das Schmelzen des "Eiskorkens" setze ein irreversibles Kalben der Gletschermasse in Gang, die am Ende zu einem 3-4 Meter höheren Meeresspiegel führe. So haben wir es in der Nachricht auch wiedergegeben.
Dass die Antarktis sich dem Klimawandel "völlig verweigere", kann man nicht gerade behaupten. Siehe etwa hier.
Für mich ein sehr interessanter Artikel. Ich habe Mitte der 90-ziger Jahre 2 Jahre in Tanzania gelebt und während der Zeit 2 epileptische Anfälle gehabt. Die intensiven neurologischen Untersuchungen in Deutschland haben damals keinen Befund ergeben. Es ist auch keinerlei Behandlung erfolgt. Seitdem sind die Anfälle nicht wieder aufgetreten. Wäre interessant zu wissen, ob sich die Neurozystizerkose nach einer gewissen Zeit tot läuft. mfg KF
Mir stellen sich bei der Durchsicht des Originalpapers und meinen bescheidenen Kenntnissen zwei aufeinander aufbauende Fragen, die evtl. jmd. mit mehr Sachverstand erläutern könnte:
1. Betrachtet man den Strahlengang in der Originalveröffentlichung, so wird der Infrarotstrahl, der mit dem Objekt wechselwirkt durch den zweiten Kristall geschickt um ihn mit dem dort entstehenden zweiten Infrarotstrahl zur Interferenz zu bringen. Hierbei muss sichergestellt werden, dass nach dem Zusammenbringen der beiden Strahlen keine "which-is-which"-Information bezüglich des Ursprungs einzelner Photonen mehr enthalten ist, da es sonst nicht zur Interferenz kommen kann. Die Frage die sich hier stellt ist, ob es dazu unbedingt notwendig ist den Strahl der vom Objekt kommt auch durch den zweiten Kristall zu leiten (sorgt gerade das für das Auslöschen der "which-is-which" Information?) oder ob es auch möglich ist die Interferenz zwischen den beiden Infrarotstrahlen nach der Aufspaltung des zweiten Strahls herbeizuführen.
2. Wenn es möglich ist die Interferenz nach dem Kristall zu erzeugen, müsste es möglich sein einen Kommunikationskanal zu installieren, der, sobald er einmal besteht, eine überlichtschnelle Informationsübertragung erlauben würde. Indem man 4 kontinuierliche Teilstrahlen erzeugt und die beiden Infrarotstrahlen zu Alice schickt, die das zu verschickende Bild in einen der Strahlen hält und dann die beiden Strahlen zur Interferenz bringt, kann Bob aus den beiden anderen Strahlen mit einer Kamera die Nachricht sofort auslesen. Inwiefern treffen in diesem Szenario die allgemeinen Argumente gegen überlichtschnelle Informationsübertragung über verschränkte Quantenzustände zu?
Stellungnahme der Redaktion
Tatsächlich hat sich jemand mit Sachverstand Ihrer Fragen angenommen, nämlich SciLogs-Blogger Joachim Schulz. Er erörtert in seinem Beitrag das Experiment und die möglichen Erkenntnisse und Interpretationen und nimmt dabei auch explizit Bezug auf Ihre zweite Frage:
Ich glaube nicht, dass man sich ein schwarzes Loch als isoliertes Gebilde vorstellen darf. Wenn ich das Universum als "komplexe Kugel" und den dreidimensionalen Raum als 2-Dimensionales Abbild auf der Oberfläche des Universums verstehe, könnte man doch auf die Idee kommen, dass Licht und Materie direkt in die Expansion eben dieser Oberfläche der komplexen Kugel "investiert" wird. Das könnte auch die beschleunigte Expansion erklären. Das Ende von schwarzen Löchern stelle ich mir sehr unspektakulär als einfaches Verschwinden des Ereignishorizontes hinter die Oberfläche des übrig bleibenden Neutronensternes vor, die ganze Energie und Materie wäre ja bereits in Expansion umgewandelt ... Aber zum Glück bin ich Laie und brauche das nicht mathematisch zu beweisen :)
Ich schließe mich meinem vorkommentator voll und ganz an das NEM nicht gleich NEM ist und es auf die art des NEM ankommt zumal auch wirksame NEM bei verschiedenen Personen verschiedene Wirkungen haben,ich als "Sportler" mit meiner täglichen kalorieneinahmen von 4100 Kalorien(ich tracke meine Makronährstoffe mit der digitalwaage desshalb ist dies eine zuverlässige zahl) wovon. 6-700g aus Kohlenhydraten bestehen und durch die sonst zu hohe ballaststoffaufnahme eher einen durchschnittlichen vollkornprodukt konsum habe kann eher von B-vitaminen wie z.b Vitamin B1(coenzym der pyruvatdehydrogenase(kohlenhydratverstoffwechselung) profitieren als jemand der auf 2000 kcal die hälfte seiner Makronährstoffe durch fett bezieht,somit ist für mich die frage nach der notwendigkeit oder nutzen von NEM eine ganz andere frage als für andere.
Großer und schneller Tropfen
08.09.2014, Kai HiltmannDer Fisch will einen sowohl großen als auch schnellen Tropfen erzeugen, um das Ziel mit hoher Leistung zu treffen. Diese Leistung hat er jedoch nicht zur Verfügung. Außerdem kann er mit weitem Maul entweder einen breiten Strahl oder, mit schmalem, einen schnellen Strahl erzeugen. Der Strahl soll sowohl breit (großer Querschnitt) als auch schmal (schnell) sein, was aber offensichtlich nicht gleichzeitig möglich ist. Auch Ingenieure würden hier meist kapitulieren. Die Lösungstechnik nach TRIZ heißt "Separation in der Zeit" und "Separation im Raum": ERST wird die Energie über längere Zeit erzeugt (Strahl, geringe Leistung), DANN in einem Tropfen konzentriert (hohe Leistung). Im Maul ist der Strahl lang gestreckt, am Ziel gebündelt.
Beide Lösungstechniken sind anspruchsvoll, ihre Kombination ist genial. Auch der verwendete physikalische Effekt, eine intensive Welle durch Überlagerung verschiedener Geschwindigkeiten zu erzeugen, ist in der Technik sehr selten (wenn er auch jeder sich brechenden Welle am Strand zugrunde liegt).
"Lichtverschmutzung"
07.09.2014, TimÖffentliche Beleuchtung wird ja nicht gemacht, um Astronomen zu ärgern, sondern weil die Bürger im großen und ganzen zufrieden und einverstanden mit ihr sind. Natürlich gibt es wie überall auch bei der öffentlichen Beleuchtung Optimierungspotential. Aber unter dem Strich ist sie kein Problem, sondern eine Errungenschaft.
Milliardenschäden?!
06.09.2014, Michael RuppSehr geehrter Herr Rupp,
Sie haben Recht: der Schaden in Euro betrug nur "nur" etwa 30 Millionen Euro. Ich ergänze die Devisenangaben.
Mit freundlichen Grüßen
Daniel Lingenhöhl
Das wissenschaftliche Wertesystem bedarf einer Korrektur
05.09.2014, Frank NiemeyerOb Nullhypothesentests à la Fisher-Neyman-Pearson und die damit verbundenen p-Werte im Speziellen überhaupt sinnvoll nutzbar zur Beantwortung üblicher wissenschaftlicher Fragestellungen sind, ist schließlich Gegenstand einer seit Jahrzehnten, teilweise recht leidenschaftlich, geführten Dikussion; ganz zu schweigen von der wohl noch länger geführten Debatte über die "richtige" Interpretation von Wahrscheinlichkeiten (Laplace, Boole, Venn etc.). Leider wird Statistik-Anwendern meiner Erfahrung nach praktisch nie vermittelt, daß dieser grundsätzliche Gegensatz zwischen der frequentistischen und der bayesianischen Interpretation überhaupt existiert. Das wäre aber wichtig, um nicht den Eindruck entstehen zu lassen, es gäbe nur eine zulässige, quasi sakrosankte Methode, an die man sich geradezu sklavisch halten müsse, um Schlüsse aus den Ergebnissen eines Experiments ziehen zu dürfen, bzw. die auf scheinbar geradezu magische Art und Weise selbst aus einer eigentlich offensichtlich unzureichenden Datenbasis noch "signifikante" Ergebnisse extrahieren kann, auch wenn das jedem gesunden Menschenverstand widerspricht.
Die Ursachen für den allgegenwärtigen Mißbrauch von Nullhypothesentests und die Fehlinterpretationen von p-Werten sind vielfältig, und entsprechend schwer ist ihnen beizukommen. Ein wesentlicher Grund dürfte aber schlicht Bequemlichkeit sein: Nicht-Statistiker sind in der Regel nicht an Statistik interessiert, das ist jedenfalls meine Erfahrung. Folglich wird das Knöpfchen im Statistikprogramm halt gedrückt, damit man den für die Publikation notwendigen p-Wert erhält. Was sich dahinter verbirgt, interessiert in der Regel wenig, solange nur das Ergebnis statistische Signifikanz signalisiert (und wie immer bestätigen Ausnahmen nur die Regel). Aber wie sollte sich an dieser Praxis auch etwas ändern, solange die Qualität eines Wissenschaftlers alleine an der Länge seiner Publikationsliste gemessen wird?
Auch das ist ein Grund, warum man der Open-Science-Bewegung nur Erfolg wünschen kann oder, noch besser, aktiv zu ihrem Erfolg beitragen sollte. Ein solcher Kulturwechsel ist meines Erachtens schlicht überlebensnotwendig für die wissenschaftliche Forschung. Zwar wird ein offener, transparenter Umgang mit Forschungsdaten allein weder die gegenwärtige Praxis allgegenwärtiger statistischer Tests noch bewußten Betrug unterbinden können. Aber so wäre es, als erster Schritt in eine bessere, offenere Zukunft, zumindest möglich, daß Dritte die Daten und deren Interpretation überprüfen und so zumindest methodische Fehler aufdecken.
@Köhler
04.09.2014, Frank SvobodaIm Übrigen haben in einem Computer sowieso nicht alle Bauteile die gleiche Taktfrequenz. Viele Peripherie-Bauteile arbeiten mit niedrigeren Taktfrequenzen als der Prozessor - oder auch höheren, wie bei einigen Grafik-Chips.
Find ich nicht gut
03.09.2014, KöhlerEins nach dem anderen!
02.09.2014, Johannes SeemannSehr geehrter Herr Seemann,
das Bevölkerungswachstum liegt im Iran übrigens derzeit bei 1,3 Prozent (in Deutschland bei 0,2 Prozent); pro Frau wurden 2011 im Mittelwert 1,6 Kinder geboren. Insgesamt sank die Geburtenrate seit mehreren Jahrzehnten recht drastisch, teilweise unter dem Einfluss politischer Steuerungsmaßnahmen.
Auch der Bildungspolitik stellen neutrale Beobachter ein eher positives Zeugnis aus, vor allem im Vergleich mit anderen islamischen Staaten. Gerade der recht hohe Anteil an weiblichen Studierenden überrascht Uninformierte oft. Die Probleme des Landes liegen offenkundig auf anderem Gebiet.
Mit freundlichen Grüßen
Jan Osterkamp
Redaktion Spektrum.de
Fragwürdige Göttlichkeit
01.09.2014, Ferdinand Wegrostek, Zillingdorf Bergwerk (Österreich)Das Spektrum der Faktoren, welche die Ergebnisse einer Untersuchung beziehungsweise den p-Wert beeinflussen können, ist so breit, dass es nicht verwundert, dass ein guter Teil aller mit Signifikanz deklarierten Studien schlichtweg falsche und nicht replizierbare Ergebnisse enthält.
Die Einflussfaktoren beginnen beim Untersucher selbst, seinen Beweggründen, Zielen und Erwartungen an die Studie, reichen über das Prozedere von Hypothesenformulierung, Art des gewählten experimentelles Designs, Stichprobenart und -größe, das benutzte statistische Verfahren und enden letztlich mit einer vorsichtig-richtigen oder gewagt-fragwürdigen Interpretation.
Unzureichendes Fachwissen selbst erscheint mir dabei nicht als vordergründige Ursache, dass ein guter Teil aller Studien falsch ist. Die Ursachen liegen häufig im Ehrgeiz und Erfolgsdruck, dem sich Forscher und Doktoranden aussetzen. Man ist a priori bestrebt die eigene Hypothese zu bestätigen, arbeitet konzentriert darauf hin und vermeidet jede Art von möglicher Falsifizierung. Bei kommerziellen Unternehmungen wie etwa Markt- und Meinungsforschungsinstituten führen Zeitdruck und wirtschaftliche Zielstrebungen, Profitorientierung und Minimierung des Kostenaufwandes zu Fehlern und Nachlässigkeiten in Planung, Durchführung und Auswertung – oder gar zu mehr oder weniger bewusster Ergebnismanipulation.
Abhilfe kann hier nur eine noch stärkere Reglementierung als bisher durch Fachgremien bringen. Kontrolle und Sanktion müssten mit vorgesehen werden. Es gilt noch strengere Standards im wissenschaftlichen Bereich als auch in den einzelnen kommerziellen Branchen sowie für die Ergebnisveröffentlichung zu setzen. Möglichst viele Untersuchungsparameter müssten dargestellt werden und Eingang in die Publikationen der Studien an die Öffentlichkeit, also an den statistischen Laien, finden. Im Bereich von Umfragen und deren Publikationen müssten vom Journalisten standardmäßig Stichprobengröße und Konfidenzintervall (mit Erklärung) anführt werden. Denn nur durch Offenlegung möglichst vieler statistischer Parameter und deren richtige Interpretation kann man letzten Endes den bestehenden Vorurteilen gegenüber Umfrageergebnissen in der breiten Öffentlichkeit wirkungsvoll begegnen und den strapazierten Spruch "Es gibt drei Arten von Lügen: Lügen, verdammte Lügen und Statistiken“ selbst als oberflächlichen Sager entlarven.
leichte Winde?
01.09.2014, SimonCartans Torsion statt Supersymmetrie
01.09.2014, Rainer W. Kühne, BraunschweigDie LUX Collaboration hat keine Neutralinos aus der kalten dunklen Materie entdeckt (LUX Coll., Phys. Rev. Lett. 112 (2014) 091303) und damit die Beobachtung der DAMA Collaboration widerlegt, die vielfach als Evidenz für SUSY-CDM galt.
Die indirekte Evidenz für Gravitationswellen im inflationären Universum (BICEP2 Coll., Phys. Rev. Lett. 112 (2014) 241101) konnte als Effekt des interstellaren Staubs erklärt werden (K. M. Smith et al., Phys. Rev. Lett. 113 (2014) 031301; M. J. Mortonson and U. Seljak, arXiv: 1405.5857; R. Flauger et al., arXiv: 1405.7351). Diese Erklärung schließt kosmische Inflation auf der Energie-Skala von 10¹⁶ GeV oder mehr aus, also SUSY-GUT-Skala oder Planck-Skala.
Die Supersymmetrie ist damit widerlegt. Damit sind auch die auf der Supersymmetrie basierenden Theorien wie Supergravitation, Superstring-Theorie, M-Theorie, supersymmetrische Große Vereinheitlichung obsolet geworden.
Ein Argument für die Existenz von Supersymmetrie war bislang, dass sie die Existenz von Fermionen (mit asymmetrischem Energie-Impuls-Tensor) im Gravitationsfeld erklären kann. Der Energie-Impuls-Tensor der allgemeinen Relativität ist bekanntlich symmetrisch. Aber auch eine Erweiterung der Allgemeinen Relativität, die Einstein-Cartan-Theorie, die Cartans Torsion enthält, beschreibt einen asymmetrischen Energie-Impuls-Tensor. (Siehe R. W. Kühne, Quantum Field Theory with Electric-Magnetic Duality and Spin-Mass Duality but Without Grand Unification and Supersymmetry, African Review of Physics 6 (2011) 165-179 http://lamp.ictp.it/index.php/aphysrev/article/download/460/211.pdfhttp://inspirehep.net/record/1182299?ln=de .)
Die Quantisierung der elektrischen Ladung kann durch Diracs magnetische Monopole erklärt werden, dazu bedarf es nicht der Großen Vereinheitlichung. Das Problem der Massenhierarchie entfällt, da es keine Große Vereinheitlichung gibt. (Siehe mein obengenanntes Paper in African Review of Physics.)
Meine in diesem Paper vorgestellte Theorie kann durch das dort vorgeschlagene Tabletop-Experiment verifiziert werden.
Zu den von Joseph Lykken und Maria Spiropulu genannten Alternativen sei gesagt, dass ich alle Theorien als leicht widerlegbar halte, die mehr als drei Raumdimensionen oder mehr als eine Zeitdimension besitzen. Der Grund ist, dass ein Raum mit n Dimensionen n(n-1)/2 orthogonale Rotationsachsen besitzt. Bei n=1 Dimension sind dies null Rotationsachsen, das ist möglich, wie bei der Zeit. Bei n=2 Dimensionen gibt es eine Rotationsachse, die senkrecht auf den beiden Dimensionen steht (z. B. Zeigeruhr), eine zweidimensionaler Raum ist also prinzipiell unvollständig. Bei n=3 Dimensionen gibt es drei orthogonale Rotationsachsen, von denen sich jede in eine der Dimensionen des Raums erstreckt, also ein vollständiges und konsistentes System. Bei mehr als drei Dimensionen gibt es mehr orthogonale Rotationsachsen als Dimensionen, das System ist also inkonsistent. Auch kompaktifizierte Dimensionen helfen nicht, da Objekte, die kleiner als die kompaktifizierten Dimensionen sind, rotieren sollten.
Der Anti-deSitter-Raum (zwei zeitliche und drei räumliche Dimensionen) ist also schon aus diesem Grund unmöglich. Abgesehen davon ist er physikalisch unmöglich, da er statisch ist, also keinen Hubble-Effekt enthält, und eine negative kosmologische Konstante beschreibt, was der Beobachtung einer positiven kosmoligischen Konstanten widerspricht. Damit sind sowohl die Randall-Sundrum-Theorie als auch alle Theorien obsolet, die eine Analogie zwischen konformer Feldtheorie und Anti-deSitter-Raum behaupten.
Zum Leserbrief von Werner Preuß: Die Bosonen können nicht aus Konstituenten aufgebaut sein. Wäre z. B. das W-Boson zusammengesetzt, so müssten, wegen der Mischung der Felder gemäß Quantenflavourdynamik = Weinberg-Salam-Theorie, auch das Z-Boson und das Photon zusammengesetzt sein. Konstituenten haben aber ein Schwerpunktssystem, so dass für das Gesamtsystem eine endliche Ruhmasse vorliegt. Das Photon hat aber die Ruhmasse null. Somit kann das Photon nicht zusammengesetzt sein, ebensowenig das Z-Boson und das W-Boson.
Und immer wieder das PIK als Institut für Klimahorror am Fließband
01.09.2014, KlimarealistDieser Meeresspiegelanstieg könnte - vielleicht, eher nicht - so in 5000 Jahren verstärkt steigen. Zumindest haben wir nach verzeifelter Suche in der sich dem Klimawandel völlig verweigernden Antarktis wenige Gletscher gefunden, die so etwas wie einen "Propfen" vor dem Weg ins Meer haben. Sofern so ein "Pfropfen" schmelzen würde - nicht in Sicht, aber könnte doch - müsste der Gletscher schneller fließen. Dann würde doch der Meeresspiegel steigen, wenn das die ganze Arktis mit machen würde. Geht zwar nicht, weil der wesentliche Teil Festlandeis ist. Klingt aber doch alarmistisch gut. Unsere Simulationen haben das auf jeden Fall sofort mit ungeheurer Präzision, aber hoher Streuung rechnen können, wann das dann passiert ist.
Und dass dieser Schwachsinn von uns in allen Zeitungen veröffentlicht wird, belegt, dass es wieder eine gute Klimawandel-Alarm-Story ist.
Denn wer Klimawandelangst hat, den lasssen wir nicht im Stich.
Sehr geehrter Klimarealist,
der Titel des Papers in Nature Climate Change lautet "Ice plug prevents irreversible discharge from East Antarctica". Weder hier noch anderswo im Paper ist die Rede davon, der Meeresspiegel steige erst in 5000 Jahren verstärkt. Laut den Simulationen könnte der Eisverlust in der Ostantarktis bereits in den kommenden Jahrhunderten deutlich zum Anstieg des Meeresspiegels beitragen. Genauso ist es auch im Abstract wiedergeben: "Our results are robust with respect to variation in ice parameters, forcing details and model resolution as well as increased surface mass balance, indicating that East Antarctica may become a large contributor to future sea-level rise on timescales beyond a century". Die Anhebung des Meeresspiegels ist dabei eine Art Sättigungsfunktion mit zunächst starkem, später flachem Anstieg. Der Wert von 3-4 Meter wird - hier haben Sie recht - im bereits flachen Kurvenabschnitt nach einigen tausend Jahren erreicht. Das ist aber nicht der wesentliche Punkt. Die zentrale Aussage des Papers ist, das Schmelzen des "Eiskorkens" setze ein irreversibles Kalben der Gletschermasse in Gang, die am Ende zu einem 3-4 Meter höheren Meeresspiegel führe. So haben wir es in der Nachricht auch wiedergegeben.
Dass die Antarktis sich dem Klimawandel "völlig verweigere", kann man nicht gerade behaupten. Siehe etwa hier.
Mit freundlichem Gruß
Frank Schubert
Eigene Erfahrung
31.08.2014, Klaus FischerIch habe Mitte der 90-ziger Jahre 2 Jahre in Tanzania gelebt und während der Zeit 2 epileptische Anfälle gehabt. Die intensiven neurologischen Untersuchungen in Deutschland haben damals keinen Befund ergeben. Es ist auch keinerlei Behandlung erfolgt. Seitdem sind die Anfälle nicht wieder aufgetreten. Wäre interessant zu wissen, ob sich die Neurozystizerkose nach einer gewissen Zeit tot läuft.
mfg
KF
Versuchsaufbau und überlichtschnelle Kommunikation
29.08.2014, madphilosophist1. Betrachtet man den Strahlengang in der Originalveröffentlichung, so wird der Infrarotstrahl, der mit dem Objekt wechselwirkt durch den zweiten Kristall geschickt um ihn mit dem dort entstehenden zweiten Infrarotstrahl zur Interferenz zu bringen. Hierbei muss sichergestellt werden, dass nach dem Zusammenbringen der beiden Strahlen keine "which-is-which"-Information bezüglich des Ursprungs einzelner Photonen mehr enthalten ist, da es sonst nicht zur Interferenz kommen kann. Die Frage die sich hier stellt ist, ob es dazu unbedingt notwendig ist den Strahl der vom Objekt kommt auch durch den zweiten Kristall zu leiten (sorgt gerade das für das Auslöschen der "which-is-which" Information?) oder ob es auch möglich ist die Interferenz zwischen den beiden Infrarotstrahlen nach der Aufspaltung des zweiten Strahls herbeizuführen.
2. Wenn es möglich ist die Interferenz nach dem Kristall zu erzeugen, müsste es möglich sein einen Kommunikationskanal zu installieren, der, sobald er einmal besteht, eine überlichtschnelle Informationsübertragung erlauben würde. Indem man 4 kontinuierliche Teilstrahlen erzeugt und die beiden Infrarotstrahlen zu Alice schickt, die das zu verschickende Bild in einen der Strahlen hält und dann die beiden Strahlen zur Interferenz bringt, kann Bob aus den beiden anderen Strahlen mit einer Kamera die Nachricht sofort auslesen.
Inwiefern treffen in diesem Szenario die allgemeinen Argumente gegen überlichtschnelle Informationsübertragung über verschränkte Quantenzustände zu?
Tatsächlich hat sich jemand mit Sachverstand Ihrer Fragen angenommen, nämlich SciLogs-Blogger Joachim Schulz. Er erörtert in seinem Beitrag das Experiment und die möglichen Erkenntnisse und Interpretationen und nimmt dabei auch explizit Bezug auf Ihre zweite Frage:
http://www.scilogs.de/quantenwelt/welcher-weg-abbildung/
Mike Beckers
Redaktion
Idee
27.08.2014, SvenDiese frage kann nur persöhnlich beantwortet werden
27.08.2014, Christian