Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Die Hohlwelttheorie fasziniert offenbar immer noch etliche Fantasten und wenige Fachleute. Trotz Hubble-Weltraum-Observatorium. Ich möchte nur einen Randaspekt erwähnen: Wenn alle Emissionen aus bzw. auf dem Erdkörper (Vulkanasche, Verbrennungsrauch und -gase, Industrie- und Verkehrsabgase usw.) sich in einer Hohlkugel ansammeln würden, wäre inzwischen die ganze Hohlkugel "vernebelt". Auch ist ziemlich unklar, wie sich die Hohlweltphysik die Schwerkraft-Wirkung vorstellt. Wird diese durch die Rotation der gesamten Hohlkugel als eine Art Zentrifugalwirkung erzeugt ?Und warum sollten die genannten Emissionen dann in die Atmosphäre bzw. Stratosphäre hochsteigen? Logischerweise müssten sie sich an der Erdoberfläche ansammeln.
Wenn schon der Autor bei der Vorstellung der Energiesparlampen auf den im Betrieb geringeren Stromverbrauch gegenüber Glühlampen hinweist, so wäre es sinnvoll gewesen, auch auf den sehr viel höheren Energieverbrauch bei Herstellung und Entsorgung derselben einzugehen. Der vermeintliche Klimaschutz- und Energiespareffekt fällt dann, wenn man nicht nur auf den Stromzähler des Anwenders schaut, sehr viel geringer aus.
Der Vorschlag, Behaglichkeit mit Heizkostenverteilern zu messen, scheint mir doch ein bisschen abwegig. Es mag zwar dem einen oder anderen Mehrfamilienhausbewohner behaglicher sein, wenn er weiß, dass seine Heizungskosten einigermaßen gerecht verteilt und berechnet werden, und dabei helfen Heizkostenverteiler. Aber was man bei den Heizungs- und Klimatechnikern unter Behaglichkeit versteht, kann man damit überhaupt nicht messen.
Die sogenannte thermische Behaglichkeit empfindet ein Mensch, wenn er mit seiner Umgebung im thermischen Gleichgewicht ist, wenn er seine Umgebung nicht wärmer und nicht kälter, nicht trockener und nicht feuchter haben will und wenn er keinen Zug empfindet. Das ist der Fall, wenn er die Wärme, die durch seinen metabolischen Stoffumsatz freigesetzt wird, ohne besondere Anstrengung an die Umgebung abgeben kann. Bei geringer körperlicher Aktivität und Bekleidung, die man in Innenräumen trägt, ist das ungefähr eine Leistung von je 40 W durch Strahlung, Verdunstung und Konvektion. Das gelingt am besten, wenn die Lufttemperatur und die Temperatur der umgebenden Wände im Bereich von 22 bis 25 °C liegen, wenn sich die relative Feuchtigkeit zwischen 35 und 60% bewegt und wenn die Luftgeschwindigkeit 15 cm/s nicht überschreitet. Das alles muss man einzeln oder mit Summenmessgeräten messen, um etwas über die Behaglichkeit aussagen zu können.
Es gibt noch weitere Parameter, auf die ich hier nicht im Detail eingehen will. Das sind z. B. der Turbulenzgrad der Raumströmung, Die Asymmetrie der thermischen Strahlung im Raum. Weiterhin ist die so definierte thermische Behaglichkeit natürlich nur ein Versuch, die wesentlichen statischen Parameter einzugrenzen. Eigentlich müssten auch dynamische Vorgänge berücksichtigt werden, von psychischen Einflüssen ganz zu schweigen. Etwas mehr darüber kann man lesen in Rietschel: Raumklimatechnik, Band 1. Grundlagen, Springer Verlag 1994.
Zwar hört sich 420 Milliarden Dollar erst mal viel an, aber über einen Zeitraum von 40 Jahren sind das gerade mal 10,5 Mrd. jährlich und ich frage mich warum die USA nicht schon längst bei der Realisierung sind.
Vergleicht man diese Summe einmal mit den Aufwendungen, die West-Deutschland für das gescheiterte Projekt DDR bislang bezahlt hat, und das es jährlich immer noch mit 65 Milliarden Euro (!) - wer weiß wie lange noch - fortsetzt, ist das ein geradezu lächerlicher Betrag. In nicht einmal 4,5 Jahren haben wir diese gesamte Summe schon berappt. D.h. diesen großen Masterplan der USA haben wir schon drei mal bezahlt! Das kann für die USA doch wirklich kein Problem sein.
In welchem "Masterplan" unser Geld besser angelegt worden wäre, überlasse ich dem geneigten Leser.
Der Artikel spiegelt die Schwere, für uns hochkomplexe Dinge anschaulich und gleichzeitig wahrheitsgemäß wiederzuspiegeln, bzw. diese zu erfassen. Zur Erklärung der Inflationsphase wird der Vergleich mit einer Achterbahn angestellt, die zuerst langsam eine Steigung erklimmt um anschließend mit atemberaubender Geschwindigkeit abwärts zu fallen. Wo aber ist in einem unbestimmten (ohne festen Bezugspunkt) Universum oben und unten. Die Begriffe und deren Inhalt gibt es im Universum nicht – es entzieht sich unseren (Werte-) Regeln.
Es ist nicht verwunderlich, dass eine Theorie wie die Stringtheorie, die Basisrealitäten außer Acht lässt, in Schwierigkeiten gerät, wie dies die Autoren auf Seite 28 umschreiben. Da hilft auch nicht der Versuch, sich an die Brücke zwischen Kosmologie und Elementarteilchenphysik anzuhängen (S. 29). Beides sind weitgehend überprüfbare Zweige der Physik (wenn auch zuweilen die geeigneten Messgeräte wie Teilchenbeschleuniger sehr hoher Energie noch nicht vorhanden sind), in denen sich Theorien bestätigen oder widerlegen lassen, was in der Stringtheorie nicht der Fall ist!
Nach den Postulaten der Stringtheorie ist das Graviton ein Teilchen mit geschlossenem String, welches sich dadurch frei in den 9 Dimensionen bewegen kann. Wäre dem so, bzw. gäbe es diese Dimensionen, müsste es auch im für uns sichtbaren Universum zu Gravitationsansammlungen kommen, die durch die gültigen physikalischen Theorien und Gesetze nicht erklärbar sind, da die D-Branen in ihrer relativen Nähe nicht konstant sind, sondern zueinander variieren (die Autoren geben dies durch ihren Vergleich des Skalarfeldes von München und Toronto an, S. 32), wodurch es zur Kumulation bzw. Abschwächung von Gravitation kommt, da die Gravitonen an den Näherungs-, bzw. Durchdringungspunkten (Flächen) verdichtet vorliegen müssten. Es gibt z.B. in unserer Milchstraße zwar Raumbereiche verstärkter Gravitation, diese werden allerdings mit dem Vorhandensein der dunklen Materie erklärt, was jüngste Forschungsergebnisse auch bestätigten.
Weiter sagt die Stringtheorie, dass Dreibranen, die parallel übereinander liegen und ihrerseits durch Strings miteinander verbunden sind, von Bewohnern einer Dreibran als punktförmige Elementarteilchen beobachtbar seien, die sich wie Elementarteilchen verhielten, also z.B. ein Elektron die Stringverbindung zweier Dreibranen sei.
Dies mag in einer statisch betrachten Welt theoretisch stimmen, nicht aber in der realen dynamischen Welt der Elementarteilchen. Bekanntermaßen befinden sich Elektronen in Hantel- bzw. kreisartigen Orbits mit hoher Bewegungsgeschwindigkeit. Wären diese die Stringenden, müsste sich deren Bewegung und Dynamik über der Zeit ändern (weil die Strings fixiert sind – sie kleben an den Branen). Die Atome sind aber stabil und werden nicht über „verknäulte“ Stringverbindungen mit der Zeit beeinflusst oder gar auseinander gerissen.
Die eingangs erwähnte Inflationsphase lässt sich sehr gut aus der Loop-Quantengravitation herleiten. Nach dieser besteht die Quantenraumzeit aus sog. Spin-Schäumen und der Raum aus Volumeneinheiten mit der Planckgröße (10-99cm3). Ist dem so, hat jedes Raumvolumen eine von unendlich verschiedene Energiekapazität, d.h. jedes kleinste Raumvolumen kann nicht beliebig viel Energie aufnehmen – sie ist begrenzt und ihr Wert ist überall gleich. Im Urknall bzw. kurz danach wurde eine derartige Energiedichte frei gesetzt, die der Raum nicht aufnehmen konnte.
Da die Energie nicht selbständig zurückfließen kann (Zweiter Hauptsatz der Thermodynamik, Entropie), bleibt ihr nach Erreichen der Sättigungsgrenze des Raumvolumens kein anderer Ausweg, als aus dem Raumvolumen mit enormer Geschwindigkeit wieder herauszufließen. Das Raumvolumen wirkt als Beschleuniger und zwar so lange, bis die aus dem Urknall entstandene nachfließende Energie pro Quantzeit größer als die Raumsättigung pro Quantzeit ist, wodurch die notwendigen Eigenschaften der Inflationsphase – große positive potentielle Energie des Feldes und vor allem die Konstanz – erfüllt sind. Das Raumvolumen, in das die enorme Energiemenge hineingepumpt wird, wirkt dabei nicht nur als Beschleuniger, sondern der Raum wird durch den erfolgten Impuls auch „aufgebläht“, weil er seiner Sättigung entgegen wirken muss.
Die Raumexpansion ist somit auf Basis der Loop-Quantengravitation in der Inflationsphase entstanden und wirkt seit daher fort.
Seit den 80er Jahren stellen sich gerade die "Grünen" vor, die unvorstellbaren, "brachliegenden" Solarenergiereserven der riesigen Sahara solar zu nutzen! Aber was machen Staaten wie Ägypten und Iran: Setzten doch tatsächlich auf Kerntechnik! Beim Iran wissen wir, wieso... Mit den Möglichkeiten der Sahara könnten man 2 Europas versorgen. Noch eine solar-thermische Variante wurde vergessen: es gibt auch noch die "Aufwindkraftwerke, wo unter einer sich nach oben verengenden Haube eine schwarze Fläche solar aufgeheizt wird und davon Heißluft kaminartig aufsteigt. Am oberen Ende dann die Turbine. Wie sagten schon die Grünen: der einzige Fusionreaktor, mit dem wir leben können (und wollen), ist 150 Mio km weit weg ...
Sowohl Prof. Norbert Treitz als auch Prof. Sexl gehen in ihren Erklärungen nicht auf den Versuch im Jahre 1897 mit dem Geradstreckenverleger ein, der die Grundlage der Hohlwelttheorie von Teed und Morrow ist. Mit Hilfe des Geradstreckenverlegers konnte nachgewiesen werden, dass sich das Meer nach oben und nicht nach unten wölbt. Damals wurde eine ca. 4,8 km lange gerade Strecke auf dem Land konstruiert und seitlich mit dem Meer verglichen. Der Vergleich ergab, dass sich das Meer nach oben wölbt, was darauf schließen lässt, dass wir auf der Innenfläche einer Hohlkugelerde leben. Auch der Physiklehrer Werner Lang bringt in seiner Homepage http://www.langw.de die mathematische Transformation als Erklärung für die Existenz beider Weltbilder. Er schrieb mir, dass entweder die mathematische Transformation richtig ist oder der Versuch mit dem Geradstreckenverleger fehlerlos durchgeführt wurde. Beides kann nicht zugleich richtig sein. Da es mittlerweile mehrere andere Versuche gibt, die eindeutig für das Innenweltbild sprechen, plädiere ich dafür, dass der Versuch mit dem Geradstreckenverleger fehlerlos durchgeführt wurde. Es gibt auch keinen Versuch, der eindeutig für das Vollkugelweltbild spricht.
Prof. Lesch hat gemessen, dass auf der Zugspitze eine andere Zeit als im Tal existiert. Dies sollte eine Aufforderung an die Physiker sein, ebenfalls die Lichtgeschwindigkeit höhenabhängig zu messen. Wenn bei diesen Messungen herauskäme, dass die Lichtgeschwindigkeit nicht konstant sondern höhenabhängig wäre, hätte das Vollkugelweltbild seine Existenzberechtigung verloren. Der Physiker oder die Physikerin, welche sich als erste getrauen die Höhenabhängigkeit der Lichtgeschwindigkeit zu messen, werden sicher einen Nobelpreis bekommen.
Stellungnahme der Redaktion
Die Geradstreckenverleger und ihre Verfechter haben ein großes Problem: Entweder sie gehen wie üblich davon aus, dass das Licht sich geradlinig fortpflanzt. Dann können sie zwar nachweisen, dass ihre gerade Strecke wirklich gerade ist, indem sie daran entlangpeilen; gleichzeitig haben sie aber auch die Vollkugelerde akzeptiert, weil sie anders nicht erklären können, dass – bei geradliniger Lichtfortpflanzung – die Mastspitze eines Schiffs zuerst am Horizont auftaucht.
Wenn sie aber dem Licht krumme Wege zugestehen, woher wissen sie dann, ob die angeblich gerade Strecke wirklich gerade ist?
Die Sache mit der Uhr auf der Zugspitze ist übrigens ein relativistischer Effekt, der im Rahmen der üblichen (Vollkugel-)Physik eine korrekte Erklärung findet. Für die entsprechende Messung gibt es sicher keinen Nobelpreis.
Das liest sich ja wirklich ganz toll, eine geniale Lösung. Mich würde mal die Einschätzung eines Meteorologen interessieren, wie sich das Klima regional verändert, wenn durch diese Anlagen die Wärmespeicherung duch Stromnutzung und Beschattung des Geländes wegfällt. Es zeigt sich immer wieder, dass die genialsten Lösungen bei Anwendung in der Masse zu neuen Problemen führen, warum nicht auch hier?
„Die ganze Bande auswechseln“, das scheint mir der Tenor des Jahres der Mathematik zum Thema Mathematiklehrer zu sein. Wenn der eine oder andere Universitätsmathematiker aus der Elfenbeinperspektive meint derlei durchblicken lassen zu müssen, wundert man sich natürlich nicht wirklich.
Aber Herr Pöppe erfreut Monat für Monat unter anderem auch zahlreiche Mathematiklehrer mit klar geschriebenen Artikeln, die aus lebensnahen Themen die Mathematik herausdestillieren. Er trägt dabei auch vielfach zur Belebung des Mathematikunterrichts bei. Welches Ziel er damit verfolgt, die Mathematiklehrer pauschal als Kretins zu klassifizieren, bleibt mir ein Rätsel.
Wenn man sich die gewaltigen Änderungen betrachtet, die der Mathematikunterricht in den letzten Jahren erfahren hat, dann ist offensichtlich, dass die Mathematiklehrer durchaus flexibel sind. Man kann die aktuellen Mathematiklehrer durchaus für einen anderen Unterricht gewinnen, allerdings müssen die Konzepte schon die Schulwirklichkeit berücksichtigen.
Stellungnahme der Redaktion
Welch ein Missverständnis!
Nichts könnte mir ferner liegen, als pauschal die Mathematiklehrer zu beschimpfen. Dazu habe ich viel zu viele Mathematiklehrer kennengelernt und mit ihnen zusammengearbeitet, die ihren Beruf mit profunder Sachkenntnis, Fantasie, Eigeninitiative und gewaltigem Einsatz betreiben – den Autor des Leserbriefs eingeschlossen.
Ich habe die auf der Pressekonferenz zwischen den Zeilen deutlich herauszuhörende Grundaussage wiedergegeben – und ich fürchte, das ist etwas dran. Man trifft einfach zu viele Leute, die unter ihrem Mathematikunterricht gelitten haben – unter dem Unterricht, wohlgemerkt, nicht unter der eigenen Unfähigkeit.
Es hilft nichts: Da der Ekel vor der Mathematik in Deutschland ein – gesellschaftlich akzeptiertes – Standardgefühl ist und die meisten Menschen die Mathematik ausschließlich aus dem Schulunterricht kennen, liegt die Vermutung nahe, dass der Mathematikunterricht in Deutschland im Durchschnitt ekelerregend ist – so bitter das klingt.
Natürlich soll man sich vor dem Standardfehler hüten, diese Ekelgefühle auf die Person des Lehrers zu übertragen. "Die ganze Bande auszuwechseln" steht auch unter den Machern des Mathematikjahres nicht zur Debatte, und zwar nicht nur, weil es faktisch unmöglich wäre. Man traut den Mathematiklehrern einiges zu, wenn sich nur die Rahmenbedingungen ändern.
Dazu gibt es zum Beispiel die Fortbildungsinitiative "Mathematik anders machen" der Telekom-Stiftung, die schon vor dem Jahr der Mathematik ins Leben gerufen wurde.
Über die hohe Festigkeit metallischer Gläser wurde nach meiner Erinnerung schon vor über zehn Jahren berichtet. Keine wirklich neue Information.
Stellungnahme der Redaktion
Lieber Herr Götz,
Ihre Erinnerung trügt Sie hier nicht, die mechanischen Vorteile metallischer Gläser sind tatsächlich schon länger bekannt. Der Nachteil dieser Materialien ist jedoch, dass sie sehr spröde sind und deswegen ohne Vorwarnung brechen.
Das im Beitrag vorgestellte Material dagegen ist ein Komposit aus amorphen und kristallinen Anteilen, das sich plastisch verformt und die Ausbreitung von Rissen unterbindet.
Frau Greenfields einsichtige Feststellung (S. 47 Mitte) über die Konsequenz aus Christof Kochs qualitativ-lokal orientierter Bewusstseinshypothese, dass Vögel dann kein oder nur ein geringes Bewusstsein besäßen, weil diese keinen Neokortex aufweisen, träfe ebenso auf das von ihr vertretene quantitative Erklärungsmodell zu. Vögel verfügen nun über deutlich weniger Neurone als viele Säuger und somit über weniger potentielle neuronale Ensembles. Überhaupt, was wäre letztlich ein größeres oder schwächeres Bewusstsein? Immerhin resümiert Frau Greenfield, dass nicht bestimmte Hirnregionen oder Neuronengruppen, sondern der dahinter stehende Prozesse im Fokus einer Theorie des Bewusstseins zu liegen habe (S. 47 unten).
Als Ansatz und potentielles Differentialkriterium für ein neuronales Bewusstseinskorrelat wird von beiden Kontrahenten die synchrone Aktivität von Neuronengruppen häufig korrelierend mit Sinnesimpulsen hervorgehoben. Neurone nun sind spezialisierte Zelltypen, die hauptsächlich der schnellen Informationsweitergabe untereinander (über elektrochemische Impulse) dienen. Eine Ableitung neuronaler Impulse ohne Wissen darüber, was da kodiert ist, lässt genauso wenig stringente Schlüsse zu, wie das Anmessen von Signalen einer Telefonleitung darüber, ob die abgeleiteten Impulse aus einem Gespräch mit Herrn „Bewusstsein“ oder Frau „Unbewusst“ stammen. Erst die Sichtung der Gesamtleitung (Kommunikation: Sender / Empfänger / Code) verschafft Klärung.
Dasselbe Neuron kann potentiell sowohl „bewusste“ als auch „unbewusste“ Informationen tragen. Das Geheimnis des Bewusstseins dürfte daher allein in der Betrachtung der neuralen Gesamtverschaltung (sensorischer Input - interneuronale Verarbeitung – effektorischer Output) zu ergründen sein.
Der Beitrag ist ja wirklich interessant, das Interesanteste dürfte der Redaktion aber entgangen sein: in den Zeichnungen am Kopf der Seiten 52/3 ist ganz offensichtlich eine neue Orang-Art abgebildet, die wohl, falls noch von keiner anderen Seite ein Name vergeben ist, Pongo caudatus genannt werden sollte. Das ist eine bemerkenswerte Entdeckung, zumal sie ein missing link zwischen Tier- und Menschenaffen darstellt, denn der wohl wichtigste anatomische Unterschied der beidenTaxa ist Besitz oder Fehlen eines Schwanzes.
Stellungnahme der Redaktion
Diese bemerkenswerte Entdeckung machten zuerst unsere französischen Kollegen.
Wir haben leider zu spät gemerkt, dass sie uns trotzdem die falsche, nämlich die unverbesserte, Datei geschickt haben.
Der letzte Beschuss, den Herr Heyd meint, ist 2003 in Italien gewesen. Im September 2007 wurden Herr Enrico Hubermeier und ich noch von einem Jäger in Malta, als wir für das Komitee unterwegs waren, beschossen. MFG Thomas Hellwig
Der Artikel geht auf das im Titel genannte Thema nicht ein. Das Wort "Behaglichkeit" wird im Text noch nicht einmal erwähnt und die angegebenen Messverfahren erfassen lediglich die abgegebene Wärmemenge. Wie misst man nun wirklich Behaglichkeit? Hierzu lohnt sich z.B. ein Blick in DIN 7730, die Temperatur, Luftgeschwindigkeit und andere Faktoren nennt. Schade, dass darauf nicht eingegangen wurde - besonders der im Artikel erwähnte Kosten- und Umweltschutzaspekt wäre gut geeignet gewesen, auf Möglichkeiten zur Verringerung des diskutierten Wärmemengenbedarfs ohne Einbußen bei der Behaglichkeit hinzuweisen (Dämmung, Luftdichtigkeit,...)
leider ist der Artikel schon etwas her, aber ich kam jetzt erst dazu, und da mir grad langweilig ist, geb ich jetzt einfach mal meinen Senf dazu wie viele meiner Vorgänger. ;-)
Das beschriebene Urlauberdilemma ist sicherlich sehr interessant. Es trifft, wie auch vom Autor bemerkt, eine häufig vorkommende Alltagssituation: Ich riskiere was. Wenn ich Pech habe, werde ich mit heruntergelassenen Hosen erwischt und entsprechend abgestraft ... oder ich komme damit durch und kassiere die entsprechende Belohnung. Dies trifft auch auf das Gefangenendilemma zu. Das eigentliche Problem ist simpel (oder zumindest simpel beschrieben): Wenn ich keine Möglichkeit zur Absprache mit meinem Mitspieler habe, bleibt mir nur die Entscheidung zwischen "Risiko" und "Sicherheit", eben mit den skizzierten Konsequenzen.
So weit, so gut.
Was mich erstaunt: Soweit ich das beurteilen kann, enthält der Artikel einen Denkfehler, nicht in den gezogenen Schlussfolgerungen, sondern bereits in den (implizit getroffenen) Annahmen:
Der Autor wundert sich, dass die Herangehensweise über Rückwärtsinduktion zu einer Strategiewahl führt, die scheinbar hinter dem "Optimum" zurückbleibt und dass man mit "irrationalem Verhalten" bessere Ergebnisse erzielen kann (und wundert sich darüber). Aber genau hier steckt der implizite Fehler: Der Autor geht davon aus, dass es eine - in einem nicht näher definierten Sinn - "optimale" Strategie geben muss.
Folgt man den Überlegungen der Rückwärtsinduktion, landet man unweigerlich bei der Strategie "Spielen auf Sicherheit". Eben, weil man mit einseitigen Abweichungen davon nur sein eigenes Risiko erhöht. Betrachtet man es aus der anderen Perspektive und "hofft auf ähnliche Überlegungen seiner Mitspieler", dann wählt man eher eine riskantere Strategie.
Wovon der Autor (und letztlich wohl wir alle) aber implizit ausgehen, ist einfach, dass es immer eine "richtige" oder "optimale" Strategie geben muss, die es nur zu finden gilt. Und was das Urlauberdilemma aufzeigt, ist meines Erachtens nach nichts anderes, als dass es eine solche Strategie in manchen Situationen eben nicht gibt. Wie oft im Alltag beobachtet: Wie man's macht, ist's verkehrt.
Stellungnahme der Redaktion
Na ja, da steht schon etwas mehr drin in dem Artikel. Ein Nash-Gleichgewicht gibt es nicht immer, und wenn es eins gibt, dann ist es optimal nur in einem sehr merkwürdigen Sinn, und die Idee, dass es immer ein Optimum geben müsste, ist nicht nur falsch, sie liegt auch nicht stillschweigend dem Artikel zu Grunde.
Hohlwelt gleich Müllwelt ?
07.03.2008, D.Heuel, Oermingen (F - Bas-Rhin)Ich möchte nur einen Randaspekt erwähnen: Wenn alle Emissionen aus bzw. auf dem Erdkörper (Vulkanasche, Verbrennungsrauch und -gase, Industrie- und Verkehrsabgase usw.)
sich in einer Hohlkugel ansammeln würden, wäre inzwischen die ganze Hohlkugel "vernebelt". Auch ist ziemlich unklar, wie sich die Hohlweltphysik die Schwerkraft-Wirkung vorstellt. Wird diese durch die Rotation der gesamten Hohlkugel als eine Art Zentrifugalwirkung erzeugt ?Und warum sollten die genannten Emissionen dann in die Atmosphäre bzw. Stratosphäre hochsteigen? Logischerweise müssten sie sich an der Erdoberfläche ansammeln.
Energiespareffekt bei Energiesparlampen
07.03.2008, Dr. Wolfgang Priebsch, KielWas Heizungs- und Klimatechniker unter Behaglichkeit verstehen
06.03.2008, Prof. Dr.-Ing. Klaus Fitzner, BerlinEs mag zwar dem einen oder anderen Mehrfamilienhausbewohner behaglicher sein, wenn er weiß, dass seine Heizungskosten einigermaßen gerecht verteilt und berechnet werden, und dabei helfen Heizkostenverteiler. Aber was man bei den Heizungs- und Klimatechnikern unter Behaglichkeit versteht, kann man damit überhaupt nicht messen.
Die sogenannte thermische Behaglichkeit empfindet ein Mensch, wenn er mit seiner Umgebung im thermischen Gleichgewicht ist, wenn er seine Umgebung nicht wärmer und nicht kälter, nicht trockener und nicht feuchter haben will und wenn er keinen Zug empfindet. Das ist der Fall, wenn er die Wärme, die durch seinen metabolischen Stoffumsatz freigesetzt wird, ohne besondere Anstrengung an die Umgebung abgeben kann. Bei geringer körperlicher Aktivität und Bekleidung, die man in Innenräumen trägt, ist das ungefähr eine Leistung von je 40 W durch Strahlung, Verdunstung und Konvektion. Das gelingt am besten, wenn die Lufttemperatur und die Temperatur der umgebenden Wände im Bereich von 22 bis 25 °C liegen, wenn sich die relative Feuchtigkeit zwischen 35 und 60% bewegt und wenn die Luftgeschwindigkeit 15 cm/s nicht überschreitet. Das alles muss man einzeln oder mit Summenmessgeräten messen, um etwas über die Behaglichkeit aussagen zu können.
Es gibt noch weitere Parameter, auf die ich hier nicht im Detail eingehen will. Das sind z. B. der Turbulenzgrad der Raumströmung, Die Asymmetrie der thermischen Strahlung im Raum. Weiterhin ist die so definierte thermische Behaglichkeit natürlich nur ein Versuch, die wesentlichen statischen Parameter einzugrenzen. Eigentlich müssten auch dynamische Vorgänge berücksichtigt werden, von psychischen Einflüssen ganz zu schweigen. Etwas mehr darüber kann man lesen in Rietschel: Raumklimatechnik, Band 1.
Grundlagen, Springer Verlag 1994.
Fast schon billig
05.03.2008, Roland Schnack, StuttgartVergleicht man diese Summe einmal mit den Aufwendungen, die West-Deutschland für das gescheiterte Projekt DDR bislang bezahlt hat, und das es jährlich immer noch mit 65 Milliarden Euro (!) - wer weiß wie lange noch - fortsetzt, ist das ein geradezu lächerlicher Betrag. In nicht einmal 4,5 Jahren haben wir diese gesamte Summe schon berappt. D.h. diesen großen Masterplan der USA haben wir schon drei mal bezahlt! Das kann für die USA doch wirklich kein Problem sein.
In welchem "Masterplan" unser Geld besser angelegt worden wäre, überlasse ich dem geneigten Leser.
Rettungsversuch einer nicht überprüfbaren und haltbaren Theorie
05.03.2008, Raimund Leistenschneider, 71069 SindelfingenEs ist nicht verwunderlich, dass eine Theorie wie die Stringtheorie, die Basisrealitäten außer Acht lässt, in Schwierigkeiten gerät, wie dies die Autoren auf Seite 28 umschreiben. Da hilft auch nicht der Versuch, sich an die Brücke zwischen Kosmologie und Elementarteilchenphysik anzuhängen (S. 29). Beides sind weitgehend überprüfbare Zweige der Physik (wenn auch zuweilen die geeigneten Messgeräte wie Teilchenbeschleuniger sehr hoher Energie noch nicht vorhanden sind), in denen sich Theorien bestätigen oder widerlegen lassen, was in der Stringtheorie nicht der Fall ist!
Nach den Postulaten der Stringtheorie ist das Graviton ein Teilchen mit geschlossenem String, welches sich dadurch frei in den 9 Dimensionen bewegen kann. Wäre dem so, bzw. gäbe es diese Dimensionen, müsste es auch im für uns sichtbaren Universum zu Gravitationsansammlungen kommen, die durch die gültigen physikalischen Theorien und Gesetze nicht erklärbar sind, da die D-Branen in ihrer relativen Nähe nicht konstant sind, sondern zueinander variieren (die Autoren geben dies durch ihren Vergleich des Skalarfeldes von München und Toronto an, S. 32), wodurch es zur Kumulation bzw. Abschwächung von Gravitation kommt, da die Gravitonen an den Näherungs-, bzw. Durchdringungspunkten (Flächen) verdichtet vorliegen müssten. Es gibt z.B. in unserer Milchstraße zwar Raumbereiche verstärkter Gravitation, diese werden allerdings mit dem Vorhandensein der dunklen Materie erklärt, was jüngste Forschungsergebnisse auch bestätigten.
Weiter sagt die Stringtheorie, dass Dreibranen, die parallel übereinander liegen und ihrerseits durch Strings miteinander verbunden sind, von Bewohnern einer Dreibran als punktförmige Elementarteilchen beobachtbar seien, die sich wie Elementarteilchen verhielten, also z.B. ein Elektron die Stringverbindung zweier Dreibranen sei.
Dies mag in einer statisch betrachten Welt theoretisch stimmen, nicht aber in der realen dynamischen Welt der Elementarteilchen. Bekanntermaßen befinden sich Elektronen in Hantel- bzw. kreisartigen Orbits mit hoher Bewegungsgeschwindigkeit. Wären diese die Stringenden, müsste sich deren Bewegung und Dynamik über der Zeit ändern (weil die Strings fixiert sind – sie kleben an den Branen). Die Atome sind aber stabil und werden nicht über „verknäulte“ Stringverbindungen mit der Zeit beeinflusst oder gar auseinander gerissen.
Die eingangs erwähnte Inflationsphase lässt sich sehr gut aus der Loop-Quantengravitation herleiten. Nach dieser besteht die Quantenraumzeit aus sog. Spin-Schäumen und der Raum aus Volumeneinheiten mit der Planckgröße (10-99cm3). Ist dem so, hat jedes Raumvolumen eine von unendlich verschiedene Energiekapazität, d.h. jedes kleinste Raumvolumen kann nicht beliebig viel Energie aufnehmen – sie ist begrenzt und ihr Wert ist überall gleich. Im Urknall bzw. kurz danach wurde eine derartige Energiedichte frei gesetzt, die der Raum nicht aufnehmen konnte.
Da die Energie nicht selbständig zurückfließen kann (Zweiter Hauptsatz der Thermodynamik, Entropie), bleibt ihr nach Erreichen der Sättigungsgrenze des Raumvolumens kein anderer Ausweg, als aus dem Raumvolumen mit enormer Geschwindigkeit wieder herauszufließen. Das Raumvolumen wirkt als Beschleuniger und zwar so lange, bis die aus dem Urknall entstandene nachfließende Energie pro Quantzeit größer als die Raumsättigung pro Quantzeit ist, wodurch die notwendigen Eigenschaften der Inflationsphase – große positive potentielle Energie des Feldes und vor allem die Konstanz – erfüllt sind. Das Raumvolumen, in das die enorme Energiemenge hineingepumpt wird, wirkt dabei nicht nur als Beschleuniger, sondern der Raum wird durch den erfolgten Impuls auch „aufgebläht“, weil er seiner Sättigung entgegen wirken muss.
Die Raumexpansion ist somit auf Basis der Loop-Quantengravitation in der Inflationsphase entstanden und wirkt seit daher fort.
Die beste Idee, die wir je aus den USA gehört haben
03.03.2008, Dr. Michael JutzlerAber was machen Staaten wie Ägypten und Iran: Setzten doch tatsächlich auf Kerntechnik!
Beim Iran wissen wir, wieso...
Mit den Möglichkeiten der Sahara könnten man 2 Europas versorgen.
Noch eine solar-thermische Variante wurde vergessen: es gibt auch noch die "Aufwindkraftwerke, wo unter einer sich nach oben verengenden Haube eine schwarze Fläche solar aufgeheizt wird und davon Heißluft kaminartig aufsteigt. Am oberen Ende dann die Turbine.
Wie sagten schon die Grünen: der einzige Fusionreaktor, mit dem wir leben können (und wollen), ist 150 Mio km weit weg ...
Geradstreckenverleger beweist die Hohlwelt
02.03.2008, Rolf Keppler, Spreuergasse 24, 70372 StuttgartMit Hilfe des Geradstreckenverlegers konnte nachgewiesen werden, dass sich das Meer nach oben und nicht nach unten wölbt. Damals wurde eine ca. 4,8 km lange gerade Strecke auf dem Land konstruiert und seitlich mit dem Meer verglichen. Der Vergleich ergab, dass sich das Meer nach oben wölbt, was darauf schließen lässt, dass wir auf der Innenfläche einer Hohlkugelerde leben.
Auch der Physiklehrer Werner Lang bringt in seiner Homepage http://www.langw.de die mathematische Transformation als Erklärung für die Existenz beider Weltbilder. Er schrieb mir, dass entweder die mathematische Transformation richtig ist oder der Versuch mit dem Geradstreckenverleger fehlerlos durchgeführt wurde. Beides kann nicht zugleich richtig sein.
Da es mittlerweile mehrere andere Versuche gibt, die eindeutig für das Innenweltbild sprechen, plädiere ich dafür, dass der Versuch mit dem Geradstreckenverleger fehlerlos durchgeführt wurde. Es gibt auch keinen Versuch, der eindeutig für das Vollkugelweltbild spricht.
Prof. Lesch hat gemessen, dass auf der Zugspitze eine andere Zeit als im Tal existiert. Dies sollte eine Aufforderung an die Physiker sein, ebenfalls die Lichtgeschwindigkeit höhenabhängig zu messen. Wenn bei diesen Messungen herauskäme, dass die Lichtgeschwindigkeit nicht konstant sondern höhenabhängig wäre, hätte das Vollkugelweltbild seine Existenzberechtigung verloren.
Der Physiker oder die Physikerin, welche sich als erste getrauen die Höhenabhängigkeit der Lichtgeschwindigkeit zu messen, werden sicher einen Nobelpreis bekommen.
Die Geradstreckenverleger und ihre Verfechter haben ein großes Problem: Entweder sie gehen wie üblich davon aus, dass das Licht sich geradlinig fortpflanzt. Dann können sie zwar nachweisen, dass ihre gerade Strecke wirklich gerade ist, indem sie daran entlangpeilen; gleichzeitig haben sie aber auch die Vollkugelerde akzeptiert, weil sie anders nicht erklären können, dass – bei geradliniger Lichtfortpflanzung – die Mastspitze eines Schiffs zuerst am Horizont auftaucht.
Wenn sie aber dem Licht krumme Wege zugestehen, woher wissen sie dann, ob die angeblich gerade Strecke wirklich gerade ist?
Die Sache mit der Uhr auf der Zugspitze ist übrigens ein relativistischer Effekt, der im Rahmen der üblichen (Vollkugel-)Physik eine korrekte Erklärung findet. Für die entsprechende Messung gibt es sicher keinen Nobelpreis.
Christoph Pöppe
Technikfolgenabschätzung?
01.03.2008, Ernst-M. Jaeckel, OftersheimEs zeigt sich immer wieder, dass die genialsten Lösungen bei Anwendung in der Masse zu neuen Problemen führen, warum nicht auch hier?
Dieser Gedanke wurde auch in der Diskussion geäußert, die derzeit auf unserem Blogportal www.wissenslogs.de geführt wird.
Die ganze Bande auswechseln
29.02.2008, Dr. Bertram Maurer, StuttgartWenn der eine oder andere Universitätsmathematiker aus der Elfenbeinperspektive meint derlei durchblicken lassen zu müssen, wundert man sich natürlich nicht wirklich.
Aber Herr Pöppe erfreut Monat für Monat unter anderem auch zahlreiche Mathematiklehrer mit klar geschriebenen Artikeln, die aus lebensnahen Themen die Mathematik herausdestillieren. Er trägt dabei auch vielfach zur Belebung des Mathematikunterrichts bei.
Welches Ziel er damit verfolgt, die Mathematiklehrer pauschal als Kretins zu klassifizieren, bleibt mir ein Rätsel.
Wenn man sich die gewaltigen Änderungen betrachtet, die der Mathematikunterricht in den letzten Jahren erfahren hat, dann ist offensichtlich, dass die Mathematiklehrer durchaus flexibel sind. Man kann die aktuellen Mathematiklehrer durchaus für einen anderen Unterricht gewinnen, allerdings müssen die Konzepte schon die Schulwirklichkeit berücksichtigen.
Welch ein Missverständnis!
Nichts könnte mir ferner liegen, als pauschal die Mathematiklehrer zu beschimpfen. Dazu habe ich viel zu viele Mathematiklehrer kennengelernt und mit ihnen zusammengearbeitet, die ihren Beruf mit profunder Sachkenntnis, Fantasie, Eigeninitiative und gewaltigem Einsatz betreiben – den Autor des Leserbriefs eingeschlossen.
Ich habe die auf der Pressekonferenz zwischen den Zeilen deutlich herauszuhörende Grundaussage wiedergegeben – und ich fürchte, das ist etwas dran. Man trifft einfach zu viele Leute, die unter ihrem Mathematikunterricht gelitten haben – unter dem Unterricht, wohlgemerkt, nicht unter der eigenen Unfähigkeit.
Es hilft nichts: Da der Ekel vor der Mathematik in Deutschland ein – gesellschaftlich akzeptiertes – Standardgefühl ist und die meisten Menschen die Mathematik ausschließlich aus dem Schulunterricht kennen, liegt die Vermutung nahe, dass der Mathematikunterricht in Deutschland im Durchschnitt ekelerregend ist – so bitter das klingt.
Natürlich soll man sich vor dem Standardfehler hüten, diese Ekelgefühle auf die Person des Lehrers zu übertragen. "Die ganze Bande auszuwechseln" steht auch unter den Machern des Mathematikjahres nicht zur Debatte, und zwar nicht nur, weil es faktisch unmöglich wäre. Man traut den Mathematiklehrern einiges zu, wenn sich nur die Rahmenbedingungen ändern.
Dazu gibt es zum Beispiel die Fortbildungsinitiative "Mathematik anders machen" der Telekom-Stiftung, die schon vor dem Jahr der Mathematik ins Leben gerufen wurde.
Christoph Pöppe
Keine neue Information
29.02.2008, J. GötzLieber Herr Götz,
Ihre Erinnerung trügt Sie hier nicht, die mechanischen Vorteile metallischer Gläser sind tatsächlich schon länger bekannt. Der Nachteil dieser Materialien ist jedoch, dass sie sehr spröde sind und deswegen ohne Vorwarnung brechen.
Das im Beitrag vorgestellte Material dagegen ist ein Komposit aus amorphen und kristallinen Anteilen, das sich plastisch verformt und die Ausbreitung von Rissen unterbindet.
Lars Fischer
Redaktion spektrumdirekt
Neurale Gesamtverschaltung betrachten
28.02.2008, Dr. Frank Subke, MehlingenAls Ansatz und potentielles Differentialkriterium für ein neuronales Bewusstseinskorrelat wird von beiden Kontrahenten die synchrone Aktivität von Neuronengruppen häufig korrelierend mit Sinnesimpulsen hervorgehoben. Neurone nun sind spezialisierte Zelltypen, die hauptsächlich der schnellen Informationsweitergabe untereinander (über elektrochemische Impulse) dienen. Eine Ableitung neuronaler Impulse ohne Wissen darüber, was da kodiert ist, lässt genauso wenig stringente Schlüsse zu, wie das Anmessen von Signalen einer Telefonleitung darüber, ob die abgeleiteten Impulse aus einem Gespräch mit Herrn „Bewusstsein“ oder Frau „Unbewusst“ stammen. Erst die Sichtung der Gesamtleitung (Kommunikation: Sender / Empfänger / Code) verschafft Klärung.
Dasselbe Neuron kann potentiell sowohl „bewusste“ als auch „unbewusste“ Informationen tragen. Das Geheimnis des Bewusstseins dürfte daher allein in der Betrachtung der neuralen Gesamtverschaltung (sensorischer Input - interneuronale Verarbeitung – effektorischer Output) zu ergründen sein.
Spektrum zeigt neue Art
27.02.2008, Prof. Dr. W. Harder, TübingenDiese bemerkenswerte Entdeckung machten zuerst unsere französischen Kollegen.
Wir haben leider zu spät gemerkt, dass sie uns trotzdem die falsche, nämlich die unverbesserte, Datei geschickt haben.
Vogelschutz
27.02.2008, Thomas Hellwig, Elbe-PareyMFG
Thomas Hellwig
DIN 7730 gibt Hinweise auf Behaglichkeit
25.02.2008, Dr. Eisenmann, 82327 TutzingWie misst man nun wirklich Behaglichkeit? Hierzu lohnt sich z.B. ein Blick in DIN 7730, die Temperatur, Luftgeschwindigkeit und andere Faktoren nennt. Schade, dass darauf nicht eingegangen wurde - besonders der im Artikel erwähnte Kosten- und Umweltschutzaspekt wäre gut geeignet gewesen, auf Möglichkeiten zur Verringerung des diskutierten Wärmemengenbedarfs ohne Einbußen bei der Behaglichkeit hinzuweisen (Dämmung, Luftdichtigkeit,...)
Wie man's macht, ist's verkehrt
24.02.2008, Stefan Meckl, Regensburgleider ist der Artikel schon etwas her, aber ich kam jetzt erst dazu, und da mir grad langweilig ist, geb ich jetzt einfach mal meinen Senf dazu wie viele meiner Vorgänger. ;-)
Das beschriebene Urlauberdilemma ist sicherlich sehr interessant. Es trifft, wie auch vom Autor bemerkt, eine häufig vorkommende Alltagssituation: Ich riskiere was. Wenn ich Pech habe, werde ich mit heruntergelassenen Hosen erwischt und entsprechend abgestraft ... oder ich komme damit durch und kassiere die entsprechende Belohnung.
Dies trifft auch auf das Gefangenendilemma zu.
Das eigentliche Problem ist simpel (oder zumindest simpel beschrieben): Wenn ich keine Möglichkeit zur Absprache mit meinem Mitspieler habe, bleibt mir nur die Entscheidung zwischen "Risiko" und "Sicherheit", eben mit den skizzierten Konsequenzen.
So weit, so gut.
Was mich erstaunt: Soweit ich das beurteilen kann, enthält der Artikel einen Denkfehler, nicht in den gezogenen Schlussfolgerungen, sondern bereits in den (implizit getroffenen) Annahmen:
Der Autor wundert sich, dass die Herangehensweise über Rückwärtsinduktion zu einer Strategiewahl führt, die scheinbar hinter dem "Optimum" zurückbleibt und dass man mit "irrationalem Verhalten" bessere Ergebnisse erzielen kann (und wundert sich darüber).
Aber genau hier steckt der implizite Fehler: Der Autor geht davon aus, dass es eine - in einem nicht näher definierten Sinn - "optimale" Strategie geben muss.
Folgt man den Überlegungen der Rückwärtsinduktion, landet man unweigerlich bei der Strategie "Spielen auf Sicherheit". Eben, weil man mit einseitigen Abweichungen davon nur sein eigenes Risiko erhöht.
Betrachtet man es aus der anderen Perspektive und "hofft auf ähnliche Überlegungen seiner Mitspieler", dann wählt man eher eine riskantere Strategie.
Wovon der Autor (und letztlich wohl wir alle) aber implizit ausgehen, ist einfach, dass es immer eine "richtige" oder "optimale" Strategie geben muss, die es nur zu finden gilt.
Und was das Urlauberdilemma aufzeigt, ist meines Erachtens nach nichts anderes, als dass es eine solche Strategie in manchen Situationen eben nicht gibt. Wie oft im Alltag beobachtet: Wie man's macht, ist's verkehrt.
Na ja, da steht schon etwas mehr drin in dem Artikel. Ein Nash-Gleichgewicht gibt es nicht immer, und wenn es eins gibt, dann ist es optimal nur in einem sehr merkwürdigen Sinn, und die Idee, dass es immer ein Optimum geben müsste, ist nicht nur falsch, sie liegt auch nicht stillschweigend dem Artikel zu Grunde.
Christoph Pöppe