Direkt zum Inhalt

Kommentare - - Seite 806

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Albedo schwindet

    29.11.2013, Kunibert Hurtig
    Damit verringert sich auch die Albedo:
    http://de.wikipedia.org/wiki/Albedo
    Somit tritt ein weiterer positiver Rückkopplungseffekt zum Klimawandel ein, denn die ohnehin tauenden Böden werden nunmehr noch schneller auftauen und damit verstärkt Methanhydrate im Untergrund zersetzen, also Methan freisetzen. Ein weiterer Effekt kann die verstärkte anaerobe bakterielle Zersetzung organischer Reste im Moorboden sein, die ebenfalls Methan erzeugt.
    Ich glaube, dass die Zeitschiene für die langfristigen Befürchtungen des IPPC und z.B. Herrn Ramsdorf et. al. mehr oder weniger (eher mehr) schnell schrumpft.
    KuHu
  • Sonne nicht Erde

    29.11.2013, AstroHP
    Trotz Klimaerwärmung, aber das Wort Erde muss durch Sonne ersetzt werden!
    Stellungnahme der Redaktion

    Vielen Dank - da ist mir im Eifer des Gefechts und zur späten Stunde ein Fehler unterlaufen, den ich jetzt korrigiert habe.

    Daniel Lingenhöhl
    Redaktion Spektrum.de

  • Quantenphysik - Sehnsucht nach dem Zufall

    28.11.2013, Joerg Weis, Leonberg
    Während die statistikbasierte Quantenmechanik allgemein akzeptiert ist, wird über das aus ihr abzuleitende Weltbild noch heftig spekuliert. Daher spricht man auch von Deutungen der Quantenmechanik.
    Der Begriff Deutung assoziiert bereits ein hohes Maß an Unsicherheit. Eine naheliegende Assoziation ist der Begriff „Sternendeutung“. Sternendeuter versuchten Zusammenhänge zwischen kosmischen und irdischen Ereignissen herzustellen, zumeist bezogen auf zeitgenössische Herrschaftssysteme.
    Spätestens seit der Aufklärung sind solche Versuche in Ihrer Bedeutung stark rückläufig. Umso mehr erstaunt es, dass die Quantenmechanik eine Ausnahme darstellt. Der nicht deterministische, transzendente Einfluss – genannt Zufall – erlebt in vielen Deutungsversuchen, einschließlich der vorherrschenden Kopenhagener Deutung und dem QBismus eine erstaunliche Renaissance. Häufig wird in diesem Zusammenhang auf die heisenbergsche Unschärferelation verwiesen, welche unter anderem besagt, dass man den Ort und den Impuls eines Teilchens nicht beliebig exakt bestimmen kann, weil die exakte Messung der einen Größe die andere Größe verändert. Aus dieser Messunschärfe zu folgern, dass ein Teilchen keinen exakten Ort und Impuls hat ist jedoch nicht wissenschaftlich zwingend, sondern nur metaphysisch zu begründen. Der Interpretationsansatz sagt vermutlich mehr über die menschlichen Sehnsüchte nach transzendenter Führung aus als über die physikalischen Effekte in der Welt der kleinen Teilchen. Gleiches gilt für Schrödingers Katze. Es gibt keine zwingenden Gründe, warum die Katze gleichzeitig, sei es in der gleichen Welt oder in vielen Parallelwelten, tot und lebendig zugleich sein sollte und erst durch den Beobachter – welche menschliche Selbstüberschätzung – in den einen oder anderen Zustand gelangt. Die bayesianische Sichtweise geht positiv formuliert einen Schritt über die Kopenhagener Deutung hinaus und demokratisiert sogzusagen die Wellenfunktion. Die Realität ist nicht nur von der Beobachtung selbst abhängig, sondern es existieren für verschiedene Beobachter verschiedene „subjektive Befindlichkeiten“, die durch verschiedene Beobachtungen erst die Realitäten formen.
    Negativ formuliert könnte man sagen, dass diese Theorie dem Aberglauben in der quantenmechanischen Deutung die Krone aufsetzt. Wie in der Führungsfelddeutung beziehungsweise bohmschen Mechanik gezeigt wird, ist der Zufall keinesfalls zwingend. Das Wesen des Zufalls lässt sich anschaulich sehr gut beim "Mensch ärgere dich nicht" spielen ergründen. Der gesunde Menschenverstand suggeriert, dass die Würfel zufällig die Werte 1 bis 6 annehmen. Das lässt sich auch eindeutig statistisch belegen. Aber ist das Ergebnis wirklich zufällig, nur weil man es mit Hilfe der Statistik beschreiben kann und der Würfelwurf sehr komplex ist? Warum sollte man das Ergebnis nicht vorhersagen können, wenn man alle Bedingungen des Wurfs und seiner Umgebung exakt kennen würde? Wie sonst könnte man einem Spieler vorwerfen, der den Würfel aus geringer Höhe auf den Tisch fallen lässt und „zufällig“ eine 6 würfelt, er habe geschummelt?
    Ich bin fest davon überzeugt, dass der Zufall nichts anderes als Ausdruck menschlicher Unwissenheit ist, um nicht Einsteins Definition von Unendlichkeit zu bemühen. Eines Tages werden wir erkennen, dass die Erde der Quantenphysik keine Scheibe ist sondern auch hier eindeutige Ursache-Wirk-Zusammenhänge bestehen. Vermutlich werden wir bis dahin einige heute fest verankerte Vorstellungen von dem, was die Welt im Innersten zusammenhält, über Bord werfen. Vielleicht werden wir eines Tages erkennen, dass sich Teilchen und zugehörige Welle im Raumgitter unter anderem im Doppelspaltversuch teilweise unabhängig voneinander ausbreiten, und der leere Raum gar nicht so unveränderlich und ewiglich leer und materiefrei ist, wie wir seit Michelson glauben. Unabhängig davon, welche Theorien sich zukünftig durchsetzen werden, ich bin mir sicher, dass wir auch die Welt der Quanten langfristig nicht dem Zufall überlassen.
  • Nachtrag zu Bayesianismus

    28.11.2013, Norbert Hinterberger, Hamburg
    Natürlich stellt die Bayessche Formel eine korrekte deduktive Schlussweise in der Wahrscheinlichkeitstheorie dar. Deduktive Schlussweisen sind trivial beziehungsweise tautologisch und müssen das auch sein, wenn sie korrekt schließen sollen – wir kennen keine anderen gültigen Schlussweisen als deduktive. Und wenn man sie überdies noch mit nahezu trivialen Aussagen zur Wirklichkeit füttert, wie Harald Kirsch das getan hat, entstehen auch keine Schwierigkeiten. Aber so genannte Bayesianer machen etwas ganz anderes, weil man mit derartig trivialen beziehungsweise nahezu tautologischen ‚Erkenntnissen’ nirgendwo hinkommt. Zum Kirsch-Beispiel: Woher sollten wir wohl wissen, dass eine gerade Zahl gefallen ist, wenn wir nicht gleichzeitig wissen welche das war – anders gesagt, der der gesehen hat, dass eine gerade Zahl gefallen ist, wird auch gesehen haben, welche das ist. Und damit verfügen wir nicht nur über p=1/3, sondern schon (von Anfang an) über p=1. Anders gesagt, das Problem wäre von vornherein gelöst. Nach gelösten Problemen wird in der Praxis aber bekanntlich nicht gesucht. Gesucht wird nach einer Wissensvermehrung. Das geht aber leider nur sehr indirekt. Es geht genau genommen nur eliminativ über Falsifikationen deduktiver Hypothesen, nicht über induktivistische ‚Bewahrheitungsschritte’, wie sie bei den Bayesianern fantasiert werden. Letztere sind Pragmatisten, die für wahr halten möchten, was ihre subjektivistische Beurteilungsgemeinschaft oder gar, was sie „persönlich“ für wahr halten, und zwar ohne über einen logisch widerspruchfreien Wahrheitsbegriff und ohne über eine logisch widerspruchfreie Methodologie zu verfügen. Das ist erkenntnistheoretisch betrachtet Relativismus. Es ist eben der relativistische Wahrheitsbegriff des Pragmatismus.
    Also noch einmal: Nicht die Bayessche Formel ist subjektiv, sondern was damit von den so genannten Bayesianern angestellt wird. In ihre Anwendung der Formel beziehungsweise in die Bedingung gehen nämlich induktivistisch aufgefasste Beobachtungsreihen ein, nicht um eine Theorie zu widerlegen, sondern um sie zu „bewahrheiten“, mit jedem Beobachtungsfall ein bisschen mehr. So stellen sie sich das jedenfalls vor. Schon David Hume hatte gezeigt, dass die Induktion nicht schließt. Er hatte allerdings ganz im Sinn der Bayesianer empfohlen, sie trotzdem anzuwenden, weil er davon ausgegangen war, dass wir psychologisch gar nicht anders könnten, als induktiv zu schließen, und weil wir damit ja anscheinend zu unseren erfolgreichen Erkenntnissen gelangt sind. Hume konnte sich nicht vorstellen, dass es die Induktion auch als tatsächliche Erkenntnismethode gar nicht gibt (ganz abgesehen davon, dass sie logisch nicht schließt, auch nicht in der Wahrscheinlichkeitsvariante). Unsere gesamte Erkenntnis ist von Theorien beziehungsweise allgemeinen Hypothesen „getränkt“ (Karl Popper), alle unsere Sätze enthalten Allgemeinbegriffe. Sie wimmeln geradezu davon. Deshalb sind unsere Schlüsse allesamt deduktiv. Sie stellen (logisch betrachtet) Vorurteile allgemeiner Art dar – weshalb sie auch immer überprüft werden müssen (erst viele erfolgreich überstandene Überprüfungen machen solche Hypothesen dann wissenschaftlich). Deduktive Schluss-strukturen implizieren übrigens ebenfalls Anwendungen der bayesschen Schlussfigur, denn man kann alle Rand- und Anfangsbedingungen in Theorien als Bedingungen für die Wahrheit der jeweiligen Theorie interpretieren. Niemand bei den fallibilistischen Deduktivisten würde allerdings auf die Idee kommen, das Auftischen immer neuer Beispiele für die Rand- oder Anfangsbedingungen für „Bewahrheitungen“ zu halten. Man würde derartige Induktivismen zu Recht wie unzulässige Ad-hoc-Hypothesen betrachten, die allein der Kritikimmunisierung von Falsifikation bedrohter Theorien dienen sollen. Deshalb legt man bei den Fallibilisten auch keinen Wert auf irgendwelche Begründungen, die ohnedies im Münchhausen-Trilemma der Begründung und der Definition verbleiben müssten, sondern setzt ausschließlich auf Überprüfungen (mit der logischen Figur des "modus tollens"). So vermeidet man sowohl tautologische Tendenzen in der Wirklichkeitserkenntnis als auch jegliche Form von Subjektivismus.
  • Eine Lanze für Karl Popper und Albert Einstein

    28.11.2013, Gunter Berauer, München
    Michael Springer beschreibt sehr korrekt, wie heute wissenschaftliche Fortschritte gemacht werden: In kleinen Schritten, die in Veröffentlichungen, auf dem zunächst einmal zusammengefassten bekannten Wissens aufbauend, eine kleine Neuigkeit enthalten. Diese passt dabei in aller Regel in die wohlbekannten Denkmuster und geht logisch aus diesen und den Ergebnissen von Experimenten mehr oder weniger zwangsläufig hervor. So kann man in der Tat gewisse kleinere, und Schritt für Schritt vielleicht auch größere Fortschritte erzielen, niemals aber solche, die die bekannten Denkmuster selbst wesentlich in Frage stellen würden. Aber nur solche Ideen können die Wissenschaft entscheidend weiterbringen, wie etwa auch Albert Einsteins Ideen die ganz fest im Denken verankerten Grundfesten der newtonschen Physik in Frage stellten. In dem heutigen Wissenschaftsbetrieb würde es, nach Ansicht vieler heute lebender Wissenschaftler, dem einfachen Patentamtsangestellten Albert Einstein nicht mehr gelingen, seine revolutionierenden Ideen in der Fachwelt unterzubringen. Und ohne seine Theorien wäre unser Weltbild viel ärmer. Um wirklich weiterzukommen, bedarf es also wohl doch neuer Ideen, die sich nicht in die bisherigen Denkmuster einfügen und die gerade deshalb, auch und besonders bei den Rezensenten der Fachzeitschriften, zunächst Unverständnis und Ablehnung hervorrufen. Selbst anerkannte Koryphäen würden mit solchen Ideen nur auf wenig Gegenliebe stoßen, weniger bekannte Autoren hätten überhaupt keine Chance. Dass aber genau solche Ideen wichtig sind, hat Einstein einmal zum Ausdruck gebracht, als er sagte: „Wenn eine Idee zu Beginn nicht absurd erscheint, dann ist sie es nicht wert, weiterverfolgt zu werden.“ Karl Popper dürfte also wohl Recht behalten: Zumindest größere wissenschaftliche Erkenntnisse erfordern eben doch Sprünge über den eigenen wissenschaftlichen Schatten sowie spontane, also zufällige Ideen, die sich eben nicht planen lassen. Bezüglich unseres, meines Erachtens noch unausgereiften, kosmologischen Weltbilds wären solche Ideen heute wünschenswert. Die klassischen Denkmuster der Standardkosmologie und ihre Protagonisten werden solche Ideen aber vermutlich nicht hochkommen lassen.
  • Sinnlose Tierversuche

    28.11.2013, Corina
    Die Phagentherapie bietet wirklich erstaunliche und beeindruckende Möglichkeiten! Aber typisch, dass wieder einmal Tiere als Versuchs“objekte“ herhalten müssen, obwohl Tierversuche wegen der mangelnden Übertragbarkeit auf den Menschen aussagelos sind. Gerade in diesem Bereich bieten sich doch In-vitro-Studien an, die im Gegensatz zum Tierversuch zu sinnvollen Ergebnissen führen würden.
  • Kampf dem Flaschenhals

    27.11.2013, FranzXaverDoerig
    Das macht doch unsere monetärorientierte Landwirtschaft schon lange, Hybriden nennt man das.
  • Widersprüchliche Aussagen (Ergänzung)

    26.11.2013, Joachim Blechle, Rossau
    Da Ihnen offenbar unklar war, was ich mit der zweiten Frage in meinem ersten Leserbrief meinte, hier noch einige Gedanken zur Vertiefung.

    Den Ausgangspunkt bildet die Aussage, die lautete:
    "Quarks und Leptonen besitzen weder Ausdehnung noch Struktur – so lehrt es das Standardmodell der Teilchenphysik." Sicher gibt es auch einen gewichtigen Grund, wenn es das Standardmodell so lehrt.

    Nach meinem Verständnis sollte das Standardmodell der Teilchenphysik z.B. den Aufbau der Atome bezogen auf die subatomare Struktur erklären. Mathematische "Werkzeuge" sind dabei ein unersetzbares Hilfsmittel, aber eben allein nicht ausreichend. Nun könnten Quarks und Leptonen eben in diesem spezifischen mathematischen Modell mit null Dimensionen repräsentiert werden. Aber dieses mathematische "Etwas" ist eben nur ein Punkt ohne räumliche Ausdehnung – im mathematischen Sinne nur eine Koordinate – ohne einen Rauminhalt.

    Um als Objekt (Quark oder Lepton) tatsächlich zu existieren, müsste nach meinem Verständnis von diesem mindestens ein Raum, beispielsweise in der Größe das Planck-Volumens (4,22419 * 10-105 m3), eingenommen werden. Und der beste Mathematiker kann dem Punkt nun mal keinen Rauminhalt geben – auch nicht den des Planck-Volumens.

    Deswegen besteht für mich ein Widerspruch zwischen Standardmodell und Realität (in der Objekte einen Raum einnehmen). Dieser Widerspruch ist zu beseitigen, wie auch immer!
  • Phagen und "Tiermodell"

    26.11.2013, Hannah
    Ich finde es schade, dass gleich wieder nach einem "Tiermodell" geschrien wird. Es gibt inzwischen fast 100 Jahre Erfahrungen mit Phagen. Also warum gleich wieder Mäuse und Ratten tot schlagen? Bodenloser Quatsch den Leuten einzureden, dass es nur so funktioniert. Auch hätte man Professor Gorski erwähnen sollen, er ist der europäische Phagen "Papst" und fordert schon lange, dass Phagen ähnlich dem amerikanischen Orphan Drug Act geregelt werden. hmjaag.de/phagen-als-retter-bei-antibiotikresistenzen/
  • Wann gefriert Kohlendioxid?

    26.11.2013, Fritz Diem
    Der Festpunkt von Kohlendioxid liegt in Europa bei minus 78 Grad Celsius. Wie kommt es zu "minus 125 Grad Celsius", dem Gefrierpunkt von Kohlendioxid, wie er auf S. 63 unten links genannt ist?
    Stellungnahme der Redaktion

    Druck und Temperatur auf dem Mars sind andere als in Europa: Der Druck liegt in der Größenordnung Millibar, die Temperatur im groben Mittel bei 200 Kelvin. Hier finden Sie ein Phasendiagramm (dessen Wertebereich allerdings nicht ganz ausreicht) und eine ausführliche (englischsprachige) Diskussion der Frage, unter welchen Umständen Trockeneis entsteht.

  • Dank an den Rezensenten

    26.11.2013, Walter Weiss
    Dank deshalb, weil mir sein Text die Begründung dafür liefert, mir das Buch NICHT zu kaufen, es auch anderweitig NICHT zu lesen.

    Zwei einfache Gründe:

    (1) ein konkreter: Wenn der Verfasser immer wieder darauf insistiert, dass die Interviewten sich zum Begriff 'Bewußtsein' äußern, und erkennbar gar nicht bemerkt, dass die insofern nichts Aufzuklärendes erkennen können, dann hätte der Verfasser doch wohl auch selbst auf die Idee kommen können, hier liege gar kein objektiver Tatbestand, also gar kein ojektiv vorhandenes Problem vor, sondern eben nur ein kulturell in den letzten Jahrhunderten erfundener und dann immer weiter - fast ausschließlich von Geisteswissenschaftlern und Dichtern - gehätschelter Scheinbegriff.

    2) Verfasser und Rezensent leiden unter der Vielfalt der Meinungen der sich äußernden Wissenschaftler, die notgedrungen aus ihren zwar sehr erfolgreichen, aber doch nur wenige Hundertstel Promille des Gehirns betreffenden Forschungen keinerlei wissenschaftlich begründete Aussagen über die generelle Funktion der black box 'Gehirn' geben möchten. Es fehlt nach wie vor an einer diese generelle Funktion beschreibenden Arbeitshypothese bei den Interviewten.

    Dabei habe ich eine solche Arbeitshypothese - im Wesentlichen aus evolutionären Überlegungen - längst entwickelt und in meinem E-Book "Exzerpt" vorgestellt.
  • Zu viele Fehler am Anfang!

    25.11.2013, Prof. Dr. Dietrich H. Nies, Halle/Saale
    Nach den ersten beiden Absätzen hätte ich beinahe nicht weiter gelesen, es wimmelt nur so von Fehlern. Erstens gibt es keine „Dogmen“ in der Naturwissenschaft, nur Theorien und Hypothesen, die „aus dem Fenster geworfen werden“ (Einstein), wenn sie falsifiziert wurden. Zweitens gilt die Theorie über die „Einbahnstraße“ DNA -> RNA -> Proteine sehr wohl in den meisten Fällen. Der Prozess wurde lediglich in den 1970er Jahren durch die reverse Transkription ergänzt. Eine vollständige Umkehrung würde eine reverse Translation erfordern, die auf Grund der Sekundär- und Tertiärstruktur von Proteinen aber mechanistisch höchstwahrscheinlich nicht umsetzbar ist. Drittens gibt es keine „DNA-Expression“, sondern nur „Gen-Expression“. Viertens ist die Gen-Expression nicht identisch mit der Regulation der Gen-Expression. Fünftens interferieren epigenetische Mechanismen damit mit der Gen-Expression, jedoch nicht mit dem Informationsgehalt des Genoms. Ich kenne kein Beispiel einer erhöhten Mutationsrate, die durch epigenetisch „abgeschaltete“ Gene in der Keimbahn hervorgerufen wurde, obwohl ein solcher Prozess grundsätzlich möglich wäre. Da es um einen darum in diesem Artikel auch gar nicht geht, ist der ganze Beginn dieses Artikels mit „sozialen Verhältnissen, die unser Erbgut (sic!) verändern können“, „Stirn runzeln“ durch Verletzung eines „Dogmas“ und „Weit gefehlt“ einfach nur reißerischer Blödsinn.

    Wenigstens wird der Artikel danach besser. Es sei noch angemerkt, dass eine wissenschaftliche Zeitschrift wie „Spektrum“ in Balken-Diagrammen mal die Fehlerspannen einzeichnen sollte. „Spektrum“ wird auch von Schülern und Nichtwissenschaftlern gelesen, denen damit wichtige wissenschaftliche Grundsätze wie Reproduzierbarkeit und Fehlerbetrachtung verinnerlicht werden könnten. Dann fallen diese Menschen, 99,65% der deutschen Bevölkerung, nicht mehr so schnell auf den Quark herein, der oftmals in Werbung, Politik und anderen „weichen“ Gesellschaftsbereichen verzapft wird.
    Stellungnahme der Redaktion

    Professor Nies stört sich an sprachlichen Feinheiten, über die man sich streiten kann. Ein Dogma im Sinn eines unanfechtbaren theologischen Glaubenssatzes kann es in der Wissenschaft selbstverständlich nicht geben. Trotzdem wird vor allem im angelsächsischen Sprachgebrauch ein zentraler Lehrsatz eines Theoriegebäudes gerne rhetorisch überspitzt als Dogma bezeichnet. Das gilt besonders für das hier angesprochene zentrale Dogma der Molekularbiologie. Was den Einfluss der sozialen Verhältnisse auf die Gene angeht, so wird die DNA und damit das Erbgut durch das Anbringen oder Entfernen genetischer Marker sehr wohl physikalisch und hinsichtlich der Aktivität einzelner Gene verändert, auch wenn die darin kodierte Information natürlich gleich bleibt.

  • Widersprüchliche Aussagen?

    25.11.2013, Joachim Blechle, Rossau
    Für mich wäre es mal interessant zu wissen, wieso der Autor des Beitrages zu so widersprüchlichen Aussagen kommt.

    1. Die eine Aussage lautet:
    "Das Standardmodell der Teilchenphysik ist eine der erfolgreichsten Theorien, die je entwickelt wurden."
    Die andere Aussage lautet:
    "Versuche, auch die Gravitation in dieses Modell einzubeziehen, sind allerdings sämtlich gescheitert. Auch weitere Antworten bleibt das Standardmodell schuldig:"
    Gravitation ist eines der wesentlichen "Elemente" der Kosmologie. Die kann man doch wohl nicht so einfach mal links liegen lassen.

    2. Die Aussage lautet:
    "Quarks und Leptonen besitzen weder Ausdehnung noch Struktur – so lehrt es das Standardmodell der Teilchenphysik."
    Der Mathematiker kann ohne weiteres mit einem Punkt arbeiten. Aber selbst einem Mathematiker dürfte es nicht gelingen, dem Punkt einen Inhalt zu geben. Liege ich da falsch?
    Stellungnahme der Redaktion

    Zu Punkt 1 können wir eigentlich nur anmerken, dass eine Theorie in ihrem Anwendungsbereich ohne Weiteres erfolgreich sein kann - das Standardmodell hat im Mikrokosmos sogar einen sehr großen Anwendungsbereich -, ohne dass sie zwingend gleich die ganze Welt erklären muss. Worin soll also der Widerspruch bestehen?

    Was genau Sie mit Frage 2 meinen, ist unklar. Das Standardmodell ist ein mathematischer Formalismus, in dem Quarks und Leptonen durch mathematische Objekte mit null Dimensionen repräsentiert werden. Und ein Punkt ist ein Punkt, daran kommt auch kein Mathematiker vorbei; er kann, wie Sie sagen, einem Punkt keinen Inhalt geben.

    Aber es ist trotz aller Vorhersagekraft des Standardmodells nicht gesagt, dass Quarks und Leptonen auch in der Realität notwendigerweise punktförmig sind - genau das ist ja Ausgangspunkt von Don Lincolns Überlegungen. Statt „einem Punkt einen Inhalt zu geben“, würde der Mathematiker bei experimentellen Hinweisen auf Preonen die nulldimensionalen Objekte verwerfen und stattdessen neue mathematische Objekte mit den nötigen Eigenschaften einführen (mit allen Folgen für das Standardmodell als Ganzes).

  • Dystopia

    25.11.2013, Ulrich Schulz, Chemnitz
    Vielleicht ist Dystopia schon näher als wir denken.
    Wenn die Männer nicht mehr als Väter benötigt werden, wird es nicht lange dauern, und es wird perfekte Brutmaschinen geben, natürlich um die Frauen zu entlasten. Dann braucht die Industrie auch keine Frauen mehr, um Arbeitskräfte selbst zu produzieren. Alles wird effizienter.
  • Anmerkungen zur neuen Quantentheorie

    25.11.2013, Jürgen Volkheimer, Brauweiler
    Der Standpunkt des QBismus, „dass das Ergebnis eines Experiments vor dessen Ausführung einfach nicht existiert“ (S. 51), wäre doch eben genau die (antideterministische) Aussage der Kopenhagener Deutung sowie der heisenbergschen Unschärfe-Relation: Erst im Augenblick der Messung wird das Ergebnis festgelegt.

    "Dem QBismus zufolge … existiert die Wellenfunktion nicht real …, sondern gibt nur die Befindlichkeit einer Person wieder." (S. 46)
    Wenn die Wellenfunktion einer "subjektiven Befindlichkeit", einer persönlichen Laune entspräche, dann wären mit ihr verlässliche Aussagen, das heißt, Vorhersagen über Wahrscheinlichkeitsverteilungen (wie zum Beispiel Intensitätsverteilung beim Doppelspalt-Experiment) unmöglich, das heißt, keine Reproduzierbarkeit von Experiment-Ergebnissen in der Quantenphysik zu erreichen. Die physikalische Realität jedoch widerlegt diese qbistische Anschauung. Die Wellenfunktion (genauer: ihre quadratische Form) ist eine mathematische Gleichung, mit der sich Wahrscheinlichkeitsverteilungen voraussagen lassen und diese sind experimentell reproduzierbar im Gegensatz zu Wellenfunktionen, „welche nur den subjektiven Denkzustand des Beobachters“ (S. 49) beschreiben.

    „Erst durch den Beobachtungsvorgang kollabiert die Wellenfunktion der Katze in einen der beiden Zustände“ (tot oder lebendig) (S. 49)
    Hierzu Spektrum der Wissenschaft Spezial 2/2012, S. 42:
    "Die Pointe von Schrödingers Gedankenexperiment ist nun diese: Während Zustandsverschränkungen auf dem Niveau mikrophysikalischer Quantenobjekte akzeptabel sein mögen und inzwischen sogar experimentell nachgewiesen sind, so ist es offensichtlich absurd anzunehmen, dass Zustandsverschränkungen auch makroskopische Objekte betreffen können."

    sowie Spektrum der Wissenschaft 10/2012, S. 3:
    "Schrödinger hatte das berühmte Tier 1935 erschaffen. Es sollte einer missliebigen Interpretation der Quantenmechanik den Garaus machen, die seine Kollegen Max Born, Nils Bohr und Werner Heisenberg wenige Jahre zuvor entwickelt hatten, die so genannte Kopenhagener Deutung."

    „Superposition“ als „Annahme des Beobachters“ (S. 48)
    Hierzu Spektrum der Wissenschaft 2/2012, S. 40: "Wir müssen davon ausgehen, dass Superpositionen und Verschränkungen objektiv in der Natur bestehen. Der experimentelle Nachweis dieser Korrelationen wurde erstmals 1982 durch den französischen Physiker Alain Aspect und seien Mitarbeiter erbracht."

    „Bayessche Wahrscheinlichkeit“ (S. 49) – wie zum Beispiel eine 55%-ige Erfolgswahrscheinlichkeit für Obamas Aktion gegen Bin Laden – haben im Gegensatz zu „frequentistischen“ keinerlei objektiven Wert, sondern rein individualistische Einschätzungen. Sie sind in Experimenten nicht reproduzierbar. Sie - und damit der gesamte QBismus – sind nur das, was in der Antike als ‚doxa‘ (Meinungswissen) bezeichnet wurde, also auf gut Deutsch: Dummgeschwätz!

    Apropos „Zeit“: „Wir wissen, was das ist, bis wir aufgefordert werden, es zu definieren.“ (S. 49)
    Kant jedenfalls hätte es bei einer Aufforderung gewusst:
    "Die Zeit ist … lediglich eine subjektive Bedingung unserer (menschlichen) Anschauung … und an sich, außer dem Subjekte, nichts." ("Kritik der reinen Vernunft", transzendentale Elementarlehre, § 6c)

    Wenn Kant Recht hatte, dann ist die Zeit als sehr wohl definierbar: nämlich als "reine Form aller sinnlichen Anschauung", welcher außerhalb der Köpfe keinerlei Realität zukommt.

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.