Direkt zum Inhalt

Kommentare - - Seite 644

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Unterbewusstsein vs Ober- oder Überbewusstsein

    14.09.2015, Ekkehard Grubler
    Da das Bewusstsein kein Raum mit Grenzen oder mit einem Oben oder Unten oder einem Links oder Rechts ist, hatte Freud klugerweise vom Unbewussten gesprochen. Dem Unbewussten gegenüber steht das Bewusste. Entweder etwas ist einem bewusst oder eben nicht. Aber es kann einem etwas nicht unterbewusst oder überbewusst oder oberbewusst sein. Denn wo ein Oben, auch ein Unten.

    Folglich, da Bewusstsein also nicht ein Raum ist, kann es keinen Ort unterhalb von Bewusstsein oder oberhalb von Bewusstsein geben. Bewusstsein ist entweder da oder eben nicht.

    Auch wenn es im Zuge der Yoga-Entwicklung im letzten Jahrhundert hier und dort Yogis gab, die wie Sri Aurobindo beispielsweise vom Supramind oder Overmind, von Bewusstseinsstufen sprachen, sind diese Vorstellungen nicht wissenschaftlich, sondern lediglich Versuche, eine Vorstellung dessen, was Bewusstsein noch alles können könnte, zu beschreiben.

    Im Westen wurde im Zuge der Erfahrungen der Hippies mit Drogen gerne auch vom "erweiterten Bewusstsein" gesprochen.

    Also von einem "unterbewussten Nervensystem" zu reden ist so unrichtig, wie von einem "überbewussten Nervensystem" zu reden. Das Nervensystem funktioniert schlicht unbewusst, es sei denn das Ich ist sich dessen bewusst, wie und wann es funktioniert. Das kann man über Meditation durchaus erlernen.

    Aber den Begriff "Unterbewusstsein" sollten wissenschaftlich orientierte JournalistInnen eigentlich nicht benutzen.
  • @Dr. Gunter Berauer - Wellenfunktion & Kollaps - Addendum

    14.09.2015, Dr. Wolfgang Klein, Wehrheim
    Noch sehr viel lesenswerter in diesem Zusammenhang in der SPEKTRUM KOMPAKT-Ausgabe: Der Artikel von David Tong "Machen Quanten Sprünge?". Dieser enthält - natürlich sehr viel fachkundiger - eine ausführliche Diskussion vieler der von mir oben angesprochenen Themen, die auch die historischen Facetten nicht auslässt.

    Tong vertritt den Standpunkt, dass die Welt ein Kontinuum ist, und dass "digitale" bzw. "diskrete" Effekte nur emergent in Verbindung mit Lösungen der Schrödinger-Gleichung auftreten. Der "Automat" wäre in diesem Fall ein rein theoretisches Konstrukt und würde nur näherungsweise physikalische Realisierungen besitzen. Eine sinnvolle exakte Frage könnte in dem Fall sein, ob ein Mensch in diesem Sinne die näherungsweise Realisierung eines Automaten ist oder nicht. Roger Penrose beispielsweise (siehe populärwissenschaftliche Publikationen wie "Shadows of the Mind") vertritt z.B. im Zusammenhang mit der KI-Diskussion die Meinung, dass dies (Mensch = Automat) nicht der Fall ist, wobei ihm ein Nachweis bisher nicht gelungen ist. Selbst wenn nachgewiesen ist, dass der Mensch kein Automat in diesem Sinne ist, bleibt der Begriff "freier Wille" vollkommen ungeklärt, denn mehr als Wellenfunktionen, Schrödinger-Gleichung und ggf. der Zufall in Form des Kollaps der WF gibt es dann nicht. Wo soll da ein "freier Wille" sein?

    Im Übrigen steht auch der Kontinuumsansatz mathematisch auf tönernen Füßen. Er funktioniert nämlich nur, wenn man unterstellt, dass das Auswahlaxiom (Zermelo-Fraenkel-Mengenlehre (ZF)) in der Realität gilt, und meine persönliche Meinung als Mathematiker ist, dass das Auswahlaxiom eine so abgedreht formale Aussage macht, dass sich mit gesundem Menschenverstand oder experimentell nicht entscheiden lässt, ob es in der Realität gilt oder nicht. In der Tat bilden die restlichen ZF-Axiome plus NEGATION des Auswahlaxioms ein ebenso widerspruchsfreies Axiomensystem wie ZF mit Auswahlaxiom.

    Hinzu kommt noch der allfällige Gödelsche Unvollständigkeitssatz, nach dem es wahre Aussagen gibt (man kann sogar welche konkret angeben), die aus den Axiomen (... mindestens so komplex wie die Peano-Axiome ...) nicht beweisbar sind. Und es gilt: ZF => Peano.

    Die Ausgangslage für eine Entscheidung des Automatenproblems ist also denkbar schlecht und - ich wiederhole es - der Artikel von E. Nahmias ziemliches Blabla. :(
  • @Dr. Gunter Berauer - Wellenfunktion & Kollaps

    14.09.2015, Dr. Wolfgang Klein, Wehrheim
    Ich habe mir gerade das neueste SPEKTRUM KOMPAKT zum Thema Quantenphysik geladen. Der Artikel "Und noch ein Schlupfloch erfolgreich geschlossen" in dieser Sammlung setzt sich mit mit einem neuen Experiment zum Kollaps der Wellenfunktion auseinander. Bei diesem wird ein einzelnes Photon (Welle) aufgeteilt und für jeden Teil separat eine "Messung an einer Welleneigenschaft" durchgeführt (für Details siehe Artikel).

    Aus ihren Ergebnissen schließen die Experimentatoren (offenbar Anhänger der Kopenhagener Deutung), dass der Kollaps der Wellenfunktion instantan erfolgt, d.h. ohne Zeitverzug mit unendlicher Geschwindigkeit. Da die Messungen an einem einzelnen Photon erfolgen, ist Ihre Aussage in einer Leserzuschrift oben, es handle sich nur um einen statistischen Effekt bei wiederholten Messungen, und die Welle an sich könne gar nicht beobachtet werden, offensichtlich falsch.

    Meiner Meinung nach ist allerdings der Untertitel des Artikels "Ein neuer Test belegt: Die Quantenwelt bleibt gewohnt unübersichtlich. Und für Skeptiker wird das Eis immer dünner." etwas irreführend, weil das Experiment kein experimentum crucis zwischen Kopenhagener Deutung und Vielweltentheorie darstellt. Ich denke eher, dass mit "Skeptiker" die grundsätzlichen Zweifler an der Quantentheorie gemeint sind.
  • Erhaltung der Information?

    14.09.2015, Dr. Gunter Berauer, München
    In dem Artikel wird wieder einmal behauptet, die Quantenmechanik verbiete den Verlust von Informationen, es gebe also einen Erhaltungssatz für die Information. Dafür gibt es meines Erachtens aber keine Grundlage, weder auf Ensembleebene, also im Makro- oder Mesokosmos, noch auf der Teilchenebene im Mikrokosmos. Das Thema wurde im Spektrum vor Jahren schon einmal diskutiert, https://www.spektrum.de/magazin/schwarze-sterne-an-stelle-schwarzer-loecher/1017402

    Das auf Ensembleebene üblicherweise benutzte Shannon’sche Informationsmaß entspricht dem Gegenteil der Entropie; Leon Briollouin spricht von Negentropie. Da Entropie ein Maß der Unordnung ist, ist Information damit ein Maß der Ordnung. Und wenn die Entropie, die Unordnung, nach dem zweiten Hauptsatz der Thermodynamik in einem abgeschlossenen System mit der Zeit insgesamt zunimmt, dann nimmt die Ordnung, d.h. die Information insgesamt ab. Oberhalb der Teilchenebene bleibt in einem abgeschlossenen System die Information also nicht erhalten, sondern sie nimmt mit der Zeit ab.

    Nun zur Teilchenebene. Im Mikrokosmos wird oft von quantenmechanischer Mikrokausalität gesprochen und damit auf der Teilchenebene eine Informationserhaltung konstatiert. Die Gesetzmäßigkeit, die dabei mit Mikrokausalität bezeichnet wird, bezieht sich aber nur auf die Weiterentwicklung von Wahrscheinlichkeiten (etwa über die Schrödinger- oder die Klein-Gorden-Gleichung), und nicht, wie in den Gleichungen der klassischen Physik, auf die Weiterentwicklung der physikalischen Größen selbst, also der Fakten, wie etwa Ort und Geschwindigkeit eines Objektes. Vorhersagbarkeit von Möglichkeiten hat aber nun gar nichts mit Vorhersagbarkeit der Fakten und damit mit wirklicher Kausalität zu tun. So ist die Wahrscheinlichkeit, bei einem geplanten Wurf eines idealen Würfels eine “2“ zu erhalten, sicher als 1/6 vorhersagbar, was aber nichts darüber aussagt, welche Zahl dann wirklich fällt. Offenbar wird hier Mögliches mit Faktischem verwechselt, was übrigens die am weitesten verbreitete Fehlinterpretation der Quantenmechanik ist (siehe auch andere Leserbriefe von mir im Spektrum).

    Die genannte vorhersagbare Weiterentwicklung der Wahrscheinlichkeiten nach den Gleichungen der Quantenmechanik gilt auch nur, solange das Objekt isoliert bleibt, also keine Wechselwirkung stattfindet. Bei jeder Wechselwirkung, bzw. Messung, wird beim Kollaps der Wellenfunktion gemäß der momentan unter Berücksichtigung der Art der Wechselwirkung gegebenen Wahrscheinlichkeiten per Zufall eine der Möglichkeiten zum Faktum. Es bildet sich für die Zukunft ab da eine neue Wellenfunktion, und die Information über die anderen, vor dieser Wechselwirkung für die betreffende Größe möglich gewesenen, sowie die von ihr tatsächlich früher angenommenen Werte, ist für immer verloren. Solange ein Objekt unbeobachtet bleibt (d.h. nicht mit seiner Umwelt wechselwirkt) und sich in dieser Zeit die Wahrscheinlichkeiten nach den genannten Gleichungen weiterentwickeln, kann es in den Wellenfunktionen zwar auch Invarianten geben, wie etwa Erwartungswerte von Messgrößen oder Produkte von Erwartungswerten. Diese sind aber nur fiktiv und in einem unbeobachteten System per definitionem nicht nachweisbar. Ferner würden auch diese Informationen die nächste Wechselwirkung nicht überleben. Auch im Mikrokosmos bleibt somit Information nicht erhalten. Und, in der Zeit, in der eine Information zwischen zwei Wechselwirkungen vielleicht überlebt, ist sie gar nicht nachweisbar.

    Herr Springer von der Spektrum-Redaktion hatte vor einigen Jahren mir gegenüber einmal die Meinung vertreten, dass die Informationserhaltung zwar für einzelne Teilchen, nicht aber für größere Ensembles gelte. Das ist aber auch nicht überzeugend. Denn wenn im Kleinen grundsätzlich nichts verloren geht, dann könnte auch in Summe, d.h. im Großen, nichts verloren gehen.

    Mein Fazit: Einen Erhaltungssatz der Information gibt es nicht und das im Artikel angesprochene Informationsparadoxon existiert nicht.




  • Antibiotika

    13.09.2015, Stefan Mense
    Die Antibiotikabehandlung gilt anderen Ländern, wo eine Fehlsteuerung durch finanzielle Anreize hin zur Operation nicht besteht (z.b. Schweden) seit längerem als erste Wahl.
  • die zeit läuft davon!

    13.09.2015, kopfschüttler
    das ist doch pure flickschusterei auf grundlage von prognosen. und dass prognosen schwierig sind, da sie die zukunft betreffen, wissen wir doch. und wenn's um's wetter geht, kann es doch wohl kaum annähernd seriöse längerfristge vorhersagen geben und schon gar nicht regional.
    dass der klimawandel menschengemacht ist, kann doch seit ende der 80er jahre des vergangenen jahrhunderts als belegt gelten und seit her hört man immer wieder, dass es schlimmer steht als wie prognostiziert.
    und die wissenschaftsgemeinde muss hilflos der politik zuschauen???
    wie ein klimaabkommen nach dem anderen scheitert?
    bleibt wissenschaftlern denn kein anderes instrument als mit "eindringlichen worten vor den gefahren zu warnen"?
    besteht denn kein umfassender konsens, der z.b. für eine art (globalen) generalstreik der wissenschaft ausreichte?
  • Wozu die erste Grafik?

    13.09.2015, Kurt Bockhorst
    Ich verstehe den Sinn ihrer ersten Grafik nicht. Wird die im Text erklaert? Und was hat die mit den Basken zu tun? Das Baskenland erscheint ja nicht gerade als hervortretend auf der Grafik.
    Stellungnahme der Redaktion

    Sehr geehrter Leser,

    ich habe das in der Tat unpassende Bild ausgetauscht - mit dem Artikel hatte es nicht viel zu tun, außer dass dort eine bestimmte Gensignatur-Verbreitung in Europa zu sehen war.

    Danke für die Zuschrift (auch den anderen aufmerksamen Lesern) und Beste Grüße,

    Jan Osterkamp
    Redaktion Spektrum.de

  • Es ist so traurig

    13.09.2015, Kai Petzke
    Ja, es ist leider so traurig: Im Zweifel wird immer noch geschnitten. Das operative Verfahren wurde schon vor 200 Jahren angewendet, starke Antibiotika gibt es noch keine 100 Jahre. Nur die Frage, ob man mit letzteren die vielen Blinddarm-OPs reduzieren kann, die hat kaum jemand gestellt. Es gibt einzelne Studien mit kleinen Patientenzahlen und jetzt endlich EINE größere!

    Auch bei den med. Geräten findet der technische Fortschritt nicht statt. Deswegen ist die oben beschriebenen Behandlungsalternative (genaue Differenzial-Diagnostik mit CT, dann Antibiotika-Therapie bei leichten Fällen) ebenfalls mit einer erheblichen Gefahr verbunden, nämlich der Strahlenbelastung des CT. MRT hat keine solche Strahlenbelastung, ist aber vielfach teurer. Doch warum ist das MRT teurer? In der Elektronik erleben wir doch heute drastischen Preisverfall. Ein Smartphone ist heute *günstiger* als jedes der (mindestens) fünf Geräte, die es ersetzt, vor zehn Jahren einzeln gekostet hat: Handy, Digitalkamera, Navigationsgerät, Taschencomputer, mobile Spielekonsole.

    Klar ist bei MRTs der konstruktive Aufwand aufgrund des benötigten starken Magneten hoch. Aber lässt sich der nicht auch durch Massenproduktion senken? Sollte nicht zudem moderne Auswerteelektronik auch mit hohen Feldgradienten klarkommen? Sprich: Brauchen wir unbedingt noch die MRT-"Röhre", oder kann man nicht auch mit einem kleinen Magneten einseitig von außen ein Feld anlegen? An der NMR-Mouse forscht die RWTH Aachen seit einem Jahrzehnt. Spektrum der Wissenschaft hat auch hierüber berichtet - vielen Dank dafür! Nur warum finden solche kostensparenden Alternativen keinen Eingang in die Medizin???

    http://www.nmr-mouse.de/
  • Zutaten?

    13.09.2015, Sandra Schuster
    Mich hätte zu dem Buch noch interessiert: Sprechen die Autoren an, wo ich die Zutaten bekommen kann? Bei Aldi, Edeka oder Rewe werde ich wohl kaum Mehlwürmer und Heuschrecken besorgen können...
    Stellungnahme der Redaktion

    Liebe Frau Schuster,

    es gibt Unternehmen, die Speiseinsekten per Online-Versandhandel vertreiben. Einer der Autoren (Dammann) beispielsweise hat eines gegründet. Entsprechende Links sind in dem Buch angegeben; zur Vermeidung werblichen Inhalts möchten wir diese hier aber nicht aufführen. Man findet solche Unternehmen mit gängigen Suchmaschinen.

    Mit freundlichem Gruß
    Frank Schubert

  • Obstkerne...

    12.09.2015, tdh
    Liebe Redaktion,

    " öfter jedoch durch Kotsteine oder Fremdkörper wie Obstkerne, die sich dort ablagern." hätte ich mir so nicht zu schreiben getraut. Die Geschichte vom Obstkern und der Appendizitis findet sich zwar noch zuhauf in der Fachliteratur, es kommt aber so extrem selten vor, dass der generelle Konsensus unter Chirurgen mittlerweile der ist, dass verschluckte Kerne keine angebenswerte Ursache sind. Die Geschichten über auftretende Fälle laufen bestenfalls unter "anekdotisch.

    Grüße,
    tdh
  • Atomkraftwerke Verseuchung

    12.09.2015, Justus Erb
    Für mich ist der Sinn der Karte auch ein ganz anderer, ein aufschlussreiches Bild, wie ein Paar Irre an der Macht, die Menschheit mit Radioaktivität verseucht, besonders in Europa
  • Strukturelle Ähnlichkeit selbstorganisierender Systeme

    11.09.2015, Regine Reichwein
    Über diesen Artikel habe ich mich gefreut. Ein weiterer Hinweis dafür, dass in selbstorganisierenden Systemen sehr kleine Veränderungen sehr große Auswirkungen haben können, die nicht im Vorfeld berechenbar, sondern nur in Echtzeit beobachtbar sind.
    Anders ausgedrückt: Selbstorganisierende Systeme sind nicht kontrollierbar, aber sehr empfindlich für minimale Einwirkungen.
    Ich wünsche mir, dass unsere Politiker – und natürlich auch viele andere Menschen, die etwas zu entscheiden haben – schnell genug begreifen, dass auch Menschen höchstens kurzfristig – aus Angst und Not – das tun, was von ihnen erwartet wird, aber langfristig nicht kontrollierbar sind.
    Sie sind wie alle Lebewesen ebenfalls selbstorganisierende Systeme
    Angesichts der vielen Menschen, die nach Deutschland oder auch woanders hin wollen, wären wir gut beraten, Bürokratie zu reduzieren und mehr Autonomie für jeden einzelnen Menschen zuzulassen, damit nicht das ganze System zusammenbricht.
    Auch hier gilt: Kontrolle, Einschränkungen, Verbote, Eingrenzung usw., so wie viele Menschen es sich wünschen, haben unkontrollierbare Auswirkungen für selbstorganisierende Systeme.
    Wir können – wenn wir die strukturellen Ähnlichkeiten aller selbstorganisierenden Systeme berücksichtigen – von diesen kleinen mikrobiellen Ökosystemen noch viel lernen.

  • Strohmann - dito

    11.09.2015, Pertti Valkonen
    Als ich das mit den F*c*book-Fotos las, mußte ich auch sofort an den klassischen Strohmann denken, den sich die Forscher da zurechtgebastelt haben. Ums mal sarkastisch zu sagen: Erschießt nen Schwulen und nen Heten, wascht beide und bahrt sie dann in der L-Halle zum Vergleich auf. Wer dann noch meint, nen Schwulen an der Nasenspitze zu erkennen, der hantiert auch noch mit seltsamen Riesenzirkeln, um Arierköpfe von Untermenschköpfen zu unterscheiden.

    Zur "Nasenspitze des Schwulen" gehört nun mal, wie vorteilhaft er das Licht auf seine Nase im F*c*bookfoto scheinen läßt, was für einen Fummel er farblich abgestimmt anzieht usw. Wenn ich das eliminiere, dann bleibt nur der Homo sapiens, und in diesem Punkt sind wir alle gleich.
  • Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken

    11.09.2015, Wolfgang Huß, Hamburg
    Ich möchte kurz ein Szenario schildern, dass dem der Feuerwand am Ereignishorizont eines Schwarzen Lochs verblüffend ähnelt und das Problem des Informationsverlusts meiner Meinung nach lösen kann.

    Der Autor Joseph Polchinski sagt: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken." (S. 39).

    Dem folgend möchte ich einen neuen Ansatz schildern, um dann auf die Feuerwand zu kommen: Analysiert man die heisenbergsche Unschärferelation, so kann man zu ihrer Abzählinterpretation kommen (Vgl. Treitz, Norbert. "Von den falschen Tönen zur Unbestimmtheitsrelation." In: Spektrum der Wissenschaft (Okt. 2010), S. 40—42. https://www.spektrum.de/alias/quantenmechanik/von-den-falschen-toenen-zur-unbestimmtheitsrelation/1044195 ). Sie macht deutlich, dass man die heisenbergsche Unschärferelation als messtechnische Unschärfe ansehen kann, die durch ein prinzipielles Abzählproblem entsteht. Ähnlich wie beim Erkennen einer Tonhöhe durch Hinhören wird demnach beim Messen der Energie eines Elementarteilchens versucht, durch das Abzählen von Wellenbergen einer Wellenfunktion deren Anzahl in der Struktur zu ermitteln. Dies ist mit dem bekannten Messfehler – der Unschärfe – verbunden, wie Treitz zeigt. Diese Wellenberge werden durch den neuen Ansatz als eine Art von diskreter Körnigkeit der Elementarteilchen-Struktur interpretiert. Jedes "Korn" gleicht einem Wirkungsquantum "h". So handelt es sich, pro Zeit gezählt, bei den Wellenbergen um kleine Energie-Einheiten.

    Ihre konstante Energie entspringt in diesem Ansatz einer absolut konstanten Bewegung, die als Grundlage der Veränderung der Elementarteilchen- und Vakuum-Struktur als eine Art von kosmischer Zeit zu sehen ist, die überall im Kosmos unabhängig von der Gravitation gleich läuft.

    Beschäftigt man sich mit dem möglichen Aufbau der Elementarteilchen aus dieser körnigen Struktur durch eine Wechselwirkung zwischen den Körnern, so kann man zu der Einsicht gelangen, dass diese Körner sich zu rotierenden, schwingenden, geschlossenen und fadenförmigen Ringen zusammenfinden, die Strings ähneln. Die simpelsten Muster dieser Fäden verhalten sich wie die Photonen des Lichts und können sich nur mit der aus der Allgemeinen Relativitätstheorie bekannten variablen Lichtgeschwindigkeit im dreidimensionalen Raum bewegen. Auch das Vakuum besteht demnach aus der einfachsten Version dieser Fäden, die als elektromagnetisch unpolarisierte Photonen zu verstehen sind. Komplexer aufgebaute Schwingungsmuster dieser Fäden entsprechen den Materie-Elementarteilchen und funktionieren strukturell wie die Lichtuhren Einsteins.

    Was hat dies alles nun mit der Feuerwand um ein Schwarzes Loch zu tun?
    Jedes dieser Körner ist eine Informationseinheit. Untersucht man die Bedingungen am Ereignishorizont, indem man sich den Bewegungsbahnen dieser Körner und der aus ihnen gebildeten Fäden des Lichts und des Vakuums aus Sicht des Pound-Rebka-Snider-Experiments nähert, so tritt erstaunliches zu Tage. Bewegt sich ein Licht- oder ein Vakuum-Faden direkt auf eine sehr dichte Masse zu, die ein Schwarzes Loch darstellen soll, so stauen sich diese Fäden am Ereignishorizont auf und bilden dort eine extrem energiereiche Hülle, die man als Feuerwand charakterisieren kann. Durch Anzahlerhaltungsüberlegungen zu den Körnern und zu den von ihnen gebildeten Fäden stellt man fest, dass die Körner bei einem etwaigen Eintritt durch den Ereignishorizont die Fäden verlassen müssten, wenn sie den Horizont überhaupt überschreiten. Die Körner und Fäden gehen dabei nicht verloren, womit die Information, im Schwarzen Loch und um es herum, erhalten bleibt.

    Außerhalb des Ereignishorizonts handelt es sich um Zusammenhänge, die denen der Allgemeinen Relativitätstheorie im Prinzip gleichen. Diese entstehen nun allerdings durch einen von der Körnigkeit erzeugten statistischen Effekt, der durch Störungswellen zustande kommt. Dieser Effekt beugt außerhalb des Ereignishorizonts das Licht und zieht Materie-Elementarteilchen an. Ein Fundament der Quantenmechanik, die Unschärferelation, ergibt so auf Basis einer körnigen Struktur der Elementarteilchen und des Vakuums eine realistische Quantengravitation. Innerhalb der Feuerwand beginnt eine neue Welt aus freien Körnern, die nicht in Fäden gebunden sind.

    Beim theoretischen Betreten des Inneren des Ereignishorizonts handelt es sich um einen Phasenübergang. Das bedeutet, die Raum- und Zeitstruktur, die dem Gravitationspotenzial entspricht, das die Fäden außerhalb des Schwarzen Lochs bilden, existiert innerhalb des Schwarzen Lochs nicht mehr. Damit gibt es auch keine Singularität im Schwarzen Loch, sondern eine Struktur freier Körner. Hiermit löst sich also nicht nur das Problem des Informationsverlusts.

    Ausführlichere Überlegungen und einfache Rechnungen zu diesem Ansatz finden sich im Internet unter: "Die Quanten-Fluss-Theorie", http://www.quantum-flow-theory.eu. Was ein ins Schwarze Loch stürzender Astronaut in diesem Szenario genau wahrnimmt, bleibt eine noch zu lösende Denk- und Rechenaufgabe. Er kommt sicherlich nicht unversehrt durch die Feuerwand.

    Es gibt also mindestens einen prinzipiellen Ansatz, mit dem das Problem des Informationsverlusts gelöst werden könnte. Bleibt abzuwarten, ob dieser auch die Physik vereinheitlichen kann, wie der Autor Joseph Polchinski auf Seite 36, siehe Kasten, mutmaßt. Versuchen tut dieser Ansatz es jedenfalls.

    Also noch einmal: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken". Da kann ich dem Autor nur zustimmen. Der geschilderte Ansatz soll hierzu neue Denkanstöße liefern.



  • @Uwe Lorenz - Begriffsklärungen

    11.09.2015, Dr. Wolfgang Klein, Wehrheim
    Fasst man einen Menschen als System auf, stellt sich die Grundfrage nach der Größe des Zustandsraums dieses Systems. Bei einem Automaten ist der Zustandsraum endlich. Bei Quantensystemen ist der Theorie zufolge der Zustandsraum überabzählbar unendlich (Kardinalität Aleph-1). Zwischen endlichen Kardinalitäten und Aleph-1 liegen nur die natürlichen Zahlen (Kardinalität Aleph-0). Da ein Mensch nach der Quantentheorie ein Quantensystem ist, ist die Aussage "ein Mensch ist ein Automat" entweder falsch oder eine nur näherungsweise richtige physikalische Beschreibung, wie beispielsweise bei einem Computer.

    Von besonderer Bedeutung ist die metamathematische Begriffshierarchie

    berechenbar => beweisbar => wahr,

    bei der sich die Pfeile logisch nicht umkehren lassen.

    Eine mathematisches Problem ist BERECHENBAR, wenn die zugehörige Turing-Maschine (der Algorithmus) nach endlich vielen Schritten zum Halten kommt. Die BEWEISBARkeit kommt ins Spiel beispielsweise bei der Aussage, dass eine Differentialgleichung, die die Zeitentwicklung eines physikalischen Systems beschreibt, eine eindeutige Lösung hat. Ein solches physikalisches System ist DETERMINISTISCH. Dass die Existenz einer Lösung bewiesen werden kann, heißt aber noch lange nicht, dass diese Lösung auch berechenbar ist oder geschlossen ermittelt werden kann, wie beispielsweise die positive Lösung einer quadratischen Gleichung. Typischerweise berechnen Physiker nur Näherungslösungen. Da dies für nahezu alle physikalischen Systeme mit nur geringfügig höherer Komplexität gilt, ist die Zeitentwicklung eines physikalischen Systems praktisch NICHT genau VORHERSAGBAR. Dies gilt nicht nur für Quantensysteme Kopenhagener Prägung, bei denen die Messung von Observablen grundsätzlich zufallsabhängig ist, sondern auch für deterministische Systeme. Letztere können ein chaotisches Verhalten zeigen, weil selbst kleinste Änderungen der Ausgangsbedingungen nach einer gewissen Zeit zu unvorhersagbarem Verhalten führen können, wie man beispielsweise am Lorentz-Attraktor für Wettervorhersagen sieht.

    Noch schlimmer wird die Situation durch den Gödelschen Unvollständigkeitssatz, nach dem es unter Zugrundelegung eines hinreichend reichhaltigen Axiomensystems (mindestens Peano-Axiome) wahre Aussagen gibt, die nicht beweisbar sind. Dies könnte, übertragen auf die physikalische Realität, heißen, dass es gültige Zeitentwicklungen der Welt gibt, die sich logisch nicht herleiten lassen :(. Das ist natürlich nur ein Gedankenspiel.

    Ich kann Eddy Nahmias zustimmen, wenn er behauptet, ein Mensch sei kein Automat, vorausgesetzt die Welt ist kein Automat (was nicht unbedingt allgemein akzeptiert ist - vgl. Buch von Max Tegmark). Meine Gründe dafür sind aber offenbar andere als die des Autors. Im Übrigen kann ich nur wiederholen, dass der Begriff "freier Wille" ein mindestens ebenso leeres Wortspiel ist wie der "Sinn des Lebens".
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.