Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
In dem Artikel wird wieder einmal behauptet, die Quantenmechanik verbiete den Verlust von Informationen, es gebe also einen Erhaltungssatz für die Information. Dafür gibt es meines Erachtens aber keine Grundlage, weder auf Ensembleebene, also im Makro- oder Mesokosmos, noch auf der Teilchenebene im Mikrokosmos. Das Thema wurde im Spektrum vor Jahren schon einmal diskutiert, https://www.spektrum.de/magazin/schwarze-sterne-an-stelle-schwarzer-loecher/1017402
Das auf Ensembleebene üblicherweise benutzte Shannon’sche Informationsmaß entspricht dem Gegenteil der Entropie; Leon Briollouin spricht von Negentropie. Da Entropie ein Maß der Unordnung ist, ist Information damit ein Maß der Ordnung. Und wenn die Entropie, die Unordnung, nach dem zweiten Hauptsatz der Thermodynamik in einem abgeschlossenen System mit der Zeit insgesamt zunimmt, dann nimmt die Ordnung, d.h. die Information insgesamt ab. Oberhalb der Teilchenebene bleibt in einem abgeschlossenen System die Information also nicht erhalten, sondern sie nimmt mit der Zeit ab.
Nun zur Teilchenebene. Im Mikrokosmos wird oft von quantenmechanischer Mikrokausalität gesprochen und damit auf der Teilchenebene eine Informationserhaltung konstatiert. Die Gesetzmäßigkeit, die dabei mit Mikrokausalität bezeichnet wird, bezieht sich aber nur auf die Weiterentwicklung von Wahrscheinlichkeiten (etwa über die Schrödinger- oder die Klein-Gorden-Gleichung), und nicht, wie in den Gleichungen der klassischen Physik, auf die Weiterentwicklung der physikalischen Größen selbst, also der Fakten, wie etwa Ort und Geschwindigkeit eines Objektes. Vorhersagbarkeit von Möglichkeiten hat aber nun gar nichts mit Vorhersagbarkeit der Fakten und damit mit wirklicher Kausalität zu tun. So ist die Wahrscheinlichkeit, bei einem geplanten Wurf eines idealen Würfels eine “2“ zu erhalten, sicher als 1/6 vorhersagbar, was aber nichts darüber aussagt, welche Zahl dann wirklich fällt. Offenbar wird hier Mögliches mit Faktischem verwechselt, was übrigens die am weitesten verbreitete Fehlinterpretation der Quantenmechanik ist (siehe auch andere Leserbriefe von mir im Spektrum).
Die genannte vorhersagbare Weiterentwicklung der Wahrscheinlichkeiten nach den Gleichungen der Quantenmechanik gilt auch nur, solange das Objekt isoliert bleibt, also keine Wechselwirkung stattfindet. Bei jeder Wechselwirkung, bzw. Messung, wird beim Kollaps der Wellenfunktion gemäß der momentan unter Berücksichtigung der Art der Wechselwirkung gegebenen Wahrscheinlichkeiten per Zufall eine der Möglichkeiten zum Faktum. Es bildet sich für die Zukunft ab da eine neue Wellenfunktion, und die Information über die anderen, vor dieser Wechselwirkung für die betreffende Größe möglich gewesenen, sowie die von ihr tatsächlich früher angenommenen Werte, ist für immer verloren. Solange ein Objekt unbeobachtet bleibt (d.h. nicht mit seiner Umwelt wechselwirkt) und sich in dieser Zeit die Wahrscheinlichkeiten nach den genannten Gleichungen weiterentwickeln, kann es in den Wellenfunktionen zwar auch Invarianten geben, wie etwa Erwartungswerte von Messgrößen oder Produkte von Erwartungswerten. Diese sind aber nur fiktiv und in einem unbeobachteten System per definitionem nicht nachweisbar. Ferner würden auch diese Informationen die nächste Wechselwirkung nicht überleben. Auch im Mikrokosmos bleibt somit Information nicht erhalten. Und, in der Zeit, in der eine Information zwischen zwei Wechselwirkungen vielleicht überlebt, ist sie gar nicht nachweisbar.
Herr Springer von der Spektrum-Redaktion hatte vor einigen Jahren mir gegenüber einmal die Meinung vertreten, dass die Informationserhaltung zwar für einzelne Teilchen, nicht aber für größere Ensembles gelte. Das ist aber auch nicht überzeugend. Denn wenn im Kleinen grundsätzlich nichts verloren geht, dann könnte auch in Summe, d.h. im Großen, nichts verloren gehen.
Mein Fazit: Einen Erhaltungssatz der Information gibt es nicht und das im Artikel angesprochene Informationsparadoxon existiert nicht.
Die Antibiotikabehandlung gilt anderen Ländern, wo eine Fehlsteuerung durch finanzielle Anreize hin zur Operation nicht besteht (z.b. Schweden) seit längerem als erste Wahl.
das ist doch pure flickschusterei auf grundlage von prognosen. und dass prognosen schwierig sind, da sie die zukunft betreffen, wissen wir doch. und wenn's um's wetter geht, kann es doch wohl kaum annähernd seriöse längerfristge vorhersagen geben und schon gar nicht regional. dass der klimawandel menschengemacht ist, kann doch seit ende der 80er jahre des vergangenen jahrhunderts als belegt gelten und seit her hört man immer wieder, dass es schlimmer steht als wie prognostiziert. und die wissenschaftsgemeinde muss hilflos der politik zuschauen??? wie ein klimaabkommen nach dem anderen scheitert? bleibt wissenschaftlern denn kein anderes instrument als mit "eindringlichen worten vor den gefahren zu warnen"? besteht denn kein umfassender konsens, der z.b. für eine art (globalen) generalstreik der wissenschaft ausreichte?
Ich verstehe den Sinn ihrer ersten Grafik nicht. Wird die im Text erklaert? Und was hat die mit den Basken zu tun? Das Baskenland erscheint ja nicht gerade als hervortretend auf der Grafik.
Stellungnahme der Redaktion
Sehr geehrter Leser,
ich habe das in der Tat unpassende Bild ausgetauscht - mit dem Artikel hatte es nicht viel zu tun, außer dass dort eine bestimmte Gensignatur-Verbreitung in Europa zu sehen war.
Danke für die Zuschrift (auch den anderen aufmerksamen Lesern) und Beste Grüße,
Ja, es ist leider so traurig: Im Zweifel wird immer noch geschnitten. Das operative Verfahren wurde schon vor 200 Jahren angewendet, starke Antibiotika gibt es noch keine 100 Jahre. Nur die Frage, ob man mit letzteren die vielen Blinddarm-OPs reduzieren kann, die hat kaum jemand gestellt. Es gibt einzelne Studien mit kleinen Patientenzahlen und jetzt endlich EINE größere!
Auch bei den med. Geräten findet der technische Fortschritt nicht statt. Deswegen ist die oben beschriebenen Behandlungsalternative (genaue Differenzial-Diagnostik mit CT, dann Antibiotika-Therapie bei leichten Fällen) ebenfalls mit einer erheblichen Gefahr verbunden, nämlich der Strahlenbelastung des CT. MRT hat keine solche Strahlenbelastung, ist aber vielfach teurer. Doch warum ist das MRT teurer? In der Elektronik erleben wir doch heute drastischen Preisverfall. Ein Smartphone ist heute *günstiger* als jedes der (mindestens) fünf Geräte, die es ersetzt, vor zehn Jahren einzeln gekostet hat: Handy, Digitalkamera, Navigationsgerät, Taschencomputer, mobile Spielekonsole.
Klar ist bei MRTs der konstruktive Aufwand aufgrund des benötigten starken Magneten hoch. Aber lässt sich der nicht auch durch Massenproduktion senken? Sollte nicht zudem moderne Auswerteelektronik auch mit hohen Feldgradienten klarkommen? Sprich: Brauchen wir unbedingt noch die MRT-"Röhre", oder kann man nicht auch mit einem kleinen Magneten einseitig von außen ein Feld anlegen? An der NMR-Mouse forscht die RWTH Aachen seit einem Jahrzehnt. Spektrum der Wissenschaft hat auch hierüber berichtet - vielen Dank dafür! Nur warum finden solche kostensparenden Alternativen keinen Eingang in die Medizin???
Mich hätte zu dem Buch noch interessiert: Sprechen die Autoren an, wo ich die Zutaten bekommen kann? Bei Aldi, Edeka oder Rewe werde ich wohl kaum Mehlwürmer und Heuschrecken besorgen können...
Stellungnahme der Redaktion
Liebe Frau Schuster,
es gibt Unternehmen, die Speiseinsekten per Online-Versandhandel vertreiben. Einer der Autoren (Dammann) beispielsweise hat eines gegründet. Entsprechende Links sind in dem Buch angegeben; zur Vermeidung werblichen Inhalts möchten wir diese hier aber nicht aufführen. Man findet solche Unternehmen mit gängigen Suchmaschinen.
" öfter jedoch durch Kotsteine oder Fremdkörper wie Obstkerne, die sich dort ablagern." hätte ich mir so nicht zu schreiben getraut. Die Geschichte vom Obstkern und der Appendizitis findet sich zwar noch zuhauf in der Fachliteratur, es kommt aber so extrem selten vor, dass der generelle Konsensus unter Chirurgen mittlerweile der ist, dass verschluckte Kerne keine angebenswerte Ursache sind. Die Geschichten über auftretende Fälle laufen bestenfalls unter "anekdotisch.
Für mich ist der Sinn der Karte auch ein ganz anderer, ein aufschlussreiches Bild, wie ein Paar Irre an der Macht, die Menschheit mit Radioaktivität verseucht, besonders in Europa
Über diesen Artikel habe ich mich gefreut. Ein weiterer Hinweis dafür, dass in selbstorganisierenden Systemen sehr kleine Veränderungen sehr große Auswirkungen haben können, die nicht im Vorfeld berechenbar, sondern nur in Echtzeit beobachtbar sind. Anders ausgedrückt: Selbstorganisierende Systeme sind nicht kontrollierbar, aber sehr empfindlich für minimale Einwirkungen. Ich wünsche mir, dass unsere Politiker – und natürlich auch viele andere Menschen, die etwas zu entscheiden haben – schnell genug begreifen, dass auch Menschen höchstens kurzfristig – aus Angst und Not – das tun, was von ihnen erwartet wird, aber langfristig nicht kontrollierbar sind. Sie sind wie alle Lebewesen ebenfalls selbstorganisierende Systeme Angesichts der vielen Menschen, die nach Deutschland oder auch woanders hin wollen, wären wir gut beraten, Bürokratie zu reduzieren und mehr Autonomie für jeden einzelnen Menschen zuzulassen, damit nicht das ganze System zusammenbricht. Auch hier gilt: Kontrolle, Einschränkungen, Verbote, Eingrenzung usw., so wie viele Menschen es sich wünschen, haben unkontrollierbare Auswirkungen für selbstorganisierende Systeme. Wir können – wenn wir die strukturellen Ähnlichkeiten aller selbstorganisierenden Systeme berücksichtigen – von diesen kleinen mikrobiellen Ökosystemen noch viel lernen.
Als ich das mit den F*c*book-Fotos las, mußte ich auch sofort an den klassischen Strohmann denken, den sich die Forscher da zurechtgebastelt haben. Ums mal sarkastisch zu sagen: Erschießt nen Schwulen und nen Heten, wascht beide und bahrt sie dann in der L-Halle zum Vergleich auf. Wer dann noch meint, nen Schwulen an der Nasenspitze zu erkennen, der hantiert auch noch mit seltsamen Riesenzirkeln, um Arierköpfe von Untermenschköpfen zu unterscheiden.
Zur "Nasenspitze des Schwulen" gehört nun mal, wie vorteilhaft er das Licht auf seine Nase im F*c*bookfoto scheinen läßt, was für einen Fummel er farblich abgestimmt anzieht usw. Wenn ich das eliminiere, dann bleibt nur der Homo sapiens, und in diesem Punkt sind wir alle gleich.
Ich möchte kurz ein Szenario schildern, dass dem der Feuerwand am Ereignishorizont eines Schwarzen Lochs verblüffend ähnelt und das Problem des Informationsverlusts meiner Meinung nach lösen kann.
Der Autor Joseph Polchinski sagt: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken." (S. 39).
Dem folgend möchte ich einen neuen Ansatz schildern, um dann auf die Feuerwand zu kommen: Analysiert man die heisenbergsche Unschärferelation, so kann man zu ihrer Abzählinterpretation kommen (Vgl. Treitz, Norbert. "Von den falschen Tönen zur Unbestimmtheitsrelation." In: Spektrum der Wissenschaft (Okt. 2010), S. 40—42. https://www.spektrum.de/alias/quantenmechanik/von-den-falschen-toenen-zur-unbestimmtheitsrelation/1044195 ). Sie macht deutlich, dass man die heisenbergsche Unschärferelation als messtechnische Unschärfe ansehen kann, die durch ein prinzipielles Abzählproblem entsteht. Ähnlich wie beim Erkennen einer Tonhöhe durch Hinhören wird demnach beim Messen der Energie eines Elementarteilchens versucht, durch das Abzählen von Wellenbergen einer Wellenfunktion deren Anzahl in der Struktur zu ermitteln. Dies ist mit dem bekannten Messfehler – der Unschärfe – verbunden, wie Treitz zeigt. Diese Wellenberge werden durch den neuen Ansatz als eine Art von diskreter Körnigkeit der Elementarteilchen-Struktur interpretiert. Jedes "Korn" gleicht einem Wirkungsquantum "h". So handelt es sich, pro Zeit gezählt, bei den Wellenbergen um kleine Energie-Einheiten.
Ihre konstante Energie entspringt in diesem Ansatz einer absolut konstanten Bewegung, die als Grundlage der Veränderung der Elementarteilchen- und Vakuum-Struktur als eine Art von kosmischer Zeit zu sehen ist, die überall im Kosmos unabhängig von der Gravitation gleich läuft.
Beschäftigt man sich mit dem möglichen Aufbau der Elementarteilchen aus dieser körnigen Struktur durch eine Wechselwirkung zwischen den Körnern, so kann man zu der Einsicht gelangen, dass diese Körner sich zu rotierenden, schwingenden, geschlossenen und fadenförmigen Ringen zusammenfinden, die Strings ähneln. Die simpelsten Muster dieser Fäden verhalten sich wie die Photonen des Lichts und können sich nur mit der aus der Allgemeinen Relativitätstheorie bekannten variablen Lichtgeschwindigkeit im dreidimensionalen Raum bewegen. Auch das Vakuum besteht demnach aus der einfachsten Version dieser Fäden, die als elektromagnetisch unpolarisierte Photonen zu verstehen sind. Komplexer aufgebaute Schwingungsmuster dieser Fäden entsprechen den Materie-Elementarteilchen und funktionieren strukturell wie die Lichtuhren Einsteins.
Was hat dies alles nun mit der Feuerwand um ein Schwarzes Loch zu tun? Jedes dieser Körner ist eine Informationseinheit. Untersucht man die Bedingungen am Ereignishorizont, indem man sich den Bewegungsbahnen dieser Körner und der aus ihnen gebildeten Fäden des Lichts und des Vakuums aus Sicht des Pound-Rebka-Snider-Experiments nähert, so tritt erstaunliches zu Tage. Bewegt sich ein Licht- oder ein Vakuum-Faden direkt auf eine sehr dichte Masse zu, die ein Schwarzes Loch darstellen soll, so stauen sich diese Fäden am Ereignishorizont auf und bilden dort eine extrem energiereiche Hülle, die man als Feuerwand charakterisieren kann. Durch Anzahlerhaltungsüberlegungen zu den Körnern und zu den von ihnen gebildeten Fäden stellt man fest, dass die Körner bei einem etwaigen Eintritt durch den Ereignishorizont die Fäden verlassen müssten, wenn sie den Horizont überhaupt überschreiten. Die Körner und Fäden gehen dabei nicht verloren, womit die Information, im Schwarzen Loch und um es herum, erhalten bleibt.
Außerhalb des Ereignishorizonts handelt es sich um Zusammenhänge, die denen der Allgemeinen Relativitätstheorie im Prinzip gleichen. Diese entstehen nun allerdings durch einen von der Körnigkeit erzeugten statistischen Effekt, der durch Störungswellen zustande kommt. Dieser Effekt beugt außerhalb des Ereignishorizonts das Licht und zieht Materie-Elementarteilchen an. Ein Fundament der Quantenmechanik, die Unschärferelation, ergibt so auf Basis einer körnigen Struktur der Elementarteilchen und des Vakuums eine realistische Quantengravitation. Innerhalb der Feuerwand beginnt eine neue Welt aus freien Körnern, die nicht in Fäden gebunden sind.
Beim theoretischen Betreten des Inneren des Ereignishorizonts handelt es sich um einen Phasenübergang. Das bedeutet, die Raum- und Zeitstruktur, die dem Gravitationspotenzial entspricht, das die Fäden außerhalb des Schwarzen Lochs bilden, existiert innerhalb des Schwarzen Lochs nicht mehr. Damit gibt es auch keine Singularität im Schwarzen Loch, sondern eine Struktur freier Körner. Hiermit löst sich also nicht nur das Problem des Informationsverlusts.
Ausführlichere Überlegungen und einfache Rechnungen zu diesem Ansatz finden sich im Internet unter: "Die Quanten-Fluss-Theorie", http://www.quantum-flow-theory.eu. Was ein ins Schwarze Loch stürzender Astronaut in diesem Szenario genau wahrnimmt, bleibt eine noch zu lösende Denk- und Rechenaufgabe. Er kommt sicherlich nicht unversehrt durch die Feuerwand.
Es gibt also mindestens einen prinzipiellen Ansatz, mit dem das Problem des Informationsverlusts gelöst werden könnte. Bleibt abzuwarten, ob dieser auch die Physik vereinheitlichen kann, wie der Autor Joseph Polchinski auf Seite 36, siehe Kasten, mutmaßt. Versuchen tut dieser Ansatz es jedenfalls.
Also noch einmal: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken". Da kann ich dem Autor nur zustimmen. Der geschilderte Ansatz soll hierzu neue Denkanstöße liefern.
Fasst man einen Menschen als System auf, stellt sich die Grundfrage nach der Größe des Zustandsraums dieses Systems. Bei einem Automaten ist der Zustandsraum endlich. Bei Quantensystemen ist der Theorie zufolge der Zustandsraum überabzählbar unendlich (Kardinalität Aleph-1). Zwischen endlichen Kardinalitäten und Aleph-1 liegen nur die natürlichen Zahlen (Kardinalität Aleph-0). Da ein Mensch nach der Quantentheorie ein Quantensystem ist, ist die Aussage "ein Mensch ist ein Automat" entweder falsch oder eine nur näherungsweise richtige physikalische Beschreibung, wie beispielsweise bei einem Computer.
Von besonderer Bedeutung ist die metamathematische Begriffshierarchie
berechenbar => beweisbar => wahr,
bei der sich die Pfeile logisch nicht umkehren lassen.
Eine mathematisches Problem ist BERECHENBAR, wenn die zugehörige Turing-Maschine (der Algorithmus) nach endlich vielen Schritten zum Halten kommt. Die BEWEISBARkeit kommt ins Spiel beispielsweise bei der Aussage, dass eine Differentialgleichung, die die Zeitentwicklung eines physikalischen Systems beschreibt, eine eindeutige Lösung hat. Ein solches physikalisches System ist DETERMINISTISCH. Dass die Existenz einer Lösung bewiesen werden kann, heißt aber noch lange nicht, dass diese Lösung auch berechenbar ist oder geschlossen ermittelt werden kann, wie beispielsweise die positive Lösung einer quadratischen Gleichung. Typischerweise berechnen Physiker nur Näherungslösungen. Da dies für nahezu alle physikalischen Systeme mit nur geringfügig höherer Komplexität gilt, ist die Zeitentwicklung eines physikalischen Systems praktisch NICHT genau VORHERSAGBAR. Dies gilt nicht nur für Quantensysteme Kopenhagener Prägung, bei denen die Messung von Observablen grundsätzlich zufallsabhängig ist, sondern auch für deterministische Systeme. Letztere können ein chaotisches Verhalten zeigen, weil selbst kleinste Änderungen der Ausgangsbedingungen nach einer gewissen Zeit zu unvorhersagbarem Verhalten führen können, wie man beispielsweise am Lorentz-Attraktor für Wettervorhersagen sieht.
Noch schlimmer wird die Situation durch den Gödelschen Unvollständigkeitssatz, nach dem es unter Zugrundelegung eines hinreichend reichhaltigen Axiomensystems (mindestens Peano-Axiome) wahre Aussagen gibt, die nicht beweisbar sind. Dies könnte, übertragen auf die physikalische Realität, heißen, dass es gültige Zeitentwicklungen der Welt gibt, die sich logisch nicht herleiten lassen :(. Das ist natürlich nur ein Gedankenspiel.
Ich kann Eddy Nahmias zustimmen, wenn er behauptet, ein Mensch sei kein Automat, vorausgesetzt die Welt ist kein Automat (was nicht unbedingt allgemein akzeptiert ist - vgl. Buch von Max Tegmark). Meine Gründe dafür sind aber offenbar andere als die des Autors. Im Übrigen kann ich nur wiederholen, dass der Begriff "freier Wille" ein mindestens ebenso leeres Wortspiel ist wie der "Sinn des Lebens".
Ist nicht auch das Verhalten von absolut deterministischen und genügend komplexen Systemen (insbesondere bei selbstbezüglichen) nur in sehr engen Grenzen vorhersagbar und damit auch kontrollierbar? Selbst bei der offensichtlich deterministischen und bei einer in ihrer Arbeitsweise absolut verstandenen Turingmaschine kann bewiesenermaßen im Allgemeinen nicht vorhergesagt werden, ob diese mit einem gegebenen Input zum Ende kommt. Ich denke, von den Willusionisten werden die Attribute "determiniert" und "kontrollierbar" vermischt. Wird ein "physikalisches System" nicht von außen kontrolliert, kann man es doch ohne logische Probleme als "frei" bezeichnen, ohne Dualist zu sein. Wir als Menschen entscheiden uns in objektiven Situationen "frei" nach eigenen subjektiven Regeln.
Im Artikel heißt es: " Es bleibt jedoch noch immer anstrengend, die Landwirte erst einmal dazu zu bringen, einige der aktuellen Vorschläge überhaupt umzusetzen, schildert Mitterböck. "Die Landwirte wollen immer möglichst kurzfristig gewinnträchtig zu sein. Für sie ist das Jahr 2040 noch Lichtjahre entfernt." " Viele Landwirte leben quasi 'von der Hand in den Mund'. Sie haben nicht das Kapital derartige Änderungen zum Teil auf Verdacht kurzfristig umzusetzen. Dazu müsste man ihnen für ihre Erzeugnisse erst einmal faire Preise zahlen.
Erhaltung der Information?
14.09.2015, Dr. Gunter Berauer, MünchenDas auf Ensembleebene üblicherweise benutzte Shannon’sche Informationsmaß entspricht dem Gegenteil der Entropie; Leon Briollouin spricht von Negentropie. Da Entropie ein Maß der Unordnung ist, ist Information damit ein Maß der Ordnung. Und wenn die Entropie, die Unordnung, nach dem zweiten Hauptsatz der Thermodynamik in einem abgeschlossenen System mit der Zeit insgesamt zunimmt, dann nimmt die Ordnung, d.h. die Information insgesamt ab. Oberhalb der Teilchenebene bleibt in einem abgeschlossenen System die Information also nicht erhalten, sondern sie nimmt mit der Zeit ab.
Nun zur Teilchenebene. Im Mikrokosmos wird oft von quantenmechanischer Mikrokausalität gesprochen und damit auf der Teilchenebene eine Informationserhaltung konstatiert. Die Gesetzmäßigkeit, die dabei mit Mikrokausalität bezeichnet wird, bezieht sich aber nur auf die Weiterentwicklung von Wahrscheinlichkeiten (etwa über die Schrödinger- oder die Klein-Gorden-Gleichung), und nicht, wie in den Gleichungen der klassischen Physik, auf die Weiterentwicklung der physikalischen Größen selbst, also der Fakten, wie etwa Ort und Geschwindigkeit eines Objektes. Vorhersagbarkeit von Möglichkeiten hat aber nun gar nichts mit Vorhersagbarkeit der Fakten und damit mit wirklicher Kausalität zu tun. So ist die Wahrscheinlichkeit, bei einem geplanten Wurf eines idealen Würfels eine “2“ zu erhalten, sicher als 1/6 vorhersagbar, was aber nichts darüber aussagt, welche Zahl dann wirklich fällt. Offenbar wird hier Mögliches mit Faktischem verwechselt, was übrigens die am weitesten verbreitete Fehlinterpretation der Quantenmechanik ist (siehe auch andere Leserbriefe von mir im Spektrum).
Die genannte vorhersagbare Weiterentwicklung der Wahrscheinlichkeiten nach den Gleichungen der Quantenmechanik gilt auch nur, solange das Objekt isoliert bleibt, also keine Wechselwirkung stattfindet. Bei jeder Wechselwirkung, bzw. Messung, wird beim Kollaps der Wellenfunktion gemäß der momentan unter Berücksichtigung der Art der Wechselwirkung gegebenen Wahrscheinlichkeiten per Zufall eine der Möglichkeiten zum Faktum. Es bildet sich für die Zukunft ab da eine neue Wellenfunktion, und die Information über die anderen, vor dieser Wechselwirkung für die betreffende Größe möglich gewesenen, sowie die von ihr tatsächlich früher angenommenen Werte, ist für immer verloren. Solange ein Objekt unbeobachtet bleibt (d.h. nicht mit seiner Umwelt wechselwirkt) und sich in dieser Zeit die Wahrscheinlichkeiten nach den genannten Gleichungen weiterentwickeln, kann es in den Wellenfunktionen zwar auch Invarianten geben, wie etwa Erwartungswerte von Messgrößen oder Produkte von Erwartungswerten. Diese sind aber nur fiktiv und in einem unbeobachteten System per definitionem nicht nachweisbar. Ferner würden auch diese Informationen die nächste Wechselwirkung nicht überleben. Auch im Mikrokosmos bleibt somit Information nicht erhalten. Und, in der Zeit, in der eine Information zwischen zwei Wechselwirkungen vielleicht überlebt, ist sie gar nicht nachweisbar.
Herr Springer von der Spektrum-Redaktion hatte vor einigen Jahren mir gegenüber einmal die Meinung vertreten, dass die Informationserhaltung zwar für einzelne Teilchen, nicht aber für größere Ensembles gelte. Das ist aber auch nicht überzeugend. Denn wenn im Kleinen grundsätzlich nichts verloren geht, dann könnte auch in Summe, d.h. im Großen, nichts verloren gehen.
Mein Fazit: Einen Erhaltungssatz der Information gibt es nicht und das im Artikel angesprochene Informationsparadoxon existiert nicht.
Antibiotika
13.09.2015, Stefan Mensedie zeit läuft davon!
13.09.2015, kopfschüttlerdass der klimawandel menschengemacht ist, kann doch seit ende der 80er jahre des vergangenen jahrhunderts als belegt gelten und seit her hört man immer wieder, dass es schlimmer steht als wie prognostiziert.
und die wissenschaftsgemeinde muss hilflos der politik zuschauen???
wie ein klimaabkommen nach dem anderen scheitert?
bleibt wissenschaftlern denn kein anderes instrument als mit "eindringlichen worten vor den gefahren zu warnen"?
besteht denn kein umfassender konsens, der z.b. für eine art (globalen) generalstreik der wissenschaft ausreichte?
Wozu die erste Grafik?
13.09.2015, Kurt BockhorstSehr geehrter Leser,
ich habe das in der Tat unpassende Bild ausgetauscht - mit dem Artikel hatte es nicht viel zu tun, außer dass dort eine bestimmte Gensignatur-Verbreitung in Europa zu sehen war.
Danke für die Zuschrift (auch den anderen aufmerksamen Lesern) und Beste Grüße,
Jan Osterkamp
Redaktion Spektrum.de
Es ist so traurig
13.09.2015, Kai PetzkeAuch bei den med. Geräten findet der technische Fortschritt nicht statt. Deswegen ist die oben beschriebenen Behandlungsalternative (genaue Differenzial-Diagnostik mit CT, dann Antibiotika-Therapie bei leichten Fällen) ebenfalls mit einer erheblichen Gefahr verbunden, nämlich der Strahlenbelastung des CT. MRT hat keine solche Strahlenbelastung, ist aber vielfach teurer. Doch warum ist das MRT teurer? In der Elektronik erleben wir doch heute drastischen Preisverfall. Ein Smartphone ist heute *günstiger* als jedes der (mindestens) fünf Geräte, die es ersetzt, vor zehn Jahren einzeln gekostet hat: Handy, Digitalkamera, Navigationsgerät, Taschencomputer, mobile Spielekonsole.
Klar ist bei MRTs der konstruktive Aufwand aufgrund des benötigten starken Magneten hoch. Aber lässt sich der nicht auch durch Massenproduktion senken? Sollte nicht zudem moderne Auswerteelektronik auch mit hohen Feldgradienten klarkommen? Sprich: Brauchen wir unbedingt noch die MRT-"Röhre", oder kann man nicht auch mit einem kleinen Magneten einseitig von außen ein Feld anlegen? An der NMR-Mouse forscht die RWTH Aachen seit einem Jahrzehnt. Spektrum der Wissenschaft hat auch hierüber berichtet - vielen Dank dafür! Nur warum finden solche kostensparenden Alternativen keinen Eingang in die Medizin???
http://www.nmr-mouse.de/
Zutaten?
13.09.2015, Sandra SchusterLiebe Frau Schuster,
es gibt Unternehmen, die Speiseinsekten per Online-Versandhandel vertreiben. Einer der Autoren (Dammann) beispielsweise hat eines gegründet. Entsprechende Links sind in dem Buch angegeben; zur Vermeidung werblichen Inhalts möchten wir diese hier aber nicht aufführen. Man findet solche Unternehmen mit gängigen Suchmaschinen.
Mit freundlichem Gruß
Frank Schubert
Obstkerne...
12.09.2015, tdh" öfter jedoch durch Kotsteine oder Fremdkörper wie Obstkerne, die sich dort ablagern." hätte ich mir so nicht zu schreiben getraut. Die Geschichte vom Obstkern und der Appendizitis findet sich zwar noch zuhauf in der Fachliteratur, es kommt aber so extrem selten vor, dass der generelle Konsensus unter Chirurgen mittlerweile der ist, dass verschluckte Kerne keine angebenswerte Ursache sind. Die Geschichten über auftretende Fälle laufen bestenfalls unter "anekdotisch.
Grüße,
tdh
Atomkraftwerke Verseuchung
12.09.2015, Justus ErbStrukturelle Ähnlichkeit selbstorganisierender Systeme
11.09.2015, Regine ReichweinAnders ausgedrückt: Selbstorganisierende Systeme sind nicht kontrollierbar, aber sehr empfindlich für minimale Einwirkungen.
Ich wünsche mir, dass unsere Politiker – und natürlich auch viele andere Menschen, die etwas zu entscheiden haben – schnell genug begreifen, dass auch Menschen höchstens kurzfristig – aus Angst und Not – das tun, was von ihnen erwartet wird, aber langfristig nicht kontrollierbar sind.
Sie sind wie alle Lebewesen ebenfalls selbstorganisierende Systeme
Angesichts der vielen Menschen, die nach Deutschland oder auch woanders hin wollen, wären wir gut beraten, Bürokratie zu reduzieren und mehr Autonomie für jeden einzelnen Menschen zuzulassen, damit nicht das ganze System zusammenbricht.
Auch hier gilt: Kontrolle, Einschränkungen, Verbote, Eingrenzung usw., so wie viele Menschen es sich wünschen, haben unkontrollierbare Auswirkungen für selbstorganisierende Systeme.
Wir können – wenn wir die strukturellen Ähnlichkeiten aller selbstorganisierenden Systeme berücksichtigen – von diesen kleinen mikrobiellen Ökosystemen noch viel lernen.
Strohmann - dito
11.09.2015, Pertti ValkonenZur "Nasenspitze des Schwulen" gehört nun mal, wie vorteilhaft er das Licht auf seine Nase im F*c*bookfoto scheinen läßt, was für einen Fummel er farblich abgestimmt anzieht usw. Wenn ich das eliminiere, dann bleibt nur der Homo sapiens, und in diesem Punkt sind wir alle gleich.
Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken
11.09.2015, Wolfgang Huß, HamburgDer Autor Joseph Polchinski sagt: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken." (S. 39).
Dem folgend möchte ich einen neuen Ansatz schildern, um dann auf die Feuerwand zu kommen: Analysiert man die heisenbergsche Unschärferelation, so kann man zu ihrer Abzählinterpretation kommen (Vgl. Treitz, Norbert. "Von den falschen Tönen zur Unbestimmtheitsrelation." In: Spektrum der Wissenschaft (Okt. 2010), S. 40—42. https://www.spektrum.de/alias/quantenmechanik/von-den-falschen-toenen-zur-unbestimmtheitsrelation/1044195 ). Sie macht deutlich, dass man die heisenbergsche Unschärferelation als messtechnische Unschärfe ansehen kann, die durch ein prinzipielles Abzählproblem entsteht. Ähnlich wie beim Erkennen einer Tonhöhe durch Hinhören wird demnach beim Messen der Energie eines Elementarteilchens versucht, durch das Abzählen von Wellenbergen einer Wellenfunktion deren Anzahl in der Struktur zu ermitteln. Dies ist mit dem bekannten Messfehler – der Unschärfe – verbunden, wie Treitz zeigt. Diese Wellenberge werden durch den neuen Ansatz als eine Art von diskreter Körnigkeit der Elementarteilchen-Struktur interpretiert. Jedes "Korn" gleicht einem Wirkungsquantum "h". So handelt es sich, pro Zeit gezählt, bei den Wellenbergen um kleine Energie-Einheiten.
Ihre konstante Energie entspringt in diesem Ansatz einer absolut konstanten Bewegung, die als Grundlage der Veränderung der Elementarteilchen- und Vakuum-Struktur als eine Art von kosmischer Zeit zu sehen ist, die überall im Kosmos unabhängig von der Gravitation gleich läuft.
Beschäftigt man sich mit dem möglichen Aufbau der Elementarteilchen aus dieser körnigen Struktur durch eine Wechselwirkung zwischen den Körnern, so kann man zu der Einsicht gelangen, dass diese Körner sich zu rotierenden, schwingenden, geschlossenen und fadenförmigen Ringen zusammenfinden, die Strings ähneln. Die simpelsten Muster dieser Fäden verhalten sich wie die Photonen des Lichts und können sich nur mit der aus der Allgemeinen Relativitätstheorie bekannten variablen Lichtgeschwindigkeit im dreidimensionalen Raum bewegen. Auch das Vakuum besteht demnach aus der einfachsten Version dieser Fäden, die als elektromagnetisch unpolarisierte Photonen zu verstehen sind. Komplexer aufgebaute Schwingungsmuster dieser Fäden entsprechen den Materie-Elementarteilchen und funktionieren strukturell wie die Lichtuhren Einsteins.
Was hat dies alles nun mit der Feuerwand um ein Schwarzes Loch zu tun?
Jedes dieser Körner ist eine Informationseinheit. Untersucht man die Bedingungen am Ereignishorizont, indem man sich den Bewegungsbahnen dieser Körner und der aus ihnen gebildeten Fäden des Lichts und des Vakuums aus Sicht des Pound-Rebka-Snider-Experiments nähert, so tritt erstaunliches zu Tage. Bewegt sich ein Licht- oder ein Vakuum-Faden direkt auf eine sehr dichte Masse zu, die ein Schwarzes Loch darstellen soll, so stauen sich diese Fäden am Ereignishorizont auf und bilden dort eine extrem energiereiche Hülle, die man als Feuerwand charakterisieren kann. Durch Anzahlerhaltungsüberlegungen zu den Körnern und zu den von ihnen gebildeten Fäden stellt man fest, dass die Körner bei einem etwaigen Eintritt durch den Ereignishorizont die Fäden verlassen müssten, wenn sie den Horizont überhaupt überschreiten. Die Körner und Fäden gehen dabei nicht verloren, womit die Information, im Schwarzen Loch und um es herum, erhalten bleibt.
Außerhalb des Ereignishorizonts handelt es sich um Zusammenhänge, die denen der Allgemeinen Relativitätstheorie im Prinzip gleichen. Diese entstehen nun allerdings durch einen von der Körnigkeit erzeugten statistischen Effekt, der durch Störungswellen zustande kommt. Dieser Effekt beugt außerhalb des Ereignishorizonts das Licht und zieht Materie-Elementarteilchen an. Ein Fundament der Quantenmechanik, die Unschärferelation, ergibt so auf Basis einer körnigen Struktur der Elementarteilchen und des Vakuums eine realistische Quantengravitation. Innerhalb der Feuerwand beginnt eine neue Welt aus freien Körnern, die nicht in Fäden gebunden sind.
Beim theoretischen Betreten des Inneren des Ereignishorizonts handelt es sich um einen Phasenübergang. Das bedeutet, die Raum- und Zeitstruktur, die dem Gravitationspotenzial entspricht, das die Fäden außerhalb des Schwarzen Lochs bilden, existiert innerhalb des Schwarzen Lochs nicht mehr. Damit gibt es auch keine Singularität im Schwarzen Loch, sondern eine Struktur freier Körner. Hiermit löst sich also nicht nur das Problem des Informationsverlusts.
Ausführlichere Überlegungen und einfache Rechnungen zu diesem Ansatz finden sich im Internet unter: "Die Quanten-Fluss-Theorie", http://www.quantum-flow-theory.eu. Was ein ins Schwarze Loch stürzender Astronaut in diesem Szenario genau wahrnimmt, bleibt eine noch zu lösende Denk- und Rechenaufgabe. Er kommt sicherlich nicht unversehrt durch die Feuerwand.
Es gibt also mindestens einen prinzipiellen Ansatz, mit dem das Problem des Informationsverlusts gelöst werden könnte. Bleibt abzuwarten, ob dieser auch die Physik vereinheitlichen kann, wie der Autor Joseph Polchinski auf Seite 36, siehe Kasten, mutmaßt. Versuchen tut dieser Ansatz es jedenfalls.
Also noch einmal: "Die Theoretiker müssen ihre grundlegenden Annahmen über das Universum sowie die Natur von Raum und Zeit überdenken". Da kann ich dem Autor nur zustimmen. Der geschilderte Ansatz soll hierzu neue Denkanstöße liefern.
@Uwe Lorenz - Begriffsklärungen
11.09.2015, Dr. Wolfgang Klein, WehrheimVon besonderer Bedeutung ist die metamathematische Begriffshierarchie
berechenbar => beweisbar => wahr,
bei der sich die Pfeile logisch nicht umkehren lassen.
Eine mathematisches Problem ist BERECHENBAR, wenn die zugehörige Turing-Maschine (der Algorithmus) nach endlich vielen Schritten zum Halten kommt. Die BEWEISBARkeit kommt ins Spiel beispielsweise bei der Aussage, dass eine Differentialgleichung, die die Zeitentwicklung eines physikalischen Systems beschreibt, eine eindeutige Lösung hat. Ein solches physikalisches System ist DETERMINISTISCH. Dass die Existenz einer Lösung bewiesen werden kann, heißt aber noch lange nicht, dass diese Lösung auch berechenbar ist oder geschlossen ermittelt werden kann, wie beispielsweise die positive Lösung einer quadratischen Gleichung. Typischerweise berechnen Physiker nur Näherungslösungen. Da dies für nahezu alle physikalischen Systeme mit nur geringfügig höherer Komplexität gilt, ist die Zeitentwicklung eines physikalischen Systems praktisch NICHT genau VORHERSAGBAR. Dies gilt nicht nur für Quantensysteme Kopenhagener Prägung, bei denen die Messung von Observablen grundsätzlich zufallsabhängig ist, sondern auch für deterministische Systeme. Letztere können ein chaotisches Verhalten zeigen, weil selbst kleinste Änderungen der Ausgangsbedingungen nach einer gewissen Zeit zu unvorhersagbarem Verhalten führen können, wie man beispielsweise am Lorentz-Attraktor für Wettervorhersagen sieht.
Noch schlimmer wird die Situation durch den Gödelschen Unvollständigkeitssatz, nach dem es unter Zugrundelegung eines hinreichend reichhaltigen Axiomensystems (mindestens Peano-Axiome) wahre Aussagen gibt, die nicht beweisbar sind. Dies könnte, übertragen auf die physikalische Realität, heißen, dass es gültige Zeitentwicklungen der Welt gibt, die sich logisch nicht herleiten lassen :(. Das ist natürlich nur ein Gedankenspiel.
Ich kann Eddy Nahmias zustimmen, wenn er behauptet, ein Mensch sei kein Automat, vorausgesetzt die Welt ist kein Automat (was nicht unbedingt allgemein akzeptiert ist - vgl. Buch von Max Tegmark). Meine Gründe dafür sind aber offenbar andere als die des Autors. Im Übrigen kann ich nur wiederholen, dass der Begriff "freier Wille" ein mindestens ebenso leeres Wortspiel ist wie der "Sinn des Lebens".
Vermischung von "determiniert" und "kontrollierbar"
11.09.2015, Uwe Lorenz, NeckargemündLandwirte ohne benötigtes Kapital mangels fairer Preise
10.09.2015, Steffen SeidelViele Landwirte leben quasi 'von der Hand in den Mund'. Sie haben nicht das Kapital derartige Änderungen zum Teil auf Verdacht kurzfristig umzusetzen. Dazu müsste man ihnen für ihre Erzeugnisse erst einmal faire Preise zahlen.
FEHLER !!!
10.09.2015, Biologen unter sich