Wärmelehre: Quantenregeln für die Unordnung
In der Physik gibt es wohl kein Prinzip, das so unantastbar ist wie der zweite Hauptsatz der Thermodynamik. Laut ihm nimmt die Entropie, das ist eine Art Maß für die Unordnung eines Systems, auf alltäglichen Skalen immer zu oder bleibt zumindest gleich. »Wenn jemand Sie darauf hinweist, dass die von Ihnen bevorzugte Theorie des Universums den maxwellschen Gleichungen widerspricht – nun, können Sie sagen, umso schlimmer für die maxwellschen Gleichungen«, schrieb der britische Astrophysiker Arthur Eddington 1928 in seinem Buch »The Nature of the Physical World« (1931 unter dem deutschen Titel »Das Weltbild der Physik und ein Versuch seiner philosophischen Deutung« erschienen). »Wenn es sich herausstellt, dass sie mit der Beobachtung unvereinbar ist – gut, auch Experimentalphysiker pfuschen manchmal. Aber wenn Ihre Theorie gegen den zweiten Hauptsatz verstößt, dann ist alle Hoffnung vergebens. Dann bleibt ihr nichts mehr übrig, als in tiefster Demut in der Versenkung zu verschwinden.« Ein Verstoß gegen dieses Gesetz wurde noch nie beobachtet und ist nicht zu erwarten.
Dennoch, einige Fachleute beunruhigt etwas am zweiten Hauptsatz der Thermodynamik. Sie sind nicht davon überzeugt, dass wir ihn richtig verstehen oder dass er auf soliden Fundamenten ruht. Obwohl er als Gesetz gilt, basiert er üblicherweise bloß auf probabilistischen Argumenten: Das Ergebnis eines Prozesses ist stets das wahrscheinlichste. Angesichts der üblicherweise ungeheuer großen Zahl von beteiligten Teilchen bedeutet das letztlich, dass dieser eine Ausgang unvermeidlich ist.
Doch für viele ist eine bloße Beschreibung dessen, was vermutlich passieren wird, unbefriedigend. »Von physikalischen Gesetzen erwarten wir Exaktheit«, sagt die Physikerin Chiara Marletto von der University of Oxford. Lässt sich der zweite Hauptsatz zu mehr als nur einer Aussage über Wahrscheinlichkeiten kondensieren?
Bei dieser Frage scheinen mehrere Forschungsgruppen nun unabhängig voneinander zu einer Antwort gelangt zu sein. Sie verknüpfen den zweiten Hauptsatz der Thermodynamik mit den Prinzipien der Quantenmechanik – denen, so vermuten einige, auf einer fundamentalen Ebene Richtungsabhängigkeit und Irreversibilität innewohnen. Wenn man dieser Auffassung folgt, dann entsteht der zweite Hauptsatz nicht durch klassische Wahrscheinlichkeiten, sondern auf Grund von Quanteneffekten wie der Verschränkung. Er ergibt sich aus der Art und Weise, wie Quantensysteme Informationen austauschen, und aus grundlegenden Prinzipien, die festlegen, was dort geschehen darf und was nicht. In diesem Sinn ist eine Zunahme der Entropie mehr als nur das wahrscheinlichste Ergebnis einer Veränderung. Sie ist eine logische Konsequenz einer ganz grundlegenden Ressource: der Quanteninformation.
Die Thermodynamik wurde im frühen 19. Jahrhundert entwickelt und sollte beschreiben, wie Wärme fließt und Arbeit verrichtet wird. Eine solche Theorie wurde dringend benötigt, während die Dampfkraft die industrielle Revolution vorantrieb und die Ingenieure ihre Maschinen so effizient wie möglich machen wollten. Letztendlich wurde die Thermodynamik zu einer der zentralen Säulen der modernen Physik. Sie lieferte Kriterien, nach denen sich alle veränderlichen Prozesse richten.
Unerbittlich bis zum Wärmetod des Universums
Die klassische Thermodynamik kennt nur eine Hand voll Gesetze, von denen das erste und das zweite die grundlegenden sind. Der erste Hauptsatz besagt, dass Energie in einem geschlossenen System immer erhalten bleibt; gemäß des zweiten fließt Wärme immer vom heißen zum kalten Bereich. Im Allgemeinen wird Letzteres mittels des Begriffs der Entropie ausgedrückt. Sie darf insgesamt nicht abnehmen. In Alltagssprache übertragen wird Entropie häufig mit Unordnung gleichgesetzt. Der österreichische Physiker Ludwig Boltzmann definierte sie strenger als eine Größe, die sich auf die Gesamtzahl der Mikrozustände in einem System bezieht. Dabei geht es um die Anzahl von Möglichkeiten, wie Teilchen angeordnet sein können.
Das scheint zu erklären, warum Veränderungen überhaupt stattfinden. Denn auf der Ebene einzelner Teilchen lassen sich alle klassischen Bewegungsgesetze hinsichtlich der Zeit einfach umkehren. Demnach könnte jeder Prozess grundsätzlich ebenso gut rückwärts ablaufen und sich beispielsweise ein verquirltes Ei wieder in Eigelb und Eiweiß trennen. Doch laut dem zweiten Hauptsatz müssen Vorgänge in einer Weise stattfinden, bei denen sich die Entropie erhöht. Das wird gemeinhin als Ursache dafür angesehen, dass die Zeit eine Richtung hat. Dieser Interpretation zufolge fließt die Zeit von der Vergangenheit in die Zukunft, weil das Universum – aus Gründen, über die es weder Klarheit gibt noch Einigkeit herrscht – auf einen Zustand mit immer höherer Entropie zusteuert. Schließlich sollte sich die Wärme völlig gleichmäßig verteilen. Daraufhin gibt es keine treibende Kraft mehr für weitere Veränderungen. Diese bedrückende Perspektive bezeichnete der deutsche Physiker und Entdecker des zweiten Hauptsatzes Rudolf Clausius im 19. Jahrhundert als Wärmetod des Universums.
Die mikroskopische Beschreibung der Entropie durch Boltzmann scheint diese Richtungsabhängigkeit zu erklären. Systeme mit vielen Teilchen, die ungeordneter sind und eine höhere Entropie aufweisen, überwiegen bei Weitem gegenüber solchen mit geringerer Entropie. Molekulare Wechselwirkungen rufen mit größerer Wahrscheinlichkeit Zustände hervor, die weniger stark geordnet sind. Der zweite Hauptsatz scheint also nur eine Frage der Statistik zu sein, ein Gesetz der großen Zahlen. Nach dieser Auffassung gibt es keinen fundamentalen Grund, warum die Entropie nicht abnehmen kann und warum sich zum Beispiel nicht alle Luftmoleküle zufällig in einer Ecke eines Zimmers versammeln. Das wäre lediglich ungeheuer unwahrscheinlich.
Diese statistische Physik lässt jedoch einige Fragen offen. Sie verweist auf die wahrscheinlichsten Mikrozustände in einem ganzen Ensemble von Möglichkeiten und zwingt dazu, sich mit Durchschnittswerten darüber zu begnügen. Allerdings sind die Gesetze der klassischen Physik deterministisch – sie lassen für jede Ausgangssituation nur ein Resultat zu. Auf welchem Teil des Wegs kommt das hypothetische Ensemble von Zuständen überhaupt ins Spiel, wenn doch nur ein einziges Ergebnis möglich ist?
Von Grund auf neu konstruierte Physik
David Deutsch von der University of Oxford versucht seit einigen Jahren, dieses Dilemma zu umgehen. Er entwickelt eine Theorie, die, wie er es ausdrückt, »eine Welt beschreibt, in der Wahrscheinlichkeit und Zufall bei physikalischen Prozessen völlig unerheblich sind«. Sein Projekt, an dem Chiara Marletto inzwischen beteiligt ist, nennt sich Konstruktortheorie. Sie zielt darauf ab, nicht nur festzustellen, welche Prozesse wahrscheinlich stattfinden können und welche nicht, sondern auch, welche überhaupt erlaubt und welche verboten sind.
Im Rahmen der Konstruktortheorie soll letztlich die gesamte Physik in Form von Aussagen über mögliche und unmögliche Transformationen ausgedrückt werden. Das Modell knüpft an die Anfänge der Thermodynamik an, indem es Veränderungen als etwas betrachtet, was von Maschinen (Konstruktoren) erzeugt wird. Diese arbeiten zyklisch und folgen einem Muster, das dem so genannten Carnot-Zyklus entspricht, der seit dem 19. Jahrhundert die Arbeitsweise von Motoren beschreibt. Der Konstruktor ist so etwas wie ein Katalysator, der einen Prozess in Gang setzt und am Ende wieder in seinen ursprünglichen Zustand zurückversetzt wird. »Angenommen, man möchte eine Umwandlung beschreiben, etwa den Bau eines Hauses aus Ziegelsteinen«, erläutert Marletto. »Man kann sich eine Reihe verschiedener Maschinen vorstellen, die dies mit unterschiedlicher Genauigkeit bewerkstelligen. All diese Maschinen sind Konstruktoren, die in einem Zyklus arbeiten.« Und sie kehren in ihren ursprünglichen Zustand zurück, wenn das Haus gebaut ist.
Aber nur, weil es eine Maschine zur Durchführung einer bestimmten Aufgabe gibt, heißt das nicht, dass sie diese wieder rückgängig machen kann. Ein Gerät, das ein Haus baut, kann es vielleicht nicht wieder abtragen. Damit unterscheidet sich die Funktionsweise des Konstruktors von den dynamischen Gesetzen für die Bewegungen der Ziegelsteine, die umkehrbar sind.
Der Grund für die Irreversibilität, so Marletto, liegt darin, dass ein Konstruktor für die meisten komplexen Aufgaben auf eine bestimmte Umgebung eingestellt ist. Aus dieser benötigt er spezifische Informationen, die für die Erfüllung seines Auftrags wichtig sind. Die umgekehrte Abfolge beginnt jedoch in einer anderen Umgebung, so dass derselbe Konstruktor nicht zwangsläufig funktionieren wird.
Im Februar 2022 hat Marletto zusammen mit ihrem Oxford-Kollegen Vlatko Vedral sowie einem Team vom Istituto Nazionale di Ricerca Metrologica in Turin gezeigt, dass mit der Konstruktortheorie tatsächlich Prozesse auftreten, die irreversibel sind – obwohl alles nach quantenmechanischen Gesetzen abläuft, die selbst umkehrbar sind. »Wie wir zeigen, gibt es einige Transformationen, für die man einen Konstruktor für die eine Richtung finden kann, aber nicht für die andere«, sagt sie.
Ungleichmäßiger Quanten-Informationsfluss
Die Forscherinnen und Forscher betrachteten eine Transformation, bei der die Zustände von Quantenbits (Qubits) vorkommen. Diese sind das quantenmechanische Analogon zu den aus der Informatik gewohnten Informationseinheiten, den Bits. Qubits können nicht nur in einem von zwei Zuständen, sondern auch in einer Überlagerung von beiden existieren.
In Marlettos und Vedrals Modell kann ein einzelnes Qubit B von einem bekannten Ausgangszustand B1 in einen Zielzustand B2 umgewandelt werden, wenn es sich entlang einer Reihe anderer Qubits bewegt und mit ihnen nacheinander wechselwirkt. Diese Interaktionskette verschränkt die Qubits: Ihre Eigenschaften hängen dann voneinander ab, so dass man ein Qubit nur dann vollständig charakterisieren kann, wenn man zugleich alle anderen betrachtet.
Wenn die Anzahl der Qubits in der Reihe sehr groß wird, lässt sich B beliebig genau in den Zustand B2 bringen, erklärt Marletto. Der Prozess der aufeinander folgenden Wechselwirkungen von B mit der Reihe von Qubits stellt eine konstruktorähnliche Maschine dar, die B1 in B2 umwandelt. Im Prinzip kann man den Prozess rückgängig machen und B2 in B1 zurückverwandeln, indem man B die gleiche Reihe entlang zurückschickt.
Was aber, wenn man nach der Umwandlung versucht, mit einem neuen B den Prozess anhand derselben Qubit-Reihe zu wiederholen? Wenn die Anzahl der Qubits in der Reihe nicht sehr groß ist und man den Prozess häufig durchführt, dann gelingt mit diesem Aufbau die Transformation von B1 nach B2 immer weniger gut. Entscheidend ist jedoch: Laut den Berechnungen von Marletto und Vedral funktioniert die umgekehrte Umwandlung von B2 nach B1 sogar noch schlechter. Dem Team gelang obendrein eine experimentelle Bestätigung dieser Vorhersage. Bei dem Versuch wurde B durch Photonen und eine Reihe von drei Qubits durch einen faseroptischen Schaltkreis simuliert.
Verschränkung zerstreut Informationen
»Man kann den Konstruktor in einer Richtung beliebig gut annähern, aber nicht in der anderen«, resümiert Marletto. Es gibt bei der Transformation also eine Asymmetrie, die dem Prinzip des zweiten Hauptsatzes der Thermodynamik ähnelt. Das liegt daran, dass die Transformation das Qubit-System vom Quantenzustand eines einzelnen Teilchens (ein so genannter reiner Zustand) B1 in einen gemischten Zustand B2 bringt, der mit den anderen Qubits verschränkt ist.
Ein reiner Zustand ist einer, über den wir alles wissen, was es zu wissen gibt. Wenn aber zwei Objekte verschränkt sind, kann man das eine nicht vollständig charakterisieren, ohne auch das andere entsprechend gut zu kennen. Es ist daher einfacher, von einem reinen Quantenzustand in einen gemischten Zustand überzugehen als umgekehrt. Denn die Informationen aus dem reinen Zustand werden durch Verschränkung zerstreut und lassen sich nur schwer wiederherstellen.
Hier ist die Irreversibilität laut Marletto »nur eine Folge der dynamischen Entwicklung des Systems«. Sie folgt nicht aus statistischen Überlegungen. In diesem Fall ist sie nicht bloß das wahrscheinlichste Ergebnis, sondern unvermeidlich und durch die quantenmechanischen Wechselwirkungen des Systems bestimmt. »Unsere Vermutung ist«, so Marletto, »dass sich die thermodynamische Irreversibilität darauf zurückführen lässt.«
Einen weiteren gedanklichen Zugang zum zweiten Hauptsatz hat der schottische Wissenschaftler James Clerk Maxwell entwickelt, der zusammen mit Boltzmann die statistische Sichtweise der Thermodynamik begründete. Maxwell verknüpfte die Regeln der Thermodynamik mit dem Konzept der Information. Maxwell beunruhigten die theologischen Implikationen eines kosmischen Wärmetods und der Unumkehrbarkeit von Vorgängen, die den freien Willen zu untergraben schienen. Daher suchte er 1867 nach einer Möglichkeit, den zweiten Hauptsatz zu widerlegen. In seinem hypothetischen Szenario verwandelt ein mikroskopisch kleines Wesen (das später zu seinem Unmut als Dämon bezeichnet wurde) die scheinbar unnütze Wärme zurück in eine Ressource, mit der sich Arbeit verrichten lässt. Maxwell hatte zuvor nachgewiesen, dass in einem Gas im thermischen Gleichgewicht mehrere molekulare Energien vorherrschen. Manche Moleküle sind sozusagen heißer als andere – sie bewegen sich schneller. Aber alle Teilchen sind zufällig durchmischt, so dass es keine Möglichkeit zu geben scheint, diese Unterschiede zu nutzen.
Hier kommt der maxwellsche Dämon ins Spiel. Er teilt den Raum in zwei Hälften und baut eine reibungsfreie Tür zwischen ihnen ein. Der Dämon lässt die heißen Moleküle in die eine Richtung passieren, nicht jedoch in die andere. Schließlich hat er so ein heißes Gas auf der einen Seite und ein kühleres auf der anderen hergestellt, und er kann das Temperaturgefälle ausnutzen, um eine Maschine anzutreiben.
Maxwells Dämon
Ein Raum ist mit Gas einheitlicher Temperatur gefüllt. Das entspricht auf mikroskopischer Ebene Molekülen, die zwar unterschiedliche Geschwindigkeiten besitzen, sich aber wahllos im gesamten Volumen verteilt haben. Diese Unordnung bedeutet hohe Entropie.
Ein hypothetisches Wesen – ein Dämon – könnte den Raum nun zweiteilen und mit einer Tür versehen, für deren Öffnung es keine Energie aufwenden muss. Nun lässt es in der einen Richtung lediglich die schnellen Teilchen passieren, in der anderen nur die langsamen. So würden sich in einer Hälfte Moleküle mit größerer Energie sammeln, das heißt höherer Temperatur. Gegenüber dem Anfangszustand wäre die Entropie des Systems insgesamt gesunken – das allerdings verbietet der zweite Hauptsatz der Thermodynamik.
Das Gedankenexperiment von James Clerk Maxwell beschäftigt Fachleute seit dem 19. Jahrhundert und trug dazu bei, theoretische Konzepte zu schärfen. Überlegungen dazu, wie das Wesen die Zustände der einzelnen Teilchen in Erfahrung bringen kann und wie es mit diesem Wissen umgehen muss, führten schließlich zur Lösung des Dilemmas: Auch Messungen und deren Verarbeitung tragen zur Entwicklung der Entropie bei. Das verdeutlicht die Bedeutung der Quanteninformation für die Thermodynamik.
Um den zweiten Hauptsatz scheinbar zu unterlaufen, hat der Dämon Informationen über die Bewegungen der Moleküle verwendet. Information ist also eine Ressource, die man zur Verrichtung von Arbeit verwenden kann. Doch sie bleibt auf unseren makroskopischen Skalen verborgen; deswegen können wir sie nicht nutzen. Wegen dieser unvermeidlichen Unkenntnis der Mikrozustände kann die klassische Thermodynamik nur von Durchschnittswerten und Ensembles sprechen.
Ein Jahrhundert später bewies der Physiker Rolf Landauer, dass Maxwells Dämon den zweiten Hauptsatz nicht aushebeln kann. Denn die gesammelten Informationen müssen irgendwo gespeichert werden, und jeder endliche Speicher muss schließlich geleert werden, um Platz für neue zu schaffen. Landauer zeigte 1961, dass dieses Löschen von Informationen nicht möglich ist, ohne eine minimale Wärmemenge abzuführen und damit die Entropie der Umgebung zu erhöhen.
Quantenmechanik erlaubt einen viel weiter gehenden Umgang mit Information
Für diese informationstheoretische Sicht auf den zweiten Hauptsatz der Thermodynamik entwickeln Fachleute inzwischen eine neue, quantenmechanische Perspektive. Das liegt zum Teil an der Auffassung, dass die Quantenmechanik eine grundlegendere Beschreibung darstellt – schließlich verhalten sich die Gasteilchen nicht wie klassische Billardkugeln. Darüber hinaus spiegelt das Bestreben das aufkeimende Interesse an der Quanteninformationstheorie selbst wider. Quantenmechanische Prinzipien, insbesondere die Verschränkung von Teilchen, erlauben einen viel weiter gehenden Umgang mit Information als auf klassischem Weg.
Axiome für eine vernünftige Thermodynamik
Insbesondere bietet der Ansatz eine Möglichkeit, das statistische Bild loszuwerden, bei dem man Durchschnittswerte über Ensembles vieler verschiedener Mikrozustände bilden muss. »Das wirklich Neue ist die Erkenntnis, dass man im Rahmen der Quanteninformation Ensembles durch eine Verschränkung mit der Umgebung ersetzen kann«, sagt Carlo Maria Scandolo von der kanadischen University of Calgary. Ihm zufolge spiegelt der Rückgriff auf ein Ensemble die Tatsache wider, dass wir nur Teilinformationen über den Zustand haben – es könnte dieser oder jener Mikrozustand sein, mit unterschiedlichen Wahrscheinlichkeiten. So müssen wir einen Mittelwert über eine Verteilung bilden. Die Quantentheorie bietet jedoch eine andere Möglichkeit, Zustände mit Teilinformationen zu erzeugen: durch Verschränkung. Verknüpft man auf die Art ein Quantensystem mit seiner Umgebung, über die wir nicht alles wissen können, geht unweigerlich ein Teil der Information über das System selbst verloren. Es endet in einem gemischten Zustand, über den man nicht einmal theoretisch alles wissen kann, sofern man sich bloß auf das System konzentriert.
Dann ist man gezwungen, von Wahrscheinlichkeiten zu sprechen, und zwar nicht, weil es Dinge über das System gibt, die man nicht weiß, sondern weil einige dieser Informationen grundsätzlich nicht bekannt sind. »Auf diese Weise ergeben sich Wahrscheinlichkeiten ganz natürlich aus der Verschränkung«, so Scandolo. »Die ganze Vorstellung, das thermodynamische Verhalten könne man unter Berücksichtigung der Umgebung bestimmen, funktioniert nur, solange es Verschränkung gibt.«
2015 hat Scandolo zusammen mit Giulio Chiribella von der Universität Hongkong vier Axiome formuliert, die erforderlich sind, um mit den Mitteln der Quanteninformatik eine »vernünftige Thermodynamik« zu erhalten – das heißt eine, die nicht auf Wahrscheinlichkeiten beruht. Die Axiome beschreiben, welche Eigenschaften die Information in einem Quantensystem haben muss, das mit seiner Umgebung verschränkt ist. Vor allem stellen sie sicher, dass alles, was mit dem System und seiner Umgebung geschieht, im Prinzip umkehrbar ist, so wie es die übliche mathematische Formulierung für die zeitliche Entwicklung eines Quantensystems vorsieht.
Als Folge dieser Axiome, so zeigten Scandolo und Chiribella, werden eingangs voneinander unabhängige Systeme durch reversible Wechselwirkungen immer stärker miteinander korreliert. Korrelationen sind das, was verschränkte Objekte aneinanderkoppelt: Die Eigenschaften des einen sind mit denen des anderen verknüpft. Ein Maß für die Stärke des wechselseitigen Zusammenhangs ist die »gegenseitige Information«, eine Größe, die mit der Entropie verbunden ist. Das heißt: Alles, was einschränkt, wie sich die Korrelationen verändern können, begrenzt ebenso die Möglichkeiten für die Entropie. Wenn die Entropie des Systems abnimmt, muss sie in der Umgebung zunehmen, so dass die Summe der beiden Entropien niemals abnehmen kann. Auf diese Weise leitet der neue Ansatz die Entropie aus den zu Grunde liegenden Axiomen ab, anstatt sie von vornherein zu postulieren.
Inventur quantenmechanischer Ressourcen
Einen vielseitigen Zugang zu dieser neuen Quantenversion der Thermodynamik bieten die so genannten Ressourcentheorien. Sie geben Auskunft darüber, welche Umwandlungen möglich sind und welche nicht. »Eine Ressourcentheorie bietet ein einfaches Modell für Situationen, in denen es aus irgendwelchen Gründen Einschränkungen dafür gibt, welche Handlungen man durchführen und auf welche Systeme man zugreifen kann«, erklärt die theoretische Quantenphysikerin Nicole Yunger Halpern von der University of Maryland.
Quantenmechanische Ressourcentheorien übernehmen das auf Basis der Quanteninformationstheorie entwickelte Bild von der Welt, bei dem es für die möglichen physikalischen Prozesse grundlegende Einschränkungen gibt. Diese werden dort typischerweise als »No-go-Theoreme« ausgedrückt, das sind Aussagen über die Undurchführbarkeit bestimmter Prozesse. So ist es beispielsweise generell unmöglich, einen unbekannten Quantenzustand zu »klonen«, also ein Qubit auf ein anderes zu kopieren, ohne das ursprüngliche zu verändern.
Das Rezept für eine Ressourcentheorie hat mehrere Hauptzutaten. Die erlaubten Handlungen werden als freie Operationen bezeichnet. »Sobald man die freien Operationen spezifiziert hat, hat man die Theorie festgelegt«, führt Yunger Halpern aus, »und dann kann man darüber nachdenken, welche Transformationen möglich sind, und nach der optimalen Effizienz fragen, mit der wir sie durchführen können.« Eine Ressource ist unterdessen etwas, worauf man zugreifen kann, um etwas Nützliches zu tun. Das kann Kohle sein, mit der man einen Ofen befeuert und eine Dampfmaschine antreibt, oder auch ein zusätzlicher Speicher, der es Maxwells Dämon ermöglicht, das zweite Gesetz der Thermodynamik noch ein wenig länger zu unterlaufen.
Die Feinheiten des zweiten Hauptsatzes
Quanten-Ressourcentheorien ermöglichen einen genauen Blick auf die feinen Details des klassischen zweiten Hauptsatzes. Es ist nicht mehr nötig, über eine riesige Anzahl von Teilchen nachzudenken, sondern man kann Aussagen darüber treffen, was einzelnen von ihnen erlaubt ist. Wenn wir dies tun, so Yunger Halpern, wird deutlich, dass die klassische Aussage, die Entropie müsse am Ende mindestens derjenigen am Anfang entsprechen, nur eine Art grob gefasste Summe einer ganzen Familie von Ungleichheitsbeziehungen ist. Der zweite Hauptsatz der Thermodynamik besagt zum Beispiel, dass man einen Nichtgleichgewichtszustand in einen ausgeglicheneren Zustand bringen kann. »Aber die Frage, welcher der vielen Zustände näher am thermischen Gleichgewicht liegt, ist nicht einfach zu beantworten«, erläutert Yunger Halpern. Um sie zu klären, »müssen wir eine ganze Reihe von Ungleichungen überprüfen«.
»Manchmal habe ich das Gefühl, dass alle ihre ganz persönlichen zweiten Hauptsätze haben«Quantenphysikerin Nicole Yunger Halpern, University of Maryland
Mit anderen Worten: Bei den Ressourcentheorien scheint es sich um diverse Miniaturversionen des zweiten Hauptsatzes zu handeln. »Es könnte einige Transformationen geben, die der zweite Hauptsatz erlaubt, die jedoch durch diese kleinteiligere Familie von Ungleichungen verboten sind«, sagt Yunger Halpern. Aus diesem Grund, fügt sie mit Blick auf ihren Forschungsbereich hinzu, »habe ich manchmal das Gefühl, dass alle ihre ganz persönlichen zweiten Hauptsätze haben«.
Der ressourcentheoretische Ansatz, urteilt der Physiker Markus P. Müller von der Universität Wien, »erlaubt eine vollständige, mathematisch rigorose Herleitung der thermodynamischen Gesetze, ohne irgendwelche konzeptuellen oder mathematischen Unklarheiten«. Der Ansatz erfordere eine Neubetrachtung dessen, »was man eigentlich unter Thermodynamik versteht«. Es geht nicht mehr so sehr um die durchschnittlichen Eigenschaften vieler Teilchen, sondern um den Versuch, eine Aufgabe mit den verfügbaren Ressourcen effizient durchzuführen. Letztlich geht es aber immer noch um Information. Die Notwendigkeit, sie zu verwerfen, beziehungsweise das Unvermögen, sie vollumfänglich im Blick zu behalten, ist laut Yunger Halpern der eigentliche Grund, warum es den zweiten Hauptsatz gibt.
Die großen mathematischen Probleme der Gegenwart
All diese Bemühungen, die Thermodynamik mitsamt dem zweiten Hauptsatz auf ein neues Fundament zu stellen, erinnern an einen Auftrag, den der deutsche Mathematiker David Hilbert im Jahr 1900 formulierte. Er identifizierte in seinem Fachgebiet 23 Probleme, denen man sich im 20. Jahrhundert widmen sollte. Punkt sechs dieser beim Internationalen Mathematiker-Kongress in Paris vorgestellten Liste lautete, »diejenigen physikalischen Disciplinen axiomatisch zu behandeln, in denen schon heute die Mathematik eine hervorragende Rolle spielt«. Hilbert war besorgt darüber, dass die Physik seiner Zeit auf willkürlichen Annahmen zu beruhen schien, und er wollte sie wie die Mathematik auf solide Grundlagen stellen.
Einige arbeiten heute noch an Hilberts sechstem Problem und versuchen insbesondere, die Quantenmechanik und ihre Verallgemeinerung, die Quantenfeldtheorie, mit Hilfe von Axiomen neu zu formulieren. Allerdings ging es Hilbert gerade auch um die Thermodynamik: »Was die Axiome der Wahrscheinlichkeitsrechnung angeht, so scheint es mir wünschenswert, daß mit der logischen Untersuchung derselben zugleich eine strenge und befriedigende Entwickelung der Methode der mittleren Werte in der mathematischen Physik, speciell in der kinetischen Gastheorie Hand in Hand gehe.«
Die Geister scheiden sich darüber, ob Hilberts Wunsch für den Fall des zweiten Hauptsatzes bereits erfüllt wurde. »Ich denke, dass Hilberts sechstes Problem noch lange nicht vollständig gelöst ist, und halte es für einen faszinierenden und wichtigen Aspekt der physikalischen Grundlagenforschung«, meint Scandolo. »Die noch offenen Fragen dürften in absehbarer Zeit beantwortet werden, sofern man ihnen genügend Zeit und Energie widmet.« Der eigentliche Wert einer konzeptuellen Neuaufstellung des zweiten Hauptsatzes liegt darin, dass es unser Verständnis des Gesetzes selbst vertiefen würde. Yunger Halpern vergleicht die Motivation für die Arbeit daran mit dem Grund, warum Literaturwissenschaftler immer noch die Stücke von Shakespeare analysieren. Sie tun es nicht unbedingt, weil eine neue Betrachtung korrekter wäre, sondern weil derart tiefgründige Werke eine unerschöpfliche Quelle der Inspiration und der Erkenntnis sind.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.