Naturgesetze: Am Ende der Natürlichkeit
Der grüne Laserpointer kreist wie wild über dem griechischen Buchstaben. Immer wieder kehrt er zu dem Symbol zurück, das Außenstehende leicht für ein kleines Tipi halten könnten, an dessen Spitze jemand noch eine kleine Zwei gemalt hat: Λ2. Kann sich hinter einem so harmlosen Zeichen Unheil verbergen? »Ich habe solche philosophischen Fragen lange für eher unwissenschaftlich gehalten«, sagt Holger Gies. Aber nun steht der groß gewachsene Physiker von der Universität Jena doch hier in einem Saal der RWTH Aachen und spricht vor 40 Kollegen genau darüber: ob »Lambda« die Teilchenphysik in die Krise geführt hat.
Seit Jahrhunderten dringen Wissenschaftler immer tiefer ins Innere der Materie vor. Zuerst haben sie Mikroskope gebaut, dann Partikel mit Teilchenbeschleunigern aufeinander geschossen. Je schneller die Teilchen dabei flogen, desto tiefer konnten die Wissenschaftler in Atomkerne hineinblicken. Dadurch wissen sie heute, dass Materie im Kern aus Quarks besteht. Daneben gibt es noch einen ganzen Zoo subatomarer Teilchen, die binnen Sekundenbruchteilen wieder zerfallen und zwischen denen exotische Kräfte wirken; Physiker sprechen von der »schwachen« und der »starken« Kernkraft. Zusammen mit dem schon länger bekannten Elektromagnetismus beherrschen sie den Mikrokosmos.
Die Bibel des Allerkleinsten
Diese Einsichten haben die Physiker in den 1960er und 1970er Jahren in einem eleganten Regelwerk zusammengefasst. Etwas ungelenk nennen sie es das »Standardmodell der Teilchenphysik«. Seit dem Jahr 2012 ist es so etwas wie die Bibel des Allerkleinsten: Damals bestätigten Forscher am gewaltigsten aller Teilchenbeschleuniger, dem Large Hadron Collider (LHC) am Genfer Kernforschungszentrum CERN, die letzte Grundannahme der Theorie: Sie entdeckten das berühmte Higgs-Teilchen. Es verrät, welcher subatomare Mechanismus anderen Elementarteilchen ihre Masse gibt – und hat die Krise ausgelöst, mit der Physiker seit mehr als fünf Jahren kämpfen.
Man kann sie für eine Art Luxusproblem halten. Schließlich beschreibt das Standardmodell das Innere der uns umgebenden Materie mit beeindruckender Eleganz und Präzision. Drei der vier bekannten Kräfte sind in dem Jahrhundertwerk enthalten sowie sämtliche bekannten Elementarteilchen. Aber hier und da zeigen sich Schwächen des Weltmodells. Da ist zum Beispiel die ominöse Dunkle Materie, die das Universum wie ein feiner, aber unsichtbarer Nebel füllen soll, die allerdings nicht in der Teilchenbibel auftaucht.
Genauso rätselhaft ist, wieso Neutrinos eine winzige Masse haben, obwohl sie das laut Standardmodell nicht dürften. Auch sollte es den Formeln zufolge im Kosmos ähnlich viel Antimaterie wie Materie geben. Doch wieso besteht dann alles, was wir kennen, aus Materie? Und dann ist da noch die Sache mit der Gravitation. Sie ist die Kraft, die das Weltall auf den allergrößten Skalen prägt, die zwischen Planeten, Sternen und Galaxien wirkt. Sie ist viel schwächer als die drei Kräfte des Mikrokosmos, was man beispielsweise daran sieht, dass auf der Erde selbst ein kleiner Magnet eine Münze hochheben kann. Aber bisher sind sämtliche Versuche gescheitert, sie in derselben mathematischen Sprache wie das Standardmodell zu beschreiben.
In ein Schwarzes Loch gucken? Leider unmöglich
Dabei sind viele Physiker überzeugt: Wenn man Materie extrem zusammenballt, wird die Schwerkraft irgendwann genauso stark wie der Elektromagnetismus und die Kernkräfte. Vermutlich sind bei der kleinsten denkbaren Größenordnung, der so genannten Planck-Länge, bei der Teilchen nur noch 10-35 Meter voneinander entfernt sind, alle Kräfte in einer Urkraft vereint. Bei größeren Abständen spaltet sich diese Mutter aller Wechselwirkungen dann in die uns vertrauten Kräfte auf, glauben die Forscher.
Heute wirkt die Urkraft wohl nur im Inneren von Schwarzen Löchern, wo man nicht nachschauen kann. Aber auch direkt nach dem Urknall, jenem Beginn allen Seins vor 13,8 Milliarden Jahren, müssten die Kräfte vereint gewesen sein. Was damals genau vor sich ging, kann bisher kein Teleskop der Welt verraten. Somit ist die Suche nach den Formeln der »Quantengravitation« in erster Linie eine Aufgabe für theoretische Physiker, die – so wie einst Albert Einstein – mit bloßer Gedankenkraft zum Kern der Realität vordringen wollen.
Seit Einsteins Zeiten bemühen sich die Gelehrten, ihre Bilder von Mikro- und Makrokosmos in Einklang zu bringen, am besten in einer »Theory of Everything«. Diese Weltformel müsste Einsteins Theorie der Schwerkraft mit dem Quantenformalismus des Standardmodells versöhnen. Beide Säulen unseres heutigen Weltbilds müssten letztlich als Spezialfall aus der neuen Theorie hervorgehen, ähnlich wie die newtonschen Gravitationsgesetze sich letztlich als grobe Annäherung an Einsteins allgemeine Relativitätstheorie entpuppten.
Alle Teilchen sind alte Bekannte
Aber wie könnte diese »Theorie von allem« aussehen? Der LHC, der 2009 anlief, sollte die Richtung vorgeben, in der die neuen Naturgesetze warten. Der Beschleuniger dringt tiefer ins Innere der Materie vor als alle Maschinen vor ihm. Damit müssten seine Messungen doch eigentlich Abweichungen vom Standardmodell offenbaren, spekulierten die Physiker mit großer Zuversicht. Schließlich sollte die Theorie zunehmend ihre Gültigkeit verlieren, wenn man subatomare Reaktionen bei noch kleineren Abständen als bisher betrachtet.
Die 27 Kilometer lange, ringförmige Partikelschleuder unter Genf hat bisher allerdings nur Ergebnisse geliefert, die perfekt zum Standardmodell passen. In den Proton-Proton-Kollisionen, die das Innere der Materie bis hinab zu einer Größenordnung von 10-18 Metern offenlegen, entstehen pro Sekunde unzählige Teilchen – aber sie sind durchweg alte Bekannte. Dabei waren die Physiker so sicher gewesen, dass sich irgendwo eine Überraschung ergeben würde!
Vor drei Jahren sah es dann für einige Zeit so aus, als hätte der LHC tatsächlich ein weiteres Teilchen aufgespürt, eine nobelpreiswürdige Sensation lag in der Luft. Doch das so genannte 750-GeV-Signal versank bei genaueren Messungen wieder im statistischen Rauschen, letztlich war es nur ein Phantom. Seitdem machen die Teilchenphysiker die wohl tiefste Zäsur in der Geschichte ihrer Disziplin durch. »Wir alle durchlaufen die fünf Phasen der Trauer«, fasste der einflussreiche Physik-Blogger Adam Falkowski die Lage zusammen.
Die Natürlichkeit war lange ein Wegweiser
Mittlerweile haben viele Forscher die neue Realität akzeptiert – und sind dabei, sich umzuorientieren. Vielleicht, sagen einige von ihnen, haben wir den Punkt erreicht, an dem unsere mathematischen Werkzeuge ihre Wirksamkeit verlieren, an dem wir eine neue Grammatik brauchen, um die noch ausstehenden Rätsel der Natur zu lösen. Im Idealfall bahnt sich ein Neuanfang an, ähnlich wie zu Beginn des 20. Jahrhunderts, als sich Risse im Weltbild der klassischen Physik zeigten, die Quantenphysik aber noch nicht entdeckt war.
Dabei stellen die Gelehrten zunehmend Prinzipien in Frage, die ihnen vor einigen Jahren noch heilig waren, allen voran das der so genannten »Natürlichkeit«. Neben der Symmetrie – der Gedanke, dass Naturgesetze sich nicht ändern, wenn man den Blickwinkel verändert – war diese Forderung jahrzehntelang das Leitprinzip der Physiker auf der Suche nach einer Weltformel.
Das Prinzip der Natürlichkeit erscheint abstrakt, ist aus Sicht der Forscher jedoch ein wesentliches Kriterium für die mathematische Ästhetik einer Theorie. Ein Formelwerk gilt als natürlich, wenn Naturgesetze auf einer Größenordnung nicht die Regeln auf einer ganz anderen beeinflussen. »Man muss nicht wissen, wie Quarks in Atomkernen zusammenspielen, wenn man die Bahn des Mondes beschreiben will«, sagt der Aachener Physiker Michael Krämer. »Dieser Gedanke zieht sich durch die gesamte bekannte Physik.«
Λ bringt dieses Prinzip allerdings ins Straucheln. Der so harmlos wirkende griechische Buchstabe aus dem Aachener Vortrag des Jenaer Physikers Holger Gies taucht im Standardmodell an einer Schlüsselstelle auf – und sprengt dort dermaßen den Rahmen, ist dermaßen »unnatürlich«, dass die Forscher kaum an einen Zufall glauben können. »Es ist doch sehr merkwürdig, dass ausgerechnet das Standardmodell unnatürlich sein soll«, sagt Gies.
Aber genau danach sieht es aus, wenn die Forscher das Higgs-Teilchen mit Hilfe der Quantenfeldtheorie beschreiben, der Sprache des Standardmodells. Ihr zufolge sind nicht Elementarteilchen die grundlegenden Bausteine des Kosmos, sondern zu ihnen korrespondierende Energiefelder. Das berühmte, nach dem Schotten Peter Higgs benannte Boson ist nach dieser Sichtweise nicht mehr als eine kurzlebige Anregung des omnipräsenten Higgs-Feldes.
Das Zittern des Vakuums
Quantenfelder sind jedoch nie völlig statisch. Sie werden ständig von winzigen Schwankungen erfasst. Diese Quantenfluktuationen gehen darauf zurück, dass an jedem Ort des Universums ständig gegensätzlich gepolte Teilchen-Antiteilchen-Paare entstehen. Physiker sprechen von »virtuellen« Teilchen. Sie existieren nur kurz und löschen sich anschließend gegenseitig in einem mikroskopischen Strahlungsblitz auf. Dazu leihen sie sich für ein paar Sekundenbruchteile Energie aus dem Vakuum und verschwinden dann wieder – eine kuriose Konsequenz der heisenbergschen Unschärferelation.
Was sich esoterisch anhört, haben Physiker mittlerweile in etlichen Messungen bestätigt. Zwar kann man die virtuellen Teilchen selbst praktisch nicht messen, aber gewissermaßen ihr Echo. Denn die geisterhaften Teilchen-Antiteilchen-Paare treten während ihrer kurzen Existenz mit langlebigen Partikeln – beziehungsweise deren Feldern – in Kontakt. Das verändert praktisch sämtliche Begegnungen im Mikrokosmos und vergrößert auch die Masse von Teilchen, die über Einsteins berühmte Gleichung E = mc2 direkt an die Energie geknüpft ist. Das Higgs-Feld ist dabei besonders empfindlich für Vakuumfluktuationen. Schließlich verleiht es fast allen anderen Elementarteilchen ihre (Ruhe-)Masse und tritt so auch mit den entsprechenden virtuellen Partikeln in Kontakt.
Wie die »Vakuumkorrekturen« genau ausfallen, können Forscher ausrechnen. Dabei müssen sie jedoch mit mathematischen Kniffen Terme aus den Gleichungen entfernen, die einen unendlichen Wert anzunehmen drohen. Hilfreich bei dieser »Renormierung« ist, wenn die Forscher annehmen, dass Quantenfelder nur in einem begrenzten Größenbereich wirken, was der US-Physiker und spätere Nobelpreisträger Kenneth Wilson bereits 1971 erkannte. Bei der nach ihm benannten Form der Renormierung werden die Naturgesetze, die bei größeren und kleineren Abständen gelten, gewissermaßen ausgeklammert.
Wilsons Erfolgsgeschichte
Der Gedanke wurde zur Erfolgsgeschichte: Das Konzept der »effektiven« Feldtheorien erwies sich als Schlüssel zur Ausarbeitung des Standardmodells. Λ markiert in dem Formalismus die Energiegrenze, ab der die Formeln einer effektiven Theorie nicht mehr gültig sind, und damit auch die Höchstgrenze, bis zu der sich virtuelle Teilchen Energie aus dem Vakuum borgen können.
Die Energie ist in der Teilchenphysik generell ein Maß für die Reichweite der Kräfte zwischen Teilchen – je größer die Energie, mit der Teilchen in Beschleunigern ineinanderkrachen, desto näher kommen sie sich. In den Experimenten von Ernest Rutherford und anderen Pionieren der Atomphysik waren Partikel noch mit vergleichsweise wenig Energie unterwegs und wurden dadurch von der elektrostatischen Abstoßung der positiv geladenen Atomkerne umgelenkt. In heutigen Beschleunigern überwinden die Geschosse diese Barriere und kommen sich dadurch so nah, dass die Kräfte innerhalb der Kerne zu Tage treten.
Bei der Renormierung der Wechselwirkungen im Standardmodell gewöhnten sich die Physiker mit der Zeit daran, dass Λ in die Massenkorrekturen vieler Teilchen eingeht. Allerdings tut es das bei den allermeisten Teilchen nur in logarithmischer Form. Anschaulich gesprochen: Wenn sich ein virtuelles Teilchen viel Energie aus dem Vakuum leiht, ist der Einfluss auf die Masse des Teilchens immer noch überschaubar.
Beim Higgs-Boson, das als einziges Teilchen im Standardmodell keinen Spin (eine Art Eigendrehsinn), aber eine Masse hat, liefert die Renormierung allerdings ein sonderbares Ergebnis, wie bereits Wilson erkannte: Statt vom Logarithmus hängt die Größe der Quantenkorrekturen von Λ2 ab. Virtuelle Teilchen, die sich viel Energie aus dem Vakuum leihen, werden also belohnt: Sie treiben die Masse des berühmten Bosons gewaltig nach oben. Damit müssten sie es eigentlich so schwer machen, dass es am LHC gar nicht erst auftauchen dürfte, was im Vorfeld der Entdeckung des Higgs auch eine viel diskutierte Möglichkeit war.
Das Higgs ist ein Leichtgewicht
Die Entdeckung des Higgs im Jahr 2012 machte dann jedoch klar: Das Teilchen ist ein Leichtgewicht. Schließlich bringt es mit einer Masse von 125 Gigaelektronvolt/c2 in etwa das Gewicht von 133 Wasserstoffatomen auf die Waage. Die Quantenkorrekturen aus Wilsons Renormierung müssten ihm jedoch eigentlich eine Masse zwischen 100 000 000 und 1000 000 000 000 000 000 Gigaelektronvolt/c2 geben.
Wie groß die Diskrepanz genau ist, hängt davon ab, bis zu welcher Minimallänge das Standardmodell gültig ist, was bisher niemand weiß. Nicht wenige Physiker halten es allerdings für möglich, dass ihr Regelwerk den Mikrokosmos bis zur winzigsten aller Größenordnungen korrekt beschreibt und sich die Quantengravitation erst dort manifestiert – das spräche eigentlich dafür, dass die Higgs-Masse 18 Nullen haben sollte.
Was dämpft das Higgs-Feld?
Aber wieso hat die Masse des Teilchens in Wahrheit nur einen winzigen Bruchteil dieses Werts? Eine naheliegende Erklärung: Etwas gleicht die Energieschwankungen des Vakuums, die in der Quantenfeldtheorie auftauchen, gerade aus – und sorgt damit dafür, dass das Higgs-Feld bei einem Abstand von 10-18 Metern in Erscheinung tritt, die der LHC betrachtet und auf der sich dann auch das Higgs-Teilchen zeigt. Doch was schwächt das allgegenwärtige Energiefeld so stark ab? Und wieso kompensiert es die Fluktuationen gerade in einem Maß, dass das Higgs in jenen Bereich fällt, in dem auch sämtliche anderen bekannten Teilchen und Felder liegen?
Aus Sicht der meisten Physiker ist diese »Feinabstimmung« (englisch: finetuning) entweder ein riesiger Zufall, in etwa so wahrscheinlich wie ein Bleistift von der Länge unseres Sonnensystems, der für alle Ewigkeit auf seiner ein Millimeter breiten Spitze balanciert. Oder aber die Higgs-Masse ist ein Hinweis auf bisher unbekannte Naturgesetze.
Supersymmetrie und Technicolor
In den vergangenen 40 Jahren hat es nicht an Versuchen gemangelt, eine elegante Erklärung zu finden, die ein wichtiger Schritt in Richtung Weltformel wäre. 1978 schlug Leonard Susskind eine Theorie namens »Technicolor« vor, die das Standardmodell ab einer Energie von einigen tausend Gigalektronvolt, wie sie der LHC erreicht, ablösen sollte. Ihr zufolge ist das Higgs-Teilchen aus mehreren, quarkähnlichen Teilchen zusammengesetzt, wodurch sich das Problem mit den großen Vakuumkorrekturen beseitigen ließe.
Auch die »Supersymmetrie«, von ihren Fans liebevoll »Susy« genannt, fand viele Anhänger, weil sie die Natürlichkeit des Standardmodells wiederherstellen würde. Daneben sagen ihre Gleichungen voraus, dass die drei Kräfte des Standardmodells bei sehr kleinen Abständen gleich stark werden – für viele Physiker ein wichtiger Hinweis darauf, dass es so etwas wie eine Urkraft gibt.
Das Anfang der 1980er Jahre entwickelte Theoriegebäude sieht zu jedem bekannten Elementarteilchen einen bisher unbekannten Partner vor, darunter auch ein Teilchen, was als Dunkle-Materie-Partikel in Frage käme. Die Spiegelbilder würden ganz eigene Vakuumfluktuationen im Higgs-Feld auslösen, die jene der bekannten Teilchen gerade kompensieren. Die Quantenkorrekturen sollten damit nicht mehr nennenswert zur Masse des Higgs beitragen, womit sich das Standardmodell plötzlich völlig natürlich aus der übergeordneten Supersymmetrie ergeben würde.
Am LHC sind allerdings bisher weder Hinweise auf die Technicolor noch auf supersymmetrische Partnerteilchen aufgetaucht. Die Technicolor ist dadurch aus Sicht der meisten Forscher so gut wie ausgeschlossen. Der Gedanke einer Supersymmetrie ist zwar so weitfassend, dass hier noch viele Varianten denkbar sind. Für viele Wissenschaftler sind sie größtenteils aber nicht mehr so reizvoll, wie es die bereits falsifizierten Varianten gewesen wären.
Abschied von der Natürlichkeit
Momentan sieht das Standardmodell also herzlich unnatürlich aus – und eine Lösung ist nicht in Sicht. Gian Francesco Giudice, der führende theoretische Physiker des CERN und damit eine der größten Autoritäten der Teilchengemeinschaft, rief vor einem halben Jahr sogar das »Morgengrauen der Nach-Natürlichkeits-Ära« aus. Aber was nun? Soll man akzeptieren, dass die Natur an einer entscheidenden Stelle hässlich wirkt? Haben die Physiker vielleicht einfach eine falsche Auffassung von Ästhetik? Oder sollten sie nach einem Kitt suchen, der die Natürlichkeit des Standardmodells wiederherstellt?
»Ich bin die ganze Zeit hin- und hergerissen, wie groß das Problem wirklich ist«, sagt Holger Gies. Damit fasst der Physiker die Stimmung auf dem Aachener Workshop ganz gut zusammen. Organisiert hatte ihn ein interdisziplinäres DFG-Projekt, in dem Physiker und Philosophen den Erkenntnisgewinn am LHC und den tief greifenden Wandel der Teilchenphysik erforschen. »Dem Dialog zwischen Physik und Philosophie ist lange Zeit leider nicht genug Aufmerksamkeit geschenkt worden«, sagt Gregor Schiemann von der Universität Wuppertal, der Sprecher des Projekts zur »LHC-Epistemologie«.
Im Generali-Saal der RWTH Aachen, hoch über dem Februardunst der Altstadt, wurde deutlich, wie weit die Meinungen der Experten auseinandergehen. Praktisch jeder Teilnehmer brachte eine eigene Deutung der Lage mit. Da waren zum Beispiel jene Forscher, die den Standpunkt vertreten, dass die Teilchenphysik im Grunde noch kein Problem hat. Das bisherige Ausbleiben supersymmetrischer Partikel sage wenig darüber aus, wie wahrscheinlich die noch verbliebenen Varianten der Supersymmetrie seien, argumentierte etwa der US-amerikanische Physiker James Wells von der University of Michigan. »Susy könnte das Natürlichkeitsproblem nach wie vor mindern«, sagt er. Man solle die Lage also bitte nicht überdramatisieren und abwarten.
Allerdings können die noch nicht ausgeschlossenen Varianten von Susy die Vakuumkorrekturen nicht mehr punktgenau aufheben, da die neuen Partikel deutlich schwerer sein müssten – sonst wären sie ja am LHC aufgetaucht. Damit bliebe ein Unterschied von ein paar Größenordnungen zwischen Erwartung und Messung der Higgs-Masse. Das wäre aber etwas, womit einige Physiker durchaus leben könnten, schließlich kann eine ein Millimeter große Schneeflocke durchaus ein mehrere Meter großes Schneebrett lostreten.
Wie weit reicht die Natürlichkeit?
Andere Forscher sehen hier jedoch eine zentrale Schwäche des Arguments: Wie stark dürfen sich Größenordnungen in einer Theorie mischen, damit sie noch natürlich ist? Ist der Faktor 1000 noch in Ordnung? Oder wird ein Modell erst ab vier oder mehr Größenordnungen unnatürlich? Wirklich einig sind sich die Physiker in dieser Frage nicht. Manchem dürfte auch noch die Aussage des einflussreichen US-Physikers Nima Arkani-Hamed in den Ohren klingen, der 2013 den Spruch prägte, eine Theorie könne genauso wenig ein »bisschen feinabgestimmt« sein, wie jemand nur ein »bisschen schwanger« ist.
Arkani-Hamed und andere Forscher sind nach der Entdeckung des Higgs-Teilchens dazu übergegangen, Erweiterungen des Standardmodells zu entwerfen, die bewusst »unnatürlich« sind, also gar nicht mehr versuchen, die Vakuumkorrekturen zu erklären. »Vor einigen Jahren hätte man solche Aufsätze noch nicht wirklich ernst genommen, nun ziehen sie aber viel Aufmerksamkeit auf sich«, sagt Michael Krämer.
Auch Cheftheoretiker Giudice hat sich dafür stark gemacht, weniger Wert auf Natürlichkeit zu legen. Dabei gehörte er im Vorfeld des LHCs zu jenen, die den unschönen Makel des Standardmodells unbedingt beseitigen wollten. »Wir sehen uns mit einer Situation konfrontiert, in der wir unsere Leitmotive überdenken müssen«, schreibt er nun. Letztlich seien Phasen der Neuorientierung fester Teil der Wissenschaft und nicht zwangsläufig etwas Schlechtes, schließlich gingen sie in der Vergangenheit oft einem kuhnschen Paradigmenwechsel voraus. »Uns fehlt heute einfach die historische Perspektive, um durch den Nebel der gegenwärtigen Verwirrung hindurchzuschauen.«
Das kann man für optimistisch halten. Für Sabine Hossenfelder vom Frankfurter Institute for Advanced Studies jedenfalls zeigt die aktuelle Situation, dass sich die Physiker jahrzehntelang in die Tasche gelogen haben: »Das Natürlichkeitsargument war von vornherein unsinnig«, sagt sie. Laut Hossenfelder handelte es sich in erster Linie um eine Mode, die lange nicht hinterfragt wurde. Da man schlichtweg nicht wisse, welche physikalischen Gesetze auf der kleinsten aller Größenordnungen gelten, sei es hinfällig, darüber zu spekulieren, wie wahrscheinlich oder natürlich die heute gemessene Higgs-Masse sei. »Fast die gesamte Theorieentwicklung in der Grundlagenphysik der letzten 30 Jahre basiert daher auf einem logischen Fehlschluss.«
Ploppen ständig neue Universen auf?
Arthur Hebecker sieht das anders. Das Natürlichkeitsargument habe zu Recht eine große Bedeutung gehabt, sagt der Stringtheoretiker von der Universität Heidelberg, und es sollte auch künftig noch eine Rolle bei der Suche nach neuer Physik spielen. »Es ist zu früh, um zu sagen, die Welt ist nicht natürlich«, sagt Hebecker. So sollte man in jedem Fall die weiteren Daten des LHC abwarten, der bis mindestens in die 2020er Jahre weiterhin Atomkerne aufeinanderschießen wird und irgendwann auch noch einmal seine Energie erhöhen soll – und so vielleicht doch noch Abweichungen vom Standardmodell aufspüren kann.
Hebecker und andere Stringtheoretiker diskutieren seit Längerem eine spektakuläre wie spekulative Lösung für das Natürlichkeitsproblem: Im Urknall könnte nicht nur unser Universum entstanden sein, sondern auch unvorstellbar viele andere Welten, in denen jeweils andere Naturgesetze gelten. So sieht es zumindest das bereits in den 1980er Jahren entwickelte Konzept der »ewigen Inflation« vor. Demnach ploppen laufend neue Universen aus dem Nichts auf, die sich zügig voneinander entfernen.
Seit knapp 20 Jahren erhält dieser Gedanke Auftrieb durch die Stringtheorie, in der an einer Stelle eine schier grenzenlose Landschaft von 10500 möglichen Raumzeitgeometrien mit jeweils eigenen Naturgesetzen auftaucht. Auf so viele Arten und Weisen könnten sich jedenfalls die sechs wie Fäden aufgerollten Dimensionen der zehndimensionalen Theorie verknoten, zeigten Raphael Busso und Joseph Polchinski im Jahr 2000.
Unendlich viele Welten, aber wo ist unsere?
Bislang ist es den Forschern jedoch nicht gelungen, unter all diesen mutmaßlichen Welten auch die zu finden, in der wir leben, weshalb mancher Wissenschaftler den Bezug der Stringtheorie zur Realität anzweifelt. Sollten wir jedoch tatsächlich in einem »Multiversum« leben, würde sich das Natürlichkeitsproblem in Luft auflösen: Dann würden wir gerade in jenem Universum leben, in dem die Higgs-Masse den von uns gemessenen Wert hat. Die Notwendigkeit für einen großen kosmischen Zufall oder eine Erklärung durch neue Naturgesetze entfiele, da letztlich alle denkbaren Higgs-Massen in irgendeinem Universum Realität wären.
Diese »anthropische« Sichtweise ist allerdings denkbar unbeliebt. Schließlich erhält damit gewissermaßen kosmische Beliebigkeit Einzug in das Weltbild der Forscher. Auch wird man vielleicht nie in der Lage sein, die Theorien der Stringtheorie und des Multiversums zu testen. Die winzigen Fäden, aus der die Welt im Kern bestehen soll, würden erst bei der Planck-Länge von 10-35Metern in Erscheinung treten. Um diese Größenordnung sichtbar zu machen, müsste man Teilchen mit einem Beschleuniger vom Ausmaß unserer Galaxie aufeinanderschießen, wie Schätzungen zeigen. Und andere Universen wären längst viel zu weit von unserer Welt entfernt, als dass wir Signale von ihnen empfangen könnten. Und außerdem: Was für einen Zweck hat es, über die Fundamente der Natur zu spekulieren, wenn letztlich alle denkbaren Varianten irgendwo Realität sind?
»Das Multiversum läuft darauf hinaus, das ursprüngliche Konzept der Natürlichkeit aufzugeben«, sagt der Wissenschaftsphilosoph Porter Williams von der University of Pittsburgh. Der junge Assistenzprofessor gehört zu einer Gruppe von physikalisch geschulten Geisteswissenschaftlern, die seit einigen Jahren mit verstärktem Interesse auf die Arbeit der Teilchenphysiker blicken – und sich fragen, ob diese nicht etwas zu blind dem mathematischen Formalismus des Standardmodells vertrauen. »Das Natürlichkeitsproblem ist vielleicht nur eine Eigentümlichkeit von effektiven Feldtheorien«, sagt Williams.
Neue mathematische Werkezeuge
In ein ähnliches Horn bläst sein Kollege Alexei Grinbaum vom Kernforschungszentrum Saclay bei Paris. »Es könnte ein Signal sein, dass wir uns nach anderen mathematischen Werkzeugen umschauen sollten«, sagt er. Soll heißen: Die rätselhaften Vakuumkorrekturen, welche die Masse des Higgs-Teilchens in absurde Höhen treiben sollten, sind vielleicht nicht mehr als mathematischer Abfall ohne Bezug zur Wirklichkeit. Damit wären die Korrekturen nicht allein: Im Rahmen der Renormierung klammern Physiker in ihren Gleichungen jede Menge gegen unendlich strebende Terme aus, stets mit der Begründung, diese seien »unphysikalisch«, fänden also keine Entsprechung in der Natur.
Nun sollte die Higgs-Masse allerdings nicht unendlich werden, sondern einen Wert annehmen, der mehr als ein Dutzend Größenordnungen oberhalb des Messwerts liegt. »Aber ist das wirklich ein so großer Unterschied?«, fragt ein Wissenschaftsphilosoph auf der Konferenz. Noch bis vor Kurzem reagierten Physiker meist allergisch auf solche Einwände. Sie gingen in erster Linie darauf zurück, spotteten sie, dass jemand die Renormierung nicht richtig verstehe.
Wie die Zauberer in Hogwarts
Seit der Entdeckung des Higgs-Teilchens sind solche Zweifel jedoch salonfähiger geworden. »Vielleicht haben wir den Punkt erreicht, an dem unser Bild der Natur als Haufen effektiver Feldtheorien zusammenbricht«, räumte CERN-Cheftheoretiker Giudice bereits 2013 ein. Provokanter formulierte es jüngst Teilchenphysik-Blogger Adam Falkowski: Die Quantenfeldtheorie werde oft ähnlich gelehrt wie Magie in Hogwarts, dem Zauberer-Internat aus dem Harry-Potter-Universum. »Man folgt blind und stur den Anleitungen aus staubigen Büchern, ohne wirklich den Sinn oder die Bedeutung zu verstehen«, schreibt er.
Tatsächlich interessieren sich Physiker wieder verstärkt für mathematische Konzepte, die lange eher in der Abstellkammer lagen, etwa einen Formalismus namens S-Matrix, der in den 1940er Jahren von Werner Heisenberg mitentwickelt wurde. Andere Forscher versuchen, Quantenfeldtheorien zu entwickeln, die nicht mehr auf die wilsonsche Renormierung angewiesen sind und in denen es völlig normal wäre, wenn sich physikalische Prozesse über viele Skalen hinweg beeinflussen.
Über all dem schwebt die Hoffnung, die Natürlichkeit doch noch zu retten – also physikalische Mechanismen zu finden, mit denen das Universum Vakuumfluktuationen im Higgs-Feld unterdrückt. Und dafür mangelt es nicht an Ideen. Ein beliebtes Modell sieht beispielsweise vor, dass es nach dem Urknall noch ein weiteres unsichtbares Energiefeld gab, das direkt mit dem Higgs-Feld in Wechselwirkung trat. Dieses Relaxonen-Feld könnte anfangs wild hin und her gesprungen sein, hätte das Higgs-Feld nach diesem anfänglichen Trubel aber auf den Wert gedrückt, den wir heute sehen, spekulierte ein Team um Peter W. Graham 2015.
Andere Forscher halten es für möglich, dass sich das Higgs-Teilchen im heutigen Universum den großen Strahlungskorrekturen entziehen kann, da der Teilchenzoo heute anders aussieht als früher. Details dazu enthält beispielsweise die Theorie der »Higgs-Zwillinge«, der zufolge sich alle Teilchen des Standardmodells direkt nach dem Urknall veränderten. Dafür müsste es aber ein zweites Higgs-Teilchen geben.
Eine Quantentheorie der Schwerkraft
Holger Gies und Kollegen versuchen dagegen etwas anderes: eine Quantenfeldtheorie zu entwickeln, die auch die Schwerkraft mit einbindet und aus Sicht der Physiker auch natürlich sein könnte. Eigentlich scheitern bei Einsteins allgemeiner Relativitätstheorie bislang sämtliche Versuche einer Renormierung. Theorien mit der Eigenschaft der »asymptotischen Sicherheit« umschiffen dieses Problem – und könnten sich langfristig vielleicht zu einer Alternative zur Stringtheorie mausern. »Die Natürlichkeit wird so hart angegriffen, dass ich stark versucht bin, sie zu verteidigen«, sagt Gies zu seinen Kollegen in Aachen. »Wir schaffen es doch sicher, ein Modell zu bauen, dass die bestehenden Probleme löst, oder?«
Über all dem schwebt die Frage, woran sich die Physiker künftig orientieren sollen bei der Suche nach einer Weltformel. Ohne das Natürlichkeitskriterium bleiben ihnen eigentlich nur die Forderung nach Symmetrie, Einfachheit und mathematischer Konsistenz. Insbesondere die Symmetrie war eine enorme Hilfe, um die Formeln des Standardmodells zu finden. Doch durch das Ausbleiben der Supersymmetrie – gewissermaßen die Fortführung dieses Gedankens – ist es fraglicher denn je, wie tragfähig sie bei der Suche nach einer Weltformel sein wird. Und vergleichbare Leitgedanken sind bisher nicht in Sicht.
Physiker im Nebel
Aber was bleibt dann noch? Die Verwirrung ist groß, die Physiker tapsen durch den Nebel. Wenn Geschichte ein Indikator für die Zukunft ist, ist dies die Zeit, in der ein kühner Gedanke den Durchbruch bringt. Wer weiß, vielleicht ist es ja der, den der angesehene Phänomenologe Fred Jegerlehner vom Deutschen Elektronen-Synchrotron (DESY) auf der Aachener Tagung präsentierte. Er vermutet, dass das Higgs-Feld direkt nach dem Urknall ein eigentümliches Verhalten an den Tag legte: Dank der gewaltigen Energie aus dem Vakuum trieb es zunächst die explosionsartige, wenige Sekundenbruchteile währende Expansion des Kosmos voran, die so genannte Inflation. Anschließend durchlief es einen Phasenübergang, ähnlich wie Wasser, das bei sinkender Temperatur plötzlich gefriert, und fiel dadurch auf seinen heutigen Wert. Oder anders formuliert: Das Natürlichkeitsproblem ist gar kein Problem, sondern bereits ein Teil der Lösung – und das ganz ohne das unliebsame Multiversum.
Für manchen Besucher der Aachener Konferenz war das ein Vorschlag, der zu schön wirkte, um wahr zu sein. Aber niemand bestritt, dass er einen wichtigen Punkt berührte, der direkt verknüpft sein könnte mit der gegenwärtigen Krise: Auch in der Kosmologie gibt es ein Natürlichkeitsproblem. Allerdings weicht dort die heute gemessene Expansionsgeschwindigkeit des Weltalls nicht bloß um ein gutes Dutzend Nullen von der Erwartung ab. Sie liegt mehr als 100 Größenordnungen unter dem Wert, den man auf Basis der Energie der Quantenfelder im Vakuum erwarten würde. Das Symbol, mit dem die Expansion des Alls in den Gleichungen der Kosmologen auftaucht, ist ausgerechnet ein Λ. Auch deshalb wird der griechische Buchstabe die Physiker wohl noch eine ganze Weile beschäftigen.
Nachtrag: In einer früheren Version des Artikels war ein zu großer Wert für die Higgs-Masse mit Vakuumkorrekturen angegeben. Diese kann maximal auf der Planck-Skala bei 1019 Gigaelektronvolt/c2 liegen. Wir bitten den Fehler zu entschuldigen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.