News: Nobelpreis für Physik 1999
Die Gegenstände in der Welt um uns herum – und wir mit ihnen – bestehen aus Atomen, die aus Elektronen und Atomkernen aufgebaut sind. In den Kernen befinden sich Protonen und Neutronen, deren Bausteine wiederum die Quarks sind. Um diese Strukturen der Winzigkeit voneinander zu trennen und ihre Eigenschaften untersuchen zu können, benötigen Wissenschaftler gewaltige Apparaturen von mehreren Kilometern Ausmaßen. Denn nur in der Wucht heftiger Zusammenstöße steckt genug Energie, um die Anziehungskräfte zwischen den Teilchen zu überwinden. Erst in den fünfziger Jahren entstanden die großen Beschleuniger, mit denen die Elementarteilchenphysiker in das Innere von Atomen blicken konnten.
Damals formulierten Wissenschaftler auch die erste Fassung einer modernen Theorie, die nach vielen Jahren der Bearbeitung schließlich zum Standardmodell in der Elementarteilchenphysik geführt hat. Danach werden alle Elementarteilchen in drei Familien von Quarks und Leptonen eingeteilt, welche mit Hilfe einer Anzahl von Austauschteilchen für die starken und elektroschwachen Kräfte wechselwirken.
Das theoretische Fundament des Standardmodells war aus mathematischem Gesichtspunkt von Anfang an unvollständig. Vor allem war unklar, ob sich mit der Theorie überhaupt physikalische Größen detailliert berechnen ließen. Gerardus 't Hooft und Martinus J.G. Veltman stellten diese Theorie mit ihren Arbeiten auf festeren mathematischen Grund. Dadurch haben die Forscher nun auch eine gut funktionierende "theoretische Maschinerie", mit der sie unter anderem Eigenschaften neuer Teilchen zuverlässig vorhersagen können.
Die heute in dem Standardmodell der Elementarteilchenphysik verwendeten modernen Theorien, welche die Wechselwirkung zwischen den Teilchen beschreiben, sind alle sogenannte Eichtheorien. Der Name bezieht sich auf eine spezielle Eigenschaft dieser Theorien, die Eichsymmetrie, die von vielen Forschern als eine der fundamentalsten Eigenschaften der Physik angesehen wird. Schon um 1860 formulierte der Schotte James Clerk Maxwell eine Beschreibung des Elektromagnetismus, die in heutiger, moderner Terminologie eine Eichtheorie ist. Sie vereinte Elektrizität mit Magnetismus und sagte unter anderem die Existenz von Radiowellen voraus.
Man kann den Begriff Eichsymmetrie auf folgende Art anschaulich machen: Elektrische und magnetische Felder lassen sich mit Hilfe von Potentialfunktionen darstellen. Diese können nach einem gewissen Schema ausgetauscht ("eichtransformiert") werden, ohne daß sich die Felder deswegen ändern. Die allereinfachste Transformation ist die Addition einer Konstanten zu den elektrischen Potentialen. Physikalisch verdeutlicht dieses die wohlbekannte Tatsache, daß das elektrische Potential von einem willkürlichen Nullpunkt aus gerechnet werden kann – nur die Differenz zwischen zwei Potentialen spielt eine Rolle. Diesem Umstand verdankt jeder Vogel sein Leben, wenn er sich auf einer Hochspannungsleitung niedersetzt. Die Möglichkeit einer derartigen Verschiebung des Nullpunkts wird von den Physikern als eine Symmetrie in der Theorie, eine Eichsymmetrie, aufgefaßt.
Es zeigt sich, daß es bei der Ausführung von zwei Eichtransformationen nacheinander keine Rolle spielt, in welcher Reihenfolge man vorgeht. Deshalb pflegt man den Elektromagnetismus als eine "abelsche Eichtheorie" zu bezeichnen – nach dem norwegischen Mathematiker Niels Henrik Abel, der von 1802 bis 1829 lebte.
Sofort nachdem die Quantenmechanik um 1925 formuliert worden war, wurde der Versuch unternommen, die Wellenfunktionen der Quantenmechanik und das elektromagnetische Feld in einer Quantenfeldtheorie zu vereinigen. Aber da stieß man auf Probleme! Die neue Quantenelektrodynamik blieb kompliziert und wenn man Berechnungen durchführen wollte, ergaben sich oft sinnlose Resultate. Ein Grund hierfür war, daß die Quantentheorie vorhersagt, daß das elektromagnetische Feld in der Nähe von zum Beispiel einem Elektron oder Proton spontan die Entstehung von Mengen kurzlebiger Paare von Teilchen und Antiteilchen, sogenannten "virtuellen Teilchen", bewirken kann. Ein System mit nur einem Elektron wurde plötzlich ein Mehrteilchenproblem.
Die Probleme wurden von Sin-Itiro Tomonaga, Julian Schwinger und Richard P. Feynman gelöst, die dafür im Jahre 1965 mit dem Nobelpreis ausgezeichnet wurden. Die von diesen drei Forschern entwickelte Methode wird Renormierung genannt und bedeutet, einfach ausgedrückt, daß man die einzelnen Teilchen "aus etwas Abstand" betrachtet. Dadurch muß man nicht die virtuellen Teilchen einzeln berücksichtigen, sondern kann die Wolke aus virtuellen Teilchen das zentrale, ursprüngliche Teilchen einhüllen lassen. Dieses erhält so unter anderem eine neue Ladung und eine neue Masse. In moderner Terminologie kann man sagen, daß Tomonaga, Schwinger und Feynman eine abelsche Eichtheorie renormiert haben.
Die Quantenelektrodynamik ist in letzter Zeit mit größerer Sorgfalt als irgendeine andere physikalische Theorie geprüft worden. So ist es zum Beispiel Hans Dehmelt (Nobelpreis in Physik 1989) gelungen, in einer Ionenfalle den Magnetismus des Elektrons mit einer Genauigkeit von zwölf Stellen zu messen. Die ersten zehn Ziffern konnten mit dem theoretischen Ergebnis verglichen werden – und sie stimmten überein.
Die Entdeckung und das Studium der Radioaktivität und die spätere Entwicklung der Kernphysik gab in der ersten Hälfte des zwanzigsten Jahrhunderts Anlaß zur Entdeckung der starken und schwachen Wechselwirkung. Einfach ausgedrückt hält die starke die Atomkerne zusammen, während die schwache gewisse Atomkerne radioaktiv zerfallen läßt. Schon in den dreißiger Jahren wurde eine erste Quantenfeldtheorie für schwache Wechselwirkung formuliert. Diese Theorie litt unter Problemen, die noch schlimmer waren als diejenigen der Quantenelektrodynamik, und nicht einmal die von Tomonaga, Schwinger und Feynman entwickelte Renormierungsmethode konnte helfen.
Aber in der Mitte der fünfziger Jahre fanden einige Forscher ein erstes Beispiel für eine Quantenfeldtheorie mit neuen Eigenschaften, eine nicht-abelsche Eichtheorie. Zum Unterschied von der abelschen Variante, in welcher Eichtransformationen unabhängig von der Reihenfolge ausgeführt werden können, beruhen die Ergebnisse in der nicht-abelschen auf der Reihenfolge. Das gibt der Theorie eine kompliziertere mathematische Struktur, aber eröffnet auch neue Möglichkeiten.
Die neuen Möglichkeiten der Theorie wurden erst in den sechziger Jahren voll genutzt, als eine Reihe von Forschern bei der Entwicklung einer nicht-abelschen Eichtheorie mitwirkte, welche die elektromagnetische mit der schwachen Wechselwirkung zur elektroschwachen Wechselwirkung vereinigt (Nobelpreis 1979 für Sheldon L. Glashow, Abdus Salam und Steven Weinberg). Diese Quantenfeldtheorie sagte unter anderem die neuen Teilchen W und Z voraus, die 1983 am europäischen Beschleunigerlabor CERN in Genf nachgewiesen wurden (Nobelpreis 1984 für Carlo Rubbia und Simon van der Meer).
Die Theorie der elektroschwachen Wechselwirkung war sicherlich ein großer Schritt vorwärts, aber die Wissenschaftler hatten es zuerst schwer, sie zu akzeptieren. Als man die Theorie zur Berechnung näherer Eigenschaften der neuen Teilchen W und Z (und vieler anderer physikalischer Größen) anwenden wollte, lieferte sie sinnlose Ergebnisse. Die Situation war der in den dreißiger Jahren ähnlich, bevor es Tomonaga, Schwinger und Feynman gelang, die Quantenelektrodynamik zu renormieren. Viele Forscher waren pessimistisch bezüglich der Möglichkeiten, mit einer derartigen Theorie weiterzukommen.
Einer, der nicht die Hoffnung aufgegeben hatte, nicht-abelsche Eichtheorien renormieren zu können, war Martinus J.G. Veltman. Er war Ende der sechziger Jahre neu ernannter Professor an der Universität in Utrecht. Veltman hatte ein Computerprogramm Schoonship entwickelt, welches symbolisch algebraische Vereinfachungen der komplizierten Ausdrücke durchführte, die sich in allen Quantenfeldtheorien bei quantitativen Berechnungen ergeben. Zwanzig Jahre früher hatte zwar Feynman das Berechnungsproblem systematisiert und die sogenannten Feynmandiagramme, die schnell in der Welt der Forschung angenommen wurden, eingeführt, aber damals gab es keine Computer. Veltman glaubte felsenfest an die Möglichkeit, einen Weg zu finden, um die Renormierung auszuführen, und sein Computerprogramm war ein Meilenstein in der umfangreichen Arbeit, verschiedene Ideen auszutesten.
Im Frühjahr 1969 bekam Veltman einen 22 Jahre jungen Schüler, Gerardus 't Hooft, der seinen Wunsch ausgedrückt hatte, Hochenergiephysik studieren zu dürfen. Nachdem er eine erste kleine Abhandlung geschrieben hatte, wurde 't Hooft im Herbst des gleichen Jahres als Doktorand angenommen. Die Aufgabe war, bei der Suche nach einer Methode zur Renormierung nicht-abelscher Eichtheorien mitzuarbeiten. Er war überaus erfolgreich und veröffentlichte schon 1971 zwei Arbeiten, die einen wichtigen Durchbruch im Forschungsprogramm darstellten.
Mit Hilfe von Veltmans Computerprogramm wurde nun 't Hoofts Teilergebnis bestätigt, und gemeinsam arbeiteten sie eine funktionierende Berechnungsmethode im Detail aus. Somit war die nicht-abelsche Eichtheorie der elektroschwachen Wechselwirkung eine funktionierende theoretische Maschinerie geworden, und man konnte, genau wie vor zwanzig Jahren, mit genauen Berechnungen beginnen.
Wie schon oben dargestellt, sagte die elektroschwache Theorie schon von Anfang an die Existenz der neuen Teilchen W und Z voraus. Aber erst durch 't Hoofts und Veltmans Arbeiten konnte man beginnen, physikalische Größen, bei denen die Eigenschaften von W und Z eine Rolle spielen, genauer zu berechnen. In dem Beschleuniger LEP des CERN ist es in letzter Zeit gelungen, große Mengen von W und Z unter kontrollierbaren Verhältnissen zu erzeugen. Vergleiche zwischen Messungen und Rechnungen haben immer große Übereinstimmung gezeigt und stärken dadurch die Aussagen der Theorie.
Eine spezielle Größe, die ausgehend von den Ergebnissen am LEP mit 't Hoofts und Veltmans Berechnungsmethode erhalten werden konnte, ist die Masse des top-Quarks, des schwersten der beiden Quarks, die zu der dritten Familie des Standardmodells gehören. Dieses Quark wurde zum ersten Mal direkt 1995 am Fermilab in den USA beobachtet, aber seine Masse war schon einige Jahre früher vorhergesagt worden. Die Übereinstimmung zwischen Experiment und Theorie war auch hier zufriedenstellend.
Ein wichtiger Bestandteil in der Theorie, die 't Hooft und Veltman entwickelt haben, ist ein noch nicht nachgewiesenes Teilchen, das Higgs-Teilchen. Ebenso, wie andere Teilchen durch theoretische Beweisführung vorausgesagt wurden, um dann später experimentell nachgewiesen zu werden, warten die Forscher nun auf die direkte Beobachtung des Higgs-Teilchens. Durch Berechnungen, ähnlich denen für die Masse des top-Quarks, weiß man, daß vielleicht einer der zur Zeit arbeitenden Beschleuniger einige Higgs-Teilchen erzeugen kann. Aber der einzige Beschleuniger, der ausreichende Leistung für genauere Studien haben wird, ist der zur Zeit im Bau befindliche LHC (Large Hadron Collider) des CERN. Jedoch damit müssen sich die Forscher noch einige Jahre gedulden, denn der LHC wird voraussichtlich erst im Jahr 2005 fertiggestellt sein.
Gerardus 't Hooft wurde 1946 in Den Helder in den Niederlanden geboren. Er promovierte 1972 in Physik an der Universität Utrecht, wo er seit 1977 eine Professur innehat.
Martinus J.G. Veltman kam 1931 ebenfalls in den Niederlanden zur Welt. An der Universität Utrecht promovierte er 1963 in Physik. Von 1966 bis 1981 war er dort Professor sowie an der University of Michigan, an welcher er bis zu seiner Emeritierung blieb.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.