Die fabelhafte Welt der Mathematik: Die rätselhafte Verbindung zwischen Primzahlen und Atombomben
Während der Arbeit sind Kaffee- oder Teepausen enorm wichtig – und zwar nicht nur, um ein wenig abzuschalten und Energie zu tanken. In der Geschichte sind auf diese Weise auch wichtige wissenschaftliche Erkenntnisse zu Stande gekommen. Denn in den kurzen Pausen treffen auch mal Personen aufeinander, die nicht direkt zusammenarbeiten, wie der Physiker Freeman Dyson und der Zahlentheoretiker Hugh Montgomery im Jahr 1972. Während sich Ersterer mit einem Problem rund um Atomkerne beschäftigte, drehte sich die Arbeit des Zweiten um Primzahlen. Auf den ersten Blick haben beide Themen keinerlei Berührungspunkte, doch als die Wissenschaftler über einer heißen Tasse Tee miteinander plauderten, entdeckten sie eine der mysteriösesten Verbindungen zwischen Mathematik und Physik.
Hintergrund der Geschichte ist der Kalte Krieg. In den 1950er Jahren entwickelte das Militär ein großes Interesse für Atomphysik. Es wollte herausfinden, unter welchen Umständen der Kern eines schweren Elements wie Uran ein freies Neutron aufnimmt und wieder aussendet. Den Ursprung dieser Frage bildete die Kernspaltung, der Mechanismus, der Kernwaffen zu Grunde liegt. Wenn ein massereicher Urankern ein Neutron bindet, kann er nicht mehr zusammenhalten, wodurch er in zwei kleinere Kerne zerfällt und Energie freisetzt.
Wie das grob abläuft, war damals schon klar: Ein Kern kann nur Neutronen mit bestimmten Geschwindigkeiten aufnehmen. Die entsprechen den »Anregungsenergien« des Kerns. Und diese wollten die Forschenden und das Militär berechnen. Doch beim Versuch, die Energien eines schweren Kerns mathematisch herzuleiten, stießen die Fachleute auf Probleme. Die quantenphysikalischen Berechnungen sind extrem umfangreich und waren damals nicht zu bewältigen – Computer boten noch keine große Unterstützung.
Also blieb den Physikerinnen und Physikern nur eine Möglichkeit: Sie mussten versuchen, die relevanten Größen durch Laborversuche zu bestimmen. Dazu beschossen sie Atomkerne mit unterschiedlich schnellen Neutronen. Da diese Teilchen keine elektrische Ladung haben, schwirren sie für gewöhnlich ungehindert an den Kernen vorbei. Wenn sie aber die passende Geschwindigkeit haben, um einen Kern anzuregen, kann dieser ein Neutron einfangen. Kurz darauf spuckt der Kern das Neutron wieder aus; allerdings in eine zufällige Richtung. Die gesuchten Energieniveaus der Kerne stimmen also mit den Energien überein, bei denen die Neutronenstrahlen im Experiment am stärksten abgelenkt werden.
Wie erwartet erwiesen sich die Resultate als äußerst kompliziert. Als die Fachleute die Energieniveaus verschieden schwerer Atomkerne untersucht hatten, fanden sie keine geeignete Möglichkeit, die Messungen durch ihre mathematischen Gleichungen vorherzusagen. Es lag nicht daran, dass die Formeln falsch waren – sie waren bloß so komplex, dass sie sich nicht lösen ließen.
Alles Zufall?
Als der Physiker Eugene Wigner die im Labor gemessenen Energieniveaus unterschiedlicher Kerne betrachtete, fiel ihm etwas auf: Die Energien schienen alle einem ähnlichen Muster zu gehorchen. Die Abstände zwischen aufeinander folgenden Energieniveaus verteilten sich auf ähnliche Weise; es gab wenige Energiezustände mit sehr großen oder sehr kleinen Abständen, während sich mittlere häuften. Qualitativ folgten die Abstände der Energiewerte verschiedener Atomkerne wie Uran, Thorium oder Kadmium derselben Kurve.
Das stellte die Fachleute vor ein Rätsel. Sie konnten sich nicht erklären, woher dieses seltsame Muster kam. Wigner vermutete, die Ursache dafür könnte in der Mathematik liegen. Vielleicht waren es gar nicht die physikalischen Eigenschaften der Kerne, die eine solche Verteilung hervorbrachten, sondern es war umgekehrt, und die Physik folgte vielmehr tiefer gehenden Zusammenhängen. Um das zu prüfen, nahm sich Wigner den mathematischen Unterbau der Atomkerne vor.
Um die Energieniveaus von Kernen zu berechnen, muss man eine bestimmte Art von Gleichung lösen. Daher untersuchte Wigner diese Formeln, die er jedoch abwandelte. Anstatt sinnvolle physikalische Größen – etwa die Masse oder die elektrische Ladung – einzusetzen, wertete er die Formeln für zufällige Zahlenwerte aus. Das ist, als würde man bei E = m c2 für m und c zufällige Zahlenwerte einsetzen statt der Masse und der Lichtgeschwindigkeit.
Zufallsmatrizen
Möchte man die Energieniveaus eines quantenmechanischen Systems berechnen, etwa eines Atomkerns, muss man sich mit Matrizen beschäftigen. Eine Matrix ist eine Art Tabelle, deren Einträge aus Zahlen bestehen. Die physikalische Theorie gibt vor, mit welchen Werten man die Tabelle füllt. Die Energieniveaus erhält man, indem man mehrere – teils langwierige – Rechenoperationen durchführt.
Wie sich aber herausstellt, weisen die Ergebnisse für unterschiedliche Atomkerne ähnliche Muster auf. Die Abstände zwischen den Energieniveaus scheinen sich nach bestimmten Regeln statistisch zu wiederholen. Eugene Wigner erkannte, dass dieses Verhalten keinen physikalischen Ursprung hat, sondern eine Eigenschaft bestimmter Matrizen ist. Indem er die Tabelle mit Zufallszahlen füllte, berechnete er fiktive Energieniveaus. Und dabei fand er die gleichen Muster vor wie mit den Atomkern-Berechnungen.
Wigners Verdacht wurde bestätigt. Der Physiker erkannte, dass Zufallszahlen dasselbe Muster hervorbringen wie die Energieniveaus echter Kerne. Die Abstände der Lösungen scheinen stets einer bestimmten Verteilung zu folgen – seien es nun die Energieniveaus von Atomkernen oder die fiktiven Niveaus für wahllose Zahlenwerte. Das erstaunliche Muster bringt also nicht die Natur hervor, sondern die Mathematik.
Wigner hatte mit dieser Entdeckung der »Zufallsmatrizen« ein neues Forschungsgebiet begründet, dem sich zahlreiche Fachleute widmeten. Unter ihnen war Freeman Dyson, der am Institute of Advanced Studies (IAS) in Princeton arbeitete und in den 1960er Jahren wichtige Fortschritte zu dem Bereich beitrug. Doch damals ahnte er noch nicht, welche tiefgründigen Verbindungen Zufallsmatrizen mit einem völlig anderen Forschungsgebiet haben: der Zahlentheorie.
Primzahlen und die riemannsche Vermutung
Die große Überraschung erfolgte im April 1972, als der Mathematiker Hugh Montgomery einen Kollegen am IAS besuchte, um ein neues Forschungsergebnis vorzustellen. Montgomery beschäftigte sich damals mit einem der bedeutendsten Probleme der Zahlentheorie – wenn nicht der gesamten Mathematik: der riemannschen Vermutung. Seit mehr als 160 Jahren beißen sich die klügsten Köpfe daran die Zähne aus. Die Vermutung dreht sich im Wesentlichen darum, wie Primzahlen auf dem Zahlenstrahl verteilt sind.
Der Grund für das Interesse an der Vermutung liegt darin, dass sie die Grundbausteine der natürlichen Zahlen betrifft. Sie beschäftigt sich mit Primzahlen, jenen Werten, die nur durch eins und sich selbst teilbar sind. Beispiele dafür sind 2, 3, 5, 7, 11, 13 und so weiter. Jede andere Zahl, etwa 15, lässt sich eindeutig in ein Produkt aus Primzahlen zerlegen: 15 = 3 · 5. Damit bilden sie sozusagen die »Elemente« der ganzen Zahlen. Doch anders als in der Chemie haben Mathematiker kein vollständiges Periodensystem dieser Grundbausteine – und werden es wohl niemals besitzen, denn es gibt unendlich viele Primzahlen. Schlimmer noch: Es scheint keine klare Regel zu geben, nach der Primzahlen auf dem Zahlenstrahl auftauchen.
Die riemannsche Vermutung
Seit mehr als 160 Jahren zählt die riemannsche Vermutung zu einem der härtesten Probleme der Mathematik. Weltweit versuchen sich immer wieder etliche Personen an einem Beweis, doch bisher sind alle gescheitert.
Bernhard Riemann war einer der wichtigsten Mathematiker der letzten Jahrhunderte, der die Gebiete der Analysis, der Differentialgeometrie und der Zahlentheorie vollkommen veränderte. In seiner 1859 erschienenen Arbeit »Über die Anzahl der Primzahlen unter einer gegebenen Größe« formulierte er seine berühmte Vermutung. Dies war seine einzige Veröffentlichung im Bereich der Zahlentheorie – und dennoch zählt sie bis heute zu einem der bedeutendsten Werke dieser Disziplin.
Da Riemann hauptsächlich auf dem Fachgebiet der Analysis tätig war, die sich häufig mit stetigen oder differenzierbaren Funktionen beschäftigt, wählte er auch einen solchen Ansatz, um die Verteilung der Primzahlen zu studieren. Durch Riemanns Arbeit fanden Mathematiker später heraus, dass Primzahlen in kleinen Bereichen des Zahlenstrahls zwar willkürlich verstreut sind, aber asymptotisch (also für Intervallgrößen, die gegen unendlich gehen) regelmäßig erscheinen.
Diese Ordnung spiegelt sich in der von Riemann gefundenen Primzahlfunktion π(x) wider, welche die Anzahl aller Primzahlen bestimmt, die kleiner als eine gegebene Anzahl x sind. Die Funktion hängt von der so genannten Zeta-Funktion ζ ab, die Leonhard Euler bereits 1737 eingeführt hatte. Die Primzahlfunktion ist nicht exakt – die Verteilung der Primzahlen schwankt um einen Wert, der durch die Nullstellen der Zeta-Funktion bestimmt ist. Anders ausgedrückt: Kennt man all die Werte z, für die ζ(z) gleich null ist, kann man daraus sehr genau auf die Verteilung der Primzahlen schließen.
Riemann fiel bereits in diesem Aufsatz auf, dass die Nullstellen der Zeta-Funktion einem bestimmten Muster zu folgen scheinen. Das Muster entdeckte er aber erst, nachdem er die von Leonhard Euler definierte Funktion erweitert hatte: Anstatt sie nur mit den gewöhnlichen reellen Zahlen zu speisen, setzte er auch komplexe Zahlen ein, die Wurzeln aus negativen Zahlen enthalten. Schnell stieß Riemann auf »triviale« Nullstellen: Er zeigte, dass die Zeta-Funktion für alle negativen geraden Zahlen verschwindet. Allerdings besitzt sie weitere Nullstellen, die alle auf einer Geraden zu liegen scheinen, überall dort, wo der reelle Anteil einer Nullstelle der Zeta-Funktion den Wert 1⁄2 hat. Diese Beobachtung ging als »riemannsche Vermutung« in die Mathematikgeschichte ein.
Als der Mathematiker David Hilbert von der Universität Göttingen im Jahr 1900 am internationalen Mathematikerkongress in Paris seine berühmte Rede zu den zehn wichtigsten offenen Problemen der Mathematik hielt, gehörte dazu die riemannsche Vermutung. Von ursprünglich zehn Problemen seiner Liste sind inzwischen acht zumindest teilweise gelöst – doch bei der riemannschen Vermutung gab es bisher kaum Fortschritte.
Anlässlich des 100. Jahrestags von Hilberts prägender Rede formulierte das Clay Mathematics Institute zur Jahrtausendwende sieben »Millennium-Probleme«, deren Lösung mit jeweils einer Million US-Dollar belohnt wird. Darunter ist die riemannsche Vermutung. Das Preisgeld erhält man aber nur für einen Beweis. Liefert man ein Gegenbeispiel, das heißt eine Nullstelle, die nicht auf der erwarteten Geraden liegt, geht man leer aus. Neben den gescheiterten Versuchen eines Beweises haben Mathematiker mit enormer Rechenleistung bisher mehrere Milliarden dieser Nullstellen berechnet, und keine wich von der vorhergesagten Geraden ab.
Zwar fand Carl Friedrich Gauß (1777–1855) bereits heraus, dass Primzahlen zu großen Werten hin immer seltener auftauchen. Doch abseits dieser Regel scheinen sie zufällig verteilt zu sein. Die riemannsche Vermutung besagt, dass die Häufigkeit der Primzahlen tatsächlich dem Zufallsprinzip folgt – demnach sind sie gleichmäßig verteilt. Falls die Vermutung stimmt, gibt es also keine größeren Intervalle, in denen sich überhaupt keine Primzahlen finden, während andere voll von ihnen sind.
Das kann man sich wie die Verteilung von Molekülen in der Luft eines Raums vorstellen. Insgesamt ist die Dichte am Boden zwar etwas höher als an der Decke, doch die Teilchen sind – dieser Dichteverteilung folgend – dennoch gleichmäßig verstreut, nirgends herrscht ein Vakuum. Ob Primzahlen tatsächlich denselben Regeln folgen wie Moleküle, ist wegen eines fehlenden Beweises der riemannschen Vermutung noch offen. Es könnte also durchaus Bereiche geben, in denen die Anzahl der Primzahlen stark von dem Primzahlsatz abweicht.
Allerdings ist die riemannsche Vermutung in ihrer Reinform etwas kryptisch: Sie handelt von einer »Zetafunktion« ζ und ihren Nullstellen.
\[ \zeta(s) = \sum_{n=1}^\infty \frac{1}{n^s} = \frac{1}{1^s} + \frac{1}{2^s} + \frac{1}{3^s} + \frac{1}{4^s} +... \]
Bereits im 18. Jahrhundert hatten Mathematiker festgestellt, dass es einen Zusammenhang zwischen bestimmten Funktionen, die einer unendlich langen Summe von Bruchzahlen entsprechen, und Primzahlen p gibt:
\[ \zeta(s) = \prod_{p} \frac{1}{1- p^{-s}} = \frac{1}{1-2^{-s}} \cdot \frac{1}{1-3^{-s}} \cdot \frac{1}{1-5^{-s}} \cdot \frac{1}{1-7^{-s}} \cdot... \]
Das erscheint noch heute erstaunlich. Schließlich stammen Funktionen wie ζ aus dem Bereich der Analysis, in dem sich alles um das Vermessen von Flächen und unendlich kleinen Werten dreht, während Primzahlen grundlegend anders sind. Bei ihnen geht es um natürliche Zahlen.
Doch Riemann stellte fest: Falls die Zetafunktion nur an ganz bestimmten Stellen null wird – entlang einer Linie, die als kritische Gerade bezeichnet wird –, dann sind die Primzahlen tatsächlich gleichmäßig verteilt. Bis heute gelang es allerdings niemandem, eindeutig nachzuweisen, dass die Nullstellen von ζ wirklich nur auf der vorhergesagten Geraden liegen.
Ebenso wie die Primzahlen selbst scheinen auch die Nullstellen der Zetafunktion einem zufälligen, chaotischen Muster entlang der kritischen Geraden zu folgen. Es ist unmöglich, exakt vorherzusagen, wann die nächste erscheint. Inzwischen haben Fachleute mehr als 1013 Nullstellen berechnet und keine einzige weicht von der vorhergesagten Gerade ab. Doch das heißt nicht, dass es nicht doch eine Zahl s außerhalb der kritischen Geraden gibt, für die ζ(s) = 0 ist.
Eine neue Spur zur Lösung der riemannschen Vermutung
Als Montgomery an einem Frühlingstag des Jahres 1972 am IAS in Princeton vorbeischaute, wollte er über die Nullstellen von ζ sprechen. Nachdem er einem Kollegen von seiner neuesten Arbeit erzählt hatte, traf er bei einer Teepause auf Freeman Dyson. Die beiden Forscher begannen, sich aufgeregt über die Zetafunktion und Montgomerys Beobachtungen zu unterhalten.
Montgomery war aufgefallen, dass die Nullstellen von ζ offenbar einem seltsamen, wiederkehrenden Muster folgen. Die Abstände zwischen zwei Nullstellen entlang der kritischen Geraden schienen einer bestimmten Statistik zu gehorchen. Als Dyson davon hörte, erkannte er sofort die Gesetzmäßigkeit wieder, die sich bei schweren Atomkernen zeigt. Das war umso erstaunlicher, da der mathematische Unterbau der Kernphysik – die Matrizen – eigentlich nichts mit Primzahlen oder der Zetafunktion zu tun hat.
Zufallsmatrizen eröffneten damit eine neue Möglichkeit, die hartnäckige riemannsche Vermutung anzugehen. Denn die Nullstellen der Zetafunktion weisen offenbar ein ähnliches Verhalten auf, wie die fiktiven Energieniveaus von Zufallsmatrizen. Daher könnte es eine Zufallsmatrix geben, deren Energieniveaus den Nullstellen von ζ entsprechen. In der Folge suchten Fachleute nach einem fiktiven Atomkern namens »Riemannium« (zumindest suchten sie nach einer theoretischen Beschreibung davon), dessen Energieniveaus den Nullstellen der Zetafunktion entsprechen. Würde man die Gestalt von Riemannium kennen, dann ließe sich beweisen, dass alle Nullstellen der Zetafunktion auf der kritischen Gerade liegen müssen.
Doch auch 50 Jahre nach der unerwarteten Entdeckung bleibt unklar, was genau Zufallsmatrizen, Atomkerne und Primzahlen miteinander verbindet. Ebenso ist die riemannsche Vermutung, deren Lösung mit einem Preisgeld von einer Million US-Dollar dotiert ist, nach wie vor offen. Das hält die Fachwelt nicht davon ab, es weiter zu versuchen – im Gegenteil. Immer wieder unternehmen Forschende Anstrengungen, um die hartnäckige Vermutung zu knacken. Und wer weiß: Vielleicht kommt die Lösung des größten mathematischen Rätsels ja tatsächlich aus der Physik.
Sie haben auch ein Lieblingsthema zu Mathematik und würden gerne mehr darüber in dieser Kolumne lesen? Dann schreiben Sie es mir gerne in die Kommentare!
Schreiben Sie uns!
7 Beiträge anzeigen