Lexikon der Physik: Geschichte der Physik
Geschichte der Physik
Dieter Hoffmann, Berlin
Anfänge
Die frühen griechischen Theoretiker
Die Physik in dem Sinne, wie sie heute verstanden und betrieben wird, ist ein Kind der Neuzeit. Sie begann sich mit dem 17. Jahrhundert und im Rahmen der wissenschaftlichen Revolution herauszubilden. Allerdings lassen sich schon in den babylonischen und altägyptischen Hochkulturen entwickelte Kenntnisse in praktischer Mechanik und angewandter Mathematik, z.B. für astronomische Kalkulationen und die Kalenderberechnung, nachweisen; auch war bereits die Hebelwaage erfunden, und man besaß ein Maß- und Gewichtssystem. Von einer Wissenschaft von der Natur kann man in dieser Zeitepoche aber noch nicht sprechen. Ihre Begründung erfolgte erst in der griechischen Antike, in der die Physik ein Teil der (Natur-)Philosophie war. Diese fragte nach dem Prinzip bzw. den Prinzipien für eine rationale – im Gegensatz zur bis dahin dominierenden mythischen – Erklärung der bestehenden Ordnung in der materiellen Welt und versuchte die natürlichen Ursachen der Entstehung, Entwicklung und des Aufbaus der Welt aufzudecken. Als ihr Stammvater gilt Thales von Milet (um 600 v.u.Z.). Auf ihn, dem bereits die Anziehungskraft des natürlichen Magnetsteins, wohl auch des geriebenen Bernsteins bekannt war, geht die Idee zurück, daß allem Physischen ein gemeinsamer Urstoff zugrunde liegt. Für Thales war das Wasser das stoffliche Grundprinzip, der Ursprung aller Dinge. Spätere Naturphilosophen wie Empedokles (um 480 v.u.Z.), aber auch Aristoteles (184-322 v.u.Z.), legten die vier Elemente Feuer, Wasser, Luft und Erde dem Bau der Welt zugrunde. Für Pythagoras (um 530 v.u.Z.) und seine Schule war hingegen die Zahl das Wesen aller Dinge. Damit wurden wichtige Grundlagen für eine Mathematisierung der Naturerkenntnis gelegt. Im Zusammenhang mit ihrer Musiklehre entwickelten die Pythagoräer eine mathematische Harmonielehre und, darauf aufbauend, das Monochord, eines der ältesten physikalischen Meßgeräte. Ein weiterer Erklärungsversuch war der Atomismus, den Leukipp (um 500 v.u.Z.) und sein Schüler Demokrit (um 460-370 v.u.Z.) in die Wissenschaft eingeführt hatten. Danach wurde die Vielfalt der Stoffe auf eine große, aber endliche Anzahl von winzigen Urbestandteilen, den Atomen (wörtlich den ›Unteilbaren‹) zurückgeführt. Die Atome sollten sich nur in Gestalt und Größe unterscheiden, absolut undurchdringlich und durch das Leere voneinander getrennt sein. ›Der (landläufigen) Überzeugung nach gibt es Farbe, Süßes, Bitteres, in Wirklichkeit aber nur Atome und Leeres‹, lautete einer der Kernsätze der antiken Atomistik, die aber bei vielen antiken Denkern – nicht zuletzt bei Aristoteles – wegen ihres materialistisch-atheistischen Gehalts auf starke Kritik stieß.
Aristoteles
Aristoteles aus Stagira schuf die umfassendste und einflußreichste Naturlehre der Antike. Auf dessen physiké akróasis (Vortrag über die Natur) geht wahrscheinlich auch die Bezeichnung ›Physik‹ zurück. Bei Aristoteles war Physik in erster Linie die philosophische Erörterung von Begriffen wie Raum, Zeit, Bewegung und Kausalität, und bis ins 18. Jahrhundert hinein umfaßte sie die naturwissenschaftliche Forschung schlechthin. Die aristotelische Physik untersuchte damit auch solche Erscheinungen, die wir heute nicht zur Physik zählen – von der Botanik und Zoologie, Gebiete, die Aristoteles als Wissenschaft begründen half und zu denen er bis heute gültige Erkenntnisse geliefert hat, bis hin zur Psychologie. Für die Physikentwicklung im eigentlichen Sinne war vor allem die aristotelische Bewegungslehre von Bedeutung. Sie unterscheidet zwischen erzwungenen und natürlichen Bewegungen. Bei letzteren streben die Körper nach ihrem natürlichen Ort im Weltall: Erde und Wasser zum Mittelpunkt des geozentrischen Kosmos, und die leichten Elemente seiner Vier-Elemente-Lehre, Feuer und Luft, zur Peripherie der Mondsphäre. Die himmlische Bewegung ist im Gegensatz zur irdischen die vollkommene: sie ist ohne Anfang und Ende und kreisförmig. Erzwungene (irdische) Bewegungen wie der Stoß oder der Fall haben dagegen Anfang und Ende und sind geradlinig oder aus geraden und kreisförmigen Teilen zusammengesetzt. Die Bewegung folgt einem (quasi-dynamischen) Bewegungsprinzip, daß ›Alles, was sich bewegt, von einem Beweger bewegt wird.‹ Zur Erklärung des Wurfes nahm Aristoteles an, daß die horizontale Bewegung eines geworfenen Steines dadurch bewirkt wird, daß die Luft als umgebenes Medium den Stein nach Verlassen der werfenden Hand weitertreibt. Diese Auffassung wurde bereits im frühen Mittelalter in Frage gestellt. Nach Johannes Philoponos (6. Jh. u.Z.), einem christlichen Kommentator der aristotelische Lehre, ist es nicht das umgebende Medium, sondern eine durch den Werfenden mitgeteilte Kraftmenge (impetus), die den Stein weitertreibt; auch kritisierte er die Behauptung der Peripatetiker, daß ein Körper desto schneller falle, je schwerer er ist. Trotz solcher Modifizierungen, an die z.B. die Impetustheorie der mittelalterlichen Scholastik anknüpft, haben Aristoteles' physikalische Ansichten als Folge der allgemeinen Dogmatisierung des peripatetischen Weltbildes die Entwicklung der Physik für nahezu 2000 Jahre geprägt. Im 16. und 17. Jahrhundert ging dann im Rahmen der sogenannten wissenschaftlichen Revolution aus Auseinandersetzungen mit der aristotelischen Lehre die klassischen Physik hervor.
Die Blüte der antiken Physik
Im Hellenismus (etwa 300 v.u.Z. bis 150 u.Z.) erlangte die antike Physik ihren Höhepunkt. Charakteristisch für diese Periode war die Mathematisierung physikalischer Sachverhalte, die Öffnung der Physik für die Lösung praktischer Probleme und die beginnende Ausbildung spezieller Fachdisziplinen; auch gab es in Gestalt des Museion in Alexandria ein Forschungszentrum, in dem erstmals Forschung, einschließlich naturwissenschaftlich-physikalischer Untersuchungen, systematisch betrieben und staatlich finanziert wurde. Die bedeutendsten Leistungen wurden in dieser Zeit in der Mechanik erbracht. So mathematisierte Archimedes (287-212 v.u.Z.) Statik und Hydrostatik, wobei er im Stile Euklids (4. Jh. v.u.Z.) Definitionen, Postulate und Axiome an den Anfang seiner Überlegungen stellte und daraus deduktiv das Hebelgesetz und andere Lehrsätze über Gleichgewichtsbedingungen, den Schwerpunkt oder das spezifische Gewicht ableitete. Daß Archimedes seine rein wissenschaftliche Studien mit praktischer Tätigkeit zu verbinden wußte, machen seine Konstruktionen von Kränen und Katapulten deutlich; inwieweit allerdings die Erfindung des Potentialflaschenzuges, der Wasserschnecke oder der sogenannten Archimedischen Schraube tatsächlich auf ihn zurückgehen, ist historisch nicht eindeutig zu belegen und zweifelhaft. Euklid selbst schuf mit seiner ›Katoptrik‹ die Grundlage der geometrischen Optik, in der man u.a. eine mathematische Theorie der Spiegelung findet und das Reflexionsgesetz bereits fixiert ist. Heron (1. Jh. u.Z.) hat letzteres dann experimentell bewiesen, und durch Claudius Ptolemäus (2. Jh. u.Z.), der bedeutendste Systematiker der antiken Astronomie, wurde experimentell die Refraktion gemessen und die Dioptrik gefördert. Trotz solcher Erfolge spielte das Experiment in der antiken Physik, wie in den Wissenschaften überhaupt, kaum eine Rolle. Allerdings läßt sich in der hellenistischen Periode eine wachsende Vielfalt physikalisch-technischer Errungenschaften konstatieren, die mit ihrer langsam steigenden gesellschaftlichen Wertschätzung einher geht. So konstruierte Ktesibios (um 190 v.u.Z.) eine Feuerspritze, Luftpumpen sowie eine genaugehende Wasseruhr, sein Schüler Philon von Byzanz (um 250 v.u.Z.) entwickelte verschiedene Hebezeuge, und Heron von Alexandria (1.Jh. u.Z.) erfand u.a. Wegemesser sowie Apparate mit Luft-, Wasser- bzw. Dampfantrieb, wobei letztere weniger für praktische als für Kultzwecke genutzt wurden. Die wissenschaftliche Erklärung der zugrundeliegenden mechanischen, hydraulischen und pneumatischen Phänomene blieb zumeist weit hinter den praktischen Fertigkeiten der antiken Erfinder zurück.
Stagnation im Mittelalter
Nach dem Untergang des Römischen Reiches, das den antiken Erkenntnisstand zwar bewahrt, doch kaum weiterentwickelt hatte, wurde das physikalische Wissen der Antike über arabische Quellen in das Mittelalter überliefert. Die Araber selbst trugen zur Weiterentwicklung des physikalischen Wissens vornehmlich auf dem Gebiet der Optik bei. Ibn al-Haitham (lat. Alhazen, 965-1040), der bedeutendste islamische Physiker, beschäftigte sich u.a. mit dem Sehvorgang sowie mit den Gesetzen der Lichtausbreitung und -brechung, und er konnte das Reflexionsgesetz verifizieren. Da hierbei technische Geräte zur Überprüfung physikalischer Hypothesen zielgerichtet eingesetzt wurden, markieren diese Versuche den Übergang zur Experimentalphysik der Moderne. Al-Haithams optische Schriften sind u.a. durch die Arbeiten Roger Bacons (1219-1292) und Vitelos (1230-1275) bis in die Renaissance hinein rezipiert worden, einzelne Spuren lassen sich sogar in den optischen Untersuchungen Johannes Keplers (1571-1630) nachweisen. Die wichtigsten Leistungen islamischer Gelehrter in der Mechanik sind mit praktischen Problemen des Wägens und Messens verbunden – so wurde das hydrostatische Gesetz von Archimedes auf Gegenstände in Luft erweitert, bauten u.a. der Erfinder des Pyknometers al Biruni (973-1050) und al Chazini (Mitte 12. Jh.) Präzisionswaagen, mit denen umfangreiche Tabellen zum spezifischen Gewicht verschiedenster Substanzen erstellt wurden. Im Rahmen der Übersetzung und Kommentierung der aristotelischen Schriften beschäftigte man sich auch mit dessen Bewegungstheorie und der Bewegung geworfener Körper. Die dabei u.a. von Ibn Sina (lat. Avicenna, 980-1037) entwickelten Ideen gehören zu den Vorläufern des Trägheitsgesetzes und gingen in die Überlegungen zur Impetustheorie im europäischen Mittelalters ein.
Das physikalische Denken des europäischen Mittelalters ist vor allem durch eine weitere Durchdringung der Idee des Impetus charakterisiert, die u.a. bei William von Ockham (1285-1349), Johannes Buridan (1295-1358) und Nicolaus von Oresme (1320-1382) zu ersten Ansätzen solcher Begriffe wie gleichförmige und ungleichförmige Bewegung, der Vorstellung von der Proportionalität zwischen Masse und Impuls eines bewegten Körpers und schließlich zu Zweifeln an der Allgemeingültigkeit der aristotelischen Bewegungslehre führten; auch wurde zunehmend die mögliche Existenz eines Vakuums akzeptiert, das die aristoelische Physik ja grundsätzlich ablehnte. Experimentalphysikalisch orientierte Abhandlungen wie Petrus Pegrinus' ›Brief über die Magneten‹ (1269) oder Nicolaus von Cues' ›Versuche mit der Waage‹ (1450) trugen zudem zu einer allmählichen Entwicklung und langsam wachsenden Akzeptanz der experimentellen Forschungsmethode im späten Mittelalter bei.
Aufbruch zur klassischen Physik
Die sozialen und weltanschaulichen Umbrüche der Renaissance (etwa 1450 bis 1600) machten schließlich die Bühne frei für die Entstehung der klassischen Physik. Das Wirken solcher Universalgenies wie Leonardo da Vinci (1452-1519) und der sogenannten Künstler-Ingenieure (Artefici bzw. Virtuosi) führte zu einer zunehmenden Annäherung von handwerklich-praktischer Erfahrung und wissenschaftlicher Erkenntnisgewinnung. Die Aufwertung praktischer Erfahrungen, z.B. bei der Einführung neuer Maschinen, ging einher mit einer wachsenden Wertschätzung des Experiments und der mathematischen Verarbeitung gewonnener Erkenntnisse. Dies ebnete den Weg für ein grundsätzlich neues Wissenschaftsverständnis, das zu einem tiefgreifenden Umschwung der Wissenschaften im 17. Jahrhundert führte. Diese wissenschaftliche Revolution war für die Physik durch eine schrittweise Lösung von den Dogmen der aristotelischen Physik und der Ausbildung der modernen Forschungsmethodik, d.h. einer messenden, experimentierenden und mathematisierten Physik gekennzeichnet. Entscheidende Impulse gingen in diesem Prozeß von der Astronomie aus. Mit der Einführung des heliozentrischen Weltbildes durch Nikolaus Kopernikus (1473-1543) wurde der Sonderstatus der Erde aufgehoben und eine neue Astronomie begründet. Für diese formulierte Johannes Kepler (1571-1630) – unter Verwendung der präzisen Beobachtungsdaten seines Lehrers Tycho Brahe (1546-1601) – die für alle Planeten gültigen kinematischen Bewegungsgesetze. Der Übergang von der Kinematik zur Dynamik und damit zugleich die endgültige Aufhebung des Unterschieds zwischen irdischen und kosmischen Bewegungen füllte das gesamte 17. Jahrhundert. Sein krönender Abschluß wurde durch Isaac Newton (1648-1727) und die Aufstellung eines in sich geschlossenen Systems der Mechanik für Himmel und Erde erreicht. Nicht zufällig waren die führenden Physiker dieser Zeitepoche Kopernikaner, denn sobald man nicht nur die mathematische Theorie, sondern auch die physikalische Realität des kopernikanischen Systems akzeptierte, mußte eine Neubegründung der gesamten Physik erfolgen. Unter den Begründern der neuen Physik und Propagandisten der kopernikanischen Lehre ragte Galileo Galilei (1564-1642) heraus. Seine wichtigste Leistung war die Formulierung der Fall- und Wurfgesetze. Ausgangspunkt der Galileischen Überlegungen war die mittelalterliche Bewegungslehre, insbesondere die Impetustheorie, die er nicht von vornherein verwarf, sondern analog zur Mathematisierung der Statik durch Archimedes zu formalisieren suchte. Schritt für Schritt gelangte er in diesem Prozeß, der fast drei Jahrzehnte umfaßt, zu einer Kinematik der Fall- und Wurfbewegung und zur richtigen Formulierung des Fallgesetzes. Dieses wurde von ihm keineswegs – wie die Legende vielfach behauptet – durch Experimente ermittelt, sondern zunächst hypothetisch-deduktiv abgeleitet. Erst danach schlossen sich gezielte Beobachtungen bzw. Experimente an, mit denen klar formulierte Hypothesen bestätigt und mögliche Störfaktoren bewußt – z.B. durch die Entwicklung neuer Beobachtungs- und Meßinstrumente bzw. Experimentieranordnungen wie die Fallrinne – ausgeschlossen bzw. minimiert wurden. Damit wird der Ausgang eines Experiments und nicht die Meinung von Autoritäten zum Prüfstein der Wahrheit. Galilei kann so als der erste Experimentalphysiker im Sinne der Moderne, ja, als Vater der modernen Naturwissenschaft überhaupt gelten, denn der Aufstieg der mathematisch-experimentellen Methode der Naturwissenschaft wird durch sein Schaffen eingeleitet. Galilei hat seine physikalischen Erkenntnisse wie seine Forschungsmethode in seinem Alterswerk ›Discorsi‹ (1638) dargestellt, das als das erste Lehrbuch der theoretischen Physik gilt. Neben der Bewegungslehre, in deren Rahmen auch das klassische Relativitätsprinzip und erste Überlegungen zur Trägheit eines Körpers entwickelt wurden, wird in den Discorsi – als zweite neue Wissenschaft – die Festigkeitslehre begründet. Über seinen Schüler Evangelista Torricelli (1606-1647), der 1644 das Quecksilberbarometer erfand und erste Experimente zum Vakuum durchführte, hat Galilei auch Einfluß auf die Begründung der Hydrodynamik genommen.
In ganz anderer Weise wurde René Descartes (1596-1650) zum Mitbegründer der naturwissenschaftlichen Moderne. In den ›Principia Philosophiae‹ (1644) begründete er ein Programm der Physik, das die Erscheinungen des Himmels und der Erde auf Bewegungen zurückführte, die von Materiewirbeln, d.h. durch Druck und Stoß, verursacht wurden, und die das gesamte Weltall ausfüllen sollten. Obwohl die cartesische Physik im einzelnen wenig durchgebildet war, faszinierte ihr mechanistischer Ansatz die damaligen Naturforscher und prägte die Physikentwicklung für mehr als ein Jahrhundert. Aus der Vollkommenheit Gottes schlo? Descartes auf Erhaltungssätze physikalischer Größen, z.B. die Erhaltung der Bewegung (mv) beim Stoß, aus der er die Stoßgesetze abzuleiten suchte. Da Descartes den Vektorcharakter des Impulses noch nicht erkannte, vielfach diese Größe auch mit ›Kraft‹ im Sinne von ›Arbeit‹ gleichsetzte, konnte er nur in Ansätzen eine Stoßtheorie liefern. Erst Christiaan Huygens (1629-1695) gelang es, eine gültige Theorie des elastischen Stoßes zu entwickeln. Dabei erkannte er, daß hierbei eine zweite Erhaltungsgröße von Bedeutung ist – das Produkt aus der Masse und dem Quadrat der Geschwindigkeit eines Körpers, wofür G.W. Leibniz (1646-1717) 1686 den Begriff ›lebendige Kraft‹ einführte. Huygens gelang ebenfalls eine weitere Präzisierung des Relativitäts- und Trägheitsprinzips.
Die klassische Mechanik
Die Arbeiten von Kepler, Galilei, Descartes, Huygens und anderen Physikern des 17. Jahrhunderts bildeten die Grundlage für die Vereinheitlichung von irdischer und Himmelsmechanik durch Isaac Newton (1643-1727). Im Zentrum der Newtonschen Physik stehen das universelle Gravitationsgesetz und die drei Newtonschen Gesetze bzw. Axiome der Mechanik, aus denen sowohl die Physik des Himmels (Keplersche Gesetze) als auch die Bewegungsgesetze der irdischen Körper abgeleitet wurden, wobei jeweils ihre Übereinstimmung mit der (experimentellen) Erfahrung verifiziert wurde. Seine Überlegungen und Ergebnisse zur Schaffung eines konsistenten Systems der Mechanik publizierte Newton 1687 in seinem Hauptwerk ›Philosophiae naturalis principia mathematica‹, das zum Prototyp des physikalischen Lehrbuchs und zur Bibel der klassischen Physik wurde. Allerdings war die Anerkennung der Newtonschen Physik zunächst nur in England gesichert, wogegen sie auf dem europäischen Kontinent fast ein halbes Jahrhundert mit dem cartesischen Weltmodell konkurrieren mußte, das den damaligen Physikern sehr viel einleuchtender, weil mechanischer erschien. Danach konnte aber nichts mehr den Siegeszug der Newtonschen Physik aufhalten, und im Laufe des 18. Jahrhundert zeigte diese u.a. durch die mathematische Durchdringung der Gravitationsprobleme – von der Bewegung der Planeten bis zur Behandlung des Dreikörperproblems – ihre erstaunliche Leistungsfähigkeit. Dabei war von großer Bedeutung, daß die theoretische Physik mit der Erfindung der Infinitesimalrechnung – unabhängig durch I. Newton und G.W. Leibniz zwischen 1665 und 1675 – ein Hilfsmittel erhielt, mit der mechanische Probleme allein durch ein System von Differentialgleichungen beschrieben werden konnten. L. Euler (1707-1783), D. Bernoulli (1700-1782), J.L. d'Alembert (1717-1783) und vor allem J.L. Lagrange (1736-1813) mit seiner ›Mecanique analytique‹ (1788) begründeten auf dieser Grundlage im 18. Jahrhundert die analytische Mechanik und machten sie zugleich zu einem Teil der mathematischen Analysis. Im Rahmen ihrer Anwendung auf die Mechanik der Kontinua stellte z.B. Euler die allgemeinen Gleichungen der Hydrodynamik auf, und d'Alembert führte zur Beschreibung des Schwingungsverhaltens einer Saite partielle Differentialgleichungen in die Physik ein. Für mehr als zwei Jahrhunderte wurde die Newtonsche Mechanik zum Modell für die physikalische Erkenntnisgewinnung schlechthin und galt als methodisches Fundament für die gesamte Physik. Allerdings verfügten die anderen Gebiete physikalischer Forschung, in denen qualitative Betrachtungen nach wie vor einen hohen Stellenwert besaßen, für lange Zeit nicht über jene Reife und mathematische Vollkommenheit, die eine Synthese mit der Mechanik möglich gemacht hätte. Hierdurch blieb die Aufspaltung der Physik in separate, mehr oder weniger unabhängig agierende Teilgebiete bis zum 19. Jahrhundert weitgehend erhalten.
Optik – Vom Fernrohr zur Spektralanalyse
Das Zeitalter der Begründung der Mechanik war nicht nur eine Zeit revolutionärer Veränderungen in den theoretischen Grundlagen der Physik, es war auch eine Epoche, in der sich die physikalische Forschung durch die Erfindung solcher Geräte wie des Fernrohrs, des Mikroskops, der Pendeluhr, des Barometers oder der Luftpumpe grundsätzlich neue Erkenntnismöglichkeiten erschloß. Neben der Mechanik war die Optik ein bevorzugter Gegenstand damaliger physikalischer Forschungstätigkeit. Das für die Entwicklung der Optik zentrale Brechungsgesetz wurde bereits um 1620 auf der Grundlage der Brechungstabellen von Vitelo durch W. Snellius (1580-1626) experimentell verifiziert, doch wegen seines frühen Todes findet sich die erste Publikation des Gesetzes erst in Descartes' ›Dioptrique‹ (1637); 1662 bewies Pierre Fermat (1601-1665) auf der Grundlage des von ihm selbst entwickelten Extremalprinzips das Prinzip, daß in der Natur alles auf schnellstem Wege geschieht. Lange Zeit umstritten war, ob sich das Licht mit endlicher Geschwindigkeit oder instantan ausbreitet, und erst O. Rømer (1644-1710) konnte 1676 auf der Grundlage astronomischer Beobachtungen die endliche Ausbreitungsgeschwindigkeit des Lichtes nachweisen. Das Problem der Farben bildete ein weiteres zentrales Forschungsthema der damaligen Zeit, das eng mit der Frage nach der Natur des Lichtes verknüpft war. Huygens hatte in seinem ›Traite de la lumiere‹ (1678) das Licht als Wellenerscheinung aufgefaßt und die Lichtausbreitung mit der des Schalls verglichen. Auf der Grundlage dieser Wellentheorie versuchten u.a. R. Hooke (1635-1703) und R. Grimaldi (1618-1663) die Farben dünner Plättchen und andere Brechungs- und Beugungserscheinungen zu erklären. In teilweise scharfer Auseinandersetzung mit diesen Erklärungsversuchen und auf der Grundlage umfangreicher eigener Experimente zur spektralen Zerlegung des Lichtes in Prismen entwickelte Newton eine korpuskulare Lichttheorie, die in den ›Opticks‹ (1704) publiziert wird. Obwohl Newtons Korpuskulartheorie viele optische Phänomene – z.B. das 1669 erstmals beschriebene Phänomen der Doppelbrechung oder die durch Huygens entdeckte Polarisation – schlecht oder gar nicht erklären konnte, trug der Siegeszug der Newtonschen Mechanik und die daraus resultierende Autorität ihres Schöpfer entscheidend dazu bei, daß die Emissionstheorie des Lichts im 18. Jahrhundert zur dominierenden Lehrmeinung avancierte. Erst zu Beginn des 19. Jahrhunderts wurde die Wellentheorie des Lichts durch Thomas Young (1773-1829) und Antoine Fresnel (1788-1827) neu begründet, und sie trat nun ihrerseits einen beispiellosen Siegeszug an. Zu Youngs wichtigsten Erkenntnissen gehörte das Prinzip der Interferenz, mit dem sich z.B. Erscheinungen wie die Farben dünner Plättchen erklären ließen; auch erkannte er bei der Erklärung der Polarisation die Transversalität des Lichts. An der Wende zum 19. Jahrhundert wurde ebenfalls das Spektrum des Lichts um die Entdeckung der Infrarot- (F.W. Herschel, 1800) und der Ultraviolett-Strahlen (J.W. Ritter, 1801) erweitert. Anknüpfend an die Entdeckung der sogenannten Fraunhoferschen Linien im Sonnenspektrum (1816), setzt in der zweiten Hälfte des 19. Jahrhunderts mit den Arbeiten Gustav Robert Kirchhoffs (1824-1887) und Robert Bunsens (1811-1899) die Entwicklung der Spektralanalyse ein, die zur Jahrhundertwende einen wichtigen Grundstein für die Entwicklung der modernen Atomphysik bildet.
Elektrizität und Magnetismus
Elektro- und Magnetostatik
Mit der Zunahme der Entdeckungsfahrten und der damit einhergehenden wachsenden Verwendung und Verbreitung des Kompasses erfuhren magnetische Erscheinungen seit dem 16. Jahrhundert eine verstärkte Aufmerksamkeit. In William Gilberts ›De Magnete‹ (1600) fand das Gebiet eine erste zusammenfassende Beschreibung, wobei das Buch zugleich ein Dokument der neuen physikalischen Forschungsmethode ist und zu den klassischen Werken der Physikgeschichte gehört. Obwohl elektrische und magnetische Erscheinungen zunächst häufig miteinander verwechselt wurden, blieben sie bis zum Ende des 18. Jahrhundert weitgehend unverbundene Erscheinungen. Gefördert durch das breite Bildungsinteresse der Aufklärung, nahm insbesondere die Elektrizitätslehre im Laufe des 17. Jahrhunderts einen gewaltigen Aufschwung und entwickelte sich zu einem eigenständigen Wissenszweig sowie zu einem Beispiel für experimentalphysikalische Forschung par excellence. Die Art und Weise des elektrischen Experimentierens wurde zu einem attraktiven Vorbild auch für andere Bereiche der Physik, und sie gab Anlaß für spektakuläre Aufführungen an den Höfen und in der Öffentlichkeit. Einen ersten Abschluß fand die Entwicklung der Elektrizitätslehre und des Magnetismus im ausgehenden 18. Jahrhundert mit der begrifflichen Klärung solcher Grundgrößen wie elektrischer Leitfähigkeit, Ladungsmenge oder Spannung sowie die Formulierung der Gesetze der Elektro- und Magnetostatik durch Henri Cavendish (1731-1810) und Charles Augustin de Coulomb (1736-1806). Mit den Arbeiten von Simeon Poisson (1781-1840), George Green (1793-1841) und Carl Friedrich Gauß (1777-1855) erreichten Elektro- und Magnetostatik schließlich in der ersten Hälfte des 19. Jahrhunderts hinsichtlich ihrer mathematischen Durchdringung den gleichen Grad der Vollkommenheit wie die Mechanik und erhielten ihre bis heute gültige Form.
Die Entdeckung einer vermeintlichen tierischen Elektrizität durch Luigi Galvani (1737-1798) und die daran anknüpfenden Arbeiten von Alessandro Volta (1745-1827) mit der Erfindung der sogenannten Voltaschen Säule, d.h. des Prototyps einer Batterie, eröffneten der Elektrizitätslehre an der Wende zum 19. Jahrhundert neue Entwicklungsmöglichkeiten, da nun sehr viel leistungsfähigere und auch konstante Stromquellen zur Verfügung standen als die bisher üblichen Elektrisiermaschinen und Entladungsflaschen/Kondensatoren (Leidener Flasche, 1745), so daß nun auch die Gesetzmäßigkeiten dauernd fließender Entladungsströme untersucht werden konnten. Im Jahre 1826 schloß Georg Simon Ohm (1789-1854) seine Untersuchungen zur Bestimmung des Widerstandes eines Stromkreises ab und formulierte das nach ihm benannte Gesetz für die Stromleitung. Dieses war sowohl für die Theoriebildung in der Elektrizitätslehre wie für die Entwicklung von Drahttelegrafie elektrischer Meßtechnik und anderer technischer Anwendungen der Elektrizität von grundlegender Bedeutung. Die Ohmsche Theoriebildung wurde von Gustav Robert Kirchhoff (1824-1887) zu den allgemeinen Gesetzen der Stromverzweigung (1845) weitergeführt.
Elektromagnetismus – Triumph der Feldtheorie
Mit der Entdeckung des Elektromagnetismus (1820) durch H.C. Ørsted (1777-1851) erfuhr die Entwicklung der Elektrizitätslehre eine völlig neue Richtung. Ørsteds Nachweis der Ablenkung einer Magnetnadel durch den elektrischen Strom nahm André Marie Ampère (1775-1836) zum Ausgangspunkt, um die Wechselwirkung von Strömen generell zu untersuchen und hierfür im Jahre 1827 eine mathematische Theorie des Elektromagnetismus zu liefern, deren Vorbild die analytischen (Fernwirkungs-)Theorien der Newtonschen Mechanik und Coulombschen Elektrostatik waren. Die erste Entwicklungsphase der Elektrodynamik wurde durch Michael Faraday (1791-1867) abgeschlossen. Mit seiner Vorstellung von (elektrischen und magnetischen) Kraftlinien entwickelte er nicht nur ein anschauliches Modell des Elektromagnetismus, sondern seine Idee war zugleich der Anfang der Entwicklung physikalischer Feldtheorien, die zur Brechung der Dominanz der Newtonschen Fernwirkungstheorien führten. Sein experimentelles Genie entdeckte zudem 1831 die elektromagnetische Induktion, Grundlage für die Entwicklung von Nachrichten- und Starkstromtechnik, die Gesetze der Elektrolyse (1834) sowie die Drehung der Polarisationsebene des Lichtes im Magnetfeld (1845). Seiner Grundüberzeugung vom inneren Zusammenhang aller Naturkräfte folgend, stellte Faraday auch umfangreiche, aber vergebliche Experimente zur Beeinflussung der Spektralinien durch ein Magnetfeld an. Versuche, die noch weitgehend qualitativen Faradayschen Ideen in eine präzise mathematische Form und konsistente elektrodynamische Theorie zu bringen, mündeten in die Arbeiten von James Clerk Maxwell (1831-1879). Ihm gelang 1861/62 die Formulierung der Feldgleichungen der Elektrodynamik, aus denen sich als Lösung transversale elektromagnetische Wellen herleiten lassen – mit einer Fortpflanzungsgeschwindigkeit, die mit der des Lichtes identisch ist, so daß man auf den inneren Zusammenhang beider Phänome schloß. Damit verschmolzen Optik und Elektrodynamik, und eine weitere Synthese physikalischer Theorien war erreicht. Der experimentelle Nachweis der postulierten elektromagnetischen Wellen gelang 1887 Heinrich Hertz (1857-1894), der auch 1884 den Maxwellschen Gleichungen ihre heute übliche Form gegeben hat.
Thermodynamik – vom Wärmestoff zur statistischen Mechanik
Völlig neu erschlossen wurde im 17. und 18. Jahrhundert die Wärmelehre, die sich in dieser Zeit vor allem mit ihren begrifflichen Grundlagen beschäftigte. Nachdem die Entwicklung des Thermometers im 17. Jahrhundert das Messen in der Wärmelehre überhaupt erst ermöglicht hatte, führten in der Mitte des 18. Jahrhunderts Untersuchungen Joseph Blacks (1728-1799) über den Wärmeaustausch und die Temperaturerhöhung von Körpern zur Einführung des Begriffs der spezifischen Wärme und damit erstmalig zu einer begrifflichen und meßtechnischen Unterscheidung der Größen Temperatur und Wärmemenge. Die Frage nach dem Wesen der Wärme wurde von Black und vielen seiner Zeitgenossen auf der Grundlage eines speziellen Wärmestoffes beantwortet, der beim Wärmeaustausch von den Körpern aufgenommen bzw. abgegeben werden sollte. Eine solche Hypothese wurde zusätzlich dadurch gestützt, daß auch andere Gebiete der Physik – von den magnetischen und elektrischen Fluida bis hin zum Lichtäther – und nicht zuletzt die Phlogistontheorie der Verbrennung mit ähnlichen Inponderabilien operierten. Einen bedeutenden Erfolg, der zugleich die Grenzen ihrer Leistungsfähigkeit zeigte, erzielte die Wärmestofftheorie durch Joseph Fourier (1768-1830), der auf der Grundlage dieser Hypothese seine mathematische Theorie der Wärmeleitung im 1822 erschienenen Buch ›Theorie analytique de chaleur‹ entwickelte; dort findet man im übrigen auch die seinen Namen tragende Reihenentwicklung. Mit den Versuchen Graf Rumfords (1753-1814) und Humphrey Davys (1778-1829) zur Entstehung von Wärme durch Reibung, vor allem jedoch durch die Abkehr der Chemie von der Phlogistontheorie wurde an der Wende zum 19. Jahrhundert der allmählichen Lösung von der Stofftheorie und der Hinwendung zur kinetischen Wärmetheorie der Weg bereitet, wobei letztere schon im 17. und 18. Jahrhundert in Robert Boyle (1627-1691), Daniel Bernoulli (1700-1782) und Leonard Euler (1707-1783) kompetente Fürsprecher besaß. Um 1800 wurden ebenfalls die allgemeinen Zustandsgleichungen der Gase durch Joseph-Louis Gay-Lussac (1778-1850), John Dalton (1766-1844), Benoit Clapeyron (1799-1864) und andere aufgestellt, nachdem dazu bereits im ausgehenden 17. Jahrhundert, im Zusammenhang mit der Entwicklung präziser Gasthermometer, durch R. Boyle, Edme Mariotte (1620-1684) und Guillaume Amontons (1663-1705) wichtige Vorleistungen erbracht worden waren. Ebenfalls an der Wende zum 19. Jahrhundert führte die Entwicklung und industrielle Nutzung der Dampfmaschine zu einer intensiven Wechselwirkung von Theorie und Praxis in der Wärmelehre, und es wurde dabei die Methode der Beschreibung von Wärmeprozessen mit Hilfe vollständiger Kreisprozesse geschaffen. Ihr Schöpfer war N.L. Sadi Carnot (1796-1832), dem bei seinem Studium der Arbeitsweise von Wärmekraftmaschinen und der Bestimmung ihres Wirkungsgrades auch die Berechnung des mechanischen Wärmeäquivalentes gelang. Infolge seines frühen Todes blieben seine Resultate zunächst unveröffentlicht und verzögerten die Rezeption seiner revolutionären Ideen für Jahrzehnte. Die Carnotschen Arbeiten bilden nicht nur die Grundlage für die Definition einer absoluten (thermodynamischen) Temperaturskala durch William Thomson (Lord Kelvin, 1824-1907), sie gehören auch zur Vorgeschichte der Entdeckung des Energieprinzips.
Bereits im 18. Jahrhundert hatte sich die Einsicht durchgesetzt, daß es unmöglich ist, ein perpetuum mobile mechanisch zu konstruieren. An der Wende zum 19. Jahrhundert wurden weitere Bereiche der Physik und Technik, namentlich Wärmelehre und Dampfmaschinenentwicklung, in energetische Betrachtungen einbezogen, und es entwickelte sich langsam die Überzeugung, daß auch andere Energieformen äquivalent ineinander überführbar seien. Neben Carnot kamen Forscher wie Faraday der Formulierung eines allgemeinen Energiesatzes sehr nah. Der letzte und entscheidende Schritt wurde in den vierziger Jahren vor allem durch Julius Robert Mayer (1814-1878), James Prescot Joule (1818-1889) und Hermann von Helmholtz (1821-1894) vollzogen. Ausgehend von physiologischen Beobachtungen gelangte Mayer im Jahre 1842 als erster zur expliziten Formulierung eines universell gültigen Energieerhaltungssatzes; im gleichen Jahr gelang ihm auch die richtige Berechnung des mechanischen Wärmeäquivalentes. Joules Verdienst ist es, ab 1843 in einem großangelegten Programm systematisch die verschiedenen Wärmeäquivalente experimentell bestimmt und daraus das Energieprinzip gefolgert zu haben. Helmholtz gab dem Prinzip schließlich 1847 eine mathematisch durchgearbeitete und allgemeine Form und analysierte damit die Gesamtheit der physikalischen, chemischen und physiologischen Erscheinungen. Alle drei Forscher, die ihre Überlegungen weitgehend unabhängig voneinander angestellt hatten, stießen mit ihren Resultaten zunächst bei ihren Kollegen auf Ablehnung bzw. Ignoranz. Erst in den fünfziger Jahren änderte sich die Situation, und die Physik beschäftigte sich zunehmend mit der Verallgemeinerung des Prinzips und machte es zu einem zentralen Bestandteil von Naturwissenschaft und Technik. Im Rahmen dieser Beschäftigung wurde sehr schnell klar, daß man mit dem Energiesatz keine Aussage über die Richtung der Wärmeprozesse treffen kann. Diese Lücke in der theoretischen Fundierung der Wärmelehre wurde 1850 bzw. 1851 unabhängig voneinander durch Rudolf Clausius (1822-1888) und W. Thomson (Kelvin) mit der Formulierung des sog. zweiten Hauptsatzes der Wärmelehre geschlossen; 1865 prägte Clausius für die Zustandsfunktion dieses Hauptsatzes den Begriff Entropie. Die Entdeckung des Energieprinzips führte auch zu einer Wiederbelebung der kinetischen Gastheorie und damit zur Forderung, die zunächst phänomenologisch entwickelte Thermodynamik auf den Grundlagen der statistischen Mechanik, d.h. mit Hilfe der Prinzipien der Mechanik, zu begründen. August Krönig (1822-1879), Clausius, Maxwell und Ludwig Boltzmann (1844-1906) leisteten dies in der zweiten Hälfte des 19. Jahrhunderts und gaben der kinetischen Gastheorie ihre moderne und mathematisch durchgebildete Form.
Abschluß der klassischen Physik und Institutionalisierung
Mit der Entdeckung des Energieprinzips, der Entwicklung der Thermodynamik zu einer kinetischen Theorie der Materie sowie der Faraday-Maxwellschen Elektrodynamik hatte die Physik im ausgehenden 19. Jahrhundert ihre klassische Form gefunden und eine Vereinheitlichung erfahren, die die ursprünglich voneinander getrennten Teilgebiete der Physik zusammenschloß. Je nachdem, welcher Disziplin man den Status einer Leitdisziplin zubilligte, war man davon überzeugt, daß es prinzipiell möglich sein sollte, das gesamte Naturgeschehen auf mechanischer Grundlage, im Rahmen eines elektromagnetischen Weltbildes oder des Energetismus zu konstruieren.
Man war der Überzeugung, daß sich auch alle künftigen Erfahrungen und Erkenntnisse ohne größere Probleme und Änderungen in den Grundlagen der Physik in diesen Rahmen würden einordnen lassen. Die Physik schien – ähnlich der Geometrie – eine voll ausgereifte und abgeschlossene Wissenschaft zu sein, so daß man die Zukunft der Physik nicht in der Suche nach grundsätzlich Neuem, sondern in der Verfeinerung der theoretischen und experimentellen Methoden, in der Messung der n-ten Dezimalen der einschlägigen physikalischen Größen sah. Die Klassizität und Omnipotenz der Physik wurde zusätzlich dadurch unterstrichen, daß sie zunehmend zu einer Leitdisziplin für die gesamte Naturwissenschaft wurde und ihre Ergebnisse und Methoden wachsende Anwendung in anderen Gebieten der Naturwissenschaften und Technik fanden, was zur Herausbildung neuer, interdisziplinärer Fachrichtungen wie der Astro-, Geo- und Biophysik, der physikalischen Chemie, aber auch von Elektrotechnik und Elektronik führte. In enger Wechselwirkung mit diesen disziplinären Differenzierungsprozessen entwickelten sich im ausgehenden 19. Jahrhundert in Gestalt von Elektroindustrie und optischen Gerätebau auch die ersten physikbasierten Industriezweige. Parallel zum Prozeß der Etablierung der klassischen Physik vollzog sich die Ausgestaltung ihres institutionellen Rahmens. An den Universitäten wurden seit dem 18. Jahrhundert spezielle Lehrstühle für Physik, im letzten Drittel des 19. Jahrhunderts zusätzlich eigenständige für mathematische bzw. theoretische Physik (Berlin, 1874) eingerichtet, und an der Wende zum 20. Jahrhundert kam es zudem zur Gründung der ersten außeruniversitären Stätten physikalischer Forschung (Physikalisch-Technische Reichsanstalt Berlin, 1887); auch die Einrichtung der ersten Industrielaboratorien fällt in diese Zeit (Siemens, 1873). Diese Gründungen weisen nicht nur den Weg zu den Großforschungseinrichtungen der Moderne, sondern etablieren auch ein grundsätzlich neues Berufsbild des Physikers, entkoppeln es vom universitären Bereich und der akademischen Lehre, was im 20. Jahrhundert zu einem gravierenden Wandel der Physikausbildung und zu einem rapiden Wachstum der Physikerpopulation führt. Ebenfalls bilden sich im 19. Jahrhundert die modernen Kommunikationsformen der Disziplin heraus – es kommt zur Gründung eigener physikalischer Fachgesellschaften (Physikalische Gesellschaft zu Berlin, 1845) und Fachzeitschriften (Journal bzw. Annalen der Physik, 1790; Philosophical Magazine, 1798; Physikalische Zeitschrift, 1899) sowie zur Herausgabe spezieller Lehr- und Handbücher.
Neuer Aufbruch im 20. Jahrhundert:
Quantentheorie – von der Hohlraumstrahlung zur Quantenelektrodynamik
Mit einer Reihe experimenteller Entdeckungen findet das Zeitalter der klassischen Physik an der Wende zum 20. Jahrhundert seinen Ausklang, und der Weg zur modernen Physik wird eröffnet. Die Entdeckung der Röntgenstrahlen (1895), des Zeeman-Effektes (1896), der Radioaktivität (1896) und des Elektrons (1897), die alle nicht mit den Hilfmitteln der klassischen Physik zu erklären waren, mehrten die Zweifel der zeitgenössichen Physiker, ob die Physik tatsächlich eine in ihren Grundlagen abgeschlossene Wissenschaft sei. Parallel zu diesen experimentellen Forschungen und Entdeckungen wies auch die theoretische Physik auf Lücken und Widersprüche im so festgefügt scheinenenden Weltbild der klassischen Physik hin. Beim Versuch, aus Messungen zur spektralen Energieverteilung der Hohlraumstrahlung ein gültiges Strahlungsgesetz abzuleiten, wird Max Planck (1858-1947) im Herbst 1900 zum Schluß geführt, daß die Strahlungsenergie nicht kontinuierlich, sondern nur in diskreten Portionen emittiert bzw. absorbiert wird. Obwohl dies die Geburtsstunde der Quantentheorie war, haben weder Planck noch seine Zeitgenossen sofort die revolutionäre Tragweite der Energiequantenhypothese erkannt. 1905 ist es Albert Einstein (1879-1955), der als erster die Plancksche Idee verallgemeinert und mit seiner Lichtquantenhypothese den nächsten Schritt wagt. Erst ab 1911 rückte eine systematische Suche nach weiteren Quantenphänomenen in den Vordergrund der physikalischen Forschung. Den endgültigen Durchbruch brachte die Atomtheorie von Niels Bohr (1885-1962) im Jahre 1913, der das Kernmodell des Atoms von Ernest Rutherford (1871-1937) aufgriff und mit dem Planckschen Wirkungsquantum verknüpfte. Um den Preis gravierender Widersprüche zur Newtonschen Mechanik und Maxwellschen Elektrodynamik lieferte die Bohrsche Theorie nicht nur eine Erklärung für die Stabilität des Atoms, auch konnten mit Hilfe des Modells die Balmer-Serie und die Rydberg-Konstante berechnet und damit erstmals eine theoretische Grundlage im Wirrwar der spektroskopischen Daten gefunden werden. 1915/16 wird die Bohrsche Theorie durch Arnold Sommerfeld (1868-1951) verfeinert, so daß die Feinstruktur des Wasserstoffspektrums sowie der Zeeman- und Stark-Effekt erklärt werden können. Der Höhepunkt in der Entwicklung der Bohrschen Atomtheorie wird 1922 mit Bohrs Versuch einer physikalischen Deutung des Periodensystems der Elemente erreicht; eine endgültige Erklärung gelingt aber erst mit der Entdeckung des Ausschließungsprinzips (W. Pauli, 1924) und des Elektronenspins (S. Goudsmit, G. Uhlenbeck, 1925). Trotz der Erfolge der Bohrschen Theorie befriedigte ihre Vermischung klassischer und quantentheoretischer Prinzipien immer weniger, wurden auch die Grenzen ihrer Leistungsfähigkeit immer deutlicher, so daß insbesondere von der jüngeren Physikergeneration ein grundsätzlich neuer Ansatz zur Lösung des Dilemmas gesucht wurde. Eine Verschärfung des Bohrschen Ansatzes brachte schließlich im Jahre 1925 die Matrizenmechanik von Werner Heisenberg (1901-1976), die nur ›prinzipiell beobachtbare Größen‹ zur Grundlage einer Atommechanik machte; gemeinam mit Max Born (1882-1970) und Pascual Jordan (1902-1980) wurde noch im selben Jahr eine geschlossene mathematische Beschreibung der Theorie geliefert. Ein zweiter Entwicklungsstrang der Quantentheorie, der fast gleichzeitig ebenfalls eine Lösung für das Quantenrätsel lieferte, ging von Einsteins Lichtquantenhypothese aus. Einstein selbst hatte zwar seine Hypothese schon 1916 zu einer Quantentheorie der Strahlung weitergeführt und auf die Fundamentalität des Welle-Teilchen-Dualismus des Lichtes hingewiesen, doch folgten ihm seine Physikerkollegen nur zögernd. Ein grundsätzlicher Wandel bahnte sich nach der Entdeckung des Compton-Effektes (1922) an, dessen Erklärung nur mit Hilfe der Einsteinschen Lichtquantenhypothese möglich war. Den entscheidenden Durchbruch vollzog aber Louis de Broglie (1892-1987), der in seiner Dissertationschrift (1924) die Dualität des Lichtes auf die gesamte Materie verallgemeinerte. Eine glänzende Bestätigung erfuhr die de Brogliesche Idee der Materiewellen durch die Beugungsexperimente mit Elektronen (C. Davisson, L. Germer, G. Thomson, 1927), vor allem aber durch die Wellenmechanik von Erwin Schrödinger (1887-1961). Letztere lieferte 1926 eine unabhängige Lösung für die Rätsel der Atommechanik, wobei Schrödinger selbst sehr schnell deren mathematische Äquivalenz zur Heisenbergschen Matrizenmechanik nachweisen konnte. Max Born schlug schließlich 1926 eine wahrscheinlichkeitstheoretische Deutung der Wellenfunktion der Schrödinger-Gleichung vor. Zusammen mit der Heisenbergschen Unschärferelation, die an die Stelle des klassischen Determinismus trat, sowie dem Bohrschen Komplementaritätsprinzip, das die Gleichberechtigung sich gegenseitig ausschließender Betrachtungsweisen wie z.B. Welle und Teilchen herausstellt, waren nun die wichtigsten theoretischen Grundlagen für ein Verständnis all jener atomarer Phänome geschaffen worden, die im ersten Viertel unseres Jahrhunderts die Physiker so bewegt hatten: die Herausbildungsphase der Quantenmechanik fand damit faktisch ihren Abschluß und ihren bis heute gültigen, wenn auch nicht unwidersprochenen Interpretationsrahmen. Parallel zu diesen Entwicklungen begann man, die Quantenmechanik auch auf die elektromagnetische Strahlung anzuwenden und die Quantenfeldtheorie zu entwickeln. Der erste Abschnitt in der Entwicklung der Quantenelektrodynamik wird durch Arbeiten von Dirac, Jordan, Pauli, Klein, Fock und Podolsky geprägt und fand zu Beginn der dreißiger Jahre ihren ersten Abschluß; ein zweiter Schritt in Richtung einer konsistenten Theorie wurde in den vierziger Jahren unabhängig voneinander durch Shin-Ichiro Tomonaga (1906-1979), Julian Schwinger (1918-1994), Richard Feynmann (1918-1988) und Freeman Dyson (geb. 1923) vollzogen.
Quantentheorie – Anwendungen nach 1930
Ausgang der zwanziger Jahre setzte auf breiter Front eine Ausdehnung des Anwendungsbereichs der quantenmechanischen Methoden ein, die von der Berechnung des Heliumatoms über die theoretische Deutung von Magnetismus, chemischer Bindung und der Rolle der Elektronen im festen Körper (Metall- und Halbleitertheorie) bis hin zur Erklärung der Vorgänge im Innern der Sterne reichte. Darüber hinaus wurden sehr bald auch Teile der Biologie (Molekularbiologie) sowie Gebiete wie die Supraleitung und die Kernphysik in den Gültigkeitsbereich der Quantentheorie einbezogen. Die Supraleitung wurde im Jahre 1911 durch Heike Kamerlingh-Onnes (1853-1926) entdeckt und hatte sich trotz weiterer großer experimenteller Erfolge bei der Erzeugung immer tieferer Temperaturen, dem Nachweis supraleitender Stoffe und der Entdeckung wichtiger Effekte (Meißner-Ochsenfeld-Effekt, 1933) lange einer konsistenten theoretischen Erklärung entzogen – 1935 stellten Fritz und Heinz London eine phänomenologische Theorie auf, und erst 1957 liefern J. Bardeen, L. Cooper und J.R. Schrieffer eine gültige mikroskopische Theorie der Supraleitung. Die seit den vierziger Jahren erfolgende Etablierung der Festkörperphysik als einer speziellen Querschnittsdisziplin, zu der auch die Supraleitungsforschung gehört, war einerseits durch die Entwicklung der theoretischen Grundlagen – z.B. des Wilsonschen Bändermodells, 1931 – aber mehr noch durch die Entwicklung neuer Untersuchungsmethoden (z.B. Elektronenmikroskopie seit den dreißiger Jahren), neuartiger, hochreiner Materialien sowie durch Erfindungen geprägt, unter denen der Transitor (W. Shockley, J. Bardeen, W. Brattain, 1947) und der Laser (T.H. Maiman, 1960) herausragen, weil sie den Ausgangspunkt von moderner Mikroelektronik und Lasertechnik mit ihren vielfältigen Anwendungsmöglichkeiten markieren.
Vom Atomkern zu den Elementarteilchen – Quark-Modell und Atombombe
Die Kernphysik ging aus der Erforschung radioaktiver Phänomene hervor. Ihr großer Pionier war Ernest Rutherford, und ihm und seiner Schule verdankt das Gebiet die wichtigsten Entdeckungen – vom Rutherfordschen Atommodell über effektive Nachweismethoden für radioaktive Teilchen (Geiger-Zähler, 1908ff; Wilson-Kammer, 1912; Astonscher Massenspektrograph, 1919) und bis hin zum Isotopiebegriff (Soddy, 1913) und der ersten künstlichen Kernreaktion (Rutherford, 1920). Auch jene Entdeckung, die für die Etablierung der Kernphysik als eigenständige Wissenschaftsdisziplin konstitutiv werden sollte, geht auf einen Schüler Rutherfords zurück – die Entdeckung des Neutrons durch James Chadwick (1891-1974) im Jahre 1932. Mit der Entdeckung des Neutrons ergab sich nicht nur eine neues Konzept des Kernaufbaus (W. Heisenberg, D. Iwanenko, 1932), zugleich war damit eine ›Sonde‹ für das Studium der Vorgänge im Atomkern gefunden. Andere wichtige kernphysikalische Entdeckungen in dieser Zeit waren der Nachweis der künstlichen Radioaktivität (F. und I. Joliot-Curie, 1934), die Neutrino-Hypothese (W. Pauli, 1931) und die Theorie des Betazerfalls (E. Fermi 1934). Letztere war auch Anlaß für die Hypothese einer neuen Wechselwirkungsart, der sogenannten schwachen Wechselwirkung, deren ungewöhnlichste Eigenschaft die Paritätsverletzung (C.N. Yang, T.D. Lee, 1955) ist. Die Theorie der schwachen Wechselwirkung war für H. Yukawa (1907-1981) der Anlaß, 1935 eine Theorie der starken Wechselwirkung, Ursache für die Stabilät des Atomkerns, zu entwickeln. Diese Arbeiten führten bereits in das Gebiet der Elementarteilchenphysik, das sich in den vierziger Jahren von der Kernphysik abzuspalten begann. Voraussetzung hierfür war, daß man mit der Entwicklung immer leistungsfähigerer Beschleuniger und empfindlicher Detektoren, wie z.B. des Zyklotrons (E.O. Lawrence, 1930) oder der Blasenkammer (R. Glaser, 1952), künstliche Quellen zur Erzeugung hochenergetischer Teilchen für die Forschung einsetzen und sich so von der Untersuchung der Höhenstrahlung unabhängig machen konnte. Sehr schnell stieg ab den vierziger Jahren die Zahl neu entdeckter Elementarteilchen an, und es wurde nötig, sie nach einem Ordnungsschema zu klassifizieren. Die in diesem Zusammenhang entwickelte Theorie der Quarks (Y. Ne'eman, M. Gell-Mann, 1961) bildet eine Grundlage für das heute gültige Standardmodell der Elementarteilchenphysik. Ein anderes wichtiges Ergebnis unseres physikalischen Verständnisses des Aufbaus der Welt waren die Fortschritte, die seit den sechziger Jahren bei der Vereinheitlichung der verschiedenen Wechselwirkungsarten gemacht wurden (u.a. S. Weinberg, A. Salam, S. Glashow).
Ganz in den Bereich der klassischen Kernphysik fällt der Nachweis und die theoretische Deutung der Uran-Kernspaltung (O. Hahn, F. Straßmann, L. Meitner, O.R. Frisch, 1938), die die Grundlage für die Entwicklung der Atombombe im Rahmen des amerikanischen Manhattan-Projektes war. Der Abwurf der ersten Atombombe auf Hiroshima und Nagasaki im August 1945 markiert den Sündenfall der modernen Physik und rückte die Physik ins Blickfeld einer breiten Öffentlichkeit. Aus der Atombombenentwicklung hat sich nach dem zweiten Weltkrieg auch die friedliche Nutzung der Kernnergie entwickelt. Sie ist einerseits durch die Entwicklung immer leistungsfähiger Reaktortypen, aber auch durch eine immer kritischer werdende öffentliche Diskussion um die Gefahren der Kernenergie geprägt.
Die Realativitätstheorie
Die zweite Rahmentheorie der modernen Physik, die Relativitätstheorie, entstand wie die Quantentheorie in den Jahren der Jahrhundertwende. Ihr Ausgangspunkt waren Widersprüche und offene Fragen, die sich im Rahmen der Maxwellschen Elektrodynamik ergeben hatten. Eine besondere Schwierigkeit war, die Existenz eines Äthers, der ja der Träger des Lichtes und aller anderen elektromagnetischen Erscheinungen sein sollte, zu rechtfertigen, da er mit keinerlei Experimenten (z.B. Michelson-Morley-Versuch, 1881ff) nachzuweisen war. Um eine theoretische Begründung dieses Faktums hatte sich im ausgehenden 19. Jahrhundert u.a. H.A. Lorentz (1853-1928) bemüht, der zur Lösung des Dilemmas in der Maxwellschen Elektrodynamik die klassische Galilei-Transformation durch die sogenannte Lorentz-Transformation ersetzte und damit das negative Ergebnis des Michelson Versuchs, die Konstanz der Lichtgeschwindigkeit in allen Bezugssystemen, berücksichtigt hatte. Einstein beließ es nun nicht bei einer Beschränkung auf Maxwellsche Elektrodynamik und Lorentzsche Elektronentheorie, sondern verknüpfte in seiner Abhandlung ›Zur Elektrodynamik bewegter Körper‹ (1905) die Ersetzung der Transformationsgruppen mit der Einführung neuer Begriffe von Raum und Zeit, insbesondere eines neuen Begriffs der Gleichzeitigkeit. Dies ermöglichte ihm die Ausdehnung des Galileischen Relativitätsprinzips der Mechanik auf die gesamte Physik und begründete die sogenannte Spezielle Relativitätstheorie, die H. Minkowski zum Ausgangspunkt für die Entwicklung eines vierdimensionalen Raum-Zeit-Kontinuums (1908) nahm. Die Spezielle Relativitätstheorie war auf Inertialsysteme beschränkt, doch bemühte sich Einstein seit 1907 um eine Verallgemeinerung und suchte die Grundlagen für eine relativistische Gravitatiosntheorie zu legen. Ausgehend von der empirisch gesicherten Gleichheit von träger und schwerer Masse, war seine Leitidee das sogenannte Äquivalenzprinzip, nach dem ein gleichförmig beschleunigtes Bezugssystem und ein Inertialsystem mit einem homogenen statischen Gravitationsfeld als äquivalent angesehen werden könne. Auf dieser Grundlage konnte Einstein bereits 1912/13 mit Hilfe seines Freundes Marcel Grossmann die im wesentlichen korrekten Feldgleichungen der Gravitation ableiten, die er jedoch zunächst wieder verwarf, weil ihm ihre physikalische Interpretation nicht gelang. 1915 kehrte er zu ihnen zurück und vollendete die Formulierung der Allgemeinen Relativitästheorie. In dieser ergibt sich das Newtonsche Gravitationsgesetz als erste Näherung eines umfassenderen Gesetzes, das eine quantitative Erklärung der sogenannten Periheldrehung des Merkur lieferte, die den Astronomen schon lange ein Rätsel aufgeben hatte. Darüber hinaus macht die Einsteinsche Gravitationstheorie Vorhersagen zu anderen nichtklassischen Effekten, wie der spektralen Rotverschiebung im Gravitationsfeld oder der Lichtablenkung im Schwerefeld der Sonne. Sie konnten durch Beobachtungen im wesentlichen bestätigt werden, so daß man von der grundsätzlichen Richtigkeit der Allgemeinen Relativitätstheorie ausgehen kann. Die Einsteinsche Theorie wurde auch auf kosmologische Fragen angewendet, und 1922 wies A. Friedmann (1888-1925) auf die Möglichkeiten eines expandierenden Kosmos hin. E. Hubble (1889-1953) beobachtete daraufhin die Fluchtbewegung von Galaxien (1929), und überhaupt läßt sich feststellen, daß sich auf dieser Grundlage Beobachtungen wie die kosmische Hintergrundstrahlung oder die kosmologische Rotverschiebung plausibel erklären lassen. Ausgehend von der Allgemeinen Relativitätstheorie haben Einstein, Schrödinger und andere Physiker des 20. Jahrhunderts nach einer einheitlichen Feldtheorie gesucht, die die Gravitationstheorie mit der Elektrodynamik verknüpfen soll.
Diese Bemühungen, wie auch die Suche der zeitgenössischen Physik nach einer Theorie, die die Gravitation mit den drei anderen Feldern vereinigt, sind bisher ohne durchschlagenden Erfolg geblieben, da es u.a. nicht gelang, Quantenmechanik und Allgemeine Relativitätstheorie widerspruchsfrei zu verknüpfen. Die Verwirklichung des uralten Traums der Physiker, alle Naturgesetze zu vereinheitlichen und somit auf eine ›Weltformel‹ zu reduzieren, steht weiterhin auf der Tagesordnung der aktuellen physikalischen Forschung. Letztere ist aber nicht nur durch das Streben nach einer Vereinheitlichung der Physik gekennzeichnet, sonder in ihrer Breite vor allem durch eine immer stärker werdende Dominanz von angewandter bzw. industrienaher Forschung sowie durch einen immer breiter und tiefer werdenden Anwendungsbezug physikalischer Theorien und Methoden, wodurch zunehmend auch Gebiete zum Gegenstand physikalischer Erkenntnisgewinnung werden, die durch eine starke Abweichung vom physikalischen ›Idealzustand‹ bzw. hohe Komplexität gekennzeichnet sind – von den dissipativen Strukturen über das Studium flüssiger Kristalle bis hin zu den rheologischen Eigenschaften der Materie.
Literatur:
A. C. Crombie: Von Augustinus bis Galilei, Köln 1959.
E.J. Dijksterhuis: Die Mechanisierung des Weltbildes, Berlin 1956.
A. Hermann.: Lexikon der Geschichte der Physik, Köln 1972.
A. Hermann: Weltreich der Physik, Esslingen 1980.
F. Hund: Geschichte der physikalischen Begriffe, Mannheim 1975.
Ch. Jungnickel, R. McCormmach: Intellectual mastery of nature, Chicago 1986.
W. Schreier (Hrsgb.): Geschichte der Physik, Berlin 1988.
E. Segrè: Die großen Physiker und ihre Entdeckungen, München 1996.
K. Simonyi: Kulturgeschichte der Physik, Leipzig, Jena, Berlin 1990.
R. Stichweh: Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen. Physik in Deutschland 1740-1890, Frankfurt/M. 1984.
I. Szabo: Geschichte der mechanischen Prinzipien, Basel 1987.
E. Whittacker: A History of the Theory of Aether and Electricity, New York 1960.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.