Lexikon der Physik: Computer in der Physik
Computer in der Physik
William J. Thompson, Chapel Hill, North Carolina, USA
Computer sind heute in der Physik so allgegenwärtig, daß die Physik ihrerseits durch ihr Bedürfnis nach mehr Rechenleistung und komplexen und weltweit kompatiblen Programmiersprachen viele Entwicklungen in der Computertechnologie angestoßen hat, zusammen mit verwandten Gebieten wie Astrophysik, physikalischer Chemie, Meteorologie, physikalischer Ozeanographie oder Geophysik. In der Hardwareentwicklung haben z.B. die Simulation von Kernwaffenexplosionen, die Berechnung von langfristigen Wettervorhersagen oder Prognosen zur Klimaentwicklung die Entwicklung von Großrechnern, Supercomputern und vor allem Parallelrechnern vorangetrieben. Bei der Software hat die Notwendigkeit, für physikalische Experimente und Berechnungen sehr umfangreiche Programme (mit 10000 bis 100000 Befehlszeilen) zu erstellen und zu pflegen, Informatiker zur Konzeption sehr effizienter Programmiersprachen (z.B. Fortran und C) gebracht. Außerdem wurden hierfür weltweite Standards etabliert, die den Austausch von Programmen zwischen unterschiedlichen Forschungseinrichtungen mit den verschiedensten Ausstattungen ermöglichten.
Abb. 1 zeigt schematisch, wie und wo Computer in der Physik heute eingesetzt werden; dieser Essay folgt dieser Gliederung. Dabei sind die theoretische und die experimentelle Physik separat aufgeführt, die beide aber natürlich ständig aufeinander einwirken, wie in der Abbildung angedeutet (durchgezogene Linien bedeuten intensivere Verknüpfungen als gestrichelte). Im folgenden werden wir zunächst allgemeine Aspekte in theoretischer und experimenteller Physik und danach die wichtigsten Anwendungen im einzelnen diskutieren.
Theoretische Physik
Analytische und numerische Modellbildung physikalischer Systeme sind die wichtigsten Aspekte der Computeranwendung in der theoretischen Physik. Analytische Berechnungen – das Herleiten von Formeln und die exakte Lösung von Differentialgleichungen – wurden früher fast ausschließlich mit Papier und Bleistift durchgeführt. Seit der Entwicklung der symbolischen Programmierung jedoch lassen sich algebraische Berechnungen leicht und effizient am Computer durchführen: Funktionen können differenziert, integriert und vereinfacht werden, konvergente Reihen können summiert sowie Grenzwerte von Folgen oder Funktionen berechnet werden.
Viele Probleme der theoretischen Physik entziehen sich einer analytischen Lösung, so daß die sie beschreibenden Gleichungen numerisch gelöst werden müssen. Beispiele hierfür sind das Lösen der Schrödinger- oder der Dirac-Gleichung für ein Vielelektronensystem, aero- und hydrodynamische Berechnungen oder die Bewegungen von Sternsystemen mit mehr als zwei Komponenten (Dreikörperproblem). Hierfür werden oft umfangreiche Spezialprogramme mit mehreren zehn- bis hunderttausend Befehlszeilen entwickelt. Dabei werden meistens Funktionen aus allgemein zugänglichen Programmbibliotheken mit neuen, speziell erstellten Funktionen kombiniert. Die Entwicklung solcher Programme dauert zuweilen mehrere Jahre, sie müssen daher an neu entwickelte Hardware- und Betriebssysteme angepaßt werden können.
Voraussagen und deren Visualisierung, zum Beispiel bei Streuprozessen in der Hochenergiephysik oder von Elektronenzuständen komplexer Moleküle, sind ein weiterer wichtiger Aspekt der theoretischen Physik. Dies ermöglicht zum einen den Vergleich von Theorie und Experiment, zum anderen erleichtert es oft Planung, Durchführung und Fehleranalyse bei großen Experimenten, vor allem an Teilchenbeschleunigern (s.u.). Solche Vergleiche von Vorhersage und Meßergebnis werden oft zur Bestimmung freier Parameter in einer Theorie durchgeführt, wobei oft Techniken und Computerprogramme aus der Statistik benötigt werden. Dies liegt daran, daß experimentelle Daten immer fehlerbehaftet sind und Simulationen, die z.B. auf der Monte-Carlo-Methode (der sehr oft wiederholten Berechnung von Prozessen oder Experimenten mit statistisch verteilten Ausgangsdaten) basieren, statistische Mittelungsfehler besitzen. Es gibt daher eine enge Verbindung zwischen Physik und Statistik beim Vergleich von Theorie und Experiment. Auch Kriterien und Methoden zur optimalen Parameterschätzung, wie z.B. die Methode der kleinsten Quadrate (least squares fit), Simulated Annealing u.ä., spielen hierbei eine Rolle, ebenso genetische Algorithmen und neuronale Netzwerke. Letztere werden auch oft in der digitalen Bildverarbeitung eingesetzt, die sich mittlerweile zu einem eigenständigen Forschungsgebiet mit vielen Anwendungen in der Physik und der Medizin (z.B. bei der Computertomographie) entwickelt hat.
Experimentalphysik
Bei der Konzeption groß angelegter Experimente ist es inzwischen üblich, mit Hilfe von Berechnungen die Ergebnisse so zu simulieren, wie sie von den Detektoren voraussichtlich erfaßt werden. Solche Ergebnissimulationen spielen, wie in Abb. 1 angedeutet, vor allem in der Hochenergie- und Kernphysik eine große Rolle, da hier die Experimente besonders kompliziert, zeitaufwendig und teuer sind. Auch Entwurf und Betrieb von Fernerkundungssystemen, z.B. Erdbeobachtungssatelliten, Weltraumteleskopen oder interplanetarischen Sonden, können von Computersimulationen profitieren.
Experimentsteuerung und Datenaufnahme geschehen in der physikalischen Forschung heutzutage praktisch immer mit Hilfe von Computern. Dadurch können die Versuchsbedingungen und Systemparameter direkt gespeichert und exakt reproduziert werden, zudem können die Meßdaten digital aufgenommen, abgespeichert und über Netzwerke an andere Wissenschaftler, gegebenenfalls in Echtzeit, übertragen werden. Dies alles erlaubt die zuverlässige Überwachung und Beeinflussung des Experiments. Die Fortschritte in Hardware, Programmiersprachen und Computergraphik, wie sie weiter unten im einzelnen besprochen werden, haben seit den 80er Jahren Computer in der Experimentalphysik praktisch allgegenwärtig werden lassen.
Natürlich sind wir bei der Analyse der Daten keine bloßen Zuschauer. Unsere Intelligenz übertrifft die Fähigkeiten der Maschinen immer noch bei weitem, außer bei sehr einfachen Systemen, die – wie das Schachspiel – strengen Regeln unterliegen. Im Vergleich zu Computern haben wir Menschen einen sehr großen Erfahrungsschatz und eine sehr große Assoziationsfähigkeit, während Computer "nur" weit höhere numerische Fähigkeiten besitzen. In der Physik ist die Synergie zwischen Mensch und Computer am größten, wenn der Computer visuelle Darstellungen von quantitativen Informationen liefert und der Mensch seine Fähigkeit einbringt, die dem Dargestellten zugrundeliegenden Strukturen zu erkennen.
Computer-Architekturen, die in der Physik angewandt werden
Die Anforderungen in der physikalischen Forschung und die Konzeption von Computern beeinflussen sich wechselseitig stark. Die meisten hier eingesetzten Computer entsprechen dem Schema, das in den 40er Jahren von dem Mathematiker J. v. Neumann vorgeschlagen wurde ( Abb. 2 ). Diese Struktur, auch Computer-Architektur genannt, war seinerzeit eine umwälzende Neuerung, denn sie setzt zwischen die Zentraleinheit (CPU, nach der englischen Bezeichnung Central Processing Unit, Zentraleinheit) und den Speicher eine Adressierungseinheit (Adreßbus, Bussystem, Bus). Dadurch brauchen keine direkten Verbindungen zwischen der Zentraleinheit und den Millionen von Speicherzellen zu bestehen. Die Zentraleinheit muß also nicht "wissen", wie viele Speicherzellen vorhanden sind und wie diese technisch ausgeführt sind, ob als RAM (Random Access Memory), auf einer Festplatte oder einem anderen Medium. Im Von-Neumann-Schema sind Eingabe- und Ausgabevorrichtungen (I/O, nach der englischen Bezeichnung Input/Output) direkt mit der CPU verbunden.
Diese Architektur hat den großen Nachteil, daß die I/O-Vorrichtungen oft elektromechanisch ausgeführt und daher um einige Größenordnungen langsamer sind als die CPU. In diesem Fall wirken die I/O-Vorrichtungen als Engpaß im Datendurchsatz. In der Experimentalphysik tritt dieser Engpaß oft beim Input auf, wenn Datenströme aufgenommen und in Echtzeit verarbeitet werden müssen, um den Ablauf der Messung überwachen zu können (Datenerfassung). Der Input-Engpaß kann abgeschwächt werden, wenn man beim Speichern DMA-Einrichtungen verwendet (DMA, englisch Direct Memory Access, direkter Speicherzugriff). Vor allem in der theoretischen Physik tritt manchmal ein Engpaß an Output-Geräten auf, insbesondere wenn viele komplexe Graphiken zu erstellen sind. Auch hier hat sich der Einsatz effizienter DMA-Vorrichtungen bewährt. Statt dessen können Ausgangswerte auch vom RAM auf die Festplatte geschrieben werden, von der sie später gelesen und zur engültigen Ausgabe weitergeleitet werden, etwa zu einem Drucker. Diese Zwischenspeicherung auf Medien mit mittlerer Zugriffsgeschwindigkeit wird "Spooling" genannt, dieser Ausdruck ist abgeleitet von der englischen Bezeichnung Simultaneous Peripheral Operations On Line (etwa: gleichzeitiger, mitlaufender Peripherie-Betrieb, gemeint ist: mit Zwischenspeicherung).
Bei der Verwendung von Computern für numerische Berechnungen in der Physik (englisch: computational physics) kommt es auch darauf an, ob die CPU Daten seriell oder parallel verarbeitet. Im Prinzip gibt es dabei drei Schemata: Single Instruction Single Data (SISD), wie es bei den meisten PCs realisiert ist, Single Instruction Multiple Data (SIMD) für die simple Wiederholung einer Berechnung mit vielen Datenelementen und Multiple Instruction Multiple Data (MIMD), eingesetzt für komplizierte Berechnungen, die in gleicher Weise mit vielen Daten ausgeführt werden. Tabelle 1
Computer in der Physik: CPU-Schemata, die für die Multiplikation zweier Größen a und b am effizientesten sind.
| ||||
Skalar | Skalar | Skalar | SISD | |
Skalar | Matrix | Matrix | SIMD | |
Matrix | Matrix | Matrix | MIMD |
zeigt am einfachen Beispiel der Multiplikation zweier Variablen a und b, welches CPU-Schema am effizientesten ist, abhängig vom Typ der Variablen, die entweder Skalare (einzelne Zahlen) oder Zahlenfelder (Vektoren bzw. Matrizen) sein können. Zu den Computern, die Daten nicht nur seriell verarbeiten können, zählen die Vektorrechner und die Parallelrechner.
Je schneller die CPU des Computers arbeitet, desto eher wird der Datenzugriff auf die Festplatte zum Engpaß. Muß auf dieselbe Datei mehrmals hintereinander zugegriffen werden, ist es günstiger, die Daten in das RAM (auf eine sogenannte RAM-Disk) zu kopieren und dort auf sie zuzugreifen, was um einige Größenordnungen schneller ist als der Festplattenzugriff. Moderne Betriebssysteme erlauben dies, ohne daß das Benutzerprogramm entscheidend modifiziert werden muß. Da die Kosten für einen schnellen Speicher einen immer kleineren Anteil am Gesamtpreis eines Rechners ausmachen, findet die Verwendung von RAM-Disks eine immer weitere Verbreitung. Die entgegengesetzte Strategie, also der Einsatz von Plattenspeicher als RAM-Ersatz – virtueller Speicher genannt –, wurde in den 80er und den frühen 90er Jahren häufig verfolgt. Dies reduziert natürlich die Gesamtgeschwindigkeit des Computers, und gerade dies sucht der Physiker unter allen Umständen zu vermeiden.
Es gibt Spezialcomputer für numerisch sehr intensive physikalische Berechnungen, z.B. in der Quanten-Gittereichfeld-Theorie für die Berechnung der Eigenschaften von Hadronen oder in der Physik der kondensierten Materie zur Berechnung des Ising-Modells der magnetischen Eigenschaften. Hierbei besteht der größte Teil der Berechnungen aus recht einfachen Operationen, die aber für Milliarden von Datenelementen wiederholt werden. In diesem Fall ist es günstiger, die entsprechenden Verknüpfungen fest zu verdrahten; man spricht dann auch von "Hardwire" (wörtlich: "fester Draht") anstatt von "Hardware". Oft entwerfen und bauen Physiker ihre Spezialcomputer mit Hilfe von Informatikern, Elektronikingenieuren und Chipherstellern selbst. Die daraus hervorgehenden Computer sind auf den jeweiligen Spezialfall zugeschnitten und für andere Zwecke kaum geeignet. Aber viele Erfahrungen und Ideen, die dabei gewonnen werden, finden irgendwann ihren Weg auch in kommerzielle Computer.
In der Physik angewandte Computersprachen
Physiker setzen für Datenbanken, Tabellenkalkulation, Textverarbeitung und Graphik natürlich kommerzielle Anwendungsprogramme ein, die in den jeweils üblichen Programmiersprachen erstellt wurden. Die meisten Programme im Bereich der computational physics werden dagegen in nur wenigen Sprachen entworfen und geschrieben.
Numerische Berechnungen in der Physik werden meist in Fortran oder in C programmiert, während BASIC und Pascal in anderen Gebieten noch gebräuchlich sind (Programmiersprachen). Bis in die 80er Jahre hinein war Fortran nahezu die einzige benutzte Programmiersprache, während neuere Programme oft in C geschrieben wurden. Fortran hat gegenüber anderen Programmiersprachen einige Vorteile: Es ist leicht zu schreiben, und beim Compilieren kann ein effizienter und schneller Maschinencode erzeugt werden; zudem wird Fortran ungefähr alle zehn Jahre erneut standardisiert. Bei jeder Standardisierung werden nützliche Techniken aus anderen Sprachen übernommen, z.B. wurden in Fortran 90, dem im Jahre 1990 weltweit etablierten Standard, rekursive Prozeduren und Pointer implementiert. Zu den Vorteilen von C für Numerik und Datenanalyse in der Physik gehören die verschiedenen Variablentypen, die Möglichkeit, Zeichenfolgen zu bearbeiten und die Standardisierung. Darüberhinaus macht die Möglichkeit, Speicheradressen direkt anzusprechen, C geeignet zur Überwachung und Steuerung von Experimenten. Einige Implementierungen von Fortran und C ermöglichen die Kombination von Funktionen, die in beiden Programmiersprachen geschrieben wurden, und beide Sprachen verfügen über umfangreiche Programmbibliotheken.
Symbolische und algebraische Berechnungen in der Physik sind meist äußerst komplex und langwierig. Daher sind hierauf spezialisierte Programmiersprachen von besonderem Vorteil. Seit Ende der 80er Jahre gibt es im wesentlichen zwei Systeme, mit denen Mathematik am Computer betrieben wird: Mathematica und Maple. Ersteres wird eher von Physikern bevorzugt, letzteres eher von Mathematikern. Beide Systeme bieten außer der Möglichkeit zur Symbolmanipulation leistungsfähige numerische, graphische und Formatierungs-Funktionen, mit denen die Resultate dargestellt werden können. Diese Programme arbeiten tausendmal langsamer als kompilierte Fortran- oder C-Programme, was sich nachteilig bemerkbar macht, wenn viele Berechnungen durchzuführen sind. Ein großer Vorteil von Mathematica, Maple und ähnlichen Systemen liegt darin, daß komplexe Berechnungsaufgaben mit ihnen leicht und schnell programmiert werden können. Derartige Systeme werden daher oft beim Entwickeln von numerischen Algorithmen eingesetzt.
Das Steuern von Großexperimenten und die Datenaufnahme in der Physik erfordern ebenfalls spezielle Programmiersprachen und Systeme, zum Beispiel IDL und Labview. Weil deren Brauchbarkeit stark von den jeweiligen Schnittstellen zur Hardware abhängt und diese sich sehr schnell weiterentwickeln, müssen solche Systeme häufig aktualisiert werden.
Computergraphik in der Physik
Visualisierungen spielen seit jeher in der Physik eine große Rolle bei der Illustration abstrakter Begriffe und der Darstellung umfangreicher Datensätze. Im letzten Jahrzehnt führte die Entwicklung von preiswerten und schnellen Tischcomputern (PCs), benutzerfreundlichen Graphikprogrammen, Farbmonitoren und hochauflösenden Ausgabegeräten wie Laser- und die Tintenstrahldrucker zu einem Aufblühen der Computergrahik in der Physik.
In der theoretischen Physik wird Computergraphik zur Visualisierung von komplexen Formeln und Lösungen von Differentialgleichungen benutzt. Beispielsweise werden in der Quantenmechanik die Wellenfunktionen, welche die Schrödinger-Gleichung für die Streuung eines Teilchens an einem abstoßenden Coulomb-Potential erfüllen, mit Hilfe sehr verwickelter numerischer Methoden gefunden und sind anhand von Zahlentabellen kaum zu interpretieren. Die Wellenfunktion hängt dazu von drei Variablen ab: dem Sommerfeldschen Coulomb-Parameter η, dem Wellenzahl-mal-Abstand-Parameter ρ und der Partialwellen-Quantenzahl L. Mit einer Computergraphik können hier Hunderte von Werten der Coulomb-Wellenfunktionen übersichtlich dargestellt werden ( Abb. 3 ). Bei dieser dreidimensionalen Graphik einer D-Wellen-Streuung (d.h. L = 2) ist die aus der Wellenfunktion berechnete Aufenthaltswahrscheinlichkeit (Wahrscheinlichkeitsamplitude) vertikal aufgetragen und die Parameter ρ und η als "rho" und "eta" auf der x- bzw. der y-Achse; das Bild faßt 400 numerische Werte zusammen.
In der Experimentalphysik und verwandten Disziplinen besteht eine der leistungsfähigsten Anwendungen der Computergraphik darin, sehr umfangreiche Datensätze zusammenzufassen. Beispielsweise können für die Geschwindigkeitsverteilung der Wassermoleküle in einer Gewitterwolke Millionen von Werten vorliegen, die entweder mit Doppler-Radar oder durch Computersimulationen der Gewitterwolken-Dynamik gewonnen wurden. Zu einem gegebenen Zeitpunkt hängt in einer gegebenen Wolke die Geschwindigkeit von der Position in der Wolke ab, die beide durch dreikomponentige Vektoren beschrieben werden. Man kann sozusagen einen Schnappschuß in einer bestimmten Höhe z0 (die z-Koordinate als vertikale Achse) aufnehmen, der eine Geschwindigkeitskomponente erfaßt, z. B. diejenige in vertikaler Richtung,
z(z0) ( Abb. 4 ). Die Werte können in verschiedene Farben umgesetzt werden, wobei beispielsweise Rot einer hohen Geschwindigkeit in einer Richtung und Blau einer hohen Geschwindigkeit in der Gegenrichtung entspricht. Muster in der Geschwindigkeitsverteilung können auf diese Weise leicht erkannt werden, z.B. in der Abbildung die starke vertikale Windscherung im linken unteren Quadranten. Die Kodierung von Zahlenwerten durch Farbskalen vergrößert die Möglichkeiten der Visualisierung erheblich, indem eine zusätzliche Dimension dargestellt werden kann.
Ein anderes Beispiel für die Anwendung von Computern zum Zusammenfassen großer Datenmengen ist die Rasterkraftmikroskopie (AFM, von englisch Atomic Force Microscopy). Hierbei werden die elektrostatischen Kräfte zwischen einer nur einige Atomdurchmesser dicken Spitze und einer Oberfläche gemessen.
Abb. 5 zeigt eine Röhre aus Fulleren (ein fußball- oder röhrenförmiges Makromolekül aus Kohlenstoffatomen) auf einem Glimmersubstrat. Der Vergrößerungsfaktor beträgt etwa eine Million. Zur Datenanalyse und zur Anzeige des Bildes wurde ein handelsüblicher PC verwendet, während die Abbildung auf einer speziellen Hochgeschwindigkeits-Workstation von Silicon Graphics in Echtzeit aufgenommen und bearbeitet wurde.
In der Astrophysik ergibt die von den Teleskopen erfaßte Strahlung entweder unmittelbar sichtbare Bilder, wie bei konventionellen optischen Teleskopen, oder die Information wird umgesetzt zur Ermittlung anderer physikalisch relevanter Größen. Um die gesamte aus einem bestimmten Himmelsareal kommende Strahlung zu erfassen, werden oft viele verschiedene Instrumente zusammen benutzt. Die Intensitätsverteilungen in den einzelnen Spektralbereichen können dann mit dem Computer zu einem gemeinsamen digitalen Bild verknüpft werden. Abb. 6 zeigt ein Beispiel: Die Intensität der ultravioletten Lyman-Alphastrahlung des Wasserstoffs (hier cyan dargestellt) kann überlagert sein durch die 20-cm-Radiowellenstrahlung (hier rot dargestellt) aus derselben Galaxie. Dies erlaubt den direkten Vergleich von zwei ganz verschiedenen Bereichen des elektromagnetischen Spektrums, die beide für das bloße Auge unsichtbar sind.
Ein weiteres Konzept, das zunehmende Verbreitung findet, ist die "dynamische Computergraphik", die es erlaubt, die zeitliche Dimension unmittelbar miteinzubeziehen. Solche computergenerierten "Filme" von physikalischen Phänomenen, theoretischen oder experimentellen, verknüpfen die numerischen und visuellen Aspekte zeitabhängiger Effekte. Die Möglichkeit, sowohl eine visuelle Darstellung für das unmittelbare Verständnis als auch eine numerische Darstellung hoher Genauigkeit für die weitere Auswertung zu besitzen, ist in der Physik außerordentlich nützlich.
Computer und Kommunikation
Computer, Physik und Kommunikation sind schon lange miteinander verwoben. Viele der frühen Computernetze in den USA wurden entwickelt, damit Wissenschaftler in der Physik schnell und effizient Daten austauschen konnten. Auch das World Wide Web (WWW) wurde von einem Physiker konzipiert, nämlich im Jahre 1989 von Tim Berners-Lee am Institut für Hochenergiephysik des CERN in Genf. Viele Computer-Kommunikationssysteme wie das Internet werden mit maximaler Übertragungskapazität von Physikern zum Austausch von Daten, Bildern und Computerprogrammen genutzt. Man kann sagen, daß die Physiker solche Kommunikationsverfahren oft initiiert haben, die Kommerzialisierung und verbreitete Anwendung wurden jedoch normalerweise durch andere gefördert.
Computergestützte Datenbanken mit Online-Zugang und elektronischen Dokumenten für Physiker, Chemiker und andere Naturwissenschaftler sind schon seit vielen Jahren verbreitet, z.B. existieren umfangreiche Datenbanken mit Informationen zur Hochenergie- und Kernphysik wie die detaillierten Eigenschaften von Atomkernen und Elementarteilchen. Einige physikalische Zeitschriften, darunter die vom American Institute of Physics in den USA und vom Institute of Physics Publishing in Europa herausgegebenen, werden inzwischen auch in elektronischer Form verbreitet, die man online oder auf CD-ROM erhalten kann. Zu den bibliographischen Diensten für die Physik und verwandte Gebiete gehören der Current Physical Index, ferner DIALOG, ESA und die Physical Abstracts. Zitatenverzeichnisse physikalischer Veröffentlichungen können ebenfalls in Online-Datenbanken wie dem Science Citation Index (alle Naturwissenschaften) und in SPIRES (vorwiegend Hochenergiephysik) gefunden werden.
Computer und die Ausbildung in Physik
Die Physik ist ein Fachgebiet, in dem man, verglichen mit den meisten anderen Disziplinen, relativ wenig auswendig lernen muß. Daher ist die einfachste Anwendung der Computer in der Ausbildung – vornehmlich Üben und Abfragen – hier nicht sehr gefragt. Weiterhin werden in der physikalischen Ausbildung ausgiebig Diagramme, Formeln und abstrakte Konzepte angewandt, was die Konzeption nützlicher Computerprogramme hierfür ausgesprochen schwierig macht.
Oft kommen Physikstudierende mit Computern erstmals dann in Berührung, wenn es im Praktikum um Aufnahme, Anzeige und Analyse von experimentellen Daten geht. Die Datenaufnahme bringt das Interface Computer-Meßgerät mit ins Spiel, die Online-Anzeige der Meßwerte läßt den Versuchsfortschritt erkennen, und in der Auswertung können ausgereifte und leicht zu bedienende Programme zum Anpassen von Gleichungen an die Meßdaten und zur statistischen Fehleranalyse verwendet werden.
In fortgeschritteneren Kursen liegt der Schwerpunkt meistens eher auf der Frage, wie die Programme funktionieren (das sog. "heads up"-Training), und weniger auf der Anwendung von Computern und Software als reines Werkzeug. Hierbei wird meist auch eine wissenschaftliche Programmiersprache erlernt, etwa C oder Fortran, außerdem ein System, das symbolische Verarbeitung ermöglicht, wie Mathematica, Maple, MathCad oder MatLab. Die Studierenden erwerben auch ein Verständnis der Leistungen und Grenzen des Computers.
Während der Diplomarbeit und Promotion dienen die Computer vor allem als Hilfsmittel zur theoretischen Modellbildung oder zur Konzeption und Steuerung von Experimenten, ferner zur Aufnahme und Auswertung der Daten, wie es in Abb. 1 angedeutet wurde. Die eher theoretisch orientierten Studierenden befassen sich dabei seltener mit den Details der Computerhardware, sondern vorwiegend mit der Anwendung und Entwicklung von Software. Dagegen müssen Experimentalphysiker oft mit Hardwaredetails vertraut werden, um den Computer an die Datenaufnahme- und Überwachungsgeräte ankoppeln zu können. Im Zusammenhang damit lernen die meisten Studierenden und Doktoranden der Physik auch eines oder mehrere Betriebssysteme gut kennen, beispielsweise Windows, Unix oder das Macintosh-System.
Die Physik der Computer
Zwar werden Computer normalerweise von Informatikern und Elektronikingenieuren konzipiert und gebaut, aber die prinzipiellen Arbeitsweisen ihrer Komponenten beruhen fast ausschließlich auf Entdeckungen von Physikern. Beispielsweise basieren Festplattenspeicher auf dem Ferromagnetismus, die CPU und RAM-Bausteine benutzen Transistoren, Compact Disks (CDs), Digital Video Disks (DVDs) und beschreibbare magneto-optische (MO) Speicher verwenden Laser und Polarisationseffekte. Monitore benutzen die aus der Elektrodynamik kommende Kathodenstrahlröhre bzw. die Flüssigkristall-Technik (LCD, englisch Liquid Crystal Display) aus der Physik der kondensierten Materie, und Laserdrucker beruhen auf der Xerographie, die wiederum auf der Photosensibilisierung und der Elektrostatik basiert.
Auch die neuesten Fortschritte basieren auf Entdeckungen in der angewandten Physik: man denke nur an die immer höhere Integration der Bauelemente in den Halbleiterchips (VLSI, Very Large Scale Integration, und ULSI, Ultra Large Scale Integration), außerdem an Flachbildschirme oder an die schon erwähnten neuen transportablen Hochkapazitäts-Speichermedien. Daher ist die Physik äußerst bedeutsam für die Entwicklung auf dem Computersektor – nicht nur, weil sie immer höhere Rechenleistung fordert, sondern vor allem weil sie die Grundlage dafür bietet, daß die Computertechnik einen viel rasanteren Fortschritt erlebt als jede andere Technologie.
Die Zukunft der Computer in der Physik
Die bisherigen Ausführungen zeigen, daß Computer die technischen Aspekte der Physik weiterhin dominieren werden. Obwohl Physiker gewöhnlich mit der Komplexität des Programmierens und der Vernetzung von Computern und Peripherie umgehen können, werden sie sich bei Konzeption und Bau eines Computers sowie bei der Basis-Software (Betriebssysteme und Compiler) weiterhin auf Informatiker und Elektronikingenieure verlassen. Als Computeranwender werden die Physiker auch künftig Wert auf hohe Rechengeschwindigkeit, große Speicherkapazität und intelligente Input- und Output-Systeme legen.
Im nächsten Jahrzehnt wird es sicherlich erneut wesentliche Fortschritte in der Computertechnik geben, die auf der Anwendung physikalischer Erkenntnisse beruhen. Sehr bald werden leichte, hochauflösende LCD-Monitore weit verbreitet sein, die weitere Fortschritte in der Physik der kondensierten Materie nutzen, und die Speicherdichte auf CD-ROMs, DVDs usw. wird weiter steigen. Auf längere Sicht werden vermutlich holographische dreidimensionale Speicher einsatzbereit werden, und wahrscheinlich werden auch Computer, die mit optischen Signalen aus Lasern anstatt mit elektronischen Signalen aus Transistoren arbeiten, entwickelt werden (optische Computer).
Physikalische Prinzipien setzen der Geschwindigkeit eines Computers drei grundsätzliche Grenzen: Zum einen kann sich kein Signal schneller als mit Lichtgeschwindigkeit ausbreiten (30 cm/ns), daher sollten Schaltkreise so klein wie möglich konzipiert werden. Die geringere Größe bzw. die dichtere Packung der Schaltelemente bewirkt aber eine höhere Leistungsdichte (meist in W/cm3 angegeben), die wiederum zu einer stärkeren Wärmeentwicklung führt. Die Leistung steigt dabei sogar stärker als linear mit der Arbeitsgeschwindigkeit des Rechners an. Daher ist die Frage der Wärmeabfuhr eines der Hauptprobleme beim Konzipieren noch schnellerer Computer. Die Physik kann auch hier helfen: so kann man den Peltier-Effekt ausnutzen, um Bauteile zu kühlen, oder man kann spezielle Materialien mit hoher thermischer Leitfähigkeit einsetzen, so daß die entstehende Wärme schneller abgeführt wird. Schließlich setzen Quanteneffekte der Miniaturisierung eine fundamentale Grenze, wenn atomare Dimensionen erreicht werden und die Heisenbergsche Unschärferelation eine Rolle zu spielen beginnt (Quantencomputer).
Berufsaussichten für Physiker im Computerbereich
Normalerweise werden Physiker nicht zu Spezialisten für die physikalische Computer-Anwendung ausgebildet (englisch: "computational physicists"). Sie erwerben während ihres Studiums eher Kenntnisse in einer Vielzahl von Bereichen der Informatik, vor allem natürlich in der numerischen Modellbildung und der Datenanalyse, und wenden diese Fähigkeiten dann in vielen anderen Gebieten an. In den unteren Semestern ist Informatik als Nebenfach (oder zumindest einige anspruchsvollere Lehrveranstaltungen in diesem Fach) manchmal von Vorteil, so wie die meisten Physiker im Grundstudium normalerweise Mathematik als Nebenfach haben. Was von Firmen, die Physiker im Computerbereich beschäftigen, am meisten geschätzt wird, sind die intellektuelle Disziplin, die man zum Erreichen des Physik-Diploms braucht, die Fähigkeit zu konzeptionellem Denken und das Abstraktionsvermögen, die während des Studiums erworbenen mathematischen Fertigkeiten und die Vertrautheit mit den Prinzipien der Computerhardware und der Elektronik.
Viele der erwähnten Fähigkeiten sind auch auf Gebieten anzuwenden, die fast gar nichts mit Physik zu tun haben. Beispielsweise benötigt man in Wirtschaft und Statistik oft Zeitreihenanalysen, die für den Physiker im Grunde nur Erweiterungen der Fourier-Analyse und verwandter Techniken sind. Ein anderes Beispiel ist in der medizinischen Forschung die Untersuchung der Clusterbildung von Bakterien, was als Mustererkennungs-Aufgabe angesehen werden kann, die möglicherweise früher ganz ähnlich in einem astrophysikalischen Projekt bei der Suche nach Galaxienclustern in den Daten eines Weltraumteleskops aufgetreten ist. In der Medizin wird im Gebiet der digitalen Bildverarbeitung die Mitarbeit von Physikern wegen ihrer Erfahrung im Umgang mit Computern und in der Datenanalyse sehr geschätzt – vor allem im diagnostischen Bereich, wo Computertomogramme aus Röntgen-, Kernresonanz- (NMR, englisch: Nuclear Magnetic Resonance) und Positron-Emissionsaufnahmen (PET, englisch: Positron Emission Tomography) generiert werden.
Publikationen über Computer in der Physik
Es gibt eine Reihe von Magazinen bzw. Zeitschriften, die interessant sind für alle, die sich mit dem Einsatz von Computern in der Physik befassen. Die Zeitschrift Computer Physics Communications (North-Holland) beschreibt monatlich Algorithmen und Programme für die Physik und die physikalische Chemie. Ferner unterhält die Zeitschrift eine Programmbibliothek, aus der man komplette Programme mit Testbeispielen zu vernünftigen Preisen beziehen kann.
Computer in Physics (American Institute of Physics) erscheint zweimonatlich und befaßt sich mit einer großen Bandbreite von aktuellen Themen der Computeranwendung, die für Physiker und Ingenieure interessant sind. Die Zeitschrift enthält aktuelle Neuigkeiten, einen Internet-Führer, Rubriken für Ausbildung und Forschung, Technik und Methoden und eine Sektion mit im "peer-review"-Verfahren begutachteten wissenschaftlichen Artikeln. Die monatlich erscheinenden Zeitschriften Journal of Computational Physics (Academic Press) und Journal of Scientific Computing (Plenum Publishing) sind technisch anspruchsvoller als die zuvor genannten; hier liegt das Schwergewicht auf Algorithmen in Physik und angewandter Mathematik. Ebenfalls interessant für diejenigen, die Computer in der Physik anwenden, sind auch einige Computer-Magazine, die Aspekte der Computernutzung auf teilweise höherem Niveau beschreiben; hierzu zählen Byte, The C/C + + Users Journal, Dr. Dobb's Journal und The Mathematica Journal.
Computer in der Physik 4: Farbcodierte Darstellung der vertikalen Geschwindigkeitsverteilung in einer Gewitterwolke als Funktion der horizontalen Koordinaten in einer festen Höhe über Grund. Blau bedeutet starke Aufwärts-, Rot eine starke Abwärtsbewegung. (Mit freundlicher Genehmigung von Dr. Louis J. Wicker und Dr. Robert B. Wilhelmson, NSAC, University of Illinois, Urbana-Champagne. Die Abbildung wurde mit dem Programm T3D vom Fortner Research LLC erzeugt.)
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.