Direkt zum Inhalt

Lexikon der Physik: Methode der kleinsten Quadrate

Methode der kleinsten Quadrate

Josef Kallrath, Ludwigshafen

Im Jahre 1805 publizierte A. Legendre als erster einen Aufsatz über die Methode der kleinsten Quadrate (MdkQ) und wandte sie auf die Auswertung der im Jahre 1795 gewonnenen Daten der Vermessung des französischen Meridians an. Im Jahr 1809 erbringt F. Gauß, der behauptet, die MdkQ schon seit 1795 zu benutzen, in Theoria Motus Corporum Coelestium die Begründung der Methode auf Basis normalverteilter Fehler. Er zeigt ferner, wie sich die Fehler der bestimmten Parameter schätzen lassen und sich die Methode auf nichtlineare Probleme durch Linearisierung erweitern läßt. Tatsächlich scheint Gauß die MdkQ seit 1795 benutzt zu haben, ist aber durch Legendres Veröffentlichung vermutlich erst auf die weitreichende Bedeutung dieser Methode aufmerksam geworden.

Seit den Tagen von Legendre und Gauß hat die Methode viele Verbesserungen und Erweiterungen erfahren. Stabile numerische Verfahren wurden entwickelt, um große Datenmengen auszuwerten, um Ausgleichsprobleme mit stochastischen Randbedingungen zu lösen, um die unabhängige Meßgröße (meist Zeit) ebenfalls als fehlerbehaftet zu behandeln (total least squares) oder um die Methode auf Modelle anzuwenden, denen Differentialgleichungsmodelle zugrunde liegen. Die Lösung von Ausgleichsproblemen in Verbindung mit Differentialgleichungsmodellen ist sehr wesentlich für die physikalisch-fundierten Naturwissenschaften, aber auch z.B. für die Biologie. Ein schwerwiegender Nachteil der klassischen MdkQ ist die Beschränkung, daß explizite Modelle – meist Geraden oder Polynome – angepaßt werden. Da viele naturwissenschaftliche Fragestellungen, z.B. bei der Untersuchung dynamischer Systeme in Physik, Astronomie und Astrophysik, aber auch in der Ökologie, jedoch auf Differentialgleichungen führen, deren Lösungen nicht in geschlossener Form dargestellt werden können, gewinnen numerische Verfahren an Bedeutung, die die MdkQ mit Differentialgleichungsansätzen verbinden und die Differentialgleichungen als diskretisierte Nebenbedingungen simultan mit einbeziehen; dieser Ansatz läßt sich übrigens auf jegliche Art implizit vorgegebener Modelle erweitern und führt in natürlicher Weise auf Verfahren zur optimalen Steuerung.

1 Unbeschränkte Ausgleichsprobleme

Ein unbeschränktes Ausgleichsproblem mit n freien Parametern

im Sinne der Methode der kleinsten Quadrate kann als ein unbeschränktes Minimierungsproblem mit einer Zielfunktion der Form

mit

aufgefaßt werden. Diese Form resultiert z.B. aus einem nichtlinearen überbestimmten Gleichungssystem



oder einem Ausgleichsproblem mit N gegebenen Datenpunkten

und Varianzen

, einer Modellfunktion

und n zu bestimmenden Parametern

:



Die Gewichte

leiten sich aus den Varianzen

gemäß der Beziehung



ab, mit einem passend gewählten Skalierungsfaktor, der die Gewichte möglichst in der Größenordnung 1 hält. In der kürzeren Vektorschreibweise erhält man für den Residuenvektor



mit

. Der Residuenvektor (2) beschreibt den auf die unabhängige Koordinatenachse (t mit Index ν) projizierten Abstand. In manchen Anwendungen wird stattdessen auch der orthogonale Abstand eines Meßpunktes von der Modellkurve als Maß der Güte verwendet (total least squares, TLS). Im Falle von TLS hat der Residuenvektor

die Gestalt



Zu beachten ist, daß die vormals unabhängige Größe

jetzt ebenfalls mit Hilfe der MdkQ bestimmt wird. TLS-Probleme sind immer nichtlinear.

Es ist wichtig, bei praktischen Anwendungen ein verläßliches Maß für die Varianzen und damit für die Gewichte im Ausgleichsfunktional zu haben und auch sicherzustellen, daß die Fehler der Messungen normalverteilt sind.

Vor Behandlung des allgemeinen nichtlinearen Falles ist es sinnvoll, zunächst den linearen Fall

zu behandeln, da das lineare Ausgleichsproblem in der iterativen Lösung des nichtlinearen Falls als häufig zu lösendes Unterproblem auftritt.

Der lineare Fall: Die Normalgleichungen

Der gewichtete Residuenvektor



mit

und

ist linear in

und führt zu einem linearen Ausgleichsproblem im Sinne der kleinsten Quadrate



mit konstanter Matrix

. Ein Spezialfall des linearen Ausgleichsproblems ist die lineare Regression, der das Problem zugrunde liegt, durch eine Menge von Meßpunkten eine Gerade zu legen. Das lineare Ausgleichsproblem besitzt mindestens eine Lösung

, die jedoch nicht notwendigerweise eindeutig ist. Bezeichnet

eine weitere Lösung, so gilt

. Alle Lösungen von (3) erfüllen die Normalgleichungen

als notwendige Bedingungen. Lösungen von (4) sind ihrerseits Lösungen von (3), d.h. die Normalgleichungen sind die notwendigen und hinreichenden Bedingungen für die Existenz und Bestimmung der Ausgleichslösung im Sinne der kleinsten Quadrate.

Der Betrag

des Residuenvektors

der Lösung ist eindeutig bestimmt durch



Hat

vollen Rang, so besitzt (3) eine eindeutige Lösung und es existiert eine eindeutige Lösung für

, die als Lösung des linearen Gleichungssystems

bestimmt werden kann. In diesem Fall gilt

, d.h. die symmetrische Matrix

hat vollen Rang. Unter numerischen Gesichtspunkten sollten Ausgleichsprobleme möglichst nicht direkt mit Hilfe der Normalgleichungen gelöst werden, da hier aus den folgenden Gründen große Vorsicht geboten ist:

• die Berechnung

erfordert die Auswertung von Skalarprodukten (wegen des Verlustes signifikanter Stellen bei Addition und Subtraktion von Zahlen ähnlicher Größenordnung sollte dies vermieden werden);

• mögliche große Fehlerfortpflanzung der Fehler des Terms

der rechten Seite bei der Lösung der Normalgleichungen, da die Fehlerfortpflanzung proportional zur Konditionszahl

ist; mißt man die Norm einer Matrix in der euklidischen Norm, so ist

gerade das Verhältnis des größten zum kleinsten Eigenwert.

Mit Hilfe von Orthogonalisierungsverfahren kann das lineare Ausgleichsverfahren nur mit Hilfe der Matrix

gelöst werden und bedarf nicht des Produktes

.

Der lineare Fall: Ein Orthogonalisierungsverfahren

Numerische Probleme, die sich aus großen Konditionszahlen von

ergeben, können begrenzt werden, indem man sich auf Lösungsverfahren beschränkt, die nur auf

direkt aufbauen. Orthogonalisierungsverfahren zur Lösung linearer Ausgleichsprobleme basieren auf orthogonalen Transformationen

; diese lassen die euklidische Norm von Matrizen invariant und führen zu numerisch stabilen Verfahren zur Lösung von Ausgleichsproblemen. Householder-Transformationen sind eine spezielle Variante othogonaler Transformationen. Die Matrix

wird dabei so transformiert, daß

1) die Lösung des Problems unverändert bleibt,

2) die Konditionszahl

der transformierten Matrix nicht größer als

ist und

3) die transformierte Matrix

eine triangulare Struktur hat, die sich gut für numerische Berechnungen eignet.

Sei

, eine Folge von Householder-Transformationen, d.h. von speziellen Matrizen der Form



wobei

die

-Einheitsmatrix und

einen beliebigen n-dimensionalen Vektor bezeichnet. Householder-Transformationen

sind Spiegelungen des Vektorraums

bezüglich des orthogonalen Komplements



und sind unitär, ebenso wie das Produkt

. Der Vektor w kann nun derart gewählt werden, daß

einen gegebenen Vektor

, dessen erste Komponente von Null verschieden ist (falls

, kann dies durch geeignete Permutation stets erreicht werden; im Fall

ist nichts zu tun), auf ein Vielfaches des ersten Einheitsvektors

abbildet, d.h.



Für einen von Null verschiedenen Vektor impliziert dies die folgenden Formeln zur Berechnung von Householder Transformationen:



Hat die Matrix

n linear unabhängige Spaltenvektoren

, so lassen sich die Matrizen

und der Vektor

des linearen Ausgleichsproblems (3) letztlich mit Hilfe von

in eine Matrix

mit einer einfacheren Struktur,

und einen Vektor



transformieren; ferner ist

eine obere Dreiecksmatrix. Wie in der Numerik üblich, wird aus Gründen der Genauigkeit und Stabilität

nicht direkt als Matrizenprodukt ausgewertet, sondern sukzessive als Folge von Householder-Transformationen und Modifikationen von

erstellt.

Damit nimmt das ursprüngliche Problem (3) die Gestalt



an. Wegen der Verwendung der euklidischen Norm und der Unitarität von

erhält man



Da

ein konstanter Vektor ist, nimmt

sein Minimum an, wenn der unbekannte Vektor x Lösung des linearen Gleichungssystems

ist. Daher löst

schließlich das lineare Ausgleichsproblem in euklidischer Norm. Die obere Dreiecksmatrix

besitzt genau dann und nur dann eine eindeutige inverse Matrix, wenn

. Da

regulär ist, ist die Regularität von

äquivalent zur Regularität von

.

Der nichtlineare Fall: Ein Gauß-Newton Verfahren

Um das nichtlineare Problem (1) zu lösen, kann man es als unbeschränktes Optimierungsproblem behandeln, indem man auf dem Gradienten

und der Hesse-Matrix

aufbaut. Über diesen Zugang leitet man die notwendigen Bedingungen ab, linearisiert sie und erzeugt letztlich wieder die Normalgleichungen; aus numerischen Gründen wie oben diskutiert wird dieser Weg nicht empfohlen. Trotzdem ist es gut, seine Strukur zu kennen.

In einem Ausgleichsproblem mit euklidischer Norm hat der Gradient

von

die einfache Gestalt



wobei

die Jacobi-Matrix von

bezeichnet. Die Hessematrix

von

ist



mit



Sind die zweiten Ableitungen

verfügbar, dann kann (5) in der quasi-Newton Methode verwendet werden. In den meisten Fällen ist es aber möglich, stattdessen eine typische Eigenschaft von Ausgleichsproblemen auszunutzen. Die Residuen

werden im Lösungspunkt

gewöhnlich recht klein sein und

kann unter dieser Annahme kleiner Residuen mit

approximiert werden. Diese Approximation der Hesse-Matrix erhält man auch, wenn man die Residuen

entwickelt und bis zur linearen Ordnung mitführt. Der Vorteil, und dies resultiert aus der speziellen Struktur der MdkQ, liegt darin, daß Informationen über die zweite Ableitung komplett aus Ableitungen erster Ordnung gewonnen werden. Dies ist typisch für Ausgleichsprobleme, und diese spezielle Variante des Newton-Verfahrens wird Gauß-Newton-Methode genannt. Gedämpfte Gauß-Newton-Verfahren bedienen sich eines Liniensuchverfahrens, um aus einer vorliegenden Lösung

in der k-ten Iteration

zu erhalten, und gehen wie folgt vor:

• Bestimmung der Suchrichtung

aus dem linearen Gleichungssystem

das sich aus dem klassischen Newton-Verfahren bei Optimierungsfragestellungen, d.h. den Bedingungen

, ableitet;

• Anwendung des Liniensuchverfahrens zur Bestimmung des Dämpfungsfaktors



• Iteration

.

Das Gauß-Newton-Verfahren und seine Konvergenzeigenschaften hängen stark von der Approximationgüte der Hesse-Matrix ab. In Problemen mit relativ großen Residuen wird

in Formel (5) an Bedeutung zunehmen und die Konvergenzrate abnehmen. Für

und hinreichend nahe der optimalen Lösung konvergiert das Gauß-Newton-Verfahren nur mit linearer Konvergenzrate. Nur für

kann eine quadratische Konvergenz erzielt werden. Trotz dieser Nachteile stellt es ein klassisches, wenn auch hier nicht empfohlenes Verfahren zur Lösung nichtlinearer Ausgleichsprobleme dar.

Zu beachten ist, daß die linearen Gleichungen (6), die in jeder Iteration k gelöst werden müssen, die Normalgleichungen des Ausgleichsproblems



mit

,

,

sind.

Eine beliebte Methode zur Lösung unbeschränkter nichtlinearer Ausgleichsprobleme ist der Levenberg-Marquardt-Algorithmus, der 1944 von Levenberg und unabhängig davon 1963 von Marquardt vorgeschlagen wurde. Dieses Verfahren modifiziert die Eigenwerte der Matrix

und versucht den Einfluß der Eigenvektoren, die zum kleinsten Eigenwert gehören, zu reduzieren.

Im Zusammenhang mit linearen Ausgleichsproblemen zeigten Orthogonalisierungsverfahren einen Weg auf, die numerischen Probleme zu umgehen, die sich bei der Lösung der Normalgleichungen ergeben. Führt man die Linearisierung des nichtlinearen Ausgleichsproblems ein wenig verschieden durch, so gewinnt man ein Gauß-Newton-Verfahren, das die Bildung der Normalgleichungen umgeht. Hierzu wird die Taylor-Reihenentwicklung des Residuenvektors

in erster Ordnung betrachtet:



Die notwendigen Bedingungen zur Lösung von (8) sind wieder die Normalgleichungen von (7). Dies zeigt, daß die Lösungen von (8) und des ursprünglichen Problems identisch sind. Die in (8) verwendete Entwicklung ist allerdings nur dann eine gute Approximation des ursprünglichen Problems, wenn gilt:

• der Residuenvektor

, oder äquivalent dazu

, ist hinreichend klein; oder

• die Differenz

ist hinreichend klein.

In gedämpften Gauß-Newton-Verfahren mit Dämpfungsparameter

ist das ursprüngliche Problem (8) daher ersetzt durch



mit einem nachgeschalteten Liniensuchverfahren. Zunächst wird also das lineare Ausgleichsproblem (9) mit

und

z.B. mit dem Householder-Verfahren gelöst; das Ergebnis ist die Suchrichtung

. In der Iteration wird dann

gesetzt, wobei der Dämpfungsfaktor

mit Hilfe eines Liniensuchverfahren oder natürlicher Niveaufunktionen gewonnen wird.

2 Beschränkte Ausgleichsprobleme

Beschränkte Ausgleichsprobleme der Form





werden oft mit dem in der beschränkten Optimierung bekannten Verfahren der sequentiellen quadratischen Programmierung gelöst; dieser Zugang ist aber nur bedingt zu empfehlen. Sinnvoller ist es, verallgemeinerte Gauß-Newton-Verfahren in Verbindung mit Orthogonalisierungstechniken zu verwenden.

Gauß-Newton-Verfahren für beschränkte Ausgleichsprobleme

Formal soll ein Ausgleichsproblem mit

Randbedingungen der Form



mit Residuenvektor

gelöst werden. Hier sei nur der gleichungsbeschränkte Fall betrachtet. Als Startwert sei

gegeben; die Iteration verfährt in der Form

mit einer Dämpfungskonstante

, die nicht beliebig klein werden soll, d.h.

. Zur Berechnung des Inkrementes

wird

in (10) durch

substituiert und die Terme

und

um

linearisiert. Dann ist

Lösung des linearen, gleichungsbeschränkten Ausgleichsproblems



mit den Jacobi-Matrizen



Unter bestimmten Annahmen über die Regularität der Jacobi-Matrizen

existiert eine eindeutige Lösung

von (11) und eine eindeutige lineare Abbildung

(die verallgemeinerte Inverse genannt wird und nicht mit der Moore-Penrose-Inversen (Matrix) verwechselt werden darf), die den Bedingungen







genügt. Die Lösung

des linearen Problems folgt eindeutig aus den Kuhn-Tucker-Bedingungen (Lagrange-Multiplikatoren)





wobei

den Vektor der Lagrange-Multiplikatoren bezeichnet.

Zur numerischen Berechnung von

wird die verallgemeinerte Inverse nicht explizit berechnet. Stattdessen werden Verfahren entwickelt, die die Struktureigenschaften der Jacobi-Matrizen ausnutzen und spezielle Faktorisierungen von

und

verwenden. Da die Jacobi-Matrizen und ihre Zerlegungen in jeder Iteration bekannt sind, lassen sich nach Konvergenz Kovarianz- und Korrelationsmatrix für den Lösungsvektor

ausrechnen.

Parameterbestimmung in Systemen von Differentialgleichungen

Mit Hilfe eines Mehrzielansatzes können auch Differentialgleichungssysteme mit geringen Stabilitätseigenschaften und selbst chaotische Systeme untersucht werden. Gegeben seien eine Differentialgleichung (mit Schaltbedingungen) für die Zustandsvariable



mit einer von einem Parametervektor

abhängigen rechten Seite, Anfangsbedingungen

sowie Meßwerten

für die Zustandsvariablen

oder allgemeiner für Funktionen derselben,



die zu Zeiten

(den Meßpunkten) in einem Zeitraum

erhoben wurden und mit einem Meßfehler

behaftet sind. Sind die Meßfehler

unabhängig sowie normalverteilt mit Mittelwert Null und sind ihre Varianzen

bekannt, so ist ein angemessenes Zielfunktional durch



gegeben. Insbesondere der Parametervektor

, aber auch die Trajektorien

können Gleichungs- und Ungleichungsbedingungen unterworfen werden, so daß zusätzlich bekannte Informationen über die zu identifizierenden Parameter, z.B. Positivitätsforderungen, in der Problemformulierung berücksichtigt werden können.

Ein naheliegender und häufig verwendeter Ansatz zur numerischen Behandlung von Parameteridentifizierungsproblemen bei Differentialgleichungen besteht in der wiederholten Lösung des Anfangswertproblems (AWP) für feste Parameter innerhalb einer iterativen Prozedur zur Anpassung der Parameter, um die Approximation zu verbessern. Das inverse Problem wird also wieder auf eine Folge von AWP zurückgeführt. Diese Reinversion des inversen Problems eliminiert die Zustandsvariablen

zugunsten der unbekannten Parameter

. Dies hat zur Folge, daß jegliche Information über den Lösungsverlauf, die für das inverse Problem gerade charakteristisch ist, außer Acht gelassen wird; dies wiederum hat einen verkleinerten Konvergenzbereich zur Folge. Durch schlechte Startwerte der Parameter kann man zudem in schlecht konditionierte Bereiche des AWPs kommen, was zum Verlust der Stabilität führen kann, oder die Lösung läuft in eine Polstelle, so daß gar nicht für alle Meßwerte das Ausgleichsfunktional ausgewertet werden kann.

Alternativ zum AWP-Ansatz kann das inverse Problem als überbestimmtes, beschränktes Mehrpunktrandwertproblem mit Schalt- und Sprungbedingungen aufgefaßt werden, und zwar unabhängig davon, ob das ›direkte‹ Problem auf Grund der Modellbedingungen ein Randwertproblem darstellt oder nicht. Dies ermöglicht insbesondere auch die Modellierung dynamischer Prozesse, die nicht durch Differentialgleichungen mit glatter rechter Seite beschrieben werden. Sie werden dann als Differentialgleichungen mit Schaltbedingungen formuliert,



wobei sich die rechte Seite bei einem Vorzeichenwechsel der Schaltfunktion

unstetig ändert. Solche Unstetigkeiten können z.B. durch sprunghafte Änderungen physikalischer Größen oder Gesetzmäßigkeiten auftreten. Die Schaltpunkte sind dann implizit durch



gegeben. Schaltpunkte können auch explizit gegeben sein; ebenso ist es möglich, daß Unstetigkeiten der Zustandsvariablen selbst vorkommen.

Für ein gewähltes und an das Problem wie auch an die Meßwerte angepaßtes Gitter

von m Stützstellen

(

Teilintervalle

),



welches das Meßintervall überdeckt (

), wird die diskrete Trajektorie

als Variable neben den unbekannten Parametern

eingeführt; die

sind dabei die Anfangswerte der Teiltrajektorien. Integriert wird dabei jeweils von

bis

.

Zu einer gegebenen Schätzung des erweiterten Variablenvektors

berechnet man die Lösungen

der

unabhängigen Anfangswertprobleme auf jedem Teilintervall

und erhält so eine (zunächst unstetige) Parameterisierung von

. Durch die zusätzlichen Anschlußbedingungen



wird die Stetigkeit der Lösung gesichert.

Formal handelt es sich bei dem beschriebenen Ausgleichsproblem um ein beschränktes Optimierungsproblem der Gestalt (10) mit

. Je nach Problemklasse kann die Anzahl der Variablen von unter 100 bis zu mehreren tausend betragen.

Das beschränkte, hochgradig nichtlineare Problem wird wieder mit Hilfe eines verallgemeinerten, gedämpften Gauß-Newton-Verfahrens gelöst. Durch Berücksichtigung der infolge der Bedingungen (12) des Mehrzielansatzes speziellen Form der Matrizen

kann (10) durch einen Kondensierungsalgorithmus auf ein System erheblich niedrigerer Dimension



reduziert werden, aus dem zunächst

und schließlich

bestimmt wird; hierbei treten die Einzelschritte ›Rückwärtsrekursion‹, ›Vorwärtsrekursion‹ und die ›Lösung des kondensierten Problems‹ auf.

Parameteridentifizierungsprobleme in partiellen Differentialgleichungssystemen lassen sich in bestimmten Fällen mit der beschriebenen Methode ebenfalls lösen, indem man das partielle Differentialgleichungssystem mit Hilfe der Methode der Linien (MdL) auf ein System gewöhnlicher Differentialgleichungen zurückführt. Dies entspricht einer Finite-Differenzen oder Finite-Elemente-Diskretisierung im räumlichen Bereich; der zeitliche Bereich wird mit Hilfe des Mehrzielverfahrens diskretisiert. Die MdL wird besonders häufig verwendet bei zeitabhängigen partiellen Differentialgleichungsmodellen mit nur einer räumlichen Variablen. Wie im folgenden Beispiel der Diffusionsgleichung gezeigt, führt die räumliche Diskretisierung auf eine gekoppeltes System von N gewöhnlichen Differentialgleichungen, wenn N die Anzahl der Diskretisierungspunkte bezeichnet. Die Diffusionsgleichung



mit zu bestimmendem, ortsunabhängigem Diffusionskoeffizienten D (weitere Parameter treten in den Randbedingungen auf, sollen hier aber nicht weiter betrachtet werden) erlaubt die räumliche Diskretisierung nach z,





Approximiert man die räumliche Ableitung durch ihre finiten Differenzen



so kann die Diffusionsgleichung durch die

gewöhnlichen Differentialgleichungen



ersetzt und mit Hilfe des oben beschriebenen Verfahrens gelöst werden. Als Anwendungsbeispiel sei die Modellierung und Analyse hygroskopischer Flüssigkeiten genannt, bei denen Diffusionsraten und Stofftransportkonstanten an der Oberfläche bestimmt werden.

Literatur:

C.L. Lawson und R.J. Hanson: Solving Least Square Problems, Prentice Hall, Englewood Cliffs, NJ, 1974.
R.L. Branham: Scientific Data Analysis: An Introduction to Overdetermined Systems, Springer, New York, 1990.
J. Stoer und R. Bulirsch: Einführung in der Numerische Analysis, 1992.
P.E. Gill, W. Murray und M.H. Wright: Practical Optimisation, Academic Press, London, 1981.
H.G. Bock: Randwertproblemmethoden zur Parameteridentifizierung in Systemen nichtlinearer Differentialgleichungen, Universität Heidelberg, 1987.

  • Die Autoren
Mitarbeiter Band I und II

Redaktion:

Silvia Barnert
Dr. Matthias Delbrück
Dr. Reinald Eis
Natalie Fischer
Walter Greulich (Schriftleiter)
Carsten Heinisch
Sonja Nagel
Dr. Gunnar Radons
MS (Optics) Lynn Schilling-Benz
Dr. Joachim Schüller

Mitarbeiter Band III

Redaktion:

Christine Weber
Ulrich Kilian

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Katja Bammel, Berlin [KB2] (A) (13)
Prof. Dr. W. Bauhofer, Hamburg (B) (20, 22)
Sabine Baumann, Heidelberg [SB] (A) (26)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Prof. Dr. Klaus Bethge, Frankfurt (B) (18)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Angela Burchard, Genf [AB] (A) (20, 22)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Heidelberg [FE] (A) (27; Essay Biophysik)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Dr. Andreas Faulstich, Oberkochen [AF4] (A) (Essay Adaptive Optik)
Prof. Dr. Rudolf Feile, Darmstadt (B) (20, 22)
Stephan Fichtner, Dossenheim [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Dossenheim [NF] (A) (32)
Prof. Dr. Klaus Fredenhagen, Hamburg [KF2] (A) (Essay Algebraische Quantenfeldtheorie)
Thomas Fuhrmann, Heidelberg [TF1] (A) (14)
Christian Fulda, Heidelberg [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22; Essay Datenverarbeitungssysteme künftiger Hochenergie- und Schwerionen-Experimente)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Göttingen [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (A, B) (01, 16; Essay Dichtefunktionaltheorie)
Prof. Dr. Hellmut Haberland, Freiburg [HH4] (A) (Essay Clusterphysik)
Dr. Andreas Heilmann, Chemnitz [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Jens Hoerner, Hannover [JH] (A) (20)
Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Ulrich Kilian, Hamburg [UK] (A) (19)
Thomas Kluge, Mainz [TK] (A) (20)
Achim Knoll, Straßburg [AK1] (A) (20)
Andreas Kohlmann, Heidelberg [AK2] (A) (29)
Dr. Barbara Kopff, Heidelberg [BK2] (A) (26)
Dr. Bernd Krause, Karlsruhe [BK1] (A) (19)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Dr. Andreas Markwitz, Dresden [AM1] (A) (21)
Holger Mathiszik, Bensheim [HM3] (A) (29)
Mathias Mertens, Mainz [MM1] (A) (15)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Warwick, UK [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09; Essay Akustik)
Guenter Milde, Dresden [GM1] (A) (12)
Maritha Milde, Dresden [MM2] (A) (12)
Dr. Christopher Monroe, Boulder, USA [CM] (A) (Essay Atom- und Ionenfallen)
Dr. Andreas Müller, Kiel [AM2] (A) (33; Essay Alltagsphysik)
Dr. Nikolaus Nestle, Regensburg [NN] (A) (05)
Dr. Thomas Otto, Genf [TO] (A) (06; Essay Analytische Mechanik)
Prof. Dr. Harry Paul, Berlin [HP] (A) (13)
Cand. Phys. Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Prof. Dr. Ulrich Platt, Heidelberg [UP] (A) (Essay Atmosphäre)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14; Essay Allgemeine Relativitätstheorie)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Prof. Dr. Günter Radons, Stuttgart [GR2] (A) (11)
Oliver Rattunde, Freiburg [OR2] (A) (16; Essay Clusterphysik)
Dr. Karl-Henning Rehren, Göttingen [KHR] (A) (Essay Algebraische Quantenfeldtheorie)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Prof. Dr. Hermann Rietschel, Karlsruhe [HR1] (A, B) (23)
Dr. Peter Oliver Roll, Mainz [OR1] (A, B) (04, 15; Essay Distributionen)
Hans-Jörg Rutsch, Heidelberg [HJR] (A) (29)
Dr. Margit Sarstedt, Newcastle upon Tyne, UK [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Prof. Dr. Arthur Scharmann, Gießen (B) (06, 20)
Dr. Arne Schirrmacher, München [AS5] (A) (02)
Christina Schmitt, Freiburg [CS] (A) (16)
Cand. Phys. Jörg Schuler, Karlsruhe [JS1] (A) (06, 08)
Dr. Joachim Schüller, Mainz [JS2] (A) (10; Essay Analytische Mechanik)
Prof. Dr. Heinz-Georg Schuster, Kiel [HGS] (A, B) (11; Essay Chaos)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (A, B) (07, 20)
Cornelius Suchy, Brüssel [CS2] (A) (20)
William J. Thompson, Chapel Hill, USA [WJT] (A) (Essay Computer in der Physik)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Dipl.-Geophys. Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Thomas Wagner, Heidelberg [TW2] (A) (29; Essay Atmosphäre)
Manfred Weber, Frankfurt [MW1] (A) (28)
Markus Wenke, Heidelberg [MW3] (A) (15)
Prof. Dr. David Wineland, Boulder, USA [DW] (A) (Essay Atom- und Ionenfallen)
Dr. Harald Wirth, Saint Genis-Pouilly, F [HW1] (A) (20)Steffen Wolf, Freiburg [SW] (A) (16)
Dr. Michael Zillgitt, Frankfurt [MZ] (A) (02)
Prof. Dr. Helmut Zimmermann, Jena [HZ] (A) (32)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)

Mitarbeiter Band IV

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Ulf Borgeest, Hamburg [UB2] (A) (Essay Quasare)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Karl Eberl, Stuttgart [KE] (A) (Essay Molekularstrahlepitaxie)
Dr. Dietrich Einzel, Garching [DE] (A) (20)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33; Essay Optische Erscheinungen der Atmosphäre)
Dr. Christian Eurich, Bremen [CE] (A) (Essay Neuronale Netze)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15; Essay Perkolationstheorie)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Harald Fuchs, Münster [HF] (A) (Essay Rastersondenmikroskopie)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Michael Gerding, Kühlungsborn [MG2] (A) (13)
Prof. Dr. Gerd Graßhoff, Bern [GG] (A) (02)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Prof. Dr. Michael Grodzicki, Salzburg [MG1] (B) (01, 16)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Christoph Heinze, Hamburg [CH3] (A) (29)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Florian Herold, München [FH] (A) (20)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Georg Hoffmann, Gif-sur-Yvette, FR [GH1] (A) (29)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Dr. Catherine Journet, Stuttgart [CJ] (A) (Essay Nanoröhrchen)
Prof. Dr. Josef Kallrath, Ludwigshafen, [JK] (A) (04; Essay Numerische Methoden in der Physik)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15; Essay Quantengravitation)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Dr. Uwe Klemradt, München [UK1] (A) (20, Essay Phasenübergänge und kritische Phänomene)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Berndt Koslowski, Ulm [BK] (A) (Essay Ober- und Grenzflächenphysik)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Jens Kreisel, Grenoble [JK2] (A) (20)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Prof. Dr. Karl von Meyenn, München [KVM] (A) (02)
Dr. Rudi Michalak, Augsburg [RM1] (A) (23)
Helmut Milde, Dresden [HM1] (A) (09)
Günter Milde, Dresden [GM1] (A) (12)
Marita Milde, Dresden [MM2] (A) (12)
Dr. Andreas Müller, Kiel [AM2] (A) (33)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20; Essays Molekularstrahlepitaxie, Ober- und Grenzflächenphysik und Rastersondenmikroskopie)
Dr. Thomas Otto, Genf [TO] (A) (06)
Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Andrea Quintel, Stuttgart [AQ] (A) (Essay Nanoröhrchen)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15; Essay Quanteninformatik)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15; Essay Quantenmechanik und ihre Interpretationen)
Prof. Dr. Siegmar Roth, Stuttgart [SR] (A) (Essay Nanoröhrchen)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Dr. Margit Sarstedt, Leuven, B [MS2] (A) (25)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Michael Schmid, Stuttgart [MS5] (A) (Essay Nanoröhrchen)
Dr. Martin Schön, Konstanz [MS] (A) (14)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Paul Steinhardt, Princeton, USA [PS] (A) (Essay Quasikristalle und Quasi-Elementarzellen)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Gerald 't Hooft, Utrecht, NL [GT2] (A) (Essay Renormierung)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Dr. Hildegard Wasmuth-Fries, Ludwigshafen [HWF] (A) (26)
Manfred Weber, Frankfurt [MW1] (A) (28)
Priv.-Doz. Dr. Burghard Weiss, Lübeck [BW2] (A) (02)
Prof. Dr. Klaus Winter, Berlin [KW] (A) (Essay Neutrinophysik)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23; Essay Organische Supraleiter)
Priv.-Doz. Dr. Jörg Zegenhagen, Stuttgart [JZ3] (A) (21; Essay Oberflächenrekonstruktionen)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Mitarbeiter Band V

Dr. Ulrich Kilian (verantwortlich)
Christine Weber

Redaktionsassistenz:

Matthias Beurer

Physikhistorische Beratung:

Priv.-Doz. Dr. Dieter Hoffmann, Berlin

Autoren (A) und Berater (B):

In eckigen Klammern steht das Autorenkürzel, die Zahl in der runden Klammer ist die Fachgebietsnummer; eine Liste der Fachgebiete findet sich im Vorwort.

Prof. Dr. Klaus Andres, Garching [KA] (A) (10)
Markus Aspelmeyer, München [MA1] (A) (20)
Dr. Katja Bammel, Cagliari, I [KB2] (A) (13)
Doz. Dr. Hans-Georg Bartel, Berlin [HGB] (A) (02)
Steffen Bauer, Karlsruhe [SB2] (A) (20, 22)
Dr. Günther Beikert, Viernheim [GB1] (A) (04, 10, 25)
Prof. Dr. Hans Berckhemer, Frankfurt [HB1] (A, B) (29; Essay Seismologie)
Dr. Werner Biberacher, Garching [WB] (B) (20)
Prof. Tamás S. Biró, Budapest [TB2] (A) (15)
Prof. Dr. Helmut Bokemeyer, Darmstadt [HB2] (A, B) (18)
Dr. Thomas Bührke, Leimen [TB] (A) (32)
Jochen Büttner, Berlin [JB] (A) (02)
Dr. Matthias Delbrück, Dossenheim [MD] (A) (12, 24, 29)
Prof. Dr. Martin Dressel, Stuttgart (A) (Essay Spindichtewellen)
Dr. Michael Eckert, München [ME] (A) (02)
Dr. Dietrich Einzel, Garching (A) (Essay Supraleitung und Suprafluidität)
Dr. Wolfgang Eisenberg, Leipzig [WE] (A) (15)
Dr. Frank Eisenhaber, Wien [FE] (A) (27)
Dr. Roger Erb, Kassel [RE1] (A) (33)
Dr. Angelika Fallert-Müller, Groß-Zimmern [AFM] (A) (16, 26)
Stephan Fichtner, Heidelberg [SF] (A) (31)
Dr. Thomas Filk, Freiburg [TF3] (A) (10, 15)
Natalie Fischer, Walldorf [NF] (A) (32)
Dr. Thomas Fuhrmann, Mannheim [TF1] (A) (14)
Christian Fulda, Hannover [CF] (A) (07)
Frank Gabler, Frankfurt [FG1] (A) (22)
Dr. Harald Genz, Darmstadt [HG1] (A) (18)
Prof. Dr. Henning Genz, Karlsruhe [HG2] (A) (Essays Symmetrie und Vakuum)
Dr. Michael Gerding, Potsdam [MG2] (A) (13)
Andrea Greiner, Heidelberg [AG1] (A) (06)
Uwe Grigoleit, Weinheim [UG] (A) (13)
Gunther Hadwich, München [GH] (A) (20)
Dr. Andreas Heilmann, Halle [AH1] (A) (20, 21)
Carsten Heinisch, Kaiserslautern [CH] (A) (03)
Dr. Marc Hemberger, Heidelberg [MH2] (A) (19)
Dr. Sascha Hilgenfeldt, Cambridge, USA (A) (Essay Sonolumineszenz)
Dr. Hermann Hinsch, Heidelberg [HH2] (A) (22)
Priv.-Doz. Dr. Dieter Hoffmann, Berlin [DH2] (A, B) (02)
Dr. Gert Jacobi, Hamburg [GJ] (B) (09)
Renate Jerecic, Heidelberg [RJ] (A) (28)
Prof. Dr. Josef Kallrath, Ludwigshafen [JK] (A) (04)
Priv.-Doz. Dr. Claus Kiefer, Freiburg [CK] (A) (14, 15)
Richard Kilian, Wiesbaden [RK3] (22)
Dr. Ulrich Kilian, Heidelberg [UK] (A) (19)
Thomas Kluge, Jülich [TK] (A) (20)
Dr. Achim Knoll, Karlsruhe [AK1] (A) (20)
Dr. Alexei Kojevnikov, College Park, USA [AK3] (A) (02)
Dr. Bernd Krause, München [BK1] (A) (19)
Dr. Gero Kube, Mainz [GK] (A) (18)
Ralph Kühnle, Heidelberg [RK1] (A) (05)
Volker Lauff, Magdeburg [VL] (A) (04)
Dr. Anton Lerf, Garching [AL1] (A) (23)
Dr. Detlef Lohse, Twente, NL (A) (Essay Sonolumineszenz)
Priv.-Doz. Dr. Axel Lorke, München [AL] (A) (20)
Prof. Dr. Jan Louis, Halle (A) (Essay Stringtheorie)
Dr. Andreas Markwitz, Lower Hutt, NZ [AM1] (A) (21)
Holger Mathiszik, Celle [HM3] (A) (29)
Dr. Dirk Metzger, Mannheim [DM] (A) (07)
Dr. Rudi Michalak, Dresden [RM1] (A) (23; Essay Tieftemperaturphysik)
Günter Milde, Dresden [GM1] (A) (12)
Helmut Milde, Dresden [HM1] (A) (09)
Marita Milde, Dresden [MM2] (A) (12)
Prof. Dr. Andreas Müller, Trier [AM2] (A) (33)
Prof. Dr. Karl Otto Münnich, Heidelberg (A) (Essay Umweltphysik)
Dr. Nikolaus Nestle, Leipzig [NN] (A, B) (05, 20)
Dr. Thomas Otto, Genf [TO] (A) (06)
Priv.-Doz. Dr. Ulrich Parlitz, Göttingen [UP1] (A) (11)
Christof Pflumm, Karlsruhe [CP] (A) (06, 08)
Dr. Oliver Probst, Monterrey, Mexico [OP] (A) (30)
Dr. Roland Andreas Puntigam, München [RAP] (A) (14)
Dr. Gunnar Radons, Mannheim [GR1] (A) (01, 02, 32)
Dr. Max Rauner, Weinheim [MR3] (A) (15)
Robert Raussendorf, München [RR1] (A) (19)
Ingrid Reiser, Manhattan, USA [IR] (A) (16)
Dr. Uwe Renner, Leipzig [UR] (A) (10)
Dr. Ursula Resch-Esser, Berlin [URE] (A) (21)
Dr. Peter Oliver Roll, Ingelheim [OR1] (A, B) (15)
Hans-Jörg Rutsch, Walldorf [HJR] (A) (29)
Rolf Sauermost, Waldkirch [RS1] (A) (02)
Matthias Schemmel, Berlin [MS4] (A) (02)
Prof. Dr. Erhard Scholz, Wuppertal [ES] (A) (02)
Dr. Martin Schön, Konstanz [MS] (A) (14; Essay Spezielle Relativitätstheorie)
Dr. Erwin Schuberth, Garching [ES4] (A) (23)
Jörg Schuler, Taunusstein [JS1] (A) (06, 08)
Dr. Joachim Schüller, Dossenheim [JS2] (A) (10)
Richard Schwalbach, Mainz [RS2] (A) (17)
Prof. Dr. Klaus Stierstadt, München [KS] (B)
Dr. Siegmund Stintzing, München [SS1] (A) (22)
Dr. Berthold Suchan, Gießen [BS] (A) (Essay Wissenschaftsphilosophie)
Cornelius Suchy, Brüssel [CS2] (A) (20)
Dr. Volker Theileis, München [VT] (A) (20)
Prof. Dr. Stefan Theisen, München (A) (Essay Stringtheorie)
Dr. Annette Vogt, Berlin [AV] (A) (02)
Dr. Thomas Volkmann, Köln [TV] (A) (20)
Rolf vom Stein, Köln [RVS] (A) (29)
Dr. Patrick Voss-de Haan, Mainz [PVDH] (A) (17)
Dr. Thomas Wagner, Heidelberg [TW2] (A) (29)
Manfred Weber, Frankfurt [MW1] (A) (28)
Dr. Martin Werner, Hamburg [MW] (A) (29)
Dr. Achim Wixforth, München [AW1] (A) (20)
Dr. Steffen Wolf, Berkeley, USA [SW] (A) (16)
Dr. Stefan L. Wolff, München [SW1] (A) (02)
Priv.-Doz. Dr. Jochen Wosnitza, Karlsruhe [JW] (A) (23)
Dr. Kai Zuber, Dortmund [KZ] (A) (19)
Dr. Werner Zwerger, München [WZ] (A) (20)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.