Lexikon der Mathematik: Verfahren zur Lösung eines Eigenwertproblems
Unter (numerischen) Verfahren zur Lösung des Eigenwertproblems
Zur numerischen Lösung des Eigenwertproblems wurden zahlreiche Verfahren entwickelt, welche sich in zwei Verfahrensklassen unterteilen lassen. Welches Verfahren das geeignete zur Lösung des gegebenen Problems ist, hängt stark von der Problemstellung und der Größe der Matrix A ab.
Transformationsmethoden sind Methoden, bei denen die Matrix A selbst in jedem Iterationsschritt verändert wird. Ziel der Iteration ist es, A in eine Matrix zu transformieren, von der die Eigenwerte abgelesen werden können. Sie berechnen so alle Eigenwerte einer Matrix und sind hauptsächlich für Matrizen kleiner bis mittlerer Größe geeignet. Die zweite Verfahrensklasse sind Iterationsverfahren, bei denen A nicht verändert wird und man lediglich Matrix-Vektor-Produkte Ax benötigt. Hier wird häufig versucht, einzelne Eigenwert-Eigenvektor-Paare zu approximieren. Diese Verfahren sind besonders gut für große sparse Matrizen geeignet.
Da ein Eigenvektor x ungleich Null ist, muß, damit das homogene Gleichungssystem (A − λI)x = 0 eine nichttriviale Lösung x hat, die Matrix A − λI singular sein. Mit anderen Worten es gilt
Die Charakterisierung der Eigenwerte von A als Wurzeln des charakteristischen Polynoms legt es nahe, die Koeffizienten aj von pn durch Berechnen der Determinante det(A − λI) zu bestimmen und danach die Eigenwerte λ1,…,λn als Nullstellen von pn zu berechnen. Die Eigenvektoren ergeben sich dann als nichttriviale Lösungen der Gleichungen
Die Nullstellen von rn seien μ1,…,μη. Leider gilt nicht immer μj ≈ λj (wobei angenommen sei, daß die Nullstelle von rn und pn der Größe nach geordnet sind:
Der Satz von Abel (Abel, Satz von) impliziert, daß jedes Verfahren zum Lösen des Eigenwertproblems iterativ sein muß, d.h., Eigenwerte können nur als Grenzwert einer unendlichen Folge von Näherungslösungen berechnet werden.
Je nach Aufgabenstellung sind einmal Eigenwerte und Eigenvektor, ein anderes Mal nur Eigenwerte oder Eigenvektoren der Matrix Λ gesucht. Es gibt Problemstellungen, bei denen man alle Eigenwerte/Eigenvektoren benötigt, aber auch solche, bei denen man nur an einigen wenigen interessiert ist, z. B. an dem betragsgrößten Eigenwert und dem zugehörigen Eigenvektor. Die Wahl des geeigneten Verfahrens zur Lösung hängt nicht nur von der jeweiligen Aufgabenstellung ab, sondern auch davon, welche speziellen Eigenschaften die Matrix A hat. Wichtige Kriterien sind hier, ob A symmetrisch oder nichtsymmetrisch ist, ob A klein- oder großdimensional ist, ob A dicht oder sparse besetzt ist.
Zur numerischen Lösung des Eigenwertproblems wurden zahlreiche Verfahren entwickelt, welche sich in zwei Verfahrensklassen einteilen lassen. Transformationsmethoden sind Methoden, bei denen die Matrix A selbst in jedem Iterationsschritt verändert wird. Typischerweise wird in jedem Iterationsschritt eine nichtsinguläre (idealerweise unitäre) Transformationsmatrix Xj berechnet und die Folge von Matrizen
Man könnte nun versuchen, die Xj so zu wählen, daß die Folge der Aj gegen die Jordansche Normalform von A konvergiert. Dies führt aber auf einen numerisch nicht stabilen Algorithmus. Stattdessen wird meist das folgende Resultat verwendet:
Es existiert zu jeder reellen Matrix A eine unitäre Matrix Q so, daß
Von der Diagonalen dieser Dreiecksmatrix lassen sich dann die Eigenwerte ablesen, die Spalten von Q geben Informationen über die zugehörigen Eigenvektoren (bzw. invarianten Unterräume).
Da die Matrix Q nicht direkt in endlich vielen Schritten berechenbar ist, versucht man nun, durch eine geeignete Folge von Iterationsschritten Q als unendliches Produkt von unitären Matrizen Xj aufzubauen. Dabei wählt man Xj in jedem Schritt so, daß Aj in einem gewissen Sinne näher an einer oberen Dreiecksmatrix ist als Aj−1. Praktisch muß die Berechnung nach endlich vielen Schritten abgebrochen werden, z. B., wenn die Elemente im unteren Dreieck der Iterationsmatrix Aj klein genug sind. Die beiden bekanntesten Verfahren dieser Art sind das Jacobi-Verfahren zur Lösung von symmetrischen Eigenwertproblemen und der QR-Algorithmus zur Lösung eines symmetrischen oder eines allgemeinen Eigenwertproblems. Beide Verfahren sind hauptsächlich für Matrizen kleiner bis mittlerer Größe geeignet. Sie berechnen alle Eigenwerte einer Matrix A.
Die zweite Verfahrensklasse sind Iterationsverfahren, bei denen A erhalten bleibt. Es werden Folgen von Eigenwertnäherungen
Bei der Potenzmethode wird das Eigenwert-Eigenvektor-Paar zum betragsgrößten Eigenwert approximiert, bei der inversen Iteration ein beliebiges Eigenwert-Eigenvektor-Paar. Bei beiden Verfahren wird stets ein Eigenvektor approximiert.
Falls weitere Eigenvektoren benötigt werden, kann man wie folgt vorgehen: Die Matrix A wird mittels Deflation in eine Matrix B überführt, deren Spektrum alle Eigenwerte von A außer dem bereits berechneten enthält. Anschließend wendet man dann die Potenzmethode bzw. inverse Iteration auf B an.
Eine andere Möglichkeit ist, den Ansatz der Potenzmethode bzw. der inversen Iteration wie folgt zu verallgemeinern: Man startet die Iteration statt mit einem einzelnen Startvektor x0 mit einer Start- matrix X0 ∈ ℂn×p, um p Eigenwerte und den zugehörigen invarianten Unterraum gleichzeitig zu bestimmen. Dies führt auf Unterraum-Iterationsmethoden. Speziell für symmetrische Matrizen entwickelt wurden die Varianten Rayleigh-Quotienten-Verfahren und Rayleigh-Ritz-Verfahren.
Ist die Matrix A sehr groß und sparse, und ist man nur an einigen Eigenwerten und zugehörigen Eigenvektoren (bzw. invarianten Unterräumen) interessiert, so sind für symmetrisches A das Lanczos-Verfahren, bzw. für beliebige Matrizen das Arnoldi-Verfahren die geeigneten Verfahren. Das Lanczos-Verfahren war ursprünglich ein Verfahren zur Transformation einer symmetrischen Matrix auf Tridiagonalgestalt. Kombiniert mit einer Methode zur Bestimmung von Eigenwerten und Eigenvektoren symmetrischer Tridiagonalmatrizen (z.B. dem QR-Algorithmus oder der Sturm- schen Kette) ist es ein geeignetes Verfahren zur Lösung des symmetrischen Eigenwertproblems für große sparse Matrizen. Dabei wird die Eigenschaft, daß die Eigenwerte der bei der Konstruktion als Zwischenergebnisse auftretenden Tridiagonalmatrizen kleinerer Dimension häufig schon gute Approximationen an Eigenwerte von A sind, sehr erfolgreich dazu genutzt, einige Eigenwerte und Eigenvektoren von symmetrischen großen sparsen Matrizen zu berechnen. Die sparse Besetzung der Matrix kann hierbei gut genutzt werden, da in jedem Schritt nur die Multiplikation der gegebenen Matrix mit einem Vektor erforderlich ist. Das Arnoldi-Verfahren ist eine Verallgemeinerung des Lanczos-Verfahrens für nichtsymmetrische Matrizen. Es reduziert die gegebene Matrix auf obere Hessenberg-Form. Auch hier sind die Eigenwerte der bei der Konstruktion als Zwischenergebnisse auftretenden oberen Hessenberg-Matrizen kleinerer Dimension häufig schon gute Approximationen an Eigenwerte von A. Beide Verfahren lassen sich interpretieren als Berechnung einer orthogonalen Basis {q1, q2,…,qn} für den Krylow-Raum
In den Anwendungen treten häufig allgemeinere Eigenwertprobleme als das hier betrachtete Standardeigenwertproblem auf. Ein stabiles Verfahren zur Lösung des verallgemeinerten Eigenwertproblems
Bezüglich weiterer Verfahren und Verfahren für andere Eigenwertprobleme muß auf die Spezialliteratur verwiesen werden.
Literatur
[1] Golub, G.H.; van Loan, G.F.: Matrix Computations. Johns Hopkins University Press, 1996.
[2] Kielbasinski, A.; Schwetlick H.: Numerische lineare Algebra. Verlag H. Deutsch Frankfurt, 1988.
[3] Schwarz, H.R.: Numerische Mathematik. B.G. Teubner- Verlag Stuttgart, 1993.
[4] Stoer, J.; Bulirsch, R.: Numerische Mathematik II. Springer-Verlag Heidelberg/Berlin, 1994/1991.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.