Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: 41460 Betreuer: Prof.Dr Eiermann Inhalt: „von-Mises“ - Verfahren Inverse Iteration shifted Inverse Iteration von-Mises Verfahren / Power-Methode Voraussetzungen: • (V1) | || | n 1 2 • A (n x n) • A diagonalisierbar <=>es gibt eine Basis • (V2) jeder Vektor x0 aus v ,, vn 1 des Rn aus Eigenvektoren von A Rnals Linearkombination dieser Basisvektoren n x c v cnvn c v 0 11 i1 i i • c 0 1 Verfahren: man wählt beliebigen Startvektor x 0 und bildet Iterationsfolge Ax x , Ax x , Ax x . . . 1 2 0 1 2 3 nach (V2): Ax0 c1Av1 cn Avn x1 da gilt Av v i i i c v cnnvn 1 11 Verfahren iterativ fortsetzen x Ax k 1 k 2v x Ax A2 x c 2v cnn n 2 1 0 11 1 kv x Ak x c k v cnn n 0 11 1 k umstellen: c k v 1 1 1 c k 1 1 k c k c 2 2 v n n v n c k 2 c k 11 11 k n ci i v v i 1 c i2 1 1 Was passiert wenn laut (V1) k ? i folgt lim k 1 k k 0 => xk c11 v1 man erhält also ein Vielfaches des Eigenvektors v zum zugehörigen Eigenwert 1 1 Folgerung: von Mises Verfahren liefert betragsgrößten EW k c 1 1 da c 1 0 falls 1 x k y k x k 2 1 y so folgt: k 1 x deshalb verwendet man stets normierte k -> siehe späteres MATLAB Bsp. konvergiert gegen normierten EV zum EW 1 Wie erhält man Eigenwert? Ax x xT Ax xT x Durch Rayleigh-Quotienten: T Ax x xT x Beweis: T Ax xT x Tx x x T T T x x x x x x Konvergenzgeschwindigkeit des Verfahrens ist sehr gering falls (da so 2 n 1 nur langsam gegen NULL strebt) 1 es konvergiert umso schneller, je kleiner i 1 ist 1 2 Algorithmus: i=0 repeat y Ax i i1 x y / y i1 i1 i1 2 (normierter EV) xT Ax i1 i1 x x i1 i1 (EW) until Konvergenz Siehe „Mises.m“ Inverse Iteration •Nun Suche nach dem betraglich kleinsten EW •Macht sich zunutze wenn so Av v 1 A1v v • da beim von-Mises-Verfahren EW • es ist also zu lösen: der betraglich größte EW war, so ist nun 1 der betraglich kleinste A1x x 0 1 da man nicht die Inverse berechnen will stellt man um und erhält: Ax x 1 0 • bei jedem Iterationsschritt ist also ein Gleichungssystem zu lösen 1 2 A 0 0 Beispiel: 2 4 4 3 0 3 1 5 0 4 1 1 Ax x k 1 k x 0 x 1 x 2 x 3 x 4 x 5 x 6 1 0.8782 0.8600 0.8534 0.8528 0.8526 0.8526 0 -0.1484 -0.2105 -0.2126 -0.2140 -0.2140 -0.2141 0 0.4205 0.4068 0.4150 0.4148 0.4149 0.4149 0 0.1732 0.2250 0.2330 0.2345 0.2348 0.2348 Es gilt zu beachten das nach jedem Schritt x i wieder normiert wurde durch: x x i i x i2 durch Rayleigh erhält man den EW beim 6. Schritt: x sehr groß werden könnten. i , da sonst min 0.4978 Shifted Inverse Iteration Diese oben genannte Verfahren kann man nun noch erweitern: Nehmen wir an wir suchen einen EW in der Umgebung von Wir bedienen uns dem Shiften : A A E man erhält EW durch Inverse Iteration erhalten wir einen „fiktiven“ kleinsten EW-> man muss noch „zurückshiften“ und erhält wahren EW in der Umgebung von . Das Verfahren konvergiert umso schneller, je kleiner das Verhältnis: Wobei ~ der Abstand zum nächstgelegensten EW und ~ der Abstand zum zweitnächsten ist. Siehe „inverse_shift.m“ Quellen: •Gene H. Golub and Charles F. Van Loan. Matrix Computations. The Johns Hopkins University Press, Baltimore, MA, 3rd edition, 1996 •James W. Demmel. Applied Numerical Linear Algebra. SIAM, Philadelphis, PA, 1997 •“Numerik für Eigenwertaufgaben” Dr. Norbert Herrmann