Mises

Werbung
Seminarthema 4
Numerische Methoden
der
Eigenwertberechnung
Von: Robert Schirmer
Matnr.: 41460
Betreuer: Prof.Dr Eiermann
Inhalt:
„von-Mises“ - Verfahren
Inverse Iteration
shifted Inverse Iteration
von-Mises Verfahren / Power-Methode
Voraussetzungen:
• (V1)
|  ||  |   n
1
2
• A (n x n)
• A diagonalisierbar <=>es gibt eine Basis
• (V2) jeder Vektor x0 aus
v ,, vn
1
des
Rn
aus Eigenvektoren von A
Rnals Linearkombination dieser Basisvektoren
n
x  c v    cnvn   c v
0 11
i1 i i
•
c 0
1
Verfahren:
man wählt beliebigen Startvektor
x
0
und bildet Iterationsfolge
Ax  x , Ax  x , Ax  x . . .
1
2
0
1
2
3
nach (V2): Ax0  c1Av1    cn Avn  x1
da gilt
Av   v
i
i i
 c  v    cnnvn
1 11
Verfahren iterativ fortsetzen
x
 Ax
k 1
k
2v
x  Ax  A2 x  c 2v    cnn
n
2
1
0 11 1

kv
x  Ak x  c k v    cnn
n
0 11 1
k
umstellen:


 c k v 
1 1 1

 c k
1 1

k
c k
c

2 2 v  n n v 
n
c k 2
c k

11
11


k 




n ci  i 
v  

v


i
1
c





i2 1  1 




Was passiert wenn
laut (V1)
k 
?










i
folgt lim
k  
1









k
k
 0 => xk  c11 v1
man erhält also ein Vielfaches des Eigenvektors
v zum zugehörigen Eigenwert 
1
1
Folgerung:

 von Mises Verfahren liefert betragsgrößten EW
k
c
  
1 1
da
c
1
0

falls
1
x
k
y 
k
x
k 2
1
y
so folgt:
k
1
x
deshalb verwendet man stets normierte
k
-> siehe späteres MATLAB Bsp.
konvergiert gegen normierten EV zum EW

1
Wie erhält man Eigenwert?
Ax  x
xT Ax  xT x
Durch Rayleigh-Quotienten:
T Ax
x

xT x
Beweis:
T Ax xT x
Tx
x
x




T
T
T
x x
x x
x x
Konvergenzgeschwindigkeit des Verfahrens ist sehr gering falls
(da so

2    n


1
 
nur langsam gegen NULL strebt)
1
es konvergiert umso schneller, je kleiner
i

1
ist
1
2
Algorithmus:
i=0
repeat
y
 Ax
i
i1
x
y
/ y
i1
i1 i1 2
(normierter EV)
xT Ax
  i1 i1
x x
i1 i1
(EW)
until Konvergenz
Siehe „Mises.m“
Inverse Iteration
•Nun Suche nach dem betraglich kleinsten EW
•Macht sich zunutze
wenn
so
Av  v
1
A1v  v

• da beim von-Mises-Verfahren
EW
• es ist also zu lösen:
 der betraglich größte EW war, so ist nun 1 der betraglich kleinste

A1x  x
0
1
da man nicht die Inverse berechnen will stellt man um und erhält:
Ax  x
1
0
• bei jedem Iterationsschritt ist also ein Gleichungssystem zu lösen
1

2
A
0

0

Beispiel:
2
4
4
3
0 
3 
 1
5 
0
4
1
1
Ax
x
k 1
k
x
0
x
1
x
2
x
3
x
4
x
5
x
6
1
0.8782
0.8600
0.8534
0.8528
0.8526
0.8526
0
-0.1484
-0.2105
-0.2126
-0.2140
-0.2140
-0.2141
0
0.4205
0.4068
0.4150
0.4148
0.4149
0.4149
0
0.1732
0.2250
0.2330
0.2345
0.2348
0.2348
Es gilt zu beachten das nach jedem Schritt
x
i
wieder normiert wurde durch:
x
x  i
i x
i2
durch Rayleigh erhält man den EW beim 6. Schritt:
x sehr groß werden könnten.
i
, da sonst

min

0.4978
Shifted Inverse Iteration
Diese oben genannte Verfahren kann man nun noch erweitern:
Nehmen wir an wir suchen einen EW in der Umgebung von 
Wir bedienen uns dem Shiften :
A  A  E
man erhält EW
 
durch Inverse Iteration erhalten wir einen „fiktiven“ kleinsten EW-> man muss noch „zurückshiften“ und erhält
wahren EW in der Umgebung von  .
Das Verfahren konvergiert umso schneller, je kleiner das Verhältnis:
Wobei
 
~
 
   der Abstand zum nächstgelegensten EW und ~   der Abstand zum zweitnächsten ist.
Siehe „inverse_shift.m“
Quellen:
•Gene H. Golub and Charles F. Van Loan. Matrix Computations. The Johns Hopkins University Press,
Baltimore, MA, 3rd edition, 1996
•James W. Demmel. Applied Numerical Linear Algebra. SIAM, Philadelphis, PA, 1997
•“Numerik für Eigenwertaufgaben” Dr. Norbert Herrmann
Herunterladen