Hauptachsentransformation

Werbung
Eigenwerte und Eigenvektoren
Vorbemerkung: Ist die n × n−Matrix invertierbar, so hat das lineare Gleichungssystem A ·
~x = ~b für jedes ~b genau eine Lösung, nämlich ~x = A−1 · ~b.
Grund: i) A · ~x = A · A−1~b = ~b,
ii) Ist ~y eine weitere Lösung, also A · ~y = ~b, so gilt: A · ~x = A · ~y. Also liefert Multiplikation
mit A−1 von links: ~x = ~y.
Hat umgekehrt jedes LGS A · ~x = ~b eine Lösung, so ist die Matrix A invertierbar.
Grund: Für ~e1 , . . . , ~en gibt es die Lösungen ~x1 , . . . , ~xn , mit A · ~xi = ~ei . Daher gilt
A · (~x1 , . . . , ~xn ) = ( A · ~x1 , . . . , A · ~xn ) = (~e1 , . . . , ~en ) = En
Definition: Eine Matrix A heißt injektiv , wenn gilt: Ist A · ~x = A · ~y, so folgt ~x = ~y. Eine
Matrix A heißt surjektiv, falls es zu jedem ~y ein ~x gibt, mit A · ~x = ~y.
Bemerkung: Eine quadratische Matrix A ist genau dann injektiv, wenn A · ~x = ~0 nur die
Lösung ~x = ~0 hat.
Grund: Gibt es eine weiter Lösung ~y 6= ~0, so ist A · ~y = A ·~0, also A nicht injektiv. Ist A nicht
injektiv, so gibt es ~x 6= ~y, mit A · ~x = A · ~y, also A · (~x − ~y) = ~0 und ~x − ~y 6= 0 .
Lemma: Eine m × n Matrix A mit n > m ist nie injektiv.
Grund (Heuristik): A definiert eine Abbildung Rn → Rm . Eine injektive Matrix bildet jedoch jeweils zwei verschiedene Vektoren auf wiederum auf verschiedene Vektoren ab. Da
n > m ist, wird ein größerer Raum auf einen kleineren abgebildet. Beides zusammen kann
nicht funktionieren.
Folgerung: Zu Vektoren ~x1 , . . . , ~xm ∈ Rn mit m > n gibt es λ1 , . . . , λm ∈ R (nicht alle gleich
0), mit λ1~x1 + . . . + λm~xm = ~0.
Grund: Die n × m−Matrix A = ( x1 , . . . , xm ) ist wegen m > n
nicht injektiv. Also gibt es einen Vektor ~λ ∈ Rm , ~λ 6= ~0, mit A · ~λ = ~0
Definition: Für eine n × n− Matrix A heißt ein Vektor ~v 6= ~0 Eigenvektor von A zum Eigenwert λ, wenn
A · ~v = λ · ~v
also wenn
( A − λEn ) · ~v = 0
1
Beispiel: 1) Der Vektor
2
denn
∈
R2
3 0
8 −1
ist Eigenvektor von A =
1
3
1
·
=
= 3·
2
6
2
2) Für eine n × n−Diagonalmatrix gilt:

λ1

..

.


 · ~ei = λi ·~ei
λn
3 0
8 −1
zum Eigenwert 3,
3) Für eine diagonalisierbare Matrix A gilt: A · P = P · D. Definieren wir die Vektoren vi :=
P ·~ei , so gilt:
A · P · ~ei = P · D · ~ei = P · (λi~ei ) = λi P·~ei
also
A · ~vi = λi ~vi
Bestimmung von Eigenwerten
Erinnerung: Die Determinante einer 2 × 2−Matrix ist
det
Weiter ist
a b
c d
−1
a b
c d
= ad − bc
1
=
ad − bc
d −b
−c a
Allgemein ist die Determinante einer n × n−Matrix definiert als
n
det( A) :=
∑ (−1)k+1 det( Ak1 )
k =1
wobei Matrix Ak1 die Matrix bezeichnet, die entsteht, wenn man aus A die erste Spalte und
die k −te Zeile streicht.
Eigenschaften der Determinante:
a) A ist invertierbar ⇔ det( A) 6= 0
b) det( A · B) = det( A) · det( B)
c) det( At ) = det( A)
Es ist für eine n × n−Matrix:
A · ~v = λ · ~v ⇔ ( A − λ · En ) · ~v = ~0
Die rechte Seite ist ein lineares Gleichungssystem, welches genau dann eine Lösung verschieden von ~0 hat, wenn
det( A − λ · En ) = 0
ist.
Definition: χ A := det( A − λ · En ) heißt das charakteristische Polynom der Matrix A. Seine
Nullstellen sind also die Eigenwerte der Matrix A
cos ϕ − sin ϕ
Beispiel: 1) Für die Drehmatrix D ϕ =
ist χ D ϕ = det D ϕ =
sin ϕ cos ϕ
cos ϕ −λ − sin ϕ
= (cos ϕ − λ)2 + sin ϕ2 . Dieser Ausdruck wird genau dann 0, wenn
sin ϕ cos ϕ − λ
jeder Summand 0 ist. Aus sin ϕ2 = 0 folgt: ϕ = 0 oder ϕ = π2 und damit λ1.2 = cos ϕ =
1, −1.
2) A =
3 0
8 −1
3−λ
0
8
−1 − λ
. Dann ist χ A = det
= (3 − λ) · (−1 − λ)
Damit sind die Nullstellen, also die Eigenwerte von A, die Werte −1 und 3. Die Eigenvektoren erhält man also Lösungen von:
und
3−3
0
8
−1 − 3
· ~v =
3 − (−1)
0
8
−1 − (−1)
0 0
8 −4
· ~v =
· ~v = ~0 ⇔ ~v =
4 0
8 0
t
2·t
· ~v = ~0 ⇔ ~v =
0
t
Eigenwerte von symmetrischen Matrizen
a b
Wir betrachten zunächst den Fall einer symmetrischen 2 × 2−Matrix A =
b c
b = 0, so ist die Matrix bereits in Diagonalgestalt und nichts ist zu tun. Sei also b 6= 0
. Ist
Das charakteristische Polynom von A lautet :
χ A (t) = t2 − (c + a)t + ac − b2
Nach der p − q−Formel sind die Nullstellen hiervon:
r
r
c+a
c+a
(c + a)2 − 4ac + 4b2
(c − a)2 + 4b2
t1,2 =
±
=
±
2
4
2
4
Man beachte, daß der Ausdruck
∆ :=
(c − a)2 + 4b2
4
strikt positiv ist, also t1 6= t2 . Es gibt also zwei Eigenvektoren ~v1 , ~v2 zu zwei verschiedenen
Eigenwerten. Unten werden wir sehen, daß diese beiden orthogonal sind. Wir können weiter
annehmen, daß die beiden Eigenvektoren normiert sind. Wir setzen P := (~v1 , ~v2 ). Dann gilt:
t1 0
0 t2
|~v1 |2
< ~v1 , ~v2 >
< ~v2 , ~v1 >
|~v2 |2
AP = A(~v1 , ~v2 ) = ( A~v1 , A~v2 ) = (t1~v1 , t2~v2 ) = P
Außerdem ist P orthogonal, denn es ist
t
PP=
~v1t
~v2t
(~v1 , ~v2 ) =
~v1t ~v1 ~v1t ~v2
~v2t ~v1 ~v2t ~v1
=
=
1 0
0 1
a) A hat nur reelle Eigenwerte
b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal
Grund: zu a) Wir erinnern uns, daß für komplexe Zahlen gilt : z · z̄ = |z|2 ∈ R . Die komplexe
Konjugation von Vektoren und Matrizen wird komponentenweise definiert. Dann gilt:
t
t
t
λ~v · ~v = (λ~v) ~v = A~v · ~v = ~v · A · ~v = ~v · A · ~v = λ~v · ~v
Daraus erhält man λ = λ̄, also λ ∈ R.
zu b) Seien v~1 und v~2 Eigenvektoren zu den beiden verschiedenen Eigenwerten λ1 und λ2 .
Dann gilt:
λ1 v~1 t · v~2 = ( A · v~1 )t · v~2 = v~1 t · At · v~2 =
= v~1t · A · v~2 = v~1 t · (λ2 · v~2 ) = λ2 · v~1 t · v~2
Also ist
0 = (λ1 − λ2 ) ·~
v t · v~2
| {z } 1
6 =0
also die Behauptung.
Folgerung: Hat eine symmetrische Matrix A n verschiedene Eigenwerte λ1 , . . . , λn ∈ R mit
den zugehörigen normierten Eigenvektoren p~1 , . . . , p~n , so ist
A = P · diag(λ1 , . . . , λn ) · Pt
wo die ~pi die Spaltenvektoren der Matrix P sind. Darüberhinaus ist P orthogonal.

 t
 t 
p~1 · p~1 · · · p~1 t · p~n
p~1




..
..
...
p1 , . . . , p~n ) = 
Grund: Es ist Pt · P =  ...  · (~
 = En
.
.
p~n t · p~1 · · ·
p~n t
p~n t · p~n
da die ~pi paarweise orthogonal und normiert sind.
Weiter ist: P · diag(λ1 , . . . , λ2 ) = (λ1 · p~1 , . . . , λn · ~pn )
und: A · P = ( A · p~1 , . . . , A · p~n ) = (λ1 · p~1 , . . . , λn · ~pn )
Die Gram-Schmid-Orthonormalisierung: Ist ~v1 , . . . , ~vn ∈ Rn eine Basis, so bilden die Vektoren
k ~
vk · ~v0j
0
0
~v1 := ~v1 , . . . , ~vk := ~vk − ∑ 0 0 ~v0j
~v · ~v j
j =1 j
nach Normierung eine Orthonormalbasis, d.h. eine Basis für die zusätzlich gilt:
~vi0 · ~v0j = 0 für i 6= j
und
~vi · ~vi = 1 für alle i
Die Vektoren stehen also alle paarweise senkrecht aufeinander und haben die Länge eins.
Satz: Für reelle Matrizen sind äquivalent:
i) Jede symmetrische Matrix ist orthogonal diagonalisierbar
ii) Jede symmetrische Matrix ist diagonalisierbar
iii) Jede symmetrische Matrix hat einen Eigenwert
Grund: Klarerweise gelten die Folgerungen i ) ⇒ ii ) ⇒ iii )
iii ) ⇒ i ): Sei A eine reelle, symmetrische n × n−Matrix. Dann hat A einen Eigenwert λ mit
zugehörigem Eigenvektor v1 , den wir als normiert annehmen. Diesen ergänzen wir zu einer
Orthonormalbasis ~v1 , . . . , ~vn von Rn (Gram-Schmidt Orthogonalisierung).
Dann ist P := (~v1 , . . . , ~vn ) eine orthogonale Matrix. Es sei
B := P−1 AP
Da P orthogonal ist, ist B wieder symmetrisch.
Es ist P~ei = vi , also ist die erste Spalte von B :
B~e1 = P−1 AP~e1 = P−1 A~v1 = P−1 λ~v1 = λP−1 v~1 = λ~e1
Daraus ergibt sich wegen der Symmetrie von B:




B=



λ 0 ... 0

0


..

.
B0


0
mit einer symmetrischen n − 1 × n − 1−Matrix B0 . Per Induktion gibt es eine orthogonale
n − 1 × n − 1−Matrix R0 , mit R0−1 B0 R0 =diag(λ2 , . . . , λn ) =: D
Es sei




R := 



1 0 ... 0

0


..

.
R0


0
Dann ist








1 0 ... 0
λ
 0
0

  ..
..
t
 .
.
R0

 0
0
( PR)−1 A( PR) = R−1 BR =

0 ... 0
1 0 ... 0
 0

  ..
 .
B0
R0

 0


 
 
 
=
 
 

λ 0 ... 0

0


..

.
D


0
Satz (Hauptachsentransformation): Zu jeder symmetrischen Matrix gibt es eine orthogonale Matrix P und eine Diagonalmatrix D, so daß A = PDPt .
Grund: Wir nehmen an, die Beauptung sei richtig für alle symmetrischen n − 1 × n − 1−
Matrizen. Wir schreiben die Matrix A wie folgt als Blockmatrix auf:
!
A0 ~b
~bt d
mit einer symmetrischen n − 1 × n − 1−Matrix A0 , ~b ∈ Rn−1 und d ∈ R.
1.Fall: Ist d 6= 0, so definieren wir ~x := − d1~b. Wir haben nun:
!
!
!
En−1 ~x
A0 ~b
En−1 ~0
~0t 1
~bt d
~x t 1
En−1 ~0
~x t 1
!
=
A0 + ~x~bt ~b + d~x
~bt
d
!
=
A0 + ~x~bt + ~b~x t + d~x~x t ~b + d~x t
~bt + d~x t
d
!
Also ist A diagonalisierbar. Der obige Satz sagt uns nun, daß A sogar orthogonal diagonalisierbar ist.
2.Fall: d = 0: Sei bi 6= 0 , dann ~yt := (0, . . . , δ, . . . 0) (δ an der i −ten Stelle).
Dann ist
En−1
~yt
~0
1
!
A0
~bt
~b
0
!
En−1 ~y
0t
1
=
∗
∗
∗ δ2 aii + 2δbi
Dann wähle δ mit δ2 aii + 2δbi 6= 0 und wir sind wieder in Fall 1.
Beispiel: A : matrix ([1, 2, 0], [1, 1, 2], [0, 2, 1]);


1 2 0
 2 1 2 
0 2 1
Der Befehl uniteigenvectors(A) liefert eine Liste zurück. Deren erstes Element ist eine Liste
von Eigenwerten und ihren Vielfachheiten:


1 2 0
f irst(uniteigenvectors( 2 1 2 ))
0 2 1
hh
i
i
3
3
2
2
1 − 2 , 2 + 1, 1 , [1, 1, 1]
Der zweite Teil der Liste ist eine Liste der zugehörigen normierten Eigenvektoren:


1 2 0
second(uniteigenvectors( 2 1 2 ))
0 2 1
hhh
ii hh
ii hh
iii
1
1 √1 1
√1 , 1
√1 , 0, − √1
,
−
,
,
,
,
2
2
2
2
2
2
2
2
Wir erstellen daraus die Matrix P :
P : matrix ([1/2, 1/2, 1/sqrt(2)], [−1/sqrt(2), 1/sqrt(2), 0], [1/2, 1/2, −1/sqrt(2)]);


1
 21
 −√

2
1
2
1
2
√1
2
1
2
√1
2
0
− √12



Es ist:
transpose( P).P;


1 0 0
0 1 0
0 0 1
und:
ratsimp(transpose( P).A.P);

3
0
0
1 − 22


3
 0
2 2 + 1 0
0
0
1

Hier ist ratsimp eine Maximafunktion zur Termvereinfachung.
Herunterladen