Eigenwerte und Eigenvektoren Vorbemerkung: Ist die n × n−Matrix invertierbar, so hat das lineare Gleichungssystem A · ~x = ~b für jedes ~b genau eine Lösung, nämlich ~x = A−1 · ~b. Grund: i) A · ~x = A · A−1~b = ~b, ii) Ist ~y eine weitere Lösung, also A · ~y = ~b, so gilt: A · ~x = A · ~y. Also liefert Multiplikation mit A−1 von links: ~x = ~y. Hat umgekehrt jedes LGS A · ~x = ~b eine Lösung, so ist die Matrix A invertierbar. Grund: Für ~e1 , . . . , ~en gibt es die Lösungen ~x1 , . . . , ~xn , mit A · ~xi = ~ei . Daher gilt A · (~x1 , . . . , ~xn ) = ( A · ~x1 , . . . , A · ~xn ) = (~e1 , . . . , ~en ) = En Definition: Eine Matrix A heißt injektiv , wenn gilt: Ist A · ~x = A · ~y, so folgt ~x = ~y. Eine Matrix A heißt surjektiv, falls es zu jedem ~y ein ~x gibt, mit A · ~x = ~y. Bemerkung: Eine quadratische Matrix A ist genau dann injektiv, wenn A · ~x = ~0 nur die Lösung ~x = ~0 hat. Grund: Gibt es eine weiter Lösung ~y 6= ~0, so ist A · ~y = A ·~0, also A nicht injektiv. Ist A nicht injektiv, so gibt es ~x 6= ~y, mit A · ~x = A · ~y, also A · (~x − ~y) = ~0 und ~x − ~y 6= 0 . Lemma: Eine m × n Matrix A mit n > m ist nie injektiv. Grund (Heuristik): A definiert eine Abbildung Rn → Rm . Eine injektive Matrix bildet jedoch jeweils zwei verschiedene Vektoren auf wiederum auf verschiedene Vektoren ab. Da n > m ist, wird ein größerer Raum auf einen kleineren abgebildet. Beides zusammen kann nicht funktionieren. Folgerung: Zu Vektoren ~x1 , . . . , ~xm ∈ Rn mit m > n gibt es λ1 , . . . , λm ∈ R (nicht alle gleich 0), mit λ1~x1 + . . . + λm~xm = ~0. Grund: Die n × m−Matrix A = ( x1 , . . . , xm ) ist wegen m > n nicht injektiv. Also gibt es einen Vektor ~λ ∈ Rm , ~λ 6= ~0, mit A · ~λ = ~0 Definition: Für eine n × n− Matrix A heißt ein Vektor ~v 6= ~0 Eigenvektor von A zum Eigenwert λ, wenn A · ~v = λ · ~v also wenn ( A − λEn ) · ~v = 0 1 Beispiel: 1) Der Vektor 2 denn ∈ R2 3 0 8 −1 ist Eigenvektor von A = 1 3 1 · = = 3· 2 6 2 2) Für eine n × n−Diagonalmatrix gilt: λ1 .. . · ~ei = λi ·~ei λn 3 0 8 −1 zum Eigenwert 3, 3) Für eine diagonalisierbare Matrix A gilt: A · P = P · D. Definieren wir die Vektoren vi := P ·~ei , so gilt: A · P · ~ei = P · D · ~ei = P · (λi~ei ) = λi P·~ei also A · ~vi = λi ~vi Bestimmung von Eigenwerten Erinnerung: Die Determinante einer 2 × 2−Matrix ist det Weiter ist a b c d −1 a b c d = ad − bc 1 = ad − bc d −b −c a Allgemein ist die Determinante einer n × n−Matrix definiert als n det( A) := ∑ (−1)k+1 det( Ak1 ) k =1 wobei Matrix Ak1 die Matrix bezeichnet, die entsteht, wenn man aus A die erste Spalte und die k −te Zeile streicht. Eigenschaften der Determinante: a) A ist invertierbar ⇔ det( A) 6= 0 b) det( A · B) = det( A) · det( B) c) det( At ) = det( A) Es ist für eine n × n−Matrix: A · ~v = λ · ~v ⇔ ( A − λ · En ) · ~v = ~0 Die rechte Seite ist ein lineares Gleichungssystem, welches genau dann eine Lösung verschieden von ~0 hat, wenn det( A − λ · En ) = 0 ist. Definition: χ A := det( A − λ · En ) heißt das charakteristische Polynom der Matrix A. Seine Nullstellen sind also die Eigenwerte der Matrix A cos ϕ − sin ϕ Beispiel: 1) Für die Drehmatrix D ϕ = ist χ D ϕ = det D ϕ = sin ϕ cos ϕ cos ϕ −λ − sin ϕ = (cos ϕ − λ)2 + sin ϕ2 . Dieser Ausdruck wird genau dann 0, wenn sin ϕ cos ϕ − λ jeder Summand 0 ist. Aus sin ϕ2 = 0 folgt: ϕ = 0 oder ϕ = π2 und damit λ1.2 = cos ϕ = 1, −1. 2) A = 3 0 8 −1 3−λ 0 8 −1 − λ . Dann ist χ A = det = (3 − λ) · (−1 − λ) Damit sind die Nullstellen, also die Eigenwerte von A, die Werte −1 und 3. Die Eigenvektoren erhält man also Lösungen von: und 3−3 0 8 −1 − 3 · ~v = 3 − (−1) 0 8 −1 − (−1) 0 0 8 −4 · ~v = · ~v = ~0 ⇔ ~v = 4 0 8 0 t 2·t · ~v = ~0 ⇔ ~v = 0 t Eigenwerte von symmetrischen Matrizen a b Wir betrachten zunächst den Fall einer symmetrischen 2 × 2−Matrix A = b c b = 0, so ist die Matrix bereits in Diagonalgestalt und nichts ist zu tun. Sei also b 6= 0 . Ist Das charakteristische Polynom von A lautet : χ A (t) = t2 − (c + a)t + ac − b2 Nach der p − q−Formel sind die Nullstellen hiervon: r r c+a c+a (c + a)2 − 4ac + 4b2 (c − a)2 + 4b2 t1,2 = ± = ± 2 4 2 4 Man beachte, daß der Ausdruck ∆ := (c − a)2 + 4b2 4 strikt positiv ist, also t1 6= t2 . Es gibt also zwei Eigenvektoren ~v1 , ~v2 zu zwei verschiedenen Eigenwerten. Unten werden wir sehen, daß diese beiden orthogonal sind. Wir können weiter annehmen, daß die beiden Eigenvektoren normiert sind. Wir setzen P := (~v1 , ~v2 ). Dann gilt: t1 0 0 t2 |~v1 |2 < ~v1 , ~v2 > < ~v2 , ~v1 > |~v2 |2 AP = A(~v1 , ~v2 ) = ( A~v1 , A~v2 ) = (t1~v1 , t2~v2 ) = P Außerdem ist P orthogonal, denn es ist t PP= ~v1t ~v2t (~v1 , ~v2 ) = ~v1t ~v1 ~v1t ~v2 ~v2t ~v1 ~v2t ~v1 = = 1 0 0 1 a) A hat nur reelle Eigenwerte b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal Grund: zu a) Wir erinnern uns, daß für komplexe Zahlen gilt : z · z̄ = |z|2 ∈ R . Die komplexe Konjugation von Vektoren und Matrizen wird komponentenweise definiert. Dann gilt: t t t λ~v · ~v = (λ~v) ~v = A~v · ~v = ~v · A · ~v = ~v · A · ~v = λ~v · ~v Daraus erhält man λ = λ̄, also λ ∈ R. zu b) Seien v~1 und v~2 Eigenvektoren zu den beiden verschiedenen Eigenwerten λ1 und λ2 . Dann gilt: λ1 v~1 t · v~2 = ( A · v~1 )t · v~2 = v~1 t · At · v~2 = = v~1t · A · v~2 = v~1 t · (λ2 · v~2 ) = λ2 · v~1 t · v~2 Also ist 0 = (λ1 − λ2 ) ·~ v t · v~2 | {z } 1 6 =0 also die Behauptung. Folgerung: Hat eine symmetrische Matrix A n verschiedene Eigenwerte λ1 , . . . , λn ∈ R mit den zugehörigen normierten Eigenvektoren p~1 , . . . , p~n , so ist A = P · diag(λ1 , . . . , λn ) · Pt wo die ~pi die Spaltenvektoren der Matrix P sind. Darüberhinaus ist P orthogonal. t t p~1 · p~1 · · · p~1 t · p~n p~1 .. .. ... p1 , . . . , p~n ) = Grund: Es ist Pt · P = ... · (~ = En . . p~n t · p~1 · · · p~n t p~n t · p~n da die ~pi paarweise orthogonal und normiert sind. Weiter ist: P · diag(λ1 , . . . , λ2 ) = (λ1 · p~1 , . . . , λn · ~pn ) und: A · P = ( A · p~1 , . . . , A · p~n ) = (λ1 · p~1 , . . . , λn · ~pn ) Die Gram-Schmid-Orthonormalisierung: Ist ~v1 , . . . , ~vn ∈ Rn eine Basis, so bilden die Vektoren k ~ vk · ~v0j 0 0 ~v1 := ~v1 , . . . , ~vk := ~vk − ∑ 0 0 ~v0j ~v · ~v j j =1 j nach Normierung eine Orthonormalbasis, d.h. eine Basis für die zusätzlich gilt: ~vi0 · ~v0j = 0 für i 6= j und ~vi · ~vi = 1 für alle i Die Vektoren stehen also alle paarweise senkrecht aufeinander und haben die Länge eins. Satz: Für reelle Matrizen sind äquivalent: i) Jede symmetrische Matrix ist orthogonal diagonalisierbar ii) Jede symmetrische Matrix ist diagonalisierbar iii) Jede symmetrische Matrix hat einen Eigenwert Grund: Klarerweise gelten die Folgerungen i ) ⇒ ii ) ⇒ iii ) iii ) ⇒ i ): Sei A eine reelle, symmetrische n × n−Matrix. Dann hat A einen Eigenwert λ mit zugehörigem Eigenvektor v1 , den wir als normiert annehmen. Diesen ergänzen wir zu einer Orthonormalbasis ~v1 , . . . , ~vn von Rn (Gram-Schmidt Orthogonalisierung). Dann ist P := (~v1 , . . . , ~vn ) eine orthogonale Matrix. Es sei B := P−1 AP Da P orthogonal ist, ist B wieder symmetrisch. Es ist P~ei = vi , also ist die erste Spalte von B : B~e1 = P−1 AP~e1 = P−1 A~v1 = P−1 λ~v1 = λP−1 v~1 = λ~e1 Daraus ergibt sich wegen der Symmetrie von B: B= λ 0 ... 0 0 .. . B0 0 mit einer symmetrischen n − 1 × n − 1−Matrix B0 . Per Induktion gibt es eine orthogonale n − 1 × n − 1−Matrix R0 , mit R0−1 B0 R0 =diag(λ2 , . . . , λn ) =: D Es sei R := 1 0 ... 0 0 .. . R0 0 Dann ist 1 0 ... 0 λ 0 0 .. .. t . . R0 0 0 ( PR)−1 A( PR) = R−1 BR = 0 ... 0 1 0 ... 0 0 .. . B0 R0 0 = λ 0 ... 0 0 .. . D 0 Satz (Hauptachsentransformation): Zu jeder symmetrischen Matrix gibt es eine orthogonale Matrix P und eine Diagonalmatrix D, so daß A = PDPt . Grund: Wir nehmen an, die Beauptung sei richtig für alle symmetrischen n − 1 × n − 1− Matrizen. Wir schreiben die Matrix A wie folgt als Blockmatrix auf: ! A0 ~b ~bt d mit einer symmetrischen n − 1 × n − 1−Matrix A0 , ~b ∈ Rn−1 und d ∈ R. 1.Fall: Ist d 6= 0, so definieren wir ~x := − d1~b. Wir haben nun: ! ! ! En−1 ~x A0 ~b En−1 ~0 ~0t 1 ~bt d ~x t 1 En−1 ~0 ~x t 1 ! = A0 + ~x~bt ~b + d~x ~bt d ! = A0 + ~x~bt + ~b~x t + d~x~x t ~b + d~x t ~bt + d~x t d ! Also ist A diagonalisierbar. Der obige Satz sagt uns nun, daß A sogar orthogonal diagonalisierbar ist. 2.Fall: d = 0: Sei bi 6= 0 , dann ~yt := (0, . . . , δ, . . . 0) (δ an der i −ten Stelle). Dann ist En−1 ~yt ~0 1 ! A0 ~bt ~b 0 ! En−1 ~y 0t 1 = ∗ ∗ ∗ δ2 aii + 2δbi Dann wähle δ mit δ2 aii + 2δbi 6= 0 und wir sind wieder in Fall 1. Beispiel: A : matrix ([1, 2, 0], [1, 1, 2], [0, 2, 1]); 1 2 0 2 1 2 0 2 1 Der Befehl uniteigenvectors(A) liefert eine Liste zurück. Deren erstes Element ist eine Liste von Eigenwerten und ihren Vielfachheiten: 1 2 0 f irst(uniteigenvectors( 2 1 2 )) 0 2 1 hh i i 3 3 2 2 1 − 2 , 2 + 1, 1 , [1, 1, 1] Der zweite Teil der Liste ist eine Liste der zugehörigen normierten Eigenvektoren: 1 2 0 second(uniteigenvectors( 2 1 2 )) 0 2 1 hhh ii hh ii hh iii 1 1 √1 1 √1 , 1 √1 , 0, − √1 , − , , , , 2 2 2 2 2 2 2 2 Wir erstellen daraus die Matrix P : P : matrix ([1/2, 1/2, 1/sqrt(2)], [−1/sqrt(2), 1/sqrt(2), 0], [1/2, 1/2, −1/sqrt(2)]); 1 21 −√ 2 1 2 1 2 √1 2 1 2 √1 2 0 − √12 Es ist: transpose( P).P; 1 0 0 0 1 0 0 0 1 und: ratsimp(transpose( P).A.P); 3 0 0 1 − 22 3 0 2 2 + 1 0 0 0 1 Hier ist ratsimp eine Maximafunktion zur Termvereinfachung.