2.7 Eigenwerte und Eigenvektoren 2.7 49 Eigenwerte und Eigenvektoren Definition 2.7.1 Sei A eine n × n-Matrix. Dann heißt λ ∈ R Eigenwert von A, wenn es ein ~x ∈ Rn mit ~x 6= ~0 gibt, so dass gilt A~x = λ~x. Jedes ~x 6= ~0, das diese Gleichung erfüllt, heißt Eigenvektor von A zum Eigenwert λ. Bemerkung∗ : wegen A~0 = λ~0 für alle λ ∈ R y ~x 6= ~0 wesentlich! Beispiele : f : R3 → R3 Drehung um den Winkel θ > 0 um die x-Achse früher: f1 (x, y, z) 1 0 0 x ~ = f2 (x, y, z) = 0 cos θ − sin θ y = Af ξ~ f (ξ) 0 sin θ cos θ f3 (x, y, z) z | {z } z y ~ f (ξ) Af 1 y Af hat Eigenwert λ = 1, Eigenvektor ~u = 0: 0 1 0 0 1 1 Af ~u = 0 cos θ − sin θ 0 = 1 0 0 sin θ cos θ 0 0 θ ξ~ x Berechnung der Eigenwerte und Eigenvektoren einer Matrix λ Eigenwert, ~u Eigenvektor von A ⇐⇒ A~u = λ~u ⇐⇒ (A − λI)~u = ~0, ~u 6= ~0 y suchen nicht-triviale Lösung ~u des linearen Gleichungssystems =⇒ det(A − λI) = 0 {z } Satz 2.4.5 | Polynom in λ Definition 2.7.2 Seien A eine n × n-Matrix und λ ∈ R. Die Gleichung det(A − λI) = 0 heißt charakteristische Gleichung für A und das Polynom pA (λ) = det(A − λI) nennt man charakteristisches Polynom von A. y suchen also Nullstellen des charakteristischen Polynoms als Eigenwerte von A µ ¶ µ ¶ a b a−λ b Beispiel : Sei A = y A − λI = c d c d−λ y pA (λ) = det(A − λI) = (a − λ)(d − λ) − bc = λ2 − λ(a + d) + ad − bc | {z } det A q sµ ¶2 2 (a + d) − 4(ad − bc) a+d a+d a+d ± ± − (ad − bc) = y λ1,2 = 2 2 2 2 q 2 (a − d) + 4bc a+d = ± 2 2 50 2 Lineare Algebra allgemeine Berechnungsmethode 1. Schritt: Bestimmung der Nullstellen des charakteristischen Polynoms pA (λ) und ihrer Vielfachheiten 2. Schritt: Bestimmung der Lösungsräume L(A − λI|~0) des homogenen linearen Gleichungssystems (A − λI)~x = ~0 99K Eigenvektoren ~u Bezeichnung: U (λ) = L(A − λI|~0) = {~x ∈ Rn : (A − λI)~x = ~0} Definition 2.7.3 Seien A eine n × n-Matrix, λ0 ∈ R eine Nullstelle des charakteristischen Polynoms pA (λ), d.h. mit pA (λ0 ) = 0. (i) Die Vielfachheit der Nullstelle λ0 von pA (λ) heißt algebraische Vielfachheit des Eigenwertes λ0 . (ii) Man nennt den linearen Teilraum U (λ0 ) = {~x ∈ Rn : (A − λ0 I)~x = ~0} ⊂ Rn Eigenraum der Matrix A zum Eigenwert λ0 , seine Dimension dim U (λ0 ) heißt geometrische Vielfachheit des Eigenwertes λ0 . Bemerkung : • A sei n × n-Matrix y pA (λ) Polynom n-ten Grades in λ y pA (λ) besitzt genau n Nullstellen in C, d.h. ∃ λ1 , . . . , λn ∈ C : pA (λj ) = det(A − λj I) = 0 y es gibt höchstens n verschiedene (reelle) Eigenwerte von A • geometrische Vielfachheit von λ ≤ algebraische Vielfachheit von λ ≤ n • U (λ) Eigenraum, denn alle ~u ∈ U (λ) mit ~u 6= ~0 sind Eigenwerte zu λ µ Beispiel : A = q ¶ a b c d =⇒ λ1,2 s.o. a+d = ± 2 2 (a − d) + 4bc 2 2 • falls (a − d) + 4bc > 0 y λ1,2 ∈ R, λ1 6= λ2 , beide haben algebraische und geometrische Vielfachheit 1 2 • falls (a − d) + 4bc = 0 y λ1 = λ2 ∈ R, algebraische Vielfachheit 2, möglich: – dim U (λ1 ) = 2 ⇐⇒ λ1 hat geometrische Vielfachheit 2 – dim U (λ1 ) = 1 ⇐⇒ λ1 hat geometrische Vielfachheit 1 2 • falls (a − d) + 4bc < 0 y pA (λ) besitzt keine reellen Nullstellen (aber zwei konjugiert komplexe, λ1 = λ2 mit algebraischer Vielfachheit 1) 2.7 Eigenwerte und Eigenvektoren Beispiele : (a) A = µ −1 0 51 ¶ 0 1 Spiegelung bezüglich der y-Achse im R2 y pA (λ) = (−1 − λ)(1 − λ) = 0 ⇐⇒ λ1,2 = ±1 y λ1 = 1, λ2 = −1 µ ¶µ ¶ µ ¶ −2 0 u1 0 • U (λ1 ) : (A − λ1 I)~u = = y dim U (λ1 ) = 1, u2 0 0 0 ½ µ ¶¾ µ ¶ 0 0 2 U (λ1 ) = ~x ∈ R : ~x = γ , Eigenvektor ~u1 = = ~e2 1 1 µ ¶µ ¶ µ ¶ 0 0 u1 0 • U (λ2 ) : (A − λ2 I)~u = = y dim U (λ2 ) = 1, 0 2 u2 0 ½ µ ¶¾ µ ¶ 1 1 U (λ2 ) = ~x ∈ R2 : ~x = γ , Eigenvektor ~u2 = = ~e1 0 0 µ ¶ 2 0 (b) A = ⇐⇒ pA (λ) = (2 − λ)2 = 0 ⇐⇒ λ1 = λ2 = 2 0 2 ¶µ ¶ µ ¶ µ 0 u1 0 0 y dim U (λ1 ) = 2, U (λ1 ) = R2 , = • U (λ1 ) : (A − λ1 I)~u = 0 u2 0 0 µ ¶ µ ¶ 1 0 ~ jedes ~u 6= 0 Eigenvektor, z.B. ~u1 = = ~e1 , ~u2 = = ~e2 0 1 µ ¶ 2 1 (c) A = ⇐⇒ pA (λ) = (2 − λ)2 = 0 ⇐⇒ λ1 = λ2 = 2 0 2 µ ¶µ ¶ µ ¶ 0 1 u1 0 • U (λ1 ) : (A − λ1 I)~u = = y dim U (λ1 ) = 1, 0 0 u2 0 ½ µ ¶¾ µ ¶ 1 1 U (λ1 ) = ~x ∈ R2 : ~x = γ , Eigenvektor ~u1 = = ~e1 0 0 µ ¶ cos θ − sin θ (d) A = Drehung um den Winkel θ > 0 im R2 sin θ cos θ y pA (λ) = (cos θ − λ)2 + sin2 θ = 1 − 2λ cos θ + λ2 = 0 √ y λ1,2 = cos θ ± cos2 θ − 1 =⇒ λ1,2 6∈ R 0 < θ < 2π 1 0 (e) A = 0 cos θ 0 sin θ 0 − sin θ cos θ Drehung um den Winkel θ > 0 um die x-Achse im R3 det(A − λI) = (1 − λ)(cos θ − λ)2 + (1 − λ) sin2 θ = (1 − λ)(1 − 2λ cos θ + λ2 ) = 0 √ =⇒ λ2,3 6∈ R y λ1 = 1, λ2,3 = cos θ ± cos2 θ − 1 0 < θ < 2π 0 0 • U (λ1 ) : (A − λ1 I)~u = 0 cos θ − 1 0 sin θ y dim U (λ1 ) = 1, 1 U (λ1 ) = ~x ∈ R3 : ~x = γ 0 0 0 u1 0 − sin θ u2 = 0 cos θ − 1 u3 0 x-Achse, 1 Eigenvektor ~u1 = 0 = ~e1 0 52 2 Lineare Algebra Anwendung auf Koordinatentransformation / Basiswechsel (Satz 2.6.9) 3 3 Beispiel : Seien©~u ∈ R3 , |~u| = 1, ª und s : R → R die Spiegelung an der zu ~u orthogonalen Ebene 3 E = ~x ∈ R : ~u · ~x = 0 , z y s : R3 −→ R3 , s : ~x 7→ s(~x) = ~x − 2(~x · ~u)~u, s(~x) suchen möglichst einfache Abbildungsmatrix für s (in neuen Koordinaten): sei w ~ ∈ R3 , |w| ~ = 1, w ~ ∈E y w⊥~ ~ u ~u × w ~ ⊥ span(~u, w), ~ |w ~ × ~u| = 1 ¡ ¢ ~ ~u × w ~ betrachten B = (~u, w, ~ ~u × w) ~ bzw. B = ~u w y s(~u) = −~u, ~x ~xE y E ~u s(w) ~ = w, ~ s(~u × w) ~ = ~u × w ~ −1 ¡ ¢ −1 ~ ~u × w ~ 0 y s(~u)B = 0 y s(~u) = −~u = ~u w | {z } 0 0 B | {z } s(~ u)B 0 0 analog: s(w) ~ B = 1, s(~u × w) ~ B = 1 0 0 ¡ y As,B = (s(~u))B (s(w)) ~ B (s(~u × w)) ~ B ¢ −1 0 0 = 0 1 0 y det As,B = −1 0 0 1 Eigenwerte von As,B : λ1 = −1, λ2 = λ3 = 1 0 0 0 x1,B 0 • U (λ1 ) : (As,B − λ1 I)~xB = 0 2 0 x2,B = 0 y dim U (λ1 ) = 1, 0 0 2 x3,B 0 1 U (λ1 ) = ~x ∈ R3 : ~xB = γ 0 “neue x-Achse” 0 n o © ª = ~x ∈ R3 : ~x = B~xB = ~x ∈ R3 : ~x = γ~u , Eigenvektor : ~x1 = ~u |{z} Substiγ~ u tutionsformel −2 0 0 x1,B 0 • U (λ2 ) : (As,B − λ2 I)~xB = 0 0 0 x2,B = 0 y dim U (λ2 ) = 2, 0 0 0 x3,B 0 0 0 = span(w, ~ ~u × w) ~ = E, U (λ2 ) = ~x ∈ R3 : ~xB = γ1 1 + γ2 0 Substi 0 1 tutionsformel Eigenvektoren: ~x2 = w, ~ ~x3 = ~u × w ~ x