2.3. Eigenwerte und Eigenvektoren 2.3 41 Eigenwerte und Eigenvektoren Lineare Abbildungen werden je nach Basiswahl durch unterschiedliche Matrizen beschrieben. Besonders einfach ist die Diagonalform. Wir werden in diesem Abschnitt der Frage nachgehen, welche linearen Abbildungen sich durch eine Diagonalmatrix darstellen lassen. Schauen wir uns zunächst genauer an, welche Wirkung eine durch eine Diagonalmatrix definierte lineare Abbildung hat. 2.25 Beispiel Sei L: R2 → R2 die durch Multiplikation der Matrix A = 1mit 1 0 2 definierte Abbildung. Dann gilt: L(e1 ) = Ae1 = 2 = 21 e1 . Der Vektor 0 0 2 e1 behält also unter der Abbildung seine Richtung, wird aber um den Faktor 12 gestaucht. Dasselbe gilt für alle Vektoren, die in der x-Achse liegen. Die x-Achse als Ganzes bleibt also stabil. 0 Weiter ist L(e2 ) = Ae2 = = 2e2 . Der Vektor e2 wird also von der Abbildung 2 L um den Faktor 2 gestreckt, ebenso wie alle Vielfachen von e2 . Die y-Achse bleibt also ebenfalls stabil unter L. 2.26 Definition Eine Zahl λ ∈ R ist ein Eigenwert einer linearen Abbildung L: V → V , falls ein Vektor 0 6= v ∈ V existiert mit L(v) = λ · v. In diesem Fall bezeichnet man v als einen zum Eigenwert λ gehörigen Eigenvektor . Jedes Vielfache w = αv 6= 0 von v ist ebenfalls ein Eigenvektor zum Eigenwert λ. Denn L(w) = αL(v) = αλv = λL(w). Die von v aufgespannte Gerade lin(v) bleibt unter der Abbildung L stabil, es ist eine Eigenrichtung von L. 1 0 2.27 Beispiele 1. Die durch die Matrix A = definierte Abbildung hat 0 2 den Eigenvektor e1 zum Eigenwert 21 und e2 zum Eigenwert 2. 2 3 2 1 2 2. Sei B = . Die Vektoren v1 = und v2 = sind Eigenvek1 4 1 −1 5 4 toren von LB . Denn Bv1 = = 5v1 und Bv2 = = 2v2 . Die zu v1 5 −2 und v2 gehörigen Eigenwerte sind also 5 bzw. 2. 2.28 Definition Eine lineare Abbildung L: V → V heisst diagonalisierbar , wenn es eine Basis B von V gibt, so dass MB (L) eine Diagonalmatrix ist. Beispielsweise sind ebene Spiegelungen diagonalisierbar, Drehungen dagegen nicht. 2.29 Satz Die Abbildung L ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren in V besitzt (für n = dim V ). 42 Kapitel 2. Lineare Algebra II Beweis. Für eine Basis B von V gilt genau dann λ1 0 .. , MB (L) = . 0 λn wenn L(vj ) = λj vj für j = 1, . . . , n. Das bedeutet aber gerade, dass die Basis B nur aus Eigenvektoren von L besteht. q.e.d. Man kann Eigenwerte, Eigenvektoren und Diagonalisierbarkeit auch für Matrizen definieren. 2.30 Definition Eine Zahl λ ∈ R ist ein Eigenwert einer n × n-Matrix A, falls ein Vektor 0 6= v ∈ Rn existiert mit Av = λ · v. In diesem Fall bezeichnet man v als einen zum Eigenwert λ gehörigen Eigenvektor . Die Matrix A heisst diagonalisierbar , wenn es eine invertierbare n × n-Matrix S gibt, so dass S −1 AS Diagonalform hat. Nun gilt wieder der entsprechende Satz über Diagonalisierbarkeit: 2.31 Satz Eine n × n-Matrix A ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren in Rn besitzt. Beweis. Nehmen wir an, v1 , . . . , vn seien linear unabhängige Eigenvektoren zu den Eigenwerten λ1 , . . . , λn . Wir bilden aus den Spalten v1 , . . . , vn eine Matrix S. Diese Matrix ist dann invertierbar und es gilt einerseits: AS = ( Av1 Andererseits ist λ1 .. S . 0 0 λn . . . Avn ) = ( λ1 v1 = (v1 . . . vn ) λ1 0 .. 0 . λn . . . λn vn ) . = ( λ1 v1 . . . λn vn ) . Also hat S −1 AS Diagonalform. Das heisst, A ist diagonalisierbar. Diese Argumentation lässt sich auch umkehren. q.e.d. 3 2 Die Matrix B = zum Beispiel hat die Eigenwerte 5 und 2. Bilden wir 1 4 1 2 aus den Eigenvektoren v1 und v2 die Transformationsmatrix S = , dann 1 −1 5 0 −1 ist S BS = . 0 2 Nun wollen wir die Frage behandeln, wie man Eigenwerte und Eigenvektoren einer vorgegebenen Matrix finden kann. Nehmen wir zunächst an, v ∈ Rn sei ein Eigenvektor der Matrix A zum Eigenwert λ. Dann ist v 6= 0 und es gilt λv − Av = (λE − A)v = 0. Das Gleichungssystem (λE − A)x = 0 hat also zusätzlich zu der trivialen Lösung x = 0 noch eine Lösung v 6= 0 in Rn . Daraus folgt det(λE − A) = 0 . 2.3. Eigenwerte und Eigenvektoren 43 Betrachtet man jetzt λ als Unbekannte, so gilt: Die Eigenwerte von A sind gerade die Lösungen der Gleichung det(λE − A) = 0. 3 2 Für die Matrix B = zum Beispiel ist 1 4 det(λE − B) = det λ − 3 −2 −1 λ − 4 = λ2 − 7λ + 10 . Die Nullstellen dieses Polynoms, λ1 = 5 und λ2 = 2, sind die Eigenwerte der Matrix B. Allgemein gilt: 2.32 Satz Sei A ∈ Mn×n . Dann ist pA (λ) := det(λE − A) ein normiertes Polynom in λ von Grad n. Man nennt pA das charakteristische Polynom von A. Die reellen Eigenwerte von A sind gerade die reellen Nullstellen von pA . Deshalb hat A höchstens n verschiedene Eigenwerte. Beweis. Wir zeigen per Induktion über n, dass pA ein Polynom von Grad n ist. Für n = 1 ist A = (a) und pA = λ − a. Für n > 1 entwickeln wir die Determinante von λE − A nach der ersten Spalte: λ − a11 −a21 pA (λ) = det .. . −an1 ... −a1n ... −a2n .. .. . . . . . λ − ann n X = (λ − a11 ) det(λEn−1 − A11 ) + (−1)k+1 ak1 det((λE − A)k1 ) . −a12 λ − a22 k=2 Per Induktion ist det(λEn−1 −A11 ) ein Polynom von Grad n−1, und det((λE −A)k1 ) sind Polynome von Grad ≤ n−2 für alle k ≥ 2. Denn (λE −A)k1 entsteht aus λE −A durch Streichung der ersten Spalte und der k-ten Zeile, die Variable λ kommt also nur noch in jeweils n − 2 Zeilen vor. Also folgt, dass der Grad von pA gleich n ist. q.e.d. Schauen wir unsden Fall Polynom einer n = 2 genauer an. Das charakteristische a b λ−a −b 2 × 2-Matrix A = lautet pA (λ) = det(λE − A) = det = c d −c λ−d (λ − a)(λ − d) − bc = λ2 − (a + d)λ + (ad − bc). Die Summe der Diagonaleinträge einer Matrix wird als ihre Spur bezeichnet. Damit gilt: pA (λ) = λ2 − Spur(A) · λ + det A . Durch vollständige Induktion kann man zeigen, dass die Spur und die Determinante einer Matrix, wie im zweidimensionalen Fall schon nachgerechnet, immer als Koeffizienten des charakteristischen Polynoms auftreten. Genauer: 44 Kapitel 2. Lineare Algebra II 2.33 Satz Für n × n-Matrizen A gilt: pA (λ) = λn − Spur(A)λn−1 + · · · + (−1)n det(A) . Bezeichnet man mit λ1 , . . . , λn sämtliche (möglicherweise auch komplexen) Nullstellen von pA und zwar mit Vielfachheit gezählt, dann folgt: Spur(A) = λ1 + · · · + λn und det(A) = λ1 · · · · · λn . Um nun zu einem gegebenen Eigenwert λ von A die zugehörigen Eigenvektoren zu bestimmen, ist das lineare Gleichungssystem x1 .. =0 (λE − A) . xn zu lösen. Den Lösungsraum dieses Gleichungssystem bezeichnet man als den Eigenraum zum Eigenwert λ. Wir schreiben dafür Lλ . Der Raum Lλ besteht aus allen Eigenvektoren zum Eigenwert λ zusammen mit dem Nullvektor. Für jeden Eigenwert λ gilt: dim Lλ = n − Rang(λE − A) ≥ 1 . 3 2 2.34 Beispiele 1. Das charakteristische Polynom der Matrix B = lau1 4 tet pB (λ) = λ2 − 7λ + 10 = (λ − 5)(λ − 2). Um den Eigenraum zum Eigenwert λ1 = 5 zu bestimmen, betrachten wir: 2 −2 x 0 (5E − B)v = = . −1 1 y 0 Der Lösungsraum dazu ist x 1 L5 = |x=y = α |α∈R . y 1 Für den Eigenwert λ2 = 2 ergibt sich entsprechend: −1 −2 x 0 (2E − B)v = = . −1 −2 y 0 Der Lösungsraum dazu ist x −2 L2 = | x = −2y = α |α∈R . y 1 1 1 0 2. Das charakteristische Polynom der Matrix A = 0 1 0 lautet 0 0 2 λ − 1 −1 0 λ−1 0 = (λ − 1)2 (λ − 2) . pA (λ) = det(λE − A) = det 0 0 0 λ−2 2.3. Eigenwerte und Eigenvektoren 45 Also hat A einen doppelten Eigenwert, nämlich λ1 = 1 und einen einfachen Eigenwert λ2 = 2. Es gilt L2 = lin(e3 ). Bestimmen wir nun den Eigenraum zu dem doppelten Eigenwert. Dazu lösen wir das Gleichungssystem 0 −1 0 x (E − A)v = 0 0 0 y = 0. 0 0 −1 z Der Lösungsraum L1 = lin(e1 ) ist nur eindimensional. Die Matrix A kann deshalb nicht diagonalisierbar sein. Eigenvektoren zu verschiedenen Eigenwerten sind automatisch linear unabhängig (siehe Übungsaufgabe). Deshalb gilt: 2.35 Satz Eine n × n-Matrix A ist genau dann diagonalisierbar, wenn gilt: dim(Lλ1 ) + . . . + dim(Lλr ) = n . Dabei bezeichnen λ1 , . . . , λr sämtliche verschiedenen Eigenwerte von A. 2.36 Folgerung Hat eine n × n-Matrix n verschiedene Eigenwerte, dann ist sie diagonalisierbar. Wir wollen nun zeigen, dass sich das charakteristische Polynom einer Matrix bei einem Basiswechsel nicht ändert. Dazu führen wir folgenden Begriff ein. 2.37 Definition Zwei Matrizen A, B ∈ Mn×n heissen ähnlich, wenn eine invertierbare n × n-Matrix S existiert, so dass B = S −1 AS . 2.38 Satz Sind A, B ähnliche n × n-Matrizen, so gilt: pA = pB und insbesondere Spur(A) = Spur(B) und det(A) = det(B) . Beweis. Die charakteristischen Polynome stimmen überein, denn pB (λ) = det(λE − B) = det(λS −1 S − S −1 AS) = det(S −1 (λE − A)S) = det(λE − A) = pA (λ) . q.e.d. 2.39 Definition Sei L: V → V eine lineare Abbildung, dim V = n. Sei A = MB (L) für eine Basis B von V . Dann nennt man p(λ) := pA (λ) auch das charakteristische Polynom von L. Das Polynom p hängt nicht von der Wahl der Basis ab. Denn Basiswechsel führen zu ähnlichen Matrizen. 46 2.4 Kapitel 2. Lineare Algebra II Normalformen für kleine Matrizen In diesem Abschnitt geben wir einen Überblick über die möglichen Typen von 2 × 2Matrizen und 3 × 3-Matrizen. Beginnenwir mit dem Fall n = 2. Das charakteristische Polynom einer 2 × 2a b Matrix A = lautet wie bereits nachgerechnet: c d pA (λ) = λ2 − (a + d)λ + (ad − bc) = λ2 − Spur(A)λ + det A . Die Nullstellen dieses Polynoms sind 1 1p λ1,2 = (Spur(A)) ± (Spur(A))2 − 4 det A . 2 2 1. Fall: (Spur A)2 > 4 det A. Dann hat A zwei verschiedene reelle Eigenwerte λ1 , λ2 . Wählt man zu jedem dieser Eigenwerte einen Eigenvektor vi , so bildet B = (v1 , v2 ) eine Basis und für die Transformationsmatrix T , gebildet aus den Spalten v1 , v2 , gilt: λ1 0 −1 T AT = . 0 λ2 Man beachte, dass hier v1 und v2 nicht senkrecht aufeinander stehen müssen! 2. Fall: (Spur A)2 = 4 det A. In diesem Fall hat A einen doppelten Eigenwert, nämlich λ = 12 Spur(A). Ist der zugehörige Eigenraum Lλ zweidimensional, so muss Lλ = R2 sein. Das bedeutet, Av = λv für alle v ∈ R2 . Mit anderen Worten, LA ist eine Streckung um den Faktor λ und A = λE. Ist dim Lλ = 1, dann ist A nicht diagonalisierbar. Wir wählen jetzt einen Eigenvektor v1 . Behauptung: Es gibt einen weiteren Vektor v2 , so dass (A − λE)v2 = v1 ist. Beweis. Ergänzen wir zunächst v1 nach Belieben durch Wahl eines linear unabhängigen zweiten Vektors ṽ2 zueiner Basis. Bezogen auf diese Basis geht A über in eine λ x Matrix der Form . Weil die Spur von A gleich 2λ ist, und die Spur beim 0 y Basiswechsel erhalten bleibt, muss y = λ sein. Jetzt setzen wir v2 := x1 ṽ2 . Nach Konstruktion gilt dann Av2 = v1 + λv2 . q.e.d. Nach Konstruktion sind v1 und v2 linear unabhängig und bilden daher eine Basis B von R2 . Es ist Av1 = λv1 und Av2 = v1 + λv2 . Also liefert der Basiswechsel, beschrieben durch die Transformationsmatrix T = (v1 , v2 ), das Resultat: λ 1 −1 T AT = . 0 λ Ist λ = 1, so handelt es sich bei A um eine Scherung längs der v1 -Achse (siehe Übungsaufgabe). 2.4. Normalformen für kleine Matrizen 47 3 2 2.40 Beispiel Die Matrix A = hat das charakteristische Polynom −2 −1 pA (λ) = λ2 − 2λ + 1 = (λ − 1)2 . Also hat A den doppelten Eigenwert 1. Der 1 Eigenraum zu diesem Eigenwert ist nur eindimensional und wird von v1 = −1 0 aufgespannt. Die Bedingung (A − E)v2 = v1 wird u.a. erfüllt von v2 = 1 . Nach dem entsprechenden Basiswechsel geht A über in die Scherungsmatrix 1 1 −1 T AT = . 0 1 2 3. Fall: (Spur A)2 < 4 det A. Dann hat pA zwei konjugiert qkomplexe Nullstellen, 1 λ1 = s + it und λ2 = s − it, wobei s = 2 Spur(A) und t = det A − 14 (Spur A)2 = √ det A − s2 > 0. Behauptung: In diesem Fall existiert eine Basis B = (v1 , v2 ) von R2 mit s −t MB (LA ) = . t s Falls s2 + t2 = 1 und (v1 , v2 ) = (e1 , e2 ), handelt es sich um eine Drehung. Beweis. Weil λ2 eine komplexe Nullstelle des charakteristischen Polynoms ist, hat das lineare Gleichungssystem (A − (s − it)E)v = 0 eine Lösung 0 6= v, wenn wir mit komplexen statt mit reellen Zahlen rechnen. Es gibt also einen komplexen Eigenvekz tor v = von A zum Eigenwert s − it. Wir schreiben v in der Form v = v1 + iv2 , w wobei v1 , v2 ∈ R2 sind. Dann gilt: Av = Av1 + iAv2 = (s − it)(v1 + iv2 ) = (sv1 + tv2 ) + i(−tv1 + sv2 ) . Durch Koeffizientenvergleich ergibt sich: Av1 = sv1 + tv2 und Av2 = −tv1 + sv2 . Daraus folgt direkt die Behauptung. q.e.d. −1 −6 2.41 Beispiel Für die Matrix A = gilt Spur(A) = 4 und det A = 13. 3 5 Das charakteristische Polynom pA (λ) = λ2 − 4λ + 13 hat die komplexen Nullstellen 2 ± 3i. Nun lösen wir das komplexe Gleichungssystem z1 −3 + 3i −6 z1 0 (A − (2 − 3i)E) = = , z2 3 3 + 3i z2 0 und finden (bis auf Vielfaches): z1 −i − 1 −1 −1 = = +i . z2 1 1 0 48 Kapitel 2. Lineare Algebra II Also wird die Abbildung LA bezogen auf die Basis, gebildet aus v1 = −1 v2 = durch die folgende Matrix beschrieben: 0 2 −3 MB (LA ) = . 3 2 −1 1 und Wir können die Ergebnisse der bisherigen Überlegungen so zusammenfassen: 2.42 Satz Jede reelle 2 × 2-Matrix ist ähnlich zu einer der folgenden Typen: λ1 0 • (λ1 > λ2 ) - diese Matrizen haben genau zwei Eigenrichtungen 0 λ2 λ 0 • = λE (λ ∈ R) - hier bleiben sämtliche Ursprungsgeraden stabil 0 λ λ 1 • (λ ∈ R) - hier gibt es genau eine Eigenrichtung 0 λ s −t • (s, t ∈ R, t 6= 0) - hier gibt es keine reelle Eigenrichtung t s Das entsprechende Resultat für 3 × 3-Matrizen sieht folgendermassen aus: 2.43 Satz λ1 0 • 0 λ1 • 0 0 s • t 0 λ • 0 0 Jede reelle 3 × 3-Matrix ist ähnlich zu einer der folgenden Typen: 0 0 λ2 0 (λ1 ≥ λ2 ≥ λ3 ) 0 λ3 1 0 λ1 0 (λ1 , λ2 ∈ R) 0 λ2 −t 0 s 0 (s, t, λ ∈ R, t > 0) 0 λ 1 0 λ 1 (λ ∈ R) 0 λ Beweis. Das charakteristische Polynom pA einer 3 × 3-Matrix A hat Grad 3 und daher mindestens eine reelle Nullstelle. Hat pA drei verschiedene reelle Nullstellen, so ist A diagonalisierbar und es handelt sich um den ersten Typ. Hat pA eine einfache und eine doppelte reelle Nullstelle, dann sind der erste und der zweite Typ möglich. Das ergibt sich entsprechend wie im Fall n = 2. Weiter könnte pA eine reelle und 2.4. Normalformen für kleine Matrizen 49 zwei konjugiert komplexe Eigenwerte haben. Dann handelt es sich um den dritten Typ. Hat schliesslich pA eine dreifache reelle Nullstelle λ, dann hängt der Typ von der Dimension des zugehörigen Eigenraums ab. Ist dim Lλ = 3, ist A diagonalisierbar und also vom ersten Typ. Ist dim Lλ = 2, so ist A vom zweiten Typ, und ist schliesslich dim Lλ = 1, so erhalten wir den letzten Typ. q.e.d. 1 2 3 2.44 Beispiele • Sei A = 2 3 1 . Dann ist 3 1 2 λ − 1 −2 −3 pA (λ) = det −2 λ − 3 −1 = λ3 − 6λ2 − 3λ + 18 . −3 −1 λ − 2 1 Der Vektor v = 1 ist ein Eigenvektor von A zum Eigenwert 6. Also hat 1 pA die Nullstelle 6. Wenn wir pA durch (λ − 6) √ teilen,√erhalten wir: pA (λ) = (λ − 6)(λ2 − 3). Also hat A die Eigenwerte 6, 3, − 3 und ist ähnlich zur Diagonalmatrix 6 √0 0 0 3 0 . √ 0 0 − 3 1 0 0 • Die Matrix B = 0 1 0 hat λ = 1 als dreifachen Eigenwert. Der Eigen1 0 1 raum dazu ist zweidimensional, denn lin(e2 , e3 ). Also ist die Matrix B L1 = 1 1 0 vom zweiten Typ und ähnlich zu 0 1 0 . 0 0 1 2 1 1 • Die Matrix C = 0 2 1 hat λ = 2 als dreifachen Eigenwert. Der Ei0 0 2 genraum dazu ist hier eindimensional, denn es handelt sich gerade um alle Vektoren auf der x-Achse. Also ist die Matrix B vom vierten Typ und ähnlich 2 1 0 zu 0 2 1 . 0 0 2