99 ME – Lineare Algebra HT 2008 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems“ untersuchen wir folgen” des Differentialgleichungssystem (DGS) mit den Anfangsbedingungen (AB) dv = 4v − 5w , dt dw = 2v − 3w , dt v=8 für t = 0 ; w=5 für t = 0 zusammen ein Anfangswertproblem“ (AWP). ” In Matrix-Schreibweise lautet AWP kurz du = Au , dt wobei v(t) u(t) = w(t) ! u = u0 für t = 0 , ! 8 , u0 = 5 , 4 A= 2 Im skalaren Fall ! −5 . −3 du = au , u = u0 für t = 0 dt kennt man (Trennung der Variablen; vgl. spätere Analysis-Vorlesung) die Lösung u(t) = eat u0 . Daher machen wir den Ansatz ( v(t) = eλt y w(t) = eλt z y mit Unbekannten λ, y, z oder kurz mit x = z ! u(t) = eλt x . Diesen Ansatz setzen wir in das Differentialgleichungssystem (DGS) ein: λeλt y = 4eλt y − 5eλt z λeλt z = 2eλt y − 3eλt z , 100 ME – Lineare Algebra HT 2008 kürzen durch den gemeinsamen Faktor eλt > 0; es bleibt ( 4y − 5z = λy 2y − 3z = λz oder kurz Ax = λx . Dies ist die grundlegende Gleichung für den Eigenwert“ λ mit Eigenvektor“ ” ” x. Diese ist nichtlinear wegen des Produktes λx; ist aber ein Eigenwert λ bekannt, bleibt für x ein lineares homogenes Glg.system: (A − λI)x = 0 . Wie bei jedem homogenen linearen Glg.system gibt es die triviale Lösung x = 0; diese ist aber nutzlos, denn mit der Nullfunktion können wir die Anfangsbedingungen nicht erfüllen. Also interessieren nur spezielle Werte λ, zu denen es nichttriviale Lösungen (6= 0) gibt, d.h. A − λI muss singulär sein. Folgerung: λ ist Eigenwert von A mit einem Eigenvektor ⇐⇒ det(A − λI) = 0, Dies ist die charakteristische Gleichung“ zum charakteristischen“ ” ” Polynom“ det(A − λI) ” Im Beispiel: det 4−λ −5 2 −3 − λ ! = (4 − λ)(−3 − λ) + 10 = λ2 − λ − 2 = (λ + 1)(λ − 2) also zwei getrennte Eigenwerte: λ1 = −1, λ2 = 2 hierzu gehört jeweils ein Unterraum für λ1 = −1 ! 5 −5 (A − λ1 I) x = 2 −2 ! y 0 = z 0 ! und 1 x1 = 1 ! ist eine Basis des Nullraums N (A − λ1 I), des Eigenraums“ zu λ1 = −1; ” für λ2 = 2 ! 2 −5 (A − λ2 I) x = 2 −5 ! 0 y = z 0 ! und 5 x2 = 2 ! 101 ME – Lineare Algebra HT 2008 ist eine Basis für N (A − λ2 I), des Eigenraums zu λ2 = 2. Zurück zum AWP! ! 1 ; u 1 = e x1 = e 1 ! λ2 t 2t 5 u 2 = e x2 = e 2 λ1 t −t sind zwei spezielle (Exponential-) Lösungen des DGS. Da das DGS linear und homogen ist, können wir superponieren “, d.h. ” u(t) = γ1 eλ1 t x1 + γ2 eλ2 t x2 mit freien Parametern γ1 , γ2 ist auch Lösung. Durch Wahl dieser γ1 , γ2 lassen sich (hoffentlich) die Anfangsbedingungen erfüllen: γ1 u1 (0) + γ2 u2 (0) = γ1 x1 + γ1 x2 = u0 Im Beispiel 15 12 ! ! γ1 8 = γ2 5 ! =⇒ inhomogenes lineares Glg.system γ1 = 3, γ2 = 1. Die Lösung zu obigem Anfangswertproblem ist u(t) = 3e−t ! 5 1 + e2t 2 1 ! oder für die einzelnen Komponenten v(t) = 3e−t + 5e2t ; w(t) = 3e−t + 2e2t . Da eine Gleichung n-ten Grades wie die charakteristische Gleichung für n ≥ 2 i.a. komplexe Wurzeln besitzt, benötigen wir spätestens jetzt Vektoren in CI n als unitären Vektorraum, insbesondere Definition und Eigenschaften der konjugierten Transponierten (Hermiteschen Transponierten). 102 ME – Lineare Algebra HT 2008 5.2 Das Eigenwertproblem, das charakteristische Polynom, die charakteristische Gleichung Definition 5.1 Sei A ∈ CI n×n . Dann heißt λ ∈ CI ein Eigenwert“ von A und ” x ∈ CI n ein zugehöriger Eigenvektor“, wenn x 6= 0 und die Eigengleichung“ ” ” Ax = λx erfüllt ist. Eigenwertproblem“: Finde alle Eigenwerte und Eigenvektoren von A. ” Geometrische Deutung: A vermittelt lineare Abbildung CI n −→ CI n . Aus Ax = λx folgt (∀α ∈ C) I A α x = λ α x, d.h. A bildet die Gerade CI x = {αx | α ∈ C} I in sich selbst ab, CI x ist also eine Fixgerade (eine Fixpunktgerade, nur falls λ = 1). Eigenwertproblem: Finde alle Fixgeraden von A. Mit anderen Worten: λ ∈ CI ist genau dann ein Eigenwert von A, wenn die Eigengleichung (A − λI)x = 0 eine nichttriviale Lösung x 6= 0 besitzt. Dies trifft genau dann zu, wenn die quadratische Matrix A − λI singulär ist oder wenn λ die charakteristische“ Gleichung erfüllt: ” det(A − λ I) = 0 . (5.1) Ausführlicher mit A = (ajk ) heißt diese charakteristische Gleichung (a11 − λ) a12 ··· a21 (a22 − λ) · · · .. . an1 ··· a1n a2n · · · (ann − λ) = 0. Die linke Seite der Gleichung (5.1) ist ein Polynom in λ, denn wegen der Summendarstellung (4.3) der Determinante in §4.2 ist jeder Summand ein Polynom in λ. Diese Summe über die Permutationen ν enthält (- wählt man gerade die Permutation ν als die Identität - ) das Produkt der Diagonalglieder (a11 −λ)(a22 −λ) · · · (ann −λ) = (−1)n λn +(−1)n−1 n X j=1 ajj λn−1 +. . .+ n Y j=1 ajj , 103 ME – Lineare Algebra HT 2008 ein Polynom n-ten Grades mit Höchstkoeffizienten (−1)n ; alle anderen Summanden sind Polynome niedrigeren Grades. Damit folgt: Das charakteristische“ Polynom χA (λ) := det(A−λ I) ist ein Polynom vom ” Grad n in λ. Jetzt schreiben wir das charakteristische Polynom in Potenzen von −λ auf: χA (λ) = det(A − λ I) = n X cl (−λ)l , l=0 wobei wie bereits oben gesehen, cn = 1. Zunächst Fall n = 2. Entwicklung nach den Spalten liefert χA (λ) = = = a11 − λ · 1 a12 a21 − λ · 0 a22 − λ a11 a12 a21 a22 − λ a11 a12 a21 a22 − − λ λ 1 0 a12 a22 − λ a11 0 −λ a21 1 = det A − (a11 + a22 )λ + λ2 . ( 1 a12 0 a22 −λ ) 1 0 0 1 Zu allgemeinem n schreiben wir mit Spaltenvektoren A = (a1 , . . . , an ), I = (e1 , . . . , en ) und entwickeln in den Spalten det(A − λI) = det(a1 − λe1 , a2 − λe2 , . . . , an − λen ) = det(a1 , a2 − λe2 , . . . , an − λen ) − λ det(e1 , a2 − λe2 , . . . , an − λen ) .. . = n P cl (−λ)l . l=1 Also ist cl die Summe von Determinanten der Form det(z1 , . . . , zn ) mit zj = aj oder zj = ej (j = 1, . . . , n). Einziger Term ohne λ ist det(a1 , . . . , an ), damit wird c0 = det A . (5.2) Die Terme zu (−λ)n−1 sind genau n Determinanten, nämlich det(z1 , . . . , zn ) mit einem zj = aj (j = 1, . . . , n), alle übrigen zj 0 = ej 0 für j 0 6= j, j 0 ∈ 104 ME – Lineare Algebra HT 2008 {1, . . . , n}, also mit Entwickeln nach der jten Zeile det(z1 , . . . , zn ) = ajj . Folglich erhalten wir die Spur“ von A, ” cn−1 = n X ajj =: Spur A . (5.3) j=1 Andererseits gibt es nach dem Fundamentalsatz der Algebra zu dem charakteristischen Polynom χA (λ) n-ten Grades r paarweise verschiedene Wurzeln oder Nullstellen, wobei 1 ≤ r ≤ n, also r paarweise verschiedene Eigenwerte λj , j = 1, . . . , r und es gilt χA (λ) = (−1)n (λ − λ1 )k1 (λ − λ2 )k2 · . . . · (λ − λr )kr (5.4) mit k1 + k2 + . . . + kr = n und λj kj -facher Eigenwert von A. Hierbei heißt kj ∈ IN algebraische Vielfachheit“ von λj . ” Etwas ausführlicher und jeweils (-1) hineinmultipliziert schreibt sich χA (λ) = (λ1 − λ) · . . . · (λ1 − λ) · . . . · (λr − λ) · . . . · (λr − λ) . | {z k1 F aktoren } | {z kr F aktoren } Koeffizientenvergleich mit χA (λ) = c0 + c1 (−λ) + · · · + cn−1 (−λ)n−1 + (−λ)n =⇒ cn−1 = k1 λ1 + . . . + kr λr c0 = λk11 · . . . · λkr r Mit (5.2) und (5.3) folgt: det A = λk11 λk22 · . . . · λkr r ; Spur A = k1 λ1 + k2 λ2 + . . . + kr λr . (5.5) (5.6) Invarianz bei Ähnlichkeitstransformationen Jede Matrix A ∈ CI n×n vermittelt bekanntlich die lineare Abbildung x ∈ CI n 7→ y = Ax ∈ CI n . Transformieren wir die Koordinaten x, y zu z = T x, w = T y mit einer invertierbaren Transformationsmatrix“ T ∈ CI n×n (und führen somit ” einen Basiswechsel“ durch, vgl. Beispiel zu Def. 2.8, S. 42 und Bemerkung ” zu Korollar 2.2, S. 46 in §2.3), dann stellt sich dieselbe lineare Abbildung in den neuen Koordinaten dar als z ∈ CI n 7→ w = T y = T Ax = T AT −1 z ∈ CI n , d.h. als z ∈ CI n 7→ w = Bz mit der Matrix B = T AT −1 . Dies motiviert folgende Begriffsbildung. 105 ME – Lineare Algebra HT 2008 Definition 5.2 Seien A, B ∈ CI n×n . A und B heißen ähnlich“ oder B ist ” aus A durch eine Ähnlichkeitstransformation“ hervorgegangen, falls es eine ” nichtsinguläre Matrix M ∈ CI n×n gibt, so dass B = M −1 AM . Satz 5.1 Bei ähnlichen Matrizen A und B gilt χA = χB . Beweis: det(B − λ I) = det(M −1 AM − λ M −1 M ) = det(M −1 (A − λ I)M ) = (det M )−1 det(A − λ I) det M = det(A − λ I) Folgerung Bei Ähnlichkeitstransformationen bleiben unverändert: i) alle Eigenwerte samt algebraischer Vielfachheiten, ii) Determinante der Matrix, iii) Spur der Matrix. Im Fall n = 3 sind die Hauptinvarianten“ von χA (λ) = −λ3 + c2 λ2 − c1 λ + c0 ” c2 = Spur A i 1h (Spur A)2 − Spur A2 c1 = 2 i 1h (Spur A)3 − 3 (Spur A)(Spur A2 ) + 2 Spur A3 . c0 = det A = 6 5.3 Der Eigenraum, Diagonalisierbarkeit Definition 5.3 Sei A ∈ CI n×n und λ ein Eigenwert zu A. Dann heißt der Nullraum N (A − λ I) der Eigenraum“ zu λ, seine Dimension die ” geometrische Vielfachheit“ g von λ. ” Es gilt (vgl. §2.4) g = dim N (A − λ I) = n − Rang (A − λ I) (5.7) 106 ME – Lineare Algebra HT 2008 Bemerkungen zum Fall A ∈ IRn×n (1) Ist auch λ reell, so liefert Gaußsche Elimination reelle Eigenvektoren aus der Eigengleichung (A − λ I) x = 0 und eine Basis des Eigenraums zu λ lässt sich aus g reellen Vektoren bilden. (2) Ist dagegen Im λ 6= 0, dann sind auch alle Eigenvektoren echt“ komplex. ” Mit λ ist auch λ̄ Eigenwert, denn aus χA (λ) = 0 folgt 0 = χA (λ) = χA (λ̄), da χA ein reelles Polynom ist. Satz 5.2 Für die geometrische Vielfachheit gj und die algebraische Vielfachheit kj eines Eigenwertes λj von A ∈ CI n×n gilt 1 ≤ g j ≤ kj . Beweis: Sei µ ein Eigenwert von A. Dann ist A − µI singulär und dazu äquivalent Rang (A − µI) ≤ n − 1. Also ergibt sich die geometrische Vielfachheit als Defekt von A − µI, d.h. g = n− Rang (A − µI) ≥ 1. Um die zweite Ungleichung zu beweisen, gehen wir in zwei Schritten vor. Zunächst ergänzen wir eine Basis {x(1) , . . . , x(g) } des g-dimensionalen Eigenraumes N (A−µI) zu einer Basis {x(1) , . . . , x(g) , x(g+1) , . . . , x(n) } des CI n . Dann konstruieren wir eine zu A ähnliche Matrix B derart, dass µ mindestens ein g-facher Eigenwert von B und damit auch von A ist. 1. Schritt: Konstruiere eine Basis des orthogonalen Komplements U ⊥ zu dem Unterraum U := N (A − λI); denn CI n = U ⊥ ⊕ N (A − λI). Dazu löse in y ∈ CI n die homogenen Gleichungen y ∗ x(j) = 0 ⇔ x(j)∗ y = 0 (j = 1, . . . , g). Mit anderen Worten: Bilde die Matrix S = (x(1) , . . . , x(g) ) ∈ CI n×g mit Rang (S) = g, löse das homogene LGS S ∗ y = 0 und finde eine Basis des (n − g)dimensionalen linken Nullraums N (S ∗ ), wobei ja S ∗ ∈ CI g×n und dim N (S ∗ ) = n - Rang (S ∗ ) = n - Rang (S) = n − g. 2. Schritt: Wir gehen aus von einer Basis {x(1) , . . . , x(g) , x(g+1) , . . . , x(n) } des CI n mit Ax(j) = µx(j) ; j = 1, . . . , g. Dann hat die Matrix T := (x(1) , . . . , x(n) ) ∈ CI n×n vollen Rang und die Inverse T −1 t̃∗1 . . = . t̃∗n 107 ME – Lineare Algebra HT 2008 mit den Zeilen t̃∗k ; k = 1, . . . , n. Es gilt (T −1 T )kl = t̃∗k x(l) = δkl = ( 1 k = l, 0 k= 6 l. Andererseits schreibt sich das Matrizenprodukt AT = A(x(1) , . . . , x(g) , x(g+1) , . . . , x(n) ) = (Ax(1) , . . . , Ax(g) , Ax(g+1) , . . . , Ax(n) ) = (µx(1) , . . . , µx(g) , ∗, . . . , ∗). Darum schließen wir t̃∗1 . (1) (g) B := T −1 AT = .. (µx , . . . , µx , ∗, . . . , ∗) t̃∗n = 0 µ .. 0 . µ 0 ∗ . C Die zu A ähnliche Matrix B besteht also aus einer g × g-Diagonalmatrix links oben und einer (n − g) × (n − g)-Matrix C rechts unten. Da wegen Satz 5.1 die charakteristischen Polynome von A und B übereinstimmen, erhalten wir nach Entwicklung in den ersten g Spalten χA (λ) = χB (λ) = det (B − λI) = (µ − λ)g det (C − λI). Also ist µ mindestens g-facher Eigenwert von A. Beispiel: A= 3 1 α 3 ! χA (λ) = (3 − λ)2 − α = 0 ⇒ √ λ1,2 = 3 ± α, falls α ≥ 0 q λ1,2 = 3 ± i |α|, falls α < 0 q.e.d. 108 ME – Lineare Algebra HT 2008 Fall α = 0 λ = 3; r = 1; k1 = 2. Der Nullraum N 3−λ 1 0 3−λ ! 0 1 0 0 =N ! ! 1 wird z.B. aufgespannt von ; 0 aber: g1 = dim N (A − λI) = n-Rang = 2 − 1 = 1 < k1 ! Fall α = 4 (bereitet Ähnlichkeitstrafo auf Diagonalgestalt vor) r = 2; λ1 = 5, λ2 = 1. −2 1 4 −2 N (A − λ1 I) = N wird z.B. aufgespannt von −2 1 0 0 =N ! ! 1 =: x(1) 2 2 1 4 2 N (A − λ2 I) = N wird z.B. aufgespannt von ! ! 2 1 0 0 =N ! ! −1 =: x(2) . 2 Damit klar 1 −1 2 2 Ax(j) = λj x(j) (j = 1, 2); A x(1) , x(2) = λ1 x(1) , λ2 x(2) Setze (1) S := x , x (2) = Damit ist (1) AS = λ1 x , λ2 x (2) =S ! λ1 0 0 λ2 ! Weil x(1) und x(2) linear unabhängig, ist S invertierbar. Daher äquivalente Darstellung: ! ! λ1 0 5 0 −1 S AS = = 0 λ2 0 1 Der Fall α = 1 führt auf eine symmetrische Matrix A; hier sind die Eigenvektoren zu den Eigenwerten 2, 4 orthogonal. 109 ME – Lineare Algebra HT 2008 Betrachte jetzt Summe (vgl. §2.5) aller Eigenräume r X j=1 N (A − λj I) ⊆ CI n Wann gilt =“? ” Dazu benötigen wir Satz 5.3 Gehören die Eigenvektoren x1 , . . . , xs (1 ≤ s ≤ r) zu paarweise verschiedenen Eigenwerten λ1 , . . . , λs der Matrix A ∈ CI n×n , dann sind sie linear unabhängig. Beweis: s P Zu zeigen: Aus (*) αk xk = 0 (αk ∈ C) I folgt, dass alle αk = 0. k=1 Dazu verwenden wir die Gleichung (A − λj I)xk = ( (λk − λj )xk 0 falls j 6= k j=k (j, k = 1, . . . , s) . Fixiere Index l ∈ {1, . . . , s} und multipliziere (*) von links mit (A − λ1 I) . . . (A − λl−1 I)(A − λl+1 I) . . . (A − λs I). Bleibt nur αl (λl − λ1 ) . . . (λl − λl−1 )(λl − λl+1 ) . . . (λl − λs )xl = 0 Alle Klammern 6= 0, da EWe paarweise verschieden, und xl 6= 0 (EVektor!) =⇒ αl = 0. q.e.d. Satz 5.4 A ∈ CI n×n habe n linear unabhängige Eigenvektoren x1 , . . . , xn . Setzt man S = (x1 , . . . , xn ) ∈ CI n×n , folgt S −1 AS = Λ := λ1 λ2 .. . λn Beweis: Sei Axj = λj xj (j = 1, . . . , n). Da {x1 , . . . , xn } linear unabhängig, ist S nichtsingulär. Berechne Produkt AS spaltenweise: 110 ME – Lineare Algebra HT 2008 A(x1 , x2 , . . . , xn ) = (λ1 x1 , λ2 x2 , . . . , λn xn ) λ1 = (x1 , x2 , . . . , xn ) Also AS = SΛ oder S −1 AS = Λ oder A = SΛS −1 λ2 .. . λn q.e.d. Definition 5.4 A ∈ CI n×n heißt diagonalisierbar“, falls A ähnlich zu einer ” Diagonalmatrix ist. Prozess: diagonalisieren“, auf Diagonalgestalt transformieren“, d.h. ge” ” sucht ist: Diagonalmatrix Λ und Ähnlichkeitstransformation S. Bemerkungen: Die Spalten von S müssen Eigenvektoren von A sein, andere Matrizen transformieren nicht auf eine Diagonalmatrix Λ; denn aus AS = SΛ folgt für die j-te Spalte yj von S, dass j-te Spalte von SΛ = λj yj und j-te Spalte von AS = Ayj , also Ayj = λj yj . Transformations-Matrix S ist nicht eindeutig. (Eigenvektoren sind es ja auch nicht!) Folgerung: Eine Matrix A ∈ CI n×n mit genau n paarweise verschiedenen Eigenwerten ist diagonalisierbar. Beweis: Zu EWerten λ1 , . . . , λn gehören EVektoren x1 , . . . , xn , die nach obigem Satz linear unabhängig sind. Allgemeiner folgt aus Obigem das Diagonalisierbarkeitskriterium: Eine Matrix ist diagonalisierbar ⇐⇒ für jeden Eigenwert der Matrix gilt algebraische Vielfachheit = geometrische Vielfachheit. Bemerkung: Nicht jede Matrix ist diagonalisierbar! Obiges Beispiel g1 = 1 < 2 = k1 . Jedoch ist jede symmetrische Matrix (siehe später in §6.3) diagonalisierbar.