Kapitel 9 Minimalpolynom und Primärzerlegung 9.1 Das Minimalpolynom Wir haben gelernt, dass wir Elemente einer K-Algebra in Polynome aus K[x] einsetzen können, siehe Definition 6.1.8 sowie Satz 6.1.9. Wir wollen die Menge der Polynome f aus K[x] betrachten, für die f (T) = 0 gilt (T ∈ Hom(V, V )). Definition 9.1.1 Sei V ein K-Vektorraum und T ∈ Hom(V, V ). Dann definieren wir Ann(T) = {f ∈ K[x] : f (T) = 0} als das Annihilatorideal von T. Der eindeutig bestimmte monische Erzeuger dieses Ideals heißt das Minimalpolynom von T. Bezeichnung: mT . Man stellt sich das Minimalpolynom als das vom Grad her kleinste Polynom vor, das T “zu Null” macht. Zunächst ist aber gar nicht klar, dass es ein Minimalpolynom 6= 0 gibt. Es könnte ja sein, dass nur das Nullpolynom in Ann(T) liegt. Dass dies nicht der Fall ist, zeigt das nächste Lemma: Lemma 9.1.2 Wenn dim V < ∞, T ∈ Hom(V, V ), dann gilt Ann(T) 6= {0}. Beweis Die Abbildungen 2 idV , T, T 2 , . . . T n sind linear abhängig, weil dim Hom(V,V) = n2 (Vektorraum der n×n-Matrizen). Es gibt also λ0 , . . . , λn2 mit n2 X λi Ti = 0, i=0 144 also Pn2 i=0 λi xi ∈ Ann(T). Bemerkung 9.1.3 Man rechnet leicht nach, dass Ann(T) ein Ideal ist: Wenn f, g ∈ Ann(T), λ ∈ K, so ist (λf + g)(T) = λf (T) + g(T) = 0, also ist Ann(T) ein Unterraum von K[x]. Ist f ∈ Ann(T) und g ∈ K[x] beliebig, so ist (g · f )(T) = g(T) ◦ f (T) = g(T) ◦ 0V = 0V . Das Minimalpolynom einer Matrix wird entsprechend definiert. Das ist sehr sinnvoll wegen des folgenden Satzes: Satz 9.1.4 In K(n,n) haben die beiden Matrizen A und P−1 AP das selbe Minimalpolynom (ähnliche Matrizen haben die selben Minimalpolynome). Beweis Beachte An = (P−1 AP)n = P−1 An P. Korollar 9.1.5 Sei T ∈ Hom(V, V ), dim V < ∞, B, C geordnete Basen von V . C Dann ist das Minimalpolynom von [T]B B gleich dem Minimalpolynom von [T]C . Achtung: Das Minimalpolynom von [T]B C ist in der Regel nicht das Minimalpolynom von [T]B . B Beispiel 9.1.6 Sei T= dann ist 1 0 1 ∈ R(2,2) , 1 1 T = 0 2 2 1 und man sieht 2T − T2 = I. Also ist x2 − 2x + 1 = (x − 1)2 ∈ Ann(T). Das Polynom (x − 1)2 ist sogar das Minimalpolynom, weil T − I 6= 0. Beachten Sie, dass in diesem Beispiel χT = (x−1)2 . Das ist kein völliger Zufall, wie der folgende Satz zeigt. Dieser Satz ist der bislang wohl schwierigste Satz der linearen Algebra, den Sie kennenlernen. Wir formulieren den Satz in der Sprache der linearen Abbildungen, Sie können sich aber T auch als Matrix vorstellen. Satz 9.1.7 (Satz von Cayley-Hamilton) V sei ein endlichdimensionaler KVektorraum, dim V = n, T ∈ Hom(V, V ). Dann gilt: m T χT . Beweis Wir definieren R[T] := {f (T) : f ∈ K[x]}. Man rechnet nach, dass R[T] ein kommutativer Ring mit neutralem Element idV ist: Klar ist, dass R[T] bzgl. der Addition und Multiplikation abgeschlossen ist, d.h. mit x, y ∈ R[T] ist auch xy und x + y in R[T]. Die Rechenregeln für einen Ring folgen rasch aus der Tatsache, dass K[x] ein kommutativer Ring mit neutralem Element ist. 145 Wenn wir beispielsweise das Distributivgesetz x(y + z) = xy + xz, x, y, z ∈ R[T], nachrechnen wollen, so geht das wie folgt. Sei x = f (T), y = g(T) und z = h(T), f, g, h ∈ K[x]. Dann f (T)(g(T) + h(T)) = f (T) (g + h)(T) = (f (g + h))(T) = (f g + f h)(T) = (f g)(T) + (f h)(T) = f (T) ◦ g(T) + f (T) ◦ h(T). Der Ring R[T] ist kommutativ, weil f (T) ◦ g(T) = (f g)(T) = (gf )(T) = g(T) ◦ f (T). Diese kleine Gleichung verdient schon Beachtung: Die Algebra Hom(V, V ) ist weit davon entfernt, kommutativ zu sein. Wir haben hier aber, ausgehend von T und der Polynomalgebra, einen Teilring von Hom(V, V ), der kommutativ ist. Wir wollen diesen Ring ab jetzt einfach mit R bezeichnen. Sein nun B = (b1 , . . . , bn ) eine Basis von V , und sei A = [T]B B , A = (αi,j ). Es gilt n X αj,i bj , 1 ≤ i ≤ n T(bi ) = j=1 und n X (δi,j T − αj,i idV )bj = 0, 1 ≤ i ≤ n, (9.1) j=1 wobei δi,j = 1 0 wenn i = j sonst das sogenannte Kronecker-Symbol ist. Wir definieren nun eine Matrix B = (βi,j ) ∈ R(n,n) durch βi,j := δi,j T − αj,i idV . Das ist eine Matrix, deren Einträge aus einem kommutativen Ring kommen, wir können also die Determinante bestimmen. Es gilt det B = χT (T). Wir wollen nun zeigen, dass det B = 0 ist. Sei dazu C = (γi,j ) ∈ R(n,n) , und seien v1 , . . . vn ∈ V . Wir definieren Pn v1 j=1 γ1,j (vj ) .. C ... = Pn . vn j=1 γn,j (vj ) 146 Beachten Sie bitte, dass γi,j ∈ Hom(V, V ), d.h. ein Ausdruck der Form γi,j (v) ist sinnvoll. Die Matrix C definiert eine Abbildung von V in die Menge der n-Tupel von Vektoren. Man rechnet für C1 , C2 ∈ R(n,n) schnell nach: v1 v1 .. .. (C1 C2 ) . = C1 (C2 . ). (9.2) vn vn Wir wenden dies nun an auf det B .. adj(B) · B = . det B , (9.3) wobei hier auf der rechten Seite, wie üblich, alle Einträge außerhalb der Diagonalen 0 sind. Aus (9.1) folgt b1 0 B ... = ... . bn 0 Also erhalten wir mit (9.2) und (9.3) det B b1 0 .. .. . = (adj(B) · B) . = 0 ··· .. . bn (det B)(b1 ) b1 .. .. , . = . det B bn (det B)(bn ) also det B = 0. Korollar 9.1.8 Grad(mT ) ≤ dim V. Wir werden später noch eine weitreichende Verallgemeinerung dieses Satzes kennenlernen. Es stellt sich nämlich heraus, dass das Minimalpolynom und das charakteristische Polynom dieselben irreduziblen Teiler haben. Für Linearfaktoren können wir das bereits jetzt zeigen: Satz 9.1.9 Sei V ein K-Vektorraum, dim V = n, T ∈ Hom(V, V ). Dann gilt für alle α ∈ K: χT (α) = 0 ⇔ mT (α) = 0. Beweis Die Richtung “⇐” folgt aus dem Satz von Cayley-Hamilton. Nun zur Richtung “⇒”: Wenn χT (α) = 0, so ist α ein Eigenwert, es gibt also v ∈ V mit T(v) = αv. Ist g ∈ K[x], so gilt g(T)(v) = g(α)v, 147 siehe Lemma 6.3.16. Insbesondere gilt 0 = mT (T)(v) = mT (α)v, also mT (α) = 0 wegen v 6= 0. Beispiel 9.1.10 Angenommen, das charakteristische Polynom von T ist χT = (x− 1)3 (x+ 2). Dann gibt es für das Minimalpolynom mT nur die Möglichkeiten (x − 1)i (x + 2), i = 1, 2 oder 3, weil mT die beiden Nullstellen 1 und −2 haben muss und weil mT ein Teiler von χT ist. Es treten auch alle drei Fälle auf. Die Matrizen 1 1 0 0 1 1 0 0 1 0 0 0 0 1 1 0 0 1 0 0 0 1 0 0 0 0 1 0 , 0 0 1 0 , 0 0 1 0 0 0 0 2 0 0 0 2 0 0 0 2 haben die Minimalpolynome (x − 1)3 (x + 2), (x − 1)2 (x + 2) und (x − 1)(x + 2) (von links nach rechts). Mit Hilfe des Minimalpolynoms können zwei sehr schöne Charakterisierungen linearer Abbildungen angeben, die bzgl. geeigneter Basen eine obere Dreiecksmatrix oder eine Diagonalmatrix haben. Die erstgenannten Operatoren nennt man trigonalisierbar. Die beiden Sätze, deren Beweise wir noch etwas verschieben, lauten: Satz 9.1.11 Sei V ein K-Vektorraum, dim V < ∞, T ∈ Hom(V, V ). Dann gilt: T ist trigonalisierbar ⇔ mT zerfällt in Linearfaktoren. Satz 9.1.12 Sei V ein K-Vektorraum, dim V < ∞, T ∈ Hom(V, V ). Dann gilt: T ist digonalisierbar ⇔ mT zerfällt in paarweise verschiedene Linearfaktoren. Bemerkung 9.1.13 Beachten Sie, dass mT genau dann in Linearfaktoren zerfällt, wenn auch χT dies tut (siehe Satz 9.1.9). Wir könnten das Kriterium in Satz 9.1.11 also auch durch “χT zerfällt in Linearfaktoren” ersetzen. In der Vorlesung werden diese beiden Sätze an Beispielen erläutert. Bevor wir zum Beweis kommen, erinnern wir noch einmal an die Definition invarianter Unterräume (Definition 6.3.13). Für invariante Unterräume betrachten wir die folgenden Polynome: 148 Definition 9.1.14 Sei W ein T-invarianter Unterraum von V , wobei T ∈ Hom(V, V ). Dann definieren wir für v ∈ V die Menge ST (v, W ) := {g ∈ K[x] : g(T)v ∈ W }. Gilt W = {0}, so nennen wir diese Menge den T-Annihilator von v. Es gilt mT ∈ ST (v, W ), weil mT (T) = 0V . In obiger Definition ist W ein T-invarianter Unterraum, weil die Menge ST (v, W ) sonst gar keine interessanten Eigenschaften hätte, insbesondere würde das folgende Lemma nicht gelten: Lemma 9.1.15 Mit den Bezeichnungen aus Definition 9.1.14 gilt: ST (v, W ) ist ein Ideal in K[x]. Beweis Vorlesung. Beispiel 9.1.16 Wir schauen uns die lineare Abbildung zur reellen Matrix 2 1 0 T = 0 2 1 0 0 2 0 1 an. Sei v = 0, und sei W = h0i. Wir berechnen 1 0 0 1 Tv = 1 und T2 v = 4 2 4 Das zeigt T2 v − 4Tv + 4v ∈ W , also x2 − 4x + 4 = (x − 2)2 ∈ ST (v, W ). Offenbar gibt es kein Polynom kleineren Grades in ST (v, W ). Also ist (x−2)2 der monische Erzeuger von ST (v, W ). Beachten Sie: Das charakteristische Polynom von T ist (x − 2)3 und dies ist auch gleich dem Minimalpolynom! Die gerade durchgeführte Rechnung zeigt ja, dass (x − 2)2 nicht das Minimalpolynom ist, denn (T − 2I)2 v 6= 0. (v,W ) Definition 9.1.17 Der monische Erzeuger von ST (v, W ) wird mit mT bezeichnet. Im Fall W = {0} nennen wir dieses Polynom auch den TAnnihilator von v. (v,W ) Lemma 9.1.18 mT teilt mT . 149 Das folgende Lemma ist der entscheidende Schritt im Beweis von Satz 9.1.11. (v,W ) Er sagt aus, dass wir zu W stets ein v so finden, dass (x − γ) = mT , sofern das Minimalpolynom in Linearfaktoren zerfällt. Lemma 9.1.19 Sei V ein n-dimensionaler K-Vektorraum, und sei T ∈ Hom(V, V ). Das Minimalpolynom von T sei mT = (x − γ1 )r1 · · · (x − γk )rk mit γi 6= γj für i 6= j, und es sei ri ≥ 1 für i = 1, . . . , k. Sei W 6= V ein T-invarianter Unterraum. Dann gibt es v ∈ V \ W mit (T − γj idV )(v) ∈ W für einen Eigenwert γj . (w,W ) Beweis Sei w ∈ V \ W beliebig. Sei g = mT . Weil w ∈ / W ist der Grad von g größer als 0, also g = (x − γ1 )s1 · · · (x − γk )sk mit mindestens einem si > 0. Sei sj > 0. Dann gilt (x − γj )g, also g = (x − γj )h und v := h(T)(w) liegt wegen der Minimaltät von g nicht in W . Der Vektor v hat dann die gewünschte Eigenschaft. Beweis (von Satz 9.1.11) “⇒” Klar. “⇐” Wiederholte Anwendung von Lemma 9.1.19 (Einzelheiten in der Vorlesung). Beweis (von Satz 9.1.12) “⇒” Ist v ein Eigenvektor zum Eigenwert γ, so gilt (T − γidV )(v) = 0. Wenn also γ1 , . . . , γk die verschiedenen Eigenwerte sind, so gilt [(T − γ1 idV ) · · · (T − γk idV )](v) = 0 (beachten Sie, dass die linearen Abbildungen in diesem Ausdruck kommutieren, weil sie Polynome in T sind!). Weil es für diagonalisierbare Operatoren eine Basis aus Eigenvektoren gibt, muss (T−γ1 idV ) · · · (T−γk idV ) die Nullabbildung sein, also zerfällt das Minimalpolynom in paarweise verschiedene Linearfaktoren. “⇐” Sei W der Vektorraum, der von allen Eigenvektoren aufgespannt wird. Wir wollen natürlich W = V zeigen. Nun ist W sicherlich T-invariant. Gilt W 6= V , so gibt es v ∈ / W und einen Eigenwert γj mit (T − γj idV )(v) ∈ W (Lemma 9.1.19). Sei w = (T − γj idV )(v). Wir können w als Summe w1 + . . . + wk von Eigenvektoren schreiben (wi sei Eigenvektor zum Eigenwert γi ). Wir erhalten für alle h ∈ K[x]: h(T)(v) = h(γ1 )w1 + . . . + h(γk )wk , siehe Lemma 6.3.16. Wir setzen nun q := mT , x − γj 150 also q − q(γj ) = (x − γj ) · h für ein h ∈ K[x]. Einsetzen von T liefert q(T)(v) − q(γj )v = h(T)(T − γj idV )(v) = h(T)(w). Es gilt h(T)(w) ∈ W , sowie q(T)(v) ∈ W , weil 0 = mT (T)(v) = (T − γj idV )q(T)(v), d.h. q(T)(v) ist ein Eigenvektor zum Eigenwert γj oder q(T)(v) = 0. Damit ist nun aber auch q(γj )v ∈ W , also q(γj ) = 0. Das ist ein Widerspruch dazu, dass alle Nullstellen von mT verschieden sind. 9.2 Direkte Summen Definition 9.2.1 V sei ein K-Vektorraum, W1 , . . . Wk seien Unterräume von V . Wir nennen diese Unterräume linear unabhängig, wenn 0 = w1 + · · ·+ wk mit wi ∈ Wi nur für w1 = . . . = wk = 0 möglich ist. Bemerkung 9.2.2 Im Fall k = 2 bedeutet das W1 ∩ W2 = {0}. Wir wenden uns nun der Frage zu, was lineare Unabhängigkeit von Unterräumen für diese Unterräume bedeutet. Satz 9.2.3 V sei ein endlichdimensionaler Vektorraum über K, und W1 , . . . , Wk ≤ V . Es sei W = W1 + . . . + Wk . Dann sind die folgenden drei Bedingungen äquivalent: (i) W1 , . . . , Wk sind linear unabhängig. (ii) Wj ∩ (W1 + . . . + Wj−1 ) = {0} für j = 2, . . . , k. Sk (iii) Ist Bi eine Basis von Wi , so ist i=1 Bi eine Basis von W , wobei Bi ∪Bj = { } für i 6= j. Beweis Vorlesung. Bemerkung 9.2.4 Die Bedingung (ii) kann auch ersetzt werden durch die stärkere Bedingung Wj ∩ (W1 + . . . + Wj−1 + Wj+1 + . . . + Wk ) = {0}. (9.4) Wenn diese Bedingung erfüllt ist, ist sicher auch (ii) erfüllt. Und wenn (ii) erfüllt ist, gilt (i), und in (i) können wir natürlich die Reihenfolge der Wi vertauschen, und deshalb gilt auch (9.4), wenn wir Wj als letzten der Unterräume schreiben. 151 Definition 9.2.5 Ist eine der Voraussetzungen aus Satz 9.2.3 erfüllt, so nennen wir W die direkte Summe der Wi , geschrieben W1 ⊕ W2 ⊕ . . . ⊕ Wk . Wenn V die direkte Summe der Wi ist, wollen wir diejenigen Abbildungen finden, die auf die einzelnen Komponenten “projizieren”: Definition 9.2.6 Eine lineare Abbildung E mit E2 = E heißt Projektion. Bemerkung 9.2.7 Projektionen 6= idV haben x2 − x als Minimalpolynom. Der folgende Satz zeigt, dass Projektionen und direkte Summen eng miteinander zusammenhängen: Satz 9.2.8 Sei V = W1 ⊕ . . . ⊕ Wk . Dann gibt es k Projektionen E1 , . . . Ek mit (a.) Ei Ej = 0 für alle i 6= j. (b.) idV = E1 + . . . + Ek . (c.) Bild(Ei ) = Wi . Sind umgekehrt E1 , . . . , Ek Projektionen, für die (a.) und (b.) gilt, so ist V = Bild(E1 ) ⊕ . . . ⊕ Bild(Ek ). Beweis Vorlesung. Wir wollen V in T-invariante Unterräume zerlegen. Dazu wäre es schön, ein Kriterium in der Sprache der Projektionen zu finden, wann die Unterräume Wi in einer direkten Summe invariante Unterräume sind. Die Antwort liefert der folgende Satz 9.2.9 Mit den Bezeichnungen aus Satz 9.2.8 sind die Wi (i = 1, . . . , k) genau dann T-invariante Unterräume (T ∈ Hom(V, V )), wenn TEi = Ei T für i = 1, . . . , k gilt. Beweis Angenommen, TEi = Ei T gilt für alle i = 1, . . . , k. Sei v ∈ Wj , also Ej (v) = v und somit T(v) = TEj (v) = Ej T(v), also T(v) ∈ Bild(Ej ) und somit T(v) ∈ Wj . Sei nun umgekehrt Wi ein T-invarianter Unterraum. Ist v ∈ V beliebig, so kann man v zerlegen: v T(v) = = E1 (v) + . . . + Ek (v) TE1 (v) + . . . + TEk (v), 152 also T(Ei (v)) ∈ Wi , weil Wi invariant unter T ist, also gibt es wi mit T(Ei (v)) = Ei (wi ). Es gilt 0 wenn i 6= j Ej TEi (v) = Ej Ei (w) = Ej (w) wenn i = j. Das zeigt Ej T(v) = Ej (TE1 (v) + . . . + TEk (v)) = Ej (wj ) = TEj (v) und damit TEj = Ej T, denn v war beliebig. Satz 9.2.10 (Primärzerlegung) Sei V ein endlichdimensionaler K-Vektorraum, T ∈ Hom(V, V ). Das Minimalpolynom sei mT = pr11 · · · prkk , (9.5) wobei die pi paarweise verschiedene irreduzible Polynome sind (also pi 6= pj für i 6= j). Ferner sei Wi := Kern(pi (T)ri ). Dann gilt: (a.) V = W1 ⊕ . . . ⊕ Wk . (b.) Wi ist T-invariant. (c.) Das Minimalpolynom von T|Wi ist pri i . Beweis Setze fi := mT . pri i Die Polynome f1 , . . . , fk haben keinen gemeinsamen Teiler. Also ist K[x] das von f1 , . . . , fk erzeugte Ideal. Es gibt also g1 , . . . , gk derart, dass 1 = f1 g1 + . . . + fk gk gilt. Ferner ist fi fj für i 6= j stets durch mT teilbar. Wir setzen Ei := fi gi (T). Dann gilt E1 + . . . + Ek = idV (9.6) und Ei Ej = 0 für i 6= j (weil mT ein Teiler von fi fj ist). Das zeigt dann auch Ei2 = Ei (Multipliziere (9.6) mit Ei ). Zeige nun Wi = Bild(Ei ). Sei v ∈ Bild(Ei ), also z.B. v = Ei (w). Dann ist Ei (v) = E2i (w) = Ei (w) = v, wir können also w = v annehmen. Es gilt pri i (T)(v) = pri i (T)Ei (v) = pri i (T)fi gi (T)(v) = 0, weil pri i fi = mT . Sei nun umgekehrt v ∈ Wi , d.h. pri i (T)(v) = 0. Dann gilt auch fj gj (T)(v) = 0, weil pri i ein Teiler von fj gj ist (für i 6= j). Das zeigt Ej (v) = 0 für j 6= i. Dann muss aber Ei (v) = v gelten (wegen (9.6)), also v ∈ Bild(Ei ). 153 Es gilt Ei T = TEi weil die Ei Polynome in T sind. Es bleibt (c.) zu zeigen. Sei Ti = T|Wi die Einschränkung von T auf den Unterraum Wi . Das Minimalpolynom von Ti ist sicherlich ein Teiler von pri i , weil für alle v ∈ Wi gilt pri i (T)(v) = 0. Angenommen, g(Ti ) = 0, dann ist g(T)fi (T) = 0, denn fi (T)(v) ∈ Wi (weil pri i (T)fi (T)(v) = 0). Wäre g ein echter Teiler von pri i , so hätten wir einen Widerspruch zu (9.5). 9.3 Kommutierende Abbildungen Definition 9.3.1 Sei V ein endlichdimensionaler Vektorraum, und sei F eine Familie linearer Abbildungen V → V mit UT = TU für alle U, T in F. Dann nennt man F eine Familie vertauschbarer (kommutierender) Operatoren. Ein Unterraum W heißt F-invariant, wenn er unter jedem U aus F invariant ist. Definition 9.3.2 Sei V ein endlichdimensionaler Vektorraum, und sei F eine Familie linearer Abbildungen V → V . Dann heißt die Familie simultan diagonalisierbar, wenn es eine Basis von V so gibt, dass alle Abbildungen bzgl. B in Diagonalgestalt dargestellt werden. Entsprechend: simultan trigonalisierbar. Offensichtlich ist eine Familie simultan diagonalisierbarer Operatoren eine kommutierende Familie. Für trigonalisierbare Operatoren gilt das nicht, weil es obere Dreiecksmatrizen gibt, die nicht vertauschbar sind. Lemma 9.3.3 Sei F eine Familie vertauschbarer linearer Operatoren auf V . Wir nehmen an, dass alle Operatoren aus F trigonalisierbar sind. Ferner sei W 6= V ein F-invarianter Unterraum von V . Dann gibt es ein v ∈ V \ W derart, dass für jedes T aus F der Vektor T(v) in W ⊕ hvi liegt. Beweis Wir dürfen annehmen, dass F endlich ist: Wähle eine Basis des von F erzeugten Unterraumes von Hom(V, V ). Es genügt dann, die Behauptung für diese Basis, z.B. bestehend aus T1 , . . . , Tr , nachzuweisen. Lemma 9.1.19 zeigt, dass es zu T1 ein γ1 und einen Vektor v1 ∈ V \ W gibt mit (T1 − γ1 idV )(v1 ) ∈ W. (9.7) Sei V1 der Unterraum, der von allen Vektoren v mit (9.7) aufgespannt wird. Der Unterraum V1 ist F-invariant: Sei v ∈ V1 beliebig, und sei T ein Operator, der mit T1 vertauscht (das gilt insbesondere für alle T aus F). Dann gilt (T1 − γ1 idV )(Tv) = T1 (Tv) − γ1 Tv = T(T1 − γ1 idV )(v) ∈ W, 154 also ist T(v) ∈ V1 . Offenbar ist V1 echt größer als W . Wir können deshalb im Prinzip so fortfahren: Wir definieren U2 := T2|V1 . Dann ist auch U2 ein trigonalisierbarer Operator, insbesondere zerfällt das Minimalpolynom in Linearfaktoren, weil das Minimalpolynom von U2 ein Teiler des Minimalpolynoms von T2 ist. Wir können jetzt einen Vektor v2 ∈ V1 \ W finden mit (T2 − γ2 idV )(v2 ) ∈ W. (9.8) Beachten Sie, dass auch (T1 − γ1 idV )(v2 ) ∈ W. Wir definieren nun V2 als den Vektorraum, der von allen Vektoren mit (9.8) aufgespannt wird. Auch V2 ist echt größer als W . Wir können also so fortfahren, bis wir einen Vektor v finden mit v ∈ / W und Tj (v) − γj v ∈ W für j = 1, . . . , r, also T(v) ∈ W + hvi für alle T in F. Satz 9.3.4 Ist V ein endlichdimensionaler K-Vektorraum, und ist F eine Familie vertauschbarer trigonalisierbarer linearer Abbildungen V → V , so ist F simultan trigonalisierbar. Beweis Genauso wie Satz 9.1.11, wobei wir Lemma 9.1.19 durch Lemma 9.3.3 ersetzen. Satz 9.3.5 Ist V ein endlichdimensionaler K-Vektorraum, und ist F eine Familie diagonalisierbarer linearer Abbildungen V → V . Dann ist F genau dann simultan diagonalisierbar, wenn F eine vertauschbare Familie ist. Beweis Genauso wie Satz 9.1.12. Ein Alternativbeweis (Induktion über dim V ) wird in der Vorlesung gegeben. Beispiel 9.3.6 Die beiden reellen Matrizen 1 2 3 −8 A := und B := 0 2 0 1 kommutieren: AB = BA = 3 −10 0 −2 Als gemeinsame Basis, bzgl. der A und B gemeinsam diagonalisiert werden, können wir 1 2 B=( , 0 1 wählen. 155 9.4 Jordan-Chevalley-Zerlegung Wir wollen uns in diesem Kapitel zunächst die Primärzerlegung für diagonalisierbare Operatoren anschauen, und dann den Fall genauer analysieren, dass das charakteristische Polynom in Linearfaktoren zerfällt. Satz 9.4.1 Sei D ∈ Hom(V, V ), wobei V ein n-dimensionaler K-Vektorraum ist. Wenn D diagonalisierbar ist, und wennn γ1 , . . . , γk die k verschiedenen Eigenwerte sind, dann gibt es k lineare Abbildungen, die die folgenden Eigenschaften haben: (a.) D = γ1 E1 + . . . γk Ek . (b.) idV = E1 + . . . + Ek . (c.) Ei Ej = 0 für i 6= j. (d.) Die Ei sind Projektionen, d.h. Ei2 = Ei . (e.) Bild(Ei ) = Eig(D, γi ). Wir nehmen nun umgekehrt an, dass es γ1 , . . . γk ∈ K und E1 , . . . , Ek ∈ Hom(V, V ) so gibt, dass (a.), (b.) und (c.) gilt. Dann ist D diagonalisierbar, die γi sind die Eigenwerte, und es gilt auch (d.) und (e.). Beweis Nach der Diskussion im letzten Kapitel sollte der Beweis nicht mehr schwer fallen. Einzelheiten werden ggf. in der Vorlesung vorgeführt. Wir betrachten nun die Konsequenzen der Primärzerlegung für trigonalisierbare Operatoren, d.h. Operatoren, für die das charakteristische und damit auch das Minimalpolynom in Linearfaktoren zerfällt. Dazu wird die folgende Definition wichtig werden: Definition 9.4.2 Ein linearer Operator N ∈ Hom(V, V ) heißt nilpotent wenn es ein r gibt mit Nr = 0V . Entsprechend definieren wir nilpotente Matrizen. Beispiel 9.4.3 Alle oberen Dreiecksmatrizen mit Nullen auf der Hauptdiagonalen sind nilpotent. Es gibt aber noch weitere Beispiele: 1 −1 N= 1 −1 erfüllt N2 = 0. 156 Sei nun T ∈ Hom(V, V ), und die Ei seien die Projektionen, die zu den invarianten Unterräumen Wi in der Primärzerlegung (Satz 9.2.10) gehören. Wir setzen D = γ1 E 1 + . . . + γ k E k . Dieser Operator ist diagonalisierbar (siehe Satz 9.4.1). Wir definieren N := T − D. Es gilt T = TE1 + . . . + TEk D = γ1 E 1 + . . . + γ k E k . Das zeigt N = (T − γ1 idV )E1 + . . . + (T − γk idV )Ek . Es folgt nun (beachte, dass die Ei Projektionen sind mit Ei Ej = 0, und die Ei kommutieren mit T) N2 = (T − γ1 idV )2 E1 + . . . + (T − γk idV )2 Ek und Nr = (T − γ1 idV )r E1 + . . . + (T − γk idV )r Ek . Nun gilt Wi = Kern(T − γi idV )ri = Bild(Ei ). Wenn wir r groß genug wählen, gilt also Nr = 0, weil (T − γi )ri (v) = 0 für alle v ∈ Bild(Ei ) gilt. Weil die Ei Polynome in T sind, so ist auch D und N ein Polynom in T. Damit ist bereits eine Hälfte des folgenden Satzes gezeigt: Satz 9.4.4 Sei T ∈ Hom(V, V ), wobei V ein endlichdimensionaler K-Vektorraum ist. Das charakteristische Polynom zerfalle in Linearfaktoren. Dann gibt es einen diagonalisierbaren Operator D und einen nilpotenten Operator N mit T = D + N. Ferner gilt DN = ND, und sowohl D als auch N sind Polynome in T. Durch die beiden Bedingungen (JC1) T=D+N (JC2) DN = ND sind D und N eindeutig bestimmt. Bemerkung 9.4.5 Die in diesem Satz auftretende Zerlegung eines trigonalisierbaren Operators in einen diagonalisierbaren plus einen nilpotenten Operator wird manchmal auch Jordan-Chevalley-Zerlegung genannt Beweis Wir müssen nur die Eindeutigkeit der Zerlegung zeigen. Sei also D′ +N′ eine weitere Zerlegung in einen diagonalisierbaren und einen nilpotenten Operator, wobei D′ und N′ wieder kommutieren. Also sind D′ und N′ auch mit T vertauschbar, und damit sind die beiden Operatoren auch mit allen Polynomen in T vertauschbar, insbesondere auch mit D und N. Also bilden die D, N, D′ , N′ 157 eine kommutierende Familie, und es gilt D − D′ = N − N′ . Weil D und D′ diagonalisierbar sind, sind sie simultan diagonalisierbar und damit ist auch D−D′ diagonalisierbar. Kommen wir nun zu N−N′ : Wir benutzen den verallgemeinerten binomischen Lehrsatz für beliebige kommutative Ringe (a + b)r = r X r i=0 i ai br−i und setzen für a und b die Matrizen N und N′ ein. Weil N und N′ vertauschbar sind, können wir das machen! Wir erhalten r X r Ni (−N′ )r−i . (N − N ) = i i=0 ′ r Wenn wir r groß genug wählen, ist stets Ni oder (−N′ )r−i die Nullabbildung, also ist ist N−N′ nilpotent. Damit ist aber D−D′ ein nilpotenter diagonalisierbarer Operator. Der einzige solche Operator ist die Nullabbildung, also D = D′ und N = N′ (beachten Sie: Ein nilpotenter Operator hat als Minimalpolynom und als charakteristisches Polynom eine Potenz von x. Wenn er diagonalisierbar ist, muss das Minimalpolynom in paarweise verschiedene Linearfaktoren zerfallen, muss also x sein). Für Matrizen gilt: Satz 9.4.6 Sei T ∈ K(n,n) . Das charakteristische Polynom von T zerfalle in Linearfaktoren. Dann gibt es eine diagonalisierbare Matrix D und eine nilpotente Matrix N mit T = D + N. Ferner gilt DN = ND. Durch die beiden Bedingungen (JC1) T=D+N (JC2) DN = ND sind D und N eindeutig bestimmt. Bemerkung 9.4.7 Wenn eine Matrix T in der Form T = γ · In + N mit einer oberen Dreiecksmatrix N, die auf der Diagonalen nur Nulleinträge hat, geschrieben werden kann, dann ist dies auch bereits die Jordan-ChevalleyZerlegung, weil γIn N = NγIn . 158 Beispiel 9.4.8 Sei T ∈ Hom(R4 , R4 ) diejenige lineare Abbildung, die bzgl. der kanonischen Basis C die Darstellungsmatrix −1 1 0 0 0 −1 0 0 ∈ R(4,4) 0 0 −2 −1 0 0 2 1 hat. Wir suchen die Jordan-Chevalley-Zerlegung dieser Matrix. Dazu betrachten wir die dazugehörende lineare Abbildung T. Man rechnet leicht das charakteristische Polynom χT = x(x + 1)3 und das Minimalpolynom mT = x(x + 1)2 aus. Wir erhalten als Primärzerlegung R4 = W1 ⊕ W2 mit 0 0 W1 = Kern(T) = h 1 i −2 und 0 0 W2 = Kern(T + I)2 = Kern 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 = h , , i. 0 0 1 −1 −1 −1 0 0 2 2 Bezüglich der Basis 0 0 1 0 0 0 1 0 B = ( 1 , 0 , 0 , 1 ) −1 0 0 −2 haben die Projektionen E1 (auf W1 ) und E2 (auf W2 ) die 1 0 0 0 0 0 0 0 0 0 0 1 B B [E1 ]B = 0 0 0 0 , [E2 ]B = 0 0 0 0 0 0 0 0 Die Darstellungsmatrix von T bzgl. B ist Darstellungsmatrizen 0 0 0 0 . 1 0 0 1 0 0 0 0 0 −1 1 0 −1 [T]B [T]CC P = B = P 0 0 −1 0 , 0 0 0 0 159 (9.9) wobei 0 0 B P = [idR4 ]C = 1 −2 1 0 0 0 0 0 1 −1 0 1 0 0 die übliche Transformationsmatrix ist. Der diagonalisierbare Operator in der Jordan-Chevalley-Zerlegung ist D = 0 · E1 − 1 · E2 , der nilpotente Operator ist N = TE1 + (T + idV )E2 . Bezüglich der Basis B ausgedrückt ist 0 0 0 0 0 −1 0 0 [D]B B = 0 0 −1 0 0 0 0 −1 und 0 0 [N]B B = 0 0 0 0 0 0 0 1 0 0 0 0 0 0 Die Zerlegung von [T]CC erhalten wir, wenn wir die Transformation (9.9) rückgängig machen: [T]CC = [N]CC + [D]CC mit −1 [N]CC = P[N]B BP entsprechend 0 0 = 0 0 −1 0 0 0 −1 0 C [D]C = 0 0 −2 0 0 2 Die Zerlegung der Matrix ist also −1 −1 1 0 0 0 0 −1 0 0 = 0 0 −2 −1 0 0 0 0 2 1 1 0 0 0 0 0 0 0 0 0 , 0 0 0 0 . −1 1 0 0 0 0 0 −1 0 0 + 0 −2 −1 0 0 0 2 1 1 0 0 0 0 0 0 0 0 0 . 0 0 Man rechnet schnell aus, dass diese beiden Matrizen auch in der Tat kommutieren. 160 Wir halten noch einmal fest: Jeder Operator, dessen charakeristisches Polynom in Linearfaktoren zerfällt (der also trigonalisierbar ist) kann als Summe eines diagonalisierbaren und nilpotenten Operators geschrieben werden. Diese Zerlegung ist eindeutig, wenn man verlangt, dass die beiden Operatoren miteinander vertauschbar sind. Im wesentlichen geht es nun also darum, Normalformen von nilpotenten Operatoren zu finden. 161