Minimalpolynom und Primärzerlegung

Werbung
Kapitel 9
Minimalpolynom und
Primärzerlegung
9.1
Das Minimalpolynom
Wir haben gelernt, dass wir Elemente einer K-Algebra in Polynome aus K[x]
einsetzen können, siehe Definition 6.1.8 sowie Satz 6.1.9. Wir wollen die Menge
der Polynome f aus K[x] betrachten, für die f (T) = 0 gilt (T ∈ Hom(V, V )).
Definition 9.1.1 Sei V ein K-Vektorraum und T ∈ Hom(V, V ). Dann definieren wir
Ann(T) = {f ∈ K[x] : f (T) = 0}
als das Annihilatorideal von T. Der eindeutig bestimmte monische Erzeuger
dieses Ideals heißt das Minimalpolynom von T. Bezeichnung: mT .
Man stellt sich das Minimalpolynom als das vom Grad her kleinste Polynom
vor, das T “zu Null” macht. Zunächst ist aber gar nicht klar, dass es ein Minimalpolynom 6= 0 gibt. Es könnte ja sein, dass nur das Nullpolynom in Ann(T)
liegt. Dass dies nicht der Fall ist, zeigt das nächste Lemma:
Lemma 9.1.2 Wenn dim V < ∞, T ∈ Hom(V, V ), dann gilt Ann(T) 6= {0}.
Beweis Die Abbildungen
2
idV , T, T 2 , . . . T n
sind linear abhängig, weil dim Hom(V,V) = n2 (Vektorraum der n×n-Matrizen).
Es gibt also λ0 , . . . , λn2 mit
n2
X
λi Ti = 0,
i=0
144
also
Pn2
i=0
λi xi ∈ Ann(T).
Bemerkung 9.1.3 Man rechnet leicht nach, dass Ann(T) ein Ideal ist: Wenn
f, g ∈ Ann(T), λ ∈ K, so ist (λf + g)(T) = λf (T) + g(T) = 0, also ist
Ann(T) ein Unterraum von K[x]. Ist f ∈ Ann(T) und g ∈ K[x] beliebig, so ist
(g · f )(T) = g(T) ◦ f (T) = g(T) ◦ 0V = 0V .
Das Minimalpolynom einer Matrix wird entsprechend definiert. Das ist sehr
sinnvoll wegen des folgenden Satzes:
Satz 9.1.4 In K(n,n) haben die beiden Matrizen A und P−1 AP das selbe Minimalpolynom (ähnliche Matrizen haben die selben Minimalpolynome).
Beweis Beachte An = (P−1 AP)n = P−1 An P.
Korollar 9.1.5 Sei T ∈ Hom(V, V ), dim V < ∞, B, C geordnete Basen von V .
C
Dann ist das Minimalpolynom von [T]B
B gleich dem Minimalpolynom von [T]C .
Achtung: Das Minimalpolynom von [T]B
C ist in der Regel nicht das Minimalpolynom von [T]B
.
B
Beispiel 9.1.6 Sei
T=
dann ist
1
0
1
∈ R(2,2) ,
1
1
T =
0
2
2
1
und man sieht
2T − T2 = I.
Also ist x2 − 2x + 1 = (x − 1)2 ∈ Ann(T). Das Polynom (x − 1)2 ist sogar
das Minimalpolynom, weil T − I 6= 0. Beachten Sie, dass in diesem Beispiel
χT = (x−1)2 . Das ist kein völliger Zufall, wie der folgende Satz zeigt. Dieser Satz
ist der bislang wohl schwierigste Satz der linearen Algebra, den Sie kennenlernen.
Wir formulieren den Satz in der Sprache der linearen Abbildungen, Sie können
sich aber T auch als Matrix vorstellen.
Satz 9.1.7 (Satz von Cayley-Hamilton) V sei ein endlichdimensionaler KVektorraum, dim V = n, T ∈ Hom(V, V ). Dann gilt:
m T χT .
Beweis Wir definieren R[T] := {f (T) : f ∈ K[x]}. Man rechnet nach, dass
R[T] ein kommutativer Ring mit neutralem Element idV ist: Klar ist, dass R[T]
bzgl. der Addition und Multiplikation abgeschlossen ist, d.h. mit x, y ∈ R[T]
ist auch xy und x + y in R[T]. Die Rechenregeln für einen Ring folgen rasch
aus der Tatsache, dass K[x] ein kommutativer Ring mit neutralem Element ist.
145
Wenn wir beispielsweise das Distributivgesetz x(y + z) = xy + xz, x, y, z ∈ R[T],
nachrechnen wollen, so geht das wie folgt. Sei x = f (T), y = g(T) und z = h(T),
f, g, h ∈ K[x]. Dann
f (T)(g(T) + h(T)) = f (T) (g + h)(T)
= (f (g + h))(T)
= (f g + f h)(T)
= (f g)(T) + (f h)(T)
= f (T) ◦ g(T) + f (T) ◦ h(T).
Der Ring R[T] ist kommutativ, weil
f (T) ◦ g(T) = (f g)(T) = (gf )(T) = g(T) ◦ f (T).
Diese kleine Gleichung verdient schon Beachtung: Die Algebra Hom(V, V ) ist
weit davon entfernt, kommutativ zu sein. Wir haben hier aber, ausgehend von
T und der Polynomalgebra, einen Teilring von Hom(V, V ), der kommutativ ist.
Wir wollen diesen Ring ab jetzt einfach mit R bezeichnen.
Sein nun B = (b1 , . . . , bn ) eine Basis von V , und sei A = [T]B
B , A = (αi,j ). Es
gilt
n
X
αj,i bj , 1 ≤ i ≤ n
T(bi ) =
j=1
und
n
X
(δi,j T − αj,i idV )bj = 0,
1 ≤ i ≤ n,
(9.1)
j=1
wobei
δi,j =
1
0
wenn i = j
sonst
das sogenannte Kronecker-Symbol ist.
Wir definieren nun eine Matrix B = (βi,j ) ∈ R(n,n) durch
βi,j := δi,j T − αj,i idV .
Das ist eine Matrix, deren Einträge aus einem kommutativen Ring kommen, wir
können also die Determinante bestimmen. Es gilt
det B = χT (T).
Wir wollen nun zeigen, dass det B = 0 ist. Sei dazu C = (γi,j ) ∈ R(n,n) , und
seien v1 , . . . vn ∈ V . Wir definieren
   Pn

v1
j=1 γ1,j (vj )
  

..
C  ...  = 

Pn .
vn
j=1 γn,j (vj )
146
Beachten Sie bitte, dass γi,j ∈ Hom(V, V ), d.h. ein Ausdruck der Form γi,j (v)
ist sinnvoll. Die Matrix C definiert eine Abbildung von V in die Menge der
n-Tupel von Vektoren.
Man rechnet für C1 , C2 ∈ R(n,n) schnell nach:
 
 
v1
v1
 .. 
 .. 
(C1 C2 )  .  = C1 (C2  . ).
(9.2)
vn
vn
Wir wenden dies nun an auf


det B
..

adj(B) · B = 
.
det B

,
(9.3)
wobei hier auf der rechten Seite, wie üblich, alle Einträge außerhalb der Diagonalen 0 sind. Aus (9.1) folgt
   
b1
0
   
B  ...  =  ...  .
bn
0
Also erhalten wir mit (9.2) und (9.3)
  
 
det B
b1
0
 ..  
 .. 
 .  = (adj(B) · B)  .  = 
0
···
..
.
bn

  
(det B)(b1 )
b1

  ..  
..
,
 .  = 
.
det B
bn
(det B)(bn )
also det B = 0.
Korollar 9.1.8 Grad(mT ) ≤ dim V.
Wir werden später noch eine weitreichende Verallgemeinerung dieses Satzes kennenlernen. Es stellt sich nämlich heraus, dass das Minimalpolynom und das charakteristische Polynom dieselben irreduziblen Teiler haben. Für Linearfaktoren
können wir das bereits jetzt zeigen:
Satz 9.1.9 Sei V ein K-Vektorraum, dim V = n, T ∈ Hom(V, V ). Dann gilt
für alle α ∈ K:
χT (α) = 0 ⇔ mT (α) = 0.
Beweis Die Richtung “⇐” folgt aus dem Satz von Cayley-Hamilton. Nun zur
Richtung “⇒”: Wenn χT (α) = 0, so ist α ein Eigenwert, es gibt also v ∈ V mit
T(v) = αv. Ist g ∈ K[x], so gilt
g(T)(v) = g(α)v,
147
siehe Lemma 6.3.16. Insbesondere gilt
0 = mT (T)(v) = mT (α)v,
also mT (α) = 0 wegen v 6= 0.
Beispiel 9.1.10 Angenommen, das charakteristische Polynom von T ist χT =
(x− 1)3 (x+ 2). Dann gibt es für das Minimalpolynom mT nur die Möglichkeiten
(x − 1)i (x + 2),
i = 1, 2 oder 3,
weil mT die beiden Nullstellen 1 und −2 haben muss und weil mT ein Teiler
von χT ist. Es treten auch alle drei Fälle auf. Die Matrizen






1 1 0 0
1 1 0 0
1 0 0 0
0 1 1 0
0 1 0 0
0 1 0 0






0 0 1 0 , 0 0 1 0 , 0 0 1 0
0 0 0 2
0 0 0 2
0 0 0 2
haben die Minimalpolynome (x − 1)3 (x + 2), (x − 1)2 (x + 2) und (x − 1)(x + 2)
(von links nach rechts).
Mit Hilfe des Minimalpolynoms können zwei sehr schöne Charakterisierungen
linearer Abbildungen angeben, die bzgl. geeigneter Basen eine obere Dreiecksmatrix oder eine Diagonalmatrix haben. Die erstgenannten Operatoren nennt
man trigonalisierbar.
Die beiden Sätze, deren Beweise wir noch etwas verschieben, lauten:
Satz 9.1.11 Sei V ein K-Vektorraum, dim V < ∞, T ∈ Hom(V, V ). Dann gilt:
T ist trigonalisierbar
⇔
mT zerfällt in Linearfaktoren.
Satz 9.1.12 Sei V ein K-Vektorraum, dim V < ∞, T ∈ Hom(V, V ). Dann gilt:
T ist digonalisierbar
⇔
mT zerfällt in paarweise verschiedene Linearfaktoren.
Bemerkung 9.1.13 Beachten Sie, dass mT genau dann in Linearfaktoren zerfällt,
wenn auch χT dies tut (siehe Satz 9.1.9). Wir könnten das Kriterium in Satz
9.1.11 also auch durch “χT zerfällt in Linearfaktoren” ersetzen.
In der Vorlesung werden diese beiden Sätze an Beispielen erläutert.
Bevor wir zum Beweis kommen, erinnern wir noch einmal an die Definition invarianter Unterräume (Definition 6.3.13). Für invariante Unterräume betrachten
wir die folgenden Polynome:
148
Definition 9.1.14 Sei W ein T-invarianter Unterraum von V , wobei T ∈
Hom(V, V ). Dann definieren wir für v ∈ V die Menge
ST (v, W ) := {g ∈ K[x] : g(T)v ∈ W }.
Gilt W = {0}, so nennen wir diese Menge den T-Annihilator von v.
Es gilt mT ∈ ST (v, W ), weil mT (T) = 0V .
In obiger Definition ist W ein T-invarianter Unterraum, weil die Menge ST (v, W )
sonst gar keine interessanten Eigenschaften hätte, insbesondere würde das folgende Lemma nicht gelten:
Lemma 9.1.15 Mit den Bezeichnungen aus Definition 9.1.14 gilt: ST (v, W )
ist ein Ideal in K[x].
Beweis Vorlesung.
Beispiel 9.1.16 Wir schauen uns die lineare Abbildung zur reellen Matrix


2 1 0
T = 0 2 1 
0 0 2
 
 
0
1
an. Sei v = 0, und sei W = h0i. Wir berechnen
1
0
 
 
0
1
Tv = 1 und T2 v = 4
2
4
Das zeigt T2 v − 4Tv + 4v ∈ W , also x2 − 4x + 4 = (x − 2)2 ∈ ST (v, W ).
Offenbar gibt es kein Polynom kleineren Grades in ST (v, W ). Also ist (x−2)2 der
monische Erzeuger von ST (v, W ). Beachten Sie: Das charakteristische Polynom
von T ist (x − 2)3 und dies ist auch gleich dem Minimalpolynom! Die gerade
durchgeführte Rechnung zeigt ja, dass (x − 2)2 nicht das Minimalpolynom ist,
denn (T − 2I)2 v 6= 0.
(v,W )
Definition 9.1.17 Der monische Erzeuger von ST (v, W ) wird mit mT
bezeichnet. Im Fall W = {0} nennen wir dieses Polynom auch den TAnnihilator von v.
(v,W )
Lemma 9.1.18 mT
teilt mT .
149
Das folgende Lemma ist der entscheidende Schritt im Beweis von Satz 9.1.11.
(v,W )
Er sagt aus, dass wir zu W stets ein v so finden, dass (x − γ) = mT
, sofern
das Minimalpolynom in Linearfaktoren zerfällt.
Lemma 9.1.19 Sei V ein n-dimensionaler K-Vektorraum, und sei T ∈ Hom(V, V ).
Das Minimalpolynom von T sei
mT = (x − γ1 )r1 · · · (x − γk )rk
mit γi 6= γj für i 6= j, und es sei ri ≥ 1 für i = 1, . . . , k. Sei W 6= V ein
T-invarianter Unterraum. Dann gibt es v ∈ V \ W mit
(T − γj idV )(v) ∈ W
für einen Eigenwert γj .
(w,W )
Beweis Sei w ∈ V \ W beliebig. Sei g = mT
. Weil w ∈
/ W ist der Grad von
g größer als 0, also
g = (x − γ1 )s1 · · · (x − γk )sk
mit mindestens einem si > 0. Sei sj > 0. Dann gilt (x − γj )g, also g = (x − γj )h
und v := h(T)(w) liegt wegen der Minimaltät von g nicht in W . Der Vektor v
hat dann die gewünschte Eigenschaft.
Beweis (von Satz 9.1.11) “⇒” Klar.
“⇐” Wiederholte Anwendung von Lemma 9.1.19 (Einzelheiten in der Vorlesung).
Beweis (von Satz 9.1.12) “⇒” Ist v ein Eigenvektor zum Eigenwert γ, so
gilt (T − γidV )(v) = 0. Wenn also γ1 , . . . , γk die verschiedenen Eigenwerte sind,
so gilt
[(T − γ1 idV ) · · · (T − γk idV )](v) = 0
(beachten Sie, dass die linearen Abbildungen in diesem Ausdruck kommutieren,
weil sie Polynome in T sind!). Weil es für diagonalisierbare Operatoren eine Basis
aus Eigenvektoren gibt, muss (T−γ1 idV ) · · · (T−γk idV ) die Nullabbildung sein,
also zerfällt das Minimalpolynom in paarweise verschiedene Linearfaktoren.
“⇐” Sei W der Vektorraum, der von allen Eigenvektoren aufgespannt wird.
Wir wollen natürlich W = V zeigen. Nun ist W sicherlich T-invariant. Gilt W 6=
V , so gibt es v ∈
/ W und einen Eigenwert γj mit (T − γj idV )(v) ∈ W (Lemma
9.1.19). Sei w = (T − γj idV )(v). Wir können w als Summe w1 + . . . + wk von
Eigenvektoren schreiben (wi sei Eigenvektor zum Eigenwert γi ). Wir erhalten
für alle h ∈ K[x]:
h(T)(v) = h(γ1 )w1 + . . . + h(γk )wk ,
siehe Lemma 6.3.16. Wir setzen nun
q :=
mT
,
x − γj
150
also q − q(γj ) = (x − γj ) · h für ein h ∈ K[x]. Einsetzen von T liefert
q(T)(v) − q(γj )v = h(T)(T − γj idV )(v) = h(T)(w).
Es gilt h(T)(w) ∈ W , sowie q(T)(v) ∈ W , weil
0 = mT (T)(v) = (T − γj idV )q(T)(v),
d.h. q(T)(v) ist ein Eigenvektor zum Eigenwert γj oder q(T)(v) = 0. Damit ist
nun aber auch q(γj )v ∈ W , also q(γj ) = 0. Das ist ein Widerspruch dazu, dass
alle Nullstellen von mT verschieden sind.
9.2
Direkte Summen
Definition 9.2.1 V sei ein K-Vektorraum, W1 , . . . Wk seien Unterräume von
V . Wir nennen diese Unterräume linear unabhängig, wenn 0 = w1 + · · ·+
wk mit wi ∈ Wi nur für w1 = . . . = wk = 0 möglich ist.
Bemerkung 9.2.2 Im Fall k = 2 bedeutet das W1 ∩ W2 = {0}. Wir wenden
uns nun der Frage zu, was lineare Unabhängigkeit von Unterräumen für diese
Unterräume bedeutet.
Satz 9.2.3 V sei ein endlichdimensionaler Vektorraum über K, und W1 , . . . , Wk ≤
V . Es sei W = W1 + . . . + Wk . Dann sind die folgenden drei Bedingungen äquivalent:
(i) W1 , . . . , Wk sind linear unabhängig.
(ii) Wj ∩ (W1 + . . . + Wj−1 ) = {0} für j = 2, . . . , k.
Sk
(iii) Ist Bi eine Basis von Wi , so ist i=1 Bi eine Basis von W , wobei Bi ∪Bj =
{ } für i 6= j.
Beweis Vorlesung.
Bemerkung 9.2.4 Die Bedingung (ii) kann auch ersetzt werden durch die
stärkere Bedingung
Wj ∩ (W1 + . . . + Wj−1 + Wj+1 + . . . + Wk ) = {0}.
(9.4)
Wenn diese Bedingung erfüllt ist, ist sicher auch (ii) erfüllt. Und wenn (ii) erfüllt
ist, gilt (i), und in (i) können wir natürlich die Reihenfolge der Wi vertauschen,
und deshalb gilt auch (9.4), wenn wir Wj als letzten der Unterräume schreiben.
151
Definition 9.2.5 Ist eine der Voraussetzungen aus Satz 9.2.3 erfüllt, so nennen wir W die direkte Summe der Wi , geschrieben W1 ⊕ W2 ⊕ . . . ⊕ Wk .
Wenn V die direkte Summe der Wi ist, wollen wir diejenigen Abbildungen finden, die auf die einzelnen Komponenten “projizieren”:
Definition 9.2.6 Eine lineare Abbildung E mit E2 = E heißt Projektion.
Bemerkung 9.2.7 Projektionen 6= idV haben x2 − x als Minimalpolynom.
Der folgende Satz zeigt, dass Projektionen und direkte Summen eng miteinander
zusammenhängen:
Satz 9.2.8 Sei V = W1 ⊕ . . . ⊕ Wk . Dann gibt es k Projektionen E1 , . . . Ek mit
(a.) Ei Ej = 0 für alle i 6= j.
(b.) idV = E1 + . . . + Ek .
(c.) Bild(Ei ) = Wi .
Sind umgekehrt E1 , . . . , Ek Projektionen, für die (a.) und (b.) gilt, so ist V =
Bild(E1 ) ⊕ . . . ⊕ Bild(Ek ).
Beweis Vorlesung.
Wir wollen V in T-invariante Unterräume zerlegen. Dazu wäre es schön, ein
Kriterium in der Sprache der Projektionen zu finden, wann die Unterräume Wi
in einer direkten Summe invariante Unterräume sind. Die Antwort liefert der
folgende
Satz 9.2.9 Mit den Bezeichnungen aus Satz 9.2.8 sind die Wi (i = 1, . . . , k)
genau dann T-invariante Unterräume (T ∈ Hom(V, V )), wenn TEi = Ei T für
i = 1, . . . , k gilt.
Beweis Angenommen, TEi = Ei T gilt für alle i = 1, . . . , k. Sei v ∈ Wj , also
Ej (v) = v und somit T(v) = TEj (v) = Ej T(v), also T(v) ∈ Bild(Ej ) und
somit T(v) ∈ Wj .
Sei nun umgekehrt Wi ein T-invarianter Unterraum. Ist v ∈ V beliebig, so kann
man v zerlegen:
v
T(v)
=
=
E1 (v) + . . . + Ek (v)
TE1 (v) + . . . + TEk (v),
152
also T(Ei (v)) ∈ Wi , weil Wi invariant unter T ist, also gibt es wi mit T(Ei (v)) =
Ei (wi ). Es gilt
0
wenn i 6= j
Ej TEi (v) = Ej Ei (w) =
Ej (w) wenn i = j.
Das zeigt
Ej T(v) = Ej (TE1 (v) + . . . + TEk (v)) = Ej (wj ) = TEj (v)
und damit TEj = Ej T, denn v war beliebig.
Satz 9.2.10 (Primärzerlegung) Sei V ein endlichdimensionaler K-Vektorraum,
T ∈ Hom(V, V ). Das Minimalpolynom sei
mT = pr11 · · · prkk ,
(9.5)
wobei die pi paarweise verschiedene irreduzible Polynome sind (also pi 6= pj für
i 6= j). Ferner sei Wi := Kern(pi (T)ri ). Dann gilt:
(a.) V = W1 ⊕ . . . ⊕ Wk .
(b.) Wi ist T-invariant.
(c.) Das Minimalpolynom von T|Wi ist pri i .
Beweis Setze
fi :=
mT
.
pri i
Die Polynome f1 , . . . , fk haben keinen gemeinsamen Teiler. Also ist K[x] das
von f1 , . . . , fk erzeugte Ideal. Es gibt also g1 , . . . , gk derart, dass
1 = f1 g1 + . . . + fk gk
gilt. Ferner ist fi fj für i 6= j stets durch mT teilbar.
Wir setzen Ei := fi gi (T). Dann gilt
E1 + . . . + Ek = idV
(9.6)
und Ei Ej = 0 für i 6= j (weil mT ein Teiler von fi fj ist). Das zeigt dann
auch Ei2 = Ei (Multipliziere (9.6) mit Ei ). Zeige nun Wi = Bild(Ei ). Sei
v ∈ Bild(Ei ), also z.B. v = Ei (w). Dann ist Ei (v) = E2i (w) = Ei (w) = v,
wir können also w = v annehmen. Es gilt
pri i (T)(v) = pri i (T)Ei (v) = pri i (T)fi gi (T)(v) = 0,
weil pri i fi = mT . Sei nun umgekehrt v ∈ Wi , d.h. pri i (T)(v) = 0. Dann gilt auch
fj gj (T)(v) = 0, weil pri i ein Teiler von fj gj ist (für i 6= j). Das zeigt Ej (v) = 0
für j 6= i. Dann muss aber Ei (v) = v gelten (wegen (9.6)), also v ∈ Bild(Ei ).
153
Es gilt Ei T = TEi weil die Ei Polynome in T sind.
Es bleibt (c.) zu zeigen. Sei Ti = T|Wi die Einschränkung von T auf den
Unterraum Wi . Das Minimalpolynom von Ti ist sicherlich ein Teiler von pri i ,
weil für alle v ∈ Wi gilt pri i (T)(v) = 0. Angenommen, g(Ti ) = 0, dann ist
g(T)fi (T) = 0, denn fi (T)(v) ∈ Wi (weil pri i (T)fi (T)(v) = 0). Wäre g ein
echter Teiler von pri i , so hätten wir einen Widerspruch zu (9.5).
9.3
Kommutierende Abbildungen
Definition 9.3.1 Sei V ein endlichdimensionaler Vektorraum, und sei F eine
Familie linearer Abbildungen V → V mit UT = TU für alle U, T in F. Dann
nennt man F eine Familie vertauschbarer (kommutierender) Operatoren.
Ein Unterraum W heißt F-invariant, wenn er unter jedem U aus F invariant
ist.
Definition 9.3.2 Sei V ein endlichdimensionaler Vektorraum, und sei F eine Familie linearer Abbildungen V → V . Dann heißt die Familie simultan
diagonalisierbar, wenn es eine Basis von V so gibt, dass alle Abbildungen bzgl. B in Diagonalgestalt dargestellt werden. Entsprechend: simultan
trigonalisierbar.
Offensichtlich ist eine Familie simultan diagonalisierbarer Operatoren eine kommutierende Familie. Für trigonalisierbare Operatoren gilt das nicht, weil es obere
Dreiecksmatrizen gibt, die nicht vertauschbar sind.
Lemma 9.3.3 Sei F eine Familie vertauschbarer linearer Operatoren auf V .
Wir nehmen an, dass alle Operatoren aus F trigonalisierbar sind. Ferner sei
W 6= V ein F-invarianter Unterraum von V . Dann gibt es ein v ∈ V \ W
derart, dass für jedes T aus F der Vektor T(v) in W ⊕ hvi liegt.
Beweis Wir dürfen annehmen, dass F endlich ist: Wähle eine Basis des von
F erzeugten Unterraumes von Hom(V, V ). Es genügt dann, die Behauptung für
diese Basis, z.B. bestehend aus T1 , . . . , Tr , nachzuweisen. Lemma 9.1.19 zeigt,
dass es zu T1 ein γ1 und einen Vektor v1 ∈ V \ W gibt mit
(T1 − γ1 idV )(v1 ) ∈ W.
(9.7)
Sei V1 der Unterraum, der von allen Vektoren v mit (9.7) aufgespannt wird. Der
Unterraum V1 ist F-invariant: Sei v ∈ V1 beliebig, und sei T ein Operator, der
mit T1 vertauscht (das gilt insbesondere für alle T aus F). Dann gilt
(T1 − γ1 idV )(Tv) = T1 (Tv) − γ1 Tv = T(T1 − γ1 idV )(v) ∈ W,
154
also ist T(v) ∈ V1 . Offenbar ist V1 echt größer als W . Wir können deshalb
im Prinzip so fortfahren: Wir definieren U2 := T2|V1 . Dann ist auch U2 ein
trigonalisierbarer Operator, insbesondere zerfällt das Minimalpolynom in Linearfaktoren, weil das Minimalpolynom von U2 ein Teiler des Minimalpolynoms
von T2 ist. Wir können jetzt einen Vektor v2 ∈ V1 \ W finden mit
(T2 − γ2 idV )(v2 ) ∈ W.
(9.8)
Beachten Sie, dass auch
(T1 − γ1 idV )(v2 ) ∈ W.
Wir definieren nun V2 als den Vektorraum, der von allen Vektoren mit (9.8)
aufgespannt wird. Auch V2 ist echt größer als W . Wir können also so fortfahren,
bis wir einen Vektor v finden mit v ∈
/ W und Tj (v) − γj v ∈ W für j = 1, . . . , r,
also T(v) ∈ W + hvi für alle T in F.
Satz 9.3.4 Ist V ein endlichdimensionaler K-Vektorraum, und ist F eine Familie vertauschbarer trigonalisierbarer linearer Abbildungen V → V , so ist F
simultan trigonalisierbar.
Beweis Genauso wie Satz 9.1.11, wobei wir Lemma 9.1.19 durch Lemma 9.3.3
ersetzen.
Satz 9.3.5 Ist V ein endlichdimensionaler K-Vektorraum, und ist F eine Familie diagonalisierbarer linearer Abbildungen V → V . Dann ist F genau dann
simultan diagonalisierbar, wenn F eine vertauschbare Familie ist.
Beweis Genauso wie Satz 9.1.12. Ein Alternativbeweis (Induktion über dim V )
wird in der Vorlesung gegeben.
Beispiel 9.3.6 Die beiden reellen Matrizen
1 2
3 −8
A :=
und B :=
0 2
0 1
kommutieren:
AB = BA =
3 −10
0 −2
Als gemeinsame Basis, bzgl. der A und B gemeinsam diagonalisiert werden,
können wir
1
2
B=(
,
0
1
wählen.
155
9.4
Jordan-Chevalley-Zerlegung
Wir wollen uns in diesem Kapitel zunächst die Primärzerlegung für diagonalisierbare Operatoren anschauen, und dann den Fall genauer analysieren, dass
das charakteristische Polynom in Linearfaktoren zerfällt.
Satz 9.4.1 Sei D ∈ Hom(V, V ), wobei V ein n-dimensionaler K-Vektorraum
ist. Wenn D diagonalisierbar ist, und wennn γ1 , . . . , γk die k verschiedenen
Eigenwerte sind, dann gibt es k lineare Abbildungen, die die folgenden Eigenschaften haben:
(a.) D = γ1 E1 + . . . γk Ek .
(b.) idV = E1 + . . . + Ek .
(c.) Ei Ej = 0 für i 6= j.
(d.) Die Ei sind Projektionen, d.h. Ei2 = Ei .
(e.) Bild(Ei ) = Eig(D, γi ).
Wir nehmen nun umgekehrt an, dass es γ1 , . . . γk ∈ K und E1 , . . . , Ek ∈ Hom(V, V )
so gibt, dass (a.), (b.) und (c.) gilt. Dann ist D diagonalisierbar, die γi sind die
Eigenwerte, und es gilt auch (d.) und (e.).
Beweis Nach der Diskussion im letzten Kapitel sollte der Beweis nicht mehr
schwer fallen. Einzelheiten werden ggf. in der Vorlesung vorgeführt.
Wir betrachten nun die Konsequenzen der Primärzerlegung für trigonalisierbare
Operatoren, d.h. Operatoren, für die das charakteristische und damit auch das
Minimalpolynom in Linearfaktoren zerfällt.
Dazu wird die folgende Definition wichtig werden:
Definition 9.4.2 Ein linearer Operator N ∈ Hom(V, V ) heißt nilpotent
wenn es ein r gibt mit Nr = 0V . Entsprechend definieren wir nilpotente
Matrizen.
Beispiel 9.4.3 Alle oberen Dreiecksmatrizen mit Nullen auf der Hauptdiagonalen sind nilpotent. Es gibt aber noch weitere Beispiele:
1 −1
N=
1 −1
erfüllt N2 = 0.
156
Sei nun T ∈ Hom(V, V ), und die Ei seien die Projektionen, die zu den invarianten Unterräumen Wi in der Primärzerlegung (Satz 9.2.10) gehören. Wir setzen
D = γ1 E 1 + . . . + γ k E k .
Dieser Operator ist diagonalisierbar (siehe Satz 9.4.1). Wir definieren N :=
T − D. Es gilt
T =
TE1 + . . . + TEk
D =
γ1 E 1 + . . . + γ k E k .
Das zeigt
N = (T − γ1 idV )E1 + . . . + (T − γk idV )Ek .
Es folgt nun (beachte, dass die Ei Projektionen sind mit Ei Ej = 0, und die Ei
kommutieren mit T)
N2 = (T − γ1 idV )2 E1 + . . . + (T − γk idV )2 Ek
und
Nr = (T − γ1 idV )r E1 + . . . + (T − γk idV )r Ek .
Nun gilt Wi = Kern(T − γi idV )ri = Bild(Ei ). Wenn wir r groß genug wählen,
gilt also Nr = 0, weil (T − γi )ri (v) = 0 für alle v ∈ Bild(Ei ) gilt.
Weil die Ei Polynome in T sind, so ist auch D und N ein Polynom in T. Damit
ist bereits eine Hälfte des folgenden Satzes gezeigt:
Satz 9.4.4 Sei T ∈ Hom(V, V ), wobei V ein endlichdimensionaler K-Vektorraum
ist. Das charakteristische Polynom zerfalle in Linearfaktoren. Dann gibt es
einen diagonalisierbaren Operator D und einen nilpotenten Operator N mit
T = D + N. Ferner gilt DN = ND, und sowohl D als auch N sind Polynome in T. Durch die beiden Bedingungen
(JC1)
T=D+N
(JC2)
DN = ND
sind D und N eindeutig bestimmt.
Bemerkung 9.4.5 Die in diesem Satz auftretende Zerlegung eines trigonalisierbaren Operators in einen diagonalisierbaren plus einen nilpotenten Operator
wird manchmal auch Jordan-Chevalley-Zerlegung genannt
Beweis Wir müssen nur die Eindeutigkeit der Zerlegung zeigen. Sei also D′ +N′
eine weitere Zerlegung in einen diagonalisierbaren und einen nilpotenten Operator, wobei D′ und N′ wieder kommutieren. Also sind D′ und N′ auch mit T
vertauschbar, und damit sind die beiden Operatoren auch mit allen Polynomen
in T vertauschbar, insbesondere auch mit D und N. Also bilden die
D, N, D′ , N′
157
eine kommutierende Familie, und es gilt
D − D′ = N − N′ .
Weil D und D′ diagonalisierbar sind, sind sie simultan diagonalisierbar und damit ist auch D−D′ diagonalisierbar. Kommen wir nun zu N−N′ : Wir benutzen
den verallgemeinerten binomischen Lehrsatz für beliebige kommutative Ringe
(a + b)r =
r X
r
i=0
i
ai br−i
und setzen für a und b die Matrizen N und N′ ein. Weil N und N′ vertauschbar
sind, können wir das machen! Wir erhalten
r X
r
Ni (−N′ )r−i .
(N − N ) =
i
i=0
′ r
Wenn wir r groß genug wählen, ist stets Ni oder (−N′ )r−i die Nullabbildung,
also ist ist N−N′ nilpotent. Damit ist aber D−D′ ein nilpotenter diagonalisierbarer Operator. Der einzige solche Operator ist die Nullabbildung, also D = D′
und N = N′ (beachten Sie: Ein nilpotenter Operator hat als Minimalpolynom
und als charakteristisches Polynom eine Potenz von x. Wenn er diagonalisierbar
ist, muss das Minimalpolynom in paarweise verschiedene Linearfaktoren zerfallen, muss also x sein).
Für Matrizen gilt:
Satz 9.4.6 Sei T ∈ K(n,n) . Das charakteristische Polynom von T zerfalle in
Linearfaktoren. Dann gibt es eine diagonalisierbare Matrix D und eine nilpotente Matrix N mit T = D + N. Ferner gilt DN = ND. Durch die beiden
Bedingungen
(JC1)
T=D+N
(JC2)
DN = ND
sind D und N eindeutig bestimmt.
Bemerkung 9.4.7 Wenn eine Matrix T in der Form
T = γ · In + N
mit einer oberen Dreiecksmatrix N, die auf der Diagonalen nur Nulleinträge
hat, geschrieben werden kann, dann ist dies auch bereits die Jordan-ChevalleyZerlegung, weil
γIn N = NγIn .
158
Beispiel 9.4.8 Sei T ∈ Hom(R4 , R4 ) diejenige lineare Abbildung, die bzgl. der
kanonischen Basis C die Darstellungsmatrix


−1 1
0
0
 0 −1 0
0
 ∈ R(4,4)

0
0 −2 −1
0
0
2
1
hat. Wir suchen die Jordan-Chevalley-Zerlegung dieser Matrix. Dazu betrachten
wir die dazugehörende lineare Abbildung T. Man rechnet leicht das charakteristische Polynom χT = x(x + 1)3 und das Minimalpolynom mT = x(x + 1)2 aus.
Wir erhalten als Primärzerlegung
R4 = W1 ⊕ W2
mit


0
0

W1 = Kern(T) = h
 1 i
−2
und

0

0
W2 = Kern(T + I)2 = Kern 
0
0
0
0
0
0

     
0
0
1
0
0
0 1  0 
0
0
 = h  ,   ,  i.
0 0  1 
−1 −1
−1
0
0
2
2
Bezüglich der Basis
      
0
0
1
0
 0  0 1  0 
      
B = (
 1  , 0 , 0 ,  1 )
−1
0
0
−2

haben die Projektionen E1 (auf W1 ) und E2 (auf W2 ) die



1 0 0 0
0 0
0 0 0 0 
0 1
B
B


[E1 ]B = 
0 0 0 0 , [E2 ]B = 0 0
0 0 0 0
0 0
Die Darstellungsmatrix von T bzgl. B ist

Darstellungsmatrizen

0 0
0 0
.
1 0
0 1

0 0
0 0
0 −1 1 0
−1

[T]B
[T]CC P = 
B = P
0 0 −1 0 ,
0 0
0 0
159
(9.9)
wobei

0
0
B

P = [idR4 ]C = 
1
−2
1
0
0
0

0
0

1
−1
0
1
0
0
die übliche Transformationsmatrix ist.
Der diagonalisierbare Operator in der Jordan-Chevalley-Zerlegung ist
D = 0 · E1 − 1 · E2 ,
der nilpotente Operator ist
N = TE1 + (T + idV )E2 .
Bezüglich der Basis B ausgedrückt ist


0 0
0
0
0 −1 0
0


[D]B
B = 0
0 −1 0 
0 0
0 −1
und

0

0
[N]B
B = 0
0
0
0
0
0
0
1
0
0

0
0

0
0
Die Zerlegung von [T]CC erhalten wir, wenn wir die Transformation (9.9) rückgängig
machen:
[T]CC = [N]CC + [D]CC
mit
−1
[N]CC = P[N]B
BP
entsprechend

0
0
=
0
0

−1 0
0
 0 −1 0
C

[D]C = 
0
0 −2
0
0
2
Die Zerlegung der Matrix ist also
 

−1
−1 1
0
0
 0
 0 −1 0
0
=

0
0 −2 −1  0
0
0
0
2
1
1
0
0
0
0
0
0
0

0
0
,
0
0

0
0
.
−1
1
 
0
0
0
0
0
−1 0
0
+
0 −2 −1 0
0
0
2
1
1
0
0
0
0
0
0
0

0
0
.
0
0
Man rechnet schnell aus, dass diese beiden Matrizen auch in der Tat kommutieren.
160
Wir halten noch einmal fest: Jeder Operator, dessen charakeristisches Polynom
in Linearfaktoren zerfällt (der also trigonalisierbar ist) kann als Summe eines
diagonalisierbaren und nilpotenten Operators geschrieben werden. Diese Zerlegung ist eindeutig, wenn man verlangt, dass die beiden Operatoren miteinander
vertauschbar sind.
Im wesentlichen geht es nun also darum, Normalformen von nilpotenten Operatoren zu finden.
161
Zugehörige Unterlagen
Herunterladen