Lineare Algebra II, Teil 2 HP Butzmann Vorlesung im FSS 10 Inhaltsverzeichnis 1 Orthogonale Abbildungen 2 2 Die Jordansche Normalform 23 1 Kapitel 1 Orthogonale Abbildungen Erinnerung 1.1 Es sei V ein R-Vektorraum. Eine Abbildung < ·, · >: V × V → R heißt Skalarprodukt auf V und (V, < ·, · >) ein euklidischer Vektorraum (oft auch kurz “euklidischer Raum”) , wenn gelten: (i) < ·, · > ist bilinear (ii) < ·, · > ist symmetrisch, d.h. für alle u, v ∈ V gilt: < u, v >=< v, u > (iii) < ·, · > ist positiv definit, d.h. für alle v ∈ V gelten: < v, v > ≥ 0 und < v, v >= 0 ⇔ v = 0 Wenn (V, < ·, · >) ein euklidischer Vektorraum ist, ist k · k : V → R definiert durch √ kvk = < v, v > eine Norm auf V . In der Regel schreibt man V für (V, < ·, · >) Definition 1.2 Es seien V und W euklidische Vektorräume und ϕ : V −→ W eine lineare Abbildung. Eine lineare Abbildung ϕ∗ : W −→ V heißt adjungiert zu ϕ, wenn gilt: < ϕ(v), w >=< v, ϕ∗ (w) > für alle v ∈ V, w ∈ V Beispiel 1.3 Es sei A ∈ M (k, n, R). Dann ist ϕAt adjungiert zu ϕA . Beweis Es gilt für alle v ∈ Rn , w ∈ Rk : < ϕA (v), w >=< Av, w >= (Av)t w = v t At w = v t ϕAt (w) =< v, ϕAt (w) > 2 Bemerkung 1.4 Es seien ϕ∗ und ψ adjungierte Abbildungen von ϕ, dann gilt ϕ∗ = ψ. Man spricht daher von der adjungierten Abbildung (wenn es sie gibt). Beweis Es seien ϕ∗ und ψ adjungierte Abbildungen von ϕ, dann gilt für alle v ∈ V und w ∈ W : < v, ϕ∗ (w) >=< ϕ(v), w) >=< v, ψ(w) > und daher < v, ϕ∗ (w) − ψ(w) >= 0 für alle v ∈ V, w ∈ W Es folgt insbesondere für alle w ∈ W : 0 =< ϕ∗ (w) − ψ(w), ϕ∗ (w) − ψ(w) >= kϕ∗ (w) − ψ(w)k2 und daraus ϕ∗ (w) − ψ(w) = 0 für alle w ∈ W . Offenbar ist eine lineare Abbildung ϕ zwischen euklidischen Vektorräumen genau dann selbstadjungiert, wenn die adjungierte Abbildung existiert und weiterhin ϕ∗ = ϕ gilt. Proposition 1.5 Es seien V und W endlich-dimensionale euklidische Räume und ϕ : V −→ W eine lineare Abbildung. Dann besitzt ϕ eine adjungierte Abbildung ϕ∗ . Zusatz: Es seien B bzw. C geordnete ONBen von V bzw. W , dann gilt [ϕ∗ ]C,B = [ϕ]tB,C . Beweis Zur Erinnerung: Für alle v ∈ V gilt nach [LA], 6.38(i): [ϕ(v)]C = [ϕ]B,C v Man wähle also ψ : W → V so dass gilt [ψ]C,B = [ϕ]tB,C , dann gilt für alle w ∈ W : [ψ(w)]B = [ψ]C,B [w]C = [ϕ]tB,C [w]C Also folgt aus [LA], 10.13(iii) für alle v ∈ V und w ∈ W : < v, ψ(w) > = < [v]B , [ψ(w)]B > = < [v]B , [ψC,B ][w]C > = < [v]B , [ϕ]tB,C [w]C > = [v]tB [ϕ]tB,C [w]C = ([ϕ]B,C [vB ])t [w]C = ([ϕ(v)]C )t [w]C = < ϕ(v), w > Also ist ψ adjungiert zu ϕ. 3 Lemma 1.6 Es seien V, W, Z euklidische Räume und ϕ, ϕ1 , ϕ2 : V → W und ψ : W → Z lineare Abbildungen sowie α ∈ R. Dann gelten: (i) Wenn ϕ1 und ϕ2 adjungierte Abbildungen besitzen, besitzt auch ϕ1 + ϕ2 eine adjungierte Abbildung und es gilt (ϕ1 + ϕ2 )∗ = ϕ∗1 + ϕ∗2 (ii) Wenn ϕ eine adjungierte Abbildung besitzt, besitzt auch αϕ eine adjungierte Abbildung und es gilt (αϕ)∗ = αϕ∗ (iii) Wenn ϕ und ψ adjungierte Abbildungen besitzen, besitzt auch ψ ◦ ϕ eine adjungierte Abbildung und es gilt (ψ ◦ ϕ)∗ = ϕ∗ ◦ ψ ∗ (iv) Wenn ϕ eine adjungierte Abbildung besitzt, besitzt auch ϕ∗ eine adjungierte Abbildung und es gilt (ϕ∗ )∗ = ϕ. Beweis Ich zeige (iii) und (iv): Für alle v ∈ V und z ∈ Z gilt: < ψ(ϕ(v)), z >=< ϕ(v), ψ ∗ (z) >=< v, ϕ∗ (ψ ∗ (z)) >=< v, ϕ∗ ◦ ψ ∗ (z) > Es folgt (iii). Weiterhin gilt < ϕ∗ (v), w >=< w, ϕ∗ (v) >=< ϕ(w), v >=< v, ϕ(w) > und daraus folgt (iv). Definition 1.7 Es seien V und W euklidische Vektorräume. Eine lineare Abbildung ϕ : V → W heißt orthogonal, wenn gilt: < ϕ(u), ϕ(v) > = < u, v > für alle u, v ∈ V Beispiel 1.8 Es seien s, c ∈ R und es gelte s2 + c2 = 1. Dann ist die lineare Abbildung ϕ : R2 → R2 definiert durch c s [ϕ] = −s c orthogonal. Beweis Für alle x1 x2 ∈ R2 gilt ϕ x1 x2 = 4 cx1 + sx2 −sx1 + cx2 und daher folgt für alle <ϕ x1 x2 ,ϕ y1 y2 x1 x2 y1 , ∈ R2 y2 cx1 + sx2 cy1 + sy2 > = < , > −sx1 + cx2 −s1 y1 + cy2 = c2 x1 y1 + csx1 y2 + scx2 y1 + s2 x2 y2 +s2 x1 y1 − scx1 y2 − csx2 y1 + c2 x2 y2 = x1 y1 + x2 y2 x1 y1 = < , > x2 y2 Lemma 1.9 Es sei V ein euklidischer Vektorraum. Dann gilt für alle v, w ∈ V : 1 < v, w >= (kv + wk2 − kv − wk2 ) 4 Beweis Es gilt kv + wk2 − kv − wk2 = < v + w, v + w > − < v − w, v − w > = < v, v + w > + < w, v + w > −(< v, v − w > + < w, v − w >) = < v, v > + < v, w > + < w, v > + < w, w > −(< v, v > − < v, w > − < w, v > + < w, w >) = kvk2 + 2 < v, w > +kwk2 − (kvk2 − 2 < v, w > +kwk2 ) = 4 < v, w > Proposition 1.10 Es seien V und W euklidische Vektorräume. Eine lineare Abbildung ϕ : V → W ist genau dann orthogonal, wenn gilt kϕ(v)k = kvk für alle v ∈ V Beweis Wenn ϕ orthogonal ist, gilt für alle v ∈ V : kϕ(v)k2 =< ϕ(v), ϕ(v) >=< v, v >= kvk2 Wenn andererseits kϕ(v)k = kvk für alle v gilt, folgt aus 1.9 für alle u, v ∈ V : 4 < ϕ(u), ϕ(v) > = kϕ(u) + ϕ(v)k2 − kϕ(u) − ϕ(v)k2 = kϕ(u + v)k2 − kϕ(u − v)k2 = ku + vk2 − ku − vk2 = 4 < u, v > 5 Korollar 1.11 Es seien V und W euklidische Vektorräume und ϕ : V → W eine orthogonale Abbildung. Dann ist das Bild jedes ONSs in V ein ONS in W . Wenn ϕ surjektiv ist, ist das Bild jeder ONB von V eine ONB von W . Wie schon früher bemerkt, gilt für zwei Vektoren v, w ∈ Rn : < v, w >= kvk kwk cos α wobei α den Winkel zwischen v und w bezeichnet. Wenn ϕ nun orthogonal ist, gilt für alle v, w 6= 0, wenn β den Winkel zwischen ϕ(v) und ϕ(w) bezeichnet: kvk kwk cos α =< v, w >=< ϕ(v), ϕ(w) >= kϕ(v)k kϕ(w)k cos(β) = kvk kwk cos β und daher cos α = cos β. Also erhält eine orthogonale Abbildung Längen und Winkel. Wenn umgekehrt eine lineare Abbildung ϕ Längen erhält, ist sie nach 1.10 orthogonal (und erhält Winkel). Proposition 1.12 Es seien V, W, Z euklidische Vektorräume und ϕ : V → W eine orthogonale Abbildung. Dann gelten: (i) ϕ ist injektiv. (ii) Wenn ϕ ein Isomorphismus ist, ist ϕ−1 orthogonal. (iii) Wenn V und W endlich-dimensional ist und dim V = dim W gilt, ist ϕ ein Isomorphismus. (iv) Wenn W = V gilt und λ ∈ R ein Eigenwert von ϕ ist, gilt λ ∈ {−1, 1}. (v) Es sei ψ : W → Z eine orthogonale Abbildung. Dann ist ψ ◦ ϕ orthogonal. Beweis (i) Es ist zu zeigen, dass ker ϕ = {0} gilt: Also sei v ∈ ker ϕ, dann folgt: 0 = kϕ(v)k = kvk und daraus v = 0. (ii) Es sei ϕ ein Isomorphismus. Dann gilt für alle w ∈ V : kwk = kϕ(ϕ−1 (w))k = kϕ−1 (w)k und nach 1.10 ist ϕ−1 orthogonal. (iii) Da ϕ injektiv, folgt aus dem Rangsatz dim V = dim ker(ϕ) + rg(ϕ) = dim ϕ(V ) und daraus W = ϕ(V ). 6 (iv) Es sei v ein Eigenvektor von ϕ zum Eigenwert λ, dann folgt: kvk = kϕ(v)k = kλvk = |λ| kvk und daraus |λ| = 1. (v) Klar. Korollar 1.13 Es sei V ein endlich-dimensionaler euklidischer Vektorraum, dann ist die Menge aller orthogonalen Abbildungen von V in sich zusammen mit der Hintereinanderausführung eine Gruppe. Sie heißt auch die orthogonale Gruppe von V . Proposition 1.14 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine lineare Abbildung. Dann sind äquivalent: (i) ϕ ist orthogonal. (ii) ϕ ist ein Isomorphismus und ϕ−1 = ϕ∗ . (iii) ϕ∗ ◦ ϕ = idV (iv) ϕ ◦ ϕ∗ = idV Wenn ϕ orthogonal ist, ist auch ϕ−1 orthogonal. Beweis Offenbar gilt “(ii) ⇒ (iii)” und “(ii) ⇒ (iv)”. Wenn aber (iii) gilt, ist ϕ injektiv und daher nach dem Rangsatz ein Isomorphismus. Also folgt ϕ∗ = ϕ−1 und man erhält “(iii) ⇒ (ii)”. Analog zeigt man, dass “(iv) ⇒ (ii)” gilt. Also muss noch gezeigt werden, dass“(i) ⇔ (ii)” gilt: “(i) ⇒ (ii)”: Nach 1.12(iii) ist ϕ ein Isomorphismus. Weiterhin gilt für alle v, w ∈ V: < ϕ(v), w >=< ϕ(v), ϕ(ϕ−1 (w)) >=< v, ϕ−1 (w) > Es folgt ϕ−1 = ϕ∗ . “(ii) ⇒ (i)”: Für alle v ∈ V gilt kϕ(v)k2 =< ϕ(v), ϕ(v) >=< v, ϕ∗ (ϕ(v)) >=< v, v >= kvk2 Da ϕ injektiv ist, sind (iii) und (iv) offenbar äquivalent zu (ii). Bemerkung 1.15 Bekanntlich gibt es eine enge Beziehung zwischen linearen Abbildungen und Matrizen. Also gibt es auch eine matrizentechisches Analogon des Begriffs der Orthogonalität für lineare Abbildungen. Von Interesse ist dieses aber nur für quadratische Matrizen. Also sei A ∈ M (n, n, R), dann suche ich eine Bedingung an A, so dass ϕA orthogonal ist. Nun gilt 7 ϕA ist orthogonal ⇐⇒ ϕ∗A ◦ ϕA = id ⇐⇒ [ϕ∗A ◦ ϕA ] = I ⇐⇒ [ϕ∗A ][ϕA ] = I ⇐⇒ [ϕA ]t [ϕA ] = I ⇐⇒ At A = I ⇐⇒ A ist regulär und es gilt A−1 = At Also definiert man: Definition 1.16 Eine Matrix A ∈ M (n, n, R) heißt orthogonal, wenn A regulär ist und A−1 = At gilt. Beispiele orthogonaler Matrizen ergeben sich sofort aus der folgenden Proposition: Proposition 1.17 Für eine Matrix A ∈ M (n, n, R) sind äquivalent: (i) A ist orthogonal (ii) At A = In . (iii) AAt = In (iv) Die Spaltenvektoren von A bilden ein ONS. (v) Die Spaltenvektoren von A bilden eine ONB des Rn . (vi) Die Zeilenvektoren von A bilden ein ONS. (vii) Die Zeilenvektoren von A bilden eine ONB des Rn . Beweis Die Äquivalenz von (i), (ii) und (iii) erhält man analog zu 1.14: Wenn At A = In gilt, ist A nach dem Determinantenproduktsatz regulär und es folgt At = A−1 und daher folgt (i) aus (ii). Nun seien a1 , . . . , an die Spaltenvektoren von A, dann gilt At A = (ati aj ) Also gilt At A = In genau dann, wenn die Spaltenvektoren ein ONS bilden. Analog ist AAt = In äquivalent dazu, dass die Zeilenvektoren ein ONS bilden. Aus Dimensionsgründen ist (iv) äquivalent zu (v) und (vi) äquivalent zu (vii). Beispiel 1.18 In diesem Beispiel will ich alle orthogonalen 2 × 2-Matrizen und damit alle orthogonalen Abbildungen des R2 in sich bestimmen. Es sei zunächst a b A= ∈ M (2, 2, R) c d eine orthogonale Matrix. Dann gelten nach 1.17: 8 (i) a2 + b2 = 1 und c2 + d 2 = 1 und b2 + d 2 = 1 (ii) ac + bd = 0 (iii) a2 + c2 = 1 (iv) ab + cd = 0 Aus (i) und (iii) folgt a2 + b2 = 1 = a2 + c2 und daraus b2 = c2 , also gibt es ein σ ∈ {−1, 1} mit c = σb und analog folgt, daß a2 = d2 gilt, also gibt es ein τ ∈ {−1, 1} mit d = τ a. Aus (iii) folgt dann: 0 = ac + bd = σab + τ ab = (σ + τ )ab Wenn ab 6= 0 gilt, folgt τ = −σ und daraus: a b a b A= = σb τ a σb −σa Diese Darstellung bleibt richtig, wenn a = 0 gilt. Wenn aber b = 0 gilt, folgt a 0 A= 0 τa und man erhält die obige Darstellung mit σ = −τ . Schließlich gibt es wegen (i) genau ein α ∈ [0, 2π), für das gilt a = cos(α) und b = sin(α) und man erhält: cos(α) sin(α) [ϕ] = A = σ sin(α) −σ cos(α) Eine einfache Rechnung zeigt, dass jede Matrix dieses Typs orthogonal ist. 1. Fall: σ = −1, dann gilt: A= cos(α) sin(α) − sin(α) cos(α) Für alle v = (x1 , x2 )t 6= 0 folgt dann mit c = cos(α) , s = sin(α): < ϕA (v), v >=< (cx1 +sx2 , −sx1 +cx2 )t , (x1 , x2 ) >= cx21 +sx1 x2 −sx1 x2 +cx22 = ckvk2 und man erhält, wenn β der Winkel zwischen ϕA (v) und v ist: cos(β) =< ϕA (v), v > /kϕA (v)k kvk = ckvk2 /kvk2 = c = cos(α) Also ist der Winkel zwischen einem Vektor und seinem Bildvektor immer α. Da weiterhin kϕA (v)k = kvk für alle v ∈ R2 gilt, ist ϕA eine Drehung um den Winkel α. Wegen ϕ(1, 0) = (cos(α), − sin(α)) stellt ϕA eine Drehung im Uhrzeigersinn dar. 9 2. Fall σ = 1, dann gilt: A= cos(α) sin(α) sin(α) − cos(α) . und daher für die charakteristische Abbildung: c−λ s P ϕA (λ) = PA (λ) = det = λ2 − 1 s −c − λ also sind 1 und −1 die Eigenwerte von ϕ. Sei v1 ein normierter Eigenvektor zum Eigenwert 1 und v2 ein normierter Eigenvektor zum Eigenwert −1. Dann gilt < v1 , v2 >=< ϕ(v1 ), ϕ(v2 ) >=< v1 , −v2 >= − < v1 , v2 > Also sind v1 und v2 orthogonal zueinander und {v1 , v2 } bildet eine ONB. Schließlich gilt für alle α1 , α2 ∈ R: ϕ(α1 v1 + α2 v2 ) = α1 ϕ(v1 ) + α2 ϕ(v2 ) = α1 v1 − α2 v2 und ϕ ist die Spiegelung an dem Untervektorraum L({v1 }). Proposition 1.19 (i) Eine Matrix A ∈ M (n, n, R) ist genau dann orthogonal, wenn ϕA orthogonal ist. (ii) Es seien V ein endlich-dimensionaler euklidischer Vektorraum und B eine geordnete ONB von V . Eine lineare Abbildung ϕ : V → V ist genau dann orthogonal, wenn [ϕ]B orthogonal ist. (iii) Es sei A ∈ M (n, n, R) orthogonal. Dann gilt det A ∈ {−1, 1}. Beweis (i): 1.15, so ist Orthogonalität einer Matrix ja gerade definiert worden. (ii) Nach 1.5 gilt [ϕ∗ ]B = [ϕ]tB und daraus folgt mit 1.17: [ϕ]B ist orthogonal ⇔ [ϕ]B [ϕ]tB = In ⇔ [ϕ]B [ϕ∗ ]B = In ⇔ [ϕ ◦ ϕ∗ ]B = In ⇔ ϕ ◦ ϕ∗ = idV und die Behauptung folgt aus 1.14. (iii) Da ϕA orthogonal ist, folgt aus 1.12(iv): det A = det ϕA ∈ {−1, 1} 10 Proposition 1.20 Es seien V ein Vektorraum über einem Körper K und M1 , . . . , Mn Untervektorräume von V . Dann sind äquivalent: (i) Zu jedem v ∈ V gibt es eindeutig bestimmte vi ∈ Mi so dass gilt (ii) V = M1 + · · · + Mn v = v1 + . . . + vn S und Mi ∩ L( j6=i Mj ) = {0} Beweis “(ii) ⇒ (i)”: Sei v ∈ V . Nach Voraussetzung gibt es vi ∈ Mi so dass gilt v = v1 + ·P · · + vn . Es gelte außerdem v = w1 + . . . + wn mit wi ∈ Mi für alle i. Dann folgt i (vi − wi ) = 0 und daraus für alle i: X [ vi − w i = (wj − vj ) ∈ Mi ∩ L( Mj ) = {0} j6=i j6=i Man erhält vi = wi für alle i. “(i) ⇒ S (ii)”: Es gilt V = M1 + · · · + Mn nach Voraussetzung. Also sei vi ∈ Mi ∩ L( j6=i Mj ), dann gibt es Elemente vj ∈ Mj so dass gilt vi = X vj j6=i und es folgt v1 + · · · + vi−1 + 0vi + vi+1 + · · · vn = 0v1 + · · · + 0vi−1 + vi + 0vi+1 + · · · + 0vn Da diese Darstellung nach Voraussetzung eindeutig ist, folgt vi = 0vi = 0. Definition 1.21 Es seien V ein K-Vektorraum und M1 , . . . , Mn Untervektorräume. Man sagt, V sei die direkte Summe von M1 , . . . , Mn und schreibt V = M1 ⊕ · · · ⊕ Mn wenn eine der beiden (und damit beide) Eigenschaften aus 1.20 erfüllt sind. Beispiel 1.22 Es seien V ein euklidischer Vektorraum und M ⊆ V ein Untervektorraum. Dann gilt V = M ⊕ M⊥ Beweis Das ist gerade [LA], 10.20. 11 Definition 1.23 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und M ⊆ V ein Untervektorraum. Dann definiere man σM : V −→ V auf die folgende Weise: Nach 1.22 gilt V = M ⊕ M ⊥ , also gibt es nach 1.20 zu jedem v ∈ V eindeutig bestimmte Vektoren v1 ∈ M und v2 ∈ M ⊥ mit v = v1 + v2 . Dann definiere man σM (v) = v1 − v2 . σM heißt Spiegelung an M . Lemma 1.24 (Pythagoras) Es seien V ein euklidischer Vektorraum und v1 , . . . , vk paarweise orthogonale Vektoren aus V . Dann gilt kv1 + . . . vn k2 = kv1 k2 + . . . kvn k2 Speziell gilt kv + wk2 = kvk2 + kwk2 wenn v, w ∈ V orthogonale Vektoren sind. Beweis Das kann man naürlich induktiv beweisen, aber ich denke, der folgende kürzere Beweis ist auch verständlich: Es gilt k k X i=1 2 vi k =< k X i=1 vi , k X vj >= j=1 k X < vi , vj >= i,j=1 k X i=1 < vi , vi >= k X kvi k2 i=1 Proposition 1.25 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und M ⊆ V ein Untervektorraum. Dann ist σM eine selbstadjungierte, −1 2 ∗ orthogonale Abbildung. Weiter gilt σM = idV und daher σM = σM = σM . Beweis Man rechnet leicht nach, dass σM linear ist. Es gilt für alle v1 ∈ M, v2 ∈ M ⊥ : kσM (v1 + v2 )k2 = kv1 − v2 k2 = kv1 + (−v2 )k2 = kv1 k2 + kv2 k2 = kv1 + v2 k2 Also ist σM orthogonal. Weiterhin gilt 2 σM (v1 + v2 ) = σM (σM (v1 + v2 )) = σM (v1 − v2 ) = v1 + v2 Definition 1.26 Es sei V ein endlich-dimensionaler euklidischer Vektorraum. Eine orthogonale Abbildung ϕ : V → V heißt Drehung oder eigentlich orthogonal, wenn det(ϕ) = 1 gilt. ϕ heißt uneigentlich orthogonal, wenn det(ϕ) = −1 gilt. 12 Proposition 1.27 Es seien V ein zweidimensionaler euklidischer Vektorraum und ϕ : V → V eine orthogonale Abbildung. Dann gelten: (i) Wenn ϕ eine Drehung ist, gibt es zu jeder geordneten ONB B von V genau ein α ∈ [0, 2π) so dass gilt: cos(α) − sin(α) [ϕ]B = sin(α) cos(α) Man nennt α auch den Drehwinkel der Drehung bzgl. B. (ii) Wenn ϕ uneigentlich orthogonal ist, ist ϕ eine Spiegelung an einem eindimensionalen Untervektorraum und es gibt eine geordnete ONB B von V so daß gilt: 1 0 [ϕ]B = 0 −1 Beweis Wenn ϕ orthogonal ist, ist [ϕ]B nach 1.19(ii) orthogonal, und die Behauptung folgt dann aus von 1.18. (Man beachte, dass ich α durch −α ersetzt habe: Die mathematisch positive Drehrichtung ist die entgegen dem Uhrzeigersinn.) Eine der Fragen, die im Folgenden geklärt werden soll, ist die, ob und in welcher Weise der Winkel α in 1.27(i) von B abhängt. Erinnerung 1.28 Es seien α, β ∈ R, dann gelten: cos(α + β) = cos(α) cos(β) − sin(α) sin(β) sin(α + β) = sin(α) cos(β) + cos(α) sin(β) Proposition 1.29 Es seien V ein zweidimensionaler euklidischer Vektorraum, ϕ, ψ : V → V Drehungen und σ : V → V eine Spiegelung. Dann gelten: (i) ψ ◦ ϕ ist eine Drehung und es gilt ψ◦ϕ=ϕ◦ψ (ii) σ ◦ ϕ = ϕ−1 ◦ σ = ϕ∗ ◦ σ Zusatz Es seien B eine geordnete ONB von V und α bzw. β die Drehwinkel von ϕ bzw. ψ bzg. B, dann gilt für den Drehwinkel γ von ψ ◦ ϕ bzgl. B: α+β : α + β < 2π γ= α + β − 2π : α + β ≥ 2π 13 Beweis (i) Nach 1.13 (oder 1.12(v)) ist ψ ◦ ϕ orthogonal. Wegen det(ψ ◦ ϕ) = det(ψ) det(ϕ) = 1 ist ψ ◦ ϕ eine Drehung und analog ist ϕ ◦ ψ eine Drehung. Weiterhin gilt: cos(β) − sin(β) cos(α) − sin(α) [ψ]B = und [ϕ]B = sin(β) cos(β) sin(α) cos(α) und es folgt: [ψ ◦ ϕ]B = [ψ]B [ϕ]B cos(β) cos(α) − sin(β) sin(α) −(cos(β) sin(α) + sin(β) cos(α)) = sin(β) cos(α) + cos(β) sin(α) cos(β) cos(α) − sin(β) sin(α) cos(β + α) − sin(β + α) = sin(β + α) cos(β + α) Wenn man die Rollen von ϕ und ψ vertauscht, erhält man daraus: cos(α + β) − sin(α + β) [ϕ ◦ ψ]B = sin(α + β) cos(α + β) und daraus die Behauptung. (ii) Nach 1.27(ii) gibt es eine geordnete ONB B so dass gilt 1 0 [σ]B = 0 −1 Also folgt mit c = cos(α) und s = sin(α): 1 0 c −s c −s [σ ◦ ϕ]B = [σ]B [ϕ]B = = 0 −1 s c −s −c und [ϕ−1 ◦ σ]B = [ϕ∗ ◦ σ]B = [ϕ∗ ]B [σ]B = [ϕ]tB [σ]B also −1 [ϕ ◦ σ]B = c s −s c 1 0 0 −1 = c −s −s −c Korollar 1.30 Die Menge aller Drehungen eines zweidimensionalen euklidischen Raumes ist, zusammen mit der Hintereinanderausführung, eine kommutative Gruppe. 14 Die Frage ist nun, ob und in welcher Weise der Drehwinkel einer Drehung von der ONB abhängt. Seien α der Drehwinkel einer Drehung ϕ bezüglich B = (v1 , v2 ) und C = (v2 , v1 ), dann gilt cos(α) sin(α) cos(α) − sin(−α) [ϕ]C = = − sin(α) cos(α) sin(−α) cos(α) also geht α in diesem Fall in −α über. Dieses ist aber auch die einzige Möglichkeit: Definition 1.31 Es seien B = (v1 , . . . vn ) und C = (w1 , . . . wn ) geordnete Basen eines K-Vektorraumes V . Dann sei τB,C : V → V die einzige lineare Abbildung, so daß τB,C (vi ) = wi für i = 1, . . . n gilt. (Also gilt [τB,C ]B,C = I.) Man nannt τB,C auch Koordinatentransformation. Lemma 1.32 Es seien B und C ONBen eines euklidischen Vektorraumes V . Dann ist τB,C orthogonal. Speziell gilt det(τB,C ) ∈ {−1, 1} . Beweis Es seien B = (v1 , . . . vn ) und C = (w1 , . . . , wn ), dann gilt [τB,C ]B = ([w1 ]B , . . . , [wn ]B ) Da w1 , . . . , wn ein ONS ist, ist auch [w1 ]B , . . . , [wn ]B nach [LA], 10.13 ein ONS und die Behauptung folgt aus 1.19(ii) und 1.17(v). Proposition 1.33 Es seien V ein zweidimensionaler euklidischer Vektorraum, ϕ : V → V eine Drehung und B, C geordnete ONBen von V . Dann gilt ( [ϕ]B : det(τB,C ) = 1 [ϕ]C = [ϕ]tB : det(τB,C ) = −1 Beweis Das kann man natürlich beweisen, indem man [τB,C ]B explizit darstellt t und bedenkt, dass [τB,C ]−1 B = [τB,C ]B gilt. Der folgende Weg ist etwas anstrengender, aber er vermeidet explizite Rechnungen. Es sei zunächst det(τB,C ) = 1, dann ist τB,C eine Drehung und aus 1.29(i) folgt τB,C ◦ ϕ ◦ τC,B = ϕ ◦ τB,C ◦ τC,B = ϕ und daraus mit [LA], 6.39: [ϕ]C = [τB,C ◦ ϕ ◦ τC,B ]C = [τB,C ]B,C [ϕ]B,B [τC,B ]C,B = [ϕ]B Wenn nun det(τB,C ) = −1 gilt, ist τB,C eine Spiegelung und aus 1.29(ii) folgt: τB,C ◦ ϕ ◦ τC,B = ϕ∗ ◦ τB,C τC,B = ϕ∗ und daraus [ϕ]tC = [ϕ∗ ]C = [ϕ]B also [ϕ]C = [ϕ]tB . 15 Bemerkung 1.34 Wenn nun α der Drehwinkel einer Drehung ϕ bezüglich einer geordneten ONB B ist,und det(τB,C ) = −1 gilt, erhält man also cos(α) sin(α) cos(−α) − sin(−α) t = [ϕ]C = [ϕ]B = − sin(α) cos(α) sin(−α) cos(−α) cos(2π − α) − sin(2π − α) = sin(2π − α) cos(2π − α) also ist der Drehwinkel bezüglich C gerade der “negative bezüglich B” (da ein Drehwinkel per definitionem nicht-negativ ist, ist diese Formulierung formal nicht richtig, daher die Anführungszeichen.) Also induzieren B und C verschiedene “Drehrichtungen”. Das ist also die Frage, ob man sich links- oder rechtsherum dreht, wenn man den Auftrag bekommt, sich um α zu drehen. Es gibt keine algebraische Methode, hier eine Drehrichtung auszuzeichnen und daher definiert man: Definition 1.35 Es sei V ein K-Vektorraum. Zwei geordnete Basen B und C von V heißen gleichorientiert, wenn det(τB,C ) > 0 gilt und sie heißen entgegengesetzt orientiert, wenn det(τB,C ) < 0 gilt. Mit dieser neuen Sprechweise erhält man: Korollar 1.36 Es seien V ein zweidimensionaler euklidischer Vektorraum, ϕ : V → V eine Drehung und B, C geordnete ONBen von V . Dann gelten: ( [ϕ]C = [ϕ]B : wenn B und C gleichorientiert sind [ϕ]tB : wenn B und C entgegengesetzt orientiert sind Wenn weiterhin α bzw. β der Drehwinkel von ϕ bezüglich B bzw. C ist, gilt weiterhin α = β, wenn B und C gleichorientiert sind und β = 2π − α,wenn B und C entgegengesetzt orientiert sind. Beweis Klar. Ich komme nun zum Studium der Drehungen eines dreidimensionalen euklidischen Raumes. Das folgende Resultat erlaubt es, solche Abbildungen zu “zerlegen”: Lemma 1.37 Es seien V ein endlich-dimensionaler euklidischer Vektorraum, ϕ : V → V eine orthogonale Abbildung und M ⊆ V ein Untervektorraum. Es gelte ϕ(M ) ⊆ M . Dann gilt ϕ(M ⊥ ) ⊆ M ⊥ . Beweis Da ϕ injektiv ist, gilt dim ϕ(M ) = dim M und daher gilt ϕ(M ) = M und ϕ−1 (M ) = ϕ−1 (ϕ(M )) = M . Es gelte w ∈ M ⊥ , dann gilt für alle v ∈ M : < ϕ(w), v >=< ϕ(w), ϕ(ϕ−1 (v)) >=< w, ϕ−1 (v) >= 0 16 1.37 ist das Analogon für orthogonale Abbilungen zu [LA], 10.24, das für selbstadjungierte Abbildungen gilt. Unter den Voraussetzungen von 1.37 sind die Abbildungen ϕ0 : M ⊥ → M ⊥ und ϕ1 : M → M definiert durch ϕ1 (v) = ϕ(v) für alle v ∈ M und ϕ0 (v) = ϕ(v) für alle v ∈ M ⊥ wohldefiniert. Und wenn man geordnete Basen B1 bzw. B0 von M bzw. M ⊥ hat, dann gilt für B = (B1 , B0 ): ! [ϕ1 ]B1 0 [ϕ]B = 0 [ϕ0 ]B0 Also hat man das Problem der Darstellung einer Abbildung eines n-dimensionalen Vektorraums in sich reduziert auf die Darstellung zweier Abbildungen von niedrigdimensionaleren Räumen in sich. Die Frage ist nun, wie man zu einem Untervektorraum M kommt, für den ϕ(M ) ⊆ M gilt. Das ist natürlich von Fall zu Fall verschieden, besonders einfach ist es aber, wenn ϕ einen Eigenvektor v besitzt, denn in diesem Fall kann man M = L({v}) wählen. Satz 1.38 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ : V → V eine Drehung. Dann gibt es ein α ∈ [0, 2π) sowie eine geordnete ONB B von V so daß gilt: 1 0 0 [ϕ]B = 0 cos α − sin α 0 sin α cos α Beweis Als Polynom(abbildung) vom Grad 3 besitzt Pϕ eine reelle Nullstelle λ1 und daher ϕ einen Eigenwert λ1 ∈ {1, −1}. Seien v1 ein normierter Eigenvektor von ϕ zum Eigenwert λ1 und M = L({v1 }), dann gilt ϕ(M ) ⊆ M und daher ϕ(M ⊥ ) ⊆ M ⊥ nach 1.37. Also ist ϕ0 : M ⊥ → M ⊥ definiert durch ϕ0 (v) = ϕ(v) für alle v ∈ M ⊥ eine wohldefinierte lineare Abbildung, die orthogonal ist. Offenbar gilt dim M ⊥ = 2, sei B0 = (v2 , v3 ) eine geordnete ONB von M ⊥ . Dann ist B = (v1 , v2 , v3 ) eine geordnete ONB von V und es gilt λ1 0 0 [ϕ]B = 0 a1,1 a1,2 0 a2,1 a2,2 wobei [ϕ0 ]B0 = a1,1 a1,2 a2,1 a2,2 gilt. Also folgt 1 = det(ϕ) = λ1 det(ϕ0 ) und daher det(ϕ0 ) = λ1 . 1. Fall λ1 = 1. Dann ist ϕ0 eine Drehung, und es gibt nach 1.27 (genau ein) α ∈ [0, 2π) so dass gilt cos α − sin α [ϕ0 ]B0 = sin α cos α 17 Es sei B = (v1 , v2 , v3 ), dann gilt 1 0 0 [ϕ]B = 0 cos α − sin α 0 sin α cos α 2. Fall λ = −1, dann gilt det(ϕ0 ) = −1, und ϕ0 ist nach 1.27 eine Spiegelung und es gibt eine ONB (v2 , v3 ) von M ⊥ so dass gilt ϕ(v2 ) = v2 und ϕ(v3 ) = −v3 . Es folgt 1 0 0 1 0 0 0 = 0 cos π 0 [ϕ](v2 ,v1 ,v3 ) = 0 −1 0 0 −1 0 0 cos π Lemma 1.39 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ : V → V eine Drehung, ϕ 6= idV . Dann gilt dim Eϕ,1 = 1. Beweis Wegen ϕ 6= idV gilt dim Eϕ,1 < 3. Angenommen, es gilt dim Eϕ,1 = 2, dann betrachte man eine geordnete ONB (v1 , v2 ) von Eϕ,1 und ergänze sie zu einer geordneten ONB B = (v1 , v2 , v3 ) von V . Dann gilt 1 0 a1,3 [ϕ]B = 0 1 a2,3 0 0 a3,3 Da die Zeilen ein ONS bilden, folgt a1,3 = a2,3 = 0. Weiterhin gilt 1 = det ϕ = a3,3 und daher [ϕ]B = I3 , d.h. ϕ = idV im Widerspruch zur Annahme. Definition 1.40 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ : V → V eine Drehung, ϕ 6= idV . Dann heißt Eϕ,1 die Drehachse der Drehung ⊥ die Drehebene. und Eϕ,1 Bemerkung 1.41 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ : V → V eine Drehung, ϕ 6= 0. Dann induyiert ϕ eine Drehung ϕ0 von ⊥ Eϕ,1 auf sich. Man nennt den Drehwinkel von ϕ0 dann den Drehwinkel von ϕ. Er ist nicht eindeutig bestimmt, da es auf Eϕ,1 keine ausgezeichnete Orientierung gibt. Aber wenn α und β Drehwinkel sind, gilt β = α oder β = 2π − α und daher cos β = cos α. Daher begnügt man sich üblicherweise damit, den Cosinus des Drehwinkels zu bestimmen, denn der ist ja eindeutig bestimmt. Definition 1.42 Es sei A = (ai,j ) ∈ M (n, n, K). Dann heißt sp(A) = a1,1 + · · · + an,n die Spur von A. 18 Proposition 1.43 Es seien A, B ∈ M (n, n, K). Dann gelten: (i) sp(AB) = sp(BA) (ii) Wenn A und B ähnlich sind, gilt sp(A) = sp(B). Beweis (i) Es seien A = (ai,j ), B = (bi,j ) und AB = (ci,j ), dann gilt für alle i, j: ci,j = n X ai,k bk,j k=1 und daher sp(AB) = n X n X n X n X ai,k bk,i = i=1 k=1 bk,i ai,k = sp(BA) k=1 i=1 (ii) Wenn A und B ähnlich sind, gibt es eine reguläre Matrix T so dass gilt B = T −1 AT und es folgt sp(B) = sp(T −1 AT ) = sp((T −1 A)T ) = sp(T T −1 A) = sp(A) Definition 1.44 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann heißt sp(ϕ) = sp([ϕ]B ) wobei B eine beliebige geordnete Basis von V ist, die Spur von ϕ. Da je zwei darstellende Matrizen von ϕ nach [LA], 8.22 ähnlich sind, ist die Spur einer linearen Abbildung nach 1.43 wohldefiniert. Proposition 1.45 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ : V → V eine Drehung. Man setze 1 c = (sp(ϕ) − 1) 2 Dann ist c der Cosinus des Drehwinkels. V so dass gilt 1 [ϕ]B = 0 0 Also gibt es eine geordnete ONB B von 19 0 0 c −s s c Beweis Nach 1.38 gibt es ein α ∈ [0, 2π) sowie eine geordnete ONB B von V so daß gilt: 1 0 0 [ϕ]B = 0 cos α − sin α 0 sin α cos α Es folgt sp(ϕ) = sp([ϕ]B ) = 1 + 2 cos α und daraus die Behauptung. Beispiel 1.46 Man definiere ϕ : R3 → R3 durch 1 1 √ − √12 2 2 1 − 2 1 1 √ 1 √ 1 = √ 0 − √2 [ϕ] = 2 2 √0 − 2 2 1 1 1 2 1 √1 2 2 2 dann gilt: √ √ 1 − 2 1 1 2 1 √ √ √ √ 1 − 2 [ϕ][ϕ]t = 2 0 − 2 0 2 = I3 √ √ 4 1 2 1 1 − 2 1 also ist ϕ orthogonal. Weiterhin gilt det(ϕ) = det([ϕ]) = 1 1 1 1 + − (− − ) = 1 4 4 4 4 also ist ϕ eine Drehung. Weiterhin gilt sp(ϕ) = sp([ϕ]) = 1 und daher für den Drehwinkel α: cos α = 1/2(sp(ϕ) − 1) = 0 also α = π/2 oder α = dass gilt 1 0 [ϕ]B = 0 3/2π. Damit gibt es eine geordnete ONB B von R3 so 0 0 0 −1 1 0 oder 1 0 0 [ϕ]B = 0 0 1 0 −1 0 Zur Berechnung der Drehachse muss man den Eigenraum zum Eigenwert 1 ausrechnen. Die Lösung des LGS [ϕ − I3 ]X = 0 erhält man aus: 20 − 12 − √12 √1 2 1 2 −1 √1 2 1 2 − √12 − 12 7→ − 12 − √12 1 2 0 −2 0 0 0 0 Damit ist die Drehachse: Eϕ,1 x = { 0 : x ∈ R} x und v1 = ( √12 , 0, √12 )t ist ein normierter Eigenvektor. Um eine geeignete geordnete ⊥ . Und dazu reicht es, {v1 } zu Basis zu finden, braucht man eine ONB von Eϕ,1 3 einer ONB des R zu ergänzen. Das macht man natürlich mit dem Schmidtschen Orthonormierungsverfahren ([LA], 10.15). Offenbar ist {v1 , e2 , e3 } eine Basis von R3 . Setzt man also v2 = e2 , dann gilt < v1 , v2 >= 0 und {v1 , v2 } ist ein ONS. Zur Berechnung des 3. Basisvektors setzt man 1 α1 √ √ 0 0 2 2 w = α1 v1 + α2 v2 + e3 = α1 0 + α2 1 + 0 = α2 α1 √1 √ +1 0 1 2 2 Dann muss gelten: 1 0 =< w, v1 >= α1 + < e3 , v1 >= α1 + √ 2 und 0 =< w, v2 >= α2 + < e3 , v2 >= α2 Man erhält α1 = − √12 und α2 = 0 und daraus 1 − 12 0 −2 w = 0 + 0 = 0 1 − 12 1 2 und schließlich v3 = √ 1 1 1 w = 2w = (− √ , 0, √ )t kwk 2 2 ⊥ Also ist (v2 , v3 ) eine geordnete ONB von Eϕ,1 . Es gilt ϕ(v2 ) = e3 und Es folgt für B = (v1 , v2 , v3 ): 21 ϕ(v3 ) = −e2 1 0 0 [ϕ]B = 0 0 −1 0 1 0 Wegen 1 = sin π/2 ist der Drehwinkel von ϕ bezüglich B gerade π/2. Wählt man allerdings B 0 = (v1 , v3 , v2 ), dann ist der Drehwinkel 3π/2 bezüglich B 0 . Also verliert man keine Information, wenn man über die Spur der darstellenden Matrix nur den Cosinus des Drehwinkels berechnen kann, denn die Tatsache, dass es in der Regel zwei Kandidaten für die Drehwinkel gibt, entspricht der Tatsache, dass es in der Drehebene keine natürliche Orientierung gibt. Zum Abschluss dieses Kapitels gebe ich ohne Beweis das allgemeine Ergebnis an: Proposition 1.47 Es sei ϕ : Rn → Rn eine Drehung. Dann gibt es eine g. ONB B von Rn und α1 , . . . αk ∈ [0, 2π) so daß gilt: 1 .. . 1 cos(α ) − sin(α ) 1 1 [ϕ]B = sin(α1 ) cos(α1 ) . .. cos(αk ) − sin(αk ) sin(αk ) cos(αk )) 0 0 22 Kapitel 2 Die Jordansche Normalform In diesem Kapitel sei K ein Körper. In diesem Kapitel wird die Frage weiter verfolgt, wie man eine besonders einfache darstellende Matrix einer linearen Abbildung eines endlich-dimensionalen K-Vektorraums in sich findet. Der einfachste Fall ist natürlich der, in dem es eine darstellende Matrix gibt, die eine Diagonalmatrix ist. Nach [LA], 9.11 gibt es so eine Matrix genau dann, wenn die Summe der Dimensionen der Eigenräume gleich der Dimension des gesamten Raumes ist. Dazu äquivalent ist die Tatsache, dass der Raum die direkte Summe der Eigenräume ist. Um eine feinere Analyse vorzunehmen, muss man zunächst die charakteristische Abbildung einer linearen Abbildung genauer ansehen. Dabei stellt sich heraus, dass diese Abbildung in der Tat die assoziierte Abbildung eines Polynoms ist. Und um das zu beweisen, kann man z.B. den Begriff der Determinante einer Matrix, deren Koeffizienten ihrerseits Polynome sind, einführen. Es gilt ja nach [LA], 8.39 für jede Matrix A = (ai,j ) ∈ M (n, n, K): X sgn(π)a1,π(1) · · · an,π(n) det A = π∈Sn und dieser Ausdruck ist sinnvoll, wenn die Koeffizienten aus einem (kommutativen) Ring stammen. Also definiert man: Definition 2.1 Es sei R ein kommutativer Ring mit Eins. Die Menge aller n×nMatrizen mit Koeffizienten in R wird mit M (n, n, R) bezeichnet. Für eine Matrix A = (ai,j ) ∈ M (n, n, R) definiere man X det A = sgn(π)a1,π(1) · · · an,π(n) π∈Sn Der einzige kommutative Ring, auf den dieser Begriff im Folgenden angewandt wird, ist der Polynomring eines Körpers. 23 Bemerkung 2.2 Man kann zeigen, dass die Determinante dem Laplace’schen Entwicklungssatz, der Regel von Sarrus und dem Determinantenproduksatz genügt. Lemma 2.3 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und B, C geordnete Basen von V . Dann gilt det([ϕ]B − XIn ) = det([ϕ]C − XIn ) Dabei ist det : M (n, n, K[X]) → K[X] Beweis Da [ϕ]B und [ϕ]C ähnlich sind, gibt es eine reguläre Matrix T ∈ M (n, n, K) ⊆ M (n, n, K[X]) so dass gilt [ϕ]C = T −1 [ϕ]B T Es folgt [ϕ]C − XIn = T −1 [ϕ]B T − XIn = T −1 [ϕ]B T − T −1 (XIn )T = T −1 ([ϕ]B − XIn )T und daraus det([ϕ]C − XIn ) = det([ϕ]B − XIn ) mit dem Determinantenproduktsatz. Definition 2.4 (i) Es sei A ∈ M (n, n, K), dann heißt PA,X = det(A − XIn ) das charakteristische Polynom von A. (ii) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann heißt Pϕ,X = det([ϕ]B − XIn ) wobei B eine beliebige geordnete Basis von V ist, das charakteristische Polynom von ϕ. Bemerkung 2.5 Es seien A ∈ M (n, n, K) und ϕ eine lineare Abbildung eines endlich-dimensionalen K-Vektorraum in sich. Dann gelten: ] P A,X = PA und Pg ϕ,X = Pϕ d.h. die zum charakteristischen Polynom assoziierte Abbildung ist gerade die charakteristische Abbildung. 24 Beweis Das folgt unmittelbar aus [DM A], 3.16. Formal ändert sich wenig bei der Berechnung des charakteristischen Polynoms im Vergleich zur charakteristischen Abbildung, aber das charakteristische Polynom hat eine weitere Struktur, es ist eben ein Polynom. Proposition 2.6 (i) Es sei A ∈ M (n, n, K). Dann gibt es an−1 , . . . a1 ∈ K so daß gilt: PA,X = (−1)n X n + an−1 X n−1 + · · · + a1 X + det(A) , also ist PA,X ein Polynom vom Grad n mit dem führenden Koeffizienten (−1)n und absoluten Glied det(A). (ii) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann gibt es an−1 , . . . a1 ∈ K so daß gilt: Pϕ,X = (−1)n X n + an−1 X n−1 + · · · + a1 X + det(ϕ) , also gilt für Pϕ,X dasselbe wie in (i). Beweis Der Beweis von (ii) folgt unmittelbar aus (i). (i) Man setze A − XIn = (Pi,j ), dann gilt X PA,X = det(A − XIn ) = sgn(π)P1,π(1) · · · Pn,π(n) π∈Sn Nun gilt grad(sgn(π)P1,π(1) · · · Pn,π(n) ) = n π(i) = i für alle i < n sonst Also gilt PA,X = (α1,1 − X) · · · (αn,n − X) + Q wobei Q ein Polynom vom Grad < n ist. Es folgt grad(PA,X ) = n und der führen] de Koeffizient ist (−1)n . Schließlich gilt P A,X (0) = det A, also ist das absolute Glied det(A). Definition 2.7 Es sei P ∈ K[X] ein Polynom, P 6= 0. Man sagt, P zerfällt in Linearfaktoren, wenn es a, λ1 , . . . λn ∈ K so gibt, daß gilt: P = a(X − λ1 ) · · · (X − λn ) 25 Beispiele 2.8 Bei der Frage, ob ein Polynom in Linearfaktoren zerfällt, ist oft die Frage entscheidend, über welchem Körper man ein Polynom betrachtet: (i) X 2 + 1 ∈ R[X] zerfällt nicht in Linearfaktoren. (ii) Für X 2 + 1 ∈ C[X] gilt: X 2 + 1 = (X − i)(X + i) also zerfällt X 2 + 1 über den komplexen Zahlen in Linearfaktoren. (iii) Der Fundamentalsatz der Algebra besagt, dass jedes Polynom P ∈ C[X], P 6= 0 in Linearfaktoren zerfällt. Im folgenden werden mehrfache Nullstellen eines Polynoms eine wichtige Rolle spielen. Da man die Vielfachheit genau beschreiben muss, definiert man: Definition 2.9 Es seien K ein Körper, P ∈ K[X], P 6= 0 und λ ∈ K eine Nullstelle von P . Dann heißt µ(P, λ) = max{j ∈ N : (X − λ)j teilt P } die Ordnung der Nullstelle. Wenn λ eine Nullstelle der Ordnung k ist, nennt man λ auch k-fache Nullstelle von P . Lemma 2.10 Es seien K ein Körper, P ∈ K[X], P 6= 0 und λ ∈ K eine Nullstelle von P . Dann gilt k = µ(P, λ) genau dann, wenn es ein Polynom Q ∈ K[X] so gibt, dass gelten: P = (X − λ)k Q und Q(λ) 6= 0 Beweis Wenn λ eine k-fache Nullstelle von P ist, dann gibt es ein Polynom Q ∈ K[X] so dass gilt P = (X − λ)k Q. Angenommen, Q(λ) = 0, dann ist X − λ ein Teiler von Q, also gibt es ein Polynom T ∈ K[X] so dass gilt Q = (X − λ)T und es folgt P = (X − λ)k Q = (X − λ)k+1 T und daher ist (X − λ)k+1 ein Teiler von P , im Widerspruch zur Definition. Umgekehrt gelte P = (X − λ)k Q und Q(λ) 6= 0. Dann gilt k ≤ µ(P, λ). Angenommen, k < µ(P, λ), dann gibt es ein Polynom T ∈ K[X] so dass gilt (X − λ)k+1 T = P . Es folgt (X − λ)k Q = (X − λ)k+1 T und daraus Q = (X − λ)T . Also folgt Q(λ) = 0 und daraus ein Widerspruch. Lemma 2.11 Es seien P ∈ K[X] ein Polynom, P 6= 0 und ν1 , . . . νk die verschiedenen Nullstellen von P . Dann gilt: µ(P, ν1 ) + · · · + µ(P, νk ) ≤ grad P Die Gleichheit gilt genau dann, wenn P in Linearfaktoren zerfällt. Beweis ÜA 26 Proposition 2.12 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann gilt für alle Eigenwerte λ von ϕ: dim(Eϕ,λ ) ≤ µ(Pϕ,X , λ) Beweis Es sei k = dim Eϕ,λ . Man wähle eine geordete Basis (v1 , . . . , vk ) von Eϕ,λ und ergänze sie zu einer geordneten Basis B = (v1 , . . . , vn ) von V . Dann gilt λ 0 0 ... a1,k+1 . . . a1,n 0 λ 0 ... a2,k+1 . . . a2,n . .. . . .. .. .. . . . . . . . ak,k+1 . . . ak,n [ϕ]B = 0 . . . 0 λ 0 . . . . . . 0 ak+1,k+1 . . . ak+1,n . .. .. .. .. . . . 0 ... ... 0 an,k+1 . . . an,n und daher Pϕ,X = det([ϕ]B − XIn ) = det λ−X 0 0 ... a1,k+1 0 λ−X 0 ... a2,k+1 .. .. . . .. .. . . . . . 0 ... 0 λ − X ak,k+1 0 ... ... 0 ak+1,k+1 − X .. .. .. . . . 0 ... ... 0 an,k+1 ... ... a1,n a2,n .. . ... ak,n ... ak+1,n .. . . . . an,n − X = (λ − X)k Q wie man durch mehrfache Entwicklung nach der 1. Spalte sieht. Also ist λ eine wenigstens k-fache Nullstelle von Pϕ,X . Satz 2.13 Es sei V ein endlich-dimensionaler K-Vektorraum. Eine lineare Abbildung ist genau dann diagonalisierbar, wenn die beiden folgenden Bedingungen (gleichzeitig) erfüllt sind: (i) Das charakteristische Polynom Pϕ,X zerfällt in Linearfaktoren. (ii) Für jeden Eigenwert λ von ϕ gilt: dim(Eϕ,λ ) = µ(Pϕ,X , λ) Beweis Es seien n = dim V und ν1 , . . . , νk die paarweise verschiedenen Eigenwerte von ϕ und es gelte µi = µ(Pϕ,X , νi ) für alle i. Nach [LA], 9.11 ist ϕ genau dann diagonalisierbar, wenn gilt dim Eϕ,ν1 + · · · + dim Eϕ,νk = n 27 Nun gilt dim Eϕ,νi ≤ µi für alle i nach 2.12 und aus 2.11 folgt dann dim Eϕ,ν1 + · · · + dim Eϕ,νk ≤ µ1 + · · · + µk ≤ n und beide Gleichheiten sind genau dann erfüllt, wenn dim Eϕ,νi ≤ µi für alle i gilt und wenn µ1 + · · · + µk = n gilt. Die letze Aussage ist nach 2.11 äquivelant zu (i). Beispiel 2.14 Man definiere wie in LA1, ÜA 46 die lineare Abbildung ϕ : R3 → R3 durch 1 0 0 [ϕ] = 0 2 1 0 0 2 Dann gilt P = Pϕ,X = (1 − X)(2 − X)2 und µ(P, 2) = 1. Andererseits ist Eϕ,1 die Lösungsmenge des LGS −1 0 0 0 0 0 1 0 0 0 0 0 Da die Koeffizientenmatrix den Rang 1 hat, gilt dim Eϕ,2 = 3 − 2 = 1 und daher dim Eϕ,2 < µ(P, λ) und ϕ ist nicht diagonalisierbar. 2.13 besagt, dass die Diagonalisierbarkeit einer linearen Abbildung daran hängt, dass das charakteristische Polynom in Linearfaktoren zerfällt und dass jeder Eigenraum die “richtige” Dimension hat. Also ist es nicht möglich, dass der eine Eigenraum “zu klein” ist, dass aber ein anderer dann entsprechend “größer” ist, wie es in [LA], 9.11 noch denkbar ist. Wenn ϕ nicht diagonalisierbar ist, liegt das entweder daran, dass das charakteristische Polynom nicht in Linearfaktoren zerfällt, oder aber daran, dass es zwar zerfällt, aber die Summe der Eigenräume zu klein ist. Das erste Problem kann man dadurch umgehen, dass man Körper betrachtet, in denen jedes Polynom in Linearfaktoren zerfällt, also z.B. C. Um dem zweiten Problem zu begegnen, vergrössert man die Eigenräume zu den sogenannten Haupträumen. Zunächst einmal gibt es eine einfache Darstellung von linearen Abbildungen, deren charakteristisches Polynom in Linearfaktoren zerfällt: Satz 2.15 Es seien V ein endlich-dimensionaler Vektorraum und ϕ : V → V eine lineare Abbildung. Es gibt genau dann eine geordnete Basis B von V , so dass [ϕ]B eine obere Dreiecksmatrix ist, wenn Pϕ,X in Linearfaktoren zerfällt. Beweis Eine Matrix A = (ai,j ) heißt obere Dreiecksmatrix, wenn ai,j = 0 für alle i > j gilt, d.h. A hat die Form a1,1 a1,2 a1,3 . . . a1,n 0 a2,1 a2,3 . . . a1,n A = .. .. .. . . . . . . 0 0 0 . . . an,n 28 Wenn es also eine geordnete Basis B von V gibt, so dass A = [ϕ]B eine obere Dreiecksmatrix ist, gilt offenbar Pϕ,X = (a1,1 − X) · · · (an,n − X) und Pϕ,X zerfällt in Linearfaktoren. Der Beweis der Umkehrung erfolgt durch vollständige Induktion nach dim V : Das Fall dim V = 1 ist klar, die Behauptung gelte für alle W mit dim W = n − 1 und es sei dim V = n. Da Pϕ,X in Linearfaktoren zerfällt, besitzt ϕ einen Eigenwert λ1 , es sei v1 ein zugehöriger Eigenvektor. Man ergänze v1 zu einer geordneten Basis B = (v1 , . . . , vn ) von V und setze W = L({v2 , . . . , vn }) sowie C = (v2 , . . . , vn ). Dann ist C eine geordnete Basis von W . Man wähle A ∈ M (n − 1, n − 1, K) so dass gilt λ1 ∗ [ϕ]B = 0 A Definiert man nun ψ : W → W durch [ψ]C = A, dann gilt λ1 ∗ [ϕ]B = 0 [ψ]C Also folgt Pϕ,X = (λ1 − X) det([ψ]C − XIn−1 ) = (λ1 − X)Pψ,X Es gelte Pϕ,X = (−1)n (X − λ1 ) · · · (X − λn ), dann folgt Pψ,X = (−1)n−1 (X − λ2 ) · · · (X − λn ) und daher zerfällt auch Pψ,X in Linearfaktoren. Nach Induktionsannahme gibt es eine geordnete Basis D = (w2 , . . . , wn ) von W so dass [ψ]D eine obere Dreiecksmatrix ist. Man erhält mit E = (v1 , w2 , . . . , wn ): λ1 ∗ [ϕ]E = 0 [ψ]D und das ist eine obere Dreiecksmatrix. Die darstellende Matrix einer linearen Abbildung, die in 2.15 bewiesen worden ist, ist natürlich immer noch sehr voll. Um bessere Darstellungen zu bekommen, formuliert man das Diagonlisierbarkeitskriterium aus LA I noch einmal um: Proposition 2.16 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Weiterhin seien ν1 , . . . , νk die paarweise verschiedenen Eigenwerte von V . Dann ist ϕ genau dann diagonalisierbar, wenn gilt V = Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk 29 Beweis Für alle i wähle man eine Basis Bi von Eϕ,νi . Wenn ϕ dieser Eigenschaft genügt, ist B1 ∪ . . . ∪ Bk eine Basis aus Eigenvektoren und ϕ daher diagonalisierbar. Andererseits sei ϕ diagonalisierbar. Dann ist B1 ∪ . . . Bk nach LA I, 9.10 eine linear unabhängige Menge mit dim Eϕ,ν1 + · · · + dim Eϕ,νk = n Elementen. Wegen B1 ∪ . . . Bk ⊆ Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk folgt daraus dim Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk = n und daraus V = Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk . Die Frage ist nun, wodurch man die Eigenräume ersetzen kann, wenn diese zu klein sind. Und da gibt es nun eine sehr schöne Idee: Definition 2.17 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung sowie λ ein Eigenwert von ϕ. Dann heißt [ Hϕ,λ = ker(ϕ − λid)k k∈N der Hauptraum von ϕ zum Eigenwert λ. Lemma 2.18 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung sowie λ ein Eigenwert von ϕ. Dann gibt es ein k ∈ N so dass gilt: ker(ϕ−λid) ⊂ ker(ϕ−λid)2 ⊂ . . . ⊂ ker(ϕ−λid)k = ker(ϕ−λid)k+j für alle i ∈ N Es gilt also Hϕ,λ = ker(ϕ − λid)k und daher ist Hϕ,λ ein Untervektorraum. Weiterhin gilt ϕ(Hϕ,λ ) ⊆ Hϕ,λ . Beweis Man setze ψ = ϕ − λid. Offenbar gilt ker ψ r ⊆ ker ψ r+1 für alle r. Es gelte nun ker ψ r = ker ψ r+1 , dann zeige ich zunächst, dass gilt ker ψ r+1 = ker ψ r+2 : Offenbar gilt “⊆”, sei v ∈ ker ψ r+2 , dann folgt ψ r+1 (ψ(v)) = 0 und daraus ψ(v) ∈ ker ψ r+1 = ker ψ r , und man erhält ψ r+1 = ψ r (ψ(v)) = 0, d.h. v ∈ ker ψ r+1 . Da V endlich-dimensional ist, gibt es ein r ∈ N so dass gilt ker ψ r = ker ψ r+1 , es sei k das kleinste r dieser Art. Schließlich sei v ∈ Hϕ,λ = ker(ϕ − λid)k , dann folgt (ϕ − λid)(v) ∈ ker(ϕ − λid)k−1 ⊆ ker(ϕ − λid)k = Hϕ,λ und daraus ϕ(v) = (ϕ − λid)(v) + λv ∈ Hϕ, λ Ich werde später zeigen, dass V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νk gilt, wenn Pϕ,X in Linearfaktoren zerfällt. Wegen ϕ(Hϕ,νi ) ⊆ Hϕ,νi induziert ϕ die linearen Abbildungen ϕi : Hϕ,νi → Hϕ,νi definiert durch ϕi (v) = ϕ(v). 30 Sei ν ein Eigenwert von ϕ und es gelte Hϕ,ν = ker(ϕ − νid)k , dann gilt (ϕ − νid)k (v) = 0 für alle v ∈ Hϕ,ν . Definiert man also ψ : Hϕ,ν → Hϕ,ν durch ψ(v) = (ϕ − νid)(v), dann gilt ψ k = 0. Und Abbildungen dieser Art sollen zunächst studiert werden, dabei setzt man wie üblich für eine Matrix A ∈ M (n, n, K) und eine lineare Abbildung ϕ : V → V : Ak = A · · ◦ A} | ◦ ·{z k−mal und ϕk = ϕ ◦ · · · ◦ ϕ | {z } k−mal sowie A0 = In ϕ0 = idV und Definition 2.19 Es seien A ∈ M (n, n, K), V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. A bzw. ϕ heißt nilpotent, wenn es ein k ∈ N so gibt, dass gilt Ak = 0 bzw. ϕk = 0. Man nennt k den Nilpotenzgrad von A bzw. ϕ, wenn Ak−1 6= 0 bzw. ϕk−1 6= 0 gilt. Beispiel 2.20 (i) Offenbar ist eine lineare Abbildung ϕ : V → V genau dann nilpotent, wenn [ϕ]B nilpotent ist, wobei B eine geordnete Basis von V ist. (ii) Man definiere ϕ : K 2 → K 2 durch [ϕ] = 0 1 0 0 dann gilt [ϕ]2 = 0, also ist ϕ nilpotent. (iii) Für k ∈ N sei J(0, k) = (0, et1 , . . . , etn−1 ) ∈ M (k, k, K) d.h. J(0, k) = 0 1 0 .. . 0 .. . 0 0 0 0 0 ... .. . 1 .. .. . . 0 0 0 0 Dann ist J(0, k) nilpotent vom Nilpotenzgrad k. 31 0 .. . 0 1 0 Beweis (iii) Man setze ϕ = ϕJ(0,k) , dann gilt 0 i=1 ϕ(ei ) = ei−1 i > 1 Also gilt ϕj (ei ) = 0 für j ≥ i und ϕj (vn ) 6= 0 falls j < k. Nächstes Ziel ist es zu zeigen, daß man zu jeder nilpotenten linearen Abbildung ϕ eine geordnete Basis B so finden kann, daß gilt: J(0, k1 ) 0 ... [ϕ]B = 0 J(0, kr ) Wenn nun sogar [ϕ]B = J(0, n) gilt folgt für B = (v1 , . . . , vn ): ϕ(v1 ) = 0 , ϕ(v2 ) = v1 , . . . , ϕ(vn ) = vn−1 . Vektorsysteme dieser Form heißen auch zyklisch. Im allgemeinen Fall setzt sich B aus Teilen mit dieser Eigenschaft zusammen. Lemma 2.21 Es seien V ein endlich-dimensionaler Vektorraum und U, W ⊆ V Untervektorräume so dass gilt U ∩W = {0}. Dann gibt es einen Untervektorraum Z ⊇ W so dass gilt V = U ⊕ Z. Genauer gilt: Es seien BU bzw. BW Basen von U bzw. W . Dann sind BU und BW disjunkt und BU ∪ BW ist linear unabhängig. Wenn dann C ⊆ V eine Basisergänzung ist (d.h. C ∩ (BU ∪ BW ) = ∅ und BU ∪ BW ∪ C ist eine Basis von V ), kann man Z = L({BW ∪ C}) wählen. Beweis Es seien BU = {u1 , . . . , ur } und BW = {w1 , . . . , ws }, dann zeige ich zunächst, dass die Vektoren u1 , . . . , ur , w1 , . . . , ws linear unabhängig sind: Es gelte α1 u1 + · · · + αr ur + β1 w1 + · · · + βs ws = 0 dann folgt α1 u1 + · · · + αr ur = −β1 w1 − · · · − βs ws ∈ U ∩ W = {0} (die linke Seite der Gleichung zeigt, dass der Vektor zu U gehört, die rechte, dass er zu W gehört.) Man erhält α1 = · · · = αr = −β1 = · · · = −βs = 0 32 und daraus die Zwischenbehauptung. Man ergänze BU ∪ BW durch die Vektoren c1 , . . . , ct zu einer Basis von V und setze C = {c1 , . . . , ct } sowie Z = L(BW ∪C). Dann gilt Z ⊇ W und dim Z = s+t sowie V = U + Z. Schließlich gilt nach der Dimensionsformel ([LA], 4.23) dim(U ∩ Z) = dim(U + Z) − dim U − dim Z = dim V − dim U − dim Z = r + s + t − r − (s + t) = 0 und daher U ∩ Z = {0}. Lemma 2.22 Es seien V ein endlich-dimensionaler VR, ϕ : V → V linear und i ∈ N. Weiterhin sei W ⊆ V ein Untervektorraum so dass gilt ker ϕi ⊕ W = ker ϕi+1 . Dann gibt es einen Untervektorraum Z ⊇ ϕ(W ) so dass gilt Z ⊕ ker ϕi−1 = ker ϕi . Beweis Wegen W ⊆ ker ϕi+1 gilt ϕ(W ) ⊆ ker ϕi . Nach 2.21 reicht es zu zeigen, dass gilt ϕ(W ) ∩ ker ϕi−1 = {0}. Also sei w ∈ W so gewählt, dass gilt ϕ(w) ∈ ker ϕi−1 , dann folgt ϕi (w) = 0 und daraus w ∈ W ∩ ker ϕi = {0}, also ϕ(w) = 0. Proposition 2.23 Es seien V ein endlich-dimensionaler Vektorraum und ϕ : V → V eine nilpotente Abbildung mit dem Nilpotenzgrad k. Dann gibt es Untervektorräume W1 , . . . , Wk von V mit den Eigenschaften (i) V = W1 ⊕ · · · ⊕ Wk (ii) ϕ(Wi ) ⊆ Wi+1 für alle i (iii) ϕ|Wi ist injektiv für i < k. (iv) Wk = ker ϕ. Beweis Es gilt ker ϕk−1 ⊆ ker ϕk , man wähle W1 so dass gilt V = ker ϕk = W1 ⊕ ker ϕk−1 (Die Existenz von W1 folgt aus 2.21 wenn man U = ker ϕk−1 und W = {0} setzt.) Nach 2.22 gibt es einen Untervektorraum W2 ⊇ ϕ(W1 ) so dass gilt ker ϕk−1 = W2 ⊕ ker ϕk−2 Induktiv erhält man Untervektorräume Wj so dass gilt ϕ(Wj ) ⊆ Wj+1 und ker ϕk−j = Wj+1 ⊕ ker ϕk−j−1 33 insbesondere ker ϕ2 = Wk−1 ⊕ ker ϕ Also erhält man V = ker ϕk = W1 ⊕ker ϕk−1 = W1 ⊕W2 ⊕ker ϕk−2 = · · · = W1 ⊕· · ·⊕Wk−1 ⊕ker ϕ Setzt man also Wk = ker ϕ, dann folgt V = W1 ⊕ · · · ⊕ Wk und aus Wk−1 ⊆ ker ϕ2 folgt ϕ(ϕ(Wk−1 )) = {0}, also ϕ(Wk−1 ) ⊆ ker ϕ = Wk . Da Wi ∩ ker ϕ = {0} für alle i < k gilt, ist ϕ|Wi injektiv. Satz 2.24 Es seien V ein endlich-dimensionaler VR und ϕ : V → V eine nilpotente Abbildung. Dann gibt es eine geordnete Basis B von V und k1 , . . . , kr ∈ N so dass gilt J(0, k1 ) 0 ... [ϕ]B = 0 J(0, kr ) Beweis Nach 2.23 gibt es Untervektorräume W1 , . . . , Wk von V mit den Eigenschaften (i) V = W1 ⊕ · · · ⊕ Wk (ii) ϕ(Wi ) ⊆ Wi+1 für alle i (iii) ϕ|Wi ist injektiv für i < k. (iv) Wk = ker ϕ Es sei B1 eine Basis von W1 . Da ϕ|W1 injektiv ist, ist ϕ(B1 ) ⊆ W2 linear unabhängig, also kann man es ergänzen zu einer Basis B2 ⊇ ϕ(B1 ) von W2 . Induktiv erhält man eine Basis Bi+1 von Wi+1 , indem man ϕ(Bi ) zu einer Basis von Wi+1 ergänzt. Man setze Ci = Bi \ ϕ(Bi−1 ) für i > 1 und C1 = B1 . Dann ist die Menge (C1 ∪ ϕ(C1 ) ∪ . . . ∪ ϕk−1 (C1 )) ∪ (C2 ∪ ϕ(C2 ) . . . ∪ ϕk−2 (C2 )) ∪ . . . ∪ (Ck−1 ∪ ϕ(Ck−1 )) ∪ Ck eine Basis von V . Schließlich sei Ci = {vi,1 , . . . , vi,ri } dann ordne man diese Basis auf die folgende Weise: ϕk−1 (v1,1 ), . . . , ϕ(v1,1 ), v1,1 , . . . , ϕk−1 (v1,r1 ), . . . , ϕ(v1,r1 ), v1,r1 , ϕk−2 (v2,1 ), . . . , ϕ(v2,1 ), v2,1 , . . . , ϕk−2 (v2,r2 ), . . . , ϕ(v2,r2 ), v2,r2 , 34 .. . .. . .. . .. . .. . .. . ϕ(vk−1,1 ), vk−1,1 , . . . , ϕ(vk−1,rk−1 ), vk−1,rk−1 , vk,1 , . . . , vk,rk Wenn B die so geordnete Basis bezeichnet, hat [ϕ]B die geforderte Form. Die konkrete Berechnung der Darstellung aus 2.24 und einer zugehörigen Basis kann man nach den vorhergehenden Ergebnissen auf die folgende Weise vornehmen: (i) Man bestimme nacheinander ker ϕ, ker ϕ2 , . . . , ker ϕk bis ker ϕk = 0 gilt. (ii) Man wähle eine Basis von D1 von ker ϕk−1 und ergänze sie zu einer Basis von V = ker ϕk . Die Basisergänzung sei B1 = C1 . (iii) Falls dim ker ϕk−2 +|B1 | = dim ϕk−1 gilt, wähle man B2 = ϕ(B1 ) und C2 = ∅. Andernfalls Wähle man eine Basis D2 von ker ϕk−2 und ergänze D2 ∪ ϕ(B1 ) zu einer Basis B2 von ker ϕk−1 . Man setze weiterhin C2 = B2 \ ϕ(B1 ). Allgemein gilt: Wenn B1 , . . . , Br bestimmt sind, und dim ker ϕk−r−1 + |Br | = dim ker ϕk−r gilt, wähle man Br+1 = ϕ(Br ) und Cr+1 = ∅. Andernfalls wähle man eine Basis Dr+1 von ker ϕk−r−1 und ergänze Dr+1 ∪ ϕ(Br ) zu einer Basis Br+1 von ker ϕk−r . Man setze Cr+1 = Br+1 \ ϕ(Br ). Man beachte, dass man zur Bestimmung von Bk , d.h. r = k − 1 eine Basis Dk von ker ϕk−r−1 = ker ϕk−(k−1)−1 ker ϕ0 = ker id = {0} wählen muss und ϕ(Dk ) ∪ ϕ(Bk−1 ) zu einer Basis von ker ϕk−r = ker ϕk−(k−1) = ker ϕ ergänzen muss, d.h im letzten Schritt muss man ϕ(Bk−1 ) zu einer Basis Bk von ker ϕ ergänzen. Eine geeignete Basis erhält man dann, wenn man für alle r und alle v ∈ Cr den “Block” (ϕk−r (v), . . . , ϕ(v), v) betrachtet. Beispiel 2.25 Man definiere ϕ : R4 → R4 0 1 −9 9 [ϕ] = −5 5 1 −1 dann erhält man mit dem Gauß-Verfahren: 0 1 0 9 0 1 −9 0 0 9 0 81 → 0 −5 0 5 0 45 1 −1 0 −9 1 −1 durch 0 9 0 81 , 0 45 0 −9 0 0 9 0 0 0 → 0 0 0 1 0 −9 also ker ϕ = {(0, −9x4 , x3 , x4 )t : x3 , x4 ∈ R} 35 1 0 0 0 0 0 0 0 9 0 0 0 und dim ker ϕ = 2. Weiter gilt: 0 0 0 0 0 −9 0 −81 [ϕ2 ] = [ϕ]2 = 0 −5 0 −45 → 0 1 0 9 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 9 also ker ϕ2 = {(x1 , −9x4 , x3 , x4 )t : x1 , x3 , x4 ∈ R} und daher dim ker ϕ2 = 3. Schließlich gilt ϕ3 = 0. Offenbar ist D1 = {e1 , e3 , (0, −9, 0, 1)t } eine Basis von ker ϕ2 und e2 von diesen Vektoren linear unabhängig. Also kann man wählen: C1 = B1 = {e2 } Weiterhin ist dim ker ϕ + |B1 | = 2 + 1 = 3 = dim ker ϕ2 als wählt man B2 = ϕ(B1 ) = {ϕ(e2 )} = {(1, 9, 5, −1)t } Es gilt dim dim ker ϕ0 + |B2 | = |B2 | = 1 < dim ker ϕ und D3 = ∅ ist eine Basis von ker ϕ0 . Also muss man ϕ(B2 ) = {(0, −9, −5, 1)t } zu einer Basis von ker ϕ erweitert werden. Offenbar gilt e3 ∈ ker ϕ und e3 ist linear unabhängig von den Vektoren aus ϕ(B2 ). Also kann man B3 = ϕ(B2 ) ∪ {e3 } und daher C3 = {e3 } wählen. Damit haben wir: C1 = {e2 }, C2 = ∅, C3 = {e3 } Setzt man schließlich 0 1 −9 9 B = (ϕ2 (e2 ), ϕ(e2 ), e2 , e3 ) = −5 , 5 1 −1 0 0 1 0 , , 0 1 0 0 dann gilt 0 0 [ϕ]B = 0 0 1 0 0 0 0 1 0 0 0 0 0 = J(0, 3) 0 0 J(0, 1) 0 36 Korollar 2.26 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung sowie λ ∈ K. Wenn ϕ − λidV nilpotent ist, gilt Pϕ,X = (−1)n (X − λ)n Insbesondere gilt Pϕ,X = (−1)n X n , wenn ϕ nilpotent ist. Beweis Nach 2.24 gibt es eine geordnete Basis B von V so dass gilt 0 0 0 ∗ [ϕ − λidV ]B = .. .. . . 0 0 ... 0 Es folgt [ϕ]B = λ 0 λ ∗ .. .. . . 0 0 ... λ und daraus Pϕ,X = λ−X 0 λ−X ∗ .. ... . 0 0 ... λ − X = (λ − X)n = (−1)n (X − λ)n Im folgenden wird häufiger der Fall vorliegen, dass eine lineare Abbildung ϕ : V → V einen Untervektorraum M ⊆ V in sich abbildet. In diesem Fall induziert ϕ eine lineare Abbildung von M in sich. Es lohnt sich, für diesen Tatbestand eine eigene Notation einzuführen: Definition 2.27 Es seien V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. Ein Untervektorraum M ⊆ V heißt ϕ-invariant wenn gilt ϕ(M ) ⊆ M . Wenn M ein ϕ-invarianter Unterraum von V ist, definiere man ϕM : M −→ M durch ϕM (v) = ϕ(v) für alle v ∈ M . Lemma 2.28 Es seien V ein endlich-dimensionaler Vektorraum und ψ : V → V eine lineare Abbildung. Weiterhin seien W, Z ⊆ V Untervektorräume, die ψinvariant sind. Es gelte V = W ⊕ Z. Dann gilt Pψ,X = PψW ,X PψZ ,X 37 Beweis Man wähle geordnete Basen C = (w1 , . . . , wr ) und D = (zr+1 , . . . , zn ) von W bzw. Z. Dann gilt für B = (w1 , . . . , wr , zr+1 , . . . , zn ): [ψW ]C 0 [ψ]B = 0 [ψZ ]D und daher Pψ,X [ψW ]C − XIr 0 = det 0 [ψZ ]D − XIn−r = det(ψW ]C − XIr ) det([ψZ ]D − XIn−r ) = PψW ,X PψZ ,X Dabei ist die letzte Gleichung eine ÜA. Proposition 2.29 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Dann gelten: (i) Hϕ,λ ist ϕ-invariant und es gibt einen ϕ-invarianten Unterraum W ⊆ V so dass gilt V = Hϕ,λ ⊕ W (ii) (ϕ − λid)|W ist injektiv. (ii) dim Hϕ,λ = µ(Pϕ,X , λ) Beweis (i) Man setze ψ = ϕ − λ idV . Nach 2.18 gibt es ein k ∈ N so dass für alle j ∈ N gilt ker ψ k = ker ψ k+j für alle j ∈ N Man setze W = ψ k (V ). Zur Abkürzung setze man weiterhin H = Hϕ,λ . Ich zeige zunächst, dass H ∩ W = {0} gilt: Es sei w ∈ H ∩ W , dann gibt es ein v ∈ V so dass gilt w = ψ k (v). Es folgt 0 = ψ k (w) = ψ 2k (v) und daraus v ∈ ker ψ 2k = ker ψ k und daraus w = ψ k (v) = 0. Man erhält dim(H + W ) = dim H + dim W − dim(H ∩ W ) = dim ker ψ k + dim ψ k (V ) = dim V und daraus V = Hϕ,λ ⊕ W . (ii) Es sei v ∈ W ∩ ker ϕ, dann gibt es ein k ∈ N so dass gilt v = ψ k (w). Es folgt 0 = ψ(v) = ψ(ψ k (w)) = ψ k+1 (w) = ker ψ k und daraus w ∈ W ∩ ker ψ k = W ∩ H, also w = 0 und daraus v = ψ(w) = 0. 38 (iii) Nach 2.28 gilt Pϕ,X = PϕH ,X PϕW ,X und da ϕH − λidH = ψH nilpotent ist, gilt PϕH ,X = (−1)m (X − λ)m nach 2.26, dabei sei m = dim H. Man erhält Pϕ,X = (−1)m (X − λ)m PϕW ,X Angenommen, es gilt PϕW ,X (λ) = 0, dann ist λ ein Eigenwert von ϕW und und daher ist ϕW nicht injektiv, im Widerspruch zu (ii). Also gilt dim H = m = µ(Pϕ,X , λ). Satz 2.30 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und Pϕ,X zerfalle in Linearfaktoren. Weiterhin seien ν1 , . . . , νr die verschiedenen Eigenwerte von ϕ. Dann gilt V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νr Beweis Durch vollständige Induktion nach dim V . Für dim V = 1 ist nichts zu beweisen, die Behauptung gelte für alle Vektorräume mit einer Dimension < n. Es gelte dim V = n und es sei ν1 ∈ K ein Eigenwert von ϕ. Nach 2.29 gibt es einen ϕ-invarianten Untervektorraum W ⊆ V so dass gilt V = Hϕ,ν1 ⊕ W . Man setze wieder H = Hϕ,ν1 , dann gilt V = H ⊕ W und aus 2.28 folgt dann Pϕ,X = PϕH ,X PϕW ,X Da ϕH − ν1 idH nilpotent ist, folgt aus 2.26 dass PϕH ,X = (−1)m (X − ν1 )m mit m = dim H gilt, und aus 2.29 folgt m = µ(Pϕ,ν1 ). Man erhält Pϕ,X = (−1)m (X − ν1 )m PϕW ,X Es gelte Pϕ,X = (−1)n (X − ν1 )α1 · · · (X − νr )αr dann folgt Pϕ,X = (−1)n (X − ν1 )α1 · · · (X − νr )αr = (−1)m (X − ν1 )m PϕW ,X Nach 2.29 gilt α1 = m und man erhält PϕW ,X = (−1)n−m (X − ν2 )α2 · · · (X − νr )αr also zerfällt PϕW ,X in Linearfaktoren und aus der Induktionsannahme folgt W = HϕW ,ν2 ⊕ · · · ⊕ HϕW ,νr 39 Nun gilt für alle j ≥ 2 offenbar HϕW ,ν2 ⊆ Hϕ,ν2 . Andererseits gilt nach 2.29: dim HϕW ,νj = µ(PϕW ,νj ) = αj = µ(Pϕ , νj ) = dim Hϕ,νj und man erhält, dass HϕW ,νj = Hϕ,νj gilt. Dies impliziert W = Hϕ,ν2 ⊕ · · · ⊕ Hϕ,νr und schließlich V = Hϕ,ν1 ⊕ W = Hϕ,ν1 ⊕ Hϕ,ν2 ⊕ · · · ⊕ Hϕ,νr Definition 2.31 Für k ∈ N und λ ∈ K sei J(λ, k) = J(0, k) + λIk ∈ M (k, k, K) d.h. ... 0 . . . .. . 0 λ 1 . . . . J(λ, k) = .. .. . . . . 0 0 0 0 λ 1 0 0 0 0 λ λ 1 0 Man nennt J(λ, k) Jordan-Matrix der Ordnung k mit dem Eigenwert λ. Satz 2.32 (Jordansche Normaldarstellung) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung so daß Pϕ,X in Linearfaktoren zerfällt. Dann gibt es eine geordnete Basis B von V und k1 , . . . kr in N sowie λ1 , . . . λr ∈ K so daß gilt: J(λ1 , k1 ) 0 .. [ϕ]B = . 0 J(λr , kr ) Man sagt in diesem Fall, daß [ϕ]B Jordansche Normalform hat. Beweis Es seien ν1 , . . . , νs die verschiedenen Eigenwerte von ϕ. Dann gilt nach 2.30: V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νs Nach 2.29 sind alle Haupträume ϕ-invariant, man setze Hj = Hϕ,λj und ϕj = ϕHj für alle j = 1, . . . , s. Dann sind alle ϕj − λj idHj nilpotent, also gibt es nach 2.24 geordnete Basen Bj von Hj so dass gilt J(0, kj,1 ) 0 .. [ϕj − λj idHj ]Bj = . 0 J(0, kj,rj ) 40 Es folgt J(λj , kj,1 ) 0 .. [ϕj ]Bj = . 0 J(λj , kj,rj ) und daher leistet B = (B1 , . . . , Br ) das Gewünschte. Bemerkung 2.33 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung, λ ∈ K ein Eigenwert von ϕ und es gelte dim Eϕ,λ = µ(Pϕ,X , λ). Dann gilt Hϕ,λ = Eϕ,λ = ker(ϕ − λid) Insbesondere gilt Eϕ,λ = Hϕ,λ wenn λ eine einfache Nullstelle von Pϕ,X ist, d.h. wenn µ(Pϕ,X , λ) = 1 gilt. Beweis Dies folgt mit 2.29(iii) direkt aus Eϕ,λ ⊆ Hϕ,λ und dim Hϕ,λ = µ(Pϕ,X , λ) = dim Eϕ,λ . Es sei ϕ : V → V eine lineare Abbildung. Die Berechung einer geordneten Basis B von V so dass [ϕ]B eine Jordansche Normaldarstellung ist, erfolgt in mehreren Schritten: 1. Schritt Man berechnet das charakteristische Polynom Pϕ,X und die paarweise verschiedenen Nullstellen ν1 , . . . , νs . Wenn Pϕ,X in Linearfaktoren zerfällt, führt man für alle ν ∈ {ν1 , . . . , νs } die folgenden Schritte durch: 2. Schritt Man setzt ψ = ϕ − νid und berechnet die Kerne ker ψ, ker ψ 2 , . . ., bis dim ker ψ k = µ(Pϕ,X , ν) gilt. Dann folgt Hϕ,ν = ker ψ k = ker(ϕ − νid)k . 3. Schritt H = Hϕ,ν ist ϕ-invariant und man kann ϕH betrachten. Dann ist ψH = ϕH − νidH nilpotent man bestimmt mit den Methoden von 2.24 eine geordete Basis B von H so dass [ϕH − νidH ] eine Jordansche Normaldarstellung ist. Wenn man die so erhaltenen Basen “zusammensetzt” erhält man eine Basis mit den gesuchten Eigenschaften. Beispiel 2.34 Man definiere ϕ : R4 → R4 1 0 0 0 [ϕ] = 0 0 0 0 durch 1. Schritt Es gilt 1−X 0 0 1 0 −X 0 0 Pϕ,X = det 0 0 1−X 1 0 0 0 1−X 41 0 0 1 0 1 0 1 1 = (1 − X)3 (−X) = X(X − 1)3 Also sind die Eigenwerte ν1 = 0 und ν2 = 1. Es gilt µ(Pϕ,X , 0) = 1 und µ(Pϕ,X , 1) = 3. a) ν = 0. Dann folgt aus 2.33, dass gilt Hϕ,0 = Eϕ,0 = ker(ϕ − 0)1 = ker ϕ und man muss eine Basis B1 = erhält man: 1 0 [ϕ − 0 idH ] = 0 0 C1 von Eϕ,0 finden. Mit dem Gauß-Verfahren 0 0 0 0 0 0 1 0 1 0 → 7 1 1 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 Also gilt Hϕ,0 = Eϕ,0 = {(0, x, 0, 0)t : x ∈ R} und man kann C1 = {e2 } = {(0, 1, 0, 0)t } wählen. b) ν = 1, jetzt setze man ψ = ϕ − 1 · id = ϕ − id. 2. Schritt Es gilt 0 0 0 1 0 −1 0 0 → [ψ] = 7 0 0 0 1 0 0 0 0 0 0 0 1 0 −1 0 0 0 0 0 0 0 0 0 0 Also gilt ker ψ = {(x1 , 0, x3 , 0)t : x1 , x3 ∈ R} und D1 = {e1 , e3 } ist eine Basis von ker ψ. Weiter gilt 0 0 [ψ 2 ] = [ψ]2 = 0 0 0 1 0 0 0 0 0 0 0 0 0 0 und daher ker ψ 2 = {x1 , 0, x3 , x4 )t : x1 , x3 , x4 ∈ R} Da offenbar dim ψ 2 = 3 = µ(Pϕ,X , 1) gilt, folgt Hϕ,1 = ker ψ 2 = ker(ϕ − id)2 42 3. Schritt Es gilt k = 2. Dann muss man D1 zu einer Basis von ker ψ 2 erweitern. Offenbar ist D1 ∪ {e4 } = {e1 , e3 , e4 } eine Basis von ker ψ 2 . Also kann man C1 = {e4 } und B1 = C1 wählen. Weiterhin gilt ψ(B1 ) = {ψ(e4 )} = {(1, 0, 1, 0)t } und man muss diese Menge zu einer Basis von ker ψ erweitern. Offenbar ist B2 = {(1, 0, 1, 0)t , e1 } eine Basis von ker ψ und man kann C2 = {e1 } wählen. Dann ist C1 ∪ ψ(C1 ) ∪ C2 = {e4 , (1, 0, 1, 0)t , e1 } eine Basis von Hϕ,1 und mit B = (e2 , (1, 0, 1, 0)t , e4 , e1 ) gilt 0 0 [ϕ]B = 0 0 0 1 0 0 0 1 1 0 0 J(0, 1) 0 0 0 0 J(1, 2) 0 = 0 0 0 J(1, 1) 1 Die Frage nach der Eindeutigkeit der Darstellung in Jordanscher Normalform hat eine überraschend einfache Antwort. Da jede Permutation der Reihenfolge der Jordan-Matrizen wieder eine Jordansche Normaldarstellung ist, ist zu klären, ob die Anzahl der Jordan-Matrizen J(λ, k) für alle λ und alle k eindeutig bestimmt ist. Und diese Eindeutigkeit folgt aus einer ganz einfachen Überlegung: Lemma 2.35 Es sei k ∈ N, dann gilt für alle r ∈ N0 : k−r : r ≤k r rg J(0, k) = 0 : r≥k und für alle r ∈ N: r−1 rg J(0, k) r+1 + rg J(0, k) r − 2 rg J(0, k) = 1 : r=k 0 : sonst Beweis Man setze A = J(0, k) und ϕ = ϕA , dann gilt ϕ(e1 ) = 0 und ϕ(ej ) = ej−1 für alle j ≥ 2. Also ist {e1 , . . . , ek−1 } eine Basis von ϕ(K k ), {e1 , . . . , ek−2 } eine Basis von ϕ2 (K k ) und induktiv erhält man die erste Behauptung. Es folgt r+1 rg A k−r−1 : r ≤k−1 0 : r ≥k−1 = und daraus r r+1 rg A − rg A = 43 1 : r ≤k−1 0 : r≥k Wenn man r durch r − 1 ersetzt ergibt dies: 1 : r≤k r−1 r rg A − rg A = 0 : r ≥k+1 Schließlich erhält man: r−1 (rg A r r r+1 − rg A ) − (rg A − rg A )= 1 : r=k 0 : sonst Proposition 2.36 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Weiterhin seien B eine geordnete Basis von V und k1 , . . . kr in N sowie λ1 , . . . λr ∈ K so daß gilt: J(λ1 , k1 ) 0 ... [ϕ]B = 0 J(λr , kr ) Schließlich sei N (λ, k) für alle Eigenwerte λ von ϕ und alle k ∈ N die Anzahl der k × k-Jordan-Matrizen mit dem Eigenwert λ in dieser Darstellung. Dann gilt: N (λ, k) = rg(ϕ − λid)k−1 + rg(ϕ − λid)k+1 − 2 rg(ϕ − λid)k Beweis Für alle λ ∈ K gilt: J(λ1 − λ, k1 ) 0 ... [ϕ − λid]B = J(λr − λ, kr ) 0 und für alle k ∈ N folgt: J(λ1 − λ, k1 )k 0 .. [(ϕ − λid)k ]B = [(ϕ − λid)]kB = 0 . J(λr − λ, kr )k Daraus folgt unmittelbar: rg(ϕ − λid)k = rg J(λ1 − λ, k1 )k + · · · + rg J(λr − λ, kr )k Dies ergibt schließlich rg(ϕ − λid)k+1 + rg(ϕ − λid)k−1 − 2 rg(ϕ − λid)k = = rg J(λ1 − λ, k1 )k+1 + rg J(λ1 − λ, k1 )k−1 − 2 rg J(λ1 − λ, k1 )k .. .. .. . . . + rg J(λr − λ, kr )k+1 + rg J(λr − λ, kr )k−1 − 2 rg J(λr − λ, kr )k = N (λ, k) 44 Satz 2.37 Die darstellende Matrix einer lineare Abbildung in Jordanscher Normalform ist bis auf die Reihenfolge der Jordan-Matrizen eindeutig bestimmt. Bemerkung 2.38 Es seien V ein n-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Für ein k ∈ N gelte rg(ϕ − λ id)k = n − µ(Pϕ,X , λ) Dann folgt rg(ϕ − λ id)k+j = rg(ϕ − λ id)k für alle j ∈ N N (λ, k + j) = 0 für alle j ∈ N und insbesondere Beweis Es gilt ker(ϕ − λ id)k ⊆ Hϕ,λ . Aus dem Rangsatz und 2.29 folgt dim ker(ϕ − λ id)k = n − rg(ϕ − λ id)k = µ(Pϕ,X ) = dim Hϕ,λ und daraus ker(ϕ − λ id)k = Hϕ,λ . Es folgt die erste Behauptung. Weiterhin gilt für alle j ∈ N N (λ, k + j) = rg(ϕ − λid)k+j−1 + rg(ϕ − λid)k+j+1 − 2 rg(ϕ − λid)k+j = rg(ϕ − λid)k + rg(ϕ − λid)k − 2 rg(ϕ − λid)k = 0 Wenn man also 2.36 anwenden will, muss man nach 2.38 für alle Eigenwerte λ die Werte von rg(ϕ−λ id)1 , . . . , rg(ϕ−λ id)k so lange ausrechnen, bis rg(ϕ−λ id)k = n − µ(Pϕ,X , λ) gilt. Die Ränge bleiben dann konstant und es gibt keine JordanMatrizen mit dem Eigenwert λ und einer Ordnung > k in der Darstellung. Beispiel 2.39 Man definiere wie in 2.34 ϕ : R4 → R4 durch 1 0 0 1 0 0 0 0 [ϕ] = 0 0 1 1 0 0 0 1 Dann gilt P = Pϕ,X = X(X − 1)3 und daher µ(P, 0) = 1 und µ(P, 1) = 3. 1 0 0 0 0 0 [ϕ − 0 idH ] = 0 0 1 0 0 0 Aus 1 0 7→ 1 1 45 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 folgt rg(ϕ − 0 · id) = 3 = 4 − µ(Pϕ,X , 0) Aus 2.38 folgt dann N (0, k) = 0 für alle k ≥ 2 und 4 : k=0 k rg(ϕ − 0 · id) = 3 : k≥1 Also N (0, 1) = rg(ϕ − 0 · id)0 + rg(ϕ − 0 · id)2 − 2 rg(ϕ − 0 · id)1 = 4 + 3 − 6 = 1 Weiterhin gilt: 0 0 0 1 0 −1 0 0 → [ϕ − 1 · id] = 7 0 0 0 1 0 0 0 0 und daher rg(ϕ − 1 · id) = 2. Weiterhin gilt 0 0 [(ϕ − 1 · id)2 = 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 und daher rg(ϕ − 1 · id)2 = 1 = 4 − µ(Pϕ,X , 1) also 4 : k=0 k 2 : k=1 rg(ϕ − 1 · id) = 1 : k≥2 Man erhält daraus: N (1, 1) = rg(ϕ − 1 · id)0 + rg(ϕ − 1 · id)2 − 2 rg(ϕ − 1 · id)1 = 4 + 1 − 4 = 1 N (1, 2) = rg(ϕ − 1 · id)1 + rg(ϕ − 1 · id)3 − 2 rg(ϕ − 1 · id)2 = 2 + 1 − 2 = 1 und daher ist 0 0 0 0 0 1 0 0 0 0 1 0 0 J(0, 1) 0 0 0 0 J(1, 1) 0 = 1 0 0 J(1, 2) 1 eine darstellende Matrix in Jordanscher Normalform. 46 Proposition 2.40 Es seien K ein Körper und A ∈ M (n, n, K) eine Matrix so dass PA,X in Linearfaktoren zerfällt. Dann ist A ähnlich zu einer Matrix in Jordanscher Normalform. Beweis Nach 2.32 gibt es eine geordnete Basis B von K n so dass [ϕA ]B Jordansche Normalform hat. Nach [LA, 6.40] sind A = [ϕA ]En und [ϕA ]B ähnlich. Definition 2.41 Es seien K ein Körper und P = a0 +a1 X +· · ·+an X n ∈ K[X]. (i) Es seien V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann definiert man P (ϕ) : V → V durch P (ϕ) = a0 ϕ0 + a1 ϕ + · · · + an ϕn = a0 idV + a1 ϕ + · · · + an ϕn (ii) Es sei A ∈ M (k, k, K), dann definiere man P (A) ∈ M (k, k, K) durch P (A) = a0 A0 + a1 A + · · · + an An = a0 Ik + a1 A + · · · + an An Lemma 2.42 Es seien K ein Körper und P, Q ∈ K[X]. (i) Es seien V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann gilt (P Q)(ϕ) = P (ϕ) ◦ Q(ϕ) Insbesondere gilt P (ϕ) ◦ Q(ϕ) = Q(ϕ) ◦ P (ϕ) (ii) Es sei A ∈ M (k, k, K), dann gilt (P Q)(A) = P (A)Q(A) Insbesondere gilt P (A)Q(A) = Q(A)P (A) (iii) Es seien V ein endlich-dimensionaler K-Vektorraum, B eine geordnete Basis von V und ϕ : V → V eine lineare Abbildung. Dann gilt für alle P ∈ K[X]: [P (ϕ)]B = P ([ϕ]B ) Beweis (i) und (ii) beweist man wohl am einfachsten durch Induktion nach grad P . (iii) Es sei P = a0 + a1 X + · · · + an X n dann gilt [P (ϕ)]B = [a0 ϕ0 + a1 ϕ + · · · + an ϕn ]B = a0 [ϕ0 ]B + a1 [ϕ]B + · · · + an [ϕn ]B = a0 Ik + a1 [ϕ]B + · · · + an [ϕ]n = P ([ϕ]B ) 47 Lemma 2.43 Es seien V ein endlich–dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Man setze m = µ(Pϕ,X , λ), dann gilt Hϕ,λ = ker(ϕ − λ id)m Beweis Nach 2.18 gibt es ein k ∈ N so dass für alle j ∈ N gilt {0} ⊂ ker(ϕ − λ id)1 ⊂ ker(ϕ − λ id)2 ⊂ . . . ⊂ ker(ϕ − λ id)k = ker(ϕ − λ id)k+j Es folgt dann Hϕ,λ = ker(ϕ − λ id)k sowie dim Hϕ,λ ≥ k. Aus 2.29 erhält man: m = µ(Pϕ,X , ν) = dim Hϕ,ν = dim ker(ϕ − ν id)k ≥ k und daraus die Behauptung. Proposition 2.44 (i) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung, so dass Pϕ,X in Linearfaktoren zerfällt. Dann gilt Pϕ,X (ϕ) = 0 (ii) Es sei A ∈ M (k, k, K). Wenn PA,X in Linearfaktoren zerfällt, gilt PA,X (A) = 0 Beweis (i) Man setze P = Pϕ,X und Hj = Hϕ,νj . Es gelte P = (−1)n (X − ν1 )m1 · · · (X − νr )mr mit paarweise verschiedenen ν1 , . . . , νr . Setzt man noch Pj = (X − νj )mj , dann gilt P = (−1)n P1 · · · Pr . Nach 2.30 gilt V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νr Also reicht es zu zeigen, dass P (ϕ)(Hj ) = {0} für alle j gilt. Sei also 1 ≤ j ≤ r, dann gilt µ(Pϕ,X ) = mj und aus 2.43 folgt Hϕ,νj = ker(ϕ − νj id)mj und daraus (ϕ − νj id)mj (v) = 0 für alle v ∈ Hϕ,νj . Es folgt Pj (v) = (ϕ − νj id)mj (v) = 0 für alle v ∈ Hϕ,νj Dies impliziert für alle v ∈ Hj : (−1)n P (v) = (P1 · · · Pr )(ϕ)(v) = (P1 · · · Pj−1 Pj+1 · · · Pr Pj )(v) = P1 (ϕ) ◦ · · · ◦ Pj−1 (ϕ) ◦ Pj+1 (ϕ) ◦ · · · ◦ Pr (ϕ) ◦ Pj (ϕ)(v) = P1 (ϕ) ◦ · · · ◦ Pj−1 (ϕ) ◦ Pj+1 (ϕ) ◦ · · · ◦ Pr (ϕ)(Pj (ϕ)(v)) = 0 (ii) Es seien P = PA,X und ϕ = ϕA . Dann gilt Pϕ,X = PA,X = P und aus (i) folgt P (ϕ) = 0. Es folgt 0 = [P (ϕ)] = P ([ϕ]) = P (A). 48 Definition 2.45 Es seien K und L Körper. Eine Abbildung ϕ : K → L heißt Isomorphismus (genauer: Körperisomorphismus), wenn ϕ bijektiv ist und für alle x, y ∈ K gelten: ϕ(x + y) = ϕ(x) + ϕ(y) und ϕ(xy) = ϕ(x)ϕ(y) K und L heißen isomorph, wenn es einen Isomorphismus ϕ : K → L gibt. Proposition 2.46 Es seien K ein Körper und P ∈ K[X] ein nicht-konstantes Polynom. Dann gibt es einen Körper L ⊇ K, in dem P eine Nullstelle besitzt. Beweis Man wähle ein nicht-konstantes Polynom M minimalen Grades, das P teilt. Dann ist M irredzibel und es reicht die Behauptung für M zu beweisen. Dann ist L = K[X]/(M ) nach [DM A, 4.9] ein Körper. Man definiere ϕ : K → L durch ϕ(a) = [a] für alle a ∈ K. Dann ist ϕ injektiv und es gilt ϕ(a + b) = ϕ(a) + ϕ(b) sowie ϕ(ab) = ϕ(a)ϕ(b) für alle a, b ∈ K. Also ist ϕ(K) ein Körper und die Abbildung ϕ0 : K → ϕ(K), die jedem a ∈ K das Element ϕ(a) zuordnet, ein Isomorphismus. Daher kann man ein Elemente a ∈ K mit [a] “identifizieren”. Auf diese Weise wird K zu einem Unterkörper von L. Sei M = an Y n + · · · + a0 , dann gilt M ([X]) = an [X]n + · · · + a1 [X] + a0 = [an X n + · · · a1 X + a0 ] = [0] und daher ist [X] eine Nullstelle von P in L. Proposition 2.47 Es seien K ein Körper und P ∈ K[X] ein nicht-konstantes Polynom. Dann gibt es einen Körper L ⊇ K, in dem P in Linearfaktoren zerfällt, d.h. es gibt a, a1 , . . . , an ∈ K so dass gilt P = a(X − a1 ) · · · (X − an ) Beweis durch vollständige Induktion nach grad P : Der Fall grad P = 1 ist trivial, die Behauptung gelte für grad P = n − 1. Nach 2.46 gibt es einen Körper L0 ⊇ K so dass P in L0 eine Nullstelle an besitzt. Nach [DM A, 3.18] gibt es ein Polynom Q ∈ L0 [X] so dass gilt P = (X − an )Q. Wegen grad Q = n − 1 gibt es nach der Induktionsannahme einen Körper L ⊇ L0 so dass gilt Q = a(X − a1 ) · · · (X − an−1 ) mit a, a1 , . . . , an−1 ∈ L. Es folgt P = a(X − a1 ) · · · (X − an−1 )(X − an ) 49 Satz 2.48 (Cayley-Hamilton) Es sei K ein Körper. (i) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann gilt Pϕ,X (ϕ) = 0 (ii) Es sei A ∈ M (k, k, K), dann gilt PA,X (A) = 0 Beweis (ii) Es gibt einen Körper L ⊇ K, in dem P = PA,X in Linearfaktoren zerfällt. Natürlich gilt A ∈ M (k, k, L) und wegen P = det(A − XIn ) ist das charakteristische Polynom von A über K das charakteristische Polynom von A über L. Aus 2.44 folgt dann P (A) = 0. (i) Es seien B eine geordnete Basis von V und A = [ϕ], dann gilt Pϕ,X = PA und daher Pϕ,X (A) = PA (A) = 0. [Pϕ,X (ϕ)]B = Pϕ,X ([ϕ]) = PA (A) = 0 und es folgt Pϕ,X (ϕ) = 0. Satz 2.49 Es sei V ein endlich-dimensionaler C-Vektorraum. Dann gibt es zu jeder linearen Abbildung ϕ : V → V eine geordnete Basis B so daß [ϕ]B Jordansche Normalform hat. Jede Matrix A ∈ M (n, n, C) ist ähnlich zu einer Matrix in Jordanscher Normalform. Beweis Der sogenannte Hauptsatz der Algebra besagt, daß jedes Polynom P ∈ C[X] mit komplexen Koeffizienten in Linearfaktoren zerfällt. Also folgt der Satz aus 2.32. In der Theorie der Differentialgleichungen ist der Begriff der Exponentialfunktion einer Matrix von Interesse. Es sei also A ∈ M (n, n, R), oder besser A ∈ M (n, n, C) eine reelle bzw. komplexe n × n-Matrix, dann definiert man ∞ X 1 j A e = exp A = j! j=0 A Um diesen Begriff zu erklären, muss man natürlich erklären, was es heißt, dass eine Reihe von Matrizen konvergiert. Aber eine Reihe von Matrizen konvergiert definitonsgemäß genau dann, wenn die n2 Komponentenreihen konvergieren. Man überlegt sich relativ leicht, dass die obige Summe für alle Matrizen konvergiert, und es bleibt die Frage, wie man sie berechnet. Dazu braucht man zunächst zwei Rechenregeln: 50 (1) Es seien A, B ∈ M (n, n, R) kommutierende Matrizen, d.h. es gelte AB = BA. Dann folgt exp( A + B) = eA eB (2) Es seien A, B ähnliche Matrizen, es gelte B = T −1 AT , dann sind eA und eB ähnlich, in der Tat gilt expB = T −1 expA T Die letzte Aussage folgt übrigens sehr schnell aus der Gleichung (T −1 AT )n = (T −1 AT )(T −1 AT ) · · · (T −1 AT ) = T −1 An T Also kann man eA aus eB berechnen, wenn man die Ähnlichkeitstransformation kennt. Da jede komplexe Matrix ähnlich ist zu einer in Jordanscher Normalform, berechnet man eB , wenn B Jordansche Normalform hat: J(λ1 , k1 ) 0 .. B= . 0 J(λs , ks ) Das geht folgendermaßen: Es gilt exp J(λ1 , k1 ) 0 .. eB = exp B = . 0 exp J(λs , ks ) Also muss man den Wert der Exponentialfunktion für eine Jordan-Matrix berechnen. Nun gilt ja J(λ, k) = λIk + J(0, k) und weiterhin (λIk )J(0, k) = J(0, k)(λIk ) und daher exp J(λ, k) = exp(λIk + J(0, k)) = exp(λIk ) exp J(0, k) nach (1). Weiterhin gilt für alle j (λIk )j = λj Ik und daher exp(λIk ) = ∞ X (λIk )j j=1 j! = ∞ X λj j=1 j! Ik = exp(λ)Ik Aber J(0, k) ist nilpotent von der Ordnung k und daher gilt J(0, k)k+j = 0 für alle j ∈ N0 und es folgt exp J(0, k) = ∞ k−1 X X 1 1 J(0, k)j = J(0, k)j j! j! j=0 j=0 51 und daher exp J(λ, k) = exp(λIk ) exp J(0, k) = eλ k−1 X J(0, λ)j j=0 Nun gilt 1 1!1 0 1 k−1 X1 j .. J(0, k) = . j! j=0 0 0 1 2! 1 1! ... ... 1 (k−2)! 1 (k−3)! 1 (k−1)! 1 (k−2)! .. . .. . .. . 0 ... 0 1 Also kann man die Berechnung von eA auf die Berechnung einiger Werte der reellen oder komplexen Exponentialfunktion reduzieren, wenn man die Jordansche Normalform und die Transformationsmatrix kennt. Informationen zu den Übungen und der mündliche Prüfung Die Klausur zu Lineare Algebra II, Teil 2 findet voraussichtlich am Montag, den 21.06.10 statt. Die Zulassungsliste für die Klausur werde ich im Netz veröffentlichen, sobald die Ergebnisse des letzten Übungsblatts vorliegen. Für die mündlichen Prüfungen der Lehramtskandidat(inn)en biete ich (außer in Sonderfällen) zwei Termine an: In der Woche nach der Klausur (also in der Woche vom 28.06.-02.07.) oder in der ersten Woche der Vorlesungszeit des HWS (also in der Zeit vom 06.09. - 10.09.). Bitte informieren Sie mich per mail darüber, zu welchem Zeitpunkt Sie geprüft werden wollen. Am Mittwoch, den 16.06.10, 10:15 - ca. 11:45 Uhr findet eine Zusatzübung statt. 52