Lineare Algebra II, Teil 2

Werbung
Lineare Algebra II, Teil 2
HP Butzmann
Vorlesung im FSS 10
Inhaltsverzeichnis
1 Orthogonale Abbildungen
2
2 Die Jordansche Normalform
23
1
Kapitel 1
Orthogonale Abbildungen
Erinnerung 1.1 Es sei V ein R-Vektorraum. Eine Abbildung < ·, · >: V × V →
R heißt Skalarprodukt auf V und (V, < ·, · >) ein euklidischer Vektorraum (oft
auch kurz “euklidischer Raum”) , wenn gelten:
(i) < ·, · > ist bilinear
(ii) < ·, · > ist symmetrisch, d.h. für alle u, v ∈ V gilt:
< u, v >=< v, u >
(iii) < ·, · > ist positiv definit, d.h. für alle v ∈ V gelten:
< v, v > ≥ 0 und < v, v >= 0 ⇔ v = 0
Wenn (V, < ·, · >) ein euklidischer Vektorraum ist, ist k · k : V → R definiert
durch
√
kvk = < v, v >
eine Norm auf V .
In der Regel schreibt man V für (V, < ·, · >)
Definition 1.2 Es seien V und W euklidische Vektorräume und ϕ : V −→ W
eine lineare Abbildung. Eine lineare Abbildung ϕ∗ : W −→ V heißt adjungiert
zu ϕ, wenn gilt:
< ϕ(v), w >=< v, ϕ∗ (w) >
für alle v ∈ V, w ∈ V
Beispiel 1.3 Es sei A ∈ M (k, n, R). Dann ist ϕAt adjungiert zu ϕA .
Beweis Es gilt für alle v ∈ Rn , w ∈ Rk :
< ϕA (v), w >=< Av, w >= (Av)t w = v t At w = v t ϕAt (w) =< v, ϕAt (w) > 2
Bemerkung 1.4 Es seien ϕ∗ und ψ adjungierte Abbildungen von ϕ, dann gilt
ϕ∗ = ψ. Man spricht daher von der adjungierten Abbildung (wenn es sie gibt).
Beweis Es seien ϕ∗ und ψ adjungierte Abbildungen von ϕ, dann gilt für alle
v ∈ V und w ∈ W :
< v, ϕ∗ (w) >=< ϕ(v), w) >=< v, ψ(w) >
und daher
< v, ϕ∗ (w) − ψ(w) >= 0
für alle v ∈ V, w ∈ W
Es folgt insbesondere für alle w ∈ W :
0 =< ϕ∗ (w) − ψ(w), ϕ∗ (w) − ψ(w) >= kϕ∗ (w) − ψ(w)k2
und daraus ϕ∗ (w) − ψ(w) = 0 für alle w ∈ W .
Offenbar ist eine lineare Abbildung ϕ zwischen euklidischen Vektorräumen genau
dann selbstadjungiert, wenn die adjungierte Abbildung existiert und weiterhin
ϕ∗ = ϕ gilt.
Proposition 1.5 Es seien V und W endlich-dimensionale euklidische Räume
und ϕ : V −→ W eine lineare Abbildung. Dann besitzt ϕ eine adjungierte Abbildung ϕ∗ .
Zusatz: Es seien B bzw. C geordnete ONBen von V bzw. W , dann gilt
[ϕ∗ ]C,B = [ϕ]tB,C .
Beweis Zur Erinnerung: Für alle v ∈ V gilt nach [LA], 6.38(i):
[ϕ(v)]C = [ϕ]B,C v
Man wähle also ψ : W → V so dass gilt [ψ]C,B = [ϕ]tB,C , dann gilt für alle w ∈ W :
[ψ(w)]B = [ψ]C,B [w]C = [ϕ]tB,C [w]C
Also folgt aus [LA], 10.13(iii) für alle v ∈ V und w ∈ W :
< v, ψ(w) > = < [v]B , [ψ(w)]B >
= < [v]B , [ψC,B ][w]C >
= < [v]B , [ϕ]tB,C [w]C >
= [v]tB [ϕ]tB,C [w]C
= ([ϕ]B,C [vB ])t [w]C
= ([ϕ(v)]C )t [w]C
= < ϕ(v), w >
Also ist ψ adjungiert zu ϕ.
3
Lemma 1.6 Es seien V, W, Z euklidische Räume und ϕ, ϕ1 , ϕ2 : V → W und
ψ : W → Z lineare Abbildungen sowie α ∈ R. Dann gelten:
(i) Wenn ϕ1 und ϕ2 adjungierte Abbildungen besitzen, besitzt auch ϕ1 + ϕ2 eine
adjungierte Abbildung und es gilt
(ϕ1 + ϕ2 )∗ = ϕ∗1 + ϕ∗2
(ii) Wenn ϕ eine adjungierte Abbildung besitzt, besitzt auch αϕ eine adjungierte
Abbildung und es gilt
(αϕ)∗ = αϕ∗
(iii) Wenn ϕ und ψ adjungierte Abbildungen besitzen, besitzt auch ψ ◦ ϕ eine
adjungierte Abbildung und es gilt
(ψ ◦ ϕ)∗ = ϕ∗ ◦ ψ ∗
(iv) Wenn ϕ eine adjungierte Abbildung besitzt, besitzt auch ϕ∗ eine adjungierte
Abbildung und es gilt (ϕ∗ )∗ = ϕ.
Beweis Ich zeige (iii) und (iv): Für alle v ∈ V und z ∈ Z gilt:
< ψ(ϕ(v)), z >=< ϕ(v), ψ ∗ (z) >=< v, ϕ∗ (ψ ∗ (z)) >=< v, ϕ∗ ◦ ψ ∗ (z) >
Es folgt (iii). Weiterhin gilt
< ϕ∗ (v), w >=< w, ϕ∗ (v) >=< ϕ(w), v >=< v, ϕ(w) >
und daraus folgt (iv).
Definition 1.7 Es seien V und W euklidische Vektorräume. Eine lineare Abbildung ϕ : V → W heißt orthogonal, wenn gilt:
< ϕ(u), ϕ(v) > = < u, v >
für alle u, v ∈ V
Beispiel 1.8 Es seien s, c ∈ R und es gelte s2 + c2 = 1. Dann ist die lineare
Abbildung ϕ : R2 → R2 definiert durch
c s
[ϕ] =
−s c
orthogonal.
Beweis Für alle
x1
x2
∈ R2 gilt
ϕ
x1
x2
=
4
cx1 + sx2
−sx1 + cx2
und daher folgt für alle
<ϕ
x1
x2
,ϕ
y1
y2
x1
x2
y1
,
∈ R2
y2
cx1 + sx2
cy1 + sy2
> = <
,
>
−sx1 + cx2
−s1 y1 + cy2
= c2 x1 y1 + csx1 y2 + scx2 y1 + s2 x2 y2
+s2 x1 y1 − scx1 y2 − csx2 y1 + c2 x2 y2
= x1 y1 + x2 y2
x1
y1
= <
,
>
x2
y2
Lemma 1.9 Es sei V ein euklidischer Vektorraum. Dann gilt für alle v, w ∈ V :
1
< v, w >= (kv + wk2 − kv − wk2 )
4
Beweis Es gilt
kv + wk2 − kv − wk2 = < v + w, v + w > − < v − w, v − w >
= < v, v + w > + < w, v + w >
−(< v, v − w > + < w, v − w >)
= < v, v > + < v, w > + < w, v > + < w, w >
−(< v, v > − < v, w > − < w, v > + < w, w >)
= kvk2 + 2 < v, w > +kwk2 − (kvk2 − 2 < v, w > +kwk2 )
= 4 < v, w >
Proposition 1.10 Es seien V und W euklidische Vektorräume. Eine lineare
Abbildung ϕ : V → W ist genau dann orthogonal, wenn gilt
kϕ(v)k = kvk
für alle v ∈ V
Beweis Wenn ϕ orthogonal ist, gilt für alle v ∈ V :
kϕ(v)k2 =< ϕ(v), ϕ(v) >=< v, v >= kvk2
Wenn andererseits kϕ(v)k = kvk für alle v gilt, folgt aus 1.9 für alle u, v ∈ V :
4 < ϕ(u), ϕ(v) > = kϕ(u) + ϕ(v)k2 − kϕ(u) − ϕ(v)k2
= kϕ(u + v)k2 − kϕ(u − v)k2
= ku + vk2 − ku − vk2
= 4 < u, v >
5
Korollar 1.11 Es seien V und W euklidische Vektorräume und ϕ : V → W
eine orthogonale Abbildung. Dann ist das Bild jedes ONSs in V ein ONS in W .
Wenn ϕ surjektiv ist, ist das Bild jeder ONB von V eine ONB von W .
Wie schon früher bemerkt, gilt für zwei Vektoren v, w ∈ Rn :
< v, w >= kvk kwk cos α
wobei α den Winkel zwischen v und w bezeichnet. Wenn ϕ nun orthogonal ist,
gilt für alle v, w 6= 0, wenn β den Winkel zwischen ϕ(v) und ϕ(w) bezeichnet:
kvk kwk cos α =< v, w >=< ϕ(v), ϕ(w) >= kϕ(v)k kϕ(w)k cos(β) = kvk kwk cos β
und daher cos α = cos β. Also erhält eine orthogonale Abbildung Längen und
Winkel. Wenn umgekehrt eine lineare Abbildung ϕ Längen erhält, ist sie nach
1.10 orthogonal (und erhält Winkel).
Proposition 1.12 Es seien V, W, Z euklidische Vektorräume und ϕ : V → W
eine orthogonale Abbildung. Dann gelten:
(i) ϕ ist injektiv.
(ii) Wenn ϕ ein Isomorphismus ist, ist ϕ−1 orthogonal.
(iii) Wenn V und W endlich-dimensional ist und dim V = dim W gilt, ist ϕ ein
Isomorphismus.
(iv) Wenn W = V gilt und λ ∈ R ein Eigenwert von ϕ ist, gilt λ ∈ {−1, 1}.
(v) Es sei ψ : W → Z eine orthogonale Abbildung. Dann ist ψ ◦ ϕ orthogonal.
Beweis
(i) Es ist zu zeigen, dass ker ϕ = {0} gilt: Also sei v ∈ ker ϕ, dann folgt:
0 = kϕ(v)k = kvk
und daraus v = 0.
(ii) Es sei ϕ ein Isomorphismus. Dann gilt für alle w ∈ V :
kwk = kϕ(ϕ−1 (w))k = kϕ−1 (w)k
und nach 1.10 ist ϕ−1 orthogonal.
(iii) Da ϕ injektiv, folgt aus dem Rangsatz
dim V = dim ker(ϕ) + rg(ϕ) = dim ϕ(V )
und daraus W = ϕ(V ).
6
(iv) Es sei v ein Eigenvektor von ϕ zum Eigenwert λ, dann folgt:
kvk = kϕ(v)k = kλvk = |λ| kvk
und daraus |λ| = 1.
(v) Klar.
Korollar 1.13 Es sei V ein endlich-dimensionaler euklidischer Vektorraum, dann
ist die Menge aller orthogonalen Abbildungen von V in sich zusammen mit der
Hintereinanderausführung eine Gruppe. Sie heißt auch die orthogonale Gruppe
von V .
Proposition 1.14 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine lineare Abbildung. Dann sind äquivalent:
(i) ϕ ist orthogonal.
(ii) ϕ ist ein Isomorphismus und ϕ−1 = ϕ∗ .
(iii) ϕ∗ ◦ ϕ = idV
(iv) ϕ ◦ ϕ∗ = idV
Wenn ϕ orthogonal ist, ist auch ϕ−1 orthogonal.
Beweis Offenbar gilt “(ii) ⇒ (iii)” und “(ii) ⇒ (iv)”. Wenn aber (iii) gilt, ist ϕ
injektiv und daher nach dem Rangsatz ein Isomorphismus. Also folgt ϕ∗ = ϕ−1
und man erhält “(iii) ⇒ (ii)”. Analog zeigt man, dass “(iv) ⇒ (ii)” gilt. Also
muss noch gezeigt werden, dass“(i) ⇔ (ii)” gilt:
“(i) ⇒ (ii)”: Nach 1.12(iii) ist ϕ ein Isomorphismus. Weiterhin gilt für alle v, w ∈
V:
< ϕ(v), w >=< ϕ(v), ϕ(ϕ−1 (w)) >=< v, ϕ−1 (w) >
Es folgt ϕ−1 = ϕ∗ .
“(ii) ⇒ (i)”: Für alle v ∈ V gilt
kϕ(v)k2 =< ϕ(v), ϕ(v) >=< v, ϕ∗ (ϕ(v)) >=< v, v >= kvk2
Da ϕ injektiv ist, sind (iii) und (iv) offenbar äquivalent zu (ii).
Bemerkung 1.15 Bekanntlich gibt es eine enge Beziehung zwischen linearen
Abbildungen und Matrizen. Also gibt es auch eine matrizentechisches Analogon
des Begriffs der Orthogonalität für lineare Abbildungen. Von Interesse ist dieses
aber nur für quadratische Matrizen. Also sei A ∈ M (n, n, R), dann suche ich eine
Bedingung an A, so dass ϕA orthogonal ist. Nun gilt
7
ϕA ist orthogonal
⇐⇒ ϕ∗A ◦ ϕA = id
⇐⇒ [ϕ∗A ◦ ϕA ] = I
⇐⇒ [ϕ∗A ][ϕA ] = I
⇐⇒ [ϕA ]t [ϕA ] = I
⇐⇒ At A = I
⇐⇒ A ist regulär und es gilt A−1 = At
Also definiert man:
Definition 1.16 Eine Matrix A ∈ M (n, n, R) heißt orthogonal, wenn A regulär ist und A−1 = At gilt.
Beispiele orthogonaler Matrizen ergeben sich sofort aus der folgenden Proposition:
Proposition 1.17 Für eine Matrix A ∈ M (n, n, R) sind äquivalent:
(i) A ist orthogonal
(ii) At A = In .
(iii) AAt = In
(iv) Die Spaltenvektoren von A bilden ein ONS.
(v) Die Spaltenvektoren von A bilden eine ONB des Rn .
(vi) Die Zeilenvektoren von A bilden ein ONS.
(vii) Die Zeilenvektoren von A bilden eine ONB des Rn .
Beweis Die Äquivalenz von (i), (ii) und (iii) erhält man analog zu 1.14: Wenn
At A = In gilt, ist A nach dem Determinantenproduktsatz regulär und es folgt
At = A−1 und daher folgt (i) aus (ii).
Nun seien a1 , . . . , an die Spaltenvektoren von A, dann gilt
At A = (ati aj )
Also gilt At A = In genau dann, wenn die Spaltenvektoren ein ONS bilden. Analog ist AAt = In äquivalent dazu, dass die Zeilenvektoren ein ONS bilden. Aus
Dimensionsgründen ist (iv) äquivalent zu (v) und (vi) äquivalent zu (vii).
Beispiel 1.18 In diesem Beispiel will ich alle orthogonalen 2 × 2-Matrizen und
damit alle orthogonalen Abbildungen des R2 in sich bestimmen. Es sei zunächst
a b
A=
∈ M (2, 2, R)
c d
eine orthogonale Matrix. Dann gelten nach 1.17:
8
(i) a2 + b2 = 1
und
c2 + d 2 = 1
und
b2 + d 2 = 1
(ii) ac + bd = 0
(iii) a2 + c2 = 1
(iv) ab + cd = 0
Aus (i) und (iii) folgt a2 + b2 = 1 = a2 + c2 und daraus b2 = c2 , also gibt es
ein σ ∈ {−1, 1} mit c = σb und analog folgt, daß a2 = d2 gilt, also gibt es ein
τ ∈ {−1, 1} mit d = τ a. Aus (iii) folgt dann:
0 = ac + bd = σab + τ ab = (σ + τ )ab
Wenn ab 6= 0 gilt, folgt τ = −σ und daraus:
a b
a
b
A=
=
σb τ a
σb −σa
Diese Darstellung bleibt richtig, wenn a = 0 gilt. Wenn aber b = 0 gilt, folgt
a 0
A=
0 τa
und man erhält die obige Darstellung mit σ = −τ .
Schließlich gibt es wegen (i) genau ein α ∈ [0, 2π), für das gilt a = cos(α) und
b = sin(α) und man erhält:
cos(α)
sin(α)
[ϕ] = A =
σ sin(α) −σ cos(α)
Eine einfache Rechnung zeigt, dass jede Matrix dieses Typs orthogonal ist.
1. Fall: σ = −1, dann gilt:
A=
cos(α) sin(α)
− sin(α) cos(α)
Für alle v = (x1 , x2 )t 6= 0 folgt dann mit c = cos(α) , s = sin(α):
< ϕA (v), v >=< (cx1 +sx2 , −sx1 +cx2 )t , (x1 , x2 ) >= cx21 +sx1 x2 −sx1 x2 +cx22 = ckvk2
und man erhält, wenn β der Winkel zwischen ϕA (v) und v ist:
cos(β) =< ϕA (v), v > /kϕA (v)k kvk = ckvk2 /kvk2 = c = cos(α)
Also ist der Winkel zwischen einem Vektor und seinem Bildvektor immer α. Da
weiterhin kϕA (v)k = kvk für alle v ∈ R2 gilt, ist ϕA eine Drehung um den Winkel
α. Wegen ϕ(1, 0) = (cos(α), − sin(α)) stellt ϕA eine Drehung im Uhrzeigersinn
dar.
9
2. Fall σ = 1, dann gilt:
A=
cos(α)
sin(α)
sin(α) − cos(α)
.
und daher für die charakteristische Abbildung:
c−λ
s
P ϕA (λ) = PA (λ) = det
= λ2 − 1
s
−c − λ
also sind 1 und −1 die Eigenwerte von ϕ. Sei v1 ein normierter Eigenvektor zum
Eigenwert 1 und v2 ein normierter Eigenvektor zum Eigenwert −1. Dann gilt
< v1 , v2 >=< ϕ(v1 ), ϕ(v2 ) >=< v1 , −v2 >= − < v1 , v2 >
Also sind v1 und v2 orthogonal zueinander und {v1 , v2 } bildet eine ONB. Schließlich gilt für alle α1 , α2 ∈ R:
ϕ(α1 v1 + α2 v2 ) = α1 ϕ(v1 ) + α2 ϕ(v2 ) = α1 v1 − α2 v2
und ϕ ist die Spiegelung an dem Untervektorraum L({v1 }).
Proposition 1.19
(i) Eine Matrix A ∈ M (n, n, R) ist genau dann orthogonal, wenn ϕA orthogonal
ist.
(ii) Es seien V ein endlich-dimensionaler euklidischer Vektorraum und B eine
geordnete ONB von V . Eine lineare Abbildung ϕ : V → V ist genau dann orthogonal, wenn [ϕ]B orthogonal ist.
(iii) Es sei A ∈ M (n, n, R) orthogonal. Dann gilt det A ∈ {−1, 1}.
Beweis
(i): 1.15, so ist Orthogonalität einer Matrix ja gerade definiert worden.
(ii) Nach 1.5 gilt [ϕ∗ ]B = [ϕ]tB und daraus folgt mit 1.17:
[ϕ]B ist orthogonal ⇔ [ϕ]B [ϕ]tB = In
⇔ [ϕ]B [ϕ∗ ]B = In
⇔ [ϕ ◦ ϕ∗ ]B = In
⇔ ϕ ◦ ϕ∗ = idV
und die Behauptung folgt aus 1.14.
(iii) Da ϕA orthogonal ist, folgt aus 1.12(iv):
det A = det ϕA ∈ {−1, 1}
10
Proposition 1.20 Es seien V ein Vektorraum über einem Körper K und
M1 , . . . , Mn Untervektorräume von V . Dann sind äquivalent:
(i) Zu jedem v ∈ V gibt es eindeutig bestimmte vi ∈ Mi so dass gilt
(ii) V = M1 + · · · + Mn
v = v1 + . . . + vn
S
und
Mi ∩ L( j6=i Mj ) = {0}
Beweis
“(ii) ⇒ (i)”: Sei v ∈ V . Nach Voraussetzung gibt es vi ∈ Mi so dass gilt v =
v1 + ·P
· · + vn . Es gelte außerdem v = w1 + . . . + wn mit wi ∈ Mi für alle i. Dann
folgt i (vi − wi ) = 0 und daraus für alle i:
X
[
vi − w i =
(wj − vj ) ∈ Mi ∩ L( Mj ) = {0}
j6=i
j6=i
Man erhält vi = wi für alle i.
“(i) ⇒ S
(ii)”: Es gilt V = M1 + · · · + Mn nach Voraussetzung. Also sei vi ∈
Mi ∩ L( j6=i Mj ), dann gibt es Elemente vj ∈ Mj so dass gilt
vi =
X
vj
j6=i
und es folgt
v1 + · · · + vi−1 + 0vi + vi+1 + · · · vn = 0v1 + · · · + 0vi−1 + vi + 0vi+1 + · · · + 0vn
Da diese Darstellung nach Voraussetzung eindeutig ist, folgt vi = 0vi = 0.
Definition 1.21 Es seien V ein K-Vektorraum und M1 , . . . , Mn Untervektorräume.
Man sagt, V sei die direkte Summe von M1 , . . . , Mn und schreibt
V = M1 ⊕ · · · ⊕ Mn
wenn eine der beiden (und damit beide) Eigenschaften aus 1.20 erfüllt sind.
Beispiel 1.22 Es seien V ein euklidischer Vektorraum und M ⊆ V ein Untervektorraum. Dann gilt
V = M ⊕ M⊥
Beweis Das ist gerade [LA], 10.20.
11
Definition 1.23 Es seien V ein endlich-dimensionaler euklidischer Vektorraum
und M ⊆ V ein Untervektorraum. Dann definiere man
σM : V −→ V
auf die folgende Weise: Nach 1.22 gilt V = M ⊕ M ⊥ , also gibt es nach 1.20 zu
jedem v ∈ V eindeutig bestimmte Vektoren v1 ∈ M und v2 ∈ M ⊥ mit v = v1 + v2 .
Dann definiere man
σM (v) = v1 − v2 .
σM heißt Spiegelung an M .
Lemma 1.24 (Pythagoras) Es seien V ein euklidischer Vektorraum und v1 , . . . , vk
paarweise orthogonale Vektoren aus V . Dann gilt
kv1 + . . . vn k2 = kv1 k2 + . . . kvn k2
Speziell gilt
kv + wk2 = kvk2 + kwk2
wenn v, w ∈ V orthogonale Vektoren sind.
Beweis Das kann man naürlich induktiv beweisen, aber ich denke, der folgende
kürzere Beweis ist auch verständlich: Es gilt
k
k
X
i=1
2
vi k =<
k
X
i=1
vi ,
k
X
vj >=
j=1
k
X
< vi , vj >=
i,j=1
k
X
i=1
< vi , vi >=
k
X
kvi k2
i=1
Proposition 1.25 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und M ⊆ V ein Untervektorraum. Dann ist σM eine selbstadjungierte,
−1
2
∗
orthogonale Abbildung. Weiter gilt σM
= idV und daher σM
= σM
= σM .
Beweis Man rechnet leicht nach, dass σM linear ist.
Es gilt für alle v1 ∈ M, v2 ∈ M ⊥ :
kσM (v1 + v2 )k2 = kv1 − v2 k2 = kv1 + (−v2 )k2 = kv1 k2 + kv2 k2 = kv1 + v2 k2
Also ist σM orthogonal. Weiterhin gilt
2
σM
(v1 + v2 ) = σM (σM (v1 + v2 )) = σM (v1 − v2 ) = v1 + v2
Definition 1.26 Es sei V ein endlich-dimensionaler euklidischer Vektorraum.
Eine orthogonale Abbildung ϕ : V → V heißt Drehung oder eigentlich orthogonal, wenn det(ϕ) = 1 gilt. ϕ heißt uneigentlich orthogonal, wenn
det(ϕ) = −1 gilt.
12
Proposition 1.27 Es seien V ein zweidimensionaler euklidischer Vektorraum
und ϕ : V → V eine orthogonale Abbildung. Dann gelten:
(i) Wenn ϕ eine Drehung ist, gibt es zu jeder geordneten ONB B von V genau
ein α ∈ [0, 2π) so dass gilt:
cos(α) − sin(α)
[ϕ]B =
sin(α)
cos(α)
Man nennt α auch den Drehwinkel der Drehung bzgl. B.
(ii) Wenn ϕ uneigentlich orthogonal ist, ist ϕ eine Spiegelung an einem eindimensionalen Untervektorraum und es gibt eine geordnete ONB B von V so daß
gilt:
1
0
[ϕ]B =
0 −1
Beweis Wenn ϕ orthogonal ist, ist [ϕ]B nach 1.19(ii) orthogonal, und die Behauptung folgt dann aus von 1.18. (Man beachte, dass ich α durch −α ersetzt
habe: Die mathematisch positive Drehrichtung ist die entgegen dem Uhrzeigersinn.)
Eine der Fragen, die im Folgenden geklärt werden soll, ist die, ob und in welcher
Weise der Winkel α in 1.27(i) von B abhängt.
Erinnerung 1.28 Es seien α, β ∈ R, dann gelten:
cos(α + β) = cos(α) cos(β) − sin(α) sin(β)
sin(α + β) = sin(α) cos(β) + cos(α) sin(β)
Proposition 1.29 Es seien V ein zweidimensionaler euklidischer Vektorraum,
ϕ, ψ : V → V Drehungen und σ : V → V eine Spiegelung. Dann gelten:
(i) ψ ◦ ϕ ist eine Drehung und es gilt
ψ◦ϕ=ϕ◦ψ
(ii) σ ◦ ϕ = ϕ−1 ◦ σ = ϕ∗ ◦ σ
Zusatz Es seien B eine geordnete ONB von V und α bzw. β die Drehwinkel von
ϕ bzw. ψ bzg. B, dann gilt für den Drehwinkel γ von ψ ◦ ϕ bzgl. B:
α+β
: α + β < 2π
γ=
α + β − 2π : α + β ≥ 2π
13
Beweis
(i) Nach 1.13 (oder 1.12(v)) ist ψ ◦ ϕ orthogonal. Wegen
det(ψ ◦ ϕ) = det(ψ) det(ϕ) = 1
ist ψ ◦ ϕ eine Drehung und analog ist ϕ ◦ ψ eine Drehung. Weiterhin gilt:
cos(β) − sin(β)
cos(α) − sin(α)
[ψ]B =
und
[ϕ]B =
sin(β)
cos(β)
sin(α)
cos(α)
und es folgt:
[ψ ◦ ϕ]B = [ψ]B [ϕ]B
cos(β) cos(α) − sin(β) sin(α) −(cos(β) sin(α) + sin(β) cos(α))
=
sin(β) cos(α) + cos(β) sin(α)
cos(β) cos(α) − sin(β) sin(α)
cos(β + α) − sin(β + α)
=
sin(β + α)
cos(β + α)
Wenn man die Rollen von ϕ und ψ vertauscht, erhält man daraus:
cos(α + β) − sin(α + β)
[ϕ ◦ ψ]B =
sin(α + β)
cos(α + β)
und daraus die Behauptung.
(ii) Nach 1.27(ii) gibt es eine geordnete ONB B so dass gilt
1
0
[σ]B =
0 −1
Also folgt mit c = cos(α) und s = sin(α):
1
0
c −s
c −s
[σ ◦ ϕ]B = [σ]B [ϕ]B =
=
0 −1
s
c
−s −c
und
[ϕ−1 ◦ σ]B = [ϕ∗ ◦ σ]B = [ϕ∗ ]B [σ]B = [ϕ]tB [σ]B
also
−1
[ϕ
◦ σ]B =
c s
−s c
1
0
0 −1
=
c −s
−s −c
Korollar 1.30 Die Menge aller Drehungen eines zweidimensionalen euklidischen
Raumes ist, zusammen mit der Hintereinanderausführung, eine kommutative
Gruppe.
14
Die Frage ist nun, ob und in welcher Weise der Drehwinkel einer Drehung von der
ONB abhängt. Seien α der Drehwinkel einer Drehung ϕ bezüglich B = (v1 , v2 )
und C = (v2 , v1 ), dann gilt
cos(α) sin(α)
cos(α) − sin(−α)
[ϕ]C =
=
− sin(α) cos(α)
sin(−α)
cos(α)
also geht α in diesem Fall in −α über. Dieses ist aber auch die einzige Möglichkeit:
Definition 1.31 Es seien B = (v1 , . . . vn ) und C = (w1 , . . . wn ) geordnete Basen
eines K-Vektorraumes V . Dann sei
τB,C : V → V
die einzige lineare Abbildung, so daß
τB,C (vi ) = wi
für i = 1, . . . n gilt. (Also gilt [τB,C ]B,C = I.) Man nannt τB,C auch Koordinatentransformation.
Lemma 1.32 Es seien B und C ONBen eines euklidischen Vektorraumes V .
Dann ist τB,C orthogonal. Speziell gilt det(τB,C ) ∈ {−1, 1} .
Beweis Es seien B = (v1 , . . . vn ) und C = (w1 , . . . , wn ), dann gilt
[τB,C ]B = ([w1 ]B , . . . , [wn ]B )
Da w1 , . . . , wn ein ONS ist, ist auch [w1 ]B , . . . , [wn ]B nach [LA], 10.13 ein ONS
und die Behauptung folgt aus 1.19(ii) und 1.17(v).
Proposition 1.33 Es seien V ein zweidimensionaler euklidischer Vektorraum,
ϕ : V → V eine Drehung und B, C geordnete ONBen von V . Dann gilt
(
[ϕ]B : det(τB,C ) = 1
[ϕ]C =
[ϕ]tB : det(τB,C ) = −1
Beweis Das kann man natürlich beweisen, indem man [τB,C ]B explizit darstellt
t
und bedenkt, dass [τB,C ]−1
B = [τB,C ]B gilt. Der folgende Weg ist etwas anstrengender, aber er vermeidet explizite Rechnungen. Es sei zunächst det(τB,C ) = 1,
dann ist τB,C eine Drehung und aus 1.29(i) folgt
τB,C ◦ ϕ ◦ τC,B = ϕ ◦ τB,C ◦ τC,B = ϕ
und daraus mit [LA], 6.39:
[ϕ]C = [τB,C ◦ ϕ ◦ τC,B ]C = [τB,C ]B,C [ϕ]B,B [τC,B ]C,B = [ϕ]B
Wenn nun det(τB,C ) = −1 gilt, ist τB,C eine Spiegelung und aus 1.29(ii) folgt:
τB,C ◦ ϕ ◦ τC,B = ϕ∗ ◦ τB,C τC,B = ϕ∗
und daraus
[ϕ]tC = [ϕ∗ ]C = [ϕ]B
also [ϕ]C = [ϕ]tB .
15
Bemerkung 1.34 Wenn nun α der Drehwinkel einer Drehung ϕ bezüglich einer
geordneten ONB B ist,und det(τB,C ) = −1 gilt, erhält man also
cos(α) sin(α)
cos(−α) − sin(−α)
t
=
[ϕ]C = [ϕ]B =
− sin(α) cos(α)
sin(−α) cos(−α)
cos(2π − α) − sin(2π − α)
=
sin(2π − α) cos(2π − α)
also ist der Drehwinkel bezüglich C gerade der “negative bezüglich B” (da ein
Drehwinkel per definitionem nicht-negativ ist, ist diese Formulierung formal nicht
richtig, daher die Anführungszeichen.) Also induzieren B und C verschiedene
“Drehrichtungen”. Das ist also die Frage, ob man sich links- oder rechtsherum
dreht, wenn man den Auftrag bekommt, sich um α zu drehen. Es gibt keine
algebraische Methode, hier eine Drehrichtung auszuzeichnen und daher definiert
man:
Definition 1.35 Es sei V ein K-Vektorraum. Zwei geordnete Basen B und C
von V heißen gleichorientiert, wenn det(τB,C ) > 0 gilt und sie heißen entgegengesetzt orientiert, wenn det(τB,C ) < 0 gilt.
Mit dieser neuen Sprechweise erhält man:
Korollar 1.36 Es seien V ein zweidimensionaler euklidischer Vektorraum, ϕ :
V → V eine Drehung und B, C geordnete ONBen von V . Dann gelten:
(
[ϕ]C =
[ϕ]B :
wenn B und C gleichorientiert sind
[ϕ]tB :
wenn B und C entgegengesetzt orientiert sind
Wenn weiterhin α bzw. β der Drehwinkel von ϕ bezüglich B bzw. C ist, gilt
weiterhin α = β, wenn B und C gleichorientiert sind und β = 2π − α,wenn B
und C entgegengesetzt orientiert sind.
Beweis Klar.
Ich komme nun zum Studium der Drehungen eines dreidimensionalen euklidischen
Raumes. Das folgende Resultat erlaubt es, solche Abbildungen zu “zerlegen”:
Lemma 1.37 Es seien V ein endlich-dimensionaler euklidischer Vektorraum,
ϕ : V → V eine orthogonale Abbildung und M ⊆ V ein Untervektorraum. Es
gelte ϕ(M ) ⊆ M . Dann gilt ϕ(M ⊥ ) ⊆ M ⊥ .
Beweis Da ϕ injektiv ist, gilt dim ϕ(M ) = dim M und daher gilt ϕ(M ) = M
und ϕ−1 (M ) = ϕ−1 (ϕ(M )) = M . Es gelte w ∈ M ⊥ , dann gilt für alle v ∈ M :
< ϕ(w), v >=< ϕ(w), ϕ(ϕ−1 (v)) >=< w, ϕ−1 (v) >= 0
16
1.37 ist das Analogon für orthogonale Abbilungen zu [LA], 10.24, das für selbstadjungierte Abbildungen gilt. Unter den Voraussetzungen von 1.37 sind die Abbildungen ϕ0 : M ⊥ → M ⊥ und ϕ1 : M → M definiert durch ϕ1 (v) = ϕ(v) für
alle v ∈ M und ϕ0 (v) = ϕ(v) für alle v ∈ M ⊥ wohldefiniert. Und wenn man
geordnete Basen B1 bzw. B0 von M bzw. M ⊥ hat, dann gilt für B = (B1 , B0 ):
!
[ϕ1 ]B1 0
[ϕ]B =
0
[ϕ0 ]B0
Also hat man das Problem der Darstellung einer Abbildung eines n-dimensionalen
Vektorraums in sich reduziert auf die Darstellung zweier Abbildungen von niedrigdimensionaleren Räumen in sich.
Die Frage ist nun, wie man zu einem Untervektorraum M kommt, für den ϕ(M ) ⊆
M gilt. Das ist natürlich von Fall zu Fall verschieden, besonders einfach ist es aber,
wenn ϕ einen Eigenvektor v besitzt, denn in diesem Fall kann man M = L({v})
wählen.
Satz 1.38 Es seien V ein dreidimensionaler euklidischer Vektorraum und ϕ :
V → V eine Drehung. Dann gibt es ein α ∈ [0, 2π) sowie eine geordnete ONB B
von V so daß gilt:


1
0
0
[ϕ]B =  0 cos α − sin α 
0 sin α cos α
Beweis Als Polynom(abbildung) vom Grad 3 besitzt Pϕ eine reelle Nullstelle λ1
und daher ϕ einen Eigenwert λ1 ∈ {1, −1}. Seien v1 ein normierter Eigenvektor
von ϕ zum Eigenwert λ1 und M = L({v1 }), dann gilt ϕ(M ) ⊆ M und daher
ϕ(M ⊥ ) ⊆ M ⊥ nach 1.37. Also ist ϕ0 : M ⊥ → M ⊥ definiert durch ϕ0 (v) =
ϕ(v) für alle v ∈ M ⊥ eine wohldefinierte lineare Abbildung, die orthogonal ist.
Offenbar gilt dim M ⊥ = 2, sei B0 = (v2 , v3 ) eine geordnete ONB von M ⊥ . Dann
ist B = (v1 , v2 , v3 ) eine geordnete ONB von V und es gilt


λ1 0
0
[ϕ]B =  0 a1,1 a1,2 
0 a2,1 a2,2
wobei
[ϕ0 ]B0 =
a1,1 a1,2
a2,1 a2,2
gilt. Also folgt 1 = det(ϕ) = λ1 det(ϕ0 ) und daher det(ϕ0 ) = λ1 .
1. Fall λ1 = 1. Dann ist ϕ0 eine Drehung, und es gibt nach 1.27 (genau ein)
α ∈ [0, 2π) so dass gilt
cos α − sin α
[ϕ0 ]B0 =
sin α
cos α
17
Es sei B = (v1 , v2 , v3 ), dann gilt


1
0
0
[ϕ]B =  0 cos α − sin α 
0 sin α cos α
2. Fall λ = −1, dann gilt det(ϕ0 ) = −1, und ϕ0 ist nach 1.27 eine Spiegelung
und es gibt eine ONB (v2 , v3 ) von M ⊥ so dass gilt ϕ(v2 ) = v2 und ϕ(v3 ) = −v3 .
Es folgt

 

1
0
0
1 0
0

0  =  0 cos π 0
[ϕ](v2 ,v1 ,v3 ) =  0 −1
0
0 −1
0 0
cos π
Lemma 1.39 Es seien V ein dreidimensionaler euklidischer Vektorraum und
ϕ : V → V eine Drehung, ϕ 6= idV . Dann gilt dim Eϕ,1 = 1.
Beweis Wegen ϕ 6= idV gilt dim Eϕ,1 < 3. Angenommen, es gilt dim Eϕ,1 = 2,
dann betrachte man eine geordnete ONB (v1 , v2 ) von Eϕ,1 und ergänze sie zu
einer geordneten ONB B = (v1 , v2 , v3 ) von V . Dann gilt


1 0 a1,3
[ϕ]B =  0 1 a2,3 
0 0 a3,3
Da die Zeilen ein ONS bilden, folgt a1,3 = a2,3 = 0. Weiterhin gilt 1 = det ϕ = a3,3
und daher [ϕ]B = I3 , d.h. ϕ = idV im Widerspruch zur Annahme.
Definition 1.40 Es seien V ein dreidimensionaler euklidischer Vektorraum und
ϕ : V → V eine Drehung, ϕ 6= idV . Dann heißt Eϕ,1 die Drehachse der Drehung
⊥
die Drehebene.
und Eϕ,1
Bemerkung 1.41 Es seien V ein dreidimensionaler euklidischer Vektorraum
und ϕ : V → V eine Drehung, ϕ 6= 0. Dann induyiert ϕ eine Drehung ϕ0 von
⊥
Eϕ,1
auf sich. Man nennt den Drehwinkel von ϕ0 dann den Drehwinkel von ϕ.
Er ist nicht eindeutig bestimmt, da es auf Eϕ,1 keine ausgezeichnete Orientierung
gibt. Aber wenn α und β Drehwinkel sind, gilt β = α oder β = 2π − α und
daher cos β = cos α. Daher begnügt man sich üblicherweise damit, den Cosinus
des Drehwinkels zu bestimmen, denn der ist ja eindeutig bestimmt.
Definition 1.42 Es sei A = (ai,j ) ∈ M (n, n, K). Dann heißt
sp(A) = a1,1 + · · · + an,n
die Spur von A.
18
Proposition 1.43 Es seien A, B ∈ M (n, n, K). Dann gelten:
(i) sp(AB) = sp(BA)
(ii) Wenn A und B ähnlich sind, gilt sp(A) = sp(B).
Beweis
(i) Es seien A = (ai,j ), B = (bi,j ) und AB = (ci,j ), dann gilt für alle i, j:
ci,j =
n
X
ai,k bk,j
k=1
und daher
sp(AB) =
n X
n
X
n X
n
X
ai,k bk,i =
i=1 k=1
bk,i ai,k = sp(BA)
k=1 i=1
(ii) Wenn A und B ähnlich sind, gibt es eine reguläre Matrix T so dass gilt
B = T −1 AT und es folgt
sp(B) = sp(T −1 AT ) = sp((T −1 A)T ) = sp(T T −1 A) = sp(A)
Definition 1.44 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung. Dann heißt
sp(ϕ) = sp([ϕ]B )
wobei B eine beliebige geordnete Basis von V ist, die Spur von ϕ.
Da je zwei darstellende Matrizen von ϕ nach [LA], 8.22 ähnlich sind, ist die Spur
einer linearen Abbildung nach 1.43 wohldefiniert.
Proposition 1.45 Es seien V ein dreidimensionaler euklidischer Vektorraum
und ϕ : V → V eine Drehung. Man setze
1
c = (sp(ϕ) − 1)
2
Dann ist c der Cosinus des Drehwinkels.
V so dass gilt

1
[ϕ]B =  0
0
Also gibt es eine geordnete ONB B von
19

0
0
c −s 
s
c
Beweis Nach 1.38 gibt es ein α ∈ [0, 2π) sowie eine geordnete ONB B von V so
daß gilt:


1
0
0
[ϕ]B =  0 cos α − sin α 
0 sin α cos α
Es folgt
sp(ϕ) = sp([ϕ]B ) = 1 + 2 cos α
und daraus die Behauptung.
Beispiel 1.46 Man definiere ϕ : R3 → R3 durch
 1
1
√


− √12
2
2
1
−
2
1
 1
√
1 √
1
= √
0 − √2
[ϕ] =
2
 2
√0 − 2
2
1
1
1
2
1
√1
2
2




2
dann gilt:
√
√


1
−
2
1
1
2
1
√
√
√
√
1
 − 2
[ϕ][ϕ]t =  2
0
−
2
0
2  = I3
√
√
4
1
2
1
1
− 2 1

also ist ϕ orthogonal. Weiterhin gilt
det(ϕ) = det([ϕ]) =
1 1
1 1
+ − (− − ) = 1
4 4
4 4
also ist ϕ eine Drehung. Weiterhin gilt
sp(ϕ) = sp([ϕ]) = 1
und daher für den Drehwinkel α:
cos α = 1/2(sp(ϕ) − 1) = 0
also α = π/2 oder α =
dass gilt

1

0
[ϕ]B =
0
3/2π. Damit gibt es eine geordnete ONB B von R3 so

0 0
0 −1 
1 0

oder

1 0 0
[ϕ]B =  0 0 1 
0 −1 0
Zur Berechnung der Drehachse muss man den Eigenraum zum Eigenwert 1 ausrechnen. Die Lösung des LGS [ϕ − I3 ]X = 0 erhält man aus:
20




− 12 − √12
√1
2
1
2
−1
√1
2
1
2
− √12
− 12



 7→ 


− 12 − √12
1
2

0

−2 0 
0
0 0
Damit ist die Drehachse:

Eϕ,1

x
= { 0  : x ∈ R}
x
und v1 = ( √12 , 0, √12 )t ist ein normierter Eigenvektor. Um eine geeignete geordnete
⊥
. Und dazu reicht es, {v1 } zu
Basis zu finden, braucht man eine ONB von Eϕ,1
3
einer ONB des R zu ergänzen. Das macht man natürlich mit dem Schmidtschen
Orthonormierungsverfahren ([LA], 10.15). Offenbar ist {v1 , e2 , e3 } eine Basis von
R3 . Setzt man also v2 = e2 , dann gilt < v1 , v2 >= 0 und {v1 , v2 } ist ein ONS. Zur
Berechnung des 3. Basisvektors setzt man
 1 
     α1 
√
√
0
0
2
2
w = α1 v1 + α2 v2 + e3 = α1  0  + α2  1  +  0  =  α2 
α1
√1
√
+1
0
1
2
2
Dann muss gelten:
1
0 =< w, v1 >= α1 + < e3 , v1 >= α1 + √
2
und
0 =< w, v2 >= α2 + < e3 , v2 >= α2
Man erhält α1 = − √12 und α2 = 0 und daraus
    1 
− 12
0
−2
w = 0 + 0 = 0 
1
− 12
1
2

und schließlich
v3 =
√
1
1
1
w = 2w = (− √ , 0, √ )t
kwk
2
2
⊥
Also ist (v2 , v3 ) eine geordnete ONB von Eϕ,1
. Es gilt
ϕ(v2 ) = e3
und
Es folgt für B = (v1 , v2 , v3 ):
21
ϕ(v3 ) = −e2


1 0
0
[ϕ]B =  0 0 −1 
0 1
0
Wegen 1 = sin π/2 ist der Drehwinkel von ϕ bezüglich B gerade π/2. Wählt
man allerdings B 0 = (v1 , v3 , v2 ), dann ist der Drehwinkel 3π/2 bezüglich B 0 . Also
verliert man keine Information, wenn man über die Spur der darstellenden Matrix
nur den Cosinus des Drehwinkels berechnen kann, denn die Tatsache, dass es in
der Regel zwei Kandidaten für die Drehwinkel gibt, entspricht der Tatsache, dass
es in der Drehebene keine natürliche Orientierung gibt.
Zum Abschluss dieses Kapitels gebe ich ohne Beweis das allgemeine Ergebnis an:
Proposition 1.47 Es sei ϕ : Rn → Rn eine Drehung. Dann gibt es eine g. ONB
B von Rn und α1 , . . . αk ∈ [0, 2π) so daß gilt:


1


..
.






1




cos(α
)
−
sin(α
)


1
1
[ϕ]B = 

sin(α1 )
cos(α1 )




.


..






cos(αk ) − sin(αk )
sin(αk ) cos(αk ))
0
0
22
Kapitel 2
Die Jordansche Normalform
In diesem Kapitel sei K ein Körper.
In diesem Kapitel wird die Frage weiter verfolgt, wie man eine besonders einfache darstellende Matrix einer linearen Abbildung eines endlich-dimensionalen
K-Vektorraums in sich findet. Der einfachste Fall ist natürlich der, in dem es eine
darstellende Matrix gibt, die eine Diagonalmatrix ist. Nach [LA], 9.11 gibt es
so eine Matrix genau dann, wenn die Summe der Dimensionen der Eigenräume
gleich der Dimension des gesamten Raumes ist. Dazu äquivalent ist die Tatsache,
dass der Raum die direkte Summe der Eigenräume ist. Um eine feinere Analyse
vorzunehmen, muss man zunächst die charakteristische Abbildung einer linearen
Abbildung genauer ansehen. Dabei stellt sich heraus, dass diese Abbildung in
der Tat die assoziierte Abbildung eines Polynoms ist. Und um das zu beweisen,
kann man z.B. den Begriff der Determinante einer Matrix, deren Koeffizienten
ihrerseits Polynome sind, einführen. Es gilt ja nach [LA], 8.39 für jede Matrix
A = (ai,j ) ∈ M (n, n, K):
X
sgn(π)a1,π(1) · · · an,π(n)
det A =
π∈Sn
und dieser Ausdruck ist sinnvoll, wenn die Koeffizienten aus einem (kommutativen) Ring stammen. Also definiert man:
Definition 2.1 Es sei R ein kommutativer Ring mit Eins. Die Menge aller n×nMatrizen mit Koeffizienten in R wird mit M (n, n, R) bezeichnet. Für eine Matrix
A = (ai,j ) ∈ M (n, n, R) definiere man
X
det A =
sgn(π)a1,π(1) · · · an,π(n)
π∈Sn
Der einzige kommutative Ring, auf den dieser Begriff im Folgenden angewandt
wird, ist der Polynomring eines Körpers.
23
Bemerkung 2.2 Man kann zeigen, dass die Determinante dem Laplace’schen
Entwicklungssatz, der Regel von Sarrus und dem Determinantenproduksatz genügt.
Lemma 2.3 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V
eine lineare Abbildung und B, C geordnete Basen von V . Dann gilt
det([ϕ]B − XIn ) = det([ϕ]C − XIn )
Dabei ist det : M (n, n, K[X]) → K[X]
Beweis Da [ϕ]B und [ϕ]C ähnlich sind, gibt es eine reguläre Matrix T ∈ M (n, n, K) ⊆
M (n, n, K[X]) so dass gilt
[ϕ]C = T −1 [ϕ]B T
Es folgt
[ϕ]C − XIn = T −1 [ϕ]B T − XIn = T −1 [ϕ]B T − T −1 (XIn )T = T −1 ([ϕ]B − XIn )T
und daraus
det([ϕ]C − XIn ) = det([ϕ]B − XIn )
mit dem Determinantenproduktsatz.
Definition 2.4
(i) Es sei A ∈ M (n, n, K), dann heißt
PA,X = det(A − XIn )
das charakteristische Polynom von A.
(ii) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine
lineare Abbildung. Dann heißt
Pϕ,X = det([ϕ]B − XIn )
wobei B eine beliebige geordnete Basis von V ist, das charakteristische Polynom von ϕ.
Bemerkung 2.5 Es seien A ∈ M (n, n, K) und ϕ eine lineare Abbildung eines
endlich-dimensionalen K-Vektorraum in sich. Dann gelten:
]
P
A,X = PA
und
Pg
ϕ,X = Pϕ
d.h. die zum charakteristischen Polynom assoziierte Abbildung ist gerade die charakteristische Abbildung.
24
Beweis Das folgt unmittelbar aus [DM A], 3.16.
Formal ändert sich wenig bei der Berechnung des charakteristischen Polynoms im
Vergleich zur charakteristischen Abbildung, aber das charakteristische Polynom
hat eine weitere Struktur, es ist eben ein Polynom.
Proposition 2.6
(i) Es sei A ∈ M (n, n, K). Dann gibt es an−1 , . . . a1 ∈ K so daß gilt:
PA,X = (−1)n X n + an−1 X n−1 + · · · + a1 X + det(A) ,
also ist PA,X ein Polynom vom Grad n mit dem führenden Koeffizienten (−1)n
und absoluten Glied det(A).
(ii) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine
lineare Abbildung. Dann gibt es an−1 , . . . a1 ∈ K so daß gilt:
Pϕ,X = (−1)n X n + an−1 X n−1 + · · · + a1 X + det(ϕ) ,
also gilt für Pϕ,X dasselbe wie in (i).
Beweis Der Beweis von (ii) folgt unmittelbar aus (i).
(i) Man setze A − XIn = (Pi,j ), dann gilt
X
PA,X = det(A − XIn ) =
sgn(π)P1,π(1) · · · Pn,π(n)
π∈Sn
Nun gilt
grad(sgn(π)P1,π(1) · · · Pn,π(n) ) =
n
π(i) = i für alle i
< n sonst
Also gilt
PA,X = (α1,1 − X) · · · (αn,n − X) + Q
wobei Q ein Polynom vom Grad < n ist. Es folgt grad(PA,X ) = n und der führen]
de Koeffizient ist (−1)n . Schließlich gilt P
A,X (0) = det A, also ist das absolute
Glied det(A).
Definition 2.7 Es sei P ∈ K[X] ein Polynom, P 6= 0. Man sagt, P zerfällt in
Linearfaktoren, wenn es a, λ1 , . . . λn ∈ K so gibt, daß gilt:
P = a(X − λ1 ) · · · (X − λn )
25
Beispiele 2.8 Bei der Frage, ob ein Polynom in Linearfaktoren zerfällt, ist oft
die Frage entscheidend, über welchem Körper man ein Polynom betrachtet:
(i) X 2 + 1 ∈ R[X] zerfällt nicht in Linearfaktoren.
(ii) Für X 2 + 1 ∈ C[X] gilt:
X 2 + 1 = (X − i)(X + i)
also zerfällt X 2 + 1 über den komplexen Zahlen in Linearfaktoren.
(iii) Der Fundamentalsatz der Algebra besagt, dass jedes Polynom P ∈
C[X], P 6= 0 in Linearfaktoren zerfällt.
Im folgenden werden mehrfache Nullstellen eines Polynoms eine wichtige Rolle
spielen. Da man die Vielfachheit genau beschreiben muss, definiert man:
Definition 2.9 Es seien K ein Körper, P ∈ K[X], P 6= 0 und λ ∈ K eine
Nullstelle von P . Dann heißt
µ(P, λ) = max{j ∈ N : (X − λ)j teilt P }
die Ordnung der Nullstelle. Wenn λ eine Nullstelle der Ordnung k ist, nennt
man λ auch k-fache Nullstelle von P .
Lemma 2.10 Es seien K ein Körper, P ∈ K[X], P 6= 0 und λ ∈ K eine
Nullstelle von P . Dann gilt k = µ(P, λ) genau dann, wenn es ein Polynom Q ∈
K[X] so gibt, dass gelten:
P = (X − λ)k Q
und
Q(λ) 6= 0
Beweis Wenn λ eine k-fache Nullstelle von P ist, dann gibt es ein Polynom
Q ∈ K[X] so dass gilt P = (X − λ)k Q. Angenommen, Q(λ) = 0, dann ist X − λ
ein Teiler von Q, also gibt es ein Polynom T ∈ K[X] so dass gilt Q = (X − λ)T
und es folgt
P = (X − λ)k Q = (X − λ)k+1 T
und daher ist (X − λ)k+1 ein Teiler von P , im Widerspruch zur Definition.
Umgekehrt gelte P = (X − λ)k Q und Q(λ) 6= 0. Dann gilt k ≤ µ(P, λ). Angenommen, k < µ(P, λ), dann gibt es ein Polynom T ∈ K[X] so dass gilt
(X − λ)k+1 T = P . Es folgt (X − λ)k Q = (X − λ)k+1 T und daraus Q = (X − λ)T .
Also folgt Q(λ) = 0 und daraus ein Widerspruch.
Lemma 2.11 Es seien P ∈ K[X] ein Polynom, P 6= 0 und ν1 , . . . νk die verschiedenen Nullstellen von P . Dann gilt:
µ(P, ν1 ) + · · · + µ(P, νk ) ≤ grad P
Die Gleichheit gilt genau dann, wenn P in Linearfaktoren zerfällt.
Beweis ÜA
26
Proposition 2.12 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung. Dann gilt für alle Eigenwerte λ von ϕ:
dim(Eϕ,λ ) ≤ µ(Pϕ,X , λ)
Beweis Es sei k = dim Eϕ,λ . Man wähle eine geordete Basis (v1 , . . . , vk ) von Eϕ,λ
und ergänze sie zu einer geordneten Basis B = (v1 , . . . , vn ) von V . Dann gilt


λ 0 0 ...
a1,k+1 . . .
a1,n
 0 λ 0 ...
a2,k+1 . . .
a2,n 
 .
.. . .
..
..
.. 
 .

.
.
.
.
. 
 .


ak,k+1 . . .
ak,n 
[ϕ]B =  0 . . . 0 λ


 0 . . . . . . 0 ak+1,k+1 . . . ak+1,n 
 .
..
..
.. 
 ..
.
.
. 
0 ... ... 0
an,k+1 . . .
an,n
und daher
Pϕ,X = det([ϕ]B − XIn )






= det 




λ−X
0 0
...
a1,k+1
0 λ−X
0
...
a2,k+1
..
.. . .
..
..
.
.
.
.
.
0
... 0 λ − X
ak,k+1
0
... ...
0 ak+1,k+1 − X
..
..
..
.
.
.
0
... ...
0
an,k+1
...
...
a1,n
a2,n
..
.






...
ak,n 

...
ak+1,n 
.. 
. 
. . . an,n − X
= (λ − X)k Q
wie man durch mehrfache Entwicklung nach der 1. Spalte sieht. Also ist λ eine
wenigstens k-fache Nullstelle von Pϕ,X .
Satz 2.13 Es sei V ein endlich-dimensionaler K-Vektorraum. Eine lineare Abbildung ist genau dann diagonalisierbar, wenn die beiden folgenden Bedingungen
(gleichzeitig) erfüllt sind:
(i) Das charakteristische Polynom Pϕ,X zerfällt in Linearfaktoren.
(ii) Für jeden Eigenwert λ von ϕ gilt:
dim(Eϕ,λ ) = µ(Pϕ,X , λ)
Beweis Es seien n = dim V und ν1 , . . . , νk die paarweise verschiedenen Eigenwerte von ϕ und es gelte µi = µ(Pϕ,X , νi ) für alle i. Nach [LA], 9.11 ist ϕ genau
dann diagonalisierbar, wenn gilt
dim Eϕ,ν1 + · · · + dim Eϕ,νk = n
27
Nun gilt dim Eϕ,νi ≤ µi für alle i nach 2.12 und aus 2.11 folgt dann
dim Eϕ,ν1 + · · · + dim Eϕ,νk ≤ µ1 + · · · + µk ≤ n
und beide Gleichheiten sind genau dann erfüllt, wenn dim Eϕ,νi ≤ µi für alle i
gilt und wenn µ1 + · · · + µk = n gilt. Die letze Aussage ist nach 2.11 äquivelant
zu (i).
Beispiel 2.14 Man definiere wie in LA1, ÜA 46 die lineare Abbildung ϕ : R3 →
R3 durch


1 0 0
[ϕ] =  0 2 1 
0 0 2
Dann gilt P = Pϕ,X = (1 − X)(2 − X)2 und µ(P, 2) = 1. Andererseits ist Eϕ,1 die
Lösungsmenge des LGS


−1 0 0 0
 0 0 1 0 
0 0 0 0
Da die Koeffizientenmatrix den Rang 1 hat, gilt dim Eϕ,2 = 3 − 2 = 1 und daher
dim Eϕ,2 < µ(P, λ) und ϕ ist nicht diagonalisierbar.
2.13 besagt, dass die Diagonalisierbarkeit einer linearen Abbildung daran hängt,
dass das charakteristische Polynom in Linearfaktoren zerfällt und dass jeder Eigenraum die “richtige” Dimension hat. Also ist es nicht möglich, dass der eine
Eigenraum “zu klein” ist, dass aber ein anderer dann entsprechend “größer” ist,
wie es in [LA], 9.11 noch denkbar ist.
Wenn ϕ nicht diagonalisierbar ist, liegt das entweder daran, dass das charakteristische Polynom nicht in Linearfaktoren zerfällt, oder aber daran, dass es zwar
zerfällt, aber die Summe der Eigenräume zu klein ist. Das erste Problem kann
man dadurch umgehen, dass man Körper betrachtet, in denen jedes Polynom in
Linearfaktoren zerfällt, also z.B. C. Um dem zweiten Problem zu begegnen, vergrössert man die Eigenräume zu den sogenannten Haupträumen. Zunächst einmal
gibt es eine einfache Darstellung von linearen Abbildungen, deren charakteristisches Polynom in Linearfaktoren zerfällt:
Satz 2.15 Es seien V ein endlich-dimensionaler Vektorraum und ϕ : V → V
eine lineare Abbildung. Es gibt genau dann eine geordnete Basis B von V , so
dass [ϕ]B eine obere Dreiecksmatrix ist, wenn Pϕ,X in Linearfaktoren zerfällt.
Beweis Eine Matrix A = (ai,j ) heißt obere Dreiecksmatrix, wenn ai,j = 0 für
alle i > j gilt, d.h. A hat die Form


a1,1 a1,2 a1,3 . . . a1,n
 0 a2,1 a2,3 . . . a1,n 


A =  ..

..
..
.
.
 .

.
.
.
0
0
0 . . . an,n
28
Wenn es also eine geordnete Basis B von V gibt, so dass A = [ϕ]B eine obere
Dreiecksmatrix ist, gilt offenbar
Pϕ,X = (a1,1 − X) · · · (an,n − X)
und Pϕ,X zerfällt in Linearfaktoren. Der Beweis der Umkehrung erfolgt durch
vollständige Induktion nach dim V :
Das Fall dim V = 1 ist klar, die Behauptung gelte für alle W mit dim W =
n − 1 und es sei dim V = n. Da Pϕ,X in Linearfaktoren zerfällt, besitzt ϕ einen
Eigenwert λ1 , es sei v1 ein zugehöriger Eigenvektor. Man ergänze v1 zu einer
geordneten Basis B = (v1 , . . . , vn ) von V und setze W = L({v2 , . . . , vn }) sowie
C = (v2 , . . . , vn ). Dann ist C eine geordnete Basis von W . Man wähle A ∈
M (n − 1, n − 1, K) so dass gilt
λ1 ∗
[ϕ]B =
0 A
Definiert man nun ψ : W → W durch [ψ]C = A, dann gilt
λ1 ∗
[ϕ]B =
0 [ψ]C
Also folgt
Pϕ,X = (λ1 − X) det([ψ]C − XIn−1 ) = (λ1 − X)Pψ,X
Es gelte Pϕ,X = (−1)n (X − λ1 ) · · · (X − λn ), dann folgt Pψ,X = (−1)n−1 (X −
λ2 ) · · · (X − λn ) und daher zerfällt auch Pψ,X in Linearfaktoren. Nach Induktionsannahme gibt es eine geordnete Basis D = (w2 , . . . , wn ) von W so dass [ψ]D
eine obere Dreiecksmatrix ist. Man erhält mit E = (v1 , w2 , . . . , wn ):
λ1 ∗
[ϕ]E =
0 [ψ]D
und das ist eine obere Dreiecksmatrix.
Die darstellende Matrix einer linearen Abbildung, die in 2.15 bewiesen worden
ist, ist natürlich immer noch sehr voll. Um bessere Darstellungen zu bekommen,
formuliert man das Diagonlisierbarkeitskriterium aus LA I noch einmal um:
Proposition 2.16 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung. Weiterhin seien ν1 , . . . , νk die paarweise verschiedenen Eigenwerte von V . Dann ist ϕ genau dann diagonalisierbar, wenn gilt
V = Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk
29
Beweis Für alle i wähle man eine Basis Bi von Eϕ,νi . Wenn ϕ dieser Eigenschaft
genügt, ist B1 ∪ . . . ∪ Bk eine Basis aus Eigenvektoren und ϕ daher diagonalisierbar. Andererseits sei ϕ diagonalisierbar. Dann ist B1 ∪ . . . Bk nach LA I, 9.10
eine linear unabhängige Menge mit dim Eϕ,ν1 + · · · + dim Eϕ,νk = n Elementen.
Wegen B1 ∪ . . . Bk ⊆ Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk folgt daraus dim Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk = n
und daraus V = Eϕ,ν1 ⊕ · · · ⊕ Eϕ,νk .
Die Frage ist nun, wodurch man die Eigenräume ersetzen kann, wenn diese zu
klein sind. Und da gibt es nun eine sehr schöne Idee:
Definition 2.17 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung sowie λ ein Eigenwert von ϕ. Dann heißt
[
Hϕ,λ =
ker(ϕ − λid)k
k∈N
der Hauptraum von ϕ zum Eigenwert λ.
Lemma 2.18 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V →
V eine lineare Abbildung sowie λ ein Eigenwert von ϕ. Dann gibt es ein k ∈ N
so dass gilt:
ker(ϕ−λid) ⊂ ker(ϕ−λid)2 ⊂ . . . ⊂ ker(ϕ−λid)k = ker(ϕ−λid)k+j
für alle i ∈ N
Es gilt also Hϕ,λ = ker(ϕ − λid)k und daher ist Hϕ,λ ein Untervektorraum. Weiterhin gilt ϕ(Hϕ,λ ) ⊆ Hϕ,λ .
Beweis Man setze ψ = ϕ − λid. Offenbar gilt ker ψ r ⊆ ker ψ r+1 für alle r. Es
gelte nun ker ψ r = ker ψ r+1 , dann zeige ich zunächst, dass gilt ker ψ r+1 = ker ψ r+2 :
Offenbar gilt “⊆”, sei v ∈ ker ψ r+2 , dann folgt ψ r+1 (ψ(v)) = 0 und daraus ψ(v) ∈
ker ψ r+1 = ker ψ r , und man erhält ψ r+1 = ψ r (ψ(v)) = 0, d.h. v ∈ ker ψ r+1 .
Da V endlich-dimensional ist, gibt es ein r ∈ N so dass gilt ker ψ r = ker ψ r+1 , es
sei k das kleinste r dieser Art.
Schließlich sei v ∈ Hϕ,λ = ker(ϕ − λid)k , dann folgt (ϕ − λid)(v) ∈ ker(ϕ −
λid)k−1 ⊆ ker(ϕ − λid)k = Hϕ,λ und daraus
ϕ(v) = (ϕ − λid)(v) + λv ∈ Hϕ, λ
Ich werde später zeigen, dass
V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νk
gilt, wenn Pϕ,X in Linearfaktoren zerfällt. Wegen ϕ(Hϕ,νi ) ⊆ Hϕ,νi induziert ϕ
die linearen Abbildungen ϕi : Hϕ,νi → Hϕ,νi definiert durch ϕi (v) = ϕ(v).
30
Sei ν ein Eigenwert von ϕ und es gelte Hϕ,ν = ker(ϕ − νid)k , dann gilt (ϕ −
νid)k (v) = 0 für alle v ∈ Hϕ,ν . Definiert man also ψ : Hϕ,ν → Hϕ,ν durch
ψ(v) = (ϕ − νid)(v), dann gilt ψ k = 0.
Und Abbildungen dieser Art sollen zunächst studiert werden, dabei setzt man wie
üblich für eine Matrix A ∈ M (n, n, K) und eine lineare Abbildung ϕ : V → V :
Ak = A
· · ◦ A}
| ◦ ·{z
k−mal
und
ϕk = ϕ ◦ · · · ◦ ϕ
| {z }
k−mal
sowie
A0 = In
ϕ0 = idV
und
Definition 2.19 Es seien A ∈ M (n, n, K), V ein K-Vektorraum und ϕ : V →
V eine lineare Abbildung. A bzw. ϕ heißt nilpotent, wenn es ein k ∈ N so gibt,
dass gilt Ak = 0 bzw. ϕk = 0. Man nennt k den Nilpotenzgrad von A bzw. ϕ,
wenn Ak−1 6= 0 bzw. ϕk−1 6= 0 gilt.
Beispiel 2.20
(i) Offenbar ist eine lineare Abbildung ϕ : V → V genau dann nilpotent, wenn
[ϕ]B nilpotent ist, wobei B eine geordnete Basis von V ist.
(ii) Man definiere ϕ : K 2 → K 2 durch
[ϕ] =
0 1
0 0
dann gilt [ϕ]2 = 0, also ist ϕ nilpotent.
(iii) Für k ∈ N sei
J(0, k) = (0, et1 , . . . , etn−1 ) ∈ M (k, k, K)
d.h.




J(0, k) = 


0 1
0
..
.
0
..
.
0 0
0 0
0
...
..
.
1
.. ..
.
.
0 0
0 0
Dann ist J(0, k) nilpotent vom Nilpotenzgrad k.
31

0
.. 
. 

0 

1 
0
Beweis (iii) Man setze ϕ = ϕJ(0,k) , dann gilt
0
i=1
ϕ(ei ) =
ei−1 i > 1
Also gilt ϕj (ei ) = 0 für j ≥ i und ϕj (vn ) 6= 0 falls j < k.
Nächstes Ziel ist es zu zeigen, daß man zu jeder nilpotenten linearen Abbildung
ϕ eine geordnete Basis B so finden kann, daß gilt:


J(0, k1 )
0


...
[ϕ]B = 

0
J(0, kr )
Wenn nun sogar [ϕ]B = J(0, n) gilt folgt für B = (v1 , . . . , vn ):
ϕ(v1 ) = 0 , ϕ(v2 ) = v1 , . . . , ϕ(vn ) = vn−1 .
Vektorsysteme dieser Form heißen auch zyklisch. Im allgemeinen Fall setzt sich
B aus Teilen mit dieser Eigenschaft zusammen.
Lemma 2.21 Es seien V ein endlich-dimensionaler Vektorraum und U, W ⊆ V
Untervektorräume so dass gilt U ∩W = {0}. Dann gibt es einen Untervektorraum
Z ⊇ W so dass gilt V = U ⊕ Z.
Genauer gilt: Es seien BU bzw. BW Basen von U bzw. W . Dann sind BU und
BW disjunkt und BU ∪ BW ist linear unabhängig. Wenn dann C ⊆ V eine Basisergänzung ist (d.h. C ∩ (BU ∪ BW ) = ∅ und BU ∪ BW ∪ C ist eine Basis von V ),
kann man Z = L({BW ∪ C}) wählen.
Beweis Es seien BU = {u1 , . . . , ur } und BW = {w1 , . . . , ws }, dann zeige ich
zunächst, dass die Vektoren
u1 , . . . , ur , w1 , . . . , ws
linear unabhängig sind: Es gelte
α1 u1 + · · · + αr ur + β1 w1 + · · · + βs ws = 0
dann folgt
α1 u1 + · · · + αr ur = −β1 w1 − · · · − βs ws ∈ U ∩ W = {0}
(die linke Seite der Gleichung zeigt, dass der Vektor zu U gehört, die rechte, dass
er zu W gehört.) Man erhält
α1 = · · · = αr = −β1 = · · · = −βs = 0
32
und daraus die Zwischenbehauptung.
Man ergänze BU ∪ BW durch die Vektoren c1 , . . . , ct zu einer Basis von V und
setze C = {c1 , . . . , ct } sowie Z = L(BW ∪C). Dann gilt Z ⊇ W und dim Z = s+t
sowie V = U + Z. Schließlich gilt nach der Dimensionsformel ([LA], 4.23)
dim(U ∩ Z) = dim(U + Z) − dim U − dim Z
= dim V − dim U − dim Z
= r + s + t − r − (s + t) = 0
und daher U ∩ Z = {0}.
Lemma 2.22 Es seien V ein endlich-dimensionaler VR, ϕ : V → V linear
und i ∈ N. Weiterhin sei W ⊆ V ein Untervektorraum so dass gilt ker ϕi ⊕
W = ker ϕi+1 . Dann gibt es einen Untervektorraum Z ⊇ ϕ(W ) so dass gilt
Z ⊕ ker ϕi−1 = ker ϕi .
Beweis Wegen W ⊆ ker ϕi+1 gilt ϕ(W ) ⊆ ker ϕi . Nach 2.21 reicht es zu zeigen,
dass gilt ϕ(W ) ∩ ker ϕi−1 = {0}.
Also sei w ∈ W so gewählt, dass gilt ϕ(w) ∈ ker ϕi−1 , dann folgt ϕi (w) = 0 und
daraus w ∈ W ∩ ker ϕi = {0}, also ϕ(w) = 0.
Proposition 2.23 Es seien V ein endlich-dimensionaler Vektorraum und ϕ :
V → V eine nilpotente Abbildung mit dem Nilpotenzgrad k. Dann gibt es Untervektorräume W1 , . . . , Wk von V mit den Eigenschaften
(i) V = W1 ⊕ · · · ⊕ Wk
(ii) ϕ(Wi ) ⊆ Wi+1 für alle i
(iii) ϕ|Wi ist injektiv für i < k.
(iv) Wk = ker ϕ.
Beweis Es gilt ker ϕk−1 ⊆ ker ϕk , man wähle W1 so dass gilt
V = ker ϕk = W1 ⊕ ker ϕk−1
(Die Existenz von W1 folgt aus 2.21 wenn man U = ker ϕk−1 und W = {0} setzt.)
Nach 2.22 gibt es einen Untervektorraum W2 ⊇ ϕ(W1 ) so dass gilt
ker ϕk−1 = W2 ⊕ ker ϕk−2
Induktiv erhält man Untervektorräume Wj so dass gilt ϕ(Wj ) ⊆ Wj+1 und
ker ϕk−j = Wj+1 ⊕ ker ϕk−j−1
33
insbesondere
ker ϕ2 = Wk−1 ⊕ ker ϕ
Also erhält man
V = ker ϕk = W1 ⊕ker ϕk−1 = W1 ⊕W2 ⊕ker ϕk−2 = · · · = W1 ⊕· · ·⊕Wk−1 ⊕ker ϕ
Setzt man also Wk = ker ϕ, dann folgt
V = W1 ⊕ · · · ⊕ Wk
und aus Wk−1 ⊆ ker ϕ2 folgt ϕ(ϕ(Wk−1 )) = {0}, also ϕ(Wk−1 ) ⊆ ker ϕ = Wk .
Da Wi ∩ ker ϕ = {0} für alle i < k gilt, ist ϕ|Wi injektiv.
Satz 2.24 Es seien V ein endlich-dimensionaler VR und ϕ : V → V eine nilpotente Abbildung. Dann gibt es eine geordnete Basis B von V und k1 , . . . , kr ∈ N
so dass gilt


J(0, k1 )
0


...
[ϕ]B = 

0
J(0, kr )
Beweis Nach 2.23 gibt es Untervektorräume W1 , . . . , Wk von V mit den Eigenschaften
(i) V = W1 ⊕ · · · ⊕ Wk
(ii) ϕ(Wi ) ⊆ Wi+1 für alle i
(iii) ϕ|Wi ist injektiv für i < k.
(iv) Wk = ker ϕ
Es sei B1 eine Basis von W1 . Da ϕ|W1 injektiv ist, ist ϕ(B1 ) ⊆ W2 linear unabhängig, also kann man es ergänzen zu einer Basis B2 ⊇ ϕ(B1 ) von W2 . Induktiv
erhält man eine Basis Bi+1 von Wi+1 , indem man ϕ(Bi ) zu einer Basis von Wi+1
ergänzt. Man setze Ci = Bi \ ϕ(Bi−1 ) für i > 1 und C1 = B1 . Dann ist die Menge
(C1 ∪ ϕ(C1 ) ∪ . . . ∪ ϕk−1 (C1 )) ∪ (C2 ∪ ϕ(C2 ) . . . ∪ ϕk−2 (C2 )) ∪ . . .
∪ (Ck−1 ∪ ϕ(Ck−1 )) ∪ Ck
eine Basis von V . Schließlich sei
Ci = {vi,1 , . . . , vi,ri }
dann ordne man diese Basis auf die folgende Weise:
ϕk−1 (v1,1 ), . . . , ϕ(v1,1 ), v1,1 , . . . , ϕk−1 (v1,r1 ), . . . , ϕ(v1,r1 ), v1,r1 ,
ϕk−2 (v2,1 ), . . . , ϕ(v2,1 ), v2,1 , . . . , ϕk−2 (v2,r2 ), . . . , ϕ(v2,r2 ), v2,r2 ,
34
..
.
..
.
..
.
..
.
..
.
..
.
ϕ(vk−1,1 ), vk−1,1 , . . . , ϕ(vk−1,rk−1 ), vk−1,rk−1 , vk,1 , . . . , vk,rk
Wenn B die so geordnete Basis bezeichnet, hat [ϕ]B die geforderte Form.
Die konkrete Berechnung der Darstellung aus 2.24 und einer zugehörigen Basis
kann man nach den vorhergehenden Ergebnissen auf die folgende Weise vornehmen:
(i) Man bestimme nacheinander ker ϕ, ker ϕ2 , . . . , ker ϕk bis ker ϕk = 0 gilt.
(ii) Man wähle eine Basis von D1 von ker ϕk−1 und ergänze sie zu einer Basis von
V = ker ϕk . Die Basisergänzung sei B1 = C1 .
(iii) Falls dim ker ϕk−2 +|B1 | = dim ϕk−1 gilt, wähle man B2 = ϕ(B1 ) und C2 = ∅.
Andernfalls Wähle man eine Basis D2 von ker ϕk−2 und ergänze D2 ∪ ϕ(B1 ) zu
einer Basis B2 von ker ϕk−1 . Man setze weiterhin C2 = B2 \ ϕ(B1 ).
Allgemein gilt:
Wenn B1 , . . . , Br bestimmt sind, und dim ker ϕk−r−1 + |Br | = dim ker ϕk−r gilt,
wähle man Br+1 = ϕ(Br ) und Cr+1 = ∅. Andernfalls wähle man eine Basis Dr+1
von ker ϕk−r−1 und ergänze Dr+1 ∪ ϕ(Br ) zu einer Basis Br+1 von ker ϕk−r . Man
setze Cr+1 = Br+1 \ ϕ(Br ).
Man beachte, dass man zur Bestimmung von Bk , d.h. r = k − 1 eine Basis
Dk von ker ϕk−r−1 = ker ϕk−(k−1)−1 ker ϕ0 = ker id = {0} wählen muss und
ϕ(Dk ) ∪ ϕ(Bk−1 ) zu einer Basis von ker ϕk−r = ker ϕk−(k−1) = ker ϕ ergänzen
muss, d.h im letzten Schritt muss man ϕ(Bk−1 ) zu einer Basis Bk von ker ϕ
ergänzen.
Eine geeignete Basis erhält man dann, wenn man für alle r und alle v ∈ Cr den
“Block” (ϕk−r (v), . . . , ϕ(v), v) betrachtet.
Beispiel 2.25 Man definiere ϕ : R4 → R4

0
1
 −9
9
[ϕ] = 
 −5
5
1 −1
dann erhält man mit dem Gauß-Verfahren:



0
1 0
9
0
1
 −9


0
0
9 0 81 

→
 0
 −5
0
5 0 45 
1 −1 0 −9
1 −1
durch

0
9
0 81 
 ,
0 45 
0 −9


0
0
9


0
0 
0
→
 0
0
0 
1
0 −9
also
ker ϕ = {(0, −9x4 , x3 , x4 )t : x3 , x4 ∈ R}
35
1
0
0
0
0
0
0
0

9
0 

0 
0
und dim ker ϕ = 2. Weiter gilt:



0
0 0
0
 0 −9 0 −81 



[ϕ2 ] = [ϕ]2 = 
 0 −5 0 −45  → 
0
1 0
9
0
0
0
0
0
0
0
1
0
0
0
0

0
0 

0 
9
also
ker ϕ2 = {(x1 , −9x4 , x3 , x4 )t : x1 , x3 , x4 ∈ R}
und daher dim ker ϕ2 = 3. Schließlich gilt ϕ3 = 0.
Offenbar ist
D1 = {e1 , e3 , (0, −9, 0, 1)t }
eine Basis von ker ϕ2 und e2 von diesen Vektoren linear unabhängig. Also kann
man wählen:
C1 = B1 = {e2 }
Weiterhin ist
dim ker ϕ + |B1 | = 2 + 1 = 3 = dim ker ϕ2
als wählt man
B2 = ϕ(B1 ) = {ϕ(e2 )} = {(1, 9, 5, −1)t }
Es gilt
dim dim ker ϕ0 + |B2 | = |B2 | = 1 < dim ker ϕ
und D3 = ∅ ist eine Basis von ker ϕ0 . Also muss man ϕ(B2 ) = {(0, −9, −5, 1)t } zu
einer Basis von ker ϕ erweitert werden. Offenbar gilt e3 ∈ ker ϕ und e3 ist linear
unabhängig von den Vektoren aus ϕ(B2 ). Also kann man B3 = ϕ(B2 ) ∪ {e3 } und
daher C3 = {e3 } wählen.
Damit haben wir:
C1 = {e2 },
C2 = ∅,
C3 = {e3 }
Setzt man schließlich

 
0
1




 −9   9
B = (ϕ2 (e2 ), ϕ(e2 ), e2 , e3 ) = 
 −5  ,  5
1
−1
 
0
0
  1   0
, ,
  0   1
0
0
 
dann gilt

0
 0
[ϕ]B = 
 0
0
1
0
0
0
0
1
0
0

0
0 
0
 = J(0, 3)
0 
0
J(0, 1)
0
36




Korollar 2.26 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung sowie λ ∈ K. Wenn ϕ − λidV nilpotent ist, gilt
Pϕ,X = (−1)n (X − λ)n
Insbesondere gilt Pϕ,X = (−1)n X n , wenn ϕ nilpotent ist.
Beweis Nach 2.24 gibt es eine geordnete Basis B von V so dass gilt


0
 0 0 ∗



[ϕ − λidV ]B =  ..

..
 .

.
0 0 ... 0
Es folgt



[ϕ]B = 

λ
0 λ ∗
..
..
.
.





0 0 ... λ
und daraus



Pϕ,X = 

λ−X
0
λ−X ∗
..
...
.
0
0
... λ − X



 = (λ − X)n = (−1)n (X − λ)n

Im folgenden wird häufiger der Fall vorliegen, dass eine lineare Abbildung ϕ :
V → V einen Untervektorraum M ⊆ V in sich abbildet. In diesem Fall induziert
ϕ eine lineare Abbildung von M in sich. Es lohnt sich, für diesen Tatbestand eine
eigene Notation einzuführen:
Definition 2.27 Es seien V ein K-Vektorraum und ϕ : V → V eine lineare
Abbildung. Ein Untervektorraum M ⊆ V heißt ϕ-invariant wenn gilt ϕ(M ) ⊆
M . Wenn M ein ϕ-invarianter Unterraum von V ist, definiere man
ϕM : M −→ M
durch ϕM (v) = ϕ(v) für alle v ∈ M .
Lemma 2.28 Es seien V ein endlich-dimensionaler Vektorraum und ψ : V → V
eine lineare Abbildung. Weiterhin seien W, Z ⊆ V Untervektorräume, die ψinvariant sind. Es gelte V = W ⊕ Z. Dann gilt
Pψ,X = PψW ,X PψZ ,X
37
Beweis Man wähle geordnete Basen C = (w1 , . . . , wr ) und D = (zr+1 , . . . , zn )
von W bzw. Z. Dann gilt für B = (w1 , . . . , wr , zr+1 , . . . , zn ):
[ψW ]C
0
[ψ]B =
0 [ψZ ]D
und daher
Pψ,X
[ψW ]C − XIr
0
= det
0
[ψZ ]D − XIn−r
= det(ψW ]C − XIr ) det([ψZ ]D − XIn−r )
= PψW ,X PψZ ,X
Dabei ist die letzte Gleichung eine ÜA.
Proposition 2.29 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ :
V → V eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Dann gelten:
(i) Hϕ,λ ist ϕ-invariant und es gibt einen ϕ-invarianten Unterraum W ⊆ V so
dass gilt
V = Hϕ,λ ⊕ W
(ii) (ϕ − λid)|W ist injektiv.
(ii) dim Hϕ,λ = µ(Pϕ,X , λ)
Beweis
(i) Man setze ψ = ϕ − λ idV . Nach 2.18 gibt es ein k ∈ N so dass für alle j ∈ N
gilt
ker ψ k = ker ψ k+j
für alle j ∈ N
Man setze W = ψ k (V ). Zur Abkürzung setze man weiterhin H = Hϕ,λ . Ich zeige
zunächst, dass H ∩ W = {0} gilt:
Es sei w ∈ H ∩ W , dann gibt es ein v ∈ V so dass gilt w = ψ k (v). Es folgt
0 = ψ k (w) = ψ 2k (v) und daraus v ∈ ker ψ 2k = ker ψ k und daraus w = ψ k (v) = 0.
Man erhält
dim(H + W ) = dim H + dim W − dim(H ∩ W ) = dim ker ψ k + dim ψ k (V ) = dim V
und daraus V = Hϕ,λ ⊕ W .
(ii) Es sei v ∈ W ∩ ker ϕ, dann gibt es ein k ∈ N so dass gilt v = ψ k (w). Es folgt
0 = ψ(v) = ψ(ψ k (w)) = ψ k+1 (w) = ker ψ k
und daraus w ∈ W ∩ ker ψ k = W ∩ H, also w = 0 und daraus v = ψ(w) = 0.
38
(iii) Nach 2.28 gilt
Pϕ,X = PϕH ,X PϕW ,X
und da ϕH − λidH = ψH nilpotent ist, gilt PϕH ,X = (−1)m (X − λ)m nach 2.26,
dabei sei m = dim H. Man erhält
Pϕ,X = (−1)m (X − λ)m PϕW ,X
Angenommen, es gilt PϕW ,X (λ) = 0, dann ist λ ein Eigenwert von ϕW und und
daher ist ϕW nicht injektiv, im Widerspruch zu (ii). Also gilt dim H = m =
µ(Pϕ,X , λ).
Satz 2.30 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine
lineare Abbildung und Pϕ,X zerfalle in Linearfaktoren. Weiterhin seien ν1 , . . . , νr
die verschiedenen Eigenwerte von ϕ. Dann gilt
V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νr
Beweis Durch vollständige Induktion nach dim V . Für dim V = 1 ist nichts zu
beweisen, die Behauptung gelte für alle Vektorräume mit einer Dimension < n.
Es gelte dim V = n und es sei ν1 ∈ K ein Eigenwert von ϕ. Nach 2.29 gibt es
einen ϕ-invarianten Untervektorraum W ⊆ V so dass gilt V = Hϕ,ν1 ⊕ W . Man
setze wieder H = Hϕ,ν1 , dann gilt V = H ⊕ W und aus 2.28 folgt dann
Pϕ,X = PϕH ,X PϕW ,X
Da ϕH − ν1 idH nilpotent ist, folgt aus 2.26 dass PϕH ,X = (−1)m (X − ν1 )m mit
m = dim H gilt, und aus 2.29 folgt m = µ(Pϕ,ν1 ). Man erhält
Pϕ,X = (−1)m (X − ν1 )m PϕW ,X
Es gelte
Pϕ,X = (−1)n (X − ν1 )α1 · · · (X − νr )αr
dann folgt
Pϕ,X = (−1)n (X − ν1 )α1 · · · (X − νr )αr = (−1)m (X − ν1 )m PϕW ,X
Nach 2.29 gilt α1 = m und man erhält
PϕW ,X = (−1)n−m (X − ν2 )α2 · · · (X − νr )αr
also zerfällt PϕW ,X in Linearfaktoren und aus der Induktionsannahme folgt
W = HϕW ,ν2 ⊕ · · · ⊕ HϕW ,νr
39
Nun gilt für alle j ≥ 2 offenbar HϕW ,ν2 ⊆ Hϕ,ν2 . Andererseits gilt nach 2.29:
dim HϕW ,νj = µ(PϕW ,νj ) = αj = µ(Pϕ , νj ) = dim Hϕ,νj
und man erhält, dass HϕW ,νj = Hϕ,νj gilt. Dies impliziert W = Hϕ,ν2 ⊕ · · · ⊕ Hϕ,νr
und schließlich
V = Hϕ,ν1 ⊕ W = Hϕ,ν1 ⊕ Hϕ,ν2 ⊕ · · · ⊕ Hϕ,νr
Definition 2.31 Für k ∈ N und λ ∈ K sei
J(λ, k) = J(0, k) + λIk ∈ M (k, k, K)
d.h.


... 0
. . . .. 

. 
 0 λ 1
 . . .

.
J(λ, k) =  .. .. . . . . 0 


 0 0 0
λ 1 
0 0 0
0 λ
λ 1
0
Man nennt J(λ, k) Jordan-Matrix der Ordnung k mit dem Eigenwert λ.
Satz 2.32 (Jordansche Normaldarstellung) Es seien V ein endlich-dimensionaler
K-Vektorraum und ϕ : V → V eine lineare Abbildung so daß Pϕ,X in Linearfaktoren zerfällt. Dann gibt es eine geordnete Basis B von V und k1 , . . . kr in N
sowie λ1 , . . . λr ∈ K so daß gilt:


J(λ1 , k1 )
0


..
[ϕ]B = 

.
0
J(λr , kr )
Man sagt in diesem Fall, daß [ϕ]B Jordansche Normalform hat.
Beweis Es seien ν1 , . . . , νs die verschiedenen Eigenwerte von ϕ. Dann gilt nach
2.30:
V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νs
Nach 2.29 sind alle Haupträume ϕ-invariant, man setze Hj = Hϕ,λj und ϕj = ϕHj
für alle j = 1, . . . , s. Dann sind alle ϕj − λj idHj nilpotent, also gibt es nach 2.24
geordnete Basen Bj von Hj so dass gilt


J(0, kj,1 )
0


..
[ϕj − λj idHj ]Bj = 

.
0
J(0, kj,rj )
40
Es folgt

J(λj , kj,1 )
0
..

[ϕj ]Bj = 


.
0

J(λj , kj,rj )
und daher leistet B = (B1 , . . . , Br ) das Gewünschte.
Bemerkung 2.33 Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ :
V → V eine lineare Abbildung, λ ∈ K ein Eigenwert von ϕ und es gelte dim Eϕ,λ =
µ(Pϕ,X , λ). Dann gilt
Hϕ,λ = Eϕ,λ = ker(ϕ − λid)
Insbesondere gilt Eϕ,λ = Hϕ,λ wenn λ eine einfache Nullstelle von Pϕ,X ist, d.h.
wenn µ(Pϕ,X , λ) = 1 gilt.
Beweis Dies folgt mit 2.29(iii) direkt aus Eϕ,λ ⊆ Hϕ,λ und dim Hϕ,λ = µ(Pϕ,X , λ) =
dim Eϕ,λ .
Es sei ϕ : V → V eine lineare Abbildung. Die Berechung einer geordneten Basis
B von V so dass [ϕ]B eine Jordansche Normaldarstellung ist, erfolgt in mehreren
Schritten:
1. Schritt Man berechnet das charakteristische Polynom Pϕ,X und die paarweise
verschiedenen Nullstellen ν1 , . . . , νs . Wenn Pϕ,X in Linearfaktoren zerfällt, führt
man für alle ν ∈ {ν1 , . . . , νs } die folgenden Schritte durch:
2. Schritt Man setzt ψ = ϕ − νid und berechnet die Kerne ker ψ, ker ψ 2 , . . ., bis
dim ker ψ k = µ(Pϕ,X , ν) gilt. Dann folgt Hϕ,ν = ker ψ k = ker(ϕ − νid)k .
3. Schritt H = Hϕ,ν ist ϕ-invariant und man kann ϕH betrachten. Dann ist
ψH = ϕH − νidH nilpotent man bestimmt mit den Methoden von 2.24 eine
geordete Basis B von H so dass [ϕH − νidH ] eine Jordansche Normaldarstellung
ist. Wenn man die so erhaltenen Basen “zusammensetzt” erhält man eine Basis
mit den gesuchten Eigenschaften.
Beispiel 2.34 Man definiere ϕ : R4 → R4

1 0
 0 0
[ϕ] = 
 0 0
0 0
durch
1. Schritt Es gilt

1−X
0
0
1
 0
−X
0
0
Pϕ,X = det 
 0
0 1−X
1
0
0
0
1−X
41
0
0
1
0

1
0 

1 
1


 = (1 − X)3 (−X) = X(X − 1)3

Also sind die Eigenwerte ν1 = 0 und ν2 = 1. Es gilt µ(Pϕ,X , 0) = 1 und
µ(Pϕ,X , 1) = 3.
a) ν = 0. Dann folgt aus 2.33, dass gilt
Hϕ,0 = Eϕ,0 = ker(ϕ − 0)1 = ker ϕ
und man muss eine Basis B1 =
erhält man:

1
 0
[ϕ − 0 idH ] = 
 0
0
C1 von Eϕ,0 finden. Mit dem Gauß-Verfahren
0
0
0
0
0
0
1
0


1

0 
→

7

1 
1
1
0
0
0
0
0
0
0
0
0
1
0

0
0 

0 
1
Also gilt
Hϕ,0 = Eϕ,0 = {(0, x, 0, 0)t : x ∈ R}
und man kann C1 = {e2 } = {(0, 1, 0, 0)t } wählen.
b) ν = 1, jetzt setze man ψ = ϕ − 1 · id = ϕ − id.
2. Schritt Es gilt



0
0 0 1
 0 −1 0 0 

→

[ψ] = 
7
 0

0 0 1 
0
0 0 0

0
0 0 1
0 −1 0 0 

0
0 0 0 
0
0 0 0
Also gilt
ker ψ = {(x1 , 0, x3 , 0)t : x1 , x3 ∈ R}
und
D1 = {e1 , e3 }
ist eine Basis von ker ψ.
Weiter gilt

0

0
[ψ 2 ] = [ψ]2 = 
 0
0
0
1
0
0
0
0
0
0

0
0 

0 
0
und daher
ker ψ 2 = {x1 , 0, x3 , x4 )t : x1 , x3 , x4 ∈ R}
Da offenbar dim ψ 2 = 3 = µ(Pϕ,X , 1) gilt, folgt
Hϕ,1 = ker ψ 2 = ker(ϕ − id)2
42
3. Schritt Es gilt k = 2. Dann muss man D1 zu einer Basis von ker ψ 2 erweitern.
Offenbar ist D1 ∪ {e4 } = {e1 , e3 , e4 } eine Basis von ker ψ 2 . Also kann man C1 =
{e4 } und B1 = C1 wählen. Weiterhin gilt
ψ(B1 ) = {ψ(e4 )} = {(1, 0, 1, 0)t }
und man muss diese Menge zu einer Basis von ker ψ erweitern. Offenbar ist B2 =
{(1, 0, 1, 0)t , e1 } eine Basis von ker ψ und man kann C2 = {e1 } wählen. Dann ist
C1 ∪ ψ(C1 ) ∪ C2 = {e4 , (1, 0, 1, 0)t , e1 }
eine Basis von Hϕ,1 und mit
B = (e2 , (1, 0, 1, 0)t , e4 , e1 )
gilt

0
 0
[ϕ]B = 
 0
0
0
1
0
0
0
1
1
0



0
J(0, 1)
0
0

0  

0
J(1, 2)
0
=
0 
0
0
J(1, 1)
1
Die Frage nach der Eindeutigkeit der Darstellung in Jordanscher Normalform hat
eine überraschend einfache Antwort. Da jede Permutation der Reihenfolge der
Jordan-Matrizen wieder eine Jordansche Normaldarstellung ist, ist zu klären, ob
die Anzahl der Jordan-Matrizen J(λ, k) für alle λ und alle k eindeutig bestimmt
ist. Und diese Eindeutigkeit folgt aus einer ganz einfachen Überlegung:
Lemma 2.35 Es sei k ∈ N, dann gilt für alle r ∈ N0 :
k−r : r ≤k
r
rg J(0, k) =
0
: r≥k
und für alle r ∈ N:
r−1
rg J(0, k)
r+1
+ rg J(0, k)
r
− 2 rg J(0, k) =
1 : r=k
0 : sonst
Beweis Man setze A = J(0, k) und ϕ = ϕA , dann gilt ϕ(e1 ) = 0 und ϕ(ej ) = ej−1
für alle j ≥ 2. Also ist {e1 , . . . , ek−1 } eine Basis von ϕ(K k ), {e1 , . . . , ek−2 } eine
Basis von ϕ2 (K k ) und induktiv erhält man die erste Behauptung.
Es folgt
r+1
rg A
k−r−1 : r ≤k−1
0
: r ≥k−1
=
und daraus
r
r+1
rg A − rg A
=
43
1 : r ≤k−1
0 : r≥k
Wenn man r durch r − 1 ersetzt ergibt dies:
1 : r≤k
r−1
r
rg A
− rg A =
0 : r ≥k+1
Schließlich erhält man:
r−1
(rg A
r
r
r+1
− rg A ) − (rg A − rg A
)=
1 : r=k
0 : sonst
Proposition 2.36 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V eine lineare Abbildung. Weiterhin seien B eine geordnete Basis von V
und k1 , . . . kr in N sowie λ1 , . . . λr ∈ K so daß gilt:


J(λ1 , k1 )
0


...
[ϕ]B = 

0
J(λr , kr )
Schließlich sei N (λ, k) für alle Eigenwerte λ von ϕ und alle k ∈ N die Anzahl der
k × k-Jordan-Matrizen mit dem Eigenwert λ in dieser Darstellung. Dann gilt:
N (λ, k) = rg(ϕ − λid)k−1 + rg(ϕ − λid)k+1 − 2 rg(ϕ − λid)k
Beweis Für alle λ ∈ K gilt:

J(λ1 − λ, k1 )

0
...

[ϕ − λid]B = 
J(λr − λ, kr )
0


und für alle k ∈ N folgt:

J(λ1 − λ, k1 )k
0
..

[(ϕ − λid)k ]B = [(ϕ − λid)]kB = 
0
.
J(λr − λ, kr )k



Daraus folgt unmittelbar:
rg(ϕ − λid)k = rg J(λ1 − λ, k1 )k + · · · + rg J(λr − λ, kr )k
Dies ergibt schließlich
rg(ϕ − λid)k+1 + rg(ϕ − λid)k−1 − 2 rg(ϕ − λid)k =
= rg J(λ1 − λ, k1 )k+1 + rg J(λ1 − λ, k1 )k−1 − 2 rg J(λ1 − λ, k1 )k
..
..
..
.
.
.
+ rg J(λr − λ, kr )k+1 + rg J(λr − λ, kr )k−1 − 2 rg J(λr − λ, kr )k
= N (λ, k)
44
Satz 2.37 Die darstellende Matrix einer lineare Abbildung in Jordanscher Normalform ist bis auf die Reihenfolge der Jordan-Matrizen eindeutig bestimmt.
Bemerkung 2.38 Es seien V ein n-dimensionaler K-Vektorraum, ϕ : V → V
eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Für ein k ∈ N gelte
rg(ϕ − λ id)k = n − µ(Pϕ,X , λ)
Dann folgt
rg(ϕ − λ id)k+j = rg(ϕ − λ id)k
für alle j ∈ N
N (λ, k + j) = 0
für alle j ∈ N
und insbesondere
Beweis Es gilt ker(ϕ − λ id)k ⊆ Hϕ,λ . Aus dem Rangsatz und 2.29 folgt
dim ker(ϕ − λ id)k = n − rg(ϕ − λ id)k = µ(Pϕ,X ) = dim Hϕ,λ
und daraus ker(ϕ − λ id)k = Hϕ,λ . Es folgt die erste Behauptung. Weiterhin gilt
für alle j ∈ N
N (λ, k + j) = rg(ϕ − λid)k+j−1 + rg(ϕ − λid)k+j+1 − 2 rg(ϕ − λid)k+j
= rg(ϕ − λid)k + rg(ϕ − λid)k − 2 rg(ϕ − λid)k = 0
Wenn man also 2.36 anwenden will, muss man nach 2.38 für alle Eigenwerte λ die
Werte von rg(ϕ−λ id)1 , . . . , rg(ϕ−λ id)k so lange ausrechnen, bis rg(ϕ−λ id)k =
n − µ(Pϕ,X , λ) gilt. Die Ränge bleiben dann konstant und es gibt keine JordanMatrizen mit dem Eigenwert λ und einer Ordnung > k in der Darstellung.
Beispiel 2.39 Man definiere wie in 2.34 ϕ : R4 → R4 durch


1 0 0 1
 0 0 0 0 

[ϕ] = 
 0 0 1 1 
0 0 0 1
Dann gilt
P = Pϕ,X = X(X − 1)3
und daher µ(P, 0) = 1 und µ(P, 1) = 3.

1 0 0
 0 0 0
[ϕ − 0 idH ] = 
 0 0 1
0 0 0
Aus


1

0 
 7→ 

1 
1
45
1
0
0
0
0
0
0
0
0
0
1
0

0
0 

0 
1
folgt
rg(ϕ − 0 · id) = 3 = 4 − µ(Pϕ,X , 0)
Aus 2.38 folgt dann N (0, k) = 0 für alle k ≥ 2 und
4 : k=0
k
rg(ϕ − 0 · id) =
3 : k≥1
Also
N (0, 1) = rg(ϕ − 0 · id)0 + rg(ϕ − 0 · id)2 − 2 rg(ϕ − 0 · id)1 = 4 + 3 − 6 = 1
Weiterhin gilt:



0
0 0 1
 0 −1 0 0 

→
[ϕ − 1 · id] = 
7 
 0


0 0 1
0
0 0 0
und daher rg(ϕ − 1 · id) = 2. Weiterhin gilt

0

0
[(ϕ − 1 · id)2 = 
 0
0
0
1
0
0
0
0
0
0

0
0 0 1
0 −1 0 0 

0
0 0 0 
0
0 0 0

0
0 

0 
0
und daher
rg(ϕ − 1 · id)2 = 1 = 4 − µ(Pϕ,X , 1)
also

 4 : k=0
k
2 : k=1
rg(ϕ − 1 · id) =

1 : k≥2
Man erhält daraus:
N (1, 1) = rg(ϕ − 1 · id)0 + rg(ϕ − 1 · id)2 − 2 rg(ϕ − 1 · id)1 = 4 + 1 − 4 = 1
N (1, 2) = rg(ϕ − 1 · id)1 + rg(ϕ − 1 · id)3 − 2 rg(ϕ − 1 · id)2 = 2 + 1 − 2 = 1
und daher ist

0
 0

 0
0
0
1
0
0
0
0
1
0



0
J(0, 1)
0
0

0  

0
J(1, 1)
0
=
1 
0
0
J(1, 2)
1
eine darstellende Matrix in Jordanscher Normalform.
46
Proposition 2.40 Es seien K ein Körper und A ∈ M (n, n, K) eine Matrix
so dass PA,X in Linearfaktoren zerfällt. Dann ist A ähnlich zu einer Matrix in
Jordanscher Normalform.
Beweis Nach 2.32 gibt es eine geordnete Basis B von K n so dass [ϕA ]B Jordansche Normalform hat. Nach [LA, 6.40] sind A = [ϕA ]En und [ϕA ]B ähnlich.
Definition 2.41 Es seien K ein Körper und P = a0 +a1 X +· · ·+an X n ∈ K[X].
(i) Es seien V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann
definiert man P (ϕ) : V → V durch
P (ϕ) = a0 ϕ0 + a1 ϕ + · · · + an ϕn = a0 idV + a1 ϕ + · · · + an ϕn
(ii) Es sei A ∈ M (k, k, K), dann definiere man P (A) ∈ M (k, k, K) durch
P (A) = a0 A0 + a1 A + · · · + an An = a0 Ik + a1 A + · · · + an An
Lemma 2.42 Es seien K ein Körper und P, Q ∈ K[X].
(i) Es seien V ein K-Vektorraum und ϕ : V → V eine lineare Abbildung. Dann
gilt
(P Q)(ϕ) = P (ϕ) ◦ Q(ϕ)
Insbesondere gilt
P (ϕ) ◦ Q(ϕ) = Q(ϕ) ◦ P (ϕ)
(ii) Es sei A ∈ M (k, k, K), dann gilt
(P Q)(A) = P (A)Q(A)
Insbesondere gilt
P (A)Q(A) = Q(A)P (A)
(iii) Es seien V ein endlich-dimensionaler K-Vektorraum, B eine geordnete Basis
von V und ϕ : V → V eine lineare Abbildung. Dann gilt für alle P ∈ K[X]:
[P (ϕ)]B = P ([ϕ]B )
Beweis (i) und (ii) beweist man wohl am einfachsten durch Induktion nach
grad P .
(iii) Es sei P = a0 + a1 X + · · · + an X n dann gilt
[P (ϕ)]B = [a0 ϕ0 + a1 ϕ + · · · + an ϕn ]B
= a0 [ϕ0 ]B + a1 [ϕ]B + · · · + an [ϕn ]B
= a0 Ik + a1 [ϕ]B + · · · + an [ϕ]n
= P ([ϕ]B )
47
Lemma 2.43 Es seien V ein endlich–dimensionaler K-Vektorraum, ϕ : V →
V eine lineare Abbildung und λ ∈ K ein Eigenwert von ϕ. Man setze m =
µ(Pϕ,X , λ), dann gilt
Hϕ,λ = ker(ϕ − λ id)m
Beweis Nach 2.18 gibt es ein k ∈ N so dass für alle j ∈ N gilt
{0} ⊂ ker(ϕ − λ id)1 ⊂ ker(ϕ − λ id)2 ⊂ . . . ⊂ ker(ϕ − λ id)k = ker(ϕ − λ id)k+j
Es folgt dann Hϕ,λ = ker(ϕ − λ id)k sowie dim Hϕ,λ ≥ k. Aus 2.29 erhält man:
m = µ(Pϕ,X , ν) = dim Hϕ,ν = dim ker(ϕ − ν id)k ≥ k
und daraus die Behauptung.
Proposition 2.44
(i) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine
lineare Abbildung, so dass Pϕ,X in Linearfaktoren zerfällt. Dann gilt
Pϕ,X (ϕ) = 0
(ii) Es sei A ∈ M (k, k, K). Wenn PA,X in Linearfaktoren zerfällt, gilt
PA,X (A) = 0
Beweis
(i) Man setze P = Pϕ,X und Hj = Hϕ,νj . Es gelte
P = (−1)n (X − ν1 )m1 · · · (X − νr )mr
mit paarweise verschiedenen ν1 , . . . , νr . Setzt man noch Pj = (X − νj )mj , dann
gilt P = (−1)n P1 · · · Pr . Nach 2.30 gilt
V = Hϕ,ν1 ⊕ · · · ⊕ Hϕ,νr
Also reicht es zu zeigen, dass P (ϕ)(Hj ) = {0} für alle j gilt.
Sei also 1 ≤ j ≤ r, dann gilt µ(Pϕ,X ) = mj und aus 2.43 folgt Hϕ,νj = ker(ϕ −
νj id)mj und daraus (ϕ − νj id)mj (v) = 0 für alle v ∈ Hϕ,νj . Es folgt
Pj (v) = (ϕ − νj id)mj (v) = 0
für alle v ∈ Hϕ,νj
Dies impliziert für alle v ∈ Hj :
(−1)n P (v) = (P1 · · · Pr )(ϕ)(v)
= (P1 · · · Pj−1 Pj+1 · · · Pr Pj )(v)
= P1 (ϕ) ◦ · · · ◦ Pj−1 (ϕ) ◦ Pj+1 (ϕ) ◦ · · · ◦ Pr (ϕ) ◦ Pj (ϕ)(v)
= P1 (ϕ) ◦ · · · ◦ Pj−1 (ϕ) ◦ Pj+1 (ϕ) ◦ · · · ◦ Pr (ϕ)(Pj (ϕ)(v))
= 0
(ii) Es seien P = PA,X und ϕ = ϕA . Dann gilt Pϕ,X = PA,X = P und aus (i) folgt
P (ϕ) = 0. Es folgt 0 = [P (ϕ)] = P ([ϕ]) = P (A).
48
Definition 2.45 Es seien K und L Körper. Eine Abbildung ϕ : K → L heißt
Isomorphismus (genauer: Körperisomorphismus), wenn ϕ bijektiv ist und für
alle x, y ∈ K gelten:
ϕ(x + y) = ϕ(x) + ϕ(y)
und
ϕ(xy) = ϕ(x)ϕ(y)
K und L heißen isomorph, wenn es einen Isomorphismus ϕ : K → L gibt.
Proposition 2.46 Es seien K ein Körper und P ∈ K[X] ein nicht-konstantes
Polynom. Dann gibt es einen Körper L ⊇ K, in dem P eine Nullstelle besitzt.
Beweis Man wähle ein nicht-konstantes Polynom M minimalen Grades, das P
teilt. Dann ist M irredzibel und es reicht die Behauptung für M zu beweisen.
Dann ist L = K[X]/(M ) nach [DM A, 4.9] ein Körper. Man definiere ϕ : K → L
durch ϕ(a) = [a] für alle a ∈ K. Dann ist ϕ injektiv und es gilt ϕ(a + b) =
ϕ(a) + ϕ(b) sowie ϕ(ab) = ϕ(a)ϕ(b) für alle a, b ∈ K. Also ist ϕ(K) ein Körper
und die Abbildung ϕ0 : K → ϕ(K), die jedem a ∈ K das Element ϕ(a) zuordnet,
ein Isomorphismus. Daher kann man ein Elemente a ∈ K mit [a] “identifizieren”.
Auf diese Weise wird K zu einem Unterkörper von L. Sei M = an Y n + · · · + a0 ,
dann gilt
M ([X]) = an [X]n + · · · + a1 [X] + a0 = [an X n + · · · a1 X + a0 ] = [0]
und daher ist [X] eine Nullstelle von P in L.
Proposition 2.47 Es seien K ein Körper und P ∈ K[X] ein nicht-konstantes
Polynom. Dann gibt es einen Körper L ⊇ K, in dem P in Linearfaktoren zerfällt,
d.h. es gibt a, a1 , . . . , an ∈ K so dass gilt
P = a(X − a1 ) · · · (X − an )
Beweis durch vollständige Induktion nach grad P :
Der Fall grad P = 1 ist trivial, die Behauptung gelte für grad P = n − 1. Nach
2.46 gibt es einen Körper L0 ⊇ K so dass P in L0 eine Nullstelle an besitzt. Nach
[DM A, 3.18] gibt es ein Polynom Q ∈ L0 [X] so dass gilt P = (X − an )Q. Wegen
grad Q = n − 1 gibt es nach der Induktionsannahme einen Körper L ⊇ L0 so
dass gilt
Q = a(X − a1 ) · · · (X − an−1 )
mit a, a1 , . . . , an−1 ∈ L. Es folgt
P = a(X − a1 ) · · · (X − an−1 )(X − an )
49
Satz 2.48 (Cayley-Hamilton) Es sei K ein Körper.
(i) Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V eine
lineare Abbildung. Dann gilt
Pϕ,X (ϕ) = 0
(ii) Es sei A ∈ M (k, k, K), dann gilt
PA,X (A) = 0
Beweis
(ii) Es gibt einen Körper L ⊇ K, in dem P = PA,X in Linearfaktoren zerfällt.
Natürlich gilt A ∈ M (k, k, L) und wegen
P = det(A − XIn )
ist das charakteristische Polynom von A über K das charakteristische Polynom
von A über L. Aus 2.44 folgt dann P (A) = 0.
(i) Es seien B eine geordnete Basis von V und A = [ϕ], dann gilt Pϕ,X = PA und
daher Pϕ,X (A) = PA (A) = 0.
[Pϕ,X (ϕ)]B = Pϕ,X ([ϕ]) = PA (A) = 0
und es folgt Pϕ,X (ϕ) = 0.
Satz 2.49 Es sei V ein endlich-dimensionaler C-Vektorraum. Dann gibt es zu
jeder linearen Abbildung ϕ : V → V eine geordnete Basis B so daß [ϕ]B Jordansche Normalform hat. Jede Matrix A ∈ M (n, n, C) ist ähnlich zu einer Matrix in
Jordanscher Normalform.
Beweis Der sogenannte Hauptsatz der Algebra besagt, daß jedes Polynom P ∈
C[X] mit komplexen Koeffizienten in Linearfaktoren zerfällt. Also folgt der Satz
aus 2.32.
In der Theorie der Differentialgleichungen ist der Begriff der Exponentialfunktion
einer Matrix von Interesse. Es sei also A ∈ M (n, n, R), oder besser A ∈ M (n, n, C)
eine reelle bzw. komplexe n × n-Matrix, dann definiert man
∞
X
1 j
A
e = exp A =
j!
j=0
A
Um diesen Begriff zu erklären, muss man natürlich erklären, was es heißt, dass
eine Reihe von Matrizen konvergiert. Aber eine Reihe von Matrizen konvergiert
definitonsgemäß genau dann, wenn die n2 Komponentenreihen konvergieren. Man
überlegt sich relativ leicht, dass die obige Summe für alle Matrizen konvergiert,
und es bleibt die Frage, wie man sie berechnet. Dazu braucht man zunächst zwei
Rechenregeln:
50
(1) Es seien A, B ∈ M (n, n, R) kommutierende Matrizen, d.h. es gelte AB =
BA. Dann folgt
exp( A + B) = eA eB
(2) Es seien A, B ähnliche Matrizen, es gelte B = T −1 AT , dann sind eA und
eB ähnlich, in der Tat gilt
expB = T −1 expA T
Die letzte Aussage folgt übrigens sehr schnell aus der Gleichung
(T −1 AT )n = (T −1 AT )(T −1 AT ) · · · (T −1 AT ) = T −1 An T
Also kann man eA aus eB berechnen, wenn man die Ähnlichkeitstransformation
kennt. Da jede komplexe Matrix ähnlich ist zu einer in Jordanscher Normalform,
berechnet man eB , wenn B Jordansche Normalform hat:


J(λ1 , k1 )
0


..
B=

.
0
J(λs , ks )
Das geht folgendermaßen: Es gilt


exp J(λ1 , k1 )
0


..
eB = exp B = 

.
0
exp J(λs , ks )
Also muss man den Wert der Exponentialfunktion für eine Jordan-Matrix berechnen. Nun gilt ja J(λ, k) = λIk + J(0, k) und weiterhin (λIk )J(0, k) = J(0, k)(λIk )
und daher
exp J(λ, k) = exp(λIk + J(0, k)) = exp(λIk ) exp J(0, k)
nach (1). Weiterhin gilt für alle j
(λIk )j = λj Ik
und daher
exp(λIk ) =
∞
X
(λIk )j
j=1
j!
=
∞
X
λj
j=1
j!
Ik = exp(λ)Ik
Aber J(0, k) ist nilpotent von der Ordnung k und daher gilt J(0, k)k+j = 0 für
alle j ∈ N0 und es folgt
exp J(0, k) =
∞
k−1
X
X
1
1
J(0, k)j =
J(0, k)j
j!
j!
j=0
j=0
51
und daher
exp J(λ, k) = exp(λIk ) exp J(0, k) = eλ
k−1
X
J(0, λ)j
j=0
Nun gilt
1 1!1
 0 1


k−1

X1

j
..
J(0, k) = 
.

j!
j=0



0 0

1
2!
1
1!
...
...
1
(k−2)!
1
(k−3)!
1
(k−1)!
1
(k−2)!
..
.
..
.
..
.
0 ...
0
1











Also kann man die Berechnung von eA auf die Berechnung einiger Werte der reellen oder komplexen Exponentialfunktion reduzieren, wenn man die Jordansche
Normalform und die Transformationsmatrix kennt.
Informationen zu den Übungen und der mündliche Prüfung
Die Klausur zu Lineare Algebra II, Teil 2 findet voraussichtlich am Montag, den
21.06.10 statt.
Die Zulassungsliste für die Klausur werde ich im Netz veröffentlichen, sobald die
Ergebnisse des letzten Übungsblatts vorliegen.
Für die mündlichen Prüfungen der Lehramtskandidat(inn)en biete ich (außer in
Sonderfällen) zwei Termine an: In der Woche nach der Klausur (also in der Woche
vom 28.06.-02.07.) oder in der ersten Woche der Vorlesungszeit des HWS (also
in der Zeit vom 06.09. - 10.09.). Bitte informieren Sie mich per mail darüber, zu
welchem Zeitpunkt Sie geprüft werden wollen.
Am Mittwoch, den 16.06.10, 10:15 - ca. 11:45 Uhr findet eine Zusatzübung statt.
52
Herunterladen