lineare algebra ii - Universität Hamburg

Werbung
LINEARE ALGEBRA II
Ernst Bönecke
Universität Hamburg
Juli 2016
VORWORT
Auch der zweite Teil beginnt mit Themen, die schon aus der Schule bekannt sein dürften: Skalarprodukt und Vektorprodukt im R3 . Es wird aber
schnell allgemeiner: Eigenwerte, orthogonale und unitäre Gruppen sind eher
kein Schulstoff. Das Tensorprodukt wird von vielen Studierenden oft als abstrakt empfunden.
Dem Text liegt in den Paragraphen 6, 7, 8 und 9 das Buch [Fi] von
G.Fischer zugrunde. §6 ist ergänzt durch einen Abschnitt über sphärische
Geometrie, nach dem Buch [Ko] von M.Koecher. Der Paragraph 10 über
klassische Gruppen ist eine Zusammenstellung aus den Büchern [HN] von
J.Hilgert/K.-H.Neeb, [Hei] von W.Hein und einem Vorlesungstext [Ja] von
J.C.Jantzen.
Vorausgesetzt werden die Paragraphen 1 bis 5 aus der Linearen Algebra
I. Erst in §10 werden Kenntnisse aus Topologie und Analysis vorausgesetzt,
wie man sie etwa bei O.Forster, Analysis 2 und 3 ( [Fo2] , [Fo3] ), findet.
Die benutzten Begriffe stehen zwar in §10, aber ohne weitere Beispiele und
Übungsaufgaben kann man diese Kapitel aus der Analysis nicht lernen.
Ich denke, dass dieser Text für Studierende im 2.Semester gut lesbar ist,
und viele Ergänzungen bringt, für die in einer Vorlesung meist keine Zeit ist.
Hamburg, im Juli 2016
1
Inhaltsverzeichnis
§6
Vektorräume mit Skalarprodukt
6.1
6.2
6.3
6.4
6.5
6.6
Definition und elementare Eigenschaften
Orthonormalbasen
Matrizen Hermitescher Formen
Das Vektorprodukt im R3
Sphärische Geometrie
Aufgaben
4
14
18
21
25
29
§7
Eigenwerte
33
7.1
7.2
7.3
7.4
7.5
7.6
7.7
Beispiele und Definitionen
Das charakteristische Polynom
Diagonalisierung
Potenzen eines Endomorphismus
Das Minimalpolynom einer Matrix
Die Jordansche Normalform
Aufgaben
33
36
42
50
56
59
78
§8
Das Tensorprodukt
82
8.1
8.2
8.3
8.4
Definition und Eigenschaften
Symmetrische und alternierende Tensoren
Tensoralgebra und äußere Algebra
Aufgaben
82
88
93
98
§9
Endomorphismen von Vektorräumen
mit Skalarprodukt
102
9.1
9.2
9.3
9.4
9.5
4
Orthogonale und unitäre Endomorphismen 102
Selbstadjungierte Endomorphismen
115
Hauptachsentransformation
122
Trägheitsgesetz von Sylvester
132
Aufgaben
142
2
§10
Klassische Gruppen
145
10.1
10.2
10.3
10.4
10.5
10.6
10.7
10.8
Einiges zur Topologie im Rn
Die allgemeine lineare Gruppe
Untergruppen von GL(n, R)
Die Struktur von GL(n, R)
Die Struktur von GL(n, C)
Die Quaternionengruppen
Klassische Gruppen als Mannigfaltigkeiten
Aufgaben
145
151
153
155
162
164
171
185
Literaturverzeichnis
189
Verzeichnis der Definitionen
190
3
§6 Vektorräume mit Skalarprodukt
6.1 Definition und elementare Eigenschaften
(6.1.1) Zur Motivation : Schon in Definition 1.4.3 hatten wir für beliebiges n ∈ N das kanonische Skalarprodukt im Rn definiert durch
hx, yi := x1 y1 + . . . + xn yn
für x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Rn .
Zwei Vektoren x, y ∈ Rn wird also ein “Skalar” hx, yi ∈ R zugeordnet. Mit
Hilfe dieses kanonischen Skalarprodukts hatten wir die Norm eines Vektors
x ∈ Rn definiert als
p
hx, xi ,
(∗)
k x k :=
und für x, y ∈ Rn hatten wir Orthogonalität definiert durch
x⊥y
:⇐⇒
hx, yi = 0 .
Mit diesem Beispiel beschäftigen wir uns noch in 6.1.10. Wir wollen aber
allgemein “Skalarprodukte” auf möglicherweise unendlichdimensionalen Vektorräumen definieren. Man braucht so etwas
a) in der Funktionalanalysis (Theorie der Funktionen mit Werten in R) und
damit in der numerischen Mathematik,
b) in der Physik, z.B. bei der mathematischen Formulierung der
Quantentheorie.
Es geschieht deshalb keineswegs (nur) aus Freude an allgemeinen, abstrakten
Strukturen, was wir im Folgenden machen.
Noch etwas: Sehen wir uns die obige Formel (∗) an, so sehen wir: Wenn wir
die Norm eines Vektors x definieren wollen, müssen wir aus hx, xi die Quadratwurzel ziehen können. Wir betrachten daher nicht Vektorräume über
beliebigen Körpern:
Vereinbarung 6.1.2 : In §6 werden wir unter K stets den Körper R der
reellen oder den Körper C der komplexen Zahlen verstehen. Für z ∈ K sei
z das Konjugiert-Komplexe von z , also
z = a − bi für z = a + bi ∈ C mit a, b ∈ R ,
z = z
für z ∈ R .
4
bzw.
Für z ∈ K ist |z| der (reelle oder komplexe) Betrag von z . Für z ∈ K soll
z > 0 stets bedeuten: z ∈ R ∧ z > 0 .
Entsprechend: z ≥ 0
:⇐⇒
(z ∈ R ∧ z ≥ 0).
Definition 6.1.3 : Sei V ein K−Vektorraum (also ein Vektorraum über R
oder C ). Eine Abbildung
s : V × V −→ K
heißt eine Sesquilinearfom (1 12 - fach linear) wenn für alle u, v, w ∈ V und
alle λ ∈ K gilt
(H1)
s(u + v, w) = s(u, w) + s(v, w) ,
s(λu, w) = λs(u, w) ,
d.h. s ist “linear als Funktion des 1.Arguments”, und
(H1)
s(u, v + w) = s(u, v) + s(u, w) ,
s(u, λw) = λs(u, w) ,
d.h. s ist als Funktion des 2.Arguments “nicht so ganz” linear.
s heißt eine Hermitesche Form auf V , wenn zusätzlich für alle u, v ∈ V
gilt
(H2)
s(u, v) = s(v, u) ,
d.h. wenn man die beiden Argumente vertauscht, erhält man das
Konjugiert-Komplexe.
Bemerkung 6.1.4 : Sei s eine Hermitesche Form, dann folgt (H1) bereits
aus (H1) und (H2) :
Seien u, v, w ∈ V und λ ∈ K, dann gilt
(H2)
(H1)
s(u, v + w) = s(v + w, u) = s(v, u) + s(w, u)
=
(H2)
s(v, u) + s(w, u) = s(u, v) + s(u, w) ,
(H2)
(H1)
s(u, λv) = s(λv, u) = λ s(v, u)
=
(H2)
λ s(v, u) = λ s(u, v) .
2
Folgerung 6.1.5 : Ist s eine Hermitesche Form auf einem R-Vektorraum V ,
so lautet (H2) :
∀ u, v ∈ V : s(u, v) = s(v, u) ,
5
und daraus und aus (H1) folgt
∀ u, v ∈ V ∀ λ ∈ R : s(u, λv) = λ s(u, v) .
Man nennt s in diesem Fall deshalb eine symmetrische Bilinearform auf
V .
Bemerkung 6.1.6 : Man möchte, wie im Spezialfall des Rn mit dem
kanonischen Skalarprodukt, die Länge eines Vektors definieren durch
p
kvk :=
s(v, v) .
Wurzeln kann man aber nur aus nichtnegativen , reellen Zahlen ziehen.
Haben wir nun eine Hermitesche Form s auf einem C−Vektorraum V , so
gilt nach (H2) für v ∈ V immerhin
s(v, v)
also s(v, v) ∈ R ,
s(v, v) ,
=
aber das reicht uns nicht:
Definition 6.1.7 : Sei V ein K−Vektorraum und s eine Hermitesche Form
auf V . Gilt
1
(H 3 ) ∀ v ∈ V : s(v, v) ≥ 0 , so heißt s positiv semidefinit . Gilt
2
(H4)
∀ v ∈ V \ {0} : s(v, v) > 0 , so heißt s positiv definit .
Bemerkung 6.1.8 : Jede positiv definite hermitesche Form ist positiv
semidefinit, denn für 0 ∈ V und 0 ∈ K gilt
s(0, 0)
0·0 ,
0
=
=
s(0 · 0, 0)
also nach (H1) :
=
0 · s(0, 0)
=
0 .
Definition 6.1.9 : Sei V ein K−Vektorraum. Eine positiv definite Hermitesche Form s auf V heißt ein Skalarprodukt auf V , und (V, s) heißt,
a) falls K = R ist , ein euklidischer ,
b) falls K = C ist , ein unitärer Vektorraum.
Definition 6.1.10 : Sei n ∈ N , dann definieren wir für
x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Kn :
hx, yi :=
n
X
j=1
6
xj · y j
und nennen h , i das kanonische oder Standard-Skalarprodukt im Kn .
Man sieht, dass für h , i die Regeln (H1) , (H2) erfüllt sind, und wegen
hx, xi =
n
X
xj · xj =
j=1
n
X
|xj |2
j=1
auch (H4). - Es wird damit deutlich, warum man in der Definition von hx, yi
über die yj setzen muss !
ein
Beispiel 6.1.11 : Seien a, b ∈ R , a < b und I[a, b] der C−Vektorraum der
integrierbaren Funktionen f auf dem Intervall
[a, b] := { x ∈ R | a ≤ x ≤ b } , also
f : [a, b] −→ C . Dann setzen wir
s : I[a, b] × I[a, b] −→ C ,
Zb
s(f, g)
f (t) · g(t) dt .
:=
a
s ist eine positiv semidefinite hermitesche Form, denn
Zb
s(f, f )
=
|f (t)|2 dt
≥
0 .
a
s ist aber nicht positiv definit, denn nehmen wir z.B.
1 für x = a
f : [a, b] −→ C , f (x) =
0 für x 6= a
,
so ist f ∈ I[a, b] , denn f ist eine Treppenfunktion, f 6= 0 , aber
Zb
|f (t)|2 dt
=
0 ,
also s(f, f )
=
0 .
a
Was Sie unter einer integrierbaren Funktion zu verstehen haben, lernen Sie
in der Analysis. Sie können darunter etwa “Regelfunktionen” verstehen, wie
in [K1] , aber Sie können auch andere Integralbegriffe zugrunde legen.
Beispiel 6.1.12 : Der Vektorraum C[a, b] aller stetigen, komplexwertigen
Funktionen ist ein Untervektorraum von I[a, b] . Damit ist auch
s : C[a, b] × C[a, b] −→ C ,
7
Zb
s(f, g)
=
f (t) g(t) dt
a
definiert, und s ist ein Skalarprodukt, denn sei f ∈ C[a, b] , f 6= 0 , dann
gibt es ein t0 ∈ [a, b] mit f (t0 ) 6= 0 , also
h
:=
|f (t0 )|2 > 0 .
Auch t 7−→ |f (t)|2 ist stetig, mit Werten in R , und in der Analysis lernt
man, dass es daher ein Intervall [c, d] mit
t0 ∈ [c, d] ⊂ [a, b] gibt und
h
|f (t)|2 ≥
für t ∈ [c, d], c < d, also
2
Rd h
h
dt =
· (d − c) > 0 .
s(f, f ) ≥
2
c 2
|f (t)|2
h
h
2
a
c
t0
d
b
Definition 6.1.13 : Sei V ein K−Vektorraum mit einer positiv semidefiniten hermiteschen Form s . Für v ∈ V nennen wir
p
|| v || :=
s(v, v)
die Norm von v .
Cauchy-Schwarzsche Ungleichung 6.1.14 : Sei V ein K−Vektorraum
8
t
mit positiv semidefiniter Hermitescher Form s . Dann gilt für alle v, w ∈ V :
| s(v, w) |
≤
|| v || · || w || .
Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen.
Beweis : 1) Für alle λ ∈ K gilt, da s positiv semidefinit ist:
0 ≤ s(v − λw, v − λw) = s(v, v) − λ s(w, v) − λ s(v, w) + λλs(w, w) ,
(∗) 0
≤
s(v, v) − λ s(v, w) − λ s(v, w) + λ λ s(w, w) .
a) Gilt s(v, v) = s(w, w) = 0 , so setzen wir
λ
:=
s(v, w)
in (∗) ein :
0 ≤ −s(v, w) s(v, w) − s(v, w) s(v, w) = −2 |s(v, w)|2
,
und wegen | s(v, w) |2 ≥ 0 folgt | s(v, w) | = 0 . Da auch ||v|| = ||w|| = 0
ist, gilt in diesem Fall die Ungleichung.
b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv.
Sei etwa s(w, w) > 0 , dann setzen wir
λ :=
s(v, w)
s(w, w)
in (∗) ein, und multiplizieren mit s(w, w) :
0 ≤ s(v, v)s(w, w) − s(v, w)s(v, w)−s(v, w)s(v, w) + s(v, w)s(v, w) ,
| s(v, w)|2
≤
also
s(v, v) s(w, w) ,
und wir wissen: Wenn R+ = {√x ∈ R | x ≥ 0 } ist, ist die Wurzelfunktion
√
: R+ −→ R+ , x 7−→ x monoton wachsend :
| s(v, w) |
≤
||v|| ||w|| .
2) Ist (v, w) linear abhängig, so gilt
∃ λ ∈ K : v = λw ∨ ∃ λ ∈ K : w = λv
.
Sei etwa v = λw mit λ ∈ K , also
||v||2
=
s(v, v)
|s(v, w)|
=
=
|s(v, w)|
λλs(w, w)
|λ s(w, w)|
=
=
=
(|λ| kwk) · kwk
|λ|2 s(w, w)
|λ| ||w||2 ,
=
=
|λ|2 ||w||2
also
kvk kwk .
2
9
,
Zusatz 6.1.15 : Sei V ein K−Vektorraum mit Skalarprodukt s , und seien
v, w ∈ V mit
|s(v, w)| = kvk · kwk ,
so ist die Familie (v, w) linear abhängig.
Beweis : Sei λ := s(w, w) und µ := −s(v, w) , dann ist λ ∈ R , und
s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµs(v, w) + λµs(w, v)
= kwk4 kvk2 + |s(v, w)|2 kwk2 − kwk2 |s(v, w)|2 − kwk2 |s(v, w)|2
= kwk2 ( kwk2 kvk2 + kvk2 kwk2 − kvk2 kwk2 − kvk2 kwk2 ) = 0 ,
also λv + µw = 0 , da s positiv definit ist. Also ist
a) falls w = 0 ist: (v, w) linear abhängig, und
b) falls w 6= 0 ist: λ = kwk2 6= 0 , also (v, w) linear abhängig.
2
Satz 6.1.16 : Sei V ein K−Vektorraum mit positiv semidefiniter
Hermitescher Form s , und
p
kvk :=
s(v, v) für v ∈ V .
Dann gilt für alle v, w ∈ V und alle λ ∈ K :
(N1’) kvk ≥ 0
(N2)
|| λ v || = |λ| kvk
(N3)
|| v + w || ≤ kvk + kwk (Dreiecksungleichung) .
Ist s sogar positiv definit, so gilt statt (N1’)
⇐⇒ v = 0 ) .
p
Beweis : (N1’) folgt daraus, dassq s(v, v) ≥ 0 ist.
p
p
p
(N2) || λ v || = s(λv, λv) = λ λ s(v, v) = |λ|2 s(v, v) = |λ| kvk .
(N3) || v + w ||2 = s(v + w, v + w) = s(v, v) + s(v, w) + s(w, v) + s(w, w)
(N1)
kvk ≥ 0
∧
( kvk = 0
=
kvk2 + kwk2 + s(v, w) + s(v, w)
=
kvk2 + kwk2 + 2 Re s(v, w) ,
und da für z ∈ C gilt : Re z ≤ |z| :
||v + w||2 ≤ kvk2 + kwk2 + 2 | s(v, w) | , und nach Cauchy-Schwarz:
≤ kvk2 + kwk2 + 2kvk kwk = (kvk + kwk)2 , also
||v + w||
≤
kvk + kwk .
10
(N1)
Ist s positiv definit, so gilt für v 6= 0 : s(v, v) > 0 ,
also
kvk > 0 .
2
Definition 6.1.17 : Ein K−Vektorraum V mit einer Abbildung
k k : V −→ R ,
die die Eigenschaften
(N1) ∀ v ∈ V : (kvk ≥ 0 ∧ (kvk = 0 ⇐⇒ v = 0)),
(N2) ∀ v ∈ V ∀ λ ∈ K : kλvk = |λ| kvk ,
(N3) ∀ v, w ∈ V : kv + wk ≤ kvk + kwk
hat, heißt ein normierter K−Vektorraum .
2
Mit Satz 6.1.16 bekommen wir daher:
Folgerung 6.1.18 : Jeder K−Vektorraum V mit Skalarprodukt s wird ein
normierter K−Vektorraum, wenn man
p
kvk := s(v, v) für v ∈ V setzt.
2
Folgerung 6.1.19 : Sei V ein K−Vektorraum mit positiv semidefiniter
p
Hermitescher Form s und kvk =
s(v, v) für v ∈ V . Dann gilt für alle
v, w ∈ V :
a)
|| v + w ||2 = kvk2 + kwk2 + s(v, w) + s(w, v)
(Satz des Pythagoras) , und
b)
|| v + w ||2 + || v − w ||2 = 2 (kvk2 + kwk2 )
(Parallelogrammgleichung).
Beweis als Übungsaufgabe (6.1).
2
Bemerkung 6.1.20 : Nach Folgerung 6.1.18 wird jeder K−Vektorraum
V mit Skalarprodukt s ein normierter K−Vektorraum, wenn man die Norm
durch
p
(∗)
kvk := s(v, v) für v ∈ V
11
definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K−
Vektorraum, gibt es dann auf V ein Skalarprodukt s , so dass (∗) gilt ? Nach
Folgerung 6.1.19 ist dann klar: Ist || || eine Norm auf V , die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen
normierten K−Vektorraum, in dem die Parallelogrammgleichung nicht gilt,
erhalten Sie als Übungsaufgabe (6.2). Wenn für k k die Parallelogrammgleichung gilt, dann gibt es so ein s, der Beweis benutzt Argumente aus der
Analysis, siehe [ SG ] .
2
Man braucht die Cauchy-Schwarzsche Ungleichung, um Winkel zwischen
Vektoren zu definieren:
Definition 6.1.22 : Sei V ein euklidischer Vektorraum, also ein R−Vektorraum mit Skalarprodukt s . Seien v, w ∈ V \ {0} , dann gilt nach CauchySchwarz:
s(v, w) kvk · kwk ≤ 1 ,
und wegen s(v, w) ∈ R sogar
s(v, w)
kvk · kwk
ϕ
∈
:=
[−1, 1] . Also ist
arccos
s(v, w)
kvk · kwk
definiert, und es gilt ϕ ∈ [0, π] . ϕ heißt der Winkel zwischen den
Vektoren v und w. Wir wollen in diesem Abschnitt keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen.
Wir sehen aber :
ϕ
=
π
2
⇐⇒
s(v, w) = 0 ,
die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C−Vektorraum
Sinn:
Definition 6.1.23 : Sei V ein K−Vektorraum mit Hermitescher Form s .
Zwei Vektoren u, v ∈ V heißen zueinander senkrecht oder orthogonal, in
Zeichen: u⊥v , wenn
s(u, v)
=
0 ist.
12
2
Wir betrachten dazu noch einmal unser
Beispiel 6.1.11: Im C−Vektorraum I[a, b] der integrierbaren Funktionen
f : [a, b] −→ C ,
a, b ∈ R ,
a<b ,
mit
Zb
s(f, g)
f (t) · g(t) dt sei
=
a
fa : [a, b] −→ C ,
fa (t)
:=
1
0
für t = a
für t =
6 a
,
dann gilt für alle g ∈ I[a, b] :
fa (t) · g(t)
fa ⊥ g
=
g(a)
0
s(fa , g)
=
für t = a
für t =
6 a
0 ,
,
also
also
für alle g ∈ I[a, b] , aber fa 6= 0
2
Definition 6.1.24 : Eine Hermitesche Form s auf einem K− Vektorraum
V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der
auf allen w ∈ V senkrecht steht, wenn also gilt
(H3) ∀ v ∈ V : (∀ w ∈ V : s(v, w) = 0 =⇒ v = 0 ) .
Folgerung 6.1.25 : Sei V ein K−Vektorraum mit Hermitescher Form s .
Dann gilt:
s positiv definit ⇐⇒ s nichtausgeartet und positiv semidefinit.
Beweis : “ =⇒ ” : Sei s positiv definit und v ∈ V ein Vektor mit
∀ w ∈ V : s(v, w)
=
0 ,
dann gilt insbesondere
s(v, v)
=
0 ,
also v = 0 . Also ist s nichtausgeartet, und positiv semidefinit nach Folgerung 6.1.8.
“ ⇐= ” : Ist s positiv semidefinit, so gilt für alle v ∈ V :
s(v, v) ≥ 0 ,
und falls v = 0 ist : s(v, v) = 0 .
13
Ist nun v ∈ V mit s(v, v) = 0 , so gilt nach Cauchy-Schwarz für alle w ∈ V :
| s(v, w) |2 ≤ kvk2 kwk2 = s(v, v) s(w, w) = 0 ,
| s(v, w) |
s(v, w)
=
=
0 ,
und damit
für alle w ∈ V
0 ,
also
.
Ist nun s nichtausgeartet, so folgt daraus v = 0 .
2
Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie)
vor:
Beispiel 6.1.26 : Für a = t (a1 , a2 , a3 , a4 ) , b = t (b1 , b2 , b3 , b4 ) ∈ R4 setzt
man
3
X
s(a, b) :=
aj b j − a4 b 4 ,
j=1
dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R4 , die
nicht positiv semidefinit ist.
Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen.
Für a = (0, 0, 0, 1) gilt
s(a, a)
also gelten (H 3
=
−1
<
0 ,
1
) und (H4) nicht. Es gilt aber (H3) , denn sei a ∈ R4 und
2
∀ b ∈ R4 : s(a, b)
=
0 ,
dann gilt insbesondere für die kanonischen Basisvektoren ej , j ∈ 4, des R4 :
s(a, ej )
=
0 und damit a1 = a2 = a3 = −a4 = 0 ,
also a = 0 .
2
In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a4 als Zeit.
6.2 Orthonormalbasen
Definition 6.2.1 : Sei V ein K−Vektorraum mit Skalarprodukt und (vj )j∈J
14
eine Familie von Vektoren aus V , J eine (nicht notwendig endliche) Menge.
Dann heißt die Familie (vj )j∈J
a) ein Orthogonalsystem, wenn
vj ⊥vk für alle j, k ∈ J mit j 6= k ist,
b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und
zusätzlich
||vj || = 1 für alle j ∈ J gilt,
c) eine Orthogonalbasis , wenn sie ein Orthogonalsystem und
eine Basis von V ist,
d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und
eine Basis von V ist.
Beispiel 6.2.2 : Im K−Vektorraum Kn mit dem kanonischen Skalarprodukt h , i ist die kanonische Basis (ej )j∈n eine Orthonormalbasis, denn
es gilt für j, l ∈ n : ej = (δkj )k∈n , also
hej , el i =
n
X
δkj δkl = δlj =
k=1
1
0
für j = l
für j =
6 l
.
Beispiel 6.2.3 : Im K−Vektorraum K[X] aller Polynome mit Koeffizienten
aus K wird durch
Z1
s(f, g) :=
f (t) · g(t)dt
−1
ein Skalarprodukt definiert. Die Legendre-Polynome
Pn (X)
:=
1
Dn (X 2 − 1)n
n!
für n ∈ N0
2n
,
wobei D die formale Ableitung eines Polynoms ist, also
!
n
n−1
X
X
j
D
αj X
=
(j + 1)αj+1 X j für αj ∈ K ,
j=0
j=0
sind Polynome vom Grad n, für jedes n ∈ N0 , und damit sieht man, dass
sie eine Basis von K[X] bilden. (Pn (X))n∈N0 ist sogar eine Orthogonalbasis, denn mit Methoden aus der Analysis (partieller Integration) kann man
zeigen:
Z1
s(Pn , Pm )
=
Pn (t) Pm (t) dt
−1
15
=
0 für n 6= m ,
allerdings keine Orthonormalbasis, denn
s(Pn , Pn )
=
2
2n + 1
.
Nimmt man statt (Pn (X))n∈N0 aber die Familie (Qn (X))n∈N0 , die durch
r
2n + 1
Qn (X) :=
· Pn (X)
2
definiert ist, so ist (Qn (X))n∈N0 sogar eine Orthonormalbasis von K[X].
Bemerkung 6.2.4 : Orthonormalbasen sind sehr praktisch: Ist V ein
K−Vektorraum mit Skalarprodukt s und Orthonormalbasis (vj )j∈n , n ∈ N ,
so hat jedes v ∈ V eine eindeutig bestimmte Darsllung
v =
n
X
mit λj ∈ K ,
λj vj
j=1
und man kann die λj leicht berechnen: Es ist für k ∈ n:
s(v, vk ) = s(
n
X
j=1
λj vj , vk ) =
n
X
n
X
λj s(vj , vk ) =
j=1
λj δjk = λk ,
j=1
also λk = s(v, vk ).
2
Wie kann man sich nun zu einem gegebenem K−Vektorraum V mit Skalarprodukt s eine Orthonormalbasis verschaffen ? Der folgende Satz macht nicht
nur eine Existenz-Aussage, sondern gibt auch ein Verfahren an, wie man so
eine Basis schrittweise konstruieren kann. Man sollte daher den Beweis verstehen:
(6.2.5) Orthonormalisierungssatz von J.Gram und Erhard Schmidt :
Sei V ein K−Vektorraum mit Skalarprodukt s und
dim V = n ∈ N .
Dann lässt sich jedes Orthonormalsystem
(w1 , . . . , wm ) in V
mit 0 ≤ m ≤ n ergänzen zu einer Orthonormalbasis
(w1 , . . . , wm , . . . , wn ) von
16
V
.
Beweis durch Induktion nach k := n − m :
Induktionsanfang : Sei k = 0 , dann ist n = m , und das Orthonormalsystem (wj )j∈n ist bereits eine Basis, denn es besteht aus n Vektoren, und
diese sind linear unabhängig: Aus
n
X
αj wj = 0 mit αj ∈ K folgt für k ∈ n
:
j=1
n
X
0 = s
!
αj wj , wk
=
j=1
n
X
αj s(wj , wk ) =
j=1
n
X
αj δjk = αk
.
j=1
Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen.
Induktionsschluss : Sei k ∈ N0 , und für n − m = k sei der Satz richtig.
Sei nun n − m = k + 1 ∈ N , dann ist
m
=
n − (k + 1)
<
n = dim V ,
für W := span(wj )j∈m gilt dim W ≤ m < n , es gibt also einen Vektor
v∈V
mit v ∈
/ span(wj )j∈m
ṽ
:=
m
P
. Wir setzen
s(v, wj ) · wj
j=1
( ṽ ist die “Projektion von v nach W ”).
x3
v
w
(In der Zeichnung
x2
ist W die (x1 , x2 )−
Ebene und V = R3 .)
ṽ
x1
Der Vektor ṽ liegt in W , und
w
:=
v − ṽ
17
steht auf allen Vektoren aus W senkrecht, denn für k ∈ m gilt
!
m
X
s(w, wk ) = s(v, wk ) − s
s(v, wj )wj , wk
j=1
=
s(v, wk ) −
m
X
s(v, wj ) s(wj , wk )
j=1
s(v, wk ) −
=
m
X
s(v, wj ) · δjk
j=1
=
s(v, wk ) − s(v, wk )
=
0 .
Wegen ṽ ∈ W , v ∈
/ W ist w 6= 0 . Wir können w daher “normieren”: Wir
setzen
wm+1 :=
1
w
kwk
,
dann haben wir ein Orthonormalsystem
(w1 , . . . , wm , wm+1 )
in V ; es ist n − (m + 1) = k , und wenn der Satz für k richtig ist, kann
man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis
(w1 , . . . , wm , wm+1 , . . . , wn ) von V
.
2
Bemerkung : Die für die praktische Rechnung bei der Konstruktion einer
Orthonormalbasis wichtigen Schritte haben wir eingerahmt !
Folgerung 6.2.6 : Jeder endlichdimensionale K−Vektorraum V mit
Skalarprodukt besitzt eine Orthonormalbasis.
Beweis : Die leere Familie (wj )j∈0 ist ein Orthonormalsystem in V , man
kann also den Orthonormalisierungssatz mit m := 0 verwenden.
2
6.3 Matrizen Hermitescher Formen
Definition 6.3.1 : Sei V ein n−dimensionaler K−Vektorraum, n ∈ N ,
18
B = (v1 , . . . , vn ) eine Basis von V ,
und s eine Hermitesche Form auf V , dann nennen wir
MB (s)
:=
(s(vk , vj ))(k,j)∈n×n ∈ M (n × n, K)
die darstellende Matrix von s bezüglich der Basis B .
2
Bemerkung 6.3.2 : Durch MB (s) ist s eindeutig festgelegt, denn seien
v, w ∈ V , dann hat man zu B = (v1 , . . . , vn ) eindeutig bestimmte Vektoren
x = t (x1 , . . . , xn ) , y = t (y1 , . . . , yn ) ∈ Kn
v =
n
X
x k vk
,
n
X
w =
s(v, w) = s
,
also
j=1
k=1
n
X
yj vj
mit
xk vk ,
n
X
!
yj vj
=
n
n
X
X
j=1
k=1
k=1
xk s(vk , vj )yj
.
j=1
Setzen wir
A := MB (s) ,
so wird
s(v, w) = t x · A · y
,
wenn wir unter y den Vektor
y := t (y1 , . . . , yn )
verstehen. Hier ist A nicht irgendeine Matrix aus M (n × n, K) : Da s Hermitesch ist, gilt
s(vk , vj ) = s(vj , vk ) ,
für A = (akj ) = MB (s) also
akj
=
ajk :
Definition 6.3.3 : Eine Matrix A = (akj ) ∈ M (n×n, K) heißt Hermitesch,
wenn
akj = ajk für alle j, k ∈ n , also
A = tA
ist. Ist K = R , so bedeutet das
A
=
t
19
A ,
eine Matrix mit dieser Eigenschaft heißt symmetrisch .
Folgerung 6.3.4 : Wir haben also bewiesen: Ist V ein K−Vektorraum mit
Basis B = (v1 , . . . , vn ) , und s eine Hermitesche Form auf V , so ist die
darstellende Matrix
A
:=
(s(vk , vj )) Hermitesch.
Man sieht sofort, dass umgekehrt jede Hermitesche Matrix A = (akj ) durch
!
n
n
n
X
X
X
s
xk vk ,
y j vj
:=
xk akj yj
k=1
j=1
k,j=1
eine hermitesche Form auf V definiert.
2
Es wäre nun schön, wenn man der darstellenden Matrix MB (s) ansehen
könnte, ob s nichtausgeartet oder sogar positiv definit ist.
Satz 6.3.5 : Eine Hermitesche Form s auf einem endlichdimensionalen
K−Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende
Matrix MB (s) bezüglich einer festen Basis B von V gilt
det MB (s) 6= 0 .
Beweis : Sei (v1 , . . . , vn ) eine Basis von V . Dann gilt:
s ist ausgeartet
⇐⇒ ∃ v ∈ V \ {0} ∀ w ∈ V : s(v, w) = 0
⇐⇒ ∃ v ∈ V \ {0} ∀ j ∈ n : s(v, vj ) = 0.
n
P
und da v =
αk vk mit (α1 , . . . , αn ) 6= 0 ist, gilt:
k=1
s ist ausgeartet
⇐⇒
∃ (α1 , . . . , αn ) 6= 0 ∀ j ∈ n :
n
P
αk s(vk , vj ) = 0
k=1
⇐⇒
⇐⇒
Die Zeilenvektoren von (s(vk , vj )) sind linear abhängig
det(s(vk , vj )) = 0.
2
Zumindest bei R-Vektorräumen mit symmetrischer Bilinearform s kann man
an der Matrix MB (s) auch ablesen, ob s positiv definit ist, das ist das
Hauptminoren- oder Hurwitz-Kriterium, das wir aber erst später beweisen
können.
20
Wir fragen uns, wie sich die darstellende Matrix MB (s) bei einem Basiswechsel verändert :
(6.3.6) Transformationssatz für darstellende Matrizen
Hermitescher Formen:
Sei V ein n−dimensionaler K−Vektorraum mit Hermitescher Form s ,
n ∈ N , und seien
A
=
A0
(a1 , . . . , an ) ,
(a01 , . . . , a0n )
=
zwei Basen von V , dann hat man, wie in Bemerkung 4.4.16:
n
P
∀ j ∈ n : aj =
tkj a0k mit der Transformationsmatrix
k=1
MAA0 ( idV ) =: T = (tkj ) ∈ GL(n, K) ,
∀ j, l ∈ n : s(aj , al )
=
s
also gilt
!
n
n
X
X
tkj a0k ,
trl a0r
r=1
k=1
=
n
n
X
X
k=1
tkj trl s(a0k , a0r )
=
r=1
n
n
X
X
k=1
tkj ·s(a0k , a0r )·trl
,
r=1
und nach Definition des Matrizenprodukts heißt das
MA (s)
=
t
MA (s)
=
t
T · MA0 (s) · T
,
genauer:
MAA0 ( idV ) · MA0 (s) · MAA0 ( idV ) .
(6.3.7) Beachten Sie, dass die Transformationsformel für die Matrix einer
Hermiteschen Form anders ist als die Transformationsformel für die Matrix
linearer Abbildungen: Hat man einen Endomorphismus F : V −→ V und
zwei Basen A, (A)0 von V , sogilt nach 4.4.17 :
0
MAA (F ) = T −1 · MAA0 (F ) · T
mit T := MAA0 ( idV ) ,
dieser kleine Unterschied wird uns noch beschäftigen !
6.4 Das Vektorprodukt im R3
Schon in 1.6.3 hatten wir das Vektorprodukt im R3 definiert. Dem ist nicht
viel hinzuzufügen, da man das Vektorprodukt nicht in anderen Vektorräumen
definieren kann. Aber Determinanten kannten wir damals noch nicht, und da
21
gibt es einige Zusammenhänge:
(6.4.1) Zur Wiederholung : Seien a =t (a1 , a2 , a3 ) , b =t (b1 , b2 , b3 ) ∈ R3 ,
dann war der Vektor
a2 b 2
a1 b 1
a1 b 1
t
det
, − det
, det
∈ R3
a×b :=
a3 b 3
a3 b 3
a2 b 2
das Vektorprodukt von a und b . - Wir hatten das damals natürlich ohne
Determinanten aufgeschrieben. Die Rechenregeln kennen Sie zum Teil:
(6.4.2) Rechenregeln für das Vektorprodukt : Seien a, b, c ∈ R3 , λ ∈ R
und h , i das kanonische Skalarprodukt im R3 . Dann gilt
a) ha × b, ci = det(a, b, c) ,
wobei (a, b, c) die Matrix mit den Spaltenvektoren a, b, c ist,
b) a × b = −(b × a),
c) a × a = 0,
d) a × (b + c) = a × b + a × c ,
e) a × (λb) = λ(a × b) ,
f) ha, a × bi = hb, a × bi = 0 ,
g) a × (b × c) = ha, cib − ha, bic
Grassmann-Identität,
h) a × (b × c) + b × (c × a) + c × (a × b) = 0
Jacobi-Identität,
i) a × b = 0 ⇐⇒ die Familie (a, b) ist linear abhängig.
Beweis : a) Entwicklung von


a1 b 1 c 1
det  a2 b2 c2 
a3 b 3 c 3
nach der 3.Spalte ergibt die Behauptung.
b), c ), f), i) folgen aus a) und daraus, dass det alternierend ist.
d), e) folgen aus der Linearität von det als Funktion der 2.Spalte.
g) Hier muss man einfach stumpfsinnig ausrechnen:
a × (b × c) = a × (b2 c3 − b3 c2 , b3 c1 − b1 c3 , b1 c2 − b2 c1 )
= (a2 (b1 c2 − b2 c1 ) − a3 (b3 c1 − b1 c3 ),
−a1 (b1 c2 − b2 c1 ) + a3 (b2 c3 − b3 c2 ),
a1 (b3 c1 − b1 c3 ) − a2 (b2 c3 − b3 c2 ))
= ((a1 c1 + a2 c2 + a3 c3 )b1 − (a1 b1 + a2 b2 + a3 b3 )c1 ,
(a1 c1 + a2 c2 + a3 c3 )b2 − (a1 b1 + a2 b2 + a3 b3 )c2 ,
(a1 c1 + a2 c2 + a3 c3 )b3 − (a1 b1 + a2 b2 + a3 b3 )c3 )
= ha, cib − ha, bic .
h) Nach g) gilt
a × (b × c) + b × (c × a) + c × (a × b)
22
=
ha, cib − ha, bic + hb, aic − hb, cia + hc, bia − hc, aib
=
0 .
i) folgt wieder aus (6.4.1) und den Regeln für Determinanten.
2
Bemerkung 6.4.3 :Für das Vektorprodukt gilt also das Distributivgesetz
(Regeln d),e)) und statt des Kommutativgesetzes die Regel b). Statt des Assoziativgesetzes hat man für drei Faktoren die Jacobi-Identität, Regel h).
Ein Einselement in (R3 , ×) wird man vergeblich suchen - wegen Regel c).
Nach Definition 4.9.2 ist also (R3 , +, ×, ω) keine (assoziative) R−Algebra.
Man nennt einen Vektorraum mit einer Multiplikation ×, für die das Distributivgesetz und die Regeln c) und h) des vorigen Satzes gelten, eine
Lie-Algebra.
Satz 6.4.4: Für alle a, b, c, d ∈ R3 gilt
ha × b, c × di
=
ha, ci hb, di − hb, ci ha, di .
Beweis : Nach der Grassmann-Identität (6.4.2) g) gilt
ha, cib − hb, cia
c × (b × a) .
=
Wir bilden auf beiden Seiten das Skalarprodukt mit d :
ha, ci hb, di − hb, ci ha, di
=
hc × (b × a), di
(6.4.2) a)
=
det(c, b × a, d)
=
− det(c, d, b × a)
(6.4.2) a)
=
− hc × d, b × ai
=
ha × b, c × di .
2
Satz 6.4.5 : Für alle a, b ∈ R3 gilt
ha, bi2 + ka × bk2
=
kak2 kbk2
.
Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung,
die nur
ha, bi2 ≤ kak2 kbk2
liefert !
Beweis : Setzen wir c := a , d := b in (6.4.4) ein, so erhalten wir
ha × b, a × bi
=
ha, ai hb, bi − hb, ai ha, bi ,
23
also
ka × bk2 + ha, bi2
=
kak2 kbk2
.
2
(6.4.6) Geometrische Deutung des Vektorprodukts : Seien a, b ∈ R3 ,
a, b 6= 0 . Dann gilt
(1) ka × bk = kak kbk sin ϕ , wobei
ϕ der Winkel zwischen a und b ist,
(2) a × b ⊥ a und a × b ⊥ b ,
(3) det(a, b, a × b) ≥ 0 . .
(6.4.5)
Beweis : (1) ka × bk2 = kak2 kbk2 − ha, bi2
=
kak2 kbk2 (1 − cos2 ϕ)
=
kak2 kbk2 sin2 ϕ ,
ϕ ∈ [0, π] ,
(2)
(3)
also sin ϕ ∈ [0, 1] , und damit folgt die Behauptung.
(6.4.2)
ha × b, ai = det(a, b, a) = 0 , entsprechend für b .
(6.4.2)
det(a, b, a × b) = ha × b, a × bi = ka × bk2 ≥ 0 .
2
Ist (a, b) linear unabhängig, so weiß man damit: a×b steht senkrecht auf der
von a und b aufgespannten Ebene im R3 und hat die Norm kak kbk sin ϕ.
(3) macht eine Aussage, in welche Richtung der Vektor a × b zeigt. Man
braucht dazu den Begriff der Orientierung einer Basis des Rn :
Definition 6.4.7 : Sei (b1 , . . . , bn ) eine Basis des Rn . Sie heißt positiv
orientiert , wenn für die Matrix mit den Spaltenvektoren b1 , . . . , bn gilt :
det(b1 , . . . , bn ) > 0 .
Sei T diese Matrix, also tkj die k−te Komponente von bj , so gilt
∀ j ∈ n : bj
=
n
X
tkj ek
,
k=1
T = MKB ( idV ) ist also die in Bemerkung 4.4.16 definierte Transformationsmatrix von der Basis (bj )j∈n zur kanonischen Basis (ek )k∈n . “(bj )j∈n positiv
orientiert” bedeutet dann, dass (bj )j∈n “genauso orientiert” ist wie die kanonische Basis. Speziell im R3 kann man beweisen:
Satz 6.4.8 : Eine Basis (b1 , b2 , b3 ) des R3 ist genau dann positiv orientiert,
24
wenn sie die “Rechte-Hand-Regel” erfüllt : Zeigt b1 in die Richtung des Daumens, b2 in die des Zeigefingers, so zeigt b3 in die Richtung des Mittelfingers
der rechten Hand.
2
Die Regel (6.4.6)(3) sagt dann: Ist (a, b) linear unabhängig, so ist
(a, b, a × b) eine positiv orientierte Basis des R3 , erfüllt also die RechteHand-Regel .
6.5 Sphärische Geometrie
Sie ist für das weitere Verständnis der Linearen Algebra vielleicht nicht
übermäßig wichtig, aber es gehört zur mathematischen Allgemeinbildung,
dass man Entfernungen nicht nur anhand einer Wander- oder Autokarte,
sondern auch insgesamt auf der Erdoberfläche, die man näherungsweise als
Kugeloberfläche ansehen kann, ausrechnen kann. Wir nehmen zunächst mal
die Kugel mit dem Radius 1 :
Definition 6.5.1 : Ein sphärisches Dreieck ist eine positiv orientierte
Basis (a, b, c) des R3 mit
kak = kbk = kck = 1 .
c
γ
A
B
a
β
b
α
C
Als Seiten des Dreiecks (a, b, c) bezeichnet man die Winkel zwischen diesen
Vektoren, im Bogenmaß gemessen, also
A := arccos hb, ci ,
B := arccos ha, ci ,
25
C := arccos ha, bi .
Als Winkel zwischen diesen Seiten bezeichnet man die Winkel zwischen den
durch (a, b) , (b, c) bzw. (a, c) aufgespannten Ebenen, also die Winkel zwischen zwei Vektoren, die auf diesen Ebenen senkrecht stehen:
α
:=
arccos
ha × c, a × bi
ka × ck ka × bk
,
β
:=
arccos
hb × a, b × ci
kb × ak kb × ck
,
γ
:=
arccos
hc × b, c × ai
kc × bk kc × ak
.
Wie in der Geometrie in der Ebene sucht man nun Beziehungen zwischen
A, B, C, α, β, γ , so dass man von diesen sechs Zahlen die restlichen ausrechnen kann, wenn man drei davon kennt. Unsere Regeln für das Vektorprodukt
sind dabei sehr nützlich, z.B. bei
Hilfssatz 6.5.2 : Das sphärische Dreieck (a, b, c) sei wie in 6.5.1 definiert.
Dann gilt
det(a, b, c) = sin α · sin B · sin C .
Beweis : Seien zunächst a, b, c, d ∈ R3 beliebig. Dann gilt nach der Grassmann-Identität 6.4.2 g) :
(a × b) × (c × d)
= < a × b, d > c − < a × b, c > d
und nach Regel (6.4.2) a) ist das gleich
...
=
det(a, b, d) c − det(a, b, c) d .
Also gilt für unser sphärisches Dreieck (a, b, c) :
(a × b) × (a × c)
=
det(a, b, c) a wegen
det(a, b, a) = 0 ,
also
| det(a, b, c)|
=
| det(a, b, c)| kak = k det(a, b, c) ak
= k(a × b) × (a × c)k
(6.4.6)(1)
=
(6.4.6)(1)
=
ka × bk ka × ck · sin α
sin C · sin B · sin α ,
und wegen α, B, C ∈ [0, π] , und da (a, b, c) positiv orientiert ist, folgt
det(a, b, c)
=
sin C · sin B · sin α .
26
2
6.5.3 : Sinus - Satz : Im sphärischen Dreieck, mit den Bezeichnungen aus
6.5.1, gilt
sin α
sin β
sin γ
=
=
.
sin A
sin B
sin C
Beweis : Nach Hilfssatz 6.5.2 gilt
sin α
sin A
=
det(a, b, c)
sin A sin B sin C
,
und das ändert sich nicht, wenn man a, b, c zyklisch vertauscht.
2
Die folgenden beiden Sätze folgen aus den Rechenregeln für das Vektorprodukt :
6.5.4 : 1. Cosinus - Satz : Im sphärischen Dreieck gilt
cos A
=
cos B · cos C + sin B · sin C · cos α
2
6.5.5 : 2. Cosinus - Satz : Im sphärischen Dreieck gilt
sin C · cos B
=
sin B · cos C · cos α + sin A · cos β
.
Beweis als Aufgabe (6.9).
2
6.5.6 : Entfernung auf der Erde : In erster Näherung kann man annehmen, dass die Erde eine Kugel mit dem Radius
R
=
6378km
27
N
P
K
ϕ
λ
Ä
M0
S
ist. Man gibt Punkte P auf dem Breitenkreis K auf der Erde durch zwei Koordinaten an, nämlich die (nördliche bzw. südliche) Breite ϕ , vom Äquator
Ä aus gerechnet, und die (östliche bzw. westliche) Länge λ , gerechnet vom
Nullmeridian M0 .
Länge und Breite werden im Winkelmaß gemessen, z.B.:
Länge
Breite
Berlin
13,4o ö.L.
52,5o n.B.
Madrid
3,8o w.L.
40,4o n.B.
Luanda
3,3o ö.L.
8,9o s.B.
Zählt man südliche Breite und westliche Länge negativ, so ist
−90o ≤ ϕ ≤ 90o und −180o < λ ≤ 180o .
Die Entfernung zwischen zwei Punkten b, c auf der Erde erhält man durch
Betrachtung des durch b, c und den Nordpol a gebildeten sphärischen Dreiecks,
28
a
α
B
C
γ
c
β
b
A
Ä
mit Hilfe des 1. Cosinus - Satzes: Hat b die Koordinaten (λ1 , ϕ1 ) und c die
Koordinaten (λ2 , ϕ2 ) , so ist
B = 90o − ϕ2 ,
C = 90o − ϕ1 , also
cos A = cos(90o − ϕ2 ) cos(90o − ϕ1 ) + sin(90o − ϕ2 ) sin(90o − ϕ1 ) cos(λ2 − λ1 )
cos A
=
sin ϕ1 sin ϕ2 + cos ϕ2 cos ϕ1 cos(λ2 − λ1 )
.
Daraus kann man A im Bogenmaß ausrechnen und muss das Ergebnis noch
mit dem Erdradius multiplizieren; das ist dann die Entfernung zwischen den
Punkten b und c auf der Erdoberfläche.
(6.6) Aufgaben
(6.1) Beweisen Sie die Folgerung 6.1.19 (Satz des Pythagoras und Parallelogrammgleichung).
(6.2) Zeigen Sie, dass durch
kxk := max { |xj | | j ∈ 3 }
für x = t (x1 , x2 , x3 ) ∈ R3
eine Norm auf R3 definiert ist, für die die Parallelogrammgleichung
nicht gilt.
29
(6.3) Sind die folgenden Abbildungen
s : R2 × R2 −→ R
a) bilinear ,
und falls beides zutrifft,
c) positiv semidefinit ,
b) symmetrisch
,
d) ein Skalarprodukt ?
Für a = (a1 , a2 ) , b = (b1 , b2 ) sei s(a, b) :=
α) a1 b2 − a2 b1 ,
β) 2a1 b1 + a1 b2 + a2 b1 + 2a2 b2
.
Falls s ein Skalarprodukt ist, geben Sie zwei Vektoren v, w ∈ R2 an
mit s(v, w) = 0 und s(v, v) = s(w, w) = 1 .
(6.4) Zeigen Sie, dass durch
s(a, b) := a1 b1 +4a2 b2 +3a3 b3 +ia1 b2 −ia2 b1 +a1 b3 +a3 b1 −ia2 b3 +ia3 b2
für a = t (a1 , a2 , a3 ) , b = t (b1 , b2 , b3 ) ∈ C3
ein Skalarprodukt auf C3 definiert ist.
(6.5) Sei V ein K−Vektorraum mit
nichtausgearteter Hermitescher Form s , K = R oder C . Zeigen Sie:
a) Für jedes a ∈ V ist durch
ϕa : V −→ K , ϕa (x) := s(x, a)
eine lineare Abbildung definiert, d.h. es ist ϕa ∈ V ∗ .
b) Ist V endlichdimensional, so ist
ϕ : V −→ V ∗ , ϕ(a) := ϕa
ein “Semi-Isomorphismus” von V auf V ∗ , d.h. ϕ ist bijektiv,
und es gilt für alle a, b ∈ V , α ∈ K :
ϕ(a + b) = ϕ(a) + ϕ(b) , ϕ(α a) = α ϕ(a) .
c) Sei U ein Untervektorraum von V , dann setzt man
U o := { λ ∈ V ∗ | ∀ u ∈ U : λ(u) = 0 } und
U ⊥ := { v ∈ V | ∀ u ∈ U : s(u, v) = 0 } .
⊥
U heißt das orthogonale Komplement von U .
Zeigen Sie : Ist V endlichdimensional, so gibt es einen
Semi-Isomorphismus von U ⊥ auf U o .
(6.6) Sei V ein K−Vektorraum mit Skalarprodukt s , K = R oder C , und
U ein Untervektorraum von V . Dann hatten wir in Aufgabe (6.5) c)
das orthogonale Komplement U ⊥ von U definiert. Zeigen Sie, dass für
30
Untervektorräume U1 , U2 , U von V gilt:
a) (U1 + U2 )⊥ = U1⊥ ∩ U2⊥ und U1⊥ + U2⊥ ⊂ (U1 ∩ U2 )⊥
b) Sei dim V = n ∈ N0 , dann gilt
dim U ⊥ = n − dim U , V = U ⊕ U ⊥ ,
(U ⊥ )⊥ = U und U1⊥ + U2⊥ = (U1 ∩ U2 )⊥ .
(6.7) Sei K ein Körper, n ∈ N . Für eine Matrix
A ∈ M (n × n, K) nennt man
n
P
tr A :=
ajj die Spur von A . Zeigen Sie:
j=1
a) tr : M (n × n, K) −→ K ist K−linear.
b) Für alle A, B ∈ M (n × n, K) gilt
tr (A · B) = tr (B · A) ,
und falls B ∈ GL(n, K) ist , auch
tr (B · A · B −1 ) = tr A .
c) Sei K = R oder C , dann ist durch
s(A, B) := tr (A ·t B)
ein Skalarprodukt auf M (n × n, K) definiert.
d) Die Menge U der Diagonalmatrizen ist ein Untervektorraum von
M (n × n, C). Berechnen Sie das orthogonale Komplement U ⊥ .
(6.8) Sei V die Menge der beschränkten Folgen reeller Zahlen, also
V
=
{ (an )n∈N ∈ F(N, R) | ∃ c ∈ R ∀n ∈ N : |an | ≤ c }
Zeigen Sie :
a) V ist ein R−Vektorraum.
∞ a b
P
n n
2
n=1 n
ist ein Skalarprodukt auf V definiert.
b) Durch s((an )n∈N , (bn )n∈N )
:=
⊂
c) Es gibt einen echten Untervektorraum U von V (also U 6= V )
mit U ⊥ = {0} .
Elementare Kenntnisse über Folgen und Reihen müssen verwendet
werden !
(6.9) Sei (a, b, c) ein sphärisches Dreieck. Zeigen Sie, dass mit den
Bezeichnungen aus Definition 6.5.1 gilt
a) cos A = cos B · cos C + sin B · sin C · cos α ,
b) sin C · cos B = sin B · cos C · cos α + sin A · cos β .
31
.
(6.10) Philadelphia und Peking liegen auf demselben Breitenkreis: 40o n.B.
Ihre Längen sind
Philadelphia : 75o w.L., Peking : 117o ö.L.
Wie groß ist die Strecke (in km, gerundet), die ein Flugzeug von
Philadelphia nach Peking fliegt, wenn es
a) längs des Breitenkreises,
b) über den Nordpol, also längs der Meridiane,
c) auf dem kürzesten Weg fliegt ?
d) Wie groß ist der Startwinkel α zum Breitenkreis in Philadelphia
beim Flug auf der kürzesten Strecke?
Gehen Sie von einer kugelförmigen Erde mit Radius 6378 km aus.
32
§7 Eigenwerte
7.1 Beispiele und Definitionen
Definition 7.1.1 : Sei K ein (beliebiger) Körper und V ein K− Vektorraum. Sei F ein Endomorphismus von V , also F ∈ HomK (V, V ) . Ein
Element λ ∈ K heißt ein Eigenwert von F , wenn es ein v ∈ V \ {0} gibt,
so dass gilt
F (v) = λv .
Jedes von 0 verschiedene v ∈ V , das diese Gleichung erfüllt, heißt ein
Eigenvektor von F zum Eigenwert λ .
(7.1.2) Beachten Sie, dass 0 ∈ K ein Eigenwert sein kann, dass aber
0 ∈ V definitionsgemäß kein Eigenvektor ist !
7.1.3 Beispiele : Sei V := C ∞ (R) der R−Vektorraum aller beliebig oft differenzierbaren Funktionen f : R −→ R, und
a) D : V −→ V , D(f ) := f 0 die Differentiation. D ist R−linear. Man
fragt sich: Gibt es eine Funktion f ∈ C ∞ (R), deren Ableitung proportional
zu f ist, für die also
f0 = λ f
mit einem λ ∈ R gilt ? So eine Funktion kennen Sie:
f (x) := eλx
.
Also ist jedes λ ∈ R ein Eigenwert von D .
b) Auch D2 : V −→ V , D2 (f ) := f 00 ist R−linear. Für λ ≥ 0 sind die
Funktionen f± mit
√
f± (x) := e± λx
Eigenvektoren zum Eigenwert λ. Für λ < 0 sind g1 und g2 ,
√
√
g1 (x) := sin( −λ · x) und g2 (x) := cos( −λ · x)
Eigenvektoren zum Eigenwert λ . Wiederum: Jedes λ ∈ R ist ein Eigenwert
von D2 .
Bemerkung : In den letzten Beispielen war V unendlichdimensional. Wir
wollen erst mal die Theorie für endlichdimensionale Vektorräume kennenlernen. Dazu das folgende Beispiel: Sei
x1
1 0
x1
2
2
F : R −→ R , F
:=
·
,
x2
0 −1
x2
33
dann sehen wir:
F (e1 ) = 1 · e1 : e1
F (e2 ) = −1 · e2 : e2
ist Eigenvektor zum Eigenwert 1 ,
ist Eigenvektor zum Eigenwert
−1 .
2
Wenn die Matrix von F bezüglich einer festen Basis eine Diagonalmatrix ist,
kann man die Eigenwerte besonders leicht ausrechnen :
Definition 7.1.4 : Sei K ein Körper , V ein K−Vektorraum ,
dimK V = n ∈ N und F ein Endomorphismus von V . F heißt
diagonalisierbar, wenn es eine Basis von V gibt, die aus Eigenvektoren von
F besteht.
(7.1.5) Vorsicht: Wenn es eine Basis von V gibt, die aus Eigenvektoren
von F besteht, heißt das nicht, dass jeder Vektor aus V ein Eigenvektor von
F ist, denn eine Linearkombination von Eigenvektoren (zu verschiedenen
Eigenwerten) ist i.A. kein Eigenvektor !
Folgerung 7.1.6 : Ist dimK V = n ∈ N , so ist ein
F ∈ EndK (V ) = HomK (V, V )
genau dann diagonalisierbar, wenn es eine Basis
B = (v1 , . . . , vn ) von V
gibt, so dass MBB (F ) eine Diagonalmatrix ist, also


λ1
0


..
MBB (F ) = 
 mit λ1 , . . . , λn ∈ K
.
0
λn

Beweis : MBB (F )
=
λ1
0
...


0
F (vj ) = λj vj
.


 ist gleichbedeutend mit
λn
für alle j ∈ n .
2
Hilfssatz 7.1.7 : Sei K ein Körper, V ein K−Vektorraum und
F ∈ EndK V. Sind v1 , . . . , vm Eigenvektoren zu paarweise verschiedenen
34
Eigenwerten λ1 , . . . , λm von F , so ist (vj )j∈m linear unabhängig. Insbesondere: Ist dimK V = n ∈ N und hat F n paarweise verschiedene Eigenwerte λ1 , . . . , λn , so ist F diagonalisierbar.
Beweis durch Induktion nach m :
Induktionsanfang : Ist m = 1 , so ist (vj )j∈1 linear unabhängig wegen
v1 6= 0 .
Induktionsschluss : Sei m ∈ N , m ≥ 2 , und für m − 1 sei der Satz richtig.
Sei nun
(∗) α1 v1 + . . . + αm vm = 0
mit α1 , . . . , αm ∈ K , dann gilt
(1) wenn man (∗) mit λm multipliziert:
λm α1 v1 + . . . λm αm vm
=
0 ,
(2) wenn man F auf (∗) anwendet:
α1 λ1 v1 + . . . αm λm vm
m−1
X
=
αj (λj − λm ) vj
0 ,
=
also
0
j=1
und wenn der Satz für m − 1 richtig ist, folgt wegen λj 6= λm :
α1 = . . . = αm−1
=
0 ,
und aus (∗) und vm 6= 0 dann noch
αm
=
0 .
Also ist (v1 , . . . , vm ) linear unabhängig.
2
Satz 7.1.8 : Sei V ein K−Vektorraum mit dimk V = n ∈ N und
F ∈ EndK V . F ist genau dann diagonalisierbar, wenn es zur Matrix
A
=
MAA (F )
bezüglich einer beliebigen Basis A von V eine Matrix S ∈ GL(n, K) gibt,
so dass S −1 · A · S eine Diagonalmatrix ist.
Beweis : “ =⇒ ” : Sei F diagonalisierbar. Dann gibt es nach Definition
7.1.4 eine Basis B von V , so dass
B
MBB (F )
:=
35
eine Diagonalmatrix ist. Sei A = MAA (F ) die Matrix von F bezüglich
der Basis A , dann gibt es nach Bemerkung 4.4.16 (angewendet auf den
Spezialfall V = W ) eine Matrix S ∈ GL(n, K) mit
MBB (F )
=
S −1 · MAA (F ) · S
.
“ ⇐= ”: Sei S ∈ GL(n, K) und S −1 · A · S eine Diagonalmatrix, dann
gehen wir von der Basis A = (ak )k∈n über zur Basis B = (bj )j∈n , die
durch
n
X
bj :=
skj ak mit (skj ) = S
k=1
definiert ist. Nach Bemerkung 4.4.16 ist dann S −1 · A · S die Matrix von F
bezüglich B . Nach Folgerung 7.1.6 ist nun F diagonalisierbar.
2
Definition 7.1.9 : Sei V ein K−Vektorraum, F ∈ EndK V und λ ∈ K.
Dann heißt
Eig(F, λ) := { v ∈ V | F (v) = λ v }
der Eigenraum von F bezüglich λ.
Folgerung 7.1.10 : Sei V ein K−Vektorraum, F ∈ EndK V und λ ∈ K.
Dann gilt
a) Eig(F, λ) ist ein Untervektorraum von V .
b) λ ist ein Eigenwert von F ⇐⇒ Eig(F, λ) 6= {0}.
c) Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zu λ.
d) Eig(F, λ) = ker (F − λ idV ).
e) Für λ1 , λ2 ∈ K mit λ1 6= λ2 gilt Eig(F, λ1 )∩ Eig(F, λ2 ) = {0}.
Beweis : a) - d) folgen unmittelbar aus Definition 7.1.8 .
e) Für v ∈ Eig(F, λ1 )∩ Eig(F, λ2 ) gilt
F (v) = λ1 v
und F (v) = λ2 v
,
also 0 = (λ1 − λ2 )v ,
also v = 0 wegen λ1 6= λ2 .
2
7.2 Das charakteristische Polynom
Bemerkung 7.2.1 : Die Frage ist nun, wie bekommt man die Eigenwerte
eines gegebenen F ∈ EndK V , wenn dimK V = n ∈ N ist. Dann sind für
ein λ ∈ K die Aussagen
36
(i)
λ ist ein Eigenwert von F ,
(ii)
det(F − λ idV ) = 0
gleichbedeutend.
Beweis : Es gilt: λ ist Eigenwert von F
⇐⇒
∃ v ∈ V \ {0} : F (v) = λ v
⇐⇒
∃ v ∈ V \ {0} : (F − λ idV )(v) = 0
⇐⇒ ker (F − λ idV ) 6= {0}
⇐⇒ F − λ idV ist kein Automorphismus von V
(5.4.3)
⇐⇒
det(F − λ idV ) = 0 .
2
Bemerkung 7.2.2 : Im Gegensatz zur Gleichung F (v) = λ v , in der man
λ, aber auch v , nicht kennt, haben wir nun eine Gleichung, in der λ als
einzige Unbekannte vorkommt. λ ist also genau dann Eigenwert von F , wenn
λ eine Nullstelle der Funktion
fF (t) := det(F − t · idV )
P
ist. Nach Definition 5.4.1 rechnet man det(F − t · idV ) aus, indem man für
F zu einer Basis A von V ( es ist egal, welche Basis man nimmt) die Matrix
MAA (F − t · idV ) ausrechnet. Es ist MAA ( idV ) = En , also
MAA (t idV ) = t En , wenn n = dim V ist. Ist A := MAA (F ) , dann ist
det(F − t idV ) = det(A − t En )

a11 − t
a12
a13
 a21
a
−
t
a
22
23


a32
a33 − t
= det  a31

..
..
..

.
.
.
an1
an2
an3
...
...
...
a1n
a2n
a3n
..
.
. . . ann − t







eine Polynomfunktion von t. Besser betrachtet man das entsprechend definierte Polynom:
Definition 7.2.3 : Sei K ein Körper und n ∈ N .
a) Sei V ein K−Vektorraum mit dimK V = n und F ∈ EndK (V ) , so
heißt
PF (X) := det(F − X idV )
das charakteristische Polynom von F .
37
b) Ist A ∈ M (n × n, K) , so heißt λ ein Eigenwert von A , wenn es
ein a ∈ K n \ {0} gibt mit A · a = λ a , und
PA (X)
:=
det(A − X · En )
heißt das charakteristische Polynom der Matrix A und a ein
Eigenvektor von A zum Eigenwert λ.
2
Bemerkungen 7.2.4 :
1) PA (X) ist also die Determinante der Matrix
A − X En ∈ M (n × n, K[X]) ,
also eine Matrix mit Einträgen aus einem kommutativen Ring. Nach
Definition 5.2.1 geht das.
2) Wenn man PA (X) nach der Leibniz-Formel (oder anders) ausrechnet,
erhält man
PA (X) = (a11 − X) · . . . · (ann − X) + g(X) ,
wobei g(X) ein Polynom aus K[X] mit deg g(X) ≤ n − 2 bzw. 0 ist,
und ausmultiplizieren ergibt
PA (X) = (−1)n X n + (a11 + . . . + ann )(−1)n−1 X n−1 +
n−2
X
αk X k ,
k=0
mit αk ∈ K , also ist PA (X) ein Polynom vom Grad n. Den Koeffizienten von X n−1 haben wir gerade ausgerechnet: Er ist
n−1
(−1)
· trA mit trA :=
n
X
akk
,
der Spur von
A.
k=1
Den Koeffizienten α0 erhält man, indem man 0 für X einsetzt:
α0 = PA (0) = det(A − 0 · En ) = det A .
3) Man erhält also die Eigenwerte λ von A, indem man die Nullstellen λ
des charakteristischen Polynoms
PA (X) = det(A − X En ) ∈ K[X]
ermittelt. Da PA (X) ein Polynom vom Grad n ist, kann die Bestimmung der Nullstellen schwierig sein - wenn denn überhaupt Nullstellen
existieren, was z.B. für K = R fraglich ist.
38
4) In 5.4 haben wir gesehen: Ist F ∈ EndK V , so ist
det(F − X idV ) = det(A − X En ) mit A = MAA (F )
davon unabhängig, welche Basis A wir nehmen, wir erhalten in jedem
Fall dieselbe Determinante: Ersetzen wir die Basis A durch die Basis
B, so erhalten wir nach 4.4.17 :
MBB (F ) =: B = S · A · S −1
mit S := MBA ( idV ) ∈ GL(n.K) ,
und man sieht auch hier wie in 5.4.1 :
det(B−X·En ) = det(S·A·S −1 −X·S·En ·S −1 ) = det(S·(A−X En )·S −1 )
= det S · det(A − X En )(det S)−1 = det(A − X En ) .
Man kann das auch so formulieren:
Definition 7.2.5 : Zwei Matrizen A, B ∈ M (n × n, K) heißen ähnlich ,
wenn es ein S ∈ GL(n, K) gibt mit
B = S · A · S −1
.
2
Dann haben ähnliche Matrizen also gleiche Eigenwerte.
Folgerung 7.2.6 : 1) Hat man einen Eigenwert λ einer Matrix
A ∈ M (n × n, K) gefunden, so ist die Berechnung von Eigenvektoren v dazu
einfach:
(A − λEn ) · v = 0
ist ein lineares homogenes Gleichungssystem mit n Gleichungen in den n
Unbekannten v1 , . . . , vn , und wegen det(A − λ En ) = 0 hat dieses Gleichungssystem nichttriviale Lösungen.
2) Hat man ein F ∈ EndK V , dimK V = n ∈ N , und einen Eigenwert λ von
F , und will man einen Eigenvektor v ∈ V zu λ bestimmen, so wählt man
sich eine Basis A = (a1 , . . . , an ) von V , bestimmt nach 1) einen Eigenvektor
y = t (y1 , . . . , yn ) ∈ K n von
A := MAA (F ) , dann ist
v :=
n
X
y j aj
ein Eigenvektor von F
.
j=1
Folgerung 7.2.7 : Ist dim V = n ∈ N und A die Matrix von F bezüglich
39
einer festen Basis A von V , so ist
dim Eig(F, λ)
die Dimension des Lösungsraums des linearen homogenen Gleichungssystems
(A − λ En ) · x
=
0 .
Beispiel 7.2.8 : Sei

A
=

0 −1 1
 −3 −2 3  ∈ M (3 × 3, R) ,
−2 −2 3
so ist das charakteristische Polynom von A :


−X
−1
1
3 
det(A − X E3 ) = det  −3 −2 − X
−2
−2
3−X
−3 −2 − X
−2 − X
3
−3
3
= (−X)·det
+1·det
+1·det
−2
3−X
−2 3 − X
−2
−2
=
X(2 + X)(3 − X) − 6X − 9 + 3X + 6 + 6 − 4 − 2X
=
−X 3 + X 2 + X − 1 .
Eine Nullstelle dieses Polynoms ist λ1 = 1 . Wenn man durch X − 1 dividiert, erhält man
−X 3 + X 2 + X − 1
=
(X − 1) · (−X 2 + 1) ,
dadurch erhält man als weitere Nullstellen
λ2
=
1 und λ3
=
−1 .
Wir haben alo PA (X) = −(X − 1)2 · (X + 1) .
1 und −1 sind also die einzigen Eigenwerte von A . Wir wollen noch die
Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren
v ∈ R3 \ {0} mit
A · v = ±1 v .
Gesucht sind also die nichttrivialen Lösungen v ∈ R3 der linearen homogenen
Gleichungssysteme
(A − (±1) E3 ) · v
40
=
0 ,
was mit den Methoden aus §4 kein Problem ist:
a) Für λ1,2 = 1 haben wir


−1 −1 1
A − 1 E3 =  −3 −3 3 
−2 −2 2
.
Wenn wir das auf Zeilenstufenform bringen, sehen wir:
Rg(A − 1E3 ) = 1 ,
dim Eig(A, 1) = 3 − 1 = 2 ,
also
und Elemente aus v ∈ Eig(A, 1) erhalten wir aus
−v1 − v2 + v3
=
0 ,
also v2 , v3 ∈ R beliebig, v1 = −v2 + v3 .
b) Für λ3 = −1 haben wir


1 −1 1
A + 1 E3 =  −3 −1 3 
−2 −2 4
.
Wenn wir das auf Zeilenstufenform bringen, sehen wir :
Rg(A + 1 E3 ) = 2 ,
also
dim Eig(A, −1) = 3 − 2 = 1 ,
und Vektoren v ∈ Eig(A, −1) erhalten wir aus
v1 − v2 + v3 = 0
also v3 ∈ R beliebig,
v2 =
∧
3
v3
2
−4v2 + 6v3 = 0 ,
,
v1 =
1
v3
2
.
2
Beispiel 7.2.9 : Sei α ∈ [0, 2π) und A :=
cos α − sin α
sin α cos α
dann sind die Eigenwerte von A bzw. von
fA : R2 −→ R2
,
fA (x) := A · x
die Nullstellen von
PA (X)
=
det
cos α − X
− sin α
sin α
cos α − X
41
,
= (cos α−X)2 +sin2 α = X 2 −2 cos α·X+1 .
Nullstellen λ1,2 erhalten wir aus
λ1,2 = cos α ±
√
cos2 α − 1 ,
was nur für cos α = ±1, also α = 0 oder α = π, Lösungen in R ergibt. Das
ist anschaulich klar: fA beschreibt eine Drehung um α , und nur für α = 0
oder π gibt es Geraden durch 0 , die in sich selbst abgebildet werden.
2
7.3 Diagonalisierung
Wir haben in Def.7.1.4 definiert, was ein diagonalisierbarer Endomorphismus
von V ist, und Satz 7.1.7 war schon mal ein Kriterium für Diagonalisierbarkeit. Wir fassen das zusammen als
Satz 7.3.1 : Sei V ein K−Vektorraum, n ∈ N, dimK V = n und F ∈EndK V .
Dann gilt:
(1) Ist F diagonalisierbar, so gibt es λ1 , . . . , λn ∈ K, so dass
PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn )
ist, d.h. das charakteristische Polynom von F zerfällt in Linearfaktoren.
(2) Gibt es paarweise verschiedene λ1 , . . . , λn ∈ K, so dass
PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn )
ist, so ist F diagonalisierbar.
Beweis : (1) Ist F diagonalisierbar, so gibt es eine Basis B von V , so dass
MBB (F ) eine Diagonalmatrix ist:


λ1
0


..
∃ λ1 , . . . , λn ∈ K : MBB (F ) = 
 ,
.
0
λn
also ist PF (X) = (λ1 − X) · . . . · (λn − X) .
(2) In diesem Fall hat PF (X) n verschiedene Nullstellen λ1 , . . . , λn , die die
Eigenwerte von F sind, und zu diesen hat man Eigenvektoren v1 , . . . , vn .
Nach Hilfssatz 7.1.7 ist B := (v1 , . . . , vn ) linear unabhängig, also eine Basis
von V , und es ist


λ1
0


..
MBB (F ) = 
2
 eine Diagonalmatrix.
.
0
λn
42
Bemerkung 7.3.2 : Nach Satz 7.3.1 bleibt die Frage offen, ob F diagonalisierbar ist, wenn PF (X) ein Produkt von Linearfaktoren ist, von denen einige
mehrfach vorkommen: Sei also
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
mit paarweise verschiedenen λ1 , . . . , λk ∈ K ,
1 ≤ rj ≤ n für j ∈ k
und r1 + . . . + rk = n .
Den Exponenten rj des Faktors (X − λj ) nennen wir die Vielfachheit der
Nullstelle λj von PF (X); wir setzen
µ(PF , λj ) := rj
.
2
In 7.1.8 haben wir den Eigenraum Eig(F, λj ) definiert:
Hilfssatz 7.3.3 : Sei V ein endlichdimensionaler K−Vektorraum,
F ∈ EndK V und λ ein Eigenwert von F , dann gilt
1 ≤ dim Eig(F, λ) ≤ µ(PF , λ) .
Beweis : Sei (vj )j∈s eine Basis von Eig(F, λ) . Da λ ein Eigenwert von F
ist. ist
1 ≤ s = dim Eig(F, λ) .
Wir ergänzen (vj )j∈s zu einer Basis
A
=
(v1 , . . . , vs , vs+1 , . . . , vn ) von V
Sei A die Matrix von F bezüglich B , dann wird

λ
0 |

.
.

.
| ∗

A := MAA (F ) =  0
λ |

 − − − + −
0
| A0
.


 s Zeilen




s Spalten
,
mit einer quadratischen Matrix A0 . Dabei bedeutet ∗ irgendetwas. Das
charakteristische Polynom kann man damit ausrechnen, etwa indem man
nach der 1. bis s−ten Spalte entwickelt:
PF (X)
=
det(A − X En )
=
43
(λ − X)s · det(A0 − X En−s ) .
In det(A0 − X En−s ) kann der Linearfaktor λ − X vorkommen, jedenfalls ist
µ(PF , λ)
≥
s
=
dim Eig(F, λ) .
2
Beispiel 7.3.4 : Sei
A :=
PA (X)
=
det
1 1
0 1
∈ M (2 × 2, R) , dann ist
1−X
1
0
1−X
=
(1 − X)2
=
(X − 1)2
,
PA (X) zerfällt in Linearfaktoren, es ist µ(PA , 1) = 2 . Andererseits ist
Eig(A, 1) = Lös(A − 1 E2 , 0)
0
0 1
x1
2 =
x∈R
=
·
x2
0
0 0
=
x ∈ R2 x2 = 0
= R · e1 ,
also dim Eig(A, 1) = 1 < 2 .
2
Nach dem folgenden Satz ist dieses A nicht diagonalisierbar:
Satz 7.3.5 : Sei K ein Körper, V ein endlichdimensionaler K−Vektorraum
und F ∈ EndK V . Dann sind folgende Aussagen gleichbedeutend:
(1) F ist diagonalisierbar .
(2) a) das charakteristische Polynom PF ist ein Produkt von
Linearfaktoren , und
b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(PF , λ) .
(3) Sind λ1 , ·, λk die paarweise verschiedenen Eigenwerte von F , so ist
V = Eig(F, λ1 ) ⊕ . . . ⊕ Eig(F, λk ) .
Beweis : (0) : Ist F diagonalisierbar, so haben wir eine Basis von V , die aus
Eigenvektoren von F besteht. Seien λ1 , . . . , λk die paarweise verschiedenen
Eigenwerte von F , und für j ∈ k sei
(∗)
(j)
(v1 , . . . , vs(j)
) eine Basis von Eig(F, λj ) ,
j
44
also sj = dim Eig(F, λj ) . Dann ist
(∗∗)
(1)
(k)
B := (v1 , . . . , vs(1)
, . . . , v1 , . . . , vs(k)
)
1
k
linear unabhängig, denn aus
sj
k
X
X
(j) (j)
(j)
µlj vlj = 0 mit µlj ∈ K
folgt
j=1 lj =1
k
X

1·
j=1
sj
X

(j) (j)
µlj vlj 
=
0 ,
lj =1
|
{z
}
∈ Eig(F, λj )
und nach Hilfssatz 7.1.7 geht das wegen 1 6= 0 nur, falls in den Klammern
keine Eigenvektoren stehen, also gilt
∀j ∈ k :
sj
X
(j) (j)
µlj vlj = 0 ,
lj =1
und nach (∗) folgt
(j)
∀ j ∈ k ∀ lj ∈ sj : µlj
=
0 .
Sei nun n := dimK V .
(1) =⇒ (2) : Ist F diagonalisierbar, so haben wir eine Basis von V , die
aus Eigenvektoren von F besteht. Ordnet man sie passend an, so ist es eine
Basis B der Form aus (∗∗) aus (0). Dann ist n = s1 + . . . + sk . Das
charakteristische Polynom von F ist
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
,
also gilt a) von (2), und für rj = µ(PF , λj ) gilt nach 7.3.3 : sj ≤ rj , also
↓
n = s1 + . . . + sk ≤ r1 + . . . + rk = deg PF (X) = n
und hier ↓ gilt Gleichheit nur, falls sj = rj für alle j ∈ k gilt, also
gilt b) von (2).
(2) =⇒ (3) : Seien λ1 , . . . , λk die verschiedenen Eigenwerte von F , dann
gilt nach a) von (2) :
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
45
mit r1 , . . . , rk ∈ N ,
und r1 + . . . + rk = n = dim V . Für j ∈ k sei
(j)
(v1 , . . . , vs(j)
) eine Basis von Eig(F, λj ) ,
j
dann gilt nach b) : sj = rj . Die in (∗∗) angegebene Familie B ist linear
unabhängig, mit
s1 + . . . + sk
=
r1 + . . . + rk
=
n
Elementen, also eine Basis von V . Nach Satz 4.7.5 (1) ist
V
=
Eig(F, λ1 ) ⊕ . . . ⊕ Eig(F, λk ) .
(3) =⇒ (1) : Wenn die letzte Gleichung gilt, haben wir eine Basis von V ,
die aus Eigenvektoren von F besteht. Also ist F diagonalisierbar.
2
Mit diesem Satz bzw. dem Beweis dazu erhält man ein
(7.3.6) Praktisches Verfahren zur Diagonalisierung eines
F ∈ EndK V :
Sei V ein K−Vektorraum , dimK V = n ∈ N .
1.Schritt : Man nehme eine beliebige Basis A von V , berechne
A := MAA (F ) ,
und damit PF (X) = PA (X) ,
bestimme also das charakteristische Polynom PF von F und versuche, eine
Linearfaktorzerlegung von PF zu finden (was für n ≥ 3 schwierig werden
kann). Wenn man sicher ist, dass das nicht geht, ist F nicht diagonalisierbar,
wegen Satz 7.3.1(1). Für die Nullstellen λ von PF (X) kann man auch
µ(PF , λ)
ablesen. Wenn man eine Linearfaktorzerlegung angeben kann, kommt das
zweite Hindernis :
2.Schritt : Man bestimmt für jeden Eigenwert λ von F die Dimension von
Eig(F, λ) , also die Dimension des Lösungsraums des linearen homogenen
Gleichungssystems
(A − λ En ) · x = 0 .
Wenn dann für alle Eigenwerte λ
µ(PF , λ)
=
dim Eig(F, λ)
46
gilt, ist F nach Satz 7.3.5 diagonalisierbar, und man bestimmt Basen aller Eig(F, λ) . Diese Eigenvektoren bilden zusammen eine Basis B von V,
bezüglich der die Matrix B := MBB (F ) Diagonalform hat. Es gilt nach
Bemerkung 4.4.16 :
B = S · A · S −1
mit S := MBA ( idV ) ∈ GL(n, K) .
S −1 =: (tlj ) ist also die Transformationsmatrix des Basiswechsels von A zu
B. Nach Formel (4.4.17) gilt , wenn
A = (al )l∈n
,
bj =
B = (bj )j∈n
n
X
ist :
tlj al
l=1
Die Spaltenvektoren der Matrix S −1 sind also die “Koordinatenvektoren”
der neuen Basisvektoren bj bezüglich der gegebenen alten Basis A .
2
Beispiel 7.3.7: Sei F : R3 −→ R3 gegeben

1

1
F (x) := A · x mit A :=
1
durch

1 1
1 1 
1 1
,
dann ist F linear, und die Matrix von F bezüglich der kanonischen Basis
K = (e1 , e2 , e3 ) des R3 ist A. Man rechnet aus:
PF (X) = −X 3 + 3 X 2 = −X 2 (X − 3) ,
die Eigenwerte sind also
0 mit µ(PF , 0) = 2 und 3 mit µ(PF , 3) = 1 ,
Es ist dim Eig(F, 3) = 1, und wegen
Rg(A − 0 · E3 ) = RgA = 1
ist dim Eig (F, 0) = 3 − 1 = 2, und die Vielfachheit µ(PF , 0) war auch 2.
Nach Satz 7.3.5 ist F diagonalisierbar. Wir berechnen Eigenvektoren von F
zum Eigenwert
(i) 0, dazu bringen wir A − 0 · E3 auf Zeilenstufenform:




1 1 1
1 1 1
A − 0 · E3 =  1 1 1  →  0 0 0  ,
1 1 1
0 0 0
47
und das lineare Gleichungssystem x1 + x2 + x3 = 0 hat
 
 

−1
−1
  0  ,  1 
1
0
als Basis des Lösungsraums. Das ist also eine Basis von Eig (F, 0),
(ii) 3 , dazu bringen wir A − 3 · E3 auf Zeilenstufenform:






−2 1
1
1 1 −2
1 1 −2
A − 3 · E3 =  1 −2 1  →  0 3 −3  →  0 1 −1  .
1
1 −2
0 −3 3
0 0 0
Das zugehörige lineare Gleichungssystem x1 + x2 − 2x3 = 0 , x2 − x3 = 0
hat
   
1
  1  
1
als Basis des Lösungsraums. Das ist also eine Basis von Eig (F, 3). Sei nun
 
 
   
−1
−1
1






0
1
1   ,
,
,
B = (b1 , b2 , b3 ) :=
1
0
1
dann ist

B
:=

0 0 0
MBB (F ) =  0 0 0 
0 0 3
,
und es gilt
B = S · A · S −1
mit S = MBK ( idR3 )
(tkj ) := S −1 erhält man wegen
S −1 = MKB ( idR3 ) und bj =
3
X
tkj ek
k=1
als Matrix mit den Basisvektoren der Eigenräume als Spalten :


−1 −1 1
1 1  .
S −1 =  0
1
0 1
48
Wir berechnen die inverse Matrix

S
=

−1 −1 2
1
−1 2 −1 
3
1
1
1
und machen die Probe:

S −1 · S = E3
,
S · A · S −1

0 0 0
=  0 0 0 
0 0 3
.
2
Bemerkung 7.3.8 : Sei V ein endlichdimensionaler K−Vektorraum und
seien F, G ∈ EndK V diagonalisierbar. Dann kann man fragen, ob es eine
gemeinsame Basis von V gibt, bezüglich der F und G durch Diagonalmatrizen
beschrieben werden. Man nennt dann F und G simultan diagonalisierbar.
Die Frage ist also: Sei B eine Basis von V und seien
A := MBB (F ) , B := MBB (G) ,
gibt es dann ein (gemeinsames) S ∈GL(n, K), so dass
D = S · A · S −1
e = S · B · S −1
und D
Diagonalmatrizen sind? Nun sind zwei Diagonalmatrizen vertauschbar, d.h.
e = D
e · D , und damit dann auch
es gilt D · D
e · S = S −1 · D · D
e · S = S −1 · D
e ·D·S = B ·A ,
A · B = S −1 · D · S · S −1 · D
also sind auch A und B vertauschbar und damit F und G. Diese Bedingung
ist aber auch hinreichend für die simultane Diagonalisierbarkeit von F und
G:
Satz 7.3.9 : Zwei diagonalisierbare Endomorphismen F, G ∈ EndK (V ) sind
genau dann simultan diagonalisierbar, wenn gilt:
F ◦G = G◦F
.
Beweis : Sei also F ◦G = G◦F . Wir haben nach Satz 7.3.5 die Zerlegungen
in die direkten Summen von Eigenräumen
V =
k
M
Eig(F, λj ) und V =
j=1
r
M
l=1
49
Eig(G, µl ) .
Dann gilt
(∗)
G(Eig(F, λj ))
⊂
Eig(F, λj ) ,
denn aus x ∈Eig(F, λj ) folgt F (x) = λx, und wegen F ◦ G = G ◦ F dann
F (G(x)) = G(F (x)) = G(λx) = λG(x) .
Wir zeigen nun, dass für jeden Eigenwert µl von G der Eigenraum Eig(G, µl )
in die direkte Summe
(∗∗)
Eig(G, µl ) =
k
M
(Eig(F, λj )∩Eig(G, µl ))
j=1
zerlegt werden kann. Sei dazu
x ∈ Eig(G, µl ) und x =
k
X
xj
mit xj ∈ Eig(F, λj ) .
j=1
Wir wollen zeigen : xj ∈ Eig(G, µl ) für alle Eigenwerte λj von F : Es gilt
k
X
(∗ ∗∗ )
µl xj = µl x = G(x) =
j=1
k
X
G(xj ) ,
j=1
wobei nach (∗) gilt: G(xj ) ∈ Eig(F, λj ). Da V die direkte Summe der Eig(F, λj )
ist, sind die Summanden in (∗ ∗∗ ) eindeutig bestimmt; wir haben
µl xj = G(xj ) ,
also xj ∈ Eig(G, µl ) .
Mit (∗∗) haben wir gezeigt:
V =
r M
k
M
(Eig(F, λj ) ∩ Eig(G, µl )) .
l=1 j=1
Wir nehmen uns nun Basen in diesen direkten Summanden. Die Vektoren
dieser Basis sind dann Eigenvektoren sowohl von F als auch von G .
2
7.4 Potenzen eines Endomorphismus
Unser Ziel ist der Satz von Cayley-Hamilton . Dazu vorher:
Definition 7.4.1 : Sei V ein K−Vektorraum und F ∈ EndK V . Dann defi50
nieren wir rekursiv:
F 0 := idV
,
F n+1 := F n ◦ F
für n ∈ N0
,
F n ist also die n−fache Hintereinanderausführung von F .
7.4.2 Zur Motivation: Sei dim V = n ∈ N , B eine Basis von V und
A := MBB (F ) ,
dann liegt A im K−Vektorraum M (n × n, K), der die Dimension n2 hat. Die
2
n2 + 1 Potenzen A0 , . . . , An sind also linear abhängig, es gibt eine Gleichung
2
n
X
αj Aj = 0 mit αj ∈ K
,
j=0
in der nicht alle αj = 0 sind, anders ausgedrückt: es gibt ein Polynom
2
P (X) =
n
X
αj · X j ∈ K[X] mit
deg P (X) ≤ n2 ,
j=0
das 0 ergibt, wenn man für die Unbestimmte X die Matrix A einsetzt: Aj
ist definiert, A0 = En . Statt A kann man ebenso gut F einsetzen, denn
MBB (F j ) = Aj , es gilt also auch
P (F ) = 0 .
Die Sache ist nun: Man braucht gar nicht erst ein Polynom vom Grad n2 , das
0 ergibt, wenn man F bzw. A einsetzt, es gibt sogar ein Polynom vom Grad
n , das das tut, es ist (wer hätte es gedacht?) das charakteristische Polynom
PF (X).
Spezialfall 7.4.3 : Sei dimK V = n , F ∈EndK V diagonalisierbar
mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk , und
Q(X) := (X − λ1 ) · . . . · (X − λk ) .
Es gibt eine Basis aus Eigenvektoren von F zu V . Fasst man die Summanden
aus je einem Eigenraum Eig (F, λj ) zusammen, so erhält man zu jedem
v ∈ V eine Darstellung
v =
k
X
vj
mit vj ∈ Eig(F, λj ) .
j=1
51
Wir bilden nun Q(F )(v) und benutzen, dass man Potenzen von F vertauschen kann, dann erhalten wir
Q(F )(v) =
k
X
Q(F )(vj )
j=1
k
X
\
(F −λ1 idV )◦. . .◦(F −
λj idV )◦. . .◦(F −λk idV )◦(F − λj idV )(vj ) = 0 ,
{z
}
|
j=1
=0
wobei das d bedeutet, dass man den darunter stehenden Faktor wegzulassen hat. Nun gilt
=
PF (X) = (−1)n · (X − λ1 )r1 · . . . · (X − λk )rk
mit rj = µ(PF , λj ) ∈ N ,
also gilt auch
PF (F )(v) = 0 für alle v ∈ V
,
also
2
PF (F ) = 0 .
Bemerkung 7.4.4 : Für diagonalisierbares F haben wir damit den Satz
von Cayley-Hamilton bewiesen, und sogar noch etwas mehr: Sei T (X) ein
Teiler von obigem Q(X) mit deg T (X) < deg Q(X), dann kommt mindestens
einer der Faktoren X − λl , l ∈ k, nicht in T (X) vor. Sei etwa
\
T (X) = (X − λ1 ) · . . . · (X
− λl ) · . . . · (X − λk ) ,
dann gilt für einen Eigenvektor vl zu λl :
\
T (F )(vl ) = (F − λ1 idV ) ◦ . . . ◦ (F −
λl idV ) ◦ . . . ◦ (F − λk idV )(vl )
(λl − λ1 ) · . . . · (λ\
l − λl ) · . . . · (λl − λk ) · vl 6= 0 ,
also T (F ) 6= 0. Wir kommen darauf im Zusammenhang mit dem “Minimalpolynom” zurück.
2
- Für nicht notwendig diagonalisierbares F werden wir erst mal etwas formal:
Definition 7.4.5 : a) Sei K ein Körper und V ein K−Vektorraum, dann ist
das “Einsetzen von F ∈ EndK V in ein Polynom”, d.h. die Abbildung
ΦF : K[X] −→ EndK V ,
52
P (X) =
∞
X
j
αj X 7−→ P (F ) =
j=0
∞
X
αj F j
j=0
ein Homomorphismus von Ringen und auch von K−Vektorräumen (was
nachzurechnen wäre). Das Bild ist
K[F ] := { P (F ) | P ∈ K[X] }
( ∞
)
X
=
αj F j ∀ j ∈ N0 : αj ∈ K ∧ ∀0 j ∈ N0 : αj = 0
,
j=0
und K[F ] ist ein kommutativer Unterring von (EndK V, +, ◦), mit Einselement idV .
b) Man kann das auch für n × n−Matrizen statt für Endomorphismen machen: Sei n ∈ N , A ∈ M (n × n, K), dann ist
( ∞
)
X
K[A] :=
αj Aj ∀ j ∈ N0 : αj ∈ K ∧ ∀0 j ∈ N0 : αj = 0
j=0
ein kommutativer Unterring von (M (n × n, K), +, ·), mit Einselement
En .
(7.4.6) Satz von Cayley-Hamilton : Sei V ein endlichdimensionaler
K−Vektorraum, F ∈ EndK V und PF ∈ K[X] das charakteristische Polynom
von F . Dann ist
PF (F ) = 0 ∈ EndK V .
Für Matrizen A ∈ M (n × n, K) , n ∈ N , bedeutet das
PA (A) = 0 ∈ M (n × n, K) .
(7.4.7) Vorsicht : a) Man muss hier aufpassen, was mit PA (A) gemeint
ist, sonst kommt man zu einem kurzen, aber unsinnigen, “Beweis”:
PA (X) = det(A − X · En )
PA (A) = det(A − A · En ) = 0 ;
=⇒
das ist schon deshalb unsinnig, weil hier die 0 ∈ K, nicht die
0 ∈ M (n × n, K), herauskommt. Mit PA (A) ist gemeint, dass man zunächst
das Polynom PA (X) ausrechnet und dann Potenzen von A einsetzt.
b) Trotzdem muss man hier die Determinante einer Matrix bilden, deren
Einträge Elemente aus K[A] sind. Das ist der entscheidende Grund, weshalb
wir in §5 Determinanten von Matrizen aus M (n × n, R) betrachtet haben,
wobei R ein kommutativer Ring war, nicht nur von Matrizen aus
53
M (n × n, K) , K ein Körper.
- Zum Beweis müssen wir noch etwas nachholen, was wir auch schon bei der
Formel für die inverse Matrix in §5 hätten definieren können:
Definition 7.4.8 : Sei R ein kommutativer Ring, n ∈ N , n ≥ 2 und
B = (bjk )(j,k)∈n×n ∈ M (n × n, R). Dann heißt
0
B # := (−1)j+k det Bkj
,
(j,k)∈n×n
0
wobei Bkj
die Matrix ist, die man aus B durch Streichen der k−ten Zeile
und der j−ten Spalte erhält, die zu B komplementäre Matrix.
2
- Man beachte die Reihenfolge der Indizes: Es ist
B#
0
(cjk ) mit cjk = (−1)j+k det Bkj
=
,
wir hatten das schon bei der Formel in Satz 5.3.4 für die inverse Matrix, aber
hier setzen wir nicht voraus, dass B invertierbar ist. Wie beim Beweis von
Satz 5.3.4 erhält man aus dem Laplaceschen Entwicklungssatz die
Folgerung 7.4.9 : Für jedes B ∈ M (n × n, R) , n ≥ 2 gilt
B# · B
=
B · B#
=
(det B) En
.
Bemerkung 7.4.10 : Sei K ein Körper, n ∈ N , n ≥ 2 und A ∈ M (n×n, K).
Sei
B := A − X En ∈ M (n × n, K[X]),
#
#
dann gilt für (b#
jk ) := B : Jedes bjk ist ein Polynom in X vom Grad ≤ n−1
oder 0 .
2
(7.4.11) Beweis des Satzes von Cayley-Hamilton : Es genügt, den Satz
für Matrizen A ∈ M (n × n, K) zu beweisen, denn für F ∈ EndK V ist
PF (F ) = PA (A) , wobei A die Matrix von F bezüglich irgendeiner Basis von
V ist. - Sei
n = 1, also A = (a11 ) , dann ist PA (X) = a11 − X , und
PA (A) = a11 · A0 − A1 = a11 E1 − (a11 ) = 0.
Sei nun
n ≥ 2, dann setzen wir
B(X)
:=
t
(A − X En ) ∈ M (n × n, K[X]) .
54
In der Diagonale von B(X) stehen Polynome vom Grad 1 , außerhalb Elemente aus K . Es ist
(1)
det B(X) = PA (X) ∈ K[X] .
Nun setzen wir A statt X in B(X) ein, dann müssen wir an die Konstanten
den Faktor En setzen und erhalten


a11 En − A
a21 En
...
an1 En
 a12 En
a22 En − A . . .
an2 En 


B(A) = 
 ∈ M (n × n, K[A]) .
..
..
..
.
.


.
.
.
.
a1n En
a2n En
. . . ann En − A
Wir können diese Matrix multiplizieren mit einem Spaltenvektor, dessen
Komponenten Spaltenvektoren aus K n sind. Insbesondere gilt für die (als
Spaltenvektoren geschriebenen) kanonischen Basisvektoren e1 , . . . , en von
Kn :


e1


(2) B(A) ·  ... 
en




0
 . 


= 
 =  ..  ,
0
a1n e1 + . . . + an−1,n en−1 + ann en − A · en
a11 e1 − A · e1 + a21 e2 + . . . + an1 en
..
.
wegen A · ej = aj =
n
P
akj ek . Sei nun B(X)# die in 7.4.8 definierte
k=1
komplementäre Matrix zu B(X), dann ist B(X)# ∈ M (n × n, K[X]), und
die Einträge von B(X)# sind Polynome in X vom Grad ≤ n−1 oder 0. Nach
Folgerung 7.4.9 gilt


PA (X) . . .
0
(1)


..
B(X)# ·B(X) = det(B(X))·En = PA (X)·En = 

.
0

. . . PA (X)

e1
 .. 
Setzen wir nun A für X ein, und multiplizieren mit  .  ∈ (K n )n , so
en
folgt

 



 
PA (A)
0
e1
e1
0
(2)  . 






.
.
#
.
..

·  ..  = B(A) ·B(A)·  ..  =  ..  ,
0
PA (A)
en
en
55
0
.
also
∀ j ∈ n : PA (A) · ej = 0 .
PA (A) ist also eine Matrix, in der alle Spalten gleich 0 ∈ K n sind, also
PA (A)
=
0 .
2
7.5 Das Minimalpolynom einer Matrix
Bemerkung 7.5.1 : Sei n ∈ N , K ein Körper, A ∈ M (n×n, K), und PA (X)
das charakteristische Polynom von A , dann sagte Satz 7.4.6:
PA (A) = 0 .
Aber: Sei etwa


2 0 0
A :=  0 2 0  ∈ M (3 × 3, R) ,
0 0 3
dann ist PA (X) = (2 − X)2 · (3 − X) , deg PA (X) = 3 , aber A ist auch
schon “Nullstelle” des Polynoms
(2 − X) · (3 − X) vom Grad 2 .
PA (X) ist also nicht notwendig das Polynom kleinsten Grades, das 0 ergibt,
wenn man A einsetzt. Dasselbe kann man für ein F ∈ EndK V fragen.
Bemerkung 7.5.2 : Sei V ein K−Vektorraum, dimK V = n ∈ N, und
F ∈ EndK V . Dann hatten wir in 7.4.5 definiert:
ΦF : K[X] −→ EndK V
ΦF (P (X))
:=
,
P (F ) ,
und
ker ΦF
=
{ P (X) ∈ K[X] | P (F ) = 0 ∈ EndK V }
ist nach Satz 3.1.10 ein Ideal im Ring K[X]. Wir hatten in Satz 3.3.16 bewiesen, dass K[X] ein euklidischer Ring ist (das war Beispiel (3.3.18)(2) ),
und aus Satz 3.3.19 folgt dann: Es gibt ein m(X) ∈ K[X] mit
ker ΦF
=
(m(X))
=
{ f (X) · m(X) | f (X) ∈ K[X] }
56
.
Nach dem Satz von Cayley-Hamilton besteht ker Φ nicht nur aus dem
Nullpolynom, denn PF (X) ∈ ker Φ und deg PF (X) = n. Wir können also
die Gradformel 3.3.12 anwenden und erhalten dann für jedes Polynom
g(X) ∈ ker Φ \ {0}:
deg g(X) ≥ deg m(X) .
Das Polynom m(X) mit (m(X)) = ker Φ ist nicht eindeutig bestimmt, es
gilt
(m(X)) = (λ · m(X)) für jedes λ ∈ K \ {0} .
Wir können λ so wählen, dass wir ein Polynom MF (X) mit Leitkoeffizient 1
erhalten, das dann eindeutig bestimmt ist. Fassen wir das noch einmal zusammen:
Satz und Definition 7.5.3 : Sei V ein K−Vektorraum,
dimK V = n ∈ N, und F ∈ EndK V . Dann haben wir ein eindeutig bestimmtes Polynom MF (X) ∈ K[X] \ {0} mit den folgenden Eigenschaften :
(1) MF (F ) = 0 .
(2) MF (X)ist normiert.
(3) Zu jedem P (X) ∈ K[X] mit P (F ) = 0 gibt es ein Q(X) ∈ K[X] mit
P (X) = MF (X) · Q(X) .
MF (X) heißt das Minimalpolynom von F .
Sei A ∈ M (n × n, K), dann haben wir
fA : Rn −→ Rn
,
fA (x) := A · x ,
dann nennen wir MA (X) := MfA (X) das Minimalpolynom der Matrix
A.
2
Aus der Definition des Minimalpolynoms und dem Satz von
Cayley-Hamilton erhalten wir die
Folgerung 7.5.4 : Sei K ein Körper, n ∈ N , A ∈ M (n × n, K). Dann gilt
für das Minimalpolynom MA von A :
MA teilt PA , d.h. ∃ Q(X) ∈ K[X] : PA (X) = Q(X) · MA (X) .
Für ein F ∈ EndK V , dimK V = n ∈ N, bedeutet das:
MF teilt PF .
2
57
Beispiel 7.5.5 : Sei dimK V = n , F ∈ EndK V diagonalisierbar, mit k verschiedenen Eigenwerten λ1 , . . . , λk , dann haben wir in 7.4.3 gesehen: Für
P (X) := (X − λ1 ) · . . . · (X − λk )
gilt P (F ) = 0, und nach 7.4.4 gilt für jeden Teiler T (X) von P (X) mit
deg T (X) < deg P (X) : T (F ) 6= 0 .
Also ist P (X) das Minimalpolynom von F :
MF (X) = (X − λ1 ) · . . . · (X − λk ) .
Aber nur, wenn k = n ist, also wenn alle Eigenwerte die Vielfachheit 1
haben, ist das auch das charakteristische Polynom. Es kann also durchaus
sein (wie im Beispiel aus 7.5.1), dass MF (X) ein echter Teiler von PF (X) ist.
Für diagonalisierbares F wissen wir also, dass in MF (X) alle Linearfaktoren
von PF (X) mindestens einmal vorkommen. Für beliebiges F folgt das aus
Satz 7.5.6 : Sei K ein Körper, V ein n−dimensionaler K−Vektorraum,
F ∈ EndK (V ) . Dann gilt:
PF (X) teilt MF (X)n
.
Beweis : Es genügt, den Satz statt für F für eine Matrix A ∈ M (n × n, K)
zu beweisen. Es ist
MA (X)
Xm +
=
m
X
αj X m−j ∈ K[X]
j=1
mit m ∈ N und αj ∈ K
Bk
:=
für j ∈ m . Für k ∈ {0, 1, . . . , m − 1} sei
Ak +
k
X
αj Ak−j
,
und sei
j=1
B(X)
:=
m
X
Bk−1 X m−k ∈ (K[A])[X] .
k=1
Dann gilt für alle k ∈ m − 1 :
(1) Bk − A · Bk−1
=
k
A +
k
X
k−j
αj A
j=1
k
−A −
k−1
X
j=1
58
αj Ak−j = αk En
,
und
(2) A · Bm−1
m−1
A · (A
=
+
m−1
X
αj Am−1−j )
j=1
=
Am +
m−1
X
αj Am−j
MA (A) − αm En
=
−αm En
=
.
j=1
Mit der Definition von B(X) folgt
(A − XEn ) · B(X)
m
X
=
A · B(X) − XB(X)
=
A · Bk−1 X
m−k
k=1
−
m
X
Bk−1 X m+1−k
,
k=1
man beachte hierbei, dass man stets in dem kommutativen Ring (K[A])[X]
rechnet, denn auch die Matrizen Bk gehören zu K[A] , also
(A − X · En ) · B(X)
m
X
=
A · Bk−1 X
m−k
−
k=1
=
m−1
X
m−1
X
Bk X m−k
k=0
(A · Bk−1 − Bk )X m−k + A · Bm−1 − B0 X m
k=1
(1),(2)
=
−
m−1
X
αk En · X m−k − αm En − En X m
k=1
−MA (X) · En
=
,
also nach dem Determinanten-Multiplikationssatz 5.3.6 :
det(A − XEn ) · det B(X)
PA (X) · det B(X)
=
(−MA (X))n det En
(−1)n (MA (X))n
=
,
.
2
7.6 Die Jordansche Normalform
Vorbemerkung 7.6.1: Sei K ein Körper, n ∈ N , V ein n−dimensionaler
K−Vektorraum und F ∈ EndK V . Dann gilt nach Satz 7.3.5:
F ist diagonalisierbar ⇐⇒
a) das charakteristische Polynom PF ist ein Produkt von
Linearfaktoren , und
59
b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(PF , λ) .
Auf welche (einfachere) Form kann man die Matrix von F bringen, wenn nur
die Bedingung a) erfüllt ist ? Das interessiert uns insbesondere deshalb, weil
in C[X] nach dem Fundamentalsatz der Algebra (3.5.13) jedes Polynom ein
Produkt von Linearfaktoren ist, weil also a) für K = C in jedem Fall gilt.
Was macht man also, wenn für einen Eigenwert λ von F
dim Eig(F, λ) < µ(PF , λ)
gilt? Man muss dann den Raum Eig(F, λ) vergrößern :
Definition 7.6.2 : Sei K ein Körper, n ∈ N , V ein n−dimensionaler
K−Vektorraum, F ∈ EndK V und λ ∈ K ein Eigenwert von F mit
µ(PF , λ)
=
r
,
r sei also die Vielfachheit von λ. Dann nennen wir
Hau (F, λ)
ker (F − λ idV )r
:=
den Hauptraum von F zum Eigenwert λ .
2
Für r ≥ 1 gilt
ker (F − λ idV ) ⊂ ker (F − λ idV )r
,
also
Eig(F, λ) ⊂ Hau(F, λ) .
Um den entscheidenden Satz zu formulieren, brauchen wir die
Definition 7.6.3 : Sei V ein K−Vektorraum, G ∈ EndK V . G heißt
nilpotent, wenn es ein m ∈ N gibt mit
Gm
=
0 .
Entsprechend: Sei n ∈ N und A ∈ M (n × n, K) . A heißt nilpotent , wenn
es ein m ∈ N mit Am = 0 gibt.
2
Unser Ziel ist der Beweis von
Satz 7.6.4 : Sei n ∈ N , V ein K−Vektorraum mit dimK V = n ,
60
F ∈ EndK V , und PF sei ein Produkt von Linearfaktoren,
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
mit paarweise verschiedenen λ1 , . . . , λk ∈ K und r1 , . . . , rk ∈ N. Für j ∈ k
sei
Vj := Hau(F, λj )
der Hauptraum von F zum Eigenwert λj . Dann gilt
(1) F (Vj ) ⊂ Vj und dim Vj = rj für alle j ∈ k ,
(2) V = V1 ⊕ . . . ⊕ Vk ,
(3) es gibt FD , FN ∈ EndK V mit F = FD + FN und
a) FD ist diagonalisierbar,
b) FN ist nilpotent,
c) FD ◦ FN = FN ◦ FD .
2
Wir brauchen einige Vorbereitungen:
Bemerkung 7.6.5 : Sei V ein endlichdimensionaler K−Vektorraum und
G ∈ EndK V , dann gilt für die Kerne und Bilder der Potenzen von G offenbar
{0} ⊂ ker G ⊂ ker G2 ⊂ . . . ⊂ ker Gl ,
V ⊃ G(V ) ⊃ G2 (V ) ⊃ . . . ⊃ Gl (V )
für alle l ∈ N, und nach der Dimensionsformel 4.3.13 :
dim ker Gl + dim Gl (V ) = dim V
.
⊂
Bei den angegebenen Ketten kann nicht stets 6= stehen, da die Dimension
von V endlich ist, es gibt also ein l ∈ N0 mit
ker Gl = ker Gl+1
.
Damit erhält man das
(7.6.6) Lemma von Fitting : Sei n ∈ N , V ein n−dimensionaler
K−Vektorraum, G ∈ EndK V . Wir setzen
d := min
l ∈ N0 | ker Gl = ker Gl+1
,
U := ker Gd
,
W := Gd (V ) .
61
Dann gilt:
(1) d = min
l ∈ N0 | Gl (V ) = Gl+1 (V )
(2) ∀ j ∈ N0 :
ker Gd+j = ker Gd ∧ Gd+j (V ) = Gd (V )
.
(3) G(U ) ⊂ U ∧ G(W ) ⊂ W .
d
(4)
GU = 0 ∧ GW ist ein Isomorphismus.
(5) Für das Minimalpolynom von GU gilt: M (X) = X d .
G
(6)
U
V = U ⊕ W , r := dim U ≥ d , dim W = n − r ,
und es gibt eine Basis B von V , so dass


N
|
0
MBB (G) =  − − + − −  ist mit C ∈ GL(n − r, K)
0
|
C
und nilpotentem N ∈ M (r × r, K).
Beweis : (0) Wir haben für jedes l ∈ N0 :
ker Gl
∩
⊂
V
−→
Gl
Gl (V )
∪
ker Gl+1
⊂
V
−→
Gl+1
Gl+1 (V )
Wenden wir die Dimensionsformel 4.3.13 an auf Gl und Gl+1 , so folgt:
Gl+1 (V ) = Gl (V )
⇐⇒
⇐⇒
⇐⇒
dim Gl+1 (V ) = dim Gl (V )
dim ker Gl+1 = dim ker Gl
ker Gl+1 = ker Gl
Damit folgt schon mal (1).
(2) folgt durch Induktion nach j : Für j = 0 ist (2) trivial. Für beliebiges
j ∈ N0 gilt, wenn (2) für j richtig ist:
x ∈ ker Gd+j+1
=⇒
=⇒
=⇒
=⇒
Gd+1 (Gj (x)) = 0
Gj (x) ∈ ker Gd+1 = ker Gd
Gd (Gj (x)) = 0
x ∈ ker Gd+j ,
und ker Gd+j ⊂ ker Gd+j+1 sowieso, also :
(IV)
ker Gd+j+1 = ker Gd+j = ker Gd
62
und nach (0) auch
(IV)
Gd+j+1 (V ) = Gd+j (V ) = Gd (V ) .
(3) Für x ∈ U = ker Gd gilt Gd (x) = 0 ,
also
Gd (G(x)) = Gd+1 (x) = G(Gd (x)) = G(0) = 0 ,
also G(x) ∈ U .
Für y ∈ Gd (V ) gilt G(y) ∈ Gd+1 (V ) = Gd (V ) .
(4) Nach (3) ist GU ∈ EndK U , und GW ∈ EndK W . Für x ∈ U = ker Gd
d
gilt Gd (x) = 0 , also GU (x) = 0.
Aus Gd+1 (V ) = Gd (V ) folgt, dass GW : W −→ W surjektiv, also nach
der Dimensionsformel ein Isomorphismus, ist.
(5) Aus (4) folgt, dass X d ein Polynom ist, das 0 ∈ EndK U ergibt, wenn man
GU einsetzt. Es gibt keinen Teiler kleineren Grades von X d , der 0 ergibt,
wenn man GU einsetzt: Für d = 0 ist das klar. Anderenfalls nehmen wir an,
d−1
GU
= 0
dann wäre
Gd−1 (x) = 0 für x ∈ U = ker Gd
x ∈ ker Gd−1
,
also
,
also
ker Gd ⊂ ker Gd−1
,
und ker Gd−1 ⊂ ker Gd sowieso, also ker Gd = ker Gd−1 , Widerspruch zur
Definition von d . Also ist
M (X) = X d
G
.
U
(2)
(6) Sei v ∈ V , dann ist Gd (v) ∈ Gd (V ) = G2d (V ), also
∃ v 0 ∈ V : Gd (v) = G2d (v 0 ) .
Es ist v = v − Gd (v 0 ) + Gd (v 0 ) mit
Gd (v − Gd (v 0 )) = Gd (v) − G2d (v 0 ) = 0 ,
u := v − Gd (v 0 ) ∈ ker Gd
v = u + Gd (v 0 ) ∈ U + W
63
,
und
,
also
und wenn u ∈ U ∩ W ist, gilt: ∃ w ∈ V : u = Gd (w) , also
0 = Gd (u) = G2d (w) ,
(2)
w ∈ ker G2d = ker Gd
,
also u = Gd (w) = 0 . Also haben wir
V = U ⊕W
.
Sei r = dim U , dann haben wir also Basen
(b1 , . . . , br ) von U
B
und (br+1 , . . . , bn ) von W
:=
,
so dass
(b1 , . . . , br , br+1 , . . . , bn )
eine Basis von V ist, bezüglich der MBB (F ) die gewünschte Form hat.
2
Folgerung 7.6.7 : Sei dimK V = n ∈ N und F ∈ EndK V .
Dann sind folgende Aussagen gleichbedeutend:
(i)
F ist nilpotent.
(ii) Es gibt ein k mit 1 ≤ k ≤ n und F k = 0.
(iii) Es gibt eine Basis B von V , so dass MBB (F ) eine echte obere
Dreiecksmatrix


0
∗


..

 ist.
.
0
0
(iv) PF (X) = (−1)n X n .
Beweis : (i) =⇒ (ii) : Ist F nilpotent, so haben wir ein m ∈ N mit F m = 0,
also
V = ker F m = ker F m+1 . Für
k := min
l ∈ N0 | ker F l = ker F l+1
gilt dann k ≤ m, und nach 7.6.6 (2)
ker F m = ker F k
,
also
ker F k = V
,
Fk = 0 ,
und k ≤ n nach (7.6.6)(6) .
(ii) =⇒ (iii) : Mit d := min
l ∈ N | ker F l = V
haben wir
⊂
⊂
⊂
⊂
{0} 6= ker F 6= ker F 2 6= . . . 6= ker F d = V
64
,
wobei wir (7.6.6)(2) benutzt haben: Hätten wir ein s ≤ d − 1 mit
ker F s = ker F s+1
,
ker F s = ker F d = V
so wäre schon
.
Nach dem Basisergänzungssatz erhalten wir eine Basis
B := (b1 , . . . , bj1 , . . . , bj2 , . . . , bjd ) von V
b1 , . . . , b j 1
bj1 +1 , . . . , bj2
..
.
∈
∈
bjd−1 +1 , . . . , bjd
∈
ker F ,
ker F 2 \ ker F
mit
,
ker F d \ ker F d−1 .
Wegen
F ( ker F l ) ⊂ ker F l−1
für l ∈ d
(insbesondere: F ( ker F ) ⊂ ker idV = {0}) gilt dann
F (bk ) ∈ span(b1 , . . . , bk−1 ) für alle k ∈ n ,
und das heißt: MBB (F ) ist eine echte obere Dreiecksmatrix .
(iii) =⇒ (iv) ist klar: Für eine echte obere

−X
∗

.
..
PA (X) = det 
Dreiecksmatrix A ist

−X
0

n n
 = (−1) X
.
(iv) =⇒ (i) : Aus PF (X) = (−1)n X n folgt nach Cayley-Hamilton :
(−1)n F n = 0 ,
also ist F nilpotent.
2
Damit kann man das Lemma von Fitting noch etwas verbessern:
(7.6.8) Zusatz zum Lemma von Fitting : Sei V ein K−Vektorraum,
dimK V = n ∈ N und G ∈ EndK V . Sei
d = min
l ∈ N0 | ker Gl = ker Gl+1
,
U := ker Gd
und r := dim U
65
,
dann gilt
(7) r = µ(PG , 0) ,
bzw. r = 0, falls 0 kein Eigenwert von G ist.
Beweis : Nach (6) aus (7.6.6) haben wir eine Basis B von V , so dass


N
|
0
MBB (G) =  − − + − −  ist mit C ∈ GL(n − r, K)
0
|
C
und nilpotentem N ∈ M (r × r, K).
Mit der Determinanten-Regel (D9) folgt
PG (X) = P (X) · P (X)
G
G
U
W
für W := Gd (V ). Nach 7.6.7 gilt
P (X) = (−1)r X r
G
,
U
also PG (X) = X r · Q(X) mit Q(X) = ±P (X) , Da GW nach (7.6.6)(4)
G
W
ein Isomorphismus ist, hat GW nicht 0 als Eigenwert, also: X teilt nicht
Q(X) , X r ist die höchste Potenz von X, die PG (X) teilt, also
r = µ(PG , 0) .
2
Bemerkung 7.6.9 : Machen wir uns noch einmal klar, was Lemma 7.6.6
und Zusatz 7.6.8 für die in 7.6.2 definierten Haupträume bedeuten:
Sei dimK V = n , F ∈ EndK V und
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
mit r1 , . . . , rk ∈ N ,
dann war für j ∈ k :
Hau(F, λj ) = ker (F − λj idV )rj
,
für Gj := F − λj idV also
d
rj = dim ker Gj j
dj = min
nach 7.6.8(7), wobei
l ∈ N0 | ker Glj = ker Gl+1
j
d
dj ≤ dim ker Gj j = rj
66
nach 7.6.6(6)
war, und
,
d
r
ker Gj j = ker Gj j
nach 7.6.6(2) , also
dim Hau(F, λj ) = rj
.
Damit führen wir nun den
(7.6.10) Beweis von Satz 7.6.4 : (1),(2) Sei n := dimk V. Wir haben
PF (X) = (−1)n (X−λ1 )r1 ·. . .·(X−λk )rk
(∗)
mit r1 , . . . , rk ∈ N und k ∈ N0 , wir machen Induktion nach k :
Induktionsanfang: Sei k = 1 , also
PF (X) = (λ − X)r
mit λ ∈ K , r ∈ N . Wir setzen
G := F − λ idV
.
In (7.6.6) hatten wir Untervektorräume U, W von V definiert mit
V = U ⊕W
mit G(U ) ⊂ U
und G(W ) ⊂ W
,
und dim U = µ(PG , 0) nach Zusatz 7.6.8. Wegen
PF (X) = PG (X − λ) ist µ(PG , 0) = µ(PF , λ) = r
,
also dim U = r . Im Beweis von 7.6.8 haben wir gesehen:
PG (X) = P (X) · Q(X)
G
U
mit P (X) = (−1)r X r und dem Polynom Q(X) = P (X) , das von
G
G
U
W
X nicht geteilt wird. Setzen wir wieder F statt G ein, so folgt
(λ − X)r = (−1)r (X − λ)r · Q(X − λ) ,
woraus folgt: deg Q(X) = 0 , also dim W = 0. Also ist
(**)
V = U = ker (F − λ idV )d = ker (F − λ idV )r = Hau(F, λ) ,
wobei d in (7.6.6) definiert war, und wir bei (∗∗) noch (7.6.6)(2) benutzt
haben.
Induktionsschluss: Sei k ∈ N , k ≥ 2 , und für k − 1 sei der Satz richtig. Sei
nun PF (X) das in (∗) angegebene Polynom. Sei
G := F − λ1 idV
67
,
so ist die Matrix von G (bzgl. irgendeiner Basis von V ) einfach die Matrix
von F , bei der in der Diagonale überall λ1 abgezogen wird,
PG (X) = PF (X + λ1 ) ,
also
µ(PG , 0) = µ(PF , λ1 ) = r1
.
Nach 7.6.9 haben wir
V = Hau(F, λ1 ) ⊕ W1
.
G bildet Hau(F, λ1 ) und W1 in sich selbst ab, also gilt für F = G + λ1 idV
auch
F (Hau(F, λ1 )) ⊂ Hau(F, λ1 ) , F (W1 ) ⊂ W1 .
Bei passender Wahl der Basis B von V , also
B = (v1 , , . . . , vr1 , vr1 +1 , . . . , vn )
mit v1 , . . . , vr1 ∈ Hau(F, λ1 ) ,
vr1 +1 , . . . , vn ∈ W1 ,
und wenn man die Matrix MBB (F ) ansieht, erhält man
P (X) = (−1)n−r1 (X − λ2 )r2 · . . . · (X − λk )rk
F
.
W
F W hat also nur noch k − 1 Eigenwerte, und dafür können wir die Induktionsvoraussetzung anwenden.
(3) Auf den Vj := Hau(F, λj ) ist
Gj = (F − λj idV )Vj
nilpotent nach Definition von Hau(F, λj ) und nach (7.6.6)(4), denn
d
Gj j = 0 mit dj ≤ rj
.
Nach 7.6.7 hat man zu Gj bezüglich einer passenden Basis von Vj eine echte
obere Dreiecksmatrix
Nj ∈ M (rj × rj , K) ,
und die Matrix von F Vj ist dann
λj Ej + Nj
68
.
Insgesamt erhält man dann für V eine Basis B, für die

λ1 E1
 −−


D := 


0
MBB (F ) = D + N mit


|
0
N1 |
0


+

 −− +


..
..
 und N := 
.
.



+ −− 
+ −−
| λk Ek
0
| Nk
gilt. D ist eine Diagonalmatrix, N ist nilpotent, und es gilt


λ1 N1 |
0
 −−− +





..
D·N = N ·D = 

.



+ −−− 
0
| λk Nk







.
2
Bemerkung 7.6.11 : Man kann nicht nur beweisen, dass es eine Basis B
von V gibt, bezüglich der


λ1 E1 + N1 |
0
 −−−

+




..
MBB (F ) = 

.



+
−−− 
0
| λk Ek + Nk
ist, mit echten oberen Dreiecksmatrizen Nj , sondern man kann auch
noch die Basis so wählen, dass die Nj in kleinere Kästchen der Form

0 1
0

0
1

.

0 ..
Js := 

...

1
0




 ∈ M (s × s, K) , s ∈ N


zerfallen; wie gesagt: Jedes Nj in evtl. mehrere solche Kästchen mit s Zeilen
und Spalten. s = 1 bedeutet dabei: Js = (0). Sei F ∈ EndK V ,
69
r1 = µ(PF , λ1 ), dann können also für

λ1 1

.
 0 λ1 . .

...




0

λ1
0

 0





0
λ1
λ1 E1 + N1 die r1 × r1 −Matrizen

0



...
 ,


..
. 1 
λ1
0
..

.



.. ..

.
.


...
0 
λ1
,
vorkommen, aber oberhalb der Diagonale auch alle Kombinationen von 0 und
1. - Wir folgen nun dem Beweis von [Fi] :
(7.6.12) Konstruktion der Jordanschen Normalform
Sei V ein K−Vektorraum, dimK V = n ∈ N , F ∈ EndK V und
PF zerfalle in Linearfaktoren
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
mit r1 , . . . rk ∈ N ,
λ1 , . . . , λk ∈ K . Sei
Vj := Hau(F, λj ) := ker (F − λj idV )rj
für j ∈ k
.
Dann haben wir nach Satz 7.6.4 (2) :
V = V1 ⊕ . . . ⊕ Vk
.
Es gibt nun eine Basis von Vj , so dass F |Vj bezüglich dieser Basis von Vj die
Matrix
λj Ej + Nj
hat, mit einer echten oberen Dreiecksmatrix Nj (siehe etwa Teil (3) des Beweises von Satz 7.6.4). Nj ist dann die Matrix des nilpotenten Endomorphismus
G|Vj := F |Vj − λj idVj
,
und wir müssen nur noch zeigen, dass man bezüglich einer passenden Basis
von Vj für G|Vj eine Matrix erhält, die in der Diagonale Jordan-Kästchen der
70
in Bemerkung 7.6.11 angegebenen Form hat :
(7.6.13) Konstruktion der Jordan-Kästchen auf den Haupträumen
Bei festem j lassen wir den Index j weg:
Sei G := F −λ idV , Ul := ker Gl für l ≥ 0 und d := min
l ∈ N0 | Gl = 0 ,
dann haben wir die Kette
{0} = U0 ⊂ U1 ⊂ . . . ⊂ Ud−1 ⊂ Ud = V
.
Da d minimal ist, sind alle Inklusionen echt. Zunächst zwei Vorbemerkungen:
−1
(1) Für 1 ≤ l ≤ d ist G (Ul−1 ) = Ul , insbesondere G(Ul ) ⊂ Ul−1 .
Das folgt aus
−1
v ∈ G (Ul−1 ) ⇐⇒ G(v) ∈ Ul−1 ⇐⇒ 0 = Gl−1 (G(v)) = Gl (v) ⇐⇒ v ∈ Ul .
−1
Anwendung von G auf die Gleichung Ul = G (Ul−1 ) ergibt
−1
G(Ul ) = G( G (Ul−1 ) ⊂ Ul−1
,
und hier steht i.A. nur ⊂ , nicht = .
(2) Ist l ∈
N und W ein Untervektorraum von V mit W ∩ Ul = {0} , so
ist GW injektiv.
Denn wegen ker G = U1 ⊂ Ul gilt W ∩ ker G = {0}.
Damit konstruieren wir nun rekursiv eine direkte Summenzerlegung von
V = Hau(F, λ): Zunächst wählen wir ein Wd ⊂ V mit
V = Ud = Ud−1 ⊕ Wd
,
etwa, indem wir eine Basis von Ud−1 suchen, sie zu einer Basis von V ergänzen
und den von den neuen Basiselementen aufgespannten Raum als Wd nehmen.
Aus (1) folgt G(Wd ) ⊂ Ud und
G(Wd ) ∩ Ud−2 = {0} ,
denn sei y ∈ Wd und G(y) ∈ Ud−2 , dann ist Gd−1 (y) = 0 , also y ∈ Ud−1 ,
und Ud−1 ∩ Wd = {0}. Also gibt es eine Zerlegung
Ud−1 = Ud−2 ⊕ Wd−1
mit G(Wd ) ⊂ Wd−1
71
.
Die Iteration dieses Verfahrens ergibt folgendes Schema, wobei jeder ↓ eine
Anwendung von G zeigt:
Ud
↓
Ud−1 ⊕ Wd
↓
↓
Ud−2 ⊕ Wd−1 ⊕ Wd
↓
↓
↓
..
..
..
.
.
.
U1 ⊕ W2 ⊕ W3 ⊕ . . . ⊕ Wd
↓
↓
↓
↓
U0 ⊕ W1 ⊕ W2 ⊕ . . . ⊕ Wd−1 ⊕ Wd
Jede Zeile ist dabei eine Zerlegung von V . Wegen U0 = {0} gilt insbesondere
V = W1 ⊕ W2 ⊕ . . . ⊕ Wd
.
Wegen (2) sind die Restriktionen von G in der Kette
Wd −→ Wd−1 −→ . . . −→ W1
injektiv. Daher können wir, beginnend bei Wd , durch schrittweise Ergänzung
der Basen aller Wl dann insgesamt eine Basis von V nach folgendem Schema
erhalten:
(d)
(d)
w 1 , . . . , w sd ,
(d)
(d)
(d−1)
(d−1)
G(w1 ), . . . , G(wsd ),
w1
, . . . , wsd−1 ,
...
...
...
(1)
(1)
(d)
(d)
(d−1)
(d−1)
d−1
d−1
d−2
d−2
), . . . , G (wsd−1 ), . . . , w1 , . . . , ws1
G (w1 ), . . . , G (wsd ), G (w1
Diese Basiselemente ordnet man nun so an: Man nimmt die 1.Spalte dieser Tabelle, von unten nach oben, dann die 2.Spalte, von unten nach oben,
(d)
bis zur letzten Spalte. Es gilt wegen w1 ∈ ker Gd = Hau(F, λ) , also
(d)
(d)
F (Gd−1 (w1 )) = λGd−1 (w1 ) :
(d)
(d)
G(Gd−1 (w1 )) = Gd (w1 ) = 0,
(d)
(d)
G(Gd−2 (w1 )) = Gd−1 (w1 ),
also F (Gd−1 (wd) ))
=
(d)
λ Gd−1 (w(d) ) ,
(d)
(d)
also F (Gd−2 (w1 )) = Gd−1 (w1 )+λ Gd−2 (w1 ) ,
...
(d)
(d)
G(G(w1 )) = G2 (w1 ),
(d)
(d)
(d)
also F (G(w1 )) = G2 (w1 ) + λ G(w1 ) ,
72
(d)
(d)
(d)
G(w1 ) = G(w1 ),
(d)
(d)
also F (w1 ) = G(w1 ) + λ w1
.
Bezüglich dieser Basis von Hau (F, λ) hat F Hau(F,λ) die Matrix


λ
1
|


..
d Zeilen


.
λ
|
0


.


..
1
|




λ
| 0




.
 −− −− −− −− +

..




.
.


.
0
0



+ −− 
1 Zeile ,
|
λ
wobei der 1. “Jordan-Block” mit d Zeilen und Spalten genau sd −mal vorkommt, . . . , der letzte “Jordan-Block” mit 1 Zeile und Spalte genau s1 −mal.
Ist nun V = K n und F (x) = A · x , so schreibt man sich die Vektoren aus
der Basis B , die aus allen diesen Basisvektoren der Vj besteht, nacheinander
für j = 1, . . . , k , als Spalten in eine Matrix T −1 . Die Matrix
B
T · A · T −1
:=
heißt dann die Jordansche Normalform von A .
2
Wir wollen uns das nochmal als konkrete Handlungsanweisung aufschreiben:
(7.6.14) Praktisches Verfahren zur Konstruktion der Jordan-Basis
Sei V ein K−Vektorraum, dimK V = n ∈ N , F ∈ EndK V und
PF zerfalle in Linearfaktoren
PF (X) = (−1)n (X − λ1 )r1 · . . . · (X − λk )rk
mit r1 , . . . rk ∈ N ,
λ1 , . . . , λk ∈ K . Sei
Vj := Hau(F, λj ) := ker (F − λj idV )rj
für j ∈ k
.
Für jedes j ∈ k machen wir nun zwei Schritte, wobei wir hier bei festem j
den Index j weglassen :
1.Schritt: Konstruktion einer Basis von Hau(F, λ): Wir haben
⊂
⊂
⊂
{0} 6= ker (F − λ idV ) 6= . . . 6= ker (F − λ idV )d = Hau(F, λ)
73
mit einem d ≤ r . Wir suchen Basisvektoren
b1 , . . . , bl1 von ker (F − λ idV ) , ergänzen sie durch
bl1 +1 , . . . , bl2 ∈ ker (F − λ idV )2 \ ker (F − λ idV )
zu einer Basis von ker (F − λ idV )2
...
und ergänzen schließlich die Basis
,
ker (F − λ idV )d−1
(b1 , . . . , bld−1 ) von
durch Vektoren bld−1 +1 , . . . , bld ∈ ker (F − λ idV )d \ ker (F − λ idV )d−1 zu
einer Basis (b1 , . . . , bld−1 , . . . , bld ) von Hau(F, λ) .
2.Schritt: Verbesserung der Basis von Hau(F, λ):
Die zuletzt gefundenen Basisvektoren aus ker (F −λ idV )d \ ker (F −λ idV )d−1
nennen wir
(d)
w1 , . . . , ws(d)
,
d
und wenden darauf
G
F − λ idV
:=
an, dann liegen
(d)
G(w1 ), . . . , G(ws(d)
) in
d
ker Gd−1
,
sind dort auch linear unabhängig (Beweis siehe 7.6.13) , man nimmt sie als
neue Basisvektoren, ersetzt dadurch genau so viele der Basisvektoren
bld−2 +1 , . . . , bld−1
aus
ker Gd−1 \ ker Gd−2
und erhält dadurch Basisvektoren
(d)
(d−1)
G(w1 ), . . . , G(ws(d)
), w1
d
, . . . , ws(d−1)
d−1
aus
ker Gd−1 \ ker Gd−2 .
Wiederum wenden wir darauf G an. Nach d Schritten erhalten wir eine
Basis von Hau(F, λ) der Form
(d)
(d)
w 1 , . . . , w sd ,
(d)
(d)
(d−1)
(d−1)
G(w1 ), . . . , G(wsd ),
w1
, . . . , wsd−1 ,
...
...
...
(d)
(d)
(d−1)
(d−1)
(1)
(1)
d−2
d−1
d−1
d−2
G (w1 ), . . . , G (wsd ), G (w1
), . . . , G (wsd−1 ), . . . , w1 , . . . , ws1
Diese Basiselemente ordnet man nun so an: Man nimmt die 1.Spalte dieser Tabelle, von unten nach oben, dann die 2.Spalte, von unten nach oben,
74
(d)
bis zur letzten Spalte. Es gilt wegen w1
(d)
(d)
F (Gd−1 (w1 )) = λGd−1 (w1 ) :
(d)
(d)
G(Gd−1 (w1 )) = Gd (w1 ) = 0,
(d)
(d)
G(Gd−2 (w1 )) = Gd−1 (w1 ),
∈ ker Gd = Hau(F, λ) , also
also F (Gd−1 (wd) ))
=
(d)
λ Gd−1 (w(d) ) ,
(d)
(d)
also F (Gd−2 (w1 )) = Gd−1 (w1 )+λ Gd−2 (w1 ) ,
...
(d)
(d)
(d)
G(G(w1 )) = G2 (w1 ),
(d)
(d)
(d)
also F (G(w1 )) = G2 (w1 ) + λ G(w1 ) ,
(d)
(d)
G(w1 ) = G(w1 ),
(d)
(d)
also F (w1 ) = G(w1 ) + λ w1
.
Bezüglich dieser Basis von Hau (F, λ) hat F Hau(F,λ) die Matrix


λ
1
|


...
d Zeilen


|
0
λ


..


.
1
|




λ
| 0




.

 −− −− −− −− +
..




...


0
0



+ −− 
1 Zeile ,
|
λ
wobei der 1. “Jordan-Block” mit d Zeilen und Spalten genau sd −mal vorkommt, . . . , der letzte “Jordan-Block” mit 1 Zeile und Spalte genau s1 −mal.
Ist nun V = K n und F (x) = A · x , so schreibt man sich die Vektoren aus
der Basis B , die aus allen diesen Basisvektoren der Vj besteht, nacheinander
für j = 1, . . . , k , als Spalten in eine Matrix T −1 . Die Matrix
B
:=
T · A · T −1
ist dann die Jordansche Normalform von A .
2
− In der Praxis (d.h. bei Übungsaufgaben, bei denen n klein ist), sehen die
Basen der Vj nicht so gewaltig aus wie im “2.Schritt” angegeben. Dazu ein
nichttriviales, aber dennoch übersichtliches
75
Beispiel 7.6.15 : Sei F : R7

2
 0

 0

A := 
 0
 0

 0
0
−→ R7 , F (x) := A · x

3 0 0 0 0 0
2 3 0 0 0 0 

0 2 0 0 0 0 

0 0 3 0 0 0 
 ,
0 0 0 2 0 0 

0 0 0 0 2 1 
0 0 0 0 0 2
so ist PF (X) = −(X − 2)6 · (X − 3) .
µ(PF , 3)
=
1
Eig(F, 3)
=
=
mit
Für λ2 := 3 haben wir
dim Eig(F, 3) ,
R · e4
es ist
.
Für λ1 := 2 ist Hau(F, 2) = ker (F − 2 idR7 )6 , und wir stellen fest:











0
 0

 0

7 
ker (F − 2 idR7 ) = x ∈ R  0


 0





 0



0
=
x ∈ R7 x2 =
=
3
0
0
0
0
0
0
0
3
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0





·x




x3 = x4 = x7 = 0
=
0



















span(e1 , e5 , e6 ) ,
dim ker (F − 2 idR7 ) = 3 < 6 = µ(PF , 2) ,
also ist F nicht diagonalisierbar. Um ker (F
drieren wir die Matrix von F − 2 idR7 :

0 0 9 0
 0 0 0 0

 0 0 0 0

2
(A − 2 E7 )
= 
 0 0 0 1
 0 0 0 0

 0 0 0 0
0 0 0 0
− 2 idR7 )2 zu berechnen, qua0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0










,
damit wird ker (F − 2 idR7 )2 = span(e1 , e5 , e6 , e2 , e7 ) . Die Matrix von
(F − 2 idR7 )3 ist schließlich die Diagonalmatrix
diag(0, 0, 0, 1, 0, 0, 0) ,
76
d.h. in der Diagonale steht (0, 0, 0, 1, 0, 0, 0) , und außerhalb der Diagonale
0 . Also ist
ker (F − 2 idR7 )3
,e ,e ,e ) ,
span( e1 , e5 , e6
{z
} 2 7 3
|
∈ ker (F − 2 idR7 )
|
{z
}
2
∈ ker (F − 2 idR7 )
|
{z
}
∈ ker (F − 2 idR7 )3
=
und wegen dim ker (F − 2 idR7 )3 = 6 = µ(PF , 2) ist ker (F − 2 idR7 )3 der
Hauptraum Hau(F, 2) . Hier ist also r = 6 , d = 3 .
Nun fangen wir an mit
(3)
w1
und bilden für G := F − 2 idR7 :
:= e3
(3)
G(w1 ) = 3 e2
.
Wir suchen uns ein Element b aus {e2 , e7 } , so dass (3 e2 , b) eine Basis von
span(e2 , e7 ) ist; so erhalten wir
(3)
w1
= e3
,
(3)
(2)
G(w1 ) = 3 e2 , w1
:= e7
und wenden auf die letzten beiden Vektoren wieder G an:
(2)
(3)
G2 (w1 ) = 3 G(e2 ) = 9 e1 , G(w1 ) = G(e7 ) = e6 ,
also ist unsere Basis von Hau (F, 2) :
(3)
w1 = e3
(3)
G(w1 ) = 3 e2
(3)
G2 (w1 ) = 9 e1
,
,
,
(2)
w1 = e7
(2)
G(w1 ) = e6
,
,
(1)
w1
:= e5
,
die wir in der beschriebenen Weise anordnen. Dazu kommen noch die Basen
der übrigen Haupträume, in diesem Fall die Basis (e4 ) von Hau (F, 3) . Wir
setzen
B := (9 e1 , 3 e2 , e3 , e6 , e7 , e5 , e4 )
und erhalten mit diesen Spalten die Transformationsmatrix
T −1
:=
T
(9 e1 , 3 e2 , e3 , e6 , e7 , e5 , e4 ) , was
1
1
=
e1 , e2 , e3 , e7 , e6 , e4 , e5
9
3
77
ergibt. Damit wird

T · A · T −1
=















2
0
0
−
1
2
0
−
0
1
2
−
|
|
|
+
|
|
|
−
0

0
0
−
2
0
−
− −|
1
|
2
|
− +
|
|
−
0
− −|
2
|
− +
|














− 
3
,
und das ist die Jordansche Normalform von A .
(7.7) Aufgaben
(7.1) Bestimmen Sie die Eigenwerte der folgenden Matrizen aus M (3×3, R):






3 0 −5
5 6
2
−1 0 1
A =  15 −1 0  , B =  0 −1 −8  , C =  −1 3 0  .
1 1 −2
1 0 −2
−4 13 −1
Sind diese Matrizen diagonalisierbar ? Kann man Sie auf Jordansche
Normalform bringen ? Geben Sie passende Basen des R3 an, bezüglich
denen die transformierte Matrix diese Form hat.
(7.2) Bestimmen Sie die komplexen Eigenwerte der folgenden Matrizen :




1 2 1
2
1
2
0
 2 3 2
3 

 −2 −3 −4  ,
A = 
 0 0 −1 −1  , B =
1
1
1
0 0 2
1
cos α sin α
i 1
C =
,α∈R , D =
.
− sin α cos α
2 3i
(7.3) a) Sei K ein Körper, n ∈ N , n ≥ 2 , a1 , . . . , an−1 ∈ K . Zeigen Sie :
78
Die Matrix

A
:=








0 0 0 . . . 0 −a0
1 0 0 . . . 0 −a1
0 1 0 . . . 0 −a2
..
..
.. ..
.
.
.
.
..
..
...
.
0
.
0
. . . 0 1 −an−1









hat das charakteristische Polynom
PA (X) = (−1)n (X n + an−1 X n−1 + . . . + a1 X + a0 ) .
b) Geben Sie eine Matrix A ∈ M (2 × 2, Z) an mit
A3 = E2 und A 6= E2 .
c) K habe unendlich viele Elemente, und P (X) sei ein Polynom
mit deg P (X) = n, dann gibt es unendlich viele Matrizen
A ∈ M (n × n, K) mit
P (A) = 0 .
(7.4) Sei V ein endlichdimensionaler Vektorraum. Sei ϕ ∈ V ∗ , ϕ 6= 0
gegeben und h 6= 0 , h ∈ ker ϕ . Sei F : V −→ V die durch
F (v) := v + ϕ(v) h
definierte lineare Abbildung. Bestimmen Sie die Eigenwerte und die
Determinante von F .
(7.5) Sei R ein kommutativer Ring mit 1 . Zeigen Sie, dass für
A ∈ M (2 × 2, R) gilt
A2 − (trA) · A + det A · E2
=
0 ,
a) durch direkte Rechnung ,
b) für den Fall, dass R ein Körper ist, mit dem Satz von
Cayley - Hamilton !
(7.6) Berechnen Sie die Minimalpolynome
M (3 × 3, C) :



1
3
3
0



3
1
3
1
a)
, b)
−3 −3 −5
0
folgender Matrizen aus

0 γ
0 β 
1 α
mit
α, β, γ ∈ C .
(7.7) Sei n ∈ N , K ein Körper. Eine Matrix A ∈ M (n × n, K) , A 6= 0
heißt idempotent , wenn A2 = A ist. Zeigen Sie für eine idempotente
79
Matrix A :
a) Es gibt ein r ∈ n mit
PA (X) = (1 − X)r · (−X)n−r .
b) Sei fA : K n −→ K n , fA (x) := A · x , dann gilt
K n = fA (K n ) ⊕ ker fA .
c) Es gibt ein S ∈ GL(n, K) , so dass


Er
0

S −1 · A · S = 
0
0
ist, mit dem r aus a) , und es ist r = Rg A .
(7.8) Geben Sie Transformationsmatrizen T −1 ∈ GL(3, R) an, so dass
(∗)
B
:=
T · A · T −1
Diagonalform hat, und rechnen Sie nach, dass (∗) gilt, für A :=




−1 0
0
2 2 3
a)  −3 −2 −2  , b)  1 2 1  ,
6
6
5
2 −2 1


−5 0 7
c)  6 2 −6  .
−4 0 6
(7.9) Sei K ein Körper. Bestimmen Sie alle Eigenwerte und einen zugehörigen Eigenvektor des K−Vektorraum-Endomorphismus
F : K[X] −→ K[X] ,
a) F (P (X)) := X · D(P (X)) ,
b) F (P (X)) := X 2 · D2 (P (X)) + X · D(P (X)) ,
für P (X) ∈ K[X] , wobei D die in Aufgabe (3.4) definierte Ableitung
eines Polynoms ist. Wie viele Eigenwerte sind das
α) für K = R , β) für K = Z/(5) ?
(7.10) a) Sei K ein Körper mit char K 6= 2 und A ∈ M (2 × 2, K) mit
A2 = E2 . Zeigen Sie: Es gilt
A = E2
oder A = −E2
oder ∃ S ∈ GL(2, K) : S · A · S
80
−1
=
1 0
0 −1
.
b) Zeigen Sie, dass die Aussage aus a) für K = Z/2Z nicht gilt.
(7.11) Geben Sie zu den folgenden Matrizen A :=




3 1 1
2 −1 2
 0 4 2 
 0 −2 −8 
a)
, b)
1 −1 5
0 2
6
Transformationsmatrizen T −1 ∈ GL(3, R) an, so dass
(∗)
B
:=
T · A · T −1
Jordansche Normalform hat, und rechnen Sie nach, dass (∗) gilt.
81
§8 Das Tensorprodukt
8.1 Definition und Eigenschaften
(8.1.1) Vorbemerkung: Im nächsten Paragraphen brauchen wir die Komplexifizierung eines R−Vektorraums. Man kann sie zwar auch ohne das Tensorprodukt einführen, aber das wirkt dann sehr künstlich. - Wir halten uns
hier an das Buch von [Fi] .
Bilineare Abbildungen sind uns schon bei den Determinanten und beim Skalarprodukt begegnet. Hier müssen wir die Definition etwas allgemeiner fassen:
Definition 8.1.2 : Sei K ein beliebiger Körper und seien U, V, W Vektorräume
über K. Dann heißt eine Abbildung
ξ : V × W −→ U
K− bilinear, wenn für jedes feste v ∈ V und jedes w ∈ W die Abbildungen
ξv : W −→ U , w 7−→ ξ(v, w) und
ξw : V −→ U , v 7−→ ξ(v, w)
K− linear sind. - Man kann nachrechnen, dass die Menge
Bil(V, W ; U ) := { ξ : V × W −→ U | ξ ist K − bilinear }
wieder ein K−Vektorraum ist.
Beispiel 8.1.3 : Sei d ∈ N und seien V := W := K[X]d und U := K[X]2d
die K−Vektorräume der Polynome in X vom Grad ≤ d bzw ≤ 2d, mit Basen
(1, X, . . . , X d ) bzw. (1, X, . . . , X 2d ) und
ξ : K[X]d × K[X]d −→ K[X]2d
,
(P, Q) 7−→ P · Q ,
wobei · das in 3.3.10 definierte Produkt ist, so sieht man, dass ξ bilinear ist.
Es gilt
ξ(X j , X k ) = X j+k ,
also liegt eine Basis von K[X]2d in Bild(ξ) := ξ(K[X]d × K[X]d ). Dieses
Bild ist aber kein Untervektorraum von K[X]2d : Sei etwa d = 1 und
K = Q, dann ist X 2 − 2 ∈
/ Bild(ξ), obwohl X 2 , −2 ∈ Bild(ξ) sind,
K = R, dann ist X 2 + 1 ∈
/ Bild(ξ) , obwohl X 2 , 1 ∈ Bild(ξ) sind.
82
Bemerkung und Vereinbarung 8.1.4 : In Satz 4.4.10 hatten wir gesehen, dass eine lineare Abbildung durch die Funktionswerte der Elemente
einer Basis eindeutig bestimmt ist. Wir wollen das auf bilineare Abbildungen
übertragen. Man beachte dazu: Sind (vj )j∈J und (wl )l∈L Basen von V bzw.
W , so bilden die
(vj , 0), j ∈ J
zusammen mit den (0, wl ), l ∈ L
eine Basis von V × W , denn sei (v, w) ∈ V × W , dann sind v und w Summen
X
X
v =
αj vj und w =
βl w l
j∈J
l∈L
mit αj , βl ∈ K, wobei fast alle αj , βl Null sind: Wir wollen künftig
X0
X0
v =
αj vj , w =
βl wl
j∈J
l∈L
für solche endlichen Summen schreiben. Dann ist
X0
X0
(v, w) =
αj (vj , 0) +
βk (0, wk ) ,
j∈J
k∈L
womit gezeigt ist, dass die (vj , 0), j ∈ J mit den (0, wl ), l ∈ L ein Erzeugendensystem von V × W bilden, und die lineare Unabhängigkeit ist auch klar.
Dagegen ist die Familie
((vj , wl ))(j,l)∈J×L
im allgemeinen weder ein Erzeugendensystem von V × W noch linear unabhängig.- Die Basiselemente
(vj , 0) , j ∈ J , (0, wl ) , l ∈ L von V × W
werden von jeder bilinearen Abbildung V × W −→ U auf 0 abgebildet.
Durch die Funktionswerte der Elemente einer Basis von V × W kann man
eine bilineare Abbildung also nicht charakterisieren. Wir erinnern uns aber
an die darstellende Matrix einer symmetrischen Bilinearform aus Definition
6.3.1. Das folgende ist eine Verallgemeinerung davon:
Bemerkung 8.1.5: Seien V und W Vektorräume über dem Körper K, mit
Basen
(vj )j∈J bzw. (wl )l∈L .
Ist U ein weiterer K−Vektorraum, so gibt es zu jeder vorgegebenen Familie
(ujl )(j,l)∈J×L von Elementen aus U genau eine bilineare Abbildung
ξ : V × W −→ U
mit ξ(vj , wl ) = ujl
83
für alle (j, l) ∈ J × L .
Beweis : Sei (v, w) ∈ V × W , dann gibt es eindeutig bestimmte λj , µl ∈ K
mit
X0
X0
v =
λj vj , w =
µl w l .
j∈J
l∈L
Wenn es ein bilineares ξ mit den geforderten Eigenschaften gibt, folgt
X0
X0
X 0
X 0
ξ(v, w) = ξ(
λj vj ,
µl w l ) =
λj µl ξ(vj , wl ) =
λj µl ujl
j∈J
l∈L
j∈J,l∈L
.
j∈J,l∈L
Damit ist gezeigt, dass es höchstens eine solche Abbildung gibt.
Umgekehrt: Wir definieren ξ durch
X 0
ξ(v, w) :=
λj µl ujl
j∈J,l∈L
und zeigen, dass auf diese Weise eine Abbildung von V × W nach U definiert
ist, die bilinear ist. Dazu halten wir w fest. Dann sieht man, dass
X0
X 0
ξw : V −→ U , v =
λj vj 7−→
λj µl ujl
j∈J
j∈J,l∈L
linear ist. Analog erhält man, dass für festes v ∈ V die Abbildung
X0
X 0
ξv : W −→ U , w =
µl wl 7−→
λj µl ujl
l∈L
j∈J,l∈L
linear ist. Damit haben wir die Existenz einer solchen Abbildung gezeigt.
2
Definition 8.1.6 : Seien V und W Vektorräume über K, mit Basen
(vj )j∈J
bzw. (wl )l∈L
.
a) Im K−Vektorraum
F(J × L, K) = {τ : J × L −→ K} sei
V ⊗K W := { τ : J × L −→ K | ∀0 (j, l) ∈ J × L : τ (j, l) = 0 }
,
die Menge derjenigen τ , die ungleich 0 nur für endlich viele (j, l) sind.
V ⊗K W ist ein Untervektorraum von F(J × L, K) , also ein K−
Vektorraum. Man nennt V ⊗K W das Tensorprodukt der K−Vektorräume
V und W , und die Elemente von V ⊗K W Tensoren.
84
b) Wir können sofort eine Basis von V ⊗K W angeben (und uns damit
das Tensorprodukt besser vorstellen): Für (j, l) ∈ J × L sei vj ⊗ wl die
Abbildung, die an der einzigen Stelle (j, l) den Wert 1 hat und sonst
den Wert 0, dann ist
(vj ⊗ wl )(j,l)∈J×L
eine Basis von V ⊗K W
denn für beliebiges τ ∈ V ⊗K W gilt
X 0
τ =
τ (j, l) vj ⊗ wl
,
,
j∈J,l∈L
also haben wir ein Erzeugendensystem. Ist
X 0
τ :=
αjl vj ⊗ wl = 0 ,
j∈J,l∈L
so gilt τ (j, l) = 0, da die Nullabbildung überall den Wert 0 hat, also
αjl = 0 für alle (j, l).
- Für endlichdimensionale V, W folgt damit
dimk (V ⊗k W )
=
dimk V · dimk W
.
c) Durch
η : V × W −→ V ⊗K W
,
η(vj , wl ) := vj ⊗ wl
wird nach Bemerkung 8.1.5 genau eine bilineare Abbildung von V × W
in V ⊗K W definiert. Seien
X0
X0
v =
λj vj ∈ V , w =
µl w l ∈ W ,
j∈J
l∈L
dann haben wir wegen der Bilinearität von η:
X0
X0
X
η(v, w) = η(
λj vj ,
µl w l ) =
j∈J
l∈L
j∈J,l∈L
Wir setzen nun allgemein für v ∈ V , w ∈ W :
v ⊗ w := η(v, w) .
85
0
λj µl vj ⊗ wl
.
Theorem 8.1.7 : Seien V und W Vektorräume über K . Dann hat das
Tensorprodukt V ⊗K W , zusammen mit der in 8.1.6 c) definierten bilinearen
Abbildung
η : V × W −→ V ⊗K W
die folgende universelle Eigenschaft : Zu jedem K−Vektorraum U zusammen mit einer bilinearen Abbildung
ξ : V × W −→ U
gibt es genau eine lineare Abbildung
ξ⊗ : V ⊗K W −→ U
mit ξ = ξ⊗ ◦ η
.
Man hat also das kommutative Diagramm :
V ×W
ξ
U
η
∃1 ξ⊗
V ⊗K W
Beweis : Ist ein bilineares ξ : V × W −→ U gegeben, so setzen wir für
gegebene Basen
(vj )j∈J bzw. (wl )l∈L
von V bzw. W :
ujl := ξ(vj , wl ) ∈ U
.
Wegen der Bedingung ξ = ξ⊗ ◦ η muss
ξ⊗ (vj ⊗ wl ) = ujl
sein. Nach Satz 4.4.10 gibt es genau eine lineare Abbildung ξ⊗ mit dieser
Eigenschaft, und es gilt
!
X 0
X 0
ξ⊗
αjl (vj ⊗ wl )
=
αjl ujl .
j∈J,l∈L
j∈J,l∈L
86
Also ist ξ⊗ (v ⊗ w) = ξ(v, w) für alle (v, w) ∈ V × W , und damit
ξ⊗ ◦ η = ξ
.
2
- Aus der Bilinearität von η folgen sofort die grundlegenden
(8.1.8) Rechenregeln für Tensoren: Wird η : V × W −→ V ⊗k W wie
in (8.1.6) definiert und ist
v ⊗ w := η(v, w) ,
so gilt für v, v 0 ∈ V, w, w0 ∈ W und λ ∈ K:
a) v ⊗ w + v 0 ⊗ w = (v + v 0 ) ⊗ w , v ⊗ w + v ⊗ w0 = v ⊗ (w + w0 ) ,
b) (λ v) ⊗ w = v ⊗ (λ w) = λ (v ⊗ w) .
2
(8.1.9) Beachten Sie : a) Eine beliebige Summe
v ⊗ w + v 0 ⊗ w0
kann auch mit den Regeln aus (8.1.8) im alllgemeinen nicht zu einem Produkt v 00 ⊗ w00 mit v 00 ∈ V, w00 ∈ W zusammengezogen werden. Merken wir
uns: Tensoren sind endliche Summen
X 0
αjl (vj ⊗ wl ) ,
j∈J,l∈L
mit αjl ∈ K , wenn man Basen (vj )j∈J von V , (wl )l∈L von W hat, bzw.
k
X
ar ⊗ b r
mit k ∈ N0 , ar ∈ V , br ∈ W
.
r=1
In Aufgabe (8.2) werden wir uns noch damit beschäftigen, wann man einen
Tensor als Produkt a ⊗ b mit a ∈ V, b ∈ W schreiben kann.
b) Die Regel b) aus (8.1.8) kann man so lesen, dass das K in V ⊗K W angibt,
dass man Skalare λ aus K über das Zeichen ⊗ ziehen kann.
(8.1.10) Beispiel : Sei V := W := K[X] der Vektorraum der Polynome
in einer Unbestimmten über K und U := K[X1 , X2 ] der Vektorraum der
Polynome in zwei Unbestimmten über K. Dann ist die Abbildung
ξ : K[X] × K[X] −→ K[X1 , X2 ] ,
87
(P (X), Q(X)) 7−→ P (X1 ) · Q(X2 )
bilinear (aber nicht surjektiv). Wegen der universellen Eigenschaft (8.1.7)
gibt es eine lineare Abbildung
ξ⊗ : K[X] ⊗K K[X] −→ K[X1 , X2 ] ,
X j ⊗ X l 7−→ X1j · X2l
.
Nun bilden die Monome X1j · X2l mit j, l ∈ N0 eine Basis von K[X1 , X2 ] ,
also ist ξ⊗ ein Isomorphismus. Wir hätten den Polynomring K[X1 , X2 ] also
auch auf diese Weise aus K[X] konstruieren können.
(8.1.11) Beispiel : Sei W ein beliebiger R−Vektorraum und V der
R−Vektorraum C, mit Basis (1, i), dann haben wir die bilineare Abbildung
C × W −→ C ⊗R W
,
(λ, w) 7→ λ ⊗ w
.
Sei (wj )j∈J eine Basis von W . Dann bilden die
1 ⊗ wj , i ⊗ wj , j ∈ J
eine R−Basis von C ⊗R W . Jedes w∗ ∈ C ⊗R W lässt sich also in eindeutiger
Weise schreiben als
X0
X0
X0
X0
w∗ =
αj (1 ⊗ wj ) +
βj (i ⊗ wj ) =
(αj + βj i) ⊗ wj =
λj ⊗ wj
j∈J
j∈J
j∈J
j∈J
mit αj , βj ∈ R und λj ∈ C. Nun machen wir C⊗R W zu einem C−Vektorraum
durch die Abbildung
!
X0
X0
C×(C⊗R W ) −→ C⊗R W ,
λ,
λj ⊗ wj 7→
λ·λj ⊗wj .
j∈J
j∈J
C ⊗R W wird so zu einem C−Vektorraum mit C−Basis (1 ⊗ wj )j∈J . Man
nennt WC := C ⊗R W die Komplexifizierung von W .
Man hat noch die R−lineare Abbildung
W −→ C ⊗R W
,
w 7→ 1 ⊗ w
.
Sie ist injektiv, also ist ihr Bild 1 ⊗ W isomorph zu W . Man kann also W
auffassen als reellen Untervektorraum von WC .
8.2 Symmetrische und alternierende Tensoren
Das Tensorprodukt ist nicht kommutativ: Selbst wenn V = W ist, gilt für
v, v 0 ∈ V im allgemeinen v ⊗ v 0 6= v 0 ⊗ v:
Definition 8.2.1 : Sind V und U Vektorräume über K , so heißt eine bilineare Abbildung
ξ : V × V −→ U
88
symmetrisch
,
wenn ∀ v, v 0 ∈ V : ξ(v, v 0 ) = ξ(v 0 , v) , und
alternierend
,
wenn ∀ v ∈ V : ξ(v, v) = 0 gilt.
Bemerkung 8.2.2 : Ist ξ alternierend, so gilt
∀ v, v 0 ∈ V : ξ(v, v 0 ) = −ξ(v 0 , v) ,
und wenn char K 6= 2 ist , folgt aus dieser Aussage umgekehrt, dass ξ alternierend ist.
Beweis : Das folgt daraus, dass für alle v, v 0 ∈ V gilt
ξ(v + v 0 , v + v 0 ) = ξ(v, v) + ξ(v 0 , v) + ξ(v, v 0 ) + ξ(v 0 , v 0 ) .
2
Definition 8.2.3 : Sei V ein K−Vektorraum, dann setzen wir
S(V ) := span(v ⊗ v 0 − v 0 ⊗ v)v,v0 ∈V ⊂ V ⊗K V
A(V ) := span(v ⊗ v)v∈V ⊂ V ⊗K V
,
.
Damit kann man sehen, ob eine bilineare Abbildung symmetrisch oder alternierend ist:
Lemma 8.2.4 : Für jedes bilineare ξ : V × V −→ U gilt:
ξ ist symmetrisch
⇐⇒
S(V ) ⊂ ker ξ⊗
,
ξ ist alternierend
⇐⇒
A(V ) ⊂ ker ξ⊗
.
Beweis : Das folgt aus den Gleichungen
ξ(v.v 0 ) − ξ(v 0 , v) = ξ⊗ (v ⊗ v 0 ) − ξ⊗ (v 0 ⊗ v) = ξ⊗ (v ⊗ v 0 − v 0 ⊗ v) ,
ξ(v, v) = ξ⊗ (v ⊗ v) .
2
Mit Hilfe der universellen Eigenschaft des Tensorprodukts beweisen wir nun
die Existenz des äußeren Produkts V ∧ V :
Theorem 8.2.5 : Zu jedem K−Vektorraum V gibt es einen K−Vektorraum
V ∧ V zusammen mit einer alternierenden Abbildung
∧ : V × V −→ V ∧ V
89
und folgender universeller Eigenschaft: Zu jedem K−Vektorraum W zusammen mit einer alternierenden Abbildung
ξ : V × V −→ W
gibt es genau eine lineare Abbildung ξ∧ derart, dass das Diagramm
V ×V
∧
ξ
W
∃1 ξ∧
V ∧V
kommutiert, d.h. es gilt ξ = ξ∧ ◦ ∧.
Ist (v1 , . . . vn ) eine Basis von V , so ist
vj ∧ vl := ∧(vj , vl ) mit 1 ≤ j < l ≤ n
eine Basis von V ∧ V und damit
dim(V ∧ V ) =
n
2
=
n(n − 1)
2
.
Beweis : a) Sei A(V ) der in (8.2.3) definierte Untervektorraum von V ⊗K V ,
dann bilden wir den Quotienten-Vektorraum
V ∧V
:=
(V ⊗K V )/A(V )
.
Sei ρ : V ⊗K V −→ V ∧ V der kanonische Nebenklassenepimorphismus,
dann setzen wir ∧ := ρ ◦ η, wobei η in 8.1.6 c)definiert war. Für v, v 0 ∈ V
ist dann also
v ∧ v 0 := ∧(v, v 0 ) = ρ(η(v, v 0 )) = ρ(v ⊗ v 0 ) .
Die Abbildung ∧ ist bilinear und nach Lemma 8.2.4 auch alternierend.
Zum Beweis der universellen Eigenschaft betrachten wir folgendes Diagramm:
90
V ×V
ξ
η
(∗)
ξ⊗
V ⊗K V
∧
W
ρ
ξ∧
V ∧V
Zu ξ gibt es nach Theorem 8.1.7 das eindeutig bestimmte lineare ξ⊗ , und
nach dem Homomorphiesatz (4.3.11) für Vektorräume ein eindeutig bestimmtes ξ∧ mit ξ∧ ◦ ρ = ξ⊗ , wegen A(V ) ⊂ ker ξ⊗ . Nach der Definition der Abb.
∧ sind alle drei inneren Dreiecke von (∗) dann kommutative Diagramme, und
damit auch das ganze Diagramm (∗). Für alle v, v 0 ∈ V gilt also
ξ∧ (v ∧ v 0 ) = ξ(v, v 0 ) ,
ξ∧ ist also eindeutig bestimmt.
b) Wir müssen nur noch die Behauptung über die Basis von V ∧ V zeigen:
Da V ⊗V von den Tensoren vj ⊗vl , j, l ∈ n, erzeugt wird, erzeugen die vj ∧vl
den Raum V ∧ V . Wegen
vj ∧ vj = 0 und vj ∧ vl = −vl ∧ vj
n
bilden schon die
Produkte
2
vj ∧ vl
mit j < l
ein Erzeugendensystem. Um zu zeigen, dass sie linear
sind, ge unabhängig
n
ben wir eine lineare Abbildung von V ∧ V in den
− dimensionalen
2
Vektorraum
n
N
K
mit N :=
2
an, dessen kanonische Basis wir mit
(ejl )1≤j<l≤n
91
bezeichnen. Wir konstruieren dazu eine alternierende Abbildung
ξ : V × V −→ K N folgendermaßen: Seien
v =
n
X
λj vj
n
X
0
und v =
j=1
µl vl
l=1
gegebene Elemente aus V , dann nehmen wir in der Matrix
λ1 . . . λn
A :=
µ1 . . . µn
die 2 × 2− Unterdeterminanten
ajl := λj µl − λl µj
.
Dann ist durch
ξ(v, v 0 ) :=
X
ajl ejl
j<l
eine alternierende Abbildung gegeben. Wegen der in a) bewiesenen universellen Eigenschaft ist dann
ξ∧ (vj ∧ vl ) = ξ(vj , vl ) = ejl
.
Hat man nun eine Gleichung
X
γjl vj ∧ vl = 0 mit γjl ∈ K
,
j<l
so wendet man darauf ξ∧ an, und aus der linearen Unabhängigkeit der
ejl , j < l , folgt, dass alle γjl Null sind. Die so erhaltene Abbildung
ξ∧ : V ∧ V −→ K N
ist also ein Isomorphismus; damit kann man sich V ∧V auch besser vorstellen.
2
Da die Abbildung ∧ alternierend ist, hat man die folgenden
(8.2.6) Rechenregeln für das äußere Produkt : Für alle
v, v 0 , w, w0 ∈ V und λ ∈ K gilt
a) (v + v 0 ) ∧ w = v ∧ w + v 0 ∧ w , v ∧ (w + w0 ) = v ∧ w + v ∧ w0
92
,
b) (λv) ∧ w = v ∧ (λw) = λ(v ∧ w) ,
c) v ∧ v = 0 , v ∧ v 0 = −v 0 ∧ v .
2
(8.2.7) Beachten Sie, dass wegen der Regel (8.2.6) c) das äußere Produkt
V ∧ W für zwei verschiedene Vektorräume V, W keinen Sinn ergibt.
8.3 Tensoralgebra und äußere Algebra
Definition 8.3.1 : Sei k ∈ N und V1 , . . . , Vk , W Vektorräume über K. Eine
Abbildung
ξ : V1 × . . . × Vk −→ W
heißt multilinear oder k−fach linear, wenn für jedes j ∈ k und fest gewählte vl ∈ Vl , l ∈ k \ {j} die Abbildung
Vj −→ W
,
v 7→ ξ(v1 , . . . , vj−1 , v, vj+1 , . . . , vk )
K−linear ist.
2
Analog zu Theorem 8.1.7 beweist man das
Theorem 8.3.2 : Sei k ∈ N und V1, . . . , Vk , W seien K−Vektorräume. Dann
gibt es einen K−Vektorraum
V1 ⊗K . . . ⊗K Vk
zusammen mit einer k−fach linearen Abbildung
η : V1 × . . . × Vk −→ V1 ⊗K . . . ⊗K Vk
,
(v1 , . . . , vk ) 7→ v1 ⊗ . . . ⊗ vk
so dass es zu jeder k−fach linearen Abbildung
ξ : V1 × . . . × Vk −→ W
genau eine lineare Abbildung ξ⊗ gibt, so dass das Diagramm
93
,
ξ
V1 × . . . × Vk
W
η
∃1 ξ⊗
V1 ⊗K . . . ⊗K Vk
kommutativ wird. Sind alle Vj endlichdimensional, mit Basen
(j)
) ,
(v1 , . . . , vr(j)
j
j∈k
so bilden die Produkte
(1)
(k)
vl1 ⊗ . . . ⊗ vlk
mit 1 ≤ lj ≤ rj
für j ∈ k
eine Basis von V1 ⊗K . . . ⊗K Vk , und es ist
dim V1 ⊗K . . . ⊗K Vk = dim V1 · . . . · dim Vk .
2
Bemerkung 8.3.3 : Ein wichtiger Spezialfall ist folgender: Sei V ∗ der Dualraum von V und seien p, q ∈ N0 , dann setzt man
T := V ∗ ⊗K . . . ⊗K V ∗ ⊗K V ⊗K . . . ⊗K V
{z
}
|
{z
}
|
p−mal
q−mal
.
Ein Element von T heißt ein p−fach kovarianter und q−fach
kontravarianter Tensor . In der Physik begegnet einem meist die Basisdarstellung solcher Tensoren: Sei (v1 , . . . , vn ) eine Basis von V und (v 1 , . . . , v n )
die dazu duale Basis von V ∗ . Dann ist jedes Element von T eine eindeutige
Linearkombination
X
l ...l
αj11 ...jqp v j1 ⊗ . . . ⊗ v jp ⊗ vl1 ⊗ . . . ⊗ vlq
j1 ,...,jp ,l1 ,...,lq
l ...l
mit j1 , . . . , jp , l1 , . . . , lq ∈ n und αj11 ...jqp ∈ K . Physiker schreiben meist
nur diese Koeffizienten hin, was keine Probleme ergibt, falls man von einer
94
festen Basis (v1 , . . . , vn ) ausgeht. Das ist etwa so, wie wenn man statt einer
linearen Abbildung die entsprechende Matrix betrachtet.
Definition 8.3.4 : a) Es kann sein, dass in der Definition 8.3.1 und in Satz
8.3.2 alle Vj , j ∈ k gleich einem V sind. Dann schreiben wir
V ⊗k := V ⊗K . . . ⊗K V
|
{z
}
k−mal
.
b) Eine k−fach lineare Abbildung
ξ : V k −→ W
heißt
symmetrisch , wenn für jede Permutation σ ∈ Sk gilt:
ξ(v1 , . . . , vk ) = ξ(vσ(1) , . . . , vσ(k) ),
alternierend , wenn ξ(v1 , . . . , vk ) = 0 ist, falls es ein Paar
(j, l) ∈ k × k gibt mit j 6= l und vj = vl .
2
Analog zu (8.2.2) beweist man die
Bemerkung 8.3.5 : Ist ξ alternierend und σ ∈ Sk , so gilt
ξ(vσ(1) , . . . , vσ(k) )
=
sign (σ) · ξ(v1 , . . . , vk ) .
2
Definition 8.3.6: Sei V ein K−Vektorraum, dann setzen wir noch
V ⊗0 := K
.
In der direkten Summe
T (V ) := V ⊗0 ⊕ V ⊗1 ⊕ V ⊗2 ⊕ . . .
definieren wir ein Produkt ⊗, indem wir für
v1 ⊗ . . . ⊗ vj ∈ V ⊗j , w1 ⊗ . . . ⊗ wl ∈ V ⊗l setzen:
v1 ⊗ . . . ⊗ vj ⊗ w1 ⊗ . . . ⊗ wl := v1 ⊗ . . . ⊗ vj ⊗ w1 ⊗ . . . ⊗ wl ,
falls j, l ∈ N sind,
95
λ ⊗ w := w ⊗ λ := λw , falls λ ∈ K = V ⊗0 , w ∈ V ⊗l , l ∈ N0 ist.
T (V ) mit dem so definierten Produkt heißt die Tensoralgebra von V .
2
Dass die Axiome einer K−Algebra aus Def. 4.9.2 erfüllt sind, kann man
nachrechnen. Man sieht, dass T (V ) als K−Vektorraum unendlichdimensional
ist.
Wir verallgemeinern nun noch das äußere Produkt von zwei auf k Faktoren:
Lemma 8.3.7 : Sei k ∈ N und V ein K−Vektorraum. In V ⊗k sei Ak V der
Untervektorraum
Ak (V )
:=
span(v1 ⊗ . . . ⊗ vk )∃ (j,l)∈k×k:(j6=l∧vj = vl ) ,
dann gilt für jedes k−fach lineare ξ : V k −→ W :
ξ
alternierend
Ak (V ) ⊂ ker ξ⊗
⇐⇒
.
Theorem 8.3.8 : Zu einem K−Vektorraum V und einer Zahl k ∈ N gibt es
einen K−Vektorraum Λk V zusammen mit einer alternierenden Abbildung
∧ : V k −→ Λk V
,
so dass es zu jeder alternierenden Abbildung
ξ : V k −→ W
genau eine lineare Abbildung ξ∧ gibt, derart dass das Diagramm
ξ
Vk
∧
W
∃1 ξ∧
Λk V
kommutativ wird. Ist (v1 , . . . , vn ) eine Basis von V , so bilden die Produkte
vj1 ∧ . . . ∧ vjk
mit 1 ≤ j1 < . . . < jk ≤ n
96
eine Basis von Λk V . Damit ist dann
dim Λk V =
n
k
.
Beweis : Man setzt
Λk V
V k/ k
A (V )
:=
und nimmt als ∧ den kanonischen Nebenklassenepimorphismus
∧ : V k −→ V k / k
A (V )
.
Der Beweis, dass die
vj1 ∧ . . . ∧ vjk
mit 1 ≤ j1 < . . . < jk ≤ n
eine Basis bilden, ist dann
eine
Verallgemeinerung des Beweises von Theorem
n
8.2.5 : Man setzt N :=
und nimmt den K N mit der kanonischen Basis
k
ej1 ...jk
Sei wj =
n
P
1 ≤ j1 < . . . < jk ≤ n .
,
λjl vl , dann nimmt man die (k × n)−Matrix A := (λjl ), und
l=1
die zu den Spalten j1 , . . . , jk gebildeten (k × k)−Unterdeterminanten von A.
2
(8.3.9) Beachten Sie, dass
n
k
= 0 ist für k > n , also Λk V = 0 für
k > dim V .
Definition 8.3.10 : Sei V ein K−Vektorraum, dimK V = n . Wir setzen
Λ0 V := K und
ΛV
:=
Λ0 V ⊕ Λ1 V ⊕ . . . ⊕ Λn V
Dann ist
dimk Λ V
=
n X
n
k
=
2n
.
.
k=0
Wir definieren ein Produkt ∧ in Λ V : Für
α ∈ K = Λ0 V
und v1 ∧ . . . ∧ vj ∈ Λj V
setzen wir
α ∧ (v1 ∧ . . . ∧ vj ) := α(v1 ∧ . . . ∧ vj ) ,
97
für j ∈ N0 , und für j, l ∈ N :
(v1 ∧ . . . ∧ vj ) ∧ (w1 ∧ . . . ∧ wl ) := v1 ∧ . . . ∧ vj ∧ w1 ∧ . . . ∧ wl
.
Λ V mit dem so definierten Produkt heißt die äußere Algebra oder das
Dachprodukt von V .
2
(8.3.11) Rechenregeln für das Dachprodukt : Seien j, l, k ∈ N0 ,
ω ∈ Λj V , σ ∈ Λl V , τ ∈ Λk V , dann gilt
a) (ω ∧ σ) ∧ τ = ω ∧ (σ ∧ τ ) ,
b) ω ∧ σ = (−1)jl σ ∧ ω .
(8.4) Aufgaben
(8.1) Seien V, W Vektorräume über dem Körper K, mit Basen
(v1 , . . . , vn ) bzw. (w1 , . . . , wm ) . Zeigen Sie:
a) (vj ⊗ wl )(j,l)∈n×m ist eine Basis von V ⊗K W .
b) ∀ v ∈ V, w ∈ W : v ⊗ w = 0 ⇐⇒ v = 0 ∨ w = 0.
(8.2) V und W seien K−Vektorräume und η die kanonische Abbildung
η : V × W −→ V ⊗K W
,
(v, w) 7→ v ⊗ w
.
Sei Q := η(V × W ) . Zeigen Sie:
a) Q ist ein “Kegel” , d.h. es gilt:
λ ∈ K, y ∈ Q =⇒ λy ∈ Q .
b) Seien (v1 , . . . , vn ), (w1 , . . . , wm ) Basen von V bzw. W , dann ist
ein beliebiger Tensor aus V ⊗K W eine Linearkombination
y=
n
m
X
X
j=1
γjl vj ⊗ wl
mit γjl ∈ K
.
l=1
Als “reinen Tensor” bezeichnet man einen Tensor der Form a ⊗ b mit
a ∈ V, b ∈ W , also eine Linearkombination
n
m
X
X
j=1
αj βl vj ⊗ wl
mit αj , βl ∈ K
.
l=1
Zeigen Sie: Obiges y ist genau dann ein reiner Tensor, wenn die Koeffizientenmatrix (γjl ) den Rang 0 oder 1 hat.
c) Ist η injektiv oder surjektiv ?
98
(8.3) Für zwei K−Algebren A, B ist A⊗K B ein K−Vektorraum. Zeigen Sie:
Wenn man
(a ⊗ b) · (a0 ⊗ b0 ) := (a · a0 ) ⊗ (b ⊗ b0 ) für a, a0 ∈ A, b, b0 ∈ B
setzt, wird A ⊗K B eine K−Algebra.
(8.4) Sei V ein K−Vektorraum und T ⊃ K eine Körpererweiterung von K .
Dann wird T ein K− Vektorraum, wenn man für λ ∈ K, a ∈ T
λa als das Produkt λ · a in T definiert.
Damit ist dann der K−Vektorraum T ⊗K V definiert. Zeige, dass T ⊗K V
ein T −Vektorraum wird,, wenn man für a, b ∈ T und v ∈ V
a(b ⊗ v)
(a · b) ⊗ v
:=
setzt. Wenn (vj )j∈J eine K−Basis von V und (al )l∈L eine K−Basis von
T ist, wird
(al ⊗ vj )(l,j)∈L×J
eine K − Basis von T ⊗K V
.
Wenn die Dimensionen endlich sind, folgt
dimK T ⊗K V = dimK T · dimK V
dimT T ⊗K V = dimK V
,
.
Die Abbildung
ϕ : V −→ K ⊗K V
,
v 7→ 1 ⊗ v
,
wobei 1 das Einselement von K ist, ist ein K−Vektorraum-Isomorphismus.
(Die Komplexifizierung eines R−Vektorraums in Beispiel (8.1.11) ist
ein Spezialfall dieser Konstruktion.)
(8.5) Seien V, W euklidische bzw. unitäre Vektorräume, mit Skalarprodukten
h , iV bzw. h , iW . Zeigen Sie, dass es genau ein Skalarprodukt
h , iV ⊗K W auf V ⊗K W gibt, so dass für alle v, v 0 ∈ V , w, w0 ∈ W
gilt
hv ⊗ w, v 0 ⊗ w0 iV ⊗K W = hv, v 0 iV · hw, w0 iW .
(8.6) Analog zu Theorem 8.2.5 kann man ein symmetrisches Produkt eines K−Vektorraums V mit sich selbst definieren: Zeigen Sie: Zu V gibt
es einen K−Vektorraum V ∨V zusammen mit einer symmetrischen Abbildung
∨ : V × V −→ V ∨ V ,
99
die folgende universelle Eigenschaft erfüllt: Zu jedem K−Vektorraum
W zusammen mit einer symmetrischen Abbildung ξ : V ×V −→ W
gibt es genau eine lineare Abbildung ξ∨ derart, dass das Diagramm
ξ
V ×V
W
∨
∃1 ξ∨
V ∨V
kommutiert. Ist (v1 , . . . , vn ) eine Basis von V , so ist durch
vj ∨ vl := ∨(vj , vl ) mit j ≤ l
eine Basis von V ∨ V gegeben. Damit ist
n(n + 1)
n+1
dim(V ∨ V ) =
=
2
2
.
(8.7) Bestimmen Sie die Dimension von Kern und Bild der folgenden linearen Abbildung, und geben Sie Basen von Kern und Bild an :
a) f : R3 ⊗R R3 −→ R3 , v ⊗ w 7→ v × w ,
wobei “×” hier das Vektorprodukt bezeichne.
b) Für n ∈ N:
f : Rn ⊗R Rn −→ R , v ⊗ w 7→ hv, wi .
(8.8) Sei V ein K−Vektorraum, char K 6= 2 und V ∗ sein Dualraum. Sei
k ∈ N und seien
ϕ1 , . . . , ϕ k ∈ V ∗
,
v1 , . . . , vk ∈ V
.
Dann definiert man
(ϕ1 ∧ . . . ∧ ϕk )(v1 , . . . , vk )
:=
det(ϕj (vl ))(j,l)∈k×k
Sei nun V ein vierdimensionaler K−Vektorraum mit Basis (e1 , e2 , e3 , e4 )
und dazu dualer Basis (η1 , η2 , η3 , η4 ) von V ∗ .
100
(i) Sind die Vektoren
x1 = e1 ∧e2 ∧e4 +e2 ∧e1 ∧e3 , x2 = e2 ∧e4 ∧e3 −e1 ∧e4 ∧e3 , x3 = e2 ∧e1 ∧e4
linear unabhängig in Λ3 V ?
(ii) Berechnen Sie den Wert der 2-Form (η1 − η3 ) ∧ (η2 + η4 ) auf dem
Element (e1 − e3 , e2 + e4 ) ∈ V × V .
(8.9) Im R3 mit der kanonischen Basis (e1 , e2 , e3 ) sei (η1 , η2 , η3 ) die dazu
duale Basis in (R3 )∗ . Zeigen Sie mit der Def. aus Aufgabe (8.8), dass
für a, b ∈ R3
(η2 ∧ η3 , η3 ∧ η1 , η1 ∧ η2 )(a, b)
das Vektorprodukt von a und b ist .
101
=
a×b
§9 Endomorphismen von Vektorräumen mit
Skalarprodukt
Vorbemerkung: Vielleicht ist Ihnen aufgefallen, dass wir in §6 überhaupt
noch keine “strukturerhaltenden Abbildungen” definiert haben. Das wollen
wir jetzt nachholen, und die Ergebnisse aus §7 werden uns die Arbeit erleichtern.
9.1 Orthogonale und unitäre Endomorphismen
Unter den Endomorphismen eines Vektorraums mit Skalarprodukt wollen wir
insbesondere diejenigen untersuchen, die Längen zwischen den Vektoren und
Winkel zwischen ihnen nicht verändern:
Definition 9.1.1 : Sei V ein K−Vektorraum mit einem Skalarprodukt s ,
K = R oder C. Eine lineare Abbildung F ∈ HomK (V, V ) heißt eine
Isometrie (für K = R auch orthogonale , für K = C auch unitäre
lineare Abbildung), wenn
∀ v, w ∈ V : s(F (v), F (w))
=
s(v, w)
gilt.
Bemerkung 9.1.2 : Sei V ein K−Vektorraum mit Skalarprodukt s ,
p
V 6= {0} , k k die durch kvk := s(v, v) definierte Norm und
F ∈ EndK V orthogonal bzw. unitär. Dann gilt
a) ∀ v ∈ V : kF (v)k = kvk .
b) Ist λ ein Eigenwert von F , so ist |λ| = 1 .
c) ∀ v, w ∈ V : (v⊥w ⇐⇒ F (v)⊥F (w)) .
d) F ist injektiv.
e) Ist F bijektiv, so ist F −1 wieder eine Isometrie.
f) Ist V endlichdimensional, so ist F bijektiv.
Beweis : a) und c) sind triviale Folgerungen aus Definition 9.1.1.
b) Sei v 6= 0 und λ ∈ K , und es gelte
F (v)
kvk
=
=
λv
kF (v)k
,
dann folgt nach a) :
=
kλ vk
=
|λ| · kvk
und wegen kvk =
6 0 : |λ| = 1 .
d) Sei v ∈ ker F , dann ist F (v) = 0 , also
0
=
kF (v)k
a)
=
kvk ,
102
also v = 0 .
Nach Bemerkung 4.3.4 ist F injektiv.
e) Ist F bijektiv, so hat man die - ebenfalls lineare - Umkehrfunktion
F −1 : V −→ V
,
und es gilt
∀ v, w ∈ V : s(F −1 (v), F −1 (w)) = s(F (F −1 (v)), F (F −1 (w))) = s(v, w) ,
also ist auch F −1 eine Isometrie.
f) Nach der Dimensionsformel (Satz 4.3.13) gilt
dim F (V )
=
dim V − dim ker F
d)
=
dim V
,
also F (V ) = V , und damit ist F sogar surjektiv.
2
Bemerkung 9.1.3 : Wir interessieren uns für die Matrizen, die ein
orthogonales bzw. unitäres F beschreiben. Man hat sie nur für endlichdimensionales V , und in diesem Fall ist F ein Automorphismus, also für jede Basis
B von V :
MBB (F ) invertierbar.
Nach dem Orthonormalisierungssatz findet man sogar eine Orthonormalbasis
B von V : Sei
B = (v1 , . . . , vn )
eine Orthonormalbasis von V , dann gilt
∀ j, k ∈ n : δjk = s(vj , vk ) = s(F (vj ), F (vk ))
!
n
n
n
X
X
X
arj alk s(vr , vl )
= s
arj vr ,
alk vl =
r=1
r,l=1
l=1
n
X
n
X
arj alk δrl =
r,l=1
alj alk
.
l=1
Zu A := (alk ) sei A := (alk ) , dann gilt also
t
A · A = En
,
bzw. wenn wir die Transponierte dieses Produkts bilden:
t
A · A = En
,
A−1 = t A ,
103
also auch A ·t A = En
:
Definition 9.1.4 : Sei n ∈ N . Eine Matrix
a) A ∈ GL(n, R) heißt orthogonal , falls
A−1 = t A ,
b)
A ∈ GL(n, C) heißt unitär
, falls
A−1 = t A ist.
2
Bewiesen haben wir in Bemerkung 9.1.3 Teile von
Satz 9.1.5 : Sei V ein euklidischer bzw. unitärer K−Vektorraum,
dimK V < ∞, und B eine Orthonormalbasis von V . Dann gilt
F ist orthogonal (bzw. unitär) ⇐⇒ MBB (F )ist orthogonal (bzw. unitär)
Bewiesen haben wir in 9.1.3: “
Rechnung in 9.1.3: Ist
=⇒
.
”, aber “ ⇐= ” folgt auch aus der
MBB (F ) orthogonal (bzw.unitär), so gilt, wenn B = (v1 , . . . , vn ) ist:
s(vj , vk ) = s(F (vj ), F (vk )) für alle j, k ∈ n ,
und damit auch für alle Linearkombinationen von (v1 , . . . , vn ):
s(v, w) = s(F (v), F (w)) .
2
Definition und Satz 9.1.6 : Die Mengen
O(n) := { A ∈ GL(n, R) | A−1 = t A } ,
SO(n) := { A ∈ O(n) | det A = 1 } und
U(n) :=
A ∈ GL(n, C) | A−1 = t A
sind bezüglich der Matrizenmultiplikation Gruppen. Sie heißen orthogonale,
spezielle orthogonale bzw. unitäre Gruppe.
Beweis : a) Nach Definition ist U(n) ⊂ GL(n, C), und
En−1 = En = En = t En , also En ∈ U(n) , also U(n) 6= ∅.
Für A, B ∈ U (n) ist
t
(*)
(A · B −1 ) = t (A·B −1 ) = t (B −1 )·t (A) = (t B)−1 ·t A = (B −1 )−1 ·A−1 = (A·B −1 )−1
104
,
also A·B −1 ∈ U(n) . Also ist U(n) eine Untergruppe von GL(n, C). Überlegen
Sie sich, warum die Gleichung (∗) gilt !
b) Lässt man in a) überall
weg, so erhält man den Beweis, dass O(n) eine
Untergruppe von GL(n, R) ist.
c) SO(n) ⊂ O(n) gilt nach Definition, und En ∈ SO(n) . Für A, B ∈ SO(n)
gilt
det(A · B −1 ) = det A · (det B)−1 = 1 · 1 = 1 ,
also A · B −1 ∈ SO(n).
2
Bemerkung 9.1.7 : Für orthogonale bzw. unitäre Matrizen A gilt
t
A · A = En
,
also
1 = det(t A) · det A = det A · det A = | det A |2
,
also | det A | = 1 . In R gibt es für det A also nur die beiden Möglichkeiten
det A = 1 oder det A = −1 , also ist
O(n) = SO(n) ∪ { A ∈ O(n) | det A = −1 }
Bemerkung 9.1.8 : Sei n ∈ N .
Aussagen gleichbedeutend:
.
Für ein A ∈ M (n × n, K) sind folgende
(i) A ist orthogonal bzw. unitär.
(ii) Die Spalten von A bilden eine Orthonormalbasis des Kn mit dem kanonischen Skalarprodukt h , i .
(iii) Die Zeilen von A bilden eine Orthonormalbasis des Kn mit dem kanonischen Skalarprodukt h , i .
Beweis : (ii)
=⇒
(i) : Für die Spalten aj von A gilt
haj , ak i = δjk
n
X
alj alk = δjk
,
,
also
t
also
t
(aj ) · ak = δjk
A · A = En
,
t
,
(A) · A = En
l=1
(iii)
=⇒
(i) : Für die Zeilen aj von A gilt
haj , ak i = δjk
,
also aj ·t ak = δjk
105
,
.
n
X
ajl akl = δjk
also A ·t A = En
,
.
l=1
(i) =⇒ (ii),(iii) : Für orthogonales bzw. unitäres A ist | det A| = 1 ,
also det A 6= 0 , also bilden die Spaltenvektoren von A eine Basis von Kn ,
die Zeilenvektoren auch. Aus
t
A · A = En folgt haj , ak i = δjk , und aus
A ·t A = En folgt haj , ak i = δjk , für j, k ∈ n .
2
(9.1.9) O(n) für n ≤ 3: Für
n = 1 ist GL(1, R) = { (a) | a 6= 0 }
O(1) = {±E1 } ,
n = 2 und
A =
,
also
SO(1) = {E1 } . Sei nun
a c
b d
2
Nach Bemerkung 9.1.8 (ii) gilt a + b
∈ O(2) .
2
=
a
b
a
,
= 1 , also
b
|a| ≤ 1 . Wir können also
α0 := arccos a
setzen, dann ist cos α0 = a und α0 ∈ [0, π]. Es ist
b2 = 1 − a2 = 1 − cos2 α0 = sin2 α0
b = ± sin α0
,
also
.
Ist b = sin α0 , so setzen wir α := α0 . Ist b = − sin α0 , so ist
b = sin(−α0 ) ,
a = cos α0 = cos(−α0 ) ,
wir setzen nun α := −α0 ∈ [−π, 0] , und haben in jedem Fall ein α ∈ [−π, π]
mit
a = cos α , b = sin α .
c
c
c
a
c
Für
folgt aus
,
= 0 und
,
= 1:
d
b
d
d
d
c
−b
c
b
=
oder
=
.
d
a
d
−a
106
Im ersten Fall haben wir
cos α − sin α
(1)
A =
sin α cos α
mit α ∈ [−π, π] ,
und das liegt in SO(2) , und im 2.Fall:
cos α sin α
(2)
A =
mit α ∈ [−π, π] ,
sin α − cos α
und das liegt in O(2)\ SO(2) . Wir sehen:
x1
(1) Für A ∈ SO(2) und x =
∈ R2 ist
x2
cos α · x1 − sin α · x2
A·x =
sin α · x1 + cos α · x2
der um den Winkel α gedrehte Vektor x .
R2 . Es ist
A beschreibt eine Drehung des
PA (X) = (X − cos α)2 + sin2 α = X 2 − 2 cos α · X + 1 ,
und das hat reelle Nullstellen nur für cos α = ±1 , also α ∈ {0, ±π}. Das
ist anschaulich klar: Nur bei einer Drehung um 0o oder 180o gibt es Geraden
durch den Nullpunkt, die von der Drehung fest gelassen werden.
(2) Für A ∈ O(2)\ SO(2) hat man
PA (X) = (cos α − X)(− cos α − X) − sin2 α = X 2 − 1 = (X − 1)(X + 1) ,
wir haben die Eigenwerte ±1 und dazu die Eigenvektoren
sin α
zum Eigenwert 1 : v =
,
1 − cos α
cos α − 1
zum Eigenwert −1 : w =
.
sin α
Es gilt hv, wi = 0 , w wird von A auf sein Negatives und v auf sich selbst
abgebildet. A beschreibt eine Spiegelung des R2 an der zu w senkrechten
Geraden R · v . Sei nun
n = 3 : Ist F : R3 −→ R3 orthogonal, so hat das charakteristische Polynom PF den Grad 3, und damit, wie man aus der Analysis (Zwischenwertsatz!) weiß, mindestens eine Nullstelle λ1 ∈ R. Nach Bemerkung 9.1.2 b) ist
107
|λ1 | = 1 , also λ1 = ±1. Dazu haben wir einen Eigenvektor w1 6= 0, von
dem wir auch noch annehmen können, dass er normiert ist,
kw1 k = 1 .
Nach dem Orthonormalisierungssatz können wir w1 ergänzen zu einer Orthonormalbasis
B = (w1 , w2 , w3 ) des R3 . Sei
W := span(w2 , w3 ) ,
so ist W die zu w1 senkrechte Ebene durch 0, und nach Bemerkung 9.1.2 c)
stehen F (w2 ), F (w3 ) senkrecht auf
F (w1 ) = λ1 w1 = ±w1
F (W ) ⊂ W
,
also gilt
.
Also hat MBB (F ) die Form


λ1 |
0
0
 −− + −− −− −− 



0
|
A := 




|
A0
0
|
,
und es ist ±1 = det A = λ1 · det A0 = (±1) · det A0 , also det A0 = ±1 ,
und wegen A ∈O(3) : A0 ∈ O(2). Nun unterscheiden wir drei Fälle : Sei
det F = 1 , λ1 = −1 , dann ist det A0 = −1 . A0 und damit A hat die
Eigenwerte λ2 = 1 und λ3 = −1 , und man kann w2 und w3 als normierte
Eigenvektoren von A zu diesen Eigenwerten wählen. Bezüglich dieser Basis
(w1 , w2 , w3 ) wird


−1 0 0
A =  0 1 0  . Sei
0 0 −1
det F = 1 , λ1 = +1 , so ist det A0 = +1 , also gibt es ein α ∈ [−π, π] mit


1
0
0
A =  0 cos α − sin α  .
0 sin α cos α
108
Im Fall det F = 1 hat F also in jedem Fall einen Eigenwert 1 . Ist
det F = −1 , so kann man w1 , w2 , w3 so wählen, dass F bezüglich
B = (w1 , w2 , w3 ) die Matrix


1 0 0
A = MBB (F ) =  0 1 0  hat, oder
0 0 −1


−1
0
0
A =  0 cos α − sin α  mit α ∈ [−π, π] .
0 sin α cos α
2
Für n = 2 hatten wir alle Matrizen A ∈ O(2) bestimmt. Für n = 3 haben wir uns nur überlegt, wie die Matrix A eines orthogonalen F ∈ EndR R3
bezüglich einer passenden Basis aussieht, d.h. hier haben wir nur Normalformen von Matrizen aus O(3) bestimmt. Das machen wir nun für beliebiges n , wobei der Fall K = C leichter geht, da man in C den Fundamentalsatz der Algebra hat :
Theorem 9.1.10 : Sei V ein unitärer Vektorraum, dimC V = n ∈ N0 und
F ein unitärer Endomorphismus von V . Dann besitzt V eine Orthonormalbasis, die aus Eigenvektoren von F besteht. Insbesondere ist F diagonalisierbar.
Beweis durch Induktion nach n = dim V : Für n = 0 ist nichts zu beweisen.
Sei nun n ∈ N. Nach dem Fundamentalsatz der Algebra (3.5.13) zerfällt jedes Polynom aus C[X] in Linearfaktoren. Insbesondere gibt es λ1 , . . . , λn ∈ C
mit
PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) ,
und λ1 , . . . , λn sind die Eigenwerte von F . Sei s das Skalarprodukt in V .
Zu λ1 können wir einen Eigenvektor v1 mit k v1 k = 1 finden. Sei W das
orthogonale Komplement zu Cv1 (siehe Aufgabe 6.5), d.h.
W := { w ∈ V | s(v1 , w) = 0 }
.
Wir behaupten nun:
(∗)
F (W ) = W
.
Beweis von (∗) : Nach Bemerkung 9.1.2 e) ist F ein Isomorphismus, also
bildet F linear unabhängige Vektoren ab auf linear unabhängige Vektoren.
Es genügt also, zu zeigen:
F (W ) ⊂ W
109
,
denn wenn (w1 , . . . , wk ) eine Basis von W ist, ist (F (w1 ), . . . , F (wk )) linear
unabhängig, also eine Basis von W , und damit
W = span(F (w1 ), . . . , F (wk )) = F (W ) .
Sei also w ∈ W . Es ist F (v1 ) = λ1 v1 mit |λ1 | = 1, also λ1 6= 0. Es gilt also
s(v1 , F (w)) =
1
1
1
1
s(λ1 v1 , F (w)) = s(F (v1 ), F (w)) = s(v1 , w) = ·0 = 0,
λ1
λ1
λ1
λ1
also F (w) ∈ W , womit dann (∗) bewiesen ist.
Nun setzen wir
G := F W : W −→ W .
W ist mit sW ×W auch wieder ein unitärer Vektorraum,
dim W = n − 1 nach dem Orthonormalisierungssatz,
und G ist ein unitärer Endomorphismus auf W . Auf G und W können
wir die Induktionsvoraussetzung anwenden: Es gibt eine Orthonormalbasis
(v2 , . . . , vn ) von W , bestehend aus Eigenvektoren von G , also
G(vj ) = λj vj
mit λj ∈ C ,
also auch
für j ∈ {2, . . . , n} .
F (vj ) = λj vj
Nach Definition von W stehen die vj , j ∈ {2, . . . , n}, auf v1 senkrecht, also
ist
(v1 , . . . , vn ) eine Orthonormalbasis von V ,
bestehend aus Eigenvektoren von F .
2
Für Matrizen erhält man daraus das
Korollar 9.1.11 : Sei n ∈ N . Zu jedem A ∈U(n) gibt es ein S ∈U(n) mit


λ1
0


t
...
S·A·S = 
 ,
0
λn
wobei die λj ∈ C sind mit |λj | = 1 für j ∈ n .
Beweis : Sei F : Cn −→ Cn , F (x) :=
A
=
MKK (F ) ,
110
A·x ,
dann ist
wobei K die kanonische Basis des Cn ist. K ist eine Orthonormalbasis des
Cn mit dem kanonischen Skalarprodukt h , i , also ist F ein unitärer
Endomorphismus des Cn nach Satz 9.1.5. Nach Theorem 9.1.10 gibt es nun
eine Orthonormalbasis
(v1 , . . . , vn ) des Cn
=
B
mit h , i ,
die aus Eigenvektoren von F besteht :
∃ λ1 , . . . , λn ∈ C ∀ j ∈ n : (F (vj ) = λj vj ∧ |λj | = 1 ) ,
letzteres nach Bemerkung 9.1.2 b). Also ist


λ1
0


..
B := MBB (F ) = 

.
0
λn
,
und nach der Transformationsformel (4.4.17) für lineare Abbildungen gilt
MBB (F )
=
S −1 · MKK (F ) · S
S
,
also B
S −1 · A · S
=
,
mit
MBK (idCn ) ∈ GL(n, C) ,
:=
also nach den Formeln in Bemerkung 4.4.16 :
vj
n
X
=
skj ek
S = (skj ) mit
.
k=1
Da sowohl B als auch K Orthonormalbasen von Cn sind, gilt für r, j ∈ n :
δrj
=
hvr , vj i
=
h
n
X
slr el ,
l=1
=
n
X
slr skj hel , ek i
=
l,k=1
t
S·S
=
n
X
,
slr skj δlk
=
=
n
X
skr skj
,
also
k=1
also S −1
also S ∈ U(n) ,
B
skj ek i
k=1
l,k=1
En
n
X
t
S·A·S
=
t
S
,
.
2
Bemerkung 9.1.12 : a ) Wie man zu gegebenem unitären F eine Orthonormalbasis aus Eigenvektoren ausrechnet, ist klar: Man berechnet die Eigenwerte, dazu die Eigenräume, und man muss Basen dieser Eigenräume noch
111
orthonormalisieren.
b) Eine orthogonale Abbildung eines euklidischen Vektorraums kann man
nicht in jedem Fall diagonalisieren. Wir haben schon in den Fällen n = 2, 3
gesehen: Es können Kästchen der Form
cos α − sin α
sin α cos α
in der Diagonale auftreten. Der folgende Satz sagt, dass aber auch nichts
Schlimmeres passieren kann:
Theorem 9.1.13 : Sei V ein euklidischer Vektorraum, dimR V =
und F ein orthogonaler Endomorphismus von V . Dann besitzt V
thonormalbasis B derart, dass

1

..

.


1
0


−1

...

MBB (F ) = 

−1



0
A1


..
.

Ak
n ∈ N0 ,
eine Or
















ist, wobei für j ∈ k
cos ϑj − sin ϑj
Aj =
∈ SO(2) ist mit ϑj ∈ (0, 2π) \ {π} .
sin ϑj cos ϑj
F ist also charakterisiert durch die Anzahl r der Eigenwerte +1 , die Anzahl
s der Eigenwerte −1, sowie die Winkel ϑ1 , . . . , ϑk , wobei
r + s + 2k = dim V
ist.
- Zum Beweis brauchen wir das folgende Lemma, bei dem gar nicht benutzt
wird, dass V ein Skalarprodukt hat:
Lemma 9.1.14 : Sei V ein R-Vektorraum mit dimR V = n und
F ∈ EndR V . Dann gibt es einen Untervektorraum W von V mit
F (W ) ⊂ W
und 1 ≤ dim W ≤ 2 .
112
Beweis : Wir benutzen den Fundamentalsatz der Algebra: In C[X] zerfällt
das charakteristische Polynom
n
X
PF (X) =
αj X j ∈ R[X] in Linearfaktoren
j=0
PF (X) = (−1)n
n
Y
(X − λk ) mit λk ∈ C .
k=1
Es kann sein, dass eins der λk , etwa λ1 , in R liegt, dann hat F einen reellen
Eigenwert λ1 und dazu einen Eigenvektor v1 ∈ V \ {0} , und für
W := Rv1
gilt F (W ) ⊂ W
,
dim W = 1 .
Nun seien alle λ ∈ {λ1 , . . . , λk } ∈ C \ R . Dann ist λ 6= λ,
PF (λ) =
n
X
j=0
j
αj λ =
n
X
j
αj λ =
j=0
n
X
αj λj = PF (λ) = 0 = 0 ,
j=0
wegen αj ∈ R. Also sind λ und λ 6= λ Nullstellen von PF (X) in C, und in
PF (X) hat man den “ quadratischen Faktor”
(X − λ) · (X − λ) = X 2 − (λ + λ)X + λλ = X 2 − 2 Re(λ)X + |λ|2 ,
der in R[X] liegt. Also ist n = 2m gerade, man hat in R[X] :
PF (X) =
m
Y
Ql (X) mit Ql (X) := X 2 + bl X + cl ∈ R[X] ,
bl , cl ∈ R .
l=1
Sei v ∈ V \ {0} beliebig, dann gilt nach Cayley-Hamilton :
0 = PF (F )(v) = (Q1 (F ) ◦ . . . ◦ Qm (F ))(v) .
Es gibt also ein eindeutig bestimmtes j ∈ m mit
w := (Qj+1 (F ) ◦ . . . ◦ Qm (F ))(v) 6= 0 und Qj (F )(w) = 0
(wobei w := v gesetzt wird, falls j = m ist). Wir setzen
W := span(w, F (w)) ,
dann ist F (w) ∈ W , und aus Qj (F )(w) = 0 folgt, wenn
Qj (X) = X 2 + bj X + cj ist:
F (F (w)) + bj F (w) + cj w = 0 ,
113
also auch
F (F (w)) ∈ span(w, F (w)) = W
.
Also gilt F (W ) ⊂ W . Da F keinen Eigenwert hat, ist (w, F (w)) linear unabhängig, also dim W = 2.
2
Beweis von Theorem 9.1.13 durch Induktion nach n := dim V : Für
n = 0 ist nichts zu beweisen. Sei n ∈ N, und für n − 1 sei der Satz richtig.
Nach Lemma 9.1.14 gibt es einen Untervektorraum W von V mit
1 ≤ dim V ≤ 2 und F (W ) ⊂ W
.
F ist orthogonal, also nach Bemerkung 9.1.2 d) injektiv, also ist für eine
Basis (w1 ) bzw. (w1 , w2 )von W auch (F (w1 )) bzw. (F (w1 ), F (w2 )) linear
unabhängig, also
dim F (W ) = dim W
,
also F (W ) = W
.
Nach Bemerkung 9.1.2 e) haben wir die ebenfalls orthogonale Umkehrfunktion F −1 : V −→ V . Sei
W ⊥ := { v ∈ V | ∀ w ∈ W : s(w, v) = 0 }
,
wobei s das Skalarprodukt in V ist, dann gilt für w ∈ W und v ∈ W ⊥ :
s(F (v), w) = s(F −1 (F (v)), F −1 (w)) = s(v, F −1 (w)) = 0
wegen F −1 (W ) ⊂ W , also gilt
F (W ⊥ )
=
W⊥
.
Wir haben also zwei orthogonale Abbildungen
G := F W : W −→ W und H := F W ⊥ : W ⊥ −→ W ⊥
.
Wegen dim W ≥ 1 ist dim W ⊥ ≤ dim V − 1 , also können wir auf W ⊥ die
Induktionsvoraussetzung anwenden: W ⊥ hat eine Basis B0 der gewünschten
Art.
a) Es gebe einen 1-dimensionalen Untervektorraum W von V mit
F (W ) ⊂ W , also W = span(v) mit v 6= 0, dann ist v ein Eigenvektor
von F , zu einem Eigenwert, der nach Bemerkung 9.1.2 b) gleich 1 oder
−1 ist. Und umgekehrt gilt: Hat F einen Eigenwert, so ist er ±1 , und
für einen Eigenvektor v dazu ist F (Rv) ⊂ Rv . Man fügt dieses v zur
Basis B0 hinzu, an passender Stelle, so dass der Eigenwert ±1 an die
richtige Stelle in der Matrix MBB (F ) kommt, dann hat die so gefundene
Basis B die gewünschten Eigenschaften.
114
b) F habe keine Eigenwerte, es gebe also keine 1-dimensionalen Untervektorräume, die von F in sich abgebildet werden. Sei dann W ein
Untervektorraum von V mit dim W = 2 und F (W ) ⊂ W , so gibt
es nach 9.1.9 (n = 2) eine Orthonormalbasis A = (v1 , v2 ) von W ,
bezüglich der MAA (G) die Form
cos ϑ − sin ϑ
∈ SO(2)
sin ϑ cos ϑ
mit ϑ ∈ (−π, π) oder ϑ ∈ (0, 2π) hat, aber nicht ϑ = 0 oder π, da F
keine Eigenwerte hat. Man füge (v1 , v2 ) am Schluss zur Basis B0 hinzu,
dann hat MBB (F ) die gewünschte Form .
2
Wie bei Satz 9.1.10 kann man auch hier eine Formulierung für Matrizen
angeben:
Korollar 9.1.15 : Sei n ∈ N. Zu jedem A ∈ O(n) gibt es ein S ∈O(n) mit


1


..


.




1
0




−1


...


t
S·A·S = 
 ,


−1






A1
0




..
.


Ak
ist, wobei für j ∈ k
cos ϑj − sin ϑj
Aj =
∈ SO(2) ist mit ϑj ∈ (0, 2π) \ {π} .
sin ϑj cos ϑj
Der Beweis ist analog zu dem von Korollar 9.1.11.
2
9.2 Selbstadjungierte Endomorphismen
Sie sind auch deshalb interessant, weil ihre Matrizen symmetrisch bzw. Hermitesch sind, und wir wollen wissen, ob solche Matrizen diagonalisierbar sind:
115
Definition 9.2.1 : Sei V ein K−Vektorraum mit Skalarprodukt s , K = R
oder C. Ein Endomorphismus F von V heißt selbstadjungiert , wenn
∀ v, w ∈ V : s(F (v), w) = s(v, F (w))
ist, d.h. man kann F genauso gut an das 1.Argument wie an das 2.Argument
schreiben.
Satz 9.2.2 : Sei V ein K−Vektorraum mit Skalarprodukt s ,
dimK V = n ∈ N und
B eine Orthonormalbasis von V . Dann gilt:
F selbstadjungiert ⇐⇒ MBB (F ) ist symmetrisch ( für K = R )
bzw. MBB (F ) ist Hermitesch ( für K = C ) .
Beweis : Sei B = (v1 , . . . , vn ) und
A
:=
MBB (F ) ,
∀ k ∈ n : F (vk )
=
n
X
dann gilt
ajk vj
,
also
:
j=1
F selbstadjungiert
⇐⇒
∀ l, k ∈ n : s(F (vl ), vk )
∀ l, k ∈ n :
n
X
ajl s(vj , vk )
=
=
j=1
∀ l, k ∈ n :
ajl δjk
∀ l, k ∈ n : akl
=
t
A
⇐⇒
n
X
⇐⇒
ajk s(vl , vj )
⇐⇒
j=1
n
X
=
j=1
A
s(vl , F (vk ))
n
X
ajk δlj
⇐⇒
j=1
=
alk
⇐⇒
A ist symmetrisch bzw. Hermitesch.
2
Lemma 9.2.3 : a) Ist F ∈ EndK V selbstadjungiert, so sind (auch für
K = C) alle Eigenwerte von F reell.
b) Ist n ∈ N und A ∈ M (n × n, K) symmetrisch bzw. Hermitesch, so sind
alle Eigenwerte von A reell.
Beweis : a) Sei F (v) = λv mit v 6= 0 , so gilt
λs(v, v) = s(λv, v) = s(F (v), v) = s(v, F (v)) = λs(v, v) ,
116
also λ = λ .
b) Wir nehmen den Kn mit dem kanonischen Skalarprodukt. Allgemein gilt
für v = t (v1 , . . . , vn ) , w = t (w1 , . . . , wn ) ∈ Kn :
+
* n
!
n
X
X
,w
=
hA · v, wi =
alj vj wl
alj vj
j=1
*
=
v,
n
X
l,j=1
l∈n
!
+
alj wl
l=1
=
hv,t A · wi ,
j∈n
also für symmetrisches bzw. Hermitesches A :
hA · v, wi
=
hv, A · wi ,
und wenn A · v = λv ist, mit v 6= 0 , dann folgt
λhv, vi = hλv, vi = hAv, vi = hv, Avi = hv, λvi = λhv, vi ,
also λ = λ .
2
Natürlich folgt b) auch aus a) mit Satz 9.2.2, aber es ist gut, die Rechnung
konkret für Matrizen gesehen zu haben.
Theorem 9.2.4 : F sei ein selbstadjungierter Endomorphismus eines K−
Vektorraums V mit Skalarprodukt s , dimK V = n ∈ N. Dann gibt es eine
Orthonormalbasis B von V , die aus Eigenvektoren von F besteht.
Beweis : Sei K = C . Dann können wir den Fundamentalsatz der Algebra
anwenden: Es gibt λ1 , . . . , λn ∈ C mit
PF (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) .
Die λj , j ∈ n, sind die Eigenwerte von F , also nach Lemma 9.2.3:
λj ∈ R für alle j ∈ n .
Nun machen wir Induktion nach n : Für n = 1 haben wir einen Eigenvektor
v1 zum Eigenwert λ1 , und wir können k v1 k = 1 erreichen. Sei nun n ≥ 2 ,
und für n − 1 sei der Satz richtig. Sei dim V = n , dann wählen wir zu λn
einen Eigenvektor vn mit k vn k = 1 und setzen
W
:=
{ w ∈ V | s(vn , w) = 0 }
117
.
Es gilt F (W ) ⊂ W , denn für w ∈ W gilt
s(vn , F (w)) = s(F (vn ), w) = λn s(vn , w) = 0 .
F W ist auch wieder selbstadjungiert, F W ∈ EndK W , und nach Induktionsvoraussetzung gibt es eine Orthonormalbasis (v1 , . . . , vn−1 ) von W , die
aus Eigenvektoren von F W , also aus Eigenvektoren von F , besteht. Dann
ist (v1 , . . . , vn−1 , vn ) eine Basis von V aus Eigenvektoren von F .
b) Für K = R geht der Beweis genau so, wenn man sich zuvor überlegt, dass
auch in diesem Fall das charakteristische Polynom PF (X)in Linearfaktoren
zerfällt. Dazu wählen wir uns eine beliebige Orthonormalbasis B von V .
Nach Satz 9.2.2 ist
A := MBB (F ) ∈ M (n × n, R) symmetrisch.
Nun ist M (n × n, R) ⊂ M (n × n, C) , und als Matrix in M (n × n, C) ist A
auch hermitesch. Nach a) zerfällt PA (X) in C in Linearfaktoren:
PA (X) = (−1)n (X − λ1 ) · . . . · (X − λn ) ,
wobei wir wissen: λ1 , . . . , λn ∈ R. Nun ist PF (X) = PA (X) .
2
Bemerkung 9.2.5 : Wenn man sich genau überlegt, was man bei b) gemacht hat, ist es Folgendes: Wir haben die Matrix A ∈ M (n×n, R) aufgefasst
als Matrix eines Endomorphismus FC der Komplexifizierung
VC = C ⊗R V
des R−Vektorraums V . Die Komplexifizierung VC von V haben wir in (8.1.11)
eingeführt. Nimmt man sich eine R−Basis
(vj )j∈J
von V , so ist
(1 ⊗ vj )j∈J
eine C−Basis von VC . Damit hat man bei endlicher Dimension
dimC VC = dimR V
,
dimR VC = 2 · dimR V
denn die 1 ⊗ vj , i ⊗ vj , j ∈ J , bilden eine R−Basis von VC .
118
,
a) Das Skalarprodukt s von V kann man durch
sC (a ⊗ v , b ⊗ w) := a b · s(v, w) für a, b ∈ C , v, w ∈ V
auf VC fortsetzen. Das kann man direkt nachrechnen, es folgt aber auch
aus Aufgabe 8.5, denn
a b für a, b ∈ C
ist das kanonische Skalarprodukt auf C1 .
b) Sei F ∈ EndR V . Dann kann man F fortsetzen zu einem C−Endomorphismus
FC : VC −→ VC
durch FC (a⊗v) := a⊗F (v) für a ∈ C , v ∈ V
Die C−Linearität von FC kann man nachrechnen, und FC ist eine Fortsetzung von F , wenn man
R ⊗R V
mit V ,
also 1 ⊗ v
mit v
identifiziert:
FC (v) = FC (1 ⊗ v) = 1 ⊗ F (v) = F (v) .
c) Hat nun V ein Skalarprodukt s und ist F selbstadjungiert, so gilt für
a, b ∈ C , v, w ∈ V :
sC (FC (a ⊗ v), b ⊗ w) = sC (a ⊗ F (v), b ⊗ w) = a b · s(F (v), w) =
ab · s(v, F (w)) = sC (a ⊗ v, b ⊗ F (w)) = sC (a ⊗ v, FC (b ⊗ w)) .
Also ist auch FC selbstadjungiert.
d) Sei nun V endlichdimensional, B = (v1 , . . . , vn ) eine R−Basis von V
und F ∈ EndR V , mit der durch
F (vj ) =
n
X
alj vl
l=1
definierten n × n−Matrix A = (alj ) ∈ M (n × n, R). Dann gilt für
FC : VC −→ VC :
n
n
X
X
FC (1 ⊗ vj ) = 1 ⊗ F (vj ) = 1 ⊗
alj vl =
alj (1 ⊗ vl ) .
l=1
l=1
Bezüglich der C-Basis C := (1 ⊗ vj )j∈J von VC gilt also
MCC (FC ) = A = MBB (F ) .
Insofern ist das, was wir beim Beweis, Teil b), vom Theorem 9.2.4
gemacht haben, durchaus gerechtfertigt.
119
.
Beachten Sie bitte, dass wir alle Definitionen für Tensorprodukte (in a),
b), c) ) nur für die erzeugenden Tensoren mit nur einem Summanden hingeschrieben haben, und dass die Elemente des Tensorprodukts endliche Summen solcher “reinen” Tensoren sind. Bei a) und b) muss man sich auch noch
mit Hilfe der Definition des Tensorprodukts überlegen, dass FC und sC wohldefiniert sind, d.h. wenn man a⊗v mit a ∈ C durch λa⊗λ−1 v mit λ ∈ R\{0}
ersetzt, kommt dasselbe heraus!
Korollar 9.2.6 : Ist A ∈ M (n × n, K) eine symmetrische Matrix, so gibt
es eine orthogonale bzw. unitäre Matrix S , so dass


λ1
0


t
..
S·A·S = 
 mit λ1 , . . . , λn ∈ R ist .
.
0
λn
Der Beweis geht ähnlich wie der von Korollar 9.1.11 : Theorem 9.2.4 sagt
zunächst nur, dass es ein S ∈GL(n, K) mit


λ1
0


..
S −1 · A · S = 

.
0
λn
gibt, aber S ist die Transformationsmatrix von der kanonischen Basis K des
Kn zu der nach Theorem 9.2.4 existierenden Orthonormalbasis
B = (v1 , . . . , vn ) des Kn ; es gilt also
vj
=
n
X
slj el
,
l=1
die Spaltenvektoren sj von S sind also die vj , bilden also eine Orthonormalbasis von Kn , und nach Bemerkung 9.1.3 ist S orthogonal bzw. unitär.
2
Für den Fall, dass Sie den Beweis des Theorems 9.2.4 für K = R, der die
Komplexifizierung VC des R−Vektorraums V benutzt, undurchsichtig finden,
bietet [Fi] noch einen Beweis an, der Hilfsmittel aus der Analysis benutzt und
den wir uns mal anschauen wollen. Der Beweis von Theorem 9.2.4 ging mit
Induktion nach dim V ; für Teil b) reicht daher für den Induktionsschluss das
Lemma 9.2.7 : Jede symmetrische Matrix A ∈ M (n×n, R) hat einen reellen
Eigenwert.
Beweis : Sei q : Rn −→ R , q(x) := t x · A · x , dann ist
!
n
n
n
X
X
X
q(x1 , . . . , xn ) =
xl ·
alj xj =
alj xl xj
l=1
j=1
120
l,j=1
eine Polynomfunktion in den n Variablen x1 , . . . , xn , also stetig. Die Sphäre
S = { x ∈ Rn | k x k = 1 }
ist abgeschlossen und beschränkt im Rn , also kompakt. Also nimmt q auf S
ein Maximum an: Es gibt ein v ∈ S mit
t
q(v) ≥ q(x) , also
vAv ≥t xAx für alle x ∈ S .
Wir zeigen:
(∗) Für w ∈ S
mit v⊥w
ist auch Av⊥w
.
Wir können dann v zu einer Orthonormalbasis des Rn mit h ,
Sei
(v, v2 , . . . , vn ) diese Orthonormalbasis und
i ergänzen:
W := span(v2 , . . . , vn ) ,
dann gibt es α1 , . . . , αn ∈ R mit
n
X
Av = α1 v +
αj vj
,
hv, vj i = 0 für j ≥ 2 ,
j=2
nach (∗) also auch
hAv, vj i = 0 für j ≥ 2 ,
hα1 v +
n
X
αj vj , vl i = 0 für l ≥ 2 ,
j=2
= 0 für l ≥ 2 , also
αl
Av = α1 v ,
also v ein Eigenvektor von A .
√
Beweis von (∗): Für w ∈ S mit v⊥w und τ ∈ (0, 1] sei σ := 1 − τ 2 und
x := σ v + τ w , dann ist
hx, xi = σ 2 hv, vi + τ 2 hw, wi = σ 2 + τ 2 = 1 ,
also x ∈ S , also
t
vAv ≥t xAx = hx , Axi = σ 2 hv, Avi + τ 2 hw, Awi + στ hv, Awi + στ hw, Avi ,
und da A symmetrisch ist:
(1 − σ 2 )hv, Avi − τ 2 hw, Awi
121
≥
2στ hv, Awi ,
2σhv, Awi
≤
τ · (hv, Avi − hw, Awi) .
Indem wir gegebenenfalls w durch −w ersetzen, können wir hv, Awi ≥ 0
erreichen. Wäre nun hv, Awi > 0, so würden wir τ gegen 0 (und damit
σ gegen 1) gehen lassen (also wieder Analysis benutzen), und würden links
2hv, Awi > 0 , rechts 0 erhalten, Widerspruch. Also ist
hv, Awi = 0 ,
also Aw⊥v
.
2
9.3 Hauptachsentransformation
(9.3.1) Zur Wiederholung : Sei V ein R−Vektorraum. Dann hatten wir
in 6.1.3 und 6.1.5 festgelegt: Eine Abbildung
s : V × V −→ R
mit den Eigenschaften: Für alle u, v, w ∈ V und alle λ ∈ R gilt
(H1)
s(u + v, w) = s(u, w) + s(v, w) ,
s(λu, w) = λs(u, w) ,
d.h. s ist “linear als Funktion des 1.Arguments”, und
(H2)
s(u, v) = s(v, u) ,
heißt eine symmetrische Bilinearform auf V .
Man kann das auch für einen beliebigen Körper K machen. Man beachte aber,
dass dann s auf einem C−Vektorraum (außer für s = 0 ) keine Hermitesche
Form ist. Auch die darstellende Matrix einer symmetrischen Bilinearform s
auf einem K−Vektorraum V mit
dimK V = n ∈ N
und Basis B = (v1 , . . . , vn ) kann man wie in 6.3.1 definieren:
MB (s) := (s(vk , vj ))(k,j)∈n×n
.
MB (s) ist dann eine symmetrische n × n− Matrix. Wir hatten in (6.3.6)
schon einen Transformationssatz für darstellende Matrizen symmetrischer
Bilinearformen hergeleitet, für K = R : Sei
A = (a1 , . . . , an )
eine weitere Basis von V , und
∀ j ∈ n : aj =
n
X
tkj vk
k=1
122
,
T := (tkj )
so gilt
MA (s)
=
t
T · MB (s) · T
.
(9.3.2) Die Frage ist nun: Gibt es zu einer gegebenen symmetrischen Bilinearform s auf einem n−dimensionalen K−Vektorraum V eine Basis A,
so dass MA (s) eine Diagonalmatrix ist, d.h. gibt es eine Orthogonalbasis A
von V (wenn schon nicht eine Orthonormalbasis von V , die man z.B. für
K = R und nicht positiv definites s auch nicht erwarten kann) , also eine
Basis A = (a1 , . . . , an ) mit
s(ak , aj ) = 0 für k 6= j?
Wir können dazu unsere Sätze über symmetrische Matrizen und deren Diagonalisierung anwenden, dazu aber gleich eine
(9.3.3) Warnung: Sei B ∈ M (n × n, K) und λ ein Eigenwert von B , also
det(B − λEn ) = 0, dann folgt nicht, dass auch
t
T ·B·T
den Eigenwert λ hat,
das charakteristische Polynom ändert sich bei dieser Transformation. Nur im
Fall t T = T −1 , für K = R also im Fall T ∈ O(n), ändern sich die Eigenwerte
nicht. Wir wollen sehen, auf welche Form man B durch die Transformation
B 7−→t T · B · T
bringen kann,
(1) mit T ∈O(n) , (2) mit T ∈ GL(n, R),
im Fall K = R :
(9.3.4) Hauptachsentransformation symmetrischer reeller Matrizen
Sei s eine symmetrische Bilinearform auf dem Rn , n ∈ N , und
A = MK (s) = (s(ek , ej )) ∈ M (n × n, R)
die Matrix von s bezüglich der kanonischen Basis K = (e1 , . . . , en ) des Rn .
(1) Es gibt eine Orthonormalbasis B von Rn mit h ,
vektoren von A besteht, d.h. es ist
B = (w1 , . . . , wn ) mit hwk , wj i = δkj
123
i , die aus Eigen-
für k, j ∈ n ,
A · wj = λj wj
mit λj ∈ R für j ∈ n ,


λ1
0


..
MB (s) = 
 ist,
.
0
λn
also s(wk , wj ) = δkj · λk
so dass
für k, j ∈ n .
(2) Es gibt eine Basis B0 des Rn , so dass ist, mit

|

Em
|


|

 − − − + − − − −|


|
|


0
|
−E
|
MB (s) = 
l

|
|

|

− − − − +


0
|


|
|




0









− − − 




0
=: D0
m, l ≥ 0 , m + l ≤ n. Es gibt also ein T 0 ∈ GL(n, R) mit
D0 = t T 0 · A · T 0
.
Beweis : (1) Da s symmetrisch ist, ist A = MK (s) symmetrisch. Nach Korollar 9.2.6 gibt es eine Matrix S ∈O(n), so dass


λ1
0


t
..
S·A·S = 
 =: D
.
0
λn
eine Diagonalmatrix ist, wobei die Diagonalelemente von D die Eigenwerte
von A sind. Die Spaltenvektoren w1 , . . . , wn von S bilden wegen S ∈O(n)
eine bezüglich h , i orthonormale Basis B von Rn , und wegen
wj =
n
X
skj ek
k=1
ist S = MKB ( idRn ) , also nach dem Transformationssatz 6.3.6 bzw. 9.3.1 :
t
S · MK (s) · S = MB (s) ,
124
also MB (s) = D , also
s(wk , wj ) = δkj · λk
für k, j ∈ n.
(2) Wir können die Basis B noch so anordnen, dass
λ1 , . . . , λm > 0 , λm+1 , . . . , λm+l < 0 , λm+l+1 = . . . = λn = 0
gilt. Wir setzen dann
wk0
:=

 p1 w
k
|λk |

wk
für
k ≤m+l
für
k > m+l.
Dann ist B0 := (w10 , . . . , wn0 ) eine Basis des Rn und bezüglich h ,
Orthogonalbasis, denn

 1
für k ≤ m + l
0
0
hwk , wk i =
,
|λk |
 1
für k > m + l
hwk0 , wj0 i = 0 für k 6= j
Bezüglich s gilt

1
1


s(wk , wk ) =
· λk = 1

 λk
λk
1
s(wk0 , wk0 ) =
· λk = −1


|λk |


0
i eine
.
für
1≤k≤m
für
m+1≤k ≤m+l
für
k >m+l
und s(wk0 , wj0 ) = 0 für k 6= j , also ist MB0 (s) die in der Behauptung angegebene Matrix D0 , und nach dem Transformationssatz 6.3.6 gibt es ein
T 0 ∈ GL(n, R) mit
D0 = t T 0 · A · T 0 .
2
Bevor wir daraus einige Folgerungen ziehen und die Ergebnisse vom Rn auf
einen beliebigen R−Vektorraum V verallgemeinern, noch etwas
9.3.5 Zur Motivation : Sie haben sich vielleicht gefragt, warum wir hier
von “Hauptachsentransformation” geprochen haben. Dazu folgendes
Beispiel: Die Matrix
α β
A :=
∈ M (2 × 2, R)
β α
125
,
ist symmetrisch, also ist durch
s(x, y) := hx , Ayi = α(x1 y1 + x2 y2 ) + β(x1 y2 + x2 y1 )
eine symmetrische Bilinearform s mit MK (s) = A gegeben, es ist
PA (X) = X 2 − 2αX + (α2 − β 2 ) ,
also hat A die Eigenwerte λ1 = α + β und λ2 = α − β , mit den Eigenvektoren
1
1
1
−1
w1 = √
, w2 = √
,
1
2 1
2
die eine Orthonormalbasis B von R2 mit h , i bilden. Setzen wir
1
1 −1
S := √
,
2 1 1
das ist die Matrix mit den Spalten wj , und sei
v =
2
X
xk ek =
2
X
zj wj ∈ R2
,
so sieht man
j=1
k=1
x1
x2
= S·
z1
z2
.
Man interessiert sich nun in der analytischen Geometrie für die durch s definierte quadratische Form
q(x) := s(x, x) = αx21 + 2βx1 x2 + αx22
und die Menge
C :=
x ∈ R2 q(x) = 1
,
dann gilt
q(x) = q(Sz) = hSz, ASzi = hz, (t SAS)zi
α+β
0
t
= z·
·z
0
α−β
= (α + β)z12 + (α − β)z22
.
Beschreibt man die Menge C also nicht durch die Koordinaten x1 , x2 bezüglich
der kanonischen Basis, sondern durch die Koordinaten z1 , z2 ihrer Punkte
bezüglich B , so wird
,
C =
x = z1 w1 + z2 w2 ∈ R2 (α + β)z12 + (α − β)z22 = 1
126
und die letzte Gleichung ist insofern einfacher als die Gleichung q(x) = 1,
als darin kein “gemischter” Term, also kein Summand µz1 z2 mit µ 6= 0,
vorkommt. C lässt sich nun leicht untersuchen: Man kann die Gleichung
noch mit −1 multiplizieren, also
α + β ≥ 0 annehmen.
Wenn wir die “Entartungsfälle” α + β = 0 oder α − β = 0 mal außer Acht
lassen, können wir
a := √
1
α+β
1
und b := p
|α − β|
setzen, dann wird
C =
z2 z2
z1 w1 + z2 w2 ∈ R 12 ± 22 = 1
a
b
2
und wir sehen: Für λ1 , λ2 > 0 ist C eine Ellipse, für λ1 > 0 , λ2 < 0 eine
Hyperbel, mit den “Hauptachsen” w1 und w2 :
e2
w2
w1
a
b
e1
127
e2
w2
w1
b
a
e1
Definition 9.3.6 : Eine symmetrische Matrix A ∈ M (n × n, R) heißt
positiv definit, wenn
∀ x ∈ Rn \ {0} : hx, Axi = t x · A · x > 0
gilt.
2
Sie lernen es in der Analysis: Sei
f : Rn −→ R zweimal stetig differenzierbar
und der Gradient grad f (x) = 0 . Ist die Hesse-Matrix
Hessf (x) := (
∂ ∂
f (x))j,k∈n
∂xj ∂xk
positiv definit, so hat f in x ein isoliertes lokales Minimum. Man sucht deshalb nach Kriterien für die positive Definitheit einer symmetrischen Matrix
A , man möchte schließlich nicht immer
hx, Axi für alle x ∈ Rn \ {0}
ausrechnen:
128
Korollar 9.3.7 : Eine symmetrische Matrix A ∈ M (n×n, R) ist genau dann
positiv definit, wenn ihre Eigenwerte λ1 , . . . , λn alle positiv sind.
Beweis : Nach (9.3.4)(1) gibt es eine Orthonormalbasis
B = (w1 , . . . , wn ) des Rn , so dass für
s : Rn × Rn

λ1
0

.
..
MB (s) = 
0
λn
−→ R ,



,
s(x, y) := hx, Ayi gilt
für j, k ∈ n,
also s(wj , wk ) = δjk λj
wobei die λj die Eigenwerte von A sind. Zu x ∈ Rn gibt es µ1 , . . . , µn ∈ R
mit
x = µ1 w1 + . . . + µn wn , also
!
n
n
X
X
hx, Axi = s(x, x) = s
µj w j ,
µk w k
j=1
=
n
X
k=1
µj µk s(wj , wk ) =
n
X
µ2j λj
,
j=1
j,k=1
und dieser Ausdruck ist genau dann größer 0 für alle x ∈ Rn \ {0}, wenn
λ1 , . . . , λn > 0 sind.
2
- Um dieses Kriterium anzuwenden, muss man die Eigenwerte, also die Nullstellen des charakteristischen Polynoms von A , berechnen. Es reicht aber,
sich die Koeffizienten des charakteristischen Polynoms anzusehen, das wird
Satz 9.3.10. Um ihn zu beweisen, sehen wir uns zunächst beliebige Polynome
an:
Definition 9.3.8 : Sei K ein beliebiger Körper,n ∈ N und
n
f (X) = X +
n−1
X
αj X j
j=0
ein normiertes Polynom, das in Linearfaktoren zerfällt, es gebe also
λ1 , . . . , λn ∈ K mit
f (X) = (X − λ1 ) · . . . · (X − λn ) .
129
Ausmultiplizieren ergibt
α0
α1
...
αn−2
αn−1
:= (−1)n λ1 · . . . · λn
:= (−1)n−1 (λ2 · . . . · λn + λ1 · λ3 · . . . · λn + . . . + λ1 · . . . · λn−1 ),
:= λ1 λ2 + . . . + λ1 λn + λ2 λ3 + . . . + λ2 λn + . . . + λn−1 λn ,
:= −(λ1 + . . . + λn ) .
Um das besser zu verstehen, definieren wir die
elementarsymmetrischen Funktionen
sk (λ1 , . . . , λn ) :=
X
λj1 · . . . · λjk
für k ∈ n − 1 ∪ {0} .
1≤j1 <...<jk ≤n
Die Summe hat so viele Summanden, wie es Möglichkeiten
gibt, k verschiede n
ne Indizes j1 , . . . , jk aus n auszuwählen, also
Summanden. Für unser
k
Polynom f gilt dann
αk = (−1)n−k sn−k (λ1 , . . . , λn ) .
Das ist der Wurzelsatz von Vieta, den Sie für n = 2 aus der Schule
kennen.
2
- Für K = R gibt es nun einen Zusammenhang zwischen den Vorzeichen der
αk und denen der Nullstellen λk :
(9.3.9) Vorzeichenregel: Sei n ∈ N,
f (X) = X n + αn−1 X n−1 + . . . + α1 X + α0 ∈ R[X]
ein normiertes Polynom mit α0 6= 0, das in R[X] in Linearfaktoren zerfällt,
also
f (X) = (X − λ1 ) · . . . · (X − λn ) mit λ1 , . . . , λn ∈ R .
Dann gilt
a) Genau dann sind alle λj negativ, wenn alle Koeffizienten αj positiv
sind.
b) Genau dann sind alle λj positiv, wenn die Vorzeichen der αj alternierend sind, genauer: wenn
(−1)n−j αj > 0 für j = 0, . . . , n − 1 ist.
130
Beweis : a) “⇐=”: Ist λ ∈ R und λ ≥ 0 , so ist
f (λ) = λn + αn−1 λn−1 + . . . + α0 ≥ α0 > 0,
also λ keine Nullstelle von f . Also sind alle Nullstellen λj negativ .
b) “=⇒ ”: Seien alle λj negativ, so gilt mit den Bezeichnungen aus 9.3.8 :
> 0, falls k gerade,
sk (λ1 , λn )
< 0, falls k ungerade ist,
und damit
αk = (−1)n−k sn−k (λ1 , . . . , λn ) > 0 für alle k = 0, . . . , n − 1 .
b) Man wende a) an auf das Polynom
f− (X) := (−1)n f (−X) ,
dann folgt b) direkt aus a).
2
- Wir wenden das nun an für symmetrische Matrizen und ihre Eigenwerte:
Satz 9.3.10 : Sei A ∈ M (n × n, R) eine symmetrische Matrix und
PA (X) = (−1)n X n + βn−1 X n−1 + . . . + β1 X + β0
ihr charakteristisches Polynom. Dann gilt
A positiv definit
⇐⇒
(∗) ∀ j ∈ n − 1 ∪ {0} : (−1)j βj > 0 .
Beweis : f (X) := (−1)n PA (X) = X n + (−1)n βn−1 X n−1 + . . . + (−1)n β0
ist ein normiertes Polynom. Zunächst: Ist β0 = 0 , so ist 0 ein Eigenwert und
A nicht positiv definit, und umgekehrt: Ist 0 ein Eigenwert, so gilt β0 = 0,
und (∗) ist falsch.
Wir können uns also auf den Fall β0 6= 0 beschränken und darauf die Vorzeichenregel 9.3.9 anwenden. Für die Koeffizienten αj aus 9.3.9 gilt dann
αj = (−1)n βj
,
und
(−1)n−j αj = (−1)j βj
.
2
131
9.4 Trägheitsgesetz von Sylvester
Bemerkung 9.4.1 : Wir haben schon in Definition 4.7.5 gelernt, was die innere direkte Summe von Untervektorräumen ist: Sei V ein K−Vektorraum,
W1 , . . . , Wr seien Untervektorräume von V . Dann heißt V die innere direkte
Summe von W1 , . . . , Wr , geschrieben:
V
=
W1 ⊕ . . . ⊕ Wr
=
r
M
Wj
,
j=1
wenn es zu jedem w ∈ V ein eindeutig bestimmtes r−tupel
(w1 , . . . , wr ) ∈ W1 × . . . × Wr
w
=
w1 + . . . + wr
gibt mit
.
Hat man einen K−Vektorraum mit symmetrischer Bilinearform, so kann man
von so einer Zerlegung noch mehr verlangen:
Definition 9.4.2 : Sei V ein K−Vektorraum mit einer symmetrischen Bilinearform s , K ein beliebiger Körper, oder V ein C−Vektorraum mit Hermitescher Form s. Sind V1 , . . . , Vr Unterräume von V mit
V = V1 ⊕ . . . ⊕ Vr
,
und gilt auch noch
s(vj , vk ) = 0 für alle vj ∈ Vj , vk ∈ Vk
mit j 6= k ,
so heißt V die orthogonale direkte Summe der Vj , j ∈ r , und wir schreiben
V = V1 ⊥ ... ⊥ Vr .
Definition 9.4.3 : Sei V ein K−Vektorraum und s eine symmetrische Bilinearform auf V . Dann nennen wir
V0 := { v ∈ V | ∀ w ∈ V : s(v, w) = 0 }
den Ausartungsraum von s.
2
Man sieht sofort:
Folgerung 9.4.4 : Sei V ein K−Vektorraum mit symmetrischer Bilinearform s . Dann gilt:
a) V0 ist ein Untervektorraum von V .
b) s ist nichtausgeartet ⇐⇒ V0 = {0}
132
(wobei wir den Begriff “nichtausgeartet” in Def.6.2.1 nur für K = R definiert
hatten, aber dort kann man auch einen beliebigen Körper nehmen.)
2
Direkt aus Satz 9.3.4 folgt
Korollar 9.4.5 : Sei n ∈ N , s eine symmetrische Bilinearform auf dem Rn
und W0 ihr Ausartungsraum. Dann gibt es Untervektorräume W+ und W−
von Rn , so dass
Rn = W+ ⊥ W− ⊥ W0 ist, und
∀ w ∈ W+ \ {0} : s(w, w) > 0 ,
∀ w ∈ W− \ {0} : s(w, w) < 0 ,
∀ w ∈ W0 ∀ v ∈ V : s(w, v) = 0 ,
und die Zerlegung ist orthogonal bezüglich s und dem kanonischen Skalarprodukt h , i.
Beweis : Nach dem Satz 9.3.4 über die Hauptachsentransformation gibt es
eine Basis
B0 = (w1 , . . . , wm , wm+1 , . . . , wm+l , wm+l+1 , . . . , wn )
des Rn , so dass


Em



 − − −



MB0 (s) = 






0


|
|
|
+ − − − −|
|
|
|
−El
|
|
|
|
− − − − +
|
|
|
ist. Mit
W+
W−
f
W
:= span(w1 , . . . , wm ) ,
:= span(wm+1 , . . . , wm+l ) ,
:= span(wm+l+1 , . . . , wn )
133




0









− − − 




0
sehen wir:
f
Rn = W+ ⊥ W− ⊥ W
,
∀ w ∈ W+ \ {0} : s(w, w) > 0 , ∀w ∈ W− \ {0} : s(w, w) < 0 ,
und
f ∀ v ∈ Rn : s(w, v) = 0 ,
∀w ∈ W
f ⊂ W0 , , wobei W0 der Ausartungsraum von s ist. Sei v ∈ W0 , dann
also W
ist v eine Linearkombination von B0 :
v =
n
X
mit αj ∈ R .
αj w j
j=1
Für alle j ∈ m + l gilt dann
0 = s(v, wj ) =
n
X
αk s(wk , wj ) = ±αj
k=1
(und zwar +αj für j ≤ m , −αj für j > m ) , also αj = 0 , also
v =
n
X
f
αj w j ∈ W
.
j=m+l+1
f = W0
Also ist W
.
2
Für einen beliebigen K−Vektorraum V , auch wenn K = R ist, hat man
diesen Satz nicht, schon deshalb, weil man kein kanonisches Skalarprodukt
hat. Wir beweisen immerhin den
(9.4.6) Orthogonalisierungssatz : Sei V ein endlichdimensionaler Vektorraum über einem Körper K mit char K 6= 2 und
s : V × V −→ K
eine symmetrische Bilinearform. Dann gibt es eine Basis
B = (v1 , . . . , vn ) von V
mit
s(vj , vk ) = 0 für j, k ∈ n mit j 6= k
Für die durch
q : V −→ K
,
134
q(v) := s(v, v)
.
definierte quadratische Form heißt das: Es gibt α1 , . . . , αn ∈ K mit
q(v) = α1 ξ12 + . . . + αn ξn2
für v =
n
X
ξj vj
.
j=1
Beweis durch Induktion nach n := dim V : Für n = 0 oder 1 ist nichts
zu beweisen. Sei nun n ∈ N , und für n sei die Behauptung richtig. Sei
dim V = n + 1. Gilt
q(v) = 0 für alle v ∈ V , so gilt wegen
s(v, w) =
1
(q(v + w) − q(v) − q(w)) für alle v, w ∈ V :
2
s(v, w) = 0 für alle v, w ∈ V ,
und wir können jede Basis B von V nehmen. Anderenfalls gibt es ein v1 ∈ V
mit q(v1 ) 6= 0 . Wir setzen
W := { w ∈ W | s(v1 , w) = 0 }
,
das ist ein Untervektorraum von V , und wir behaupten:
V = Kv1 ⊕ W
. Dazu zeigen wir:
Kv1 ∩ W = {0} : Sei v ∈ Kv1 ∩ W
v = λv1
mit λ ∈ K
,
dann ist
und 0 = s(v1 , v) = λs(v1 , v1 ) = λq(v1 ) ,
also λ = 0 , also v = 0 , und
Kv1 + W = V : Sei v ∈ V
v 0 :=
,
dann setzen wir
s(v1 , v)
v1
s(v1 , v1 )
,
dann ist
v = v 0 + (v − v 0 ) mit v 0 ∈ Kv1
s(v1 , v − v 0 ) = s(v1 , v) −
v − v0 ∈ W
,
und
s(v1 , v)
s(v1 , v1 ) = 0 ,
s(v1 , v1 )
also v ∈ Kv1 + W
also
.
Sei s0 die Restriktion von s auf W × W . Dann gibt es wegen dim W = n
eine Basis (v2 , . . . , vn+1 ) von W mit
s0 (vj , vk ) = 0 für j, k ∈ {2, . . . , n + 1} mit j 6= k
135
,
und wenn wir B := (v1 , . . . , vn+1 ) nehmen, haben wir eine Basis von V mit
s(vj , vk ) = 0 für j, k ∈ n + 1 mit j 6= k
.
2
Für Matrizen ergibt sich daraus das
Korollar 9.4.7 : Zu jeder symmetrischen Matrix A ∈ M (n × n, K) ,
char K 6= 2 , gibt es ein S ∈ GL(n, K) mit


α1
0


t
...
S·A·S = 
 ,
0
αn
wobei α1 , . . . , αn aber nicht eindeutig bestimmt sind.
2
Folgerung 9.4.8 : Wir überlegen uns, wie man den Orthogonalisierungssatz
9.4.6 für den Fall K = R benutzen kann. Man hat dann für j, k ∈ n :
s(vj , vk )
=
mit αj ∈ R ,
αj δjk
und man kann die Elemente der Basis (v1 , . . . , vn ) so numerieren, dass
αj > 0 für j = 1, . . . , m,
αj < 0 für j = m + 1, . . . , m + l,
αj = 0 für j = m + l + 1, . . . , n
gilt, mit gewissen Zahlen m , l ∈ N0 . Wie im Beweis von Korollar 9.4.5 setzt
man
W+ := span(w1 , . . . , wm ) ,
W− := span(wm+1 , . . . , wm+l ) ,
f := span(wm+l+1 , . . . , wn ) ,
W
dann hat man die bezüglich s orthogonale Zerlegung
V
(∗)
=
f
W+ ⊥ W− ⊥ W

 ∀ w ∈ W+ \ {0}
∀ w ∈ W− \ {0}

f∀v ∈ V
∀w ∈ W
:
:
:
mit
s(w, w) > 0 ,
s(w, w) < 0 ,
s(w, v) = 0 ,
f ist der Ausartungsraum
und wie im Beweis von 9.4.5 kann man zeigen: W
V0 von s . Das Problem dabei ist, dass die Untervektorräume W+ und W−
durch die Eigenschaft (∗) nicht eindeutig bestimmt sind, sondern davon
136
abhängen, welche Orthonormalbasis B = (v1 , . . . , vn ) von V wir gewählt
haben. Nur der Ausartungsraum V0 ist unabhängig von der Basis. Der Satz
von Sylvester sagt, dass wenigstens die Dimensionen von W+ und W−
nicht von der Basis abhängen:
(9.4.9) Trägheitsgesetz von Sylvester : Sei V ein endlichdimensionaler
R−Vektorraum mit einer symmetrischen Bilinearform s. Hat man Zerlegungen
V = V+ ⊥ V− ⊥ V0 = W+ ⊥ W− ⊥ V0 ,
wobei V0 der Ausartungsraum von s ist und
∀ v ∈ V+ \ {0} : s(v, v) > 0 , ∀ v ∈ W+ \ {0} : s(v, v) > 0 ,
∀ v ∈ V− \ {0} : s(v, v) < 0 , ∀ v ∈ W− \ {0} : s(v, v) < 0 ,
dann gilt
dim V+ = dim W+
,
dim V− = dim W−
.
Beweis : Sei
m := dim V+ , m0 := dim W+ , l := dim V− , l0 := dim W−
.
Nach Definition der direkten Summe, nach Satz 4.7.1 und Bemerkung 4.7.6
haben wir
m + l = dim V − dim V0 = m0 + l0 .
Es genügt also, l = l0 zu zeigen, dann folgt auch m = m0 . Angenommen, es
gibt ein
v ∈ V+ ∩ (W− + V0 ) , v 6= 0 , dann folgt
s(v, v) > 0 und ∃ w− ∈ W− ∃ v0 ∈ V0 : v = w− + v0 ,
sicherlich w− 6= 0, denn sonst wäre s(v, v) = 0 , nicht > 0. Also gilt
s(v, v) = s(w− , w− ) + 2 s(w− , v0 ) + s(v0 , v0 ) = s(w− , w− ) < 0 ,
Widerspruch. Also ist V+ ∩ (W− + V0 ) = 0 , wir haben nach
Aufgabe (4.5) b):
dim V+ + dim(W− + V0 ) = dim(V+ + W− + V0 ) ,
und wegen W− ∩ V0 = {0} ist, wieder nach Aufgabe (4.5) b) :
dim(W− + V0 ) = dim W− + dim V0
,
also
dim V+ + dim W− + dim V0 ≤ dim V = n ,
137
also
m + l0
l
0
≤
≤
n − dim V0
n − m − dim V0
=
,
l
.
analog zeigt man l ≤ l0 , also ist l = l0 .
2
Bemerkung 9.4.10 : Hat man einen R−Vektorraum V mit
dimR V = n , zwei Basen A und B von V , also die Transformationsmatrix
S := MAB ( idV ) ∈ GL(n, R) , und
• F ∈ EndR V , so gilt nach (4.4.17):
MBB (F )
S −1 · MAA (F ) · S
=
,
und daher: MAA (F ) und MBB (F ) haben die gleichen Eigenwerte,
• eine symmetrische Bilinearform s auf V , so gilt nach dem Transformationssatz (6.3.6) :
MB (s)
t
=
S · MA (s) · S
,
MB (s) und MA (s) haben i.A. nicht die gleichen Eigenwerte, aber
das Trägheitsgesetz von Sylvester sagt immerhin, dass sich die Vorzeichen der Eigenwerte und die Vielfachheit des Eigenwerts 0 nicht
ändern. Das ist das nächste Korollar. − Natürlich: Ist die Transformationsmatrix S orthogonal, also t S = S −1 , so haben MB (s) und
MA (s) die gleichen Eigenwerte.
Korollar 9.4.11 : Sei n ∈ N , A ∈ M (n × n, R) symmetrisch und
S ∈ GL(n, R) . Dann haben
A und
t
S·A·S
,
mit Vielfachheit gezählt, die gleichen Anzahlen positiver und negativer Eigenwerte.
Beweis : Sei
s(x, y) := hx, Ayi für x, y ∈ Rn ,
dann ist A = MK (s) , wobei K die kanonische Basis von Rn ist, und t S · A · S
die Matrix MB (s) für eine andere Basis B. Nach Folgerung 9.4.8 kann man
mit A und mit t S · A · S Zerlegungen
Rn = V+ ⊥ V− ⊥ V0
und Rn = W+ ⊥ W− ⊥ V0
138
konstruieren, so dass
∀ v ∈ V+ \ {0} : s(v, v) > 0 ,
∀ v ∈ W+ \ {0} : s(v, v) > 0 ,
∀ v ∈ V− \ {0} : s(v, v) < 0 ,
∀ v ∈ W− \ {0} : s(v, v) < 0 ,
gilt, und nach Sylvester gilt
dim V+ = dim W+
,
dim V− = dim W−
.
Nach Satz 9.3.4 sind diese Zahlen gerade die Anzahlen der positiven bzw.
negativen Eigenwerte (mit Vielfachheit gezählt) von MK (s) bzw. MB (s).
2
- Wir wollen uns zum Schluss dieses Kapitels noch einmal mit positiv definiten Matrizen beschäftigen und ein Kriterium beweisen, das man auch in der
Analysis benutzen kann, um zu zeigen, dass die Hesse-Matrix positiv definit
ist:
(9.4.12) Definition : Sei n ∈ N , K ein Körper und A ∈ M (n × n, K).
Für k ∈ n heißen die Matrizen


a11 . . . a1k

..  ∈ M (k × k, K) ,
Ak :=  ...
. 
ak1 . . . akk
also die Matrizen, die aus der linken oberen “Ecke” von A mit k Zeilen und
Spalten bestehen, die Hauptminoren von A .
(9.4.13) Hauptminoren-Kriterium für Definitheit: Für eine symmetrische Matrix A ∈ M (n × n, R)gilt:
A positiv definit
⇐⇒
det Ak > 0 für alle k ∈ n .
” Nach dem Korollar 9.3.7 gibt es ein S ∈GL(n, R) mit


α1
0


t
...
S·A·S = 
 mit
0
αn
Beweis : “ =⇒
αj = hej ,t S · A · S · ej i = hS · ej , A · (S · ej )i > 0 ,
139
denn A ist positiv definit, und für die kanonischen Basisvektoren ej ist auch
S · ej 6= 0 . Also ist
t
det( S · A · S) =
n
Y
αj > 0 ,
also
j=1
det A · (det S)2 > 0 ,
also auch: (∗)
det A > 0 .
Es ist A = MK (s) für
s : Rn × Rn −→ R , s(x, y) := hx, Ayi , also ist
Ak = MK (sV ×V ) für Vk := span(e1 , . . . , ek ) ⊂ Rn ,
K
k
und auch sV ×V ist positiv definit. Also folgt nach (∗):
k
k
det Ak > 0 für alle k ∈ n .
“ ⇐= ” durch Induktion nach n : Für n = 1 ist die Behauptung sofort zu
sehen. Sei n ∈ N , n ≥ 2, und für n − 1 sei die Behauptung richtig. Sei nun
A ∈ M (n × n, R) symmetrisch mit
(∗∗)
det Ak > 0 für alle k ∈ n − 1 ,
dann ist die Matrix An−1 positiv definit nach Induktionsvoraussetzung. Nach
Korollar 4.9.11 gibt es ein T ∈GL(n − 1, R), so dass


α1
0


t
...
T · An−1 · T = 
 ist, mit αj > 0 für j ∈ n − 1 .
0
αn
Setzen wir nun

0

. 

T
| .. 


T 0 := 
 ∈ GL(n, R) , so wird
|
0


 − − − + − 
0 ... 0 | 1


α1
0
|
β1

.. 
..

.
|
. 


t 0
0
T ·A·T =  0
=: B
αn
| βn−1 


 − −

− + −
β1 . . . βn−1 |
βn

|
140
mit β1 , . . . , βn ∈ R . Nach Voraussetzung (∗∗) ist det A = det An > 0, also
auch
det B = det A · (det T 0 )2 > 0 .
Wir setzen


γ1
.. 
|
. 

| γn−1 

− + − 
0 |
1
|


En−1

S := 

 − −
0 ...
mit γj := −
βj
αj
,
dann ist S ∈ GL(n, R), und (Sie rechnen es bitte nach):


α1
0
n−1


...
X
βj2


t
S·B·S = 
mit
α
:=
β
−

n
n
αj


αn−1
j=1
0
αn
.
Nun ist det A = det An > 0 , det B > 0 , also auch
α1 · . . . · αn−1 · αn = det(t S · B · S) = det B · (det S)2 > 0 ,
α1 , . . . , αn−1 > 0 , also auch αn > 0 .
B := (T 0 · S · e1 , . . . , T 0 · S · en ) gilt also
Für die Vektoren aus der Basis
hT 0 · S · ej , A · (T 0 · S · el )i = hej ,t S ·t T 0 · A · T 0 · S · el i


+
*
α1
0


...
= ej , 
 el = δjl αj ,
0
αn
also für x =
n
P
ξj · T 0 Sej ∈ Rn \ {0} :
j=1
hx, A · xi =
n
X
ξj2 · αj > 0 ,
j=1
also ist A positiv definit.
2
141
(9.5) Aufgaben
(9.1) a) Sei A ∈SO(3) und F : R3 −→ R3 , F (x) := A · x .
Nach Theorem 9.1.13 gibt es eine Orthonormalbasis
B = (v1 , v2 , v3 ) des R3 und ein α ∈ [0, 2π) , so dass


1
0
0
MBB (F ) =  0 cos α − sin α  ist .
0 sin α cos α
Sei A 6= E3 . Zeigen Sie, dass Rv1 und cos α dann eindeutig bestimmt
sind. Tipp: Es ist tr A = 1 + 2 cos α nach Aufgabe (6.7) b).
Rv1 heißt die Drehachse , α der Drehwinkel von F bzw. A .
b) Zeigen Sie, dass die Matrizen A :=




2 3
6
20 0 −15
1 
1
3 −6 2  ,
−9 20 −12 
b)
a)
7
25
6 2 −3
12 15 16
in SO(3) liegen. Berechnen Sie Drehachse und Drehwinkel dieser
Matrizen.
(9.2) a) Für einen Ring (R, +, ·) hatten wir in (4.9.4) das Zentrum Z(R)
definiert. Das geht aber auch für eine Gruppe (G, ·) : Man nennt
Z(G)
:=
{ x ∈ G | ∀y ∈ G : x · y = y · x }
das Zentrum von (G, ·) .
a) Zeigen Sie, dass Z(G) ein Normalteiler von G ist.
b) Zeigen Sie: Z(O(n)) = {En , −En } für n ∈ N .
(9.3) Seien A, B ∈O(n) , n ungerade. Zeigen Sie:
det((A − B)(A + B))
142
=
0 .
(9.4) Finden Sie zu

A
:=

1 −4 2
 −4 1 −2  ∈ M (3 × 3, R)
2 −2 −2
eine Matrix S ∈O(3) , so dass t S · A · S Diagonalform hat.
(9.5) Zeigen Sie, dass
U
:=
1
2
1+i 1+i
−1 − i 1 + i
zu U(2) gehört, und geben Sie eine Matrix S ∈ U(2) an, so dass
t
S · U · S Diagonalform hat.
(9.6) Zu der symmetrischen Bilinearform
s : R4 × R4 −→ R ,
s(a, b) := 2a1 b2 + 2a2 b1 + a1 b3 + a3 b1 − a2 b4 − a4 b2 − 2a3 b4 − 2a4 b3
für a = t (a1 , a2 , a3 , a4 ) , b = t (b1 , b2 , b3 , b4 ) ∈ R4 finde man eine Basis
B des R4 , so dass


α1
0


α2
 ist, mit αj ∈ {1, −1, 0} .
MB (s) = 


α3
0
α4
(9.7) Sei a ∈ Rn , kak = 1 . Zeigen Sie für
sa : Rn −→ Rn , sa (x) := x − 2ha, xi a :
a) sa (a) = −a , und sei Ha,0 := { x ∈ Rn | hx, ai = 0 } ,
dann gilt ∀ x ∈ Ha,0 : sa (x) = x .
sa heißt deshalb Spiegelung des Rn an der
Hyperebene Ha,0 .
b) Die Matrix von sa bezüglich der kanonischen Basis K ist
Sa := MKK (sa ) = En − 2 a ·t a , und es gilt
Sa2 = En , t Sa = Sa , Sa ∈O(n)\SO(n) .
c) Geben Sie die Matrix MKK (F ) der Spiegelung F des R3 an der
Ebene
E0;a,b
:=
{ λa + µb | λ, µ ∈ R }
143
mit a := t (2, 1, −2) ,
b := t (1, 1, 3) an.
144
§10 Klassische Gruppen
10.1 Einiges zur Topologie im Rn
(10.1.1) Vorbemerkung : Im letzten Paragraphen haben wir einige Untergruppen von GL(n, K) , K = R oder C, und die algebraischen Eigenschaften
ihrer Elemente (Diagonalisierbarkeit, Normalformen) kennengelernt. Damit
ist die Theorie dieser Gruppen aber keineswegs zu Ende: Man kann aus diesen
Gruppen metrische und damit topologische Räume machen. Wir wollen den
Anfang dieser Theorie kennenlernen. Das gehört schon mehr zur Analysis,
und deshalb setzen wir hier voraus, dass der Leser die grundlegenden Begriffe und Sätze aus der Theorie der metrischen Räume kennt. Man findet das
in jedem Analysis-Lehrbuch. Einige Grundbegriffe wollen wir hier wiederholen, damit Sie sie nachschlagen können. Aber die Theorie der topologischen
Räume können Sie an Hand dieser Kurzfassung nicht lernen:
Definition 10.1.2 : Sei M eine Menge. Es gebe eine Abbildung
d : M × M −→ R mit den Eigenschaften
(M1) ∀ x, y ∈ M : (d(x, y) = 0 ⇐⇒ x = y) ,
(M2) ∀ x, y ∈ M : d(x, y) = d(y, x) ,
(M3) ∀ x, y, z ∈ M : d(x, z) ≤ d(x, y) + d(y, z) .
Dann heißt M (genauer: das Paar (M, d)) ein metrischer Raum, mit
Metrik d .
2
Bemerkung 10.1.3 : Jeder normierte K−Vektorraum V , mit Norm k k,
wird ein metrischer Raum, wenn man die Metrik
d : V × V −→ R durch
d(x, y) := kx − yk für x, y ∈ V
definiert.
Definition 10.1.4 : Eine Menge T heißt ein topologischer Raum, wenn
es eine Menge O von Teilmengen von T gibt mit den Eigenschaften:
(T1) ∅ ∈ O und T ∈ O.
(T2) Für eine FamilieS(Tj )j∈I von Mengen Tj ∈ O mit einer beliebigen Indexmenge I ist
Tj ∈ O .
j∈I
145
(T3) Für eine Familie (Tj )j∈n , n ∈ N , von endlich vielen Mengen Tj ∈ O
n
T
ist
Tj ∈ O.
j=1
Die Mengen aus O heißen offene Mengen in T .
2
Bemerkung 10.1.5 : Jeder metrische Raum M mit Metrik d wird ein topologischer Raum (M, O), wenn man für eine Teilmenge T von M definiert:
T ∈O
⇐⇒
∀ x ∈ T ∃ ε > 0 : { y ∈ M | d(x, y) < ε } ⊂ T
.
Definition 10.1.6 : Sei (X, O) ein topologischer Raum. Eine Teilmenge A
von M heißt abgeschlossen , wenn ihr Komplement
{M A = M \ A
offen ist.
2
In einem metrischen Raum (nicht in einem beliebigen topologischen Raum)
kann man definieren, was eine konvergente Folge ist:
Definition 10.1.7: Sei (M, d) ein metrischer Raum, x ∈ M und (xk )k∈N eine
Folge von Elementen aus M . Dann sagt man: Die Folge (xk )k∈N
konvergiert gegen x, in Zeichen:
lim xk = x ,
k→∞
wenn gilt:
∀ ε > 0 ∃ k0 ∈ N ∀ k > k0 : d(xk , x) < ε .
2
Damit erhält man folgenden Satz, den wir häufig zum Nachweis benutzen,
dass eine Teilmenge A eines metrischen Raums abgeschlossen ist:
Satz 10.1.8: Sei M ein metrischer Raum. Eine Teilmenge A von M ist genau dann abgeschlossen, wenn gilt: Ist (xk )k∈N eine Folge von Elementen
xk ∈ A, die gegen ein x ∈ M konvergiert, so liegt x schon in A.
2
Definition 10.1.9 : Seien (X, O) und (Y, O0 ) topologische Räume und
146
f : X −→ Y . f heißt stetig , wenn gilt
−1
∀ U ∈ O0 : f (U ) ∈ O
.
Gleichbedeutend damit ist: Für jede abgeschlossene Teilmenge A von Y ist
−1
das Urbild f (A) abgeschlossen in X .
Die Abbildung f heißt ein Homömorphismus, wenn sie bijektiv, stetig und
auch f −1 : Y −→ X stetig ist.
2
Für metrische Räume benutzen wir meist den
Satz 10.1.10 : Seien M und M 0 metrische Räume. Eine Abbildung
f : M −→ M 0 ist genau dann stetig, wenn für jedes x ∈ M und jede
Folge (xk )k∈N in M gilt
lim xk = x
k→∞
=⇒
lim f (xk ) = f (x) .
k→∞
2
Definition 10.1.11 : Sei X ein topologischer Raum und C ⊂ X. C heißt
kompakt, wenn es zu jeder Familie (Uj )j∈I von offenen Mengen Uj (mit
beliebiger Indexmenge I) und
[
Uj
C ⊂
j∈I
bereits eine endliche Teilmenge J von I gibt mit
[
C ⊂
Uj .
j∈J
2
Für den Nachweis der Kompaktheit benutzen wir im Folgenden den
Satz 10.1.12 : Sei V ein endlichdimensionaler normierter Vektorraum über
R oder C, k k die Norm in V und C ⊂ V . Dann ist C genau dann kompakt,
wenn C abgeschlossen ist und beschränkt. Letzteres soll heißen: Es gibt ein
c ≥ 0 mit
∀ x ∈ C : kxk ≤ c .
2
Für kompakte Mengen hat man den folgenden
Satz 10.1.13 (Satz vom Minimum und Maximum) : Sei C ein kom147
pakter topologischer Raum und f : C −→ R stetig. Dann gibt es
x1 , x2 ∈ C mit
∀ x ∈ C : f (x1 ) ≤ f (x) ≤ f (x2 ) .
2
Bemerkung 10.1.14 : Hat man auf einem endlichdimensionalen K−Vektorraum
V zwei verschiedene Normen k k1 und k k2 , so sind die durch
d1 (x, y) := kx − yk1
und d2 (x, y) := kx − yk2
definierten Metriken verschieden. Die dadurch definierten offenen Mengen
sind aber die gleichen:
Definition 10.1.15: Sei V ein K−Vektorraum, mit zwei Normen k k1 und
k k2 . Diese beiden Normen heißen äquivalent , wenn es Konstanten
c, C ∈ R, c, C > 0, gibt mit
(∗)
∀ x ∈ V : ckxk1 ≤ kxk2 ≤ Ckxk1
.
Beispiel 10.1.16 : Im Rn haben wir die Maximum-Norm
kxk∞ := max { |xj | | j ∈ n }
und nach Folgerung 6.1.18 die euklidische Norm
v
uX
u n 2
xj für x := t (x1 , . . . , xn ) .
kxk2 := t
j=1
Die beiden Normen sind äquivalent, denn es gilt
√
kxk∞ ≤ kxk2 ≤ nkxk∞ .
Folgerung 10.1.17 : Sei V ein K−Vektorraum mit zwei äquivalenten Normen k k1 und k k2 . Dann sind die durch k k1 und k k2 definierten offenen Mengen in V die gleichen.
Beweis : Sei T ⊂ V offen bzgl. k k1 , also T ∈ O1 , und x ∈ T . Es gelte (∗)
aus 10.1.15. Dann gibt es ein ε > 0 mit
{ y ∈ V | kx − yk1 < ε } ⊂ T
.
Mit ε0 := ε · c gilt dann
0
{ y ∈ V | kx − yk2 < ε } ⊂
148
1
y ∈ V | kx − yk1 < · c · ε
c
=
also T ∈ O2
{ y ∈ V | kx − yk1 < ε } ⊂ T
,
Ähnlich zeigt man : O2 ⊂ O1 .
.
2
Was uns die Arbeit im Folgenden erleichtert: Es gilt
Satz 10.1.18 : Je zwei Normen auf einem endlichdimensionalen K−Vektorraum V sind äquivalent.
Beweis : a) Sei zunächst V = Rn . Es genügt zu zeigen, dass eine beliebige
Norm k k äquivalent ist zur Maximum-Norm.
n
P
(i) Sei (e1 , . . . , en ) die kanonische Basis. Für x =
xj ej gilt dann
j=1
kxk ≤
n
X
|xj |kej k ≤ Ckxk∞
mit C :=
j=1
n
X
kej k .
j=1
(ii) Die “Einheitssphäre”
S := { x ∈ Rn | kxk∞ = 1 }
ist abgeschlossen und beschränkt im Rn mit k k∞ , also kompakt. Die Funktion
f : Rn −→ R , f (x) := kxk
ist wegen
| kxk − kyk | ≤ kx − yk ≤ C · kx − yk∞
für x, y ∈ Rn
eine stetige Funktion von Rn mit k k∞ nach R mit | |. Nach dem Satz vom
Minimum und Maximum nimmt die Funktion f auf S ihr Minimum und ihr
Maximum an, wir haben
c := inf { kxk | x ∈ S } = min { kxk | x ∈ S } > 0
und M := max { kxk | x ∈ S }
,
also 0 < c ≤ M < ∞ . Sei nun y ∈ Rn \ {0} beliebig, dann ist
also
y
∈S ,
kyk∞
y
k ≥ c , also kyk ≥ ckyk∞ .
kyk∞
Letzteres gilt auch für y = 0.
b) Sei nun V ein beliebiger endlichdimensionaler K− Vektorraum, mit zwei
Normen k k und k k∗ . Wir haben dann einen R−Vektorraumisomorphismus
k
ϕ : Rn −→ V
149
.
Für x ∈ Rn setzen wir
kxkϕ := kϕ(x)k und kxk∗ϕ := kϕ(x)k∗
,
auf diese Weise haben wir Normen auf dem Rn : Nach a) gibt es Konstanten
c, C > 0, so dass für alle x ∈ Rn gilt
ckxkϕ ≤ kxk∗ϕ ≤ Ckxkϕ
.
Da ϕ surjektiv ist, bedeutet das
2
∀ y ∈ V : ckyk ≤ kyk∗ ≤ Ckyk .
Auch das Folgende ist Ihnen sicher bekannt. Wir wiederholen es, weil wir es
öfters brauchen:
Definition 10.1.19 : Sei M ein metrischer Raum, mit Metrik d, und T eine
Teilmenge von M . Dann ist T mit der eingeschränkten Metrik
dT ×T : T × T −→ R , (x, y) 7−→ d(x, y)
ein metrischer Raum. dT ×T heißt die von M auf T induzierte Metrik.
2
Satz 10.1.20 : Sei M ein metrischer Raum und T ⊂ M mit der von M induzierten Metrik. Dann sind die offenenen Mengen V in T genau die Mengen,
zu denen es eine offene Menge U in M gibt mit
V = U ∩T
.
2
Definition 10.1.21 : Sei T ein topologischer Raum. T heißt
(a) zusammenhängend, wenn ∅ und T die einzigen Teilmengen von T
sind, die sowohl offen als auch abgeschlossen sind,
(b) wegzusammenhängend, wenn es für alle x, y ∈ T einen Weg, d.h.
eine stetige Abbildung f des Intervalls
[0, 1] = { α ∈ R | 0 ≤ α ≤ 1 }
nach T mit f (0) = x , f (1) = y gibt.
150
Bemerkung 10.1.22 : Ist der topologische Raum T wegzusammenhängend,
so ist er zusammenhängend.
2
10.2 Die allgemeine lineare Gruppe
Aus Definition 4.4.9 kennen wir die allgemeine lineare Gruppe GL(n, K)
für K = R oder C, das war die Gruppe der invertierbaren Matrizen aus
M (n × n, K) :
Definition 10.2.1 : Für Matrizen A ∈ M (n × n, K) definieren wir die
Operator-Norm als
kAkop := sup { kA · vk2 | v ∈ Kn , kvk2 ≤ 1 }
,
wobei k k2 die euklidische Norm im Rn ist (aber im Hinblick auf Satz 10.1.8
ist es bei Fragen zu Konvergenz oder Stetigkeit egal, welche Norm wir im Rn
wählen).
Behauptung 10.2.2 : Die Matrizenmultiplikation
µ∗ : M (n × n, K) × M (n × n, K) −→ M (n × n, K)
ist stetig, wenn man auf M (n × n, K) die Topologie nimmt, die man durch
die Operatornorm erhält.
Beweis : Sei ε > 0 und seien A, B ∈ M (n × n, K) mit kAkop , kBkop < ε ,
dann gilt
kA · Bkop = sup { kA · B · xk2 | kxk2 ≤ 1 }
≤ sup { kA · yk2 | kyk2 ≤ kBkop }
= kBkop sup { kA · yk2 | kyk2 ≤ 1k } = kBkop kAkop < ε2
.
Damit folgt die Stetigkeit von µ∗ in (0, 0), aber auch in einem beliebigen
(A0 , B0 ), denn es folgt für kA − A0 kop < ε, kB − B0 kop < ε :
kA · B − A0 · B0 kop = kA · (B − B0 ) + (A − A0 ) · B0 kop
≤ kAkop kB − B0 kop + kA − A0 kop kB0 kop ≤ (kA0 kop + ε)ε + εkB0 kop
2
Bemerkung 10.2.3 : Sei n ∈ N, dann gilt
(i) GL(n, K) = { A ∈ M (n × n, K) | det A 6= 0 } ,
151
.
(ii) GL(n, K) ist offen in M (n × n, K) .
Beweis : (i) wissen wir aus Folgerung 5.4.3 .
(ii) Sei A = (ajk ) ∈ M (n × n, K) mit kAkop < ε , dann gilt auch
∀ j, k ∈ n : |ajk | < ε .
Damit zeigt man, dass
det : M (n × n, K) −→ K ,
(akj ) 7−→
X
signσ · a1σ(1) · . . . anσ(n)
σ∈Sn
stetig ist, bezüglich k kop in M (n × n, K) und | | in K . Dann ist GL(n, K)
nach (i) das Urbild der in K offenen Menge { y ∈ K | y 6= 0 } , also offen
in M (n × n, K).
2
Behauptung 10.2.4: Die Matrizenmultiplikation
µ : GL(n, K) × GL(n, K) −→ GL(n, K) ,
(A, B) 7−→ A · B
,
und die Inversion
ι : GL(n, K) −→ GL(n, K) ,
A 7−→ A−1
sind stetig.
Beweis : Die Restriktion µ der nach 10.2.2 stetigen Abbildung
µ∗ : M (n × n, K) × M (n × n, K) −→ M (n × n, K)
auf GL(n, K) × GL(n, K) ist tatsächlich eine Abbildung nach GL(n, K), da
GL(n, K) eine Gruppe ist. Damit ist µ stetig. Zur Inversion: Nach Satz 5.3.4
haben wir für A ∈ GL(n, K):
A−1 = (ckj ) mit ckj = (det A)−1 · (−1)k+j det A0jk
,
wobei A0jk die Matrix ist, die aus A durch Streichen der j−ten Zeile und
k−ten Spalte entstanden ist. Da det und die Abbildung
K∗ −→ K∗
,
λ 7−→ λ−1
stetig sind, ist auch ι stetig.
2
152
Definition 10.2.5 : Eine Gruppe (G, ·), die zugleich ein topologischer Raum
ist, heißt eine topologische Gruppe, wenn gilt
µ : G × G −→ G ,
µ(g, h) := g · h für g, h ∈ G ,
ι : G −→ G ,
ι(g) := g −1
ist stetig,
ist stetig.
2
Die Behauptung 10.2.4 zeigt also:
Satz 10.2.6 : GL(n, K), mit der Topologie als Teilraum des metrischen Raums
M (n × n, K), ist eine topologische Gruppe.
2
10.3 Untergruppen von GL(n, R)
Definition 10.3.1 : Sei s : Rn × Rn −→ R eine (nicht notwendig symmetrische) bilineare Abbildung. Dann setzen wir
OM (s) := { A ∈ M (n × n, R) | ∀ v, w ∈ Rn : s(A · v, A · w) = s(v, w) }
Behauptung 10.3.2 :
(i) OM (s) ist abgeschlossen in M (n × n, R).
(ii) O(s) := OM (s)∩ GL(n, R) ist eine Untergruppe von GL(n, R).
(iii) Sei B := MK (s) die darstellende Matrix von s bezüglich der
kanonischen Basis K = (ej )j∈n , d.h. B = (s(ej , ek )). Dann gilt also
s(v, w) = t v · B · w für v, w ∈ Rn . Es gilt dann
A ∈ OM (s)
⇐⇒
B = tA · B · A .
(iv) Wenn s nichtausgeartet ist, gilt OM (s) = O(s) .
Beweis : (i) Wir zeigen zunächst, dass s : Rn × Rn −→ R stetig ist: Mit
einer ähnlichen Rechnung wie im Beweis von 10.2.2 erhält man für
B = MK (s) und v, w, v 0 , w0 ∈ Rn :
|s(v, w) − s(v 0 , w0 )| ≤
kvk2 kBkop kw − w0 k2 + kv − v 0 k2 kBkop (kw0 − wk2 + kwk2 ) ,
153
.
woraus die Stetigkeit von s folgt. Sei nun (Ak )k∈N eine Folge aus OM (s) , die
in M (n × n, R) gegen ein A konvergiert, dann konvergiert also
s(v, w) = s(Ak v, Ak w) = s((Ak −A)v, Ak w)+s(Av, (Ak −A)w)+s(Av, Aw)
gegen 0 + 0 + s(Av, Aw). Also ist mit Ak auch der Grenzwert A ∈ OM (s),
und damit ist OM (s) abgeschlossen nach Satz 10.1.8.
(ii) sieht man leicht.
(iii) Es gilt A ∈ OM (s) genau dann, wenn
∀ v, w ∈ Rn :
t
vBw = t (Av)B(Aw) = t v t ABAw
gilt, und das ist gleichbedeutend mit B = t ABA.
(iv) s ist genau dann nichtausgeartet, wenn B invertierbar ist. Der Beweis
dafür geht wie der Beweis von Satz 6.3.5, bei dem wir (unnötigerweise) vorausgesetzt hatten, dass s symmetrisch ist. Für nichtausgeartetes s haben wir
also nach (iii)
En = (B −1 ·t A · B) · A
für alle
A ∈ OM (s) ,
also ist jedes A ∈OM (s) invertierbar und gehört damit zu O(s) .
2
Beispiel 10.3.3 : Sei s(v, w) = t v · B · w mit


Ep |
0
B =  −− + −− 
0
| −Eq
mit p, q ∈ N0 , wobei Em die Einsmatrix aus M (m × m, R) bezeichnet. Dann
heißt
O(p, q) := O(s)
eine pseudo-orthogonale Gruppe. Ein Spezialfall ist
O(n) := O(n, 0) ,
das ist die uns aus Def. 9.1.6 bekannte orthogonale Gruppe. Dafür ist s das
kanonische Skalarprodukt h , i.
Beispiel 10.3.4 : Die symplektische Gruppe Sp(p, R) erhalten wir für
n = 2p und die darstellende Matrix


0
| −Ep
B :=  −− + −−  .
Ep |
0
154
Die Gruppe Sp(p, R) besteht aus den Blockmatrizen


A | B
M =  −− + −− 
C
| D
mit Matrizen A, B, C, D ∈ M (p×p, R), die die folgenden Gleichungen erfüllen:
t
C · A −t A · C = 0 ,
t
D · B −t B · D = 0 ,
t
A · D −t C · B = Ep .
Beispiel 10.3.5 : Normalteiler in GL(n, R) sind
(i) GL(n, R)+ := { A ∈ GL(n, R) | det A > 0 }
(ii) SL(n, R) := { A ∈ GL(n, R) | det A = 1 }
SL(n, R) heißt spezielle lineare Gruppe .
,
.
Beispiel 10.3.6 : Untergruppen von GL(n, R) sind auch
(i) N := { A ∈ GL(n, R) | ∀ j, k ∈ n : (ajj = 1 ∧ (j > k =⇒ ajk = 0)) } ,
(ii) D := { A ∈ GL(n, R) | ∀ j 6= k : ajk = 0 }
(iii) D · N
=
,
{ A ∈ GL(n, R) | ∀ j > k : ajk = 0 }
.
- Es gibt auch endliche Untergruppen von GL(n, R) :
Beispiel 10.3.7 :
(
)
n
n
X
X
Sn :=
A ∈ GL(n, R) | ajk ∈ {0, 1} ∧
ajk =
ajk = 1
k=1
j=1
ist die Gruppe der Permutationen der kanonischen Basis (e1 , . . . , en ) des Rn .
Sie ist isomorph zur in 2.2.10 definierten Gruppe (Sn , ◦).
10.4 Die Struktur von GL(n, R)
In 4.9.4 hatten wir das Zentrum eines Ringes definiert. Das geht für Gruppen
genau so:
Definition 10.4.1 : Sei (G, ·) eine Gruppe. Dann heißt
Z(G) := { g ∈ G | ∀ h ∈ G : g · h = h · g }
das Zentrum von (G, ·) .
155
(10.4.2) Abkürzungen , die wir im Folgenden brauchen, sind
R∗ := R \ {0} ,
R∗+ := { x ∈ R | x > 0 }
,
für a, b ∈ R , a < b : (a, b) := { x ∈ R | a < x < b }
.
Behauptung 10.4.3 : Z(GL(n, R)) = R∗ · En .
Den Beweis führen wir mit folgendem Lemma zurück auf Satz 4.9.5 :
Lemma 10.4.4 : GL(n, R) ist dicht in M (n × n, R), d.h. jedes
A ∈ M (n × n, R) ist Grenzwert einer Folge (Ak )k∈N mit Ak ∈ GL(n, R).
Beweis : Sei A ∈ M (n × n, R) und
r := min { |λ| ∈ R | λ ist Eigenwert von A , λ 6= 0 }
falls A von 0 verschiedene Eigenwerte hat, bzw. r := 1 sonst.
Für alle s ∈ (0, r) ist dann A − sEn invertierbar. Es ist
lim(A − sEn ) = A ,
s→0
also jedes A ∈ M (n×n, R) Grenzwert einer Folge von Matrizen aus GL(n, R).
2
Beweis von Behauptung 10.4.3 : Für A ∈ M (n × n, R) folgt aus
∀ B ∈ M (n × n, R) : A · B = B · A
nach Satz 4.9.5 : A ∈ R · En . Nach Lemma 10.4.4 folgt dann für
A ∈ Z(GL(n, R)) :
A ∈ R∗ · En .
2
Behauptung 10.4.5 : Die Abbildung
f : R∗+ × SL(n, R) −→ GL(n, R)+
,
1
(r, A) 7−→ r n A
ist ein Homömorphismus und ein Gruppen-Homomorphismus.
Beweis : Sei
g :
GL(n, R)+ −→ R∗+ × SL(n, R) , A 7−→ (det A,
156
1
1
(det A) n
A) ,
dann gilt
(g ◦ f )(r, A) = (r, A) und (f ◦ g)(A) = A .
f und g sind also bijektiv, und aus den Formeln entnimmt man die Stetigkeit
von f und g. f ist also ein Homömorphismus. Dass f ein Gruppenhomomorphismus ist, sieht man auch an der Definition von f .
2
Bemerkung 10.4.6 : GL(n, R) ist die disjunkte Vereinigung der beiden offenen Teilmengen GL(n, R)+ und
GL(n, R)− := { A ∈ GL(n, R) | det A < 0 }
Es gilt : GL(n, R)− = A0 ·GL(n, R)+ , wobei


−1 |
0
A0 :=  −− + −− 
0
| En−1
.
.
Aus dieser Gleichung folgt noch, dass GL(n, R)+ und GL(n, R)− homöomorph
sind.
2
Schreibweise 10.4.7 : Sei n ∈ N und K ein Körper. Für die Diagonalmatrix
A ∈ M (n × n, K) mit den Diagonalelementen a1 , . . . , an schreiben wir
diag(a1 , . . . , an ) .
Satz 10.4.8 (Cartan-Zerlegung) : Jedes A ∈ GL(n, R) lässt sich in eindeutiger Weise als Produkt A = C · P mit C ∈ O(n) und P ∈ PDS(n, R)
schreiben, wobei mit
PDS(n, R) =
C ∈ GL(n, R) | t C = C , Spec(C) ⊂ R∗+
die Menge der positiv definiten symmetrischen Matrizen bezeichnet werde
und Spec(C) die Menge aller Eigenwerte von C ist.
Beweis : Wir zeigen zunächst die Existenz der Zerlegung. Es ist
t
A · A ∈PDS(n, R), denn für alle v ∈ Rn gilt
ht A · A · v, vi = hA · v, A · vi = kA · vk22 ≥ 0 ,
157
also sind alle Eigenwerte von t A · A nicht negativ. Sie sind sogar alle positiv,
denn wegen det(t A · A) 6= 0 ist 0 kein Eigenwert. Mit Hauptachsentransformation (Satz 9.3.4, Teil (1)) finden wir ein H ∈ O(n) mit
H −1 ·t A · A · H = diag(d1 , . . . , dn ) und dj > 0 .
p
Wir setzen nun λj :=
dj und P := H·diag(λ1 , . . . , λn ) · H −1 , dann gilt
P ∈PDS(n, R), und die Matrix C := A · P −1 erfüllt
t
C · C = (t H)−1 · diag(
1
1
1
1
, . . . , ) ·t H ·t A · A · H · diag( , . . . , ) · H −1
λ1
λn
λ1
λn
= H · H −1 = En
.
Das beweist: C ∈O(n).
Zum Nachweis der Eindeutigkeit nehmen wir an, dass wir zwei solche Zerlegungen
A = C · P und A = C 0 · P 0
haben. Dann gilt
t
A · A = P 0 · (C 0 )−1 · C 0 · P 0 = (P 0 )2
und damit
(∗)
t
A·A·P 0 = (P 0 )2 ·P 0 = P 0 ·t A·A .
Man wähle nun ein Polynom f (X) ∈ R[X] mit f (dj ) = λj . Setzt man die
Matrix t A · A in dieses Polynom f ein, so findet man
f (t A · A) = H · diag(f (d1 ), . . . , f (dn )) · H −1 = P
.
Nach (∗) ist P 0 mit t A · A vertauschbar, also auch mit f (t A · A) für jedes
Polynom f , und nach der letzten Gleichung dann auch mit P , es gilt also
P · P 0 = P 0 · P . Nach Satz 7.3.9 sind P und P 0 simultan diagonalisierbar,
mit den positiven Eigenwerten in der Diagonale. Wegen
(P 0 )2 = t A · A = P 2
folgt daraus P = P 0 und schließlich C = C 0 .
2
Bemerkung 10.4.9 : PDS(n, R) ist keine Untergruppe von GL(n, R) und
kein Untervektorraum von M (n × n, R) , aber natürlich ein Teilraum des
158
metrischen Raums GL(n, R)!
Satz 10.4.10 : Die Abbildung
Φ : O(n) × PDS(n, R) −→ GL(n, R) ,
(C, P ) 7−→ C · P
ist ein Homöomorphismus.
- Vor dem Beweis noch das
Lemma 10.4.11 : O(n) ist kompakt.
Beweis : Für C ∈ O(n) gilt
kCk2op = sup
kC · vk22 kvk2 ≤ 1
= sup { hC · v , C · vi | kvk2 ≤ 1 }
= sup { hv, vi | kvk ≤ 1 } = 1 ,
also ist O(n) beschränkt in M (n × n, R). Nach Behauptung 10.3.2 ist
O(n) = OM (s) für das kanonische Skalarprodukt s = h ,
i
abgeschlossen in M (n×n, R). Also ist O(n) kompakt in M (n×n, R), und mit
Satz 10.1.20 sieht man, dass O(n) auch kompakt als Teilmenge von GL(n, R)
ist.
2
Beweis von Satz 10.4.10: Nach Satz 10.4.8 ist Φ bijektiv, und stetig nach
Behauptung 10.2.4. Wir zeigen nun, dass das Urbild jeder abgeschlossenen
Menge unter Φ−1 , also das Bild jeder abgeschlossenen Menge
A ⊂ O(n)× PDS(n, R), abgeschlossen in GL(n, R) ist, dann haben wir auch
die Stetigkeit von Φ−1 : Seien also (Cm )m∈N , (Pm )m∈N Folgen in O(n) bzw.
PDS(n, R), so dass die Folge
(Cm · Pm )m∈N =: (Gm )m∈N gegen ein C · P =: G ∈ GL(n, R) konvergiert,
dann hat die Folge (Cm )m∈N wegen der Kompaktheit von O(n) einen Häufungspunkt C 0 ∈ O(n). Es gibt also eine Teilfolge (Cmk )k∈N , die gegen C 0 konvergiert. Wir setzen
P 0 := (C 0 )−1 · G .
(∗)
Damit konvergiert
−1
(Pmk )n∈N = (Cm
· Gmk )n∈N
k
159
gegen P 0
.
Man sieht nun, dass die Menge der positiv semidefiniten symmetrischen Matrizen, also der A ∈ M (n × n, R) mit
t
A = A
und
∀ v ∈ Rn : hv, A · vi ≥ 0 ,
abgeschlossen ist. Also ist P 0 positiv semidefinit, und sogar positiv definit
wegen (∗) und C 0 , G ∈ GL(n, R), also auch det P 0 6= 0. Damit folgt dann
P 0 ∈ PDS(n, R). Aus
G = C ·P
und G = C 0 · P 0
und der Eindeutigkeit der Cartan-Zerlegung folgt dann C 0 = C und
P 0 = P . Damit folgt, dass C der einzige Häufungspunkt von (Cm )m∈N ist.
Also konvergiert
(Cm )m∈N
gegen C
und damit auch (Pm )m∈N
gegen P
.
2
Satz 10.4.12 : Sei A0 wie in Bemerkung 10.4.6 definiert. Dann gilt
(i) O(n) ist die disjunkte Vereinigung von
SO(n) = O(n) ∩ SL(n, R) und A0 · SO(n) .
(Siehe auch Bemerkung 9.1.7.) Beide Teile sind offen und abgeschlossen
in O(n) . ( Also ist O(n) nicht zusammenhängend. )
(ii) SO(n) ist wegzusammenhängend.
Beweis : (i) folgt direkt aus
A0 · SO(n) = { A ∈ O(n) | det A = −1 }
,
und: SL(n, R) = { A ∈ M (n × n, R) | det A = 1 } ist als Urbild unter
der stetigen Abbildung
det : M (n × n, R) −→ R
der abgeschlossenen Menge {1} abgeschlossen in M (n × n, R) , also ist SO(n)
abgeschlossen in O(n) , ebenso:
A0 · SO(n) = { A ∈ O(n) | det A = −1 }
160
.
SO(n) und A0 · SO(n) sind Komplemente voneinander in O(n), also auch
offen in O(n).
(ii) Sei C ∈ SO(n). Nach Korollar 9.1.15 gibt es ein S ∈ O(n), so dass


Er


−Es
0




t
A
1
S·C ·S = 
 ,


...


0
Ak
ist, mit Kästchen
Aj =
cos θj − sin θj
sin θj cos θj
für j ∈ {1, . . . , k} .
Wegen C ∈ SO(n) ist s gerade. Wegen
−1 0
cos π − sin π
=
0 −1
sin π cos π
hat t S · C · S die Form

t
S·C ·S
=
Er

0
A1








...
0
Al
mit r + 2l = n. Nun ist
fθ : [0, 1] −→ SO(2) ,
t 7−→
cos(1 − t)θ − sin(1 − t)θ
sin(1 − t)θ cos(1 − t)θ
eine stetige Abbildung, also ein Weg, der
cos θ − sin θ
sin θ cos θ
mit E2
verbindet. Also verbindet

f : [0, 1] −→ SO(n) ,


t 7−→ 


161
Er
0
fθ1 (t)
..
0
.
fθl (t)






in SO(n) die Matrix t S · C · S = S −1 · C · S mit En . Somit lässt sich auch
C mit S · En · S −1 = En verbinden. SO(n) ist also wegzusammenhängend.
2
10.5 Die Struktur von GL(n, C)
Bemerkung 10.5.1 : Für die komplexe allgemeine lineare Gruppe
GL(n, C) := { A ∈ M (n × n, C) | det A 6= 0 }
gehen viele Sätze ähnlich wie für GL(n, R). Man beachte aber, dass das kanonische Skalarprodukt im Cn durch
hx, yi =
n
X
xj · y j
für x = (xj ) , y = (yj )j∈n
j=1
gegeben ist. Auf Cn betrachtet man nicht Bilinearformen, sondern
Sesquilinearformen s , siehe Definition 6.1.3.
Bemerkung 10.5.2 : Sei s : Cn × Cn −→ C eine Sesquilinearform und
UM (s) := { A ∈ M (n × n, C) | ∀ v, w ∈ Cn : s(A · v, A · w) = s(v, w) }
Dann gelten für U(s) := UM (s)∩ GL(n, C) dieselben Aussagen wie in Behauptung 10.3.2, wobei man dort R durch C und “transponiert” durch “transponiert konjugiert komplex” zu ersetzen hat.
Beispiel 10.5.3 : Analog zum reellen Fall erhält man
die pseudounitären Gruppen U(p, q) ,
die komplexe symplektische Gruppe Sp(p, C) ,
und die Gruppe SL(n, C).
Bemerkung 10.5.4 : Es gilt Z(GL(n, C)) = C∗ · En ( mit C∗ = C \ {0} ).
Anders als in Bemerkung 10.4.6 gilt aber
Behauptung 10.5.5 : GL(n, C) ist wegzusammenhängend.
Beweis : Für A, H ∈ GL(n, C) ist
z 7−→ det(zA + (1 − z)H)
eine komplexe Polynomfunktion, die nicht das Nullpolynom ist, also nur endlich viele Nullstellen hat. { z ∈ C | det(zA + (1 − z)H) = 0 } ist daher
abgeschlossen in C, und
GL(n, C) ∩ { zA + (1 − z)H | z ∈ C }
162
.
ist offen in GL(n, C) und (siehe Aufgabe (10.1)) wegzusammenhängend, also
auch zusammenhängend.
2
Im Unterschied zu Satz 10.4.12 gilt hier:
Satz 10.5.6 : U(n) ist zusammenhängend und kompakt.
Beweis : (1) Sei A ∈ U(n). Dann haben wir ϕ1 , . . . , ϕn ∈ R und ein S ∈U(n)
mit


0
eiϕ1


t
...
S·A·S = 

eiϕn
0
nach Korollar 9.1.11. Dann ist

f : [0, 1] −→ U(n) ,
ei(1−t)ϕ1
0
...

t 7−→ 
ei(1−t)ϕn
0



ein Weg in U(n), der t S · A · S mit En verbindet, und
t 7−→ S · f (t) · S −1
verbindet A mit En . Also ist U(n) wegzusammenhängend und damit zusammenhängend.
(2) Die Kompaktheit von U(n) zeigt man wie bei O(n), siehe auch Bemerkung 10.5.2.
2
Analog zu Satz 10.4.10 hat man auch in GL(n, C) eine Cartan-Zerlegung:
Bemerkung 10.5.7 : Sei
PDH(n, C) := { A ∈ GL(n, C) | A ist positiv definit und Hermitesch }
dann ist die Abbildung
Φ : U(n) × PDH(n, C) −→ GL(n, C) ,
(C, P ) 7−→ C · P
ein Homöomorphismus.
2
163
,
(10.6) Die Quaternionengruppen
Bemerkung 10.6.1 : Außer M (n × n, R) und M (n × n, C) hat man auch
die Menge der Matrizen mit Einträgen aus H, dem Schiefkörper der Quaternionen. Wir hatten ihn in Def. 4.9.7 eingeführt als
u v
H =
⊂ M (2 × 2, C) .
u, v ∈ C
−v u
und festgestellt: H ist eine assoziative, nicht-kommutative Unteralgebra der
R− Algebra (M (2 × 2, C), +, ·, ω) mit
dimR H = 4 .
Jedes Element aus H \ {0} besitzt bezüglich · ein Inverses.
Wir sehen noch etwas genauer hin als in Abschnitt 4.9 :
Definition und Behauptung 10.6.2 : Für
q :=
setzen wir
q :=
dann ist
(1)
u v
−v u
u −v
v u
∈H
,
: H −→ H eine Involution, d.h. für p, q ∈ H gilt
p · q = q·p ,
q = q
.
Für das in 4.9.7 definierte N (q) gilt dann
q · q = N (q) · E2
woraus man
q −1 =
mit N (q) ∈ R , N (q) ≥ 0 ,
1
·q
N (q)
für q 6= 0
sieht. H ist eine echte Teilmenge von M (2 × 2, C). Es gilt
(2)
H =
A ∈ M (2 × 2, C) | A · J = J · A
,
0 1
mit J =
und
−1 0
164
A :=
a b
c d
für A =
a b
c d
, a, b, c, d ∈ C .
Beweis : (1) und (2) rechnet man leicht nach. Der Rest steht schon in 4.9.7.
2
Wir kommen nun zu n × n−Matrizen mit Elementen aus H . In unserer
Schreibweise mit H ⊂ M (2×2, C) sind das dann Matrizen aus M (2n×2n, C),
die aus Kästchen Cjk ∈ M (2 × 2, C) mit
Cjk · J = J · Cjk
für j, k ∈ n
bestehen. Der Deutlichkeit halber werden wir hier etwas formaler:
Definition und Satz 10.6.3 : Für n ∈ N sei `n die Abbildung, die
n × n− Matrix (qjk ) ∈ M (n × n, H) die 2n × 2n−Matrix mit den
2 × 2−Kästchen qjk ∈ M (2 × 2, C) zuordnet, also

q11 | . . . |
 −− +
+

 ..
`n : M (n × n, H) −→ M (2n × 2n, C) , (qjk ) 7−→  .

 −− +
+
qn1 | . . . |
einer
q1n
−−
..
.






−− 
qnn
Dann gilt:
(a) Das Bild von M (n × n, H) unter `n ist
`n (M (n×n, H)) =
A ∈ M (2n × 2n, C) | A · Jn = Jn · A
,
wobei Jn die 2n × 2n− Matrix mit n Kästchen J in der Diagonale ist.
(b) Die Abbildung `n ist ein injektiver R−Algebren-Homomorphismus.
Beweis : (a) folgt aus (2) von 10.6.2,
(b) folgt daraus, dass es egal ist, ob man zwei Matrizen elementweise multipliziert, oder kästchenweise. Man schreibe sich das mal hin, etwa für n = 2.
2
Wie für R oder C definiert man nun
Definition 10.6.4 : Sei n ∈ N. Dann setzt man
GL(n, H) := { A ∈ M (n × n, H) | A ist invertierbar }
165
.
2
Mit Satz 10.6.3 (b) erhält man den
Satz 10.6.5 : Die Abbildung
n
o
−1
GL(n, H) −→
A ∈ GL(2n, C) | A · Jn · A = Jn
,
A 7−→ `n (A)
ist ein Gruppen-Isomorphismus.
2
Man möchte nun, wie bei R oder C, invertierbare Matrizen dadurch charakterisieren, dass ihre Determinante ungleich 0 ist. Nun haben wir Determinanten
von Matrizen aus nicht-kommutativen Ringen nicht definiert, und man kann
die Definitionen aus §5 nicht ohne weiteres übertragen: Für
I J
A :=
∈ M (2 × 2, H)
I J
soll die Determinante 0 sein und nicht I · J − J · I = 2K. Wiederum hilft
es, das Ganze in M (2n × 2n, C) zu betrachten:
Definition 10.6.6 : Sei n ∈ N und A ∈ M (n × n, H). Dann setzen wir
detC A := det(`n (A)) .
Da `n ein Homomorphismus bezüglich der Multiplikation ist, und mit dem
Determinanten-Multiplikationssatz erhalten wir den Teil (a) von
Satz 10.6.7 :
(a) Für A, B ∈ M (n × n, H) gilt
detC (A · B) = (detC A)(detC B) .
(b)
GL(n, H) = { A ∈ M (n × n, H) | detC A 6= 0 }
.
Beweis : (b) Ist A invertierbar, so haben wir
A−1 ∈ M (n × n, H) mit A · A−1 = E2n
detC A · detC A−1 = 1 ,
,
also
also detC A 6= 0 .
Ist A nicht invertierbar, so ist `n (A) ∈ M (2n × 2n, C) nicht invertierbar
(siehe Aufgabe (10.5)), also detC A = 0 .
2
166
Wir brauchen nun den Satz, dass man jede Matrix aus M (n × n, H) durch
Multiplikation mit Elementarmatrizen auf Diagonalform bringen kann. Der
Beweis ist im Wesentlichen derselbe wie der von Satz 4.5.2. Wir wiederholen
ihn aber, um zu sehen, dass man dabei auf das Kommutativgesetz für die
Multiplikation verzichten kann. Zunächst als Wiederholung die
Definition 10.6.8 : Sei n ∈ N. Für k, j ∈ n und (nun) λ ∈ H sei
(I) falls λ 6= 0 ist:

Sk (λ)
:=
E2





 0




..
.
...
0

0
..
.
0





0  ←− k − te Zeile ,




E2 0
0 λ 0 ...
0 E2
..
..
.
.
0
E2
↑
k−te Spalte.
Es ist Sk (λ) ∈ M (n × n, H) , sogar Sk (λ) ∈GL(n, H) wegen
Sk (λ) · Sk (λ−1 ) = Sk (λ−1 ) · Sk (λ) = E2n .


E2
0
..


...
0
.
0






E2
0


 0 . . . 0 E2 0 . . . 0 λ 0 . . . 0  ←− k − te Zeile ,




E2
0


j
.
.


..
..
(II) Qk (λ) := 



E
0


2


0
E2
0




0 E2




.
.
.
.


.
.
0
E2
↑
j−te Spalte.
j
j
j
Es ist Qk (λ) ∈ GL(n, H) wegen Qk (λ) · Qk (−λ) = Qjk (−λ) · Qjk (λ) = E2n .
Bemerkung 10.6.9 : Wie in Hilfssatz 4.5.10 gilt: Für A ∈ M (n × n, H) ist
• Sk (λ) · A die Matrix, in der die k-te Zeile von A von links (!) mit λ
multipliziert ist,
167
• Qjk (λ)·A die Matrix, in der die von links mit λ multiplizierte j−te Zeile
zur k−ten Zeile addiert ist.
Satz 10.6.10 : Zu jedem A ∈ GL(n, H) gibt es ein Produkt B von
Elementarmatrizen Qjk (λ) , λ ∈ H , j 6= k , und ein q ∈ H \ {0} mit
A
=
B · Sn (q) .
Beweis : Wir verwenden die Sprechweise aus Bemerkung 10.6.9: Sei
A = (αkj ) ∈ GL(n, H). Falls α21 = 0 ist, gibt es ein k 6= 2 mit αk1 6= 0.
Addition der k−ten Zeile zur zweiten ergibt eine Matrix (αkj ) mit α21 6= 0.
Wir können also im Weiteren von α21 6= 0 ausgehen.
−1
Addition des (E2 − α11 ) · α21
−fachen der zweiten Zeile zur ersten ergibt eine
Matrix (αkj ) mit α11 = E2 . Man addiere das (−αk1 )−fache der ersten Zeile
zur k−ten, k > 1, dann erhält man eine Matrix der Form


E2 |
∗
...
∗
 −− + −− −− −− 


 0

|


 ..

 .

|
C
0
|
wobei ∗ irgendetwas bedeutet, und C ∈ GL(n−1, H) ist. Wenn man fortfährt,
erhält man eine obere Dreiecksmatrix, in der die ersten n − 1 Diagonalelemente gleich dem Einselement E2 von H sind, und das letzte gleich einem
q ∈ H \ {0}. Durch Addition passender Vielfachen der k−ten Zeilen, k > 2,
zu den Vorhergehenden erhält man eine Diagonalmatrix mit E2 in den Zeilen
1, . . . , n − 1 und αnn = q . Fasst man die verwendeten Matrizen Qjk (λ) zu
einem Produkt C 0 zusammen, so folgt
Sn (q −1 ) · C 0 · A = E2n
und damit A = C 0−1 · Sn (q) ,
wobei auch B := C 0−1 ein Produkt von Elementarmatrizen vom Typ (II)
ist.
2
Folgerung 10.6.11 : detC ist eine surjektive Abbildung von M (n × n, H)
auf R+ = { β ∈ R | β ≥ 0 } . detC ist ein surjektiver Gruppenhomomorphismus von GL(n, H) auf (R∗+ , ·).
Beweis : Nach Satz 10.6.10 haben wir für A ∈ GL(n, H):
A
=
B · Sn (q) ,
168
wobei B ein Produkt von Elementarmatrizen vom Typ (II) ist. Solche Matrizen haben die C−Determinante 1, und nach Satz 10.6.7 (a) ist auch
detC B = 1 , also
detC A = detC Sn (q) .
u v
mit u, v ∈ C , so ist
Ist q =
−v u
detC (Sn (q))
=
uu + vv
=
|u|2 + |v|2 > 0 ,
wobei jeder Wert aus R∗+ angenommen werden kann. Dass detC ein Gruppenhomomorphismus ist, folgt aus Satz 10.6.7 (a). Schließlich gilt nach Satz
10.6.7 (b) noch
detC A = 0
⇐⇒
A ∈ M (n × n, H) \ GL(n, H) .
2
Den Satz 10.6.10 haben wir vor allem bewiesen, um zu zeigen:
Satz 10.6.12 : GL(n, H) ist wegzusammenhängend als Teilraum des 4ndimensionalen normierten R−Vektorraums M (2n × 2n, C).
Beweis : Sei A ∈GL(n, H). Nach Satz 10.6.10 ist
A
=
B · Sn (q) ,
wobei B ein Produkt von Elementarmatrizen vom Typ (II) und Sn (q) mit
q ∈ H eine Elementarmatrix vom Typ (I) ist. Es reicht zu zeigen, dass man
jede dieser Matrizen mit einem Weg in GL(n, H) mit dem Einselement E2n
verbinden kann. Das Produkt dieser Wege verbindet dann A mit E2n :
(a) Zunächst für die Matrizen Qjk (λ) vom Typ (II) : Die Abbildung
ϕjk : [0, 1] −→ GL(n, H) ,
t 7−→ Qjk ((1 − t)λ)
ist stetig und hat ϕjk (0) = Qjk (λ) , ϕjk (1) = E2n .
(b) Nun für die Matrizen Sn (q) , q ∈ H : Es ist “anschaulich” klar, man kann
es aber auch nachrechnen (siehe Aufgabe (10.6)): H \ {0} ist, wie R4 \ {0},
wegzusammenhängend. Es gibt also einen Weg
ϕ0 : [0, 1] −→ H \ {0} mit ϕ0 (0) = q , ϕ0 (1) = E2
Dann setzen wir
ϕn : [0, 1] −→ GL(n, H) , t 7−→ Sn (ϕ0 (t)) .
169
.
Es ist dann ϕn (t) ∈ GL(n, H) , und ϕn (0) = Sn (q) , ϕn (1) = Sn (E2 ) = E2n .
Und ϕn ist stetig.
2
Naheliegend ist die folgende
Definition 10.6.13 : Für n ∈ N setzen wir
SL(n, H) := { A ∈ GL(n, H) | detC A = 1 }
.
2
Wie in Satz 10.6.5 erhält man
Satz 10.6.14 : Die Abbildung
o
n
−1
SL(n, H) −→
A ∈ SL(2n, C) | A · Jn · A = Jn
,
A 7−→ `n (A)
ist ein Gruppen-Isomorphismus.
2
Den Satz 10.6.10 kann man für SL(n, H) statt GL(n, H) etwas modifizieren.
Man berücksichtige dabei, dass für
u v
q =
∈ H = M (1 × 1, H) mit u, v ∈ C gilt :
−v u
detC q = |u|2 + |v|2 = N (q) :
Satz 10.6.15 : Zu jedem A ∈ SL(n, H) gibt es ein Produkt B von
Elementarmatrizen Qjk (λ) , λ ∈ H , j 6= k , und ein q ∈ H mit N (q) = 1 und
A
=
B · Sn (q) .
Beweis : Das folgt aus Satz 10.6.10 und dem Determinanten-Multiplikationssatz
10.6.7 (a) .
2
Satz 10.6.16 : SL(n, H) ist wegzusammenhängend.
Beweis : Die Elementarmatrizen Qjk (λ) gehören zu SL(n, H), und das gilt
auch für die Verbindungswege dieser Matrizen mit E2n , so wie wir sie in
Teil (a) des Beweises von Satz 10.6.10 definiert hatten. Komplizierter ist das
mit der Matrix Sn (q) : Wir hatten uns überzeugt, dass der in Teil (b) des
170
Beweises von 10.6.10 definierte Verbindungsweg ϕn in GL(n, H) liegt, aber
er liegt nicht notwendig in SL(n, H). Wir suchen uns einen anderen Weg und
benutzen dazu Polarkoordinaten im R4 (siehe etwa [K2]): Zu
u v
mit u, v ∈ C und N (q) = |u|2 + |v|2 = 1
q =
−v u
gibt es drei “Winkel” ψ1 , ψ2 , ψ3 mit
−π < ψ1 ≤ π , −
π
π
π
π
< ψ2 ≤ , − < ψ3 ≤
2
2
2
2
und
u = cos ψ1 cos ψ2 cos ψ3 +i sin ψ1 cos ψ2 cos ψ3 , v = sin ψ2 cos ψ3 +i sin ψ3
.
Setzt man nun
ϕ : [0, 1] −→ SL(n, H) , ϕ(t) := Sn (q(t)) mit q(t) :=
u(t) v(t)
−v(t) u(t)
,
u(t) := cos(1−t)ψ1 cos(1−t)ψ2 cos(1−t)ψ3 +i sin(1−t)ψ1 cos(1−t)ψ2 cos(1−t)ψ3 ,
v(t) := sin(1 − t)ψ2 cos(1 − t)ψ3 + i sin(1 − t)ψ3
.
so sieht man, dass ϕ stetig ist und in SL(n, H) verläuft, mit ϕ(0) = Sn (q)
und ϕ(1) = E2n .
(Anmerkung: Das ist im Grunde der Beweis, dass die Einheitssphäre im R4
wegzusammenhängend ist.)
2
10.7 Klassische Gruppen als Mannigfaltigkeiten
Wir wollen sehen, dass gewisse klassische Gruppen Untermannigfaltigkeiten
des n2 -dimensionalen R−Vektorraums M (n × n, R) sind. Die folgende Definition gehört natürlich in die Analysis, siehe etwa [Fo3]:
Definition 10.7.1 : Seien k, d ∈ N. Eine Teilmenge M ⊂ Rk heißt eine
d−dimensionale Untermannigfaltigkeit, wenn es zu jedem Punkt a ∈ M
eine offene Teilmenge U ⊂ Rk mit a ∈ U und stetig differenzierbare Funktionen
f1 , . . . , fk−d : U −→ R
gibt, so dass gilt
(a) M ∩ U = { x ∈ U | f1 (x) = . . . = fk−d (x) = 0 } ,
171
(b) Rg
∂(f1 , . . . , fk−d )
(a) = k − d .
∂(x1 , . . . , xk )
Dabei bezeichnet



∂(f1 , . . . , fk−d )
= 

∂(x1 , . . . , xk )

∂f1
∂f1
...
∂x1
∂xk
..
..
.
.
∂fn−k
∂fn−k
...
∂x1
∂xk






die Funktionalmatrix von f = (f1 , . . . , fn−k ).
Beispiel 10.7.2 : Sei D offen in Rk , dann ist D eine k−dimensionale Untermannigfaltigkeit von Rk .
Beweis : In der Def. 10.7.1 kann man U := D nehmen. fj für j ∈ ∅ braucht
man nicht zu definieren.
2
Beispiel 10.7.3 : Nach Bemerkung 10.2.3 ist GL(n, K) offen in M (n×n, K),
also ist
GL(n, R) eine Untermannigfaltigkeit der Dimension n2 ,
GL(n.C) eine Untermannigfaltigkeit der Dimension 2n2 über R .
Definition 10.7.4 : Seien U, V ⊂ Rn offene Mengen. Eine Abbildung
F : U −→ V
heißt ein Diffeomorphismus , falls F bijektiv ist und sowohl F als auch
F −1 stetig differenzierbar sind.
2
Zum Nachweis, dass eine Menge M eine Untermannigfaltigkeit ist, verwenden
wir den
Satz 10.7.5 : Sei Wk ⊂ Rn der k−dimensionale Untervektorraum
Wk := { (x1 , . . . , xn ) ∈ Rn | xk+1 = . . . = xn = 0 }
.
Eine Teilmenge M ⊂ Rn ist genau dann eine k−dimensionale Untermannigfaltigkeit, wenn es zu jedem a ∈ M eine offene Teilmenge U ⊂ Rn mit a ∈ U
und einen Diffeomorphismus
F : U −→ V
172
auf eine offene Menge V ⊂ Rn gibt, so dass gilt
F (M ∩ U )
Wk ∩ V
=
.
2
Hilfssatz 10.7.6 : Sei G eine Untergruppe von GL(n, K) , K = R oder C.
Wenn es offene Mengen
U1 ⊂ M (n × n, K) mit En ∈ U1
und
U0 ⊂ M (n × n, K) mit 0 ∈ U0
,
einen Diffeomorphismus
ψ : U0 −→ U1
und einen R−Untervektorraum V von M (n × n, K) gibt mit
ψ −1 (G ∩ U1 ) = U0 ∩ V
und ψ(0) = En
,
so ist G eine Untermannigfaltigkeit von M (n × n, K) der Dimension dimR V.
Beweis : (a) Wir setzen
k := dimR V
m := n2
für K = R ,
,
m := 2n2
für K = C .
Ist (v1 , . . . , vk ) eine Basis von V und (e1 , . . . , em ) die kanonische Basis von
Rm ∼
= M (n × n, K) , so ist durch
ρ : V −→ Wk
,
vj 7−→ ej
eine lineare Abbildung von V auf
Wk = { (x1 , . . . , xm ) ∈ Rm | xk+1 = . . . = xm = 0 }
definiert, die sich zu einem Vektorraum-Isomorphismus
ρ : M (n × n, K) −→ Rm
fortsetzen lässt. ρ ist dann ein Diffeomorphismus, es gibt eine offene Menge
U 0 ⊂ Rm mit
ρ(U0 ∩ V ) = U 0 ∩ Wk .
ρ ◦ ψ −1 : U1 −→ U 0
ist ein Diffeomorphismus mit
ρ ◦ ψ −1 (G ∩ U1 ) = U 0 ∩ Wk
173
.
(b) Sei nun g ∈ G beliebig. Die Abbildung
ψg : M (n × n, K) −→ M (n × n, K) ,
ψg (h) := g · h
ist ein Diffeomorphismus von M (n × n, K) auf sich, also ist
Ug := { g · h | h ∈ U1 }
eine offene Teilmenge von M (n × n, K) mit g ∈ Ug , und
ϕ := ρ ◦ ψ −1 ◦ ψg−1 : Ug −→ M (n × n, K)
ist ein Diffeomorphismus mit
ϕ(Ug ∩ G) = U 0 ∩ Wk
.
Nach Satz 10.7.5 ist G eine k−dimensionale Untermannigfaltigkeit von
M (n × n, K).
2
Satz 10.7.7 : SL(n, K) := { A ∈ M (n × n, K) | det A = 1 } ist in
GL(n, K) eine Untermannigfaltigkeit der Dimension
n2 − 1
2(n2 − 1)
für
für
K = R , bzw.
K = C .
Beweis : Für A = (akj ) ∈ M (n × n, K) und k, j ∈ n setzen wir
dkj , tkj : M (n × n, K) −→ K ,
dkj (A) := det A0kj
,
tkj (A) := akj
,
wobei A0kj die in 5.3.1 definierte Matrix ist, die aus A durch Streichen der
k−ten Zeile und j−ten Spalte entsteht. Entwicklung von det A nach der
1.Zeile von A liefert also
(1)
det A =
n
X
(−1)1+j t1j (A)·d1j (A) ,
j=1
für alle A ∈ M (n × n, K). Es ist d11 (En ) = 1, und da d11 (als Polynomfunktion mehrerer Variablen) stetig ist, ist
(2)
U1 := { A ∈ M (n × n, K) | d11 (A) 6= 0 }
174
eine offene Menge in M (n × n, K) mit En ∈ U1 . Für alle A ∈ U1 gilt
(3)
t11 (A) = d11 (A)−1
det A −
n
X
!
(−1)1+j t1j (A) · d1j (A)
.
j=2
Die Abbildung
ψ 0 : M (n × n, K) −→ M (n × n, K) ,




det A a12 . . . a1n
a11 . . . a1n

a2n 
 ..

..  7−→  a21 a22

 .

.
.. 
.
 ..
. 
an1 . . . ann
an1 an2 . . . ann
,
bei der a11 durch det A ersetzt wird, ist differenzierbar. Sie bildet U1 in sich
ab, denn es gilt
d11 (ψ 0 (A)) = d11 (A) .
Nach (3) kann man für A ∈ U1 das Element a11 = t11 (A) aus ψ 0 (A) berechnen, man hat also zu ψ 0 die inverse Abbildung


b a12 . . . a1n
 a21 a22 . . . a2n 


ψ 0−1 : U1 −→ U1 , B :=  ..
..  7−→
 .
. 
an1 an2 . . . ann


n
P
−1
1+j
 d11 (B) (b − j=2 (−1) a1j d1j (B)) a12 . . . a1n 



a21
a22 . . . a2n 
7−→ 


..
.. 

.
. 
an1
an2 . . . ann
und diese Abbildung ist auch differenzierbar. Also ist ψ 0 U1 ein Diffeomorphismus von U1 auf U1 . Da U1 offen ist, ist auch
U0 := { A − En | A ∈ U1 }
offen, und enthält die 0 ∈ M (n × n, K) . Die Abbildung
ψ : U0 −→ U1
,
A 7−→ ψ 0−1 (En + A)
ist ein Diffeomorphismus mit
(4)
ψ −1 (SL(n, K) ∩ U1 ) = { A ∈ U0 | t11 (A) = 0 } ,
175
denn für A ∈ SL(n, K) ∩ U1 gilt
det A = 1 und d11 (A) 6= 0 ,
ψ −1 (A) = ψ 0 (A) − En
also
und t11 (ψ 0 (A) − En ) = 0 ,
und für A ∈ U0 mit t11 (A) = 0 gilt
ψ(A) = ψ 0−1 (En + A) ∈ U1
,
t11 (En + A) = 1 ,
und nach Definition von ψ 0 heißt das
det(ψ 0−1 (En + A)) = 1 .
Also ist ψ(A) ∈ U1 ∩ SL(n, K) .
Damit ist (4) bewiesen, wir haben
ψ −1 (SL(n, K) ∩ U1 ) = U0 ∩ V
mit
V := { A ∈ M (n × n, K) | a11 = 0 }
,
und das ist ein R−Untervektorraum von M (n × n, K) der Dimension n2 − 1
(für K = R) bzw. 2n2 − 2 (für K = C ) . Nach Hilfssatz 10.7.6 folgt die
Behauptung.
2
Hilfssatz 10.7.8 : Sei F ∈ M (n × n, K) invertierbar. Dann ist
G :=
B ∈ M (n × n, K) | t B · F · B = F
eine Untergruppe von GL(n, K) ,
V :=
A ∈ M (n × n, K) | t A · F + F · A = 0
ist ein Untervektorraum von M (n × n, K), und G ist eine Untermannigfaltigkeit der Dimension dimR V .
Beweis : Dass G Untergruppe von GL(n, K) und V Untervektorraum von
M (n × n, K) ist, rechnet man nach. Den Rest zeigt man mit Hilfssatz 10.7.6:
U0 := { A ∈ M (n × n, K) | det(En − A) 6= 0 }
ist eine offene Teilmenge von M (n × n, K) mit 0 ∈ U0 , und
U1 := { B ∈ M (n × n, K) | det(En + B) 6= 0 }
176
ist offen mit En ∈ U1 . Die Abbildungen
σ : U0 −→ M (n × n, K) ,
A 7−→ (En + A) · (En − A)−1
,
B 7−→ −(En − B) · (En + B)−1
τ : U1 −→ M (n × n, K) ,
sind differenzierbar, da sie stetig partiell differenzierbar sind. Wir zeigen nun:
(∗)
σ(U0 ) ⊂ U1
,
τ (U1 ) ⊂ U0
,
σ ◦ τ = idU1
,
τ ◦ σ = idU0
,
damit folgt dann, dass σ als Abbildung von U0 auf U1 ein Diffeomorphismus
ist.
Der Beweis von (∗) ist einfach Bruchrechnung für Matrizen: Für alle A ∈ U0
gilt
En + σ(A) = (En − A) · (En − A)−1 + (En + A) · (En − A)−1
= 2 · (En − A)−1
,
also
det(En + σ(A)) = 2n det(En − A)−1 6= 0 ,
also σ(A) ∈ U1 , und es ist
En −σ(A) = (En −A)·(En −A)−1 −(En +A)·(En −A)−1 = −2A·(En −A)−1
,
also
A = −(En − σ(A)) · (En + σ(A))−1 = τ (σ(A)) .
Andererseits gilt für alle B ∈ U1 : det(En + B) 6= 0 und
σ(τ (B)) = σ(−(En − B) · (En + B)−1 )
= (En − (En − B) · (En + B)−1 ) · (En + (En − B) · (En + B)−1 )−1
= (En +B −(En −B))·(En +B)−1 ·(En +B)·(En +B +(En −B))−1
= (2B)·(2En )−1 = B
.
Damit ist (∗) bewiesen. Wir behaupten nun:
(∗∗) G ∩ U1 = σ(V ∩ U0 ) ,
damit folgt dann die Behauptung aus Hilfssatz 10.7.7.
Beweis von (∗∗): Sei A ∈ U0 . Dann gilt
σ(A) ∈ G
t
⇐⇒
((En + A)(En − A)−1 ) · F · (En + A)(En − A)−1 = F
t
⇐⇒
(En − A)−1 · (En +t A) · F · (En + A) · (En − A)−1 = F
⇐⇒
(En +t A) · F · (En + A) = (En −t A) · F · (En − A)
⇐⇒
F +t A · F + F · A +t A · F · A = F −t A · F − F · A +t A · F · A
⇐⇒
2(t A · F + F · A) = 0
t
⇐⇒
A·F +F ·A = 0
⇐⇒
A∈V .
177
Damit und mit (∗) ist (∗∗) bewiesen.
2
Für F kann man nun passende Matrizen einsetzen: Für F := En erhält man
im Fall K = R:
Satz 10.7.9 : O(n) ist eine Untermannigfaltigkeit von GL(n, R) der
n(n − 1)
Dimension
.
2
Beweis : Für das V aus Hilfssatz 10.7.8 erhält man
V =
A ∈ M (n × n, R) | t A = −A
,
also die Menge der schiefsymmetrischen reellen n × n−Matrizen. Eine Basis
bilden die Matrizen
Ekj − Ejk
das sind
für k > j
k, j ∈ n ,
,
n(n − 1)
Basiselemente. (Dabei war
2
Ekj = (δkr · δjs )(r,s)∈n×n .)
2
Satz 10.7.10 : Sei O(n, C) := { A ∈ M (n × n, C) | t A · A = En } , so
ist O(n, C) eine Untermannigfaltigkeit von GL(n, C) der Dimension n(n − 1)
über R.
Beweis : Ähnlich wie in Satz 10.7.9 ist
V =
A ∈ M (n × n, C) | t A = −A
,
und das ist ein Vektorraum der Dimension
n(n − 1)
über C, also
2
dimR V = n(n − 1) .
2
Bemerkung 10.7.11 : In Beispiel 10.3.3 hatten wir für p, q ∈ N0 mit
p + q = n die pseudo-orthogonalen Gruppen
O(p, q) =
A ∈ M (n × n, R) | t A · Fp,q · A = Fp,q
178

mit
Fp,q

Ep |
0
:=  −− + −− 
0
| −Eq
.
Fp,q ist in M (n × n, R) invertierbar, man kann also F := Fp,q in Hilfssatz
10.7.8 einsetzen und erhält
Satz 10.7.12 : Für n ∈ N und p, q ∈ N0 mit p + q = n sei
O(p, q) =
A ∈ M (n × n, R) | t A · Fp,q · A = Fp,q
.
Dann ist O(p, q) eine Untermannigfaltigkeit von GL(n, R) der Dimension
n(n − 1)
.
2
Beweis : Hier ist
V =
A ∈ M (n × n, R) | t A · Fp,q = −Fp,q · A
.
Für A = (akj ) ∈ V gilt damit
akk = 0 für k ∈ n ,
und für k, j ∈ n mit k 6= j :
akj = −ajk
akj = ajk
,
,
falls k, j ∈ p oder k, j ∈ n \ p ,
falls (k > p ∧ j ≤ p) oder (k ≤ p ∧ j > p) .
Das bedeutet (wie bei den schiefsymmetrischen Matrizen in Satz 10.7.9 ),
n(n − 1)
dass man genau die
Elemente unterhalb der Diagonale frei wählen
2
kann, also
n(n − 1)
,
dim V =
2
und nach Hilfssatz 10.7.8 ist O(p, q) eine Untermannigfaltigkeit der Dimenn(n − 1)
sion
.
2
2
Bemerkung 10.7.13 : Sei s eine nicht-ausgeartete symmetrische
Bilinearform auf dem Kn . Dann gibt es nach Korollar 9.2.6 eine Basis
B = (b1 , . . . , bn ) von Kn , so dass
MB (s) = (s(bk , bj )) = (λj δkj )
179
eine Diagonalmatrix ist, wobei alle λj 6= 0 sind, da s nichtausgeartet ist. Es
1
gibt also µj ∈ C mit µ2j =
.
λj
(a) Sei K = C. Für
A = (a1 , . . . , an ) mit aj := µj bj
MA (s) = (s(ak , aj )) = En
ist
.
Betrachten wir nun die Gruppe der Matrizen MAA (f ) aller“bezüglich s orthogonalen Abbildungen” des Cn , d.h. der
f ∈ HomC (Cn , Cn ) mit s(f (v), f (w)) = s(v, w) für alle v, w ∈ Cn
,
so sehen wir, dass das die Gruppe O(n, C) ist, die wir in Satz 10.7.11 definiert
hatten.
(b) Sei K = R . Dann gibt es nach (9.3.4), und da s nichtausgeartet ist, eine
Basis
A = (a1 , . . . , an ) von Rn , so dass
MA (s) = (s(ak , aj )) = Fp,q
ist. Die Gruppe der Matrizen MAA (f ) aller
f ∈ HomR (Rn , Rn ) mit ∀ v, w ∈ Rn : s(f (v), f (w)) = s(v, w)
ist hier die in 10.3.3 definierte Gruppe O(p, q).
(c) Hat man nun eine beliebige Basis C von Kn und f ∈ HomK (Kn , Kn ), so
gilt
MCC (f ) = T · MAA (f ) · T −1
mit einer Transformationsmatrix T ∈ GL(n, K), die von f nicht abhängt. Die
Gruppe der Matrizen MCC (f ) aller bezüglich s orthogonalen Abbildungen des
Kn auf sich ist also gleich
T · O(n, C) · T −1
bzw.
T · O(p, q) · T −1
.
Nun ist für festes T ∈GL(n, K) die Abbildung
M (n × n, K) −→ M (n × n, K) ,
A 7−→ T · A · T −1
ein Diffeomorphismus. Also ist die Gruppe der Matrizen aller bezüglich s
orthogonalen Abbildungen bei jeder Basis eine Untermannigfaltigkeit von
GL(n, K) der Dimension
n(n − 1) für K = C ,
180
bzw.
n(n − 1)
2
für K = R .
2
Bemerkung 10.7.14 : Sei s eine schiefsymmetrische Bilinearform auf dem
Kn , also
s(v, w) = −s(w, v) für alle v, w ∈ Kn ,
so zeigen Sie in Aufgabe
dass

0
 −1

 −






(s(ak , aj )) = 








(10.7), dass es eine Basis (ak )k∈n von Kn gibt, so
1 |
0 |
− +

0


















...
+
− − −|
|
0 1
|
|
−1 0
|
|
− − − −|
0
0
...
0
ist. Ist zusätzlich s nichtausgeartet, so hat man keine Zeilen, in denen nur
n
Kästchen
Nullen stehen, und p =
2
|−
−
|
0
|
−1
|
− −
− −|
1
|
0
|
− −|
in der Diagonale. Dann ist also
n = 2p gerade,
und wenn man die Basiselemente anders numeriert, kann man erreichen, dass


0
| Ep
(s(ak , aj )) = Jp :=  − + − 
−Ep | 0
mit 0 ∈ M (p × p, K) wird. Wie in Bemerkung 10.7.13 (c) kann man sich
überlegen, dass ein Basiswechsel die Dimension der Untermannigfaltigkeit
181
nicht ändert; wir können also annehmen, dass (ak )k∈n die kanonische Basis
des Kn ist. Dann ist die Gruppe
{ B ∈ GL(n, K) | ∀ a, b ∈ Kn : s(B · a, B · b) = s(a, b) }
gleich der in Hilfssatz 10.7.8 definierten Gruppe G, mit
F := Jp
.
Für K = R kennen wir diese Gruppe aus Beispiel 10.3.4 : Es ist die symplektische Gruppe Sp(p, R). Das geht aber auch für K = C:
Satz 10.7.15 : Die symplektische Gruppe
Sp(p, K) =
A ∈ GL(2p, K) | t A · Jp · A = Jp
ist eine Untermannigfaltigkeit der Dimension
2(2p2 + p) für K = C bzw.
2p2 + p für K = R
von GL(2p, K).
Beweis : In Hilfssatz 10.7.8 müssen wir dimR V für
V :=
A ∈ M (n × n, K) | t A · Jp = −Jp · A
berechnen. Schreibt

A1
A =  −
A3
für n = 2p
man sich A als Kästchenmatrix

| A2
+ −  mit Aj ∈ M (p × p, K) für j ∈ 4
| A4
auf, so bedeutet A ∈ V :
 t

− A3 | t A1
 −
+ − 
−t A4 | t A2

=

−A3 | −A4
 − + − 
A1
| A2
,
und das gilt genau dann, wenn
A3 = t A3
,
A2 = t A2
,
A4 = −t A1
ist. A2 und A3 kann man also beliebig aus K−Vektorräumen der Dimension
p(p + 1)
wählen, und A1 ∈ M (p × p, K) beliebig. Also ist
2
dimK V = 2 ·
p(p + 1)
+ p2 = 2p2 + p .
2
182
2
Nach den orthogonalen und symplektischen Gruppen fehlen uns nur noch die
unitären Gruppen:
Bemerkung 10.7.16 : Sei K = C, dann betrachten wir für F ∈ GL(n, C)
die Gruppe
.
G :=
B ∈ M (n × n, C) | t B · F · B = F
Wie in Hilfssatz 10.7.8 zeigt man, dass G eine Untergruppe von GL(n, C) ist,
dass
V :=
A ∈ M (n × n, C) | t A · F + F · A = 0
ein R−Untervektorraum von M (n × n, C) ist, und dass G eine Untermannigfaltigkeit von GL(n, C) der Dimension
dimR V
ist. Für F = En wird G = U(n) die in 9.1.6 definierte unitäre Gruppe.
Andere Gruppen erhält man mit der Matrix Fp,q aus Bemerkung 10.7.11:
Definition und Satz 10.7.17 : Für n ∈ N und p, q ∈ N0 mit p + q = n sei
U(p, q) :=
B ∈ M (n × n, C) | t B · Fp,q · B = Fp,q
,
dann ist U(p, q) eine Untermannigfaltigkeit von GL(n, C) der Dimension n2
über R . Speziell gilt das für
U(n) = U(n, 0) = U(0, n) .
Beweis : Zu berechnen ist dimR V von
V =
A ∈ M (n × n, C) | t A · Fp,q = −Fp,q · A
.
Wir setzen A als Kästchenmatrix der Form


A1 | B1
A =  − + − 
t
B2 | A2
an, mit A1 ∈ M (p × p, C) , A2 ∈ M (q × q, C) und B1 , B2 ∈ M (p × q, C), dann
ist A ∈ V gleichbedeutend mit
 t



A1 | −B2
−A1 | −B1
 − +
−  =  −− + −−  , also mit
t
t
B1 | −t A2
B2 | A2
183
A1 = −t A1 , A2 = −t A2
,
B1 = B2
.
Man kann B2 ∈ M (p × q, C) beliebig wählen,
dimR M (p × q, C) = 2pq
.
Sei A1 = (akj ) , dann bedeutet A1 = −t A1 :
akj = −ajk
für k 6= j
und Re akk = 0 ,
also ist
dimR
A1 ∈ M (p × p, C) | A1 = −t A1
= p+2·
p(p − 1)
= p2
2
.
Insgesamt wird
dimR V = p2 + q 2 + 2pq = (p + q)2 = n2
.
2
Definition 10.7.18 : Eine Lie-Gruppe ist eine Mannigfaltigkeit G , die
auch eine Gruppe ist, so dass die Multiplikation
µ : G × G −→ G ,
(g, h) 7−→ g · h
und das Invertieren
ι : G −→ G ,
g 7−→ g −1
differenzierbar sind.
2
Folgerung 10.7.19 : Die Gruppen GL(n, K) sind Mannigfaltigkeiten, und
zwar offene Teilmengen des n2 − ( für K = C : 2n2 − ) dimensionalen
R−Vektorraums M (n × n, K). Für g, h ∈ GL(n, K) gilt
tkj (g · h) =
n
X
tkl (g) · tlj (h) und
l=1
tkj (g −1 ) = (−1)k+j (det g)−1 djk (g) ,
also sind die n2 Komponenten der Funktionen µ und ι differenzierbare Funktionen der 2n2 bzw. n2 Variablen tkj (g) ( und tkj (h) ). Also sind µ und ι
184
differenzierbar, also sind die GL(n, K) Lie-Gruppen. Die Restriktionen differenzierbarer Abbildungen auf Untermannigfaltigkeiten sind wieder differenzierbar, also folgt aus den in 10.7 bewiesenen Sätzen:
Satz 10.7.20 : Alle Gruppen SL(n, K) , O(n, C) , O(p, q) , Sp(p, K) und
U(p, q) sind Lie-Gruppen.
2
(10.8) Aufgaben
(10.1) Zeigen Sie: Für jedes α ∈ R ist
fα : [0, 1] −→ C ,
t 7−→ t + iα sin πt
ein Weg in C , der 0 und 1 verbindet, und außer 0 und 1 haben diese
verschiedenen Wege keine Punkte gemeinsam, d.h. es gilt
fα ((0, 1)) ∩ fβ ((0, 1)) = ∅ für α 6= β
.
Beweisen Sie damit, dass es für A, H ∈GL(n, C) einen Weg f in
M (n × n, C) gibt, der A mit H verbindet und keinen Punkt der endlichen Menge { z ∈ C | det(zA + (1 − z)H) = 0 } trifft.
(10.2) (a) Seien V1 und V2 normierte K−Vektorräume, mit Normen k k1 bzw.
k k2 . Zeigen Sie: Eine lineare Abbildung F : V1 −→ V2 ist genau
dann stetig, wenn es ein M ∈ R , M ≥ 0, gibt mit
(∗)
∀ x ∈ V1 : kF (x)k2 ≤ M ·kxk1
.
kF kop = sup { kf (x)k2 | kxk1 ≤ 1 } ist die kleinstmögliche Zahl M ,
für die (∗) gilt.
(b) Sei V = C ∞ ([0, 1]) der Vektorraum der beliebig oft differenzierbaren Funktionen von [0, 1] nach R , mit
kf k := sup { |f (x)| | x ∈ [0, 1] }
.
Sei D : V −→ V die Differentiation, also D(f ) := f 0 die Ableitung
von f ∈ V . Zeigen Sie, dass D nicht stetig ist.
185
(10.3) (Zur Gruppe O(1, 1) :) (a) Sei A ∈O(1, 1), d.h. A ∈GL(2, R) und es
gelte:
1 0
1 0
2
t
t
(∗)
∀ v, w ∈ R : (A·v)·
·A·w = v·
·w ,
0 −1
0 −1
dann ist (∗) gleichbedeutend mit
1 0
1 0
t
A·
·A =
oder auch
0 −1
0 −1
1 0
1 0
t
A·
=
· A−1
0 −1
0 −1
.
(b) Für A ∈O(1, 1) gilt det A ∈ {±1}. Setzt man
SO(1, 1) := { A ∈ O(1, 1) | det A = 1 }
O− (1, 1) := { A ∈ O(1, 1) | det A = −1 }
,
,
so ist O(1, 1) die disjunkte Vereinigung von SO(1, 1) und O− (1, 1) . Es
ist
2
a b
2
SO(1, 1) =
.
a −b = 1
b a
Aus a2 − b2 = 1 folgt a2 ≥ 1 , also a ≥ 1 oder a ≤ −1 . Wir setzen
2
a b
+
2
a − b = 1, a ≥ 1
.
SO (1, 1) :=
b a
Zeigen Sie, dass es zu jedem A ∈SO+ (1, 1) ein t ∈ R gibt mit
cosh t sinh t
A =
,
sinh t cosh t
und dass die Matrizen A ∈SO+ (1, 1) genau die Matrizen aus O(1, 1)
sind, die sich durch einen Weg mit E2 verbinden lassen.
(c) Zeigen Sie, dass die Abbildung
cosh t sinh t
+
R −→ SO (1, 1) , t 7−→
sinh t cosh t
ein Isomorphismus der Gruppe (R, +) auf die Gruppe (SO+ (1, 1), ·) ist,
und SO+ (1, 1) ist ein kommutativer Normalteiler in O(1, 1).
186
(10.4) Sei p ∈ N und Sp(p, R) die in 10.3.4 definierte symplektische Gruppe,
dann haben wir mit der Matrix


0
| −Ep
B :=  −− + −− 
Ep |
0
die durch s(x, y) := t x · B · y definierte Bilinearform s auf R2p . Zeigen
Sie für dieses s :
(a) Für alle x, y ∈ R2p gilt
s(x, x) = 0 und s(x, y) = −s(y, x) .
(b) Für a ∈ R2p und α ∈ R heißt
σa,α : R2p −→ R2p
,
x 7−→ x − αs(a, x)a
eine symplektische Transvektion . Zu a gibt es ein a2 ∈ R2p mit
s(a, a2 ) = 1 .
Ergänzen wir (a, a2 ) durch Vektoren a3 , . . . , a2p ∈ span(a, a2 )⊥ zu einer
Basis (a, a2 , . . . , a2p ) des R2p , so ist die Matrix von σa,α bezüglich dieser
Basis:


1
−α |

|
0 



0
1
|
Sa,α := 


 −− −− −− + −− 
0
| E2p−2
(c) Für festes a ∈ R2n \ {0} ist
α 7−→ Sa,α
ein injektiver Gruppenhomomorphismus von (R, +) in die Gruppe (Sp(p, R), ·).
(d) Für alle α ∈ R , a ∈ R2p ist
det Sa,α = 1 ,
und E2p − Sa,α
ist nilpotent.
(10.5) Zeigen Sie für A ∈ M (n×n, H): Ist `n (A) invertierbar in M (2n×2n, C),
so ist A invertierbar.
187
(10.6) Beweisen Sie, dass H \ {0} wegzusammenhängend ist. Hinweis: Zeigen
Sie, ähnlich wie im Beweis von Satz 10.6.16, dass man jedes
r · α ∈ H mit r > 0 und N (α) = 1
durch einen Weg in H \ {0} verbinden kann mit E2 .
(10.7) Sei K ein Körper, char K 6= 2 , n ∈ N , V ein K−Vektorraum und
s : V × V −→ K
bilinear und antisymmetrisch, also
∀ v, w ∈ V : s(v, w) = −s(w, v) .
Sei B = (b1 , . . . , bn ) eine Basis von V und
MB (s) := (s(bk , bj ))(k,j)∈n×n
Zeigen Sie, dass es eine Basis A von V

J |
 − +

...



+


|
MA (s) = 

|
−


0



.
gibt mit

0














− −|
J
|
− −|
0
...
0
0 1
.
−1 0
Anleitung: Zeigen Sie zunächst: Es gibt eine Basis A0 von V mit


0 1 |
 −1 0 | 0 

MA0 (s) = 
 − − + − 
0 | B
mit Kästchen J =
mit einer schiefsymmetrischen Matrix B ∈ M ((n−2)×(n−2), K) , also
t
B = −B. Führen Sie dazu an MB (s) gleichzeitig elementare Zeilenund die entsprechenden Spaltenumformungen aus. Sei T das Produkt
der Elementarmatrizen Qjk (λ) und Sk (λ) für die Zeilenumformungen,
dann ist auch
T · MB (s) ·t T
schiefsymmetrisch ,
also ist auch B schiefsymmetrisch, und man kann Induktion machen.
(Die Aufgabe ist eine Präzisierung von Aufgabe (5.3). )
188
Empfehlenswerte Literatur
zur Linearen Algebra :
[Fi] Gerd Fischer : Lineare Algebra, eine Einführung für Studienanfänger.
18.Auflage, Springer 2014.
[SG] Hannes Stoppel, Birgit Griese : Übungsbuch zur Linearen
Algebra. 8.Auflage, Springer 2015.
[HW] Bertram Huppert, Wolfgang Willems : Lineare Algebra,
2., überarbeitete und erweiterte Auflage, Vieweg+Teubner 2010.
[Ko] Max Koecher : Lineare Algebra und analytische Geometrie.
4.Auflage, Springer Berlin 1997.
[KM] H.-J.Kowalsky, G.O.Michler : Lineare Algebra.
12., überarbeitete Auflage, De Gruyter Lehrbuch, Berlin 2008.
[RW] M.Roczen und H.Wolter, W.Pohl, D.Popescu, R.Laza:
Lineare Algebra individuell, Online Ver. 0.62, 20.3.2010.
zur Analysis :
[K1] Konrad Königsberger: Analysis 1, 6.Auflage, Springer-Lehrbuch
2004.
[K2] Konrad Königsberger: Analysis 2, 5.Auflage, Springer-Lehtbuch
2004.
[Fo1] Otto Forster : Analysis 1, 12. Auflage, Springer 2016.
[Fo2] Otto Forster : Analysis 2, 10.Auflage, Springer 2013.
[Fo3] Otto Forster : Analysis 3, 7.Auflage, Springer 2012.
[He] Harro Heuser : Lehrbuch der Analysis, Teil 1. 17.Auflage, Springer
2009.
zur Algebra :
[Bo] Siegfried Bosch : Algebra, 6.Auflage, Springer-Lehrbuch 2006.
[Hei] Wolfgang Hein : Einführung in die Struktur- und Darstellungstheorie der klassischen Gruppen, Springer 1990.
[HN] Joachim Hilgert, Karl-Hermann Neeb : Lie-Gruppen und
Lie-Algebren, Vieweg 1991.
[Ja] Nathan Jacobson : Basic Algebra I, 2nd edition, Dover Publications
2009.
[Ja] Jens Carsten Jantzen : Lineare Algebra und Analytische Geometrie
III,Vorlesungsskript, Universität Hamburg W.S. 1986/87.
[KM] Chr.Kapfinger, K.Meyberg : Algebra, 3.Auflage, Springer
Spektrum 2013.
189
Verzeichnis der Definitionen
Abkürzungen: e : einer, eines , v : von
A
D
abgeschlossene Menge 146
ähnliche Matrizen 39
äquivalente Normen 148
äußere Algebra 98
äußeres Produkt 89
alternierende k−fach
lineare Abbildung 95
alternierender Tensor 89
Ausartungsraum 132
Dachprodukt 98
darstellende Matrix e.
Hermiteschen Form 19
definit, positiv 6
definit, positiv semi- 6
diagonalisierbar 34
diagonalisierbar,simultan 49
Diffeomorphismus 172
direkte Summe, orthogonale 132
Drehachse 142
Drehung 107
Drehwinkel 142
Dreieck, sphrisches 24
Dreiecksungleichung 10
B
bilinear 82
Bilinearform, symmetrische 6
Breite, geographische 28
E
C
Eigenraum 36
Cartan-Zerlegung 157
Eigenvektor 33
Cauchy-Schwarzsche Ungleichung 9 Eigenwert 33, 38
Cayley-Hamilton, Satz v. 53
elementarsymmetrische Funktion 130
charakteristisches Polynom 37,38
Entfernung auf der Erde 27
Cosinus-Sätze im sphärischen
euklidische Norm 148
Dreieck 27
euklidischer Vektorraum 6
190
F
J
-fach linear 93
Fitting, Lemma v. 61
Form, Hermitesche 5
Funktion, elementarsymmetrische 130
Jacobi-Identität 22
Jordansche Normalform 73
K
G
Gram-Schmidt,
Orthogonalisierungssatz v. 16
Grassmann-Identität 22
H
Hauptachsentransformation 123
Hauptminor 139
-enkriterium 139
Hauptraum 60
Hermitesche Form 5
Hermitesche Matrix 19
Hesse-Matrix 128
Homöomorphismus 147
Hyperebene, Spiegelung an 143
I
induzierte Metrik 150
Intervall 7
Involution 164
Isometrie 102
191
kanonisches Skalarprodukt 7
Kompakte Teilmenge 147
Komplement, orthogonales 30
komplementäre Matrix 54
komplexe symplektische Gruppe 162
Komplexifizierung 88
kontravarianter Tensor 94
konvergente Folge 146
kovarianter Tensor 94
L
Länge, geographische 28
Legendre-Polynom 15
Lie-Algebra 23
Lie-Gruppe 184
M
P
Matrix, darstellende 19
Parallelogrammgleichung 11
Matrix, Hermitesche 19
Polynom, charakteristisches 37, 38
Matrix, symmetrische 20
positiv definit 6
Maximum-Norm 148
positiv definite
Metrik 145
symmetrische Matrix 128
metrischer Raum 145
positiv orientiert 24
Minimalpolynom 57
positiv semidefint 6
Minimum und Maximum,Satz v. 147 pseudo-orthogonale Gruppe 154
Monom 88
pseudo-unitäre Gruppe 162
multilineare Abbildung 94
pythagoras, Satz des 11
N
Q
nichtausgeartet 13
nilpotent 60
normierter Vektorraum 11
quadratische Form 126
Quaternionengruppen 164
R
O
Raum, metrischer 145
offene Menge 146
Raum, topologischer 145
Operator-Norm 151
orientiert, positiv 24 orthogonal 13
Orthogonalbasis 15
orthogonale direkte Summe 152
orthogonale Gruppe 104
orthogonale lineare Abbildung 102
orthogonale Matrix 104
orthogonales Komplement 30
Orthogonalisierungssatz für
symmetrische Bilinearformen 134
Orthogonalsystem 15
Orthonormalbasis 15
Ortonormalisierungssatz v.
Gram-Schmidt 16
Orthonormalsystem 15
192
S
noch T
Seite im sphärischen Dreieck 25
Transformationssatz für
selbstadjungierter Endomorphismus 116
darstellende Matrizen 21
senkrecht 12
Transvektion, symplektische 187
Sesquilinearform 5
simultan diagonalisierbar 49
Sinus-Satz im sphärischen Dreieck 27
U
Skalarprodukt 6
- , kanonisches 7
- , Standard- 7
Ungleichung, Cauchy-Schwarzsche 9
spezielle lineare Gruppe 155
unitäre Gruppe 104
spezielle orthogonale Gruppe 104
unitäre lineare Abbildung 102
sphärisches Dreieck 25
unitäre Matrix 104
Spiegelung 107
unitärer Vektorraum 6
- an Hyperebene 143
universelle Eigenschaft 86
Spur 31,38
Untermannigfaltigkeit 171
stetige Funktion 147
Summe, orthogonale direkte 132
Sylvestersches Trägheitsgesetz 137
V
symmetrische Bilinearform 6
symmetrische k−fach lineare Abbildung 95
symmetrische Matrix 20
Vektorprodukt 21
symmetrischer Tensor 89
Vielfachheit e.Nullstelle 43
symmetrisches Produkt 99
Vieta, Wurzelsatz v. 130
symplektische Gruppe 154
Vorzeichenregel 130
symplektische Gruppe, komplexe 162
symplektische Transvektion 187
W
T
Tensor 84
Tensor, reiner 98
Tensoralgebra 96
Tensorprodukt 84
topologische Gruppe 153
topologischer Raum 145
Trägheitsgesetz von Sylvester 137
193
wegzusammenhängend 150
Winkel im sphärischen Dreieck 26
Winkel zwischen Vektoren 12
Wurzelsatz von Vieta 130
Z
Zentrum e.Gruppe 142,155
zusammenhängend 150
Herunterladen