Lineare Algebra

Werbung
Kurzskript
Lineare Algebra
Wintersemester 2006/2007
und Sommersemester 2007
Prof. Dr. Joachim Rosenthal
Stand: 19. September 2007
Der erste Teil des Skriptes fasst die Vorlesung “Lineare
Algebra I” von Joachim Rosenthal aus dem Wintersemester 2006/07 zusammen; die Ergänzungsvorlesungen sind
nur zum Teil integriert worden. Der zweite Teil ist eine
Ausarbeitung der Vorlesung “Lineare Algebra II” aus dem
Sommersemester 2007.
Das Skript basiert auf Mitschriften, die mir freundlicherweise von Aljoscha Epprecht bereitgestellt worden sind.
Dafür möchte ich mich bedanken. Dieses Skript wurde in
LATEX gesetzt.
Weiterhin möchte ich mich insbesondere bei Jens Zumbrägel für das gründliche Korrekturlesen und seine vielen Korrekturen und Anmerkungen bedanken. Neben Jens
möchte ich mich noch bei Joachim Rosenthal, Philippe Logaritsch, Martin Huber und Ariel Amir für ihre Korrekturen bedanken.
Felix Fontein
Zürich, Juli 2007
ii
Inhaltsverzeichnis
1 Lineare Algebra I
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . .
1.1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Intermezzo zu Beweisen . . . . . . . . . . . . . . . . .
1.1.4 Mächtigkeit von Mengen . . . . . . . . . . . . . . . . .
1.2 Gruppen und Körper . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Der Körper der komplexen Zahlen . . . . . . . . . . . .
1.3 Gleichungssysteme und Matrizenrechnung . . . . . . . . . . .
1.3.1 Gauß-Algorithmus und elementare Zeilenumformungen
1.3.2 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . .
1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Erzeugendensysteme und Basen . . . . . . . . . . . . .
1.4.2 Rechnerische Probleme für Untervektorräume . . . . .
1.4.3 Lineare Gleichungssysteme: geometrische Interpretation
1.5 Ringe und Polynomringe . . . . . . . . . . . . . . . . . . . . .
1.5.1 Teilbarkeitstheorie . . . . . . . . . . . . . . . . . . . .
1.6 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . .
1.6.1 Charakterisierung von linearen Abbildungen . . . . . .
1.6.2 Der Vektorraum Hom(V, W ) . . . . . . . . . . . . . . .
1.6.3 Hintereinanderausführen von linearen Abbildungen . .
1.6.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . .
1.6.5 Äquivalenz von Matrizen . . . . . . . . . . . . . . . . .
1.6.6 Der Dualraum eines Vektorraums . . . . . . . . . . . .
1.6.7 Determinanten . . . . . . . . . . . . . . . . . . . . . .
1.6.8 Matrizen über Ringen . . . . . . . . . . . . . . . . . .
1.7 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Lineare Algebra II
2.1 Basiswechsel bei Endomorphismen . . . . . . . . . . . . . . . . . . . .
2.1.1 Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Jordan-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Geometrische Interpretation der verallgemeinerten Eigenräume
und Bemerkungen zur Numerik . . . . . . . . . . . . . . . . .
2.1.4 Eine algebraische Interpretation der Zerlegung in verallgemeinerte Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.5 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . .
2.1.6 Funktionen von Matrizen . . . . . . . . . . . . . . . . . . . . .
2.1.7 Minimalpolynom und annullierende Polynome . . . . . . . . .
2.2 Quotientenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . .
iii
1
2
2
3
4
4
5
8
9
10
11
13
15
18
20
21
23
24
26
27
28
28
29
30
31
35
35
37
38
40
45
49
51
53
58
65
66
iv
INHALTSVERZEICHNIS
2.3
2.4
2.5
Skalarprodukte im Rn und Cn . . . . . . . . . . . . . . . . . . . . .
2.3.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Skalarprodukte im Rn . . . . . . . . . . . . . . . . . . . . .
2.3.3 Basiswechsel für symmetrische Bilinearformen . . . . . . . .
2.3.4 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . .
2.3.4.1 Anwendung in der Analysis . . . . . . . . . . . . .
2.3.5 Gram-Schmidt-Orthogonalisierung . . . . . . . . . . . . . .
2.3.6 Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . .
2.3.7 Adjungierte Endomorphismen . . . . . . . . . . . . . . . . .
2.3.8 Bilinearformen und Sesquilinearformen . . . . . . . . . . . .
2.3.8.1 Komplexifizierung . . . . . . . . . . . . . . . . . .
2.3.8.2 Reellifizierung . . . . . . . . . . . . . . . . . . . . .
2.3.8.3 Skalarprodukte auf C-Vektorräumen . . . . . . . .
2.3.9 Normale Endomorphismen . . . . . . . . . . . . . . . . . . .
2.3.10 Anwendungsbeispiel: Methode der kleinsten Quadrate . . . .
Multilineare Algebra und Tensorprodukte . . . . . . . . . . . . . . .
2.4.1 Tensorprodukte . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Tensoren in der Physik . . . . . . . . . . . . . . . . . . . . .
2.4.3 Raum der symmetrischen und alternierenden Tensoren . . .
2.4.4 Tensoralgebra und symmetrische Algebra . . . . . . . . . . .
2.4.5 Alternierende Tensoren . . . . . . . . . . . . . . . . . . . . .
Lineare gewöhnliche Differentialgleichungen . . . . . . . . . . . . .
2.5.1 Lineare Differentialgleichungen mit konstanten Koeffizienten
2.5.2 Beschreibung einer linearen Differentialgleichung n-ter Ordnung durch ein lineares System erster Ordnung . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
71
79
81
86
87
89
91
92
92
93
94
98
102
104
105
118
119
123
126
130
133
. 136
A Verschiedenes
139
A.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.1.1 Kombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.1.2 Variationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Index
145
Kapitel 1
Lineare Algebra I
1
2
KAPITEL 1. LINEARE ALGEBRA I
Literatur Diese Vorlesung ist an kein spezielles Buch angelehnt. Trotzdem empfiehlt es sich, insbesondere bei Problemen, Literatur zu konsultieren, etwa um andere
Zugänge oder Beschreibungen von Problemen und Themenkomplexen kennenzulernen. Es gibt viele gute Bücher, die eine Einführung in die lineare Algebra bieten.
Wir wollen hier drei vorstellen:
• Albrecht Beutelspacher: “Lineare Algebra”. Vieweg-Verlag.
Eine anschauliche, gut verständliche Einführung in die Lineare Algebra.
• Siegfried Bosch: “Lineare Algebra”. Springer-Verlag Berlin.
• Gerd Fischer: “Lineare Algebra”. Vieweg-Verlag.
Ein sehr umfassendes, jedoch eher in einem knappen, mathematischen Stil
geschriebenes Buch.
1.1
1.1.1
Mengen und Abbildungen
Mengen
Wir arbeiten in dieser Vorlesung mit einer naiven Mengenlehre und ignorieren vorerst
die Probleme, die in einer solchen auftauchen können.
Definition 1.1.1. Eine Menge ist eine Zusammenfassung von Objekten, welche
Elemente genannt werden. Falls x ein Element einer Menge X ist, schreibt man
x ∈ X.
Wichtige Mengen
• ∅ = {} = leere Menge
• N = {0, 1, 2, . . . } = natürliche Zahlen
• Z = {. . . , −2, −1, 0, 1, 2, . . . } = ganze Zahlen
• Q = { pq | p, q ∈ Z, q 6= 0} = rationale Zahlen
• R = reelle Zahlen
• C = {a + ib | a, b ∈ R, i2 = −1} = komplexe Zahlen
• H = Hamiltonsche Quaternionen
Konstruktion von neuen Mengen
(1) Teilmenge: Sei X eine Menge und A(x) eine Aussage, die zu einem Element
x ∈ A entweder falsch oder richtig ist. Dann definiert
Y := {x ∈ X | A(x)}
eine Teilmenge von X, in der alle Elemente x ∈ X enthalten sind, für die die
Aussage A(x) gilt.
3
1.1. MENGEN UND ABBILDUNGEN
(2) Vereinigung: Sei I eine Indexmenge und zu jedem i ∈ I eine Menge Xi gegeben.
Dann definiere
[
Xi := {x | ∃i ∈ I : x ∈ Xi }.
i∈I
(3) Durchschnitt: Sei I eine Indexmenge und zu jedem i ∈ I eine Menge Xi gegeben.
Dann definiere
\
Xi := {x | ∀i ∈ I : x ∈ Xi }.
i∈I
(4) Differenz: Sind X und Y Mengen, so definiere die Differenz von X und Y als
X \ Y := {x ∈ X | x 6∈ Y }.
(5) (endliches) direktes Produkt: sind X1 , . . . , Xn Menge, so definiere
n
Y
i=1
Xi := X1 × · · · × Xn := {(x1 , . . . , xn ) | x1 ∈ X1 , . . . , xn ∈ Xn }.
Ein Element (x1 , . . . , xn ) ∈
1.1.2
Abbildungen
Qn
i=1
Xi heisst n-tupel oder kurz Tupel.
Seien X, Y Mengen. Eine Abbildung von X nach Y ist eine Vorschrift, welche jedem x ∈ X genau ein y ∈ Y zuordnet. Man schreibt:
f :X→Y
x 7→ y = f (x)
Definition 1.1.2. Sei f : X → Y eine Abbildung. Dann heisst
Im f := {y ∈ Y | ∃x ∈ X : f (x) = y}
das Bild von f , und die Menge X heisst das Urbild von f .
Bemerkung 1.1.3. Die Menge aller Abbildungen von X nach Y bildet selber eine
Menge, die mit Y X bezeichnet wird.
Definition 1.1.4. Sei f : X → Y eine Abbildung. Man sagt:
(a) f ist injektiv, falls aus x1 , x2 ∈ X mit x1 6= x2 folgt f (x1 ) 6= f (x2 );
(b) f ist surjektiv, falls Im f = Y ist;
(c) f ist bijektiv, falls f sowohl injektiv als auch surjektiv ist.
Definition 1.1.5. Ist X eine Menge, so heisst die Abbildung IdX : X → X, x 7→ x
die Identität auf X.
Definition 1.1.6 (Hintereinanderausführen von Abbildungen). Gegeben seien Abbildungen f : X → Y und g : Y → Z. Definiere eine Abbildung g ◦ f durch
g ◦ f : X → Z,
x 7→ (g ◦ f )(x) := g(f (x)).
Man spricht vom Produkt der Abbildungen. Notation:
X
f
/Y
g◦f
g
7/ Z
4
KAPITEL 1. LINEARE ALGEBRA I
Satz 1.1.7. Es sei f : X → Y eine bijektive Abbildung. Dann gibt es eine eindeutige
Abbildung g : X → Y so, dass g ◦ f = IdX und f ◦ g = IdY ist.
f ◦g
X
f
/Y
g
/X
:
f
#
/Y
g◦f
Man sagt: g ist die Umkehrabbildung von f und schreibt g = f −1 .
1.1.3
Intermezzo zu Beweisen
Die folgenden zwei “Beweise” sind falsch, wie die Endaussage deutlich zeigt. Der
interessierte Leser möge sich überlegen, welche der Umformungsschritte Äquivalenzaussagen sind (“⇔”), und welche Implikationen in nur eine Richtung sind (“⇐”
oder “⇒”):
(1)
a 2 − a2 = a 2 − a2
(a + a)(a − a) = a(a − a)
a+a=a
2a = a
2=1
(2)
−6 = − 6
4 − 10 = 9 − 15
2
2 − 2 · 2 · 25 = 32 − 2 · 3 · 52
¡ ¢2
¡ ¢2
22 − 2 · 2 · 52 + 25 = 32 − 2 · 3 · 52 + 25
¢2
¢2
¡
¡
2 − 52 = 3 − 25
2 − 52 = 3 − 52
2=3
1.1.4
Mächtigkeit von Mengen
Definition 1.1.8. Zwei Mengen X, Y heissen gleichmächtig, wenn es eine bijektive
Abbildung f : X → Y gibt.
Lemma 1.1.9. Falls X und Y gleichmächtig und Y und Z gleichmächtig sind, so
sind auch X und Z gleichmächtig.
Definition 1.1.10. Man sagt, dass eine Menge X endlich ist, wenn es eine natürliche
Zahl n ∈ N gibt so, dass X gleichmächtig wie {1, 2, . . . , n} ist (wobei man im
Fall n = 0 die Vereinbarung {1, 2, . . . , n} = ∅ trifft). In diesem Fall sagt man,
X hat die Kardinalität n und schreibt |X| = n. Ist X nicht endlich, so schreibt man
|X| = ∞.
1.2. GRUPPEN UND KÖRPER
5
Definition 1.1.11. Man sagt, dass eine Menge X abzählbar unendlich ist, wenn
X gleichmächtig wie N ist.
Definition 1.1.12. Sei X eine Menge.
(a) Man sagt, X sei abzählbar, wenn X endlich ist oder abzählbar unendlich.
(b) Ist X nicht abzählbar, so sagt man, dass X überabzählbar ist.
Lemma 1.1.13. Seien X und Y endliche Mengen. Dann gilt:
(1) |X × Y | = |X| · |Y |;
(2) |X \ Y | = |X| − |Y | wenn Y ⊆ X ist;
(3) |X ∪ Y | = |X| + |Y | − |X ∩ Y |;
¯ ¯
(4) ¯Y X ¯ = |Y ||X| .
Lemma 1.1.14. Die Mengen Z, Q und Nr für r ∈ N sind abzählbar unendlich, also
insbesondere gleichmächtig wie N.
Satz 1.1.15. Die Menge (0, 1) := {x ∈ R | 0 < x < 1} ist überabzählbar unendlich.
1.2
Gruppen und Körper
Definition 1.2.1. Sei M 6= ∅ eine Menge. Eine innere Verknüpfung auf M ist eine
Abbildung ◦ : M × M → M .
Definition 1.2.2. Eine Menge G zusammen mit einer inneren Verknüpfung ◦ :
G × G → G heisst Gruppe, wenn gilt:
(i) ◦ ist assoziativ, d.h. für alle a, b, c ∈ G gilt (a ◦ b) ◦ c = a ◦ (b ◦ c);
(ii) es gibt ein neutrales Element e ∈ G, d.h. für alle a ∈ G gilt a ◦ e = a = e ◦ a;
(iii) zu jedem a ∈ G gibt es ein b ∈ G mit a ◦ b = e = b ◦ a.
Notation 1.2.3. Ist G eine Gruppe mit Verknüpfung ◦, so schreibt man (G, ◦) für
die Gruppe.
Definition 1.2.4. Eine Gruppe (G, ◦) heisst kommutativ oder Abelsch, wenn für
alle a, b ∈ G gilt a ◦ b = b ◦ a.
Beispiele 1.2.5.
(1) (Z, +) ist eine Gruppe;
(2) (R \ {0}, ·) ist eine Gruppe;
(3) Betrachte ein gleichseitiges Dreieck ∆ und die Menge aller Drehungen G, welche
, 4π
} wenn wir jede Drehung mit
∆ auf sich selber abbilden. Dann ist G = {0, 2π
3
3
dem Drehwinkel identifizieren. Das Gruppengesetz kann dann durch folgende
Tafel beschrieben werden:
6
KAPITEL 1. LINEARE ALGEBRA I
◦
0
0
0
2π
3
4π
3
2π
3
4π
3
2π
3
2π
3
4π
3
0
4π
3
4π
3
6π
=0
3
8π
2π
=
3
3
Frage: wie sieht eine allgemeine Gruppe mit drei Elementen aus?
Lemma 1.2.6. Ist (G, ◦) eine Gruppe, so ist das neutrale Element eindeutig, d.h.
sind e, e′ ∈ G Elemente, die die Bedingung (ii) aus der Definition einer Gruppe
erfüllen, so gilt e = e′ .
Lemma 1.2.7. Sei G eine Gruppe. Dann ist zu jedem a ∈ G das inverse Element b ∈
G mit a ◦ b = e = b ◦ a eindeutig bestimmt, wobei e ∈ G das neutrale Element sei.
Notation 1.2.8. Das eindeutig bestimmte Inverse zu a ∈ G, wobei (G, ◦) eine
Gruppe ist, wird mit a−1 bezeichnet. Wenn die Gruppe additiv geschrieben wird, so
schreiben wir auch −a für a−1 .
Lemma 1.2.9. Sei (G, ◦) eine Gruppe und seien a, b, c ∈ G. Gilt a ◦ b = a ◦ c oder
b ◦ a = c ◦ a, so ist b = c.
Definition 1.2.10. Ein Körper K ist eine Menge mit zwei inneren Verknüpfungen +
und · so, dass:
(i) (K, +) eine Abelsche Gruppe ist mit neutralen Element 0 ∈ K;
(ii) (K \ {0}, ·) eine Abelsche Gruppe ist mit neutralen Element 1;
(iii) für alle a, b, c ∈ K gilt a · (b + c) = (a · b) + (a · c) und (b + c) · a = (b · a) + (c · a)
(Distributivität);
(iv) es gilt 0 6= 1.
Notation 1.2.11. Wir schreiben (K, +, ·), wenn K bezüglich der Verknüpfungen +
und · ein Körper ist.
Beispiele 1.2.12. Beispiele für Körper sind R, Q und C (siehe unten).
Definition 1.2.13. Eine Äquivalenzrelation ∼ auf einer Menge X ist dabei eine
Relation1 , welche den folgenden drei Bedingungen genügt:
(i) x ∼ x für alle x ∈ X (Reflexivität);
(ii) x ∼ y impliziert y ∼ x für alle x, y ∈ X (Symmetrie);
(iii) x ∼ y und y ∼ z impliziert x ∼ z für alle x, y, z ∈ X (Transitivität).
Die Menge X wird in disjunkte Teilmengen zerlegt, die sogenannten Äquivalenzklassen bezüglich ∼. Zu x ∈ X schreiben wir [x] für die Äquivalenzklasse von x,
also
[x] = {y ∈ X | x ∼ y}.
1
Eine (binäre) Relation auf einer Menge X ist eine Teilmenge R ⊆ X × X. Man schreibt xRy
für (x, y) ∈ R.
7
1.2. GRUPPEN UND KÖRPER
Sei n ∈ N>0 fest gewählt. Definere auf Z die Relation x ∼ y genau dann, wenn
n | (x − y), also wenn n ein Teiler von x − y ist. Dies ist eine Äquivalenzrelation. Zu
a ∈ Z ist
[a] = a + nZ := {a + nb | b ∈ Z}.
Schreibe
Zn := {[a] | a ∈ Z}
für die Menge der Äquivalenzklassen. Wir schreiben häufig a anstelle [a], wenn wir
von den Elementen aus Zn reden. Aus der Eindeutigkeit von Division mit Rest folgt,
dass
Zn = {[0], [1], . . . , [n − 1]}
ist und |Zn | = n. Definiere nun zwei Operationen + und · auf Zn :
[a] + [b] := [a + b]
und
[a] · [b] := [a · b].
Lemma 1.2.14. Diese Operationen sind wohldefiniert, d.h. ist [a] = [a′ ] und [b] =
[b′ ] für a, a′ , b, b′ ∈ Z, so ist [a + b] = [a′ + b′ ] und [ab] = [a′ b′ ].
Lemma 1.2.15. (Zn , +) ist Abelsche Gruppe mit neutralem Element 0 = [0].
Lemma 1.2.16. Die Verknüpfung · auf Zn ist assoziativ, Abelsch und hat das neutrale Element 1.
Bemerkung 1.2.17. Anstelle a ∼ b schreibt man auch oft a ≡ b (mod n) und sagt
“a ist kongruent zu b modulo n”.
Lemma 1.2.18. Ein Element [a] ∈ Zn hat genau dann ein multiplikativ Inverses,
wenn a und n teilerfremd sind, also wenn ggT(a, n) = 1 ist.
Korollar 1.2.19. Genau dann ist (Zn , +, ·) ein Körper, wenn n eine Primzahl ist.
Ist n = p eine Primzahl, so schreiben wir auch Fp für Zp .
Bemerkungen 1.2.20. Sei (K, +, ·) ein Körper.
(i) Per Konvention wird das Zeichen · bei der Multiplikationsoperation oft weggelassen, d.h. man schreibt ab anstelle a · b. Es gilt auch Multiplikation vor
Addition: ac + bc = (ac) + (bc).
(ii) Die Bedingung 1 6= 0 folgt bereits aus Bedingung (ii) der Definition eines
Körpers, da demnach (K \ {0}, ·) eine Gruppe ist, womit K \ {0} insbesondere
nicht leer ist und die 1 enthält.
(iii) Für alle a ∈ K gilt 0 · a = 0 = a · 0.
(iv) Für alle a, b, c ∈ K gilt (ab)c = a(bc) und ab = ba.
(v) Es sei a, b ∈ K. Ist ab = 0, so folgt a = 0 oder b = 0 (Nullteilerfreiheit).
(vi) Es gilt a · (−b) = −(a · b) und (−a)(−b) = ab für alle a, b ∈ K.
8
KAPITEL 1. LINEARE ALGEBRA I
1.2.1
Der Körper der komplexen Zahlen
Bezeichne mit C = R2 = {(a, b) | a, b ∈ R}. Betrachte die folgenden zwei inneren
Verknüpfungen:
• Addition: (a, b) + (c, d) = (a + c, b + d);
• Multiplikation: (a, b) · (c, d) = (ac − bd, ad + bc).
Dies ist ein Körper mit 0 = (0, 0), 1 = (1, 0) und −(a, b) = (−a, −b) und (a, b)−1 =
a
−b
( a2 +b
2 , a2 +b2 ).
Beziehung von C zu R Betrachte ϕ : R → C, r 7→ (r, 0). Dies ist injektiv. Da
(r, 0) + (r′ , 0) = (r + r′ , 0) und (r, 0) · (r′ , 0) = (rr′ , 0) ist, können wir also (r, 0) mit
der reellen Zahl r identifizieren. Weiter rechnet man r(a, b) = (ra, rb) und i2 = −1
für i := (0, 1) ∈ C. Damit zeigt man (a, b) = a + ib.
Ist z = a + ib ∈ C eine komplexe Zahl mit a, b ∈ R, so definieren wir das komplex
konjugierte zu z als z := a − ib. Weiter definieren wir den Realteil von z als ℜz := a
und den
von z als ℑz := b, und weiter den (Absolut-)Betrag von z als
√
√ Imaginärteil
2
2
|z| := zz = a + b .
Man erhält folgende Rechenregeln für u, v ∈ C:
(i) u + v = u + v;
(ii) u · v = u · v;
(iii) ℜ(u + v) = ℜu + ℜv;
(iv) ℑ(u + v) = ℑu + ℑv;
(v) |u · v| = |u| · |v|;
(vi) |u + v| ≤ |u| + |v|.
Polarkoordinaten-Beschreibung Sei z = a + ib ∈ C. Schreibe r := |z| =
√
a2 + b2 und z = a + bi = r(cos α + i sin α) für ein α ∈ R. Ist z ′ = a′ + ib′ =
r′ (cos α′ + i sin α′ ), so ist
z · z ′ = rr′ (cos(α + α′ ) + i sin(α + α′ ))
in Polarkoordinaten.
Mittels der Eulerformel cos α + i sin α = eiα lassen sich komplexe Zahlen noch
einfacher in Polarkoordinaten ausdrücken. Hierbei muss man zuerst erklären,
wie eiα
P
k
x
zu verstehen ist. Die Taylor-Entwicklung von ex ist gegeben durch ∞
k=0 k! . Damit
P
k
(iα)
ist eiα = ∞
k=0 k! .
Hat man eine komplexe Zahl in der Form z = reiα mit r, α ∈ R, so kann man z.B.
z 100 sehr einfach ausrechnen, da z 100 = r100 ei100α ist. Hat man dagegen z = a + ib
gegeben mit a, b ∈ R, so ist die Berechnung von z 100 = (a + ib)100 viel mühsamer.
Bemerkung 1.2.21. Ein Polynom f (x) der Form f (x) = xn + an−1 xn−1 + · · · + a0
mit a0 , . . . , an−1 ∈ R hat höchstens n Nullstellen, manchmal weniger.
Über C hat f immer n Nullstellen (mit Vielfachheiten gezählt). Über R ist das
nicht immer so, wie etwa das√Polynom√f (x) = x2 + 2 zeigt: es hat keine Nullstelle
in R, jedoch ist f (x) = (x + i 2)(x − i 2), womit f zwei komplexe Nullstellen hat.
1.3. GLEICHUNGSSYSTEME UND MATRIZENRECHNUNG
1.3
9
Gleichungssysteme und Matrizenrechnung
Das Ziel ist, die vollständige Lösungsmenge des linearen Gleichungssystems
n
X
aij xj = bi ,
i = 1, . . . , m
(∗)
j=1
zu beschreiben, wobei aij , bi Elemente eines Körpers K sind, i = 1, . . . , m, j =
1, . . . , n. Die Unbekannten sind hier x1 , . . . , xn .
Betrachte die Matrix


a11 · · · a1n

.. 
...
A := (aij ) i=1,...,m =  ...
. 
j=1,...,n
am1 · · · amn
und die Vektoren

x1
 
x :=  ... 

und

b1
 
b :=  ... .

bm
xn
Dann können wir das Gleichungssystem (∗) auch schreiben als
Ax = b.
Dabei ist

a11
 ..
Ax =  .
am1
definiert als
 
a1n
x1
.. . . .
. 
xn
· · · amn
···
...

a11 x1 + · · · + a1n xn
 a21 x1 + · · · + a2n xn


..

.
am1 x1 + · · · + amn xn

 Pn

a
x
i=1 1i i

..
.
.

 
=
Pn

i=1
ami xi
Definition 1.3.1. Man nennt A die Koeffizientenmatrix von (∗) und

a11 · · · a1n b1

..
.. 
...
M = (A, b) =  ...
.
.
am1 · · · amn bm

die erweiterte Koeffizientenmatrix von (∗).
Unser Ziel ist es, die Lösungsmenge
Lös(A, b) := {x ∈ K n | Ax = b}
zu beschreiben.
10
KAPITEL 1. LINEARE ALGEBRA I
1.3.1
Gauß-Algorithmus und elementare Zeilenumformungen
Betrachte die erweiterte Koeffizientenmatrix M = (A, b) des linearen Gleichungssystems (∗). Unter einer elementaren Zeilenoperation versteht man einen der folgenden
Prozesse:
• Typ 1: Vertauschen zweier Zeilen;
• Typ 2: Multiplikation einer Zeile mit Skalar λ ∈ K \ {0};
• Typ 3: Addition eines beliebigen Vielfachen µ ∈ K einer Zeile von M zu einer
anderen Zeile von M .
Satz 1.3.2. Sei M̃ = (Ã, b̃) eine erweiterte Koeffizientenmatrix, die aus M = (A, b)
durch einer Reihe von elementaren Zeilenumformungen entstanden ist. Dann gilt
Lös(A, b) = Lös(Ã, b̃).
Definition 1.3.3. Eine Matrix Z = (zij ) i=1,...,m ist in Zeilenstufenform, wenn gilt:
j=1,...,n
(i) es gibt ein r ∈ N mit r ≤ m so, dass die Zeilen 1, . . . , r alle nicht gleich Null
sind, und die Zeilen r + 1, . . . , m alle Null sind;
(ii) es gibt r Indices 1 ≤ j1 < · · · < jr ≤ n so, dass für alle i = 1, . . . , r gilt, dass
zij = 0 ist für j < ji und zij 6= 0 ist für j = ji .
Die Elemente ziji heissen Pivotelemente, und die Indices ji heissen Pivotindices.
Lemma 1.3.4. Angenommen, Z = (A, b) ist in Zeilenstufenform mit Pivotindices ji , i = 1, . . . , r und Pivotelementen ziji , i = 1, . . . , r. Sei A eine m × n-Matrix
und b ein m-Vektor. Dann ist Lös(A, b) = ∅ genau dann, wenn jr = n + 1 ist.
Falls jr < n + 1 ist, so kann man die Variablen x1 , . . . , xn unterteilen in n −
r freie Variablen und r abhängige Variablen und die Lösung kann iterativ geschrieben
werden; dies wird in Bemerkung 1.3.6 demonstriert.
Bemerkung 1.3.5. Die Eigenschaft
“M̃ = (Ã, b̃) ging aus M = (A, b) durch eine Reihe
von elementaren Zeilenumformungen hervor”
ist eine Äquivalenzrelation auf dem Raum der m×(n+1)-Matrizen (den erweiterten
Koeffizientenmatrizen).
Daraus ergibt sich folgende Konsequenz: Die Äquivalenzrelation unterteilt die
Menge der Koeffizientenmatrizen in Äquivalenzklassen und je zwei Elemente (A, b)
und (Ã, b̃) einer solchen Klasse haben die gleiche Lösungsmenge, also Lös(A, b) =
Lös(Ã, b̃).
Dies führt zu der Frage, ob es in jeder Äquivalenzklasse [(A, b)] von (A, b) Elemente (Ã, b̃) gibt, so dass sich Lös(Ã, b̃) besonders einfach beschreiben lässt.
1.3. GLEICHUNGSSYSTEME UND MATRIZENRECHNUNG
11
Bemerkung 1.3.6. Falls die erweiterte Koeffizientenmatrix (A, b) in Zeilenstufenform ist mit Pivotelementen aiji , i = 1, . . . , r, so kann man die Variablen xj ,
j = 1, . . . , n, unterteilen in die unabhängigen (freien) Variablen xs , s ∈ {1, . . . , n} \
{j1 , . . . , jr }, und die abhängigen Variablen xt , t ∈ {j1 , . . . , jr }, und Lös(A, b) kann
iterativ berechnet werden:
Zur Vereinfachung nehmen wir an, dass ji = i ist, 1 ≤ i ≤ r. Dies kann etwa
durch Umnummerieren der Variablen erreicht werden. Dann hat (A, b) die Form


b1
a11 ∗ · · · · · · ∗
∗ ··· ∗
..
..
..
.. 

... ...
.
.
.
. 
0
 . .
.. 
..
..
..
 ..
.. ... ...
. 
.
.
.



(A, b) = 
0
·
·
·
0
a
∗
∗
·
·
·
∗
b
rr
r


 0 ··· ··· ··· ··· ··· ··· 0
br+1 


 .

.
.
.. 
..
 ..
bm
0 ··· ··· ··· ··· ··· ··· 0
Dann folgt:
(i) Lös(A, b) 6= ∅ genau dann, wenn br+1 = · · · = bm = 0;
(ii) falls es eine Lösung gibt, wähle xr+1 = λ1 , . . . , xn = λk , wobei k = n − r ist
und λ1 , . . . , λk beliebig sind. Mit
xr =
1
(br − ar,r+1 λ1 − · · · − arn λk )
arr
ergibt sich der Wert von xr , und hat man bereits xℓ+1 , . . . , xr berechnet, so
ergibt sich xℓ durch
xℓ =
1
(bℓ − aℓ,ℓ+1 xℓ+1 − · · · − aℓr xr − aℓ,r+1 λ1 − · · · − aℓn λk ).
aℓℓ
Es verbleibt nun die Frage, ob jede erweiterte Koeffizientenmatrix durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden kann.
Satz 1.3.7 (Gauß). Jede m × n-Matrix lässt sich durch eine Reihe elementarer
Zeilenumformungen in Zeilenstufenform bringen.
Bemerkungen 1.3.8.
(i) Betrachtet man die Äquivalenzrelation “A geht aus à durch eine Reihe von
elementaren Zeilenumformungen hervor” auf der Menge der m × n-Matrizen,
so zeigt der Satz von Gauß, dass jede Äquivalenzklasse [A] ein Element in
Zeilenstufenform besitzt. Im Allgemeinen gibt es sogar viele solche Matrizen.
(ii) Es gibt eine reduzierte Zeilenstufenform, welche eindeutig ist. Diese Form erreicht man, indem man jede Zeile der Zeilenstufenform durch das in ihr enthaltende Pivotelement teilt (mittels je einer Typ-2-Operation) und die Elemente
oberhalb jedes Pivotelements mittels Typ-3-Operationen Null werden lässt.
1.3.2
Matrizenrechnung
Bezeichne mit Matm×n (K) die Menge aller m × n-Matrizen mit Einträgen in K.
12
KAPITEL 1. LINEARE ALGEBRA I
Addition Sind A = (aij ) und B = (bij ) zwei m × n-Matrizen, so definiert man
A + B := (aij + bij ).
Bemerkung 1.3.9. Haben die Matrizen A und B verschiedene Grössen, so ist die
Addition nicht definiert!
Lemma 1.3.10. (Matm×n (K), +) ist eine Abelsche Gruppe.
Skalarmultiplikation Ist A ∈ Matm×n (K) und λ ∈ K mit A = (aij ), so definere
λ · A := (λaij ) ∈ Matm×n (K).
Matrizenmultiplikation Sei A = (aij ) ∈ Matℓ×m (K) und B = (bjk ) ∈ Matm×n (K).
Dann definiere eine ℓ × n-Matrix A · B = (cik ) durch
cik =
m
X
aij bjk .
j=1
Bemerkungen 1.3.11.
(i) Falls die zweite Matrix nicht gleichviele Zeilen wie die erste Matrix Spalten
hat, so ist die Matrizenmultiplikation für diese zwei Matrizen nicht definiert.
(ii) Im Allgemeinen ist die Matrizenmultiplikation nicht kommutativ !
Lemma 1.3.12. Die Matrizenmultiplikation ist assoziativ.
Rechenregeln für Matrizen Falls die Multiplikation bzw. Addition definiert
sind, so gilt für Matrizen A, B, C und Skalare λ ∈ K:
(i) A(B + C) = AB + AC;
(ii) (A + B)C = AC + BC;
(iii) λ(AB) = (λA)B = A(λB).
Bemerkung 1.3.13. Wir haben gesehen, dass (Matm×n (K), +) eine Abelsche Gruppe ist. Wie steht es mit der Multiplikation? Da man zwei Matrizen A, B ∈ Matm×n (K)
nur multiplizieren kann, wenn n = m ist, müssen wir uns auf Matn×n (K) beschränken.
Lemma 1.3.14. Die Matrizenmultiplikation definiert auf Matn×n (K) eine assoziative innere Verknüpfung mit neutralem Element


1 0 ··· 0
 . . . . . . .. 
.
0
En :=  . .
.
.
 .. . . . . 0
0 ··· 0 1
Definition 1.3.15. Seien A, B ∈ Matn×n (K) zwei Matrizen. Wir sagen, dass B ein
Inverses von A ist, wenn AB = En = BA ist.
13
1.4. VEKTORRÄUME
Lemma 1.3.16. Hat eine Matrix A ∈ Matn×n (K) ein Inverses, so ist dieses eindeutig.
Notation 1.3.17. Falls A ∈ Matn×n (K) ein Inverses besitzt, so bezeichnen wir
dieses mit A−1 .
Wenn nun eine Matrix A ∈ Matn×n (K) ein Inverses besitzt, kann man dieses
effektiv berechnen?
Bemerkung 1.3.18. Betrachte das Gleichungssystem
¡ ¢
AX = En
mit
X = xij i,j=1,...,n .
(Dies kann aufgefasst werden als n Gleichungssysteme der Form Ax(i) = b(i) , 1 ≤
i ≤ n, wobei x(i) die i-te Spalte von X ist und b(i) die i-te Spalte von En .) Existiert
eine Lösung X ∈ Matn×n (K), so gilt AX = En . Gilt auch XA = En ?
Lemma 1.3.19. Ist A eine Matrix und (En , B) die reduzierte Zeilenstufenform von
(A, En ), so ist B das Inverse von A, also B = A−1 .
Definition 1.3.20. Bezeichne mit Gln (K) die Menge aller n × n-Matrizen, die
Inverse besitzen, also
Gln (K) = {A ∈ Matn×n (K) | ∃B ∈ Matn×n (K) : AB = En = BA}.
Die Abkürzung Gl steht hier für general linear group.
Lemma 1.3.21. (Gln (K), ·) ist eine Gruppe bezüglich der Multiplikation.
1.4
Vektorräume
Sei K ein Körper.
Definition 1.4.1. Eine Abelsche Gruppe (V, +) zusammen mit einer Operation · :
K × V → V , (λ, v) 7→ λv heisst K-Vektorraum, wenn:
(i) die Distributivitätsgesetze gelten:
(a) (λ + µ)v = λv + µv für alle λ, µ ∈ K, v ∈ V ;
(b) λ(v + w) = λv + λw für alle λ ∈ K, v, w ∈ V ;
(ii) für die Skalarmultiplikation gilt:
(a) (λµ)v = λ(µv) für alle λ, µ ∈ K, v ∈ V ;
(b) 1v = v für alle v ∈ V .
Beispiele 1.4.2.
(a) V = K n mit


   
v 1 + w1
w1
v1


 ..   .. 
..

 .  +  .  := 
.
vn
und
wn
v n + wn


 
λv1
v1


 
λ ...  :=  ... .
vn
λvn
14
KAPITEL 1. LINEARE ALGEBRA I
(b) V = Matm×n (K) mit der gewöhnlichen Matrizenaddition und
λ(aij )ij := (λaij )ij .
(c) Der Raum der Polynome V = K[x] := {a0 + a1 x + · · · + an xn | n ∈ N, ai ∈
K, i = 0, . . . , n} mit Koeffizienten in K mit der gewöhnlichen Addition und
λ(a0 + a1 x + · · · + an xn ) := (λa0 ) + (λa1 )x + · · · + (λan )xn .
(d) V = Abb(R, R) := {f : R → R Abbildung } mit K = R. Die Addition
von f, g ∈ Abb(R, R) ist definiert durch
(f + g)(x) := f (x) + g(x)
und die Skalarmultiplikation durch
(λf )(x) := λf (x),
λ ∈ K = R.
(e) Es seien L, K Körper so, dass K ⊆ L ein Unterkörper ist, d.h. für a, b ∈ K gilt
a +K b = a +L b und a ·K b = a ·L b. Insbesondere ist dann 0K = 0L und 1K = 1L .
(Beispielsweise ist R ein Unterkörper von C.)
In dieser Situation ist L ein K-Vektorraum mit der Skalarmultiplikation
(λ, v) 7→ λv,
wobei hier λ als Element in L aufgefasst wird und dort die normale Multiplikation durchgeführt wird.
Rechenregeln in einem K-Vektorraum Sei V ein K-Vektorraum.
(i) Falls 0V ∈ V das Nullelement bezüglich der Addition ist, so gilt λ · 0V = 0V
für alle λ ∈ K.
(ii) Ist 0K ∈ K das Nullelement ist, so gilt 0K · v = 0V für alle v ∈ V .
(iii) Es gilt (−λ)v = λ(−v) = −(λv) für alle λ ∈ K und v ∈ V .
(iv) Sind λ ∈ K und v ∈ V , so gilt λv = 0 genau dann, wenn λ = 0K ist oder
v = 0V .
Definition 1.4.3. Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V heisst (K)Untervektorraum oder (K-)Unterraum von V , wenn gilt:
(i) U 6= ∅;
(ii) aus u, v ∈ U folgt u + v ∈ U ;
(iii) aus λ ∈ K und u ∈ U folgt λu ∈ U .
Bemerkung 1.4.4. Bedingungen (ii) und (iii) sind äquivalent zu:
aus u, v ∈ U und λ, µ ∈ K folgt λu + µv ∈ U.
15
1.4. VEKTORRÄUME
Beispiel 1.4.5. Sei A eine beliebige m × n-Matrix. Dann ist
Lös(A) := Lös(A, 0) = {x ∈ K n | Ax = 0}
ein K-Untervektorraum von K n .
Lemma 1.4.6. Ist U ⊆ V ein K-Untervektorraum, dann ist U zusammen mit der
auf U eingeschränkten Addition und Skalarmultiplikation wieder ein K-Vektorraum.
Lemma 1.4.7. Sei V ein K-Vektorraum, I eine beliebige Indexmenge undTzu jedem i ∈ I sei ein K-Untervektorraum Ui ⊆ V von V gegeben. Dann ist U := i∈I Ui
ebenfalls ein K-Untervektorraum von V .
Definition 1.4.8. Sei V ein K-Vektorraum und T ⊆ V eine beliebige Teilmenge.
Dann heisst
\
hT i := {U | U ⊆ V Untervektorraum, T ⊆ U }
der von T erzeugte Untervektorraum von V .
Bemerkung 1.4.9. Der von T ⊆ V erzeugte Untervektorraum von V ist nach dem
Lemma tatsächlich ein Untervektorraum. Er ist der kleinste Untervektorraum von
V , welcher T enthält.
Bemerkung 1.4.10. Der Nullvektor ist in jedem Untervektorraum enthalten.
Satz 1.4.11. Sei T 6= ∅. Dann gilt
hT i =
1.4.1
r
nX
i=1
¯
o
¯
λi vi ¯ r ∈ N, λi ∈ K, vi ∈ T für i = 1, . . . , r .
Erzeugendensysteme und Basen
Definition 1.4.12. Sei V ein K-Vektorraum und U ⊆ V ein K-Untervektorraum.
(i) Eine Teilmenge T ⊆ U heisst Erzeugendensystem von U , wenn hT i = U ist.
(ii) Der Untervektorraum U heisst endlich erzeugt, wenn es ein Erzeugendensystem T von U gibt, welches endlich ist.
Beispiel 1.4.13. Der Polynomring K[x] wird erzeugt von {1, x, x2 , . . . }, und man
kann zeigen, dass K[x] nicht endlich erzeugt ist.
Bemerkung 1.4.14. Jeder Untervektorraum U ⊆ V besitzt ein Erzeugendensystem; etwa mit T := U gilt hT i = U .
Definition 1.4.15. Sei V ein Vektorraum. Eine Teilmenge T ⊆ V heisst linear
unabhängig, wenn für jede endliche Teilmenge {v1 , . . . , vn } ⊆ T mit vi 6= vj für
i 6= j gilt, dass aus λ1 v1 +· · ·+λn vn = 0 für λ1 , . . . , λn ∈ K bereits λ1 = · · · = λn = 0
folgt. Eine Menge heisst linear abhängig, wenn sie nicht linear unabhängig ist.
Lemma 1.4.16. Folgende Bedingungen sind für eine Teilmenge T ⊆ V äquivalent:
(1) T ist linear unabhängig;
16
KAPITEL 1. LINEARE ALGEBRA I
(2) jeder Vektor v ∈ T kann eindeutig als endliche Linearkombination mit Vektoren
aus T beschrieben werden, d.h. für v gibt es eindeutige Vektoren {v1 , . . . , vn } ⊆
T , vi 6= vj für i 6= j, und eindeutige λ1 , . . . , λn ∈ K \ {0} mit v = λ1 v1 + · · · +
λn vn .
Definition 1.4.17. Sei V ein Vektorraum. Eine Teilmenge B ⊆ V heisst Basis von
V , wenn:
(1) B ein Erzeugendensystem von V ist, also hBi = V ist, und wenn
(2) B linear unabhängig ist.
Satz 1.4.18 (Basisergänzungssatz). Es sei B ⊆ V eine Menge von Vektoren.
Genau dann ist B eine Basis von V , wenn B eine maximal linear unabhängige
Menge ist, d.h. B ist linear unabhängig und jede Menge B′ ⊆ V mit B $ B′ ist
linear abhängig.
Satz 1.4.19 (Basisauswahlsatz). Es sei B ⊆ V eine Menge von Vektoren. Genau
dann ist B eine Basis von V , wenn B ein minimales Erzeugendensystem von V
ist, d.h. B ist ein Erzeugendensystem von V und jede Teilmenge B′ $ B ist kein
Erzeugendensystem von V .
Satz 1.4.20 (Hauptsatz über Basen). Jeder K-Vektorraum besitzt eine Basis.
Bemerkung 1.4.21. Im allgemeinen Fall benötigt man das Auswahlaxiom zum
Beweis des Satzes. Ist dagegen V endlich erzeugt, so folgt dies aus dem Basisauswahlsatz.
Von nun an sei V ein endlich erzeugter Vektorraum. Nach dem Basisauswahlsatz
hat V eine endliche Basis B = {v1 , . . . , vn } mit |B| = n. Wir zeigen zuerst, dass die
Zahl n nicht von B abhängt sondern nur von V .
Lemma 1.4.22 (Austauschlemma). Sei B ⊆ V eine Basis und w ∈ V \ {0} ein
Vektor. Dann gibt es einen Vektor v ∈ B so, dass
B′ := (B \ {v}) ∪ {w}
wieder eine Basis von V ist.
Satz 1.4.23 (Austauschsatz von Steinitz). Sei B = {v1 , . . . , vn } eine Basis
von V mit |B| = n. Sei C = {w1 , . . . , wm } ⊆ V eine linear unabhängige Menge mit
|C| = m. Dann ist m ≤ n und es gibt n − m Vektoren aus B, ohne Einschränkung
seien dies vm+1 , . . . , vn , so dass {w1 , . . . , wm , vm+1 , . . . , vn } eine Basis von V ist.
Korollar 1.4.24. Je zwei Basen eines endlich erzeugten Vektorraums sind gleichmächtig.
Bemerkung 1.4.25. Dies kann auch für nicht endlich erzeugte Vektorräume gezeigt
werden.
Definition 1.4.26. Sei V ein endlich erzeugter Vektorraum und B eine Basis von
V . Dann heisst dim V := |B| die Dimension von V .
Im Fall, dass V nicht endlich erzeugt ist, schreiben wir dim V = ∞. Ist V endlich
erzeugt, so sagen wir auch, dass V endlichdimensional sei.
Beispiel 1.4.27. Es ist dim K n = n für jedes n ∈ N und dim K[x] = ∞.
1.4. VEKTORRÄUME
17
Komplementärräume
Definition 1.4.28. Sei U ⊆ V ein Untervektorraum. Ein zweiter Untervektorraum U ′ ⊆ V heisst Komplementärraum von U in V , wenn
(i) hU, U ′ i = V ist und
(ii) U ∩ U ′ = {0}.
Aus dem Satz von Steinitz folgert man nun:
Satz 1.4.29. Sei V ein endlich erzeugter Vektorraum und U ⊆ V ein Untervektorraum. Dann gibt es einen Komplementärraum zu U in V .
Summe und direkte Summe von Untervektorräumen
Korollar 1.4.30. Sind U1 , U2 ⊆ V Untervektorräume, so ist
hU1 , U2 i = U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }.
Man nennt U1 + U2 die Summe der Untervektorräume U1 und U2 .
Bemerkung 1.4.31. Man kann dies auf endlich viele Untervektorräume verallgemeinern: sind U1 , . . . , Ur Unterräume von V , so ist
hU1 , . . . , Ur i = U1 + · · · + Ur := {u1 + · · · + ur | ui ∈ Ui , 1 ≤ i ≤ r}.
Satz 1.4.32 (Dimensionsformel). Ist V ein endlichdimensionaler Vektorraum
und seien U1 , U2 ⊆ V Untervektorräume. Dann gilt
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ).
Bemerkungen 1.4.33.
(1) Sind U1 , U2 ⊆ V Komplementärräume, so hat man U1 + U2 = V und U1 ∩ U2 =
{0}. Damit gilt also dim V = dim U1 + dim U2 .
(2) In der Mengentheorie gilt eine ähnliche Formel: sind T1 , T2 Teilmengen von M ,
so gilt |T1 ∪ T2 | = |T1 | + |T2 | − |T1 ∩ T2 |.
Definition 1.4.34. Sind U1 , U2 ⊆ V zwei Untervektorräume von V mit U1 ∩ U2 =
{0}, so schreiben wir U1 ⊕ U2 für U1 + U2 und sprechen von einer (inneren) direkten
Summe.
Ist U1 ⊕ U2 eine direkte Summe, so gilt dim(U1 ⊕ U2 ) = dim U1 + dim U2 .
Satz 1.4.35. Seien U1 , U2 ⊆ V zwei Untervektorräume von V und sei V endlich
erzeugt. Dann sind äquivalent:
(i) U1 + U2 = U1 ⊕ U2 ist eine direkte Summe;
(ii) jedes x ∈ U1 + U2 kann eindeutig in der Form x = u1 + u2 mit ui ∈ Ui , i = 1, 2
geschrieben werden.
18
KAPITEL 1. LINEARE ALGEBRA I
Definition 1.4.36. Seien U1 , . . . , Ur Untervektorräume von V . Wir sagen, dass
U1 + · · · + Ur eine direkte Summe ist, wenn jedes x ∈ U1 + · · · + Ur eine eindeutige
Darstellung x = u1 + · ·L
· + ur mit ui ∈ Ui , 1 ≤ i ≤ r hat. Wir schreiben dann
U1 ⊕ · · · ⊕ Ur oder auch ri=1 Ui .
Satz 1.4.37. Seien U1 , . . . , Ur Untervektorräume von V . Dann sind folgende Bedingungen äquivalent:
(i) U1 + · · · + Ur ist direkte Summe;
P
(ii) Ui ∩ k6=i Uk = {0} für i = 1, . . . , r;
(iii) dim(U1 + · · · + Ur ) = dim U1 + · · · + dim Ur .
1.4.2
Rechnerische Probleme für Untervektorräume
Fragen
(i) Sei V ein endlich erzeugter Vektorraum und sei U = hu1 , . . . , ur i ein Untervektorraum. Sei v ∈ V .
Wie findet man rechnerisch eine Basis von U und wie entscheidet man effektiv,
ob v ∈ U ist?
(ii) Es seien U1 , U2 ⊆ V Untervektorräume. Wie berechnet man eine Basis von
U1 + U2 und wie verifiziert man, ob U1 = U2 ist?
(iii) Wie berechnet man eine Basis für U1 ∩ U2 ?
Darstellung mittels Koordinaten Im Folgenden nehmen wir an, dass V eine
Basis B = {v1 , . . . , vn } hat mit |B| = n. Betrachte die Abbildung
n
φB : K → V,
(λ1 , . . . , λn ) 7→
n
X
λk v k .
k=1
Vorsicht: Hier ist die Reihenfolge der Basiselemente wichtig! Wir nehmen im
Folgenden an, dass eine Reihenfolge fest gewählt wurde.
Lemma 1.4.38. Die Abbildung φB ist bijektiv.
Lemma 1.4.39. φB bildet Untervektorräume von K n bijektiv auf Untervektorräume
von V ab, d.h.:
n
(a) Ist U ⊆ V ein Untervektorraum, so ist Z = φ−1
B (U ) ⊆ K ein Untervektorraum;
(b) Ist Z ⊆ K n ein Untervektorraum, so ist U = φB (Z) ⊆ V ein Untervektorraum.
P
Sei U = hu1 , . . . , um i ein Untervektorraum von V , und schreibe ui = nj=1 aij vj ,
i = 1, . . . , m mit aij ∈ K. Dann ist
n
φ−1
B (ui ) = (ai1 , . . . , ain ) ∈ K .
n
Wie findet man nun eine Basis von Z = φ−1
B (U ) ⊆ K ? Es gilt
Z = {(λ1 , . . . , λm )A | λ1 , . . . , λm ∈ K}
mit

a11
 ..
A= .
···
...

a1n
.. .
. 
am1 · · · amn
19
1.4. VEKTORRÄUME
Definition 1.4.40. Gegeben sie eine m×n-Matrix A. Der Untervektorraum Z ⊆ K n
heisst Zeilenraum von A, wenn
Z = {vA | v ∈ K m }
gilt. Man schreibt auch Z = spanZ (A). Man definiert den Zeilenrang von A durch
RangZ (A) := dim spanZ (A).
Lemma 1.4.41. Sei A eine m × n-Matrix und sei à aus A hervorgegangen durch
elementare Zeilenumformungen. Dann gilt spanZ (A) = spanZ (Ã).
Korollar 1.4.42. Sei à eine reduzierte Zeilenstufenform von A so, dass die ersten
r Zeilen von à ungleich Null sind. Dann bilden die ersten r Zeilen von à eine
K-Basis von spanZ (A). Insbesondere ist r = RangZ (A).
Zurück zur ersten Frage. Diese kann so gelöst werden:
Gegeben ein Untervektorraum U = hu1 , . . . , um i, berechne zi := φ−1
B (ui ).
Wende Gauß-Elimination auf die Matrix
 
z1
 .. 
 . 
zm
an; dies liefert eine Matrix in Zeilenstufenform von Rang r. Die ersten
r Zeilen bilden dann eine Basis von φ−1
B (U ), und deren Bilder unter φB
eine Basis von U .
Verbleibt der zweite Teil der Frage: gegeben sei v ∈ V , ist v ∈ U ? Dazu betrachte z := φ−1
B (v) = (c1 , . . . , cn ). Die Bedingung v ∈ U ist nun äquivalent zu
z ∈ Z = φ−1
(U
)
= spanZ (A).
B
Lemma 1.4.43. Betrachte die erweiterte Matrix
µ ¶
A
.
à :=
z
Dann ist z in spanZ (A) genau dann, wenn RangZ (A) = RangZ (Ã) ist.
Nun zur zweiten Frage. Seien Z1 , Z2 die Zeilenräume von zwei Matrizen A1 , A2 ,
also Zi = spanZ (A
µ i ), ¶i = 1, 2. Gesucht ist nun eine Basis von Z1 + Z2 . Nun ist
A1
, womit die Gauß-Elimination wie bei der ersten Frage die
Z1 + Z2 = spanZ
A2
Antwort liefert.
Wie sieht man nun, ob Z1 = Z2 ist?
(1) Basierend auf dem ersten Lemma kann man überprüfen, ob
µ ¶
A1
RangZ (A1 ) = RangZ (A2 ) = RangZ
A2
ist. Dies ist genau dann der Fall, wenn Z1 = Z2 ist.
20
KAPITEL 1. LINEARE ALGEBRA I
(2) Alternativ kann man die reduzierte Zeilenstufenform von A1 und A2 berechnen;
seien diese mit Ã1 und Ã2 bezeichnet. Haben A1 und A2 das gleiche Format
(andernfalls füge Nullzeilen zur Matrix mit weniger Zeilen hinzu), so gilt: Genau
dann ist spanZ (A1 ) = spanZ (A2 ), wenn Ã1 = Ã2 ist:
Satz 1.4.44. Die reduzierte Zeilenstufenform einer Matrix ist eindeutig.
Korollar 1.4.45. Seien A1 , A2 ∈ Matm×n (K) zwei Matrizen mit reduzierten Zeilenstufenformen Ã1 , Ã2 , so gilt Ã1 = Ã2 genau dann, wenn spanZ (A1 ) = spanZ (A2 )
ist.
Definition 1.4.46. Sei A ∈ Matm×n (K). Der Spaltenraum von A ist spanS (A) :=
{Av | v ∈ K n } ⊆ K m ; dies ist ein K-Untervektorraum von K m . Der Spaltenrang
von A ist definiert als RangS (A) := dim spanS (A).
Satz 1.4.47. Für jede Matrix A ∈ Matm×n (K) gilt RangZ (A) = RangS (A).
Für den Beweis wird folgendes Hilfslemma benötigt:
Hilfslemma 1.4.48. Es sei à aus A hervorgegangen durch eine Reihe von Zeilenumformungen. Dann sind die Spalten i1 < · · · < is von A genau dann linear
abhängig, wenn die entsprechenden Spalten von à linear abhängig sind.
Definition 1.4.49. Der Rang von A ∈ Matm×n (A) sei definiert als
Rang(A) := RangS (A) = RangZ (A).
1.4.3
Lineare Gleichungssysteme: geometrische Interpretation
Es sei A eine m × n-Matrix mit Rang(A) = r und b ∈ K m . Wir sind interessiert an
dem linearen Gleichungssystem
Ax = b.
(∗)
Satz 1.4.50 (Existenz von Lösungen linearer Gleichungssysteme). Das
Gleichungssystem (∗) hat mindestens eine Lösung genau dann, wenn Rang(A) =
Rang(A, b) ist.
Satz 1.4.51 (Lösungsmenge linearer Gleichungssysteme). Sei s ∈ K n eine
Lösung von (∗) und H = {x ∈ K n | Ax = 0} der Lösungsraum des homogenen
Systems Ax = 0. Dann ist die allgemeine homogene Lösung H ⊆ K n ein Untervektorraum mit Dimension dim H = n − r, und die allgemeine Lösung von (∗) ist
gegeben durch
L = s + H = {s + h | h ∈ H}.
Definition 1.4.52. Sei V ein K-Vektorraum. Eine Teilmenge H ⊆ V heisst affiner
Unterraum von V , wenn es ein v ∈ V und einen Untervektorraum U ⊆ V gibt mit
H = v + U.
Insbesondere bilden also die Lösungen von (∗) einen affinen Unterrraum.
21
1.5. RINGE UND POLYNOMRINGE
1.5
Ringe und Polynomringe
Sei K ein Körper und
K[x] := {a0 + a1 x + · · · + an xn | n ∈ N, ai ∈ K, i = 0, . . . , n}.
Dann heisst K[x] der Polynomring über K in der Unbestimmten x. Man kann K[x]
als Unterraum von
K N = {(a0 , a1 , a2 , . . . ) | ai ∈ K, i ∈ N}
auffassen (Raum der Folgen mit Werten in K). In K[x] gibt es die folgenden Operationen:
• Addition: ist f = a0 + a1 x + · · · + an xn und g = b0 + b1 x + · · · + bm xm , ohne
Einschränkung sei m ≤ n, so ist f + g definiert als
(a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm + am+1 xm+1 + · · · + an xn .
Wir haben gesehen, dass K[x] eine Abelsche Gruppe ist.
• Skalarmultiplikation: ist f = a0 + a1 x + · · · + an xn und λ ∈ K, so ist
λf := (λa0 ) + (λa1 )x + · · · + (λan )xn .
Damit wird K[x] zu einem K-Vektorraum (wie wir bereits in Beispiel 1.4.2 (c)
gesehen haben).
• Man kann auf K[x] auch eine Multiplikation definieren: ist f = a0 + a1 x +
· · · + an xn und g = b0 + b1 x + · · · + bm xm , so definiere
f g :=
m+n
X
ci x
i
mit
ci :=
i=0
i
X
k=0
ak bi−k , 0 ≤ i ≤ n + m.
Mit dieser Multiplikation wird K[x] zu einem Ring:
Definition 1.5.1. Eine Menge R mit zwei inneren Verknüpfungen + und · heisst
Ring, wenn gilt:
(i) (R, +) ist eine Abelsche Gruppe;
(ii) · ist eine assoziative Verknüpfung auf R;
(iii) es gelten die Distributivgesetze r(s + t) = rs + rt und (s + t)r = sr + tr für
alle r, s, t ∈ R.
Beispiele 1.5.2.
(i) Jeder Körper ist ein Ring.
(ii) Z ist ein Ring.
(iii) Zn ist ein Ring.
(iv) Matn×n (K) ist ein Ring.
22
KAPITEL 1. LINEARE ALGEBRA I
(v) K[x] ist ein Ring.
(vi) C[x1 , . . . , xn ] (Polynomring mit n Variablen über C) ist ein Ring.
Der Ring K[x] kommt mit Einsetzungsabbildungen: Dazu sei α ∈ K. Definiere
evα : K[x] → K,
f 7→ f (α).
Diese Abbildung ist linear, d.h.
evα (f + g) = (f + g)(α) = f (α) + g(α) = evα (f ) + evα (g)
und
evα (λf ) = (λf )(α) = λf (α) = λevα (f )
für alle f, g ∈ K[x], λ ∈ K. Man sieht leicht, dass die Einsetzungsabbildungen
Ringmorphismen sind:
Definition 1.5.3. Seien R, S Ringe und f : R → S eine Abbildung. Dann heisst f
Ringhomomorphismus oder Ringmorphismus, wenn für alle a, b ∈ R gilt f (a + b) =
f (a) + f (b) und f (ab) = f (a)f (b).
Definition 1.5.4. Sei f ∈ K[x] und sei L ein Erweiterungskörper von K. Ein
Element α ∈ L heisst Nullstelle von f , wenn evα (f ) = f (α) = 0 ist.
Schliesslich besitzt jedes f ∈ K[x] einen Grad : ist f = a0 + a1 x + · · · + an xn , so
definiere grad(f ) := max{i | ai 6= 0}, wobei max ∅ := −∞ gesetzt wird. Wir können
damit die Menge
K ≤d [x] := {f ∈ K[x] | grad(f ) ≤ d}
betrachten. Es zeigt sich, dass K[x] ein (d + 1)-dimensionaler K-Vektorraum ist.
Lemma 1.5.5 (Gradformel). Es gilt grad(f g) = grad(f ) + grad(g), wobei man
−∞ + x = −∞ definiert für alle x ∈ N ∪ {−∞}.
Bemerkung 1.5.6. Weiterhin gilt grad(f + g) ≤ max{grad(f ), grad(g)}, wobei im
Falle grad(f ) 6= grad(g) Gleichheit gilt.
Man kann sich folgende fundemantale Fragen stellen:
(i) Gegeben sei f ∈ K ≤d [x]. Gesucht sind alle α ∈ K (oder alle Elemente aus
einem Erweiterungskörper) so, dass evα (f ) = f (α) = 0 ist.
In anderen Worten: Wo sind die Nullstellen von f ?
Die Antwort hierauf liefert im wesentlichen der Fundamentalsatz der Algebra
(siehe unten).
(ii) Gegeben seien α1 , . . . , αt ∈ K und β1 , . . . , βt ∈ K. Gesucht sind alle Polynome
in f ∈ K ≤d [x] mit f (αi ) = βi , 1 ≤ i ≤ t.
Die Antwort auf diese Frage wird durch Lagrange-Interpolation gegeben (siehe
unten).
Satz 1.5.7 (Fundamentalsatz der Algebra). Es sei f ∈ K[x] ein Polynom von
Grad d mit höchstem Koeffizienten 1, d.h. f = xd + ad−1 xd−1 + · · · + a1 x + a0 .
23
1.5. RINGE UND POLYNOMRINGE
(a) Es gibt höchstens d verschiedene Elemente α1 , . . . , αk ∈ F ⊇ K, wobei F ein
beliebiger Oberkörper von K ist, so dass f (αi ) = 0 ist, 1 ≤ i ≤ k.
(b) Es gibt einen Oberkörper F von K und Elemente α1 , . . . , αd ∈ F so, dass
d
Y
f=
(x − αi )
i=1
ist.
Ein Beweis wird in der Vorlesung ‘Einführung in die Algebra’ gegeben.
Weiterhin gibt es zu jeden Körper K einen Erweiterungskörper L so, dass jedes
nicht-konstante Polynom über K mindestens eine Nullstelle in L hat. Ein minimaler
solcher Körper L heisst algebraischer Abschluss von K. Kann man L = K wählen,
so heisst K algebraisch abgeschlossen.
Ist etwa K = R, so ist L = C ein algebraischer Abschluss von K. Ist dagegen
K = Q und L = C, so hat jedes Polynom mit Koeffizienten in K eine Nullstelle in
L, jedoch ist L nicht minimal.
1.5.1
Teilbarkeitstheorie
Definition 1.5.8. Seien f, g ∈ K[x].
(a) Man sagt f teilt g, wenn es ein Polynom h ∈ K[x] gibt mit g = f · h.
(b) Ein Polynom h ∈ K[x] heisst gemeinsamer Teiler von f und g, wenn h sowohl
Teiler von f als auch von g ist.
(c) Ein Polynom h ∈ K[x] heisst grösster gemeinsamer Teiler von f und g, wenn
h gemeinsamer Teiler von f und g ist und für jeden anderen gemeinsamen
Teiler h′ gilt, dass h′ ein Teiler von h ist.
Satz 1.5.9 (Polynomdivision). Seien f, g ∈ K[x] mit g 6= 0. Dann gibt es
eindeutig bestimmte Polynome q, r ∈ K[x] mit grad(r) < grad(g) so, dass f = q·g+r
ist.
Bemerkung 1.5.10 (Euklidischer Algorithmus). Seien f, g ∈ K[x] gegeben
mit g 6= 0. Setze r0 := g und r−1 := f . Berechne iterativ
ri−1 = qi+1 ri + ri+1 mit grad(ri+1 ) < grad(ri ),
i = 0, 1, 2, . . . , bis rk 6= 0 und rk+1 = 0 ist. Dann ist rk ein grösster gemeinsamer
Teiler von f und g.
Lemma 1.5.11 (Bezóut). Seien f, g ∈ K[x] mit f 6= 0 6= g. Dann gibt es
Polynome a, b ∈ K[x] so, dass af + bg ∈ K[x] ein grösster gemeinsamer Teiler
von f und g ist. Man kann a und b effektiv mit Hilfe des Euklidischen Algorithmus
berechnen.
Lemma 1.5.12. Sei f ∈ K[x] und α ∈ K. Genau dann ist f (α) = 0, wenn x − α
ein Teiler von f ist.
Definition 1.5.13. Sei f ∈ K[x] und α ∈ K. Wir sagen, α sei eine Nullstelle mit
Vielfachheit k von f , wenn (x − α)k ein Teiler von f ist, (x − α)k+1 dagegen nicht.
Q
Bemerkung 1.5.14. Kann man f = ki=1 (x − αi )ei schreiben mit paarweise verschiedenen αi ∈ L, wobei L ein Erweiterungskörper von K ist (etwa wie im Fundamentalsatz), so kann man zeigen, dass diese Darstellung bis auf Umordnung der αi
eindeutig ist, und dass ei die Vielfachheit der Nullstelle αi ist.
24
KAPITEL 1. LINEARE ALGEBRA I
Beweis des Fundamentalsatzes (Skizze) Wenn α eine Nullstelle von f in einem Oberkörper ist (also f (α) = 0), so kann man also f = (x − α) · g schreiben mit
g ∈ K[x]. Weiterhin sieht man wegen der Nullteilerfreiheit von K, dass
{β ∈ K | f (β) = 0} = {β ∈ K | g(β) = 0} ∪ {α}
ist. Per Induktion nach grad(f ) erhält man somit die erste Aussage.
Lagrange-Interpolation Es seien α1 , . . . , αk verschiedene Elemente von K und
β1 , . . . , βk beliebige Elemente in K. Dann existiert genau ein Polynom f ∈ K <k [x] :=
K ≤k−1 [x] mit f (αi ) = βi für 1 ≤ i ≤ k.
Das gesuchte Element f liegt in evα−11 (β1 ) ∩ · · · ∩ evα−1k (βk ).
Idealtheorie Sei R ein kommutativer Ring mit Eins, also etwa R = Z, R = K[x]
oder R = Zn .
Definition 1.5.15. Eine Teilmenge I ⊆ R heisst Ideal, wenn
(i) (I, +) eine Untergruppe von (R, +) ist und
(ii) für alle r ∈ R und i ∈ I bereits ri ∈ I gilt.
Beispiele 1.5.16.
(a) Ist r ∈ R, so ist rR = {rr′ | r′ ∈ R} ein Ideal. Dann ist (r) := rR das kleinste
Ideal, welches a enthält, da jedes weitere Ideal, welches a enthält, bereits (a)
umfassen muss.
(b) Sind a1 , . . . , an ∈ R, so ist (a1 , . . . , an ) := a1 R + · · · + an R = (a1 ) + · · · + (an )
das kleinste Ideal, welches a1 , . . . , an umfasst.
Beispiele 1.5.17.
(a) Im Spezialfall R = Z ist (a, b) = (c), wenn c ein grösster gemeinsamer Teiler
von a und b ist.
(b) Ebenso gilt in R = K[x], dass (f, g) = (h) ist, wenn h ein grösster gemeinsamer
Teiler von f und g ist.
1.6
Lineare Abbildungen
Definition 1.6.1. Seien V, W zwei K-Vektorräume. Eine Abbildung f : V → W
heisst (K-)linear genau dann, wenn
(i) f (v1 + v2 ) = f (v1 ) + f (v2 ) für alle v1 , v2 ∈ V und
(ii) f (λv) = λf (v) für alle λ ∈ K, v ∈ V gilt.
Man spricht auch von einem (K-linearen) Homomorphismus (strukturerhaltende
Abbildung).
25
1.6. LINEARE ABBILDUNGEN
Beispiele 1.6.2.
(a) Die R-linearen Abbildungen f : R → R sind alle von der Form x 7→ cx für
c := f (1).
(b) Ist A ∈ Matm×n (K), so definiert f : K n → K m , x 7→ Ax eine lineare Abbildung.
(c) Sei V ein n-dimensionaler Vektorraum mit Basis {v1 , . . . , vn }. Dann ist
n
φB : K → V,
(λ1 , . . . , λn ) 7→
n
X
λi v i
i=1
eine bijektive (siehe oben) lineare Abbildung.
(d) Sei V = C ∞ (R, R) der R-Vektorraum der unendlich oft stetig differenzierbaren
df
d
Abbildungen R → R. Dann ist dx
: V → V , f 7→ dx
eine R-lineare Abbildung.
Bemerkung 1.6.3. Die Bedingungen (i) und (ii) aus der Definition einer linearen
Abbildung sind äquivalent zu der Bedingung
“für alle λ1 , λ2 ∈ K und v1 , v2 ∈ V gilt f (λ1 v1 + λ2 v2 ) = λ1 f (v1 ) + λ2 f (v2 ).”
Definition 1.6.4. Sei f : V → W eine lineare Abbildung.
(a) Wir sagen, dass f ein Endomorphismus ist, wenn V = W ist.
(b) Wir sagen, dass f ein Monomorphismus ist, wenn f injektiv ist.
(c) Wir sagen, dass f ein Epimorphismus ist, wenn f surjektiv ist.
(d) Wir sagen, dass f ein Isomorphismus ist, wenn f bijektiv ist.
(e) Wir sagen, dass f ein Automorphismus ist, wenn V = W und f bijektiv ist.
Lemma 1.6.5. Sei f : V → W linear.
(i) Es gilt f (0V ) = 0W .
(ii) Es gilt f (−v) = −f (v) für alle v ∈ V .
Satz 1.6.6. Sei f : V → W eine lineare Abbildung.
(a) Falls U ⊆ V ein Untervektorraum ist, so ist f (U ) ⊆ W ebenfalls ein Untervektorraum.
(b) Ist andersherum U ′ ⊆ W ein Untervektorraum, so ist f −1 (U ′ ) ⊆ V ein Untervektorraum.
Lineare Abbildungen bilden also Untervektorräume auf Untervektorräume ab.
Einige wichtige Spezialfälle des Satzes:
• Im f := f (V ) ⊆ W ist ein Untervektorraum von W ;
• Ker f := f −1 (0) = {v ∈ V | f (v) = 0} ist ein Untervektorraum von V .
Definition 1.6.7. Sei f : V → W eine lineare Abbildung.
26
KAPITEL 1. LINEARE ALGEBRA I
(i) Der Untervektorraum Ker f = f −1 (0) = {v ∈ V | f (v) = 0} heisst Kern von
f.
(ii) Der Untervektorraum Im f = f (V ) heisst Bild von f .
Lemma 1.6.8. Eine lineare Abbildung f : V → W ist genau dann ein Monomorphismus, wenn Ker f = {0} ist.
Lemma 1.6.9. Sei I eine Indexmenge. Seien V, W Vektorräume und B = {vi | i ∈
I} eine Basis von V . Genau dann ist f ein Monomorphismus, wenn {f (vi ) | i ∈ I}
linear unabhängig ist und f (vi ) 6= f (vj ) ist für i 6= j.
Korollar 1.6.10. Es sei V ein endlichdimensionaler Vektorraum und f : V → W
ein Monomorphismus. Dann ist dim(V ) = dim(Im f ).
Lemma 1.6.11. Sei I eine Indexmenge. Seien V, W Vektorräume und B = {vi |
i ∈ I} eine Basis von V .
(a) Genau dann ist f ein Epimorphismus, wenn {f (vi ) | i ∈ I} ein Erzeugendensystem von W ist.
(b) Genau dann ist f ein Isomorphismus, wenn {f (vi ) | i ∈ I} eine Basis von W
ist und f (vi ) 6= f (vj ) ist für i 6= j.
Lemma 1.6.12. Sei die Abbildung f : K n → K m definiert durch x 7→ Ax für ein
A ∈ Matm×n (K).
(a) Genau dann ist f ein Monomorphismus, wenn n = Rang(A) ≤ m gilt.
(b) Genau dann ist f ein Epimorphismus, wenn m = Rang(A) ≤ n gilt.
(c) Genau dann ist f ein Isomorphismus, wenn n = m = Rang(A) gilt.
Korollar 1.6.13. Sei f : V → W eine lineare Abbildung. Ist f ein Monomorphismus, so gilt dim(V ) ≤ dim(W ). Ist f ein Isomorphismus, so gilt dim(V ) = dim(W ).
1.6.1
Charakterisierung von linearen Abbildungen
Satz 1.6.14. Seien V, W beliebige K-Vektorräume und I eine Indexmenge so, dass
B = {vi | i ∈ I} eine Basis von V ist, und sei T = {wi | i ∈ I} eine Teilmenge von
W . Dann gibt es genau eine lineare Abbildung f : V → W mit f (vi ) = wi für alle
i ∈ I.
Eine lineare Abbildung ist eindeutig beschrieben durch die Werte der Abbildung
auf einer Basis.
Seien V und W endlichdimensionale Vektorräume mit dim V = n und dim W =
m, sei BV = {v1 , . . . , vn } eine Basis von V und BW = {w1 , . . . , wm } eine Basis von
W . Ist f : V → W eine lineare Abbildung, so ist f nach obigen eindeutig durch
die Bilder f (vi ), i = 1, . . . , n beschrieben. Da BW eine Basis von W ist, können wir
f (vj ) als Linearkombination der wi s schreiben, etwa
f (vj ) =
m
X
i=1
aij wi ,
j = 1, . . . , n.
27
1.6. LINEARE ABBILDUNGEN
Dann ist

···
...
a11
 ..
(f (v1 ), . . . , f (vn )) = (w1 , . . . , wm ) .

a1n
.. .
. 
am1 · · · amn
Hierbei verwenden wir folgende Notation:
Sind v1 , . . . , vm Vektoren aus einem beliebigen K-Vektorraum V und ist
A = (aij )ij ∈ Matm×n (K) eine Matrix, so soll (v1 , . . . , vm )A das n-tupel
m
m
³X
´
X
aj1 vj , . . . ,
ajn vj ∈ V n
j=1
j=1
sein, wobei A = (aij ) sei.
Man nennt A := (aij ) ∈ Matm×n (K) die zu f zugehörige Transformationsmatrix
und schreibt
fBBWV := A.
Lemma 1.6.15. In der Situation von oben gilt für alle λ1 , . . . , λn ∈ K
f (λ1 v1 + · · · + λn vn ) = φBW (A(λ1 , . . . , λn )),
also insbesondere gilt
mit
f = φBW ◦ fˆ ◦ φ−1
BV
fˆ : K n → K m ,
x 7→ Ax.
Korollar 1.6.16. Es seien V und W endlichdimensionale Vektorräume und f :
V → W eine lineare Abbildung. Seien BV bzw. BW Basen von V bzw. W , und
sei dim V = n und dim W = m. Sei A = fBBWV . Dann induziert φBV : V → K n
einen Isomorphismus Ker f → {x ∈ K n | Ax = 0} und φBW : W → K m einen
Isomorphismus Im f → spanS (A). Insbesondere ist Rang(A) = dim(Im f ).
1.6.2
Der Vektorraum Hom(V, W )
Definition 1.6.17. Es seien V und W K-Vektorräume. Die Menge aller K-linearen
Abbildungen f : V → W bezeichnen wir mit Hom(V, W ).
Lemma 1.6.18. Die Menge Hom(V, W ) hat die Struktur eines K-Vektorraums,
wenn man die Addition per
(f + g)(v) := f (v) + g(v)
und die Skalarmultiplkation per
(λf )(v) := λf (v)
definiert, λ ∈ K, f, g ∈ Hom(V, W ).
Satz 1.6.19. Es seien V und W Vektorräume mit dim V = n < ∞ und dim W =
m < ∞. Sei BV = {v1 , . . . , vn } eine Basis von V und BW = {w1 , . . . , wm } eine
Basis von W . Dann ist die Abbildung
ϕ : Hom(V, W ) → Matm×n (K),
f 7→ fBBWV
ein Isomorphismus. Insbesondere gilt also
dim(Hom(V, W )) = dim(Matm×n (K)) = dim(V ) · dim(W ).
28
KAPITEL 1. LINEARE ALGEBRA I
1.6.3
Hintereinanderausführen von linearen Abbildungen
Satz 1.6.20. Seien V , W und U drei endlichdimensionale Vektorräume und seien f : V → W und g : W → U lineare Abbildungen. Sei BV eine Basis von V , BW
eine Basis von W und BU eine Basis von U . Dann gilt
(g ◦ f )BBVU = gBBUW · fBBWV .
Isomorphismen Sei f : V → W ein Isomorphismus.
Lemma 1.6.21. Die inverse Abbildung f −1 : W → V ist wieder ein Isomorphismus.
Satz 1.6.22. Sei f : V → W ein Homomorphismus zwischen endlichdimensionalen
Vektorräumen gleicher Dimension. Ist A = fBBWV die Transformationsmatrix von f ,
so ist A genau dann invertierbar, wenn f ein Isomorphismus ist.
Bemerkung 1.6.23. Wir haben gesehen, dass Hom(V, W ) isomorph zu Matm×n (K)
ist wenn dim V = n und dim W = m ist. Ist V = W , so ist Hom(V, W ) also
isomorph zu der K-Algebra Matn×n (K) (eine K-Algebra ist ein Ring, der eine zur
Ringstruktur kompatible K-Vektorraum-Struktur hat). Die Automorphismen f :
V → V entsprechen unter dem Isomorphismus Hom(V, V ) → Matn×n (K) gerade
den Elementen aus Gln (K).
Dimensionsformel für lineare Abbildungen
Satz 1.6.24 (Dimensionsformel). Sei f : V → W eine lineare Abbildung zwischen endlichdimensionalen K-Vektorräumen V und W . Dann gilt
dim(Ker f ) + dim(Im f ) = dim(V ).
1.6.4
Basiswechsel
Man hat eine lineare Abbildung f : V → W , wobei V, W endlichdimensional sind.
Sei f beschrieben in Bezug auf die Basen BV = {v1 , . . . , vn } und BW = {w1 , . . . , wm },
wobei dim V = n und dim W = m sei. Seien nun zwei weitere Basen B̂V =
{v̂1 , . . . , v̂n } von V und B̂W = {ŵ1 , . . . , ŵm } von W gegeben. Wie kann man nun
fB̂B̂V aus fBBWV und den Koordinatentransformationen berechnen?
W
Dazu sei S die Matrix, welche (v̂1 , . . . , v̂n ) = (v1 , . . . , vn )S erfüllt, also die Transformationsmatrix (IdV )B̂BVV , und sei T = (IdW )B̂BW
.
W
Satz 1.6.25. Es gilt
¡
¢−1 BV
fB̂B̂V = T −1 fBBWV S = (IdW )B̂BW
fBW (IdV )B̂BVV .
W
W
Dazu ein kleines Diagramm:
B
BV
fB V =A
W
VO
BW
T
S
B̂V
/W
O
V
f
B̂V
B̂W
=T −1 AS
/W
B̂W
29
1.6. LINEARE ABBILDUNGEN
Bemerkung 1.6.26. Sei V = W . Es macht Sinn, BV = BW und B̂V = B̂W zu
wählen. Wie sieht dann fBBVV in Bezug auf fB̂B̂V aus, wenn f : V → V ein EndomorV
phismus ist? Ist S =
IdB̂BVV
, so ist nach dem Satz
fB̂B̂V = S −1 fBBVV S.
V
Dies wirft die folgende, prinzipielle Frage auf: wenn ein Homomorphismus f :
V → W gegeben ist, wie kann man eine Basis BV von V und eine Basis BW von W
so wählen, dass fBBWV besonders “einfach” ist?
Satz 1.6.27. Seien V, W endlichdimensionale Vektorräume und sei dim V = n,
dim W = m. Ist f : V → W eine lineare Abbildung, so gibt es Basen BV von V und
BW von W so, dass mit r := dim(Im f ) gilt


1
0
 ..


.
0 


0

BV
1
fBW = 
 ∈ Matm×n (K),





0
0 
wobei der obere linke Block die Grösse r × r hat.
1.6.5
Äquivalenz von Matrizen
Definition 1.6.28. Seien A, B ∈ Matm×n (K). Wir sagen, dass A und B äquivalent
sind, wenn es invertierbare Matrizen R ∈ Glm (K) und S ∈ Gln (K) gibt mit A =
RBS.
Lemma 1.6.29. Die Äquivalenz von Matrizen ist eine Äquivalenzrelation auf der
Menge Matm×n (K).
Satz 1.6.30. Es gibt genau min{m, n}+1 Äquivalenzklassen auf Matm×n (K), welche
repräsentiert werden durch die Matrizen
¶
µ
Er 0
∈ Matm×n (K),
r ∈ {0, 1, . . . , min{m, n}}.
0 0
Korollar 1.6.31. Zwei Matrizen A, B ∈ Matm×n (K) sind genau dann äquivalent,
wenn Rang(A) = Rang(B) ist.
Ähnlichkeit für Endomorphismen Wir wollen eine weitere Äquivalenzrelation
betrachten.
Definition 1.6.32. Zwei Matrizen A, B ∈ Matn×n (K) heissen ähnlich, wenn es
eine invertierbare Matrix S ∈ Gln (K) gibt mit A = S −1 BS.
Lemma 1.6.33. Die so definierte Ähnlichkeit ist eine Äquivalenzrelation auf der
Menge Matn×n (K).
30
KAPITEL 1. LINEARE ALGEBRA I
Bemerkung 1.6.34. Zwei Matrizen A, C ∈ Matn×n (K) sind also genau dann
ähnlich, wenn es einen Endomorphismus f : K n → K n und zwei Basen B und
B̂ von K n gibt mit fBB = A und fB̂B̂ = C
Die Klassifizierung der Äquivalenzklassen ist in diesem Fall wesentlich schwieriger
als im Fall der im letzten Abschnitt definierten Äquivalenz. Dies wird erst in der
Linearen Algebra II vollständig beantwortet, und dort auch nur im Fall, dass der
Körper algebraisch abgeschlossen ist.
1.6.6
Der Dualraum eines Vektorraums
Definition 1.6.35. Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert
als V ∗ := Hom(V, K).
P
Beispiel 1.6.36. Für A ∈ Matn×n (K) mit A = (aij ) definiere Spur(A) := ni=1 aii .
Dann ist Spur ∈ Matn×n (K)∗ .
Ist V n-dimensional, so ist Hom(V, K) isomorph zu Mat1×n (K). Insbesondere ist
dann also dim V ∗ = n. Sei BV = {v1 , . . . , vn } eine Basis von V . Wenn wir die Basis
{1} von K wählen, dann ist der Isomorphismus V ∗ → Mat1×n (K) explizit gegeben
durch
f 7→ (f (v1 ), . . . , f (vn )).
Wir wählen die kanonische Basis {f1 , . . . , fn } von Mat1×n (K) mit
fi = (0, . . . , 0, 1, 0, . . . , 0),
wobei die 1 in der i-ten Komponente steht, 1 ≤ i ≤ n. Dann entsprechen die fi
über den Isomorphismus V ∗ → Hom1×n (K) den Homomorphismen fˆi : V → K, die
durch
(
1 für i = j
fˆi : V → K,
vj 7→ fi (vj ) = δij :=
0 für i 6= j
gegeben sind, 1 ≤ i ≤ n.
Definition 1.6.37. Wir bezeichnen die duale Basis zu BV mit BV∗ := {fˆ1 , . . . , fˆn }.
Wir haben also unter anderem gezeigt:
Satz 1.6.38. Ist dim V = n, so ist dim V ∗ = n. Ist BV eine Basis von V , so ist BV∗
eine Basis von V ∗ .
Der Doppeldualraum V ∗∗
Es ist
V ∗∗ = (V ∗ )∗ = {f : V ∗ → K | f linear }
der Doppeldualraum von V .
Satz 1.6.39. Durch
ϕ : V → V ∗∗ ,
v 7→ v ∗∗ :
(
V∗ →K
f 7→ f (v)
ist ein basisunabhängiger Isomorphismus gegeben.
Solche basisunabhängigen Abbildungen werden oft als natürliche Abbildungen
bezeichnet.
1.6. LINEARE ABBILDUNGEN
1.6.7
31
Determinanten
Axiomatische Definition der Determinante nach Weierstraß
Definition 1.6.40. Eine Abbildung det : Matn×n (K) → K heisst Determinante,
falls:
(i) det multilinear ist, d.h. sind v1 , . . . , vn ∈ K n und ṽi ∈ K n und sind λ, µ ∈ K,
so gilt






v1
v1
v1
..

 .. 
 .. 

.

 . 
 . 







vi−1 
vi−1 
 vi−1 






det λvi + µṽi  = λ det  vi  + µ det  ṽi ;






vi+1 
vi+1 
 vi+1 






..

 ... 
 ... 

.
vn
vn
vn
(ii) det alternierend ist, d.h. falls A zwei gleiche Zeilen hat, so ist det A = 0;
(iii) det normiert ist, d.h. det En = 1.
Satz 1.6.41 (Hauptsatz über Determinanten). Zu jedem n gibt es genau eine
Determinante det : Matn×n (K) → K.
Der Beweis wird erst später geführt. Wir wollen zunächst einige Konsequenzen
aus der Definition herleiten.
Lemma 1.6.42. Ist A ∈ Matn×n (K), λ ∈ K und det eine Determinante, so ist
det(λA) = λn det(A).
Lemma 1.6.43. Ist A eine Matrix und B eine Matrix, die durch eine elementare
Zeilenumformung von Typ 1 aus A entsteht (also durch Vertauschen zweier Zeilen),
so gilt det(B) = − det(A) für jede Determinate det.
Bemerkung 1.6.44. Die Bezeichnung “alternierend” für die Eigenschaft (ii) der
Determinatendefinition stammt aus dieser Eigenschaft.
Ist umgekehrt det : Matn×n (K) → K eine multilineare Abbildung so, dass der
Tausch zweier Zeilen zu einem Vorzeichenwechsel führt, und ist 1 + 1 6= 0 in K, so
folgt det(A) = 0.
Lemma 1.6.45. Ist λ ∈ K und entsteht B aus A durch Addition des λ-fachen
der i-ten Zeile zur j-ten Zeile (also durch eine Zeilenoperation vom Typ 3), so ist
det A = det B für jede Determinante det.
Lemma 1.6.46. Hat A ∈ Matn×n (K) eine Nullzeile, so gilt det(A) = 0 für jede
Determinante det.
Lemma 1.6.47. Ist A eine obere Dreiecksmatrix, also von der Form


λ1 ∗ · · · ∗
. . . . . . .. 

.
0
A=. .
,
.
.. .. ∗ 
 ..
0 · · · 0 λn
und ist det eine Determinante, so gilt
det(A) = λ1 · · · λn .
32
KAPITEL 1. LINEARE ALGEBRA I
Mit den vorhergehenden Lemmata folgt, dass wir die Determinante einer beliebigen Matrix effektiv ausrechnen können und das die Determinante eindeutig ist
(wenn sie denn existiert): Jede Matrix A ∈ Matn×n (K) kann durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden, und jede Zeilenstufenform
enthält entweder eine Nullzeile oder ist eine obere Dreiecksmatrix.
Bei Zeilenumformungen von Typ 1 (Vertauschen zweier Zeilen) wechselt das Vorzeichen der Determinante, bei Operationen von Typ 2 (Multiplizieren einer Zeile mit
einer Konstanten 6= 0) wird die Determinante mit dieser Konstanten multipliziert,
und bei Operationen von Typ 3 (Addition des λ-fachen einer Zeile zu einer anderen)
ändert sich die Determinante nicht. Und sobald eine Zeilenstufenform vorliegt, hat
man entweder eine Nullzeile (und die Determinante ist 0) oder eine obere Dreiecksmatrix und kann somit den Wert der Determiante ausrechen. Da diese Regeln für
alle Determinanten gelten, das Ergebnis aber unabhängig von der Determinantenfunktion ist, gibt es somit höchstens eine Determinante.
Satz 1.6.48. Sei A ∈ Matn×n (K). Angenommen, es existiere eine Determinante det. Dann sind folgende Eigenschaften äquivalent:
(i) A ist invertierbar;
(ii) die Zeilen von A sind linear unabhängig;
(iii) die Spalten von A sind linear unabhängig;
(iv) für jedes b ∈ K n hat das Gleichungssystem Ax = b eine Lösung;
(v) det(A) 6= 0;
(vi) die reduzierte Zeilenstufenform von A ist En ;
(vii) es ist Rang(A) = n.
Satz 1.6.49 (Determinantenproduktsatz). Seien A, B ∈ Matn×n (K). Ist det
eine Determinante, so gilt det(AB) = det(A) det(B).
Die symmetrische Gruppe Sn Um eine konkrete Determinantenfunktion nach
Leibniz anzugeben, benötigen wir die symmetrische Gruppe.
Definition 1.6.50. Wir bezeichnen mit Sn die Menge der bijektiven Abbildungen π :
{1, . . . , n} → {1, . . . , n}. Diese Abbildungen heissen Permutationen und Sn heisst
die symmetrische Gruppe.
Bemerkung 1.6.51. Sind π, σ ∈ Sn , so ist π ◦ σ ∈ Sn .
Satz 1.6.52. (Sn , ◦) ist eine Gruppe der Ordnung n!, wobei n! :=
von n ist.
Qn
i=1
i die Fakultät
Definition 1.6.53. Eine Permutation τ ∈ Sn heisst Transposition, wenn es Indices j, k gibt mit 1 ≤ j < k ≤ n so, dass τ (j) = k, τ (k) = j ist und τ (i) = i für
i ∈ {1, . . . , n} \ {j, k}.
Lemma 1.6.54. Jede Permutation π ∈ Sn lässt sich als endliches Produkt von
Transpositionen schreiben.
33
1.6. LINEARE ABBILDUNGEN
Bemerkungen 1.6.55.
(1) Es ist sogar möglich, eine beliebige Permutation als Produkt von benachbarten
Transpositionen zu schreiben, also von Transpositionen τ mit τ (i) = i + 1 und
τ (i + 1) = i für ein i.
(2) Die Darstellung als Produkt von Transpositionen ist nicht eindeutig, und ebensowenig die Anzahl der Faktoren in der Darstellung.
Definition 1.6.56. Sei π ∈ Sn eine Permutation. Ein Fehlstand von π ist ein
Paar (i, j) mit 1 ≤ i < j ≤ n so, dass π(i) > π(j) ist.
Definition 1.6.57. Das Signum einer Permutation π ∈ Sn ist sign(π) := (−1)s ,
wobei s die Anzahl der Fehlstände von π sei.
Bemerkung 1.6.58. Für jede Transposition τ ∈ Sn gilt sign(τ ) = −1.
Lemma 1.6.59. Für π ∈ Sn gilt
sign(π) =
σ(j) − σ(i)
.
j−i
1≤i<j≤n
Y
Satz 1.6.60. Für alle σ, τ ∈ Sn gilt sign(τ ◦ σ) = sign(τ ) · sign(σ).
Bemerkung 1.6.61. Sind G, H Gruppen und ist f : G → H eine Abbildung mit
f (gh) = f (g)f (h) für alle g, h ∈ G, so sagt man, dass f ein Gruppenhomomorphismus ist. Damit ist sign : Sn → {−1, 1} ein Gruppenhomomorphismus.
Man kann zeigen, dass für Gruppenhomomorphismen Ker f = {g ∈ G | f (g) =
eH } eine Untergruppe von G ist. Diese Untergruppe wird mit An bezeichnet und die
alternierende Gruppe genannt. Für n > 1 gilt |An | = 21 n!:
Sei σ ∈ Sn \ An ; betrachte dann die Abbildung ϕ : An → Sn , τ 7→ στ . Man
rechnet leicht nach, dass ϕ(An ) = Sn \ An ist und dass ϕ bijektiv ist. Damit folgt
|An | = |S2n | = 12 n!.
Existenz der Determinante nach Leibniz
Satz 1.6.62. Zu einer Matrix A = (aij ) ∈ Matn×n (K) definiere
X
det(A) :=
sign(σ)a1σ(1) · · · anσ(n) .
σ∈Sn
Dann ist det : Matn×n (K) → K eine Determinante.
Die Transponierte
Definition 1.6.63. Sei A = (aij ) ∈ Matm×n (K). Dann ist die Transponierte von
A definiert als At = (bij ) ∈ Matn×m (K) mit bij := aji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Satz 1.6.64. Es gilt det(At ) = det(A).
Lemma 1.6.65. Es sei A ∈ Matn×n (K) eine Blockdiagonalmatrix, d.h. von der
Form


A1
0


A2


A=
,
...


0
Am
Pm
wobei Ai ∈ Matni ×ni (K) ist mit i=1 ni = n. Dann gilt
det(A) = det(A1 ) · · · det(Am ).
34
KAPITEL 1. LINEARE ALGEBRA I
Laplace-Entwicklung Zu einer Matrix A = (aij ) ∈ Matn×n (K) und zu i, j ∈
{1, . . . , n} definiere

und
a11
 ..
 .

ai−1,1

Aij :=  0

ai+1,1
 .
 ..
an1

a11
 ..
 .

a
Âij :=  i−1,1
ai+1,1
 .
 ..
an1
···
...
a1,j−1
..
.
0
..
.
· · · ai−1,j−1
···
0
· · · ai+1,j−1
..
...
.
· · · an,j−1
···
...
a1,j−1
..
.
a1,j+1
..
.
0 ai−1,j+1
1
0
0 ai+1,j+1
..
..
.
.
0 an,j+1
a1,j+1
..
.
···
...
· · · ai−1,j−1 ai−1,j+1 · · ·
· · · ai+1,j−1 ai+1,j+1 · · ·
..
..
...
...
.
.
· · · an,j−1
an,j+1 · · ·
···
...
···
···
···
...
···

a1,n
.. 
. 

ai−1,n 

0  ∈ Matn×n (K)

ai+1,n 
.. 
. 
ann

a1,n
.. 
. 

ai−1,n 
 ∈ Mat(n−1)×(n−1) (K).
ai+1,n 
.. 
. 
ann
Lemma 1.6.66. Es ist det(Aij ) = (−1)i+j det(Âij ).
Satz 1.6.67 (Laplace-Entwicklung). Sei A = (aij ) ∈ Matn×n (K). Dann gilt für
jedes i ∈ {1, . . . , n}
n
X
det(A) =
aij (−1)i+j det(Âij )
j=1
und für jedes j ∈ {1, . . . , n}
det(A) =
n
X
aij (−1)i+j det(Âij ).
i=1
Die erste Formel wird als Laplace-Entwicklung nach der j-ten Spalte bezeichnet, und
die zweite als Laplace-Entwicklung nach der i-ten Zeile.
Cramersche Regel Sei A ∈ Matn×n (K) und b ∈ K n . Wir interessieren uns für
eine explizite Lösung des Gleichungssystems
Ax = b.
(∗)
Definiere die Abbildung f : K n → K n , x 7→ Ax. Wir wissen, dass folgende Bedingungen äquivalent sind:
(i) (∗) hat eine eindeutige Lösung für jedes b ∈ K n ;
(ii) A ist invertierbar;
(iii) Ker f = {0};
(iv) det(A) 6= 0;
(v) Rang(A) = n;
1.7. EIGENWERTE UND EIGENVEKTOREN
35
(vi) die reduzierte Zeilenstufenform von A ist En ;
(vii) f ist ein Automorphismus;
(viii) der Zeilenraum von A ist K n ;
(ix) der Spaltenraum von A ist K n .
Sei A = (a1 , . . . , an ), wobei ai die i-te Spalte von A sei. Dann schreibt sich Ax = b
als
n
X
xj aj = b.
j=1
Satz 1.6.68 (Cramersche Regel). Ist A = (a1 , . . . , an ) ∈ Gln (K) eine invertierbare Matrix, und ist b ∈ K n , so hat das lineare Gleichungssystem Ax = b genau eine
Lösung x = (x1 , . . . , xn ) ∈ K n , und falls det eine Determinante ist, so gilt
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )
xi =
.
det A
Insbesondere kann man mittels der Cramerschen Regel auch das Inverse A−1
einer invertierbaren Matrix A ∈ Gln (A) bestimmen.
1.6.8
Matrizen über Ringen
Wie sieht es aus, wenn man Matrizen über einem kommutativen Ring R mit Eins
definiert? Man kann genauso wie bei Körpern eine Determinantenabbildung det :
Matn×n (R) → R definieren.
Sei R ein Ring, der kein Körper ist und mindestens zwei Elemente enthält. Dann
gibt es Matrizen A ∈ Matn×n (R) mit det A 6= 0, die nicht invertierbar sind: ist
etwa a ∈ R \ {0} keine Einheit, also gibt es kein b ∈ R mit ab = 1, so wähle


a
0

 1


A=
.
.
.

. 
0
1
Der Determinantenproduktsatz zeigt, dass für invertierbare Matrizen A ∈ Gln (R)
gilt, dass det(A) ∈ R∗ := {a ∈ R | ∃b ∈ R : ab = 1} ist. Ist nun A ∈ Matn×n (R) mit
det A ∈ R∗ , so kann man mit der Cramerschen Regel eine Matrix B ∈ Matn×n (R)
bestimmen mit AB = En . Daraus folgt also A ∈ Gln (R). Man erhält also
Gln (R) = {A ∈ Matn×n (R) | det(A) ∈ R∗ }.
1.7
Eigenwerte und Eigenvektoren
Es sei V ein K-Vektorraum und f : V → V ein Endomorphismus.
Definition 1.7.1. Ein Vektor v ∈ V heisst Eigenvektor von f zum Eigenwert λ ∈
K, wenn v 6= 0 ist und f (v) = λv ist.
36
KAPITEL 1. LINEARE ALGEBRA I
Bemerkung 1.7.2. Sei V ein endlichdimensionaler Vektorraum und BV eine Basis
von V . Ist f : V → V ein Endomorphismus, so ist fBBVV genau dann eine Diagonalmatrix, wenn die Vektoren in V Eigenvektoren von f sind. Die Eigenwerte der
Eigenvektoren sind dann die zugehörigen Einträge auf der Diagonalen von fBBVV .
Definition 1.7.3. Ist A ∈ Matn×n (K) und v ∈ K n , so heisst v Eigenvektor zum
Eigenwert λ ∈ K, wenn v 6= 0 ist und Av = λv ist.
Bemerkung 1.7.4. Zu A ∈ Matn×n (K) definiere f : K n → K n , x 7→ Ax. Genau
dann ist v ∈ K n ein Eigenvektor zu f mit Eigenwert λ ∈ K, wenn v ein Eigenvektor
zu A mit Eigenwert λ ist.
Definition 1.7.5. Sei A ∈ Matn×n (K). Dann heisst
pA (x) := det(xEn − A) ∈ K[x]
das charakteristische Polynom von A.
Bemerkung 1.7.6. Hier wird die Determinate über dem Ring R = K[x] ausgerechnet.
Lemma 1.7.7. Genau dann ist λ ∈ K ein Eigenwert von A ∈ Matn×n (K), wenn
pA (λ) = 0 ist.
Lemma 1.7.8. Das charakeristische Polynom pA einer Matrix A ist ein normiertes
Polynom von Grad n, d.h. pA (x) = xn + an−1 xn−1 + · · · + a1 x + a0 . Es gilt an−1 =
− Spur(A) und a0 = (−1)n det(A).
Satz 1.7.9. Sind λ1 , . . . , λk paarweise verschiedene Eigenwerte von A ∈ Matn×n (K)
und sind v1 , . . . , vk ∈ K n zugehörige Eigenvektoren, so ist das System {v1 , . . . , vn }
linear unabhängig.
Korollar 1.7.10. Ist A ∈ Matn×n (K) eine Matrix mit n paarweise verschiedenen
Eigenwerten, so gibt es eine Matrix S ∈ Gln (K) so, dass S −1 AS eine Diagonalmatrix ist, auf deren Diagonalen genau die Eigenwerte stehen.
Korollar 1.7.11. Ist dim V = n und f : V → V ein Endomorphismus mit n paarweise verschiedenen Eigenwerten, so gibt es eine Basis V , die aus Eigenvektoren
von f besteht.
Einsetzen von Matrizen in Polynomen Sei f ∈ K[x] ein Polynom und A ∈
Matn×n (K).
Definition 1.7.12. Ist f (x) = a0 + a1 x + · · · + an xn , so setze f (A) := En + a1 A +
· · · + an An .
Bemerkung 1.7.13. Man kann dies ebenso für Potenzreihen definieren, etwa eA :=
2
3
En + A + A2 + A6 + . . . .
Satz 1.7.14. Seien f, g ∈ K[x] und sei A ∈ Matn×n (K) mit n paarweise verschiedenen Eigenwerten λ1 , . . . , λn ∈ K. Genau dann gilt f (A) = g(A), wenn f (λi ) = g(λi ),
1 ≤ i ≤ n gilt.
Kapitel 2
Lineare Algebra II
37
38
KAPITEL 2. LINEARE ALGEBRA II
Ist A ∈ Matm×n (K) eine Matrix, so induziert diese einen Endomorphismus
ϕ : K n → K n,
v 7→ Av.
Wir definieren
ker A := ker ϕ
und
Im A := Im ϕ = spanS A
als den Kern und das Bild der Matrix A.
2.1
Basiswechsel bei Endomorphismen
Das Ziel dieses Abschnittes ist es, zur Jordan-Zerlegung eines Endomorphismus zu
gelangen.
Sei V ein K-Vektorraum und f : V → V ein Endomorphismus. Wir nehmen an,
dass dim V = n < ∞ ist. Sei BV = {v1 , . . . , vn } eine Basis von V und A := fBBVV die
Darstellungsmatrix von A bezüglich BV , d.h.
(f (v1 ), . . . , f (vn )) = (v1 , . . . , vn )A.
Sei B̂V eine zweite Basis von V und  := fB̂B̂V .
V
Wir haben gesehen, dass mit S := (IdV )B̂BVV gilt
 = S −1 AS.
Das Ziel ist es, eine Basis B̂V zu finden so, dass  möglichst einfach wird.
Definition 2.1.1. Eine Matrix A ∈ Matn×n (K) heisst diagonalisierbar, wenn es
ein S ∈ Gln (K) gibt so, dass S −1 AS eine Diagonalmatrix ist, also wenn es Elemente λ1 , . . . , λn ∈ K gibt mit


λ1 0 · · · 0
. . . . . . .. 

.
0
−1
S AS =  . .
.
.
.. .. 0 
 ..
0 · · · 0 λn
Ein Endomorphismus f : V → V heisst diagonalisierbar, wenn für irgendeine Basis BV von V die Matrix fBBVV diagonalisierbar ist.
Bemerkungen 2.1.2.
(a) Wir werden sehen, dass λ1 , . . . , λn in diesem Fall die Eigenwerte von A sein
werden.
(b) Sind A, A′ ∈ Matn×n (K) ähnlich, so ist A genau dann diagonalisierbar, wenn A′
diagonalisierbar ist.
(c) Ist f : V → V ein Endomorphismus, und sind BV und B̂V Basen von f , so
ist nach obigen fBBVV und fB̂B̂V ähnlich. Die Definition von diagonalisierbar für
V
Endomorphismen ist also unabhängig von der Wahl der Basis.
Satz 2.1.3. Ein Endomorphismus f : V → V ist genau dann diagonalisierbar, wenn
V eine Basis bestehend aus Eigenvektoren von f besitzt.
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
39
Beweis. Ist BV = {v1 , . . . , vn } eine Basis von V und gibt es λi ∈ K mit f (vi ) = λi vi ,
i = 1, . . . , n, so ist


λ1
0


...
fBBVV = 
.
0
λn
Ist andersherum f diagonalisierbar, so gibt es eine Basis BV = {v1 , . . . , vn } von
V so, dass fBBVV Diagonalmatrix ist, etwa


fBBVV = 
λ1
0
...
0
λn


.
Dann gilt jedoch f (vi ) = λi vi , i = 1, . . . , n, womit v1 , . . . , vn Eigenvektoren von f
sind.
Wann hat V eine Basis von Eigenvektoren von f ? Wenn f genau n paarweise
verschiedene Eigenwerte hat, so ist f nach Korollar 1.7.10 diagonalisierbar: hat f
die Eigenwerte
¡ λ1 , . . . , λ¢n ∈ K und ist vi ∈ V ein Eigenvektor zu λi , i = 1, . . . , n, so
gilt mit S = v1 , . . . , vn , dass


λ1
0


...
S −1 AS = 

0
λn
ist.
Beispiele 2.1.4. Sei hier K = R.
¶
µ
3 −2
und V = R2 . Es ist pA (x) := det(xE2 − A) = x2 −
(1) Sei A =
−2 3
6x + 5 = (x − 5)(x − 1). Also hat A zweiµverschiedene
Eigenwerte und ist somit
¶
−1
ein Eigenvektor zum Eigenwert 5
diagonalisierbar. Man sieht schnell, dass
1
¶
µ
µ ¶
−1 1
1
gilt
ein Eigenvektor zum Eigenwert 1 ist, womit mit S =
und
1 1
1
S
(2) Sei
−1
AS =
µ
¶
5 0
.
0 1

3 −2 0
A := −2 3 0
0
0 1

und V = R3 . Dann ist pA (x) := det(xE3 −A) = (x−5)(x−1)2 , womit A nicht drei
paarweise
  Eigenwerte hat. Jedoch ist A trotzdem diagonalisierbar:

 verschiedene
0
1



es sind 1 und 0 zwei linear unabhängige Eigenvektoren zum Eigenwert 1
1
0
40
KAPITEL 2. LINEARE ALGEBRA II

−1
und  1  ein Eigenvektor zum Eigenwert
0

−1 1
S= 1 1
0 0

gilt
5, womit mit

0
0
1


5 0 0
S −1 AS = 0 1 0.
0 0 1
(3) Sei
A=
µ
cos α − sin α
sin α cos α
¶
mit α ∈ (0, π) und sei V = R2 . Damit ist pA (x) := det(xE2 − A) = x2 −
2 cos αx + 1. Dieses Polynom hat zwei echt komplexe Nullstellen, womit diese
Matrix über R nicht diagonalisiert werden kann. Über K = C (und V = C2 )
jedoch ist pA (x) = (x − λ1 )(x − λ2 ) mit
√
λ1,2 = cos α ± cos2 α − 1 = e±iα ,
und mit passendem S ist
S
−1
AS =
µ
¶
eiα
0
.
0 e−iα
¶
1 1
und V = R2 . Dann ist pA (x) := det(xE2 −A) = (x−1)2 , jedoch
(4) Sei A =
0 1
µ ¶
0
(da Ker(A − E2 )
ist jeder Eigenvektor zum Eigenwert 1 ein Vielfaches von
1
von diesem Vektor erzeugt wird); damit besitzt V keine Basis bestehend aus
Eigenvektoren von A, und A kann folglich nicht diagonalisiert werden.
µ
Man bemerke, dass hier die Wahl K = C und V = C2 nicht weiterhilft, da dort
immernoch dim Ker(A − E2 ) = 1 < 2 ist.
Sei eine Matrix A ∈ Matn×n (K) gegeben. Gesucht ist ein K-Vektorraum V , eine
Basis BV von V und ein Endomorphismus f : V → V mit fBBVV = A.
Dazu wählt man beispielsweise V = K n und f : V → V , v 7→ Av. Ist dann BV =
{e1 , . . . , en }, wobei n = dim V ist und e1 , . . . , en die Standardeinheitsbasisvektoren
von V sind, so ist
fBBVV = A.
2.1.1
Eigenräume
Sei f : V → V ein Endomorphismus und λ ∈ K beliebig. Sei weiter A ∈ Matn×n (K).
Definition 2.1.5. Es heisst
Eig(f, λ) := {v ∈ V | f (v) = λv}
der Eigenraum von f bezüglich λ.
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Bemerkung 2.1.6. Sei A =
µ
41
¶
1 1
und f : R2 → R2 , v 7→ Av. Dann ist
0 1
µ ¶
1
i
Eig(f, 1) = h
0
und
Eig(f, λ) = {0} für alle λ 6= 1.
Definition 2.1.7. Es heisst
Eig(A, λ) := {x ∈ K n | Ax = λx}
der Eigenraum von A bezüglich λ.
Lemma 2.1.8. Es sind
Eig(f, λ) ⊆ V
und
Eig(A, λ) ⊆ K n
Untervektorräume. Weiterhin gilt
Eig(f, λ) 6= {0}
genau dann, wenn λ ein Eigenwert von f ist.
Beweis. Man sieht sofort, dass 0 ∈ Eig(f, λ) ist, da f (0) = 0 = λ · 0 ist. Sind
v1 , v2 ∈ Eig(f, λ) und c1 , c2 ∈ K, so gilt
f (c1 v1 + c2 v2 ) = c1 f (v1 ) + c2 f (v2 ) = c1 λv1 + c2 λv2 = λ(c1 v1 + c2 v2 ),
womit c1 v1 + c2 v2 ∈ Eig(f, λ) ist. Damit ist Eig(f, λ) ⊆ V ein Unterraum.
Analog zeigt man, dass Eig(A, λ) ⊆ K n ein Unterraum ist. Schliesslich gilt
λ Eigenvektor
⇐⇒ ∃v ∈ V \ {0} : f (v) = λv
⇐⇒ Eig(f, λ) 6= {0}.
Definition 2.1.9. Sei ein Endomorphismus f : V → V und λ ∈ K gegeben. Dann
wird
µG (f, λ) := dim Eig(f, λ)
die geometrische Multiplizität oder geometrische Vielfachheit des Eigenwerts λ von
f genannt.
Bemerkung 2.1.10. Es gilt µG (f, λ) ≥ 1 genau dann, wenn λ ein Eigenwert von f
ist.
Definition 2.1.11. Sei A ∈ Matn×n (K). Wir definieren µG (A, λ) := dim Eig(A, λ)
als die geometrische Multiplizität oder geometrische Vielfachheit des Eigenwerts λ
von A.
Definition 2.1.12. Das charakteristische Polynom pA (x) ∈ K[x] von A ist definiert
als
pA (x) := det(xEn − A).
Man nennt
µA (A, λ) := max{r ∈ N | (x − λ)r teilt pA (x)}
die algebraische Multiplizität oder algebraische Vielfachheit von A bezüglich λ.
42
KAPITEL 2. LINEARE ALGEBRA II
¶
1 1
. Dann ist
Beispiel 2.1.13. Sei A =
0 1
(
1 falls λ = 1
µG (A, λ) =
0 sonst
µ
und wegen pA (x) = (x − 1)2 ist
(
2 falls λ = 1
µA (A, λ) =
0 sonst.
Beispiele 2.1.14.
(a) Sei

3 −2 0
A = −2 3 0 ∈ Mat3×3 (Q);
0
0 1

wir haben gesehen, dass pA (x) = (x − 5)(x − 1)2 ist, und dass


1 falls λ = 5,
µG (λ) = 2 falls λ = 1,


0 sonst
ist. Hier gilt also µA (A, λ) = µG (A, λ) für alle λ ∈ K.
(b) Sei A ∈ Mat28×28 (Q) eine Matrix mit pA (x) = (x − 1)5 (x − 3)6 (x − 5)17 . Dann
ist

5 falls λ = 1,



6 falls λ = 3,
µA (λ) =

17 falls λ = 5,



0 sonst.
Wir nehmen im Folgenden immer an, dass pA (x) über K in Linearfaktoren
zerfällt, d.h. es gibt λ1 , . . . , λn ∈ K mit
pA (x) =
n
Y
(x − λi ).
i=1
Beispiel 2.1.15. Das Polynom x2 +1 ∈ R[x] zerfällt über R nicht in Linearfaktoren,
jedoch über C, da dort x2 + 1 = (x + i)(x − i) ist.
Bemerkung 2.1.16. Nach dem Fundamentalsatz der Algebra 1.5.7 gibt es zu jedem
Körper K und jedem Polynom f ∈ K[x] einen Erweiterungskörper L ⊇ K, über den
f in Linearfaktoren zerfällt. Ist K = R oder K = Q, so kann immer L = C gewählt
werden.
Lemma 2.1.17. Seien λ1 , . . . , λk paarweise verschiedene Elemente aus K. Dann ist
k
M
i=1
eine direkte Summe.
Eig(A, λi )
43
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Beweis.
Wir zeigen dies per Induktion nach k. Für k = 1 ist dies klar. Sei v ∈
Pk
Eig(A,
λi ) mit v = v̂1 + · · · + v̂k = ṽ1 + · · · + ṽk mit v̂i , ṽi ∈ Eig(A, λi ),
i=1
i = 1, . . . , k. Es ist zu zeigen, dass v̂i = ṽi ist für i = 1, . . . , k. Nun ist
0 = v − v = (ṽ1 − v̂1 ) + · · · + (ṽk − v̂k ) = v1 + · · · + vk
mit vi := ṽi − v̂i ∈ Eig(A, λi ). Es reicht also zu zeigen, dass v1 = · · · = vk = 0 ist.
Nun ist
0 = (λ1 En − A)0 = (λ1 En − A)v1 + (λ1 En − A)v2 + · · · + (λ1 En − A)vk
= (λ1 − λ1 ) v1 + (λ1 − λ2 ) v2 + · · · + (λ1 − λk ) vk .
| {z }
| {z }
| {z }
=0
6=0
6=0
Wendet man die Induktionsvoraussetzung auf λ2 , . . . , λk an, so erhält man (λ1 −
λi )vi = 0, i = 2, . . . , k, und da λ1 − λi 6= 0 für i = 2, . . . , k folgt vi = 0 für
i = 2, . . . , k. Damit ist auch 0 = v1 , womit wir fertig sind.
Lemma 2.1.18. Sei A ∈ Matn×n (K) und S ∈ Gln (K). Dann ist pA (x) = pS −1 AS (x).
Beweis. Es ist
pA (x) = det(xEn − A) = det(xSS −1 − S(S −1 AS)S −1 )
= det(S · (xEn − S −1 AS)S −1 ) = det S · pA (x) · det S −1 .
Nun ist det S · det S −1 = det(SS −1 ) = det En = 1, womit die Behauptung folgt.
Korollar 2.1.19. Sei A ∈ Matn×n (K) mit den Eigenwerten λ1 , . . . , λn . Dann ist
Spur A =
n
X
λi
und
det A =
i=1
n
Y
λi .
i=1
Insbesondere sind Spur A und det A invariant unter Basiswechseln.
Beweis. Sei
pA (x) =
n
Y
i=1
n
(x − λi ) = x −
n
³X
i=1
n
´
Y
n−1
n
λi x
+ · · · + (−1)
λi .
i=1
Weiterhin ist
pA (x) = det(xEn − A) = xn − (Spur A)xn−1 + · · · + det(−A).
Da det(−A) = (−1)n det A ist folgt also die Behauptung.
Lemma 2.1.20. Für alle λ gilt µG (A, λ) ≤ µA (A, λ).
Beweis. Sei v1 , . . . , vk ∈ K n eine Basis von Eig(A, λ) und seien vk+1 , . . . , vn ∈ K n so
gewählt, dass v1 , . . . , vn eine Basis von K n ist. Durch einen passenden Basiswechsel
erhalten wir (beachte, die algebraische Vielfachheit nach dem vorherigen Lemma
44
KAPITEL 2. LINEARE ALGEBRA II
nicht von der gewählten Basis abhängt) vi = ei , der i-te Standardeinheitsbasisvektor.
Damit ist


λ 0 ··· 0


.
. . . ..
∗ 
.
0 . .

. .

 ..
.. ... 0



A=
0
·
·
·
0
λ



0 · · · · · · 0



.
.
..
 ..
A′ 
0 ··· ··· 0
und somit
pA (x) = det(xEn − A)

x − λ 0 ···
0
..

... ...
.
 0
 .
.
.
 ..
..
..
0


= det  0
··· 0 x − λ
 0
··· ···
0

 .
..
 ..
.
0
··· ···
0
∗
xEn−k − A′
Insbesondere ist jedoch µA (A, λ) ≥ k = µG (A, λ).






 = (x − λ)k pA′ (x).





Satz 2.1.21. Angenommen, pA (x) zerfalle über K in Linearfaktoren. Genau dann
ist A diagonalisierbar, wenn µA (A, λ) = µG (A, λ) für alle λ ∈ K gilt.
Beweis. Seien λ1 , . . . , λk die verschiedenen Eigenwerte von A. Dann ist
k
Y
pA (x) =
(x − λi )µA (A,λi )
i=1
und es gilt
k
X
µA (A, λi ) = n = grad pA (x).
i=1
Gilt nun µA (A, λ) = µG (A, λ) für alle λ ∈ K, so hat man dim Eig(A, λi ) =
µA (A, λi ) für i = 1, . . . , k. Wir zeigen
n
K =
k
M
Eig(A, λi ),
i=1
woraus folgt, dass K n eine Basis bestehend aus Eigenvektoren von A besitzt und
somit A diagonalisierbar ist.
Pk
Nun wissen wir, dass
dim Eig(A, λi ) = n = dim K n ist, und nach dem
i=1
Lk
ersten vorherigen Lemma ist i=1 Eig(A, λi ) ⊆ K n eine direkte Summe, also
dim
k
M
Eig(A, λi ) =
i=1
Damit ist
Lk
i=1
Eig(A, λi ) = K n .
k
X
i=1
dim Eig(A, λi ) = n.
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
45
n
Nun zur Rückrichtung. Wenn A diagonalisierbar
Lk ist, so hat K eine Basis beste-n
hend aus Eigenvektoren von A. Damit enthält i=1 Eig(A, λi ) eine Basis von K
L
P
und somit muss ki=1 Eig(A, λi ) = K n sein, also auch n = ki=1 dim Eig(A, λi ) =
Pk
λ ). Da nach dem vorherigen Lemma µG (A, λi ) ≤ µA (A, λi ) ist und
i=1 µG (A,
Pk i
ebenfalls i=1 µA (A, λi ) = n ist, muss also µG (A, λi ) = µA (A, λi ) sein für alle i.
2.1.2
Jordan-Zerlegung
Wir nehmen an, dass wir eine Matrix A ∈ Matn×n (K) haben und den zugehörigen
Endomorphismus f : K n → K n , v 7→ Av. Dann ist A = fBB mit B = {e1 , . . . , en },
wobei e1 , . . . , en die Standardeinheitsbasisvektoren sind.
Wir nehmen an, dass pA (x) über K in Linearfaktoren zerfällt, etwa
pA (x) =
k
Y
i=1
(x − λi )µi ,
wobei die λ1 , . . . , λk paarweise verschieden seien und µi ∈ N>0 , i = 1, . . . , k. Damit
sind λ1 , . . . , λk alle Eigenwerte von A mit algebraischen Vielfachheiten µA (A, λi ) =
µi .
Im letzten Abschnitt haben wir gesehen, dass A genau dann diagonalisierbar ist,
wenn
k
M
Kn =
Eig(A, λi )
i=1
ist. Die Summe auf der rechten Seite ist immer direkt, im Allgemeinen ist sie jedoch
ein echter Untervektorraum von K n .
Definition 2.1.22. Sei λ ∈ K. Dann heisst
VEig(A, λ) := {v ∈ K n | ∃s ∈ N : (λEn − A)s v = 0}
der verallgemeinerte Eigenraum oder Hauptraum von A bezüglich λ.
Bemerkung 2.1.23. Man hat immer Eig(A, λ) ⊆ VEig(A, λ).
¶
µ
5 7
∈ Mat2×2 (Q). Dann ist pA (x) = (x − 5)2 . Es ist
Beispiel 2.1.24. Sei A =
0 5
µ ¶
1
i
Eig(A, 5) = h
0
und
VEig(A, 5) = Q2 ,
da (5E2 − A)2 = 0 ist.
Definition 2.1.25. Sei f : V → V ein Endomorphismus und W ⊆ V ein Untervektorraum. Wir sagen, dass W f -invariant sei, wenn f (W ) ⊆ W gilt. Ist A ∈
Matn×n (K) und f : K n → K n , v 7→ Av der zugehörige Endomorphismus, so heisst
W A-invariant, wenn W f -invariant ist.
Bemerkung 2.1.26. Ist W := VEig(A, λ) und G := λEn −A, so ist W G-invariant.
Allgemeiner gilt:
46
KAPITEL 2. LINEARE ALGEBRA II
Lemma 2.1.27. Seien λ, λ′ ∈ K und V = VEig(A, λ). Dann ist V A-invariant und
(A − λ′ En )-invariant.
P ¡¢
Beweis. Dazu beachte, dass (λEn − A)s = si=0 si λi (−A)s−i ist und somit
s
s µ ¶
X
s
λi (−1)s−i As−i+1
i
i=0
s µ ¶
X
s i
=A
λ (−A)s−i = A(λEn − A)s
i
i=0
(λEn − A) A =
ist; ist also v ∈ VEig(A, λ), und s ∈ N mit (λEn − A)s v = 0, so ist
(λEn − A)s Av = A(λEn − A)s v = A · 0 = 0,
also Av ∈ VEig(A, λ). Ebenso zeigt man, dass (λEn − A)s (A − λ′ En ) = (A −
λ′ En )(λEn − A)s ist, womit die V -Invarianz von A − λ′ En folgt.
Lemma 2.1.28. Für jedes λ ∈ K besitzt VEig(A, λ) ein A-invariantes Komplement,
d.h. es gibt einen A-invarianten Untervektorraum W ⊆ K n mit VEig(A, λ) ⊕ W =
K n . Es gibt ein s ∈ N so, dass man W = Im(A − λEn )s wählen kann.
Beispiel 2.1.29. Sei
Dann ist

5 7 0
A := 0 5 0 ∈ Mat3×3 (Q).
0 0 3

 
1

Eig(A, 5) = h 0i
0
und wie man leicht sieht, ist
und
   
0
1



VEig(A, 5) = h 0 , 1i,
0
0
 
0

h 0i
1
ein A-invarianter Unterraum. Damit ist
 
0

VEig(A, 5) ⊕ h 0i = Q3 .
1
Beweis des Lemmas. Betrachte G := λEn − A. Wir betrachten die folgenden zwei
Ketten von Untervektorräumen:
(i) {0} ⊆ Ker G ⊆ Ker G2 ⊆ Ker G3 ⊆ . . . und
(ii) K n ⊇ Im G ⊇ Im G2 ⊇ Im G3 ⊇ . . . .
Es gilt Ker Gi ⊆ VEig(A, λ) für alle i ∈ N. Sei s ∈ N ein Index mit Im Gs = Im Gs+1 ;
ein solches s muss es geben, da dim K n = n < ∞ ist.
Nun gilt Im Gs+i = Im Gs für alle i ∈ N: wir zeigen dies per Induktion. Gelte die
Behauptung für alle i < j; dann ist
Im Gs+j = Im GGs+j−1 = G Im Gs+j−1 = G Im Gs = Im Gs+1 = Im Gs .
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
47
Wegen der Dimensionsformel (Satz 1.6.24) gilt
dim Ker Gs+i = n − dim Im Gs+i = n − dim Im Gs = dim Ker Gs
für alle i ∈ N, womit Ker Gs+i = Ker Gs gilt für alle i ∈ N. Damit ist insbesondere Ker Gs+i = VEig(A, λ) für alle i ∈ N.
Insbesondere gilt also
dim VEig(A, λ) + dim Im Gs = n.
Nun ist V := Im Gs G-invariant; es gilt sogar GV = V . Damit ist
AV = (A − λEn + λEn )V ⊆ (A − λEn )V + λEn V = GV + λV = V.
Wegen GV = V ist auch Gs V = V , weswegen die Einschränkung Gs |V : V → V surjektiv und somit, da V endlichdimensional ist, ebenfalls injektiv ist. Da Ker(Gs |V ) =
Ker Gs ∩ V ist, ist somit VEig(A, λ) ∩ V = Ker Gs ∩ V = {0}. Damit und mit
dim V + dim VEig(A, λ) = n folgt K n = V ⊕ VEig(A, λ).
Lemma 2.1.30. Seien λ, λ′ ∈ K mit λ 6= λ′ . Dann ist
(A − λEn )|VEig(A,λ′ ) : VEig(A, λ′ ) → VEig(A, λ′ )
ein Isomorphismus, und VEig(A, λ) ∩ VEig(A, λ′ ) = {0}.
Beweis. Sei v ∈ VEig(A, λ′ ) mit (A − λEn )v = 0. Per Definition gibt es ein s ∈ N
mit (A − λ′ En )s v = 0. Nun ist jedoch
0 = (A − λ′ En )s v = ((A − λEn ) + (λ − λ′ )En )s v
s µ ¶
X
s
=
(A − λEn )i ((λ − λ′ )En )s−i v = (λ − λ′ )s v,
i
i=0
da
(A − λEn )i ((λ − λ′ )En )s−i v = (λ − λ′ )s−i (A − λEn )i v = (λ − λ′ )s−i 0 = 0
ist für alle i > 0. Nun ist jedoch λ − λ′ 6= 0, womit v = 0 sein muss. Somit ist
(A − λEn )|VEig(A,λ′ ) injektiv und (da es ein Endomorphismus endlichdimensionaler
Vektorräume ist) bijektiv.
Ist nun v ∈ VEig(A, λ) ∩ VEig(A, λ′ ), so gilt (A − λEn )s v = 0 für ein s ∈ N. Sei s
minimal gewählt mit dieser Eigenschaft. Ist s > 0, so ist (A − λEn )s−1 v ∈ Ker(A −
λEn ), und (A − λEn )s−1 v ∈ VEig(A, λ′ ) da VEig(A, λ′ ) A-invariant und somit auch
(A−λEn )s−1 -invariant ist. Nach obiger Rechnung ist dann jedoch (A−λEn )s−1 v = 0,
ein Widerspruch zur Minimalität von s. Somit muss s = 0 sein und damit v = 0.
Lemma 2.1.31. Sind λ, λ′ ∈ K mit λ 6= λ′ , und ist K n = VEig(A, λ) ⊕ V mit
einem A-invarianten Unterraum V von K n , so gilt VEig(A, λ′ ) ⊆ V .
Beweis. Sei v ∈ VEig(A, λ′ ). Schreibe v = v1 + v2 mit v1 ∈ VEig(A, λ) und v2 ∈ V .
Nun ist (A − λ′ )s v = 0 für ein s ∈ N, womit (da VEig(A, λ) und V A-invariant sind)
(A−λ′ )s v1 = 0 und (A−λ′ )s v2 = 0 ist. Also ist v1 ∈ VEig(A, λ)∩VEig(A, λ′ ) = {0},
womit v = v2 ∈ V ist.
48
KAPITEL 2. LINEARE ALGEBRA II
Lemma 2.1.32. Sei A ∈ Matn×n (K).
(a) Sei W ⊆ K n ein A-invarianter Untervektorraum. Das charakteristische Polynom von A|W teilt das charakteristische Polynom von A. Zerfällt also das charakteristische Polynom von A in Linearfaktoren, so auch das charakteristische
Polynom von A|W .
(b) Sei λ ein Eigenwert von A. Dann gilt µA (A, λ) = dim VEig(A, λ), und
pA|VEig(A,λ) (x) = (x − λ)dim VEig(A,λ) .
Wir benutzen im Beweis von Teil (b) des Lemmas die Aussage, dass jede Matrix A ∈ Matn×n (K) mit n > 0 einen Eigenwert hat. Dazu ist es eventuell nötig,
den Körper K zu erweitern (etwa von R nach C überzugehen, oder allgemein zu einem algebraischen Abschluss von K). Im Beweis zeigt sich jedoch, dass jeder solche
Eigenwert bereits in K liegt.
Weiterhin wollen wir folgende Abkürzung einführen: ist A ∈ Matn×n (K) eine
Matrix, so definiert diese einen Endomorphismus K n → K n , v 7→ Av. Ist nun U ⊆
K n ein Untervektorraum mit Au ∈ U für alle u ∈ U (oder anders geschrieben AU ⊆
U , also U ist A-invariant), so schreiben wir A|U sowohl für die Einschränkung dieses
induzierten Endomorphismus auf U , also für den Endomorphismus U → U , u 7→ Au,
als auch für eine Darstellungsmatrix dieses Endomorphismus für eine (beliebige,
aber fest gewählte) Basis von U . Die konkrete Form der Darstellungsmatrix (die
von der gewählten Basis abhängt) ist für die nächsten beiden Beweise (und auch
später, wenn diese Notation erneut verwendet wird) unwichtig; daher wollen wir
auf die technisch korrekte, aber umständliche Behandlung dieses Problems durch
Basiswechselmatrizen etc. verzichten.
Beweis.
(a) Sei {v1 , . . . , vk } eine Basis von W , die zu einer Basis {v1 , . . . , vk , vk+1 , . . . , vn }
von K n fortgesetzt sei. Sei A|W die Darstellungsmatrix von A eingeschränkt
auf W bezüglich der Basis {v1 , . . . , vk }; dann hat die Darstellungsmatrix von A
bezüglich der Basis {v1 , . . . , vn } die Form
¶
µ
A|W B
0
C
mit B ∈ Matk×(n−k) (K) und C ∈ Mat(n−k)×(n−k) (K). Insbesondere gilt dann
¶
µ
xEk − A|W
−B
pA (x) = det(xEn − A) = det
0
xEn−k − C
= det(xEk − A|W ) · det(xEn−k − C) = pA|W (x)pC (x).
(b) Sei W ⊆ K n ein A-invarianter Untervektorraum mit K n = VEig(A, λ)⊕W (siehe Lemma 2.1.28). Nun ist pA|W (λ) 6= 0, da ansonsten A|W den Eigenwert λ hätte
und somit W ∩ Eig(A, λ) 6= {0} wäre. Es gilt also µA (A, λ) ≤ dim VEig(A, λ).
Ist λ′ ein Eigenwert (möglicherweise in einem Erweiterungskörper von K) von
A|VEig(A,λ) mit einem Eigenvektor v, so gibt es ein s ∈ N mit (A − λEn )s v = 0.
Nun ist jedoch (A − λEn )v = (λ′ − λ)v und somit
0 = (A − λEn )s v = (λ′ − λ)s v,
womit λ′ − λ = 0 sein muss. Damit hat A|VEig(A,λ) das charakteristische Polynom pA|VEig(A,λ) (x) = (x − λ)dim VEig(A,λ) , und da dieses nach Teil (a) pA (x) teilt,
folgt µ(A, λ) ≥ dim VEig(A, λ).
49
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Satz 2.1.33 (Hauptsatz der Hauptraumzerlegung). Sei A ∈ Matn×n (K)
so, dass das charakteristische Polynom pA (x) in Linearfaktoren zerfalle, und seien
λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von A. Dann gilt
Kn =
k
M
VEig(A, λi ).
i=1
Beweis. Wir beweisen die Aussage per Induktion nach n. Wir benutzen hier unter
anderen, dass die Einschränkung eines Endomorphismus auf einen Vektorraum von
Dimension > 0 mindestens einen Eigenwert hat, dass also aus k = 0 folgt, dass
n = 0 sein muss.
L
Ist n = 0, so hat A keinen Eigenwert und damit gilt K n = {0} = 0i=1 VEig(A, λi ).
Sei n > 0. Nach Lemma 2.1.28 ist K n = VEig(A, λ1 ) ⊕ R1 , wobei R1 A-invariant
ist. Betrachte A1 := A|R1 : R1 → R1 , v 7→ Av. Nach Lemma 2.1.32 ist
k
Y
(x − λi )dim VEig(A,λi ) = pA (x) = pA|VEig(A,λ1 ) (x) · pA|R1 (x)
i=1
= (x − λ1 )dim VEig(A,λ1 ) · pA|R1 (x),
womit A|R1 gerade die Eigenwerte λ2 , . . . , λn hat und das charakteristische Polynom
von A|R1 in Linearfaktoren zerfällt. Nach Induktionsvoraussetzung gilt also
R1 =
k
M
VEig(A|R1 , λi ).
i=2
Nun ist VEig(A|R1 , λi ) = VEig(A, λi ) ∩ R1 = VEig(A, λi ) für i = 2, . . . , k nach
Lemma 2.1.31. Damit ist
n
K = VEig(A, λ1 ) ⊕
2.1.3
k
M
VEig(A, λi ) =
i=2
k
M
VEig(A, λi ).
i=1
Geometrische Interpretation der verallgemeinerten Eigenräume und Bemerkungen zur Numerik
In diesem Abschnitt sei stets K = R.
Betrachte A : K n → K n , v 7→ Av. Seien λ1 , . . . , λk die Eigenwerte von A und
VEig(A, λ1 ), . . . , VEig(A, λk ) die verallgemeinerten Eigenräume von A. Ist v = v1 +
· · · + vk mit vi ∈ VEig(A, λi ), so interessiert uns die Folge der Vektoren
{v, Av, A2 v, A3 v, . . . , A10000 v, . . . } ⊆ V.
Besonders interessant ist auch die Folge der Geraden
{hvi, hAvi, hA2 vi, . . . }.
Ohne Einschränkung wählen wir v ∈ VEig(A, λ) für ein λ ∈ {λ1 , . . . , λk }. Man
kann zeigen, dass die Folge der Geraden {hAi vi | i ∈ N} gegen eine Gerade im
Eigenraum Eig(A, λ) konvergiert.
50
KAPITEL 2. LINEARE ALGEBRA II
¶
λ 0
mit λ ∈ R \ {0}. Diese Matrix hat nur einen
Beispiel 2.1.34. Sei A =
1 λ
µ ¶
0
i und VEig(A, λ) = R2 . Sei v0 =
Eigenwert, nämlich λ, und Eig(A, λ) = h
1
µ ¶
x0
6∈ Eig(A, λ) ein beliebiger Vektor. Wir betrachten die Folge
y0
µ
vn+1
µ
¶
xn+1
:=
:= Avn = An+1 v0 ,
yn+1
n ∈ N.
Die Steigung der Geraden hvn+1 i = hAn+1 v0 i beträgt
yn+1
xn + λyn
yn
1
=
=
+ .
xn+1
λxn
xn λ
Die Steigung geht also gegen ∞ (falls λ > 0) bzw. −∞ (falls λ < 0), die Gerade
konvergiert also gegen die y-Achse (welche gleich dem Eigenraum Eig(A, λ) ist).
Beispiel 2.1.35. Sei


5 7 0
A = 0 5 0.
0 0 3
Was passiert mit einer beliebigen Gerade hv0 i mit
 
x0
v0 :=  y0  ∈ R3 \ {0},
z0
wenn man die Folge hvn i, n ∈ N mit vn := An v0 betrachtet?
Es ist
 
   
0
0
1





und
VEig(A, 3) = h 0i,
VEig(A, 5) = h 0 , 1 i
1
0
0
womit v = v1 + v2 ist mit
 
 
x0
0
v1 =  y0  ∈ VEig(A, 5) und v2 =  0  ∈ VEig(A, 3) = Eig(A, 3).
0
z0
Damit ist
An v = An v1 + An v2 = An v1 + 3n v2 .
Hier konvergiert hAn v1 i gegen
 
1
Eig(A, 5) = h0i.
0
In der Numerik werden mit solchen Iterationen die “grössten” Eigenwerte und
damit die verallgemeinerten Eigenräume von λi berechnet.
51
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
2.1.4
Eine algebraische Interpretation der Zerlegung in verallgemeinerte Eigenräume
Nach der geometrischen, numerischen Interpretation der verallgemeinerten Eigenräume
aus dem letzten Abschnitt, die nur für Körper wie R oder C funktioniert, wollen wir
nun eine rein algebraische Interpretation angeben, die über jeden Körper funktioniert. Sei A ∈ Matn×n (K).
Lemma 2.1.36. Ist W ⊆ K n ein A-invarianter Untervektorraum und ist W ∩
VEig(A, λ) 6= {0} für ein λ ∈ K, so ist W ∩ Eig(A, λ) 6= {0}.
Beweis. Sei v ∈ VEig(A, λ) ∩ W , v 6= 0. Dann gibt es ein s ∈ N mit (A − λ)s v = 0.
Sei s minimal mit dieser Eigenschaft; insbesondere sei also (A − λ)s−1 v 6= 0. Da
(A − λ)[(A − λ)s−1 v] = (A − λ)s v = 0
ist, ist somit (A − λ)s−1 v ∈ Eig(A, λ) \ {0}, und da W A-invariant und somit auch
(A − λ)-invariant ist, ist ebenfalls (A − λ)s−1 v ∈ W .
Bemerkung 2.1.37. Lemma 2.1.36 besagt, dass insbesondere jeder nicht-triviale
W -invariante Untervektorraum von VEig(A, λ) den Eigenraum Eig(A, λ) nicht-trivial
schneidet.
Man kann es als die algebraische Interpretation der Konvergenz aus dem letzten
Abschnitt auffassen: die Geradenschar hAn vi, n ∈ N kann man durch den von allen
diesen Geraden erzeugen Untervektorraum W := hv, Av, A2 v, . . .i ersetzen: dieser
ist A-invariant. Schneidet er nun einen verallgemeinerten Eigenraum, so muss er
auch dessen darin enthaltenden Eigenraum schneiden: die Geraden konvergieren also
sozusagen gegen eine Gerade, die durch Eigenvektoren beschrieben werden kann.
Lemma 2.1.38. Seien λ1 , . . . , λk ∈ K paarweise verschiedene Elemente und
W ⊆
k
M
VEig(A, λi )
i=1
ein A-invarianter Untervektorraum. Dann gilt
k
M
W =
(VEig(A, λi ) ∩ W ).
i=1
Beweis. Das die Summen direkt sind folgt aus Satz 2.1.33. Die Inklusion “⊇” ist
ebenfalls klar.
Wie üblich zeigen wir dies per Induktion nach k. Sei w ∈ W und schreibe
w=
k
X
vi
i=1
mit vi ∈ VEig(A, λi ).
Sei s ∈ N mit (A − λk En )s vk = 0. Nun ist
s
(A − λk En ) w =
k
X
i=1
s
(A − λk En ) vi =
k−1
X
i=1
(A − λk En )s vi .
52
KAPITEL 2. LINEARE ALGEBRA II
Nun sind W und die VEig(A, λi ), 1 ≤ i ≤ k jeweils (A − λk En )-invariant, womit
(A−λk En )s vi ∈ VEig(A, λi ) und (A−λk En )s ∈ W ist. Per Induktionsvoraussetzung
folgt nun (A − λk En )s vi ∈ W ∩ VEig(A, λi ), 1 ≤ i < k.
Nun ist G := A − λk En auf VEig(A, λi ), i < k ein Automorphismus, und da W ∩
VEig(A, λi ) G|VEig(A,λi ) -invariant ist, folgt G(W ∩ VEig(A, λi )) = W ∩ VEig(A, λi ).
Insbesondere folgt aus Gs vi ∈ VEig(A, λi ) ∩ W , dass auch vi ∈ W ∩ VEig(A, λi ) ist,
1 ≤ i < k. Schliesslich ist auch
vk = w −
k−1
X
i=1
vi ∈ W,
womit wir fertig sind.
Bemerkung 2.1.39. Lemma 2.1.38 besagt, dass man A-invariante Untervektorräume näher unterteilen kann, indem man deren Schnitte mit den verallgemeinerten
Eigenräumen betrachtet: diese zusammen ergeben wieder den ganzen A-invarianten
Unterraum.
Der folgende Satz gibt nun eine Interpretation der Hauptraumzerlegung als die
feinste A-invariante Zerlegung mit der Eigenschaft aus Lemma 2.1.38:
Satz 2.1.40. L
Seien λ1 , . . . , λk ∈ K paarweise verschiedene Elemente und seien
W1 , . . . , Wℓ ⊆ ki=1 VEig(A, λi ) A-invariante Untervektorräume so, dass
Lℓ
(i)
j=1 Wj eine direkte Summe ist; und dass
(ii) für jeden A-invarianten Untervektorraum W ⊆
Lℓ
j=1
Wj gilt
ℓ
M
W =
(Wj ∩ W ).
(∗)
j=1
Dann gibt es zu jedem j ∈ {1, . . . , ℓ} eine natürliche Zahl nj ∈ N und Indices 1 ≤
ij1 < · · · < ijnj ≤ k mit
Wj =
nj
M
VEig(A, λiji ),
i=1
1 ≤ j ≤ ℓ.
Somit ist die Hauptraum-Zerlegung also die L
feinste Zerlegung, welche die Eigenschaft (∗) für A-invariante Unterräume W ⊆ ki=1 VEig(A, λi ) erfüllt.
Beweis. Wegen der Zerlegungseigenschaft ist
VEig(A, λi ) =
ℓ
M
(VEig(A, λi ) ∩ Wj ).
j=1
Wir wollen zuerst zeigen, dass es höchstens ein j gibt mit VEig(A, λi ) ∩ Wj 6= {0}.
Dazu nehmen wir an, dass es zwei solche Indices 1 ≤ j1 < j2 ≤ ℓ mit VEig(A, λi )∩
Wj1 6= {0} 6= VEig(A, λi ) ∩ Wj2 gibt. Nach Lemma 2.1.36 gibt es dann vt ∈
(Eig(A, λi ) ∩ Wjt ) \ {0}, t = 1, 2. Betrachte den eindimensionalen Unterraum W :=
L
span{v1 +v2 } ⊆ Eig(A, λi ); dieser ist insbesondere A-invariant und liegt in ℓj=1 Wj .
53
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Da v1 + v2 6∈ Wj1 und v1 + v2 6∈ Wj2 , jedoch v1 + v2 ∈ Wj1 ⊕ Wj2 ist, kann jedoch
nicht
ℓ
M
W =
(Wj ∩ W )
j=1
gelten, ein Widerspruch.
Somit gilt entweder VEig(A, λi ) ∩ Wj = {0} oder VEig(A, λi ) ⊆ Wj für alle i
und j. Wegen der Zerlegungseigenschaft der Haupträume (Lemma 2.1.38) gilt somit
k
M
Wj =
(VEig(A, λi ) ∩ Wj ) =
i=1
M
VEig(A, λi ),
VEig(A,λi )⊆Wj
was zu zeigen war.
2.1.5
Die Jordansche Normalform
Sei A eine Matrix mit
k
Y
pA (x) =
(x − λi )µA (A,λi ) ,
i=1
λ1 , . . . , λm ∈ K paarweise verschieden. Wir haben gesehen, dass dann
n
K =
k
M
VEig(A, λi )
i=1
gilt. Dazu korrespondiert eine Basis B von K n so, dass mit der Basiswechselmatrix S = (IdK n )BS gilt (hier ist S = {e1 , . . . , en } die Standardbasis des K n )


B1
0


B2


 = S −1 AS = 

.
.


.
0
Bk
wobei Bi eine quadratische Matrix der Grösse dim VEig(A, λi ) ist und der Einschränkung von A auf VEig(A, λi ) entspricht. Wir wollen im folgenden sehen, dass
sich B so wählen lässt, dass die Bi eine sehr einfache Form haben.
Im Folgenden sei B eine µ × µ-Matrix mit genau einem Eigenwert λ. Wir definieren N := λEµ − B.
Lemma 2.1.41. Die Matrix N ist nilpotent, es gibt also ein k ∈ N mit N k = 0.
Beweis. Betrachte die Sequenz von Unterräumen
{0} ⊆ Ker N ⊆ Ker N 2 ⊆ Ker N 3 ⊆ . . .
S
Nun ist k∈N Ker N k = VEig(B, λ) = K µ . Weiterhin kann Ker N k nur für endlich
viele k echt grösser werden (da dim Ker N k ∈ {1, . . . , µ} monoton steigt), womit es
ein k ∈ N gibt mit Ker N k = K µ . Aber dies bedeutet gerade, dass N k = 0 ist.
Definition 2.1.42. Sei N eine nilpotente Matrix. Dann heisst
d := min{k ∈ N | N k = 0}
der Nilpotenzindex von N .
54
KAPITEL 2. LINEARE ALGEBRA II
Bemerkung 2.1.43. Ist N ∈ Matn×n (K) nilpotent, so ist der Nilpotenzindex ≤ n.
Beweis. Sei d der Nilpotenzindex von N . Betrachte die aufsteigende Sequenz
{0} = Ker N 0 ⊆ Ker N 1 ⊆ Ker N 2 ⊆ · · · ⊆ Ker N d = K n .
Ist nun Ker N i = Ker N i+1 für ein i, so gilt Ker N i+2 = Ker N i und somit, per
Induktion, Ker N i+j = Ker N i für alle j ∈ N. Damit muss Ker N i $ Ker N i+1 gelten
für i = 0, . . . , d − 1, und
n = dim K n = dim Ker N d ≥ dim Ker N d−1 + 1
≥ dim Ker N d−2 + 2 ≥ · · · ≥ Ker N 0 + d = d.
Lemma 2.1.44. Ist N ∈ Matn×n (K) eine nilpotente Matrix, so ist En − N invertierbar.
Beweis. Sei d der Nilpotenzindex von N . Dann ist
(En − N ) ·
d−1
X
i
N =
i=0
d−1
X
i=0
i
N −
d−1
X
i=0
N i+1 = N 0 − N d = En .
Lemma 2.1.45. Sei N eine nilpotente Matrix und es sei v ∈ K n mit N d−1 v 6= 0.
Dann ist {v, N v, . . . , N d−1 v} linear unabhängig.
Beweis. Sei
0=
d−1
X
ci N i v
i=0
mit c0 , . . . , cd−1 ∈ K. Damit ist
0=N
d−1
0=
d−1
X
ci N d−1+i v = c0 N d−1 v,
i=0
womit c0 = 0 sein muss da N d−1 v 6= 0 ist. Weiter ist
0=N
d−2
0=
d−1
X
ci N d−2+i v = c1 N d−1 v,
i=1
womit c1 = 0 folgt, und durch Anwenden von N d−3 , . . . , N, En erhält man c2 = · · · =
cd = 0.
Definition 2.1.46. Ein Jordan-Block
r × r-Matrix Jr (λ), λ ∈ K der Form

λ

0
.
Jr (λ) := 
 ..
.
 ..
oder Jordan-Kästchen der Grösse r ist eine
1
...
...
0 ···

0 ··· 0
. . . . . . .. 
.

... ...
0
.

... ...
1
··· 0 λ
55
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Eine Jordanmatrix ist eine Blockdiagonalmatrix der Form


Jr1 (λ1 )
0


...


0
Jrk (λk )
mit r1 , . . . , rk ∈ N und λ1 , . . . , λk ∈ K (nicht notwendigerweise verschieden).
Beispiel 2.1.47. Die Matrix

λ 1
0 λ

J =

0
0



λ 1 0

0 λ 1
0 0 λ
ist eine Jordanmatrix und N = A − λE5 ist nilpotent mit Nilpotenzindex 3.
Das Ziel der Jordanzerlegung ist es, eine Basis B von K n zu finden so, dass
S AS eine Jordanmatrix ist, wobei S = (IdK n )BS die Basiswechselmatrix von der
Standardbasis S = {e1 , . . . , en } zu der Basis B ist.
Wir wollen dies zuerst für eine nilpotente Matrix N = B − λEµ durchführen;
indem wir dies für jedes Ni = Bi − λEµi durchführen, erhalten wir eine Basis B von
K n mit  = S −1 AS einer Jordanmatrix, S = (IdK n )BS .
Wir betrachten die zwei Ketten von Untervektorräumen
−1
{0} = Ker N 0 $ Ker N $ Ker N 2 $ · · · $ Ker N d−1 $ Ker N d = K µ
und
K n = Im N 0 % Im N % Im N 2 % · · · % Im N d−1 % Im N d = {0}.
Es gilt immer dim Ker N i + dim Im N i = µ, i = 0, . . . , d; imµAllgemeinen
gilt jedoch
¶
0 1
.)
nicht Ker N i + Im N i = K µ . (Betrachte zum Beispiel N =
0 0
Es sei Si := Im N i−1 ∩ Ker N , i = 1, . . . , d. Dann gilt
Ker N = S1 ⊇ S2 ⊇ · · · ⊇ Sd 6= {0}.
(Beachte, dass Sd 6= {0} ist, da Im N d−1 ⊆ Ker N gilt wegen N Im N d−1 = Im N d =
Im 0 = {0}.)
In Sd wähle eine Basis
Bd = {x1i | i = 1, . . . , nd }
mit nd = dim Sd . Da x1i ∈ Im N d−1 gibt es xdi ∈ K µ mit N d−1 xdi = x1i . Definiere xki :=
N d−k xdi , k = 1, . . . , d − 1.
Erweitere nun die Basis Bd von Sd zu einer Basis
Bd−1 = {x11 , . . . , x1nd , y11 , . . . , yn1 d−1 }
von Sd−1 mit nd−1 + nd = dim Sd−1 . Finde wieder y1d−1 , . . . , ynd−1
mit N d−2 yid−1 = yi1 ,
d−1
i = 1, . . . , nd−1 und definiere yiℓ := N d−1−ℓ yid−1 , ℓ = 1, . . . , d − 2.
56
KAPITEL 2. LINEARE ALGEBRA II
Fährt man so fort, so erhält man ein Schema wie folgt:
Sd :
xdi
Sd−1 :
xid−1
Sd−2 :
xid−2
..
.
..
.
..
.
..
.
..
S1 :
x1i
yj1
zk1
···
a1ℓ
···
0
²
²
yjd−1
²
yjd−2
²
zkd−2
²
²
²
²
0
²
0
0
.
²
Hier zeigen Pfeile nach unten (↓) eine Anwendung von N an.
Wir behaupten nun, dass die Gesamtheit der Vektoren in diesem Schema (ausser
der letzten Zeile mit den Nullvektoren) eine Basis von K µ bildet.
Pd Eine notwendige
Bedingung ist, dass ihre Anzahl gleich µ ist. Die Anzahl ist i=1 dim Si . Betrachte
die lineare Abbildung
ϕ : Ker N i → Im N i−1 ∩ Ker N,
v 7→ N i−1 v.
Da Ker N i−1 ⊆ Ker N i ist Ker N i−1 = Ker ϕ, womit nach der Dimensionsformel 1.6.24 dim Ker N i − dim Ker N i−1 = dim Im ϕ ist. Ist nun v ∈ Im N i−1 ∩ Ker N ,
so gibt es ein w ∈ V mit N i−1 w = v, und es gilt N i w = N N i−1 w = N v = 0. Damit
ist w ∈ Ker N i , womit ϕ(w) = v ist. Also ist Im ϕ = Im N i−1 ∩ Ker N und somit ist
dim Si = dim(Im N i−1 ∩ Ker N ) = dim Ker N i − dim Ker N i−1 .
Daraus wiederum folgt
d
X
i=1
dim Si = dim Ker N d − dim Ker N 0 = dim K µ − dim{0} = µ,
was zu zeigen war. Es reicht also zu zeigen, dass die Vektoren linear unabhängig
sind.
Sei
nd−1 d−1
nd X
d
X
XX
k
ci,k xi +
dj,k yjk + · · · = 0
i=1 k=1
j=1 k=1
mit ci,k , dj,k , . . . ∈ K. Multipliziert man diese Gleichung mit N d−1 , so erhält man
nd
X
ci,d x1i = 0,
i=1
womit ci,d = 0 ist für i = 1, . . . , nd . Multipliziert man die Gleichung mit N d−2 , so
erhält man
nd−1
nd
X
X
1
ci,d−1 xi +
cj,d−1 yj1 = 0,
i=1
j=1
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
57
womit ci,d−1 = dj,d−1 = 0 ist für i = 1, . . . , nd und j = 1, . . . , nd−1 . So fortfahrend
erhält man schliesslich, dass alle Koeffizienten gleich 0 sind.
Schliesslich rechnet man noch leicht nach, dass die Darstellungsmatrix von B
bezüglich dieser neuen Basis gerade in Jordanscher Normalform ist: Da N xti = xt−1
i
ist für t = 1, . . . , d und N x1i = 0, ist somit Bxti = λxti + xt−1
,
t
=
1,
.
.
.
,
d
und
i
Bx1i = λx1i . Damit hat die Einschränkung von B auf span{x1i , x2i , . . . , xdi } bezüglich
der Basis {x1i , . . . , xdi } die Darstellungsmatrix Jd (λ). Folglich liefern die xti genau
nd Jordankästchen der Grösse d zum Eigenwert λ. Genauso liefern die yjs genau
nd−1 Jordankästchen der Grösse d − 1 zum Eigenwert λ, etc.
Damit haben wir einen Grossteil des Beweises von folgendem Satz erledigt:
Satz 2.1.48 (Satz über die Jordansche Normalform). Zerfällt das charakteristische Polynom von A ∈ Matn×n (K) in Linearfaktoren, so besitzt A eine Jordansche
Normalform, d.h. es gibt eine Transformationsmatrix T ∈ Gln (K) so, dass T −1 AT
in Jordanform ist. Die Jordansche Normalform ist eindeutig bis auf die Reihenfolge
der Kästchen.
Beweis. Es verbleibt, die Eindeutigkeit zu zeigen. Es reicht wieder aus, sich auf den
Fall A = B zu beschränken, also den Fall pA (x) = (x − λ)µ . Ist S ∈ Glµ (K) mit
S −1 AS in Jordanscher Normalform, etwa


Jr1 (λ)


...
S −1 AS = 
,
Jrk (λ)
so setze N := S −1 AS − λEµ . Nun ist
j
dim ker N =
k
X
dim ker Jri (λ)j ,
i=1
und
(
j + 1 wenn j < ri ,
dim ker Jri (λ)j =
ri
sonst.
Daraus folgt, dass dim ker N j+1 − dim ker N j die Anzahl der Jordan-Kästchen der
Grösse > j ist für j ∈ N. Somit ist die Anzahl und die Grösse der Kästchen bis
auf Reihenfolge bereits eindeutig durch dim ker N j = dim ker(B − λEµ )j , j ∈ N
bestimmt.
Definition 2.1.49. Sei A ∈ Matn×n (K) und sei λ ∈ K. Der Nilpotenzindex von A
zum Eigenwert λ sei der Nilpotenzindex von (A−λEn )|VEig(A,λ) . Ist λ kein Eigenwert,
so ist der Nilpotenzindex A zu λ als 0 definiert.
Lemma 2.1.50. Der Nilpotenzindex nλ zum Eigenwert λ von A ∈ Matn×n (K) ist
die Grösse des grössten Jordan-Kästchens zu λ in einer Jordanschen Normalform
von A.
Beweis. Der Nilpotenzindex des Eigenwertes λ von A ist der Nilpotenzindex der
Einschränkung von A−λEn auf VEig(A, λ), und diese ist nach Satz 2.1.48 bezüglich
einer passenden Basis von der Form


Jr1 (0)
0


...
N := 

0
Jrk (0)
58
KAPITEL 2. LINEARE ALGEBRA II
mit r1 , . . . , rk ∈ N. Nun ist


Nℓ = 
Jr1 (0)ℓ
...
0
Jrk (0)ℓ


,
d.h. N ℓ = 0 ist genau dann der Fall, wenn Jri (0)ℓ = 0 ist für 1 ≤ i ≤ k. Nun rechnet
man jedoch leicht nach, dass der Nilpotenxindex von Jr (0) gerade r ist, womit die
Behauptung folgt.
2.1.6
Funktionen von Matrizen
Sei f = am xm + · · · + a1 x + a0 ∈ K[x] und A ∈ Matn×n (K). Dann definiert man
f (A) := am Am + · · · + a1 A + a0 En ∈ Matn×n (K).
Die Definition kann erweitert werden für analytischen Funktionen1 , falls man über
den reellen oder komplexen Zahlen arbeitet; beispielsweise ist
1
1
eA = En + A + A2 + A3 + . . .
2
6
für A ∈ Matn×n (C).
Es verbleibt das Problem, wie man z.B. eA in endlich vielen Schritten für eine konkrete Matrix A ausrechenn kann.
Bemerkung 2.1.51. Ist f : U → C analytisch, so müssen alle Eigenwerte von A in
U liegen, damit f (A) berechnet werden kann. Dazu bestimmt man eine Hauptraumzerlegung
k
M
n
K =
VEig(A, λi )
i=1
und berechnet f (A|VEig(A,λi ) ) für jedes i separat. ZurPBerechnung von f (A|VEig(A,λi ) )
∞
′
j
wählt man eine Potenzreihendarstellung
f (z ′ ) =
i=0 aj (z − z) so, dass λi im
P∞
Konvergenzbereich von j=0 aj (z ′ − z)j liegt.
Satz 2.1.52. Sei A ∈ Matn×n (K) so, dass pA (x) über K in Linearfaktoren zerfällt.
Dann besitzt A eine eindeutige Zerlegung A = D + N mit
• D ∈ Matn×n (K) is diagonalisierbar,
• N ∈ Matn×n (K) is nilpotent und
• DN = N D.
Beweis von Satz 2.1.52, Teil 1. Wir zeigen zuerst die Existenz. Es gibt ein S ∈
Gln (K) so, dass


Jr1 (λ1 )


...
S −1 AS = 

Jrk (λk )
1
Sei U ⊆ R oder U ⊆ C offen. Eine Funktion f : U → R oder f : U → C heisst analytisch,
wenn es zu jedem Punkt P
z ∈ U ein r > 0 und eine Folge (aj )j∈N gibt so, dass für alle z ′ ∈ U mit
∞
′
′
|z − z| < r gilt f (z ) = j=0 aj (z ′ − z)j . Beachte, dass jedes Polynom f ∈ R[x] bzw. f ∈ C[x]
eine analytische Funktion f : R → R bzw. f : C → C definiert.
59
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
in Jordanscher Normalform ist. Nun gilt
Jr (λ) = λEr + Nr
mit

0 1
0 ··· 0
.
 .. . .
. . . . . . . .. 
.
.
... ... 
.
Nr := 
0
.
,


.
.
. . 1
 ..
0 ··· ··· ··· 0

und es ist (λEr )Nr = Nr (λEr ). Mit


λ1 Er1


...
D̂ := 

λk Erk
und

Nr 1

N̂ := 

...
Nr k


ist also S −1 AS = N̂ + D̂ und N̂ D̂ = D̂N̂ . Mit D := S D̂S −1 und N := S N̂ S −1 ist
also
A = S(D̂ + N̂ )S −1 = D + N
und
N D = S N̂ D̂S −1 = S D̂N̂ S −1 = DN.
Da D̂ Diagonalmatrix ist, ist D diagonalisierbar, und da die Ni nilpotent sind, ist
auch N̂ und somit N nilpotent.
Alternativ kann man auch mit der Hauptraumzerlegung arbeiten: es ist
n
K =
k
M
VEig(A, λi )
i=1
und mit Bi := A|VEig(A,λi ) : VEig(A, λi ) → VEig(A, λi ) kann man Di := λi Eµi und
Ni := Bi −Di setzen; dann gilt Di Ni = Ni Di und Di ist diagonalisierbar, während Ni
nilpotent ist.
Der zweite Teil des Beweises wird in Satz 2.1.65 erbracht. Im weiteren benötigen
wir die Ableitung von Polynomen. Wenn K ⊆ R gilt, können wir mit der bekannten AbleitungPfür Polynome aus der Analysis arbeiten: die Ableitung des Polynoms f (x) = ni=0 ai xi ∈ K[x] ist gegeben durch
′
f (x) =
n
X
i=1
iai xi−1 ∈ K[x].
Die k-fache Ableitung f (k) (x) ist dann
f
(k)
(x) =
n
X
i=k
i(i − 1) · · · (i − k + 1)ai x
i−k
=
n
X
i=k
µ ¶
i
ai xi−k .
k! ·
k
Ist K ein beliebiger Körper (und nicht notwendigerweise K ⊆ R), so definieren wir
einfach
µ ¶
n
n
X
X
i
(k)
i−k
f (x) :=
i(i − 1) · · · (i − k + 1)ai x =
k! ·
ai xi−k
k
i=k
i=k
und schreiben wie üblich f ′ := f (1) , f ′′ := f (2) , etc. Damit gelten die üblichen
Rechenregeln: für alle f, g ∈ K[x] und λ ∈ K gilt
60
KAPITEL 2. LINEARE ALGEBRA II
(a) (f (x) + λg(x))(k) = f (k) (x) + λg (k) (x);
(b) (f g)′ (x) = f ′ (x)g(x) + f (x)g ′ (x); und
(c) (f (g(x))′ = f ′ (g(x))g ′ (x).
Wir benötigen im Folgenden die Taylor-Formel. Diese gilt jedoch in allgemeinen
Körpern nicht mehr unbedingt. Beim ersten Durcharbeiten des Skriptes empfiehlt
es sich, die folgenden Definitionen und Bemerkungen ersteinmal zu ignorieren und
davon auszugehen, dass Q ⊆ K gilt; in diesem Fall gilt die Taylor-Formel (siehe
Bemerkung 2.1.54). Wer dies einfach annehmen mag, kann mit Satz 2.1.57 fortfahren
(auf Seite 61).
Definition 2.1.53. Wir sagen, dass ein Körper K von Charakteristik 0 sei, wenn
für alle n ∈ N \ {0} gilt n · 1K 6= 0.
Bemerkung 2.1.54. Wenn K ein Körper von Charakteristik 0 ist, so gilt die TaylorFormel :
grad f (k)
∞
X f (a)
X
f (k) (a)
f (x) =
(x − a)k =
(x − a)k
k!
k!
k=0
k=0
für alle a ∈ K und f ∈ K[x].
An der Formel sieht man auch schnell, wo das Problem liegt, wenn der Körper
nicht von Charakteristik 0 ist: in diesem Fall gibt es ein k ∈ N \ {0} mit k · 1K = 0.
Aber dann gilt für das Polynom f (x) = xk , dass f ′ (x) = kxk−1 = 0 ist; insbesondere
(k)
ist f (k) (x) = 0 und k! · 1K = 0, womit der Bruch f k!(x) keinen Sinn macht.
Wenn K kein Körper von Charakteristik 0 ist, kann dieses Problem jedoch umgangen werden, indem ein anderer Ableitungsbegriff verwendet wird, nämlich die
Hasse-Ableitung:
P
i
Definition 2.1.55. Sei f ∈ K[x] gegeben durch f = m
i=0 ai x und n ∈ N. Dann ist
die n-te Hasse-Ableitung von f gegeben durch
m µ ¶
X
f (n)
i
ai xi−n ∈ K[x].
(x) :=
n!
n
i=n
Wir schreiben f ′ :=
f (1)
1
und
f ′′
2
:=
f (2)
.
2!
Die Hasse-Ableitung verhält sich in vielerlei Hinsicht wie die gewöhnliche, oben
definierte Ableitung:
Bemerkung 2.1.56. Seien f, g ∈ K[x], λ ∈ K und n, m ∈ N:
(a) Es gilt
(f +λg)(n)
n!
=
f (n)
n!
(n)
+ λ gn! . Die Hasse-Ableitung ist also K-linear.
(n)
(b) Es gilt n! · fn! (x) = f (n) (x) (hier steht auf der linken Seite die Hasse-Ableitung
und auf der rechten Seite die gewöhnliche Ableitung).
(c) Es gilt (f · g)′ = f ′ g + f g ′ .
(d) Es gilt
³
f (n)
n!
´(m)
m!
µ
¶
n + m f (n+m)
=
.
n
(n + m)!
61
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
(e) Es gilt die Taylor-Formel
grad f
f (x) =
X f (k)
(λ)(x − λ)k .
k!
k=0
Zum Beweis zeigt man zuerst die K-Linearität der Hasse-Ableitung. Dann reicht
es aus, (b)–(e) für den Fall f (x) = xk , k ∈ N und g(x) = xℓ , ℓ ∈ N zu zeigen.
Dabei ergeben sich (b) und (d) durch Rechnen mit Binomialkoeffizienten, (e) aus
dem Binomischen Lehrsatz und (c) kann direkt aus (b) und der entsprechenden
Eigenschaft für die gewöhnliche Ableitung gefolgert werden.
(n)
Insbesondere kann in den meisten Fällen die Hasse-Ableitung fn! problemlos
anstelle der gewöhnlichen Ableitung n!1 f (n) verwendet werden.
Wir wollen nun f (A) für eine Matrix A ∈ Matn×n (K) mit Hilfe einer der TaylorFormel sehr ähnlichen Formel auswerten. Wie dies geht, zeigt der folgende Satz:
Satz 2.1.57. Sei f ∈ K[x] ein Polynom oder f : U → C eine analytische Funktion
und sei A = D + N mit D diagonalisierbar, N nilpotent und N D = DN . Ist f
analytisch, so fordern wir weiter, dass alle Eigenwerte von D in U liegen. Dann gilt
f (n−1)
f ′′
2
(D)N n−1 .
f (A) = f (D) + f (D)N + (D)N + · · · +
2
(n − 1)!
′
Dies wird auch als Taylor-Entwicklung im nilpotenten Teil bezeichnet.
Beweis von Satz 2.1.57. Wir behandeln zuerst den Fall von Polynomen. (Der Fall
von Potenzreihen folgt durch Grenzübergang.) Aus Linearitätsgründen reicht es aus,
f (x) = xi zu betrachten für ein i ∈ N. Damit ist (wegen DN = N D)
i
f (A) = (D + N ) =
i µ ¶
X
i
j=0
j
Di−j N j .
Beachte, dass N i = 0 ist für i ≥ n, und für 0 ≤ j ≤ i gilt
µ ¶
i
f (j)
(D) =
Di−j .
j!
j
Damit ist
min{i,n−1} (j)
i µ ¶
n−1 (j)
X f
X
X
i
f
i−j j
j
f (A) =
D N =
(D)N =
(D)N j .
j
j!
j!
j=0
j=0
j=0
Satz 2.1.58. Seien f, g ∈ K[x] zwei Polynome oder seien f, g : U → C zwei
analytische Funktionen. Sind f, g analytisch, so seien alle Eigenwerte von A in U .
Dann gilt f (A) = g(A) genau dann, wenn für alle Eigenwerte λ von A gilt, dass
(i)
f (i)
(λ) = gi! (λ) ist für 0 ≤ i < nλ , wobei nλ der Nilpotenzindex von A zu λ sei.
i!
62
KAPITEL 2. LINEARE ALGEBRA II
Beispiele 2.1.59.
(1) Habe A zwei Eigenwerte λ1 , λ2 mit λ1 6= λ2 . Seien die Nilpotenzindices von A
bezüglich λi jeweils 1 (damit hat die Jordansche Normalform von A Diagonalform). Sei f = x1000 ∈ K[x]. Wir suchen nun ein Polynom g ∈ K[x] möglichst
kleinen Grades mit f (λi ) = g(λi ), i = 1, 2. Dann gilt f (A) = g(A) nach dem
vorherigen Satz.
Dazu wähle eine Gerade g = mx + q mit
m :=
f (λ2 ) − f (λ1 )
λ 2 − λ1
und
q := f (λ1 ) − mλ1 .
(2) Sei A ∈ Matn×n (C) eine Matrix mit nur einem Eigenwert λ und mit Nilpotenzindex 3. Wir wollen eA berechnen. Gesucht ist ein Polynom g ∈ C[x] mit
g(λ) = g ′ (λ) = g ′′ (λ) = eλ . Für dieses gilt dann g(A) = eA .
Korollar 2.1.60 (Satz von Cayley-Hamilton). Sei A ∈ Matn×n (K) so, dass
pA (x) über K in Linearfaktoren zerfällt. Dann gilt pA (A) = 0.
Beweis. Sei
k
Y
pA (x) =
(x − λi )µi ∈ K[x]
i=1
mit paarweise verschiedenen λ1 , . . . , λk . Dann ist µi mindestens so gross wie der
Nilpotenzindex von A bezüglich λi , womit
(j)
pA
(λi ) = 0
j!
gilt für alle i und 0 ≤ j < µi . Nimmt man f (x) = pA (x) und g(x) = 0 (Nullpolynom),
so gilt nach Satz 2.1.58 also pA (A) = f (A) = g(A) = 0.
Bemerkung 2.1.61. Zerfällt pA (x) ∈ K[x] nicht über K in Linearfaktoren, so geht
man zu einem algebraischen Abschluss K von K über (im Fall K ⊆ C kann man
auch K = C nehmen). Über diesem zerfällt pA (x) in Linearfaktoren, womit über K
gilt pA (A) = 0. Da in der Auswertung von pA (A) nur Werte aus K auftauchen, gilt
somit auch über K die Gleichheit pA (A) = 0, womit die Voraussetzung im Satz von
Cayley-Hamilton weggelassen werden kann.
Beweis von Satz 2.1.58. Sei S ∈ Gln (K) so gewählt, dass S −1 AS in Jordanscher
Normalform ist. Dann gilt
f (A) = g(A) ⇐⇒ S −1 f (A)S = S −1 g(A)S ⇐⇒ f (S −1 AS) = g(S −1 AS);
die letzte Äquivalenz gilt, da S −1 f (A)S = f (S −1 AS) ist: für Polynome gilt dies
wegen
S −1 (am Am + · · · + a1 A + a0 En )S = am S −1 Am S + · · · + a1 S −1 AS + a0 S −1 En S
= am (S −1 AS)m + · · · + a1 (S −1 AS) + a0 ,
und bei analytischen Funktionen zeigt man dies durch Grenzwertbildung. Es reicht
also anzunehmen, dass A bereits in Jordanscher Normalform ist.
63
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
Schreibe A = D + N mit

λ1 Er1

...
D := 

λk Erk



Nr 1

...
N := 
und
wobei wie im Beweis von Satz 2.1.52


0 1
0 ··· 0
.
 .. . .
. . . . . . . .. 
.
.
... ... 
Nr := 
0
 ..

.

.
. . 1
 ..
0 ··· ··· ··· 0

Nr k

,
sei. Offensichtlich gilt f (A) = g(A) genau dann, wenn die Gleichheit bereits für alle
Jordan-Kästchen gilt. Nach Satz 2.1.57 gilt
f (Jr (λ)) = f (λEr + Nr ) =

f (λ) f ′ (λ)

...

 0
 .
...
=  ..

 ..
 .
0
···
r−1 (i)
X
f
i=0
i!
f ′′
(λ)
2
(λ)Nri
...
···
...
...
...
...
...
···
0

f (r−1)
(λ)
(r−1)!

..
.



f ′′
.
(λ)

2

′
f (λ) 
f (λ)
(i)
Für ein Jordan-Kästchen Jr (λ) gilt also f (Jr (λ)) = g(Jr (λ)) genau dann, fi! (λ) =
g (i)
(λ) gilt für i = 0, . . . , r−1. Da der Nilpotenzindex nλ zum Eigenwert λ die Grösse
i!
des grössten Jordan-Kästchens Jr (λ) zum Eigenwert λ ist (siehe Lemma 2.1.50), folgt
damit also die Behauptung.
Das Ziel ist nun, die Eindeutigkeit der Zerlegung A = D + N mit D diagonalisierbar, N nilpotent und N D = DN zu zeigen.
Lemma 2.1.62. Seien λ1 , . . . , λk ∈ K paarweise verschieden und B ∈ N. Dann
(t)
gibt es ein Polynom f ∈ K[x] mit f (λ1 ) = 1, ft! (λ1 ) = 0 für alle t = 1, . . . , B und
f (t)
(λi ) = 0 für alle i = 2, . . . , k und t = 0, . . . , B.
t!
Beweis. Definiere
g :=
k
Y
i=2
(x − λi )B+1 .
(t)
(λi ) = 0 ist für alle Polynome h ∈ K[x],
Dann hat g die Eigenschaft, dass (gh)
t!
alle i = 2, . . . , k und alle t = 0, . . . , B. Ist nun h ∈ K[x] ein gemeinsamer Teiler von
g und dem Polynom (x − λ1 )B+1 , so muss h konstant sein: andernfalls gäbe es eine
Nullstelle λ ∈ K von h in einem algebraischen Abschluss K von K (ist K ⊆ C, so
kann man auch K = C wählen); da (x − λ1 )B+1 nur die Nullstelle λ1 besitzt, muss
λ = λ1 sein, was jedoch ein Widerspruch ist, da g nur die Nullstellen λ2 , . . . , λk hat,
die alle verschieden von λ1 sind. Also sind g und (x − λ1 )B+1 teilerfremd.
Nach Lemma 1.5.11 (Bezóut) gibt es somit a, b ∈ K[x] mit 1 = ag +b(x−λ1 )B+1 .
(t)
Setze f := ag. Dann ist ft! (λi ) = 0 für i = 2, . . . , k und t = 0, . . . , B, und wegen
(t)
f = ag = 1 − b(x − λ1 )B+1 gilt f (λ1 ) = 1 und ft! (λ1 ) = 0 für t = 1, . . . , B.
64
KAPITEL 2. LINEARE ALGEBRA II
Satz 2.1.63. Sei A = D + N mit D diagonalisierbar und N nilpotent so, dass
DN = N D ist. Dann gibt es Polynome ϕ, ψ ∈ K[x] mit ϕ(A) = D und ψ(A) = N .
Beweis. Es reicht, ein entsprechendes Polynom ϕ zu konstruieren, da dann mit ψ :=
x − ϕ folgt ψ(A) = A − D = N .
Nach Satz 2.1.57 gilt für beliebiges ϕ ∈ K[x], dass
ϕ(A) =
n−1 (i)
X
ϕ
i=0
i!
(D)N i
(i)
ist. Gesucht ist also ein Polynom ϕ mit ϕi! (D) = 0 für i > 0 und ϕ(D) = D.
Seien λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von D. Dann gibt es
nach Lemma 2.1.62 ϕ1 , . . . , ϕk ∈ K[x] so, dass ϕi (λi ) = 1, ϕj (λi ) = 0 gilt für i 6= j
(t)
ϕi
t!
und dass
Dann gilt
(λj ) = 0 ist für alle i, j und t = 1, . . . , n−1. Setze ϕ := λ1 ϕ1 +· · ·+λk ϕk .
ϕ(λi ) = λi
und
ϕ(t) (λi ) = 0 für t = 1, . . . , n − 1.
Damit ist dann
ϕ(A) = D.
Beispiel 2.1.64. Sei A =
µ
¶
3 1
. Dann soll
0 3
2
a2 A + a1 A + a0 E2 =
µ
¶
3 0
0 3
sein. Hier eignet sich a2 = a1 = 0 und a0 = 3.
Satz 2.1.65. Sei A = D + N = D′ + N ′ mit D, D′ diagonalisierbar, N, N ′ nilpotent
und mit N D = DN und N ′ D′ = D′ N ′ . Dann gilt D = D′ und N = N ′ . Dies
Vervollständigt den Beweis von Satz 2.1.52.
Beweis. Es gilt D − D′ = N ′ − N . Da A = D + N = D′ + N ′ ist, folgt D′ A =
D′ (D′ + N ′ ) = (D′ + N ′ )D′ = AD′ und ebenso N ′ A = AN ′ . Nach Satz 2.1.63 gibt
es ϕ, ψ ∈ K[x] mit D = ϕ(A) und N = ψ(A). Damit ist
DD′ = ϕ(A)D′ = D′ ϕ(A) = D′ D
und genauso
N N ′ = N ′ N.
Nach Übungsaufgabe 3 auf dem vierten Übungsblatt folgt somit, dass D − D′ diagonalisierbar und N ′ − N nilpotent ist. Damit ist D − D′ = N ′ − N diagonalisierbar
und nilpotent. Da es nilpotent ist, kann die Matrix D − D′ = N ′ − N nur den Eigenwert 0 haben2 , womit D − D′ als diagonalisierbare Matrix die Nullmatrix sein
muss. Also gilt D − D′ = 0 = N ′ − N .
2
Ist N nilpotent mit Nilpotenzindex k, ist λ ein Eigenwert von N und v ein Eigenvektor von
N bezüglich λ, so gilt 0 = N k v = λk v, womit λ = 0 sein muss.
2.1. BASISWECHSEL BEI ENDOMORPHISMEN
2.1.7
65
Minimalpolynom und annullierende Polynome
Definition 2.1.66. Sei A ∈ Matn×n (K) und f ∈ K[x]. Dann heisst f annullierendes
Polynom von A, falls f (A) = 0 ist.
Ein von 0 verschiedenes Polynom ϕ ∈ K[x] von minimalem Grad mit der Eigenschaft, dass ϕ(A) = 0 ist, heisst Minimalpolynom von A.
Bemerkungen 2.1.67.
(1) Es gibt ein Polynom f ∈ K[x] von Grad höchstens n2 mit f (A) = 0:
Durch f (A) = 0 wird ein lineares Gleichungssystem der Form Bx = 0 aufgestellt, wobei x der Koeffizientenvektor von f ist. Dieses Gleichungssystem hat
n2 Gleichungen und n2 + 1 Unbestimmte, womit es eine nicht-triviale Lösung
geben muss.
(2) Nach Cayley-Hamilton (Korollar 2.1.60) hat das charakteristische Polynom pA
die Eigenschaft, dass pA (A) = 0 ist. Beachte, dass deg pA (x) = n ist.
Wie kann man nun ein Minimalpolynom bestimmen?
Satz 2.1.68. Sei A ∈ Matn×n (K) so, dass pA (x) in Linearfaktoren zerfällt. Seien
λ1 , . . . , λk die paarweise verschienden Eigenwerte von A und sei ni der Nilpotenzindex von A zu λi . Dann ist
n
Y
ϕ(x) =
(x − λi )ni
i=1
ein Minimalpolynom von A, und jedes weitere Minimalpolynom ist ein konstantes
Vielfaches von ϕ.
Beweis. Gilt ϕ(A) = 0, so muss nach Satz 2.1.58 (angewendet auf ϕ und das NullQ
(t)
polynom) gelten ϕt! (λi ) = 0 für 0 ≤ i < ni . Dies ist für das Polynom ni=1 (x − λi )ni
erfüllt.
Ist weiterhin ϕ ∈ K[x] ein beliebiges Polynom mit ϕ(A) = 0, so folgt aus
ϕ(t)
(λi ) = 0 für t = 0, . . . , ni − 1, dass (x − λi )ni ein Teiler von ϕ sein muss3 . Nun
t!
sind die (x − λi )ni , i = 1, . . . , k paarweise teilerfremd, womit auch deren Produkt
ein Teiler von ϕ sein muss. Daraus folgt die Behauptung.
Bemerkung 2.1.69. Ist ϕ ∈ K[x] ein Minimalpolynom von A und ist f ∈ K[x] ein
beliebiges Polynom mit f (A) = 0, so gilt ϕ | f :
Schreibe f = qϕ + r mit q, r ∈ K[x] und grad r < grad ϕ (Division mit Rest).
Dann ist r(A) = f (A) − q(A)ϕ(A) = 0, womit r = 0 sein muss (ansonsten gäbe es
einen Widerspruch zur Minimalität von grad ϕ). Das bedeutet jedoch, dass ϕ | f
gilt.
Andersherum folgt aus ϕ | f , dass f (A) = 0 ist. Wir haben also
f (A) = 0 ⇐⇒ ϕ | f.
3
Schreibe ϕ(x) =
Pgrad ϕ
j=0
aj (x − λi )j ; dann ist
ϕ(t)
t! (λi )
= at .
66
KAPITEL 2. LINEARE ALGEBRA II
Beispiele 2.1.70.
(1) Ist

1
0
 ... ... 


A = Jn (1) = 
 ∈ Matn×n (K),
.
. . 1

0
1

1
so ist pA (x) = (x − 1)n ein Minimalpolynom von A.
(2) Ist


1
0


B = En =  . . .  ∈ Matn×n (K),
0
1
so ist pB (x) = (x − 1)n , jedoch ist ϕ(x) = x − 1 bereits ein Minimalpolynom
von B.
2.2
Quotientenvektorräume
Sei V ein beliebiger K-Vektorraum und U ein Untervektorraum. Gibt es einen KVektorraum W und eine lineare Abbildung f : V → W mit U = Ker f ?
Beispiel 2.2.1. Wenn U ein direkter Summand von V ist, es also einen Unterraum W ⊆ V mit U ⊕ W = V gibt, so kann diese Frage mit “ja” beantwortet
werden. Definiere f : V → W für v ∈ V durch f (v) := w, wobei v = u + w sei mit
w ∈ W und u ∈ U . Man überlegt sich leicht, dass f eine lineare Abbildung ist mit
Ker f = U .
Beispiel 2.2.2. Sei K := R,
V := {(an )n∈N | an ∈ K}
und
U := {(an )n∈N ∈ V | an 6= 0 für nur endlich viele n}.
Dann ist U ein Untervektorraum von V . Kann man V = U ⊕W schreiben mit einem
Untervektorraum W ⊆ V ?
Es gibt keine “eindeutige” Zerlegung v = v ′ + v ′′ einer Folge v = (an )n∈N ∈ V in
einen ‘endlichen’ Summanden v ′ ∈ U und einen ‘unendlichen’ Summanden v ′′ .
Jedoch kann man zu zwei Folgen (an )n∈N , (bn )n∈N sagen, ob sie sich nur “unwesentlich” unterscheiden:
Definition 2.2.3. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Für
v, v ′ ∈ V schreibe
v ∼U v ′ :⇐⇒ v − v ′ ∈ U.
Wir sagen in dem Fall v ∼U v ′ , dass v und v ′ äquivalent modulo U sind.
Bemerkung 2.2.4.
(1) Die Relation ∼U ist eine Äquivalenzrelation:
(a) Ist v ∈ V , so gilt v − v = 0 ∈ U , womit v ∼U v ist.
67
2.2. QUOTIENTENVEKTORRÄUME
(b) Sind v, v ′ ∈ V mit v ∼U v ′ , so gilt v − v ′ ∈ U und damit auch v ′ − v ∈ U ,
also v ′ ∼U v.
(c) Seien v, v ′ , v ′′ ∈ V mit v ∼U v ′ und v ′ ∼U v ′′ , also mit v − v ′ , v ′ − v ′′ ∈ U .
Dann ist auch v − v ′′ = (v − v ′ ) + (v ′ − v ′′ ) ∈ U und somit v ∼U v ′′ .
(2) Die Äquivalenzklasse
[v]U := [v]∼U = {v ′ ∈ V | v ∼U v ′ }
von v ∈ V ist v + U := {v + u | u ∈ U }. Die Äquivalenzklasse ist somit ein
affiner Unterraum von V .
Definition 2.2.5. Sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Wir bezeichnen mit
V /U := {[v] | v ∈ V } = {v + U | v ∈ V }
die Menge der affinen Unterräume. Wir sagen V modulo U zu V /U .
Bemerkung 2.2.6. Seien T, T ′ ∈ V /U und λ ∈ K. Dann gelten:
(a) T + T ′ := {v + v ′ | v ∈ T, v ′ ∈ T ′ } ∈ V /U ; und
(b) λT := {λv | v ∈ T } ∈ V /U falls λ 6= 0.
Beweis. Ist T = v + U und T ′ = v ′ + U , so ist
T + T ′ = {(v + u) + (v ′ + u′ ) | u, u′ ∈ U }
= {v + v ′ + u | u ∈ U } = (v + v ′ ) + U ∈ V /U
und
λT = {λ(v + u) | u ∈ U } = {λv + λu | u ∈ U }
= {λv + u | u ∈ U } = λv + U ∈ V /U.
Satz 2.2.7. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum.
(a) Die Verknüpfungen
+ : V /U × V /U → V /U,
(v + U, v ′ + U ) 7→ (v + v ′ ) + U
und
· : K × V /U → V /U,
(λ, v + U ) 7→ λv + U
sind wohldefiniert und definieren eine K-Vektorraum-Struktur auf V /U .
Sind λ ∈ K \ {0} und v + U, v ′ + U ∈ V /U , so stimmen die neuen Definitionen
von + und · mit den aus der letzten Bemerkung überein, es gilt also
(v + v ′ ) + U = (v + U ) +neu (v ′ + U ) = (v + U ) +alt (v ′ + U )
und
(λv) + U = λ ·neu (v + U ) = λ ·alt (v + U ).
(b) Die Abbildung
π : V → V /U,
ist ein Epimorphismus mit Ker π = U .
v 7→ v + U
68
KAPITEL 2. LINEARE ALGEBRA II
Definition 2.2.8. Der Vektorraum V /U wird als Quotientenvektorraum von V
modulo U bezeichnet. Die Abbildung π : V → V /U , v 7→ v + U wird als Restklassenabbildung oder kanonische Projektion bezeichnet.
Beweis von Satz 2.2.7. (a) Seien v̂ + U = v + U und v̂ ′ + U = v ′ + U . Dann gilt
v − v̂, v ′ − v̂ ′ ∈ U . Es ist nun
(v + U ) + (v ′ + U ) = (v + v ′ ) + U
= (v̂ + v̂ ′ ) + (v − v̂) + (v ′ − v̂ ′ ) +U = (v̂ + v̂ ′ ) + U,
{z
}
|
∈U
womit die Addition wohldefiniert ist. Weiterhin ist
λ(v + U ) = λv + U = λv̂ + λ(v − v̂) +U = λv̂ + U = λ(v̂ + U ),
| {z }
∈U
womit ebenfalls die Skalarmultiplikation wohldefiniert ist.
Dass V /U mit + und · ein K-Vektorraum ist rechnet man leicht nach:
(1) Sind v + U, v ′ + U, v ′′ + U ∈ V /U , so ist
[(v + U ) + (v ′ + U )] + (v ′′ + U ) = ((v + v ′ ) + U ) + (v ′′ + U )
= ((v + v ′ ) + v ′′ ) + U = (v + (v ′ + v ′′ )) + U
= (v + U ) + ((v ′ + v ′′ ) + U ) = (v + U ) + [(v ′ + U ) + (v ′′ + U )].
Weiterhin ist offensichtlich
(v + U ) + (v ′ + U ) = (v + v ′ ) + U = (v ′ + v) + U
= (v ′ + U ) + (v + U )
und
(v + U ) + (0 + U ) = (v + 0) + U = v + U.
Schliesslich ist
(v + U ) + ((−v) + U ) = (v + (−v)) + U = 0 + U,
womit (V /U, +) eine Abelsche Gruppe ist.
(2) Seien v + U, v ′ + U ∈ V /U und λ, µ ∈ K. Dann gilt
λ(µ(v + U )) = λ((µv) + U ) = (λ(µv)) + U
= ((λµ)v) + U = (λµ)(v + U ),
1 · (v + U ) = (1 · v) + U = v + U
und
λ((v + U ) + (v ′ + U )) = λ((v + v ′ ) + U ) = (λ(v + v ′ )) + U
= (λv + λv ′ ) + U = ((λv) + U ) + ((λv ′ ) + U )
= λ(v + V ) + λ(v ′ + U ).
Schliesslich gilt
(λ + µ)(v + U ) = (λ + µ)v + U = (λv + µv) + U
= (λv + U ) + (µv + U ) = λ(v + U ) + µ(v + U ).
69
2.2. QUOTIENTENVEKTORRÄUME
(b) Zu v + U ∈ V /U ist π(v) = v + U , womit π sicherlich surjektiv ist. Seien
v + U, v ′ + U ∈ V /U und λ ∈ K. Dann ist
π(v + v ′ ) = (v + v ′ ) + U = (v + U ) + (v ′ + U ) = π(v) + π(v ′ )
und
π(λv) = λv + U = λ(v + U ) = λπ(v).
Damit ist π ein Homomorphismus. Schliesslich gilt
Ker π = {v ∈ V | π(v) = 0 + U = U }
= {v ∈ V | v + U = U } = U.
Bemerkung 2.2.9. Aus (b) und der Dimensionsformel (Satz 1.6.24) folgt, wenn
dim V < ∞ ist, dass dim U + dim V /U = dim V ist, also
dim V /U = dim V − dim U.
Definition 2.2.10. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum.
Dann heisst dim V /U die Kodimension von U in V .
Beispiel 2.2.11. Sei V der R-Vektorraum der konvergenten Folgen (an )n∈N und U
der Untervektorraum aller Nullfolgen. Dann ist die Abbildung
ϕ : V → R,
(an )n∈N 7→ lim an
n→∞
linear, surjektiv, und es ist U = Ker ϕ. Damit hat U Kodimension 1 in V , da
V /U ∼
= R nach dem Homomorphiesatz gilt:
Satz 2.2.12 (Homomorphiesatz). Sei f : V → W ein Homomorphismus und
U ⊆ V ein Untervektorraum mit U ⊆ Ker f . Dann gibt es genau eine lineare Abbildung f : V /U → W so, dass das folgende Diagramm kommutiert:
V CC
f
CC
CC
π CC
!
V /U
/W
z<
z
zz
zz
zz f
Hierbei ist π : V → V /U , v 7→ v + U die kanonische Projektion.
(a) Es ist Im f = Im f . Somit ist f genau dann surjektiv, wenn f surjektiv ist.
(b) Es ist Ker f = π(Ker f ). Genau dann ist f injektiv, wenn U = Ker f ist.
Insbesondere gilt also Im f ∼
= V / Ker f .
Beweis. Ist fˆ eine beliebige Abbildung fˆ : V /U → W mit fˆ ◦ π = f , so gilt
fˆ(v + U ) = fˆ(π(v)) = (fˆ ◦ π)(v) = f (v)
für alle v + U ∈ V /U . Somit kann es höchstens eine solche Abbildung fˆ geben.
Wir definieren f (v + U ) := f (v) für v + U ∈ V /U . Ist v ′ + U ∈ V /U mit
′
v + U = v + U , also v ′ − v ∈ U ⊆ Ker f , so ist
f (v ′ + U ) = f (v ′ ) = f (v + (v ′ − v)) = f (v) + f (v| ′ {z
− v})
∈Ker f
= f (v) + 0 = f (v) = f (v + U );
70
KAPITEL 2. LINEARE ALGEBRA II
damit ist f wohldefiniert. Offensichtlich ist f ◦π = f , da für alle v ∈ V per Definition
f (v) = f (v + U ) = f (π(v)) gilt.
Mir müssen noch zeigen, dass f linear ist. Seien dazu v + U, v ′ + U ∈ V /U und
λ ∈ K. Dann ist
f ((v + U ) + (v ′ + U )) = f ((v + v ′ ) + U ) = f (v + v ′ )
= f (v) + f (v ′ ) = f (v + U ) + f (v ′ + U )
und
f (λ(v + U )) = f (λv + U ) = f (λv) = λf (v) = λf (v + U ),
womit die Linearität gezeigt wäre.
(a) Es ist
Im f = {f (v) | v ∈ V } = {f (v + U ) | v ∈ V }
= {f (v + U ) | v + U ∈ V /U } = Im f ;
damit folgt (a)
(b) Es ist
Ker f = {v + U ∈ V /U | f (v + U ) = 0} = {v + U ∈ V /U | f (v) = 0}
= {π(v) | v ∈ Ker f } = π(Ker f ).
Somit gilt
f injektiv
⇐⇒ Ker f = {0 + U }
⇐⇒ π(Ker f ) = {0 + U }
⇐⇒ Ker f ⊆ Ker π = U.
Da nach Voraussetzung U = Ker π ⊆ Ker f gilt, ist also f genau dann injektiv,
wenn U = Ker f ist.
Der Zusatz folgt, indem man die Einschränkung f : V → Im f auf das Bild von f
betrachtet und U = Ker f wählt; die induzierte Abbildung f : V / Ker f → Im f ist
dann nach (a) und (b) bijektiv, also ein Isomorphismus.
Beispiel 2.2.13. Sei V ein beliebiger K-Vektorraum und seien U, U ′ ⊆ V Unterräume mit U ⊕ U ′ = V . Betrachte die Abbildung
f : V → U ′,
u + u′ 7→ u′
mit u ∈ U, u′ ∈ U ′
aus Beispiel 2.2.1. Wir wissen, dass Im f = U ′ ist und Ker f = U . Nach dem
Homomorphiesatz gilt also
U ′ = Im f ∼
= V / Ker f = V /U.
2.3. SKALARPRODUKTE IM RN UND CN
2.3
2.3.1
71
Skalarprodukte im Rn und Cn
Bilinearformen
Definition 2.3.1. Sei V ein beliebiger K-Vektorraum. Eine Abbildung ϕ : V × V →
K heisst Bilinearform, wenn ϕ linear in jeder Komponente ist, d.h. wenn gilt
ϕ(λ1 v1 + λ2 v2 , w) = λ1 ϕ(v1 , w) + λ2 ϕ(v2 , w)
ϕ(w, λ1 v1 + λ2 v2 ) = λ1 ϕ(w, v1 ) + λ2 ϕ(w, v2 )
und
für alle v1 , v2 , w ∈ V und λ1 , λ2 ∈ K.
Beispiel 2.3.2. Sei K = R. Bezeichne mit V = C[a, b] (für a, b ∈ R) den RVektorraum aller stetigen Funktionen [a, b] → R. Definiere
Z b
ϕ : V × V → R,
(f, g) 7→
f (x)g(x) dx.
a
Dann ist ϕ eine Bilinearform.
Bemerkung 2.3.3. Sei V ein n-dimensionaler K-Vektorraum mit Basis BV =
{v1 , . . . , vn }. Dann kann jede Bilinearform ϕ : V × V → K eindeutig durch eine
n × n-Matrix beschrieben werden:
P
P
Dazu seien x, y ∈ V mit x = ni=1 xi vi und y = ni=1 yi vi . Dann ist
ϕ(x, y) = ϕ
n
³X
i=1
xi v i ,
n
X
´
yi v i =
j=1
n X
n
X
xi yi ϕ(vi , vj )
i=1 j=1
 
y1
ϕ(v1 , v1 ) · · · ϕ(v1 , vn )
¢


.
.
.
.
..
..
..
· · · xn 
 .. .
yn
ϕ(vn , v1 ) · · · ϕ(vn , vn )
¡
= x1

Die Matrix G = (ϕ(vi , vj )) 1≤i≤n heisst Gramsche Matrix von ϕ bezüglich der Ba1≤j≤n
sis BV .
Definition 2.3.4. Eine Bilinearform ϕ : V × V → K heisst symmetrisch, wenn
ϕ(v, w) = ϕ(w, v) für alle v, w ∈ V gilt.
Beispiel 2.3.5. Es ist
Z
b
f (x)g(x) dx =
a
Z
b
g(x)f (x) dx.
a
Bemerkung 2.3.6. Ist V ein endlichdimensionaler Vektorraum, BV = {v1 , . . . , vn }
eine Basis von V und A = (ϕ(vi , vj ))ij ∈ Matn×n (K), so ist ϕ genau dann symmetrisch, wenn A symmetrisch ist, wenn also A = At ist.
2.3.2
Skalarprodukte im Rn
Im Folgenden sei K = R und V ein reeller Vektorraum.
Definition 2.3.7. Eine symmetrische Bilinearform h•, •i : V ×V → R heisst positiv
definit, wenn hv, vi ≥ 0 für alle v ∈ V gilt und hv, vi = 0 bereits v = 0 impliziert.
72
KAPITEL 2. LINEARE ALGEBRA II
Definition 2.3.8. Eine symmetrische positiv definite Bilinearform h•, •i : V × V →
R heisst Skalarprodukt.
Rb
Beispiel 2.3.9. Auf V = C[a, b] ist hf, gi := a f (x)g(x) dx ein Skalarprodukt:
offensichtlich gilt
Z
b
hf, f i =
f (x)2 dx ≥ 0,
a
2
da f (x) ≥ 0 auf [a, b] gilt. Sei f ∈ C[a, b] mit f 6= 0. Dann gibt es ein x ∈ [a, b]
mit f (x) 6= 0. Da f stetig ist, gibt es ein ε > 0 mit |f (x′ )| ≥ 12 |f (x)| für alle
x′ ∈ ]x − ε, x + ε[ ∩ [a, b] := {x′′ ∈ [a, b] | |x′′ − x| < ε}. Dann gilt jedoch
Z
Z
Z b
2
2
f (t) dt =
f (t) dt +
f (t)2 dt
hf, f i =
]x−ε,x+ε[∩[a,b]
[a,b]\]x−ε,x+ε[
Za
Z
1
1
≥
|f (x)| dt +
0 dt ≥ ε · |f (x)| > 0,
2
]x−ε,x+ε[∩[a,b] 2
[a,b]\]x−ε,x+ε[
da 21 |f (x)| > 0.
Beispiel 2.3.10. Sei V = Rn . Definiere
hx, yi := xt y;
dann ist h•, •i ein Skalarprodukt auf Rn , genannt das Standardskalarprodukt oder
das kanonische Skalarprodukt:
Offensichtlich ist h•, •i bilinear. Da hx, yi ∈ R ist, gilt
hx, yi = hx, yit = (xt y)t = y t x = hy, xi.
Ist schliesslich x = (x1 , . . . , xn ), so ist
hx, xi =
n
X
i=1
x2i ≥ 0,
und hx, xi = 0 impliziert xi = 0, i = 1, . . . , n und somit x = 0.
Bemerkung 2.3.11. Falls h•, •i : V × V → R ein Skalarprodukt ist, so definiert
p
k•k : V → R≥0 ,
v 7→ hv, vi
eine Norm auf V , d.h. es gilt
(a) kvk = 0 genau dann, wenn v = 0 ist;
(b) kλvk = |λ|kvk; und
(c) kv1 + v2 k ≤ kv1 k + kv2 k.
für alle v, v1 , v2 ∈ V und λ ∈ R.
Die Eigenschaften (a) und (b) sind leicht zu überprüfen, für Eigenschaft (c) wird
jedoch folgendes Lemma benötigt:
Lemma 2.3.12 (Cauchy-Schwarz). Seien v, w ∈ V . Dann gilt
|hv, wi| ≤ kvk · kwk.
2.3. SKALARPRODUKTE IM RN UND CN
73
Beweis. Für w = 0 ist die Behauptung klar, sei also w 6= 0. Für alle λ ∈ R gilt
0 ≤ kv − λwk2 = hv − λw, v − λwi.
Nun ist
hv − λw, v − λwi = hv, vi − λhv, wi − λ[hv, wi − λhw, wi].
Wähle λ :=
hv,wi
.
hw,wi
Dann ist also
|hv, wi|2
0 ≤ hv, vi −
,
hw, wi
womit
|hv, wi|2 ≤ kvk2 kwk2
ist.
Damit kann die Eigenschaft (c) aus Bemerkung 2.3.11 wie folgt gezeigt werden:
es ist
kv1 + v2 k2 = hv + w, v + wi = hv, vi + 2hv, wi + hw, wi
≤ kvk2 + 2|hv, wi| + kwk2 ≤ kvk2 + 2kvkkwk + kwk2
= (kvk + kwk)2 .
Bemerkung 2.3.13 (Winkel zwischen Vektoren). Es seien x, y ∈ Rn . Betrachte
das kanonische Skalarprodukt
hx, yi := xt y.
Nach Cauchy-Schwarz gilt
−1 ≤
hx, yi
≤ 1.
kxkkyk
Wir definieren den Winkel zwischen x und y durch
∢(x, y) := arccos
hx, yi
.
kxkkyk
D.h. α = ∢(x, y) ist der eindeutige Winkel α ∈ [0, π] mit cos α =
Eigenschaften des Winkels:
hx,yi
.
kxkkyk
(1) Es gilt ∢(x, y) = ∢(y, x), d.h. er ist symmetrisch;
(2) Es gilt ∢(λx, y) = ∢(x, y) = ∢(x, λy) falls λ 6= 0 ist.
Ist n = 2, also sind wir im R2 , stimmt diese Definition von Winkel mit der aus der
Schule bekannten Definition überein. Wir können ohne Einschränkung annehmen,
dass kxk = kyk = 1 sei. Dann gibt es α, β ∈ R mit x = (cos α, sin α) und y =
(cos β, sin β). Damit ist
hx, yi
= hx, yi = cos α cos β + sin α sin β = cos(β − α).
kxkkyk
Anwenden des Arcuscosinus liefert also den Winkel zwischen x und y.
74
KAPITEL 2. LINEARE ALGEBRA II
Ist n beliebig, so gibt es eine orthogonale Transformation ϕ : Rn → Rn (dies
ist eine lineare Abbildung mit hϕ(v), ϕ(w)i = hv, wi für alle v, w ∈ Rn ; dazu später
mehr) mit
 
 
x1
y1
x2 
y2 
 
 
 
 
ϕ(x) =  0 
ϕ(y) =  0 .
 .. 
 .. 
.
.
0
0
Nun ist kϕ(x)k = kxk, kϕ(y)k = kyk und hϕ(x), ϕ(y)i = hx, yi, womit ∢(x, y) =
∢(ϕ(x), ϕ(y)) ist. Damit kann der Fall des beliebigen ns auf den Fall n = 2 zurückgeführt werden.
Bemerkung 2.3.14. Ist V ein R-Vektorraum und k•k : V → R≥0 eine Norm auf
V , so definiert k•k eine Metrik
d : V × V → R≥0 ,
(v, w) 7→ kv − wk
auf V , d.h. es gilt für alle x, y, z ∈ V
(a) d(x, y) = 0 genau dann, wenn x = y ist;
(b) d(x, y) = d(y, x); und
(c) d(x, z) ≤ d(x, y) + d(y, z).
Bemerkung 2.3.15. Ist V ein R-Vektorraum und d : V × V → R≥0 eine Metrik
auf V , dann induziert die Metrik eine Topologie auf V : Eine Menge O ⊆ V heisst
offen, wenn es zu jedem x ∈ O ein εx > 0 gibt so, dass die εx -Kugel um x,
Bεx (x) := {x′ ∈ V | d(x, x′ ) < εx },
vollständig in O enthalten ist. Man prüft leicht nach, dass dies eine Topologie liefert.
Definition 2.3.16. Ein reeller Vektorraum V zusammen mit einem Skalarprodukt h•, •i : V × V → R heisst Euklidischer (Vektor-)Raum. Wir schreiben auch
(V, h•, •i) hierfür.
Wir haben gesehen:
Lemma 2.3.17. Sei (V, h•, •i) ein Euklidischer Vektorraum. Dann besitzt V eine
Norm
p
k•k : V → R≥0 ,
v 7→ hv, vi
und eine Metrik
d : V × V → R≥0 ,
(v, w) 7→ kv − wk.
Weiterhin ist zu zwei Vektoren x, y ∈ V \ {0} der Winkel
∢(x, y) := arccos
definiert.
hx, yi
kxkkyk
2.3. SKALARPRODUKTE IM RN UND CN
75
Wir haben gesehen, dass für Rn mit dem Standardskalarprodukt diese Definition
von Winkel gerade der Definition aus der Schule entspricht.
Definition 2.3.18. Sei (V, h•, •i) ein Euklidischer Vektorraum und seien v, w ∈ V .
Wir sagen, v und w seien orthogonal zueinander (bzgl. h•, •i), wenn hv, wi = 0 ist.
Ist U ⊆ V ein Unterraum, so bezeichnen wir mit
U ⊥ := {v ∈ V | ∀u ∈ U hv, ui = 0}
das orthogonale Komplement von U .
Beispiel 2.3.19. Sei R3 mit dem Standardskalarprodukt ausgestattet, und sei U =
span{(1, 2, 3)t }. Dann ist
¯

 
¯

 x
¯
3 ¯
⊥


y ∈ R ¯ x + 2y + 3z = 0 .
U =


¯
z
Satz 2.3.20 (Satz vom orthogonalen Komplement). Es sei V ein endlichdimensionaler Euklidischer Vektorraum und U ⊆ V ein Unterraum. Dann gilt
V = U ⊕ U ⊥.
Beweis. Sei dim U = m und dim V = n. Wir zeigen zuerst, dass dim U ⊥ = n − m
ist. Sei dazu {v1 , . . . , vm } eine Basis von U , die zu einer Basis {v1 , . . . , vn } von V
fortgesetzt sei. Betrachte die Matrix S = (hvi , vj i)i,j ∈ Matn×n (R).
Wir zeigen zuerst, dass S Rang n hat: Wäre Rang S < n, so gäbe es ein y =
(y1 , . . . , yn ) ∈ Rn \{0} mit Sy = 0. Aber dann ist hy, yi = y t Sy = 0, ein Widerspruch
zur positiven
PDefinitheit.
Sei ŷ = nj=1 yj vj ∈ U ⊥ beliebig. Für i = 1, . . . , m gilt nun
D
0 = hvi , ŷi = vi ,
n
X
j=1
E
yj v j =
n
X
j=1
yj hvi , vj i.
Dies kann auch als

hv1 , v1 i · · ·
 ..
...
 .
hvm , v1 i · · ·
 
y1
hv1 , vn i
 .. 
..
 .  = 0
.
hvm , vn i
yn
geschrieben werden. Insbesondere zeigt diese Rechnung, dass der Lösungsraum dieses
⊥
n
Gleichungssystems
Pn gerade das Urbild von U unter dem Isomorphismus φ : R → V ,
(x1 , . . . , xn ) 7→ i=1 xi vi ist. Die Matrix hat nun Rang m, womit der Lösungsraum
die Dimension n − m hat, also dim U ⊥ = n − m.
Es verbleibt also zu zeigen, dass U ∩ U ⊥ = {0} ist. Dazu sei v ∈ U ∩ U ⊥ . Da
v ∈ U und v ∈ U ⊥ ist, gilt also hv, vi = 0, womit v = 0 ist.
Korollar 2.3.21. Ist (V, h•, •i) ein Euklidischer Vektorraum und U ⊆ V ein endlichdimensionaler Unterraum, so gibt es eine Basis B = {v1 , . . . , vn } von U so, dass
hvi , vj i = 0 ist für i 6= j und hvi , vi i = 1. Eine solche Basis heisst orthonormal.
76
KAPITEL 2. LINEARE ALGEBRA II
Bemerkung 2.3.22. Wir werden im Abschnitt 2.3.5 sehen, wie eine solche Basis B rechnerisch mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahren
gefunden werden kann.
Beweis von Korollar 2.3.21. Wir zeigen dies per Induktion nach dim U . Ist dim U =
0, so ist ∅ eine Basis wie gesucht. Sei n := dim U > 0.
Nun ist U zusammen mit der Einschränkung des Skalarproduktes auf U wieder
ein Euklidischer Vektorraum, und da dim U > 0 ist, gibt es ein v ∈ U \ {0}. Setze
W := span{v}; nach Satz 2.3.20 gilt nun U = W ⊕ W ⊥ (wobei hier das orthogonale Komplement von W im Euklidischen Vektorraum U genomment wird) und
dim W ⊥ = dim U − dim W = dim U − 1, womit es per Induktionsvoraussetzung
eine Basis B′ = {v2 , . . . , vn } von W ⊥ mit den geforderten Eigenschaften gibt. Setze
v
v1 := kvk
und B := {v1 , v2 , . . . , vn }; offensichtlich ist dann B eine Basis von U . Weiter ist hvi , vi i = 1 für i = 1, . . . , n, und es ist hvi , vj i = 1 für i 6= j und i, j > 1, und
wegen v1 ∈ W und vi ∈ W ⊥ , i > 1 folgt auch hv1 , vi i = 0 für i = 2, . . . , n.
Wir wollen uns nun dem Ziel zuwenden, zu zeigen, dass alle symmetrischen reellen
Matrizen diagonalisierbar sind. Dies liefert uns später ein Kriterium, die positive
Definitheit einer Bilinearform anhand der Eigenwerte ihrer zugeordneten Matrix zu
überprüfen.
Zur Erinnerung:
Definition 2.3.23. Eine Matrix M ∈ Matn×n (K) heisst symmetrisch, wenn At = A
ist.
Lemma 2.3.24. Sei S ∈ Matn×n (R) eine symmetrische Matrix. Dann sind alle
Eigenwerte von S (aufgefasst als Matrix über C) reell.
Zu einer Matrix A ∈ Matm×n (C) schreiben wir A ∈ Matm×n (C) für die Matrix (aij )ij , wobei A = (aij )ij sei und • : C → C die komplexe Konjugation. Sind
A, B ∈ Matm×n (C), C ∈ Matn×k (C) und λ ∈ C, so gilt
A + B = A + B,
λ · A = λ · A und B · C = B · C.
Beweis. Sei λ ∈ C ein beliebiger Eigenwert von S. Sei v ∈ Cn ein Eigenvektor von
S zu λ mit v = (v1 , . . . , vn ). Nun ist Sv = λv, womit
Sv = Sv = Sv = λv = λv
ist (da S nur reelle Einträge hat). Somit ist v ein Eigenvektor zum Eigenwert λ von
S.
Nun ist
v t Sv = v t (Sv) = v t λv = λ(v t v)
und
v t Sv = v t S t v = (Sv)t v = (λv)t v = λ(v t v).
Damit ist
(λ − λ)(v t v) = 0.
Wenn wir also v t v 6= 0 zeigen, folgt λ = λ, d.h. λ ∈ R.
Nun ist
n
n
X
X
vtv =
vi vi =
|vi |2 > 0,
i=1
da wegen v 6= 0 ein i mit vi 6= 0 existiert.
i=1
2.3. SKALARPRODUKTE IM RN UND CN
77
Lemma 2.3.25. Sei S ∈ Matn×n (R) eine symmetrische Matrix und B = {v1 , . . . , vn }
eine Basis von Rn mit hvi , vj i = 0 für i 6= j und hvi , vi i = 1, wobei h•, •i das Standardskalarprodukt von Rn sei.
Ist T = (IdRn )BS , wobei S die Standardeinheitsbasis des Rn ist (also ist T die
Matrix (v1 , . . . , vn )), so ist T −1 ST wieder symmetrisch.
Beweis. Sei A := T t T = (aij )ij ; dann ist
(
1 wenn i = j,
aij = hvi , vj i =
0 sonst,
also T t T = En . Damit ist T −1 = T t (eine solche Matrix heisst orthogonal ; siehe
dazu weiter unten), und somit
(T −1 ST )t = (T t ST )t = T t ST = T −1 ST,
was zu zeigen war.
Satz 2.3.26. Sei S ∈ Matn×n (R) symmetrisch. Dann besitzt Rn eine Basis von
paarweise orthogonalen Eigenvektoren von S.
Bemerkung 2.3.27. Sind λ1 , λ2 ∈ R paarweise verschiedene Eigenwerte von einer
symmetrischen Matrix S ∈ Matn×n (R) sind und vi ∈ Eig(S, λi ), i = 1, 2, so gilt
hv1 , v2 i = 0, wobei h•, •i das Standardskalarprodukt von Rn sei.
Beweis. Es gilt
v1t Sv2 = v1t (Sv2 ) = v1t (λ2 v2 ) = λ2 (v1t v2 )
und
v1t Sv2 = (Sv1 )t v2 = λ1 (v1t v2 ),
womit (λ1 − λ2 )hv1 , v2 i = 0 sein muss. Da λ1 − λ2 6= 0 ist, muss hv1 , v2 i = 0 sein.
Beweis von Satz 2.3.26. Wir zeigen dies per Induktion nach n. Für n = 1 ist die
Behauptung klar. Sei also n > 1, und die Behauptung gelte für alle symmetrischen S ∈ Matk×k (R), k < n.
Nach dem Fundamentalsatz der Algebra 1.5.7 hat S mindestens einen komplexen
Eigenwert λ, der nach Lemma 2.3.24 reell ist. Sei u ∈ Eig(S, λ) \ {0} und betrachte U := span{u} und U ⊥ . Wir zeigen zuerst SU ⊥ ⊆ U ⊥ : Sei v ∈ U ⊥ und u ∈ U
beliebig. Dann ist
hu, Svi = ut Sv = (Su)t v = (λu)t v = λ(ut v) = λhu, vi = 0,
womit Sv ∈ U ⊥ folgt.
Nun gibt es nach Korollar 2.3.21 eine orthonormale Basis {v2′ , . . . , vn′ } von U ⊥ ,
u
die zusammen mit kuk
eine orthonormale Basis von Rn bildet (vergleiche den Beweis
von Korollar 2.3.21). Ist also T die Basiswechselmatrix von der Standardbasis zur
u
Basis { kuk
, v2′ , . . . , vn′ }, so ist T −1 ST von der Form

λ1
0

 ..
.
0
0
···
S|U ⊥
0



,

78
KAPITEL 2. LINEARE ALGEBRA II
wobei S|U ⊥ ∈ Mat(n−1)×(n−1) die Darstellungsmatrix der Einschränkung des durch S
induzierten Endomorphismus auf U ⊥ bezüglich der Basis {v2′ , . . . , vn′ } von U ⊥ sei.4
Nach Lemma 2.3.25 ist S|U ⊥ dann ebenfalls symmetrisch.
Nach Induktionsvoraussetzung gibt es eine Basis {v1 , . . . , vn−1 } von U ⊥ bestehend aus paarweise orthogonalen Eigenvektoren von S|U ⊥ (und somit auch Eigenvektoren von S). Mit vn := u ist {v1 , . . . , vn−1 , vn } eine gesuchte Basis von Rn .
Korollar 2.3.28. Sei S ∈ Matn×n (R) symmetrisch. Dann gibt es eine invertierbare
Matrix T ∈ Gln (R) so, dass
(a) die Spalten von T paarweise orthogonal sind,
(b) und


λ1
0


...
T −1 ST = 

0
λn
ist, wobei λ1 , . . . , λn die Eigenwerte von S sind.
Insbesondere gilt also Eig(S, λ) = VEig(S, λ) für alle λ ∈ R.
Korollar 2.3.29. Sei S ∈ Matn×n (R) eine symmetrische Matrix mit Eigenwerten λ1 , . . . , λn . Dann gibt es eine invertierbare Matrix U ∈ Gln (R) mit U −1 = U t
so, dass


λ1
0


...
U t SU = 

0
λn
gilt.
Definition 2.3.30. Eine Matrix U ∈ Gln (R) heisst orthogonal, wenn U t = U −1 ist.
Beweis von Korollar 2.3.29. Seien v1 , . . . , vn paarweise verschiedene und orthogonale Eigenvektoren von S mit Svi = λi vi , i = 1, . . . , n. Definiere
ui :=
vi
vi
=p
.
kvi k
hvi , vi i
Dann ist hui , ui i = 1, i = 1, . . . , n und hui , uj i = 0 für i 6= j. Ist U := (u1 , . . . , un ),
so gilt also U t U = En , womit U −1 = U t ist. Damit folgt die Behauptung.
Bemerkung 2.3.31. Ist U ∈ Gln (R) eine orthogonale Matrix, so bilden die Spalten von U eine orthonormale Basis von Rn , d.h. die Basisvektoren sind paarweise
orthogonal und haben jeweils die Länge 1.
Beispiel 2.3.32. Für jedes α ∈ R ist
¶
µ
cos α − sin α
sin α cos α
orthogonal. (Dies sind die ‘winkelerhaltenden Matrizen’.)
4
Hier ist es wichtig, dass die gewählte Basis orthonormal ist! Welche orthonormale Basis gewählt
ist, ist wiederum nicht wichtig; vergleiche Seite 48.
2.3. SKALARPRODUKTE IM RN UND CN
2.3.3
79
Basiswechsel für symmetrische Bilinearformen
Sei V ein endlichdimensionaler K-Vektorraum und h•, •iP: V ×V → K eineP
Bilinearn
form. Sei BV = {v1 , . . . , vn } eine Basis von V . Sind v = i=1 xi vi und w = ni=1 yi vi
zwei Vektoren, so ist
 
y1
 .. 
hv, wi = (x1 , . . . , xn )S  . ,
yn
wobei
S = (hvi , vj i)ij ∈ Matn×n (K)
die Gramsche Matrix von h•, •i ist.
Betrachte eine weitere Basis B̂V = {v̂1 , . . . , v̂n } von V und die zugehörige Basiswechselmatrix T mit (v̂1 , . . . , v̂n ) = (v1 , . . . , vn )T . Für einen Vektor v sei
 
 
 
x̂1
x̂1
x1
 .. 
 .. 
 .. 
v = (v1 , . . . , vn ) .  = (v̂1 , . . . , v̂n ) .  = (v1 , . . . , vn )T  . .
x̂n
x̂n
xn
Mit x = (x1 , . . . , xn )t und x̂ = (x̂1 , . . . , x̂n )t ist also x = T x̂. Sei genauso w =
(v1 , . . . , vn )y = (v̂1 , . . . , v̂n )ŷ mit y = (y1 , . . . , yn )t ∈ K n und ŷ = (ŷ1 , . . . , ŷn )t ∈ K n ;
dann gilt ebenso y = T ŷ. Damit ist
hv, wi = xt Sy = (T x̂)t S(T ŷ) = x̂t (T t ST )ŷ.
Wir haben also folgenden Satz gezeigt:
Satz 2.3.33. Falls die Matrix S eine Bilinearform h•, •i : V × V → K in Bezug auf
eine Basis BV beschreibt, und T eine Basiswechselmatrix von BV auf B̂V beschreibt,
so wird h•, •i bezüglich B̂V durch die Matrix Ŝ = T t ST beschrieben.
Dies liefert wieder die Frage, wie man unter allen möglichen Basen von V eine
Basis B̂V so wählen kann, dass Ŝ = T t ST besonders einfach ist (mit T = (IdV )B̂BVv )?
Wenn h•, •i eine reelle symmetrische Bilinearform ist, geht dies auf besonders
schöne Art und Weise:
Satz 2.3.34 (Trägheitssatz von Sylvester).
Dann gibt es eine Matrix T ∈ Gln (R) so, dass

Es 0s×t
T t ST =  0t×s −Et
0u×s 0u×t
Sei S ∈ Matn×n (R) symmetrisch.

0s×u
0t×u 
0u×u
ist mit natürlichen Zahlen s, t, u ∈ N mit s + t + u = n. Dabei sind diese Zahlen
Invarianten jeder Bilinearform h•, •i, die bezüglich einer Basis durch S beschrieben
werden kann, und man sagt, dass s + t der Rang der Bilinearform ist und s − t die
Signatur.
Bemerkung 2.3.35. In den neuen Koordinaten hat die Bilinearform die Gestalt
hv, wi = x̂1 ŷ1 + · · · + x̂s ŷs − x̂s+1 ŷs+1 − · · · − x̂s+t ŷs+t + 0 + · · · + 0.
80
KAPITEL 2. LINEARE ALGEBRA II
Beweis von Satz 2.3.34. Zuerst zur Existenz. Wir wissen bereits, dass es eine orthogonale Matrix U ∈ Gln (R) gibt mit


λ1
0


...
U t SU = 
.
0
λn
Mittels einer Permutationsmatrix P ∈ Gln (R) (in diesem Fall gilt P t = P −1 ) können
wir den Fall


λ̂1
0


...
(U P )t S(U P ) = P −1 (U t SU )P = 

0
λ̂n
mit λ̂1 , . . . , λ̂s > 0, λ̂s+1 , . . . , λ̂s+t < 0 und λ̂s+t+1 = · · · = λ̂n = 0 erreichen. Setze
nun
 1

q
0
 |λ̂1 |



...






q 1
 ∈ Gln (R).
R := 
λ̂
|
|
s+t




1




.
.

. 
1
Dann ist
(U P R)t S(U P R) = Rt ((U P )t S(U P ))R


1
 ..

.






1




−1


.
,
..
=




−1




0



... 


0
wie gefordert.
Nun zur Eindeutigkeit. Sei T̃ ∈ Gln (R) eine Matrix mit


Es̃
,
−Et̃
T t ST = 
0ũ×ũ
wobei s̃, t̃, ũ ∈ N seien mit s̃ + t̃ + ũ = n. Wir wollen zeigen, dass s = s̃, t = t̃ und
u = ũ ist.
Seien v1 , . . . , vn ∈ Rn die Spalten von T und ṽ1 , . . . , ṽn ∈ Rn die Spalten von T̃ .
Setze
V+ := span{v1 , . . . , vs },
V− := span{vs+1 , . . . , vs+t },
V0 := span{vs+t+1 , . . . , vn }
Ṽ+ := span{ṽ1 , . . . , ṽs̃ },
und
Ṽ− := span{ṽs̃+1 , . . . , ṽs̃+t̃ },
Ṽ0 := span{ṽs̃+t̃+1 , . . . , ṽn }.
2.3. SKALARPRODUKTE IM RN UND CN
81
Damit gilt
V+ ⊕ V− ⊕ V0 = Rn = Ṽ+ ⊕ Ṽ− ⊕ Ṽ0 .
Setze
A0 := {v ∈ Rn | ∀w ∈ Rn : wt Sv = 0} = {v ∈ Rn | Sv = 0}.
(Die Gleichheit erhält man durch Einsetzen der Standardeinheitsvektoren für w.)
Wir zeigen A0 = V0 = Ṽ0 . Aus Symmetriegründen reicht es, A0 = V0 zu zeigen:
Es ist klar, dass A0 ⊆ Rn ein Unterraum ist. Sei v ∈ V0 ; dann gilt
wt Sv = wt 0 = 0 für alle w ∈ Rn , womit V0 ⊆ A0 ist.
Sei nun v ∈ A0 . Schreibe v = T x mit x = (x1 , . . . , xn )t . Angenommen,
es sei xi 6= 0 für i ∈ {1, . . . , s + t}, also v 6∈ V0 . Dann ist vit ST x =
vit Sv = 0 und vit ST x = (vit ST )x = ±eti x = ±xi 6= 0, wobei ei der i-te
Standardeinheitsvektor von Rn ist. Dies ist ein Widerspruch, weswegen
v ∈ V0 sein muss.
Insbesondere ist also u = dim V0 = dim Ṽ0 = ũ. Wir zeigen schliesslich dim V+ =
dim Ṽ+ , womit s = dim V+ = dim Ṽ+ = s̃ und t = n − s − u = n − s̃ − ũ = t̃ ist:
Betrachte V+ ∩(Ṽ− ⊕ Ṽ0 ) =: U . Wir wollen U = 0 zeigen, womit dim V+ ≤
n − dim Ṽ− − dim Ṽ0 = dim Ṽ+ folgt. Aus Symmetriegründen würde dann
auch dim V+ ≥ dim Ṽ+ gelten, womit wir fertig wären.
Angenommen, es gibt ein v ∈ U mit v 6= 0. Dann ist v t Sv > 0 da v ∈ V+
ist. Schreibe v = v ′ + v ′′ mit v ′ ∈ Ṽ− und v ′′ ∈ Ṽ0 ; dann ist (v ′ )t Sv ′ < 0
und wSv ′′ = 0 für alle w ∈ Rn , und somit
v t Sv = (v ′ )t Sv ′ + (v ′ )t Sv ′′ + (v ′′ )t Sv ′ +(v ′′ )t Sv ′′ < 0,
| {z }
=(v ′ )t Sv ′′
ein Widerspruch!
Definition 2.3.36. Sei h•, •i : V × V → K eine symmetrische Bilinearform. Der
Entartungsraum von h•, •i sei definiert durch
{v ∈ V | ∀w ∈ V : hw, vi = 0}.
Bemerkung 2.3.37. Aus dem Beweis von Satz 2.3.34 haben wir gesehen, dass im
Fall einer symmetrischen Bilinearform h•, •i : Rn × Rn → R die Dimension des
Entartungsraumes gerade die Differenz von n und dem Rang von h•, •i ist.
2.3.4
Quadratische Formen
Ist h•, •i : K n × K n → K eine Bilinearform mit
 
 
y1
x1
 .. 
 .. 
x =  . , y =  .  ∈ K n ,
yn
xn
so ist bekanntlich
hx, yi = xt Sy
82
KAPITEL 2. LINEARE ALGEBRA II
für die Gramsche Matrix S ∈ Matn×n (K) von h•, •i. Die Abbildung
q : K n → K,
x 7→ xt Sx
heisst eine quadratische Form; sie hat die Eigenschaft q(λx) = λ2 q(x) für alle x ∈ K n
und λ ∈ K.
Ist beispielsweise n = 2, so ist durch
q(x1 , x2 ) = x21 + x22 − 2x1 x2
eine quadratische Form gegeben: es gilt
¶µ ¶
µ
1 −1 x1
.
q(x1 , x2 ) = (x1 , x2 )
x2
−1 1
Die zugehörige Bilinearform (im obigen Sinne) ist
¶µ ¶
µ ¶ µ ¶
µ
x1
y1
1 −1 y1
.
h
,
i = (x1 , x2 )
y2
−1 1
x2
y2
Wir wollen nun eine abstrakte Definition von quadratischer Form liefern. Dazu betrachten wir den Polynomring K[x1 , . . . , xn ] in den Unbestimmten x1 , . . . , xn ;
dieser ist induktiv per
K[x1 , . . . , xn−1 , xn ] := K[x1 , . . . , xn−1 ][xn ]
definiert.
Beispiel 2.3.38. Es ist
K[x, y] = K[x][y]
= {a0 + a1 y + a2 y 2 + · · · + an y n | ai ∈ K[x], i = 0, . . . , n}
¯
( n n
)
¯
XX
¯
=
aij xi y j ¯aij ∈ K .
¯
i=0 j=0
Ist f ∈ K[x1 , . . . , xn ] und a ∈ K n , etwa a = (a1 , . . . , an )t , so schreiben wir
f (a) := f (a1 , . . . , an ) ∈ K.
Definition 2.3.39. Ein Polynom ϕ ∈ K[x1 , . . . , xn ] ist eine Form vom Grad i,
wenn f von der Form
k
X
e
f=
aj x1j1 · · · xenjn
j=1
ist mit aj ∈ K und ejℓ ∈ N, 1 ≤ j ≤ k, 1 ≤ ℓ ≤ n mit
wenn die Monome von f alle den Totalgrad i haben.
Pn
ℓ=1 ejℓ
= i für alle j, d.h.
Beispiele 2.3.40.
(a) Das Polynom 5x1 + 2x2 + 3x3 ist eine Form vom Grad 1. Solche Formen werden
Linearformen genannt.
(b) Das Polynom 3x21 + 2x22 + x3 x4 ist eine Form vom Grad 2. Solche Formen werden
quadratische Formen genannt.
2.3. SKALARPRODUKTE IM RN UND CN
83
(c) Das Polynom x71 + x52 x23 ist eine Form vom Grad 7.
Bemerkung 2.3.41.
(a) Ist ϕ ∈ K[x1 , . . . , xn ] eine Form vom Grad i, so gilt f (λx) = λi f (x) für alle
λ ∈ K und x ∈ K n .
(b) Sei K ein Körper mit |K| = ∞ und sei f ∈ K[x1 , . . . , xn ] so, dass f (λx) = λi f (x)
für alle x ∈ K n und λ ∈ K gilt. Dann kann man zeigen, dass f bereits eine Form
vom Grad i ist.
(c) Ist K ein Körper mit |K| < ∞, so gibt es Polynome f ∈ K[x1 , . . . , xn ] mit
f (λx) = λi f (x) für alle x ∈ K n und λ ∈ K, obwohl f keine Form vom Grad i
ist.
Ist etwa |K| = q < ∞, so gilt xq = x für alle x ∈ K (dies wird in der Einführung
in die Algebra gezeigt), womit f := x1q+i−1 + xi2 ∈ K[x1 , x2 ] keine Form vom
Grad i ist, jedoch trotzdem f (λx) = λi f (x) für alle λ ∈ K und alle x ∈ K 2 gilt.
Lemma 2.3.42. Sei K ein Körper mit 1 + 1 6= 0. Dann wird jede Form vom
Grad 2 durch eine symmetrische Bilinearform induziert, d.h. zu jeder quadratischen
Form ϕ ∈ K[x1 , . . . , xn ] gibt eine symmetrische Bilinearform ψ : K n × K n → K mit
ϕ(x) = ψ(x, x) für alle x ∈ K n .
Beweis. Sei
q=
X
aij xi xj =
1≤i≤j≤n
n
X
aii x2i
+
i=1
eine quadratische Form. Definiere

a11 a212
 a12 . . .

S =  2.
...
 ..
a1,n
···
2
..
.
...
an−1,n
2
aij xi xj
i=1 j=i+1
a1,n
2
···
...
n X
n
X



 ∈ Matn×n (K).
an−1,n 
2
ann
Dann ist S offensichtlich symmetrisch, womit hx, yi := xt Sy eine symmetrische
Bilinearform auf K n definiert. Für x = (x1 , . . . , xn )t ist
!
à i−1
n
n
X
X aji
X
a
ij
xj + aii xi +
xj xi
hx, xi = xt Sx =
2
2
j=i+1
j=1
i=1
=
n X
i−1
X
aji
i=1 j=1
Nun ist
n X
i−1
X
aji
i=1 j=1
2
2
xi xj =
womit die Behauptung folgt.
xi xj +
n
X
i=1
aii x2i
n X
n
X
aij
xi xj .
+
2
i=1 j=i+1
n X
n X
n
n
X
X
aji
aij
xi xj =
xi xj ,
2
2
j=1 i=j+1
i=1 j=i+1
Bemerkung 2.3.43. Man kann aus dem Beweis erkennen, dass man durch hv, wi :=
1
(q(v + w) − q(v) − q(w)) ebenfalls die gesuchte symmetrische Bilinearform erhalten
2
kann.
84
KAPITEL 2. LINEARE ALGEBRA II
Korollar 2.3.44. Sei q : Rn → R eine quadratische Form. Dann gibt es eine
invertierbare Matrix T ∈ Gln (R) und natürliche Zahlen s, t mit s + t ≤ n so, dass
für x = (x1 , . . . , xn )t
q(T x) = x21 + · · · + x2s − x2s+1 − · · · − x2s+t
ist.
Beweis. Nach Lemma 2.3.42 wird q durch eine symmetrische Bilinearform ϕ : Rn ×
Rn → R induziert, d.h. für alle v ∈ Rn gilt q(v) = ϕ(v, v). Sei G die Gramsche
Matrix von ϕ; dann gilt ϕ(v, w) = v t Gw für alle v, w ∈ Rn .
Nach dem Sylvesterschen Trägheitssatz (Satz 2.3.34) gibt es ein T ∈ Gln (R) so,
dass


Es

−Et
T t GT = 
0u×u
ist (mit s, t, u ∈ N und s + t + u = n). Damit ist gerade
t
t
t
q(T v) = ϕ(T v, T v) = (T v) G(T v) = v (T GT )v =
s
X
i=1
vi2
−
t
X
2
vs+i
,
i=1
wenn v = (v1 , . . . , vn )t ∈ Rn ist.
Definition 2.3.45. Eine quadratische Form q : Rn → R heisst positiv definit, wenn
für alle v ∈ Rn \ {0} gilt q(v) > 0.
Beispiel 2.3.46. Die durch q(x1 , x2 , x3 ) = x21 + 7x22 + 3x23 definierte quadratische
Form R3 → R ist positiv definit.
Definition 2.3.47. Eine quadratische Form q : Rn → R heisst negativ definit,
wenn für alle v ∈ Rn \ {0} gilt q(v) < 0.
Definition 2.3.48. Wir sagen, dass eine symmetrische Matrix S ∈ Matn×n (R)
positiv definit bzw. negativ definit ist, wenn die quadratische Form q(x) := hx, xiS
(wobei hv, wiS := v t Sw die zu S gehörige Bilinearform ist) positiv bzw. negativ
definit ist.
Bemerkung 2.3.49. Die Matrix A ∈ Matn×n (R) ist negativ definit genau dann,
wenn −A positiv definit ist. Beachte, dass die Eigenwerte von A gerade von der
Form −λ für Eigenwerte λ von −A sind.
Satz 2.3.50. Sei S ∈ Matn×n (R) eine symmetrische Matrix.
(a) Genau dann ist S positiv definit, wenn die Eigenwerte von S alle positiv sind.
(b) Genau dann ist S negativ definit, wenn die Eigenwerte von S alle negativ sind.
Beweis. Wegen Bemerkung 2.3.49 reicht es aus, (a) zu zeigen. Sei S ∈ Matn×n (R)
symmetrisch. Nach Korollar 2.3.29 gibt es eine orthogonale Matrix T ∈ Gln (R) mit


λ1
0


...
T t ST = 
,
0
λn
2.3. SKALARPRODUKTE IM RN UND CN
85
wobei λ1 , . . . , λn ∈ R die Eigenwerte von S sind. Nun gilt
∀x ∈ Rn \ {0} : xt Sx > 0
⇐⇒ ∀y = T x ∈ Rn \ {0} : y t Sy > 0
⇐⇒ ∀x ∈ Rn \ {0} : xt (T t ST )x = (T x)t S(T x) > 0.
Insbesondere ist also S genau dann positiv definit, wenn T t ST es ist. Ohne Einschränkung können wir uns also auf den Fall


λ1
0


...
S=

0
λn
beschränken.
Sind alle λi > 0, so ist für x = (x1 , . . . , xn ) ∈ Rn \ {0}
t
x Sx =
n
X
λi x2i > 0.
i=1
Gilt andersherum xt Sx > 0 für alle x ∈ Rn \ {0}, so insbesondere auch
λi = eti Sei > 0,
i = 1, . . . , n
mit den Standardeinheitsvektoren e1 , . . . , en .
Satz 2.3.51 (Hurwitz-Jakobi-Kriterium). Sei S = (sij )ij ∈ Matn×n (R) eine
symmetrische Matrix.
(a) Genau dann ist S positiv definit, wenn

ist.

s11 · · · s1k


∀k = 1, . . . , n : det  ... . . . ...  > 0
sk1 · · · skk
(b) Genau dann ist S negativ definit, wenn

ist.

s11 · · · s1k


∀k = 1, . . . , n : (−1)k det  ... . . . ...  > 0
sk1 · · · skk
Beweis. Wieder reicht es wegen Bemerkung 2.3.49 aus, (a) zu zeigen, da det(−B) =
(−1)k det(B) ist für eine k × k-Matrix B. Wir zeigen (a) per Induktion nach n.
Für n = 1 ist die Aussage klar.
Sei


s11 · · · s1,n−1


..
...
B :=  ...
 ∈ Matn−1,n−1 (R);
.
sn−1,1 · · · sn−1,n−1
86
KAPITEL 2. LINEARE ALGEBRA II
dann ist B ebenfalls symmetrisch. Seien λ1 , . . . , λn−1 ∈ R die Eigenwerte von B.
Dann gibt es ein λn ∈ R so, dass λ1 , . . . , λn−1 , λn die Eigenwerte von A sind. Weiterhin ist
n−1
n
Y
Y
det B =
λi
und
det A =
λi = det B · λn .
i=1
i=1
Ist A positiv definit, so auch B. Nach Satz 2.3.50
Induktionsvoraussetzung (angewendet auf B) gilt

s11 · · ·
 .. . .
∀k = 1, . . . , n − 1 : det  .
.
gilt λi > 0 für alle i, und per

s1k
..  > 0.
. 
sk1 · · · skk
Insbesondere ist det B > 0 und somit auch det A = det B · λn > 0. Folglich gilt auch


s11 · · · s1n

..  = det A > 0.
det  ... . . .
. 
sn1 · · · snn
Gilt andersherum

s11 · · · s1k


∀k = 1, . . . , n : det  ... . . . ...  > 0,
sk1 · · · skk

so ist per Induktionsvoraussetzung B positiv definit, und es gilt det A > 0. Da B
positiv definit ist, sind nach Satz 2.3.50 λ1 , . . . , λn−1 > 0, womit det B > 0 ist.
det A
> 0, womit nach Satz 2.3.50 A positiv definit ist.
Damit ist ebenfalls λn = det
B
2.3.4.1
Anwendung in der Analysis
Sei f : Rn → R eine differenzierbare Funktion.
Beispiel 2.3.52. Sei f : R3 → R gegeben durch
f (x1 , x2 , x3 ) = cos x1 · sin x2 + ex3 .
Analog zum Fall n = 1 lässt sich auch für Funktionen Rn → R eine TaylorEntwicklung durchführen. Sei f mindestens dreimal stetig differenzierbar. Dann gilt
für x, x0 ∈ Rn
 
µ
¶ x1
∂f
∂f
 
f (x0 + x) = f (x0 ) +
(x0 ), . . . ,
(x0 )  ... 
∂x1
∂xn
xn
 
x1
µ 2
¶
1
∂ f
 .. 
2
+ (x1 , . . . , xn )
(x0 )
 .  + o(kxk ),
2
∂xi ∂xj
1≤i≤n
1≤j≤n
xn
wobei o(kxk2 ) für die Terme höherer Ordnung steht.
Der Vektor
µ
¶
∂f
∂f
grad f (x0 ) :=
(x0 ), . . . ,
(x0 )
∂x1
∂xn
2.3. SKALARPRODUKTE IM RN UND CN
87
heisst der Gradient von f in x0 , und die (nach dem Satz von Schwarz) symmetrische
Matrix
µ 2
¶
∂ f
Hf (x0 ) :=
(x0 )
∂xi ∂xj
1≤i≤n
1≤j≤n
die Hesse-Matrix von f in x0 .
Bemerkung 2.3.53. Sei f : Rn → R mindestens dreimal stetig differenzierbar und
sei x0 ∈ Rn mit grad f (x0 ) = 0.
(a) Ist Hf (x0 ) positiv definit, so hat f ein lokales Minimum in x0 , d.h. es gibt eine
Umgebung U ⊆ Rn von x0 so, dass f (x) > f (x0 ) für alle x ∈ U \ {x0 } gilt.
(b) Ist Hf (x0 ) negativ definit, so hat f ein lokales Maximum in x0 , d.h. es gibt eine
Umgebung U ⊆ Rn von x0 so, dass f (x) < f (x0 ) für alle x ∈ U \ {x0 } gilt.
(c) Ist Hf (x0 ) indefinit, hat also sowohl negative als auch positive Eigenwerte, so
hat f einen Sattelpunkt in x0 .
2.3.5
Gram-Schmidt-Orthogonalisierung
Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i.
Es sei BV = {u1 , . . . , un } eine Basis von V , dim V = n.
Definition 2.3.54. Sei B̂V = {v1 , . . . , vn } eine Basis von V .
(a) Die Basis B̂V heisst orthogonal, wenn hvi , vj i = 0 ist für i 6= j.
(b) Die Basis B̂V heisst orthonormal, wenn hvi , vj i = δij ist für alle i, j.
Dabei ist
δij :=
(
1 wenn i = j
0 wenn i 6= j
das Kronecker-Symbol.
Bemerkungen 2.3.55.
(a) Jede orthonormale Basis ist eine orthogonale Basis von V .
(b) Ist B̂V = {v1 , . . . , vn } eine orthogonale Basis von V , so ist B̃V := {ṽ1 , . . . , ṽn }
mit ṽi := kvvii k , 1 ≤ i ≤ n eine orthonormale Basis von V . Ist allgemein v ∈ V ,
v
v 6= 0, so ist v̂ := kvk
ein normierter Vektor, d.h. ein Vektor der Länge 1.
(c) Ist {v1 , . . . , vn } eine orthonormale Basis von V und ist v ∈ V , so ist
v=
n
X
i=1
denn: ist v =
Pn
i=1
hv, vi ivi ,
λi vi , so ist
hv, vj i =
n
X
i=1
λi hvi , vj i =
n
X
i=1
λi δij = λj .
88
KAPITEL 2. LINEARE ALGEBRA II
Satz 2.3.56 (Gram-Schmidt). Es seien u1 , . . . , uk ∈ V linear unabhängig. Dann
gibt es orthogonale Vektoren v1 , . . . , vk ∈ V (also hvi , vj i = 0 für i 6= j) mit
span{v1 , . . . , vi } = span{u1 , . . . , ui } für alle i = 1, . . . , k. Es kann etwa
vi := ui −
i−1
X
hui , vj i
j=1
hvj , vj i
vj
gewählt werden.
Ist insbesondere {u1 , . . . , un } eine Basis von V , so ist {v1 , . . . , vn } eine orthogonale Basis von V mit span{u1 , . . . , ui } = span{v1 , . . . , vi } für 1 ≤ i ≤ n.
Beweis. Wir definieren induktiv v1 , . . . , vi . Setze v1 := u1 ; dann gilt offensichtlicherweise span{v1 } = span{u1 }. Angenommen, v1 , . . . , vi−1 seien schon konstruiert mit
1 < i ≤ k. Setze
i−1
X
hui , vj i
vi := ui −
vj .
hv
,
v
i
j
j
j=1
Dann gilt span{v1 , . . . , vi−1 , vi } = span{v1 , . . . , vi−1 , ui } = span{u1 , . . . , ui−1 , ui }.
Weiterhin ist für ℓ < i
hvi , vℓ i = hui , vℓ i −
i−1
X
hui , vj i
j=1
hvj , vj i
hvj , vℓ i = hui , vℓ i −
hui , vℓ i
hvℓ , vℓ i = 0.
hvℓ , vℓ i
Bemerkung 2.3.57 (Geometrische Interpretation). Seien v1 , . . . , vk ∈ Rn
P
ii
vi die
orthogonal und sei U = span{v1 , . . . , vk }. Sei v ∈ Rn . Dann ist ki=1 hvhv,v
i ,vi i
orthogonale Projektion von v auf U .
Dies liefert eine lineare Abbildung
projU : V → U,
Pk
Für v =
i=1 λi vi ist λi =
Im projU = U . Weiterhin ist
hv,vi i
hvi ,vi i
k
X
hv, vi i
v 7→
vi .
hvi , vi i
i=1
und somit projU (v) = v; insbesondere ist also
v ∈ Ker projU ⇐⇒ hv, vi i = 0 für i = 1, . . . , k ⇐⇒ v ∈ U ⊥ .
Wir haben also Im projU = U , projU |U = IdU und Ker projU = U ⊥ .
Damit erhalten wir erneut den Satz vom orthogonalen Komplement, Satz 2.3.20:
Korollar 2.3.58 (Satz vom orthogonalen Komplement). Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i und sei U ⊆ V ein
Untervektorraum. Sei U ⊥ = {v ∈ V | ∀u ∈ U : hv, ui = 0}. Dann gilt
V = U ⊕ U ⊥.
Beweis. Sei dazu {v1 , . . . , vk } eine orthonormale Basis von U , die zu einer orthonormalen Basis {v1 , . . . , vn } von V fortgesetzt sei. Nach der letzten Bemerkung ist
U = projU (V ) = span{v1 , . . . , vk }
2.3. SKALARPRODUKTE IM RN UND CN
89
und
U ⊥ = Ker projU ⊇ span{vk+1 , . . . , vn },
da projU (vi ) = 0 für i > k ist. Nach der Dimensionsformel (Satz 1.6.24) ist dim U ⊥ =
dim V − dim Im projU = n − k, womit U ⊥ = span{vk+1 , . . . , vn } folgt. Daraus folgt
direkt die Behauptung.
Bemerkung 2.3.59. Ist V ein Euklidischer Vektorraum mit einer abzählbar unendlichen Basis, so kann Gram-Schmidt auch in diesem Fall angewendet werden:
Beispiel 2.3.60. Sei V = R[x] mit
Z 1
f (x)g(x) dx,
hf, gi :=
−1
f, g ∈ V.
Wir haben die Basis BV = {1, x, x2 , x3 , . . . }. Nun ist
¯1
Z 1
¯
1
1
i+j+1 ¯
i
j
i+j
x
(1 + (−1)i+j ).
=
hx , x i =
x dx =
¯
i
+
j
+
1
i
+
j
+
1
−1
−1
Damit erhalten wir
u0 (x) = 1,
u1 (x) = x,
u2 (x) = x2 − 13 ,
...
Bis auf konstanten Faktor erhält man die sogenannten Legendre-Polynome.
2.3.6
Orthogonale Abbildungen
Definition 2.3.61. Sei V ein Euklidischer Vektorraum. Ein Endomorphismus ϕ :
V → V heisst orthogonal, wenn für alle v, w ∈ V
hϕ(v), ϕ(w)i = hv, wi
gilt.
Beispiel 2.3.62. Ist V = R2 , so ist für jedes α ∈ R der Endomorphismus ϕα : V →
V , v 7→ Dα v mit
¶
µ
cos α − sin α
Dα =
sin α cos α
eine orthogonale Abbildung.
Lemma 2.3.63. Sei ϕ : V → V ein orthogonaler Endomorphismus. Dann gilt:
(a) Für alle v ∈ V ist kϕ(v)k = kvk;
(b) Für alle v, w ∈ V gilt v⊥w =⇒ ϕ(v)⊥ϕ(w);
(c) ϕ ist ein Monomorphismus, und ist V endlichdimensional, so ist ϕ ein Automorphismus;
(d) Ist λ ∈ R ein Eigenwert von ϕ, so ist |λ| = 1. Ist λ ∈ C ein Eigenwert einer
Darstellungsmatrix von ϕ, so ist |λ| = 1.
90
KAPITEL 2. LINEARE ALGEBRA II
Beweis.
(a) Klar wegen kvk =
p
hv, vi.
(b) Klar wegen v⊥w ⇐⇒ hv, wi = 0.
(c) Ist v ∈ V mit ϕ(v) = 0, so ist hv, vi = hϕ(v), ϕ(v)i = h0, 0i = 0, womit v = 0
sein muss. Also ist ϕ injektiv.
Bei endlichdimensionalen Vektorräumen ist jeder injektive Endomorphismus bereits ein Automorphismus.
(d) Sei λ ∈ R ein Eigenwert von ϕ und v ∈ V ein Eigenvektor zu λ. Dann ist
0 6= kvk = kϕ(v)k = kλvk = |λ|kvk,
(a)
womit |λ| = 1 sein muss.
Der Zusatz kann entweder unter Verwendung von Satz 2.3.67 direkt gezeigt
werden, oder folgt sofort aus Lemma 2.3.92 zusammen mit den Sätzen 2.3.67
und 2.3.91. Da wir dieses Resultat nicht benötigen, verzichten wir hier auf einen
direkten Beweis.
Lemma 2.3.64. Sei ϕ : V → V ein Endomorphismus. Genau dann ist ϕ orthogonal,
wenn kvk = kϕ(v)k für alle v ∈ V gilt.
Beweis. Die eine Richtung folgt direkt aus Lemma 2.3.63 (a). Gelte kvk = kϕ(v)k
für alle v ∈ V . Sind v, w ∈ V , so ist
kv + wk2 = hv + w, v + wi = kvk2 + kwk2 + 2hv, wi.
Damit ist
hv, wi =
und somit
¢
1¡
kv + wk2 − kvk2 − kwk2 ,
2
¢
1¡
kv + wk2 − kvk2 − kwk2
2
¢
1¡
kϕ(v) + ϕ(w)k2 − kϕ(v)k2 − kϕ(w)k2 = hϕ(v), ϕ(w)i.
=
2
hv, wi =
Definition 2.3.65. Eine Matrix A ∈ Matn×n (R) heisst orthogonal, wenn At A = En
ist, also wenn A ∈ Gln (R) ist mit A−1 = At .
Lemma 2.3.66. Sei A ∈ Matn×n (R). Dann sind die folgenden Aussagen äquivalent:
(i) Die Matrix A ist orthogonal;
(ii) Die Zeilen von A sind eine orthonormale Basis von Rn bezüglich dem Standardskalarprodukt;
(iii) Die Spalten von A sind eine orthonormale Basis von Rn bezüglich dem Standardskalarprodukt.
2.3. SKALARPRODUKTE IM RN UND CN
91
Beweis. Dies folgt daraus, dass das Standardskalarprodukt durch hv, wi = v t w gegeben ist, v, w ∈ Rn , und dass die Einheitsmatrix En = (δij )ij durch das KroneckerSymbol beschrieben werden kann.
Satz 2.3.67. Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i. Sei BV = {v1 , . . . , vn } eine orthonormale Basis, ϕ : V → V ein
Endomorphismus und A = ϕBBVV .
Genau dann ist ϕ orthogonal, wenn A orthogonal ist.
Beweis. Zu v ∈ V ist
v=
n
X
i=1
womit
hv, vi ivi ,
¡
¢
hv, wi = (hv, v1 i, . . . , hv, vn i) hvi , vj i ij (hw, v1 i, . . . , hw, vn i)t
= (hv, v1 i, . . . , hv, vn i)En (hw, v1 i, . . . , hw, vn i)t
= (hv, v1 i, . . . , hv, vn i)(hw, v1 i, . . . , hw, vn i)t
ist. Weiter ist
ϕ(v) = (ϕ(v1 ), . . . , ϕ(vn ))(hv, v1 i, . . . , hv, vn i)t
= (v1 , . . . , vn )A(hv, v1 i, . . . , hv, vn i)t .
Damit ist
¢
¢t ¡
¡
hϕ(v), ϕ(w)i = A(hv, v1 i, . . . , hv, vn i)t A(hw, v1 i, . . . , hw, vn i)t
= (hv, v1 i, . . . , hv, vn i)At A(hw, v1 i, . . . , hw, vn i)t .
Somit haben wir
ϕ orthogonal
⇐⇒ ∀v, w ∈ V : hϕ(v), ϕ(w)i = hv, wi

t 
t
 


hw, v1 i
hv, v1 i
hv, v1 i
hw, v1 i



 


⇐⇒ ∀v, w ∈ V :  ...  At A ...  =  ...   ... 
hw, vn i
hv, vn i
hv, vn i
hw, vn i
⇐⇒ ∀x, y ∈ K n : xt At Ay = xt y
⇐⇒ At A = En
⇐⇒ A orthogonal.
2.3.7
Adjungierte Endomorphismen
Definition 2.3.68. Sei (V, h•, •i) ein Euklidischer Raum und ϕ : V → V ein Endomorphismus. Ein weiterer Endomorphismus ϕ∗ : V → V heisst adjungiert zu ϕ,
wenn für alle v, w ∈ V gilt
hϕ(v), wi = hv, ϕ∗ (w)i.
Der Endomorphismus ϕ heisst selbstadjungiert, wenn ϕ adjungiert zu ϕ ist, d.h.
wenn
hϕ(v), wi = hv, ϕ(w)i
für alle v, w ∈ V ist.
92
KAPITEL 2. LINEARE ALGEBRA II
Bemerkung 2.3.69. Ist ϕ∗ adjungiert zu ϕ, so ist ϕ adjungiert zu ϕ∗ .
Beweis. Für alle v, w ∈ V gilt
hϕ∗ (v), wi = hw, ϕ∗ (v)i = hϕ(w), vi = hw, ϕ(v)i
wegen der Symmetrie des Skalarproduktes.
Satz 2.3.70. Sei ϕ : V → V ein Endomorphismus eines Euklidischen Raumes (V, h•, •i). Wir nehmen an, dass dim V < ∞ ist.
(a) Dann gibt es genau einen Endomorphismus ϕ∗ : V → V , der zu ϕ adjungiert
ist.
(b) Ist BV eine Orthonormalbasis von V , A = ϕBBVV und B = (ϕ∗ )BBVV , so ist
A = Bt.
Damit ist ϕ selbstadjungiert genau dann, wenn A symmetrisch ist.
Beweis. Sei BV eine Orthonormalbasis von V und sei A = ϕBBVV . Ist ψ : V → K n
der Koordinatenisomorphismus bezüglich BV , so gilt hv, wi = ψ(v)t ψ(w) für alle
v, w ∈ V , und es gilt ψ(ϕ(v)) = Aψ(v) für alle v ∈ V . Damit ist
hϕ(v), wi = ψ(ϕ(v))t ψ(w) = (Aψ(v))t ψ(w) = ψ(v)t (At ψ(w)).
Damit gilt für einen Endomorphismus ϕ∗ : V → V
ϕ∗ ist adjungiert zu ϕ
⇐⇒ ∀x, y ∈ Rn : xt At y = xt (ϕ∗ )BBVV y
⇐⇒ At = (ϕ∗ )BBVV .
Dies zeigt die Existenz und Eindeutigkeit aus (a) und es zeigt den ersten Teil von
(b). Die Äquivalenz aus (b) ist damit ebenfalls klar, da A per Definition genau dann
symmetrisch ist, wenn At = A ist.
2.3.8
Bilinearformen und Sesquilinearformen
2.3.8.1
Komplexifizierung
Sei ein reeller Vektorraum V gegeben.
Definition 2.3.71. Definiere
V C := {v + iw | v, w ∈ V } = {(v, w) | v, w ∈ V } = V × V.
Bemerkungen 2.3.72.
(a) Die Menge V C ist auf natürliche Weise eine Abelsche Gruppe durch (v + iw) +
(v ′ + iw′ ) := (v + v ′ ) + i(w + w′ ) für v, v ′ , w, w′ ∈ V .
(b) Die Abelsche Gruppe ist durch die Verknüpfung λ(v + iw) := (λv) + i(λw) für
v, w ∈ V , λ ∈ R auf eine natürliche Art und Weise ein R-Vektorraum, und als
R-Vektorraum ist V C ∼
= V ×V.
2.3. SKALARPRODUKTE IM RN UND CN
93
(c) Ist λ = λ1 + iλ2 ∈ C mit λ1 , λ2 ∈ R und ist v = v1 + iv2 ∈ V C mit v1 , v2 ∈ V ,
so definiere
λv := (λ1 v1 − λ2 v2 ) + i(λ1 v2 + λ2 v1 ).
Dadurch wird V C zu einem C-Vektorraum.
(d) Es gibt eine natürliche Inklusion
ι : V → V C,
v 7→ v + i0,
die ein R-Monomorphismus ist. Wir identifizieren V hierüber als R-Untervektorraum von V C .
(e) Ist B = {vi | i ∈ I} eine R-Basis von V , so ist
B1 := {v + i0 | v ∈ B} ∪ {0 + iv | v ∈ B}
eine R-Basis von V C und
B2 := {v + i0 | v ∈ B}
eine C-Basis von V C . Mit der Inklusion ι aus (d) gilt also B2 = ι(B).
2.3.8.2
Reellifizierung
Sei V ein C-Vektorraum. Da R ein Unterkörper von C ist, ist V auf natürliche Art
und Weise auch ein R-Vektorraum.
Sei dimC V = n und B = {v1 , . . . , vn } eine C-Basis von V .
(1) Betrachte
V R := spanR {v1 , . . . , vn , iv1 , . . . , ivn }.
Man rechnet leicht nach, dass {v1 , . . . , vn , iv1 , . . . , ivn } eine R-Basis von V ist,
dass also dimR V = 2n ist. Dies folgt im Prinzip sofort daraus, dass eine komplexe Zahl z ∈ C eindeutig als z = a + ib mit a, b ∈ R darstellbar ist.
(2) Definiere
VRB := spanR {v1 , . . . , vn }.
Dies ist ein n-dimensionaler R-Untervektorraum von V R , und auf natürliche
Weise gilt (VRB )C ∼
= V als C-Vektorräume.
Beispiel 2.3.73. Sei V = Rn = {(x1 , . . . , xn ) | xi ∈ R}. Dann ist
V C = {x + iy | x, y ∈ R} = {(x1 + iy1 , . . . , xn + iyn ) | xi , yi ∈ R} = Cn .
Umgekehrt ist
(Cn )SR = Rn ,
wenn S = {e1 , . . . , en } die Standardbasis von Cn ist, und (Cn )R = R2n .
94
KAPITEL 2. LINEARE ALGEBRA II
2.3.8.3
Skalarprodukte auf C-Vektorräumen
Sei V ein C-Vektorraum.
Wir hätten gerne wie im reellen Fall eine Bilinearform h•, •i : V × V → C so,
dass kvk2 := hv, vi eine Norm auf C induziert. Jedoch gibt es keine positiv definiten
Bilinearformen auf V mit dim V ≥ 1: ist h•, •i : V × V → C eine Bilinearform und
dim V > 1, so gibt es immer ein v ∈ V \ {0} mit hv, vi = 0 (siehe Aufgabe 4 auf
Übungsblatt 8). Und wenn v ∈ V ein Element mit hv, vi > 0 ist, so ist hiv, ivi =
i2 hv, vi = −hv, vi < 0.
Wir benötigen also etwas schwächeres als eine Bilinearform.
Definition 2.3.74. Eine Abbildung h•, •i : V × V → C heisst Sesquilinearform5 ,
wenn für alle v1 , v2 , v, w1 , w2 , w ∈ V und λ, µ ∈ C gilt
(i) hv1 + v2 , wi = hv1 , wi + hv2 , wi;
(ii) hλv, wi = λhv, wi;
(iii) hv, w1 + w2 i = hv, w1 i + hv, w2 i; und
(iv) hv, µwi = µhv, wi.
Somit ist eine Sesquilinearform “halblinear” in der zweiten Komponente.
Wie bei Bilinearformen können auch Sesquilinearformen über Matrizen beschrieben werden:
P
Bemerkung
2.3.75.
Ist
B
=
{v
,
.
.
.
,
v
}
eine
Basis
von
V
und
sind
v
=
λi v i
1
n
P
und w = µi vi , so gilt
¡
¢
hv, wi = (λ1 , . . . , λn ) hvi , vj i 1≤i≤n (µ1 , . . . , µn )t .
1≤j≤n
Die Matrix (hvi , vj i)i,j heisst Gramsche Matrix von ϕ bezüglich der Basis B.
Eine Sesquilinearform kann nur dann symmetrisch sein, wenn sie bereits identisch
0 ist: sind v, w ∈ V mit hv, wi =
6 0, so ist wäre ihv, wi = hiv, wi = hw, ivi = ihw, vi =
ihv, wi, also i = i = −i, ein Widerspruch.
Wir benötigen also eine etwas schwächere Form der Symmetrie.
Definition 2.3.76. Eine Sesquilinearform h•, •i auf V heisst Hermitesch, falls
hv, wi = hw, vi für alle v, w ∈ V gilt. Man nennt eine Hermitesche Sesquilinearform auch einfach Hermitesche Form.
Definition 2.3.77. Eine Sesquilinearform h•, •i auf V heisst positiv definit, wenn
für alle v ∈ V gilt
(i) hv, vi ∈ R;
(ii) hv, vi ≥ 0; und
(iii) hv, vi = 0 genau dann, wenn v = 0.
Definition 2.3.78. Eine positiv definite Hermitesche Sesquilinearform heisst (unitäres, komplexes) Skalarprodukt.
5
Das lateinische Wort sesqui bedeutet 1 21 .
2.3. SKALARPRODUKTE IM RN UND CN
95
Definition 2.3.79. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt
auf V .
(a) Zwei Vektoren v, w ∈ V heissen orthogonal (in Bezug auf h•, •i), wenn hv, wi =
0 ist.
(b) Eine Basis B = {v1 , . . . , vn } von V heisst Orthogonalbasis, wenn hvi , vj i = 0
ist für i 6= j.
(c) Eine Basis B = {v1 , . . . , vn } von V heisst Orthonormalbasis, wenn hvi , vj i = δij
ist, wobei
(
1 falls i = j,
δij =
0 sonst
wieder das Kronecker-Symbol ist.
Bemerkung 2.3.80. Ist V ein C-Vektorraum, h•, •i ein unitäres Skalarprodukt
P
auf VP
, B = {v1 , . . . , vn } eine Orthonormalbasis von V und ist v =
λi vi und
w = µi vi , so ist
n
X
hv, wi =
λi µi .
i=1
Beispiel 2.3.81. Sei V = Cn und x = (x1 , . . . , xn )t , y = (y1 , . . . , yn )t ∈ Cn . Dann
definiert
n
X
t
hx, yi := x y =
xi yi
i=1
ein unitäres Skalarprodukt auf V , genannt das (unitäre) Standardskalarprodukt.
Definition 2.3.82. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt
auf V . Dann heisst (V, h•, •i) ein unitärer Raum.
Bemerkung 2.3.83. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt
auf V . Dann definiert dieses Skalarprodukt eine Norm k•k auf V durch
p
kvk := hv, vi.
Für die Dreiecksungleichung wird ebenfalls wieder die Cauchy-Schwarzsche Ungleichung benötigt:
Lemma 2.3.84 (Cauchy-Schwarz). Sei (V, h•, •i) ein unitärer Raum und v, w ∈
V . Dann gilt
|hv, wi| ≤ kvk · kwk.
Beweis. Ist kwk = 0, so ist die Behauptung klar; sei also w 6= 0. Für alle λ ∈ C gilt
0 ≤ kv − λwk2 = hv − λw, v − λwi
= hv, vi − (λhv, wi + λhv, wi) + λλhw, wi
= hv, vi − 2ℜ(λhv, wi) + |λ|2 hw, wi.
Mit λ :=
hv,wi
hw,wi
gilt
0 ≤ hv, vi − 2ℜ
Ã
|hv, wi|2
hw, wi
womit die Behauptung folgt.
!
|hv, wi|2
|hv, wi|2
+
hw, wi = hv, vi −
,
hw, wi2
hw, wi
96
KAPITEL 2. LINEARE ALGEBRA II
Bemerkung 2.3.85 (Polarisierung). Man kann aus der Norm k•k wieder das
Skalarprodukt h•, •i erhalten, da für alle v, w ∈ V gilt
1
1
hv, wi = (kv + wk2 − kv − wk2 ) + i(kv + iwk2 − kv − iwk2 ).
4
4
Genauso wie im reellen gilt:
Satz 2.3.86 (Gram-Schmidt). Sei (V, h•, •i) ein unitärer Raum und seien linear unabhängige Vektoren u1 , . . . , uk ∈ V gegeben. Dann gibt es orthogonale Vektoren v1 , . . . , vk ∈ V (also hvi , vj i = 0 für i 6= j) mit
span{v1 , . . . , vi } = span{u1 , . . . , ui }
Es kann etwa
vi := ui −
i−1
X
hui , vj i
j=1
hvj , vj i
für alle i = 1, . . . , k.
vj
gewählt werden.
Ist insbesondere {u1 , . . . , un } eine Basis von V , so ist {v1 , . . . , vn } eine orthogonale Basis von V mit span{u1 , . . . , ui } = span{v1 , . . . , vi } für 1 ≤ i ≤ n.
Somit besitzt jeder endlichdimensionale unitäre Raum eine Orthogonalbasis und
damit ebenfalls eine Orthonormalbasis, da zu v ∈ V \ {0} gilt
°
°
° v °
°
°
° kvk ° = 1.
Definition 2.3.87. Eine Matrix U ∈ Matn×n (C) heisst unitär, wenn U U ∗ = En
t
ist, wobei U ∗ := U ist.
Ist O ∈ Matn×n (R) orthogonal, so ist O aufgefasst als Matrix in Matn×n (C) also
unitär. Analog zum reellen Fall (Lemma 2.3.66) gilt für unitäre Matrizen:
Lemma 2.3.88. Sei A ∈ Matn×n (C). Dann sind äquivalent:
(i) A ist unitär;
(ii) A ∈ Gln (C) und A−1 = A∗ ;
(iii) die Zeilen von A bilden eine Orthonormalbasis von Cn bezüglich dem unitären
Standardskalarprodukt;
(iv) die Spalten von A bilden eine Orthonormalbasis von Cn bezüglich dem unitären
Standardskalarprodukt;
Beweis. Analog zum reellen Fall.
Beispiel 2.3.89. Seien λ1 , . . . , λn ∈ R beliebig. Dann ist


eiλ1
0


...
 ∈ Matn×n (C)

iλn
0
e
unitär.
2.3. SKALARPRODUKTE IM RN UND CN
97
Definition 2.3.90. Sei (V, h•, •i) ein unitärer Vektorraum. Ein Endomorphismus
ϕ : V → V heisst unitär, wenn für alle v, w ∈ V gilt
hϕ(v), ϕ(w)i = hv, wi.
Analog zum reellen Fall (bei orthogonalen Matrizen und Abbildungen, siehe
Satz 2.3.67) gilt für die Beziehung zwischen unitären Matrizen und unitären Endomorphismen folgendes:
Satz 2.3.91. Sei B = {v1 , . . . , vn } eine Orthonormalbasis des unitären Raumes (V, h•, •i). Sei ϕ : V → V ein Endomorphismus und sei A = ϕBB . Genau dann ist
ϕ unitär, wenn A unitär ist.
Beweis. Es gilt
∀v, w ∈ V : hϕ(v), ϕ(w)i = hv, wi
⇐⇒ ∀x, y ∈ Cn : (Ax)t (Ay) = xt y
⇐⇒ ∀x, y ∈ Cn : xt (At A)y = xt y
⇐⇒ At A = En .
Lemma 2.3.92. Sei (V, h•, •i) ein unitärer Raum und sei λ ein Eigenwert eines
unitären Endomorphismus ϕ : V → V . Dann gilt |λ| = 1.
Bemerkung 2.3.93. Da C algebraisch abgeschlossen ist, hat jeder Endomorphismus
V → V eines endlichdimensionalen C-Vektorraums V 6= {0} einen Eigenwert.
Beweis von Lemma 2.3.92. Sei v ∈ V ein Eigenvektor zu λ. Dann gilt
0 6= kvk2 = hv, vi = hϕ(v), ϕ(v)i = hλv, λvi = λλhv, vi = |λ|2 kvk2 .
Da kvk2 6= 0 ist, folgt |λ|2 = 1, also |λ| = 1.
Bemerkungen 2.3.94.
(a) Damit sind auch alle Eigenwerte einer unitären Matrix vom Betrag 1.
(b) Ist ϕ unitär, so gilt kϕ(v)k = kvk für alle v ∈ V .
Definition 2.3.95. Sei (V, h•, •i) ein unitärer Raum und ϕ : V → V ein Endomorphismus. Ein weiterer Endomorphismus ϕ∗ : V → V heisst adjungiert zu ϕ, wenn
für alle v, w ∈ V gilt
hϕ(v), wi = hv, ϕ∗ (w)i.
Der Endomorphismus ϕ heisst selbstadjungiert, wenn ϕ adjungiert zu ϕ ist, d.h.
wenn
hϕ(v), wi = hv, ϕ(w)i
für alle v, w ∈ V gilt.
Bemerkung 2.3.96. Analog zum reellen Fall ist wieder ϕ adjungiert zu ϕ∗ .
98
KAPITEL 2. LINEARE ALGEBRA II
Definition 2.3.97. Eine Matrix A ∈ Matn×n (C) heisst Hermitesch, wenn A =
t
A∗ = A ist.
Analog zum reellen Fall (Satz 2.3.70) gilt:
Satz 2.3.98. Sei ϕ : V → V ein Endomorphismus eines unitären Raumes (V, h•, •i).
Wir nehmen an, dass dim V < ∞ ist.
(a) Dann gibt es genau einen Endomorphismus ϕ∗ : V → V , der zu ϕ adjungiert
ist.
(b) Ist BV eine Orthonormalbasis von V , A = ϕBBVV und B = (ϕ∗ )BBVV , so ist
A = B∗.
Damit ist ϕ selbstadjungiert genau dann, wenn A Hermitesch ist.
Beweis. Analog zum Beweis des reellen Satzes (Satz 2.3.70) gilt für alle Endomorphismen ϕ∗ : V → V , wenn A = ϕBB und B = (ϕ∗ )BB ist,
∀v, w ∈ V : hϕ(v), wi = hv, ϕ∗ (w)i
⇐⇒ ∀x, y ∈ Cn : (Av)t w = v t (Bw)
⇐⇒ ∀x, y ∈ Cn : v t At w = v t Bw
t
⇐⇒ At = B ⇐⇒ A∗ = A = B,
woraus ebenfalls alle Aussagen folgen.
Lemma 2.3.99. Sei λ ∈ C ein Eigenwert der Hermiteschen Matrix H ∈ Matn×n (C).
Dann gilt λ ∈ R.
Beweis. Sei v ∈ Cn ein Eigenvektor zu λ. Dann gilt
λhv, vi = hλv, vi = hAv, vi = hv, Avi = hv, λvi = λhv, vi,
und da hv, vi =
6 0 ist, ist somit λ = λ, also λ ∈ R.
2.3.9
Normale Endomorphismen
Definition 2.3.100.
(a) Ein Endomorphismus ϕ : V → V eines endlichdimensionalen unitären Raumes (V, h•, •i) heisst normal, wenn ϕ∗ ϕ = ϕϕ∗ ist.
(b) Eine Matrix A ∈ Matn×n (C) heisst normal, wenn A∗ A = AA∗ ist.
Lemma 2.3.101.
(a) Jeder unitäre und jeder selbstadjungierte Endomorphismus eines endlichdimensionalen unitären Raumes ist normal.
(b) Jede unitäre und jede Hermitesche Matrix ist normal.
2.3. SKALARPRODUKTE IM RN UND CN
99
Beweis.
(a) Ist ϕ : V → V selbstadjungiert, so ist ϕ∗ = ϕ und somit ϕϕ∗ = ϕ2 = ϕ∗ ϕ. Ist
ϕ : V → V unitär, so ist
hϕ(v), wi = hϕ(v), ϕ(ϕ−1 (w))i = hv, ϕ−1 (w)i
für alle v, w ∈ V , womit ϕ∗ = ϕ−1 folgt. Damit ist ϕϕ∗ = IdV = ϕ∗ ϕ.
(b) Es reicht, die Aussage für Matrizen zu beweisen. Sei A ∈ Matn×n (C). Ist A
unitär, also gilt AA∗ = En , so gilt A∗ = A−1 und somit A∗ A = En . Ist A
Hermitesch, so gilt A∗ = A, also A∗ A = A2 = AA∗ .
Satz 2.3.102. Sei (V, h•, •i) ein n-dimensionaler unitärer Raum, n ∈ N, und BV =
{v1 , . . . , vn } eine orthonormale Basis von V . Sei ϕ : V → V ein Endomorphismus.
Genau dann ist ϕ normal, wenn ϕBBVV ∈ Matn×n (C) normal ist.
Beweis. Nach Satz 2.3.98 ist (ϕ∗ )BBVV = A∗ . Damit ist
A normal, also AA∗ = A∗ A
⇐⇒ ϕBBVV (ϕ∗ )BBVV = (ϕϕ∗ )BBVV = (ϕ∗ ϕ)BBVV = (ϕ∗ )BBVV ϕBBVV
⇐⇒ ϕϕ∗ = ϕ∗ ϕ, also ϕ normal.
Lemma 2.3.103. Sei (V, h•, •i) ein endlichdimensionaler unitärer Raum und ϕ :
V → V ein Endomorphismus. Genau dann ist ϕ normal, wenn für alle v, w ∈ V
hϕ(v), ϕ(w)i = hϕ∗ (v), ϕ∗ (w)i
gilt.
Beweis. Es ist ϕ∗∗ = ϕ, da für alle v, w ∈ V
hϕ∗ (v), wi = hw, ϕ∗ (v)i = hϕ(w), vi = hv, ϕ(w)i
ist. Somit gilt für v, w ∈ V
hϕ(v), ϕ(w)i = hϕ∗ (v), ϕ∗ (w)i
⇐⇒ hv, ϕ∗ (ϕ(w))i = hv, ϕ(ϕ∗ (w))i
⇐⇒ hv, ϕ∗ (ϕ(w)) − ϕ(ϕ∗ (w))i = 0.
Dies gilt genau dann für ein festes w ∈ V und alle v ∈ V , wenn ϕ∗ (ϕ(w)) −
ϕ(ϕ∗ (w)) = 0 ist; damit ist die Gleichung aus der Behauptung äquivalent zu ϕ∗ ϕ =
ϕϕ∗ , also dazu, dass ϕ normal ist.
Lemma 2.3.104. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und
ϕ : V → V normal. Dann ist Ker ϕ = Ker ϕ∗ .
Beweis. Für v ∈ V gilt
kϕ(v)k2 = hϕ(v), ϕ(v)i = hϕ∗ (v), ϕ∗ (v)i = kϕ∗ (v)k2 .
Also ist ϕ(v) = 0 genau dann der Fall, wenn ϕ∗ (v) = 0 ist.
100
KAPITEL 2. LINEARE ALGEBRA II
Lemma 2.3.105. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und
ϕ : V → V normal. Ist v ∈ V Eigenvektor von ϕ zum Eigenwert λ ∈ C, so ist v
gleichzeitig auch Eigenvektor von ϕ∗ zum Eigenwert λ. Es ist also
Eig(ϕ, λ) = Eig(ϕ∗ , λ).
Beweis. Ist ϕ normal, so auch λ Id −ϕ: es ist (λ Id −ϕ)∗ = λ Id −ϕ∗ , und somit
(λ Id −ϕ)(λ Id −ϕ)∗ = |λ|2 Id −λϕ − λϕ∗ + ϕϕ∗ = (λ Id −ϕ)∗ (λ Id −ϕ).
Damit ist nach Lemma 2.3.104
Eig(ϕ, λ) = Ker(λ Id −ϕ) = Ker(λ Id −ϕ)∗ = Ker(λ Id −ϕ∗ ) = Eig(ϕ∗ , λ).
Lemma 2.3.106. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und
ϕ : V → V normal. Sind λ1 , λ2 ∈ C zwei verschiedene Eigenwerte von ϕ und ist
vi ∈ Eig(ϕ, λi ), i = 1, 2, so ist hv1 , v2 i = 0.
Beweis. Es ist (mit Lemma 2.3.105)
und
hϕ(v1 ), v2 i = hλ1 v1 , v2 i = λ1 hv1 , v2 i
hv1 , ϕ∗ (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i.
Nun ist jedoch hϕ(v1 ), v2 i = hv1 , ϕ∗ (v2 )i, womit (λ1 − λ2 )hv1 , v2 i = 0 ist; also folgt
die Behauptung.
Satz 2.3.107 (Hauptsatz über normale Endomorphismen). Sei (V, h•, •i)
ein n-dimensionaler unitärer Raum, n ∈ N, BV = {v1 , . . . , vn } eine orthonormale
Basis von V , ϕ : V → V ein Endomorphismus und A = ϕBBVV die Darstellungsmatrix
von ϕ bzgl. BV . Dann sind die folgenden Aussagen äquivalent:
(i) ϕ ist normal;
(ii) V besitzt eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ;
und
(iii) es gibt eine unitäre Matrix U ∈ Gln (C) so, dass U ∗ AU in Diagonalform ist,
d.h. A kann unitär diagonalisiert werden.
Beweis. (i) ⇒ (ii): Wir beweisen die Implikation per Induktion nach n. Für n = 1 ist
dies klar. Angenommen, dies gelte für alle k-dimensionalen unitären Vektorräume
mit k < n. Sei dim V = n.
Nach dem Fundamentalsatz der Algebra 1.5.7 gibt es einen Eigenwert λ1 ∈ C
von ϕ; sei v1 ∈ V ein Eigenvektor zu λ1 . Definiere w1 := kvv11 k ; dann ist ϕ(w1 ) = λ1 w1
und kw1 k = 1.
Betrachte nun W := span{w1 }⊥ = {w ∈ V | hw1 , wi = 0}. Dann ist dim W =
n − 1. Ist w ∈ W , so gilt (mit Lemma 2.3.105)
hϕ(w), w1 i = hw, ϕ∗ (w1 )i = hw, λ1 w1 i = λ1 hw, w1 i = 0,
also ϕ(w) ∈ W . Damit gilt ϕ(W ) ⊆ W , womit die Einschränkung ϕ|W : W → W
einen Endomorphismus liefert.
2.3. SKALARPRODUKTE IM RN UND CN
101
Ist w ∈ W , so gilt ebenfalls
hw1 , ϕ∗ (w)i = hϕ(w1 ), wi = hλw1 , wi = λhw1 , wi = 0,
also ϕ∗ (w) ∈ W . Somit ist auch die Einschränkung ϕ∗ |W : W → W wohldefiniert.
Deswegen gilt (ϕ|W )∗ = (ϕ∗ )|W , womit direkt folgt, dass ϕ|W normal ist. Per
Induktionsvoraussetzung gibt es also eine Orthonormalbasis {w2 , . . . , wn } von W
bestehend aus Eigenvektoren von ϕ|W , insbesondere also auch aus Eigenvektoren
von ϕ. Damit ist {w1 , w2 , . . . , wn } eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ.
(ii) ⇒ (iii): Sei B′ := {w1 , . . . , wn } eine Orthonormalbasis von V bestehend aus
′
′
Eigenvektoren von ϕ. Sei U := (IdV )BB ; dann ist ϕBB′ = U −1 AU in Diagonalform. Sei
ui die i-te Spalte von U ; dann gilt wi = (v1 , . . . , vn )ui . Somit ist der Eintrag in der
i-ten Zeile und j-ten Spalte von U ∗ U also gegeben durch
ui t uj = uti uj = hwi , wj i = δij ,
womit U ∗ U = En ist, U also unitär.
(iii) ⇒ (i): Sei D = U ∗ AU in Diagonalform mit U ∈ Gln (C) unitär, also A =
U DU ∗ . Dann ist
A∗ A = (U DU ∗ )∗ (U DU ∗ ) = (U D∗ U ∗ )(U DU ∗ ) = U D∗ DU ∗
und
AA∗ = (U DU ∗ )(U DU ∗ )∗ = (U DU ∗ )(U D∗ U ∗ ) = U DD∗ U ∗ ;
da offensichtlich D∗ D = DD = DD = DD∗ ist folgt somit A∗ A = AA∗ , also A
normal. Nach Satz 2.3.102 ist somit ϕ normal.
Bemerkung 2.3.108. In Matrizenform erhält man also folgendes: Ist A ∈ Matn×n (C),
so sind äquivalent:
(i) A ist normal;
(ii) es gibt eine Orthonormalbasis von Cn (bzgl. dem Standardskalarprodukt) bestehend aus Eigenvektoren von A; und
(iii) es gibt eine unitäre Matrix U ∈ Gln (C) so, dass U ∗ AU in Diagonalform ist.
Bemerkung 2.3.109. Folgende Klassen von Matrizen sind normal:
(a) unitäre (und insbesondere orthogonale) Matrizen (die Eigenwerte haben immer
Betrag 1);
(b) Hermitesche (und insbesondere reelle symmetrische) Matrizen (die Eigenwerte
sind immer reell); und
(c) Diagonalmatrizen.
Schliesslich erhalten wir:
Satz 2.3.110 (Struktursatz für Hermitesche und unitäre Matrizen). Sei
A ∈ Matn×n (C) und seien λ1 , . . . , λn ∈ C die Eigenwerte von A.
(a) Genau dann ist A hermitesch, wenn A normal ist und λ1 , . . . , λn ∈ R sind.
102
KAPITEL 2. LINEARE ALGEBRA II
(b) Genau dann ist A unitär, wenn A normal ist und |λi | = 1 ist, 1 ≤ i ≤ n.
Beweis. Mit Satz 2.3.107 und Lemma 2.3.101 reicht es aus, mit


λ1
0


...
D := 
 ∈ Matn×n (C)
0
λn
folgende Aussagen zu zeigen:
(i) Genau dann ist D hermitesch, wenn λ1 , . . . , λn ∈ R sind.
(ii) Genau dann ist D unitär, wenn |λi | = 1 ist, 1 ≤ i ≤ n.
Diese folgen jedoch direkt aus Lemma 2.3.99, Bemerkung 2.3.94 (a), Beispiel 2.3.89
und dem Fakt, dass reelle Diagonalmatrizen Hermitesch sind.
2.3.10
Anwendungsbeispiel: Methode der kleinsten Quadrate
Gegeben seien Punkte {(xi , yi ) ∈ R2 | i = 1, . . . , n} mit xi 6= xj für i 6= j. Betrachte
den Vektorraum
Vk := {f ∈ R[x] | grad(f ) < k} = R<k [x].
Gesucht ist nun ein f ∈ Vk so, dass
2
Q (f ) :=
n
X
i=1
(f (xi ) − yi )2
minimal ist.
Lemma 2.3.111 (Lagrange-Interpolation). Ist k = n, so gibt es genau ein
f ∈ Vk mit Q2 (f ) = 0, d.h. es gilt f (xi ) = yi für 1 ≤ i ≤ n.
Beweis. Wir zeigen zuerst die Eindeutigkeit. Seien f, f˜ ∈ Vn mit f (xi ) = yi =
f˜(xi ), 1 ≤ i ≤ n. Setze g := f − f˜; dann gilt g(xi ) = 0 für 1 ≤ i ≤ n und
grad(g) ≤ max{grad(f ), grad(f˜)} ≤ n − 1. Nach Bemerkung 1.2.21 muss somit g
das Nullpolynom sein, also f = f˜.
Nun zur Existenz. Definiere Polynome von Grad n − 1
n
Y
x − xj
fi (x) :=
∈ Vn ;
x i − xj
j=1
j6=i
dann gilt fi (xj ) = δij . Mit
f (x) :=
n
X
i=1
yi fi (x) ∈ Vn
ist also f (xi ) = yi fi (xi ) = yi , 1 ≤ i ≤ n, und
grad(f ) ≤ max{grad(f1 ), . . . , grad(fn )} = n − 1,
also f ∈ Vn .
2.3. SKALARPRODUKTE IM RN UND CN
103
Bemerkung 2.3.112. Betrachte die Auswertungsabbildung
ev : Vn → Rn ,
f 7→ (f (x1 ), . . . , f (xn )).
Diese ist linear, es ist dim Vn = n = dim Rn und der Kern ist nach Bemerkung 1.2.21
{0}, womit sie ein Isomorphismus ist. Daraus folgt ebenfalls direkt das vorherige
Lemma; im Gegensatz zum obigen Beweis liefert diese Methode jedoch kein Verfahren, f explizit zu konstruieren.
Sei f = a0 + a1 x + · · · + ak−1 xk−1 ∈ Vk , und setze v
ist

 

f (x1 )
a0
1 x1 x21 · · · xk−1
1

 ..   .. ..

.
.
.
..
..
..   ...
 .  = . .
f (xn )
1 xn x2n · · ·
|
{z
=:M
xk−1
n
:= (a0 , . . . , ak−1 )t ∈ Rk . Dann
    
y1
e1
  ..   .. 
 =  .  + . ,
ak−1
} | {z }
=v
wobei ei = f (xi ) − yi ist. Insbesondere ist also Q2 (f ) =
ein v̂ ∈ Rk so, dass
min kM v − yk = kM v̂ − yk
yn
| {z }
en
=:y
Pn
2
i=1 ei .
Wir suchen also
v∈Rk
ist.
Geometrisch betrachtet haben wir also den Unterraum
U := spanS M = {M v | v ∈ Rk } ⊆ Rn
und suchen einen Vektor û = M v̂ ∈ U so, dass kû − yk = kM v̂ − yk minimal ist.
Sei v̂ eine gesuchte Lösung. Dann muss y − M v̂ orthogonal auf U stehen, also
(M v)t (y − M v̂) = 0 sein für alle v ∈ Rk . Dies ist äquivalent zu
v t (M t y − M t M v̂) = 0 für alle v ∈ Rk ,
also zu M t y − M t M v̂ = 0. Aber dies bedeutet gerade v̂ ∈ Lös(M t M, M t y).
Bemerkung 2.3.113. Sei k ≤ n. Die Matrix M t M ist symmetrisch und positiv
definit, also insbesondere invertierbar.
Beweis. Es ist (M t M )t = M t M , womit M symmetrisch ist. Sei v ∈ Rk , v 6= 0. Dann
ist M v 6= 0, womit
0 < kM vk2 = hM v, M vi = v t (M t M )v
ist.
Die Lösung ist hier also eindeutig und durch
v̂ = (M t M )−1 M t y
gegeben.
Bemerkung 2.3.114. Analytisch kann man das Problem wie folgt untersuchen.
Betrachte die Funktion
1
φ : Rk → R,
x 7→ kM x − yk2 .
2
In einem Minimum v̂ gilt grad(φ)(v̂) = 0, und nachrechnen liefert
grad(φ)(x) = M t M x − M t y.
104
2.4
KAPITEL 2. LINEARE ALGEBRA II
Multilineare Algebra und Tensorprodukte
Im Folgenden seien K ein beliebiger Körper und V1 , . . . , Vk K-Vektorräume, nicht
unbedingt von endlicher Dimension. Setze P := V1 × · · · × Vk ; dies ist das direkte
Produkt der Vektorräume V1 , . . . , Vk
P = {(v1 , . . . , vk ) | vi ∈ Vi , 1 ≤ i ≤ k}
und ebenfalls wieder ein K-Vektorraum. Es gilt
dim(V1 × · · · × Vk ) = dim V1 + · · · + dim Vk ,
wobei wir die Konvention ∞ + v = v + ∞ = ∞ für alle v ∈ Z ∪ {∞} benutzen.
Beweis. Seien I1 , . . . , Ik Indexmengen und BVi = {vij | j ∈ Ii } Basen von Vi , 1 ≤
i ≤ k. Dann ist eine Basis von V1 × · · · × Vk durch
{(0, . . . , 0, vij , 0, . . . , 0) | j ∈ Ii , 1 ≤ i ≤ k}
gegeben.
Definition 2.4.1. Sei W ein weiterer K-Vektorraum und ϕ : V1 × · · · × Vk → W
eine Abbildung. Dann heisst ϕ multilinear, wenn für alle vi , ṽi ∈ Vi , 1 ≤ i ≤ k und
λ, µ ∈ K und alle j ∈ {1, . . . , k} gilt
ϕ(v1 , . . . , vj−1 , λvj + µṽj , vj+1 , . . . , vk )
= λϕ(v1 , . . . , vj−1 , vj , vj+1 , . . . , vk )
+ µϕ(v1 , . . . , vj−1 , ṽj , vj+1 , . . . , vk ),
wenn also ϕ linear in jeder Komponente ist.
Definition 2.4.2. Bezeichne mit
Mult(V1 × · · · × Vk , W )
die Menge aller multilinearen Abbildungen V1 × · · · × Vk → W .
Ist k = 1, so ist Mult(V1 , W ) = Hom(V1 , W ).
Satz 2.4.3. Mit komponentenweisen Verknüpfungen ist Mult(V1 × · · · × Vk , W ) ein
K-Vektorraum der Dimension
dim W ·
k
Y
dim Vj
j=1
mit der Konvention ∞·v = v ·∞ = ∞ für alle v ∈ N>0 ∪{∞} und ∞·0 = 0 = 0·∞.
Beweis. Seien ϕ1 , ϕ2 ∈ Mult(V1 × · · · × Vk , W ) und λ ∈ K. Dass durch die Definitionen
ϕ1 + ϕ2 : V1 × · · · × Vk → W,
(v1 , . . . , vk ) 7→ ϕ1 (v1 , . . . , vk ) + ϕ2 (v1 , . . . , vk )
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
105
und
λϕ1 : V1 × · · · × Vk → W,
(v1 , . . . , vk ) 7→ λϕ1 (v1 , . . . , vk )
eine K-Vektorraumstruktur auf Mult(V1 × · · · × Vk , W ) definiert wird rechnet man
leicht nach.
Sei BVi = {vij | j ∈ Ii } einePBasis von Vi , 1 ≤ i ≤ k, und sei BW = {wj | j ∈ J}
eine Basis von W . Sind vi = j∈Ii λij vij ∈ Vi , 1 ≤ i ≤ k, so hat man wegen der
Multilinearität
X
X
ϕ(v1 , . . . , vk ) =
···
λ1j1 · · · λkjk ϕ(v1j1 , . . . , vkjk ).
j1 ∈I1
jk ∈Ik
Man sieht analog zu linearen Abbildungen (siehe Satz 1.6.14), dass jede multilineare
Abbildung genau einem Element aus W I1 × · · · × W Ik entspricht.
Definiere
ϕj1 ,...,jk : V1 × · · · × Vk → K,
(v1 , . . . , vk ) 7→ λ1j1 · · · λkjk
P
(wobei wieder vi = λij vij ist); dann ist also
{ϕj1 ,...,jk wℓ | ji ∈ Ii , 1 ≤ i ≤ k, ℓ ∈ J}
eine Basis von Mult(V1 × · · · × Vk , W ).
Bemerkung 2.4.4. Der Raum Mult(V1 × · · · × Vk , W ) hat im Allgemeinen eine
wesentlich grössere Basis als der Raum Hom(V1 × · · · × Vk , W ).
2.4.1
Tensorprodukte
Wir wollen im Folgenden einen K-Vektorraum T konstruieren zusammen mit einer
multilinearen Abbildung ϕ : V1 × · · · × Vk → T so, dass jeder multilinearen Abbildung ψ ∈ Mult(V1 × · · · × Vk , W ) ein eindeutiges Element ρ ∈ Hom(T, W ) (mit
ψ = ρ◦ϕ) entspricht. Letzteres Element kann (im endlichdimensionalen Fall) einfach
durch Matrizen beschrieben werden.
Definition 2.4.5. Ein K-Vektorraum T zusammen mit einer multilinearen Abbildung ϕ : V1 × · · · × Vk → T heisst Tensorprodukt von V1 , . . . , Vk , wenn sie eine
Lösung des folgenden universellen Problems sind:
Ist W ein beliebiger K-Vektorraum und ψ : V1 × · · · × Vk → W eine beliebige
multilineare Abbildung, so gibt es genau eine lineare Abbildung ρ : T → W so, dass
ψ = ρ ◦ ϕ ist.
ϕ
/T
V1 × · · · ×M Vk
MMM
MMM
ψ MMMM
&
W
~~
~
~
~
∃!ρ
Man sagt auch, ein Tensorprodukt habe diese universelle Eigenschaft.
Satz 2.4.6. Das Tensorprodukt (T, ϕ) ist eindeutig bis auf eindeutige Isomorphie;
sind also (T, ϕ) und (T ′ , ϕ′ ) zwei Lösungen des obigen universellen Problems, so gibt
es genau einen K-Vektorraumisomorphismus ρ : T → T ′ mit ρ ◦ ϕ = ϕ′ .
106
KAPITEL 2. LINEARE ALGEBRA II
Beweis. Betrachte das Diagramm:
V1 × · · · ×M Vk
MMM ϕ′
MMM
MMM
M&
r
rrr
r
r
rr
x rr
r
ϕ
T
T′
Da (T, ϕ) eine Lösung des universellen Problems ist, gibt es genau eine lineare
Abbildung ρ : T → T ′ mit ϕ′ = ρ ◦ ϕ. Da weiterhin (T ′ , ϕ′ ) ebenfalls eine Lösung
des universellen Problems ist, gibt es genau eine lineare Abbildung ρ′ : T ′ → T mit
ϕ = ρ′ ◦ ϕ′ . Wir haben also das folgende Diagramm:
V1 × · · · ×M Vk
MMM ϕ′
r
MMM
rrr
r
r
MMM
r
r
r
_xrr _ _ _ _ _ ∃!ρ
_ _ _ _ _ _ _M/& ′
T o_ _ _ _ _ _ _ ′_ _ _ _ _ _ T
ϕ
∃!ρ
Damit ist bereits die Eindeutigkeit von ρ gezeigt; es verbleibt zu zeigen, dass ρ ein
Isomorphismus ist. Dazu zeigen wir, dass ρ ◦ ρ′ = IdT ′ und ρ′ ◦ ρ = IdT ist.
Nun gilt
(ρ ◦ ρ′ ) ◦ ϕ′ = ρ ◦ (ρ′ ◦ ϕ′ ) = ρ ◦ ϕ = ϕ′ ,
womit wir also das Diagramm
T
′
V1 × · · · ×M Vk
qq
qqq
q
q
q
q
x qq
ϕ′
MMM ϕ′
MMM
MMM
M&/
/ T′
ρ◦ρ′
IdT ′
haben. Da (T ′ , ϕ′ ) eine Lösung des obigen universellen Problems ist und sowohl
IdT ′ ◦ϕ′ = ϕ′ und (ρ ◦ ρ′ ) ◦ ϕ′ = ϕ′ gilt, folgt also IdT ′ = ρ ◦ ρ′ .
Genauso gilt (ρ′ ◦ ρ) ◦ ϕ = ϕ, und da (T, ϕ) eine Lösung des obigen universellen
Problems ist, folgt völlig analog ρ′ ◦ ρ = IdT .
Wegen des Satzes macht es Sinn, von dem Tensorprodukt von V1 , . . . , Vk zu
sprechen.
Bemerkung 2.4.7. In der Mathematik können viele Objekte durch universelle Eigenschaften eindeutig charakterisiert werden:
(1) Das Produkt P = V1 × · · · × Vk kann beispielsweise durch folgende universelle
Eigenschaft beschrieben werden (vergleiche auch Definition 2.4.37):
Sei ein Vektorraum P und zu jedem i eine lineare Abbildung ιi : Vi → P
(Inklusionen) gegeben. Dann heisst (P, (ι1 , . . . , ιk )) (äussere) direkte Summe von
V1 , . . . , Vk , wenn es folgende universelle Eigenschaft erfüllt:
Zu jedem Vektorraum W und linearen Abbildungen ψi : Vi → W , 1 ≤ i ≤ k
gibt es genau eine lineare Abbildung ρ : P → W mit ρ ◦ ιi = ψi , 1 ≤ i ≤ k.
Vi A
ιi
AA
AA
A
ψi AAÃ
W
~~
~
~
/P
~
∃!ρ
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
107
Dieses Problem wird durch P = V1 × · · · × Vk mit ιi (v) = (0, . . . , 0, v, 0, . . . , 0),
v ∈ Vi gelöst, wobei zu W und ψ1 , . . . , ψk das ρ durch
ρ(v1 , . . . , vk ) = ψ1 (v1 ) + · · · + ψk (vk )
gegeben ist.
(2) Sei R = Z die ganzen Zahlen. Dann können die rationalen Zahlen Q wie folgt
beschrieben werden:
Ein Körper Q zusammen mit einem Ringhomomorphismus ϕ : Z → Q heisst
Quotientenkörper von K = Z, wenn er folgende universelle Eigenschaft erfüllt:
Zu jedem Körper K und jedem injektiven Ringhomomorphismus ψ : Z → K
gibt es genau einen Körperhomomorphismus ρ : Q → K mit ρ ◦ ϕ = ψ.
ϕ
Z ??
??
??
ψ ??
Â
K
Ä~
~
~
/Q
~
∃!ρ
Dieses Problem wird durch Q = Q und ϕ(x) =
x
1
gelöst.
Satz 2.4.8. Das universelle Problem aus Definition 2.4.5 hat eine Lösung, d.h. das
Tensorprodukt existiert.
Beweis. Seien BVi = {vij | j ∈ Ii } Basen von Vi , 1 ≤ i ≤ k. Definiere T als den
K-Vektorraum mit der Basis
BT := {v1i1 ⊗ · · · ⊗ vkik | i1 ∈ I1 , . . . , ik ∈ Ik };
dieser kann realisiert werden als der K-Vektorraum aller Abbildungen (von Mengen)
I1 × · · · × Ik → K,
die nur für endlich viele Argumente einen Wert 6= 0 annehmen; dabei entspricht
v1i1 ⊗ · · · ⊗ vkik die Abbildung, welche (v1i1 , . . . , vkik ) auf 1 abbildet und alle anderen
Basis-Tupel auf 0.
Ein beliebiges Element aus T hat die Form
X
X
···
λi1 ...ik (v1i1 ⊗ · · · ⊗ vkik ),
i1 ∈I1
ik ∈Ik
wobei nur endlich viele der Koeffizienten λi1 ...ik ungleich 0 sind. Definiere
ϕ : V1 × · · · × Vk → T,
X
X
(v1 , . . . , vk ) 7→
···
λ1i1 · · · λkik (v1i1 ⊗ · · · ⊗ vkik ),
i1 ∈I1
wobei
vi =
X
j∈Ii
ik ∈Ik
λij vij ,
λij ∈ K
sei, 1 ≤ i ≤ k. Man rechnet schnell nach, dass ϕ multilinear ist.
108
KAPITEL 2. LINEARE ALGEBRA II
Zum Nachweis der universellen Eigenschaft sei eine multilineare Abbildung ψ :
V1 × · · · × Vk → W gegeben. Definiere ρ durch folgende Bilder der Basisvektoren:
ρ(v1i1 ⊗ · · · ⊗ vkik ) := ψ(v1i1 , . . . , vkik ).
Dann gilt
ψ(v1 , . . . , vk ) = ψ
³X
λ1i1 v1i1 , . . . ,
i1 ∈I1
=
X
i1 ∈I1
=
X
i1 ∈I1
=ρ
···
i1 ∈I1
λkik vkik
ik ∈Ik
···
³X
X
X
ik ∈Ik
X
ik ∈Ik
···
´
λ1i1 · · · λkik ψ(v1i1 , . . . , vkik )
λ1i1 · · · λkik ρ(v1i1 ⊗ · · · ⊗ vkik )
X
ik ∈Ik
´
λ1i1 · · · λkik (v1i1 ⊗ · · · ⊗ vkik )
= ρ(ϕ(v1 , . . . , vk )).
Diese Rechnung zeigt auch, dass ρ auf genau diese Weise gewählt werden muss,
indem man vj = vjij wählt mit ij ∈ Ij , 1 ≤ j ≤ k; dann ist
ψ(v1i1 , . . . , vkik ) = ρ(ϕ(v1i1 , . . . , vkik )) = ρ(v1i1 ⊗ . . . ⊗ vkik ).
Definition 2.4.9. Wir schreiben V1 ⊗K · · · ⊗K Vk oder einfach V1 ⊗ · · · ⊗ Vk für T ,
und wir schreiben ϕ(v1 , . . . , vk ) = v1 ⊗ · · · ⊗ vk .
Bemerkung 2.4.10. Aus dem Beweis von Satz 2.4.8 folgt, dass
dim(V1 ⊗ . . . ⊗ Vk ) =
k
Y
dim Vk
i=1
ist.
Beispiele 2.4.11.
(1) Es ist C ⊗C C ∼
= C.
(2) Es ist C ⊗R C ∼
= R4 ; eine R-Basis von C ⊗R C ist durch {1 ⊗ 1, 1 ⊗ i, i ⊗ 1, i ⊗ i}
gegeben.
(3) Die Komplexifizierung VC eines R-Vektorraums V (vergleiche Definition 2.3.71)
kann durch V ⊗R C beschrieben werden; eine Basis ist durch
{vj ⊗ 1 | j ∈ J} ∪ {vj ⊗ i | j ∈ J}
gegeben, wenn {vj | j ∈ J} eine Basis von V ist.
(4) Es ist K[x] ⊗K K[y] ∼
= K[x, y], zusammen mit ρ : K[x] × K[y] → K[x, y],
(f (x), g(y)) 7→ f (x)g(y).
Beispiel 2.4.12. Sei K = R,
V = R[x1 , . . . , xn ] und W = C = spanR {1, i}.
Sei weiter T = C[x1 , . . . , xn ] und ϕ : V × W → T durch ϕ(f, λ) = λ · f gegeben.
Dann ist ϕ bilinear, und (T, ϕ) ist ein Tensorprodukt von V und W über K.
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
109
Beweis. Zum Beweis verwenden wir die Notation
xj := xj11 · · · xjnn
Wir schreiben weiterhin
X′
für j = (j1 , . . . , jn ) ∈ Nn .
aj x j ,
aj ∈ C
j∈Nn
für
X
aj x j ,
j∈Nn
falls die Summe endlich ist, also |{j ∈ Nn | aj 6= 0}| < ∞ ist. Eine K-Basis von V
ist durch
{xj | j ∈ Nn }
gegeben, und eine K-Basis von T durch
{xj | j ∈ Nn } ∪ {ixj | j ∈ Nn }.
Sei U ein beliebiger Vektorraum und ψ : V × W → U bilinear. Wir müssen
zeigen, dass es genau eine lineare Abbildung ρ : T → U gibt mit ρ ◦ ϕ = ψ. Definiere
ρ : T → U durch
ρ(xj ) := ψ(xj , 1) und ρ(ixj ) = ψ(xj , i)
für alle j ∈ Nn ; damit wird eine eindeutige lineare Abbildung T → U definiert. Sei
(f, λ) ∈ V × W , und schreibe
f=
X′
aj x j ,
j∈Nn
aj ∈ R,
und
λ = λ1 + iλ2 ,
λ1 , λ2 ∈ R.
Dann ist
ρ(ϕ(f, λ)) = ρ(λf ) = ρ
³ X′
j∈Nn
=
=
X′
j∈Nn
X′
´ X′
(λ1 + iλ2 )aj xj =
ρ(λ1 aj xj + iλ2 aj xj )
j∈Nn
aj (λ1 ρ(xj ) + λ2 ρ(ixj )) =
X′
j∈Nn
aj (ψ(xj , λ1 ) + ψ(xj , iλ2 )) =
j∈Nn
=ψ
aj (λ1 ψ(xj , 1) + λ2 ψ(xj , i))
X′
aj (ψ(xj , λ1 + iλ2 ))
j∈Nn
³ X′
j∈Nn
´
aj xj , λ1 + iλ2 = ψ(f, λ).
Es verbleibt nun, die Eindeutigkeit zu zeigen. Sei dazu ρ′ : T → U eine weitere
lineare Abbildung mit ρ′ ◦ ϕ = ψ. Dann ist
ρ′ (xj ) = ρ′ (ϕ(xj , 1)) = ψ(xj , 1) = ρ(xj )
und
ρ′ (ixj ) = ρ′ (ϕ(xj , i)) = ψ(xj , i) = ρ(ixj )
für alle j ∈ Nn , womit ρ und ρ′ auf einer Basis von T übereinstimmen. Da beide
linear sind, folgt somit ρ = ρ′ .
110
KAPITEL 2. LINEARE ALGEBRA II
Satz 2.4.13. Seien V1 , . . . , Vk , W Vektorräume. Ist ρ ∈ Mult(V1 × · · · × Vk , W ), so
gibt es nach der universellen Eigenschaft des Tensorproduktes genau einen Homomorphismus
ρ̂ : V1 ⊗ . . . ⊗ Vk → W
mit
ρ̂(v1 ⊗ . . . ⊗ vk ) = ρ(v1 , . . . , vk ) für alle v1 ∈ V1 , . . . , vk ∈ Vk .
Die hierdurch definierte Zuordnung
Mult(V1 × · · · × Vk , W ) → Hom(V1 ⊗ . . . ⊗ Vk , W ),
ρ 7→ ρ̂
ist ein Vektorraum-Isomorphismus.
Beweis. Sei
ϕ : V1 × · · · × Vk → V1 ⊗ . . . ⊗ Vk ,
(v1 , . . . , vk ) 7→ v1 ⊗ . . . ⊗ vk
die kanonische Abbildung. Seien ρ, ρ′ ∈ Mult(V1 × · · · × Vk , W ) mit ρ̂ = ρ̂′ . Dann
folgt direkt ρ = ρ̂ ◦ ϕ = ρ̂′ ◦ ϕ = ρ′ . Damit ist die Zuordnung injektiv. Ist ψ ∈
Hom(V1 ⊗ . . . ⊗ Vk , W ), so ist ρ := ψ ◦ ϕ ∈ Mult(V1 × · · · × Vk , W ). Wegen der
Eindeutigkeit aus der universellen Eigenschaft folgt somit ρ̂ = ψ.
Es verbleibt zu zeigen, dass die Zuordnung ein Homomorphismus ist. Seien dazu
′
ρ, ρ ∈ Mult(V1 × · · · × Vk , W ) und λ ∈ K. Dann gilt
ρ\
+ λρ′ (v1 ⊗ . . . ⊗ vk ) = (ρ + λρ′ )(v1 , . . . , vk )
= ρ(v1 , . . . , vk ) + λρ′ (v1 , . . . , vk )
= ρ̂(v1 ⊗ . . . ⊗ vk ) + λρ̂′ (v1 ⊗ . . . ⊗ vk ),
womit wegen der Eindeutigkeit aus der universellen Eigenschaft folgt, dass ρ\
+ λρ′ =
ρ̂ + λρ̂′ ist.
Man kann die universelle Eigenschaft des Tensorproduktes wie folgt formulieren:
Bemerkung 2.4.14. Seien V1 , . . . , Vk Vektorräume, T ein weiterer Vektorraum und
ϕ : V1 × · · · × Vk → T eine multilineare Abbildung. Genau dann ist (T, ϕ) ein
Tensorprodukt von V1 , . . . , Vk , wenn für jeden Vektorraum U die lineare Abbildung
Hom(T, U ) → Mult(V1 × · · · × Vk , U ),
ρ 7→ ρ ◦ ϕ
ein Isomorphismus ist.
Das Tensorprodukt hat einige “algebraische” Eigenschaften:
Bemerkungen 2.4.15.
(a) Sind U , V und W Vektorräume, so gibt es eindeutige Homomorphismen
(U ⊗ V ) ⊗ W → U ⊗ V ⊗ W,
(u ⊗ v) ⊗ w 7→ u ⊗ v ⊗ w
U ⊗(V ⊗ W ) → U ⊗ V ⊗ W,
u ⊗(v ⊗ w) 7→ u ⊗ v ⊗ w.
und
Das Tensorprodukt ist also assoziativ.
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
111
(b) Ist σ ∈ Sk eine beliebige Permutation und sind V1 , . . . , Vk Vektorräume, so gibt
es einen eindeutigen Isomorphismus
ϕσ : V1 ⊗ . . . ⊗ Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k) ,
v1 ⊗ . . . ⊗ vk 7→ vσ(1) ⊗ . . . ⊗ vσ(k) .
Das Tensorprodukt ist also kommutativ.
(c) Sei V ein Vektorraum. Dann gibt es eindeutige Isomorphismen
V ⊗ K → V,
v ⊗ λ 7→ λv
K ⊗ V → V,
λ ⊗ v 7→ λv.
und
Der Grundkörper K verhält sich also wie ein neutrales Element beim Tensorprodukt.
(d) Sind V1 , V2 , W Vektorräume, so gibt es einen eindeutigen Isomorphismus
(V1 × V2 ) ⊗ W → (V1 ⊗ W ) × (V2 ⊗ W ),
(v1 , v2 ) ⊗ w 7→ (v1 ⊗ w, v2 ⊗ w).
Das Tensorprodukt ist also distributiv über ×. (Das Produkt × wird auch als
direkte Summe bezeichnet. Vergleiche auch Definition 2.4.37 und die anschliessende Bemerkung.)
Beweis.
(a) Wir zeigen die eindeutige Existenz von (U ⊗ V ) ⊗ W → U ⊗ V ⊗ W ; die eindeutige Existenz des anderen Isomorphismus kann analog gezeigt werden.
Wir konstruieren zuerst die Umkehrabbildung ρ′ : U ⊗ V ⊗ W → (U ⊗ V ) ⊗ W .
Betrachte dazu die Abbildung
ψ ′ : U × V × W → (U ⊗ V ) ⊗ W,
(u, v, w) 7→ (u ⊗ v) ⊗ w.
Diese ist trilinear; sind u1 , u2 ∈ U , v1 , v2 ∈ V , w1 , w2 ∈ W und λ ∈ K, so gilt
f (u1 + λu2 , v1 , w1 ) = ((u1 + λu2 ) ⊗ v1 ) ⊗ w1
= (u1 ⊗ v1 + λ(u2 ⊗ v1 )) ⊗ w1
= (u1 ⊗ v1 ) ⊗ w1 + λ((u2 ⊗ v1 ) ⊗ w1 )
= f (u1 , v1 , w1 ) + λf (u2 , v1 , w1 ),
f (u1 , v1 + λv2 , w1 ) = (u1 ⊗(v1 + λv2 )) ⊗ w1
= (u1 ⊗ v1 + λ(u1 ⊗ v2 )) ⊗ w1
= (u1 ⊗ v1 ) ⊗ w1 + λ((u1 ⊗ v2 ) ⊗ w1 )
= f (u1 , v1 , w1 ) + λf (u1 , v2 , w1 ),
f (u1 , v1 , w1 + λw2 ) = (u1 ⊗ u2 ) ⊗(w1 + λw2 )
= (u1 ⊗ v1 ) ⊗ w1 + λ((u1 ⊗ v1 ) ⊗ w2 )
= f (u1 , v1 , w1 ) + λf (u1 , v1 , w2 ).
112
KAPITEL 2. LINEARE ALGEBRA II
Nach der universellen Eigenschaft des Tensorproduktes gibt es eine eindeutig
bestimmte lineare Abbildung
ρ′ : U ⊗ V ⊗ W → (U ⊗ V ) ⊗ W
mit
ρ′ (u ⊗ v ⊗ w) = (u ⊗ v) ⊗ w
für alle u ∈ U, v ∈ V, w ∈ W.
Man kann den Beweis jetzt dadurch abschliessen, das man zeigt, dass ρ′ ein
Isomorphismus ist; dann folgt auch die eindeutige Existenz der Umkehrfunktion
mit der geforderten Eigenschaft. Dazu wählt man zuerst Basen
{ui | i ∈ I},
{vj | j ∈ J} und {wℓ | ℓ ∈ L}
von U , V bzw. W . Dann ist
{ui ⊗ vj ⊗ wℓ | i ∈ I, j ∈ J, ℓL}
eine Basis von U ⊗ V ⊗ W und
{(ui ⊗ vj ) ⊗ wℓ | (i, j) ∈ I × J, ℓ ∈ L}
eine Basis von (U ⊗ V ) ⊗ W , und man sieht sofort, dass ρ′ die obige Basis von
U ⊗ V ⊗ W in die obige Basis von (U ⊗ V ) ⊗ W überführt; damit ist ρ′ ein Isomorphismus.
Man kann die Behauptung auch zeigen, indem man explizit die Umkehrfunktion
von ρ′ konstruiert und zeigt, dass die Verkettung jeweils die Identität ist. Dazu
betrachtet man zuerst zu fest gewähltem w ∈ W die bilineare Abbildung ϕ′′ :
U × V → U ⊗ V ⊗ W , (u, v) 7→ u ⊗ v ⊗ w. Nach der universellen Eigenschaft
des Tensorproduktes gibt es hierzu genau eine lineare Abbildung ρw : U ⊗ V →
U ⊗ V ⊗ W mit ρw (u ⊗ v) = u ⊗ v ⊗ w für alle (u, v) ∈ U × V . Betrachte nun
die Abbildung
ϕ : (U ⊗ V ) × W → U ⊗ V ⊗ W,
(x, w) 7→ ρw (x).
Diese ist bilinear: sind x1 , x2 ∈ U ⊗ V und λ ∈ K, so ist
ϕ(x1 + λx2 , w) = ρw (x1 + λx2 ) = ρw (x1 ) + λρw (x2 )
= ϕ(x1 , w) + λϕ(x2 , w).
Pk
Seien nun x =
i=1 ui ⊗ vi ∈ U ⊗ W mit ui ∈ U , vi ∈ V , 1 ≤ i ≤ k und
w1 , w2 ∈ W , λ ∈ K. Dann ist
ϕ(x, w1 ) + λϕ(x, w2 ) = ρw1 (x) + λρw2 (x)
=
=
k
X
i=1
k
X
i=1
=
=
ρw1 (ui ⊗ vi ) + λ
(ui ⊗ vi ⊗ w1 ) +
k
X
¡
i=1
k
X
i=1
k
X
i=1
k
X
i=1
ρw1 (ui ⊗ vi )
λ(ui ⊗ vi ⊗ w1 )
k
¢ X
ui ⊗ vi ⊗ w1 + λ(ui ⊗ vi ⊗ w2 ) =
(ui ⊗ vi ⊗(w1 + λw2 ))
ρw1 +λw2 (ui ⊗ vi ) = ρw1 +λw2
= ρw1 +λw2 (x) = ϕ(x, w1 + λw2 ).
i=1
k
³X
i=1
ui ⊗ v i
´
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
113
Folglich gibt es genau eine lineare Abbildung ρ : (U ⊗ V ) ⊗ W → U ⊗ V ⊗ W
mit ρ((u ⊗ v) ⊗ w) = ϕ(u ⊗ v, w) = u ⊗ v ⊗ w für alle u ∈ U , v ∈ V , w ∈ W .
Es verbleibt zu zeigen, dass ρ ◦ ρ′ : U ⊗ V ⊗ W → U ⊗ V ⊗ W die Identität auf
U ⊗ V ⊗ W ist, und dass ρ′ ◦ ρ : (U ⊗ V ) ⊗ W → (U ⊗ V ) ⊗ W die Identität
auf (U ⊗ V ) ⊗ W ist. Dies sieht man sofort, indem man einen Vektor u ⊗ v ⊗ w
bzw. (u ⊗ v) ⊗ w einsetzt, u ∈ U , v ∈ V , w ∈ W , und da diese Vektoren jeweils
U ⊗ V ⊗ W bzw. (U ⊗ V ) ⊗ W aufspannen.
(b) Sei σ ∈ Sn . Betrachte die multilinearen Abbildungen
ψσ : V1 × · · · × Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k) ,
(v1 , . . . , vk ) 7→ vσ(1) ⊗ . . . ⊗ vσ(k)
und
ψσ′ : Vσ(1) × · · · × Vσ(k) → V1 ⊗ . . . ⊗ Vk ,
(vσ(1) , . . . , vσ(k) ) 7→ v1 ⊗ . . . ⊗ vk ;
dass diese multilinear sind, folgt direkt aus der Multilinearität des Tensorproduktes. Nach der universellen Eigenschaft des Tensorproduktes gibt es also eindeutig bestimmte lineare Abbildungen
ρσ : V1 ⊗ . . . ⊗ Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k)
und
ρ′σ : Vσ(1) ⊗ . . . ⊗ Vσ(k) → V1 ⊗ . . . ⊗ Vk
mit
ρσ (v1 ⊗ . . . ⊗ vk ) = vσ(1) ⊗ . . . ⊗ vσ(k)
und
ρ′σ (vσ(1) ⊗ . . . ⊗ vσ(k) ) = v1 ⊗ . . . ⊗ vk
für alle vi ∈ Vi , 1 ≤ i ≤ k. Analog wie vorher zeigt man, dass
ρσ ◦ ρ′σ = IdVσ(1) ⊗... ⊗ Vσ(k)
und
ρ′σ ◦ ρσ = IdV1 ⊗... ⊗ Vk
ist.
(c) Wie in (a) zeigen wir nur die eindeutige Existenz des einen Isomorphismus.
Betrachte die bilineare Abbildung
ψ : V × K → V,
(v, λ) 7→ λv.
Wieder mit der universellen Eigenschaft folgt die eindeutige Existenz eines Homomorphismus
ρ : V ⊗K → V
mit
ρ(v ⊗ λ) = λv für alle v ∈ V, λ ∈ K.
Betrachte die lineare Abbildung
ρ′ : V → V ⊗ K,
v 7→ v ⊗ 1.
Man rechnet leicht nach, dass ρ′ ◦ ρ = IdV ⊗ K und ρ ◦ ρ′ = IdV ist; damit folgt,
dass ρ ein Isomorphismus ist.
114
KAPITEL 2. LINEARE ALGEBRA II
(d) Betrachte die lineare Abbildung
ψ : (V1 × V2 ) × W → (V1 ⊗ W ) × (V2 ⊗ W ),
((v1 , v2 ), w) 7→ (v1 ⊗ w, v2 ⊗ w).
Man rechnet leicht nach, dass diese bilinear ist. Nach der universellen Eigenschaft gibt es also eine eindeutig bestimmte lineare Abbildung
ρ : (V1 × V2 ) ⊗ W → (V1 ⊗ W ) × (V2 ⊗ W )
mit
ρ((v1 , v2 ) ⊗ w) = (v1 ⊗ w, v2 ⊗ w) für alle v1 ∈ V1 , v2 ∈ V2 , w ∈ W.
Es verbleibt zu zeigen, dass diese lineare Abbildung ein Isomorphismus ist. Dazu
konstruieren wir zuerst zwei bilineare Abbildungen ψi′ : Vi × W → (V1 × V2 ) ⊗ W
mit
ψ1′ (v1 , w) = (v1 , 0) ⊗ w und ψ2′ (v2 , w) = (0, v2 ) ⊗ w
für alle v1 ∈ V1 , v2 ∈ V2 , w ∈ W . Nach der universellen Eigenschaft der Tensorprodukte V1 ⊗ W und V2 ⊗ W gibt es lineare Abbildungen
ρ′i : Vi ⊗ W → (V1 × V2 ) ⊗ W
mit
ρ′i (vi ⊗ w) = ψi′ (vi , w) für alle vi ∈ Vi , w ∈ W.
Betrachte die lineare Abbildung
ρ′ : (V1 ⊗ W ) × (V2 ⊗ W ) → (V1 × V2 ) ⊗ W,
(x, y) 7→ ρ′1 (x) + ρ′2 (y).
Mit dieser gilt dann
ρ ◦ ρ′ = Id(V1 ⊗ W )×(V2 ⊗ W ) und ρ′ ◦ ρ = Id(V1 ×V2 ) ⊗ W :
P
P
ist etwa x = ki=1 v1i ⊗ w1i ∈ V1 ⊗ W und y = ℓj=1 v2j ⊗ w2j ∈ V2 ⊗ W , so ist
(ρ ◦ ρ′ )(x, y) = ρ(ρ′ (x, y)) = ρ(ρ′1 (x) + ρ′2 (y))
k
ℓ
³X
´
X
′
=ρ
ρ1 (v1i ⊗ w1i ) +
ρ′2 (v2j ⊗ w2j )
i=1
=ρ
k
³X
j=1
ψ1′ (v1i , w1i )
i=1
=ρ
k
³X
i=1
=
k
X
i=1
=
k
X
i=1
=
+
ℓ
X
´
ψ2′ (v2j , w2j )
j=1
((v1i , 0) ⊗ w1i ) +
ρ((v1i , 0) ⊗ w1i ) +
ℓ
X
j=1
ℓ
X
j=1
´
((0, v2j ⊗ w2j )
ρ((0, v2j ) ⊗ w2j )
ℓ
X
(v1i ⊗ w1i , 0 ⊗ w1i ) +
(0 ⊗ w2j , v2j ⊗ w2j )
k
³X
i=1
j=1
ℓ
´ ³ X
´
v1i ⊗ w1i , 0 + 0,
v2j ⊗ w2j
= (x, 0) + (0, y) = (x, y).
Analog zeigt man ρ′ ◦ ρ = Id(V1 ×V2 ) ⊗ W .
j=1
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
115
Korollar 2.4.16. Sei V ein K-Vektorraum und n ∈ N. Dann gibt es einen eindeutigen Isomorphismus
K n ⊗ V → V n,
(x1 , . . . , xn ) ⊗ v 7→ (x1 v, . . . , xn v).
Beweis. Wir zeigen dies per Induktion. Sei die eindeutige Existenz von
ϕn : K n ⊗ V → V n
mit
ϕn ((x1 , . . . , xn ) ⊗ v) = (x1 v, . . . , xn v)
bereits gezeigt. Nun ist K n+1 = K n × K, womit es nach Bemerkung 2.4.15 (d) einen
eindeutigen Isomorphismus
K n+1 ⊗ V = (K n × K) ⊗ V ∼
= (K n ⊗ V ) × (K ⊗ V )
mit
(x, y) ⊗ v 7→ (x ⊗ v, y ⊗ v)
gibt. Nach Bemerkung 2.4.15 (c) gibt es nun einen eindeutigen Isomorphismus
K ⊗V → V
mit
λ ⊗ v 7→ λv,
und zusammen mit der eindeutigen Existenz von ϕn ergibt sich also ein eindeutiger
Isomorphismus
K n+1 ⊗ V ∼
= (K n ⊗ V ) × (K ⊗ V ) ∼
= V n × V = V n+1
mit
((x1 , . . . , xn ), xn+1 ) ⊗ v 7→ (ϕn ((x1 , . . . , xn ) ⊗ v), xn+1 v)
= (x1 v, . . . , xn v, xn+1 v).
Satz 2.4.17 (Funktorialität des Tensorproduktes). Seien fi : Vi → Wi lineare
Abbildungen zwischen Vektorräumen Vi , Wi , 1 ≤ i ≤ k. Dann gibt es genau eine
lineare Abbildung f : V1 ⊗ . . . ⊗ Vk → W1 ⊗ . . . ⊗ Wk mit
f (v1 ⊗ . . . ⊗ vk ) = f1 (v1 ) ⊗ . . . ⊗ fk (vk ).
Diese lineare Abbildung wird mit f1 ⊗ . . . ⊗ fk bezeichnet.
Beweis. Betrachte die Abbildung
fˆ : V1 × · · · × Vk → W1 ⊗ . . . ⊗ Wk ,
(v1 , . . . , vk ) 7→ f1 (v1 ) ⊗ . . . ⊗ fk (vk ).
Man rechnet leicht nach, dass die Abbildung multilinear ist. Nach der universellen
Eigenschaft des Tensorproduktes gibt es nun genau einen Homomorphismus f :
V1 ⊗ . . . ⊗ Vk → W1 ⊗ × ⊗ Wk mit
f (v1 ⊗ . . . ⊗ vk ) = fˆ(v1 , . . . , vk ) = f1 (v1 ) ⊗ . . . ⊗ fk (vk ),
was zu zeigen war.
Wir betrachten nun den Spezialfall Vi = K ni , Wi = K mi und fi : vi 7→ Ai vi mit
Ai ∈ Matmi ×ni (K). In diesem Fall bildet f1 ⊗ . . . ⊗ fk den Vektor v1 ⊗ . . . ⊗ vk auf
den Vektor Av1 ⊗ . . . ⊗ Avk ab. Die Darstellungsmatrix von f1 ⊗ . . . ⊗ fk entspricht
bei passender Basiswahl dem Kroneckerprodukt der Matrizen A1 , . . . , Ak :
116
KAPITEL 2. LINEARE ALGEBRA II
Definition 2.4.18. Sei A ∈ Matm×n (K) und B ∈ Matp×q (K). Sei A = (aij )ij .
Dann ist das Kroneckerprodukt A ⊗ B ∈ Matmp×nq (K) definiert durch


a11 B · · · a1n B

.. .
...
A ⊗ B :=  ...
. 
am1 B · · · amn B
Beispiel 2.4.19. Sei B ∈ Matp×q (K). Dann ist


B
0


...
En ⊗ B = 
 ∈ Matnp×nq (K).
0
B
Lemma 2.4.20. Seien A, C ∈ Matm×n (K), F ∈ Matn×k (K) und B, D ∈ Matp×q (K),
G ∈ Matq×s (K).
(a) Es gilt (A ⊗ B)t = At ⊗ B t .
(b) Es gilt (A ⊗ B)+(A ⊗ D) = A ⊗(B +D) und (A ⊗ B)+(C ⊗ B) = (A+C) ⊗ B.
(c) Es gilt (A ⊗ B)(F ⊗ G) = (AF ⊗ BG).
(d) Sind A ∈ Gln (K) und B ∈ Glp (K), so ist A ⊗ B ∈ Glnp (K) und (A ⊗ B)−1 =
A−1 ⊗ B −1 . Ist A ∈ Matn×n (K), B ∈ Matp×p (K) so, dass A ⊗ B ∈ Glnp (K) ist,
dann sind A ∈ Gln (K) und B ∈ Glp (K).
(e) Ist K = R und sind A ∈ Gln (K) und B ∈ Glp (K) orthogonal, so ist auch
A ⊗ B ∈ Glnp (K) orthogonal. Ist andersherum A ⊗ B orthogonal, so gibt es
λ, µ ∈ R mit λµ = 1 so, dass λA und µB orthogonal sind.
Beweis.
(a) Sei A = (aij )ij . Dann ist

t 
a11 B t · · · am1 B t
a11 B · · · a1n B

..  = At ⊗ B t .
..  =  ..
...
...
(A ⊗ B)t =  ...
 .
. 
. 
t
a1n B · · · amn B t
am1 B · · · amn B

(b) Sei A = (aij )ij und C = (cij )ij . Dann ist

 
a11 D · · · a1n D
a1n B
.. 
..  +  ..
...
. 
.   .
am1 D · · · amn D
am1 B · · · amn B


a11 (B + D) · · · a1n (B + D)


..
..
...
=
 = A ⊗(B + D)
.
.
am1 (B + D) · · · amn (B + D)

a11 B
 ..
(A ⊗ B) + (A ⊗ D) =  .
···
...
117
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
und

···
...
a11 B
 ..
(A ⊗ B) + (C ⊗ B) =  .
 
c11 B
a1n B
..  +  ..
.   .
am1 B · · · amn B

(a11 + c11 )B · · ·

..
...
=
.
···
...

c1n B
.. 
. 
cm1 B · · · cmn B

(a1n + c1n )B

..
 = (A + C) ⊗ B.
.
(am1 + cm1 )B · · · (amn + cmn )B
(c) Sei A = (aij )ij und F = (cij )ij . Dann ist

 
f11 G · · · f1k G
a11 B · · · a1n B

.. 
..  ·  ..
...
...
(A ⊗ B)(F ⊗ G) =  ...
. 
.   .
fn1 G · · · fnk G
am1 B · · · amn B
 Pn

Pn
i=1 a1i fi1 BG · · ·
i=1 a1i fik BG


..
..
...
=

.
.
Pn
Pn
i=1 ami fi1 BG · · ·
i=1 ami fik BG

 Pn
Pn
a
f
a
f
·
·
·
i=1 1i ik
i=1 1i i1


..
..
...
=
 ⊗(BG)
Pn .
Pn .
i=1 ami fi1 · · ·
i=1 ami fik

= (AF ) ⊗(BG).
(d) Sind A ∈ Gln (K) und B ∈ Glp (K), so ist
(A ⊗ B)(A−1 ⊗ B −1 ) = (AA−1 ) ⊗(BB −1 ) = En ⊗ Ep = Epn .
(c)
Damit ist A ⊗ B ∈ Glnp (K) und (A ⊗ B)−1 = A−1 ⊗ B −1 .
Für die Rückrichtung nehme an, dass A oder B nicht invertierbar sei; ohne
Einschränkung sei dies A. Dann gibt es ein v ∈ K n mit Av = 0, v 6= 0. Weiterhin
sei w ∈ K p mit w 6= 0. Dann ist
(A ⊗ B)(v ⊗ w) = (Av) ⊗(Bw) = 0 ⊗(Bw) = 0,
jedoch ist
(v ⊗ w) 6= 0.
Damit ist A ⊗ B nicht invertierbar.
(e) Sind A und B orthogonal, gilt also AAt = En und BB t = Ep , so ist
(A ⊗ B)(A ⊗ B)t = (A ⊗ B)(At ⊗ B t ) = (AAt ) ⊗(BB t ) = En ⊗ Ep = Enp ,
(a)
(c)
womit auch A ⊗ B orthogonal ist.
Sei nun A ⊗ B orthogonal, also
Enp = (A ⊗ B)(A ⊗ B)t = (AAt ) ⊗(BB t ).
118
KAPITEL 2. LINEARE ALGEBRA II
Ist C = (cij )ij = AAt und D = (dij )ij = BB t , so ist also


Ep 0 · · · 0
c11 D · · · c1n D
. . . . . . .. 

. 
 ..
..  =  0
...
C ⊗D =  .
,
.  
 ... . . . . . . 0 
cn1 D · · · cnn D
0 · · · 0 Ep


also cij D = 0 falls i 6= j und cii D = Ep für i 6= 0. Insbesondere muss cii 6= 0 und
D 6= 0 sein, womit cii = cjj =: µ′ sein muss für alle i, j. Weiterhin muss cij = 0
sein für i 6= j, da ansonsten cij D 6= 0 wäre. Wir haben also AAt = C = µ′ En .
Setze λ′ := µ1′ ; dann ist µ′ D = Ep , also BB t = D = λ′ Ep .
Nun ist µ′ das Standardskalarprodukt√ von der ersten
von A mit sich
√ ′Spalte
1
′
′
selber, womit µ ≥ 0 folgt. Setze λ := λ und µ := µ = λ ; dann gilt folglich
λµ = 1 und
und
(λA)(λA)t = λ′ AAt = λ′ µ′ En = En
(µB)(µB)t = µ′ BB t = µ′ λ′ Ep = Ep .
Bemerkung 2.4.21. Ist V = Matm×n (K) und W = Matp×q (K), so setze T =
Matmp×nq (K) und ϕ : V × W → T , (A, B) 7→ A ⊗ B. Dann ist ϕ bilinear und (T, ϕ)
ist ein Tensorprodukt von V und W .
2.4.2
Tensoren in der Physik
Der Einfachkeit halber sei V ein n-dimensionaler Vektorraum mit Basis BV =
{v1 , . . . , vn }. Sei V ∗ = Hom(V, K) der Dualraum mit der Dualbasis BV∗ = {v1∗ , . . . , vn∗ };
es gelte also
vi∗ (vj ) = δij für alle 1 ≤ i, j ≤ n.
In der Physik wird oft der Vektorraum
. . ⊗ V}
T p,q := |V ∗ ⊗ .{z
. . ⊗ V }∗ ⊗ |V ⊗ .{z
p mal
q mal
betrachtet. Die Elemente von T p,q heissen p-fach kovariante und q-fach kontravariante Tensoren. Für V ⊗ . . . ⊗ V schreiben wir von nun an
Ok
V
oder
V ⊗ k.
Mit diesen Notationen hat man
Op
Oq
T p,q =
V∗⊗
V = (V ∗ )⊗ p ⊗ V ⊗ q .
Die Elemente aus T p,q haben bezüglich der Standardbasis die Form
X
i1 ,...,ip ,j1 ,...,jq ∈{1,...,n}
j ,...,j
mit λi11,...,ipq ∈ K.
j ,...,j
λi11,...,ipq vi∗1 ⊗ . . . ⊗ vi∗p ⊗ vj1 ⊗ . . . ⊗ vjq
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
2.4.3
119
Raum der symmetrischen und alternierenden Tensoren
Lemma 2.4.22. Sei V ein n-dimensionaler Vektorraum und {e1 , . . . , en } eine Basis
von V . Dann ist
Ok
dim
V = nk
und
{ei1 ⊗ . . . ⊗ eik | i1 , . . . , ik ∈ {1, . . . , n}}
ist eine Basis von
Nk
V.
Beweis. Folgt direkt aus Bemerkung 2.4.10.
Definition 2.4.23. Sei
ϕ:V
· · × V} → W
| × ·{z
k mal
eine multilineare Abbildung.
(a) Dann heisst ϕ alternierend, wenn für alle v1 , . . . , vk ∈ V mit ∃i 6= j : vi = vj
gilt ϕ(v1 , . . . , vk ) = 0.
(b) Dann heisst ϕ symmetrisch, wenn für alle Permutationen σ ∈ Sk und alle
v1 , . . . , vk ∈ V gilt
f (v1 , . . . , vk ) = f (vσ(1) , . . . , vσ(k) ).
Bemerkung 2.4.24. Gilt 1 + 1 6= 0 in K, so ist eine multilineare Abbildung
ϕ : |V × ·{z
· · × V} → W
k mal
genau dann alternierend, wenn für alle v1 , . . . , vk ∈ V und alle Permutationen σ ∈ Sk
gilt
ϕ(v1 , . . . , vk ) = sign(σ)ϕ(vσ(1) , . . . , vσ(k) ).
Die folgenden zwei universellen Probleme haben (bis auf eindeutige Isomorphie)
eindeutige Lösungen:
V
(1) Es gibtVeinen Vektorraum k V und eine multilineare alternierende Abbildung ψ :
V k → k V mit folgender universellen Eigenschaft:
Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare
V
alternierende Abbildung, so gibt es genau eine lineare Abbildung ρ : k V → W
mit ϕ = ρ ◦ ψ.
ψ
/ Vk V
V kA
AA
AA
ϕ AAA
Ã
W
|z
z
z
z
∃!ρ
120
KAPITEL 2. LINEARE ALGEBRA II
(2) Es gibt einen Vektorraum S k V und eine multilineare symmetrische Abbildung ψ :
V k → S k V mit folgender universellen Eigenschaft:
Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare
symmetrische Abbildung, so gibt es genau eine lineare Abbildung ρ : S k V → W
mit ϕ = ρ ◦ ψ.
ψ
V k BB
BB
BB
BB
!
ϕ
W
|y
y
y
/ SkV
y
∃!ρ
Beispiele 2.4.25. Es ist S 1 V = V /{0} = V . (Hier identifizieren wir V /{0} mit V
mittels dem kanonischen Isomorphismus v + {0} 7→ v.)
Wir wollen zuerst S k V näher diskutieren.
k
k
NkZur allgemeinen Konstruktion von S V betrachte den Untervektorraum U von
V definiert durch
span{v1 ⊗ . . . ⊗ vk − vσ(1) ⊗ . . . ⊗ vσ(k) | σ ∈ Sk , v1 , . . . , vk ∈ V }.
Definiere
S k V :=
Für v1 , . . . , vk ∈ K schreiben wir
³Ok
´
V /U k .
v1 · v2 · · · · · vk := v1 ⊗ . . . ⊗ vk + U k ∈ S k V.
Ist {e1 , . . . , en } eine Basis von V , so lässt sich ein allgemeines Element aus S k V
eindeutig schreiben als
X
λi1 ...ik ei1 · · · eik .
1≤i1 ≤···≤ik ≤n
Lemma 2.4.26. In S k V gelten folgende Rechenregeln:
(a) v1 · · · vk = vσ(1) · · · vσ(k) und
(b) (λv1 + µṽ1 ) · v2 · · · vk = λ(v1 · · · vk ) + µ(ṽ1 · v2 · · · vk )
für alle σ ∈ Sk , ṽ1 , v1 , . . . , vk ∈ V und λ, µ ∈ K.
Beweis.
(a) Per Definition ist v1 ⊗ · · · ⊗ vk − vσ(1) ⊗ · · · ⊗ vσ(k) ∈ U k . Damit gilt in S k V =
N
( k V )/U k
v1 ⊗ · · · ⊗ vk + U k = vσ(1) ⊗ · · · ⊗ vσ(k) + U k .
(b) Dies folgt sofort aus der Multilinearität von
Satz 2.4.27. Die Abbildung
ψ : V k → S k V,
Nk
V.
(v1 , . . . , vk ) 7→ v1 · · · vk
ist multilinear und symmetrisch. Weiterhin ist (S k V, ψ) die Lösung des folgenden
universellen Problems:
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
121
Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare
symmetrische Abbildung, so gibt es genau eine lineare Abbildung ρ : S k V → W mit
ϕ = ρ ◦ ψ.
V k BB
ψ
BB
B
ϕ BBB
!
W
|y
y
y
/ SkV
y
∃!ρ
Beweis. Die Symmetrie folgt direkt wegen Teil (a) vom Lemma. Die Multilinearität braucht wegen der Symmetrie nur in der ersten Komponente nachgerechnet zu
werden und folgt somit direkt aus Teil (b) des Lemmas.
Um zu zeigen, dass (S k V, ψ) eine Lösung des universellen Problems ist, sei eine
multilineare symmetrische Abbildung ϕ : V k → W gegeben. Nach der universellen
Eigenschaft des Tensorproduktes gibt es nun genau eine lineare Abbildung
ρ̂ :
mit
Ok
V →W
ρ̂(v1 ⊗ . . . ⊗ vk ) = ϕ(v1 , . . . , vk )
für alle v1 , . . . , vk ∈ V.
Wir zeigen nun, dass U k ⊆ Ker ρ̂ gilt. Dann induziert ρ̂ N
nach dem Homomorphiesatz 2.2.12 eine eindeutige lineare Abbildung ρ : S k V = ( k V )/U k → W mit
ρ(v1 · · · vk ) = ρ̂(v1 ⊗ . . . ⊗ vk ) = ϕ(v1 , . . . , vk )
für alle v1 , . . . , vk ∈ V .
/ Nk V π / S k V
Â
ww
FF
FF
 ∃!ρ̂ wwww
w
ϕ FFF Â
" ² {www ∃!ρ
V k FF
W
Dazu seien v1 , . . . , vk ∈ V und σ ∈ Sn ; es ist zu zeigen, dass ρ̂(v1 ⊗ . . . ⊗ vk −
vσ(1) ⊗ . . . ⊗ vσ(k) ) = 0 ist. Jedoch ist
ρ̂(v1 ⊗ . . . ⊗ vk − vσ(1) ⊗ . . . ⊗ vσ(k) )
= ρ̂(v1 ⊗ . . . ⊗ vk ) − ρ̂(vσ(1) ⊗ . . . ⊗ vσ(k) )
= ϕ(v1 , . . . , vk ) − ϕ(vσ(1) , . . . , vσ(k) )
= ϕ(v1 , . . . , vk ) − ϕ(v1 , . . . , vk ) = 0,
da ϕ symmetrisch ist. Damit folgt die Existenz von ρ. Ist ρ′ : S k V → W eine
Nweitere
′
′
lineare Abbildung mit ϕ = ρN
◦ψ, so induziert ρN
eine lineare Abbildung ρ̂′ : k → W
mit ρ̂′ = ρ′ ◦ π, wobei π : k V → S k V = ( k V )/U k die kanonische Projektion
ist. Nun ist
ρ̂′ (v1 ⊗ . . . ⊗ vk ) = ρ′ (v1 · · · vk ) = (ρ′ ◦ ϕ)(v1 , . . . , vk )
= (ρ ◦ ϕ)(v1 , . . . , vk ) = ρ(v1 · · · vk ) = ρ̂(v1 ⊗ . . . ⊗ vk ),
woraus mit der universellen Eigenschaft des Tensorproduktes folgt, dass ρ̂′ = ρ̂ ist,
und damit wegen des Homomorphiesatzes auch ρ = ρ′ ist.
Bemerkung 2.4.28. Analog zu Satz 2.4.6 zeigt man, dass (S n V, ψ) durch das universelle Problem eindeutig bis auf eindeutigen Isomorphismus definiert ist.
122
KAPITEL 2. LINEARE ALGEBRA II
Wir betrachten den Polynomring K[x1 , . . . , xn ]. Für i = (i1 , . . . , in ) ∈ Nn schreiben wir kurz
xi := xi11 · · · xinn .
Damit lässt sich jedes Polynom f ∈ K[x1 , . . . , xn ] eindeutig in der Form
X
αi xi
i∈Nn
schreiben, wobei αi ∈ K ist, i ∈ Nn und {i ∈ Nn | αi 6= 0} endlich ist. Für ein
Monom xi definieren wir den Totalgrad
grad(xi ) := i1 + · · · + in .
Definition 2.4.29. Definiere den Vektorraum der homogenen Polynome in den
Unbestimmten x1 , . . . , xn von Grad k durch
K[x1 , . . . , xn ](k) := span{xi | i ∈ Nn , grad(xi ) = k}.
Beispiel 2.4.30. Es ist
K[x1 , x2 ](3) = span{x31 , x21 x2 , x1 x22 , x32 }.
Also ist dim K[x1 , x2 ](3) = 4.
Lemma 2.4.31. Es ist
dim K[x1 , . . . , xn ](k) =
µ
¶
¶ µ
n+k−1
n+k−1
.
=
n−1
k
Beweis. Eine Basis von K[x1 , . . . , xn ](k) ist durch
{xi11 · · · xinn | i1 , . . . , in ∈ N, i1 + · · · + in = k}
gegeben, woraus direkt die Behauptung mit Lemma A.1.3 folgt.
Satz 2.4.32. Sei V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }. Definiere eine Abbildung
Ok
f:
V → K[x1 , . . . , xn ],
X
X
λi1 ...ik ei1 ⊗ . . . ⊗ eik 7→
λi1 ...ik xi1 · · · xin .
Dann ist f eine lineare Abbildung mit Im(f ) = K[x1 , . . . , xn ](k) und Ker f = U k .
Beweis. Man rechnet leicht nach, dass f linear ist. Da K[x1 , . . . , xn ](k) von den
Elementen der Form xi1 · · · xik mit i1 , . . . , ik ∈ {1, . . . , n} erzeugt wird, folgt sofort
dass Im(f ) = K[x1 , . . . , xn ](k) ist. Weiterhin gilt offensichtlich U k ⊆ Ker f . Sei
schliesslich
X
λi1 ...ik ei1 ⊗ . . . ⊗ eik ∈ Ker f.
Definiere zu (i1 , . . . , ik ) ∈ {1, . . . , n}k
αi1 ,...,ik :=
|{(σ(i1 ), . . . , σ(ik )) | σ ∈ Sk }|
> 0;
|Sk |
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
123
damit ist
X
X
X
X
λi1 ...ik ei1 ⊗ . . . ⊗ eik =
···
αi1 ,...,ik
λiσ(1) ...iσ(k) eiσ(1) ⊗ . . . ⊗ eiσ(k) ,
1≤i1 ≤···≤ik ≤n
σ∈Sk
und somit ist
³X
´
0=f
λi1 ...ik ei1 ⊗ . . . ⊗ eik
³X
´
X
X
=
···
αi1 ,...,ik
λiσ(1) ...iσ(k) xi1 · · · xin .
1≤i1 ≤···≤ik ≤n
Es ist also
σ∈Sk
X
λiσ(1) ...iσ(k) = 0
σ∈Sk
für alle 1 ≤ i1 ≤ · · · ≤ ik ≤ n. Aber damit ist
X
λiσ(1) ...iσ(k) eiσ(1) ⊗ · · · ⊗ eiσ(k) ∈ U k
σ∈Sk
für alle 1 ≤ i1 ≤ · · · ≤ ik ≤ n, womit Ker f ⊆ U k folgt.
Korollar 2.4.33. Ist V ein n-dimensionaler Vektorraum, so gilt
SkV ∼
= K[x1 , . . . , xn ](k) .
Korollar 2.4.34. Ist V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }, so
gilt
µ
¶
n+k−1
k
dim S V =
,
k
und
{ei1 · · · eik | 1 ≤ i1 ≤ · · · ≤ ik ≤ n}
bildet eine Basis von S k V .
2.4.4
Tensoralgebra und symmetrische Algebra
Sei K ein Körper.
Definition 2.4.35. Ein K-Vektorraum A zusammen mit einer Multiplikation · :
A × A → A, (a, b) 7→ ab := a · b heisst K-Algebra, wenn (A, +, ·) ein Ring ist und
wenn · K-bilinear ist.
Beispiel 2.4.36. Der Polynomring K[x1 , . . . , xn ] ist eine K-Algebra.
Bevor wir fortfahren, benötigen wir die direkte Summe von einer beliebigen Familie von K-Vektorräumen.
Definition 2.4.37. Sei I eine Indexmenge und sei zu jedem i ∈ I ein K-Vektorraum Vi
gegeben. Definiere das direkte Produkt der Vi , i ∈ I als
o
n
Y
[ ¯¯
Vi := f : I →
Vi ¯ f (i) ∈ Vi für alle i ∈ I
i∈I
i∈I
und die (äussere) direkte Summe der Vi , i ∈ I als
o
n
M
Y ¯¯
Vi := f ∈
Vi ¯ f (i) = 0 für alle bis auf endlich viele i ∈ I .
i∈I
i∈I
124
KAPITEL 2. LINEARE ALGEBRA II
Bemerkungen 2.4.38.
(a) Durch die Verknüpfungen
f +g :I →
[
i 7→ f (i) + g(i)
Vi ,
i∈I
und
λf : I →
[
i 7→ λf (i)
Vi ,
i∈I
Q
Q
L
für λ ∈ K, f, g ∈ i∈I Vi wird i∈IQVi zu einem K-Vektorraum, und i∈I Vi ist
dann ein K-Untervektorraum von i∈I Vi .
L
P
(b) Ist f ∈ i∈I Vi , so schreiben wir auch f = i∈I f (i), wenn es sich bei den Vi um
verschiedene Vektorräume handelt. Dies macht Sinn, da alle f (i) bis auf endlich
viele 0 sind und somit die Summe endlich ist.
(c) Bei endlichen Indexmengen stimmen direktes Produkt und direkte Summe überein, und es gilt
n
Y
i=1
Vi = V1 × · · · × Vn =
n
M
i=1
Vi =: V1 ⊕ · · · ⊕ Vn .
Bei beliebigen Indexmengen stimmen direktes Produkt und direkte Summe genau dann überein, wenn alle bis auf endlich viele der Vektorräume nur aus dem
Nullvektor bestehen.
(d) Das direkte Produkt und die direkte Summe können wieder über universelle
Eigenschaften definiert werden. Dies wird im Folgenden nicht benötigt und soll
nur der Vollständigkeit halber erwähnt werden.
Q
(i) Das direkte Produkt P = i∈I Vi kann durch folgende universelle Eigenschaft beschrieben werden:
Sei ein Vektorraum P und zu jedem i ∈ I eine lineare Abbildung ρi :
P → Vi (Projektion) gegeben. Dann heisst (P, (ρi )i∈I ) direktes Produkt
der Vi , i ∈ I, wenn es folgende universelle Eigenschaft erfüllt:
Zu jedem Vektorraum W und linearen Abbildungen ψi : W → Vi , i ∈ I
gibt es genau eine lineare Abbildung ϕ : W → P mit ρi ◦ ϕ = ψi , i ∈ I.
Vi o`A
ρi
AA
AA
A
ψi AA
W
~
~
~
P
~>
∃!ϕ
Q
Dieses Problem wird durch P = i∈I Vi mit ρi : P → Vi , f 7→ f (i), i ∈ I
gelöst, wobei zu W und ψi , i ∈ I das ϕ durch
(
S
I → i∈I Vi
ϕ : W → P,
v 7→
i 7→ ψi (v)
gegeben ist.
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
125
L
(ii) (Vergleiche Bemerkung 2.4.7 (a).) Die direkte Summe P = i∈I Vi kann
durch folgende universelle Eigenschaft beschrieben werden:
Sei ein Vektorraum P und zu jedem i ∈ I eine lineare Abbildung ιi : Vi →
P (Inklusionen) gegeben. Dann heisst (P, (ιi )i∈I ) (äussere) direkte Summe
der Vi , i ∈ I, wenn es folgende universelle Eigenschaft erfüllt:
Zu jedem Vektorraum W und linearen Abbildungen ψi : Vi → W , i ∈ I
gibt es genau eine lineare Abbildung ρ : P → W mit ρ ◦ ιi = ψi , i ∈ I.
ιi
Vi A
AA
AA
A
ψi AAÃ
W
Dieses Problem wird durch P =
L
~~
~
~
/P
~
∃!ρ
Vi mit

S

I → i∈I Vi ,
v 7→ j 7→ 0 wenn j 6= i,


i 7→ v,
ιi : Vi → P,
i∈I
i ∈ I gelöst, wobei zu W und ψi , i ∈ I das ρ durch
X
ρ(f ) =
ψi (f (i))
i∈I
gegeben ist.
Betrachte den Vektorraum
T (V ) :=
M³Ok
k≥0
´
V .
Dieser besitzt auf natürliche Weise eine Multiplikation: sind v1 , . . . , vk , w1 , . . . , wℓ ∈
V , so sei
Ok+ℓ
(v1 ⊗ . . . ⊗ vk ) · (w1 ⊗ . . . ⊗ wℓ ) := v1 ⊗ . . . ⊗ vk ⊗ w1 ⊗ . . . ⊗ wℓ ∈
V.
∈
Nk
∈
V
Nℓ
V
Dies setzt man bilinear zu einer Abbildung T (V ) × T (V ) → T (V ) fort. Man rechnet
leicht nach, dass durch diese Multiplikation T (V ) zu einer K-Algebra wird. Wir
bezeichnen diese als Tensoralgebra.
Bemerkung 2.4.39. Sei V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }.
Betrachte die K-lineare Abbildung
f : T (V ) → K[x1 , . . . , xn ],
Dann ist f surjektiv und
Ker f =
ei1 ⊗ . . . ⊗ eik 7→ xi1 · · · xik .
M
U k =: U.
k≥0
Nach dem Homomorphiesatz gilt also
K[x1 , . . . , xn ] ∼
= T (V )/U ∼
=
Mµ³Ok
k≥0
¶
´
k
V /U .
Definition 2.4.40. Der Quotient T (V )/U wird als symmetrische Algebra bezeichnet.
Nach der Bemerkung gilt
S(V ) :=
M
k≥0
SkV ∼
= T (V )/U.
126
KAPITEL 2. LINEARE ALGEBRA II
2.4.5
In
Nk
Alternierende Tensoren
V betrachte den Untervektorraum
Ak := span{v1 ⊗ . . . ⊗ vk | v1 , . . . , vk ∈ V, ∃i 6= j : vi = vj }.
Bezeichne mit
^k
³Ok
V :=
´
V /Ak
den Vektorraum der alternierenden Tensoren von Grad k oder auch die äussere k-te
Potenz von V . Für ein Element v1 ⊗ . . . ⊗ vk + Ak schreiben wir
v1 ∧ · · · ∧ vk .
Lemma 2.4.41. In
Vk
V gelten folgende Rechenregeln:
(a) ist vi = vj für i 6= j, so ist v1 ∧ · · · ∧ vk = 0;
(b) v1 ∧ · · · ∧ vk ist linear in jeder Komponente, es ist also
v1 ∧ . . . vi−1 ∧ (vi + λṽi ) ∧ vi+1 ∧ · · · ∧ vk
= v1 ∧ . . . vi−1 ∧ vi ∧ vi+1 ∧ · · · ∧ vk + λ(v1 ∧ . . . vi−1 ∧ ṽi ∧ vi+1 ∧ · · · ∧ vk );
und
(c) ist σ ∈ Sk , so ist
vσ(1) ∧ · · · ∧ vσ(k) = sign(σ) · v1 ∧ · · · ∧ vk
für alle v1 , . . . , vk , ṽ1 , . . . , ṽk ∈ V und λ ∈ K.
Beweis. Übung.
Satz 2.4.42. Die Abbildung
ψ :Vk →
^k
V,
(v1 , . . . , vk ) 7→ v1 ∧ · · · ∧ vk
V
ist multilinear und alternierend. Der Vektorraum k V zusammen mit ψ ist eine
Lösung des folgenden universellen Problems:
Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige
Vk multilineare
V → W mit
alternierende Abbildung, so gibt es genau eine lineare Abbildung ρ :
ϕ = ρ ◦ ψ.
ψ
/ Vk V
V kA
AA
AA
ϕ AAA
Ã
W
|z
z
z
z
∃!ρ
Beweis. Der Beweis verläuft völlig analog zum Beweis von Satz 2.4.27.
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
127
Lemma 2.4.43. Sei B = {vi | i ∈ I} eine Basis von V und sei Tk = {(ℓ, ℓ′ ) | 1 ≤
ℓ < ℓ′ ≤ k}. Zu (ℓ, ℓ′ ) ∈ Tk definiere die Transposition

′

x wenn x 6∈ {ℓ, ℓ },
σℓ,ℓ′ : {1, . . . , k} → {1, . . . , k},
x 7→ ℓ′ wenn x = ℓ, und


ℓ wenn x = ℓ′ .
Dann ist
{vi1 ⊗ . . . ⊗ vik | i1 , . . . , ik ∈ I, ∃(ℓ, ℓ′ ) ∈ T k : iℓ = iℓ′ }
∪ {vi1 ⊗ . . . ⊗ vik + viσ ′ (1) ⊗ . . . ⊗ viσ ′ (k) | i1 , . . . , ik ∈ I, (ℓ, ℓ′ ) ∈ Tk , iℓ 6= iℓ′ }
ℓ,ℓ
ℓ,ℓ
eine Basis von Ak .
Beweisskizze. Man rechnet leicht nach, dass die Erzeuger von Ak von diesen Vektoren erzeugt werden, und dass die obigen Vektoren jeweils in Ak liegen. Es verbleibt
also zu zeigen, dass die obigen Vektoren linear unabhängig sind, was jedoch ebenfalls
nicht schwer ist.
Satz 2.4.44. Sei V n-dimensional mit Basis {e1 , . . . , en }. Dann ist
{ei1 ∧ · · · ∧ eik | 1 ≤ i1 < · · · < ik ≤ n}
eine Basis von
Vk
V . Insbesondere ist
dim
und
^k
^k
V = {0}
µ ¶
n
V =
k
für k > n.
Beweis. Nach Lemma 2.4.41 (c) ist
{ei1 ∧ · · · ∧ eik | 1 ≤ i1 < · · · < ik ≤ n}
V
ein Erzeugendensystem von k V . Man rechnet leicht nach, dass dieses linear unabhängig ist: seien λi1 ...ik ∈ K mit
X
X
···
λi1 ...ik ei1 ∧ · · · ∧ eik = 0,
1≤i1 <···<ik ≤n
also mit
X
···
X
λi1 ...ik ei1 ⊗ . . . ⊗ eik ∈ Ak .
1≤i1 <···<ik ≤n
Man sieht jedoch anhand des vorherigen Lemmas sofort, dass dies genau dann in
Ak liegt, wenn λi1 ...ik = 0 ist für alle 1 ≤ i1 < · · · < ik ≤ n. Die Behauptung über
die Kardinalität der Basis folgt direkt aus Lemma A.1.2.
Beispiel 2.4.45 (Anwendung: Determinanten). Sei V = K n . Es gibt (bis
auf Skalierung) genau eine multilineare alternierendeVAbbildung V n → K: wie in
Satz 2.4.13 induziert die universelle Eigenschaft von n V einen Isomorphismus
³^n
´
Hom
V, K ∼
= Alt(V n , K) := {ϕ : V n → K | ϕ multilinear, alternierend },
128
KAPITEL 2. LINEARE ALGEBRA II
und nach Satz 2.4.44 ist
µ ¶
³^n
´
^n
n
dim Hom
V, K = dim
V =
= 1.
n
Identifiziert man nun
Matn×n (K) ∼
= V n,
indem man die Matrix A mit den Spalten a1 , . . . , anVauf (a1 , . . . , an ) ∈ V n abbildet,
so erhält man genau eine lineare Abbildung det : n V → K, welche det(En ) =
1 erfüllt (Normierung); verkettet
man diese mit der alternierenden multilinearen
Vn
Abbildung Matn×n (K) →
V , (a1 , . . . , an ) 7→ a1 ∧ · · · ∧ an , so erhält man die uns
bekannte Determinante.
Beispiel 2.4.46 (Anwendung: Vektorprodukt). Sei K = R und V = K 3 = R3 .
Nach Satz 2.4.44 ist
µ ¶
^2
3
= 3,
dim
V =
2
V
V2
also 2 V ∼
V → V und definiere
= V . Wähle nun einen Isomorphismus f :
ϕf : R3 × R3 → R3 ,
(v, w) 7→ f (v ∧ w).
Dann hat ϕf folgende Eigenschaften:
(1) ϕf ist bilinear;
(2) ϕf ist alternierend, insbesondere gilt also ϕf (v, w) = −ϕf (w, v) für alle v, w ∈
R3 .
Sei nun {e1 , e2 , e3 } die kanonische Basis von R3 , und wähle f so, dass
f (e1 ∧ e2 ) = e3 ,
f (e2 ∧ e3 ) = e1
und f (e3 ∧ e1 ) = e2
ist. Dann ist gerade ϕf (v, w) = v × w, das Vektorprodukt von v und w!
Sei nun V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }. Seien Vektoren v1 , . . . , vk ∈ V gegeben mit
vi =
n
X
aij ej ,
j=1
Setze
A := (aij )ij ∈ Matk×n (K).
Betrachte die Abbildung
ϕ:Vk →
Dann ist
ϕ(v1 , . . . , vk ) =
=
Ã
^k
n
X
X
(v1 , . . . , vk ) 7→ v1 ∧ · · · ∧ vk .
V,
a1j1 ej1
j1 =1
n
X
j1 =1
=
···
···
n
X
jk =1
!
∧ ··· ∧
X
···
X X
X¡
1≤j1 <···<jk ≤n
Ã
n
X
jk =1
akjk ejk
!
a1j1 · · · akjk ej1 ∧ · · · ∧ ejk
1≤j1 <···<jk ≤n σ∈Sk
=
1 ≤ i ≤ k.
sign(σ)aσ(1)j1 · · · aσ(k)jk ej1 ∧ · · · ∧ ejk
¢
det Aj1 ,...,jk ej1 ∧ · · · ∧ ejk ,
2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE
129
wobei Aj1 ,...,jk die Matrix
(aijℓ )iℓ ∈ Matk×k (K)
bezeichnet, die aus den Spalten j1 , . . . , jk von A besteht. Die det Aj1 ,...,jk , 1 ≤ j1 <
· · · < jk ≤ n heissen Plücker-Koordinaten von v1 ∧ · · · ∧ vk .
Lemma 2.4.47. Es gilt
{v1 , . . . , vk } linear abhängig ⇐⇒ v1 ∧ · · · ∧ vk = 0.
Beweis. Sind v1 , . . . , vk linear unabhängig, so gibt es k linear unabhängige Spalten
mit Indices 1 ≤ j1 < · · · < jk ≤ n in A; in dem Fall ist die Plücker-Koordinate
det Aj1 ,...,jk 6= 0.
Sind dagegen v1 , . . . , vk linear abhängig, etwa
vi =
k
X
λℓ v ℓ ,
ℓ=1
ℓ6=i
so ist
v1 ∧ · · · ∧ vk = v1 ∧ · · · ∧ vi−1 ∧
=
k
X
ℓ=1
ℓ6=i
da für jedes ℓ 6= i
gilt.
k
³X
ℓ=1
ℓ6=i
´
λℓ vℓ ∧ vi+1 ∧ · · · ∧ vk
λℓ (v1 ∧ · · · ∧ vi−1 ∧ vℓ ∧ vi+1 ∧ · · · ∧ vk ) = 0,
v1 ∧ · · · ∧ vi−1 ∧ vℓ ∧ vi+1 ∧ · · · ∧ vk = 0
Lemma 2.4.48. Seien v1 , . . . , vk , ṽ1 , . . . , ṽk ∈ V und seien v1 , . . . , vk linear unabhängig. Dann gilt
span{v1 , . . . , vk } = span{ṽ1 , . . . , ṽk }
⇐⇒ span{v1 ∧ · · · ∧ vk } = span{ṽ1 ∧ · · · ∧ ṽk }.
Beweis. Aus dem vorherigen Lemma folgt sofort die Behauptung, wenn ṽ1 , . . . , ṽk
linear abhängig sind. Seien also ṽ1 , . . . , ṽk linear unabhängig und seien det Ãj1 ,...,jk ,
1 ≤ j1 < · · · < jk ≤ n die Plücker-Koordinaten von ṽ1 ∧ · · · ∧ ṽk .
Wir bemerken zuerst, dass
span{v1 , . . . , vk } = span{ṽ1 , . . . , ṽk }
äquivalent ist zu
spanZ A = spanZ Ã.
Wegen der Eindeutigkeit der reduzierten Zeilenstufenform ist dies dazu äquivalent,
dass es ein T ∈ Glk (K) gibt mit
T A = Ã.
Weiterhin ist
span{v1 ∧ · · · ∧ vk } = span{ṽ1 ∧ · · · ∧ ṽk }
äquivalent zur Existenz eines λ ∈ K ∗ mit det Aj1 ,...,jk = λ det Ãj1 ,...,jk für alle 1 ≤
j1 < · · · < jk ≤ n.
130
KAPITEL 2. LINEARE ALGEBRA II
• Gibt es also ein T ∈ Glk (K) mit T A = Ã, so ist T Aj1 ,...,jk = Ãj1 ,...,jk und somit
det Aj1 ,...,jk = λ det Ãj1 ,...,jk mit λ := det T −1 für alle 1 ≤ j1 < · · · < jk ≤ n.
• Angenommen, dass es ein λ gibt mit det Aj1 ,...,jk = λ det Ãj1 ,...,jk für alle 1 ≤
j1 < · · · < jk ≤ n. Wenn wir A durch SA und à durch S̃ à mit S, S̃ ∈ Glk (K)
ersetzen, ändert sich nichts am Spann, nur λ ändert sich um einen konstanten
Faktor 6= 0. Indem wir S und S̃ passend wählen, können wir also A und à in
reduzierter Zeilenstufenform voraussetzen.

0···0
0 · · · 0

0 · · · 0

0 · · · 0

.. ..
. .
1
0
0
0
..
.
∗···∗
0···0
0···0
0···0
.. ..
. .
0
1
0
0
..
.
∗···∗
∗···∗
0···0
0···0
.. ..
. .
0
0
1
0
..
.

···
· · ·

· · ·

· · ·

...
Seien i1 , . . . , ik die Pivotspalten von A und j1 , . . . , jk die Pivotspalten von Ã.
– Ist 1 ≤ ℓ1 < · · · < ℓk ≤ n mit ℓt ≤ it , 1 ≤ t ≤ k mit ℓt < it für ein t,
so ist det Aℓ1 ,...,ℓt = 0. Weiterhin ist det Ai1 ,...,it = 1. Das ‘kleinste’ Paar
(ℓ1 , . . . , ℓk ) (bzgl. der lexikographischen Ordnung) mit det Aℓ1 ,...,ℓk 6= 0
liefert also die Pivotindices von A.
– Da det Aℓ1 ,...,ℓk = λ det Ãℓ1 ,...,ℓk für alle (ℓ1 , . . . , ℓk ) folgt also λ = 1 und
it = jt , 1 ≤ t ≤ k. Damit haben A und à dieselben Pivotspalten. Es
verbleibt zu zeigen, dass die restlichen Einträge ebenfalls gleich sind.
– Dies folgt jedoch aus

0 ···
 ..
. ...
0
.
 .. . . . . . .

.
...
 ..


ai = det  ...

 ..
.
.
 ..

 ..
.
0 ··· ···
1
0
..
.
a1
..
.
0 ai−2
1 ai−1
0 ai
..
. ai+1
..
..
.
.
..
..
.
.
0 ak

··· 0
.. 
.
.. 
.

.. 
.

.. ;
0
.

.. 
...
.
1
. . . . . . .. 
0
.


.. . .
.
.
.
. 0
.
0 ··· 0 1
0 ···
..
.
..
.
..
.
wählt man die Pivotspalten i1 , . . . , ij−1 , ij+1 , . . . , ik und die Spalte ℓ, so
bekommt man ±aℓj , wobei das Vorzeichen (deterministisch) von der Wahl
der Indices abhängt.
2.5
Lineare gewöhnliche Differentialgleichungen
Eine Differentialgleichung ist eine Gleichung, in der eine gesuchte Funktion y :
[a, b] → R zusammen mit ihren Ableitungen auftaucht. Wir wollen im Folgenden
lineare gewöhnliche Differentialgleichungen untersuchen, also Gleichungen der Form
k
X
i=0
λi y (i) = b,
2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
131
wobei b, λi : [a, b] → R, 0 ≤ i ≤ k ebenfalls Funktionen sind und y (i) die i-te
Ableitung der gesuchten Funktion y ist. Ist b ≡ 0, so sagen wir, die Gleichung sei
homogen.
Beispiel 2.5.1. Betrachte die Gleichung y ′′ + y = 0. (In der Physik wird dies oft
als ÿ + y = 0 geschrieben, wenn die Funktion y als Funktion in der Zeit t betrachtet
wird: ein Punkt bedeutet erste Ableitung, zwei Punkte bedeuten zweite Ableitung.)
Lösungen sind zum Beispiel durch
y(x) = cos(x) und y(x) = eix
y(x) = sin(x),
gegeben (wobei letztere eine Funktion R → C ist).
Wir bezeichnen im Folgenden mit
VR = C ∞ (R, R)
den reellen Vektorraum der beliebig oft differenzierbaren Funktionen R → R. Eine
Lösung der linearen Differentialgleichung
k
X
λi y (i) = b
i=0
(mit λ0 , . . . , λk ∈ VR ) ist eine Funktion f ∈ VR mit
k
X
i=0
λi (x)f (i) (x) = b(x) für alle x ∈ R.
Wir bezeichnen die Menge der Lösungen mit
LR = {f ∈ VR | f ist Lösung }.
Lemma 2.5.2. Ist b ≡ 0, die Gleichung also homogen, so ist die Menge LR ein
Untervektorraum von VR .
Beweis. Seien f, g ∈ LR und λ, x ∈ R. Dann gilt
k
X
(i)
λi (x)(f + λg) (x) =
i=0
=
k
X
i=0
k
X
λi (x)(f (i) (x) + λg (i) (x))
(i)
λi (x)f (x) + λ
i=0
k
X
λi (x)g (i) (x) = 0,
i=0
da f, g ∈ LR sind. Weiterhin ist h ∈ LR mit h(x) := 0 für alle x ∈ R, da h ∈ VR ist
und
k
k
X
X
(i)
λi (x)h (x) =
λi (x) · 0 = 0
i=0
ist.
i=0
132
KAPITEL 2. LINEARE ALGEBRA II
Definition 2.5.3. Seien f1 , . . . , fn ∈ VR . Definiere die Wronski-Determinante von
f1 , . . . , fn als die Funktion


f1 (x)
···
fn (x)
 f1′ (x)
···
fn′ (x) 


det W (f1 , . . . , fn ) : R → R,
x 7→ det 
.
..
..
...


.
.
(n−1)
f1
(n−1)
(x) · · · fn
(x)
Die Matrix W (f1 , . . . , fn ) wird als Wronski-Matrix bezeichnet.
Hilfslemma 2.5.4. Seien f1 , . . . , fn ∈ VR . Gibt es ein x ∈ R mit
det W (f1 , . . . , fn )(x) 6= 0,
so sind f1 , . . . , fn linear unabhängig.
Beweis. Sind f1 , . . . , fn linear abhängig, so gibt es λ1 , . . . , λn ∈ R mit
0=
n
X
λi fi ,
i=1
also
0=
n
X
i=1
Somit ist für jedes x ∈ R
da
Pn
i=1
λi fi (x) für alle x ∈ R.



det W (f1 , . . . , fn )(x) = det 

(j)
λi fi
= 0 ist für alle j ∈ N.
f1 (x)
f1′ (x)
..
.
···
···
...
fn (x)
fn′ (x)
..
.



 = 0,

(n−1)
(n−1)
(x)
f1
(x) · · · fn
Beispiel 2.5.5. Sei f1 = cos x und f2 = sin x. Dann ist
¶
µ
cos x sin x
= cos2 x + sin2 x = 1,
det W (cos x, sin x)(x) = det
− sin x cos x
womit cos x und sin x linear unabhängig sind.
Bemerkungen 2.5.6.
(a) Sind f1 , . . . , fn Lösungen einer (fest gewählten) homogenen linearen Differentialgleichung, so gilt auch die Umkehrung: sind f1 , . . . , fn linear unabhängig, so
ist det W (f1 , . . . , fn )(x) 6= 0 für alle x ∈ R.
(b) Gibt es zu f1 , . . . , fn keine lineare homogene Differentialgleichung, von der alle
fi Lösung sind, so muss die Umkehrung nicht gelten.
Betrachte etwa die Funktion
f : R → R,
( 1
e− x2
x 7→
0
falls x 6= 0,
sonst.
Diese Funktion ist unendlich oft differenzierbar und es gilt f (i) (0) = 0 für alle
i ∈ N. Sind f2 , . . . , fn beliebige andere Funktionen, so gilt also immer
det W (f, f2 , . . . , fn )(0) = 0,
ganz egal ob f, f2 , . . . , fn linear unabhängig sind oder nicht.
133
2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
2.5.1
Lineare Differentialgleichungen mit konstanten Koeffizienten
Wir wollen in diesem Abschnitt die linearen Differentialgleichungen der Form
k
X
λi y (i) = b
i=0
untersuchen mit λ0 , . . . , λk , b ∈ K, wobei im Folgenden immer K = R oder K = C
sei. Wir betrachten also
VK = C ∞ (R, K) = {f : R → K | f unendlich oft differenzierbar }
und den Lösungsraum
LK = {f ∈ VK | f Lösung }.
Bemerkung 2.5.7. Ist K = C und f : R → C mit f (x) = a(x) + ib(x), wobei a, b :
R → R Funktionen sind, so heisst f differenzierbar, wenn a und b differenzierbar
sind, und wir schreiben f ′ = a′ + ib′ .
Beispiel 2.5.8. Die Funktion R → C, x 7→ eix = cos x + i sin x ist unendlich oft
differenzierbar.
Im Folgenden betrachten wir die Gleichungen
und
y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = 0
y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = b
(∗)
(∗∗)
mit a0 , . . . , an−1 , b ∈ K. Man nennt (∗) die allgemeine homogene lineare Differentialgleichung der Ordnung n mit konstanten Koeffizienten und (∗∗) die allgemeine
inhomogene lineare Differentialgleichung der Ordnung n mit konstanten Koeffizienten, falls b 6= 0 ist. Wir bezeichnen wieder mit L = LK den Lösungsraum der
homogenen Gleichung (∗).
Wir werden ohne Beweis das folgende Resultat verwenden:
Satz 2.5.9. Der Lösungsraum L ist ein K-Untervektorraum von C ∞ (R, K) der KDimension n. Die allgemeine Lösung des inhomogenen Systems (∗∗) ist von der
Form y + ŷ, wobei y ∈ L eine beliebige Lösung von (∗) ist und ŷ eine fest gewählte
Lösung von (∗∗).
Zu gegebenen Anfangsbedingungen in einem Punkt x0 ∈ R
y(x0 ) = c0 ,
y ′ (x0 ) = c1 ,
...
y (n−1) (x0 ) = cn−1
(∗ ∗ ∗)
mit c0 , . . . , cn−1 ∈ K gibt es genau eine Lösung der Differentialgleichung (∗∗) mit
diesen Anfangsbedingungen.
Beachte die Analogie zu Lösungen von homogenen und inhomogenen linearen
Gleichungssystemen; dort ist
Lös(A, b) = Lös(A, 0) + x
für eine beliebige Lösung x ∈ Lös(A, b).
134
KAPITEL 2. LINEARE ALGEBRA II
Beispiel 2.5.10. Betrachte die Gleichung
y ′′ + y = b,
b ∈ R. Ist b = 0 und K = R, so ist der Lösungsraum
LR = {λ1 cos x + λ2 sin x | λ1 , λ2 ∈ R}.
Ist b = 0 und K = C, so ist der Lösungsraum
LC = {λ1 eix + λ2 e−ix | λ1 , λ2 ∈ C}.
Hat man Anfangsbedingungen
y(0) = 0 und y ′ (0) = 5,
so ergibt sich das lineare Gleichungssystem
λ1 = λ1 cos(0) + λ2 sin(0) = 0,
λ2 = −λ1 sin(0) + λ2 cos(0) = 5,
womit die gesuchte Lösung zu diesen Anfangsbedingungen gerade f (x) = 5 sin(x)
ist.
Der Beweis des Hauptsatzes fusst auf folgender Aussage:
Satz 2.5.11. Für gegebenes x0 ∈ R hat das Anfangswertproblem
y (j) (x0 ) = 0,
0≤j<n
genau eine Lösung, nämlich y = 0.
1
Die oben genannte Funktion f (x) = e− x2 für x 6= 0 und f (0) = 0 kann also keine
Lösung einer linearen Differentialgleichung mit konstanten Koeffizienten sein.
Aus dem Satz folgt:
Lemma 2.5.12. Es ist dim LK ≤ n.
Beweis. Seien f1 , . . . , fn+1 ∈ VK Lösungen von

f1
 f1′

W (f1 , . . . , fn , fn+1 ) =  ..
 .
(n)
f1
(∗). Betrachte die Wronski-Matrix

· · · fn fn+1
′

· · · fn′ fn+1

..
.. .
...
.
. 
(n)
· · · fn
(n)
fn+1
Multipliziert man sie von links mit dem Vektor (a0 , . . . , an−2 , an−1 , 1), so erhält man
wegen (∗) gerade den Nullvektor für alle x ∈ R. Somit ist W (f1 , . . . , fn , fn+1 )(x)
nicht invertierbar, also det W (f1 , . . . , fn , fn+1 )(x) = 0 für alle x ∈ R. Insbesondere
gibt es zu jedem x0 ∈ R Koeffizienten c1 , . . . , cn+1 ∈ K mit


c1


W (f1 , . . . , fn+1 )(x0 ) ...  = 0.
cn+1
Betrachte
Dann ist ψ ∈ LK , und
ψ := c1 f1 + · · · + cn+1 fn+1 .
ψ (i) (x0 ) = 0 für 0 ≤ i ≤ n.
Nach dem vorherigen Satz ist also ψ = 0 (als Funktion), womit f1 , . . . , fn+1 linear
abhängig sind.
2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
135
Betrachte das Polynom
κ(t) := tn + an−1 tn−1 + · · · + a1 t + a0 ∈ K[t].
Das Polynom κ(t) heisst das charakteristische Polynom der homogenen linearen
Differentialgleichung (∗) mit konstanten Koeffizienten.
Im Folgenden sei D die Abbildung
D : VK → VK ,
f 7→ f ′ =
∂f
.
∂x
Lemma 2.5.13. Die Abbildung D ist linear, und für den Lösungsraum LK gilt
LK = Ker κ(D).
Beweis. Dass D linear ist verifiziert man schnell. Nun ist
κ(D) = Dn + an−1 Dn−1 + · · · + a1 D + a0 Id,
womit für f ∈ VK gilt
κ(D)(f ) = 0 ⇐⇒ (Dn + an−1 Dn−1 + · · · + a1 D + a0 Id)f = 0
⇐⇒ f (n) + an−1 f (n−1) + · · · + a1 f ′ + a0 f = 0
⇐⇒ f ∈ LK .
Nun kann man
κ(t) =
n
Y
i=1
(t − λi ),
λ1 , . . . , λn ∈ C
schreiben.
Beispiel 2.5.14. Für y ′′ + y = 0 ist κ(t) = t2 + 1 = (t + i)(t − i).
Lemma 2.5.15. Sei λ ∈ C eine k-fache Nullstelle von κ(t). Dann sind
fj : R → C,
x 7→ xj eλx ,
0≤j<k
Lösungen von (∗).
Beweis. Wir zeigen zuerst per Induktion (D − λ)k xj eλx = 0 für 0 ≤ j < k. Für
j = 0 ist
(D − λ)k eλx = (D − λ)k−1 (D − λ)eλx = (D − λ)k−1 (λeλx − λeλx ) = 0.
Sei j > 0; dann ist
(D − λ)k xj eλx = (D − λ)k−1 (D − λ)xj eλx
= (D − λ)k−1 (jxj−1 eλx + λxj eλx − λxj eλx )
= j · (D − λ)k−1 xj−1 eλx = 0.
I.V.
Sei κ(t) = (x − λ)k · h(t) für ein Polynom h ∈ K[t]. Dann ist also
κ(D)fj (x) = h(D)(D − λ Id)k xj eλx = 0,
was zu zeigen war.
136
KAPITEL 2. LINEARE ALGEBRA II
Lemma 2.5.16. Sei
κ(t) =
k
Y
i=1
(x − λi )ei ,
wobei λ1 , . . . , λk ∈ C paarweise verschieden seien und e1 , . . . , ek ∈ N. Dann ist
{xj eλℓ x | 0 ≤ j < eℓ , 1 ≤ ℓ ≤ k}
eine Basis von LC .
Beweis. Nach Lemma 2.5.15 sind die Funktionen fjℓ : R → C, x 7→ xj eλℓ x Lösungen
von (∗); es reicht also zu zeigen, dass sie linear unabhängig sind. Der Einfachheit
halber betrachten wir nur den Fall, dass e1 = · · · = ek = 1 ist, also dass κ(t) genau
n = k verschiedene Nullstellen hat.
Wähle x0 = 0. Dann ist


f01 (x0 ) · · ·
f0n (x0 )


..
..
...
W (f01 , . . . , f0n )(x0 ) = 

.
.
(n−1)
f
 01
1
 λ1

=  ..
 .
λ1n−1
(n−1)
(x0 ) · · · f0n

···
1
· · · λn 

.. ,
...
. 
n−1
· · · λn
(x0 )
also die Vandermonde-Matrix, und da λ1 , . . . , λn per Voraussetzung paarweise verschieden sind, folgt det W (f01 , . . . , f0n )(x0 ) 6= 0, womit nach Hilfslemma 2.5.4 die
Funktionen f01 , . . . , f0n linear unabhängig sind.
2.5.2
Beschreibung einer linearen Differentialgleichung nter Ordnung durch ein lineares System erster Ordnung
Wir wollen die homogene lineare Differentialgleichung
y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = 0
(∗)
durch ein homogenes lineares Differentialgleichungssystem erster Ordnung beschreiben. Dazu führe Funktionen z1 , . . . , zn ein mit
z1 = y,
z2 = y ′ ,
z3 = y ′′ ,
...
zn = y (n−1) .
Betrachte das System

 
 

z1′
z1

d.
 ..  
.
:=
=
. 
 

dx .

zn′
zn

0
1
0
···
0
..
..  z 
... ...
...
.
.  1
 .. 
..
...
...
 .
0 
.
 .
0 ··· ···
0
1  zn
−a0 · · · · · · −an−2 −an−1
(∗∗)
Lemma 2.5.17. Die Lösungen y ∈ V von (∗) entsprechen genau den Lösungen (z1 , . . . , zn ) ∈ V n von (∗∗) via
y 7→ (y, y ′ , y ′′ , . . . , y (n−1) ).
2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN
137
Beweis. Ist y eine Lösung von (∗), so verifiziert man sofort, dass (y, y ′ , . . . , y (n−1) )
eine Lösung von (∗∗) ist. Ist andersherum (z1 , . . . , zn ) eine Lösung von (∗∗), so muss
zi′ = zi+1 sein, 1 ≤ i < n, und man verifiziert wiederum leicht, dass y := z1 eine
Lösung von (∗) ist.
Lemma 2.5.18. Sei


0
1
0
···
0
.. 
... ...
...
 ..
. 
 .
 .

.
.
A =  ..
.
..
..
0


 0 ··· ···
0
1 
−a0 · · · · · · −an−2 −an−1
Dann ist
pA (t) = tn + an−1 tn−1 + . . . a1 t + a0 = κ(t).
Beweis. Wir zeigen dies per Induktion nach n. Für n = 1 ist
¢
¡
A = −a0 ,
womit
pA (t) = t + a0
ist. Sei n > 1. Dann ist

t

0

pA (t) = det  ...

0
a0

t

0

= t det  ...
Laplace

1. Spalte
0
a1
−1
...
...
0
...
...
···
···
0
t
· · · an−2
−1
...
...
···
···
0
...
...
0
···

−1

 t

+ (−1)n+1 a0 det 
0
 .
 ..
0
···
...
...
···
...
...
t
an−2
0
..
.
0
−1
t + an−1
0
..
.







0
−1
t + an−1








0 ··· ··· 0
.. 
... ...
. 
. . . . . . . . . .. 
. 


... ... ...
0
··· 0
t −1
= t(tn−1 + an−1 tn−2 + · · · + a2 t + a1 ) + (−1)(n+1)+(n−1) a0
I.V.
= tn + an−1 tn−1 + · · · + a1 t + a0 = κ(t).
Bemerkung 2.5.19. Man kann zeigen, dass das Minimalpolynom dieser Matrix
ebenfalls tn + an−1 tn−1 + · · · + a1 t + a0 ist:
Dies folgt daraus, dass alle Eigenräume eindimensional sind (man sieht sofort,
dass die Matrix A − λEn für jedes λ ∈ K mindestens Rang n − 1 hat). Da die
Eigenräume eindimensional sind, gibt es in der Jordanschen Normalform zu jedem
138
KAPITEL 2. LINEARE ALGEBRA II
Eigenwert genau ein Jordan-Kästchen, womit der Exponent des Eigenwerts im Minimalpolynom gleich dem Exponent des Eigenwerts im charakteristischen Polynom
ist. (Zerfällt das Polynom über K nicht in Linearfaktoren, so muss man wie üblich zu
einem algebraischen Abschluss von K übergehen bzw. zu einem Erweiterungskörper,
über dem das Polynom in Linearfaktoren zerfällt.)
Hat man nun eine Matrix A dieser Form, so kann das homogene Differentialgleichungssystem erster Ordnung
d
z = Az
(∗ ∗ ∗)
dx
mit
d 
 
z1
z
dx 1
d
 .. 
 .. 
n
z= . 
z=.∈V
und
dx
d
zn
z
dx n
in eine homogene lineare Differentialgleichung der Ordnung n überführt werden; für
diese kann man dann leicht die Lösungen ausrechnen, indem man das charakteristische Polynom κ faktorisiert.
Zu einer allgemeinen Matrix A ∈ Matn×n (K) gibt es nun eine invertierbare Matrix T ∈ Gln (K) so, dass T −1 AT eine Blockdiagonalmatrix ist mit Diagonalblöcken von genau dieser Form (rationale Normalform der Matrix A); in diesem
Fall kann man jeden Block getrennt betrachten und wie gerade beschrieben lösen,
und durch Anwenden der linearen Transformation T auf die so erhaltenen Lösungen
d
von dx
ẑ = T −1 AT ẑ alle Lösungen von (∗ ∗ ∗) erhalten.
Alternativ kann man die Lösungen von (∗ ∗ ∗) auch direkt angeben. Ist z0 ∈ R
und z(x0 ) ∈ Rn ein gegebener Anfangswert, so ist die eindeutige Lösung zu diesen
Anfangswert gegeben durch
z(x) = eA(x−x0 ) z(x0 ).
Dazu zeigt man, dass die komponentenweise Ableitung von eAx nach x durch AeAx
gegeben ist. Wenn man nun ohne Einschränkung z0 = 0 wählt, hat man
d
z(x) = (AeAx )z(0) = A(eAx z(0)) = Az(x).
dx
Mit Hilfe der Methoden aus Abschnitt 2.1.6 kann schliesslich
∞
X
Ak k
Ax
e =
x
k!
k=0
explizit berechnet werden: ist etwa A = D + N mit D diagonalisierbar und N
nilpotent so, dass DN = N D ist (vergleiche Satz 2.1.52), so ist Ax = Dx + N x mit
Dx diagonalisierbar und N x nilpotent und es gilt DxN x = N xDx. Nach Satz 2.1.57
gilt dann
m−1
X eDx
eAx =
N k xk ,
k!
k=0
wobei m ∈µ N mit N¶m = 0 gewählt sei (etwa m = n). Ist also T ∈ Gln (R) mit
λ1
0
...
T −1 DT =
, so gilt
0
λn


k λ1 x
x
e
0
m−1
X (T −1 N T )k 

...
T −1 eAx T =
;

k!
k
λ
x
k=0
0
x e n
man beachte die Ähnlichkeiten zu Lemma 2.5.16.
Anhang A
Verschiedenes
139
140
A.1
ANHANG A. VERSCHIEDENES
Kombinatorik
Wir wollen in diesem Abschnitt einige grundlegende Formeln aus der Kombinatorik herleiten und erklären. Wir betrachten zuerst die Anzahl der verschiedenen
Möglichkeiten, k Objekte aus einer Menge von n Objekten auszuwählen. Dabei beachten wir zwei verschiedene Kriterien:
• Mit und ohne Zurücklegen: Nachdem ein Objekt ausgewählt wurde, wird es
aus der Menge der Objekte entfernt (ohne Zurücklegen) oder dort belassen
(mit Zurücklegen).
• Mit und ohne Reihenfolge: Dies unterscheidet, ob die Reihenfolge der Entnahme beachtet oder ignoriert wird.
Beispiel A.1.1. Wir haben drei Objekte A, B, C und wollen daraus zwei auswählen.
(a) Mit Zurücklegen, mit Reihenfolge: man wählt zweimal ein Objekt aus {A, B, C}
aus, wobei auch beide Male das gleiche Element ausgewählt werden kann. Man
hat also 32 = 9 Möglichkeiten.
(b) Mit Zurücklegen, ohne Reihenfolge: man wählt zweimal ein Objekt aus {A, B, C}
aus, wobei die Reihenfolge keine Rolle spielt; wählt man etwa zuerst A und dann
B, oder wählt man zuerst B und dann A, so wird dies als die gleiche Wahl
gezählt. Man hat also 3·2
+ 3 = 6 Möglichkeiten.
2
(c) Ohne Zurücklegen, mit Reihenfolge: man wählt zuerst ein Objekt X ∈ {A, B, C}
aus und dann ein weiteres Objekt Y ∈ {A, B, C} \ {X}. Man hat also ebenfalls
3 · 2 = 6 Möglichkeiten. Jedoch gibt es hier im Gegensatz zu “mit Zurücklegen,
ohne Reihenfolge” beispielsweise nicht die Möglichkeit, zweimal A zu ziehen.
(d) Ohne Zurücklegen, ohne Reihenfolge: man wählt zwei verschiedene Objekte aus
der Menge {A, B, C} aus, ohne auf die Reihenfolge zu achten. Dies ist gleich der
Anzahl der Möglichkeiten, genau ein Element aus {A, B, C} zu wählen; es gibt
also genau 3 Möglichkeiten.
A.1.1
Kombinationen
Man spricht von Kombinationen, wenn die Reihenfolge keine Rolle spielt.
Lemma A.1.2 (Kombination ohne Widerholung). Die Anzahl der Möglichkeiten, k aus n Objekten ohne Zurücklegen und ohne Reihenfolge auszuwählen, ist
µ ¶ µ
¶
n
n
=
.
k
n−k
Zu jeder solchen Möglichkeit gehört genau ein Element der Menge
ozor
Mk,n
= {(i1 , . . . , ik ) ∈ {1, . . . , n}k | 1 ≤ i1 < · · · < ik ≤ n}.
Alternativ gehört zu jeder solchen Möglichkeit genau ein Element aus der Menge
′
ozor
Mk,n
= {A ⊆ {1, . . . , n} | |A| = k}.
141
A.1. KOMBINATORIK
Beweis. Man sieht schnell, dass die Abbildung
′
ozor
ozor
ψ : Mk,n
→ Mk,n
, (i1 , . . . , ik ) 7→ {i1 , . . . , ik }
¯ ozor′ ¯
¡ ¢
¯ = n , und wir zeigen dies per Induktion
¯M
eine Bijektion ist. Wir
zeigen
k,n
k
¯ ozor′ ¯
¯
¯
¡¢
¡¢
¯ = 1 = 0 für k = 0 und ¯M ozor′ ¯ = 0 = 0 für k > 0.
nach n. Für n = 0 ist ¯Mk,n
k,n
0
k
Sei also n > 0.
Die Teilmengen von A ⊆ {1, . . . , n} mit |A| = k kann man in zwei Klassen
unterteilen, je nachdem ob n ∈ A oder n 6∈ A:
′
′
′
ozor
ozor
ozor
• Ist n 6∈ A, so ist A ∈ Mk,n−1
, und umgekehrt ist Mk,n−1
⊆ Mk,n
.
′
ozor
• Ist n ∈ A, so ist |A \ {n}| = k −1 und somit A\{n} ∈ Mk−1,n−1
. Ist umgekehrt
′
′
ozor
′
′
ozor′
A ∈ Mk−1,n−1 , so ist |A ∪ {n}| = k und A ∪ {n} ∈ Mn,k .
Somit ist
¶ µ ¶
¶ µ
µ
¯
¯ ¯
¯ ¯
¯
n
n−1
n−1
¯ ozor′ ¯ ¯ ozor′ ¯ ¯ ozor′ ¯
.
=
+
¯Mn,k ¯ = ¯Mk,n−1 ¯ + ¯Mk−1,n−1 ¯ =
I.V.
k
k−1
k
Lemma A.1.3 (Kombination mit Wiederholung). Die Anzahl der Möglichkeiten, k aus n Objekten mit Zurücklegen und ohne Reihenfolge auszuwählen, ist
¶
¶ µ
µ
n+k−1
n+k−1
.
=
n−1
k
Zu jeder solchen Möglichkeit gehört genau ein Element der Menge
mzor
Mk,n
= {(i1 , . . . , ik ) ∈ {1, . . . , n}k | 1 ≤ i1 ≤ · · · ≤ ik ≤ n}.
Beweis. Betrachte die Abbildung
mzor
ozor
ϕ : Mk,n
→ Mk,n+k−1
,
(i1 , . . . , ik ) 7→ (i1 , i2 + 1, i3 + 2, . . . , ik + (k − 1)).
Diese ist offensichtlich wohldefiniert, da 1 ≤ i1 < i2 +1 < i3 +2 < · · · < ik +(k −1) ≤
n + k − 1 ist. Die Bijektivität dieser Abbildung sieht man ebenfalls schnell. Damit
folgt sofort
µ
¶ µ
¶
¯ mzor ¯ ¯ ozor ¯
n
+
k
−
1
n
+
k
−
1
¯Mk,n ¯ = ¯Mk,n+k−1 ¯ =
=
.
k
n−1
Bemerkung A.1.4 (Kombination mit Wiederholung). Die Möglichkeiten von
Kombinationen mit Wiederholung können auch anders interpretiert werden. Man
betrachte dazu folgendes Gitter (bzw. folgenden gerichteten Graph):
..
.O
..
.O
..
.O
(1,O 3)
/ (2, 3)
O
/ (3, 3)
O
/ ···
(1,O 2)
/ (2, 2)
O
/ (3, 2)
O
/ ···
(1, 1)
/ (2, 1)
/ (3, 1)
/ ···
142
ANHANG A. VERSCHIEDENES
mzor
Die Anzahl der Elemente in Mk,n
entspricht nun genau der Anzahl an Wegen von
(1, 1) nach (n, k), die in jeden Schritt entweder ein Kästchen nach rechts oder ein
Kästchen nach oben gehen (also genau den Pfaden von (1, 1) nach (n, k) in dem
mzor
gerichteten Graphen): der j-te Eintrag eines Tupels (i1 , . . . , ik ) ∈ Mk,n
gibt an, in
welcher Spalte das j-te mal nach oben gegangen werden soll.
Bezeichnet also mn,k die Anzahl solcher Wege von (1, 1) nach (n, k), wo ist
¶
µ
¯ mzor ¯
n+k−1
¯ = mn,k
= ¯Mk,n
k
nach vorherigem Lemma. Über das obige Schema folgt direkt die Rekursionsformel
¶
¶ µ
¶
µ
µ
n+k−2
n+k−2
n+k−1
.
+
= mn,k = mn−1,k + mn,k−1 =
k−1
k
k
Diese erlaubt einen direkten Beweis des Lemmas über die Binomialkoeffizienten.
Trägt man den Eintrag mn,k an die Stelle (n, k) ein, so erhält man das folgende
Schema:
..
..
..
..
.O
.O
.O
.O
1O
/4
O
/ 10
O
/ 20
O
/ ···
1O
/3
O
/6
O
/ 10
O
/ ···
1O
/2
O
/3
O
/4
O
/ ···
/1
/1
/1
/ ···
1
Vergleicht man dies mit dem Pascalschen Dreieck,
1
1
1
1
1
1
..
.
3
4
5
..
.
1
2
1
3
6
10
..
.
1
4
10
..
.
1
5
..
.
1
..
.
so sieht man schnell, dass das Schema gerade ein gedrehtes Pascalsches Dreieck ist.
A.1.2
Variationen
Man spricht von Variationen, wenn die Reihenfolge eine Rolle spielt. Im englischen
Sprachgebrauch werden die Variationen auch als Permutationen bezeichnet, womit
dieser Sachverhalt insbesondere deutlich wird.
Lemma A.1.5 (Variation ohne Wiederholung). Die Anzahl der Möglichkeiten,
k aus n Objekten ohne Zurücklegen und mit Reihenfolge auszuwählen, ist
n!
.
(n − k)!
Zu jeder solchen Möglichkeit gehört genau ein Element der Menge
ozmr
Mk,n
= {(i1 , . . . , ik ) ∈ {1, . . . , n}k | ∀1 ≤ ℓ < ℓ′ ≤ k : iℓ 6= iℓ′ }.
143
A.1. KOMBINATORIK
Beweis. Betrachte die Abbildung
′
ozmr
ozor
ϕ : Mk,n
→ Mk,n
,
(i1 , . . . , ik ) 7→ {i1 , . . . , ik }.
Man sieht sofort, dass sie surjektiv ist. Wir zeigen, dass für jede Teilmenge A ∈
ozor′
Mk,n
gilt |ϕ−1 (A)| = k!, womit
¯ ozmr ¯ ¯¯ ozor′ ¯¯
¯Mk,n ¯ = ¯Mk,n ¯ · k! =
n!
n!
k! =
k!(n − k)!
(n − k)!
′
ozor
ist. Fixiere eine feste Menge A = {j1 , . . . , jk } ∈ Mk,n
und betrachte die Abbildung
ozmr
ψ : Sk → Mk,n
,
σ 7→ (jσ(1) , . . . , jσ(k) ).
Man sieht sofort, dass ϕ(ψ(σ)) = A ist für jedes σ ∈ Sk , und dass ψ injektiv ist. Sei
ozmr
weiter (i1 , . . . , ik ) ∈ Mk,n
mit ϕ(i1 , . . . , ik ) = {i1 , . . . , ik } = A. Dann gibt es jedoch
eine Permutation σ ∈ Sk mit i1 = jσ(1) , . . . , ik = jσ(k) , also (i1 , . . . , ik ) = ψ(σ). Damit
ist das Urbild von A unter ϕ gerade das Bild von ψ und wegen der Injektivität von
ψ folgt
¯ −1
¯
¯ϕ (A)¯ = |ψ(Sk )| = |Sk | = k!.
Lemma A.1.6 (Variation mit Wiederholung). Die Anzahl der Möglichkeiten,
k aus n Objekten mit Zurücklegen und mit Reihenfolge auszuwählen, ist
nk .
Zu jeder solchen Möglichkeit gehört genau ein Element der Menge
mzmr
Mk,n
= {(i1 , . . . , ik ) ∈ {1, . . . , n}k }.
Beweis. Man verifiziert leicht, dass die Menge aus genau nk Elementen besteht.
144
ANHANG A. VERSCHIEDENES
Index
Abelsch, 5
abhängige Variable, 11
Ableitung, 59
Absolutbetrag, 8
abzählbar, 5
abzählbar unendlich, 5
adjungierter Endomorphismus, 91, 97
affiner Unterraum, 20, 67
Algebra, 123
algebraisch abgeschlossen, 23
algebraische Multiplizität, 41
algebraische Vielfachheit, 41
alternierend, 31, 119
annullierendes Polynom, 65
äquivalente Matrizen, 29
Äquivalenzklasse, 6
Äquivalenzrelation, 6
äussere Potenz, 126
Austauschsatz von Steinitz, 16
Auswahlaxiom, 16
Automorphismus, 25
Basis, 16
Basisauswahlsatz, 16
Basisergänzungssatz, 16
bijektiv, 3
Bild, 3, 26, 38
Bilinearform, 71
symmetrisch, 71
Cauchy-Schwarz, 72, 95
Charakteristik 0, 60
charakteristisches Polynom, 41
Cramersche Regel, 35
Determinante, 31
Eindeutigkeit, 32
Existenz, 33
Determinantenproduktsatz, 32
diagonalisierbar, 38
Diagonalmatrix, 38
Dimension, 16
Dimensionsformel, 17, 28
direkte Summe
äussere, 106, 123
innere, 17
direktes Produkt, 104, 123
Distributivitätsgesetz, 6
Doppeldualraum, 30
duale Basis, 30
Dualraum, 30
Eigenraum, 40, 41
verallgemeinerter, 45
Eigenvektor, 35
Eigenwert, 35
Einsetzungsabbildung, 22
Element, 2
elementare Zeilenoperation, 10
endlich erzeugt, 15
endlichdimensional, 16
endliche Menge, 4
Endomorphismus, 25
adjunigerter, 91, 97
normaler, 98
orthogonaler, 89
selbstadjunigerter, 91, 97
unitärer, 97
Entartungsraum, 81
Epimorphismus, 25
erweiterte Koeffizientenmatrix, 9
Erzeugendensystem, 15
Euklidischer Raum, 74
Eulerformel, 8
Fehlstand, 33
Form von Grad n, 82
freie Variable, 11
Fundamentalsatz der Algebra, 23
geometrische Multiplizität, 41
geometrische Vielfachheit, 41
gleichmächtig, 4
Grad eines Polynoms, 22
Gradient, 87
Gram-Schmidt-Orthogonalisierung, 88, 96
Gramsche Matrix, 71, 79, 94
Gruppe, 5
145
146
Gruppenhomomorphismus, 33
INDEX
Linearform, 83
Hasse-Ableitung, 60
Matrix
Hauptraum, 45
Hermitesche, 98, 102
Hauptsatz
normale, 98
der Hauptraumzerlegung, 49
orthogonale, 78
über Basen, 16
symmetrische, 71, 76
über Determinanten, 31
unitäre, 96, 102
über normale Endomorphismen, 100 Menge, 2
Hermitesch, 94
Metrik, 74
Hermitesche
Minimalpolynom, 65
Form, 94
Monomorphismus, 25
Matrix, 98, 102
multilinear, 31, 104
Hesse-Matrix, 87
negativ definit, 84
Hintereinanderausführung, 3
nilpotent, 53
Homomorphiesatz, 69
Nilpotenzindex, 53
Homomorphismus, 24
Norm, 95
Hurwitz-Jakobi-Kriterium, 85
normale Matrix, 98
Identität, 3
normaler Endomorphismus, 98
injektiv, 3
normiert, 31, 87
innere Verknüpfung, 5
Nullteilerfreiheit, 7
invarianter Unterraum, 45
offene Menge, 74
inverse Matrix, 12
orthogonal, 75, 87, 95
Isomorphismus, 25
Orthogonalbasis, 95
Jordan-Block, 55
orthogonale
Jordan-Kästchen, 55
Matrix, 77, 78, 90
Jordanmatrix, 55
Projektion, 88
Jordansche Normalform, 57
orthogonaler Endomorphismus, 89
orthogonales Komplement, 75
K-Algebra, 123
orthonormal, 87
kanonische Projektion, 68
Orthonormalbasis, 95
kanonisches Skalarprodukt, 72
orthonormale Basis, 75, 78
Kern, 26, 38
Kodimension, 69
Permutation, 32
Koeffizientenmatrix, 9
Pivotelement, 10
kommutativ, 5
Pivotindex, 10
Komplementärraum, 17
Plücker-Koordinaten, 129
komplex konjugiert, 8
Polarisierung, 96
Komplexifizierung, 92, 108
Polynomdivision, 23
Körper, 6
Polynomring, 21
Kronecker-Symbol, 87
positiv definit, 71, 84, 94
Kroneckerprodukt, 116
Produkt zweier Abbildung, 3
Lagrange-Interpolation, 102
Laplace-Entwicklung, 34
Legendre-Polynome, 89
linear
abhängig, 15
unabhängig, 15
lineare Abbildung, 24
quadratische Form, 83
Quotientenkörper, 107
Quotientenvektorraum, 68
Rang
einer Bilinarform, 79
einer Matrix, 20
147
INDEX
reduzierte Zeilenstufenform, 11
Eindeutigkeit, 20
Reellifizierung, 93
reflexiv, 6
Relation, 6
Restklassenabbildung, 68
Ring, 21
Ringhomomorphismus, 22
Satz
Austauschsatz von Steinitz, 16
Basisauswahlsatz, 16
Basisergänzungssatz, 16
Cramersche Regel, 35
Determinantenproduktsatz, 32
Dimensionsformel, 17, 28
Existenz von Lösungen von LGSen,
20
Fundamentalsatz der Algebra, 23
Gram-Schmidt, 88, 96
Hauptsatz
der Hauptraumzerlegung, 49
über Determinanten, 31
über Basen, 16
über normale Endomorphismen, 100
Homomorphiesatz, 69
Hurwitz-Jakobi-Kriterium, 85
Laplace-Entwicklung, 34
Lösungsmenge von LGSen, 20
Struktursatz für Hermitesche und unitäre Matrizen, 102
Trägheitssatz von Sylvester, 79
über die Jordansche Normalform, 57
vom orthogonalen Komplement, 75,
88
von Bezóut, 23
von Gauß, 11
selbstadjungiert, 91, 97
Sesquilinearform, 94
Signatur, 79
Skalarprodukt, 72
unitäres, 94
Standardskalarprodukt, 72, 95
Summe von Untervektorräumen, 17
surjektiv, 3
symmetrisch, 6, 119
symmetrische
Algebra, 125
Bilinearform, 71
Gruppe, 32
Matrix, 71, 76
Taylor-Entwicklung im nilpotenten Teil,
61
Taylor-Formel, 60, 61
Tensoralgebra, 125
Tensorprodukt, 105
Eindeutigkeit, 105
Existenz, 107
Funktorialität, 115
Topologie, 74
Totalgrad, 122
Trägheitssatz von Sylvester, 79
transitiv, 6
Transponierte, 33
Transposition, 32
überabzählbar, 5
Umkehrabbildung, 4
unabhängige Variable, 11
unitäre Matrix, 96, 102
unitärer
Endomorphismus, 97
Raum, 95
unitäres Skalarprodukt, 94
universelle Eigenschaft, 105, 106, 110, 119,
120, 124, 126
universelles Problem, 105, 106, 119, 120,
124, 126
Unterkörper, 14
Unterraum, 14
Untervektorraum, 14
Urbild, 3
Vektorraum, 13
verallgemeinerter Eigenraum, 45
Vielfachheit einer Nullstelle, 23
Wronski-Determinante, 132
Wronski-Matrix, 132
Zeilenoperation, elementare, 10
Zeilenrang, 19
Zeilenraum, 19
Zeilenstufenform, 10
reduzierte, 11
Herunterladen