Skript

Werbung
Lineare Algebra 1
Anton Deitmar
WS 2013/14
Inhaltsverzeichnis
1 Grundlagen
1.1 Mengen . . . . . . . . . .
1.2 Abbildungen . . . . . . .
1.3 Komposition . . . . . . .
1.4 Produkte und Relationen
1.5 Vollständige Induktion .
.
.
.
.
.
1
1
5
8
10
12
.
.
.
.
18
18
23
25
31
3 Vektorräume
3.1 Räume und Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . .
37
37
40
4 Dimension
4.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
44
46
50
5 Lineare Abbildungen und Matrizen
5.1 Erste Eigenschaften . . . . . . .
5.2 Kern und Bild . . . . . . . . . .
5.3 Matrizen . . . . . . . . . . . . .
5.4 Matrixmultiplikation . . . . . .
5.5 Blockmatrizen . . . . . . . . . .
5.6 Basiswechsel . . . . . . . . . . .
55
55
59
62
64
69
70
2 Gruppen und Körper
2.1 Gruppen . . . . . . . .
2.2 Körper . . . . . . . . .
2.3 Die Körper Q, R und C
2.4 Polynome . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Lineare Algebra 1
ii
6 Gauß-Elimination
6.1 Zeilentransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
74
77
81
7 Determinanten
7.1 Permutationen . . . . . . . . . . . . . . . . .
7.2 Determinante und Zeilentransformationen
7.3 Multiplikativität . . . . . . . . . . . . . . . .
7.4 Laplace-Entwicklung . . . . . . . . . . . . .
.
.
.
.
83
83
88
90
91
.
.
.
.
96
96
97
98
107
.
.
.
.
112
112
115
118
119
8 Eigenwerte
8.1 Ein Beispiel . . . . . . . . . . . . . . . . . . .
8.2 Lineare Unabhängigkeit von Eigenvektoren
8.3 Das charakteristische Polynom . . . . . . .
8.4 Der Satz von Cayley-Hamilton . . . . . . .
9 Der Jordan-Normalform Satz
9.1 Nilpotente Endomorphismen
9.2 Hauptraum-Zerlegung . . . .
9.3 Jordan-Matrizen . . . . . . . .
9.4 Berechnung der Normalform
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10 Dualraum und Quotient
123
10.1 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
10.2 Quotienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11 Dimension
11.1 Das Lemma von Zorn . . . . .
11.2 Kardinalzahlen . . . . . . . .
11.3 Abzählbarkeit . . . . . . . . .
11.4 Basen beliebiger Vektorräume
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
133
133
134
137
140
Kapitel 1
Grundlagen
1.1
Mengen
Eine Menge ist eine (gedachte) Zusammenfassung von (wirklichen oder gedachten)
Objekten, die die Elemente der Menge genannt werden.
no
Beispiele 1.1.1.
• Die Leere Menge = ∅.
n
o
• Die Menge 1, 2, 3 der Zahlen 1,2,3.
n
o
• Die Menge N = 1, 2, 3, . . . der natürlichen Zahlen.
Zwei Menge heißen gleich, falls sie die gleichen Elemente haben. In Worten:
N=M
⇔
(x ∈ N ⇔ x ∈ M).
Eine Menge A ist Teilmenge einer Menge B, falls jedes Element von A schon in B liegt,
also
A ⊂ B ⇔ (x ∈ A ⇒ x ∈ B).
Folgerung. Zwei Mengen M, N sind genau dann gleich, wenn jede Teilmenge der
anderen ist, also
M = N ⇔ (M ⊂ N und N ⊂ M).
Sei M eine Menge. Die Potenzmenge P(M) von M ist definiert als die Menge aller
Teilmengen von M.
1
Lineare Algebra 1
2
n
o
Beispiel 1.1.2. Sei M = 1, 2, 3 . Dann ist
n
o
P(M) = ∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3} .
Seien A und B Mengen. Der Durchschnitt A ∩ B von A und B ist die Menge der
gemeinsamen Elemente:
x∈A∩B
⇔
x ∈ A und x ∈ B ,
oder, was das Gleiche bedeutet:
n
o
A∩B= x∈A:x∈B .
Beispiel 1.1.3.
n o n o n o
1, 2 ∩ 2, 3 = 2 .
Zwei Menge A und B heißen disjunkt, falls A ∩ B = ∅, sie also keine gemeinsamen
Elemente haben.
Die Vereinigung zweier Mengen A ∪ B ist die Menge aller x, die in mindestens einer
der beiden Mengen liegen, also
x ∈ (A ∪ B)
⇔
x ∈ A oder x ∈ B .
Beispiel 1.1.4.
n
o n o n
o
1, 2 ∪ 2, 3 = 1, 2, 3 .
Proposition 1.1.5. Sind A, B, C Mengen, dann gilt
(a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),
(b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
Lineare Algebra 1
3
B
A
C
Beweis. Für (a) rechnen wir
⇔
⇔
⇔
⇔
⇔
x ∈ A ∩ (B ∪ C)
x ∈ A und x ∈ B ∪ C
x ∈ A und (x ∈ B oder x ∈ C)
(x ∈ A und x ∈ B) oder (x ∈ A und x ∈ C)
(x ∈ A ∩ B) oder (x ∈ A ∩ C)
x ∈ (A ∩ B) ∪ (A ∩ C)
Def.
Def.
(*)
Def.
Def.
(*) Für beliebige Aussagen A, B, C gilt:
A und (B oder C)
⇔
(A und B) oder (A und C).
Die Aussage (*) schliesslich beweist man wie folgt. Es gibt folgende Möglichkeiten:
Die Aussage A ist entweder wahr oder falsch. Ebenso für B und C. Daraus ergeben
sich folgende mögliche Konstellationen:
A B C B oder C A und (B oder C)
w
w
w
w
f
f
f
f
w
w
f
f
w
w
f
f
w
f
w
f
w
f
w
f
w
w
w
f
w
w
w
f
w
w
w
f
f
f
f
f
Lineare Algebra 1
4
und andererseits
A B C A und B A und C (A und B) oder (A und C)
w
w
w
w
f
f
f
f
w
w
f
f
w
w
f
f
w
f
w
f
w
f
w
f
w
w
f
f
f
f
f
f
w
f
w
f
f
f
f
f
w
w
w
f
f
f
f
f
Durch Vergleich der beiden letzten Spalten folgt (*).
Teil (b) beweist man analog.
Die Menge der natürlichen Zahlen
n
o
N = 1, 2, 3, . . .
erweitert man zur Menge der ganzen Zahlen
n
o
Z = . . . , −2, −1, 0, 1, 2, . . .
und diese zur Menge der rationalen Zahlen



p, q ∈ Z, q > 0
p
:
Q=

 q p und q sind teilerfremd




.



Wir haben also
N ⊂ Z ⊂ Q ⊂
R
|{z}
die reellen Zahlen
⊂
C
|{z}
die komplexen Zahlen
Man beschreibt Teilmengen gern durch Eigenschaften
n
o
x ∈ X : x hat Eigenschaft E .
Beispiel 1.1.6.
n
o n
o
n ∈ N : n ≤ 5 = 1, 2, 3, 4, 5 .
.
Lineare Algebra 1
5
Ist Y ⊂ X, so heißt die Menge
n
o
XrY= x∈X :x<Y
das Komplement von Y in X.
n
o
Beispiel 1.1.7. Z r N = . . . , −2, −1, 0 .
Man verwendet die Schreibweise X r Y aber auch, wenn Y keine Teilmenge von X ist.
n o n o n o
Beispiel 1.1.8. 1, 2 r 2, 3 = 1 .
1.2
Abbildungen
Sind X, Y Mengen, so ist eine Abbildung f : X → Y eine Zuordnung, die jedem
Element x von X genau ein Element y = f (x) von Y zuordnet.
n
o
n o
Beispiele 1.2.1.
• f : 1, 2, 3 → 4, 5
f (1) = 4,
f (2) = 4
f (3) = 5.
• f :R→R
f (x) = x2 .
• Auf jeder gegebenen Menge X gibt es eine kanonische Abbildung X → X,
nämlich die Identität
IdX : X → X; x 7→ x.
Definition 1.2.2. Eine Abbildung f : X → Y heißt injektiv, falls verschiedene
Elemente verschiedene Bilder haben, also wenn für alle x, x0 ∈ X gilt
x , x0 ⇒ f (x) , f (x0 ),
oder, anders ausgedrückt, wenn
f (x) = f (x0 ) ⇒ x = x0 .
Lineare Algebra 1
6
injektiv:
'$
'$
x
x
- x
- x
x
x
x
x
x
-
&%
&%
nicht injektiv:
'$
x
x
x
x
'$
x
x
- x
x
x
:
&%
&%
Beispiele 1.2.3.
• Die Abbildung f : R → R mit f (x) = x2 ist nicht injektiv, denn
f (1) = f (−1) = 1.
• Die Abbildung f : R → R mit f (x) = x3 ist injektiv.
Definition 1.2.4. Eine Abbildung f : X → Y heißt surjektiv, falls es zu jedem y ∈ Y ein
x ∈ X gibt mit f (x) = y, wenn also jedes y ∈ Y getroffen wird.
Lineare Algebra 1
7
surjektiv:
'$
x
x
x
x
'$
x
x
- x
:
&%
&%
nicht surjektiv:
'$
x
x
x
x
'$
:
&%
x
x
x
x
x
&%
Beispiele 1.2.5.
• Die Abbildung F : R → R mit f (x) = x2 ist nicht surjektiv, da es
kein x ∈ R gibt mir f (x) = −1.
• Die Abbildung f : R → R mit f (x) = x3 ist surjektiv.
Eine Abbildung f : X → Y die sowohl injektiv als auch surjektiv ist, heißt bijektiv.
Satz 1.2.6. Ist X eine endliche Menge und ist f : X → X eine Selbstabbildung, so sind
äquivalent:
(a) f ist injektiv,
(b) f ist surjektiv,
(c) f ist bijektiv.
Lineare Algebra 1
8
n
o
Beweis. Sei X = x1 , . . . , xn mit n Elementen.
(a)⇒(b) Da f (x1 ), . . . , f (xn ) alle verschieden sind, sind es wieder n Elemente, also
n
o
f (x1 ), . . . , f (xn ) = X, damit ist f surjektiv.
(b)⇒(c) Sei f surjektiv. Wir haben zu zeigen, dass f injektiv ist. Wegen
n
o n
o
f (x1 ), . . . , f (xn ) = x1 , . . . , xn müssen die f (x1 ), . . . , f (xn ) paarweise verschieden sein,
also ist f injektiv.
Die Richtung (c)⇒(a) ist trivial.
Definition 1.2.7. Eine Permutation auf einer Menge M ist eine bijektive Abbildung
M → M. Mit Per(M) bezeichnen wir die Menge aller Permutationen auf M. Ist
n = 1, 2, 3, . . . eine natürliche Zahl, so bezeichnet Per(n) die Menge der Permutationen
n
o
auf der Menge 1, 2, 3, . . . , n .
Die Menge Per(1) hat ein Element. Die Menge Per(2) hat zwei Elemente, die Menge
Per(3) hat sechs Elemente:
1.3

 
 1 2 3   1 2 3

 
 1 2 3   1 3 2






 1 2 3 


 2 1 3 

 
 1 2 3   1 2 3

 
 3 2 1   3 1 2






 1 2 3 


 2 3 1  .
Komposition
Seien f : X → Y und g : Y → Z Abbildungen, so kann man ihre Komposition g ◦ f
(lies: “geh nach eff”) bilden, dies ist eine Abbildung von X nach Z definiert durch
g ◦ f (x) = g( f (x)).
Man visualisiert dies durch ein Diagramm:
f
X
g◦ f
/Y
g
Z.
Beispiel 1.3.1. Ist f : X → Y, dann gilt f ◦ IdX = f und IdY ◦ f = f .
Lineare Algebra 1
9
Lemma 1.3.2 (Assoziativität der Komposition). Seien f : W → X, g : X → Y und
h : Y → Z Abbildungen. Dann gilt
h ◦ (g ◦ f ) = (h ◦ g) ◦ f.
Beweis. Sei w ∈ W, dann gilt
h ◦ (g ◦ f )(w) = h(g ◦ f (w)) = h(g( f (w))) = (h ◦ g)( f (w)) = (h ◦ g) ◦ f (w).
Proposition 1.3.3. Sind g und f beide injektiv, so ist g ◦ f injektiv. Ebenso für surjektiv.
Beweis. Es seien beide injektiv und x , x0 in X. Da f injektiv ist, folgt f (x) , f (x0 ). Da g
injektiv ist, folgt hieraus g ◦ f (x) = g( f (x)) , g( f (x0 )) = g ◦ f (x0 ). Also ist g ◦ f injektiv.
Es seien beide surjektiv. Sei z ∈ Z. Da g surjektiv ist, gibt es ein y ∈ Y mit g(y) = z. Da f
surjektiv ist, gibt es ein x ∈ X mit f (x) = y. Dann folgt g ◦ f (x) = g( f (x)) = g(y) = z.
Also ist g ◦ f surjektiv.
Insbesondere ist die Komposition bijektiver Abbildungen bijektiv.
Eine Abbildung f : X → Y heißt invertierbar, wenn es eine Abbildung g : Y → X gibt
mit
g ◦ f = IdX und f ◦ g = IdY .
Satz 1.3.4. (a) Sei f eine invertierbare Abbildung. Dann ist die Abbildung g mit
f ◦ g = IdY und g ◦ f = IdX eindeutig bestimmt. Wir nennen sie die inverse
Abbildung oder Umkehrabbildung und schreiben g = f −1 .
(b) Eine Abbildung f : X → Y ist genau dann invertierbar, wenn sie bijektiv ist.
Beweis. (a) Wir nehmen an, es gibt eine weitere Abbildung h : Y → X mit h ◦ f = IdX
und f ◦ h = IdY . Dann gilt
g = g ◦ IdY = g ◦ ( f ◦ h) = (g ◦ f ) ◦ h = IdX ◦ h = h,
also g = h wie behauptet.
Lineare Algebra 1
10
(b) Sei f : X → Y eine Abbildung. Wir müssen zeigen:
f invertierbar ⇔ f bijektiv.
“⇒” Sei f invertierbar und sei f −1 die Umkehrabbildung. Sind x, x0 ∈ X mit
f (x) = f (x0 ), so gilt x = IdX (x) = f −1 ◦ f (x) = f −1 ( f (x)) = f −1 ( f (x0 )) = IdX (x0 ) = x0 , also
x = x0 , somit ist f injektiv. Sei ferner y ∈ Y, so gibt es ein x ∈ X, nämlich x = f −1 (y) mit
f (x) = f ( f −1 (y)) = y, also ist f auch surjektiv.
“⇐” Sei f bijektiv und sei y ∈ Y. Dann existiert ein x ∈ X mit f (x) = y, da f surjektiv
ist. Da f obendrein injektiv ist, ist x eindeutig bestimmt. Wir definieren also g(y) = x.
Wir machen dies für jedes y ∈ Y und definieren so eine Abbildung g : Y → X, die nach
Definition die Gleichung f ◦ g = IdY erfüllt. Sei x ∈ X und sei y = f (x), dann folgt
x = g(y) und also g( f (x)) = x und also auch g ◦ f = IdX .
1.4
Produkte und Relationen
Das Produkt oder auch das kartesische Produkt X × Y zweier Mengen X und Y ist
definiert als die Menge aller Paare (x, y) wobei x ∈ X in y ∈ Y ist.
n o n
o n
o
Beispiele 1.4.1.
• 1, 2 × 3, 4, 5 = (1, 3), (1, 4), (1, 5), (2, 3), (2, 4), (2, 5) .
• Die Menge R × R kann als die Ebene verstanden werden.
Sei X eine Menge. Eine Relation auf X ist eine Teilmenge R ⊂ X × X. Wir schreiben
dann x ∼R y oder einfach x ∼ y für (x, y) ∈ R.
Beispiele 1.4.2.
• X = Menge aller Menschen,
x∼y
⇔
x ist Vetter von y
• X = R,
x∼y
⇔
x≤y
• X = Z,
x∼y
⇔
x − y ist gerade.
Eine Relation ∼ heißt Äquivalenzrelation, falls für x, y, z ∈ X gilt
Lineare Algebra 1
11
1.
2.
3.
x∼x
x∼y ⇒ y∼x
x ∼ y, y ∼ z ⇒ x ∼ z
Reflexivität
Symmetrie
Transitivität.
Falls ∼ eine Äquivalenzrelation ist und x ∼ y gilt, so sagt man: x ist äquivalent zu y.
Beispiele 1.4.3.
• Die “Vetternwirtschaft” ist keine Äquivalenzrelation, denn es
kann sein, dass x ein Vetter von y ist und y ein Vetter von z, aber x kein Vetter
von z.
• x ≤ y ist keine Äquivalenzrelation, denn 0 ≤ 1, aber 1 0.
• x ∼ y ⇔ x − y ist gerade ist eine Äquivalenzrelation.
Sei ∼ eine Äquivalenzrelation auf der Menge X. Für x ∈ X sei
def
[x] =
n
o
y∈X:y∼x
die Äquivalenzklasse von x.
Proposition 1.4.4. Ist ∼ eine Äquivalenzrelation auf X, so zerfällt X in paarweise disjunkte
Äquivalenzklassen. Ist umgekehrt eine Zerlegung von X in paarweise disjunkte Teilmengen
gegeben:
[
·
X=
Xi
i∈I
So definiert man eine Äquivalenzrelation ∼ durch
x∼y
⇔
x und y liegen in derselben Menge Xi .
Man kann also sagen: Eine Äquivalenzrelation auf einer Menge X ist dasselbe wie
eine disjunkte Zerlegung von X in Teilmengen.
Beweis. Sei ∼ eine Äquivalenzrelation. Wegen der Reflexivität liegt jedes x ∈ X in einer
Äquivalenzklasse, nämlich x ∈ [x]. Wir müssen zeigen, dass für x, y ∈ X gilt, dass
entweder [x] = [y] oder [x] ∩ [y] = ∅. Dies geht wie folgt: Nimm an, dass [x] ∩ [y] , ∅,
dann existiert ein z ∈ X mit z ∼ x und z ∼ y. Dann folgt x ∼ z wegen der Symmetrie.
Nach Transitivität folgt dann x ∼ y, wir müssen hieraus folgern, dass [x] = [y] ist. Wir
zeigen [x] ⊂ [y] und [y] ⊂ [x]. Sei zunächst u ∈ [x], also u ∼ x. Es gilt x ∼ y und daher
Lineare Algebra 1
12
nach Transitivität u ∼ y, also u ∈ [y], wir habe also [x] ⊂ [y] gezeigt. Wegen Symmetrie
ist aber auch y ∼ x und daher folgt ebenso [y] ⊂ [x].
Die Tatsache, dass jede Zerlegung von X eine Äquivalenzrelation definiert, sei dem
Leser zur Übung überlassen.
1.5
Vollständige Induktion
Ist A(n) eine Aussage, die für eine natürliche Zahl n Sinn macht, so gilt









 ⇒ A(n) gilt für jedes n ∈ N.

A(n) ⇒ A(n + 1) 




für jedes n ∈ N 
A(1) gilt,
Beispiel 1.5.1. Für jede natürliche Zahl n gilt
1 + 2 + 3 + ··· + n =
n(n + 1)
.
2
Beweis. Induktionsanfang: Für n = 1 ist die Behauptung wahr, denn die linke Seite ist 1
1(1+1)
und die rechte Seite ist 2 = 22 = 1.
Induktionsschritt: n → n + 1 Wir nehmen an, die Behauptung A(n) gilt für n. Wir
rechnen dann
1 + 2 + · · · + n +(n + 1) =
|
{z
}
=
n(n + 1)
+n+1
2
n(n+1)
2
=
n2 + n + 2n + 2 (n + 1)(n + 2)
=
.
2
2
Also haben wir gezeigt, dass aus der Behauptung für n folgt:
1 + 2 + · · · + n + (n + 1) =
Dies ist aber gerade A(n + 1).
(n + 1)(n + 2)
.
2
Es kann auch passieren, dass eine Aussage A(n) erst ab einer bestimmten Zahl richtig
ist. Wir zeigen dass an folgendem
Lineare Algebra 1
13
Beispiel 1.5.2. Für jede natürliche Zahl n ≥ 5 gilt 2n > n2 .
Beweis. Induktionsanfang: n = 5. In diesem Fall rechnen wir
2n = 25 = 32 > 25 = n2 .
Induktionsschritt: n → n + 1. Es gelte 2n > n2 und es sei n ≥ 5. Wir rechnen
2n+1 = 2 · 2n > 2 · n2 = n2 + n2 = n2 + (n − 1)n + n
≥ n2 + 2n + 1 = (n + 1)2 ,
|{z}
für n≥3
dies ist gerade die Behauptung für n + 1.
Es kommt auch vor, dass man im Induktionsschritt nicht nur (n) als Voraussetzung
braucht, sondern dass der Induktionsschritt lautet: A(1), . . . A(n) ⇒ A(n + 1).
Beispiel 1.5.3. Jede natürliche Zahl n ≥ 2 ist ein Produkt von Primzahlen, lässt sich
also schreiben als
n = p1 · p2 · · · pk ,
wobei die Zahlen p1 , . . . , pk Primzahlen sind.
Beweis. Induktionsanfang: n = 2. Diese Zahl ist allerdings selbst eine Primzahl, also
insbesondere ein Produkt von solchen.
Induktionsschritt: 2, . . . , n → n + 1. Die Behauptung sei wahr für 2, . . . , n. Ist nun n + 1
selbst eine Primzahl, so gilt die Behauptung auch für n + 1. Andernfalls hat n einen
n
o
∈
2,
3,
.
.
.
,
n
, damit gilt also die Behauptung
echten Teiler, sagen wir d. Dann gilt d, n+1
d
für d und für n+1
, welche damit beide Produkte von Primzahlen sind, also ist auch
d
n+1=d·
n+1
d
ein Produkt von Primzahlen.
Zur Abkürzung führen wir die das Summenzeichen ein:
n
X
j=1
a j = a1 + a2 + · · · + an .
Lineare Algebra 1
14
Beispiel 1.5.4. Für jede natürliche Zahl n gilt
n
X
(2k − 1) = n2 .
k=1
Der Beweis ist eine Übungsaufgabe.
Analog zum Summenzeichen haben wir das Produktzeichen
n
Y
a j = a1 · a2 · · · an .
j=1
So ist zum Beispiel die Fakultät der Zahl n ∈ N definiert als
n! =
n
Y
k = 1 · 2 · · · n.
k=1
Proposition 1.5.5. Die Anzahl aller möglichen Anordnungen einer n-elementigen Menge ist
n!.
n o
Beispiele: Alle Anordnungen der 2-elementigen Menge 1, 2 sind
(1, 2),
(2, 1)
n
o
also 2 Stück. Alle Anordnungen der 3-elementigen Menge 1, 2, 3 sind
(1, 2, 3), (1, 3, 2), (2, 1, 3), (3, 1, 2), (2, 3, 1), (3, 2, 1),
also 6 = 3 · 2 · 1 = 3!.
Beweis. Wir wollen n-Elemente anordnen. Für die erste Position haben wir die freie
Wahl unter allen n-Elementen. Haben wir die erste Position besetzt, so bleibt uns noch
die Wahl unter n − 1 Elementen, für die ersten beiden Positionen haben wir also
n · (n − 1) verschiedenen Wahlen. Für die dritte Position bleiben (n − 2) viele
Wahlmöglichkeiten und so weiter, bis am Ende die letzte Position vorgegeben ist, so
dass wir im Endeffekt n · (n − 1) · (n − 2) · · · 1 = n! viele Wahlmöglichkeiten haben. Es seien zwei ganze Zahlen 0 ≤ k ≤ n gegeben. Wir definieren den
Lineare Algebra 1
15
n
k
Binomialkoeffizienten
durch
!
Anzahl der k-elementigen Teilmengen
n
=
k
einer n-elementigen Menge
Beispiele 1.5.6.
• Ist k = 0 und n beliebig, so ist
die leere Menge.
n
k
= 1, denn man fischt immer nur
n
o
• Ist k = 1, und n ≥ 1 beliebig, so ist nk = n, denn die Menge 1, . . . , n hat genau
n o n o
n o
die 1-elementigen Teilmengen 1 , 2 , . . . , n .
n(n−1)
• Es gilt n2 = 2 , denn, suchen wir eine 2-elementige Teilmenge, so haben wir
für das erste Element n-Wahlmöglichkeiten und für das zweite n − 1. Dann
haben wir aber jede Teilmenge doppelt gezählt, weil ja beide mögliche
Reihenfolgen auftreten.
Proposition 1.5.7. Für 0 ≤ k ≤ n gilt
!
n · (n − 1) · · · (n − k + 1)
n
n!
=
.
=
k!(n − k)!
k!
k
Beweis. Wir wählen k Elemente aus n aus. Wählen wir zunächst mit Reihenfolge. Für
das erste Element haben wir n Wahlmöglichkeiten, für das zweite n − 1 und so weiter,
so dass wir insgesamt n · (n − 1) · · · (n − k + 1) Möglichkeiten haben. Jetzt treten aber
alle möglichen Reihenfolgen der k Elemente auf, also müssen wir das Ergebnis noch
durch k! dividieren.
Satz 1.5.8. Es gilt stets
!
!
!
n
n−1
n−1
=
+
,
k
k−1
k
wobei
n−1
k
= 0 setzen, falls k > n − 1.
n
o
Beweis. Sei A die Menge der k-elementigen Teilmengen der Menge 1, 2, 3, . . . , n .
Dann gilt |A| = nk , wobei |A| die Anzahl der Elemente der Menge A bezeichnet. Sei A1
die Menge aller Teilmengen, die das Element 1 enthalten und sei A2 die Menge aller
Teilmengen, die die 1 nicht enthalten. Dann ist A die disjunkte Vereinigung von A1
und A2 und daher folgt
|A| = |A1 | + |A2 |.
Lineare Algebra 1
16
Es ist nun
!
Anzahl der k − 1-elementigen Teilmengen
n
−
1
n
o
|A1 | =
=
.
k−1
von 2, 3, . . . , n
Ebenso gilt
!
Anzahl der k-elementigen Teilmengen
n
−
1
n
o
|A2 | =
=
.
k
von 2, 3, . . . , n
Zusammen folgt die Behauptung.
Man verdeutlicht dieses Gesetz durch das sogenannte Pascalsche Dreieck:
1
1
1
1
1
1
2
3
4
1
3
6
1
4
1
n=0
1
2
3
5
Satz 1.5.9 (Binomischer Lehrsatz). Für jedes n ≥ 0 gilt
!
n
X
n k n−k
(x + y) =
xy .
k
n
k=0
Insbesondere für y = 1 erhalten wir
!
n
X
n k
(x + 1) =
x.
k
n
k=0
Dieser Satz ist der Grund, warum die Zahlen
n
k
die Binomialkoeffizienten heißen.
Beweis. Induktion nach n. Für n = 0 ist nichts zu zeigen.
Induktionsschritt n → n + 1: Wir rechnen
Lineare Algebra 1
17
(x + y)
n+1
!
n
X
n k n−k
xy
= (x + y)(x + y) = (x + y)
k
k=0
!
!
n
n
X
X
n k n+1−k
n k+1 n−k
xy
x y +
=
k
k
k=0
k=0
!
!
n
n+1
X
X n
n
xk yn+1−k +
xk yn+1−k
=
k
k−1
k=0
k=1
!
n+1
X n+1
xk yn+1−k .
=
k
n
k=0
Damit folgt die Behauptung.
Folgerungen:
!
n
X
n
= 2n ,
k
!
n
X
n
(−1)k = 0.
k
k=0
k=0
Satz 1.5.10 (Geometrische Reihe). Für jedes n ∈ N gilt
n
X
xk =
k=0
1 − xn+1
1−x
Beweis. Man kann diesen Satz durch Induktion nach n beweisen. Wir machen es aber
anders, wir rechnen
(1 − x)
n
X
k=0
x =
k
n
X
k=0
k
x −
n
X
k=0
k+1
x
=
n
X
k=0
Nach Division durch (1 − x) folgt die Behauptung.
k
x −
n+1
X
xk = 1 − xn+1 .
k=1
Kapitel 2
Gruppen und Körper
2.1
Gruppen
Sei M eine Menge. Eine Verknüpfung auf M ist eine Abbildung:
M × M → M.
Beispiele 2.1.1.
• Addition und Multiplikation auf N sind Verknüpfungen:
N × N → N,
(m, n) 7→ m + n;
sowie
N × N → N,
(m, n) 7→ mn.
• Hintereinanderausführung von Permutationen:
Per(M) × Per(M) → Per(M),
(α, β) 7→ α ◦ β
ist eine Verknüpfung.
• Sei M = Q, R, so definiert das arithmetische Mittel
a∗b=
a+b
2
eine Verknüpfung auf M.
Definition 2.1.2. Eine Gruppe ist eine Menge G mit einer Verknüpfung G × G → G,
18
Lineare Algebra 1
19
geschrieben als (a, b) 7→ ab, so dass für alle a, b, c ∈ G folgende Axiome erfüllt sind:
• Assoziativgesetz
a(bc) = (ab)c,
• neutrales Element: es gibt ein e ∈ G mit
ae = a,
• inverses Element: zu jedem a ∈ G gibt es ein a0 ∈ G mit
aa0 = e.
Beispiele 2.1.3.
• Die Menge N ist mit der Addition keine Gruppe, denn sie
enthält kein neutrales Element.
• Die Menge der ganzen Zahlen:
n
o
Z = . . . , −2, −1, 0, 1, 2, . . .
ist eine Gruppe mit der Addition, denn die Null ist ein neutrales Element und
das Inverse zu k ∈ Z ist −k ∈ Z. Ebenso sind (Q, +) und (R, +) Gruppen.
n o
• Die Menge Q× = Q r 0 , so ist G mit der Multiplikation eine Gruppe, ebenso
n o
R× = R r 0
• Die Menge R ist mit dem arithmetischen Mittel keine Gruppe, denn diese
Verknüpfung ist nicht assoziativ. Es ist
!
a+b c a b c
a+b
∗c=
+ = + +
(a ∗ b) ∗ c =
2
4
2 4 4 2
im Allgemeinen verschieden von
!
b+c
a b c
a ∗ (b ∗ c) = a ∗
= + + .
2
2 4 4
• Ist M eine Menge, dann ist die Menge G = Per(M) aller Permutationen auf M mit
der Hintereinanderausführung als Verknüpfung eine Gruppe. Das neutrale
Element ist die identische Abbildung Id : M → M und die Inverse zu f ∈ Per(M)
ist ihre Umkehrabbildung f −1 .
Lineare Algebra 1
20
Proposition 2.1.4. Sei G eine Gruppe.
(a) Das neutrale Element e ist eindeutig bestimmt.
(b) Das neutrale Element e erfüllt auch ea = a für jedes a ∈ G.
(c) Zu gegebenem a ∈ G ist das inverse Element a0 eindeutig bestimmt.
(d) Das Inverse a0 zu a erfüllt auch a0 a = e.
Beweis. Wir beginnen mit der letzten Aussage (d). Ist a0 ein Rechtsinverses zu a und ist
a00 ein Rechtsinverses zu a0 , dann gilt
a0 a = (a0 a)e
neutrales Element
= (a0 a)(a0 a00 )
inverses Element
= (a0 (aa0 ))a00
Assoziativgesetz, mehrfach
= (a0 e)a00
inverses Element
= a0 a00
neutrales Element
=e
inverses Element
Damit ist (d) bewiesen.
Nun beweisen wir (b) unter Benutzung von (d). Es gilt
ea = (aa0 )a
inverses Element
= a(a0 a)
Assoziativgesetz
= ae
=a
nach (d)
neutrales Element
Dies benutzen wir nun, um (a) zu zeigen. Sei e2 ein weiteres neutrales Element. Dann
gilt
e2 = ee2
=e
nach (b)
da e2 neutral
Lineare Algebra 1
21
Jetzt fehlt noch (c). Sei also a2 ein weiteres Inverses zu a. Dann gilt
a2 = ea2
nach (b)
= (a0 a)a2
nach (d)
= a0 (aa2 )
Assoziativgesetz
= a0 e
da a2 invers zu a
= a0
neutrales Element
Damit ist die Proposition vollständig bewiesen.
Da das inverse Element a0 zu a nun eindeutig bestimmt ist, schreiben wir a−1 für a0 .
Korollar 2.1.5. Sei G eine Gruppe, dann gilt für alle a, b, x, y ∈ G,
(a) (a−1 )−1 = a,
(b) (ab)−1 = b−1 a−1 ,
(c) ax = ay ⇒ x = y.
Beweis. Es gilt a−1 a = e, also ist a ein Inverses zu a−1 und (a) folgt aus der Eindeutigkeit
des Inversen.
(b) Es gilt (b−1 a−1 )(ab) = b−1 (a−1 a)b = (b−1 e)b = b−1 b = e.
(c) Multipliziere beide Seiten der Gleichung mit a−1 .
Definition 2.1.6. Sei G eine Gruppe. Eine Teilmenge H ⊂ G heißt Untergruppe, falls H
mit der Verknüpfung von G selbst wieder eine Gruppe ist.
Lemma 2.1.7. Sei H eine Untergruppe der Gruppe G.
(a) Das neutrale Element e von G liegt in H und ist das neutrale Element von H.
(b) Ist h ∈ H, so liegt das Inverse h−1 zu h in H und ist das Inverse bzgl H
Eine nichtleere Teilmenge H ⊂ G ist genau dann eine Untergruppe, wenn
a, b ∈ H
gilt.
⇒
ab−1 ∈ H
Lineare Algebra 1
22
Beweis. Sei eH das neutrale Element von H und e das von G. Dann gilt in G die
) = eH e = eH und (a) ist bewiesen.
= eH (eH e−1
= (eH eH )e−1
Identität e = eH e−1
H
H
H
(b) Sei h ∈ H und sei h0 das Inverse bezüglich H. Dann gilt hh0 = eh = e und damit ist
h0 = h−1 das Inverse in G.
Nun zur letzten Aussage. Ist H eine Untergruppe und sind a, b ∈ H, so folgt nach (b),
dass b−1 ∈ H und damit ab−1 ∈ H. Sei umgekehrt H eine nichtleere Teilmenge, die der
Bedingung des Lemmas genügt. Sei h ∈ H ein Element, dann ist e = hh−1 ∈ H, also
enthält H das neutrale Element. Wir zeigen nun, dass H zu jedem Element h auch sein
Inverses h−1 enthält. Hierzu schreibe h−1 = eh−1 ∈ H. Seien nun a, b ∈ H, dann liegt
b−1 ∈ H und es gilt ab = a(b−1 )−1 ∈ H, also ist H abgeschlossen unter der Multiplikation.
Zusammen folgt, dass H eine Untergruppe ist.
Definition 2.1.8. Eine Gruppe G heißt kommutativ oder abelsche Gruppe, falls für
alle a, b ∈ G gilt
ab = ba.
Beispiele 2.1.9.
• Die Gruppen (Z, +), (Q, +), (R, +), (Q× , ×), (R× , ×) sind abelsch.
• Ist M eine Menge mit mehr als zwei Elementen, dann ist Per(M) nicht abelsch.
n
o
Dies zeigen wir exemplarisch an dem Beispiel der Menge M = 1, 2, 3 . Seien
Dann ist


 1 2 3 
 ,
α = 
2 1 3 


 1 2 3 
 .
β = 
1 3 2 


 1 2 3 
 ,
αβ = 
2 3 1 


 1 2 3 
 .
βα = 
3 1 2 
Beispiel 2.1.10. Sei m ∈ N eine natürliche Zahl. Auf der Menge
n
o
Z/m = 0, 1, . . . , m − 1
definieren wir eine Addition durch
a b = Rest von a + b bei Division nach m.
Dann ist Z/m eine Gruppe. Das neutrale Element ist die Null und das Inverse zu a ist
m − a, wenn a , 0.
n o
Für m = 1 ist Z/m = 0 die triviale Gruppe.
Lineare Algebra 1
23
n o
Für m = 2 ist Z/m = 0, 1 und es gilt 1 1 = 0.
Für m = 3 geben wir die Addition durch folgende Tabelle an:
2.2
0
1
2
0
1
2
1
2
0
2
0
1
0
1
2
Körper
Definition 2.2.1. Ein Körper ist ein Tripel (K, +, ×) bestehend aus einer Menge K und
zwei Verknüpfungen + und ×, wobei wir a × b als ab schreiben, so dass die folgenden
Axiome erfüllt sind:
• (K, +) ist eine abelsche Gruppe. Wir schreiben das neutrale Element dieser
Gruppe als 0 = 0K und nennen es das Nullelement.
• (K r {0}, ×) ist eine abelsche Gruppe. Wir schreiben das neutrale Element als
1 = 1K und nennen es das Einselement.
• Es gilt das Distributivgesetz: für alle a, b, c ∈ K gilt
a(b + c) = ab + ac.
Beispiele 2.2.2.
• (Z, +, ×) ist kein Körper, da nicht jedes Element x , 0 ein
multiplikatives Inverses besitzt, so gibt es zum Beispiel kein Inverses für x = 2.
• (Q, +, ×) ist ein Körper und R ebenso.
n o
• Auf der Menge F2 = 0, 1 definieren wir Addition und Multiplikation durch
Dann ist F2 ein Körper.
+ 0
1
× 0
1
0
1
1
0
0
1
0
1
0
1
0
0
Lineare Algebra 1
24
• Allgemeiner sei p eine Primzahl. Auf der Gruppe Fp = Z/p erklären wir
Addition wie gehabt und die Multiplikation durch
a b = Rest von ab bei Division durch p.
Dann ist (Fp , , ) ein Körper. Für F3 sind die Verknüpfungstabellen:
+ 0
1
2
× 0
1
2
0
1
2
1
2
0
2
0
1
0
1
2
0
1
2
0
2
1
0
1
2
0
0
0
Schreibweise: Wir schreiben −a für das additive Inverse zu a und a − b für a + (−b).
Satz 2.2.3. Sei K ein Körper. Dann gilt für alle a, b, c ∈ K:
(a) 0 , 1,
(b) 0 · a = 0
(c) ab = 0
⇒
a = 0 oder b = 0,
(d) a(−b) = −ab = (−a)b,
(e) ab = ac, a , 0
⇒
Nullteilerfreiheit
(−a)(−b) = ab,
b = c,
(f) a(b − c) = ab − ac.
n o
Beweis. (a) Das Element 1 ist das neutrale Element von K× = K r 0 , also ist 1 , 0.
(b) Für a ∈ K gilt 0a = (0 + 0)a = 0a + 0a. Nun addiere −0a auf beiden Seiten.
(c) Ist a, b ∈ K× , so auch ab.
(d) Es gilt ab + a(−b) = a(b − b) = a0 = 0. Also folgt wegen der Eindeutigkeit der
Inversen, dass a(−b) = −ab. Der Rest geht ähnlich.
(f) a(b − c) = a(b + (−c)) = ab + a(−c) = ab − ac.
(e) Es gelte ab = ac mit a , 0. Dann hat a ein multiplikatives Inverses a−1 . Multipliziere
beide Seiten der Gleichung mit a−1 und erhalte b = c.
Lineare Algebra 1
25
Definition 2.2.4. Sei K ein Körper. Die Zahl

n
o



min
n
∈
N
:
n
·
1
=
0
,
K
K

char(K) = 


0
falls endlich,
sonst,
heißt die Charakteristik des Körpers K.
Beispiele 2.2.5.
• Die Charakteristik von Fp ist p.
• Die Charakteristik von Q oder R ist 0.
Bemerkung. Ist die Charakteristik des Körpers K gleich Null, dann ist die Abbildung
N → K,
n 7→ n · 1K
injektiv. Also kann man in diesem Fall N als Teilmenge von K auffassen.
2.3
Die Körper Q, R und C
Die Menge der rationalen Zahlen Q reicht nicht aus, um die Welt zu beschreiben. So
hat etwa seit Pythagoras ein quadratischer Tisch der Kantenlänge 1 eine
√
Diagonallänge von 2. Diese ist aber keine rationale Zahl.
Proposition 2.3.1. Es gibt keine rationale Zahl r mit r2 = 2.
Beweis. Angenommen doch, etwa r =
p
q
mit teilerfremden p und q. Dann folgt
p2
,
q2
2 = r2 =
also p2 = 2q2 . Damit ist p2 eine gerade Zahl und folglich ist auch p gerade,
etwa p = 2k mit k ∈ Z. Es folgt 2q2 = (2k)2 = 4k2 , also q2 = 2k2 . Damit ist auch q eine
gerade Zahl, was der angenommenen Teilerfremdheit widerspricht!
Da die rationalen Zahlen also zur Erfassung der Welt nicht ausreichen, führt man die
√
reellen Zahlen ein, in denen es unter anderem auch eine Zahl r = 2 gibt, deren
Quadrat die Zahl 2 ist. In der Schule versteht man unter der Menge der reellen Zahlen
die Menge aller Dezimalzahlen mit eventuell unendlich vielen Nachkommastellen,
also zum Beispiel
π = 3, 141592653589793...
Lineare Algebra 1
oder
26
√
2 = 1, 414213562373095...
Es gibt auch Dezimalzahlen mit Ziffern, die sich endlos wiederholen. Dies deutet man
üblicherweise durch einen Balken über den Ziffern an, also ist etwa 0, 123 dasselbe
wie 0, 123123123 . . . . Es gibt allerdings Probleme mit der Dezimaldarstellung, da sie
nicht eindeutig ist, so ist etwa 0, 99999... = 0, 9 dasselbe wie 1. Dieses Problem kann
ausgeräumt werden, indem man nur solche Zahlen betrachtet, die nicht in einer 9-er
Periode enden.
Definition 2.3.2. Eine Dezimalzahl ist ein Ausdruck der Form
±aN . . . a1 , b1 b2 . . .
wobei N ∈ N ist und a j , b j ∈ {0, . . . , 9} gilt. Ferner soll aN , 0 oder N = 1 sein. Eine
Dezimalzahl heißt regulär, wenn sie nicht in einer 9-er Periode endet, d.h., wenn es zu
jedem k ∈ N ein j > k gibt, so dass b j , 9 gilt. Die Menge R der reellen Zahlen wird
definiert als die Menge aller regulären Dezimalzahlen.
Jede ganze Zahl k ∈ Z lässt sich auf genau eine Weise als Dezimalzahl
k = ±aN . . . a1 , 0 = ±
N
X
a j 10 j
j=1
schreiben. Die Menge der Dezimalzahlen kann demzufolge mit der Menge
Z × {0, . . . , 9}N
identifiziert werden, wobei {0, . . . , 9}N die Menge aller Abbildungen von N nach
{0, . . . , 9} ist. Die Menge R ist dann die Menge der regulären Elemente von
Z × {0, . . . , 9}N .
Durch schriftliche Division sieht man, dass sich jede rationale Zahl als Dezimalzahl
schreiben lässt, etwa 41 = 0, 25 oder 13 = 0, 3. Diese Darstellung kann stets regulär
gewählt werden.
Satz 2.3.3. Eine reelle Zahl x liegt genau dann in Q, wenn sie am Ende periodisch ist,
Lineare Algebra 1
27
wenn x also von der Form
x = ±aN . . . a1 , b1 . . . bk c1 . . . cl
ist.
Beweis. Sei x ∈ R. Es ist zu zeigen
x∈Q
⇔
x = ±aN . . . a1 , b1 . . . bk c1 . . . cl .
“⇒” Dies folgt aus dem Algorithmus der schriftlichen Division, den man in der
Schule lernt, denn man erhält bei Division durch eine natürliche Zahl d eine Periode,
sobald derselbe Rest bei den Nachkommastellen ein zweites Mal auftritt. Da die
möglichen Reste aber nur die endlich vielen Zahlen 0, 1, . . . , d − 1 sind, muss
irgendwann ein Rest zweimal auftreten. Man sieht das sehr schön, wenn man mal
zum Beispiel 1 : 7 = 0, 142857 ausrechnet.
“⇐” Sei x = ±aN . . . a1 , b1 . . . bk c1 . . . cl , wobei l ∈ N ist. Da x genau dann rational ist,
wenn −x rational ist, kann x ≥ 0 angenommen werden, also
x = aN . . . a1 , b1 . . . bk c1 . . . cl .
Dann ist 10k x = aN . . . a1 b1 . . . bk , c1 . . . cl . Sei n die Dezimalzahl aN . . . a1 b1 . . . bk ∈ N0 und
sei y = 10k x − n, d.h. y = 0, c1 . . . cl . Dann ist aber
def
p = 10l y − y = c1 . . . cl ∈ N0
und es gilt daher y =
p
10l −1
∈ Q. Dann ist aber auch x =
y−n
10k
in Q.
Der Körper C
Auf der Menge R2 führen wir folgende Verknüpfungen ein:
Addition:
(x, y) + (x0 , y0 ) = (x + x0 , y + y0 )
Lineare Algebra 1
28
und Multiplikation:
(x, y)(x0 , y0 ) = (xx0 − yy0 , xy0 + x0 y).
Lemma 2.3.4. Mit diesen Verknüpfungen ist die Menge R2 ein Körper. Das Nullelement ist
(0, 0) und das Einselement ist (1, 0). Das additive Inverse zu (a, b) ist (−a, −b) und das
a
−b
multiplikative Inverse zu (a, b) , 0 ist a2 +b
2 , a2 +b2 .
Beweis. Das muss man im Einzelnen nachrechnen, was langwierig ist, aber nicht
schwierig. Als Beispiel rechnen wir die Assoziativität der Multiplikation. Seien also
(x, y), (a, b), (u, v) ∈ R2 , dann gilt
((a, b)(u, v))(x, y) = (au − bv, av + bu)(x, y)
= (aux − bvx − avy − buy, auy − bvy + avx + bux).
Andererseits ist
(a, b)((u, v)(x, y)) = (a, b)(ux − vy, uy + vx)
= (aux − avy − buy − bvx, auy + avx + bux − bvy).
Wir nennen die Menge R2 mit diesen Verknüpfungen die Menge der komplexen
Zahlen, geschrieben C und setzen
1C = (1, 0),
i = (0, 1).
Jede komplexe Zahl lässt sich eindeutig schreiben als z = a1C + bi mit a, b ∈ R. Die
Abbildung a 7→ a1C identifiziert R mit einer Teilmenge von C. Es gilt i2 = −1. Man
definiert den Realteil einer komplexen Zahl z = x + yi als
Re(z) = x
und den Imaginärteil als
Im(z) = y.
Es gilt dann also z = Re(z) + Im(z)i.
Für z = x + yi definieren wir die komplex konjugierte zu z als
z = x − yi.
Lineare Algebra 1
29
Es folgt unmittelbar
1
Re(z) = (z + z),
2
Im(z) =
1
(z − z).
2i
Lemma 2.3.5. Für z, w ∈ C gilt
(a) z = z,
(b) z + w = z + w,
(c) (zw) = z w.
Beweis. Teil (a) und (b) sind trivial. Für (c) sei z = x + yi und w = u + vi, dann ist
zw = (x + yi)(u + vi) = xu − yv + (xv + yu)i
= xu − yv − (xv + yu)i = (x − yi)(u − vi) = z w.
Definition 2.3.6. [Betrag einer komplexen Zahl] Für z = x + yi gilt
zz = (x + yi)(x − yi) = x2 + y2
und diese reelle Zahl ist ≥ 0. Wir definieren den Betrag einer komplexen Zahl z als
√
|z| =
zz.
Satz 2.3.7. Für z, w ∈ C gilt
(a) |z| ≥ 0 und |z| = 0 ⇔ z = 0,
Definitheit
(b) |zw| = |z||w|,
Multiplikativität
(c) |z + w| ≤ |z| + |w|.
Dreiecksungleichung
Beweis. Teil (a) ist klar. Für Teil (b) rechne
√
|zw| =
√
zwzw =
√
zzww =
√
zz ww = |z||w|.
Lineare Algebra 1
30
Schliesslich beweisen wir (c)
|z + w|2 = (z + w)(z + w) = zz + ww + zw + wz .
| {z }
=2 Re(zw)
Für jede komplexe Zahl w = u + vi gilt | Re(w)| ≤ |w|, also folgt
|z + w|2 = |zz + ww + 2 Re(zw)|
≤ zz + ww + 2| Re(zw)| ≤ zz + ww + 2|z||w| = (|z| + |w|)2 .
Durch Wurzelziehen folgt die Behauptung.
Die folgenden Bilder verdeutlichen die Addition und Multiplikation in C.
z+w
w
z
Lineare Algebra 1
31
zw
w
z
Hierbei ist der Winkel von zw die Summe der Winkel von z und w und die Länge ist
das Produkt der Längen.
2.4
Polynome
Sei K ein Körper. Der Polynomring K[x] ist die Menge der formalen Ausdrücke der
Form
a0 + a1 x + a2 x2 + · · · + an xn
mit n ∈ N und a0 , . . . , an ∈ K. Man hat eine Addition:
(a0 + a1 x + a2 x2 + · · · + an xn ) + (b0 + b1 x + b2 x2 + · · · + bn xn )
= (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn ,
wobei man bei verschiedenem Grad ein Polynom durch Nullen auffüllt. Ferner hat
man eine Multiplikation
(a0 + a1 x + a2 x2 + · · · + am xm )(b0 + b1 x + b2 x2 + · · · + bn xn )


 X



= a0 b0 + (a1 b0 + a0 b1 )x + · · · + 
ak bl  xp + . . .


k+l=p
Lineare Algebra 1
32
Präziser definieren wir den Polynomring als Menge aller Folgen (a0 , a1 , a2 , . . . ) in K mit
der Eigenschaft, dass es ein j0 ∈ N gibt mit a j = 0 für j ≥ j0 . Wir definieren die
Addition durch
(a0 , a1 , a2 , . . . ) + (b0 , b1 , b2 , . . . ) = (a0 + b0 , a1 + b1 , . . . )
und die Multiplikation durch
(a0 , a1 , a2 , . . . )(b0 , b1 , b2 , . . . ) = (c0 , c1 , c2 , . . . )
mit cp =
P
i+j=p
a j bi .
Beispiel 2.4.1. Sei K = F2 , dann gilt für jedes t ∈ K, dass
1 + t = 1 + t2 ,
aber die Polynome 1 + x und 1 + x2 sind verschiedene Elemente in F2 [x]. Man kann
also K[x] nicht mit der Menge der polynomialen Abbildungen K → K identifizieren!
Polynome , polynomiale Abbildungen!
Definition 2.4.2. Für ein Polynom f (x) = a0 + a1 x + · · · + an xn , das nicht gerade Null ist,
sei der Grad von f das größte k ∈ N0 mit ak , 0. Man erweitert diese Definition durch
grad(0) = −∞.
Dann gilt für beliebige Polynome f (x), g(x), dass
grad( f g) = grad( f ) + grad(g),
grad( f + g) ≤ max grad( f ), grad(g) ,
wenn man formal −∞ + n = n + (−∞) = −∞ rechnet.
Satz 2.4.3 (Division mit Rest). Sind f, g ∈ K[x] und ist g , 0, so gibt es eindeutig
Lineare Algebra 1
33
bestimmte Polynome q, r ∈ K[x] so dass
f = qg + r
und
grad(r) < grad(g).
Beweis. Existenz: Wir geben ein Verfahren zur Berechnung an. Schreibe
f (x) = an xn + · · · + a0
g(x) = bm xm + · · · + b0
mit an , 0 und bm , 0. Ist n < m, so setze r = f und q = 0, denn dann ist ja
f = qg + r
und
grad(r) < grad(g).
Ist hingegen n ≥ m, so setze q1 = bamn xn−m und f1 = f − q1 g. Dann folgt
grad( f1 ) < grad( f ). Ersetze nun f durch f1 und wiederhole diesen Vorgang bis der
Grad kleiner wird als grad(g).
Nun zur Eindeutigkeit: Seien q0 , r0 ∈ K[x] zwei weitere Polynome mit f = q0 g + r0 und
grad(r) < grad(g). Dann gilt
0 = f − f = (q − q0 )g + (r − r0 ).
Also gilt (q − q0 )g = (r0 − r) und damit
grad(q − q0 ) + grad(g) = grad(r0 − r)
≤ max(grad(r0 ), grad(r)) < grad(g).
Daraus folgt grad(q − q0 ) < 0, also grad(q − q0 ) = −∞ und damit q = q0 , woraus auch
r = r0 folgt.
Beispiel 2.4.4. Sei K = Q und f (x) = 3x3 + 2x + 1, sowie g(x) = x2 + 4x. Dann ist
q(x) = 3x − 12 und r(x) = 50x + 1.
Sei f ∈ K[x], etwa
f (x) = a0 + a1 x + · · · + an xn .
Für λ ∈ K setze
f (λ) = a0 + a1 λ + a2 λ2 + · · · + an λn ∈ K.
Lineare Algebra 1
34
So definiert f eine polynomiale Abbildung K → K.
Ein λ ∈ K mit f (λ) = 0 heißt Nullstelle des Polynoms f .
Proposition 2.4.5. Ist λ ∈ K eine Nullstelle von f ∈ K[x], f , 0, dann existiert ein
g(x) ∈ K[x] und ein p ∈ N mit
f (x) = (x − λ)p g(x)
und g(λ) , 0. Es folgt dann grad(g) = grad( f ) − p. Die Zahl p heißt die Vielfachheit der
Nullstelle λ von f .
Beweis. Nach Division mit Rest existieren g1 (x) und r(x) mit
f (x) = (x − λ)g1 (x) + r(x)
und grad(r) < grad(x − λ) = 1. Daher ist r(x) konstant. Aber wegen
0 = f (λ) = (λ − λ)g(λ) + r = r
ist r = 0 und wir erhalten f (x) = (x − λ)g1 (x). Ist nun g1 (λ) , 0, setzen wir p = 1 und
g = g1 . Andernfalls wiederholen wir den Schritt mit g1 und der Stelle von f , so lange,
bis wir auf ein Polynom g mit g(λ) , 0 stossen.
Korollar 2.4.6. Ist f ∈ K[x], f , 0 und ist k die Anzahl der Nullstellen von f . Dann gilt
k ≤ grad( f ).
Beweis. Sind λ1 , . . . , λk die verschiedenen Nullstellen von f , dann gilt
f (x) = (x − λ1 )g1 (x)
für ein g1 ∈ K[x], g1 , 0. Dann ist
0 = f (λ2 ) = (λ2 − λ1 ) g1 (λ2 )
| {z }
,0
und also g1 (λ2 ) = 0. Daher gibt es ein g2 (x) , 0 mit g1 (x) = (x − λ2 )g2 (x) und daher
f (x) = (x − λ1 )(x − λ2 )g2 (x).
Lineare Algebra 1
35
Wir wiederholen dies Argument bis zu
f (x) = (x − λ1 )(x − λ2 ) · · · (x − λk )gk (x),
mit gk , 0, was soviel heisst wie grad(gk ) ≥ 0. Daher ist grad( f ) = k + grad(gk ) ≥ k.
Definition 2.4.7. Sei f ∈ K[x], f , 0 und λ ∈ K. Dann heißt
n
o
µ( f, λ) = max n ∈ N : ∃ g∈K[x] f (x) = (x − λ)n g(x)
die Vielfachheit der Nullstelle λ. Es ist µ( f, λ) = 0 falls λ gar keine Nullstelle ist.
Sind λ1 , . . . , λk die verschiedenen Nullstellen von f und m j = µ( f, λ j ) die
Vielfachheiten, dann gilt
f (x) = (a − λ1 )m1 · · · (x − λk )mk g(x)
für ein Polynom g, das keine Nullstelle hat.
Beispiel 2.4.8. Das Polynom g(x) = 1 + x2 hat in K = R keine Nullstelle.
Satz 2.4.9. Sei Φ : K[x] → Abb(K, K) die Abbildung, die einem Polynom die
entsprechende Polynomiale Abbildung zuordnet, also
Φ(a0 + a1 x + · · · + an xn )(α) = a0 + a1 α + · · · + an αn ,
verkürzt geschrieben als
Φ( f )(α) = f (α),
oder, in der anderen Schreibweise,
Φ(a0 , a1 , a2 , . . . )(α) = a0 + a1 α + a2 α2 + . . .
Ist dann K ein unendlicher Körper, dann ist Φ injektiv.
Beweis. Sei K unendlich und sei Φ( f ) = Φ(g). Wir müssen zeigen, dass f = g gilt.
Für α ∈ K gilt Φ( f − g)(α) = f (α) − g(α) = Φ( f )(α) − Φ(g)(α) = 0. Das heißt, das
Polynom h = f − g hat unendlich viele Nullstellen. Nach Korollar 2.4.6 muss es das
Nullpolynom sein, also f − g = 0 oder f = g.
Lineare Algebra 1
Definition 2.4.10. Ein Koerper K heisst algebraisch abgeschlossen, falls jedes
nichtkonstante Polynom f (x) ∈ K[x] eine Nullstelle hat.
Beispiele 2.4.11.
• K = Q ist nicht algebraisch abgeschlossen, weil f (x) = x2 − 2
keine Nullstelle hat.
• K = R ist nicht algebraisch abgeschlossen, weil x2 + 1 keine Nullstelle hat.
• Der Fundamentalsatz der Algebra besagt, dass der Körper C algebraisch
abgeschlossen ist.
• Man beweist in der Algebra, dass es zu jedem Körper K einen
Erweiterungskörper K ⊃ K gibt, der algebraisch abgeschlossen ist. Jeder
algebraisch abgeschlossene Körper hat unendlich viele Elemente.
36
Kapitel 3
Vektorräume
3.1
Räume und Unterräume
Sei K ein Körper. Ein Vektorraum über K ist eine abelsche Gruppe (V, +) zusammen
mit einer Abbildung
K × V → V,
(λ, v) 7→ λv,
so dass für alle v, w ∈ V und alle λ, µ ∈ K gilt:
(a) 1 · v = v,
(b) (λµ)v = λ(µv)
(c) (λ + µ)v = λv + µv,
λ(v + w) = λv + λw.
Beispiele 3.1.1.
• Sei Kn = K × · · · × K die Menge der n-tupel (x1 , . . . , xn ) von
Elementen von K. Aus Gründen, die später klar werden, schreiben wir die
Elemente von Kn als Spalten:










Kn = 


















 : x1 , . . . , xn ∈ K







xn
x1
..
.
37
Lineare Algebra 1
Die Addition
38







 
 
 
 
 + 
 
 
xn  
x1
..
.
 
  x1 + y1
 
 
..
 = 
.
 
 
yn
xn + yn
y1
..
.







macht Kn zu einer abelschen Gruppe. Die skalare Multiplikation ist erklärt durch




λ


 
  λx1
 
  ..
 =  .
 
 
xn   λxn
x1
..
.







für λ ∈ K.
• Sei S irgendeine Menge mit S , ∅. Sei V = Abb(S, K) die Menge aller
Abbildungen f : S → K. Durch die Addition
( f + g)(s) = f (s) + g(s)
wird V eine abelsche Gruppe und die Vorschrift
(λ f )(s) = λ( f (s))
macht V zu einem Vektorraum.
Beweis. Die Nullfunktion f0 (s) = 0 ist ein neutrales Element für die Addition,
denn für jedes f ∈ V gilt
( f + f0 )(s) = f (s) + f0 (s) = f (s) + 0 = f (s).
Die anderen Gruppeneigenschaften rechnet man ebenso nach. Wir zeigen noch
die Vektorraumaxiome. Es gilt
(1 · f )(s) = 1 · f (s) = f (s),
für jedes s ∈ S, also 1 · f = f . Ferner ist für λ, µ ∈ K und f ∈ V,
((λµ) f )(s) = (λµ)( f (s)) = λ(µ( f (s)) = λ((µ f )(s)) = (λ(µ f ))(s).
Schliesslich ist
((λ + µ) f )(s) = (λ + µ)( f (s)) = λ( f (s)) + µ( f (s)) = (λ f )(s) + (µ f )(s) = (λ f + µ f )(s).
Lineare Algebra 1
39
Und ebenso λ( f + g) = λ f + λg.
Sei V ein Vektorraum. Eine Teilmenge U ⊂ V heißt Unterraum oder
Untervektorraum, wenn U mit der Addition und der Skalarmultiplikation von V
selbst ein Vektorraum ist.
Proposition 3.1.2. Sei V ein K-Vektorraum. Eine nichtleere Teilmenge U ⊂ V ist genau dann
ein Unterraum, wenn gilt
(a) u, v ∈ U
⇒
(b) u ∈ U, λ ∈ K
u + v ∈ U,
⇒
λu ∈ U.
Beweis. “⇒” Wenn U ein Unterraum ist, sind (a) und (b) offensichtlich erfüllt.
“⇐” Sei U nichtleer mit (a) und (b). Nach (a) definiert + eine Verknüpfung auf U. Wir
zeigen, dass (U, +) eine abelsche Gruppe ist. Assoziativgesetz (a + b) + c = a + (b + c)
und Kummutativgesetz a + b = b + a sind klar, denn die sind in V erfüllt. Da U nichtleer
ist, gibt es ein u0 ∈ U. Mit (b) folgt, dass (−1)u0 ∈ U und daher ist 0 = u0 + (−1)u0 ∈ U,
also hat U ein neutrales Element. Für u ∈ U ist (−1)u ∈ U ein Inverses und die
Behauptung ist gezeigt. Die verbleibenden Axiome gelten in U, da sie in V gelten. Beispiel 3.1.3. Sei S eine Menge und sei V = Abb(S, K). Fixiere ein s0 ∈ S und setze
n
o
U = f ∈ V : f (s0 ) = 0 .
Dann ist U ein Unterraum von V.
Beweis. U ist nichtleer, da die Nullabbildung in U liegt.
(a) Seien f, g ∈ U, so gilt
( f + g)(s0 ) = f (s0 ) + g(s0 ) = 0 + 0 = 0,
also gilt f + g ∈ U.
(b) Sei f ∈ U und λ ∈ K, so gilt
(λ f )(s0 ) = λ( f (s0 )) = λ · 0 = 0.
Also ist λ f ∈ U.
Lineare Algebra 1
40
Definition 3.1.4. Ist I irgendeine Indexmenge und ist für jedes i ∈ I eine Menge Ai
gegeben, so definieren wir die Schnittmenge
\
Ai
i∈I
als die Menge aller x, die in jeder der Mengen Ai liegen. Das heisst:
x∈
\
Ai
⇔
x ∈ Ai fuer jedes i ∈ I.
i∈I
Proposition 3.1.5. Sind U, W Unterräume von V, so ist U ∩ W ein Unterraum.
Allgemeiner gilt: Ist I eine Indexmenge und ist für jedes i ∈ I ein Unterraum Ui gegeben, so ist
U=
\
Ui
i∈I
ein Unterraum von V.
Beweis. Wir zeigen nur die zweite, allgemeinere Aussage. Zunächst ist U , ∅, da die
Null in jedem Ui und damit in U liegt. Seien u, v ∈ U. Dann gilt u, v ∈ Ui für jedes i ∈ I.
Also ist u + v ∈ Ui für jedes i ∈ I und daher ist u + v ∈ U. Ist λ ∈ K und u ∈ U, so sieht
man ebenso, dass λu ∈ U ist.
3.2
Summen und direkte Summen
Definition 3.2.1. Sei V ein K-Vektorraum und seien U, W ⊂ V Unterräume. Die
Summe von U und W ist definiert als
n
o
U + W = u + w : u ∈ U, w ∈ W .
Beispiel 3.2.2. Sei K = R und V = R3 , sowie
 





x




 


 

U=
:
x
∈
R
0









 



0
Lineare Algebra 1
und
41
 





 0 




 

W=
.
:
y
∈
R
y







 



 0

Dann sind U und W zwei verschiedene Geraden im dreidimensionalen Raum. Es ist
dann
 





 x 




 

U+W =
:
x,
y
∈
R
y







 



 0

eine Ebene.
Definition 3.2.3. Sind U1 , . . . Um ⊂ V Unterräume von V, so definiert man
n
o
U1 + · · · + Um = u1 + · · · + um : u1 ∈ U1 , . . . , um ∈ Um .





n
Beispiel 3.2.4. Sei V = K , sowie e1 = 



1
0
..
.
0
 
 0 

 
 

 0 
 1 
 . 

 

 . 



 
 
 , e2 =  0  , . . . , en =  . . Für jedes

 
 0 
 
 .. 



 

 . 
 
1
0
n
o
j ∈ 1, . . . , n sei
n
o
λe j : λ ∈ K
| {z }
U j = Ke j =
=von e j aufgespannte Gerade
Dann gilt
U1 + · · · + Un = V.
Bemerkung. Für einen Unterraum U ⊂ V gilt
U + U = U.
Beweis. “⊂” Sei v ∈ U + U. Dann gibt es u1 , u2 ∈ U mit v = u1 + u2 . Da U ein Unterraum
ist, folgt v ∈ U.
“⊃” Sei u ∈ U. Dann ist u = u + 0 ∈ U + U.
Definition 3.2.5. Seien U1 , . . . , Um Unterräume von V. Die Summe U = U1 + . . . Um ist
eine direkte Summe, wenn jedes u ∈ U auf genau eine Weise als u = u1 + · · · + um
Lineare Algebra 1
42
geschrieben werden kann. Ist dies der Fall, so schreiben wir
U = U1 ⊕ U2 ⊕ · · · ⊕ Um =
m
M
U j.
j=1
Beispiele 3.2.6.
• Sei V = K3 und
 





 x 




 

U=
,
:
x,
y
∈
K
y









 



0
sowie

 




 0 





 
.
:
y,
z
∈
K
W=
y










 


z
Dann ist die Summe U + W nicht direkt, denn die Null kann auf zwei Weisen
geschrieben werden:
0 = 0 + 0,

  
 0   0 

  
0 =  1  +  −1  .

  
0
0
|{z}
|{z}
∈U
∈W
• Sei V = K3 , U1 = Ke1 und U2 = Ke2 . Dann ist die Summe U = U1 + U2 direkt
Beweis. Sei u ∈ U mit u = u1 + u2 = u01 + u02 , wobei u j , u0j ∈ U j gilt. Wir müssen
zeigen, dass u1 = u01 und u2 = u02 gilt. Hierzu schreibe u1 = λ1 e1 , u2 = λ2 e2 , sowie
u01 = λ01 e1 und u02 = λ02 e2 . Es folgt


 0
 λ1 
 λ1



 λ  = λ e + λ e = u = λ0 e + λ0 e =  λ0
 2 
 2
1 1
2 2
2 2
1 1



0
0



.


Also folgt λ1 = λ01 sowie λ2 = λ02 , also u1 = u01 sowie u2 = u02 .
Proposition 3.2.7. Seien U, W, U1 , . . . , Um Unterräume eines Vektorraums V.
(a) Die Summe U + W ist genau dann direkt, wenn U ∩ W = 0.
Lineare Algebra 1
43
(b) Die Summe U1 + · · · + Um ist genau dann direkt, wenn für alle u1 ∈ U1 , . . . , um ∈ Um gilt
u1 + · · · + um = 0
⇒
u1 = · · · = um = 0.
Beweis. (a) Sei die Summe direkt und sei v ∈ U ∩ W. Dann sind
0=
0 + 0 = v + (−v)
|{z} |{z} |{z} |{z}
∈U
∈W
∈U
∈W
zwei Schreibweisen der Null. Diese müssen nach Definition der direkten Summe
gleich sein, also v = 0.
Sei umgekehrt U ∩ W = 0 und sei u + w = u0 + w0 mit u, u0 ∈ U und w, w0 ∈ W. Dann ist
u − u0 = w0 − w ∈ U ∩ W also gleich Null und damit u = u0 und w = w0 .
(b) “⇒” folgt direkt aus der Definition. Wir zeigen “⇐”: Sei u1 + · · · + um = u01 + · · · + u0m
mit u j , u0j ∈ U j . Dann ist
u1 − u01 + · · · + um − u0m = 0,
also u1 = u01 , . . . , um = u0m .
Kapitel 4
Dimension
4.1
Linearkombinationen
Seien v1 , . . . , vm Elemente des Vektorraums V. Eine Linearkombination der Vektoren
v1 , . . . , vm ist jeder Vektor der Gestalt
λ1 v1 + · · · + λm vm
wobei λ1 , . . . , λm ∈ K. Die Menge aller Linearkombinationen ist der Spann von
v1 , . . . , vm , also
n
o
Spann(v1 , . . . , vm ) = λ1 v1 + · · · + λm vm : λ1 , . . . , λm ∈ K .
Beispiele 4.1.1.
• Seien K = R, V = R3 . Seien weiter v1 , v2 ∈ V, wobei keiner ein
Vielfaches des anderen ist. Dann ist Spann(v1 , v2 ) die eindeutig bestimmte
Ebene, die die Punkte 0, v1 , v2 enthält.
 
 

 7 
 2 
 1
 
 









• Sei K = Q. der Vektor  2  liegt im Spann der Vektoren  1  und  0
 
 

9
3
1



, denn es


gilt
 
 

 7 
 2 
 1
 
 

 2  = 2 1  + 3 0
 
 

 
 

9
3
1



.


Proposition 4.1.2. Sei V ein Vektorraum und u1 , . . . , um ∈ V. Dann ist Spann(u1 , . . . , um )
ein Untervektorraum von V.
44
Lineare Algebra 1
45
Beweis. Sei U = Spann(u1 , . . . , um ). Wir müssen zeigen:
u, v ∈ U ⇒ u + v ∈ U,
u ∈ U, λ ∈ K ⇒ λu ∈ U.
Seien also u = λ1 u1 + · · · + λm um und v = µ1 u1 + · · · + µm um und λ ∈ K. Dann ist
u + v = (λ1 + µ1 )u1 + · · · + (λm + µm )um ∈ U,
sowie
λu = (λλ1 )u1 + · · · + (λλm )um ∈ U.
Definition 4.1.3. Gilt V = Spann(v1 , . . . , vm ), so sagen wir, dass die Vektoren v1 , . . . , vm
den Vektorraum V aufspannen. Ist dies der Fall, sagen wir, dass v1 , . . . , vm ein
Erzeugendensystem von V ist.
 
 
 1 
 0 
 
 . 
 0 
 .. 
Beispiel 4.1.4. Sei V = Kn . Die Vektoren e1 =  .  , . . . , en =   spannen der Raum V
 .. 
 0 
 
 
0
1
auf, denn es gilt für v ∈ V,




v = 






 = x1 e1 + · · · + xn en .


xn 
x1
..
.
Definition 4.1.5. Ein Vektorraum V heißt endlich-dimensional, falls es ein endliches
Erzeugendensystem gibt. Ansonsten heißt er unendlich-dimensional.
Beispiele 4.1.6.
• Der Raum Kn ist endlich-dimensional.
• Der Polynomring K[x] ist mit der Skalarmultiplikation
λ(a0 + · · · + an xn ) = (λa0 ) + · · · + (λan )xn
ein Vektorraum. Dieser ist nicht endlich-dimensional.
Beweis. Angenommen, K[x] wäre endlich-dimensional, also etwa erzeugt von
f1 , . . . , fm . Sei dann N das Maximum der grade grad( f j ) für j = 1, . . . , m. Dann ist
xN+1 nicht als Linearkombination der f j darstellbar. Widerspruch!
Lineare Algebra 1
46
• Sei S eine nichtleere Menge. Ist S endlich, dann ist V = Abb(S, K)
endlich-dimensional.
n
o
Beweis. Sei S = s1 , . . . , sn Für 1 ≤ j ≤ n sei δ j : S → K definiert durch




1
δ j (t) = 


0
t = s j,
t , s j.
Wir behaupten, dass δ1 , . . . , δn ein Erzeugendensystem ist. Sei hierzu f ∈ V und
sei λ j = f (s j ) ∈ K für j = 1, . . . , n. Wir zeigen
f = λ1 δ1 + · · · + λn δn .
Sei s ∈ S. Dann gibt es genau ein 1 ≤ i ≤ n mit s = si . Es ist dann
f (s) = f (si ) = λi = λ1 δ1 (s) + · · · + λn δn (s).
Damit folgt die Behauptung.
4.2
Lineare Unabhängigkeit
Sei V = Spann(v1 , . . . , vm ). Dann kann jedes v ∈ V in der Form
v = λ1 v1 + · · · + λm vm
geschrieben werden. Diese Darstellung ist im Allgemeinen nicht eindeutig, denn es
könnte zum Beispiel v1 = 0 sein, was bedeutet, dass man für λ1 jeden Wert einsetzen
kann. Ist also
v = µ1 v1 + · · · + µm vm
eine zweite Darstellung, so folgt
0 = v − v = v = (λ1 − µ1 )v1 + · · · + (λm − µm )vm .
Es stellt sich heraus, dass die Darstellung genau dann eindeutig ist, wenn v1 , . . . , vm
linear unabhängig im Sinne der folgenden Definition sind.
Definition 4.2.1. Die Vektoren v1 , . . . , vm ∈ V heißen linear unabhängig, falls es keine
Lineare Algebra 1
47
Linearkombination der Null gibt, außer der trivialen, also wenn gilt
λ1 v1 + · · · + λm vm = 0
⇒
λ1 = · · · = λm = 0.
Mit anderen Worten, die Vektoren sind linear unabhängig, wenn es nur eine
Linearkombination der Null gibt.
Beispiel 4.2.2. Die Vektoren e1 , . . . , en ∈ Kn sind linear unabhängig, denn ist
λ1 e1 + · · · + λn en = 0, so heißt das










 0




 = λ1 e1 + · · · + λn en =  ...



 0
λn 
λ1
..
.




,


also λ1 = · · · = λn = 0.
Lemma 4.2.3. Sind die Vektoren w1 , . . . , wm ∈ V linear unabhängig, so gilt für 1 ≤ j ≤ m,
bj . . . , wm ),
w j < Spann(w1 , . . . w
wobei
bj . . . , wm ) = (w1 , . . . , w j−1 , w j+1 , . . . , wm )
(w1 , . . . w
die Familie w1 , . . . , wm ohne den Eintrag w j bezeichnet.
Beweis. Angenommen, w j liegt in dem Spann, dann gibt es λ1 , . . . , b
λ j , . . . , λm ∈ K mit
w j = λ1 w1 + · · · + λ j−1 w j−1 + λ j+1 w j+1 + · · · + λm wm .
Hieraus folgt
λ1 w1 + · · · + λ j−1 w j−1 + (−1)w j + λ j+1 w j+1 + · · · + λm wm = 0,
also λ1 = · · · = λn = 0 und (−1) = 0, Widerspruch!
Definition 4.2.4. Die Vektoren v1 , . . . , vm heißen linear abhängig, wenn sie nicht linear
unabhängig sind, also wenn es eine nichttriviale Linearkombination der Null gibt.
  
  
 2   1   7 
  
  
Beispiel 4.2.5. Sei K = Q. Die Vektoren  3 ,  −1 ,  3  ∈ Q3 sind linear abhängig,
  
  
1
2
8
Lineare Algebra 1
48
denn
 


 
 2 
 1 
 7 
 


 








2 3  + 3 −1  + (−1) 3  = 0.


 
 
1
2
8
Lemma 4.2.6. Sind v1 , . . . , vm linear abhängig und ist v1 , 0, dann existiert ein
n
o
j ∈ 2, 3, . . . , m so dass
(a) v j ∈ Spann(v1 , . . . , v j−1 ),
(b) Spann(v1 , . . . b
v j . . . , vm ) = Spann(v1 , . . . , vm ).
Beweis. Da die v1 , . . . , vm linear abhängig sind, existieren Koeffizienten λ1 , . . . , λn ∈ K,
nicht alle Null, so dass
λ1 v1 + · · · + λm vm = 0.
Sei j der größte Index mit λ j , 0.
Dann ist also λ j+1 = · · · = λm = 0, es folgt λ1 v1 + · · · + λ j v j = 0 und wegen v1 , 0 ist
j > 0. Da λ j , 0, erhalten wir
!
!
−λ j−1
λ1
v1 + · · · +
v j−1 ,
vj = −
λj
λj
also folgt (a). Für (b) sei v ∈ Spann(v1 , . . . , vm ), etwa
v = µ1 v1 + · · · + µm vm .
In
Linearkombination
können wir v j durch den Ausdruck
dieser
λ
− λλ1j v1 + · · · + λj−1j v j−1 ersetzen und wir sehen, dass v ∈ Spann(v1 , . . . b
v j . . . , vm )
gilt.
Lemma 4.2.7. (a) Ist w ∈ Spann(v1 , . . . , vm ), dann ist die Familie w, v1 , . . . , vm linear
abhängig.
(b) Ist w < Spann(v1 , . . . , vm ) und ist v1 , . . . , vm linear unabhängig, dann ist w, v1 , . . . , vm
linear unabhängig.
Beweis. (a) Ist w = λ1 v1 + · · · + λm vm , dann ist 0 = (−1)w + λ1 v1 + · · · + λm vm eine
nichttriviale Linearkombination der Null.
Lineare Algebra 1
49
(b) Sei λw + λ1 v1 + · · · + λm vm = 0. Dann muss λ = 0 sein, denn sonst wäre
λm
λ1
v1 + · · · + −
vm ,
w= −
λ
λ
was der Voraussetzung widerspricht. Also ist λ = 0, und dann folgt λ1 = . . . , λm = 0,
da die v1 , . . . , vm linear unabhängig sind.
Satz 4.2.8. Sei V ein endlich-dimensionaler Vektorraum. Die Länge einer linear
unabhängigen Familie ist ≤ der Länge jedes Erzeugendensystems.
Mit anderen Worten: Gilt V = Spann(v1 , . . . , vn ) und sind w1 , . . . , wk linear unabhängig,
dann ist k ≤ n.
Beweis. 1. Schritt. Da die v1 , . . . , vn den Raum aufspannen, ist w1 , v1 , . . . , vn linear
abhängig. Nach Lemma 4.2.6 können wir eines der v j entfernen und haben immer
noch ein Erzeugendensystem.
Wir wiederholen diesen Schritt.
(j+1)-ter Schritt. Nach Schritt j wissen wir, dass die Familie w1 , . . . , w j , vi1 , . . . , vin− j ) ein
Erzeugendensystem ist. deshalb ist die Liste w1 , . . . , w j+1 , vi1 , . . . , vin− j ) linear abhängig.
Nach Lemma 4.2.6 gibt es einen Vektor, der in dem Span der vorhergehenden liegt.
Dies kann keiner der w1 , . . . , w j+1 sein, denn die sind linear unabhängig. Wir können
also eines der vi entfernen und behalten immer noch ein Erzeugendensystem.
Dieser Prozess stoppt erst nach dem k-ten Schritt und liefert ein Erzeugendensystem
der Länge n von der Form
(w1 , . . . , wk , ∗),
wobei der Stern für einige der v j steht. Damit folgt k ≤ n.
Proposition 4.2.9. Jeder Unterraum eines endlich-dimensionalen Raums ist
endlich-dimensional.
Beweis. Sei U ein Unterraum eines endlich-dimensionalen Raums V, etwa
V = Spann(v1 , . . . , vn ). Jede linear unabhängige Liste u1 , . . . , uk hat eine Länge k ≤ n. Sei
k die maximale Länge einer solchen Liste. Dann behaupten wir, dass u1 , . . . , uk bereits
ein Erzeugendensystem von U ist. Wäre dem nicht so, dann gäbe es einen Vektor
Lineare Algebra 1
50
u0 ∈ U mit u0 < Spann(u1 , . . . , uk ). Dann ist nach Lemma 4.2.7 aber u0 , u1 , . . . , uk linear
unabhängig, was der Maximalität von k widerspricht.
4.3
Basen
Definition 4.3.1. Eine Basis eines Vektorraums V ist ein linear unabhängiges
Erzeugendensystem.
Mit anderen Worten: v1 , . . . , vn ist Basis von V, falls
(a) V = Spann(v1 , . . . , vn ) und
(b) v1 , . . . , vn sind linear unabhängig.
Beispiele 4.3.2.
• e1 , . . . , en ist eine Basis von Kn .

  
 1   1 
 eine Basis von K2 .
• Ist char(k) , 2, dann ist  , 

−1
1
Proposition 4.3.3. Die Familie v1 , . . . , vn ist genau dann eine Basis von V, wenn sich jeder
Vektor v ∈ V auf genau eine Weise als v = λ1 v1 + · · · + λn vn schreiben lässt.
Beweis. “⇒” Sei v1 , . . . , vn eine Basis und sei v ∈ V. Da v1 , . . . , vn ein
Erzeugendensystem ist, gibt es Koeffizienten λ1 , . . . , λn ∈ K so dass
v = λ1 v1 + · · · + λn vn . Es bleibt zu zeigen, dass die λ j eindeutig bestimmt sind. Ist
v = µ1 v1 + · · · + µn vn eine weitere Darstellung, dann folgt
0 = v − v = (λ1 − µ1 )v1 + · · · + (λn − µn )vn .
Wegen der linearen Unabhängigkeit folgt λ1 = µ1 , . . . , λn = µn .
“⇐” Lässt sich jeder Vektor so schreiben, ist die Familie ein Erzeugendensystem. Ist
die Darstellung der Null eindeutig, folgt die lineare Unabhängigkeit.
Satz 4.3.4. Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis.
Lineare Algebra 1
51
Beweis. Sei v1 , . . . , vn ein Erzeugendensystem. Ist es nicht linear unabhängig, dann
kann man nach Lemma 4.2.6 einen Vektor rauswerfen und hat immer noch ein
Erzeugendensystem. Diesen Schritt wiederholt man, bis es linear unabhängig ist.
Beispiel 4.3.5. Nach diesem Verfahren reduziert sich das Erzeugendensystem
    
 1   3   4
 ,  , 
    
2
6
7
  
  
  5 
  
,   zu  1 ,  4
  
  
9
2
7


.

Korollar 4.3.6. Jeder endlich-dimensionale Vektorraum hat eine Basis.
Satz 4.3.7. Sei V endlich-dimensional und seien v1 , . . . , vk linear unabhängig. Dann gibt
es vk+1 , . . . , vn so dass v1 , . . . , vn eine Basis ist.
Beweis. Ist v1 , . . . , vk nicht schon eine Basis, dann gibt es ein vk+1 ∈ V mit
vk+1 < Spann(v1 , . . . , vk ). Nach Lemma 4.2.6 ist dann v1 , . . . , vk+1 wieder linear
unabhängig. Diesen Schritt wiederholen wir so lange, bis wir eine Basis haben. Das
Verfahren muss nach endlich vielen Schritten abbrechen, denn nach Satz 4.2.8 kann
die Länge einer linear unabhängigen Familie nicht die eines Erzeugendensytems
überschreiten und wir wissen ja, dass es eines endlicher Länge gibt.
Proposition 4.3.8. Sei U ⊂ V ein Unterraum des endlich-dimensionalen Vektorraums V.
Dann existiert ein Unterraum W ⊂ V so dass
V = U ⊕ W.
Der Raum W wird ein Komplementärraum zu U genannt.
Beweis. Nach Proposition 4.2.9 ist U endlich-dimensional. Nach Korollar 4.3.6 hat U
eine Basis v1 , . . . , vk . Nach Satz 4.3.7 lässt sich diese zu einer Basis v1 , . . . , vn von V
verlängern. Setze W = Spann(vk+1 , . . . , vn ). Dann ist V = U + W, da sich jedes v ∈ V als
Linearkombination der 1 , . . . , vn schreiben lässt. Ferner ist U ∩ W = 0, denn ist
v ∈ U ∩ W, dann ist einerseits v = λ1 v1 + · · · + λk vk für geeignete Koeffizienten
λ1 , . . . , λk ∈ K und andererseits v = λk+1 vk+1 + · · · + λn vn für Koeffizienten
λk+1 , . . . , λn ∈ K. Es folgt
0 = v − v = λ1 v1 + · · · + λk vk + (−λk+1 )vk+1 + · · · + (−λn )vn ,
Lineare Algebra 1
52
woraus wegen der linearen Unabhängigkeit λ1 = · · · = λn = 0 und damit v = 0
folgt.
Beispiel 4.3.9. Sei K = Q und V = Q2 , sowie U = Qe1 . Dann ist Qe2 ein
Komplementärraum. Allerdings ist auch Q(λe1 + e2 ) ein Komplementärraum für jedes
λ ∈ Q. Damit gibt es unendlich viele verschieden Komplementärräume.
Satz 4.3.10. Je zwei Basen eines Vektorraums haben dieselbe Länge.
Sind also v1 , . . . , vn und w1 , . . . , wm Basen des Vektorraums V, dann folgt m = n. Diese
gemeinsame Länge wird die Dimension des Raums V genannt.
Beweis. Da v1 , . . . , vn linear unabhängig und w1 , . . . , wm ein Erzeugendensystem ist,
folgt nach Satz 4.2.8, dass n ≤ m ist. Aus Symmetrie folgt auch n ≥ m.
Beispiel 4.3.11. Es ist dim(Kn ) = n, da e1 , . . . , en eine Basis ist.
Proposition 4.3.12. (a) Ist U ⊂ V ein Unterraum des endlich-dimensionalen Vektorraums
V, so gilt dim U ≤ dim V.
(b) Ist dim V = n, so ist jedes Erzeugendensystem der Länge n eine Basis. Ebenso ist jede
linear unabhängige Familie der Länge n eine Basis.
(c) Für jeden Vektorraum V gilt
V=0
⇔
dim V = 0.
Beweis. (a) Jede Basis von U kann zu einer Basis von V verlängert werden.
(b) Sei v1 , . . . , vn ein Erzeugendensystem der Länge n. Nach Satz 4.3.4 enthält es eine
Basis. Diese muss aber die Länge n haben, also ist v1 , . . . , vn selbst eine Basis.
Sei v1 , . . . , vn eine linear unabhängige Familie. dann kann sie nach Satz 4.3.7 zu einer
Basis verlängert werden. Diese muss die Länge n haben, also ist sie gleich v1 , . . . , vn .
(c) Ist V = 0, so ist die leere Familie eine Basis und umgekehrt.
Beispiele 4.3.13.
   
 5   1 
•  ,   ist eine Basis von Q2 .
7
3
n
o
• 1, x, 1 + x2 ist eine Basis von f ∈ K[x] : grad( f ) ≤ 2 .
Lineare Algebra 1
53
Satz 4.3.14 (Dimensionsformel für Unterräume). Sind U und W Unterräume des
endlich-dimensionalen Raums V, dann gilt
dim(U + W) = dim U + dim W − dim(U ∩ W).
Beweis. Sei v1 , . . . , vk eine Basis von U ∩ W. Wir setzen sie fort zu einer Basis
v1 , . . . , vk , vk+1 , . . . , vm von U. Andererseits können wir sie aber auch zu einer Basis
v1 , . . . , vk , vm+1 , . . . , vn von W fortsetzen. Wir behaupten, dass
v1 , . . . , vk , vk+1 , . . . , vm , vm+1 , . . . , vn eine Basis von U + W ist. Da
U, W ⊂ Spann(v1 , . . . , vn ) ⊂ U + W,
ist v1 , . . . , vn ein Erzeugendensystem. Wir zeigen lineare Unabhängigkeit. Sei hierzu
λ1 v1 + · · · + λn vn = 0 eine Linearkombination der Null. Seien
v = λ1 v1 + · · · + λk vk ∈ U ∩ W,
u = λk+1 vk+1 + · · · + λm vm ∈ U,
w = λm+1 vm+1 + · · · + λn vn ∈ W.
Dann ist v + u + w = 0. Also ist w = −v − u ∈ U und ebenso ist u = −v − w ∈ W und
damit v, u, w ∈ U ∩ W. Es existieren also α1 , . . . , αk ∈ K mit
u = α1 v1 + · · · + αk vk = λk+1 vk+1 + · · · + λm vm .
Wegen der linearen Unabhängigkeit von v1 , . . . , vm folgt u = 0 und damit
λk+1 = · · · = λm = 0. Ebenso folgt w = 0 und λm+1 = · · · = λn = 0 und wegen
v + u + w = 0 schliesslich v = 0 und λ1 = · · · = λk = 0.
Damit ist
dim(U + W) = n = m + (n − m + k) − k = dim U + dim W − dim(U ∩ W).
Lineare Algebra 1
54
Beispiel 4.3.15. Sei V = K3 , sowie








U=












W=





Dann ist




a 





b  : a, b ∈ K





0




0 





b  : b, c ∈ K





c
 





0




 


 

U∩W =
,
:
b
∈
K
b









 



0
man hat dim U = dim W = 2 und dim U ∩ W = 1. Schliesslich ist V = U + W und
dim V = 3 = 2 + 2 − 1 = dim U + dim W − dim(U ∩ W).
Proposition 4.3.16. Sei V ein endlich-dimensionaler Vektorraum und seien U1 , . . . , Um
Unterräume mit
V = U1 + · · · + Um
und dim V = dim U1 + · · · + dim Um . Dann gilt
V = U1 ⊕ U2 ⊕ · · · ⊕ Um .
Beweis. Wir müssen zeigen, dass die Summe direkt ist. Seien u1 ∈ U1 , . . . um ∈ Um mit
u1 + · · · + um = 0. Nach Proposition 3.2.7 ist zu zeigen, dass u1 = · · · = um = 0 ist. Hierzu
wähle Basen für jeden der Räume U1 , . . . , Um . Füge diese Basen zusammen zu einem
Erzeugendensystem von V. Nach Voraussetzung ist die Länge dieses
Erzeugendensystems gleich der Dimension von V, also ist es eine Basis von V, damit
insbesondere linear unabhängig. Wegen u1 + · · · + um = 0 sind sämtliche Koeffizienten
gleich Null, also u1 = · · · = um = 0.
Kapitel 5
Lineare Abbildungen und Matrizen
5.1
Erste Eigenschaften
Definition 5.1.1. Seien V, W Vektorräume über dem Körper K. Eine lineare
Abbildung ist eine Abbildung T : V → W mit
• T(v + v0 ) = T(v) + T(v0 )
• T(λv) = λT(v)
für alle v, v0 ∈ V und jedes λ ∈ K.
Beispiele 5.1.2.
• T : V → W die Nullabbildung T(v) = 0 ist linear.
• Die identische Abbildung Id : V → V; v 7→ v ist linear.
• Sein V = K3 und W = K2 . Dann ist die Abbildung
 
 a  
   a + b
T b  = 
 
c
c




linear.
• Ist K = R und V der Raum aller stetigen Abbildungen f : [0, 1] → R, dann ist
T : V → R,
Z
1
T( f ) =
f (x) dx
0
linear.
55
Lineare Algebra 1
56
• Sei V = K[x] und sei T : V → V gegeben durch T( f ) = f 0 mit
(a0 + a1 x + a2 x2 + · · · + an xn )0 = a1 + 2a2 x + · · · + nan xn−1
die formale Ableitung. Dann ist T linear.
Lemma 5.1.3. Eine lineare Abbildung schickt die Null auf die Null.
Beweis. Sei T : V → W linear. Dann gilt 0 = T(0) − T(0) = T(0 − 0) = T(0).
Proposition 5.1.4. Sei v1 , . . . , vn eine Basis von V. Für jede Familie w1 , . . . , wn in W existiert
genau eine lineare Abbildung T : V → W mit T(v1 ) = w1 , . . . , T(vn ) = wn .
Beweis. Sei eine Familie w1 , . . . , wn gegeben. Definiere T : V → W durch
T(λ1 v1 + · · · + λn vn ) = λ1 w1 + · · · + λn wn ,
für beliebige λ1 , . . . , λn ∈ K. Da die Koeffizienten λ j für einen gegebenen Vektor
v = λ1 v1 + · · · + λn vn eindeutig gegeben sind, ist T wohldefiniert, diese Vorschrift
definiert also eine Abbildung T : V → W. Wir zeigen, dass diese linear ist. Seien
v, v0 ∈ V. Schreibe diese in der Basis als
v = λ1 v1 + · · · + λn vn ,
v0 = λ01 v1 + · · · + λ0n vn .
Dann ist
T(v + v0 ) = T((λ1 + λ01 )v1 + · · · + (λn + λ0n )vn )
= (λ1 + λ01 )w1 + · · · + (λn + λ0n )wn
= λ1 w1 + · · · + λn wn + λ01 w1 + · · · + λ0n wn
= T(v) + T(v0 ).
Für λ ∈ K gilt außerdem
T(λv) = T(λλ1 v1 + · · · + λλn vn )
= λλ1 w1 + · · · + λλn wn
= λ(λ1 v1 + · · · + λn vn ) = λT(v).
Zum Schluss brauchen wir die Eindeutigkeit von T. Sei also T0 eine weitere lineare
Lineare Algebra 1
57
Abbildung mit T0 (v j ) = w j . Für ein beliebiges v = λ1 v1 + · · · + λn vn ∈ V gilt dann
T0 (v) = T0 (λ1 v1 + · · · + λn vn )
= λ1 T0 (v1 ) + · · · + λn T0 (vn )
= λ1 w1 + · · · + λn wn
= λ1 T(v1 ) + · · · + λn T(vn )
= T(λ1 v1 + · · · + λn vn ) = T(v)
Proposition 5.1.5 (Komposition und Umkehrabbildung). (a) Sind T : V → W und
S : W → U lineare Abbildungen, so ist die Komposition S ◦ T : V → U linear.
(b) Ist T : V → W linear und bijektiv, so ist die Umkehrabbildung T−1 : W → V ebenfalls
linear. In diesem Fall nennen wir T einen linearen Isomorphismus.
Beweis. (a) Seien v, v0 ∈ V. Dann gilt
S ◦ T(v + v0 ) = S(T(v + v0 )
= S(T(v) + T(v0 ))
= S(T(v)) + S(T(v0 ))
= S ◦ T(v) + S ◦ T(v0 ).
Ist außerdem λ ∈ K, so gilt
S ◦ T(λv) = S(T(λv)) = S(λT(v)) = λS(T(v)) = λS ◦ T(v).
(b) Seien w, w0 ∈ W dann gilt
T−1 (w + w0 ) = T−1 (T(T−1 (w)) + T(T−1 (w0 )))
= T−1 (T(T−1 (w) + T−1 (w0 )))
= T−1 (w) + T−1 (w0 ).
Ist ferner λ ∈ K, so gilt
T−1 (λw) = T−1 (λT(T−1 (w)))
= T−1 (T(λT−1 (w)))
= λT−1 (w).
Lineare Algebra 1
58
Definition 5.1.6. Sind S, T : V → W zwei lineare Abbildungen, so definieren wir ihre
Summe durch:
S + T : V → W,
v 7→ S(v) + T(v).
Diese Summe wird auch als die punktweise Summe bezeichnet. Für λ ∈ K definieren
wir
λT : V → W,
v 7→ λT(v).
Lemma 5.1.7. Die Summe S + T und das Produkt λT sind wieder lineare Abbildungen.
Beweis. Für v, v0 ∈ V ist
(S + T)(v + v0 ) = S(v + v0 ) + T(v + v0 )
= S(v) + S(v0 ) + T(v) + T(v0 )
= S(v) + T(v) + S(v0 ) + T(v0 )
= (S + T)(v) + (S + T)(v0 ).
Die Beweise der anderen Eigenschaften bestehen ebenso in einer einfachen Auflösung
der Definitionen.
Definition 5.1.8. Es folgt, dass die Menge
n
o
Lin(V, W) = T : V → W : linear
aller linearen Abbildungen von V nach W selbst wieder ein Vektorraum ist. Wir
werden später sehen, dass für endlich-dimensionale Räume gilt
dim Lin(V, W) = (dim V)(dim W).
Ein besonderer Fall ist der Fall W = K, der Raum
V ∗ = Lin(V, K)
wird der Dualraum von V genannt.
Lemma 5.1.9. Sei v1 , . . . , vn eine Basis von V. Fuer jedes 1 ≤ j ≤ n sei die lineare Abbildung
v∗j : V → K definiert durch
v∗j (λ1 v1 + · · · + λn vn ) = λ j .
Lineare Algebra 1
59
Dann ist v∗1 , . . . , v∗n eine Basis von V ∗ , genannt die zu (v1 , . . . , vn ) duale Basis. Es gilt also




1
∗
vi (v j ) = 


0
falls i = j,
sonst.
Insbesondere ist V ∗ endlich-dimensional, wenn V es ist und es gilt dann
dim V ∗ = dim V.
Beweis. Es gelte µ1 v∗1 + · · · + µn v∗n = 0. Fuer jedes 1 ≤ j ≤ n gilt dann
0 = (µ1 v∗1 + · · · + µn v∗n ) v j
= µ1 v∗1 (v j ) + · · · + µn v∗n (v j )
= µ j v∗j (v j ) = µ j .
Damit ist also µ1 = · · · = µn = 0, also sind die v∗j linear unabhaengig.
Bleibt zu zeigen, dass die v∗j den Raum V ∗ erzeugen. Sei α ∈ V ∗ . Setze λ j = α(v j ). Wir
behaupten, dass
α = λ1 v∗1 + · · · + λn v∗n
gilt. Nun ist aber
(λ1 v∗1 + · · · + λn v∗n ) v j = λ j = α(v j ),
also stimmen die beiden linearen Abbildungen α und λ1 v∗1 + · · · + λn v∗n auf einer Basis
ueberein, muessen also gleich sein.
5.2
Kern und Bild
Definition 5.2.1. Sei T : V → W linear. Der Kern von T ist definiert als die Menge
n
o
ker T = v ∈ V : T(v) = 0 .
Beispiele 5.2.2.
 
 a 
• Sei T : K → K gegeben durch T  = a + b, dann ist
b
2
 





 1 
 a 



ker T = 
 b  : a + b = 0
 = K −1 .
Lineare Algebra 1
60
• Sei T : Q[x] → Q[x] die formale Ableitung: T( f ) = f 0 . Dann ist ker T die Menge
aller konstanten Polynome.
Proposition 5.2.3. (a) Sei T : V → W linear. Dann ist der Kern von T ein Untervektorraum
von V.
(b) Eine lineare Abbildung T : V → W ist genau dann injektiv, wenn ker T = 0 ist.
Beweis. (a) Seien v, v0 ∈ ker T. Dann gilt
T(v + v0 ) = T(v) + T(v0 ) = 0 + 0 = 0,
also ist v + v0 ∈ ker T. Ist λ ∈ K, so gilt
T(λv) = λT(v) = λ0 = 0,
also ist auch λv ∈ ker T.
(b) Sei T injektiv und sei T(v) = 0 = T(0). Aus der Injektivität folgt dann v = 0, also ist
ker T = 0. Sei umgekehrt ker T = 0 und seien v, v0 ∈ V mit T(v) = T(v0 ). Dann ist
T(v − v0 ) = T(v) − T(v0 ) = 0, also v − v0 ∈ ker T = 0 und damit v − v0 = 0, also v = v0 , so
dass T injektiv ist.
Beispiele 5.2.4.
 
 a 
7
• Die lineare Abbildung T : K → K ;   →
b
2
2
 
 b 
  ist injektiv.
 
a
 
 a 
7 a + b ist nicht injektiv.
• Die lineare Abbildung T : K2 → K;   →
b
Definition 5.2.5. Sei T : V → W linear. Das Bild von T ist die Menge
n
o
Bild T = T(v) : v ∈ V .
 
   x 
 x   
Beispiele 5.2.6.
• Sei T : K2 → K3 gegeben durch T  =  y , dann ist das Bild
 
y
x
 
 x 
 
die Menge aller Vektoren  y  mit z = x.
 
z
Proposition 5.2.7. Sei T : V → W linear. Dann ist das Bild von T ein Untervektorraum von
W.
Lineare Algebra 1
61
Beweis. Das Bild enthält den Nullvektor, also ist es nicht leer. Seien w, w0 im Bild, also
etwa w = T(v) und w0 = T(v0 ), dann ist w + w0 = T(v) + T(v0 ) = T(v + v0 ) wieder im Bild.
Ist schliesslich λ ∈ K, so gilt λw = λT(v) = T(λv), also λw ∈ Bild T.
Satz 5.2.8 (Dimensionsformel für lineare Abbildungen). Sei T : V → W linear und
sei V endlich-dimensional. Dann gilt
dim V = dim ker T + dim Bild T .
Insbesondere ist das Bild endlich-dimensional.
Beweis. Sei v1 , . . . , vk eine Basis von ker T. Erweitere diese zu einer Basis v1 , . . . , vn von
V. Wir behaupten, dass T(vk+1 ), . . . , T(vn ) eine Basis von Bild T ist. Zunächst zeigen wir
lineare Unabhängigkeit. Dazu sei λk+1 T(vk+1 ) + · · · + λn T(vn ) = 0. Dann ist
λk+1 vk+1 + · · · + λn vn im Kern von T, also ausdrückbar in der Form λ1 v1 + · · · + λk vk . Es
folgt λ1 v1 + . . . λk vk + (−λk+1 )vk+1 + · · · + (−λn )vn = 0 und daher wegen der linearen
Unabhängigkeit λk+1 = · · · = λn = 0, also sind T(vk+1 ). . . . , T(vn ) linear unabhängig. Es
bleibt zu zeigen, dass sie das Bild erzeugen. Sei also w ∈ Bild T, also etwa w = T(v)
und v = µ1 v1 + . . . µn vn für geeignete µ j ∈ K. Dann ist
w = T(µ1 v1 + · · · + µn vn )
= µ1 T(v1 ) + · · · + µk T(vk ) +µk+1 T(vk+1 ) + · · · + µn T(vn )
|
{z
}
=0
= µk+1 T(vk+1 ) + · · · + µn T(vn ).
Also ist T(vk+1 ), . . . , T(vn ) auch ein Erzeugendensystem von Bild T.
Korollar 5.2.9. Seien V, W endlich-dimensionale K-Vektorräume.
(a) Gilt dim V > dim W, so gibt es keine injektive lineare Abbildung V → W.
(b) Gilt dim V < dim W, so gibt es keine surjektive lineare Abbildung V → W.
Beweis. (a) Sei T : V → W linear. Dann gilt
dim ker T = dim V − dim Bild T
≥ dim V − dim W > 0.
Lineare Algebra 1
62
(b) Mit derselben Notation gilt
dim Bild T = dim V − dim ker T ≤ dim V < dim W.
Satz 5.2.10. Ist V endlich-dimensional und T : V → V, so sind die folgenden äquivalent:
(a) T ist injektiv,
(b) T ist surjektiv,
(c) T ist bijektiv.
Beweis. Wir haben
dim V = dim ker T + dim Bild T .
daher ist
T injektiv ⇔ dim ker T = 0
⇔ dim V = dim Bild T
⇔ T surjektiv.
5.3
Matrizen
Seien V, W endlich-dimensionale Vektorräume mit Basen v1 , . . . .vn und w, , . . . , wm . Sei
T : V → W linear. Dann existieren eindeutig bestimmte Zahlen ai, j ∈ K mit
T(v j ) = a1,j w1 + · · · + am,j wm
für j = 1, . . . , n. Wir schreiben diese Körperelemente in ein rechteckiges Schema,
genannt Matrix


 a1,1 . . . a1,n 


 ..
.. 
 .
.  .



am,1 . . . am,n
Wir schreiben Mm×n (K) für die Menge aller Matrizen über K mit m Zeilen und n
Spalten. Ist m = n, so schreiben wir auch Mn (K) für Mn×n (K). Wir erhalten also zu jeder
Lineare Algebra 1
63
linearen Abbildung T : V → W eine Matrix M(T). Diese hängt allerdings von der
Wahl der Basen ab, also schreiben wir besser
MA,B (T),
wobei A = (v1 , . . . , vn ) die gegebene Basis von V ist und B = (w1 , . . . , wm ) die von W.
Definition 5.3.1. Auf der Menge der Matrizen Mm×n (K) definieren wir eine Addition

 a1,1 . . .

 ..
 .


am,1 . . .
a1,n
..
.
am,n
 
  b1,1 . . .
 
  ..
 +  .
 
bm,1 . . .
b1,n
..
.
bm,n
 
  a1,1 + b1,1 . . .
 
 
..
 = 
.
 
am,1 + bm,1 . . .
a1,n + b1,n
..
.
am,n + bm,n







und eine skalare Multiplikation

 a1,1 . . .

 .
λ  ..


am,1 . . .
a1,n
..
.
am,n
 
  λa1,1 . . .
 
  ..
 =  .
 
λam,1 . . .
λa1,n
..
.
λam,n







Mit diesen Operationen wird Mm×n (K) ein K-Vektorraum. Jede Durchnummerierung
der Einträge liefert einen linearen Isomorphismus Mm×n (K) −→ Kmn . Wir folgern also
dim Mm×n (K) = mn.
Proposition 5.3.2. Seien Basen (v1 , . . . , vn ) und (w1 , . . . , wm ) der Vektorräume V und W
gegeben. Dann ist die Abbildung M : Lin(V, W) → Mm×n (K), die jeder linearen Abbildung
ihre Matrix zuordnet, ein linearer Isomorphismus.
Beweis. Wir zeigen zunächst, dass M linear ist. Seien M(T) = (ai, j ) und M(S) = (bi,j ).
Wir wollen zeigen, dass M(S + T) = M(S) + M(T). Sei hierzu 1 ≤ j ≤ n. Dann gilt
(T + S)(v j ) = T(v j ) + S(v j )
= a1,j w1 + · · · + am,j wm
+ b1, j w1 + · · · + bm, j wm
= (a1, j + b1,j )w1 + · · · + (am,j + bm,j )wm .
Hieraus folgt M(S + T) = M(S) + M(T). Die Gleichung M(λT) = λM(T) zeigt man
Lineare Algebra 1
64
ebenso. Die Abbildung M ist injektiv, denn ist M(T) = 0, so folgt
T(v j ) = a1, j w1 + · · · + am,j wm = 0
und damit T = 0. Schliesslich ist M surjektiv, denn sei A = (ai,j ) irgendeine Matrix,
dann definiert nach Proposition die Vorschrift
T(v j ) = a1,j w1 + · · · + am, j wm
eine lineare Abbildung T. Für diese gilt M(T) = A.
Wir benutzen ab jetzt die Schreibweise
n
X
xi = x1 + x2 + · · · + xn .
i=1
Also etwa
T(v j ) = a1, j w1 + · · · + am, j wm =
n
X
ai, j wi .
i=1
5.4
Matrixmultiplikation
Seien U, V, W endlich-dimensionale Vektorräume. Fixiere Basen u1 , . . . , up von U,
v1 , . . . , vn von V und w1 , . . . , wm von W. Seien S : U → V und T : V → W. Wir wollen
die Matrix M(T ◦ S) durch M(S) und M(T) ausdrücken. Seien die Einträge von M(T)
Lineare Algebra 1
65
mit ai,j bezeichnet und die von M(S) mit bi,j . Dann gilt
T ◦ S(uk ) = T(S(uk ))


n

X


b j,k v j 
= T 


j=1
=
n
X
b j,k T(v j )
j=1
=
n
X
b j,k
m
X
j=1
=
ai, j wi
i=1
m X
n
X
ai, j b j,k wi
i=1 j=1
| {z }
=ci,k
Also
M(T ◦ S) = (ci,k ) ∈ Mm×p (K).
Definition 5.4.1. Wir definieren die Matrixmultiplikation
Mm×n (K) × Mn×p (K) → Mm×p (K)
durch die Vorschrift
((ai,j ), (bi,j )) 7→ (ci,j )
mit
ci,k =
n
X
ai, j b j,k .
j=1
Lemma 5.4.2. Mit dieser Definition der Matrixmultiplikation gilt
M(T ◦ S) = M(T)M(S).
Beweis. Haben wir bereits gerechnet.
Beispiel 5.4.3. Beispiel


 

a b x y  ax + bz ay + bw


 

c d z w = cx + dz cy + dw
Lineare Algebra 1
66
Betrachte den Spezialfall p = 1. Sei A ∈ Mm×n (K). Die Abbildung Kn → Km definiert
durch x 7→ Ax, also











 7→


xn 
x1
..
.

 a1,1 . . .

 ..
 .


am,1 . . .
a1,n
..
.
am,n







 
  a1,1 x1 + · · · + a1,n xn
 
 
..
 = 
.
 
 
xn
am,1 x1 + · · · + am,n xn
x1
..
.







ist eine lineare Abbildung. Der Kern dieser Abbildung ist die Lösungsmenge des
linearen Gleichungssystems
a1,1 x1 + · · · + a1,n xn = 0
..
.
am,1 x1 + · · · + am,n xn = 0.
Proposition 5.4.4. Die Matrixmultiplikation ist assoziativ und distributiv, d.h. es gilt
A(BC) = (AB)C
und
A(B + B0 ) = AB + AB0
(A + A0 )B = AB + A0 B
für alle Matrizen A, A0 , A, B0 , C mit den passenden Formaten, so dass die Produkte existieren.
Beweis. Mit Hilfe von Proposition 5.3.2 folgt dies sofort aus den entsprechenden
Eigenschaften linearer Abbildungen und der Tatsache, dass
M(T ◦ S) = M(T)M(S).
Proposition 5.4.5. Jede lineare Abbildung Kn → Kn ist von der Form x 7→ Ax für eine
eindeutig bestimmte Matrix A ∈ Mn (K) = Mn×n (K).
Beweis. Klar nach Proposition 5.3.2.
Definition 5.4.6. Wir nennen eine Matrix A ∈ Mn (K) invertierbar, falls die induzierte
lineare Abbildung Kn → Kn bijektiv ist. Die Umkehrabbildung ist dann ebenfalls
durch eine Matrix gegeben, die wir mit A−1 bezeichnen. Wir schreiben GLn (K) für die
Menge aller invertierbaren Matrizen in Mn (K).
Lineare Algebra 1
67
Proposition 5.4.7. Eine Matrix A ∈ Mn (K) ist genau dann invertierbar, wenn es eine Matrix
A−1 ∈ Mn (K) gibt mit
AA−1 = A−1 A = I,



 1




...
wobei I = 
 die Einheitsmatrix ist.


1
Beweis. A−1 ist gerade die Matrix der Umkehrabbildung.
Lemma 5.4.8. Seien A, B ∈ Mn (K) mit AB = I, dann gilt auch BA = I und daher B = A−1 .
Beweis. Wegen AB = I ist die Abbildung x 7→ Ax surjektiv und x 7→ Bx injektiv. Nach
Satz 5.2.10 sind beide Abbildungen bijektiv. Es bleibt zu zeigen, dass BA = I ist. Es gilt
BA = BA(BA)(BA)−1 = B (AB) A(BA)−1 = BA(BA)−1 = I.
|{z}
=I
Definition 5.4.9. Für eine Matrix A = (ai, j ) ∈ Mm×n (K) sei die transponierte Matrix At
definiert durch


 a1,1 . . . am,1 


 .
.. 
At =  ..
 ,
.


a1,n . . . am,n
also (ai, j )t = (a j,i ).
Beispiele 5.4.10.

t 

1 2 1 3
 = 
,
• 
3 4 2 4



t  1 4 

 1 2 3  
 =  2 5 .
• 



4 5 6


3 6
 t
 1 
  •  2  = 1 2 3 .
 
3
Proposition 5.4.11. Für A, A0 ∈ Mm×n (K) und B ∈ Mn,p (K) gilt
(a) (A + A0 )t = At + (A0 )t ,
(b) (AB)t = Bt At ,
(At )t = A,
Lineare Algebra 1
68
(c) Ist m = n so ist A genau dann invertierbar, wenn At dies ist und dann ist
(At )−1 = (A−1 )t .
Beweis. (a) ist klar. Zum Beweis von (b) benutzen wir die folgende Schreibweise: wir
schreiben Ai, j für den (i, j)-ten Eintrag von A. Die Matrixmultiplikation schreibt sich
dann als
X
(AB)i,j =
Ai,k Bk, j
k
und die Transposition als
Ati, j = A j,i .
Zusammengenommen folgt
(AB)ti, j = (AB) j,i =
X
k
A j,k Bk,i =
X
Bti,k Atk, j = (Bt At )i, j .
j
(c) Ist A invertierbar, so rechnen wir
At (A−1 )t = (A−1 A)t = It = I,
Im anderen Fall vertauschen wir die Rollen von A und At .
Beispiel 5.4.12. Es gilt



1 1 1 −1


 = I
 1 
1
und



1   1




1 1 −1 1 = I.
Beispiel 5.4.13. Wir wollen an einem Beispiel zeigen, wie man die Matrix zu einer
linearen Abbildung bestimmt. Hierzu sei V der Raum aller Polynome vom Grad ≤ 2
und T : V → V sei die formale Ableitung, also
T(a0 + a1 x + a2 x2 ) = a1 + 2a2 x.
Wir bestimmen die Matrix A = MA (T) bezüglich der Basis A = (1, x, x2 ). Der erste
Basisvektor 1 wird auf die Null geworfen, deshalb ist die erste Spalte von A gleich
Null. Der zweite Basisvektor wird auf den ersten geworfen, deshalb ist die zweite
Lineare Algebra 1
69
 
 1 
 
Spalte  0 . Der dritte Basisvektor wird auf das 2-fache des zweiten geworfen, also ist
 
0
 
 0 
 
die dritte spalte  2 . Damit ist die Matrix
 
0


 0 1 0 


A =  0 0 2  .


0 0 0
5.5
Blockmatrizen
Der folgende Satz liefert eine Rechentechnik, die für Induktionsbeweise sehr nützlich
ist.
Satz 5.5.1. Seien S und T zwei Matrizen so dass ST definiert ist. Teilen wir S und T in
kleinere Untermatrizen auf, schreiben also


A B 
 ,
S = 
C D


X Y 
 ,
T = 
Z W
wobei wir annehmen, dass die Blockaufteilung so ist, dass AX existiert. Dann gilt


 

A B  X Y   AX + BZ AY + BW 
 .
 
 = 
ST = 
C D  Z W  CX + DZ CY + DW 
Beweis. Die Bedingung, dass ST und AX definiert sind, impliziert, dass die
Lineare Algebra 1
70
Blockgroessen wie folgt verteilt sind:
k
q
m
(
n
(
p












A
C
B
D
r
z}|{ z}|{
z}|{ z}|{












(
und
k
(
m












X
Y
Z
W













 


A 0 X Y  AX AY
, was aus der Definition der
 = 
 
Wir rechnen nun zum Beispiel 
0 
0 0  Z W   0
Matrixmultiplikation folgt. Damit ergibt sich



A B  X Y 
 

ST = 
C D  Z W 
 
 


 
 
A 0 0 B  0 0 0 0  X Y 
 + 
 + 
 + 
 

= 
0 0 0 0  C 0 0 D  Z W 


 

 

A 0 X Y  0 B X Y   0 0 X
 
 + 
 
 + 
 
= 
0 0  Z W  0 0   Z W  C 0  Z
 
 

 
  0
AX AY BZ BW   0
0
 + 
 + 
 + 
= 




CX CY DZ
0
0
0
0


 AX + BZ AY + BW 
 .
= 
CX + DZ CY + DW 
5.6
 


Y  0 0  X Y 
+


W  0 D  Z W 

0 

DW 
Basiswechsel
Identifizieren wir Kn mit Mn×1 (K), dann liefert jede Matrix A ∈ Mn×n (K) eine lineare
Abbildung TA : Kn → Kn definiert durch TA : x 7→ Ax. Ist E = (e1 , . . . , en ) die
Standard-Basis, so gilt A = ME,E (TA ), wie man leicht nachrechnet. Wir identifizieren
ab jetzt jede Matrix A mit der linearen Abbildung TA auf Kn .
Sei V ein endlich-dimensionaler Vektorraum. Die Wahl einer Basis B = (v1 , . . . , vn )
Lineare Algebra 1
71
induziert einen Isomorphismus
ΦB : V −→ Kn




λ1 v1 + · · · + λn vn →
7 






.


λn 
λ1
..
.
Lemma 5.6.1. Ist T : V → W linear und C = (w1 , . . . , wm ) eine Basis von W, so macht die
Matrix
MB,C (T) ∈ Mm×n (K)
das Diagramm
/W
T
V
ΦC
ΦB
Kn
MB,C (T)
/ Km
kommutativ, d.h. ΦC T = MB,C (T)ΦB .
Proof. Sei A = MB,C (T), also
T(v j ) =
m
X
Ai, j wi .
i=1
Nun ist
 m

X

ΦC T(v j ) = ΦC 
Ai, j wi 
i=1
=
=
m
X
i=1
m
X
Ai, j ΦC (wi )
Ai, j ei
i=1
= Ae j
= AΦB (v j ).
Wir wollen nun untersuchen, was passiert, wenn man andere Basen wählt. Sei
Lineare Algebra 1
72
D = (v01 , . . . , v0n ) eine weitere Basis von V. Dann gilt
vk =
n
X
s j,k v0j
j=1
für eindeutig bestimmte Koeffizienten s j,k ∈ K. Dies liefert eine Matrix SB,D , die
Basiswechselmatrix.
Satz 5.6.2. Das Diagramm
ΦB
V
/
Kn
ΦD
SB,D
Kn
kommutiert.
Beweis. Sei 1 ≤ k ≤ n, so gilt ΦB (vk ) = ek , also
P
P
P
0
SB,D ΦB (vk ) = SB,D (ek ) = nj=1 s j,k e j = j s j,k ΦD (v0j ) = ΦD
j s j,k v j = ΦD (vk ).
Satz 5.6.3 (Basiswechselsatz). Sind B, D Basen von V und C, E Basen von W, so
kommutiert das Diagramm
MB,C (T)
Kn `
ΦB
V
SB,D
/
ΦC
T
/
W
SC,E
~
K
m
K
=
ΦD
ΦE
n
MD,E (T)
/
! Km
für jede lineare Abbildung T : V → W. Insbesondere ist also
MD,E (T) = SC,E MB,C (T)(SB,D )−1 .
Im Spezialfall W = V, C = B und E = D schreibe S = SB
, sowie MB (T) = MB
(T) und
D
B
MD (T) = MD
(T), dann gilt
D
MD (T) = SMB (T)S−1 .
Lineare Algebra 1
73
Beweis. Das obere und das untere Viereck kommutieren nach Definition von M(T).
Das rechte und linke Dreieck kommutiert nach Satz 5.6.2.
Kapitel 6
Gauß-Elimination
Ab jetzt rechnen wir nur noch mit quadratischen Matrizen. Dies reicht, denn man
kann jede Matrix durch Nullen zu einer quadratischen Matrix auffüllen.
6.1
Zeilentransformationen
Sei A ∈ Mn (K). Eine Zeilentransformation ist eine der folgenden Operationen
1. Für λ ∈ K addiere das λ-fache der j-ten Zeile zur i-ten. (j , i)
2. Multipliziere die j-te Zeile mit µ ∈ K× .
3. Vertausche zwei Zeilen.
•
Beispiele 6.1.1.
1 2
3 4
7→
1 2
5 8
, (das doppelte der ersten zur zweiten addiert),
•
1 2
3 4
7→
2 4
3 4
, (die erste mit 2 multipliziert),
•
1 2
3 4
7→
3 4
1 2
.
Die erste Operation ist gegeben durch A 7→ Ai,j (λ)A, wobei

 1


...


Ai,j (λ) = 
.

λ ..


74
1





 ,



Lineare Algebra 1
75
wobei λ in der i-ten Zeile und j-ten Spalte steht.
Operation 2. ist gegeben durch A 7→ Mi (µ), wobei

 1


..

.


1

Mi (µ) = 

µ


1


..

.








 ,






wobei das µ in der i-ten Zeile und Spalte steht.
Die dritte Operation st gegeben durch A 7→ Si, j A, wobei

 1


0
1



Si, j = 
1


1
0


1






 ,





Wobei die nichtdiagonalen Einsen in der i-ten Zeile und j-ten Spalte und umgekehrt
stehen.
Die Matrizen Ai,j (λ), Mi (µ), Si, j werden Elementarmatrizen genannt.
Lemma 6.1.2. Die Elementarmatrizen sind alle invertierbar. Wenn also eine Matrix B aus
einer Matrix A durch wiederholte Zeilentransformationen hervorgeht, existiert eine
invertierbare Matrix T mit B = TA.
Beweis. Man rechnet nach:
Ai,j (λ)Ai,j (−λ) = I,
Mi (µ)Mi (µ−1 ) = I,
Si, j Si,j = I.
Definition 6.1.3. Eine Matrix A ∈ Mn (K) heißt obere Dreiecksmatrix, wenn A
unterhalb der Diagonale nur Nullen hat, wenn also gilt Ai,j = 0 für i > j. D.H wenn A
Lineare Algebra 1
von der Form
76

 a1,1
∗


.
..
A = 


0
an,n







ist.
Satz 6.1.4. Jede Matrix kann durch wiederholte Zeilentransformationen auf obere
Dreiecksform gebracht werden, wobei man außerdem erreichen kann, dass auf der
Diagonalen nur Nullen und Einsen stehen. Man sagt, dass man A in Zeilenstufenform
bringen kann.
Beweis. Ist die erste Spalte von A gleich Null, so kann man induktiv mit der
Untermatrix A0 weitermachen, für die


0 ∗ 

A = 
0 A0 
gilt. Ist die erste Spalte ungleich Null, so kann man durch Zeilenvertauschung
erreichen, dass a1,1 , 0. Dann multipliziert man die erste Zeile mit a−1
und erreicht
1,1
a1,1 = 1. Subtrahiere dann das a j,1 -fache der ersten Zeile von der j-ten für j = 2, . . . , n
und erreiche


 1 ∗ . . . ∗ 


 0



 .
A =  .

 ..
A

1



0
Mache nun Induktiv mit A1 weiter.
Lineare Algebra 1
77
Beispiel 6.1.5.



 1
 1 2 3 



 4 1 2  {  0






3
3 4 1

 1

{  0

3

 1

{  0

0

 1

{  0

0

 1

{  0

0
6.2

2
3 

−7 −10 

4
1

2
3 

1 10/7 

4
1

2
3 

1 10/7 

−2 −8
2
3
1
10/7
0 (10/7) − 8

2
3 

1 10/7 

0
1






Lineare Gleichungssysteme
Verfahren zum Finden aller Lösungen eines Gleichungssystems Ax = b mit gegebenen
A ∈ Mn (K) und b ∈ Kn :
1. Bringe A in Zeilenstufenform A0 . und führe alle Transformationen gleichzeitig an
dem Vektor b aus. Notiere die ausgeführten Transformationen in der Weise, dass das
entsprechende Produkt von Elementarmatrizen S notiert wird.
A { A0 = SA,
b { b0 = Sb.
2. Löse das System A0 x = b0 . Das ist vergleichsweise einfach. Dann ist jede Lösung des
modifizierten Systems auch eine des ursprünglichen Systems, denn
A0 x = b0 ⇔ SAx = SB ⇔ Ax = b,
da S invertierbar ist.
Lineare Algebra 1
78
 


 
1 2
, sowie b =  1 . Dies machen
Beispiel 6.2.1. Löse Ax = b mit K = Q und A = 
 2 
3 4
wir wie folgt:





 1 2
 1 2 1 
1

 { 

 0 −2 −1 
 3 4 2 


 1 2 1 
 .
{ 
0 1 1/2 
Das modifizierte Gleichungssystem ist
x1 + 2x2 = 1
1
x2 =
2


 0 
.

Der einzige Lösungsvektor ist x = 

1/2
Definition 6.2.2. Ein affiner Unterraum eines Vektorraums V ist eine Teilmenge der
Gestalt
S = v0 + U
für einen linearen Unterraum U.
Beispiel 6.2.3. Jede Gerade in der Ebene R2 oder im Raum R3 ist ein affiner
Unterraum. Ein affiner Unterraum ist genau dann ein Untervektorraum, wenn er die
Null enthält.
Jede Matrix A ∈ Mn (K) liefert eine lineare Abbildung Kn → Kn . Wir identifizieren die
Matrix mit dieser Abbildung und schreiben
n
o
ker A = x ∈ Kn : Ax = 0
n
o
Bild A = Ax : x ∈ Kn .
Satz 6.2.4. Ein lineares Gleichungssystem Ax = b ist genau dann lösbar, wenn b ∈ Bild A.
Ist dies der Fall, so ist die Lösungsmenge L = {x ∈ Kn : Ax = b} ein affiner Unterraum
L = v0 + U,
Lineare Algebra 1
79
wobei U = ker A und v0 ein beliebiges Element aus L ist.
Beweis. Die erste Aussage ist offensichtlich. Sei b ∈ Bild A. Dann existiert ein v0 ∈ Kn
mit Av0 = b. Sei U = ker A. Wir zeigen L = v0 + U.
“⊂” Sei v ∈ L, also Av = b. Sei u = v − v0 , dann folgt Au = Av − Av0 = b − b = 0, also ist
u ∈ U und damit ist v = v0 + u ∈ v0 + U.
“⊃” Sei u ∈ U, dann gilt A(v0 + u) = Av0 + Au = b + 0 = b, also ist v0 + u ∈ L.




 1 2 3 
 1 




Beispiel 6.2.5. Sei K = Q und A =  2 4 6 , sowie b =  2 . Wir lösen das System




−1
3 2 1
mit Zeilentransformationen:

 1 2 3 1

 2 4 6 2


3 2 1 −1



 1


 {  0




0

 1

{  0

0
2
3
1
0
0
0
−4 −8 −4

2 3 1 

1 2 1 

0 0 0








 −1/2 


Basislösung v0 =  0 . Ferner ist


1/2


 1 


U = ker A = Q −2 ,


1
also




 −1/2 
 1 




L =  0  + Q −2 .




1/2
1
Lemma 6.2.6. Ist A eine obere Dreiecksmatrix mit Diagonaleinträgen d1 , . . . , dn . Die Matrix
A ist genau dann invertierbar, wenn alle Diagonbaleinträge ungleich Null sind. Die Inverse
Matrix A−1 ist ebenfalls eine obere Dreiecksmatrix. Ihre Diagonaleinträge sind d−1
, . . . , d−1
n .
1
Beweis. Induktion nach n. Für n = 1 ist die Behauptung klar.
Lineare Algebra 1
80
Induktionsschritt n → n + 1: Wir schreiben A in der Form
a bt
0 D
mit D ∈ Mn (K). Ist A
t
invertierbar so ist a , 0, da sonst e1 im Kern von A läge. Schreibe A−1 = Cα βE , so folgt
∗
∗
I = A−1 A = aC
Cbt +ED , also ist C = 0 und ED = In und damit ist nach Induktion E eine
obere Dreiecksmatrix. Insgesamt ist A−1 eine obere Dreiecksmatrix. Die
Diagonaleinträge von D sind nach Induktion ungleich Null, also sind alle
Diagonaleinträge von A ungleich Null. Man sieht auch, dass die Diagonaleinträge von
A−1 die Inversen der von A sind. Für die Umkehrung nimm an, dass die
Diagonaleinträge von A ungleich Null sind. Nach Induktion ist D invertierbar, nach
Multiplikation mit der Matrix 1 D−1 kann man also annehmen, dass A von der Form
t
a b
0 I ist. Dann kann man durch Zeilentransformationen den Vektor b zu Null machen,
was ja bedeutet, dass man A von links mit invertierbaren Matrizen multipliziert um
auf die invertierbare Matrix ( a I ) zu kommen. Damit ist A invertierbar.
Satz 6.2.7. Ist die Matrix A ∈ Mn (K) invertierbar, dann kann die erweiterte Matrix
(A, I) ∈ Mn,2n (K) durch Zeilentransformationen in die Form (I, B) gebracht werden. Dann
ist B = A−1 die Inverse zu A.
Beweis. Sei S ein Produkt der Elementarmatrizen, die A auf eine Zeilenstufenform D
bringen. Da D = SA und A, S invertierbar, ist auch D invertierbar. Da D auf
Zeilenstufenform ist, sind alle Diagonaleinträge gleich 1. Nun kann man durch
weitere Zeilentransformationen die Matrix zur Einheitsmatrix machen, hat also
SA = I, damit ist S = A−1 .
Folgerung. Jede invertierbare Matrix ist ein Produkt von Elementarmatrizen.


1 2
 über K = Q.
Beispiel 6.2.8. Bestimme die Inverse zu A = 
1 1

 1 2 1 0

 1 1 0 1




 { 




{ 


{ 

1 2
1 0 

0 −1 −1 1 

1 2 1 0 

0 1 1 −1 

1 0 −1 2 
.
0 1 1 −1 
Lineare Algebra 1
81
In der Tat, man stellt fest, dass

 


1 2 −1 2  1 

 


1 1  1 −1 =  1
ist und damit A−1
6.3


−1 2 
.
= 
1 −1
Rang
Definition 6.3.1. Ist A ∈ Mm×n (K) eine Matrix, so definieren wir den Spaltenrang von
A als
SRang(A) = dim Spann(a1 , . . . , an ),
wenn a1 , . . . , an die Spalten von A sind. Analog definiere den Zeilenrang und
ZRang(A) = dim Spann(z1 , . . . , zm ),
wobei die z j die Zeilen von A sind.
Es gilt dann
ZRang(A) = SRang(At ).
Beachte
SRang(A), ZRang(A) ≤ min(m, n).
Satz 6.3.2. Für jede Matrix in Mm×n (K) gilt
SRang(A) = ZRang(A).
Beweis. Sind die Spalten a1 , . . . , an der Matrix A linear abhängig, so gibt es ein j, so
dass a j eine Linearkombination der anderen Spalten ist. Sei A0 die Matrix, die durch
Streichen dieser Spalte entsteht. Dann ist SRang(A0 ) = SRang(A). Wir wollen zeigen,
dass das gleiche für den Zeilenrang gilt. Nimm hierzu an, dass
a j = λ1 a1 + . . .b
a j · · · + λn an
(*)
Lineare Algebra 1
82
gilt. Seien zi1 , . . . , zik linear unabhängige Zeilen mit k = ZRang(A) und seien z0i1 , . . . , z0ik
die entsprechenden Zeilen der Matrix A0 , Gilt µ1 z0i1 + · · · + µk z0ik = 0, so gilt diese
Gleichung für alle Einträge bis auf den j-ten der Zeilen zi1 , . . . , zik . Aber wegen (*) gilt
diese Gleichung dann auch für den j-ten Eintrag und daher folgt µ1 zi1 + · · · + µk zik = 0
und damit µ1 = · · · = µk = 0. Damit sind die z0i j linear unabhängig und
ZRang(A0 ) = ZRang(A). Durch wiederholte Reduktion der Matrix können wir also
n = SRang(A) annehmen. Ist m ≥ n, dann sind die Zeilen linear abhängig und wir
können ebenso Zeilen entfernen bis m = n gilt. Damit folgt
n = SRang(A) ≥ ZRang(A).
Ersetze nun A durch At um die umgekehrte Ungleichung zu erhalten.
Definition 6.3.3. Ist T : V → W linear, so definieren wir den Rang von T als
Rang(T) = dim Bild(T).
Fassen wir eine Matrix als lineare Abbildung auf, ist der Rang gleich dem
Spaltenrang, also auch gleich dem Zeilenrang.
Kapitel 7
Determinanten
7.1
Permutationen
Sei Per(n) die Menge aller Permutationen in n Elementen, d.h., die Gruppe aller
bijektiven Abbildungen
σ : {1, . . . , n} → {1, . . . , n}.
Eine Transposition ist eine Permutation τ, die zwei Zahlen vertauscht und den Rest
gleich lässt. Für 1 ≤ i < j ≤ n sei τi,j die Transposition, die i und j vertauscht. Es gilt
τ2i, j = Id.
Satz 7.1.1. Jede Permutation σ ∈ Per(n) lässt sich als Produkt von Transpositionen
schreiben:
σ = τ1 · · · τk
Die Transpositionen τ1 , . . . , τk sind nicht eindeutig bestimmt, aber die Parität von k ist
eindeutig bestimmt. Das bedeutet, dass für jede andere Darstellung
σ = δ1 · · · δm
mit Transpositionen δ j gilt
(−1)k = (−1)m .
Wir nennen diese Zahl das Signum von σ, also
sign(σ) = (−1)k .
83
Lineare Algebra 1
84
Das Signum ist eine Abbildung sign : Per(n) → {±1} mit
sign(αβ) = sign(α) sign(β).
Beweis. Sei σ ∈ Per(n) mit σ , Id. Sei k die kleinste Zahl mit σ(k) , k. Sei j = σ(k) und
betrachte die Permutation σ1 = τk, j σ. Dann folgt σ1 (i) = i für alle i ≤ k. Wir wiederholen
diesen Schritt bis wir am Ende
Id = τk · · · τ1 σ
mit Transpositionen τ j erhalten. Hieraus folgt σ = τ1 · · · τk wie behauptet. Sei nun
σ = δ1 · · · δm eine zweite Darstellung. Für eine beliebige Permutation γ sei
n
fehl(γ) = # (i, j) :
1≤i<j≤n
γ(i)>γ(j)
o
die Anzahl der Fehlstände von γ.
Wir beobachten nun: Ist τ eine Transposition, so gilt
fehl(στ) = fehl(σ) + eine ungerade Zahl.
Hierzu sei τ = τi, j . Sind k, k0 beide von i und j verschieden, so folgt
(k, k0 ) ist Fehlstand von σ
⇔
(k, k0 ) ist Fehlstand von στ.
⇔
(k, j) ist Fehlstand von στ.
Ist k < i < j, so gilt
(k, i) ist Fehlstand von σ
Ist i < k < j, so gilt
(i, k) ist Fehlstand von σ ⇔ (k, j) ist kein Fehlstand von στ,
(i, k) ist Fehlstand von στ ⇔ (k, j) ist kein Fehlstand von σ.
Damit ergeben diese k eine gerade Anzahl von Veränderungen. Bleibt der Fall (i, j).
Hier gilt
(i, j) ist Fehlstand von σ
⇔
(i, j) ist kein Fehlstand von στ.
Lineare Algebra 1
85
Daher ist die Anzahl der Veränderungen gleich ±1 plus einer geraden Zahl.
Ist also σ = τ1 · · · τk , so folgt
(−1)k = (−1)fehl(σ)
und damit ist das Signum wohldefiniert. Außerdem ist es multiplikativ, was man
sieht, indem man Darstellungen von α und β hintereinander schreibt.
Beispiel 7.1.2. Sei σ ∈ Per(3) definiert durch


 1 2 3 


 2 3 1  .
Dann ist sign(σ) = 1, denn σ = τ1 τ2 mit


 1 2 3 
 ,
τ1 = 
1 3 2 


 1 2 3 
 .
τ2 = 
3 2 1 
Definition 7.1.3. Sei A = (ai,j ) ∈ Mn (K). Definiere die Determinante von A durch
det(A) =
X
sign(σ) a1,σ(1) a2,σ(2) · · · an,σ(n) .
σ∈Per(n)
• n = 1, det(A) = a1,1 .


a b
 = ad − bc.
• n = 2, det 
c d
Beispiele 7.1.4.


 a b c 


• n = 3, det  d e f  = aej + b f g + cdh − ceg − bdj − a f h.


g h j
Proposition 7.1.5. Ist A eine obere Dreiecksmatrix,

 a1,1


..
A = 
.



∗ 


 ,


an,n
dann ist
det(A) = a1,1 · · · an,n .
Beweis. Sei σ ∈ Per(n) mit a1,σ(1) · · · an,σ(n) , 0, dann folgt σ(j) ≥ j für jedes j. Dann aber
Lineare Algebra 1
86
ist σ( j) = j für jedes j, also σ = Id.
Proposition 7.1.6. Für jede quadratische Matrix A ∈ Mn (K) gilt
det A = det At ,
also
X
det A =
sign(σ)aσ(1),1 · · · aσ(n),n .
σ∈Per(n)
Beweis. Es gilt Ati, j = Ai, j . Für σ ∈ Per(n) ordne das Produkt a1,σ(1) · · · an,σ(n) nach dem
zweiten Index und erhalte aσ0 (1),1 · · · aσ0 (n),n , wobei σ0 die zu σ inverse Permutation ist.
Ist σ = τ1 · · · τk als Produkt von Transpositionen, so ist σ0 = τk · · · τ1 , also folgt
sign(σ0 ) = sign(σ). Damit ist
det A =
X
sign(σ)a1,σ(1) · · · an,σ(n)
σ
=
=
X
σ
X
sign(σ)aσ0 (1),1 · · · aσ0 (n),n
sign(σ)aσ(1),1 · · · aσ(n),n
σ
= det At .
Lemma 7.1.7. Hat die Matrix A zwei gleiche Zeilen oder zwei gleiche Spalten, so ist
det A = 0.
Beweis. Wegen det(A) = det(At ) reicht es, anzunehmen, dass A zwei gleiche Zeilen
hat. Es gebe also i , j mit ai,k = a j,k für jedes k. Dann gilt
det A =
X
sign(σ)
σ
=
n
Y
aν,σ(ν)
ν=1
X
sign(σ)
σ:σ(i)<σ(j)
n
Y
aν,σ(ν) +
ν=1
X
sign(σ)
n
Y
σ:σ(i)>σ(j)
aν,σ(ν) .
ν=1
Sei τ = τi, j die Transposition, die i und j vertauscht. Dann folgt
det A =
X
σ:σ(i)<σ(j)
sign(σ)
n
Y
ν=1
aν,σ(ν) +
X
σ:σ(i)<σ(j)
sign(στ)
n
Y
ν=1
aν,στ(ν)
Lineare Algebra 1
87
Fuer jedes k gilt aτ(ν),k = aν,k . Daher sehen wir, indem wir das Produkt nach τ(ν) ordnen:
n
Y
aν,στ(ν) =
ν=1
n
Y
aτ(ν),σ(ν) =
ν=1
n
Y
aν,σ(ν) .
ν=1
Da sign(στ) = − sign(σ), ergibt sich det A = 0.


 1 2 3 


Beispiel 7.1.8. Es ist det  1 2 3  = 0.


4 5 6
Lemma 7.1.9. Die Determinanten-Abbildung det : Mn (K) → K ist linear in jeder Zeile oder
Spalte.
Genauer: sind a1 , . . . , an , a0j Spaltenvektoren, so gilt
det(a1 , . . . , a j + a0j , . . . , an ) = det(a1 , . . . , a j , . . . , an ) + det(a1 , . . . , a0j , . . . , an )
und für λ ∈ K gilt
det(a1 , . . . , λa j , . . . , an ) = λ det(a1 , . . . , a j , . . . , an )
und analog für Zeilen.
Beweis. Es gilt




det 


a1,1 . . .
..
.
a1, j + a01,j . . .
..
.
a1,n
..
.
an,1 . . .
an, j + a0n, j . . .
an,n


 X

 =
sign(σ)aσ(1),1 · · · (aσ(j),j + a0σ(j),j ) · · · aσ(n),n


σ
X
=
sign(σ)aσ(1),1 · · · aσ(j),j · · · aσ(n),n
+
σ
X
σ
sign(σ)aσ(1),1 · · · a0σ(j), j · · · aσ(n),n .
Die zweite Gleichung folgt ähnlich. Die Aussage über Zeilen folgt aus der für Spalten
und det A = det At .
Lineare Algebra 1
7.2
88
Determinante und Zeilentransformationen
Satz 7.2.1. Die Determinante hat folgende Eigenschaften.
(a) Falls die Matrix B aus A durch Addition des λ-fachen einer Zeile zu einer anderen
hervorgeht (Zeilentrafo 1), so gilt
det B = det A.
(b) Falls B aus A durch Multiplikation einer Zeile mit µ ∈ K hervorgeht (Zeilentrafo 2),
so gilt
det B = µ det A.
(c) Falls die Matrix B aus A durch Vertauschung zweier Zeilen hervorgeht (Zeilentrafo
3), so gilt
det B = − det A.
Beweis. (a) Seien z1 , . . . , zn Zeilenvektoren. Dann gilt


z1


..

.


det  z j + λzi

..


.


zn














 = det 










z1
..
.
zj
..
.
zn







 + λ







 z1 


 .. 
 . 




det  zi 


 .. 
 . 


 z 
n
| {z }
=0 (zwei gleiche Spalten)







= det 





z1
..
.
zj
..
.
zn







 .





Lineare Algebra 1
89
Teil (b) folgt ebenso. Für (c) rechne










det 








z1
..
.
zi
..
.
zj
..
.
zn
 
  z1
 
 
..
 
.
 
 
  zi + z j
 
 
..
 = 
.
 
 
  z j
 
..
 
 
.
 
  z
n
 
 
z1
 
 
..
 
.
 
 
 
zi + z j
 
 
..
 = 
.
 
 
  z j − (zi + z j )
 
..
 
 
.
 
 
z
n




















 = − 
















zn

 1


..

.


1

Mi (µ) = 
µ


1


..

.








 ,






 
  z1
 
 
..
 
.
 
 
  zi + z j
 
 
..
 = 
.
 
 
  −zi
 
..
 
 
.
 
  z
n
 
 
 
 
 
 
 
 
 
 
 = 
 
 
 
 
 
 
 
 
z1
..
.
zj
..
.
−zi
..
.
zn
z1
..
.
zj
..
.
zi
..
.










 .








Wir erinnern an die Elementarmatrizen:

 1


...

Ai,j (λ) = 
.

λ ..


1





 ,





 1


0
1


Si, j = 
1


1
0


1






 ,




Wobei wir jetzt auch µ = 0 zulassen wollen. Dann ist allerdings Mi (µ) nicht mehr
invertierbar.
Lemma 7.2.2. Jede Matrix A ∈ Mn (K) ist ein Produkt von Elementarmatrizen.
Beweis. Sei A ∈ Mn (K). Nach dem Gaußschen Eliminationsverfahren gibt es eine
Matrix S, die ein Produkt aus invertierbaren Elementarmatrizen ist, so dass die Matrix
U = SA in Zeilenstufenform ist, also

 u1
∗


.
..
U = 


0
un







Lineare Algebra 1
90
n o
mit u j ∈ 0, 1 . Falls un = 0 ist, dann ist

 u1
∗


.
..
U = Mn (0) 


0
1




 .


Durch Multiplizieren von links mit Matrizen der Form Ai, j (λ) können wir die rechte
Matrix in die Form


∗ 0 
 u1

.. 

..
.

. 



un 0 



0
1
bringen. Wir wiederholen dies für die Untermatrix und erhalten im Endeffekt U = S2 I,
wobei S2 ein Produkt von Elementarmatrizen ist.
Beispiel 7.2.3. Wir haben




 
 1 2
1 2 1  1




 
3 4 = 3 1  −3  1 .
7.3
Multiplikativität
Satz 7.3.1. Für Matrizen A, B ∈ Mn (K) gilt
det(AB) = det(A) det(B).
Ferner gilt
A ist invertierbar
⇔
det A , 0.
Beweis. Für die Elementarmatrizen gilt
det Ai,j (λ) = 1,
det Mi (µ) = µ,
det Si, j = −1.
Lineare Algebra 1
91
Daher folgt aus Satz 7.2.1, dass det(SA) = det S det A, falls S eine Elementarmatrix ist.
Seien A, B beliebig. Nach Lemma 7.2.2 können wir schreiben:
A = S1 · · · Sk ,
B = T1 · · · Tm ,
wobei S1 , . . . , Sk , T1 , . . . Tm Elementarmatrizen sind. Es folgt
det(AB) = det(S1 · · · Sk T1 · · · Tm )
= det(S1 ) · · · det(Sk ) det(T1 ) · · · det(Tm )
{z
}
|
{z
}|
=det(S1 ···Sk )
=det(T1 ···Tm )
= det(A) det(B).
Sei nun A invertierbar. Dann ist 1 = det(I) = det(AA−1 ) = det(A) det(A−1 ), also ist
det(A) , 0. Ist umgekehrt det A , 0, so schreibe A = S1 · · · Sk als Produkt von
Elementarmatrizen. Dann folgt 0 , det(A) = det(S1 ) · · · det(Sk ), also ist det(S j ) , 0 für
jedes S j . Daher ist keine der S j gleich einer Matrix Mi (0) und daher sind alle S j
invertierbar, also ist A invertierbar.
Proposition 7.3.2. Eine Matrix A ∈ Mn (K) ist genau dann invertierbar, wenn der Rang von
A gleich n ist.
Beweis. A ist genau dann invertierbar, also bijektiv, wenn A surjektiv ist, wenn also
Rang(A) = dim Bild(A) = n gilt.
7.4
Laplace-Entwicklung
Definition 7.4.1. Sei A ∈ Mn (K), n ≥ 2 und für 1 ≤ i, j ≤ n sei C(i, j) ∈ Mn−1 (K) die
Matrix, die aus A durch Wegstreichen der i-ten Zeile und j-ten Spalte entsteht.


 1 2 3 


Beispiel 7.4.2. Ist A =  4 5 6 , dann ist


7 8 9



 1 2 3  

 1 3

C(2, 2) =  4 5 6  = 


7 9
7 8 9
Lineare Algebra 1
92
Es ist leicht zu sehen, dass

 a1,1

 ..
 .

 a
 i−1,1
det(C(i, j)) := det 
 ai+1,1

 ..
 .


an,1
...
...
...
...

 a1,1

 ..
 .


 ai−1,1

i+j
= (−1) det  0

 ai+1,1

 .
 ..


an,1
a1,j−1
..
.
...
a1, j+1
..
.
ai−1,j−1 ai−1, j+1 . . .
ai+1,j−1 ai+1, j+1 . . .
..
..
.
.
an,j−1 an,j+1 . . .
...
a1, j−1
..
.
...
...
...
ai−1, j−1
0
ai+1, j−1
..
.
...
an, j−1
0
..
.
ai−1,n
ai+1,n
..
.
an,n
a1, j+1
..
.
0 ai−1, j+1
1
0
0 ai+1,j+1
..
..
.
.
0 an, j+1
gilt.
Satz 7.4.3. Für jedes j = 1, . . . , n gilt
n
X
det A =
(−1)i+j ai, j det(C(i, j))
i=1
und für jedes i = 1, . . . , n gilt
n
X
det A =
(−1)i+j ai,j det(C(i, j)).
j=1
a1,n
..
.















...
a1,n
..
.
...
...
...
ai−1,n
0
ai+1,n
..
.
...
an,n


















Lineare Algebra 1
93
Beweis.

 a1,1

 ..
 .


 ai−1,1

i+j
(−1) ai, j det(C(i, j)) = ai, j det  0

 ai+1,1

 .
 ..


an,1
X
a1,j−1
..
.
...
...
...
ai−1, j−1
0
ai+1, j−1
..
.
...
an,j−1
...

 a1,1

 ..
 .


 ai−1,1

= det  0

 ai+1,1

 ..
 .

 a
n,1
=
...
a1, j−1
..
.
...
...
...
0
..
.
a1, j+1
..
.
0 ai−1, j+1
1
0
0 ai+1, j+1
..
..
.
.
0 an, j+1
0
..
.
a1, j+1
..
.
ai−1,j−1 0 ai−1,j+1
0
ai, j
0
ai+1,j−1 0 ai+1,j+1
..
..
..
.
.
.
an, j−1 0 an, j+1
...
...
a1,n
..
.
...
...
...
ai−1,n
0
ai+1,n
..
.
...
an,n
...
a1,n
..
.
...
...
...
ai−1,n
0
ai+1,n
..
.
...
an,n




































sign(σ)a1,σ(1) · · · an,σ(n) .
σ∈Per(n)
σ(i)=j
Also ist
n
X
(−1) ai, j det(C(i, j)) =
i+j
n
X
X
sign(σ)a1,σ(1) · · · an,σ(n) = det A.
i=1 σ∈Per(n)
σ(i)=j
i=1
Die andere Aussage beweist man analog.
Beispiel 7.4.4.






det 




1
1
1
5
7
2
1
0
6
8
3
0
0
0
0
4
3
0
1
3
5
1
0
2
2






 = −54.





Lineare Algebra 1
94
Satz 7.4.5 (Axiomatische Charakterisierung der Determinante). Sei D : Mn (K) eine
Abbildung, die
• linear in jeder Zeile ist,
• D(A) = 0 erfüllt, falls A zwei gleiche Zeilen hat und
• D(I) = 1 erfüllt.
Dann gilt D(A) = det A für jedes A ∈ Mn (K).
Beweis. Wie im Beweis von Satz 7.2.1 zeigt man, dass D(SA) = det(S)D(A) falls S eine
Elementarmatrix ist. Da jede Matrix ein Produkt von Elementarmatrizen ist, folgt die
Behauptung.
Definition 7.4.6. Sei A ∈ Mn (K) und Sei C(i, j) die Matrix aus der
Laplace-Entwicklung. Sei schliesslich A# die Matrix mit den Einträgen
A#i,j = (−1)i+j det(C(j, i)).
Man nennt A# ∈ Mn (K) die Komplementärmatrix zu A.
Satz 7.4.7. Ist A ∈ Mn (K) und A# die Komplementärmatrix, so gilt
AA# = A# A = det(A)I.
Beweis. Sind a1 , . . . , an die Spalten von A, so gilt
A j,i = det(a1 , . . . , a j−1 , ei , a j+1 , . . . , an ).
Lineare Algebra 1
95
Daher ist
(A# A) j,k =
n
X
A#j,i Ai,k
i=1
=
n
X
det(a1 , . . . , a j−1 , ei , a j+1 , . . . , an )ai,k
i=1


n
X


ai,k ei , a j+1 , . . . , an 
= det a1 , . . . , a j−1 ,
i=1
= det a1 , . . . , a j−1 , ak , a j+1 , . . . , an
= δ j,k det A,
wobei
δ j,k




1
=


0
j = k,
j , k.
Das Symbol δ j,k wird auch Kronecker-Delta genannt. Der das Produkt AA# berechnet
man analog.
Kapitel 8
Eigenwerte
8.1
Ein Beispiel


2 0
 ∈ Mn (R). Die Abbildung x 7→ Ax von R2 nach R2
Betrachte die Matrix A = 
0 3

 
 1 
 0
streckt den Vektor e1 =   um den Faktor 2 und den Vektor e2 = 
1
0


 um den Faktor

3. Sie bildet also den Kreis mit Radius 1 auf eine Ellipse ab:
 

 1 
 1
Wir betrachten nun die Basis v1 =  , v2 = 
1
2
96


 und entsprechend die

Lineare Algebra 1
97


1 1
, so gilt Se1 = v1 und Se2 = v2 . Wir berechnen die Inverse
Basiswechselmatrix S = 
1 2




2
−1

. Aus Se j = v j folgt dann S−1 v j = e j . Sei dann B = SAS−1 , so gilt
zu S−1 = 
−1 1 
Bv1 = SAS−1 v1 = SAe1 = S(2e1 ) = 2v1


 1 1
 beschreibt also dieselbe Abbildung nur
und ebenso Bv2 = 3v2 . Die Matrix B = 
−2 4
in der Basis v1 , v2 .
8.2
Lineare Unabhängigkeit von Eigenvektoren
Definition 8.2.1. Sei T : V → V linear. Ein Vektor v ∈ V heißt Eigenvektor von T zum
Eigenwert λ ∈ K, falls
• v , 0 und
• T(v) = λv.


 
2 1
. Dann ist der Vektor v =  1  ein Eigenvektor
Beispiel 8.2.2. Sei K = Q und T = 
 
0
0 3
zum Eigenwert 2. Ferner ist
 
 1 
T  =
1
 
 3 
  =
 
3
 
 1 
3 ,
1
 
 1 
also ist   ein Eigenvektor zu Eigenwert 3.
1
Satz 8.2.3. Sei T : V → V linear und seien v1 , . . . , vk Eigenvektoren zu paarweise
verschiedenen Eigenwerten λ1 , . . . , λk . Dann sind die v1 , . . . , vk linear unabhängig.
Beweis. Induktion nach k. Für k = 1 ist nichts zu zeigen, da Eigenvektoren stets , 0
sind.
Lineare Algebra 1
98
k → k + 1: Seien
µ1 v1 + · · · + µk+1 vk+1 = 0
(I)
eine Linearkombination der Null. Wir wenden T hierauf an und erhalten
µ1 λ1 v1 + · · · + µk+1 λk+1 vk+1 = 0.
(II)
Wir multiplizieren (I) mit λk+1 und erhalten
µ1 λk+1 v1 + · · · + µk+1 λk+1 vk+1 = 0.
(III)
Nun ziehen wir (III) von (II) ab und erhalten
µ1 (λ1 − λk+1 )v1 + · · · + (λk − λk+1 )µk vk = 0.
(II)-(III)
Nach Induktionsvoraussetzung ist µ j (λ j − λk+1 ) = 0 für jedes j = 1, . . . , k. Da λ j , λk+1 ,
folgt µ1 = · · · = µk = 0. Damit folgt aus (I), dass µk+1 vk+1 = 0 und da auch vk+1 , 0, ist
auch µk+1 = 0.
8.3
Das charakteristische Polynom
Definition 8.3.1. Sei A ∈ Mn (K) mit Einträgen (ai, j ). Dann ist die Determinante
det(A) =
X
sign(σ)a1,σ(1) · · · an,σ(n)
σ
ein “Polynom” in den Einträgen ai,j . Daraus folgt: Ist F(x) eine Matrix

 F1,1 (x) . . .


..
F(x) = 
.


Fn,1 (x) . . .
F1,n (x)
..
.
Fn,n (x)




 ,


Lineare Algebra 1
99
wobei die Einträge Polynome Fi, j (x) ∈ K[x] sind, dann ist det(F(x)) ein Polynom in
K[x]. Wir wenden dies an auf

 x − a1,1 . . . −a1,n


..
..
...
F(x) = xI − A = 
.
.


−an,1 . . . x − an,n




 .


Das Polynom
χA (x) = det(xI − A)
nennt man das charakteristische Polynom von A.


1 2
, dann ist
Beispiel 8.3.2. Sei A = 
3 4


x − 1 −2 
 = (x − 1)(x − 4) − 6 = x2 − 5x − 2.
χA (x) = det 
−3 x − 4
Satz 8.3.3. Die Eigenwerte einer Matrix A ∈ Mn (K) sind genau die Nullstellen des
charakteristischen Polynoms χA (x).
Beweis. Sei λ ein Eigenwert von A. Dann existiert ein Vektor v , 0 in Kn mit Av = λv,
also (λI − A)v = 0. Daher ist ker(λI − A) , 0, also ist die Matrix (λI − A) nicht
invertierbar, also folgt
χA (λ) = det(λI − A) = 0
nach Satz 7.3.1. Ist umgekehrt λ eine Nullstelle von χA (x), dann ist die Matrix (λI − A)
nicht invertierbar, hat also einen nichttrivialen Kern, damit gibt es einen Vektor v ∈ Kn
mit v , 0 und Av = λv.


1 1
. Dann ist
Beispiel 8.3.4. Sei A = 
1 1


x − 1 −1 
 = (x − 1)2 − 1 = x2 − 2x = x(x − 2).
χA (x) = det 
−1 x − 1
Dieses Polynom hat genau die Nullstellen x = 0 und x = 2. Hierzu gehören die


 
 1 
 
 und  1 .
Eigenvektoren 

 
−1
1
Lineare Algebra 1
100
Korollar 8.3.5. Jede Matrix in Mn (C) hat einen Eigenwert.
Korollar 8.3.6. Ist K algebraisch abgeschlossen und ist f (x) ∈ Mn (K) ein nichtkonstantes
Polynom, dann zerfällt f in Linearfaktoren, d.h.,
f (x) = c(x − λ1 ) · · · (x − λn ),
wobei c, λ1 , . . . , λn ∈ K sind.
Beweis. Ist λ eine Nullstelle von f , dann ist f (x) = (x − λ)g(x) für ein Polynom g. Wir
wiederholen dies für g, bis wir bei einer Konstanten c ankommen.
Definition 8.3.7. Zwei Matrizen A, B ∈ Mn (K) heißen ähnlich, falls es eine
invertierbare Matrix S ∈ GLn (K) gibt mit
B = S−1 AS.
Satz 8.3.8. Sind die Matrizen A, B ∈ Mn (K) ähnlich, dann haben sie dasselbe
charakteristische Polynom.
Beweis. Sei B = S−1 AS, dann gilt
χB (x) = det(xI − B) = det(xS−1 S − S−1 AS)
= det(S−1 (xI − A)S)
= det(S−1 ) det(xI − A) det(S) = det(S−1 S) det(xI − A)
= χA (x).




2 
2 1
 und S = 

Beispiel 8.3.9. Sei A = 
1 1. Man berechnet die inverse Matrix als
1




1
−1

. Dann ist
S−1 = 
−1 2 



 

 

 1 −1 2  2 1  2 −1 2 1  3 1
 
 
 = 
 
 = 
 .
B = S AS = 
−1 2   1 1 1 −2 2  1 1 −2 0
−1
Lineare Algebra 1
101
Wir haben χA (x) = (x − 2)(x − 1) und


x − 3 −1
 = (x − 3)x + 2 = x2 − 3x + 2 = (x − 2)(x − 1).
χB (x) det 
2
x
Definition 8.3.10. Sei T : V → V linear, wobei V endlich-dimensional ist. Wähle dann
eine Basis α von V und betrachte die Matrix A = Mα (T). Definiere dann das
charakteristische Polynom von T als
χT (x) = χA (T) = det(xI − A).
Nach Satz 8.3.8 und dem Basiswechselsatz 5.6.3 hängt χT nicht von der Wahl der Basis
ab.
Definition 8.3.11. Eine Matrix A ∈ Mn (K) heißt trigonalisierbar, wenn sie zu einer
oberen Dreiecksmatrix ähnlich ist.
Satz 8.3.12. Eine quadratische Matrix A ist genau dann trigonalisierbar, wenn ihr
charakteristisches Polynom in ein Produkt von Linearfaktoren zerfällt. In diesem Fall ist A
ähnlich zu einer Matrix der Form

 λ1
∗


.
..
D = 


0
λn




 ,


wobei λ1 , . . . , λn die (nicht notwendig verschiedenen) Nullstellen von χA sind.
Ist K algebraisch abgeschlossen, dann ist jede Matrix trigonalisierbar.
Beweis. Sei A trigonalisierbar, also ähnlich zu einer Matrix

 λ1
∗


.
..
D = 


0
λn

 x − λ1
∗


.
..
Dann ist χA (x) = χD (x) = det 


0
x − λn




 ,






 = (x − λ1 ) · · · (x − λn ).


Lineare Algebra 1
102
Umgekehrt sei χA (x) = (x − λ1 ) · · · (x − λn ). Dann hat A einen Eigenvektor v1 zum
Eigenwert λ1 . Ergänze v1 zu einer Basis v1 , . . . , vn von Kn . Sei dann S die Matrix mit
den Spalten v1 , . . . , vn . Dann ist der Rang von S gleich n, also ist S invertierbar. Setze
A1 = S−1 AS. Dann folgt A1 e1 = S−1 ASe1 = S−1 Av1 = λ1 S−1 v1 = λ1 e1 . Also ist A1 von der


λ1 ∗ 
 für eine Matrix C mit χC (x) = (x − λ2 ) · · · (x − λn ). Eine Induktion nach n
Form 
0 C
liefert die Existenz einer invertierbaren (n − 1) × (n − 1) Matrix Ũ mit




∗ 
 λ2


1


.
−1
..
Ũ CŨ = 
 folgt dann
. Mit der Matrix U = 


Ũ


λn


 λ1
∗ 


..
.
U−1 A1 U = 
.



λn

 λ1


..
Definition 8.3.13. Eine Matrix, die zu einer Diagonalmatrix 
.


λn




 ähnlich ist,


heißt diagonalisierbar.
Proposition 8.3.14. Hat die Matrix A ∈ Mn (K) n paarweise verschiedene Eigenwerte, dann
ist A diagonalisierbar.
Beweis. Seien λ1 , . . . , λn die Eigenwerte und seien v1 , . . . , vn Eigenvektoren dazu. Dann
sind v1 , . . . , vn linear unabhängig nach Satz 8.2.3. Daher ist die Matrix S mit den
Spalten v1 , . . . , vn invertierbar und es gilt
S−1 ASek = S−1 Avk = λk S−1 vk = λk ek ,
mit anderen Worten:

 λ1


..
A = 
.


λn




 .






 −7 2


1

. Finde S mit S−1 AS = 
.
Beispiel 8.3.15. Sei A = 


−24 7
−1
Lineare Algebra 1
103
Satz 8.3.16. Für A, B ∈ Mn (K) gilt
χAB = χBA .
Beweis. Ist A invertierbar, so gilt χAB = χA−1 (AB)A = χBA .
Betrachte nun den Fall, dass A nicht invertierbar ist. Wir können annehmen, dass K
unendlich viele Elemente hat, da wir sonst zu einem Erweiterungskörper übergehen.
Dann ist die Matrix A − λI für unendlich viele λ ∈ K invertierbar, da das Polynom
λ 7→ det(A − λI) nur endlich viele Nullstellen hat. Für jedes solche λ gilt
χ(A−λI)B (x) = χB(A−λI) (x)
für alle x ∈ K. Fixiere ein x ∈ K. Dann hat die Polynomabbildung
λ 7→ χ(A−λI)B (x) − χB(A−λI) (x)
unendlich viele Nullstellen, ist also identisch Null. Man kann also λ = 0 einsetzen und
findet
χAB (x) − χBA (x) = 0
fuer jedes x ∈ K. Da K unendlich viele Elemente hat, ist das Polynom auf der linken
Seite Null, also χAB = χBA .
Definition 8.3.17. Sei A = (ai, j ). Dann gilt
χA (x) = (x − a1,1 ) . . . (x − an,n ) + Terme vom Grad ≤ n − 2
= xn − (a1,1 + · · · + an,n )xn−1 + Terme vom Grad ≤ n − 2.
Wir definieren daher
tr(A) = a1,1 + · · · + an,n
und nennen diesen Ausdruck die Spur der Matrix A.
Satz 8.3.18. Die Abbildung tr : Mn (K) ist linear und erfüllt
tr(AB) = tr(BA)
Lineare Algebra 1
104
fuer A, B ∈ Mn )K) und damit insbesondere auch tr(SAS−1 ) = tr(A), falls S ∈ GLn (L).
Beweis. Dies folgt aus der Tatsache, dass − tr(A) der (n − 1)-te Koeffizient von χA (x)
ist.
Definition 8.3.19. Sei λ ∈ K und A ∈ Mn (K). Wir definieren den Eigenraum zu λ durch
n
o
Eig(A, λ) = v ∈ Kn : Av = λv .
Es gilt dann
λ ist Eigenwert
⇔
Eig(A, λ) , 0.
Ist λ eine Eigenwert von A, so nennen ist die algebraische Vielfachheit m(A, λ) von λ
gleich der Vielfachheit der Nullstelle λ von χA .
Wir definieren die geometrische Vielfachheit von λ als die Dimension des
Eigenraums Eig(A, λ).


3 
. Dann ist χA (x) = (x − 3)2 , also ist die
Beispiele 8.3.20.
• Sei A = 
3
algebraische Vielfachheit des Eigenwertes 3 gleich 2. In diesem Fall ist dies auch
gleich der geometrischen Vielfachheit, denn
Eig(A, 3) = K2 .


3 1
. Dann ist χB (x) = (x − 3)2 , also ist auch hier die algebraische
• Sei B = 
3
Vielfachheit gleich 2, aber die geometrische ist gleich 1, denn
Eig(B, 3) = Ke1 .
Korollar 8.3.21. Zerfällt χA (x) in Linearfaktoren, also etwa
k
Y
χA (x) =
(x − λ j )m j ,
j=1
wobei λ1 , . . . , λk die verschiedenen Eigenwerte mit algebraischen Vielfachheiten mi sind, dann
Lineare Algebra 1
105
ist
tr(A) =
k
X
m jλ j.
j=1
Beweis. Nach Satz 8.3.12 ist A trigonalisierbar und nach Satz 8.3.18 koennen wir also
annehmen, dass A eine obere Dreiecksmatrix ist. Die Diagonaleintraege sind dann
λ1 , . . . , λk , wobei λ j gemaess der Vielfachheit m j wiederholt wird.
Proposition 8.3.22. Die geometrische Vielfachheit eines Eigenwertes ist stets kleiner oder
gleich der algebraischen, also
dim Eig(A, λ) ≤ m(A, λ).
Beweis. Sei v1 , . . . , vk eine Basis von Eig(A, λ). Erweitere diese zu einer Basis v1 , . . . , vn
von Kn . Sei S die Matrix mit den Spaltenvektoren v1 , . . . , vn . Für
1 ≤ j ≤ k = dim Eig(A, λ) gilt
S−1 ASe j = S−1 Av j = λ j S−1 v j = λ j e j .
Daher ist




λI
∗
 k

S−1 AS = 
0 C
und es folgt χA (x) = (x − λ)k χC (x).
Definition 8.3.23. Sei T : V → V linear, wobei dim V < ∞. Dann heißt T
diagonalisierbar, wenn es eine Basis gibt, bezüglich der T durch eine Diagonalmatrix
dargestellt wird. Es gilt also
T diagonalisierbar ⇔ Mα (T) ist diagonalisierbar,
wobei α irgendeine Basis ist.
Satz 8.3.24. Für eine lineare Abbildung T : V → V auf einem endlich-dimensionalen
Raum V sind äquivalent:
(a) T ist diagonalisierbar,
(b) χT (x) zerfällt in Linearfaktoren und dim Eig(T, λ) = m(T, λ) für jedes λ ∈ K,
L
(c) V =
Eig(T, λ).
λ∈K
Lineare Algebra 1
106
Beweis. (a)→(b) Ist T diagonalisierbar, so gibt es eine Basis α bzgl der T durch eine
Diagonalmatrix mit Diagonale λ1 , . . . , λ1 , λ2 , . . . , λk , wobei jeder Eigenwert λ j gemäß
Q
seiner algebraischen Vielfachheit m j wiederholt wird. Dann ist χT (x) = kj=1 (x − λ j )m j
und m j = dim Eig(T, λ j ).
(b)→(c) Die Summe Eig(T, λ1 ) ⊕ · · · ⊕ Eig(T, λk ) ist direkt nach Satz 8.2.3. Ferner ist
P
dim V = j dim Eig(T, λ j ) und daher folgt die Behauptung.
(c)→(a) ist klar.
Satz 8.3.25. (a) Ist T : V → V diagonalisierbar und ist U ⊂ V ein Unterraum mit
T(U) ⊂ U, dann ist T|U : U → U diagonalisierbar.
(b) Sind S, T : V → V linear, beide diagonalisierbar und gilt ST = TS, dann sind die
beiden lineare Abbildungen simultan diagonalisierbar, d.h. es gibt eine Basis v1 , . . . , vn
bestehend aus simultanen Eigenvektoren.
Beweis. (a) Seien λ, . . . , λk die verschiedenen Eigenwerte von T und V j = Eig(T, λ j ).
Dann gilt V = V1 ⊕ · · · ⊕ Vk . Sei nun u ∈ U, dann gilt u = u1 + · · · + uk mit eindeutig
bestimmten u j ∈ V j . Wir müssen zeigen, dass jedes u j wieder in U liegt.
Anwendung von T einerseits und Multiplikation mit λk andererseits liefert
Tu = λ1 u1 + · · · + λk uk ,
λk u = λk u1 + · · · + λk uk .
Wir nehmen die Differenz und sehen
(λ1 − λk )u1 + · · · + (λk−1 − λk )uk−1 ∈ U.
Wir wenden denselben Schluss nochmals an:
(λ1 − λk )(λ1 − λk−1 )u1 + · · · + (λk−2 − λk )(λk−2 − λk−1 )uk−2 ∈ U.
Wir wiederholen dies bis zu
(λ1 − λk ) · · · (λ1 − λ2 )u1 ∈ U.
Lineare Algebra 1
107
Da die Eigenwerte verschieden sind, folgt u1 ∈ U. Aus Symmetriegründen folgt u j ∈ U
für jedes j.
(b) Sei λ ein Eigenwert von S und v ein Eigenvektor. Dann gilt
S(Tv) = T(Sv) = T(λv) = λTv,
also liegt Tv wieder in Eig(S, λ). Anwendung von (a) auf den Unterraum U = Eig(S, λ)
zeigt, dass T auf diesem Raum diagonalisierbar ist, d.h. Eig(S, λ) hat eine Basis aus
simultanen Eigenvektoren. Da dies für jeden Eigenraum gilt, folgt die
Behauptung.
8.4
Der Satz von Cayley-Hamilton
Definition 8.4.1. Sei T : V → V linear. Für jedes k ∈ N definiere die k-te Potenz von T
durch
Tk = T ◦ T ◦ · · · ◦ T
|
{z
}
k-mal
Ferner sei T0 = IdV . Ist dann
f (x) = a0 + a1 x + · · · + an xn
ein Polynom, dann setze
f (T) = a0 IdV + a1 T + · · · + an Tn .
Dann ist f (T) eine lineare Abbildung auf V.


1 1
2
. Sei f (x) = 1 + x + x2 . Es ist
Beispiel 8.4.2. Sei V = K und T = 
1 2


 


 
 
 















1
1
1
1
2
3
1
1
1
2
3
4
4













 
 = 
. Also ist f (T) = 
 + 
 + 
 = 

T2 = 
 1 1 2 3 5 4 8.
1 2 1 2 3 5
Ist hingegen g(x) = 1 − 3x + x2 , so gilt
 




 
1 
1 1 2 3 0 0
 

 − 3 
 
g(T) = 
1 2 + 3 5 = 0 0 = 0.
1
Lineare Algebra 1
108
Satz 8.4.3 (Cayley-Hamilton). Ist A ∈ Mn (K) und ist f (x) = χA (x) = det(x − A) das
charakteristische Polynom, dann gilt
f (A) = 0.
Beweis. Für jedes Polynom g(x) gilt g(S−1 AS) = S−1 g(A)S. Der Körper K besitzt einen
algebraischen Abschluss K̄, über dem das charakteristische Polynom in
Linearfaktoren zerfällt, also die Matrix A trigonalisierbar ist. Wir können also


 λ1
∗ 




..
annehmen, dass A = 
 gilt. Dann ist f (x) = (x − λ1 ) · · · (x − λn ).
.




λn
Wir zeigen durch Induktion, dass
(A − λ1 ) · · · (A − λ j I)e j = 0.
Für j = 1 ist dies klar.
j → j + 1: Da A eine obere Dreiecksmatrix ist, liegt (A − λ j+1 )e j+1 in Spann(e1 , . . . , e j ).
Nach Induktionsvoraussetzung gilt
(A − λ1 ) · · · (A − λ j )e1 = 0
..
.
(A − λ1 ) · · · (A − λ j )e j = 0
Damit folgt
(A − λ1 ) · · · (A − λ j+1 )e j+1 = 0.
Definition 8.4.4. Ein Polynom f heißt normiert, falls der Leitkoeffizient gleich 1 ist,
wenn also f von der Form
a0 + a1 x + · · · + an−1 xn−1 + xn
ist.
Lineare Algebra 1
109
Satz 8.4.5. Für eine gegebene Matrix A ∈ Mn (K) existiert ein eindeutig bestimmtes
normiertes Polynom mA (x), das Minimalpolynom, so dass
mA (A) = 0
und der Grad von mA ist minimal unter allen Polynomen g mit g(A) = 0.
Ist g ein Polynom mit g(A) = 0, so existiert ein Polynom q, so dass
g(x) = q(x)mA (x).
Sind A und B ähnlich, so ist mA = mB .
Beweis. Nach dem Satz von Cayley-Hamilton gibt es ein Polynom f , 0 mit f (A) = 0.
Sei ν der minimale Grad eines Polynoms g mit g(A) = 0. Sei m(x) ein Polynom vom
Grad ν mit m(A) = 0. Indem wir durch den Leitkoeffizienten teilen, können wir m als
normiert annehmen. Damit ist die Existenz bewiesen. Wir brauchen die Eindeutigkeit.
Sei also n(x) ein weiteres normiertes Polynom vom Grad ν mit n(A) = 0. Dann ist der
Grad von g(x) = m(x) − n(x) echt kleiner als ν und es ist g(A) = m(A) − n(A) = 0. da der
Grad ν minimal war, ist g(x) = 0, also m = n. Damit ist der erste Teil des Satzes
bewiesen.
Für den zweiten sei g , 0 ein Polynom mit g(A) = 0. Dann ist der Grad von g größer
oder gleich ν. Nach Polynomdivision existieren Polynome q(x), r(x) mit grad(r) < ν
und
g(x) = q(x)m(x) + r(x).
Es folgt r(A) = g(A) − q(A)m(A) = 0 − 0 = 0. Da grad(r) < ν, folgt r = 0, also
g(x) = q(x)m(x).
Schliesslich die letzte Aussage des Satzes. Sei B = S−1 AS, dann gilt
mA (B) = mA (S−1 AS) = S−1 mA (A)S = 0. Damit existiert ein Polynom q mit
mA (x) = q(x)mB (x). Der Schluss funktioniert mit umgekehrten Rollen ebensogut, also
existiert auch ein Polynom p(x) mit mB (x) = p(x)mA (x). Daher mA (x) = p(x)q(x)mA (x),
woraus folgt, dass p und q konstant sind. Da mA und mB normiert sind, sind p = q = 1,
also mA = mB .
Lineare Algebra 1
110

 1

Beispiel 8.4.6. Sei A = 
2




. Dann ist χ (x) = (x − 1)(x − 2)2 . Das
A


2
Minimalpolynom mA muss ein Teiler von χA sein, also bleibt
(x − 1), (1 − 2), (x − 2)2 , (x − 1)(x − 2), (x − 1)(x − 2)2 . Nur die letzten beiden annullieren
A, also ist mA (x) = (x − 1)(x − 2).
Proposition 8.4.7. Das charakteristische Polynom von A zerfalle in Linearfaktoren (etwa
wenn K = K̄). Seien λ1 , . . . , λk die verschiedenen Eigenwerte von A. Sei
χA (x) =
k
Y
(x − λ j )n j
j=1
das charakteristische Polynom. Dann ist das Minimalpolynom mA von der Form
k
Y
mA (x) =
(x − λ j )m j ,
j=1
wobei gilt
1 ≤ mj ≤ nj
für j = 1, . . . , k. Insbesondere hat das Minimalpolynom dieselben Nullstellen wie das
charakteristische Polynom.
Beweis. Da mA das charakteristische Polynom teilt, muss es von der angegebenen
Form sein für Exponenten 0 ≤ m j ≤ n. Es bleibt zu zeigen, dass jeder Eigenwert eine
Nullstelle von mA ist. Sei λi ein Eigenwert und sei v ein Eigenvektor zu diesem
Eigenwert, also Av = λi v. Es gilt
0 = mA (A)v =
Y
(A − λ j )m j v
j
Y
=
(λi − λ j )m j v
j
− λ j )m j kann aber nur Null sein, wenn mi ≥ 1 ist.


2 1
, dann ist χA (x) = mA (x) = (x − 2)2 .
Beispiele 8.4.8.
• Ist A = 
0 2


2 0
, dann ist χB (B) = (x − 2)2 und mB (x) = x − 2.
• Ist B = 
0 2
Der Faktor
Q
j (λi
Lineare Algebra 1
111
Satz 8.4.9. Ist A ∈ Mn (K) diagonalisierbar, dann hat das Minimalpolynom nur einfache
Nullstellen. Das heißt, sind λ1 , . . . , λk die verschiedenen Eigenwerte, dann gilt
k
Y
(x − λ j ).
mA (x) =
j=1
Beweis. Indem wir A durch S−1 AS ersetzen für ein S ∈ GLn (K), können wir annehmen,
Q
dass A von Diagonalgestalt ist. Dann ist kj=1 (A − λ j Id) ein Produkt von
Diagonalmatrizen. Für jede Position ν = 1, . . . , n hat mindestens einer der Faktoren
(A − λ j ) eine Null in der ν-ten Position. Daher ist das Produkt gleich Null.
Kapitel 9
Der Jordan-Normalform Satz
9.1
Nilpotente Endomorphismen
Definition 9.1.1. Ein Endomorphismus T : V → v heißt nilpotent, falls es ein m ∈ N
gibt, so dass
Tm = 0
gilt. Ist T nilpotent, so gibt es zu jedem v ∈ V eine Zahl m(v) ∈ N0 so dass
Tm(v) v , 0 = Tm(v)+1 v.
Lemma 9.1.2. Sei T : V → V nilpotent und dim V < ∞. Dann existieren Vektoren
v1 , . . . , vk ∈ V so dass
(a) v1 , Tv1 , . . . , Tm(v1 ) v1 , v2 , . . . , vk , Tvk , . . . , Tm(vk ) vk ist eine Basis von V und
(b) Tm(v1 ) v1 , . . . , Tm(vk ) vk ist eine Basis von ker T.
Beweis. Ist T nilpotent, etwa Tm = 0 und V , 0, dann ist T nicht injektiv, denn sonst
wäre T invertierbar und damit wäre auch 0 = Tm invertierbar. Also folgt
dim Bild(T) < dim V. Induktiv können wir annehmen, dass die Behauptung auf allen
Räumen der Dimension < dim V gilt. Wir wenden das Lemma also mal auf den Raum
Bild T und T|Bild T an. Daher gibt es Vektoren u1 , . . . , u j so dass
(i) u1 , Tu1 , . . . , Tm(u1 ) u1 , . . . , u j , . . . , Tm(u j ) u j ist eine Basis von Bild T und
(ii) Tm(u1 ) u1 , . . . , Tm(u j ) u j ist eine Basis von ker T ∩ Bild T.
112
Lineare Algebra 1
113
Wähle v1 , . . . v j mit Tvν = uν . Es folgt m(vν ) = m(uν ) + 1. Sei W ein Unterraum von ker T
so dass
ker T = (ker T ∩ Bild T) ⊕ W
und wähle eine Basis v j+1 , . . . , vk von W. Es gilt dann m(v j+1 ) = · · · = m(vk ) = 0. Wir
behaupten, dass v1 , . . . , vk das Lemma erfüllt.
Lineare Unabhängigkeit. Sei
k m(v
X
Xr )
λr,s Ts vr = 0
r=1 s=0
eine Linearkombination der Null. Wendet man T auf diese Gleichung an, erhält man
0=
k m(v
X
Xr )
λr,s T
s+1
vr =
r=1 s=0
j m(u
Xr )
X
λr,s Ts ur
r=1 s=0
Daher folgt λr,s = 0 für 1 ≤ r ≤ j und 0 ≤ s ≤ m(vr ) − 1. Wir erhalten also
0 = λ1,m(v1 ) Tm(v1 ) v1 + · · · + λ j,m(v j ) Tm(v j ) v j
+ λ j+1,0 v j+1 + · · · + λk,0 vk .
Die Terme in der ersten Zeile sind alle in ker T ∩ Bild T, die in der zweiten Zeile in W.
Es folgt also
0 = λ1,m(v1 ) Tm(v1 ) v1 + · · · + λ j,m(v j ) Tm(v j ) v j
= λ1,m(v1 ) Tm(u1 ) u1 + · · · + λ j,m(v j ) Tm(u j ) u j
und
0 = λ j+1,0 v j+1 + · · · + λk,0 vk .
Damit ist die Lineare Unabhängigkeit klar.
Erzeugendensystem. Es ist j = dim ker T ∩ Bild T und k = dim ker T. Aus (i) folgt
j
j
X
X
dim Bild T =
(m(ur ) + 1) =
m(vr ).
r=1
r=1
Lineare Algebra 1
114
Die Familie in (a) hat die Länge
j
k
X
X
(m(vr ) + 1) = k +
m(vr )
r=1
r=1
= dim ker T + dim Bild T = dim V.
Damit ist (a) bewiesen. Schliesslich ist
(Tm(v1 ) v1 , . . . , Tm(vk ) vk ) = (Tm(u1 ) u1 , . . . , Tm(u j ) u j , v j+1 , . . . , vk ).
Wegen (ii) und ker T = ker T ∩ Bild T ⊕ W ist dies eine Basis von ker T.
Satz 9.1.3. Sei T : V → V nilpotent und dim V < ∞. Dann existiert eine Basis,
bezüglich der T dargestellt wird durch eine Matrix der Form

 Jd1


..
J = 
.


Jdk




 ,


wobei Jd die d × d-Matrix



 0 1




... ...




Jd = 

..

. 1 



0
bezeichnet. Man nennt die Matrizen Jd auch Jordan-Bloecke und die Gesamtmatrix J
eine Jordan-Matrix. Die Jordan-Bloecke sind in bis auf die Reihenfolge eindeutig
bestimmt.
Beweis. Seien v1 , . . . , vk wie in dem Lemma. und sei wn , wn−1 , . . . , w1 die Basis
v1 , Tv1 , . . . , Tm(v1 ) v1 , v2 , . . . , vk , Tvk , . . . , Tm(vk ) vk , also dieselbe Basis nur rueckwaerts
aufgeschrieben. Dann gilt Tw1 = 0, ferner ist Tw2 entweder Null oder gleich w1 und so
weiter. Man sieht also, dass T in dieser Basis durch eine Jordan-Matrix dargestellt
wird. Man beachte, dass auf Spann(v j , Tv j , . . . , Tm(v j ) v j die Abbildung T durch einen
Jordan-Block der Laenge m(v j ) + 1 dargestellt wird.
Lineare Algebra 1
115
Nun zur Eindeutigkeit. Es ist zu zeigen: ist T ebenfalls konjuguiert zu einer
Jordan-Matrix J0 mit Jordan-Bloecken Jd01 , . . . , Jd0s , dann ist s = k und die d0j bis auf
Reihenfolge gleich den d j . Indem man die Basis, bezueglich der T die Matrix J0 hat,
umgekehrt aufschreibt, erhaelt man eine Basis wie im Lemma, also von der Form
0
0
0
0
v01 , Tv01 , . . . , Tm(v1 ) v01 , v02 , . . . , vk Tv0s , . . . , Tm(vs ) v0s und ebenfalls so dass Tm(v1 ) v01 , . . . , Tm(vs ) v0s
eine Basis von ker(T) ist. Damit folgt s = k. Nun ist aber Tm(v1 ) v1 , . . . , Tm(vk ) vk erweitert
um Tm(v1 )−1 v1 , . . . , Tm(vk )−1 vk , wobei nur die v j auftreten mit m(v j ) ≥ 1, eine Basis von
ker(T2 ) und damit sieht man, dass die Anzahl der j mit m(v j ) = 0 mit der
entsprechenden Anzahl der v0j uebereinstimmt. Man betrachtet dann ker(T3 ) und so
weiter, so dass man sieht, dass man nach Verttauschen der Reihenfolge m(v0j ) = m(v j )
erreichen kann, was der behaupteten Eindeutigkeit entspricht.
9.2
Hauptraum-Zerlegung
Lemma 9.2.1 (Fitting-Zerlegung). Sei dim V = n und T : V → V linear. Dann gilt
ker Tn+k = ker Tn
und
Bild(Tn+k ) = Bild(Tn )
für jedes k ∈ N. Ferner gilt
V = ker(Tn ) ⊕ Bild(Tn ).
Beweis. Sei V j = ker T j , dann gilt V0 = 0 ⊂ V1 ⊂ . . . . Wir zeigen, dass es ein k ∈ N0 gibt,
so dass V0 , V1 , · · · , Vk = Vk+1 = . . . . Hierzu reicht es zu zeigen, dass aus Vk = Vk+1
schon Vk+1 = Vk+2 folgt. Die Inklusion “⊂” gilt immer. Sei also v ∈ ker(Tk+2 ), dann ist
Tv ∈ ker(Tk+1 ) = ker(Tk ), so dass v ∈ ker(Tk+1 ) ist.
Da nun die Dimension bei jedem Schritt V j , V j+1 nicht um weniger als 1 wachsen
kann, ist spätestens bei Vn Schluss. Die duale Aussage über die Bilder folgt aus der
Dimensionsformel.
Fuer die letzte Aussage reicht es ker(Tn ) ∩ Bild(Tn ) = 0 zu zeigen, da dann die
Behauptung aus der Dimensionsformel folgt. Sei v ∈ ker(Tn ) ∩ Bild(Tn ). Dann folgt
v = Tn u fuer ein u ∈ V und wegen Tn v = 0 folgt T2n u = 0, dann ist nach dem ersten Teil
schon Tn u = 0, also v = 0 so dass wir ker(Tn ) ∩ Bild(Tn ) = 0 schliessen koennen.
Definition 9.2.2. Fuer λ ∈ K sei
ker((T − λ)n )
Lineare Algebra 1
116
der Hauptraum zu λ.
Satz 9.2.3 (Hauptraum-Zerlegung). Sei dim V = n und T : V → V linear. Nimm an,
dass das charakteristische Polynom in Linearfaktoren zerfaellt, also
k
Y
(x − λ j )n j .
χT (x) =
j=1
Dann ist
V=
k
M
ker(A − λ j )n .
j=1
Insbesondere ist n j = dim ker(T − λ j )n , d.h. die algebraische Vielfachheit ist genau die
Dimension des Hauptraums.
Beweis. Wir benutzen Induktion nach der Dimension n. Fuer n = 1 ist nichts zu
zeigen. Nun sei n ∈ N und die Behauptung fuer Raeume kleinerer Dimension bereits
gezeigt. Nach der Fitting-Zerlegung ist
V = ker(T − λ1 )n ⊕ Bild(T − λ1 )n .
Da ker(T − λ1 )n , 0 hat der Raum W = Bild(T − λ1 )n eine Dimension < n. Ferner ist
T(W) ⊂ W, denn ist w ∈ W, dann ist w = (T − λ1 )n u fuer ein u, also ist
Tw = T(T − λ1 )n u = (T − λ1 )n (Tu) ∈ Bild(T − λ1 )n . Nach der Induktionsvorausseztung
zerfaellt W in die direkte Summe der Hauptraeume. Da T auf W keine anderen
Eigenwerte haben kann, folgt
V = ker(T − λ1 )n ⊕ · · · ⊕ ker(T − λs )n .
Die Zusatzaussage folgt schliesslich aus
χA =
Y
χA|V j ,
j
wobei V j = ker(T − λ j )n .
Lineare Algebra 1
9.3
117
Jordan-Matrizen
Definition 9.3.1. Ein Jordan-Block ist eine Matrix der Form



 λ 1




... ...


 ,

Jk (λ) = 

.

.
. 1 



λ
wobei λ ∈ K und Jk (λ) ∈ Mk (K) ist.
Eine Jordan-Matrix ist eine Matrix der Form

 Jk1 (λ1 )


...



Jks (λs )




 ,


d.h., es sind Jordan-Blöcke auf der Diagonale, sonst Nullen.


1 1
 ist ein Jordan-Block.
Beispiele 9.3.2.
• 
0 1


 1 1



 ist eine Jordan-Matrix.

• 
1



2


 1 1



 ist keine Jordan-Matrix.
• 
2



2
Satz 9.3.3 (Jordan-Normalform-Satz). Sei A ∈ Mn (K). Das charakteristische Polynom
χA zerfalle in Linearfaktoren. Dann ist A ähnlich zu einer Jordan-Matrix

 Jk1 (λ1 )


..

.


Jks (λs )




 .


Hierbei sind λ1 , . . . , λs die (nicht notwendig verschiedenen) Eigenwerte von A. Die
Jordan-Matrix ist eindeutig bestimmt bis auf die Reihenfolge der Blöcke. Man nennt diese
Lineare Algebra 1
118
Jordan-Matrix die Jordan-Normalform von A.
Beweis. Sei Kn = ker(A − λ1 )n ⊕ · · · ⊕ ker(A − λk )n die Hauptraumzerlegung. Da die
Haupträume invariant sind, reicht es zu zeigen, dass A auf jedem dieser Räume durch
eine Jordan-Matrix dargestellt wird. Wir können also annehmen, dass A nur einen
einzigen Eigenwert λ hat. Dann ist (A − λ) nilpotent, es gibt also eine Basis bezgl der
A − λ in Jordan-Form ist, dann ist in derselben Basis auch A in Jordan-Form. Die
Eindeutigkeit der Jordan-Bloecke folgt aus der Eindeutigkeit bei nilpotenten
Matrizen.




1 1
1 
Beispiele 9.3.4.
• Die Jordan-Normalform von 
 ist 
.
2
2




 1 1
2 1
 ist 

• Die Jordan-Normalform von 
 2.
−1 3
9.4
Berechnung der Normalform
Proposition 9.4.1. Sei A ∈ Mn (K) und seien λ1 , . . . , λk die verschiedenen Eigenwerte. Sei
k
Y
mA (x) =
(x − λ j )m j
j=1
das Minimalpolynom. Dann ist m j die Länge des längsten Jordan-Blocks mit dem Eigenwert
λ j.
Beweis. Wir nehmen an, dass A in Jordan-Normalform ist und die Blöcke nach
Eigenwerten geordnet sind. Wir können dann A durch die Untermatrix zu einem
festen Eigenwert ersetzen und also annehmen, dass A nur einen einzigen Eigenwert λ
hat. Dann besteht A − λ ebenfalls aus Jordan-Blöcken, aber zum Eigenwert Null. Man
stellt nun fest, dass Jk (0)k−1 , 0, aber Jk (0)k = 0 ist. Damit folgt die Behauptung.



 2 1


, dann ist m (x) = (x − 2)2 .
Beispiele 9.4.2.
• Ist A = 
2
A



2
Lineare Algebra 1
119



 2 1


• Ist A = 
2 1 , dann ist mA (x) = (x − 2)3 .


2
Proposition 9.4.3. Sei K algebraisch abgeschlossen. Für jede Matrix A in M2 (K) oder M3 (K)
ist die JNF durch das charakteristische Polynom und das Minimalpolynom eindeutig
festgelegt.
Beweis. Es reicht, den Fall A ∈ M3 (K) zu betrachten. In diesem Fall hat A maximal drei
verschiedene Eigenwerte und für das charakteristische Polynom gibt es folgende
Fälle:
1. Fall: Es gibt drei verschiedene Eigenwerte, χA (x) = (x − λ)(x − µ)(x − ν). Dann ist A
diagonalisierbar.
2. Fall: Es gibt zwei verschieden Eigenwerte: χ)A(x) = (x − λ)2 (x − µ). Ist dann
mA (x) = (x − λ)(x − µ), so ist A diagonalisierbar. Ist mA (x) = (x − λ)2 (x − µ), so hat A die


 λ 1




.
JNF = 
λ



µ
3. Fall: Es gibt nur einen Eigenwert, χA (x) = (x − λ)3 . Ist dann mA (x) = (x − λ), dann ist
A diagonalisierbar. Ist mA (x) = (x − λ)2 , dann gibt es zwei Jordan-Blöcke der Längen 2
und 1. Ist schliesslich mA (x) = (x − λ)3 so gibt es einen Jordan-Block der Länge 3.
Beispiel 9.4.4. Für n = 4 reicht diese Information nicht mehr aus, denn die Matrizen

 1 1


1



1 1


1



 1 1




1


 und 


1




1









haben dasselbe charakteristische und dasselbe Minimalpolynom.
Proposition 9.4.5. Sei K = K̄ und λ ∈ K ein Eigenwert der Matrix A ∈ Mn (K). Die
geometrische Vielfachheit
dim Eig(A, λ)
ist gleich der Anzahl der Jordan-Blöcke zum Eigenwert λ.
Beweis. Es reicht, anzunehmen, dass λ der einzige Eigenwert ist. Sei dann A in
Jordan-Form und seien Jk1 (λ), . . . , Jks (λ) die entsprechenden Jordan-Blöcke. Dann sind
Lineare Algebra 1
120
die Vektoren e1 , ek1 +1 , . . . , ek1 +···+ks−1 +1 eine Basis des Eigenraums, also folgt
dim Eig(A, λ) = s.





 2 1
 3 1 −1 1 






 0 2
2
0 0 



.
 ist 
Beispiel 9.4.6. Die JNF von 





 1 0
2
1
1
1






 0 −1 0 2 
2 
Proposition 9.4.7. Sei K = K̄ und A ∈ Mn (K). Dann ist
dim ker(A − λ) j+1 − dim ker(A − λ) j
gleich der Anzahl der Jordan-Blöcke mit Eigenwert λ und Länge ≥ j + 1.



 λ 1




.. ..
.
.


 gilt
Beweis. Für einen Jordan-Block A = 

...


1




λ
ker(A − λ) j = Spann(e1 , . . . , e j ).
Damit folgt die Behauptung.
Damit ergibt sich der
Algorithmus zur Bestimmung der Jordan-Normalform
1. Bestimme χA (x).
2. Bestimme die Nullstellen, also die Eigenwerte λ1 , . . . , λn . Algebraische
Vielfachheit = Länge der Jordan-Matrix zum jeweiligen Eigenwert.
3. Bestimme N j = dim ker(A − λ) j . Dann gibt es N1 Jordan-Blöcke. Davon haben
N2 − N1 die Länge ≥ 2 und N3 − N2 die Länge ≥ 3 usf.
Kapitel 10
Dualraum und Quotient
10.1
Der Dualraum
Definition 10.1.1. Sei V ein Vektorraum über dem Körper K. Eine Linearform auf V
ist eine lineare Abbildung α : V → K. Sind α, β Linearformen und sind λ, µ ∈ K, so ist
λα + µβ, definiert durch
(λα + µβ)(v) = λα(v) + µβ(v),
wieder eine Linearform. Man sieht, dass V ∗ ein linearer Unterraum des Vektorraums
Abb(V, K) ist.
Beispiele 10.1.2.
λ ∈ K.
• Ist V = K, so ist jede Linearform von der Form x 7→ λx für ein
• Ist V = Kn , so ist jede Koordinatenabbildung v 7→ v j eine Linearform.
• Ist S eine Menge in V = Abb(S, K) der Vektorraum aller Abbildungen von S nach
K, so ist für jedes s ∈ S die Punktauswertung δs : V → K; f 7→ f (s) eine
Linearform.
Definition 10.1.3. Sei v1 , . . . , vn eine Basis von V. Für j = 1, . . . , n sei v∗j die Linearform
v∗j (λ1 v1 + · · · + λn vn ) = λ j .
Warnung: Die Vektoren v∗1 , . . . , v∗n hängen von der Wahl der gesamten Basis
B = (v1 , . . . , vn ) ab, es sollte also besser v∗1,B , . . . , v∗n,B heißen.
121
Lineare Algebra 1
Beispiele 10.1.4.
122
• Sei V = Kn und e1 , . . . , en die Standard-Basis. Dann gilt



∗
e j 






 = x j .


xn 
x1
..
.
 

 1 
 1
• Sei die Charakteristik von K , 2 und sei v1 =  , sowie v2 = 
1
−1


. Dann ist

v1 , v2 eine Basis von K2 und es gilt


v∗1 

x  x + y
,
 =
2
y


v∗2 

x  x − y
.
 =
2
y
Lemma 10.1.5. Ist v1 , . . . , vn eine Basis von V, so ist v∗1 , . . . , v∗n eine Basis von V ∗ , genannt die
duale Basis. Insbesondere ist V endlich-dimensional, falls V dies ist.
Beweis. Sei α ∈ V ∗ . definiere λ j = α(v j ). Wir behaupten, dass α = λ1 v∗1 + · · · + λn v∗n . Es
reicht zu zeigen, dass diese beiden linearen auf den Basisvektoren übereinstimmen. Es
ist aber gerade
(λ1 v∗1 + · · · + λn v∗n )(v j ) = λ1 v∗1 (v j ) + · · · + λn v∗n (v j ) = λ j = α(v j ).
damit ist also α = λ1 v∗1 + · · · + λn v∗n und v∗n , . . . , v∗n ein Erzeugendensystem. Um die
lineare Unabhängigkeit zu zeigen nimm an wir habe eine Linearkombination der
Null: µ1 v∗1 + · · · + µn v∗n = 0. Für 1 ≤ j ≤ n gilt dann
0 = (µ1 v∗1 + · · · + µn v∗n )(v j ) = µ j ,
also µ1 = · · · = µn = 0.
Bemerkungen.
• Ist V endlich-dimensional und v1 , . . . , vn eine Basis, so liefert die lineare
Abbildung gegeben durch v j 7→ v∗j einen Isomorphismus der Vektorräume
V → V ∗ . Dieser hängt allerdings von der Wahl der Basis ab.
• Ist V unendlich-dimensional, so ist V ∗ nicht isomorph zu V (ohne Beweis).
Beispiele 10.1.6.
• Ist V = Kn , so ist der durch die Standard-Basis induzierte
Lineare Algebra 1
123
Isomorphismus V → V ∗ gegeben durch x 7→ xt , wobei xt für die transponierte
Matrix steht und damit für die lineare Abbildung y 7→ xt y.
 


 1 
 1 
 von K2 induziert einen Isomorphismus
• Die Basis v1 =   und v2 − 

1
−1
K2 → (K2 )∗ gegeben durch x 7→ ( 21 x)t .
Lemma 10.1.7. Sei T : V → W eine lineare Abbildung, so ist T∗ : W ∗ → V ∗ , gegeben durch
T∗ (α) = α ◦ T
eine lineare Abbildung. Sie heißt die zu T duale Abbildung. Es gilt
(λT + µS)∗ = λT∗ + µS∗ , sowie (T ◦ R)∗ = R∗ ◦ T∗ ,
wobei T, S : V → W, R : U → V linear sind und λ, µ ∈ K.
Beweis. Wir müssen zuerst zeigen, dass f ∗ (α) wieder linear ist. Hierzu rechnen wir
T∗ (α)(λv + µv0 ) = α(T(λv + µv0 )
= α(λT(v) + µT(v0 )
= λα(T(v)) + µα(T(v0 )) = λT∗ (α)(v) + µT∗ (α)(v0 ).
Daher ist T∗ (α) wieder linear und T∗ : W ∗ → V ∗ wohldefiniert. Als nächstes ist zu
zeigen, dass α 7→ T∗ (α) linear ist. Dies sieht man durch
T∗ (λα + µβ)(v) = (λα + µβ)(T(v)) = λα(T(v)) + µβ(T(v)) = λT∗ (α)(v) + µT∗ (β)(v).
Schließlich ist zu zeigen, dass für festes α die Abbildung T 7→ T∗ (α) linear ist, was man
ähnlich zeigt.
Am Ende schließlich zur Hintereinanderausführung:
(T ◦ R)∗ (α) = α ◦ (T ◦ R) = (α ◦ T) ◦ R = (T∗ (α)) ◦ R = R∗ (T∗ (α)) = R∗ ◦ T∗ (α).
Lemma 10.1.8. Die Duale Abbildung wird durch die transponierte Matrix dargestellt.
Genauer, sei T : V → W eine lineare Abbildung. Sei B eine Basis von V und C eine von W.
Dann gilt
t
∗
MCB∗ (T∗ ) = MB
(T)
.
C
Lineare Algebra 1
124
Beweis. Sei A = MB
(T), das heißt
C
T(v j ) =
m
X
ai,j wi .
i=1
Damit T∗ (w∗k )(v j ) = w∗k (T(v j )) = ak,j , also
T
∗
(w∗k )
=
n
X
ak,j v∗j ,
j−1
was gerade bedeutet, dass T∗ durch die Matrix At dargestellt wird.
Korollar 10.1.9. Sei T : V → W linear, wobei V und W endlich-dimensional sind. Dann gilt
(a) dim Bild T = dim Bild T∗ ,
(b) dim ker T − dim ker T∗ = dim V − dim W,
(c) T injektiv ⇔ T∗ surjektiv,
(d) T∗ injektiv ⇔ T surjektiv,
(e) T bijektiv ⇔ T∗ bijektiv.
Beweis. (a) Sei T durch die Matrix A dargestellt. Dann ist dim Bild T gerade der Rang
von A. Dieser ist gleich dem Rang von At , also gleich dim Bild(T∗ ).
(b) Nach den Dimensionsformeln und Teil (a) ist
dim ker T − dim ker T∗ = (dim V − dim Bild T) − (dim W ∗ − dim Bild T∗ )
= dim V − dim W.
(c) T ist genau dann injektiv, wenn dim ker T = 0 und dies ist nach (b) äquivalent zu
dim ker T∗ = dim W − dim V oder dim V = dim Bild T∗ nach Dimensionsformel. (d)
folgt ähnlich und (e) folgt aus (c) und (d).
Definition 10.1.10. Eine Sequenz von linearen Abbildungen
T
S
U −→ V −→ W
heißt exakt bei V, falls
ker S = Bild T
Lineare Algebra 1
125
gilt. Eine Sequenz
· · · → Vi−1 → Vi → Vi+1 → . . .
heißt exakt, falls sie an jeder Stelle exakt ist.
Beispiele 10.1.11.
• Ist V = U ⊕ V eine direkte Summe zweier Unterräume, dann
ist die entstehende Sequenz
0→U→V→W→0
exakt.
• Für jede lineare Abbildung T : V → W ist die Sequenz
T
0 → ker(T) → V −→ W
exakt.
• Ist
T
S
U −→ V −→ W
exakt, dann ist insbesondere S ◦ T = 0.
Lemma 10.1.12. Die Dualisierung verwandelt exakte Sequenzen in exakte Sequenzen, d.h. ist
T
S
S∗
T∗
U −→ V −→ W
exakt, dann ist
W ∗ −→ V ∗ −→ U∗
exakt.
Beweis. Es ist (T∗ ) ◦ (S∗ ) = (S ◦ T)∗ = 0 und damit folgt Bild(S∗ ) ⊂ ker(T∗ ). Sei also
α ∈ ker(T∗ )., d.h. α ◦ T = 0, also α(Bild(T)) = 0 und damit α(ker(S)) = 0. Wir definieren
β : Bild(S) → K durch β(S(v)) = α(v). Da α(ker(S)) = 0, ist β wohldefiniert. Dann ist β
linear und kann durch die Wahl eines Komplemantärraums nach W fortgesetzt
werden. Dann ist β ∈ W ∗ und α = S∗ (β), also α ∈ Bild(S∗ ).
Definition 10.1.13. Sei V ein Vektorraum. Sei V ∗∗ = (V ∗ )∗ der Bidualraum. Betrachte
die Abbildung δ : V → V ∗∗ , v 7→ δv mit
δv (α) = α(v).
Lineare Algebra 1
126
Satz 10.1.14. Ist V endlich-dimensional, dann ist δ ein Isomorphismus.
Beweis. Wir zeigen zunächst, dass δ linear ist. Für v, w ∈ V und λ, µ ∈ K, sowie α ∈ V ∗
gilt
δλv+µw (α) = α(λv + µw)
= λα(v)µ α(w)
= λδv (α) + µδw (α),
also δλv+µw = λδv + µδw . Damit ist δ linear. Sei v1 , . . . , vn eine Basis von V, sei v∗1 , . . . , v∗n
∗∗
die Duale Basis und sei v∗∗
, . . . , v∗∗
n die hierzu duale Basis von V . Wir zeigen
1
δv j = δ(v j ) = v∗∗j . Hierzu berechne
δv j (v∗k ) = v∗k (v j ) = δk,j = v∗∗j (v∗k
).
10.2
Quotienten
Sei U ⊂ V ein linearer Unterraum des Vektorraums V. Auf V erkläre eine
Äquivalenzrelation
v ∼ v0 ⇔ v − v0 ∈ U.
Nachweis der Äquivalenzeigenschaft. Es gilt v ∼ v, denn v − v = 0 ∈ U. ist v ∼ v0 dann
folgt v0 ∼ v, da mit v − v0 auch −(v − v0 ) = v0 − v in U liegt. Schließlich sei v ∼ v0 und
v0 ∼ v00 , also v − v0 , v0 − v00 ∈ U. Dann liegt auch die Summe v − v00 in U, es ist also
v ∼ v00 .
Die Aequivalenzklassen sind genau die affinen Unterraeume mit U als linearem
Anteil, also
[v] = v + U
fuer jedes v ∈ V.
Definition 10.2.1. Sei dann V/U die Menge aller Äquivalenzklassen, also
n
o
V/U = v + U : v ∈ V ⊂ P(V).
Lineare Algebra 1
127
Auf V/U definieren wir die Struktur eines Vektorraums wie folgt:
(v + U) + (w + U) = (v + w + U)
Addition
λ(v + U) = (λv + U)
Skalarmultiplikation
Nachweis der Wohldefiniertheit. Ist v + U = v0 + U und w + U = w0 + U, dann ist zu
zeigen, dass v + w + U = v0 + w0 + U folgt. Es gilt
(v + w) − (v0 + w0 ) = v − v0 + w − w0 ∈ U,
|{z} | {z }
∈U
∈U
daher folgt (v + w) ∼ (v0 + w0 ), also v + w + U = v0 + w0 + U und damit ist die Addition
wohldefiniert. Ebenso gilt λv − λv0 ∈ U und also λv + U = λv + U und damit ist die
skalare Multiplikation wohldefiniert.
Im Beispiel K = R, V = R2 , U = R(1, 1)t sind die Aequivalenzklassen genau die zu U
paprallelen Geraden.
Proposition 10.2.2. Ist W ein Komplementärraum zu U, also
V = U ⊕ W,
dann ist die Abbildung ψ : W → V/U; w 7→ [w] ein linearer Isomorphismus.
Beweis. ψ ist linear, denn
ψ(λw + w0 ) = (λw + w0 + U = λ(w + U) + (w0 + U) = λψ(w) + ψ(w0 ).
Lineare Algebra 1
128
Die Abbildung ψ ist injektiv, denn
ψ(w) = 0 ⇒ w ∈ U ⇒ w = 0,
da w ∈ W. ψ ist surjektiv, denn sei v ∈ V, dann kann man v = u + w schreiben mit
u ∈ U und w ∈ W. Es folgt v + U = w + U = ψ(w) und daher ist ψ surjektiv.
Korollar 10.2.3. Ist U ⊂ V ein linearer Unterraum, so liefern die natürlichen Abbildungen
eine exakte Sequenz
β
α
0 → U −→ V −→ V/U → 0.
Beweis. α ist die Inklusion des Unterraums, also injektiv. β ist die Projektion des
Quotienten, also surjektiv. Das Bild von α ist U und dies ist der Kern von β.
Proposition 10.2.4 (Universelle Eigenschaft). Sei U ⊂ V ein Unterraum und sei
P : V → V/U die Projektion. Zu jeder linearen Abbildung
T:V→W
mit T(U) = 0 gibt es genau eine linear Abbildung S : V/U → W so dass das Diagramm
V
/
T
P
!
WO
S
V/U
kommutiert. Diese universelle Eigenschaft induziert einen linearen Isomorphismus
n
o T ∈ Lin(V, W) : T(U) = 0 −→ Lin(V/U, W).
Beweis. Sei die Situation wie oben. Definiere S : V/U → W durch
S(v + U) = T(v).
Für die Wohldefiniertheit sei v + U = v0 + U. Dann folgt v − v0 ∈ U, also T(v − v0 ) = 0
oder T(v) = T(v0 ), was die Wohldefiniertheit zeigt. Für v ∈ V gilt nun
T(v) = S(v + U) = S(P(v)), also T = S ◦ P und damit kommutiert das Diagramm. Zur
Eindeutigkeit sei S0 : V/U → W eine weitere Abbildung, die das Diagramm
Lineare Algebra 1
129
kommutativ macht. Es gilt dann
S0 (v + U) = T(v) = S(v + U).
n
o
Sei dann ψ : T ∈ Lin(V, W) : T(U) = 0 → Lin(V/U, W) die entstehende Abbildung.
Eine Standardverifikation zeigt, dass ψ linear ist. Fuer die Injektivitaet sei T gegeben
mit S = ψ(T) = 0. Aus der Formel T = S ◦ P folgt dann auch T = 0 und damit ist ψ
injkektiv. Fuer die Surjektivitaet sei S gegeben, dann definiere T durch T = S ◦ P, so
folgt ψ(T) = S.
Definition 10.2.5. Sei T : V → W linear. Den Quotienten W/ Bild(T) nennt man den
Cokern von T und schreibt ihn als coker(T). Dann ist die Sequenz
T
0 → ker(T) → V −→ W → coker(T) → 0
exakt.
Satz 10.2.6 (Homomorphiesatz). Sei T : V → W linear, dann ist die Abbildung
T̃ : v + ker(T) 7→ T(v) ein Isomorphismus
V/ ker(T) −→ Bild(T).
Beweis. Da T(ker(T)) = 0, ist die lineare Abbildung T̃ wohldefiniert. Sie ist
offensichtlich injektiv und surjektiv.
Satz 10.2.7. Sei V ein K-Vektorraum und seien U, W Unterraeume.
(a) Die Abbildung φ : u + (U ∩ W) 7→ u + U + W ist ein Isomorphismus
U/(U ∩ W) → (U + W)/W.
(b) Gilt W ⊂ U, dann ist die Abbildung ψ : (v + W) + (U/W) 7→ v + U ein
Isomorphismus
.
V/W U/W → V/U.
Lineare Algebra 1
130
Beweis. Die Wohldefiniertheit ist bei beiden Abbildungen leicht einzusehen. Zur
Injektivitaet von φ sei u ∈ U mit φ u + (U ∩ W) = 0. Dann folgt u ∈ W, also u ∈ U ∩ W,
also u + (U ∩ W) = 0 + (U ∩ W), die Abbildung φ ist also injektiv. Fuer die Surjektivitaet
sei u + w + W ∈ (U + W)/W gegeben. Dann gilt u + w + W = u + W = φ(u + (U ∩ W)).
.
Fuer die Injektivitaet von ψ sei v + W + (U/W) ∈ V/W U/W mit ψ (v + W + (U/W)) = 0
gegeben. Das bedeutet, dass v ∈ U liegt, damit also v + W in U + W und daher ist
v + W + (U/W) das Nullelement. Die Surjektivitaet von ψ ist klar.
Korollar 10.2.8 (Alternative Formulierung des letzten Satzes). Sei V ein K-Vektorraum
und seien U, W Unterraeume. Wir schreiben die Elemente von V/U nun als
Aequivalenzklassen [v]U , v ∈ V.
(a) Die Abbildung φ : [u]U+W 7→ [u]W ist ein Isomorphismus
U/(U ∩ W) −→ (U + W)/W.
(b) Gilt W ⊂ U, dann ist die Abbildung ψ : [[v]W ]U+W 7→ [v]U ein Isomorphismus
.
V/W U/W −→ V/U.
Kapitel 11
Dimension
11.1
Das Lemma von Zorn
Definition 11.1.1. Eine partielle Ordnung auf einer Menge M ist eine Relation ≤ auf I
so dass für alle x, y, z ∈ M gilt
(a) x ≤ x
(Reflexivität)
⇒
x=y
(Antisymmetrie)
(c) x ≤ y, y ≤ z ⇒
x≤z
(Transitivität)
(b) x ≤ y, y ≤ x
Beispiele 11.1.2.
• Auf jeder Menge ist die Identität “=” eine partielle Ordnung.
• Auf der Menge N der natürlichen Zahlen ist die übliche “kleiner gleich”
Relation eine partielle Ordnung. Desgleichen für Z, Q, R.
• Ist X irgendeine Menge. Auf der Potenzmenge P(X) liefert die Mengeninklusion
eine partielle Ordnung.
Definition 11.1.3. Eine partiell geordnete Menge (M, ≤) heißt vollständig geordnet
oder linear geordnet, wenn je zwei Elemente vergleichbar sind. Also wenn für je zwei
Elemente x, y mit x , y entweder x ≤ y oder y ≤ y gilt.
Beispiele 11.1.4.
• Die Identität “=” auf M ist genau dann linear, wenn die Menge
höchstens ein Element hat.
• Die natürliche Ordnungen auf N, Z, Q, R sind alle linear.
131
Lineare Algebra 1
132
• Die Ordnung auf der Potenzmenge P(X) ist in der Regel nicht linear. (Nur dann,
wenn |X| ≤ 1)
Lemma 11.1.5 (Lemma von Zorn). Sei (M, ≤) eine partiell geordnete Menge. Existiert zu
jeder linear geordneten Teilmenge L ⊂ M eine obere Schranke s ∈ M, dann hat M maximale
Elemente.
Hierbei ist s ∈ M eine obere Schranke zu L ⊂ M, wenn x ≤ s für jedes x ∈ L gilt.
Ferner heißt ein Element m ∈ M maximales Element, wenn m ≤ x ⇒ m = x gilt.
Die Bedingung, dass jede linear geordnete Teilmenge eine obere Schranke besitzt,
wird auch Kettenbedingung genannt. Diese Sprechweise kommt daher, dass linear
geordnete Teilmengen auch Ketten genannt werden.
Man kann das Lemma von Zorn aus dem Auswahlaxiom der Mengenlehre folgern.
Dieses Axiom besagt, dass ein Produkt nichtleerer Mengen eine nichtleere Menge ist.
Genauer besagt es, dass zu einer gegebenen Indexmenge I , ∅ und gegebene Mengen
Q
Xi , ∅ das Produkt X = i∈I Xi eine nichtleere Menge ist. (D.h., man kann simultan in
allen Mengen Xi jeweils ein Element auswählen.) Man kann sogar zeigen, dass das
Lemma von Zorn, auf der Basis der anderen Axiome der Mengenlehre, zum
Auswahlaxiom äquivalent ist. Es ist daher legitim, das Lemma von Zorn selbst als ein
Axiom aufzufassen. Wir werden es nur benutzen.
11.2
Kardinalzahlen
Definition 11.2.1. Zwei Mengen M, N heißen gleichmächtig, oder haben die gleiche
Mächtigkeit, wenn es eine Bijektion M −→ N gibt. Wir schreiben dann
|M| = |N|.
Wir sagen ferner, die Mächtigkeit einer Menge A ist kleiner gleich der von B, wenn es
eine Injektion A ,→ B gibt und wir schreiben dies als
|A| ≤ |B|.
Beachte, dass fuer jede Menge A gilt
|∅| ≤ |A|.
Lineare Algebra 1
133
Satz 11.2.2. (a) Sind A und B nichtleere Mengen, so gibt es genau dann eine Injektion
B ,→ A wenn es eine Surjektion A B gibt.
(b) Sind M, N Mengen und gibt es surjektive Abbildungen φ : M → N und ψ : N → M,
dann gibt es eine Bijektion b : M −→ N. Dasselbe gilt für injektive Abbildungen. Mit
anderen Worten, ist |M| ≤ |N| und |N| ≤ |N|, dann folgt |M| = |N|.
(c) Sind A, B Mengen, dann gibt es immer eine Abbildung A → B die injektiv oder eine
B → A die injektiv ist, d.h. es gilt immer |A| ≤ |B| oder |B| ≤ |A|.
Beweis. (a) Sei φ : A → B surjektiv. Wir wählen zu jedem b ∈ B ein Urbild ψ(b) ∈ A, so
erhalten wir eine Injektion ψ : B → A. Sei umgekehrt eine Injektion ψ : B → A gegeben
und sei b0 ∈ B ein festes Element. Definiere φ : A → B durch




b
φ(a) = 


b0
a = ψ(b),
a < Bild(ψ).
Dann ist φ eine Surjektion.
(b) Nach Teil (a) können wir annehmen, dass es injektive Abbildungen φ : M ,→ N
und ψ : N ,→ M gibt. Setze M0 = M und N0 = N und N j+1 = φ(M j ) sowie M j+1 = ψ(N j ).
T
T
Sei schließlich M∞ = j M j und N∞ = j N j . Wir stellen fest
(i) M j+1 ⊂ M j und ebenso für N.
(ii) M ist die disjunkte Zerlegung aus M∞ und M j r M j+1 für j = 0, 1, . . . und ebenso
für N.
(iii) φ ist eine Bijektion M∞ → N∞ .
(iv) φ ist eine Bijektion M j r M j+1 → N j+1 r N j+2 und ebenso für ψ mit M und N
vertauscht.
Wir beweisen (i) durch eine (leichte) Induktion nach j. Damit ist auch (ii) klar. (iii)
Lineare Algebra 1
134
folgt sofort und ebenso (iv). Wir definieren nun eine Bijektion b : M → M durch



φ(x)
x ∈ M∞ ,





b(x) = 
φ(x)
x ∈ M2j r M2j+1 , j ≥ 0,





ψ−1 (x) x ∈ M2j+1 r M2j+2 , j ≥ 0.
M0
ψ
φ
N0
M1
N1
M2
N2
M3
N3
..
.
..
.
M∞
..
.
N∞
Man sieht leicht ein, dass b eine Bijektion ist.
(c) Sei S die Menge aller Paare (T, φ) wobei T ⊂ A und φ : T ,→ B eine Injektion ist.
Dann wird S partiell geordnet durch (T, φ) ≤ (S, ψ) falls T ⊂ S Und ψ eine Fortsetzung
von φ ist. Das Lemma von Zorn liefert ein maximales Element (T, φ). Ist T = A, dann
gibt es eine Injektion wie verlangt. Ist T , A, dann muss φ surjektiv sein, denn sonst
könnte man φ auf eine größere Menge ausdehnen. Indem man den Rest von A auf ein
festes Element wirft, erhält man dann eine Surjektion A → B.
Proposition 11.2.3. Für jede Menge X gilt
|X| < |P(X)|.
Beweis. Die Abbildung x 7→ {x} ist eine Injektion X ,→ P(X), daher gilt |P(X)| ≥ |X|.
Wir zeigen, dass es keine Surjektion X → P(X) geben kann. Sei also f : X → P(X) eine
gegeben Abbildung. Betrachte
M = {x ∈ X : x < f (x)}
Lineare Algebra 1
135
Dann liegt M nicht im Bild von f , denn Angenommen, M = f (x0 ) für ein x0 ∈ X. Ist
dann x0 ∈ M, dann folgt x0 < f (x0 ) = M, ein Widerspruch!. Ist andererseits x0 < M,
dann ist ja x0 < f (x0 ), erfüllt also die Bedingung, zu M zu gehören, es folgt x0 ∈ M,
ebenfalls Widerspruch!
11.3
Abzählbarkeit
Definition 11.3.1. Eine Menge A heißt abzählbar, wenn |A| ≤ |N|. In dem Fall ist A
entweder endlich, oder abzählbar unendlich. In letzterem Fall gibt es eine Bijektion
A → N. Jede solche Bijektion nennen wir Abzählung von A.
Beispiel 11.3.2. N ist abzählbar, ebenso Z, denn die Abbildung f : Z → N, gegeben
durch



2k
k > 0,





f (k) = 
1 − 2k k < 0,





1
k = 0,
ist eine Bijektion.
Lemma 11.3.3. (a) Eine endliche Menge ist abzählbar.
(b) Eine nichtleere Teilmenge einer abzählbaren Menge ist abzählbar.
(c) Eine Vereinigung von abzählbar vielen endlichen Mengen ist abzählbar.
(d) Eine Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar.
Beweis. (a) Ist X = {x1 , . . . , xn } eine nichtleere endliche Menge, so definiere φ : N → X
durch




x j falls j ≤ n,
φ( j) = 


x sonst.
1
Dann ist φ surjektiv.
Für (b) sei nun X abzählbar und ∅ , Y ⊂ X. Sei φ : N → X eine surjektive Abbildung.
Fixiere ein Element y0 ∈ Y. Wir definieren eine Abbildung ψ : N → Y durch




φ(n) falls φ(n) ∈ Y,
ψ(n) = 


 y0
sonst.
Lineare Algebra 1
136
(c) Für jedes n ∈ N sei eine endliche Menge En gegeben. Wir wollen zeigen, dass die
S
Vereinigung V = n∈N En abzählbar ist. Wir können annehmen, dass jedes En nichtleer
ist. Sei also En = {xn1 , xn2 , . . . , xnk(n) }. Sei K(n) = k(1) + k(2) + . . . k(n) und definiere K(0) = 0,
Für jedes j ∈ N gibt es dann genau ein n ≥ 0 mit
K(n) < j ≤ K(n + 1).
Setze φ( j) = xnj−K(n) , falls K(n) < j ≤ K(n + 1). Dann ist φ eine surjektive Abbildung
N → V.
(d) Seien nun A1 , A2 , . . . abzählbare Mengen, etwa
An = {an1 , . . . }.
S
µ
Sei A = n∈N An . Sei Bn = {aν ∈ A : ν + µ = n} Dann ist B1 = ∅, B2 = {a11 }, B3 {a12 , a21 } und
so weiter. Jedenfalls ist jedes Bn endlich und es ist
A=
[
Bn
n∈N
eine abzählbare Vereinigung endlicher Mengen. Damit ist A nach Teil (c)
abzählbar.
Satz 11.3.4. Die Menge der rationalen Zahlen Q ist abzählbar.
Beweis. Die Menge N der natürlichen Zahlen ist trivialerweise abzählbar. Die Menge
Z = N ∪ {0} ∪ {−n : n ∈ N} ist abzählbar nach dem Lemma. Die Menge
Z×Z=
[
{k} × Z
k∈Z
ist ebenfalls abzählbar nach dem Lemma. Die Abbildung Q → Z × Z, gegeben durch
p
7→ (p, q),
q
wobei p ∈ Z, q ∈ N und p und q teilerfremd, ist injektiv, also kann Q mit einer
Teilmenge von Z × Z identifiziert werden, ist also abzählbar.
Lineare Algebra 1
137
Satz 11.3.5. Die Menge R der reellen Zahlen ist nicht abzählbar.
Beweis. Wir zeigen, dass schon das Intervall (0, 1) nicht abzählbar ist. Angenommen, es
gibt eine surjektive Abbildung φ : N → (0, 1). Dann lässt sich jedes φ(n) als
Dezimalzahl schreiben
φ(1) = 0, a1,1 a1,2 a1,3 a1,4 . . .
φ(2) = 0, a2,1 a2,2 a2,3 a2,4 . . .
φ(3) = 0, a3,1 a3,2 a3,3 a3,4 . . .
..
.
n
o
mit Zahlen ai, j ∈ 0, 1, . . . , 9 . Wir benutzen hier ohne Beweis, dass die
Dezimalzahldarstellung eindeutig ist, wenn man Neunerschwänze vermeidet, d.h.
wenn man verlangt, dass es zu jedem i und zu jedem j ein k ≥ j gibt, so dass ai,k , 9 ist.
Wir definieren dann eine Zahl x ∈ (0, 1) durch
x = x1 x2 x3 . . .
wobei




4
xj = 


5
a j,j , 4,
a j,j = 4.
Da x ∈ (0, 1), muss x in der Abzählung vorkommen, also gibt es ein j mit φ( j) = x.
Dann ist aber x j = a j,j , Widerspruch!
Bemerkung. Wir haben also gezeigt, dass |N| < |R|. Die Kontinuumshypothese
besagt, dass es keine Kardinalzahl dazwischen gibt, das heißt, dass jede unendliche
Teilmenge von R entweder abzählbar oder gleichmächtig zu R ist. Diese Hypothese
ist allerdings weder wahr noch falsch, denn in der 1960-ger Jahren hat Paul Cohen
gezeigt, dass die Kontinuumshypothese von den anderen Axiomen der Mengenlehre
unabhängig ist. Das heißt, man kann sie annehmen oder auch nicht. Es gibt Modelle
der Mengenlehre, in denen sie gilt und andere, in denen sie nicht gilt.
Lemma 11.3.6. Für jede unendliche Menge I gilt |I| = |I × N|.
Lineare Algebra 1
138
Beweis. Die Projektion I × N → I ist surjektiv. Wir müssen nur zeigen, dass es eine
surjektive Abbildung I → I × N gibt. Wir benutzen das Lemma von Zorn. Sei S die
Menge aller surjektiven Abbildungen ψ : T → T × N, wobei T eine Teilmenge von I
ist. Wir ordnen S partiell durch (ψ, T) ≤ (ψ0 , T0 ) falls T ⊂ T0 und ψ0 eine Fortsetzung
von ψ ist. Wir müssen uns klarmachen, dass S nicht leer ist. Hierzu sei η : N → N × N
eine surjektive Abbildung, welche nach Lemma 11.3.3 existiert, da man N × N als
abzählbare Vereinigung von Kopien von N schreiben kann. Ist dann A = {a1 , a2 , . . . }
eine abzählbar unendliche Teilmenge von I, dann ist ψ : A → A × N; a j 7→ (aη(j)1 , η( j)2 )
surjektiv und damit ist S , ∅. Die Vereinigung ist eine obere Schranke zu jeder linear
geordneten Teilmenge, also liefert das Lemma von Zorn ein maximales Element
(ψ, T). Wir behaupten, dass T = I ist. Ist T , I und ist I r T endlich, dann existiert eine
Bijektion zwischen I und T und durch Vor- und Nachschalten dieser kann man ψ nach
I transportieren und hat das Lemma bewiesen. Ist I r T unendlich, enthält es eine
abzählbar unendliche Teilmenge B und man hat eine Surjektive Abbildung
B → B × N, die man mit ψ zusammenstecken kann um eine Erweiterung von ψ zu
erhalten, ein Widerspruch!
11.4
Basen beliebiger Vektorräume
Definition 11.4.1. Sei V ein K-Vektorraum und sei (vi )i∈I eine Familie von Vektoren.
Eine Linearkombination der vi ist eine Summe der Gestalt
X
λ i vi ,
i∈I
wobei fast alle Koeffizienten λi ∈ K gleich Null sind. Hierbei heißt fast alle dasselbe
wir alle, bis auf endlich viele.
Die Familie heißt linear unabhängig, falls jede Linearkombination der Null bereits
P
trivial ist, also wenn aus i∈I λi vi = 0 schon folgt, dass alle Koeffizienten λi gleich Null
sind.
Die Menge aller Linearkombinationen schreiben wir als
Spann((vi )i∈I ).
Dies ist ein Untervektorraum von V.
Lineare Algebra 1
139
Eine Familie von Vektoren (vi )i∈I heißt Erzeugendensystem von V, falls sich jeder
Vektor von V als Linearkombination der vi schreiben lässt, also wenn V = Spann((vi∈I )
gilt.
Eine Basis oder auch Hamel-Basis ist ein linear unabhängiges Erzeugendensystem.
Satz 11.4.2. (a) Ein minimales Erzeugendensystem ist eine Basis.
(b) Ein maximales linear unabhängiges System ist eine Basis.
(c) Jeder Vektorraum hat eine Basis.
Genauer enthält jedes Erzeugendensystem eine Basis und jedes linear unabhängige
System kann zu einer Basis erweitert werden.
Beweis. (a) Sei (vi )i∈I ein minimales Erzeugendensystem und sei
X
λ i vi = 0
i∈I
eine Linearkombination der Null. Angenommen, ein Koeffizienten λi0 ist ungleich Null.
Dann folgt
X −λ
i
vi ,
vi0 =
λ
i0
i,i
0
daher ist die Familie (vi )i,i0 immer noch ein Erzeugendensystem, was der Minimalität
Widerspricht! Wegen des Widerspruchs müssen alle Koeffizienten λi gleich Null sein.
(b) Sei (vi )i∈I eine linear unabhängige Familie und sei v ∈ V mit v < Spann((vi )i∈I ). Wie
in LA1 zeigt man, dass dann die um v erweiterte Familie ebenfalls linear unabhängig
ist. Eine maximale linear unabhängige Familie muss daher ein Erzeugendensystem
sein.
(c) Wir benutzen Zorns Lemma, indem wir zeigen, dass es eine maximale linear
unabhängige Familie gibt. Sei M die Menge aller linear unabhängigen Familien,
partiell geordnet durch
(vi )i∈I ≤ (w j ) j∈J
genau dann, wenn I ⊂ J und vi = wi für alle i ∈ I. Sei L ⊂ M eine linear geordnete
Teilmenge. Wir konstruieren eine obere Schranke s = (vν )ν∈N wie folgt: N ist die
Lineare Algebra 1
140
Vereinigung aller Mengen I, die als Indexmengen von Elementen (vi )i∈I ∈ L auftreten,
also
[
N :=
I.
I:∃(vi )i∈I ∈L
Für ν ∈ N gibt es ein (vi )i∈I ∈ L so dass ν = i für ein i ∈ I gilt. Definiere dann vν = vi . Da
L linear geordnet ist, ist dies wohldefiniert und wir erhalten ein Element (vν )ν∈N ,
welches eine obere Schranke zu L ist.
Nach dem Lemma von Zorn existiert also eine maximale linear unabhängige Familie,
d.h., eine Basis.
Ebenso sieht man, dass ein gegebenes Erzeugendensystem eine maximale linear
unabhängige Teilfamilie enthält. Diese muss dann eine Basis sein.
Auch zeigt das Lemma von Zorn, dass es zu einem gegebenen linear unabhängigen
System eine maximale linear unabhängige Erweiterung gibt. Die muss dann ebenfalls
eine Basis sein.
Korollar 11.4.3. Zu zwei Vektorräumen V, W gibt es immer eine lineare Abbildung
φ : V → W die injektiv oder surjektiv ist.
Beweis. Wähle Basen und wende Satz 11.2.2 (c) auf die Basen an.
Satz 11.4.4. Je zwei Basen eines Vektorraums V sind gleichmächtig. Zwei Vektorräume V
und W sind genau dann isomorph, wenn sie Basen gleicher Mächtigkeit haben. Die
Mächtigkeit einer Basis wird die Dimension des Vektorraums genannt.
Beweis. Der Satz ist in der LA1 bewiesen worden, falls V endlich-dimensional ist. Sei
also V unendlich-dimensional. Seien (vi )i∈I und (w j ) j∈J Basen. Für jedes i ∈ I gibt es
genau eine Darstellung
X
vi =
λi,j w j .
j∈J
Für i ∈ I sei E(i) ⊂ J die Menge aller j ∈ J mit λi,j , 0. Dann ist E(i) stets endlich und
S
J = i∈I E(i). Sei E(i) = {ji,1 , . . . } eine Aufzählung der Elemente, bei der Elemente
Lineare Algebra 1
141
mehrfach vorkommen (müssen!). Definiere die Abbildung
φ : I × N → J,
(i, k) 7→ ji,k .
Dann ist φ surjektiv. Da es nach Lemma 11.3.6 eine Surjektive Abbildung I → I × N
gibt, gibt es insgesamt eine surjektive Abbildung I → J. Aus Symmetriegründen gibt
es auch eine Surjektion J → I und damit eine Bijektion I → J.
Für die zweite Aussage des Satzes ist Sei φ : V → W ein Isomorphismus. Dann ist das
Bild einer Basis eine Basis und daher bleibt die Mächtigkeit derselben erhalten. Seien
umgekehrt (vi )i∈I und (w j ) j∈J Basen gleicher Mächtigkeit, dann können wir I und J
vermittels einer Bijektion identifizieren und I = J annehmen. Die Abbildung vi 7→ wi
setzt sich in eindeutiger Weise zu eine linearen Bijektion V → W fort.
Index
Z/m, 22
GLn (K), 66
Mn (K), 62
Mm×n (K), 62
Per(M), 8
τi, j , 83
a−1 , 21
Äquivalenzklasse, 11
Äquivalenzrelation, 10
ähnlich, 100
Abbildung, 5
abelsche Gruppe, 22
abzählbar, 137
abzählbar unendlich, 137
Abzählung, 137
affiner Unterraum, 78
algebraisch abgeschlossen, 36
algebraische Vielfachheit, 104
arithmetische Mittel, 18
aufspannen, 45
Auswahlaxiom, 134
Basis, 50, 141
Basiswechselmatrix, 72
Betrag einer komplexen Zahl, 29
Bidualraum, 127
bijektiv, 7
Bild, 60
Binomialkoeffizienten, 15, 16
Charakteristik, 25
charakteristische Polynom, 99, 101
Cokern, 131
Determinante, 85
Dezimalzahl, 26
diagonalisierbar, 102, 105
Dimension, 52, 142
direkte Summe, 41
disjunkt, 2
Distributivgesetz, 23
duale Abbildung, 125
duale Basis, 59, 124
Dualraum, 58
Durchschnitt, 2
Eigenraum, 104
Eigenvektor, 97
Eigenwert, 97
Einheitsmatrix, 67
Einselement, 23
Elementarmatrizen, 75
Elemente, 1
endlich-dimensional, 45
Erzeugendensystem, 45, 141
exakt, 127
exakt bei V, 126
Fakultät, 14
fast alle, 140
Fehlstände, 84
formale Ableitung, 56
Fundamentalsatz der Algebra, 36
142
Lineare Algebra 1
ganzen Zahlen, 4
geometrische Vielfachheit, 104
gleich, 1
gleichmächtig, 134
Grad, 32
Gruppe, 18
Hamel-Basis, 141
Hauptraum, 116
Identität, 5
Imaginärteil, 28
injektiv, 5
inverse Abbildung, 9
invertierbar, 9, 66
Jordan-Block, 118
Jordan-Bloecke, 114
Jordan-Matrix, 114, 118
Jordan-Normalform, 119
Körper, 23
kartesische Produkt, 10
Kern, 59
Kettenbedingung, 134
kommutativ, 22
Komplement, 5
Komplementärmatrix, 94
Komplementärraum, 51
komplex konjugierte, 28
Komposition, 8
Kontinuumshypothese, 139
Kronecker-Delta, 95
linear abhängig, 47
linear geordnet, 133
linear unabhängig, 46, 140
lineare Abbildung, 55
linearen Isomorphismus, 57
143
Linearform, 123
Linearkombination, 44, 140
Mächtigkeit, 134
Matrix, 62
Matrixmultiplikation, 65
maximales Element, 134
Menge, 1
Menge der komplexen Zahlen, 28
Minimalpolynom, 109
natürlichen Zahlen, 1, 4
nilpotent, 112
normiert, 108
Nullabbildung, 55
Nullelement, 23
Nullstelle, 34
obere Dreiecksmatrix, 75
obere Schranke, 134
partielle Ordnung, 133
Pascalsche Dreieck, 16
Permutation, 8
Permutationen, 83
polynomiale Abbildung, 34
Polynomring, 31
Potenzmenge, 1
Produkt, 10
Produktzeichen, 14
punktweise Summe, 58
Rang, 82
rationalen Zahlen, 4
Realteil, 28
reellen Zahlen, 26
regulär, 26
Relation, 10
Lineare Algebra 1
Schnittmenge, 40
Signum, 83
Spaltenrang, 81
Spann, 44
Spur, 103
Summe, 40
Summenzeichen, 13
surjektiv, 6
Teilmenge, 1
transponierte Matrix, 67
Transposition, 83
trigonalisierbar, 101
Umkehrabbildung, 9
Untergruppe, 21
Unterraum, 39
Untervektorraum, 39
Vektorraum, 37
Vereinigung, 2
Verknüpfung, 18
Vielfachheit, 34, 35
vollständig geordnet, 133
Zeilenrang, 81
Zeilenstufenform, 76
Zeilentransformation, 74
144
Herunterladen