Skript: Lineare Algebra, I

Werbung
Skript: Lineare Algebra, I
A. Kresch
Herbst 2016
Inhaltsverzeichnis
1 Grundlagen und algebraische Strukturen
2
1.1
Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.3
Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.4
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
1.5
Euklidische Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.6
Restklassenkörper und Körpererweiterungen . . . . . . . . . . . . . .
22
2 Lineare Abbildung und Matrizen
25
2.1
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
2.2
Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
2.3
Gauss’sches Eliminationsverfahren . . . . . . . . . . . . . . . . . . .
31
2.4
Lineare unabhängigkeit, Erzeugendensystem, Basis . . . . . . . . . .
37
2.5
Äquivalenz von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . .
48
2.6
Ähnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . . . .
52
2.7
Lineare Algebra über Ringen . . . . . . . . . . . . . . . . . . . . . .
54
3 Die Determinante
55
3.1
Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . .
55
3.2
Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . .
58
3.3
Determinante als normierte alternierende Abbildung . . . . . . . . .
60
3.4
Weitere Eigenschaften der Determinante . . . . . . . . . . . . . . . .
63
1
2
1. Grundlagen und algebraische Strukturen
3.5
Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Eigenwerte und Eigenvektoren
70
73
4.1
Definition und Diagonalisierbarkeitskriterium . . . . . . . . . . . . .
74
4.2
Charakteristisches Polynom und Trigonalisierbarkeit . . . . . . . . .
75
4.3
Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . .
79
4.4
Fundamentalsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
A Faktorzerlegungen eines Polynoms
85
B Deutsch-Englisches Vokabular
87
1
Grundlagen und algebraische Strukturen
Das Interesse liegt hauptsächlich an zwei Sachen:
• Lösungen von Gleichungen.
• Aufbau von Strukturen.
Gleichungen treten überall in der Mathematik sowie in der Praxis auf und man
will sie lösen können. Grund für das Interesse an Strukturen ist zum Beginn nicht
so klar; tatsächlich wird es unsere Aufgabe erleichtern, wenn wir scheinbaren Parallelen mathematische Substanz geben können – z.B., wie die Primzahlen 2, 3, 5
usw. als Bausteine aller ganzen Zahlen fungieren (Primzahlzerlegung), so kann man
nicht nur ähnliche Bausteine der reellen (oder komplexen, oder . . . ) Polynome identifizieren, sondern auch eine Struktur nennen, die auf die ganzen Zahlen und auf
(reelle/komplexe/. . . ) Polynome anwendbar ist.
1.1
Mengen
Man wird in der Schule früh mit reellen Zahlen vertraut aber lernt erst später die
rigorose Definition. Auch historisch sind grosse Fortschritte über mehrere Jahrzehnte
erwiesen, obwohl die reellen Zahlen erst im 19. Jahrhundert rigoros definiert wurden.
Als Grundlagen der Mathematik dient ZFC (Z =Zermelo, F =Fraenkel, C =Choice,
d.h., Auswahlaxiom), eine im 20. Jahrhundert eingeführte axiomatische Mengenlehre. Alles ist Menge in der ZFC-Mengenlehre: die Elemente einer Menge sind auch
Mengen! Aus Mengen baut man andere Mengen. Die Axiome gewährleisten, dass es
genug Mengen gibt, um Zahlen darzustellen.
1.1. Mengen
3
In logischen Aussagen finden sich die Quantifikatoren ∀ (für alle) und ∃ (existiert),
Symbole ∧ (und), ∨ (oder), ⇒ (impliziert), ⇔ (äquivalent), ¬ (nicht) der Aussagenlogik und Relationen = (gleich) und ∈ (Element von). Die Relation ⊂ (Teilmenge
von) ist durch A ⊂ B :⇔ (∀X : X ∈ A ⇒ X ∈ B) zu verstehen. Die ZFC-Axiome
sind:
1. Zwei Mengen sind genau dann gleich, wenn sie dieselben Elemente haben.
2. Es gibt ∅ (leere Menge, d.h., Menge ohne Elemente).
3. Für jedes Paar von Mengen A und B gibt es eine Menge {A, B}. (N.B. Falls
B = A ist das die Menge {A}.)
S
4. Für jede Menge A gibt es eine Menge X∈A X, zu der genau diejenigen Elemente gehören, die zu mindestens einem der Elemente von A gehören.
5. Es gibt eine Menge A mit den Eigenschaften: (i) ∅ ∈ A, (ii) für alle X ∈ A
gilt X ∪ {X} ∈ A.
6. Für jede Menge A gibt es die Potenzmenge P(A), wobei X ∈ P(A) genau
dann, wenn X ⊂ A.
7. Jede nichtleere Menge A enthält ein Element, das von A disjunkt ist.
8. Für jede Menge A und einstelliges Prädikat J gibt es die Menge {X ∈ A | J(X)}
aller Elemente X aus A, die das Prädikat erfüllen.
9. Für jede Menge A und zweistelliges Prädikat F mit der Eigenschaft ∀B, C, D:
(F (B, C) ∧ F (B, D) ⇒ C = D) gibt es die Menge {Y | ∃X : X ∈ A ∧ F (X, Y )}.
(Informell betrachtet man F als mindestens teilweise definierte Funktion und
{Y | ∃X : X ∈ A ∧ F (X, Y )} als die Menge aller Werte, die die Funktion an
Elementen von A annimmt.)
10. Für jede Menge A mit paarweise disjunkten nichtleeren Elementen gibt es eine
Menge, zu der für alle X ∈ A genau ein Element aus X gehört.
Das letzte Axiom heisst Auswahlaxiom, das C (Axiom of Choice) in ZFC; ohne das
Auswahlaxiom heisst es ZF-Mengenlehre. Es gibt die üblichen Mengenoperationen:
S
• A ∪ B (als X∈{A,B} X),
T
S
• X∈A X (als {T ∈ X∈A X | ∀Y : Y ∈ A ⇒ T ∈ Y }), deshalb auch A ∩ B,
• A × B: nach Kuratowski wird (X, Y ) als {{X}, {X, Y }} dargestellt, dann ist
A × B eine mittels Prädikat zu bestimmende Teilmenge von P(P(A ∪ B)).
4
1. Grundlagen und algebraische Strukturen
Wie erwähnt sollte es genug Mengen geben, um Zahlen darstellen zu können. Ist
A wie im 5. Axiom, so kann man die Teilmenge von A betrachten, die aus den
Elementen besteht, die auch zu A0 gehören für alle Mengen A0 wie im 5. Axiom.
Diese Teilmenge, die mit N bezeichnet wird, kann als Durchschnitt aller Mengen mit
den im 5. Axiom erwähnten Eigenschaften, ist also eindeutig bestimmt, denn es gilt:
T ∈ N ⇔ (∀A : (∅ ∈ A ∧ (∀X ∈ A : X ∪ {X} ∈ A)) ⇒ T ∈ A).
Wir schreiben S(X) für X ∪ {X} und nennen S(X) „Sukzessor von X“.
Proposition 1.1. (i) Es gilt ∅ ∈ N und S(X) ∈ N für alle X ∈ N.
(ii) Ist A eine Menge mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A, so gilt N ⊂ A.
(iii) Ist M eine Menge mit ∅ ∈ M , S(X) ∈ M für alle X ∈ M und M ⊂ A für
alle Mengen A, die ∅ sowie die Sukzessoren aller Elemente aus A enthalten, so gilt
M = N.
Beweis. Ein beliebiges T gehört genau dann zu N, wenn T ∈ A für jede Menge A
mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A. Also ist ∅ ∈ N und für jedes X ∈ N ist
S(X) ∈ N. Es folgt auch, dass N ⊂ A für jede Menge A mit ∅ ∈ A und S(X) ∈ A
für alle X ∈ A. Ist M wie in (iii), so gelten M ⊂ N nach (i) und N ⊂ M nach (ii),
also haben wir M = N.
Die Eigenschaft aus Proposition 1.1 (ii) wird oft als Prinzip der vollständigen Induktion so formuliert:
Ist A eine Teilmenge von N mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A, so gilt A = N.
Beispiel. Durch vollständige Induktion folgt:
• ∀X ∈ N : (X = ∅ ∨ ∃Y ∈ N : X = S(Y )), denn A := {X ∈ N : (X = ∅ ∨ ∃Y ∈
N : X = S(Y )) erfüllt ∅ ∈ A und Y ∈ A ⇒ Y ∈ N ⇒ S(Y ) ∈ A.
• ∀X ∈ N : X ⊂ N; mit A := {X ∈ N : X ⊂ N} gilt ∅ ∈ A, X ∈ A ⇒ S(X) ∈ A.
S
Es folgt: X∈N X = N. (Proposition 1.1 (i) benutzen: A ∈ N ⇒ S(A) ∈ N.) Dann
haben wir die folgende Variante der vollständigen Induktion: Ist A eine Teilmenge
von N mit X ∈ A für alle X ∈ N mit X ⊂ A, so gilt A = N. (∅ ⊂ A und für X ∈ N
mit X ⊂ A gilt S(X) ⊂ A, deshalb: für alle X ∈ N gilt X ⊂ A.)
Beispiel. Durch diese Variante der vollständigen Induktion haben wir:
• ∀X ∈ N : X ∈
/ X (für A := {X ∈ N : X ∈
/ X} gilt X ⊂ A ⇒ ∀T ∈ X : T 6= X).
1.1. Mengen
5
Die Elemente von N werden mit Zahlen 0, 1, . . . bezeichnet (natürliche Zahlen), z.B.:
0 := ∅,
1 := S(0) = {∅} = {0},
2 := S(1) = {∅, {∅}} = {0, 1},
3 := S(2) = {∅, {∅}, {∅, {∅}}} = {0, 1, 2}.
Das offensichtliche Muster motiviert:
Definition. Für Elemente A, B ∈ N wird die Relation A ∈ B mit A < B bezeichnet.
Daher kann die Variante der vollständigen Induktion so formuliert werden:
Sei A ⊂ N. Angenommen, für X ∈ N folgt stets aus Y ∈ A für alle Y ∈ N mit
Y < X, dass X ∈ A gilt. Dann ist A = N.
Als Vergleich der zwei Formen der vollständigen Induktion dient die folgende Tabelle,
wobei eine Aussage P (N ) für alle N ∈ N zu beweisen ist.
Beweis durch Induktion nach N
Induktion nach N (Variante)
IA (Induktionsanfang) : P (0)
nur IS (Induktionsschritt) :
IS (Induktionsschritt) : P (N ) ⇒ P (S(N )) (∀M < N : P (M )) ⇒ P (N )
Die Notation S(N ) steht nur provisorisch für den Sukzessor von N und wird bald
mit N + 1 ersetzt, dann hat die Induktionsschritt links die Form P (N ) ⇒ P (N + 1).
Wie üblich schreiben wir X ≤ Y für „X < Y ∨ X = Y “. Klar: X ≤ Y ⇔ X < S(Y ).
Beispiel: 0 ≤ X für alle X ∈ N. (Induktion nach X: 0 ≤ X ⇔ 0 < S(X).)
Proposition 1.2. Sind X, Y , Z ∈ N, so gilt:
(i) X < Y , Y < Z ⇒ X < Z; auch, X ≤ Y , Y ≤ Z ⇒ X ≤ Z.
(ii) X ≤ Y oder Y ≤ X gilt und beide gelten genau dann, wenn X = Y .
(iii) X < Y ⇔ S(X) < S(Y ); auch, X ≤ Y ⇔ S(X) ≤ S(Y ).
Beweis. Die erste Aussage von (i) behandeln wir durch Induktion nach Z, also durch
die Betrachtung der Aussage, dass X < Z gilt für alle X, Y ∈ N mit Y < Z und
X < Y , welche trivialerweise für Z = 0 stimmt (Induktionsanfang). Angenommen,
die Aussage gilt für einen bestimmten Wert von Z. Es folgt aus Y < S(Z), dass
Y < Z oder Y = Z. In beiden Fällen gilt X < Z für alle X < Y (mithilfe der
Induktionshypothese falls Y < Z). Deshalb gilt auch X < S(Z) (Induktionsschritt).
Der erste Aussage von (i) impliziert die zweite.
Als Nächstes behandeln wir die „⇒“-Implikationen von (iii) und zwar die erste Aussage davon durch Induktion nach Y . Der Induktionsanfang ist trivial. Ist Y ∈ N derart,
dass S(X) < S(Y ) für alle X < Y , so folgt aus X < S(Y ) – d.h., X < Y oder X = Y
– dass S(X) < S(Y ) bzw. S(X) = S(Y ) gilt. Also folgt S(X) ≤ S(Y ), äquivalent,
S(X) < S(S(Y )). Die erste Aussage von (iii) („⇒“-Implikation) impliziert die zweite.
6
1. Grundlagen und algebraische Strukturen
In (ii) erledigen wir rasch den Fall X = Y . Somit können wir annehmen, dass X
und Y verschieden sind. Mithilfe von (i) schliessen wir aus, dass X < Y und Y < X
beide gelten. Es ist noch zu zeigen, dass X < Y oder Y < X gilt, und das machen
wir durch Induktion nach Y . Aus 0 ≤ X ist der Induktionsanfang klar. Sei Y ∈ N
derart, dass aus X 6= Y stets X < Y oder Y < X folgt und sei X 6= S(Y ). Nach der
Induktionshypothese gilt X = Y oder X < Y oder Y < X. Ist X = Y oder X < Y ,
so gilt X < S(Y ). Sonst ist Y < X und nach (iii) („⇒“) gilt S(Y ) < S(X). Es folgt,
S(Y ) < X.
Mithilfe von (ii) folgen die „⇐“-Implikationen von (iii) direkt aus den „⇒“.
Unter Ordnungsrelationen kennen wir (mindestens) zwei Sorten:
Anforderungen
Sorte
Partialordnung X≤X, (X≤Y, Y ≤X)⇒X=Y,
Totalordnung
X≤X, (X≤Y, Y ≤X)⇒X=Y,
(X≤Y, Y ≤Z)⇒X≤Z
(X≤Y, Y ≤Z)⇒X≤Z,
X≤Y oder Y ≤X
Nach Proposition 1.2(i)–(ii) ist „≤“ auf N eine Totalordnung.
Korollar 1.3. Ist Y ∈ N r {0}, so gibt es ein eindeutiges X ∈ N mit S(X) = Y .
Beweis. Dass ein solches X gibt, haben wir schon gesehen. Für die Eindeutigkeit,
seien X, X 0 ∈ N mit X 6= X 0 . Nach Proposition 1.2 gilt X 0 < X oder X < X 0 , und
deshalb S(X 0 ) < S(X) bzw. S(X) < S(X 0 ).
Als Anwendung der vollständigen Induktion gelten iterative Konstruktionen, wie
zum Beispiel die Iteration einer Abbildung.
Sind A und B Mengen, so wird eine Abbildung f : A → B verstanden als eine
Teilmenge Γf ⊂ A × B, so dass es für alle X ∈ A ein eindeutiges Y ∈ B gibt
mit (X, Y ) ∈ Γf ; dann wird X auf Y abgebildet. Als Bild bezeichnet man die
Menge aller solchen Y , geschrieben: im(f ) (englisch: image) oder f (A), wobei auch
mit f (A0 ) für ein A0 ⊂ A das Bild der Einschränkung von f auf A0 verstanden
wird. Eine Abbildung f heisst injektiv, bzw. surjektiv, bzw. bijektiv, falls stets
f (X) = f (X 0 ) ⇒ X = X 0 gilt, bzw. im(f ) = B, bzw. f injektiv und surjektiv.
Proposition 1.4. Sei A eine Menge und f : A → A eine Abbildung. Dann gibt es
eine eindeutige Abbildung
If : A × N → A
mit
If (X, 0) = X
für alle X ∈ A und N ∈ N.
und
If (X, S(N )) = f (If (X, N ))
1.1. Mengen
7
Beweis. Wir zeigen zuerst die Eindeutigkeit, also seien If und Jf zwei solche Abbildungen. Wir zeigen, dass If (X, N ) = Jf (X, N ) für alle X ∈ A und N ∈ N
durch Induktion nach N . Es gilt If (X, 0) = X = Jf (X, 0). Gilt für N ∈ N, dass
If (X, N ) = Jf (X, N ) für alle X ∈ A, so haben wir
If (X, S(N )) = f (If (X, N )) = f (Jf (X, N )) = Jf (X, S(N )).
Die Existenz erfolgt in zwei Schritten. Erster Schritt, zu zeigen: (i) für alle ` ∈ N es
gibt eine eindeutige Abbildung if,` : A × N → A mit if,` (X, 0) = X, if,` (X, N ) = X
für ` < N und if,` (X, S(N )) = f (if,` (X, N )) für N < `; (ii) folgende Formel gilt:
(
if,` (X, N ),
falls N 6= S(`),
if,S(`) (X, N ) :=
f (if,` (X, `)), falls N = S(`).
Eindeutigkeit in (i) kann gezeigt werden durch Induktion nach N mit Induktionsanfang und Induktionsschritt für N < ` genau wie oben, während if,` (X, S(N )) = X
gelten muss für ` ≤ N . Existenz, durch Induktion nach `. Als Induktionsanfang dient
if,0 (X, N ) := X. Angenommen, if,` existiert. Dann definieren wir if,S(`) durch die
Formel in (ii). Es gilt if,S(`) (X, N ) = X falls N = 0 oder S(`) < N , während
if,S(`) (X, S(N )) = if,` (X, S(N )) = f (if,` (X, N )) = f (if,S(`) (X, N ))
gilt für N < `, sowie if,S(`) (X, S(`)) = f (if,` (X, `)) = f (if,S(`) (X, `)).
Zweiter Schritt ist die Behauptung, dass If (X, `) := if,` (X, `) die gestellten Bedingungen erfüllt. Die Bedingung If (X, 0) = X ist klar erfüllt und es gilt If (X, S(N )) =
if,S(N ) (X, S(N )) = f (if,S(N ) (X, N )) = f (if,N (X, N )) = f (If (X, N )).
Die Iteration von S liefert Addition IS : N × N → N, die wir so schreiben:
+ : N × N → N.
Aus Proposition 1.4 bzw. durch Induktion folgen, z.B., dass für n ∈ N gilt:
• n + 0 = n (aus Proposition 1.4: n + 0 = IS (n, 0) = n).
• n + 1 = S(n) (auch aus Proposition 1.4: IS (n, 1) = S(IS (n, 0))).
• 0 + n = n (Induktion: 0 + n = n ⇒ 0 + S(n) = S(0 + n) = S(n)).
• 1 + n = S(n) (ähnliche Induktion).
Weitere Eigenschaften benutzen die folgende Kompatibilität von Iteration mit +.
Proposition 1.5. Mit der Notation A, f , If aus Proposition 1.4 und + wie oben
gilt If (X, m + n) = If (If (X, m), n) für alle X ∈ A und m, n ∈ N.
8
1. Grundlagen und algebraische Strukturen
Beweis. Induktion nach n. Aus m + 0 = m und If (X, 0) = X haben wir den Induktionsanfang. Ist n ∈ N derart, dass If (X, m + n) = If (If (X, m), n) gilt für alle
X ∈ A und m ∈ N, so folgt:
If (X, m + S(n)) = If (X, S(m + n)) = f (If (X, m + n)) = f (If (If (X, m), n)).
Letzteres ist If (If (X, m), S(n)), wie gewünscht.
Angewandt auf die Sukzessor-Funktion auf N liefert Proposition 1.5 die folgenden
Eigenschaften der Addition + : N × N → N, für `, m, n ∈ N:
• (` + m) + n = ` + (m + n) (wird eindeutig so geschrieben: ` + m + n),
• m + n = n + m,
• ` + n = m + n ⇔ ` = m und das Gleiche, mit ≤ anstatt =,
wobei das Erste sich direkt aus Proposition 1.5 ergibt und die weiteren Aussagen
sich durch Induktion nach n beweisen lassen:
m+n=n+m⇒
m + S(n) = S(m + n) = S(n + m) = n + S(m) = n + 1 + m = S(n) + m,
bzw. (so, und das Gleiche mit ≤ anstatt =)
(` + n = m + n ⇔ ` = m) ⇒ (` + S(n) = m + S(n) ⇔ S(`) = S(m) ⇔ ` = m).
Wir hören auf, S(n) zu schreiben und schreiben stattdessen: n + 1.
Proposition 1.6. Sind m, n ∈ N, so gilt m ≤ n genau dann, wenn es ein ` ∈ N
gibt, mit ` + m = n.
Beweis. Wir beweisen die „⇒“-Implikation durch Induktion nach n. Induktionsanfang, 0 + 0 = 0, denn aus m ≤ 0 folgt m = 0. Angenommen, n ∈ N ist derart, dass
aus m ≤ n die Existenz eines ` ∈ N mit ` + m = n folgt. Ist m ≤ n + 1, so hat schon
aus m ≤ n die Existenz eines ` ∈ N mit ` + m = n und deshalb (` + 1) + m = n + 1
als Folge; übrig ist nur der Fall m = n + 1, dann gilt 0 + (n + 1) = n + 1.
Die „⇐“-Implikation erfolgt durch Induktion nach m. Der Induktionsanfang ist trivial. Aus der Induktionshypothese m ≤ ` + m folgt m + 1 ≤ ` + m + 1.
Wir unterscheiden zwischen endlichen und unendlichen Mengen. Als Basis gilt die
Tatsache, dass die Elemente aus N selbst Menge sind und zwar besteht n ∈ N genau
aus den Elementen von N, die kleiner als n sind.
1.1. Mengen
9
Dieser Kniff aus der ZFC-Mengenlehre führt zu einer möglichen Verwirrung, wie im
folgenden Beispiel. Ist f : {0, 1, 2} → A eine Abbildung, mit A = {X, Y, Z} und
0 7→ X, 1 7→ Y , 2 7→ Z, so hat f (2) zwei mögliche Bedeutungen, da 2 = {0, 1} gilt.
Wir adoptieren die Konvention, N<n zu schreiben, wenn wir uns auf die Menge aller
Elemente aus N, die kleiner als n sind, beziehen wollen. So gilt im obigen Beispiel:
f (N<2 ) = {X, Y } sowie f (2) = Z.
Definition. Eine Menge A heisst endlich, wenn es für ein n ∈ N eine bijektive
Abbildung N<n → A gibt, sonst heisst A unendlich. Ist A eine endlich Menge und
N<n → A eine bijektive Abbildung, so sagen wir, die Kardinalität von A ist n; in
Zeichen: |A| = n.
Proposition 1.7. Ist A eine endliche Menge, so ist das n ∈ N aus der Definition der
endlichen Menge (für welches eine bijektive Abbildung N<n → A existiert) eindeutig
bestimmt.
Beweis. Es genügt, für m, n ∈ N mit m 6= n zu zeigen, dass es keine bijektive
Abbildung N<m → N<n gibt. Ohne Beschränkung der Allgemeinheit können wir
annehmen, m < n gilt. Dafür verwenden wir Induktion nach m. Es gibt für 0 < n
keine bijektive Abbildung ∅ → N<n , denn N<n 6= ∅. Angenommen, m ∈ N ist
derart, dass es stets für n ∈ N mit m < n keine bijektive Abbildung N<m → N<n
gibt. Sei n ∈ N mit m + 1 < n und
f : N<m ∪ {m} → N<n
eine Abbildung. Wir müssen zeigen, dass f nicht bijektiv ist. Es genügt, dies zu
machen, unter der Annahme, dass f (m0 ) 6= f (m) für alle m0 ∈ N<m , denn aus
f (m0 ) = f (m) mit m0 < m würde folgen, dass f nicht injektiv ist.
Sei p := f (m), mit f (m0 ) 6= p für alle m0 ∈ N<m . Sei n0 ∈ N so, dass n = n0 + 1. Also
ist m < n0 . Wir definieren g : N<n → N<n durch
g(`) := ` für 0 < ` < p,
g(p) := n0 ,
g(`) := ` für p < ` < n0 ,
g(n0 ) := p.
Die Einschränkung von g ◦ f auf N<m definiert eine Abbildung N<m → N<n0 und
nach der Induktionshypothese ist dies nicht bijektiv. Es folgt, dass g ◦f nicht bijektiv
ist. Aber g ist bijektiv, deshalb ist f nicht bijektiv.
Proposition 1.8. Für eine Menge A sind folgende Aussagen äquivalent:
(i) A ist unendlich.
(ii) Es gibt eine injektive Abbildung N → A.
(iii) Es gibt eine injektive, nicht surjektive Abbildung A → A.
10
1. Grundlagen und algebraische Strukturen
Beweis. (i) ⇒ (ii): Sei A eine unendliche Menge. Wir behaupten: für alle n ∈ N lässt
sich jede injektive Abbildung N<n → A zu einer injektiven Abbildung N<n ∪{n} → A
erweitern. Eine injektive Abbildung f : N<n → A kann nicht surjektiv sein, weil A
unendlich ist. Assoziiert zu f ist die nichtleere Menge M (f ) := A r im(f ) und
jedes X ∈ M (f ) definiert durch n 7→ X eine Erweiterung von f zu einer injektiven
Abbildung N<n ∪ {n} → A. Nach dem Auswahlaxiom gibt es eine Abbildung
b : {Paare (n, f ) mit n ∈ N und f : N<n → A injektiv} → A
mit b(n, f ) ∈ M (f ) für alle n und f . Die sukzessiven Erweiterungen bilden eine
injektive Abbildung N → A.
(ii) ⇒ (iii): Sei f : N → A eine injektive Abbildung und sei A0 := im(f ). Dann
definiert f eine bijektive Abbildung f0 : N → A0 . Die Komposition
f −1
n7→n+1
f0
0
N −−−→ N −→ A0
A0 −→
ist injektive aber nicht surjektiv. Die Erweiterung zu A → A durch X 7→ X für alle
X ∈ A r A0 ist ebenso injektive aber nicht surjektiv.
(iii) ⇒ (i): Es genügt, zu zeigen: Ist A endlich, so sind alle injektiven Abbildungen
A → A auch surjektiv. Nach der Definition der endlichen Menge genügt es sogar, zu
zeigen: Ist n ∈ N, so sind alle injektiven Abbildungen N<n → N<n auch surjektiv.
Das machen wir durch Induktion nach n. Der Fall n = 0 ist trivial. Gegeben sei die
Behauptung über Abbildungen N<n → N<n , wir betrachten eine injektive Abbildung
f : N<n ∪ {n} → N<n ∪ {n}. Sei p := f (n). Wie im Beweis von Proposition 1.7 gibt
es eine bijektive Abbildung g : N<n ∪ {n} → N<n ∪ {n} mit g(p) = n. Das bedeutet:
(g ◦ f )(n) = n und (g ◦ f )(m) < n für alle m ∈ N<n . Nach der Induktionshypothese
hat die Einschränkung von g ◦ f auf N<n ganzes N<n als Bild. Es folgt, dass g ◦ f
surjektiv ist, deshalb ist auch f surjektiv.
Definition. Eine Menge A heist abzählbar unendlich, wenn es eine bijektive
Abbildung N → A gibt. Eine unendliche aber nicht abzählbar unendliche Menge
heisst überabzählbar.
Beispiel. Ist A eine Teilmenge von N, so ist A höchstens abzählbar, d.h., A ist
endlich oder abzählbar unendlich. Denn ≤ auf N ist eine Wohlordnung und falls A
unendlich ist, kann damit eine ordnungserhaltende (d.h., ≤-respektierende) bijektive
Abbildung N → A definiert werden.
Anforderungen
Sorte
Wohlordnung Totalordnung + jede nichtleere Teilmenge hat ein kleinstes Element
1.2. Gruppen
1.2
11
Gruppen
Wir wollen N = {0, 1, 2, . . . } zu Z = {. . . , −2, −1, 0, 1, 2, . . . } erweitern. Da kommt
unsere erste algebraische Struktur, die Gruppe.
Ist G eine Menge, so wird eine Abbildung G × G → G Verknüpfung genannt und
(g, h) 7→ g.h geschrieben (oder g · h, g ◦ h, g ∗ h usw., manchmal auch gh). Die
Verknüpfung heisst assoziativ wenn
(a.b).c = a.(b.c)
gilt für alle a, b, c ∈ G.
Definition. Eine Gruppe ist eine Menge G mit assoziativer Verknüpfung G × G →
G, die die folgenden zwei Eigenschaften erfüllt:
• Es gibt ein e ∈ G mit e.a = a = a.e für alle a ∈ G; solches e ∈ G ist eindeutig,
denn aus ẽ.a = a = a.ẽ für alle a ∈ G würde ẽ = ẽ.e = e folgen.
• Für alle a ∈ G gibt es ein a−1 ∈ G mit a−1 .a = e = a.a−1 .
Das Element e heisst neutrales Element und das (auch eindeutig bestimmte) Element a−1 heisst inverses Element von a ∈ G. Eine Gruppe, in der zusätzlich gilt
• a.b = b.a für alle a, b ∈ G,
heisst abelsche Gruppe.
Eine Verknüpfung, die die letzte Eigenschaft besitzt, heisst kommutativ, also ist die
Verknüpfung einer abelschen Gruppe kommutativ. Die Verknüpfung einer abelschen
Gruppe wird oft mit + bezeichnet, das neutrale Element 0 und das Inverse −a.
Auf N haben wir schon die Verknüpfung + definiert. Dies ist assoziativ, es gibt das
neutrale Element 0, aber Inverse fehlen (ausser von 0).
Neben Ordnungsrelationen haben auch Äquivalenzrelationen platz.
Sorte
Anforderungen
Äquivalenzrelation X ∼ X, X ∼ Y ⇒ Y ∼ X,
(X ∼ Y, Y ∼ Z) ⇒ X ∼ Z,
Ist A eine Menge mit Äquivalenzrelationen ∼, so heisst die Menge {Y ∈ A | Y ∼ X}
für ein X ∈ A die Äquivalenzklasse von X ∈ A; in Zeichen: [X]. Mit A/∼ wird
die Menge aller Äquivalenzklassen bezeichnet.
Definition. Mit Z wird die Menge (N×N)/∼ bezeichnet, für die Äquivalenzerelation
(m1 , n1 ) ∼ (m2 , n2 ) :⇔ m1 + n2 = m2 + n1 .
Wir betrachten Z (ganze Zahlen) als Erweiterung von N, wobei ein n ∈ N mit
[(n, 0)] ∈ Z identifiziert wird.
12
1. Grundlagen und algebraische Strukturen
Mittels Eigenschaften von N (§1.1) sehen wir: ∼ ist eine Äquivalenzrelation und die
analoge Relation mit ≤ anstatt = rechts liefert eine Totalordnung ≤ auf Z.
Proposition 1.9. Durch [(m, n)]+[(m0 , n0 )] := [(m+m0 , n+n0 )] ist eine Verknüpfung
+: Z × Z → Z
definiert, die kompatibel mit + : N × N → N und mit der Z eine abelsche Gruppe ist.
Beweis. Die Formel definiert eine Verknüpfung, denn aus (m1 , n1 ) ∼ (m2 , n2 ) folgt
(m1 +m0 , n1 +n0 ) ∼ (m2 +m0 , n2 +n0 ) (denn m1 +m0 +n2 +n0 = m2 +m0 +n1 +n0 ) sowie
(m + m1 , n + n1 ) ∼ (m + m2 , n + n2 ). Die Assoziativität und Kommutativität folgen
aus denjenigen von + : N × N → N und die Kompatibilität ist klar. Wir verifizieren
direkt, dass 0 das neutrale Element ist und [(m, n)] + [(n, m)] = 0.
Es gilt [(m, n)] = m − n, was uns die umständliche Notation [(m, n)] beseitigen lässt.
Nach Proposition 1.6 gilt −a ∈ N für alle a ∈ Z mit a ∈
/ N.
·
1 −1
1
1 −1
−1 −1
1
Auch in diesem Beispiel ist G abelsch. Mit den Beispielen sehen wir aber, dass
Gruppen sowohl endlich als auch unendlich sein können.
Als zweites Beispiel von Gruppe, G := {1, −1} mit · : G × G → G:
Definition. Sind G und G0 Gruppen, so heisst eine Abbildung f : G → G0 Gruppenhomomorphismus, oder Homomorphismus, wenn für alle a, b ∈ G gilt:
f (a).f (b) = f (a.b).
Die Menge aller Homomorphismen G → G0 wird mit Hom(G, G0 ) bezeichnet.
Unter dem trivialen Homomorphismus G → G0 wird alle Elemente aus G auf
das neutrale Element e0 ∈ G0 abgebildet. Allgemeine Eigenschaften eines Homomorphismus f : G → G0 sind f (e) = e0 und f (a−1 ) = f (a)−1 für alle a ∈ G.
Beispiel. Ist G eine abelsche Gruppe, so ist a 7→ a−1 ein Homomorphismus G → G.
Je nach Eigenschaft der Abbildung f gelten restriktivere Bezeichnungen:
Ein Homomorphismus, der auch . . . ist
heisst
injektiv
Monomorphismus
Epimorphismus1
surjektiv
bijektiv
Isomorphismus
Ein Homomorphismus von einer Gruppe nach sich selbst heisst Endomorphismus.
Beispiel: der identische Endomorphismus a 7→ a einer beliebigen Gruppe. Eine
bijektiver Endomorphismus heisst Automorphismus.
Tatsächlich deutet Epimorphismus die Eigenschaft an, dass für eine beliebige dritte Gruppe G00
und Homomorphismen g1 , g2 : G0 → G00 gilt: f ◦ g1 = f ◦ g2 ⇒ g1 = g2 . Konstruktionen aus der
Algebra-Vorlesung werden zeigen lassen: diese Eigenschaft gilt genau dann, wenn f surjektiv ist.
1
1.3. Ringe
1.3
13
Ringe
Die Multiplikation ist eine andere Verknüpfung auf Z. Bei einem Ring geht es um
eine Menge mit zwei Verknüpfungen.
Definition. Ein Ring ist eine Menge R mit zwei assoziativen Verknüpfungen
+: R × R → R
und
· : R × R → R,
so dass die folgenden zwei Eigenschaften erfüllt sind.
• R mit + ist eine abelsche Gruppe.
• Für alle a, b, c ∈ R gilt das Distributivgesetz :
a · (b + c) = a · b + a · c
(b + c) · a = b · a + c · a.
sowie
In einem Ring heisst ein Element 1 ∈ R Einselement falls gilt:
• 1 · a = a = a · 1 für alle a ∈ R.
Ein Ring heisst kommutativ falls zusätlich gilt:
• a · b = b · a für alle a, b ∈ R.
In einem Ring wird für die Verknüpfung + das neutrale Element mit 0 und das
Inverse von a mit −a bezeichnet. Genau wie im Fall des neutralen Elements einer
Gruppe, ist das Einselement eines Ringes eindeutig, falls es existiert.
Andere Eigenschaften folgen aus der Definition, wie z.B., aus dem Distributivgesetz:
• Es gilt 0 · a = 0 = a · 0 für alle a ∈ R.
• In einem Ring mit Einselement 1 gilt (−1) · a = −a für alle a ∈ R.
Beispiel. Ist G eine abelsche Gruppe, so ist die Menge End(G) aller Endomorphismen von G mit den Verknüpfungen Addition
+ : End(G) × End(G) → End(G),
f + g := (a 7→ f (a) + g(a)),
und üblicher Komposition
◦ : End(G) × End(G) → End(G)
ein Ring. Der identische Endomorphismus idG gilt als Einselement. Mit der Bemerkung, dass für f , g ∈ End(G) auch die Summe f + g eine Endomorphismus ist (für
welche es wichtig ist, dass G abelsch ist), geht die Verifikation, dass End(G) mit
+ eine abelsche Gruppe, ziemlich schnell. Die Verifikation des Distributivgesetzes:
für f , g, h ∈ End(G) ist f ◦ (g + h) durch a 7→ f (g(a) + h(a)) und f ◦ g + f ◦ h
durch a 7→ f (g(a))+f (h(a)) gegeben und nach der Definition des Homomorphismus:
f (g(a) + h(a)) = f (g(a)) + f (h(a)).
14
1. Grundlagen und algebraische Strukturen
Ein Element f ∈ End(Z) ist eindeutig durch f (1) charakterisiert. Denn aus f (1) =
g(1) für f , g ∈ End(Z) folgt f (n) = g(n) für alle n ∈ N (Induktion nach n: f (0) =
g(0) = 0 und f (n) = g(n) ⇒ f (n + 1) = f (n) + f (1) = g(n) + g(1) = g(n + 1)),
deshalb f (m−n) = f (m)−f (n) = g(m)−g(n) = g(m−n) für alle m, n ∈ N. Zudem
gibt es für jedes n ∈ Z ein f ∈ End(Z) mit f (1) = n. Da (f − g)(1) = f (1) − g(1) für
f , g ∈ End(Z), genügt es den Fall n ∈ N zu behandeln; der triviale Endomorphismus
dient als Induktionsanfang und aus f (1) = n folgt (f + idZ )(1) = n + 1.
Für a ∈ Z schreiben wir µa für den eindeutigen Endomorphismus von Z, der 1 auf a
abbildet. Wir erkennen µa als Multiplikation durch a und so definieren:
· : Z × Z → Z,
a · b := µa (b).
Proposition 1.10. Mit Addition und Multiplikation ist Z ein kommutativer Ring
mit Einselement 1.
Beweis. Nach Proposition 1.9 ist Z mit Addition eine abelsche Gruppe. Seien a, b,
c ∈ Z. Dann gilt a · (b + c) = µa (b + c) = µa (b) + µa (c) = a · b + a · c und (b + c) · a =
µb+c (a) = (µb + µc )(a) = b · a + c · a, wobei µb+c = µb + µc aus µb+c (1) = (µb + µc )(1)
folgt. Also ist Z ein Ring. Es gilt µ1 = idZ und µa (1) = a für alle a ∈ Z, deshalb
1·a = a = a·1. Für die Kommutativität genügt es, zu zeigen, dass m·n = n·m gilt für
m, n ∈ N (nach dem Distributivgesetz); Induktion nach n: m · 0 = 0 = 0 · m ist schon
bekannt und aus m·n = n·m folgt m·(n+1) = m·n+m = n·m+m = (n+1)·m.
Es gibt auch Homomorphismen von Ringen, sogar zwei Sorten denn für Ringe mit
Einselement kommt eine zusätzliche Anforderung.
Definition. Sind R und R0 Ringe, so heisst eine Abbildung f : R → R0 Ringhomomorphismus wenn für alle a, b ∈ R gilt:
f (a + b) = f (a) + f (b)
und
f (a · b) = f (a) · f (b).
Sind R und R0 Ringe mit Einselementen 1R ∈ R und 1R0 ∈ R0 , so heisst eine
Abbildung f : R → R0 Homomorphismus von Ringen mit Eins falls zusätzlich
gilt:
f (1R ) = 1R0 .
In beiden Kontexten heisst die Menge aller Elemente aus R, die unter f auf 0 abgebildet werden, der Kern von f , geschrieben: ker(f ).
Wichtige Eigenschaft: ker(f ) = 0 genau dann, wenn f injektiv ist. (Ist f (a) = f (b)
mit a 6= b, so gilt f (a − b) = 0 und deshalb 0 6= a − b ∈ ker(f ).) Ein bijektiver
Homomorphismus heisst in beiden Kontexten Isomorphismus.
1.4. Körper
15
Beispiel. Die Auswertung an 1 ist ein Isomorphismus von Ringen mit Eins
End(Z) → Z.
Die inverse Abbildung ist a 7→ µa . Die Kompatibilität mit + ist schon klar. Für alle
a, b ∈ Z gilt (µa ◦ µb )(1) = µa (b) = a · b = µa (1) · µb (1). Es gilt idZ (1) = 1.
1.4
Körper
Obwohl es additive Inverse in einem beliebigen Ring R gibt, kann es wohl Elemente
geben, die kein multiplikatives Inverses haben. Vorausgesetzt, R ist ein Ring mit
Einselement 1R , gilt als multiplikatives Inverses zu einem a ∈ R ein b ∈ R mit
a · b = 1R = b · a. In Z, zum Beispiel, haben nur 1 und −1 multiplikative Inverse.
Denn m · n ∈ N gilt für alle m, n ∈ N und ausser 0 + 0 = 0, 0 + 1 = 1 und 1 + 0 = 1
gibt es kein Paar von Elementen aus N, dessen Summe gleich 0 oder 1 ist. Es ist
dann leicht, die Paare von Elementen aus N, deren Produkt gleich 0 oder 1 ist, zu
charakterisieren, und mit (−a) · (−b) = a · b und (−a) · b = a · (−b) = −a · b, die
Behandlung auf Z zu erweitern:
0 · a = a · 0 = 0 für alle a ∈ Z;
1 · 1 = (−1) · (−1) = 1;
alle sonstigen Produkte sind 6= 0 und 6= 1.
Definition. Ein Körper ist ein kommutativer Ring mit Einselement, in dem die
Menge aller Elemente mit multiplikativen Inversen genau aus den von Null verschiedenen Elementen besteht.
In einem kommutativen Ring R mit Einselement wird die Menge aller Elemente, die
multiplikative Inverse besitzen, mit R× bezeichnet, die Einheiten von R. Also kann
ein Körper beschrieben werden, als kommutativer Ring R mit Einselement, in dem
R× = R r {0} gilt.
Mit der multiplikativen Verknüpfung ist R× eine Gruppe, und falls R kommutativ
ist, eine abelsche Gruppe; z.B., Z× = {1, −1}, das zweite Beispiel von Gruppe in
§1.2. Da Z× ( Z r {0} = {1, −1, 2, −2, . . . }, ist Z kein Körper.
Ein Körper aus Z zu konstruieren, ist möglich wenn man Brüche einführt.
Definition. Mit Q wird die Menge Z × (Z r {0})/∼ bezeichnet, für die Äquivalenzrelation
(a1 , b1 ) ∼ (a2 , b2 ) :⇔ a1 · b2 = a2 · b1 .
Wir betrachten Q (rationale Zahlen) als Erweiterung von Z, wobei ein a ∈ Z mit
[(a, 1)] identifiziert wird.
16
1. Grundlagen und algebraische Strukturen
Dass dies ein Äquivalenzrelation ist, benötigt schon das oben erwähnte Eigenschaft,
dass das Produkt zweier von Null verschiedener Elemente aus Z auch von Null verschieden ist. Wie üblich wird Elemente von Q mit Brüche bezeichnet:
a
:= [(a, b)].
b
Proposition 1.11. Die Formeln
a a0
a · b0 + a0 · b
+ 0 :=
b
b
b · b0
und
a · a0
a a0
· 0 :=
b b
b · b0
definiern Verknüpfungen
+: Q × Q → Q
und
· : Q × Q → Q,
die kompatibel mit denjenigen auf Z sind und mit denen Q ein Körper ist.
Beweis. Seien a1 , b1 , a2 , b2 ∈ Z mit b1 , b2 6= 0 und a1 · b2 = a2 · b1 . Dann gilt
(a1 · b0 + a0 · b1 ) · b2 · b0 = a1 · b2 · b0 · b0 + b1 · b2 · a0 · b0 = a2 · b1 · b0 · b0 + b1 · b2 · a0 · b0 =
(a2 · b0 + a0 · b2 ) · b1 · b0 , also
a1 · b0 + a0 · b1
a2 · b0 + a0 · b2
=
.
b1 · b0
b2 · b0
Daraus folgt, dass + : Q×Q → Q wohldefiniert ist. Ähnlich geht die verifikation, dass
· : Q × Q → Q wohldefiniert ist. Aus den Formeln folgt, dass + und · assoziativ und
kommutativ sind. Ebenso folgt das Distributivgesetz. Also ist Q ein kommutativer
Ring. Die Kompatibilität mit + und · auf Z ist klar. Als Einselement in Q gilt 1
(d.h., 11 ) und aus
a b
· =1
b a
für alle a, b ∈ Z r {0} folgt Q× = Q r {0}.
1.5
Euklidische Ringe
Ein kommutativer Ring R mit Einselement 1 6= 0, in dem das Produkt zweier von
Null verschiedener Elemente stets von Null verschieden ist, heisst Integritätsbereich. Wichtigstes Beispiel: Z. In einem solchen Ring ist es sinnvoll, nach der Faktorzerlegung beliebiger Elemente zu fragen. Als Vorbild gilt die Primzahlzerlegung.
Definition. Sei R ein Integritätsbereich. Eine Abbildung f : R r {0} → N heisst
euklidischer Betrag falls gilt:
1.5. Euklidische Ringe
17
• Für alle a, b ∈ R mit b 6= 0 gibt es q, r ∈ R mit a = qb + r und r = 0 oder
f (r) < f (b).
Ein euklidischer Ring ist ein Integritätsbereich, auf dem es einen euklidischen
Betrag gibt.
(N.B. Wie oben lassen wir oft das Symbol · in Produkten weg.) Wir werden sehen,
es gibt Faktorzerlegungen in einem euklidischen Ring, die analog sind zur Primzahlzerlegung.
Es wird nützlich, Beispiele zu haben von Integritätsbereichen, auf denen es sinnvoll
ist, nach der Existenz
eines euklidischen Betrags zu fragen. Neben Z selbst gibt es
√
Erweiterungen
Z[
d]
für
Nichtquadrate d ∈ Z, die man formell und ohne Vorkenntnis
√
von d (als reeller oder komplexer Zahl) definieren kann:
√
Z[ d] := {(a, b) ∈ Z × Z} mit (a, b) + (a0 , b0 ) := (a + a0 , b + b0 ),
√
√
(a, b) · (a0 , b0 ) := (aa0 + dbb0 , ab0 + a0 b) und Schreibweise a + b d := (a, b) ∈ Z[ d].
Andere wichtige Integritätsbereiche sind Polynomringe. Sei K ein Körper. Ein Polynom vom Grad d ∈ N über K wird durch eine Folge von Koeffizienten (ai )i∈N aus K
(d.h., eine Abbildung N → K, i 7→ ai ) gegeben mit ad 6= 0 und ai = 0 für alle i > d.
Als Polynome über K gelten das Nullpolynom (mit ai = 0 für alle i ∈ N) und die
Polynome vom Grad d für alle d ∈ N. Man wählt ein Symbol wie, z.B., T aus und
schreibt (ai )i∈N mit ai = 0 für alle i > d als
ad T d + ad−1 T d−1 + · · · + a1 T + a0 .
Die Summe mit dem Polynom
be T e + be−1 T e−1 + · · · + b1 T + b0
mit Koeffizienten (bi )i∈N hat die Koeffizienten (ai + bi )i∈N , also für f ≥ max(d, e)
kann als
(af + bf )T f + (af −1 + bf −1 )T f −1 + · · · + (a1 + b1 )T + (a0 + b0 )
geschrieben werden. Das Produkt ist
ad be T d+e + (ad−1 be + ad be−1 )T d+e−1 + · · · + (a0 b1 + a1 b0 )T + a0 b0 ,
wobei für alle k ∈ N der k-te Koeffizient die Summe von ai bj über alle 0 ≤ i ≤ d und
0 ≤ j ≤ e mit i + j = k ist. Es ist unkompliziert aber langwierig zu verifizieren, dass
Polynome über K einen kommutativen Ring mit Eins bilden, der mit K[T ] (oder mit
einem anderen ausgewählten Symbol anstatt T ) bezeichnet wird. Das Produkt eines
Polynoms vom Grad d und eines Polynoms vom Grad e ist stets vom Grad d + e,
deshalb ist K[T ] ein Integritätsbereich mit K[T ]× = K × .
18
1. Grundlagen und algebraische Strukturen
Übrigens kann man Brüche einführen und – genau wie aus Z der Körper Q entstanden ist – aus K[T ] einen Körper konstruieren, die Körper K(T ) aller rationaler
Funktionen in der Variablen T .
Proposition 1.12. Folgende sind euklidische Beträge:
• Der Absolutbetrag | | auf Z, wobei |n| := n falls n ∈ N, sonst |n| := −n.
• Der Grad eines Polynoms auf K[T ] für einen beliebigen Körper K.
Der Grad eines Polynoms p ∈ K[T ] r {0} wird mit deg(p) bezeichnet (englisch:
degree).
Beweis. Der Divisionsalgorithmus aus der Schule (Division mit Rest) besagt, für alle
a ∈ Z und b ∈ N>0 gibt es ein q ∈ Z und ein r ∈ N<b mit a = qb + r. (Für ein
gegebenes b: die Menge Sb aller solchen a enthält N<b und erfüllt a ∈ Sb ⇒ a+b ∈ Sb ,
deshalb durch Induktion auch N ⊂ Sb , sowie a + b ∈ Sb ⇒ a ∈ Sb , deshalb Sb = Z.)
Die euklidishe Eigenschaft für | | folgt.
Es gibt auch einen Divisionsalgorithmus für Polynome über einem Körper K. Ist g
ein beliebiges Polynom und h ein Polynom vom Grad d, so gibt es q, r ∈ K[T ] mit
g = qh + r, wobei r Null oder vom Grad < d ist. Diese Aussage, die der euklidishen
Eigenschaft gleichkommt, ist trivial falls g = 0 oder vom Grad < d ist und folgt
andernfalls durch Induktion nach deg(g).
Bemerkung. Im Beweis von Proposition 1.12 sind die jeweiligen (q, r)-Paare in den
Divisionsalgorithmen eindeutig bestimmt.
Wer
√ gut mit komplexen
√ Zahlen vertraut ist, kann versuchen zu zeigen, dass der auf
Z[ −1] durch f (a + b −1) := a2 + b2 definierte √
Betrag ein euklidischer
Bertrag ist.
√
Auf ähnliche Weise kann gezeigt werden, auf Z[ −2] ist f (a + b −2) :=√a2 + 2b2
ein euklidischer
Bertrag. Aber es gibt keinen euklidischen Betrag auf Z[ −3]. Sei
√
f : Z[ −3]
r
{0}
→ N eine√Abbildung, d der√kleinste Wert
von
√
√ der Einschränkung
√
f auf Z[
−3]
r
{0,
±1,
±
−3}
und
k
+
`
−3
∈
Z[
−3]
r
{0,
±1,
±
−3}
mit
√
√
f (k + ` −3) = d, dann: (i) falls ` = 0 haben wir mit a := 1 + −3 und b := k
eine Widerspruch
√zur euklidischen Eigenschaft, (ii) sonst haben wir mit a := 2 oder
3 und b := k + ` −3 eine Widerspruch zur euklidischen Eigenschaft.
Proposition 1.13. Sei R ein euklidischer Ring. Sind a, b ∈ R, so gibt es s, t, u,
v ∈ R mit (sa+tb)u = a und (sa+tb)v = b. Des Weiteren ist das Element d := sa+tb
eindeutig bestimmt, bis auf Multiplikation mit einem Element aus R× .
Beweis. Zuerst betrachten wir einige Spezialfälle: (i) a = b = 0, dann ist d = 0
eindeutig bestimmt; (ii) a 6= 0, b = 0, dann ist s ∈ R× , also d = sa ist eindeutig
bestimmt, bis auf Multiplikation mit einer Einheit; (iii) a = 0, b 6= 0, ähnlich.
1.5. Euklidische Ringe
19
Sonst ist a 6= 0, b 6= 0. Wir zeigen, dass d eindeutig ist, bis auf Multiplikation mit
einer Einheit. Also seien s, t, u, v, s0 , t0 , u0 , v 0 ∈ R mit (sa + tb)u = (s0 a + t0 b)u0 = a
und (sa + tb)v = (s0 a + t0 b)v 0 = b, sei d := sa + tb und d0 := s0 a + t0 b. Dann gilt
d = (su0 + tv 0 )d0 und d0 = (s0 u + t0 v)d und daraus folgt, su0 + tv 0 , s0 u + t0 v ∈ R× .
Sei f : R r {0} → N ein euklidischer Betrag. Wir zeigen die Existenz geeigneter s, t,
u, v ∈ R durch Induktion nach f (b) und zwar die Variante, wobei die Induktionshypothese aus der Aussage für alle kleineren Werte von f (b) besteht. Falls a = qb für
ein q ∈ R, so ist mit s := 0, t := 1, u := q, v := 1 die Aussage bewiesen. Sonst gibt
es q, r ∈ R mit a = qb + r, r 6= 0 und f (r) < f (b). Wir verwenden die Induktionshypothese mit den Paar (b, r), also gibt es q 0 , r0 , s0 , t0 ∈ R mit (s0 b + t0 r)u0 = b und
(s0 b + t0 r)v 0 = r. Sei nun
s := t0 ,
t := s0 − t0 q,
u := qu0 + v 0 ,
v := u0 .
Dann berechnen wir
(sa + tb)u = (t0 a + (s0 − t0 q)b)(qu0 + v 0 ) = (s0 b + t0 r)(qu0 + v 0 )
= (s0 b + t0 r)qu0 + (s0 b + t0 r)v 0
= qb + r = a
und (sa + tb)v = (t0 a + (s0 − t0 q)b)u0 = (s0 b + t0 r)u0 = b.
In Proposition 1.13 ist d ein Teiler von a sowie von b, d.h., aus d bekommen wir a
sowie b durch Multiplikation mit geeigneten Elementen. Trivialerwise ist aber auch
1 ein Teiler von a sowie von b. Eine zusätliche Eigenschaft von d stellt sicher, dass d
bis auf Multiplikation mit einer Einheit eindeutig ist, nämlich, das alle gemeinsamen
Teiler von a und b auch d teilen. Denn für e ∈ R folgt aus ke = a und `e = b für k,
` ∈ R, dass (sk + t`)e = d gilt.
Definition. Sei R ein Integritätsbereich, seien a, b ∈ R. Als grösster gemeinsamer
Teiler oder ggT von a und b gilt ein Element d ∈ R, falls (i) d ein Teiler ist von a
sowie von b, und (ii) alle e ∈ R mit der Eigenschaft aus (i) auch d teilen. Ist 1 ∈ R
ggT von a und b, so heissen a und b teilerfremd.
Also besagt Proposition 1.13, das Element d := sa + tb für geeignete s, t ∈ R ist ggT
von den gegebenen Elementen a, b ∈ R.
In den Beispielen von euklidischen Ringen, die wir gesehen haben, gibt es einen
günstigen euklidischen Betrag, dass nicht nur leicht zu berechnen ist, sonder auch auf
algorithmische Weise erlaubt, aus gegebenen a und b passende q und r zu finden. Der
Induktionsschritt im Beweise von Proposition 1.13 ist auch algorithmisch. Also kann
auf algorithmische Weise ein ggT eines beliebigen Paares von Elementen berechnet
werden, wie Euklid schon vor über 2000 Jahren im Fall von zwei positiven natürlichen
Zahlen beschrieben hat (euklidischer Algorithmus).
20
1. Grundlagen und algebraische Strukturen
Das nächste Resultat identifiziert die Bausteine eines beliebigen euklidischen Ringes,
also Elemente, die analog sind zu den Primzahlen in Z.
Proposition 1.14. Sei R ein euklidischer Ring und a ∈ R eine von Null verschiedene Nichteinheit. Dann sind die folgenden Aussagen äquivalent.
(i) Für alle b ∈ R gilt: ist a kein Teiler von b, so gibt es ein c ∈ R derart, dass a
Teiler von bc − 1 ist.
(ii) Für alle b, b0 ∈ R gilt: ist a Teiler von bb0 , so ist a Teiler von b oder von b0 .
(iii) Für alle b, b0 ∈ R gilt: ist a = bb0 , so ist b oder b0 eine Einheit.
Beweis. (i) ⇒ (ii): Seien b, b0 , a0 ∈ R mit aa0 = bb0 . Angenommen, a ist kein Teiler
von b. Es gibt also c, d ∈ R, mit ad = bc − 1. Es gilt aa0 c = bb0 c = (ad + 1)b0 und
deshalb b0 = a(a0 c − b0 d).
(ii) ⇒ (iii) ist klar, denn falls a Teiler von b und b auch Teiler von a ist, muss a aus
b durch Multiplikation mit einer Einheit entstehen.
(iii) ⇒ (i): Sei b ∈ R. Angenommen, a ist kein Teiler von b. Nach Proposition 1.13
gibt es s, t, u, v ∈ R mit du = a und dv = b, wobei d := sa + tb. Dann ist d oder u
eine Einheit. Ist u ∈ R× , so folgt au−1 v = b, Widerspruch. Also ist d ∈ R× . Es gilt
deshalb 1 = d−1 sa + d−1 tb und a ist Teiler von d−1 tb − 1.
Die Aussagen (i)–(iii) wirken auf den ersten Blick wohl willkürlich. Aber sie entsprechen natürlichen Bedingungen auf R/aR:
• Mit aR wird die Menge aller Vielfachen von a bezeichnet: aR = {ab | b ∈ R}.
• Aus aR ensteht ein Äquivalenzrelation auf R, wobei b ∼ b0 :⇔ b − b0 ∈ aR; mit
R/aR wird R/∼ für die Äquivalenzrelation ∼ bezeichnet.
• Für b ∈ R ist b + aR die Äquivalenzklasse von b; mit b + aR wird die Summe
von b mit allen Elementen von aR bezeichnet.
• Die Verknüpfungen + und · auf R induzieren Verknüpfungen auf R/aR, damit
R/aR auch ein kommutativer Ring mit Einselement ist.
• Nun entspricht die Aussage (i) aus Proposition 1.14 der Bedingung, dass R/aR
ein Körper ist und die Aussage (ii), dass R/aR ein Integritätsbereich ist.
Die übrige Aussage (iii) besagt, dass a irreduzibel ist, siehe folgende Definition.
Definition. Sei R ein Integritätsbereich und a ∈ R eine von Null verschiedene
Nichteinheit. Dann heisst a irreduzibel, falls für alle Faktorisierungen a = bb0 in R
gilt: b ∈ R× oder b0 ∈ R× .
1.5. Euklidische Ringe
21
In einem euklidischen Ring heisst eine von Null verschiedene Nichteinheit prim falls
die Aussagen (i)–(iii) aus Proposition 1.14 gelten. Zum Beispiel, in Z:
Primzahlen: 2, 3, 5, 7, . . . ,
Primelemente: ±2, ±3, ±5, ±7, . . . .
Bis auf Multiplikation mit Einheiten Z× = {±1} spiegelt der neue Begriff die klassisch bekannten Bausteine der Primzahlzerlegung wider.
Es wird praktisch, von einem euklidischen Betrag f : R r {0} → N zu verlangen, dass
f (a) ≤ f (ab)
für alle a, b ∈ R r {0}.
(1)
Ist f0 ein beliebiger euklidischer Betrag, so definiert
f : R r {0} → N,
a 7→ min{f0 (ab) | b ∈ R r {0}}
einen euklidischen Betrag, für den auch (1) gilt. Denn sei a, b ∈ R mit b 6= 0, sei
c ∈ R r {0} derart, dass f (b) = f0 (bc) gilt. Nach der euklidischen Eigenschaft gibt
es q, r ∈ R mit a = qbc + r mit r = 0 oder f0 (r) < f0 (bc). Deshalb gilt a = (qc)b + r
mit r = 0 oder f (r) < f (b).
Ist f ein euklidischer Bertrag, für den (1) gilt, so sind f (a) und f (ab) genau dann
gleich, wenn b ∈ R× . (Ist b ∈ R× so folgt die Gleichheit aus f (a) ≤ f (ab) und
f (ab) ≤ f (abb−1 ) = f (a); ist f (a) = f (ab), so kommt es zu einer Widerspruch zur
euklidischen Eigenschaft für das Paar von Elementen a und ab, ausser dem Fall, dass
ab Teiler ist von a, d.h., b ∈ R× .)
Lemma 1.15. Sei R ein euklidischer Ring und a ∈ R eine von Null verschiedene
Nichteinheit. Dann gibt es ein m ∈ N>0 und Primelemente p1 , . . . , pm ∈ R, mit
a = p1 · · · pm .
Beweis. Sei f ein euklidischer Bertrag, für den (1) gilt. Wir verwenden Induktion
nach f (a). Falls a schon irreduzibel ist, ist die Sache klar. Sonst gibt es Nichteinheiten
b, b0 ∈ R mit a = bb0 . Es folgt: f (b) < f (a) und f (b0 ) < f (a). Nach der Induktionshypothese haben wir b = p1 · · · pm und b = p01 · · · p0m0 für geeignete m, m0 ∈ N>0 und
Primelemente p1 , . . . , pm , p01 , . . . , p0m0 . Es folgt: a = p1 · · · pm p01 · · · p0m0 .
Wir formulieren eine Aussage über die Eindeutigkeit einer Faktorisierung, wie in
Lemma 1.15. Einfachheitshalber werden wir annehmen, dass ein Repräsentant aus
jeder Menge der Form {up | u ∈ R× }, wobei p prim ist, ausgewählt worden ist.
Solche Repräsentanten sind in den wichtigsten Beispielen schon vorhanden. In Z
haben wir die Primzahlen. Für einen Körper K haben wir im Polynomring K[T ] die
normierten irreduziblen Polynome; ein Polynom ad T d + ad−1 T d−1 + · · · + a0 ∈ K[T ]
vom Grad d heisst normiert, wenn ad = 1.
22
1. Grundlagen und algebraische Strukturen
Proposition 1.16. Sei R ein euklidischer Ring und P ⊂ R eine Menge von Primelementen, in der genau ein Repräsentant aus jeder Menge {up | u ∈ R× } mit p prim
enthalten ist. Dann gibt es für jedes a ∈ R r {0} eine Faktorisierung
a = up1 · · · pm
mit u ∈ R× , m ∈ N und p1 , . . . , pm ∈ P . Die Einheit u und Zahl m sind eindeutig
bestimmt und die Elemente p1 , . . . , pm ∈ P bis auf Reihenfolge eindeutig bestimmt.
Beweis. Die Existenz einer solchen Faktorisierung folgt aus Lemma 1.15 und der Eigenschaft von P . Wir beweisen die Eindeutigkeit durch Induktion nach der kleinstmöglichen Anzahl der Primfaktoren in einer solchen Faktorisierung. Der Induktionsanfang, a ∈ R× , ist klar. Sei a = up1 · · · pm+1 eine Faktorisierung mit kleinstmöglicher Anzahl der Primfaktoren sowie a = u0 p01 · · · p0m0 +1 eine andere Faktorisierung
für ein m0 ∈ N mit u0 ∈ R× und p01 , . . . , p0m0 +1 ∈ P . Also ist pm+1 ein Teiler von a
und daraus folgt, pm+1 ist auch Teiler von p0i for ein i mit 1 ≤ i ≤ m0 + 1. Nach der
Eigenschaft von P gilt p0i = pm+1 . Es folgt,
up1 · · · pm = u0 p01 · · · p0i−1 p0i+1 · · · p0m0 +1 .
Nach der Induktionshypothese haben wir u0 = u und m0 = m und unterscheiden sich
p1 , . . . , pm und p01 , . . . , p0i−1 , p0i+1 , . . . , p0m0 +1 nur in der Reihenfolge.
1.6
Restklassenkörper und Körpererweiterungen
Sind K und L Körper, so folgt direkt aus der Definition, dass alle Homomorphismen von Ringen mit Eins K → L injektiv sind. Deshalb spricht man von Körpereinbettungen von K oder, wenn es um eine Inklusion K ⊂ L geht, von einer
Körpererweiterung L/K.
Nach Proposition 1.14 entsteht für einen euklidischen Ring R und Primelement p ∈ R
ein Restklassenkörper R/pR mit surjektivem Homomorphismus von Ringen mit
Eins
R → R/pR
(Reduktion modulo p, oft geschrieben a 7→ ā). Aus Gründen der Effizienz erlauben wir
auch p = 0 und in diesem Fall betrachten wir den injektiven Homomorphismus von R
nach dem Körper, der durch die Einführung von Brüchen entsteht (siehe Diskussion
vor Propositionen 1.11 und 1.12) – dem sogennanten Quotientenkörper. Für die
wichtigsten euklidischen Ringe erhalten wir für p = 0 bzw. p ∈ P (§1.5):
• Im Fall R = Z die Primkörper Q bzw. Z/pZ für alle Primzahlen p ∈ Z.
• Im Fall R = K[T ] für einen Körper K die einfachen Körpererweiterungen
K(T ) bzw. alle Körpererweiterung L/K derart, dass es ein x ∈ L gibt, so dass
1.6. Restklassenkörper und Körpererweiterungen
23
L = {c0 + c1 x + · · · + cn−1 xn−1 | c0 , . . . , cn−1 ∈ K} für ein n ∈ N>0 (ist n so
klein wie möglich und xn als c0 +c1 x+· · ·+cn−1 xn−1 geschrieben, so entspricht
L dem Fall p = T n − cn−1 T n−1 − · · · − c1 T − c0 ).
Proposition 1.17. Sei R ein Ring mit Einselement 1R ∈ R. Dan gibt es einen
eindeutigen Homomorphismus Z → R von Ringen mit Eins.
Beweis. Sei s : R → R, s(a) := a + 1R . Mit der Iteration Is von s definieren wir
f : N → R, f (n) := Is (0, n). Für m, n ∈ N gilt f (m + n) = f (m) + f (n) (Induktion
nach n), deshalb lässt sich f durch f (m − n) := f (m) − f (n) zu einer Abbildung
Z → R erweitern und es gilt f (a+b) = f (a)+f (b) für alle a, b ∈ Z. Aus f (a(n+1)) =
f (an+a) = f (an)+f (a) ist durch Induktion nach n zu verifizieren: f (an) = f (a)f (n)
für alle a ∈ Z und n ∈ N. Es folgt: f (ab) = f (a)f (b) für alle a, b ∈ Z. Wir haben
f (1) = 1R , also ist f ein Homomorphismus von Ringen mit Eins.
Sind f , g : Z → R Homomorphismen von Ringen mit Eins, so folgt aus f (1) = 1R =
g(1) durch Induktion nach n, dass f (n) = g(n) gilt für alle n ∈ N, deshalb, f = g.
Proposition 1.18. Sei K ein Körper, sei f : Z → K der eindeutige Homomorphismus von Ringen mit Eins (Proposition 1.17). Ist f injektiv, so gibt es eine eindeutige
Erweiterung zu einer Körpereinbettung
Q → K.
Sonst ist die kleinste positive natürliche Zahl in ker(f ) eine Primzahl p und f induziert eine Körpereinbettung
Z/pZ → K.
Des Weiteren hat p := 0 im ersten Fall und die Primzahl p im zweiten Fall die
Eigenschaft:
ker(f ) = pZ.
Beweis. Zuerst behandeln wir den Fall, dass f injektiv ist. Aus f (ab) = f (a)f (b) für
alle a, b ∈ Z und f (b) 6= 0 für alle b ∈ Z r {0} folgt, dass
f
a
:= f (a)f (b)−1
b
eine Erweiterung von f zu einer Abbildung Q → K definiert. Es gilt, für a, b, a0 ,
b0 ∈ Z mit b, b0 6= 0:
f
a a0 + 0 = (f (a)f (b0 ) + f (a0 )f (b))(f (b)f (b0 ))−1 = f (a)f (b)−1 + f (a0 )f (b0 )−1
b
b
a
a0 +f 0
=f
b
b
24
1. Grundlagen und algebraische Strukturen
und
f
a a0 a a0 · 0 = f (a)f (a0 )(f (b)f (b0 ))−1 = f (a)f (b)−1 f (a0 )f (b0 )−1 = f
f 0 .
b b
b
b
Die Eindeutigkeit ist klar, durch die Betrachtung von f (a) = f ((a/b)b).
Sei nun p ∈ N>0 mit f (p) = 0 aber f (n) 6= 0 für alle 0 < n < p. Sei a ∈ Z
mit f (a) = 0. Nach der euklidischen Eigenschaft ist p ein Teiler von a, denn wir
könnten sonst a = qp + r schreiben mit q, r ∈ Z und 0 < r < p, aber f (r) 6= 0,
also Widerspruch. Wir behaupten, p ist eine Primzahl. Sonst gibt es b, b0 ∈ Z mit
1 < b, b0 < p und bb0 = p und wir haben aus f (b)f (b0 ) = f (p) = 0 und f (b), f (b0 ) 6= 0
eine Widerspruch. Da f (p) = 0 ist die Abbildung Z/pZ → K, a + pZ 7→ f (a),
wohldefiniert.
Definition. Die zum Körper K assoziierte Zahl p (Proposition 1.18) heisst Charakteristik von K und wird mit char(K) bezeichnet.
Nach Proposition 1.17 ist klar: Ist L/K eine Körpererweiterung, so haben K und
L dieselbe Charakteristik und das Gleiche gilt für eine beliebige Körpereinbettung
K → L.
√
√
Beispiele von Körpern der Charakteristik 0 sind Q und die Körper Q[ d] √
= Q( d),
die für Nichtquadrate d ∈ Z entstehen, wenn man in der Definition von Z[ d] (§1.5)
Z durch Q ersetzt.
Sei p eine Primzahl. Neben dem Primkörper Z/pZ, der auch mit Fp bezeichnet wird
(das F erinnert ans englische Wort für Körper: field ), sind auch deren einfache Körpererweiterungen sogar in Anwendungen (Kryptographie usw.) wichtig, zum Beispiel,
im Fall p = 2 der Körper mit 4 Elementen F4 :
• F4 kann als einfache Körpererweiterung von F2 realisiert werden, in dem wir
p := T 2 + T + 1 in der Konstruktion von den Restklassenkörpern von F2 [T ]
nehmen.
• Konkret haben wir für F4 die folgende Additions- bzw. Multiplikationstabelle:
+
0
1
x
1+x
0
0
1
x
1+x
1
1
0
1+x
x
x
x
1+x
0
1
1+x 1+x
x
1
0
·
0
1
x
1+x
0
1
x
1+x
0
0
0
0
0
1
x
1+x
0
x
1+x
1
0 1+x
1
x
Zurück zur Charakteristik 0, so sitzt der Körper Q in einer Kette von Konstruktionen:
N ⊂ Z ⊂ Q ⊂ R ⊂ C.
25
Auf N haben wir die Totalordnung ≤, die schon zum Ring Z erweitert worden ist
und sich auf ähnliche Weise zum Körper Q erweitern lässt: für a, a0 ∈ Z, b, b0 ∈ N>0 ,
a
a0
≤ 0 :⇔ ab0 ≤ a0 b.
b
b
Dann ist Q ein geordneter Körper, d.h., die Eigenschaften
a≤b⇒a+c≤b+c
und
a, b ≥ 0 ⇒ ab ≥ 0
für alle a, b, c, die schon in Z nachgewiesen wurden, sind gültig in Q.
Es ist Sache der Vorlesung Analysis I, die Erweiterung von Q auf R (reelle Zahlen)
durchzuführen. Verschiedene Konstruktionen sind möglich. Unter den geordneten
Körpern lässt sich R durch die Eigenschaften von Dedekind-Vollständigkeit charakterisieren, d.h., dass jede nichtleere und nach oben beschränkte Teilmenge eine kleinste obere Schranke besitzt. Zwischen zwei geordneten Körpern mit dieser Eigenschaft
gibt es einen eindeutigen Isomorphismus von Körpern.
Sobald der Körper
√ R vorhanden ist, entsteht C (komplexe Zahlen) durch das Adjungieren von −1, genau wie schon mit dem Ring Z und dem Körper Q gemacht
worden ist:
C := {(a, b) ∈ R × R} mit (a, b) + (a0 , b0 ) := (a + a0 , b + b0 ),
√
(a, b) · (a0 , b0 ) := (aa0 − bb0 , ab0 + a0 b) und Schreibweise a + b −1 ∈ C;
√
−1 wird auch als i geschrieben und das allgemeine Element von C als a + bi mit
a, b ∈ R. Es entsteht der Körper C: für 0 6= a + bi ∈ C (d.h., a 6= 0 oder b 6= 0) gilt
(a + bi)−1 =
a
b
−
i.
a2 + b2 a2 + b2
Die Abbildung C → C, a + bi 7→ a − bi, heisst komplexe Konjugation und ist ein
Körperautomorphismus. Die zur z := a + bi konjugierte komplexe Zahl a − bi wird
2
2
mit z̄ bezeichnet.
|z|2 ,
√ Wir erkennen a + b (aus obiger Formel) als z · z̄ und auch als
2
2
2
wobei |z| := a + b . Der Körper C kann nicht angeordnet werden, denn i = −1
während Quadrate in geordneten Körpern stets ≥ 0 sind.
2
Lineare Abbildung und Matrizen
In der Praxis werden oft Gleichungssysteme gestellt, für die wir die Lösungsmenge in
Rn suchen, wobei n die Anzahl der Unbekannten ist. Welche Struktur hat Rn ? Mit
der üblichen komponentenweisen Addition ist Rn eine abelsche Gruppe. Aber ausser
dem Trivialfall n = 1, dem Spezialfall n = 2, bei dem sich R2 mit C identifizieren
26
2. Lineare Abbildung und Matrizen
lässt, und einem weiteren Spezialfall gibt es keine praxisbezogene zweite assoziative
Verknüpfung,2 also sehen wir keine günstige Struktur als Ring oder Körper.
Komponentenweise Multiplikation – eine denkbare Option – erweist sich selbt im Fall
n = 2 als fernab der Geometrie. Nützlich hingegen ist die Skalarmultiplikation, wobei
mit einer gegebenen reellen Zahl alle Koordinaten multipliziert werden. Durch die
Skalarmultiplikation entsteht die zur linearen Algebra allgegenwärtige algebraische
Struktur des Vektorraums.
2.1
Vektorräume
Der Raum Rn = {(a1 , . . . , an ) | a1 , . . . , an ∈ R} wird mit Skalarmultiplikation als
Vektorraum angesehen. Ist K ein beliebiger Körper, so wird ebenfalls K n angesehen.
Definition. Sei K ein Körper. Ein Vektorraum über K ist eine Menge V mit
Verknüpfung + : V × V → V und Skalarmultiplikation · : K × V → V , so dass die
folgenden vier Eigenschaften erfüllt sind.
• V mit + ist eine abelsche Gruppe.
• Für alle a, b ∈ K und v ∈ V gilt (ab) · v = a · (b · v).
• Für alle v ∈ V gilt 1 · v = v.
• Für alle a, b ∈ K und v, w ∈ V gilt:
a · (v + w) = a · v + a · w
und
(a + b) · v = a · v + b · v.
Auch wird V als K-Vektorraum beschrieben. Es gibt formelle Ähnlichkeiten mit der
Definition des Ringes. Ähnlich auch ist die Folgerung von anderen Eigenschaften aus
der Definition des Vektorraums, wie z.B.:
• 0 · v = 0 für alle v ∈ V und a · 0 = 0 für alle a ∈ K.
• (−1) · v = −v für alle v ∈ V .
Also ist K n ein Vektorraum über K mit Addition
(b1 , . . . , bn ) + (c1 , . . . , cn ) := (b1 + c1 , . . . , bn + cn )
und Skalarmultiplikation
a · (b1 , . . . , bn ) := (ab1 , . . . , abn )
2
Beim Fall n = 4 lässt sich R4 mit den sogenannten Quaternionen identifizieren. Dass damit die
Liste der Spezialfälle vollständig ist, wurde in einem gewissen Sinn durch ein Resultat von Frobenius
rechtfertigt.
2.1. Vektorräume
27
für a ∈ K und (b1 , . . . , bn ), (c1 , . . . , cn ) ∈ K n .
Es kommt häufig vor, dass eine Lösungsmenge, z.B., in Rn , auch die Struktur eines
Vektorraums hat.
Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge U ⊂ V
heisst Untervektorraum wenn die folgenden drei Bedingungen erfüllt sind.
• Es gilt 0 ∈ U .
• Sind u, u0 ∈ U , so ist auch u + u0 ∈ U .
• Für alle a ∈ K und u ∈ U ist a · u ∈ U .
Mit + und · von V bekommt ein solches U die Struktur eines K-Vectorraums.
Definition. Sei K ein Körper, seien V und W Vektorräume über K. Eine lineare
Abbildung ist eine Abbildung f : V → W , die bezüglich der Gruppenstrukturen
ein Homomorphismus ist und im folgenden Sinn kompatibel ist mit den jeweiligen
Skalarmultiplikationen: f (a · v) = a · f (v) für alle a ∈ K und v ∈ V .
Die Menge aller linearen Abbildungen V → W wird mit HomK (V, W ) bezeichnet.
Mit f + g := (v 7→ f (v) + g(v)) und a · f := (v 7→ a · f (v)) für a ∈ K und f ,
g ∈ HomK (V, W ) ist HomK (V, W ) ein K-Vectorraum.
Zu den wichtigen Eigenschaften einer linearen Abbildungen f : V → W gehören:
• Das Bild im(f ) ist ein Untervektorraum von W .
• Der Kern ker(f ) ist ein Untervektorraum von V .
Wie in §1.3 wird ker(f ) := {v ∈ V | f (v) = 0} definiert; es gilt auch: ker(f ) = 0 ⇔
f ist injektiv. Es gibt die folgenden Verallgemeinerungen:
• Das Bild f (U ) von einem beliebigen Untervektorraum U ⊂ V ist ein Untervektorraum von W .
• Das Urbild f −1 (Z) von einem beliebigen Untervektorraum Z ⊂ W ist ein
Untervektorraum von V .
Das Urbild f −1 (Z) ist die Menge aller Elemente aus V , die unter f in Z abgebildet
werden. Das Urbild f −1 (w) eines beliebigen Elements w ∈ W hingegen heisst Faser
über w und ist nur im Fall w = 0 ein Untervektorraum von V .
Definition. Sei K ein Körper, V ein K-Vektorraum und U ⊂ V ein Untervektoraum.
Die Menge aller Äquivalenzklassen für die Äquivalenzrelation
v ∼ v 0 :⇔ v − v 0 ∈ U
28
2. Lineare Abbildung und Matrizen
auf V wird mit
(v + U ) + (v 0 + U ) := v + v 0 + U
a · (v + U ) := a · v + U
und
die Struktur eines K-Vektorraums gegeben, Quotientenvektorraum genannt und
mit V /U bezeichnet. Ist W ein weiterer K-Vektorraum und f : V → W eine lineare
Abbildung, so wird W/ im(f ) Kokern von f genannt und mit coker(f ) bezeichnet.
In diesen Situationen gibt es offensichtliche surjektive lineare Abbildungen
V → V /U
bzw.
W → coker(f ),
wobei v ∈ V auf v + U abgeblidet wird, bzw. w ∈ W auf w + im(f ). Beide heissen
kanonische lineare Abbildung. Wenn vom Kontext klar ist, um welchen Quotientenvektorraum es geht, wird v + U auch mit v̄ bezeichnet.
2.2
Matrizen
Sei K ein Körper, seien m, n ∈ N. Wir haben die K-Vektorräume K m und K n . Wir
betrachten nun die linearen Abbildungen f : K n → K m .
In K n gibt es spezielle Elemente
e1 := (1, 0, . . . , 0),
e2 := (0, 1, . . . , 0),
...
en := (0, . . . , 0, 1).
Eine lineare Abbildung f : K n → K m ist eindeutig durch
v1 := f (e1 ),
v2 := f (e2 ),
...
vn := f (en )
charakterisiert, denn ein allgemeines Element (a1 , . . . , an ) ∈ K n wird nach der Definition der linearen Abbildung auf
a1 v1 + · · · + an vn
abgebildet. Umgekehrt lässt sich für beliebige v1 , . . . , vn ∈ K m
e1 7→ v1 ,
e2 7→ v2 ,
...
en 7→ vn
zu einer lineare Abbildung erweitern. Also als Beschreibung einer linearen Abbildung
von K n nach K m gilt ein n-Tupel von Elementen aus K m .
Ein Element aus einem Vektorraum wird auch Vektor genannt. Im Fall eines v ∈
K m haben wir die Notation (a1 , . . . , am ) benutzt. (Formell betrachtet ist dies eine
Abbildung von {i ∈ N | 1 ≤ i ≤ m} nach K und die Notation ein Kürzel von
(ai )i∈N, 1≤i≤m .) Ein solcher Vektor wird auch als Spaltenvektor geschrieben:
 
a1
 .. 
 . 
am
2.2. Matrizen
29
Für die Beschreibung einer linearen Abbildung f : K n → K m brauchen wir n solche
Vektoren, die mithilfe eines Doppelindex auseinanderzuhalten sind:

 



a11
a12
a1n
 ..   .. 
 . 
 .  ,  .  , . . . ,  ..  .
am1
am2
amn
So setzen wir die n Vektoren zusammen und die Matrix


a11 a12 . . . a1n
 ..
..
.. 
 .
.
. 
am1 am2 . . .
amn
bilden. Eine solche Matrix wird als Matrix der Grösse m × n über K beschrieben
und die Menge aller solchen Matrizen mit Mat(m × n, K) bezeichnet. Die Matrizen
der Grösse m × n über K bilden einen Vektorraum mit Addition

 

b11 b12 . . . b1n
c11 c12 . . . c1n
 ..
..
..  +  ..
..
.. 
 .
.
.   .
.
. 
bm1 bm2 . . .
bmn
cm1 cm2 . . . cmn

b11 + c11
b12 + c12

.
..
..
:= 
.
...
bm1 + cm1 bm2 + cm2 . . .
und Skalarmultiplikation

b11 b12 . . .
 ..
..
a· .
.
bm1 bm2 . . .


b1n
ab11
..  :=  ..
 .
. 
bmn
ab12
..
.
...
abm1 abm2 . . .

b1n + c1n

..

.
bmn + cmn

ab1n
..  .
. 
abmn
Proposition 2.1. Sei K ein Körper, seien m, n ∈ N. Die Auswertung an e1 , . . . ,
en ∈ K n ergibt einen Isomorphismus von K-Vektorräumen
HomK (K n , K m ) → Mat(m × n, K),
wobei ein n-Tupel von Vektoren aus K m , als Spaltenvektoren betrachtet, zu einer
m × n-Matrix zusammengesetzt wird.
Beweis. Wie schoen erklärt, ergibt die Auswertung an e1 , . . . , en eine bijektive Abbildung. Die Kompatibilität mit Addition und Skalarmultiplikation ist klar.
Der Kern bzw. das Bild einer Matrix ist der Kern bzw. das Bild der entsprechenden
linearen Abbildung.
Sei K ein Körper, seien `, m, n ∈ N. Die Komposition von linearen Abbildungen
definiert eine Abbildung
HomK (K m , K ` ) × HomK (K n , K m ) → HomK (K n , K ` ).
30
2. Lineare Abbildung und Matrizen
Definition. Ist K ein Körper, sind `, m, n ∈ N, so nennen wir Matrixmultiplikation die zur Komposition von linearen Abbildungen entsprechenden Abbildung
Mat(` × m, K) × Mat(m × n, K) → Mat(` × n, K).
Das Produkt C := AB der Matrizen


a11 a12 . . . a1m

..
.. 
A :=  ...
.
. 
a`1 a`2 . . . a`m
ist durch

und
b11 b12 . . .
 ..
..
B :=  .
.
bm1 bm2 . . .

c11 c12 . . .
 ..
..
C :=  .
.
c`1 c`2 . . .
(1)

b1n
.. 
. 
bmn

c1n
.. 
. 
c`n
mit
cij = ai1 b1j + · · · + aim bmj
gegeben.
Die angegebene Formel für AB wird dadurch erklärt, dass die zu B entsprechende
lineare Abbildung durch
ej 7→ (b1j , . . . , bmj )
für alle j charakterisiert ist und der Vektor rechts, unter der zu A entsprechenden
linearen Abbildung, auf den Vektor mit i-tem Eintrag
ai1 b1j + · · · + aim bmj
für alle i abgebildet wird.
Die Komposition von Abbildungen ist stets assoziativ. Es folgt, für einen Körper K
und k, `, m, n ∈ N:
(AB)C = A(BC)
für alle A ∈ Mat(k × `, K), B ∈ Mat(` × m, K) und C ∈ Mat(m × n, K).
Der Spezialfall n = 1 von (1) ist die Multipliation einer Matrix mit einem Spaltenvektor:
   

a11 a12 . . . a1m
b1
c1
 ..
..
..   ..  =  .. 
 .
.
.  .   . 
a`1
a`2 . . .
a`m
bm
c`
mit
ci = ai1 b1 + · · · + aim bm
für alle i. Ist f : K m → K ` die zur Matrix entsprecheden Abbildung, so gilt auch
f (b) = c,
2.3. Gauss’sches Eliminationsverfahren
31
wobei b = (b1 , . . . , bm ) ∈ K m und c = (c1 , . . . , c` ) ∈ K ` die entsprechenden Vektoren bezeichnen. Proposition 2.1 lässt sich auch so beschreiben: die zur Matrix
A ∈ Mat(m × n, K) entsprechende Abbildung ist K n → K m , x 7→ Ax.
Ein bemerkenswerter Fall ist HomK (K n , K n ) für einen Körper K und n ∈ N. Wie
in §1.3 wird dies mit End(K n ) bezeichnet und mit den Verknüpfungen Addition und
Komposition als Ring betrachtet. Durch Proposition 2.1 ist auch
Mn (K) := Mat(n × n, K)
mit Addition und Matrixmultiplikation ein Ring. Der zum identischen Endomorphismus idK n entsprechende Matrix wird mit En bezeichnet:


1 0 ... 0
0 1 . . . 0


En =  . . .
∈ Mat(n × n, K).
. . ... 
 .. ..

0 0 ...
1
Die Matrix En heisst Einheitsmatrix und ist Einselement von Mn (R). Wir führen
auch
GLn (K) := Mn (K)×
ein, die allgemeine lineare Gruppe. Für n ≥ 2 ist dies eine nichtabelsche Gruppe.
2.3
Gauss’sches Eliminationsverfahren
Sei
a11 x1 + a12 x2 + · · · + a1n xn = b1 ,
...
am1 x1 + am2 x2 + · · · + amn xn = bm ,
ein lineares Gleichungssystem über einem Körper K. Mit den Begriffen aus §2.1 ist
eine lineare Abbildung
f : K n → K m,
eindeutig durch


a1j


ej 7→  ... 
amj
für alle j angegeben, wobei als Lösungsmenge gilt der Faser f −1 (b) für
 
b1
 .. 
b :=  .  .
bm
32
2. Lineare Abbildung und Matrizen
Der zu f entsprechende Matrix (§2.2)

a11
 ..
A :=  .
a12
..
.
...
am1 am2 . . .

a1n
.. 
. 
amn
führt zur Matrixform
Ax = b
des angegebenen Gleichungssystems, wobei x = (x1 , . . . , xn ) einen unbekannten Spaltenvektor bezeichnet.
Falls b = 0 heisst das entsprechende Gleichungssystem homogen. Die Lösungsmenge
ist ker(A).
Im allgemeinen Fall kann die Lösungsmenge, wenn nicht leer, so beschrieben werden:
ist x∗ ∈ K n eine Lösung, so ist die Lösungsmenge
x∗ + ker(A).
Wir beschreiben ein Verfahren, dass auf praktische Weise erlaubt, ker(A) zu berechnen, zu bestimmen ob eine Lösung existiert und falls ja eine bestimmte Lösung sowie
die allgemeine Lösung zu berechnen.
Die Strategie ist, das Gleichungssystem iterativ durch äquivalente Systeme zu ersetzen bis ein System steht, für das die Aufgaben leicht zu erledigen sind. Dabei
betrachten wir zwei Gleichungssystems als äquivalent, wenn eine sich aus der anderen herleiten lässt sowie umgekehrt.
Die folgenden zwei Operationen ersetzen ein angegebenes Gleichungssystem durch
ein äquivalentes System:
• Eine Gleichung mit einer von Null verschiedenen Konstanten multiplizieren.
• Ein Vielfaches einer Gleichung zu einer anderen addieren.
Entsprechend sind die Operationen, welche wir auf die Matrix A und auf den Spaltenvektor b anwenden:
• Eine Zeile mit einer von Null verschiedenen Konstanten multiplizieren.
• Ein Vielfaches einer Zeile zu einer anderen addieren.
Eine solche Operation heisst elementare Zeilenumformung.
Tätschlich lassen sich alle elementaren Zeilenumformung durchgeführt werden durch
Linksmultiplikation mit geeigneten Elementarmatrizen aus GLm (K). Für 1 ≤ i ≤
2.3. Gauss’sches Eliminationsverfahren
33
m und c ∈ K × bewirkt die Linksmultiplikation mit der Diagonalmatrix


1
...
0
 1



 ..
.
..
.. 
.

.




c




..

. 
0
...
1
mit (i, i)-Eintrag c das Multiplizieren der i-ten Zeile mit c. Für das Addieren eines
Vielfachen der j-ten Zeile zu der i-ten:

1
...
 1

 ..
..
.
.


c
0
...

0


.. 
.


1
mit Diagonaleinträgen 1 und c ∈ K an der (i, j)-Stelle (i 6= j).
Das Gauss’sche Eliminationsverfahren ist eine Implementierung dieser Strategie. Wir
beschreiben zuerst eine Klasse von Matrizen, for die es leicht ist, die Lösungsmenge
eines entsprechenden Gleichungssystems zu beschreiben.
Definition. Eine Matrix A ∈ Mat(m × n, K) über einem Körper K ist in Zeilenstufenform falls es ein r ∈ N mit r ≤ m und 1 ≤ p1 < p2 < · · · < pr ≤ n gibt, so
dass:
• Für alle i mit 1 ≤ i ≤ r findet sich in der i-ten Zeile von A ein von Null
verschiedener Eintrag in der pi -ten Spalte und links davon ausschliesslich Null.
• Für alle i mit r < i ≤ m ist die ganze i-te Zeile von A Null.
Folgendes gilt als Mass, wie weit eine beliebige Matrix A von der Zeilenstufenform
ist. Wir nehmen s ∈ N≤m so gross wie möglich, dass gilt:
• Die ersten s Zeilen von A bilden eine Matrix in Zeilenstufenform für irgendein
r ∈ N mit r ≤ s und 1 ≤ p1 < p2 < · · · < pr ≤ n.
• Falls 1 ≤ s < m gilt r = s und aij = 0 für alle s < i ≤ m und 1 ≤ j ≤ ps .
Mit s(A) wird dieses s ∈ N≤m bezeichnet. Nach der Definition gilt: s(A) = m genau
dann, wenn A in Zeilenstufenform ist.
34
2. Lineare Abbildung und Matrizen
Proposition 2.2 (Gauss-Verfahren). Sei A = (aij )1≤i≤m, 1≤j≤n ∈ Mat(m × n, K)
eine Matrix über einem Körper K. Dann kann A in Zeilenstufenform gebracht werden
durch die Iteration des folgenden Verfahrens, bei dem man aus A durch elementare
Zeilenumformungen des Typs „ein Vielfaches einer Zeile zu einer anderen addieren“
zu einer Matrix A00 kommt und die Matrix A durch A00 ersetzt. Es sei s := s(A) < m
und p1 < · · · < ps wie in der Definition von s(A). Sei j 0 ∈ N>0 so klein wie möglich,
dass es ein i0 > s gibt mit ai0 j 0 6= 0. Dann sei i0 > s so klein wie möglich mit ai0 j 0 6= 0.
Ist i0 > s + 1, so entsteht durch das Addieren der i0 -ten Zeile zur (s + 1)-ten eine
Matrix A0 = (a0ij ) mit s(A0 ) = s, unveränderten p1 < · · · < ps und a0s+1,j 0 6= 0 mit
a0ij = 0 für alle i > s und j < j 0 ; sonst setzen wir A0 := A. Dann entsteht A00 durch
das Addieren der (−a0ij 0 /a0s+1,j 0 )-Vielfachen der (s + 1)-ten Zeile zur i-ten für alle
i > s + 1.
Beweis. Es genügt, zu zeigen: ist s := s(A) < m, so gilt s(A00 ) > s. Erstens kommt
aus dem Verfahren eine Matrix A0 , deren erste s Zeilen unverändert sind im Vergleich
mit A. Ist s ≥ 1, so gilt j 0 > ps und a0ij = 0 für alle i > s und j ≤ ps , also gilt
s(A0 ) ≥ s. Ist i0 > s + 1, so gilt a0s+1,j 0 = a0i0 j 0 6= 0 und es folgt: s(A0 ) = s. Nach den
weiteren elementaren Zeilenumformungen gilt für A00 = (a00ij ), dass a00ij 0 = 0 für alle
i > s + 1, während noch a00ij = 0 für i ≥ s + 1 und j < j 0 . Also gilt s(A00 ) > s.
Beispiel. Wir betrachten das Gleichungssystem über R:
x1 − x2 − 2x3 = 1,
−2x1 − x2 + x3 = 0,
x1 + 2x1 + x3 = −1.
Entsprechend sind:

1 −1 −2
A = −2 −1 1 
1
2
1

1
b =  0 .
−1


und
Es gilt s(A) = 0, nach dem Gauss-Verfahren addieren wir zweimal der ersten Zeile
zur zweiten und (−1)-mal der ersten zur dritten; das Gleiche auch mit dem Vektor:


 
1 −1 −2
1
A1 = 0 −3 −3
und
b1 =  2  .
0 3
3
−2
(Der Index 1 deutet 1 Schritt Gauss-Verfahren an.) Es gilt s(A1 ) = 1, jetzt addieren
wir die zweite Zeile zur dritten:


 
1 −1 −2
1



A2 = 0 −3 −3
und
b2 = 2 .
0 0
0
0
2.3. Gauss’sches Eliminationsverfahren
35
Die Matrix A2 ist in Zeilenstufenform. Jetzt ist die Lösungen klar: x2 = −2/3 − x3
und x1 = 1 + x2 + 2x3 = 1/3 + x3 .
In einer solchen Berechnung können die Matrix und Vektor zusammengesetzt werden:






1 −1 −2 1
1 −1 −2 1
1 −1 −2 1
−2 −1 1
0 −3 −3 2 
0 −3 −3 2
0
1
2
1 −1
0 3
3 −2
0 0
0 0
Ist
Ax = b
die Matrixform eines Gleichungssystems, wobei A in Zeilenstufenform ist mit entsprechendem r sowie p1 < · · · < pr , so können wir die Lösungsmenge folgenderweise
beschreiben:
• Gibt es eine i > r mit bi 6= 0, so hat das Gleichungssystem keine Lösung.
• Sonst ist die Lösungsmenge nicht leer und zwar kann der Wert von xj für
alle 1 ≤ j ≤ n mit j ∈
/ {p1 , . . . , pr } frei aus K ausgewählt werden und mit
den r nichttrivialen Gleichungen eindeutig nach xpr , dann xpr−1 usw. bis xp1
aufgelöst.
Für alle i wird der Matrixeintrag an der (i, pi )-Stelle Pivot genannt. Also dient das
i-te Pivot das Auflösen nach xpi .
Der Fall b = 0 führt zur Berechnung von ker(A).
Bemerkung. Das Vertauschen zweier Zeilen wird oft auch als elementare Zeilenumformung bezeichnet. Immerhin können die i-te und j-te Zeilen (i 6= j) einer Matrix
vertauscht werden, in dem wir die i-te zur j-ten addieren, das (−1)-fache der j-te
zur i-ten, wieder die i-te zur j-ten addieren und die i-te mit −1 multiplizieren.
Obwohl das Gauss-Verfahren ein wohldefinierter Algorithmus ist, können auch Varianten verwendet werden.
Beispiel. Sei

0
1
A := 
0
1
Wir berechnen ker(A) mit dem
Gauss-Verfahren:


1 5
2
1
0 −2 −1 0 


A
0 1
2
1
0 −1 −2 −1
2
3
1
4
1
1
2
0

0
1
 ∈ Mat(4 × 4, R).
1
0
Gauss-Verfahren und mit einer Variante. Mit dem


1 5
2
1
0 −2 −1
0


0 0
3/2
1
0 0 −3/2 −1


1 5
2 1
0 −2 −1 0


0 0 3/2 1 .
0 0
0 0
36
2. Lineare Abbildung und Matrizen
Als Variante nehmen wir im ersten Schritt i0 = 4 anstatt von
wir:





1 6
1 0
1 6
1
0
1
0 −3 0 1
0 −3 0

0
1





A
0 1
0 0
0
2 1
2
4/3 
0 −2 −1 0
0 0 −1 −2/3
0
2. Dann bekommen
6
−3
0
0

1 0
0 1 
.
2 4/3
0 0
Definition. Eine Matrix A = (aij ) ∈ Mat(m × n, K) über einem Körper K ist in
reduzierter Zeilenstufenform falls A in Zeilenstufenform mit einem r ∈ N und
1 ≤ p1 < p2 < · · · < pr ≤ n und zusätzlich gilt:
• ai,pi = 1 für alle 1 ≤ i ≤ r.
• ai,pj = 0 für alle 1 ≤ i < j ≤ r.
Im letzten Beispiel können wir mit verschiedenen elementaren Zeilenumformungen
(zweite Zeile durch −1/2 multiplizieren usw.) das Ergebnis des Gauss-Verfahrens in
reduzierte Zeilenstufenform bringen:


1 0 0 4/3
0 1 0 −1/3


0 0 1 2/3  .
0 0 0
0
Auch die Matrix aus der Variante lässt sich durch elementare Zeilenumformungen in
reduzierte Zeilenstufenform bringen und zwar zu derselben Matrix.
Proposition 2.3. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K.
Dann kann A durch elementare Zeilenumformungen in reduzierte Zeilenstufenform
gebracht werden, in dem A zuerst durch elementare Zeilenumformungen in eine Matrix A0 = (a0ij ) in Zeilenstufenform überführt wird für ein r und p1 < · · · < pr , aus A0
00
00
durch das Multiplizieren der i-ten Zeile mit a0−1
i,pi für alle 1 ≤ i ≤ r ein A = (aij ) in
00
00
Zeilenstufenform mit ai,pi = 1 für alle i entstanden wird und A durch das Addieren
des −a00i,pj -Vielfachen zur i-ten Zeil für j = 2, . . . , r und alle i < j in reduzierte Zeilenstufenform gebracht wird. Die aus A entstehende Matrix ist eindeutig im
folgenden Sinn: sind S, S 0 ∈ GLm (K) derart, dass, SA und S 0 A in reduzierter Zeilenstufenform sind, so gilt SA = S 0 A.
Für m × n-Matrizen entspricht eine elementare Zeilenumformung der Linksmultiplikation mit einer bestimmten Matrix aus GLm (K). Also entspricht eine Reihe von
elementaren Zeilenumformung der Linksmultiplikation mit dem Produkt (in der richtigen Reihenfolge) der bestimmten Matrizen aus GLm (K).
Wird der erste Schritt, in dem A in eine Matrix A0 in Zeilenstufenform überfürht
wird, durch das Gauss-Verfahren vorgenommen, so entsteht Erweiterung des GaussVerfahrens namens Gauss-Jordan-Algorithmus.
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
37
Beweis. Die Richtigkeit des Algorithmus ist klar. Da durch Linksmultiplikation mit
einer Matrix aus GLm (K) der Kern einer Matrix unverändert bleibt, genügt für die
Eindeutigkeit zu zeigen: zwei verschiedene Matrizen B, B 0 ∈ Mat(m × n, K) in reduzierter Zeilenstufenform haben verschiedene Kerne. Sei j 0 kleinstmöglich, dass die
j 0 -te Spalte von B und j 0 -te Spalte von B 0 verschieden sind. Es gibt zwei Möglichkeiten: (i) es gibt in einer der beiden Matrizen ein Pivot in der j 0 -ten Spalte, in der
anderen nicht; (ii) es gibt weder in B noch in B 0 ein Pivot in der j 0 -ten Spalte. Im
Fall (i) können wir wenn nötig die Matrizen B und B 0 vertauschen und dabei in
jedem Fall annehmen, dass B kein Pivot in der j 0 -ten Spalte hat.
Wir definieren ein x = (x1 , . . . , xn ) ∈ K n . Zuerst setzen wir xj 0 := 1 und xj := 0
für alle j > j 0 . Für alle j < j 0 , so dass es kein Pivot in der j-ten Spalte (von B
und B 0 gleich), setzen wir auch xj := 0. Nach der Diskussion von Lösungen eines
zu einer Matrix in Zeilenstufenform entsprechenden Gleichungssystems gibt es dann
eindeutige bestimmte xpi für alle i mit pi < j 0 , so dass
Bx = 0.
Denn B hat kein Pivot in der j 0 -te Spalte, also gilt xj 0 als frei wählbar. Die Matrix
B 0 − B hat mindestens einen von Null verschiedenen Eintrag in der j 0 -ten Spalte,
während alle Spalten links davon Null sind. Also gilt (B 0 − B)x 6= 0 und deshalb
B 0 x 6= 0.
Dank der Eindeutigkeit in Proposition 2.3 können wir den Wert von r der Matrix in
reduzierter Zeilenstufenform entnehmen und so als eine Invariante der ursprüngliche
Matrix A betrachten. Dies ist aber nach Proposition 2.3 auch der Wert von r der
Matrix A0 , wobei A0 wie in der Aussage ist.
Definition. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K. Wird A
durch elementare Zeilenumformungen in eine Matrix in Zeilenstufenform mit r Pivots
überführt, so heisst r der Rang von A; in Zeichen: rk(A) = r.
Es gibt auch elementare Spaltenumformung, wobei eine Spalte mit einer von
Null verschiedenen Konstanten multipliziert bzw. ein Vielfaches einer Spalte zu einer
anderen addiert wird. Entsprechend ist die Rechtsmultiplikation mit Matrizen derselben Form wie für die elementaren Zeilenumformung – aber der richtigen Grösse:
wenn es um eine m×n-Matrix geht, ist Rechtsmultiplikation mit geeigneten Matrizen
aus GLn (K) zu betrachten.
2.4
Lineare unabhängigkeit, Erzeugendensystem, Basis
Es ist sehr praktisch, mit Matrizen zu arbeiten. Also sind wir gut vorbereitet, die
Vektorräume K n für alle n und die linearen Abbildungen von und nach diesen Vektorräumen zu betrachten. Es wäre also vorteilhaft, soweit wie möglich alle Vektorräume
im Rahmen der Vektorräume K n anschauen zu können.
38
2. Lineare Abbildung und Matrizen
Dazu führen wir einige Begriffe ein. Die Begriffe lineare Unabhängigkeit, Erzeugendensystem und Basis sind zu einer gegebenen Familie von Vektoren aus einem Vektorraum V anwendbar. Möglich sind: eine Teilmenge S ⊂ V , eine Folge von durch
positive natürliche Zahlen indexierten Vektoren v1 , . . . , vn ∈ V bzw. v1 , v2 , . . . ∈ V
(mit Indexierung von Null als Variante) oder so mit beliebiger Indexmenge (vi )i∈I .
In dem wir eine Teilmenge betrachten können als durch sich selbst indexiert, steht
(vi )i∈I als allgemeine Form einer Familie von Vektoren aus einem Vektorraum.
Wir haben schon e1 := (1, 0, . . . , 0), . . . , en := (0, . . . , 0, 1) ∈ K n gesehen und dabei
davon profitiert, dass alle Elemente von K n als a1 e1 + · · · + an en für a1 , . . . , an ∈ K
geschrieben werden können. Wenn es sich um eine unendliche Familie von Vektoren
handelt ist die folgende Tücke zu beachten: für a1 , a2 , . . . ∈ K hat
a1 v1 + a2 v2 + . . .
keinen Sinn, ausser im Fall, dass nur endlich viele ai von Null verschieden sind.
Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Familie (vi )i∈I von
Vektoren aus V heisst linear unabhängig wenn für alle (ai )i∈I mit ai ∈ K und
ai 6= 0 nur für endlich viele i ∈ I gilt:
X
ai vi = 0 ⇒ (∀i ∈ I : ai = 0).
i∈I
In Worten: (vi )i∈I heisst linear unabhängig, wenn keine nichttriviale Linearkombination von (vi )i∈I Null ergibt.
Als erstes Beispiel gilt e1 , . . . , en ∈ K n .
Im Allgemeinen gilt: ist (ai )i∈I linear unabhängig, so ist auch (ai )i∈I 0 für alle I 0 ⊂ I;
in einer linear unabhängigen Familie (ai )i∈I gilt ai 6= aj für i, j ∈ I mit i 6= j; die
leere Familie () ist stets linear unabhängig.
Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Familie (vi )i∈I von
Vektoren aus V heisst Erzeugendensystem wenn es für alle w ∈ V ein (ai )i∈I mit
ai ∈ K und ai 6= 0 nur für endlich viele i ∈ I gibt mit
X
ai vi = w.
i∈I
Zum Beispiel ist e1 , . . . , en ∈ K n auch ein Erzeugendensystem.
Für eine beliebige Familie (vi )i∈I istPdie Menge aller Vektoren w ∈ V , so dass es
ein (ai )i∈I wie in der Definition mit i∈I ai vi = w gibt, ein Untervektorraum W ⊂
V . Dieses W heisst lineare Hülle von (vi )i∈I oder der von (vi )i∈I aufgespannte
Untervektorraum und wird mit span(vi )i∈I bezeichnet.
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
39
Definition. Eine Basis ist ein linear unabhängiges Erzeugendensystem eines Vektorraums.
Also ist e1 , . . . , en ∈ K n eine Basis, die Standardbasis von K n . Für eine beliebige
Indexmenge I bilden alle Familien (ai )i∈I von Elementen aus K mit ai 6= 0 nur für
endlich viele i ∈ I ein K-Vektorraum mit Standardbasis (ei )i∈I , wobei ei die Familie
bezeichnet mit genau einem von
P Null verschiedenen Wert und zwar den Wert 1 an
der i-ten Stelle. Es gilt dann i∈I ai ei = (ai )i∈I und daraus ist klar, dass (ei )i∈I
eine Basis ist. Dieser Vektorraum ist die direkte Summe
M
K.
i∈I
Nämlich betrachten wir für alle i ∈ I den Vektorraum K (d.h., K n für n = 1),
mit obiger Notation wird die direkte
LSumme von K über alle i ∈ I angedeutet. Mit
einer allgemeinen direkten Summe i∈I Vi wird für alle i ∈ I einen Vektorraum Vi
angegeben und Familien (vi )i∈I mit vi ∈ Vi für alle i betrachtet und vi 6= 0 nur für
endlich viele i ∈ I. Wird für jedes i ∈ I eineLBasis (vj )j∈Ji von Vi angegeben, so
bilden die Familien zusammen eine Basis von i∈I Vi . Als Indexmenge gilt
a
i∈I
Ji :=
[
{(j, i) | j ∈ Ji }.
i∈I
L
Jedes vj ∈ Vi wird mit einem Element von
i∈I Vi identifiziert, das wir mit vji
bezeichnen und das als Familie genau einem von Null verschiedenen Wert hat
` und
zwar den Wert vj anLder i-ten Stelle. DiePFamilie (vji ) indexiert durch (j, i) ∈` i∈I Ji
aji vji = 0 (Summe über (j, i) ∈ i∈I Ji )
ist eine Basis vonP i∈I Vi . Denn aus
folgt für jedes i: j∈Ji aji vj = 0 in Vi und deshalb aji = 0 für alle j ∈ Ji . Ähnlich
ist zu sehen, das (vji ) auch ein Erzeugendensystem ist.
Man kann auch die Bedingung, dass vi 6= 0 nur für endlich viele i ∈ I, weglassen
Q und
so auch einen Vektorraum bekommen, der direktes L
Produkt heisst und mit i∈I Vi
bezeichnet wird. Man Q
kann, zum Beispiel, HomK ( i∈I K, V ) für einen beliebigen
K-Vektorraum V mit i∈I V identifizieren durch f 7→ (f (ei ))i∈I .
Es folgt von den Definitionen: ist (vi )i∈I eine linear unabhängige Familie von Vektoren aus einem Vektorraum, so ist (vi )i∈I eine Basis von span(vi )i∈I .
Beispiel. Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I eine Basis und J ⊂ I eine
Teilmenge. Wir setzen U := span(vi )i∈J , also ist (vi )i∈J eine Basis P
von U . Für den
Quotientvektorraum V /U gilt nun: (v̄i )i∈IrJ ist eine Basis. Sei also i∈IrJ ai v̄i = 0
eine lineare
PRelation (d.h., ai ∈ K und ai 6= 0 nur für endlich
P viele i ∈ I r J). Dies
bedeutet, i∈IrJ
P
P ai vi = u für ein u ∈ U . Wir können u = j∈J bj vj schreiben. Aus
a
v
=
j folgt ai = 0 für alle i ∈ I (und auch bj = 0 für
i∈IrJ i i
j∈J bj vP
Palle j ∈ J).
Ist v ∈ V , so kann v = i∈I ai vi geschrieben werden und es folgt, v̄ = i∈IrJ ai v̄i .
40
2. Lineare Abbildung und Matrizen
Proposition 2.4. Sei K ein Körper, V ein K-Vektorraum und (vi )i∈I eine Familie
von Vektoren aus V . Dann sind die folgenden Aussagen äquivalent.
(i) (vi )i∈I ist eine Basis von V .
(ii) Für alle w ∈ V gibt es eine eindeutige Familie (ai )i∈I von Elementen aus K
mit ai 6= 0 nur für endlich viele i ∈ I, so dass
X
ai vi = w.
i∈I
Beweis. (i) ⇒ (ii): Sei (vi )i∈I eine Basis, also ein linear unabhängiges Erzeugendensystem. Für w ∈ W gibt es ein (ai )i∈I wie in der Definition
des Erzeugendensystems,
P
d.h., mit ai 6= 0 nur für endlich viele i ∈ I und i∈I ai vi = w. Sei (a0i )i∈I auch so.
Dann gilt für (ai − a0i )i∈I :
X
(ai − a0i )vi = 0.
i∈I
Nach der Definition der linearen Unabhängigkeit folgt ai = a0i für alle i.
(ii) ⇒ (i): Wir wenden die in (ii) erwähnte Eigenschaft zu 0 ∈ V auf. Also gilt für
(ai )i∈I mit ai 6= 0 nur für endlich veile i ∈ I nach der Eigenschaft in (ii):
X
i∈I
ai vi = 0 =
X
0vi ⇒ (∀i : ai = 0).
i∈I
Deshalb ist (vi )i∈I linear unabhängig.
Für alle w ∈ W gibt es ein (ai )i∈I mit ai 6= 0
P
nur für endlich viele i ∈ I und i∈I ai vi = w. Also ist (vi )i∈I auch ein Erzeugendensystem.
Proposition 2.4 deutet eine wichtige Eigenschaft einer Basis an: mit einer Basis eines
Vektorraums V kann man alle Elementen aus V eindeutig als Linearkombinationen der Basiselemente darstellen. Anders gesagt entspricht eine Familie (vi )i∈I eine
lineare Abbildung
M
f:
K→V
i∈I
mit f (ei ) = vi für alle i ∈ I und dann: Die Familie (vi )i∈I ist genau dann eine Basis,
wenn f ein Isomorphismus ist. Es ist auch zu sehen:
• Die Familie (vi )i∈I ist genau dann linear unabhängig, wenn f injektiv ist.
• Die Familie (vi )i∈I ist genau dann ein Erzeugendensystem, wenn f surjektiv
ist.
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
41
Lemma 2.5. Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I eine Familie von
Vektoren aus V und i0 ∈ I.
(i) Angenommen, (vi )i∈Ir{i0 } ist linear unabhängig. Dann ist (vi )i∈I genau dann
/ span(vi )i∈Ir{i0 } ist.
linear unabhängig, wenn vi0 ∈
(ii) Angenommen, (vi )i∈I ist ein Erzeugendensystem. Dann ist (vi )i∈Ir{i0 } genau
dann ein Erzeugendensystem, wenn vi0 ∈ span(vi )i∈Ir{i0 } ist.
Beweis.P(i), „⇒“: Aus vi0 ∈ span(vi )i∈Ir{i0 } würde eine lineare Relation der Form
−vi0 + i∈Ir{i0 } ai vi = 0 entstehen, die nach der Definition der linearen Unabhängigkeit verboten wäre.
P
(i), „⇐“: Aus i∈I ai vi = 0 mit ai 6= 0 für mindestens ein i ∈ I wurde folgen, ai0 6= 0
(weil (vi )i∈Ir{i0 } linear unabhängig ist) und deshalb vi0 ∈ span(vi )i∈Ir{i0 } .
(ii), „⇒“ ist trivial aus der Definition des Erzeugendensystems.
P
P
(ii), „⇐“: Es gelte vi0 = i∈Ir{i0 } bi vi . Ist w ∈ V , so kann w als i∈I ai vi dargestellt
werden. Es folgt, w = w0 + w00 , wobei
X
X
w0 :=
ai0 bi vi
und
w00 :=
ai vi .
i∈Ir{i0 }
i∈Ir{i0 }
Lemma 2.6 (Austauschlemma). Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I
eine Basis von V und w ∈ V ein von Null verschiedener Vektor mit (eindeutiger)
Darstellung
X
w=
ai vi .
i∈I
Sei i0 ∈ I, so dass ai0 6= 0. Wir setzen
(
w,
ṽi :=
vi ,
falls i = i0 ,
falls i =
6 i0 .
Dann ist auch (ṽi )i∈I eine Basis.
Beweis. Aus der Basis (vi )i∈I haben wir den entsprechenden Isomorphismus
M
f:
K→V
i∈I
mit f (ei ) = vi für alle i ∈ I. Seien
g, h :
M
i∈I
K→
M
K
i∈I
die linearen Abbildungen mit g(ei ) := ei und h(ei ) := ei für i 6= i0 und
X ai
1
g(ei0 ) := (ai )i∈I ,
h(ei0 ) :=
ei0 −
ei .
ai0
ai0
i∈Ir{i0 }
42
2. Lineare Abbildung und Matrizen
Wir verifizieren: sowohl g ◦ h als auch h ◦ g ist die identische Abbildung. Also ist g
ein Isomorphismus und deshalb auch
M
f ◦ g:
K → V.
i∈I
Die entsprechende Basis ist (ṽi )i∈I .
Definition. Sei K ein Körper. Ein K-Vectorraum V heisst endlichdimensional
wenn es für ein n ∈ N einen Isomorphismus K n → V gibt, sonst heisst V unendlichdimensional. Ist V ein endlichdimensionaler Vektorraum und K n → V ein
Isomorphismus, so sagen wir, die Dimension von V ist n; in Zeichen: dim(V ) = n.
Anders gesagt: V ist endlichdimensional, wenn V eine endliche Basis hat und dann
ist dim(V ) die Kardinalität einer Basis.
Das Austauschlemma wird iterativ angewandt, um eine gegebene Basis komplet
durch eine andere zu erstezen. Sei v1 , . . . , vn ∈ V eine Basis und w1 , . . . , wn ∈ V eine
linear unabhängige Familie. Es gibt a1 , . . . , an ∈ K mit w1 = a1 v1 + · · · + an vn und
aus w1 6= 0 folgt, dass es ein i gibt mit ai 6= 0. In dem wir die Basiselemente v1 , . . . ,
vn vertauschen, können wir annehmen, i = 1. Dann ist nach dem Austauschlemma
auch w1 , v2 , . . . , vn eine Basis. Für j < n haben wir nach j Schritten eine Basis
w1 , . . . , wj , vj+1 , . . . , vn
wir schreiben wj+1 = a1 w1 + · · · + aj wj + aj+1 vj+1 + · · · + an vn und aus wj+1 ∈
/
span(w1 , . . . , wn ) folgern: es gibt ein i > j mit ai 6= 0. Durch das Vertauschen
der Basiselemente vj+1 , . . . , vn können wir annehmen, i = j + 1. So ist nach dem
Austauschlemma
w1 , . . . , wj+1 , vj+2 , . . . , vn
eine Basis. Am Schluss haben wir die Basis w1 , . . . , wn .
Proposition 2.7. Ist K ein K örper und V ein endlichdimensionaler Vektorraum,
so ist die Dimension von V wohldefiniert, d.h., es gibt ein eindeutiges n ∈ N, so dass
es einen Isomorphismus K n → V gibt.
Anders gesagt, sind v1 , . . . , vn und w1 , . . . , wm Basen von V , so gilt m = n.
Beweis. Gegeben seien zwei endliche Basen, geschrieben wie oben. Wir können annehmen, m ≥ n. Durch das iterierte Austauschlemma (siehe oben) ist auch
w1 , . . . , w n
eine Basis von V und es folgt, m = n.
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
43
Es ist auch auszuschliessen, dass es für einen endlichdimensionalen Vektorraum eine
unendliche Basis oder sogar eine unendliche linear unabhängige Familie gibt. Denn
der Beweis von Proposition 2.7 ist anwendbar sobald wir eine linear unabhängige
Familie w1 , . . . , wm haben mit m ≥ n.
Sind U und V endlichdimensionale Vektorräume, so wird deren direkte Summe U ⊕V
geschrieben. Aus der allgemeinen Beschreibung der Basis einer direkten Summe, die
wir gesehen haben, ist zu sehen: U ⊕ V ist auch endlichdimensional und es gilt
dim(U ⊕ V ) = dim(U ) + dim(V ).
Die Summe zweier Untervektorräume U und V eines Vektorraums W ist der Untervektorraum
U + V := {u + v | u ∈ U, v ∈ V },
d.h., U + V = span(U ∪ V ). Durch (u, v) 7→ u + v haben wir eine lineare Abbildung
U ⊕V →W
mit Bild U + V . Der Kern ist {(u, −u) | u ∈ U ∩ V } und kann deshalb mit U ∩
V identifiziert werden. Wenn U ∩ V = 0 und U + V = W haben wir also einen
Isomorphismus U ⊕ V ∼
= W . In diesem Fall sagen wir, W ist die direkte Summe
von U und V ; in Zeichen: W = U ⊕ V .
Lemma 2.8. Ist K ein Körper, W ein Vektorraum und U ⊂ W ein Untervektorraum, so gibt es einen Untervektorraum V ⊂ W derart, dass gilt: (i) U ∩ V = 0 und
(ii) U + V = W .
Mit den Bedingungen (i)–(ii) ist W die direkte Summe von U und V . Ein solches V
heisst Komplement zu U in W .
Beweis. Wir betrachten die Menge aller Untervektorräume, die die Bedingung (i)
erfüllen:
A := {Untervektorräume U ⊂ W | U ∩ V = 0}.
Angenommen, kein V ∈ A erfüllt auch (ii). Dann gilt stets für V ∈ A, dass U + V
echt enthalten ist in W . Für w ∈ W r (U + V ) ist span(V ∪ {w}) eine Erweiterung
von V , die auch zur Menge A gehört. Nach dem Auswahlaxiom existiert also eine
Abbildung
b: A → A
mit V ( b(V ) für alle V ∈ A.
Wir betrachten die Teilmengen
J ⊂A
mit den Eigenschaften: (J, ⊂) ist eine Wohlordnung; es gilt 0 ∈ J; für alle 0 6= V ∈ J
gilt
[
V =b
V0 .
V 0 ∈J
V 0 (V
44
2. Lineare Abbildung und Matrizen
Sind J und J 0 zwei solche Teilmengen, so behaupten wir, dass J ⊂ J 0 oder J 0 ⊂ J
gilt und falls J ( J 0 auch V ⊂ V 0 gilt für alle V ∈ J und V 0 ∈ J 0 rJ. Für den Beweis
nehmen wir an, J 0 6⊂ J, also können wir nach der Definition der Wohlordnung
M 0 := min(J 0 r J)
setzen. Dann ist zu überprüfen, dass J genau aus den echt in M 0 enthaltenen Elementen aus J 0 besteht. Angenommen, es ist nicht so. Dann gibt es ein V ∈ J mit
V ∈
/ J 0 oder M 0 ⊂ V und wir setzen
N := min({V ∈ J | V ∈
/ J 0 oder M 0 ⊂ V }).
Für V ∈ J mit V ( N gilt also: V ∈ J 0 und V ⊂ M 0 . Wir definieren
N 0 := min({V 0 ∈ J 0 | V 0 ∈
/ J oder N ⊂ V 0 }).
Es ist klar: N 0 ⊂ M 0 . Wir haben
{V ∈ J | V ( N } = {V 0 ∈ J 0 | V 0 ( N 0 }.
Die „⊃“-Inklusion ist klar aus der Definition von N 0 . Für die „⊂“-Inklusion ist V ∈ J
mit V ( N zu betrachten, deshalb V ∈ J 0 und V ⊂ M 0 . Dass V = N 0 kann nach der
Definition von N 0 ausgeschlossen. Auch kann ausgeschlossen werden, dass N 0 ( V
gilt, denn wir würden mit N 0 ∈ J und N 0 ( N eine Widerspruch zur Definition von
N 0 haben. Es folgt:
[ [
N =b
V =b
V 0 = N 0.
V ∈J
V (N
V 0 ∈J 0
V 0 (N 0
Also liegt N sowohl in J als auch in J 0 , nach der Definition von N muss M 0 ( N
gelten und wir haben eine Widerspruch.
Es folgt, die Vereinigung J aller Teilmengen J ⊂ A mit den oben genannten Eigenschaften erfüllt dieselben Eigenschaften. Aber auch
[ J ∪ b
V
V ∈J
erfüllt die Eigenschaften und das ist eine Widerspruch.
Bemerkung. Mit einem ähnlichen Argument (mit dem Auswahlaxiom eine Erweiterungsabbildung bauen, geeignete wohlgeordenete Teilmengen betrachten und mit
der Erweiterung von deren Vereinigung zu einer Widerspruch kommen) kann beweisen werden: Ist (A, ≤) eine Menge mit Partialordnung, in der jede total geordnete
Teilmenge eine obere Schranke in A besitzt, so gibt es in A ein maximales Element.
Ein maximales Element ist ein X ∈ A mit {Y ∈ A | X ≤ Y } = {X}. Diese Aussage
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
45
heisst Lemma von Zorn; für Details, siehe folgenden Artikel: J. Lewin, A simple proof
of Zorn’s Lemma, American Mathematical Monthly Band 98 (1991) S. 353–354. Logisch lässt sich auch aus ZF-Mengenlehre und dem Lemma von Zorn die Aussage des
Auswahlaxioms herleiten. Anhand vom Lemma von Zorn ist der Beweis von Lemma
2.8 sehr kurz: Die Menge A aus dem Beweis hat also ein maximales Element V und
es gilt U + V = W , denn sonst würde es in A auch eine Erweiterung von V geben.
Proposition 2.9. Sei K ein Körper. Für ein K-Vektorraum sind folgende Aussagen
äquivalent.
(i) V ist unendlichdimensional.
(ii) Es gibt eine linear unabhängige Familie (vi )i∈N in V .
(iii) Es gibt eine injektive, nicht surjektive linear Abbildung V → V .
Beweis. (i) ⇒ (ii): Sei V ein unendlichdimensionaler K-Vektorraum. Wir behaupten: für alle n ∈ N lässt sich jede linear unabhängige Familie (vi )i∈N<n zu einer linear
unabhängigen Familie (vi )i∈N<n ∪{n} erweitern. Denn span(vi )i∈N<n ist nicht ganzes
V , also gibt es ein vn ∈ V r span(vi )i∈N<n . Nach Lemma 2.5 ist (vi )i∈N<n ∪{n} linear
unabhängig. Nach dem Auswahlaxiom gibt es eine Abbildung, die jede linear unabhängige Familie (vi )i∈N<n auf ein solches (vi )i∈N<n ∪{n} abbildet. Durch die Iteration
dieser Abbildung kommen wir zu einer linear unabhängigen Familie (vi )i∈N .
(ii) ⇒ (iii): Sei (vi )i∈N eine linear unabhängige Familie und V1 := span(vi )i∈N . Es
gibt eine injektive, nicht surjektive lineare Abbildung f : V1 → V1 , f (vi ) := vi+1 für
alle i ∈ N. Nach Lemma 2.8 gibt es ein Komplement V2 zu V1 in V . Also kann alle
w ∈ V eindeutig als w1 + w2 geschrieben werden mit w1 ∈ V1 und w2 ∈ V2 . Dann
definiert w 7→ f (w1 ) + w2 eine injektive, nicht surjektive lineare Abbildung V → V .
(iii) ⇒ (i): Angenommen, V ist endlichdimensional. Wir zeigen, ist f : V → V eine injektive lineare Abbildungen, so ist f auch surjektiv. Sei v1 , . . . , vn ∈ V eine Basis. Also ist w1 := f (v1 ), . . . , wn := f (vn ) eine linear unabhängige Familie. Durch das iterierte Austauschlemma ist auch w1 , . . . , wn eine Basis. Also gilt
span(w1 , . . . , wn ) = V und f ist auch surjektiv.
Proposition 2.10. Sei K ein Körper, seien V und W endlichdimensionale KVektorräume, seien n := dim(V ) und m := dim(W ). Für eine lineare Abbildung
f : V → W gilt:
(i) Falls m = n:
f injektiv
⇔
f surjektive
(ii) Falls m < n ist f nicht injektiv.
(iii) Falls m > n ist f nicht surjektiv.
⇔
f bijektiv.
46
2. Lineare Abbildung und Matrizen
Beweis. Für (i) müssen wir nur den Fall V = W und die Implikation f surjektive
⇒ f injektiv betrachten. Sei v1 , . . . , vn eine Basis von V , seien u1 , . . . , un ∈ V
Elemente mit f (ui ) = vi für alle i. Dann ist u1 , . . . , un ∈ V eine linear unabhängige
Familie. Durch das iterierte Austauschlemma ist u1 , . . . , un eine Basis und f deshalb
auch injektiv.
In (ii) gibt es eine injektive lineare Abbildung g : W → V , die nicht surjektiv ist.
Also ist g ◦ f : V → V nicht surjektiv und deshalb auch nicht injektiv. Es folgt, dass
f nicht injektiv ist.
In (iii) gibt es eine surjektive lineare Abbildung g : W → V , die nicht injektiv ist.
Also ist f ◦ g nicht injektiv und deshalb auch nicht surjektiv. Es folgt, dass f nicht
surjektiv ist.
Auch kann diese Proposition betreffend eine endliche Familie v1 , . . . , vn ∈ V umformuliert werden. Sei V ein endlichdimensionaler Vektorraum.
(i) Falls dim(V ) = n:
v1 , . . . , vn lin. unabh. ⇔ v1 , . . . , vn erzeugend ⇔ v1 , . . . , vn ist eine Basis.
(ii) Falls dim(V ) < n ist v1 , . . . , vn ∈ V nicht linear unabhängig.
(iii) Falls dim(V ) > n ist v1 , . . . , vn ∈ V nicht erzeugend.
Proposition 2.11. Sei K ein Körper und V ein K-Vektorraum.
(i) Ist v1 , . . . , vn ∈ V ein endliches Erzeugendensystem, so ist V endlichdimensional und wir erreichen aus einer beliebigen endlichen linear unabhängigen Familie
w1 , . . . , wm ∈ V eine Basis von V , in dem wir iterativ mit einem nicht zur linearen
Hülle gehörenden Vektor aus {v1 , . . . , vn } erweitern.
(ii) Ist V Untervektorraum eines endlichdimensionalen Vektorraums, so ist V endlichdimensional und wir erreichen aus einer beliebigen endlichen linear unabhängigen
Familie w1 , . . . , wm ∈ V eine Basis von V , in dem wir iterativ mit einem nicht zur
linearen Hülle gehörenden Vektor aus V erweitern.
Beweis. Zuerst zeigen wir: ist v1 , . . . , vn ∈ V ein endliches Erzeugendensystem, so
ist V endlichdimensional. Es gibt ein maximales I ⊂ {1, . . . , n}, so dass (vi )i∈I linear
unabhängig ist. Nach Lemma 2.5 gilt vi0 ∈ span(vi )i∈I für alle i0 ∈ {1, . . . , n} r I.
Das bedeutet, v1 , . . . , vn ∈ span(vi )i∈I und deshalb, span(vi )i∈I = V . Also ist (vi )i∈I
eine endliche Basis von V .
Sei S := {v1 , . . . , vn } und d := dim(V ) in (i) und S := V und d := dim(W ) in
(ii), wobei W ein endlichdimensionaler Vektorraum ist, in dem V enthalten ist. Weil
S ein Erzeugendensystem ist, gilt: für einen Untervektorram U ⊂ V folgt stets aus
v ∈ U für alle v ∈ S, dass U = V .
Eine linear unabhängige Familie in V kann nicht mehr als d Elemente beinhalten.
Also erreichen wir nach endlich vielen Iterationen eine linear unabhängige Familie
2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis
47
w1 , . . . , wm0 mit m ≤ m0 ≤ d und u ∈ span(w1 , . . . , wm0 ) für alle u ∈ S. Es folgt,
span(w1 , . . . , wm0 ) = V , also ist w1 , . . . , wm0 eine Basis von V .
Proposition 2.12. Sei K ein Körper und V ein endlichdimensionaler K-Vektorraum.
(i) Ist U ⊂ V ein Untervektorraum, so sind U und V /U endlichdimensional und es
gilt
dim(V ) = dim(U ) + dim(V /U ).
(ii) Ist W ein K-Vektorraum und f : V → W eine lineare Abbildung, so ist im(f )
auch endlichdimensional und es gilt
dim(V ) = dim(ker(f )) + dim(im(f )).
In der Tat folgt (ii) direkt aus (i). Die Abbildung f : V → W lässt sich durch im(f )
faktorisieren:
V → im(f ).
Dies ist surjektiv. Sei U := ker(f ). Dann lässt sich die Abbildung nochmals faktorisieren, diesmal durch den kanonischen Homomorphismus V → V /U :
V /U → im(f ).
Dies ist nach wie vor surjektive und auch injektiv, weil der ganze Kern zum Element
0 ∈ V /U kollabiert ist. Also gilt dim(V /U ) = dim(im(f )). Wir haben dim(U ) =
dim(ker(f )). So sehen wir, dass (ii) direkt aus (i) folgt.
Beweis. Es genügt, (i) zu zeigen. Nach Proposition 2.11 (ii) ist U endlichdimensional,
also gibt es eine Basis v1 , . . . , vm mit m = dim(U ). Dies lässt sich zu einer Basis
v1 , . . . , vn von V erweitern. Dann wissen wir, v̄m+1 , . . . , v̄n ist eine Basis von V /U .
Deshalb ist die Formel aus (i) gültig.
Korollar 2.13 (Dimensionsformel). Sei K ein Körper und W ein K-Vektorraum.
Sind U und V zwei endlichdimensionale Untervektorräume von W , so gilt
dim(U ) + dim(V ) = dim(U + V ) + dim(U ∩ V ).
Beweis. Wir haben die lineare Abbildung U ⊕ V → W gesehen, mit Bild U + V und
Kern U ∩ V . Die Formel folgt also aus Proposition 2.12 (ii).
Mit dem Lemma von Zorn können wir auch für unendlichedimensionale Vektorräume
wie in Proposition 2.11 vorgehen.
Proposition 2.14. Sei K ein Körper, V ein K-Vektorraum und (vi )i∈I eine Familie
von Vektoren aus V . Angenommen, (vi )i∈I ist ein Erzeugendensystem. Dann kann
eine beliebige linear unabhängige Familie (wj )j∈J von Vektoren aus V durch (vi )i∈I 0
für eine geeignete Teilmenge I 0 ⊂ I zu einer Basis von V erweitert werden.
48
2. Lineare Abbildung und Matrizen
Insbesondere hat jeder Vektorraum eine Basis ((vi )i∈I = (v)v∈V und J = ∅ nehmen).
Beweis. Anstelle von Familien können wir nur Teilmengen von V betrachten. Also sei
T ⊂ V eine erzeugende Teilmenge und R ⊂ V eine linear unabhängige Teilmenge.
Ohne Beschränkung der Allgemeinheit können wir annehmen, dass R ⊂ T . Wir
setzen
A := {S ⊂ T | R ⊂ S und S ist linear unabhängig}.
Sei A0 ⊂ A eine total geordnete Teilmenge. Ist A0 leer, so gilt R ∈ A als obere
Schranke. Sonst ist
[
S∈A
S∈A0
eine obere Schranke. Nach dem Lemma von Zorn besitzt A ein maximales Element M .
Ist span(M ) ein echter Untervektorraum von V , so gibt es ein t ∈ T mit t ∈
/ span(M ).
Also haben wir M ∪ {t} ∈ A, eine Widerspruch. Es folgt, M ist eine Basis von V
mit R ⊂ M ⊂ T .
2.5
Äquivalenz von Matrizen
Sei f : V → W eine lineare Abbildung zwischen endlichdimensionalen Vektorräumen
über einem Körper K. Wir können Basen von V und W auswählen und dadurch
f beschreiben anhand von einer Matrix A. Für n := dim(V ) und m := dim(W )
ist dies eine m × n-Matrix. Der Kern von A wird mit ker(f ) identifiziert, also ist
dim(ker(f )) = dim(ker(A)). In Proposition 2.12(ii) gibt es einen weiteren Ausdruck,
dim(im(f )). Gibt es einen entsprechenden Ausdruck bezüglich Matrizen? Weil das
Bild von den Spaltenvektoren aufgespannt ist, kommen wir zur Dimension der linearen Hülle der Spaltenvektoren.
Definition. Die lineare Hülle der Spaltenvektoren einer Matrix heisst Spaltenraum. Die lineare Hülle der Zeilenvektoren heisst Zeilenraum.
Wir verwenden die Notation SR(A) bzw. ZR(A) für den Spaltenraum bzw. Zeilenraum einer Matrix A.
Analog zu den Spaltenvektoren gibt es die Zeilenvektoren. Für 1 ≤ i ≤ m ist der i-te
Zeilenvektoren von A ∈ Mat(m × n, K) der Vektor mit den Einträgen aus der i-ten
Zeile von A als Komponenten.
Dass wir bis jetzt mit Spaltenvektoren gearbeitet haben, hat mit Konvention zu tun.
Arbeitet man stattdessen mit Zeilenvektoren, so kann auch lineare Abbildungen mit
Matrizen identifiziert werden, diesmal aber zu einem f : K n → K m eine n × mMatrix. Diese n × m-Matrix ist die Transponierte der üblichen m × n-Matrix aus
2.5. Äquivalenz von Matrizen
49
Proposition 2.1:

a11 a12 . . .
 ..
..
transponierte von A =  .
.
am1 am2 . . .


a1n
a11 a21 . . .
..  ist t A :=  ..
..
 .
. 
.
amn
a1n a2n . . .

am1
..  .
. 
amn
Sind A und B Matrizen über einem Körper K, so dass A gleich viele Spalten wie B
Zeilen hat, so gilt
t
(AB) = t B t A.
Bemerkung. Der Dualraum eines Vektorraums V ist V ∗ := HomK (V, K). Komposition mit einer linearen Abbildung f : V → W ist eine lineare Abbildung f ∗ : W ∗ →
V ∗ . Im Fall V = K n hat V ∗ auch eine Standardbasis e∗1 , . . . , e∗n , wobei
(
1 falls i = j,
e∗j (ei ) :=
0 falls i 6= j.
Sei f : K n → K m eine lineare Abbildung mit entsprechender Matrix A ∈ Mat(m ×
n, K). Die zu f ∗ : (K m )∗ → (K n )∗ entsprechende Matrix bezüglich der Standardbasen (e∗i )1≤i≤m und (e∗j )1≤j≤n ist t A ∈ Mat(n × m, K).
Proposition 2.15. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K und
r := rk(A).
(i) Es gibt ein S ∈ GLm (K) und ein T ∈ GLn (K), so dass


1
0 0 ... 0
 ..



.


SAT = 0
.
1 0 . . . 0


0

...
0
0
...
0
Dabei hat SAT die Einheitsmatrix Er als oberen linken r × r-Block und ist sonst
Null.
(ii) Es gilt dim(SR(A)) = dim(ZR(A)) = r.
Beweis. Wie im Beweis von Proposition 2.3 fangen wir damit an, A durch elementare
Zeilenumformungen in Zeilenstufenform zu bringen und die Zeilen mit Konstanten
zu multiplizieren, so dass alle Pivoteinträge 1 sind. Für den weiteren Schritt benutzen wir Spaltenumformungen anstatt Zeilenumformungen. Mit jedem Pivoteintrag
werden die restlichen Einträge in derselben Zeile annuliert. Es bleibt noch die Pivots
in die ersten r Spalten zu bringen und das ist mit weiteren elementaren Spaltenumformungen möglich. Dieses Verfahren zeigt (i). Durch Linksmultiplikation mit einer
Matrix aus GLm (K) werden die Dimensionen der Spalten- und Zeilenräume unverändert und das Gleiche gilt für Rechtsmultiplikation mit einer Matrix aus GLn (K).
Aus (i) und dieser Bemerkung folgt (ii).
50
2. Lineare Abbildung und Matrizen
Korollar 2.16. Ist A ∈ Mat(m × n, K) vom Rang r über einem Körper K, so gilt:
dim(ker(A)) = n − r.
Beweis. Die Formel folgt aus Propositionen 2.12 (ii) und 2.15 (ii).
Definition. Zwei Matrizen A, B ∈ Mat(m × n, K) derselben Grösse über einem
Körper K heissen äquivalent, wenn es ein S ∈ GLm (K) und ein T ∈ GLn (K) gibt,
so dass SAT = B.
Die Relation „A ist äquivalent zu B“ ist eine Äquivalenzrelation.
Proposition 2.15 zeigt, dass jede Matrix über einem Körper äquivalent ist zu einer
Matrix, die den oberen linken Block Er hat und sonst Null ist. Für eine Matrix A ist
dies nur mit r = rk(A) möglich, denn zwei äquivalente Matrizen haben Spaltenräume
derselben Dimension und deshalb auch denselben Rang.
Äquivalente Matrizen sind in der folgenen Situation relevant. Sei K ein Körper, seien
V und W endlichdimensionale K-Vektorräume, n := dim(V ), m := dim(W ) und sei
f : V → W eine lineare Abbildung. Zu jeder Auswahl von Basen von V und W
entsteht eine zu f entsprechende Matrix. Also entspricht zu allen möglichen Basen
von V und W eine Äquivalenzklasse von Matrizen. Denn aus zwei Basen v1 , . . . , vn
und v10 , . . . , vn0 von V entsteht ein T ∈ GLn (K), das eindeutig bestimmt ist durch
das kommutative Diagramm
v1 ,
K n e1 7→
...
en 7→vn
!
x7→T x
Kn
=V
e1 7→v10 ,
...
0
en 7→vn
0 Basen von W . Die zu f entsprechenden Matrizen
Sei w1 , . . . , wm und w10 , . . . , wm
seien A (zu v1 , . . . , vn ∈ V und w1 , . . . , wm ∈ W ) und A0 (zu v10 , . . . , vn0 ∈ V und
0 ∈ W ), d.h., das folgende Diagramm ist kommutativ:
w10 , . . . , wm
ei 7→vi
ei 7→vi0
Kn
/ Km
x7→Ax
Kn
!
=V
f
/W
b
x7→A0 x
|
ei 7→wi
ei 7→wi0
/ Km
Wir setzen die beiden Diagramme zusammen und fügen ein analoges, verspiegeltes
Dreieck zu mit K m → K m , y 7→ Sy als vertikalem Pfeil für ein S ∈ GLm (K). Es
2.5. Äquivalenz von Matrizen
51
folgt:
A0 = SAT −1 .
Aus gegebenen Basen v1 , . . . , vn ∈ V und w1 , . . . , wm ∈ W sowie gegebenen S ∈
GLm (K) und T ∈ GLn (K) kommen wir durch die kommutativen Dreiecke zu Basen
0 ∈ W . Dadurch ist klar, zwei zu f entsprechende
v10 , . . . , vn0 ∈ V und w10 , . . . , wm
Matrizen sind stets äquivalent und die Menge aller zu f entsprechenden Matrizen
beträgt eine ganze Äquivalenzklasse von Matrizen.
Wir definieren also rk(f ) als die Dimension des Bildes von f , d.h., rk(f ) ist der Rang
einer beliebigen Matrix, die bezüglich Basen von V und W der linearen Abbildung
f entspricht. Dann können wir für ein f : V → W mit r := rk(f ) die Matrix


1
0 0 ... 0
 ..



.


0
 ∈ Mat(m × n, K),
1
0
.
.
.
0


0
...
0
0
...
0
die den oberen linken Block Er hat und sonst Null ist, als Normalform betrachten
der zu f entsprechenden Matrizen.
Proposition 2.17. Die folgenden Aussagen sind äquivalent für eine quadratische
Matrix A ∈ Mat(n × n, K) über einem Körper K.
(i) A ∈ GLn (K).
(i0 ) Es gibt ein B ∈ Mat(n × n, K) mit BA = En .
(i00 ) Es gibt ein C ∈ Mat(n × n, K) mit AC = En .
(ii) Es gilt rk(A) = n.
(ii0 ) A ist zu En äquivalent.
(iii) A ist das Produkt einer endlichen Reihe von n-reihigen Elementarmatrizen.
Beweis. Für A ∈ GLn (K) gibt es nach der Definition ein B ∈ Mat(n × n, K) mit
BA = AB = Er , also folgen (i0 ) und (i00 ) aus (i). Nach Proposition 2.10 folgt (i) aus
(i0 ) sowie aus (i00 ). Nach Proposition 2.15 und der nachfolgenden Diskussion sind (ii)
und (ii0 ) äquivalent.
Weil der Rang einer Matrix auch die Dimension des Spaltenraums ist, folgt (ii)
aus (i). Ist rk(A) = n, so gibt es nach Proposition 2.3 eine Reihe von elementaren
Zeilenumformungen, die A in reduzierte Zeilenstufenform bringt. Eine n × n-Matrix
in reduzierter Zeilenstufenform muss soviele Pivots haben wie der Rang; ist der Rank
n, so sind alle Diagonaleinträge Pivots, also haben wir die Matrix En . Das bedeutet,
52
2. Lineare Abbildung und Matrizen
(ii) impliziert (iii). Weil alle n-reihigen Elementarmatrizen zu GLn (K) gehören, folgt
(i) aus (iii).
Definition. Eine quadratische Matrix über einem Körper, die die äquivalenten Bedingungen aus Proposition 2.17 erfüllt, heisst invertierbar.
Nach der äquivalence (i) ⇔ (iii) aus Proposition 2.17 sagen wir, dass GLn (K) von den
n-reihigen Elementarmatrizen erzeugt ist. Als Erzeuger einer beliebigen Gruppe G
gilt eine Familie (gi )i∈I von Elementen aus G, wenn alle Elemente aus G als Produkt
einer Reihe von Elementen der Form gi oder gi−1 für i ∈ I dargestellt werden können.
Ist A eine n-reihige invertierbare Matrix, so ist für 1 ≤ i ≤ n die i-te Spalte von
A−1 dadurch charakterisiert, dass Linksmultiplikation mit A das i-te Element ei der
Standardbasis ergibt. Durch den Gauss-Jordan-Algorithmus kommen wir direkt zur
Lösungsmenge von Ax = b für beliebiges b ∈ K n , insbesondere für b = ei für alle i.
Es geht wie im folgenden Beispiel effizient, in dem wir alle i gleichzeitig behandeln.

1 −1 −2 1 0
−2 −1 1 0 1
1
3
1 0 0

1 −1 −2 1
0 −3 −3 2
0 0 −1 5/3

1 0 −1 1/3
0 1 1 −2/3
0 0 1 −5/3

0
0
1


1 −1 −2 1 0 0
0 −3 −3 2 1 0
0 4
3 −1 0 1


0 0
1
1 −1 −2
0 1
1 −2/3
1 0
4/3 1
0 0
1 −5/3


1 0 0 −4/3
−1/3 0
0 1 0
−1/3 0 
1
−4/3 −1
0 0 1 −5/3

0
0
−1/3 0 
−4/3 −1

−5/3 −1
1
1
−4/3 −1
Also gilt (über R oder über einem beliebigen Körper der Charakteristik 0)
−1 

1 −1 −2
−4/3 −5/3 −1
−2 −1 1  =  1
1
1 .
1
3
1
−5/3 −4/3 −1

2.6
Ähnlichkeit von Matrizen
Wir behandeln einen Endomorphismus eines endlichdimensionalen Vektorraums auf
die gleiche Weise, wie wir in §2.5 den Fall einer linearen Abbildung zwischen endlichdimensionalen Vektorräumen behandelt haben. Wir kommen nach wie vor zu einer
Äquivalenzklasse von Matrizen bezüglich einer geeigneten Äquivalenzrelation.
Sei K ein Körper, V ein endlichdimensionaler Vektorraum, n := dim(V ) und f : V →
V eine lineare Abbildung. Zu einer Basis v1 , . . . , vn ∈ V gibt es eine entsprechende Matrix A ∈ Mn (K). Sei v10 , . . . , vn0 ∈ V eine zweite Basis, A0 ∈ Mn (K) die
2.6. Ähnlichkeit von Matrizen
53
entsprechende Matrix. Nach wie vor gibt es ein entsprechendes Diagramm
ei 7→vi
!
x7→Sx
Kn
/ Km
x7→Ax
Kn
=V
ei 7→vi
f
/V
a
ei 7→vi0
}
ei 7→vi0
x7→A0 x
x7→Sx
/ Km
für ein S ∈ GLn (K) und wir haben:
SAS −1 = A0 .
Aus der ursprünglichen Basis von V und einem beliebigen S ∈ GLn (K) wird nach wie
vor eine zweite Basis v10 , . . . , vn ∈ V bestimmt, so dass das Diagramm kommutiert.
Definition. Zwei Matrizen A, B ∈ Mn (K) heissen ähnlich, wenn es ein S ∈
GLn (K) gibt, so dass SAS −1 = B.
Die Relation „A ist ähnlich zu B“ ist eine Äquivalenzrelation.
Die obige Diskussion zeigt, zu einem Endomorphismus f : V → V ist eine Ähnlichkeitsklasse von darstellenden Matrizen assoziiert.
Oft sucht man nach einem günstigen Repräsentanten einer Ähnlichkeitsklasse von
Matrizen. Als günstig wäre, zum Beispiel, eine Diagonalmatrix. Geschätzt sind auch
obere Dreicksmatrizen, d.h., Matrizen mit beliebigen Diagonaleinträgen sowie
Einträgen oberhalb der Hauptdiagonale aber ausschliesslich Null unterhalb der Hauptdiagonale.
Definition. Eine Matrix A ∈ Mn (K) heisst diagonalisierbar, bzw. trigonalisierbar, wenn A ähnlich ist zu einer Diagonalmatrix, bzw. zu einer Dreicksmatrix.
Ist V ein endlichdimensionaler Vektorraum über K, so heisst ein Endomorphismus
von V diagonal- bzw. trigonalisierbar wenn die entsprechende Matrix bezüglich einer
geeigneten Basis von V so ist.
Es gibt auch untere Dreicksmatrizen, die ausschliesslich Null oberhalb der Hauptdiagonale sind. Gibt es aber in der Ähnlichkeitsklasse von A eine untere Dreicksmatrix
B, so kommen wir durch


 


ann
∗
a11
0
0
1
0
1
  ...  

..
..
 ...  
=



.
.
1
0
1
0
∗
ann
0
a11
zu einer oberen Dreieksmatrix in derselben Ähnlichkeitsklasse.
54
2. Lineare Abbildung und Matrizen
Beispiel. Die Einheitsmatrix En ist immer allein in ihrer Ähnlichkeitsklasse. Das
Gleiche gilt für ein Vielfaches aEn (a ∈ K). Eine grössere Ähnlichkeitsklasse, für die
die Suche nach einem günstigen Repräsentanten noch dauern wird, ist
2̄ 2̄
2̄ 1̄
0̄ 2̄
1̄ 2̄
1̄ 1̄
0̄ 1̄
.
,
,
,
,
,
1̄ 2̄
2̄ 2̄
2̄ 1̄
2̄ 0̄
1̄ 0̄
1̄ 1̄
in M2 (F3 ). Denn diese Matrizen sind nicht trigonalisierbar.
2.7
Lineare Algebra über Ringen
Sei R ein kommutativer Ring mit Eins. Schreibt man die Definition des Vektorraums
mit R anstelle von K um, so entsteht die Definition des R-Moduls.
Definition. Sei R ein kommutativer Ring mit Einselement 1 ∈ R. Ein Modul über
R ist eine Menge M mit Verknüpfung + : M ×M → M und Operation · : R×M → M ,
so dass die folgenden vier Eigenschaften erfüllt sind.
• M mit + ist eine abelsche Gruppe.
• Für alle a, b ∈ R und x ∈ M gilt (ab) · x = a · (b · x).
• Für alle x ∈ M gilt 1 · x = x.
• Für alle a, b ∈ R und x, y ∈ M gilt:
a · (x + y) = a · x + a · y
und
(a + b) · x = a · x + b · x.
Falls R = K, ein Körper, gibt es keinen Unterschied zwischen einem Modul und
einem Vektorraum.
Es gibt Untermoduln und R-lineare Abbildungen (mit denselben Definitionen).
Letztere sind auch R-Modulhomomorphismen genannt. Ist L ein Untermodul von
einem R-Modul M , so gibt es auch den Quotientenmodul M/L mit kanonischem RModulhomomorphismus M → M/L.
Wie für Vektorräume gehören die Moduln Rn (n ∈ N) zu den Wichtigsten und können linearen Abbildungen Rn → Rm eindeutig mit m×n-Matrizen über R dargestellt
werden. Die n-reihigen quadratischen Matrizen bilden Mn (R), ein Ring mit Einselement En , und nach wie vor setzen wir GLn (R) := Mn (R)× . Matrizen aus GLn (R)
heissen invertierbar.
Das Gauss-Verfahren ist stark von der Eigenschaft K × = K r {0} eines Körpers
abhängig und fällt deshalb für Matrizen über Ringen aus. Elementare Zeilen- und
Spaltenumformungen und Elementarmatrizen gibt es trotzdem.
Für eine Familie linear unabhängig, erzeugend oder eine Basis zu sein, hat auch im
Fall eines Moduls Sinn (mit denselben Definitionen, nur R anstelle von K). Auch
55
gültig ist die Charakterisierung durchL
entsprechende lineare Abbildungen
von direkL
ten Summen. Es gibt direkte Summe i∈I R und, allgemeiner, i∈I Mi falls für alle
i ∈ I ein R-Modul Mi angegeben wird. Zu einer Familie (xi )i∈I von Elementen
aus
L
einem R-Modul M gibt es die entsprechende R-lineare Abbildung f :
R
→
M.
i∈I
Also:
f ist genau dann . . . wenn die Familie . . . ist
injektiv
linear unabhängig
surjektiv
erzeugend
bijektiv
eine Basis
Für eine beliebige Familie (xi )i∈I von Elementen aus einem R-Modul M gibt es den
von (xi )i∈I erzeugten Untermodul span(xi )i∈I ⊂ M .
3
Die Determinante
Wir assoziieren zu jeder quadratischen Matrix A über einem Körper K ein Element
von K, die Determinante von A. Die Definition ist ziemlich abstrakt: eine Reihe von
Eigenschaften wird aufgelistet und es wird gezeigt, durch diese ist die Determinante
eindeutig bestimmt. Praktisch geht es leichter: im 2 × 2-Fall ist
a b
= ad − bc
det
c d
und im allgemeinen Fall kann det(A) für A ∈ Mn (K) berechnet werden, in dem wir
mit dem Gauss-Verfahren durch elementare Zeilenumformungen eine A0 = (a0ij ) in
Zeilenstufenform bekommen, dann gilt
det(A) =
n
Y
a0ii .
i=1
Es wird aber auch vorteilhaft, das Ganze über einem beliebigen kommutativen Ring
mit Eins R zu betrachten. Zu einer quadratischen Matrix über R wird ein Element
von R assoziiert. In der ersten Instanz kann man immer R als K lesen und nur
Matrizen über Körpern betrachten.
3.1
Symmetrische Gruppe
Zuerst brauchen wir einiges über Permutationen. Ist S eine Menge, so wird mit
Perm(S) die Gruppe aller bijektiven Abbildungen S → S mit Komposition von
Abbildungen bezeichnet. Eine bijektive Abbildung von eine Menge nach sich selbst
heisst Permutation. Der wichstigste Fall ist S = {1, . . . , n} für ein n ∈ N.
56
3. Die Determinante
Definition. Für n ∈ N heisst die Gruppe aller Permutationen der Menge {1, . . . , n}
die n-te symmetrische Gruppe, geschrieben: Sn .
Sn ist eine endliche Gruppe. Mit einem induktiven Argument ist zu sehen, dass Sn
genau n! Elemente hat. Für n ≥ 3 ist Sn nicht abelsch.
Ein Element σ ∈ Sn kann auf verschiedene Weisen bezeichnet werden. Zum Beispiel,
die Permutation σ ∈ S7 mit σ(j) = 8 − j für alle j wird so geschrieben:
1 2 3 4 5 6
• Zweizeilige Schreibweise
7 6 5 4 3 2
• Einzeilige Schreibweise 7 6 5 4 3 2
j = 1, . . . , n.
7
. Oben j, unten σ(j).
1
1 . Nur σ(j) wird geschrieben für
• Zykelschreibweise (1, 7)(2, 6)(3, 5).
Ein Zyklus ist ein Ausdruck (a, σ(a), σ 2 (a), . . . , σ r−1 (a)), wobei σ r (a) = a und r ∈
N>0 so klein wie möglich ist mit dieser Eigenschaft. Ist r = 1, so beschreibt man
a als Fixpunkt von σ; den entsprechenden Zyklus (a) (im Beispiel, (4)) kann man
weglassen. Sonst müssen alle Zahlen in {1, . . . , n} abgedeckt und zwar eindeutig
abgedeckt werden: kommt j ∈ {1, . . . , n} in einem Zyklus vor, muss j in keinem
anderen Zyklus vorkommen. Die Zykelschreibweise ist nicht eindeutig, z.B.:
(1, 7)(2, 6)(3, 5) = (2, 6)(1, 7)(3, 5)
und
(1, 2, 3)(5, 6, 7) = (6, 7, 5)(3, 1, 2).
Das Symbol ◦ (für Komposition) wird meistens weggelassen. So können wir, z.B., das
Produkt von (1, 2) und (1, 3) als (1, 3, 2) berechnen (1 7→ 3 7→ 3, usw.) und deshalb
schreiben:
(1, 2)(1, 3) = (1, 3, 2).
Ist σ ∈ Sn eine Permutation, so definieren wir:
• die Menge der Fehlstände oder Inversionen von σ
inv(σ) := {1 ≤ i < j ≤ n | σ(i) > σ(j)},
• die Fehlstandszahl | inv(σ)| von σ,
• das Signum
sgn(σ) := (−1)| inv(σ)| .
von σ
Beispiel. Eine Transposition σ := (i, j) ∈ Sn mit i < j hat die Fehlstände (i, j)
sowie (i, c) und (c, j) für i < c < j, also: | inv(σ)| = 1 + 2(j − i − 1) und sgn(σ) = −1.
3.1. Symmetrische Gruppe
57
Proposition 3.1. Die Abbildung Sn → {±1}, σ 7→ sgn(σ), ist ein Gruppenhomomorphismus.
Beweis. Es ist zu zeigen für σ, τ ∈ Sn :
(−1)| inv(στ )| = (−1)| inv(σ)| (−1)| inv(τ )| .
Wir setzen
A := inv(σ),
B := inv(τ ),
C := inv(στ ),
und definieren die bijektiven Abbildungen
µ : {1, . . . , n} × {1, . . . , n} → {1, . . . , n} × {1, . . . , n},
µ(i, j) := (τ (i), τ (j)),
ν : {1, . . . , n} × {1, . . . , n} → {1, . . . , n} × {1, . . . , n},
ν(i, j) := (τ (j), τ (i)).
Wir behaupten, A ist disjunkte Vereinigung von µ(CrB) und ν(BrC). Sei (i, j) ∈ A.
Wir setzen r := τ −1 (i) und s := τ −1 (j) und betrachten zwei Möglichkeiten:
• Ist r < s, so gilt µ(r, s) = (i, j) mit (r, s) ∈ C r B.
• Ist r > s, so gilt ν(s, r) = (i, j) mit (s, r) ∈ B r C.
Es folgt,
|A| = (|C| − |B ∩ C|) + (|B| − |B ∩ C|)
und deshalb gilt
(−1)|C|
= (−1)|A| (−1)|B| .
Permutationen σ ∈ Sn mit sgn(σ) = 1 heissen gerade, mit sgn(σ) = −1, ungerade.
Definition. Für n ∈ N, n ≥ 2 ist die n-te alternierende Gruppe die Gruppe aller
geraden Permutationen in Sn , geschrieben: An .
Es gilt
1
|An | = n!,
2
d.h., genau die Hälfte aller Permutationen in Sn sind gerade. Denn Rechtsmultiplikation mit (1, 2) ergibt eine bijektive Abbildung von den geraden Permutationen nach
den ungeraden Permutationen. Das Gleiche gilt auch für Rechtsmultiplikation mit
einer beliebigen Transposition, zum Beispiel.
Sei σ ∈ Sn . Ein k ∈ {1, . . . , n − 1} mit σ(k) > σ(k + 1) heisst Abstieg. Also hat σ
maximal n−1 Abstiege. Die identische Permutation id hat keinen Abstieg und ist die
einzige solche Permutation, denn mit A := inv(σ) und A(c) := {(i, j) ∈ A | j − i = c}
wurde das Fehlen von Abstiegen A(1) = ∅ bedeuten und wir folgern A(c+1) = ∅ aus
A(1) = A(c) = ∅ für 1 ≤ c ≤ n − 2, also durch Induktion, A = ∅ und deshalb σ = id.
58
3. Die Determinante
Beispiel. Als Nächstes klassifieren wir Permutation mit höchstens einem Abstieg.
Sei 1 ≤ k ≤ n − 1, sei σ ∈ Sn mit einzigem Abstieg an k oder gar keinem Abstieg.
Also gilt
σ(1) < σ(2) < · · · < σ(k)
und
σ(k + 1) < σ(k + 2) < · · · < σ(n).
Durch {σ(1), . . . , σ(k)} ist σ eindeutig bestimmt, d.h., von der Menge solcher Permutation haben wir durch
σ 7→ {σ(1), . . . , σ(k)}
eine bijektive Abbildung nach der Menge aller Teilmengen I ⊂ {1, . . . , n} mit |I| = k.
Entspricht eine solche Permutation σ die Menge I := {σ(1), . . . , σ(k)}, so definieren
wir
sgn(I) := sgn(σ).
Es gibt auch eine Bijektion
o
n
n
{k-elementige Teilmengen I ⊂ {1, . . . , n}} → 1, . . . ,
k
in dem wir eine Totalordnung auf den k-elementigen Teilmengen I ⊂ {1, . . . , n}
auswählen. Zum Beispiel schreiben wir die Elemente einer Teilmenge steigend als
Wort auf und ordnen die Wörter lexikographisch an.
Lemma 3.2. Sei σ ∈ Sn eine Permutation mit Abstieg an k, sei σ̃ := σ(k, k + 1).
Dann gilt | inv(σ̃)| = | inv(σ)| − 1.
Beweis. Sei τ := (k, k + 1). Mit der Notation aus dem Beweis von Proposition 3.1
haben wir B = {(k, k + 1)}. Da σ Abstieg an k hat ist B ∩ C = ∅. Also gilt
|A| = |C| + 1.
Definition. Eine quadratische Matrix über einem Körper oder kommutativen Ring
mit Eins gilt als Permutationsmatrix wenn es ein σ ∈ Sn gibt, so dass die (i, σ(i))Eintrag 1 für alle i ist, die anderen Einträge Null. Solche Matrix wird mit Pσ bezeichnet. Also ist Pσ die n × n-Matrix, deren i-te Zeilenvektor eσ(i) ist für i = 1, . . . ,
n.
Dass die i-te Zeilenvektor eσ(i) sein soll ist eine Konvention. Es gilt also Pσ Pτ = Pτ σ
für σ, τ ∈ Sn .
3.2
Multilineare Abbildungen
Die Definition der Determinante benötigt multilineare Abbildungen. Wir verstehen
schon lineare Abbildungen (von Vektorräumen, auch von Moduln über einem kommutativen Ring mit Eins). Eine Abbildung f : U × V → W heisst bilinear falls die
3.2. Multilineare Abbildungen
59
Abbildung einzeln linear ist in U und in V :
f (u + u0 , v) = f (u, v) + f (u0 , v),
f (u, v + v 0 ) = f (u, v) + f (u, v 0 )
f (au, v) = af (u, v),
f (u, av) = af (u, v).
(Dabei: u, u0 ∈ U und v, v 0 ∈ V , mit a aus dem Körper bzw. dem Ring.)
Eine Abbildung
V1 × · · · × Vn → W,
die in diesem Sinn einzeln linear ist in jedem Vi heisst multilineare Abbildung.
Uns interessiert hauptsächlich der Fall V1 = · · · = Vn = V für einen Vektorraum oder
Modul V . Dann gibt es restriktivere Bezeichnungen: eine multilineare Abbildung
f: Vn →W
heisst . . .
falls stets gilt
symmetrisch
f (. . . , v, . . . , v 0 , . . . ) = f (. . . , v 0 , . . . , v, . . . )
schiefsymmetrisch f (. . . , v, . . . , v 0 , . . . ) = −f (. . . , v 0 , . . . , v, . . . )
alternierend
f (. . . , v, . . . , v, . . . ) = 0
Dabei ist für alle 1 ≤ i < j ≤ n die i-te und j-te Argumente von f zu vertauschen
bzw. gleich zu setzen und die jeweilige Anfordung zu überprüfen.
Eine alternierende multilineare Abbildung ist stets schiefsymmetrisch (v + v 0 in die ite und j-te Stellen setzen und multilineare und alternierende Eigenschaft anwenden).
Wir betrachten eine n-reihige quadratische

v1
 ..
 .
Matrix als n-Tupel ihrer Zeilenvektoren



vn
Auf diese Weise identifizieren wir Mn (K) bzw. Mn (R) mit V n , wobei V := K n bzw.
Rn . Eine Abbildung Mn (K) → W wird als multilinear beschrieben bezüglich dieser
Identifizierung.
Lemma 3.3. Sei R ein kommutativer Ring mit Eins, n ∈ N>0 und
f : Mn (R) → R
eine schiefsymmetrische multilineare Abbildung. Dann gilt f (Pσ ) = sgn(σ)f (En ) für
alle σ ∈ Sn .
Beweis. Wir zeigen die Formel durch Induktion nach | inv(σ)|. Falls inv(σ) = ∅ ist
σ = id und die Formel klar. Für den Induktionsschritt wenden wir Lemma 3.2 an.
Ein σ 6= id hat Abstieg an k für ein 1 ≤ k ≤ n − 1 und wir setzen σ̃ := σ(k, k + 1).
Nach der Induktionshypothese und dem Lemma gilt f (Pσ̃ ) = − sgn(σ)f (En ). Weil
f schiefsymmetrisch ist, haben wir f (Pσ ) = −f (Pσ̃ ) = sgn(σ)f (En ).
60
3.3
3. Die Determinante
Determinante als normierte alternierende Abbildung
Eine Abbildung f : Mn (R) → R heisst normiert, falls f (En ) = 1.
Theorem 3.4. Sei R ein kommutativer Ring mit Eins und n ∈ N. Dann gibt es eine
eindeutige normierte alternierende multilineare Abbildung
det : Mn (R) → R.
Für A = (aij ) ∈ Mn (R) gilt die Formel
X
det(A) =
sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) .
σ∈Sn
Des Weiteren ist für beliebiges r ∈ R die Abbildung r det die eindeutige alternierende
multilineare Abbildung Mn (R) → R, die Er auf r abbildet.
Beweis. Für die Eindeutigkeit behaupten wir, eine multilineare Abbildung Mn (R) →
R ist charakterisiert durch die Werte an Matrizen mit Elementen aus der Standardbasis e1 , . . . , en als Zeilenvektoren. Dazu betrachten wir die Aussage, dass eine
multilineare Abbildung Mn (R) → R charakterisiert ist, durch die Werte an Matrizen deren erste j Zeilen (0 ≤ j ≤ n) aus der Standardbasis kommen. Für j = 0 ist
dies eine triviale Aussage. Ist die Aussage gültig für ein j, so gilt für eine multilineare
Abbildung f :






e i1
ei1
e i1






..
..
..






.
.
.











eij
eij 
eij 





f
 = a1 f  e1  + · · · + an f  en  .
a1 . . . an 






 vj+2 
 vj+2 
v
j+2






..
..
..
.
.
.
Mit diesem Induktionsschritt ist die Behauptung bewiesen.
Ist f dazu alternierend, so ist die Wert an einer Martrix mit denselben Vektor in zwei
Zeilen Null. Sonst gibt es nur Permutationsmatrizen zu betrachten und aus Lemma
3.3 sind die Werte an Permutationsmatrizen von dem Wert an En abhängig.
Die Formel definiert eine normierte multilineare Abbildung. Für n ≥ 2 ist auch zu
überprüfen, dass sie alternieriend ist. Also sei 1 ≤ k < ` ≤ n, sei A = (aij ) mit
akj = a`j für alle j. Wie nach der Einführung der alternierenden Gruppe erwähnt ist
Sn die disjunkte Vereinigung von An und {σ(k, `) | σ ∈ An }. Also:
X
X
sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) =
sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n)
σ∈Sn
σ∈An
X
−
σ∈An
= 0.
sgn(σ)a1,σ(1) · · · ak,σ(`) · · · a`,σ(k) · · · an,σ(n)
3.3. Determinante als normierte alternierende Abbildung
61
Die Fälle n = 0 und n = 1 sind ziemlich trivial: det() = 1 und det(a) = a für a ∈ R.
Der Fall n = 2 ergibt die im Voraus angesagte Formel. Es lohnt sich auch, die Formel
für die Determinante einer 3 × 3-Matrix auswendig zu lernen:


a b c
det d e f  = aej + bf g + cdh − ceg − af h − bdj.
g h j
Proposition 3.5. Sei n ∈ N. Für n × n-Matrizen über einem kommutativen Ring
R mit Eins gilt:
(i) det(A) = det(t A).
(ii) det(AB) = det(A) det(B).
(iii) Ist A = (aij )1≤i,j≤n eine Diagonalmatrix, obere Dreiecksmatrix oder untere Dreiecksmatrix, so gilt det(A) = a11 · · · ann .
(iv) Ist A = (Aij )1≤i,j≤k eine Blockdiagonalmatrix, obere Blockdreiecksmatrix oder
untere Blockdreiecksmatrix, so gilt det(A) = det(A11 ) · · · det(Akk ).
(v) Die Determinante ist kompatibel mit Homomorphismen von kommutativen Ringen mit Eins.
(vi) Entsteht A0 aus A durch eine elementare Zeilenumformung so gilt det(A0 ) =
c det(A) im Fall des Multiplizierens einer Zeile mit c ∈ R× bzw. det(A0 ) = det(A)
im Fall des Addierens eines Vielfachen einer Zeile zu einer anderen. Das Gleiche gilt
für eine elementare Spaltenumformung.
(vii) det(cA) = cn det(A) für c ∈ R.
(viii) det(Pσ ) = sgn(σ) für σ ∈ Sn .
In Proposition 3.5 betrachten wir Blockmatrizen der folgenden Form. Sei k ∈ N,
seien `1 , . . . , `k ∈ N mit `1 + · · · + `k = n. Für A = (aij )1≤i,j≤n setzen wir
Acd := (aij )`1 +···+`c−1 +1≤i≤`1 +···+`c , .
`1 +···+`d−1 +1≤j≤`1 +···+`d
Die Begriffe Blockdiagonalmatrix usw. sind bezüglich der Blöcke Acd analog wie
Diagonalmatrix usw. definiert.
Sei R0 ein zweiter kommutativer Ring mit Eins. Kompatibilität mit Homomorphismen in (v) bedeutet: ist f : R → R0 ein Homomorphismus von kommutativen Ringen
mit Eins, so gilt für A = (aij )1≤i,j≤n ∈ Mn (R):
det(f (aij ))1≤i,j≤n = f (det(A)).
Beweis. Es gilt sgn(σ −1 ) = sgn(σ) für alle σ ∈ Sn , also für A = (aij ):
X
det(A) =
sgn(σ)a1,σ−1 (1) a2,σ−1 (2) · · · an,σ−1 (n) .
σ∈Sn
=
X
σ∈Sn
t
sgn(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n .
= det( A).
62
3. Die Determinante
Sei B ∈ Mn (K). Die Abbildung A 7→ det(AB) ist alternierend multilinear und bildet
En auf det(B) ab, also gilt det(AB) = det(B) det(A).
Für σ ∈ Sn gilt
(∀i : σ(i) ≤ i) ⇒ σ = id.
Ist A = (aij ) eine Diagonal- oder untere Dreiecksmatrix, so analysieren wir die
Summanden in der Formel für det(A): mit σ = id bekommen wir a11 · · · ann , mit
σ 6= id bekommen wir stets Null. Mit det(t A) = det(A) ist der Fall einer oberen
Dreiecksmatrix auch klar.
Ähnlich behandeln wir der Fall einer Blockdreiecksmatrix. Permutationen, die alle
der folgenden Mengen
{1, . . . , `1 }, {`1 + 1, . . . , `1 + `2 }, . . . , {`1 + · · · + `k−1 + 1, . . . , `1 + · · · + `k }
in sich abbilden, bilden eine Teilmenge, die mit S1 × · · · × Sk identifiziert werden
kann. (Es gibt die sogenannte direkte Produkte von Gruppen, wobei S1 × · · · × Sk
auch eine Gruppe ist, aber die Betrachtung als Menge reicht für diese Diskussion
aus.) Für jedes σ auserhalb dieser Menge ist der entsprechende Summand in der
Formel für det(A) Null. Übrig bleibt eine Summe über (σ1 , . . . , σk ) ∈ S1 × · · · × Sk
und es folgt, det(A) = det(A11 ) . . . det(Akk ).
Die Kompatibilität mit Homomorphismen ist klar aus der Formel für det(A).
Weil elementare Spalten- und Zeilenumformungen der Multiplikation mit Elementarmatrizen entsprechen folgt (vi) aus (ii). Dann ist (vii) klar. Aus Lemma 3.3 folgt
(viii).
Nach Proposition 3.5 (iii) und (vi) folgt, die Determinante einer Matrix über einem Körper kann wie angekündigt berechnet werden, in dem wir die Matrix mit
dem Gauss-Verfahren in Zeilenstufenform bringen und dann die Diagonaleinträge
multiplizieren. Denn das in §2.3 vorgestellte Gauss-Verfahren macht nur von den elementaren Zeilenumformungen des Typs „ein Vielfaches einer Zeile zu einer anderen
addieren“ Gebrauch. Als Beispiel berechnen wir det(A) für


1
3 −1 1
−2 −5 1
7
.
A := 
2
1 −1 −1
−3 −1 2
1
Aus dem Gauss-Verfahren


1 3 −1 1
0 1 −1 9 


A
0 −5 1 −3
0 8 −1 4

1
0

0
0

3 −1
1
1 −1
9 

0 −4 42 
0 7 −68

1
0

0
0

3 −1
1
1 −1
9 

0 −4 42 
0 0 11/2
3.4. Weitere Eigenschaften der Determinante
63
haben wir det(A) = 1 · 1 · (−4) · (11/2) = −22. Mit der Formel für die Determinante
sind 24 Produkte zu berechnen und kombinieren:
5 − 10 − 1 + 1 + 14 − 7 − 6 + 12 + 6 − 9 − 84 + 63 + 2 − 2 − 10 + 15
+ 14 − 21 − (−4) + (−2) + (−20) − (−15) − (−2) + (−3) = −22.
Es folgt auch, für eine quadratische Matrix A über einem Körper K:
⇔
A ist invertierbar
det(A) ∈ K × .
Korollar 3.6. Ist R ein kommutativer Ring mit Eins, n ∈ N, A ∈ Mn (R) und
B ∈ GLn (R), so gilt
det(BAB −1 ) = det(A).
Beweis. Mit det(BAB −1 ) = det(BA) det(B −1 ) = det(B −1 ) det(BA) = det(B −1 BA)
und B −1 B = En haben wir das Resultat.
Mit Korollar 3.6 definieren wir det(f ) für einen Endomorphismus f ∈ End V eines
endlichdimensionalen Vektorraums V über einem Körper. Sei dim(V ) = n. Ist v1 ,
. . . , vn eine Basis, so gibt es eine entsprechende Matrix A ∈ Mn (K). Wir definieren
det(f ) := det(A).
Entsprechend einer zweiten Basis v10 , . . . , vn0 ist eine Matrix A0 ∈ Mn (K) mit (§2.6)
A0 = SAS −1 für ein S ∈ GLn (K). Also gilt nach Korollar 3.6: det(A0 ) = det(A).
Wir haben also
ker(f ) = 0
⇔
im(f ) = V
⇔
f ∈ GL(V )
⇔
det(f ) 6= 0,
wobei GL(V ) die Gruppe aller Automorphismen (d.h., bijektiven Endomorphismen)
von V bezeichnet.
3.4
Weitere Eigenschaften der Determinante
Definition. Sei A = (aij ) ∈ Mat(m × n, R) eine Matrix über einem kommutativen
Ring R mit Eins. Als Minoren der k-ten Ordnung für k ∈ N gelten die Determinante
der Matrizen (aij )i∈I, j∈J für I ⊂ {1, . . . , m} und J ⊂ {1, . . . , n} mit |I| = |J| = k.
Beispiel. Ist A eine Matrix über einem Körper K, so ist der Rang von A die grösster
Ordnung eines von Null verschiedenen Minors. (Die grösste Ordnung eines von Null
verschiedenen Minors bleibt unter elementaren Zeilenumformungen unverändert. Die
Aussage ist klar für eine Matrix in Zeilenstufenform.)
64
3. Die Determinante
Wichtig ist der Fall von Minoren der (n−1)-ten Ordnung einer quadratischen Matrix
A ∈ Mat(n × n, R). Entsprechende I, J ⊂ {1, . . . , n} mit |I| = |J| = n − 1 sind durch
c, d ∈ {1, . . . , n} bestimmt, in dem wir
I := {1, . . . , n} r {c}
und
J := {1, . . . , n} r {d}
setzen. Sei
A0cd := (aij )i∈{1,...,n}r{c},j∈{1,...,n}r{d} .
(1)
Die Minoren der (n − 1)-ten Ordnung von A sind also det(A0cd ) für 1 ≤ c, d ≤ n.
Proposition 3.7 (Laplacescher Entwicklungssatz). Sei A = (aij ) ∈ Mat(n × n, R)
eine quadratische Matrix über einem kommutativen Ring R mit Eins und A0cd für
1 ≤ c, d ≤ n wie in (1). Dann gilt für 1 ≤ c ≤ n (Entwicklung nach der c-ten Zeile)
det(A) =
n
X
(−1)c+j acj det(A0cj )
j=1
sowie für 1 ≤ d ≤ n (Entwicklung nach der d-ten Spalte)
det(A) =
n
X
(−1)i+d aid det(A0id ).
i=1
Beweis. Es genügt, die erste Formel zu beweisen. Wir schreiben A als


v1


..


.




v
c−1


ac1 . . . acn 




vc+1


..
.
Weil die Determinante multilinear ist, gilt



v1
v1



..
..



.
.






det(A) = ac1 det  vc−1  + · · · + acn det  vc−1
 e1 
 en



..
..
.
.




.



Den j-ten Term multiplizieren wir links mit der Permutationsmatrix P(c,1,...,c−1) und
rechts mit P(1,...,j) , so entsteht eine Matrix mit erstem
P Zeilenvektor e1 und unten
rechts dem (n−1)×(n−1)-Block A0cj . Es gilt det(A) = nj=1 (−1)c−1 det(A0cj )(−1)j−1
nach Proposition 3.5 (ii), (iv) und (viii) und wir haben die gewünschte Formel.
3.4. Weitere Eigenschaften der Determinante
65
Beispiel. Eine Determinante lässt sich oft durch die Eigenschaften berechnen, wenn
die Matrixeinträge einem Muster folgen. Als einfaches Beispiel, sei an die Determinante der n × n-Matrix


2 1
0 ... 0
1 2

1
0


0 1

2
1
0




...
0 ... 0
1 2
über Z. Nach dem Laplaceschen Entwicklungssatz haben wir an = 2an−1 − an−2 .
Wir berechnen a1 = 2, a2 = 3 und a3 = 4. Dass an = n + 1 für alle n ∈ N>0 ist
durch Induktion bestätigt.
Definition. Die zu A ∈ Mat(n×n, R) komplementäre Matrix ist A# = (a#
ij )1≤i,j≤n
i+j det(A0 ).
mit a#
ji
ij := (−1)
Das Vorzeichen (−1)i+j und Vertauschen der Indizes A0ji sind zu beachten!
Korollar 3.8. Für eine quadratische Matrix A ∈ Mat(n × n, R) über einem kommutativen Ring R mit Eins gilt
A# A = AA# = det(A)En .
Beweis. Die Diagonaleinträge von A# A und AA# sind det(R) nach Proposition 3.7.
Ebenfalls sind die Einträge von AA# ausserhalb der Hauptdiagonale die Determinanten von Matrizen, die jeweils zwei gleiche Zeilen haben. Analoges gilt für A# A,
dann kommen Matrizen vor, die zwei gleiche Spalten haben. Die Determinante einer
Matrix ist stets Null, wenn die Matrix zwei gleiche Zeilen oder Spalten hat.
Korollar 3.9. Für eine quadratische Matrix A ∈ Mat(n × n, R) über einem kommutativen Ring R mit Eins sind folgende Aussagen äquivalent.
(i) A ∈ GLn (R).
(i0 ) Es gibt ein B ∈ Mat(n × n, K) mit BA = En .
(i00 ) Es gibt ein C ∈ Mat(n × n, K) mit AC = En .
(ii) det(A) ∈ R× .
Beweis. Es folgt (i0 ) und (i00 ) direkt aus (i). Nach Proposition 3.5 (ii) folgt (ii) aus
(i0 ) sowie aus (i00 ). Nach Korollar 3.8 haben wir (ii) ⇒ (i).
Beispiel. Sei A ∈ GLn (R). Für b ∈ Rn hat die Gleichung Ax = b eine eindeutige
Lösung x = (x1 , . . . , xn ) ∈ Rn . Die Cramersche Regel ist die folgende Formel:
xj = (det(A))−1 det(A(j) ),
66
3. Die Determinante
für alle j, wobei mit A(j) die Matrix bezeichnet wird, die aus A entsteht, wenn wir
die j-te Spalte durch den Spaltenvektor b ersetzen.
Es gibt auch eine Version von A# für gewisse nichtquadratische Matrizen. Sei A ∈
Mat(m × n, R) mit m ≥ n − 1. Wir setzen
m
k := m − n + 1
und
M :=
.
n−1
Wie wir schon gesehen haben, lässen sich die Teilmengen I ⊂ {1, . . . , m} mit |I| = k
lexikographisch anordnen und so mit 1, . . . , M indexieren. Wir definieren A# =
(a#
ij )1≤i≤n, 1≤j≤M durch
c+1
a#
sgn(Id ) det(aij )i∈{1,...,m}rId , j∈{1,...,n}r{c}
cd := (−1)
für 1 ≤ c ≤ n und 1 ≤ d ≤ M . Der (c, d)-Eintrag von AA# ist
(−1)c+` sgn(Id ) det(aij )i∈({1,...,m}rId )∪{c}, 1≤j≤n
falls c zu Id gehört und zwar das `-te Element ist, wenn die Elemente aus Id steigend
aufgelistet sind, und sonst ist Null.
Wichtig ist die klassische Vandermonde-Determinante.
Proposition 3.10. Sei
Dann haben wir

1
1
det 

1
R ein kommutativer Ring mit Eins und x1 , . . . , xn ∈ R.
x1
x2
x21
x22
xn x2n

. . . xn−1
1
Y

. . . xn−1
2
=
(xj − xi ).

...
1≤i<j≤n
. . . xn−1
n
Beweis. Sei ∆n (x1 , . . . , xn ) die Determinante. Mit elementaren Spaltenumformungen
kommen wir zu einer Folge von Matrizen mit derselben Determinante:


0
1 x1 x21 . . . x1n−2
1 x2 x2 . . . xn−2 xn−2 (x2 − x1 ) 
2
2
2

,


...
2
n−2
n−2
1 xn xn . . . xn
xn (xn − x1 )
dann


1 x1 x21 . . .
0
0
1 x2 x2 . . . xn−3 (x2 − x1 ) xn−2 (x2 − x1 ) 
2
2
2

,


...
2
n−3
n−2
1 xn xn . . . xn (xn − x1 ) xn (xn − x1 )
3.4. Weitere Eigenschaften der Determinante
usw. bis

1
0
0
1 x2 − x1 x2 (x2 − x1 )


1 xn − x1 xn (xn − x1 )
67

...
0
0
. . . xn−3
(x2 − x1 ) x2n−2 (x2 − x1 ) 
2
.

...
n−3
n−2
. . . xn (xn − x1 ) xn (xn − x1 )
Deshalb gilt
∆n (x1 , . . . , xn ) = (x2 − x1 ) · · · (xn − x1 )∆n−1 (x2 , . . . , xn ).
Mitsamt ∆1 (x) = 1 für alle x ∈ R folgt die angegebene Formel.
Proposition 3.11 (Satz von Binet-Cauchy). Seien A, B ∈ Mat(m × n, R) zwei
Matrizen derselben Grösse über einem kommutativen Ring R mit Eins. Dann gilt
X
det(A(t B)) =
det(AI ) det(BI ),
I⊂{1,...,n}
|I|=m
wobei mit Index I (wie AI , BI ) die aus den durch i ∈ I indexierten Spalten (von
links nach rechts) bestehenden Matrix bezeichnet wird.
Beweis. Beide Seiten sind multilinear in den Zeilen von A und den Zeilen von B.
Deshalb genügt es, den Fall zu behandeln, bei dem die Zeilen von A sowie von B aus
den Standardbasis e1 , . . . , en kommen. Also betrachten wir




e c1
ed1




..
..
A := 
und
B := 

.
.
.
ecm
edm
Es gibt verschiedene Möglichkeiten. Gibt es i 6= j mit ci = cj , so haben A(t B) und
AI stets zwei gleiche Zeilen. Beide Seiten sind also Null. Ähnlich behandeln wir den
Fall, dass es i 6= j gibt, mit di = dj .
Übrig bleibt der Fall, bei dem für alle j es höchstens ein i gibt mit ci = j sowie
höchstens ein i0 gibt mit di0 = j. Insbesondere gibt es für alle i höchstens ein i0 mit
ci = di0 . Dann hat A(t B) an der (i, i0 )-Stelle den Eintrag 1, während alle sonstigen
Einträge Null sind. Nur in dem Fall, dass es für alle i ein i0 mit ci = di0 gibt, gilt
det(A(t B)) 6= 0. Auch nur in dem Fall gibt es ein I ⊂ {1, . . . , n} mit |I| = m, so
dass det(AI ) det(BI ) 6= 0. Also sei
J := {j | es gibt ein i mit ci = j und ein i0 mit di0 = j}.
mit |J| = m und J = {j1 , . . . , jm }, j1 < · · · < jm . Es gibt also σ, τ ∈ Sn , so dass




ejσ(1)
ejτ (1)




..
..
A := 
und
B := 

.
.
.
ejσ(m)
ejτ (m)
68
3. Die Determinante
Dann haben wir
A(t B) = Pτ −1 σ
und deshalb
det(A(t B)) = sgn(σ) sgn(τ ).
An der rechten Seite gilt det(AI ) det(BI ) 6= 0 nur für I = J. Wir haben AJ = Pσ
und BJ = Pτ und die Formel gilt.
Seien V und W endlichdimensionale Vektorräume über einem Körper, n := dim(V ),
m := dim(W ) und sei f : V → W eine lineare Abbildung. Ob f injektive oder
surjektiv ist hängt direkt von rk(f ) ab:
• Falls m = n: f ist injektiv ⇔ f ist surjektiv ⇔ rk(f ) = n.
• Falls m < n ist f nicht injektiv. Es gilt: f ist surjektiv ⇔ rk(f ) = m.
• Falls m > n ist f nicht surjektiv. Es gilt: f ist injektiv ⇔ rk(f ) = n.
(Die Aussagen folgen aus Propositionen 2.10 und 2.12 (ii) und der Definition von
rk(f ).)
Seien jetzt V := Rn und W := Rm , wobei R ein kommutativer Ring mit Eins ist.
Analog fragen wir, wenn ist eine R-lineare Abbildung f : V → W injektiv? surjektiv?
Eine passende Antwort sollte ein Kriterium bezüglich der entsprechenden Matrix
A ∈ Mat(m × n, R) sein.
Proposition 3.12. Sei A ∈ Mat(m × n, R) eine Matrix über einem kommutativen
Ring R mit Eins. Die zu A entsprechende R-lineare Abbildung Rn → Rm ist:
(i) genau dann surjektiv, wenn 1 eine R-Linearkombination der Minoren von A der
m-ten Ordnung ist.
(ii) genau dann injektiv, wenn es kein 0 6= c ∈ R gibt mit cd = 0 für alle Minoren d
von A der n-ten Ordnung.
Beweis. (i), „⇒“: Ist Rn → Rm surjektiv, so gibt es ein B ∈ Mat(n × m, R) mit
AB = Em . Nach dem Satz von Binet-Cauchy haben wir
X
1 = det(AB) =
det(AI ) det((t B)I )
I⊂{1,...,n}
|I|=m
und 1 ist eine R-Linearkombination der Minoren det(AI ).
(i),
P „⇐“: Gegeben sei (cI ), indexiertI durch I ⊂ {1, . . . , n} mit |I| = m, so dass
cI det(AI ) = 1. Wir definieren M ∈ Mat(n × m, R) folgenderwise: in den von
i ∈ I indexierten Zeilen setzen wir (AI )# , sonst ist M I Null. Sei
X
B :=
cI M I .
I⊂{1,...,n}
|I|=m
3.4. Weitere Eigenschaften der Determinante
Dann haben wir
X
AB =
cI AM I =
I⊂{1,...,n}
|I|=m
X
cI AI (AI )# =
I⊂{1,...,n}
|I|=m
69
X
cI det(AI )Em = Em .
I⊂{1,...,n}
|I|=m
(ii), „⇒“: durch Induktion nach n. Der Fall n = 1 ist klar. Sei A ∈ Mat(m×(n+1), R).
Angenommen, es gibt ein 0 6= c ∈ R mit cd = 0 für alle Minoren d von A der (n + 1)ten Ordnung. Dann gilt cAA# = 0. Weil die zu A entsprechende lineare Abbildung
injektiv ist, haben wir cA# = 0, d.h., c annuliert alle Minoren von A der n-ten
Ordnung. Insbesondere annuliert c alle Minoren der n-ten Ordnung von A0 , wobei
die Matrix A0 aus A durch die Entfernung der letzten Spalte entsteht. Nach der
Induktionshypothese ist die zu A0 entsprechende lineare Abbildung nicht injektiv
und wir haben eine Widerspruch.
(ii), „⇐“: Wir schreiben A = (aij ). Sei x = (x1 , . . . , xn ) ∈ ker(A), sei 1 ≤ j ≤ n. Wir
haben
n
X
xk aik
xj aij = −
k=1
k6=j
für alle i. Das heisst, die Matrix Aj , die aus A entsteht wenn wir die j-te Spalte mit
xj multiplizieren, hat eine Spalte, die eine Linearkombination der anderen Spalten
ist. Die Minoren von Aj der n-ten Ordnung sind also Null und es folgt, xj annuliert
die Minoren von A der n-ten Ordnung. Also gilt xj = 0.
Korollar 3.13. Sei R ein kommutativer Ring mit Einselement 1 6= 0. Gibt es für
einen R-Modul M eine endliche Basis, so ist die Kardinalität einer endlichen Basis
wohldefiniert, d.h., es gibt ein eindeutiges n ∈ N, so dass es einen Isomorphismus
Rn → M gibt.
Beweis. Gegeben seien zwei solchen Isomorphismen Rn → M und Rm → N . Wir
nehmen an, n ≤ m. Es gibt also einen Isomorphismus Rn → Rm . Nach Proposition
3.12 (i) muss es einen Minor der m-ten Ordnung geben. Dies ist nur so für m = n.
Sei R ein kommutativer Ring mit Einselement 1 6= 0, seien V := Rn und W := Rm ,
sei f : V → W eine R-lineare Abbildung. Es ist nicht mehr im Fall m = n so, im
Allgemeinen, dass f genau dann injektiv ist, wenn f surjektiv ist (z.B., Z → Z,
a 7→ 2a, ist injektiv aber nicht surjektiv). Wir können nach Proposition 3.12 die
Folgenden behaupten.
• Falls m = n: f ist surjektiv ⇒ f ist injektiv.
• Falls m < n ist f nicht injektiv.
• Falls m > n ist f nicht surjektiv.
70
3. Die Determinante
Anders als für Vektorräume gibt es Moduln, für die es keine Basis gibt. Es gibt sogar
Moduln mit endlichem Erzeugendensystem ohne Basis, wie z.B. die Z-Moduln Z/nZ
für n ∈ Z, n ∈
/ {0, 1, −1}.
Definition. Ein R-Modul heisst endlich erzeugt falls es ein endliches Erzeugendensystem gibt. Ein R-Modul heisst frei falls es eine Basis gibt.
Es gibt nur für endlich erzeugte freie R-Moduln eine endliche Basis. Für diejenigen
Moduln können wir die Determinante eines Endomorphismus definieren, genau wie
im Fall eines endlichdimensionalen Vektorraums über einem Körper (Diskussion nach
Korollar 3.6).
3.5
Orientierung
Sei S ⊂ Rm für ein m ∈ N. Wir definieren
p∼q
:⇔
∃ ein Weg von p nach q
für p, q ∈ S, wobei ein Weg von p nach q eine stetige Abbildung f vom abgeschlossenen Einheitsintervall [0, 1] nach S mit f (0) = p und f (1) = q ist. Dies
ist eine Äquivalenzerelation. Die entsprechenden Äquivalenzklassen heissen Wegzusammenhangskomponenten.
Der Begriff hat keinen Sinn für eine abstrakte Menge S. Falls eine Menge S in Rm eingebettet werden kann ist die obige Definition anwendbar, aber wohl möglich von der
Einbettung abhängig. Wir werden annehmen, es gibt eine Familie von Einbettungen
(ϕi : S → Rm )i∈I mit der Eigenschaft:
Es gibt einen Homöomorphismus ψij : Rm → Rm mit ψij ◦ ϕi = ϕj
(1)
für alle i, j ∈ I. Ein Homöomorphismus ist eine stetige bijektive Abbildung mit
stetigem Inversen. Bezüglich der Einbettungen (ϕi )i∈I sind die Wegzusammenhangskomponenten von S wohldefiniert.
Sei V ein endlichdimensionaler reeller Vektorraum, n := dim(V ) und
S := {Basen v1 , . . . , vn ∈ V }.
2
Es gibt eine durch S indexierte Familie von Einbettungen S → Rn . Eine Basis b1 ,
. . . , bn ∈ V bestimmt durch f (bi ) := ei einen Isomorphismus f : V → Rn . Unter dem
Isomorphismus entsprechen Basiselemente v1 , . . . , vn Vektoren aus Rn , also haben
wir
2
ϕ : S → Rn ,
ϕ(v1 , . . . , vn ) := (f (v1 ), . . . , f (vn )).
Eine andere Basis b01 , . . . , b0n ∈ V bestimmt einen Isomorphismus f 0 : V → Rn sowie
2
entsprechende Einbettung ϕ0 : S → Rn und es gibt (§2.5) ein A ∈ GLn (R), so dass
3.5. Orientierung
71
der entsprechende Isomorphismus Rn → Rn in einem kommutativen Diagramm sitzt
mit f und f 0 . Für die Blockdiagonalmatrix


A
0


..


.
0
A
2
2
sitzt ein entsprechender Isomorphismus Rn → Rn , der auch ein Homöomorphismus
ist, in einem kommutativen Diagramm mit ϕ und ϕ0 . Also gilt (1).
Als andere Ansicht haben wir für jede Basis v1 , . . . , vn ∈ V eine Basis f (v1 ), . . . ,
f (vn ) von Rn . Also Faktorisiert ϕ als
2
S → GLn (R) ⊂ Mn (R) ∼
= Rn
und wir kommen zur Aufgabe, die Wegzusammenhangskomponenten von GLn (R) zu
beschreiben.
Proposition 3.14. Für alle n ∈ N>0 besteht GLn (R) aus zwei Wegzusammenhangskomponenten. Spezifisch gehören zwei invertierbare reelle n × n-Matrizen genau dann zu derselben Wegzusammenhangskomponenten, wenn ihre Determinanten
dasselbe Vorzeichen haben.
Beweis. Entsteht eine invertierbare reelle Matrix aus einer anderen durch eine elementare Zeilenumformung des Typs „ein Vielfaches einer Zeile zu einer anderen addieren“, so gehören die beiden zu derselben Wegzusammenhangskomponente. Ein
Weg von der einen nach der anderen wird gegeben durch Linksmultiplikation mit


1
...
0
 1



 ..
.
..
.. 
.

.




tc
0
...
1
für t ∈ [0, 1]. Das Gleiche gilt für das Multiplizieren einer Zeile mit einer positiven
Konstanten:


1
...
0
 1



 ..
.
.
..
.. 
.



t


c




.
.

. 
0
...
1
Es gibt eine Variante des Gauss-Jordan-Algorithmus wobei die elementaren Zeilenumformungen des Typs „eine Zeile mit einer von Null verschiedenen Konstanten
72
3. Die Determinante
multiplizieren“ nur mit positiven Konstanten durchgeführt wird. Aus einer invertierbaren reellen Matrix wird eine Diagonalmatrix mit Diagonaleinträge ±1. Zum
Abschluss entsteht durch Linksmultiplikation mit Matrizen der Form


1
0
 ..



.




cos(πt)
−
sin(πt)




..


.




sin(πt)
cos(πt)




..

. 
0
1
die Einheitsmatrix oder die Diagonalmatrix mit Diagonaleinträgen −1, 1, 1, . . . , 1.
Wir haben also bewiesen, dass GLn (R) höchstens zwei Wegzusammenhangskomponenten hat. Aber det : GLn (R) → R× ist eine stetige Abbildung, also gibt es keinen
Weg von einer Matrix mit negativer Determinante nach einer Matrix mit positiver
Determinante.
Definition. Sei V ein endlichdimensionaler reeller Vektorraum. Eine Orientierung
auf V ist eine Wegzusammenhangskomponente der Basen von V .
Für dim(V ) > 0 gibt es nach Proposition 3.14 genau zwei Orientierungen auf V . Die
Orientierung der Standardbasis auf Rn heisst Standardorientierung.
Im allgemeinen Fall gibt es keine kanonische Bestimmung einer Orientierung. Diesen
Punkt können wir deutlich machen, in dem wir eine stetige Familie von Vektorräumen
betrachten.
Sei Ω ⊂ Rm . Man kann tatsächlich stetige Familien von Vektorräumen über Ω definieren, sogenannte Vektorbündel. Einfachheitshalber definieren wir nur stetige Familien
von Untervektorräumen eines gegebenen Vektorraums V und zwar nur für V = Rp
für ein p ∈ N.
Seien n, p ∈ N mit n ≤ p. Eine Familie (Er )r∈Ω von n-dimensionalen Untervekttorräumen von Rp gilt als stetig, wenn es für alle r ∈ Ω eine offene Teilmenge U ⊂ Rm
mit r ∈ U und eine stetige Abbildung
B : Ω ∩ U → Mat(n × p, R)
(2)
Es = ZR(B(s))
(3)
gibt mit
für alle s ∈ Ω ∩ U .
Sei zudem o(r) eine Orientierung auf Er für alle r ∈ Ω. Ist die Familie von Vektorräumen stetig, so gilt die Familie von Orientierungen als stetig wenn es für alle
73
r ∈ Ω eine offene Teilmenge U ⊂ Rm mit r ∈ U und stetige Abbildung (2) gibt,
so dass nebst der Gleichheit (3) auch o(s) die Orientierung der Zeilenvektoren (von
oben nach unten) von B(s) ist für alle s ∈ Ω ∩ U . Das Ganze heisst stetige Familie
von orientierten n-dimensionalen Untervektorräumen von Rp .
Sei (Er )r∈Ω eine stetige Familie von n-dimensionalen Untervektorräumen von Rp . Sei
e := {(r, o) | r ∈ Ω und o ist eine Orientierung auf Er }.
Ω
e → Ω. Wir
Durch (r, o) 7→ r haben wir die 2-zu-1 Orientierungsabdeckung ν : Ω
−1
bestimmen zudem: für alle U und B wie in (2) soll ν (Ω ∩ U ) zu (Ω ∩ U ) × {±1}
homöomorph sein, wobei für s ∈ Ω ∩ U ,
(
(s, 1),
falls o die Orientierung der Zeilenvektoren von B(s) ist,
(s, o) 7→
(s, −1), sonst.
Für eine beliebige Teilmenge T ⊂ Rq mit q ∈ N folgt: Eine Abbildung
e
f˜: T → Ω
ist genau dann stetig, wenn ν ◦ f˜: T → Ω stetig ist und (Eν(f˜(t)) )t∈T mit der Orientierung aus f˜(t) für alle t ∈ T eine stetige Familie von orientierten n-dimensionalen
Untervektorräumen von Rp ist.
Beispiel. Sei Ω der Einheitskreis in R2 , also
Ω = {(cos(θ), sin(θ)) | θ ∈ R}.
Dann ist
E(cos(θ),sin(θ)) := {(t cos( 2θ ), t sin( 2θ )) | t ∈ R}
eine stetige Familie von 1-dimensionalen Untervektorräumen von R2 (wohldefiniert,
weil aus θ0 = θ +π stets (cos(θ0 /2), sin(θ0 /2)) = (− cos(θ/2), − sin(θ/2)) folgt, Stetigkeit mithilfe der Halbwinkelformeln der Trigonometrie). Die Orientierungsabdeckung
ist auch zum Einheitskreis homömorph,
Ω̃ ∼
= {(cos(ρ), sin(ρ)) | ρ ∈ R},
wobei (cos(ρ), sin(ρ)) ∈ Ω̃ dem orientierten Untervektorraum von R2 mit 1-elementiger
Basis (cos(ρ), sin(ρ)) ∈ R2 entspricht, also ν(cos(ρ), sin(ρ)) = (cos(2ρ), sin(2ρ)).
4
Eigenwerte und Eigenvektoren
Sei K ein Körper, V ein endlichdimensionaler Vektorraum über K und f : V → V
ein Endomorphismus. Ist f diagonalisierbar (§2.6), so gibt es eine Basis v1 , . . . , vn ,
74
4. Eigenwerte und Eigenvektoren
bezüglich derer f durch eine Diagonalmatrix

λ1 0

..

.
0



λn
dargestellt wird. Die Eigenschaft f (vi ) = λi vi , die in diesem Fall für alle Basiselemente vi gilt, spielt eine wichtige Rolle, zum Beispiel in Diagonalisierbarkeitskriterien.
4.1
Definition und Diagonalisierbarkeitskriterium
Definition. Sei K ein Körper, V ein Vektorraum über K und f : V → V ein Endomorphismus. Dann heisst λ ∈ K ein Eigenwert von f , falls es einen von Null
verschiedenen Vektor v ∈ V gibt, mit f (v) = λv. Ein solcher Vektor v heisst Eigenvektor. Der Eigenraum eines beliebigen λ ∈ K ist
Eig(f, λ) := ker(λ idV − f ).
Die Eigenwerte, Eigenvektoren und Eigenräume einer quadratischen Matrix A ∈
Mn (K) sind diejenigen des assoziierten Endomorphismus von K n .
Es ist klar, Eig(f, λ) ∩ Eig(f, µ) = 0 für λ, µ ∈ K mit λ 6= µ (weil λv = f (v) = µv
für v ∈ Eig(f, λ) ∩ Eig(f, µ)). Allgemeiner gilt für m ∈ N>0 , paarwise verschiedene
λ1 , . . . , λm ∈ K und v1 ∈ Eig(f, λ1 ), . . . , vm ∈ Eig(f, λm ):
v1 + · · · + vm = 0
⇒
v1 = · · · = vm = 0.
Aus v1 + · · · + vm = 0 haben wir auch λj1 v1 + · · · + λjm vm = 0 für j = 1, . . . , m − 1.
Sei A := (λj−1
)1≤i,j≤m die Vandermonde-Matrix von λ1 , . . . , λm (Proposition 3.10)
i
und A# = (a#
ij ) die komplementäre Matrix. Dann haben wir
0=
m
X
i−1
i−1
a#
ij (λ1 v1 + · · · + λm vm )
i=1
=
Y
(λi0 − λi ) vj
1≤i<i0 ≤m
für alle j. Weil λi 6= λi0 für alle 1 ≤ i < i0 ≤ m, folgt vj = 0 für alle j.
Proposition 4.1. Sei K ein Körper, V ein endlichdimensionaler Vektorraum über
K und f : V → V ein Endomorphismus. Dann sind die folgenden Aussagen äquivalent.
(i) Der Endomorphismus f ist diagonalisierbar.
4.2. Charakteristisches Polynom und Trigonalisierbarkeit
75
(i0 ) Es gibt eine aus Eigenvektoren bestehende Basis von V .
(ii) Die Summe von Eig(f, λ) über die Eigenwerte λ ist V .
(ii0 ) V ist die direkte Summe von Eig(f, λ) über die Eigenwerte λ.
Beweis. Es ist klar, (i) ⇔ (i0 ). Nach der obigen Bemekrung über die lineare Unabhängigkeit einer Familie der zu paarweise verschiedenen Eigenwerten gehörenden
Eigenvektoren gilt (ii) ⇔ (ii0 ).
Ist v1 , . . . , vn eine Basis, bezüglich derer f durch eine Diagonalmatrix dargestellt
wird, so gibt es einen Eigenwert λi mit f (vi ) = λi vi , für alle i und
Eig(f, λ1 ) + · · · + Eig(f, λn ) = V.
Also haben wir (i) ⇒ (ii).
Gilt (ii), so bilden Basen von Eig(f, λ) für alle Eigenwerte λ zusammen eine Basis
von V und wir haben (ii) ⇒ (i).
Für eine quadratische Matrix A ∈ Mn (K) gibt es ein analoges Kriterium, wobei die
Diagonalisierbarkeit, die Existenz einer aus Eigenvektoren bestehenden Basis von K n
und die Zugänglichkeit von K n als Summe bzw. direkte Summe von Eigenräumen
äquivalent sind.
4.2
Charakteristisches Polynom und Trigonalisierbarkeit
Die Bemerkung, dass ein Eigenvektor zum Kern von λ idV − f gehört, führt zu einem
praktischen Verfahren im Fall eines Endomorphismus eines eindlichdimensionalen
Vektorraums zur Berechnung aller Eingenwerte und deren Eigenräume. Denn für
λ ∈ K gehört λ idV − f genau dann zu GL(V ), wenn det(λ idV − f ) 6= 0 (§3.3).
Definition. Das charakteristische Polynom eines Endomorphismus f : V → V
eines endlichdimensionalen Vektorraums V über einem Körper K ist
Pf := det(T idV − f ) ∈ K[T ].
Das charakteristische Polynom einer quadratischen Matrix A ∈ Mn (K) ist
PA := det(T En − A) ∈ K[T ].
Im zweiten Ausdruck betrachten wir A ∈ Mn (K) auch als Element von Mn (K[T ]).
Dann gehört auch T En − A zu Mn (K[T ]) und wir haben det(T En − A) ∈ K[T ]. Als
Beispiel,
1 3
T − 1 −3
A :=
∈ M2 (R)
T En − A =
4 2
−4 T − 2
det(T En − A) = (T − 1)(T − 2) − (−3)(−4) = T 2 − 3T − 10 ∈ R[T ].
76
4. Eigenwerte und Eigenvektoren
Wie im Fall von det(f ) wird det(T idV − f ) verstanden durch die Auswahl einer
Basis für V , damit wir zu einer darstellenden Matrix A ∈ Mn (K) (mit n = dim(V ))
kommen und det(T idV − f ) := det(T En − A) definieren. Eine andere Basis fürht zu
einer Matrix A0 mit A0 = SAS −1 für ein S ∈ GLn (K). Auch S kann als Element
von GLn (K[T ]) betrachtet werden und wir haben
det(T En − A0 ) = det(S(T En − A)S −1 ) = det(T En − A)
nach Korollar 3.6.
Beispiel. Ein beliebiges normiertes Polynom
T n + an−1 T n−1 + · · · + a1 T + a0
ist charakteristisches Polynom der sogennanten Begleitmatrix


0 0 . . . 0 −a0
1 0 . . . 0 −a1 




.
.
.
.
.
.
0 1
. .
. 

.
 .. . .

.
. . 0 −a
.
.
n−2 
0 . . . 0 1 −an−1
Proposition 4.2. Die Eigenwerte eines Endomorphismus f : V → V eines endlichdimensionalen Vektorraums V über einem Körper K bzw. einer quadratischen Matrix
A ∈ Mn (K) sind genau die Nullstellen des charakteristischen Polynoms Pf bzw. PA .
Beweis. Im Allgemeinen gilt Pf (λ) = det(λ idV − f ) für λ ∈ K. Also haben wir
Pf (λ) = 0 genau dann, wenn ker(λ idV − f ) 6= 0. Das Gleiche gilt mit einer quadratischen Matrix A.
Im obigen Beispiel sind die Nullstellen −2 und 5. Die entsprechenden Eigenräume
sind
1
−3 −3
Eig(A, −2) = ker
= span
−1
−4 −4
und
Zur Verifikation:
und
4 −3
3
Eig(A, 5) = ker
= span
.
−4 3
4
1 3
1
−2
1
=
= −2
4 2
−1
2
−1
1 3
4 2
3
15
3
=
=5
.
4
20
4
4.2. Charakteristisches Polynom und Trigonalisierbarkeit
77
Sei λ ∈ K ein Eigenwert von f (oder von A). Weil λ eine Nullstelle von Pf (oder
PA ) ist, teilt T − λ das charakteristische Polynom. In der entsprechenden Faktorisierung aus Proposition 1.16 kommt T − λ also mindestens einmal vor. Die Anzahl
der Faktoren T − λ heisst algebraische Vielfachheit des Eigenwerts λ und ein Eigenwert der algebraischen Vielfachheit 1 wird als einfacher Eigenwert bezeichnet.
Die Dimension der entsprechenden Eigenraum heisst geometrische Vielfachheit.
Proposition 4.3. Sei f : V → V ein Endomorphismus eines endlichdimensionalen
Vektorraums V über einem Körper K oder A eine quadratische Matrix über K. Die
geometrische Vielfachheit eines Eigenwerts λ von f bzw. von A ist stets höchstens
gleich der algebraischen Vielfachheit von λ.
Beweis. Sei k die geometrische Vielfachheit, v1 , . . . , vk eine Basis des Eigenraums
von λ und v1 , . . . , vn eine Erweiterung zu einer Basis von V (bzw. von K n ). Bezüglich
dieser Basis wird f (oder der zu A entsprechenden Endomorphismus von K n ) durch
eine Matrix dargestellt mit der folgenden Blockstruktur
λEk B
0
C
für ein B ∈ Mat(k × (n − k), K) und C ∈ Mat((n − k) × (n − k), K). Deshalb teilt
(T − λ)k das charakteristische Polynom.
Beispiel. Die Matrix
A :=
1 1
0 1
über einem beliebigen Körper hat den Eigenwert 1 mit algebraischer Vielfachheit 2
und geometrischer Vielfachheit 1. Denn
1
2
.
PA = (T − 1)
und
Eig(A, 1) = span
0
Proposition 4.4. Ein Endomorphismus eines endlichdimensionalen Vektorraums
über einem Körper K bzw. eine quadratische Matrix über K ist genau dann trigonalisierbar, wenn das charakteristische Polynom in Linearfaktoren in K[T ] zerfällt.
Beweis. Ein trigonalisierbarer Endomorphismus wird bezüglich einer geeigneten Basis durch eine obere Dreiecksmatrix dargestellt. Also zerfällt das charakteristische
Polynom in Linearfaktoren.
Sei f ein Endomorphismus eines endlichdimensionalen Vektorraums V . Wir zeigen
durch Induktion nach n := dim(V ): gibt es λ1 , . . . , λn ∈ K mit
Pf = (T − λ1 ) · · · (T − λn ),
78
4. Eigenwerte und Eigenvektoren
so ist f trigonalisierbar. Die Fälle n = 0 und n = 1 sind trivial und gelten als
Induktionsanfang. Also nehmen wir an, n ≥ 2 und der Fall von Endomorphismen
eines (n − 1)-dimensionalen Vektorraums ist schon bekannt. Wir lassen 0 6= v1 ∈
Eig(f, λ1 ) zu einer Basis v1 , . . . , vn von V erweitern. Die entsprechende Matrix A
hat die Form


λ1 ∗ . . . ∗
 0 ∗ . . . ∗


A= .

..
 ..

.
0
∗ ...
∗
und deshalb gilt
Pf = PA = (T − λ1 )PB
wobei B den unteren linken (n − 1) × (n − 1)-Block von A bezeichnet. Es folgt,
PB = (T − λ2 ) · · · (T − λn ).
Nach der Induktionshypothese gibt es ein S ∈ GLn−1 (K), so dass SBS −1 eine obere
Dreiecksmatrix ist. Wir haben

 
−1
1 0 ... 0
1 0 ... 0
 0

0
 


A  ..

 ..
.
 .

S
S
0
0


1 0 ... 0
λ1 ∗ . . .
0
 0


= .
  ..
 ..
 .
S
B
0
0


λ1 ∗ . . . ∗
1 0 ...
0
 0


= .
 .
.
.
SB   ..
S −1
0
0
∗


1 0 ... 0
 0



  ..

 .
S −1 
0
 

0
λ1 ∗
...
∗
 0

 

 =  ..
.
−1
 .

SBS
0
Letzteres ist auch eine obere Dreicksmatrix.
Proposition 4.5. Sei A ∈ Mn (K) eine quadratische Matrix über einem Körper K.
Dann sind die folgenden Aussagen äquivalent.
(i) A ist zu einer echten oberen Dreiecksmatrix ähnlich.
(ii) Es gilt PA = T n .
(iii) Es gibt ein m ∈ N, so dass Am = 0.
(iii0 ) Es gibt ein m ∈ N mit m ≤ n, so dass Am = 0.
4.3. Satz von Cayley-Hamilton
79
Beweis. Ist A zu einer echten oberen Dreiecksmatrix ähnlich, so haben wir (ii), (iii)
und (iii0 ). Wir folgen genau dem Beweis von Proposition 4.4, im Fall λ1 = · · · =
λn = 0 und erreichen dadurch die Implikation (ii) ⇒ (i).
Übrig ist die Implikation (iii) ⇒ (i). Wir verwenden Induktion nach dem kleinsten
m, so dass Am = 0. Der Fall m = 1 ist trivial und dient als Induktionsanfang. Sei
m ∈ N>0 mit Am 6= 0, aber Am+1 = 0. Sei k die Dimension und v1 , . . . , vk eine
Basis des Bildes von A und v1 , . . . , vn eine Erweiterung zu einer Basis von K n .
Entsprechend ist eine zu A ähnliche Matrix mit der folgenden Blockstruktur
B C
,
0 0
wobei B eine k × k-Matrix ist mit B m = 0 und C eine k × (n − k)-Matrix ist. Wie
im Beweis von Proposition 4.4 können wir mithilfe der Induktionshypothese folgern,
dass A zu einer echt oberen Dreiecksmatrix ähnlich ist.
Es gibt eine analoge Aussage für Endomorphismen eines endlichdimensionalen Vektorraums. Ein Endomorphismus f , bzw. eine quadratische Matrix A heisst nilpotent, falls es ein m ∈ N>0 gibt, so dass
m-mal
z
}|
{
f ◦ f ◦ ··· ◦ f = 0
4.3
bzw.
Am = 0.
Satz von Cayley-Hamilton
Sei A eine quadratische Matrix mit charakteristischem Polynom PA . Wir werden
zeigen, PA (A) = 0. Dies gilt sowohl im klassischen Kontext von Matrizen über einem
Körper, als auch über einem beliebigen kommutativen Ring mit Eins.
Sei R ein kommutativen Ring mit Eins. Für n ∈ N haben wir den Ring Mn (R) mit
Eins. Sobald n ≥ 2 und 1 6= 0 in R gilt, ist Mn (R) aber nicht kommutativ. Wichtig
für uns ist für eine gegebene Matrix A ∈ Mn (R) nur die Matrizen der Form f (A)
mit f ∈ R[T ] zu betrachten. Für f = ad T d + · · · + a1 T + a0 ∈ R[T ] verstehen wir
f (A) ∈ Mn (R) als
ad Ad + · · · + a1 A + a0 En .
Ist g ∈ R[T ] ein zweites Polynom, so haben wir
(f + g)(A) = f (A) + g(A)
und
(f g)(A) = f (A)g(A),
also definiert f 7→ f (A) einen Homomorphismus von Ringen mit Eins R[T ] →
Mn (R). Wir bezeichnen mit R[A] das Bild, deshalb haben wir einen surjektiven
Homomorphismus von Ringen mit Eins
R[T ] → R[A].
80
4. Eigenwerte und Eigenvektoren
Weil f (A)g(A) = (f g)(A) = (gf )(A) = g(A)f (A) ist R[A] ein kommutativer Ring
mit Eins.
Theorem 4.6 (Satz von Cayley-Hamilton). Sei R ein kommutativer Ring mit Eins
und A ∈ Mn (R) eine quadratische Matrix über R mit charakteristischem Polynom
pA . Dann gilt
pA (A) = 0.
Beweis. Wir haben die Matrix
B := T En − A ∈ Mn (R[T ]),
mit Determinante pA ∈ R[T ]. Weil die Determinante kompatibel ist mit Homomorphismen von kommutativen Ringen mit Eins (Proposition 3.5 (v)) ist pA (A) die
Determinante der Matrix
e = (b̃ij ) ∈ Mn (R[A])
B
mit
(
A − aii En
b̃ij :=
−aij En
falls i = j,
falls i =
6 j.
Für alle j haben wir
n
X
b̃ij ei = Aej −
i=1
n
X
aij ei = 0.
i=1
e # = (b̃# ) die zu B
e komplementäre Matrix. Dann gilt
Sei B
ij
0=
n
X
b̃#
ij (b̃1i e1 + · · · + b̃ni en ) = pA (A)ej
i=1
für alle j und deshalb, pA (A) = 0.
Im allgemeinen können wir die Menge aller Polynome p ∈ R[T ] betrachten, die die
Bedingung p(A) = 0 erfüllen. Die Struktur dieser Menge ist am klarsten falls R = K,
ein Körper, denn in diesem Fall haben wir mit K[T ] einen euklidischen Ring.
Definition. Sei A ∈ Mn (K) eine quadratische Matrix über einem Körper. Ein normiertes Polynom f ∈ K[T ] heisst Minimalpolynom wenn:
• f (A) = 0,
• für alle 0 6= g ∈ K[T ] mit g(A) = 0 gilt deg(g) ≥ deg(f ).
4.3. Satz von Cayley-Hamilton
81
Nach dem Satz von Cayley-Hamilton erfüllt pA die erste Bedingung. Aber für die
Einheitsmatrix En mit n ∈ N>0 zum Beispiel haben wir
Minimalpolynom: T,
charakteristisches Polynom: T n .
Sei f Minimalpolynom einer quadratischen Matrix A ∈ Mn (K). Dann teilt f alle Polynome g ∈ K[T ] mit g(A) = 0. Sonst würde es nach dem euklidischen Algorithmus
ein 0 6= r ∈ K[T ] geben mit r(A) = 0 und deg(r) < deg(f ). Das Minimalpolynom
ist also wohldefiniert und ist zudem ein Teiler des charakteristischen Polynoms.
Mit dem Minimalpolynom haben wir ein zweites Diagonalisierbarkeitskriterium.
Proposition 4.7. Eine quadratische Matrix A ∈ Mn (K) über einem Körper K ist
genau dann diagonalisierbar, wenn die folgenden zwei Bedingungen erfüllt sind:
• Das charakteristische Polynom zerfällt in Linearfaktoren, also können wir
pA = (T − λ1 )m1 · · · (T − λk )mk
schreiben mit paarweise verschiedenen λ1 , . . . , λk ∈ K und m1 , . . . , mk ∈ N>0 .
• Das Minimalpolynom hat dieselben Faktoren ohne Vielfachheit, d.h., ist
(T − λ1 ) · · · (T − λk ).
Der Beweis macht Gebrauch von Polynominterpolation: Sind λ1 , . . . , λn ∈ K paarweise verschieden und b1 , . . . , bn ∈ K beliebig, so gibt es ein eindeutiges Polynom
g ∈ K[T ], dass entweder Null oder vom Grad kleiner n ist, mit g(λi ) = bi für i = 1,
. . . , n. Ist g = cn−1 T n−1 +· · ·+c0 durch Unbekannte Koeffizienten c = (c0 , . . . , cn−1 )
gegeben, so hat das entsprechende Gleichungssystem die Form Ac = b, wobei A
die Vandermonde-Matrix von λ1 , . . . , λn ist. Es gibt eine eindeutige Lösung, weil
det(A) 6= 0. Eine explizite Formel ist auch vorhanden:
g=
n
X
j=1
bj
(T − λ1 ) · · · (T − λj−1 )(T − λj+1 ) · · · (T − λn )
.
(λj − λ1 ) · · · (λj − λj−1 )(λj − λj+1 ) · · · (λj − λn )
Beweis. Es ist klar, dass eine diagonalisierbare Matrix die Bedingungen erfüllt. Denn
eine diagonalisierbare Matrix A mit paarweise verschiedenen Eigenwerten λ1 , . . . ,
λk ∈QK erfüllt f (A) = 0 für f = (T − λ1 ) · · · (T − λk ). Für I ( {1, . . . , k} und
g = i∈I (T − λi ) haben wir für j ∈ {1, . . . , k} r I und Eigenvektor v für λj :
Y
g(A)v =
(λj − λi ) v 6= 0.
i∈I
82
4. Eigenwerte und Eigenvektoren
Angenommen, A erfüllt die zwei Bedingungen. Also sind λ1 , . . . , λk ∈ K die Eigenwerte von A. Wir zeigen, A ist die Summe von Eig(A, λi ) über alle i; nach Proposition
4.1 ist dies zur Diagonalisierbarkeit äquivalent.
Nach der Polynominterpolation gilt
k
X
(T − λ1 ) · · · (T − λi−1 )(T − λi+1 ) · · · (T − λk )
= 1.
(λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λk )
i=1
Sei also
(A − λ1 En ) · · · (A − λi−1 En )(A − λi+1 En ) · · · (A − λk En )
(λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λk )
Pn
für i = 1, . . . , k. Für v ∈ K n gilt v =
i=1 Ai v. Nach der Bedingung über das
Minimalpolynom haben wir Ai v ∈ Eig(A, λi ) für alle i.
Ai :=
Man definiert das Minimalpolynom auch für Endomorphismen eines endlichdimensionalen Vektorraums über einem Körper. Es gibt ein analoges zweites Diagonalisierbarkeitskriterium.
4.4
Fundamentalsätze
Drei wichtige Fundamentalsätze der Mathematik sind:
• Fundamentalsatz der Arithmetik : Existenz und Eindeutigkeit der Primzahlzerlegung für positive ganze Zahlen.
• Fundamentalsatz der Analysis: das Integral einer stetigen reellwertigen Funktion f als Stammfunktion von f .
• Fundamentalsatz der Algebra: jedes nicht konstantes Polynom über C hat eine
Nullstelle.
Der Fundamentalsatz der Arithmetik wurde schon als der Fall R = Z von Proposition
1.16 behandelt.
Der Fundamentalsatz der Analysis wird in der Analysis-Vorlesung behandelt.
Der Fundamentalsatz der Algebra benötigt wesentlichen Einsatz der Analysis. Insbesondere macht man vom Zwischenwertsatz Gebrauch, um zu sehen, dass jedes
Polynom über R ungeraden Grades eine reelle Nullstelle hat.
√
Es ist leicht zu verifizieren, jede komplexe Zahl a + bi (mit a, b ∈ R und i = −1)
besitzt eine Quadratwurzel in C der Form
s
s
√
√
2
2
a+ a +b
−a + a2 + b2
±i
.
2
2
4.4. Fundamentalsätze
83
Aus diesen zwei Fakten folgern wir mittels linearer Algebra den Fundamentalsatz
der Algebra.
Lemma 4.8. Sei V ein endlichdimensionaler reeller Vektorraum mit dim(V ) =
2k + 1 für ein k ∈ N, seien f und g zwei kommutierende Endomorphismen von V .
Dann gibt es einen Vektor v ∈ V , der sowohl für f als auch für g Eigenvektor ist.
Beweis. Durch Induktion nach k. Der Fall k = 0 ist trivial. Für den Induktionsschritt
nehmen wir an, k > 0. Das charakteristische Polynom Pf hat eine Nullstelle, f
deshalb einen Eigenwert λ ∈ R. Sei
U := Eig(F, λ) = ker(λ idV − f )
und W das Bild von λ idV − f , also nach Proposition 2.12 (ii):
2k + 1 = dim(U ) + dim(W ).
Wir haben g(U ) ⊂ U , denn f (g(u)) = g(f (u)) = g(λu) = λg(u) für alle u ∈ U . Ist
dim(U ) ungerade, so hat die Einschränkung von g auf U einen Eigenvektor u, und u
ist auch Eigenvektor für f . Sonst gilt dim(W ) = 2k 0 + 1 für ein k 0 ∈ N mit k 0 < k. Es
ist leicht zu verifizieren, f (W ) ⊂ W und g(W ) ⊂ W . Nach der Induktionshypothese
gibt es einen Vektor in W , der sowohl für f als auch für g Eigenvektor ist.
Gewisse Räume von komplexen n × n-Matrizen sind wichtig:
• Symmetrische Matrizen, gegeben durch A = t A, bilden einen C-Vektorraum
Symn (C)
der Dimension n(n + 1)/2.
• Hermitesche Matrizen, gegeben durch A = t A, bilden einen R-Vektorraum
Herm(n)
der Dimension n2 .
Zum Beispiel, die Matrix links ist symmetrisch und die Matrix rechts ist hermitesch:
1
1+i
1
1+i
,
.
1 + i 1 − 2i
1 − i −2
Wir beweisen den Fundamentalsatz der Algebra in der folgenden Form (vgl. §4.2:
Begleitmatrix und Proposition 4.2).
Proposition 4.9. Sei A ∈ Mn (C) mit n ∈ N>0 . Dann hat A einen Eigenwert.
84
4. Eigenwerte und Eigenvektoren
Beweis. Wir schreiben n = 2m k mit m ∈ N und ungeradem k ∈ N und beweisen die
Aussage durch Induktion nach m. Der Induktionsanfang ist der Fall, n ist ungerade.
Wir haben kommutierende Endomorphismen f und g von Herm(n):
1
1
f (B) := (AB + B t A)
und
g(B) := (AB − B t A).
2
2i
Nach Lemma 4.8 gibt es ein 0 6= B ∈ Herm(n) und λ, µ ∈ R mit
1
1
und
(AB + B t A) = λB
(AB − B t A) = µB.
2
2i
Also haben wir AB = (λ + µi)B. Da B mindestens eine von Null verschiedene Spalte
hat, ist λ + µi ein Eigenwert von A.
Für den Induktionsschritt ist n = 2m k gerade. Zuerst bemerken wir, dass die Induktionshypothese in der folgenden Form vorhanden ist. Sei V eine endlichdimensionaler
komplexer Vektorraum derart, dass dim(V ) nicht durch 2m teilbar ist, seien f und
g zwei kommutierende Endomorphismen von V . Dann gibt es einen Vektor v ∈ V ,
der sowohl für f als auch für g Eigenvektor ist. Das Argument ist genau wie im
Beweis von Lemma 4.8. Anstatt des Zwischenwertsatzes wird für die Existenz eines
Eigenwertes von f die Induktionshypothese verwendet. Anstatt eine ungerade Summe dim(U ) + dim(W ) zu haben, wobei einer der Summanden ungerade sein muss,
haben wir eine Summe, die nicht durch 2m teilbar ist und einer der Summanden
muss deshalb nicht durch 2m teilbar sein.
Wir haben den C-Vektorraum Symn (C), dessen Dimension 2m−1 k(n + 1) nicht durch
2m teilbar ist, und die folgenden kommutierenden Endomorphismen von Symn (C):
f (B) := AB + B t A
und
g(B) := AB t A.
Also gibt es ein 0 6= B ∈ Symn (C) und λ, µ ∈ C mit
AB + B t A = λB
und
AB t A = µB.
Es folgt, A2 B − λAB + µB = 0. Weil jede komplexe Zahl ein Quadratwurzel besitzt, können wir T 2 − λT + µ als (T − α)(T − β) in C[T ] faktorisieren für α,
β ∈ C (gegeben durch die Lösungsformel für die quadratische Gleichung). Aus
(A − αEn )(A − βEn )B = 0 folgt, dass α oder β ein Eigenwert von A ist.
Ein Körper, über welchem jedes nicht konstantes Polynom eine Nullstelle hat, heisst
algebraisch abgeschlossen. Also ist C nach dem Fundamentalsatz der Algebra ein
algebraisch abgeschlossener Körper. Über einem algebraisch abgeschlossenen Körper
sind nur lineare Polynome irreduzibel, deshalb zerfällt jedes nicht konstantes Polynom in Linearfaktoren.
Korollar 4.10. Alle quadratischen Matrizen über C sind trigonalisierbar.
Beweis. Das Kriterium aus Proposition 4.4 wird nach dem Fundamentalsatz der
Algebra stets erfüllt.
85
A
Faktorzerlegungen eines Polynoms
Sei K ein Körper. Dann ist K[T ] ein euklidischer Ring (§1.5). Also gibt es für jedes
0 6= g ∈ K[T ] eine Faktorzerlegung
g = cp1 · · · pm ,
wobei c ∈ K × der Leitkoeffizient von g ist und p1 , . . . , pm normierte irreduzible
Polynome sind, die bis auf Reihenfolge eindeutig bestimmt sind.
Haben wir die Möglichkeit, Elemente aus K darstellen und Berechnungen durchzuführen wie, z.B., für Q der Fall ist, so können wir den euklidischen Algorithmus
durchführen und damit den ggT zweier Polynome f und g berechnen, auch in der
Form von Proposition 1.13, wobei der ggT als K[T ]-Linearkombination von f und
g geschrieben werden soll. Aber Proposition 1.14 ist nicht algorithmisch: Keine der
äquivalenten Bedingungen führt zu einem Verfahren, die Irreduzibilität eines nicht
konstanten Polynoms zu testen. Praktisches Beispiel: ist
T 4 + 4 ∈ Q[T ]
irreduzibel?
Wenn wir die Irreduzibilität eines f ∈ Q[T ] betrachten ist es praktisch, wie in diesem
Beispiel, den Fall der ganzzahligen Koeffizienten zu betrachten. Ein beliebiges f ∈
Q[T ] kann durch das Multiplizieren mit einer geeigneten positiven ganzen Zahl in so
eine Form gebracht werden, ohne die Irreduzibilität zu beeinträchtigen.
Hier sammeln wir einige Bemerkungen über irreduzible Polynome.
Nullstellen und Irreduzibilität: Sei f ∈ K[T ] ein nicht konstantes Polynom und d :=
deg(f ). Alle linearen Polynome sind irreduzibel. Sei also d ≥ 2. Hat f eine Nullstelle,
d.h., f (a) = 0 für ein a ∈ K, so ist T − a ein Teiler von f und
f = (T − a)g
mit g ∈ K[T ] vom Grad d − 1 eine Faktorisierung in Nichteinheiten. Also:
Falls d ∈ {2, 3} :
f irreduzibel
⇒
f hat keine Nullstelle in K.
f irreduzibel
⇔
f hat keine Nullstelle in K.
Denn eine Faktorisierung in Nichteinheiten f = gh benötigt deg(g), deg(h) < d.
Falls d ∈ {2, 3} ist dies nur möglich, wenn g oder h linear ist. Im Fall K = Q gibt
es den rationalen Nullstellentest: Ist p/q (mit p, q ∈ Z, q 6= 0, p und q teilerfremd)
Nullstelle eines Polynoms ad T d + · · · + a0 mit ganzzahligen Koeffizienten, so ist a0
durch p und ad durch q teilbar.
Faktorisierung und Körpererweiterung: Möglicherweise ist die Faktorzerlegung eines nicht konstanten Polynoms f ∈ K[T ] über einem Körper L bekannt für eine
86
A. Faktorzerlegungen eines Polynoms
Körpererweiterung L/K. Sei also c ∈ K ∗ der Leitkoeffizient von f und q1 , . . . , qn
normierte irreduzible Polynome in L[T ] mit
f = cq1 · · · qn
in L[T ].
Dann
gibt es ein m ∈ N und paarweise disjunkte Teilmengen
I1 , . . . , Im ⊂ {1, . . . , n}
Sm
Q
mit j=1 Ij = {1, . . . , n}, so dass das Polynom pj := i∈Ij qi Koeffizienten in K hat
und pj ∈ K[T ] irreduzibel ist für alle j; so können wir die Faktorzerlegung
f = cp1 · · · pm
in K[T ]
bestimmen mit c ∈ K × und normierten irreduziblen Polynomen p1 , · · · , pm . (Ist
f = cp1 · · · pm in K[T ] mit c ∈ K × und normierten irreduziblen p1 , · · · , pm und
pi = gi1 · · · gi`i in L[T ] mit normierten irreduziblen gi1 , . . . , gi`i für alle i, so haben
wir f = cg11 · · · g1`1 · · · gm1 · · · gm`m ; Eindeutigkeit aus Proposition 1.16 für L[T ]
anwenden.)
Im Fall von T 4 +4 ∈ Q[T ] gibt es keine Nullstelle in Q (nach dem rationalen Nullstellentest oder weil T 4 + 4 sogar keine reelle Nullstelle hat). Die komplexe Nullstellen
√
sind die 4-ten Wurzeln von −4: die Quadratwurzeln sind ±2i (mit i = −1) und
deren Quadratwurzeln
1 + i,
1 − i,
−1 + i,
−1 − i.
Wir bestimmen Produkte der entsprechenden Linearfaktoren T − 1 − i, usw.:
(T −1−i)(T −1+i) = T 2 −2T +2,
(T −1−i)(T +1−i) = T 2 −2iT −2,
usw.
Tatsächlich gibt es ein Paar solcher Produkte, das zu einer Faktorisierung von T 4 + 4
in Q[T ] führt:
T 4 + 4 = (T 2 − 2T + 2)(T 2 + 2T + 2).
Im Fall eines reellen Polynoms sehen wir durch die Körpererweiterung C/R, dass
die irreduziblen reellen Polynome die linearen und die quadratischen mit negativer
Diskriminante sind.
Lemma von Gauss: Wie oben betrachten wir ein f ∈ Q[T ] mit ganzzahligen Koeffizienten und deg(f ) = d. Wir werden ein Verfahren beschreiben, zu bestimmen ob f
irreduzibel ist und falls nicht, eine Faktorisierung f = gh mit deg(g), deg(h) < d zu
produzieren. Für d ≤ 3 genügt es, den rationalen Nullstellentest anzuwenden, also
können wir annehmen, d ≥ 4 und f hat keine rationale Nullstelle. Wir behaupten,
dass es genügt, ein Verfahren zu verwenden, das alle Faktorisierungen f = gh in Q[T ]
in Polynome g und h mit ganzzahligen Koeffizienten auflistet. Dann beschreiben wir
ein solches Verfahren.
Seien g0 , h0 ∈ Q[T ] mit f = g0 h0 . Durch Multiplizieren mit geeigneten positiven
ganzen Zahl bekommen wir g1 , h1 ∈ Q[T ] mit ganzzahligen Koeffizienten. Wir beseitigen allfällige gemeinsame Primteiler der Koeffizienten von g1 und so kommen zu
87
einem g ∈ Q[T ], ebenso mit ganzzahligen Koeffizienten aber ohne jeglichen gemeinsamen Primteiler. Analog behandeln wir h1 , so kommen wir zu einem h ∈ Q[T ] mit
denselben Eigenschaften. Das Produkt gh ist also ein rationales Vielfaches von f .
Sei p eine Primzahl. Ein Polynom mit ganzzahligen Koeffizienten lasst sich modulo
p reduzieren, also aus g bekommen wir ḡ ∈ Fp [T ], aus h bekommen wir h̄ ∈ Fp [T ].
Wir haben ḡ 6= 0, sonst wäre p ein gemeinsamer Primteiler der Koeffizienten von
g, und h̄ 6= 0, aus demselben Grund. Das Lemma von Gauss ist die Aussage, dass
die Koeffizienten von gh auch keinen gemeinsamen Primteiler haben. Denn gh reduziert sich auf ḡ h̄ und im Integritätsbereich Fp [T ] ist das Produkt zweier von Null
verschiedener Elemente von Null verschieden. Schlussendlich muss f ein ganzzahliges
Vielfaches von gh sein, f = agh für ein a ∈ Z. Also ist f = (ag)h eine Faktorisierung,
bei der die zwei Faktoren auch ganzzahlige Koeffizienten haben.
Ein einfaches aber womöglich langwieriges Verfahren, alle Faktorisierungen f = gh
in Q[T ] in Polynome g und h mit ganzzahligen Koeffizienten aufzulisten, basiert sich
auf Polynominterpolation (§4.3). Nach unserer Annahme gilt f (a) 6= 0 für alle a ∈ Z,
also hat f (a) nur endlich viele Teiler in Z. Wir listen alle Folgen
b0 ,
b1 ,
...
bd
von ganzen Zahlen auf, so dass bj ein Teiler ist von f (j) für j = 0, . . . , d. Es gibt nur
endlich viele solche Folgen. Entsprechend jeder Folge ist ein eindeutiges Polynom
g ∈ Q[T ] vom Grad ≤ d mit g(j) = bj für j = 0, . . . , d (Polynominterpolation).
Auf der Liste kommen also alle g vor, die in einer Faktorisierung f = gh in Q[T ] in
Polynome mit ganzzahligen Koeffizienten auftreten.
B
Deutsch-Englisches Vokabular
Einheitsmatrix = identity matrix
ganze Zahlen = integers
grösster gemeinsamer Teiler (ggT) = greatest common divisor (gcd)
komplementäre Matrix = adjugate matrix
Körper = field
neutrales Element = identity element
normiertes Polynom = monic polynomial
Spalte = column
Verknüpfung = operation
Zeile = row
Zeilenstufenform = row echelon form
Herunterladen