Lineare Algebra - Goethe

Werbung
Lineare Algebra
KAPITEL 0
Einführung
Dieses Skript zur Vorlesung “Lineare Algebra” an der Goethe Universität Frankfurt
im Sommersemester 2011 befindet sich noch in der Entstehung und wird fortlaufend
aktualisiert.
Ich gehe davon aus, dass es noch einige Zeit dauern wird, bis die gröbsten Fehler
korrigiert sind. Korrekturvorschläge nehme ich gerne entgegen. Bitte teilen Sie mir
solche per Email oder persönlich nach der Vorlesung mit.
Folgende zwei Bücher dienten als Grundstruktur dieser Vorlesung. Ich kann den
Titel von Artin auch als weiterführende Lektüre empfehlen.
1 Michael Artin, Algebra, Birkhäuser Verlag, 1999.
2 Gerd Fischer, Lineare Algebra, Vieweg Verlag.
3
KAPITEL 1
Algebraische Grundlagen: Mengen, Gruppen,
Ringe, Körper
Bevor wir mit dem Studium linearer Abbildungen im Sinne der linearen Algebra
loslegen, müssen wir die nötigen Grundlagen erarbeiten. Dabei werden wir uns von
den Rechenoperationen wie Addition, Multiplikation im vertrauten Rahmen der
rationalen oder reellen Zahlen lösen müssen.
Ziel dieses Kapitels ist es algebraische Strukturen einzuführen, die Rechenoperationen wie Addition oder Multiplikation verallgemeinern. Die lineare Algebra wird
sich in diesem Kontext abspielen.
1. Mengen und Abbildungen
Entgegen vieler Versprechungen bezüglich der Rigorosität im Einführungskapitel,
werden wir den Begriff der Menge nicht definieren.
Für uns ist eine Menge eine “Ansammlung” von Objekten.
Dies ist keine mathematisch korrekte Definition. Wir müssen uns mit einer naiven
Vorstellung des Mengenbegriffs begnügen. Eine präzise Behandlung würde uns zu
weit vom eigentlichen Thema wegführen.
Einige der folgenden Mengen werden wir im Laufe der Vorlesung immer wieder
antreffen.
Beispiel.
(i) Die Menge der natürlichen Zahlen ist N = {1, 2, 3, . . . }, die der
ganzen Zahlen Z = {0, ±1, ±2, . . . }.
(ii) Die Menge der Primzahlen ist {2, 3, 5, . . . }.
(iii) Die leere Menge ∅ = {} enthält keine Elementen.
(iv) Die rationalen Zahlen sind Brüche von ganzen Zahlen. Ihre Gesamtheit
wird mit Q = {a/b; a, b ∈ Z und b 6= 0} bezeichnet.
(v) In der Analysisvorlesung spielt die Menge R der reellen Zahlen eine wichtige Rolle.
(vi) Es gibt auch exotischere Mengen, z.B. die Menge {{}} deren einziges Element die leere Menge ist. Eine alternative Schreibweise ist {∅}. Es ist
wichtig, die zwei Mengen {{}} =
6 {} nicht zu verwechseln.
Hat man zwei Mengen gegeben, so gibt es viele Möglichkeiten weitere daraus zu
gewinnen.
Definition. Seien M und N Mengen. Ihre Vereinigung ist M ∪ N = {m; m ∈
M oder m ∈ N } und ihr Schnitt ist M ∩ N = {m; m ∈ M und m ∈ N }. Wir
setzen auch M r N = {m ∈ M ; m 6∈ N }.
Beispiel.
(i) Es gilt {1, 2, 3} ∪ {a, b, c} = {b, a, 3, c, 2, 1}. (Bei Mengen spielt
die Reihenfolge der Elemente keine Rolle.)
5
6
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
(ii) Die positiven und negativen reellen Zahlen sind disjunkt, d.h. sie haben
kein gemeinsames Element. In Notationsschreibweise {x ∈ R; x > 0} ∩
{x ∈ R; x < 0} = ∅.
(iii) Es gilt {p ∈ N; p eine Primzahl} ∩ {n ∈ N; n is gerade} = {2}.
(iv) Ganz allgemein haben wir M ∪ ∅ = M und M ∩ ∅ = ∅ für jede Menge M .
Eine weitere wichtige Konstruktion ist die des Produkts zweier Mengen.
Definition. Seien M und N Mengen. Das kartesische Produkt M × N besteht aus
allen Paaren bestehend aus einem Element aus M und aus N . D.h., es gilt
M × N = {(m, n); m ∈ M und n ∈ N }.
Eine für die lineare Algebra wichtige Situation erhält man, wenn das Produkt aus
Kopien der reellen Zahlen nimmt.
Beispiel.
(i) Es gilt R × R = {(x, y); x, y ∈ R}. Also besteht jedes Element
von R × R aus zwei “Koordinaten”. Dies legt nahe, dass R × R als Ebene
betrachtet werden soll.
(ii) Jedes Element aus R × R × R hat drei “Koordinaten”. Und deshalb soll
man sich R × R × R als den dreidimensionalen Raum vorstellen.
(iii) Natürlich kann man jetzt beliebig lange weitergehen und R × R × R × R
usw. definieren. Unser Vorstellungsvermögen lässt uns nun im Stich, da
es uns schwer fällt, uns den vierdimensionalen Raum vorzustellen. Um die
Notation zu erleichtern schreiben wir
Rn
für
R × R × ··· × R
{z
}
|
n Faktoren
für n ∈ N. Ganz allgemein ist M n das n-fache kartesische Produkt
M × M × ··· × M .
{z
}
|
n Faktoren
Wir werden später den Begriff eines Vektorraums einführen. Der n-dimensionale
reelle Raum Rn ist ein klassisches Beispiel eines Vektorraums.
Die Mengen die wir oben gesehen haben, fallen in zwei Kategorien. Es gibt endliche
und unendliche Mengen. D.h. Mengen, die endlich viele oder unendlich viele Elemente enthalten. Wiederum werden wir den Begriff “endliche Menge” nicht präzise
definieren.
Definition. Ist M eine endliche Menge, so bezeichnet #M oder |M | die Anzahl
Elemente in M . Diese Anzahl heißt auch Kardinalität von M .
Mengen werden interessanter wenn man sie in Beziehung zu anderen Mengen bringen kann.
Definition. Seien M und N Mengen. Eine Abbildung f : M → N ordnet jedem
Element m ∈ M genau ein Element f (m) ∈ N zu. Die Menge M nennt man gerne
den Definitionsbereich von f und N heißt Wertebereich.
Dabei muss nicht jedes Element von N als Wert angenommen werden. Es ist nur
wichtig, dass jedes Element aus M ein Bildpunkt in N besitzt. Auch erlaubt ist
es, dass f mehrere (oder sogar alle) Elemente von M auf dasselbe Element in N
abbildet.
1. MENGEN UND ABBILDUNGEN
7
Beispiel.
(i) Sei V die Menge aller Vorlesungen an der Goethe Universität.
Dann gibt es eine Abbildung f : V → N die jeder Vorlesung die vorgesehene Anzahl Kreditpunkte zuordnet. Z.B. gilt f (lineare Algebra) = 9.
(ii) Die Abbildung f (x) = 1/x kann nicht Definitionsbereich R haben, denn
Division durch Null ist nicht erlaubt. Der größtmögliche Definitionsbereich
ist R r {0}.
Definition. Sei f : M → N eine Abbildung zwischen Mengen M und N . Dann
heißt f surjektiv falls jedes Element von N Bildpunkt ist, d.h. für jedes n ∈ N gibt
es (mindestens) ein m ∈ M mit f (m) = n. Die Abbildung f heißt injektiv falls
f (m) = f (m0 ) → m = m0 .
Eine surjektive und injektive Abbildung heißt bijektiv.
Bemerkung. Eine bijektive Abbildung f : M → N lässt sich invertieren. Für
jedes
genau ein m ∈ M
n∈N
gibt es
| {z }
| {z }
da f surjektiv
da f injektiv
mit f (m) = n. Die Zuordnung n 7→ m definiert die sogenannte Umkehr- oder
Inverseabbildung f −1 : N → M .
Je zwei Abbildungen f : M → N und g : N → P lassen sich verknüpfen zu einer
Abbildung g ◦ f : N → P :
f
G
M → N → P.
Konkret setzt man (g ◦ f )(m) = g(f (m)) für jedes m ∈ M . Dabei muss der Wertebereich von f gleich dem Definitionsbereich von g sein. Ansonsten können man g
nicht bei f (m) auswerten.
Achtung. Verknüpfungen “liest” man von rechts nach links. In der Notation oben,
also bei g ◦ f wird zuerst f und dann g angewendet.
Beispiel. Ist f : M → N bijektiv und f −1 : N → M die Umkehrabbildung, so ist
(f −1 ◦ f )(m) = m für m ∈ M und (f ◦ f −1 )(n) = n für n ∈ N .
Definition. Die “triviale” Selbstabbildungen f : M → M , die durch f (m) = m
definiert ist, heißt Identitätsabbildung. Sie wird mit 1M , idM , id oder sogar nur 1
bezeichnet.
Zwischen zwei Mengen M und N kann es “sehr viele” Abbildungen geben. Ihr
Gesamtheit ist selber eine Menge
Abb(M, N ) = {f ; f : M → N ist eine Abbildung}.
Beispiel.
(i) Die Menge Abb(R, R) wird man als Mathematiker wahrscheinlich nie direkt benutzen. Diese Menge ist zu unüberschaubar. Es fehlt hier
zusätzliche Struktur die wirklich interessante Abbildungen heraus filtert.
Stattdessen gibt es zu viele “wilde” Abbildungen R → R.
(ii) Es gibt keine Abbildung mit Definitionsbereich N und Wertebereich {}.
Um dies einzusehen, überlege man sich welchen Bildpunkt das Element
1 ∈ N haben würde, falls eine derartige Abbildung existieren würde.
(iii) Überlegen sie sich, ob eine Abbildung ∅ → ∅ existiert oder nicht!
8
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
(iv) Sind M und N zwei endliche Mengen und f : M → N eine bijektive
Abbildung, so gilt #M = #N .
Sind M und N unendliche Mengen, so können kuriose Dinge passieren.
Die Abbildung
f : N = {1, 2, 3, . . . } → {2, 4, 6, . . . }
gegeben durch
f (n) = 2n
ist bijektiv obwohl N auf den ersten Blick gesehen doppelt so viele Elemente enthält wie wie {2, 4, 6, . . .}. Noch kurioser ist die Tatsache, dass
es sogar ein bijektive Abbildung N → N2 gibt. Rein als Menge lässt sich
N nicht von N2 unterscheiden!
Mengen bilden die Grundlage der ganzen Mathematik. Im Prinzip ist jedes Objekt,
welches wir untersuchen werden, eine Menge. Diese wird jedoch meistens zusätzliche
Struktur verschlüsseln.
Die erste “Struktur”, die wir behandeln werden, ist die Gruppenstruktur.
2. Gruppen
Bislang haben wir Z = {0, ±1, ±2, . . . } als reine Menge behandelt. Dabei haben
wir einen wichtigen Aspekt vergessen:
(1.1)
Zwei ganze Zahlen a, b ∈ Z lassen sich zu einer ganzen Zahl a + b summieren.
Diese einfache Tatsache wird vom Mengenbegriff nicht berücksichtigt.
Schauen wir (1.1) nüchtern aus der Perspektive der Mengenlehre an, so fällt auf,
dass die Addition eigentlich eine Abbildung ist:
m : Z × Z → Z definiert durch
m(a, b) = a + b.
Man nennt m auch die Verknüpfungsabbildung.
Diese ist keineswegs beliebig, sie besitzt viele Eigenschaften, die man formal beschreiben kann und im Gruppenbegriff elegant verpackt wird. Schauen wir nun
einige der Eigenschaften an.
Seien a und b in Z.
(N) Es gilt m(a, 0) = a + 0 = a und m(0, b) = 0 + b = b (Neutrales Element).
(K) Es gilt m(a, b) = a + b = b + a = m(b, a) (Kommutativität).
(I) Es gilt m(−a, a) = (−a) + a = 0 (Inverses).
Diese dritte Eigenschaft legt nahe, eine weitere Abbildung einzuführen. Wir setzen
i : Z → Z wobei i(a) = −a.
Mit dieser Notation sagt uns (iii) nichts anderes als
m(i(a), a) = 0.
Es gibt eine vierte Eigenschaft, die man vielleicht leicht übersieht.
(A) Für a, b, c ∈ Z gilt m(m(a, b), c) = (a + b) + c = a + (b + c) = m(a, m(b, c))
(Assoziativität).
Würde man nur mit den ganzen Zahlen arbeiten, so würde es sich nicht lohnen,
die Abbildungen m und i einzuführen. Wir können die Addition bzw. Inversion mit
denen aus der Schule bekannten Symbole + und − ebenso gut beschreiben. Die
vier Eigenschaften oben bilden jedoch die Schablone für den Begriff der abelschen
Gruppe.
2. GRUPPEN
9
Definition. Eine Gruppe besteht aus einem Tupel (G, m, e, i). Hier ist G eine
Menge, m : G×G → G eine Abbildung, e ∈ G ist ein Element und i : G → G ist eine
Abbildung. Diese erfüllen folgende Eigenschaften (auch Gruppenaxiome genannt).
(A) Für alle a, b, c ∈ G gilt m(m(a, b), c) = m(a, m(b, c)).
(N) Für alle a ∈ G gilt m(e, a) = a.
(I) Für alle a ∈ G gilt m(i(a), a) = e.
Die Abbildung m heißt Verknüpfungsabbildung der Gruppe, e heißt neutrales Element der Gruppe und i heißt Inversionsabbildung der Gruppe.
Gilt zusätzlich
(K) Für alle a, b ∈ G gilt m(a, b) = m(b, a).
so nennt man G kommutativ oder abelsch.
Bemerkung.
(i) Die Kommutativität wird nicht ausdrücklich als Gruppenaxiom verlangt. Diese schließt zu viele interessante Beispiele aus.
(ii) In unserem Beispiel der ganzen Zahlen war das neutrale Element e = 0 ∈
Z.
(iii) Die Symbole m und i in der Definition sind schwerfällig. Oft nutzt man
a ·G b
oder a +G b oder ab
oder a + b
für die Verknüpfungsabbildung. Die Symbole +G und + sind für abelsche
Gruppen reserviert; die Schreibweise a ·G b oder ab kommt jedoch auch bei
nicht abelschen Gruppen vor. Ist die Notation “multiplikativ” (d.h. wird
ab für die Verknüpfung verwendet), so schreiben wir a−1 anstelle von i(a)
und 1 anstatt e. Ist die Notation “additiv”, so schreiben wir −a für i(a)
und 0 für e.
(iv) In der Praxis erwähnt man oft nur die Menge G des Tupels (G, m, e, i).
D.h. es wird meistens von einer Gruppe G die Rede sein, wobei implizit
klar ist, wie die Verknüpfung, das neutrale Element und die Inversionsabbildung zu verstehen sind.
Wir haben schon ein Beispiel einer Gruppe gesehen. Es gibt aber weitere Gruppen,
die wir zumindest implizit kennen.
Beispiel.
(i) Die Gruppe der rationalen Zahlen mit der Addition.
(ii) Die Gruppe der rationalen Zahlen ungleich Null mit Multiplikation (Q r
{0}, m, 1, i). Hier gilt m(a, b) = ab für zwei rationale Zahlen a, b ∈ Qr{0}.
Die Inverseabbildung ist i(a) = 1/a für a ∈ Qr{0}. Natürlich darf die Null
nicht in der Gruppe enthalten sein. Denn wäre a ein Inverses bezüglich
der Multiplikation von 0, so hätten wir 1 = a0 = 0 was natürlich absurd
ist. Man darf nicht durch Null dividieren!
(iii) Sei M eine beliebige Menge. Wir können aus M wie folgt eine Gruppe
gewinnen. Die Elemente dieser Gruppe sind bijektive Selbstabbildungen
von M . D.h.
SM = {f : M → M ; f ist bijektiv}.
Die Verknüpfung unserer Gruppe wird die Verknüpfung von Abbildungen
sein:
m(f, g) = f ◦ g
für f, g ∈ SM .
10
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
Das neutrale Element ist die Identitätsabbildung 1M : M → M und die
Inversionsabbildung ist
i(f ) = f −1
wobei f −1 die Inverseabbildung von f ist. Diese existiert, da f bijektiv
ist. Behauptung: Das Tupel (SM , m, 1M , i) ist eine Gruppe.
Beweis: Wir müssen die Axiome (A), (N) und (I) nachweisen. Falls f
und g bijektive Selbstabbildungen von M sind, so ist auch f ◦ g eine
Selbstabbildung von M . Diese Verknüpfung ist auch bijektiv. Somit ist
f ◦ g ∈ SM und m : SM × SM → SM ist eine wohldefinierte Abbildung.
Falls f, g, h ∈ SM und m ∈ M so gilt
((f ◦ g) ◦ h)(m) = (f ◦ g)(h(m)) = f (g(h(m))) = f ((g ◦ h)(m)) = (f ◦ (g ◦ h))(m).
Da dies für jedes m ∈ M gilt, haben wir (f ◦ g) ◦ h = f ◦ (g ◦ h). Somit ist
das Axiom (A) gezeigt.
Es gilt 1M ◦ f = f da 1M die Identitätsabbildung ist. Daraus folgt Axiom
(N).
Schließlich haben wir f −1 ◦ f = 1M da f −1 die Umkehrabbildung von f
ist. Wir folgern das Axiom (I) und somit ist (SM , m, 1M , i) eine Gruppe.
Die Gruppe SM heißt die symmetrische Gruppe. Sie ist nur dann abelsch,
wenn #M ≤ 2.
(iv) Die triviale Gruppe ist die simpelste Gruppe, die man sich vorstellen kann.
Sie besteht aus nur einem Element G = {e}. Dadurch sind Verknüpfungsund die Inversionsabbildungen durch m(e, e) = e bzw. i(e) = e festgelegt.
Natürlich muss auch e das neutrale Element sein. Man überprüft alle
Axiome leicht nach. Die triviale Gruppe ist sogar eine abelsche Gruppe.
(v) Es gibt auch eine Gruppe mit zwei Elementen. Wir setzen G = {e, x}
wobei x 6= e. Die Verknüpfungsabbildung wird in folgender Tabelle beschrieben
e x
e
e x
x
x e
Die Inversionsabbildung ist durch i(e) = e und i(x) = x festgelegt und
das neutrale Element ist e. Um zu zeigen, dass (G, m, e, i) eine Gruppe ist
muss man alle Axiome nachrechnen. Dies wird eine Übungsaufgabe sein.
Eine Gruppe (G, m, e, i) mit G = {g1 , . . . , gn } endlich lässt sich mittels der Verknüpfungstabelle untersuchen:
g1
..
.
g1
m(g1 , g1 )
..
.
···
···
gn
m(g1 , gn )
..
.
gn
m(gn , g1 ) · · ·
m(gn , gn )
Diese Tabelle unterliegt Symmetriebedingungen, die sich aus den Axiomen ergeben.
Ist z.B. g1 = e das neutrale Element der Gruppe, so ist die erste Spalte gleich
g1 , . . . , gn . Eine abelsche Gruppe ergibt eine Verknüpfungstabelle, die symmetrisch
bezüglich der Diagonale von oben links nach unten rechts ist.
Kommen wir nun zum ersten Lemma.
Lemma 1.1. Sei (G, m, e, i) eine Gruppe.
2. GRUPPEN
11
(i) Für alle a ∈ G gilt m(a, i(a)) = e, i(i(a)) = a und m(a, e) = e.
(ii) Sei e0 ∈ G mit m(e0 , a) = a für alle a ∈ G. Dann ist e0 = e. (Das neutrale
Element ist eindeutig.)
(iii) Seien a, a0 ∈ G mit m(a0 , a) = e. Dann ist a0 = i(a). (Die Inversionsabbildung ist eindeutig.)
(iv) Seien a, b, c ∈ G mit m(a, b) = m(a, c), dann gilt b = c. Haben wir
m(b, a) = m(c, a), so gilt ebenfalls b = c. (Man darf kürzen.)
Beweis. Der Beweis von (i) ist eine trickreiche Rechnung. Wir nutzen die
Abkürzung ab für m(a, b) und a−1 = i(a). Zur Vereinfachung der Notation in diesem
Beweis, setzen wir ã = i(i(a)) = (a−1 )−1 . Gemäß Definition gilt ãa−1 = e. Wir
haben
(N )
(A)
s.o.
(I)
(N )
(I)
aa−1 = e(aa−1 ) = (ãa−1 )(aa−1 ) = ã((a−1 a)a−1 ) = ã(ea−1 ) = ãa−1 = e.
Es folgt also die erste Behauptung in (i).
Die zweite Behauptung ist eine Übungsaufgabe.
Die dritte Behauptung ergibt sich aus
(I)
(A)
s.o.
(N )
ae = a(a−1 a) = (aa−1 )a = ea = a.
Nun beweisen wir Teil (ii). Sei also e0 ein alternatives neutrales Element: d.h. e0 a = a
für alle a ∈ G. Wir setzen a = e und erhalten e0 e = e. Aus der dritten Behauptung
von (i) folgt aber e0 e = e0 und somit e0 = e.
Nun kommt der letzte Teil. Seien a, a0 ∈ G mit a0 a = e. Wir erhalten
(N )
(A)
(i)
(N )
a−1 = ea−1 = (a0 a)a−1 = a0 (aa−1 ) = a0 e = a0
und somit ist Teil (iii) erledigt.
Die erste Situation in Teil (iv) impliziert ab = ac. Wir erhalten also a−1 (ab) =
a−1 (ac). Nutzt man nun auf beiden Seiten (A), so erhält man (a−1 a)b = (a−1 a)c.
Das Gruppenaxiom (I) impliziert a−1 a = e und (N) ergibt eb = b und ec = c. Wir
erhalten b = c.
Die zweite Situation in (iv) ist ba = ca. Nun haben wir (ba)a−1 = (ca)a−1 . Wir argumentieren wie in der ersten Situation, nutzen aber Teil (i) diese Lemmas anstelle
von (I) um b = c zu folgern.
Der Beweis des Lemmas wäre für abelsche Gruppen viel einfacher gewesen.
Bemerkung. Aus (ii) und (iii) des vorherigen Lemmas folgt, dass die Verknüpfungsabbildung
m : G × G → G einer Gruppe das neutrale Element und die Inverseabbildung
festlegt. Insbesondere wird eine endliche Gruppe durch ihre Verknüpfungstabelle
eindeutig festgelegt.
Für eine feste Tabellengrösse n gibt es nur endlich viele Möglichkeiten, die Tabelle
mit Elementen aus G zu füllen. Natürlich ist nicht jede beliebige Tabelle bestehend
aus Elementen von G die Verknüpfungstabelle einer Gruppe. Auf jeden Fall gibt
es zu festem n nur endlich viele “verschiedene” Gruppen der Kardinalität n. Für
größere n kann die genaue Anzahl durchaus schwierig zu bestimmen sein.
12
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
n
1
2
3
4
5
6
7
8
..
.
16
..
.
256
..
.
2011
..
.
Anzahl “verschiedener” Gruppen mit Kardinalität n
1 (die triviale Gruppe)
1 (Gruppe aus Bsp. (v))
1
2
1
2
1
5
..
.
14
..
.
56092
..
.
1
..
.
Dieses unregelmäßige Verhalten steht im Kontrast zur Einfachheit des Gruppenbegriffs.
ähnlich wie bei Mengen, können Gruppen mittels Abbildungen verglichen werden.
Definition. Seien (G, . . .) und (H, . . .) Gruppen mit Verknüpfungen ·G und ·H .
Eine Abbildung f : G → H heißt Gruppenhomomorphismus (oder kurz Homomorphismus) falls
f (g1 ·G g2 ) = f (g1 ) ·H f (g2 )
für alle g1 , g2 ∈ G. Ist f bijektiv, so nennt man g einen Gruppenisomorphismus
(oder kurz Isomorphismus).
Beispiel.
(i) Seien G und H die Gruppe der ganzen Zahlen mit der Addition.
Falls n ∈ Z so erfüllt die Abbildung f : Z → Z gegeben durch f (a) = na
die Gleichung
f (a + b) = n(a + b) = na + nb = f (a) + f (b)
für alle a, b ∈ Z. Also ist f ein Gruppenhomomorphismus.
(ii) Sei nun G wie in Beispiel (i) und H die Gruppe Q r {0} mit der Multiplikation. Wir definieren f (a) = 2a für a ∈ Z. Dann ist f ein Gruppenhomomorphismus weil f (a + b) = 2a+b = 2a 2b = f (a)f (b) für alle
a, b ∈ Q r {0}.
Wir bestimmen erste Eigenschaften eines Gruppenhomomorphismus.
Lemma 1.2. Seien G und H Gruppen mit Verknüpfungen ·G und ·H und neutrale
Elemente eG und eH . Sei f : G → H ein Gruppenhomomorphismus.
(i) Es gilt f (eG ) = eH und f (a−1 ) = f (a)−1 für alle a ∈ G.
(ii) Seien
a1 , a2 ∈ {a ∈ G; f (a) = eH } = f −1 (eH ),
dann ist a1 ·G a2 ∈ f −1 (eH )
2. GRUPPEN
13
Beweis. Wegen Axiom (N) gilt eG ·G eG = eG . Also
eH ·H f (eG ) = f (eG ) = f (eG ·G eG ) = f (eG ) ·H f (eG ).
Wir berufen uns auf Teil (iv) des vorherigen Lemmas um f (eG ) zu kürzen. Daraus
ergibt sich eH = f (eG ) und die erste Hälfte von Teil (i) folgt.
Die zweite Hälfte ergibt sich aus
f (a−1 ) ·H f (a) = f (a−1 ·G a) = f (eG ) = eH .
und Teil (iii) von Lemma 1.1.
Teil (ii) ist wiederum ein Spiel mit den Axiomen. Denn a1 und a2 erfüllen f (a1 ) =
eH und f (a2 ) = eH . Deren Produkt liefert
eH = eH ·H eH = f (a1 ) ·H f (a2 ) = f (a1 ·G a2 ).
Definition. Die Menge f −1 (eH ) aus dem letzten Lemma heißt Kern von f . Schreibweise: ker f .
Der Kern eines Gruppenhomomorphismus enthält das neutrale Element der Gruppe
und ist abgeschlossen unter der Verknüpfung- und der Inversionsabbildung. Die
Elemente des Kerns bilden also wieder eine Gruppe wobei die Verknüpfung und
Inversion von der umliegenden Gruppe G geerbt wird.
Beispiel. Seien G, H und f wie in Teil (i) des letzten Beispiels. Also gilt f (a) = na
für alle a ∈ Z. Falls n = 0 so ist f konstant 0. In anderen Worten, ker f = Z. Falls
n 6= 0 so haben wir
a ∈ ker f ⇔ na = 0 ⇔ a = 0.
Also gilt ker f = {0}.
Definition. Sei (G, . . .) eine Gruppe mit neutralem Element e in multiplikativer
Schreibweise. Eine Untergruppe ist eine Teilmenge H ⊂ G die folgende Eigenschaften erfüllt.
(i) Es gilt e ∈ H.
(ii) Für alle a, b ∈ H gilt ab ∈ H.
(iii) Für alle a ∈ H gilt a−1 ∈ H.
Beispiel.
(i) Sicher ist 0 ∈ Z durch zwei teilbar. Weiterhin ist die Summe
zweier geraden Zahlen wieder gerade und falls a durch zwei teilbar ist,
so ist auch −a durch zwei teilbar. Also bildet die Menge der durch zwei
teilbaren Zahlen {a ∈ Z; a gerade} eine Untergruppe von Z.
(ii) Ein beliebige Gruppe (G, m, e, i) besitzt immer {e} als Untergruppe. Zu
dem ist G selbst eine Untergruppe. Beide Behauptungen folgen direkt aus
den Definitionen. Diese Untergruppen nennt man die trivialen Untergruppen.
Bemerkung.
(i) Eine Untergruppe H einer Gruppe G definiert, zusammen
mit der geerbten Verknüpfung, dem neutralen Element und der Inversion,
selbst eine Gruppe. Der Beweis dafür folgt leicht: die Verknüpfung zweier
Elemente aus H liegt in H wegen Eigenschaft (ii). Die Verknüpfungsabbildung
erfüllt (A), weil G eine Gruppe ist. Weiterhin ist auch (N) erfüllt, weil es
auf G gilt. Schließlich gilt auch (I), denn i(h) ∈ H für jedes h ∈ H.
14
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
(iii) Der Kern jedes Gruppenhomomorphismus ist eine Untergruppe. Dies folgt
aus Lemma 1.2.
Wir haben schon ein genügend großes Vokabular zur Behandlung von Gruppen in
der linearen Algebra.
Es folgt nun ein kleiner Abschnitt, der verdeutlichen soll, dass der Gruppenbegriff zwar elementar, aber sehr facettenreich ist. Heute ist das Studium endlicher
Gruppen ein aktuelles Forschungsgebiet.
Wir erwähnen das grundlegende Resultat von Feit-Thompson über endliche Gruppen ungerader Kardinalität, oder Ordnung, wie man bei Gruppen zu sagen pflegt.
Satz (Feit-Thompson 1963). Sei G eine endliche Gruppe ungerader Ordnung. Dann
ist G “auflösbar”.
Der Begriff der Auflösbarkeit von Gruppen wird vielleicht in einer späteren Vorlesung aufgegriffen. Grob gesagt bedeutet “auflösbar”, dass es genügend viele Untergruppen von besonders simpler Struktur gibt. Diese können Aufschluss über die
Struktur der ganzen Gruppe liefern.
Wir werden den Satz nicht beweisen; der Beweis ist 250 Seiten lang.
Wir haben oben gesehen, dass jeder Kern eines Gruppenhomomorphismus eine
Untergruppe liefert. Nun kann man sich fragen, ob umgekehrt jede Untergruppe
einer Gruppe als Kern eines Gruppenhomomorphismus auftaucht. Man kann sich
davon überzeugen, dass die trivialen Untergruppen, d.h. die ganze Gruppe und
{e}, als Kern auftauchen. Im Allgemeinen muss eine Untergruppe einer Gruppe
jedoch kein Kern eines Gruppenhomomorphismus sein. Es gibt sogar nicht-triviale
Gruppen, bei denen jede nicht-triviale Untergruppe kein Kern ist. Solche Gruppen
nennt man einfach. Sie bilden wichtige Bausteine in der Gruppentheorie.
Die Klassifikation aller endlichen einfachen Gruppen war für lange Zeit ein wichtiges
Problem.
Satz (Klassifikationssatz für endliche einfache Gruppen ca. 2006). Sei G eine endliche einfache Gruppe. Dann ist G in einer von 18 Familien enthalten oder G ist
eine der 26 sporadischen endlichen einfachen Gruppen.
Beweis. 10.000 Seiten.
Die größte sporadische Gruppe heißt Monstergruppe und wird üblicherweise mit
M bezeichnet. Ihre Existenz wurde in 1983 von Griess bewiesen, nachdem sie von
Bernd Fischer (Ph.D. Uni Frankfurt) in der Dekade zuvor vermutet wurde. Ihre
Ordnung ist
#M = 246 · 320 · 59 · 76 · 112 · 133 · 17 · 19 · 23 · 29 · 31 · 41 · 47 · 59 · 71.
3. Ringe und Körper
Im letzten Abschnitt haben wir die Menge Z mit zusätzlicher Struktur einer Gruppe
versehen.
Wir haben dabei schon wieder etwas vernachlässigt. Wir können zwei Elemente
in Z auch miteinander multiplizieren und erhalten ein neues Element in Z. Diese
Verknüpfung definiert jedoch keine Gruppe, denn das multiplikative Inverse zu 2
ist 1/2 und liegt außerhalb von Z. Der Ringbegriff berücksichtigt dieses Phänomen
3. RINGE UND KÖRPER
15
und auch die Tatsache, dass die Addition und Multiplikation in Z durch das Distributivgesetz verbunden sind:
(1.2)
a · (b + c) = a · b + a · c für a, b, c ∈ Z.
In der Definition eines Rings tauchen nun zwei Operationen auf. Die eine entspricht
der Addition in Z und die andere der Multiplikation.
Nun kommen wir zur formalen Definition eines Rings.
Definition. Ein Ring ist ein Tupel (R, s, 0, i, m, 1) bestehend aus einer Menge R,
einer Abbildung s : R × R → R genannt Addition, einem Element 0 ∈ R genannt
Null, einer Abbildung i : R → R, einer Abbildung m : R × R → R genannt Multiplikation und einem Element 1 ∈ R genannt Eins mit folgenden Eigenschaften.
(i) Das Quadrupel (R, s, 0, i) ist eine abelsche Gruppe.
(ii) (Assoziativität der Multiplikation.) Es gilt
m(m(a, b), c) = m(a, m(b, c))
a, b, c ∈ R.
für alle
(iii) (Neutrales Element der Multiplikation.) Es gilt
m(1, a) = m(a, 1) = a
für alle
a ∈ R.
(iv) (Distributivgesetz) Es gilt
m(a, s(b, c)) = s(m(a, b), m(a, c))
und
m(s(b, c), a) = s(m(b, a), m(b, c))
für alle a, b, c ∈ R.
Man nennt den Ring kommutativ, falls die nachfolgende Eigenschaft gilt.
(v) (Kommutativgesetz) Es gilt
m(a, b) = m(b, a)
für alle
a, b ∈ R.
Spätestens jetzt wird die Notation wegen den zwei Operationen s (die Summation) und m (die Multiplikation) schwerfällig. Deshalb werden wir ab jetzt fast
ausschließlich mit der für uns natürlichen Notation schreiben. Konkret schreiben
wir
a · b oder ab anstatt m(a, b)
und
a + b anstatt s(a, b)
für a und b Elemente eines Rings. Es ist auch sehr praktisch
−a anstatt i(a)
für das additive Inverse von a zu schreiben. Weiterhin setzen wir
a + (−b) = a − b.
Dabei gilt wie üblich die Konvention “Punkt vor Strich”.
In dieser praktischen Notation ist das Distributivgesetz nichts anderes als
a · (b + c) = a · b + a · c und
(b + c) · a = b · a + c · a.
Aus diesem Grund wird vorsorglich das neutrale Element bezüglich + mit der 0
und das neutrale Element bezüglich · mit der 1 bezeichnet.
Dennoch sollte man sich im Klaren sein, dass + oder · je nach Situation, nichts mit
der aus der Schule bekannten Operationen gemeinsam haben.
Um die Notation weiter zu vereinfachen, werden wir oft, wie bei den Gruppen, einen
Ring mit der Menge R identifizieren. D.h. steht irgendwo “Sei R ein Ring . . . ”, so
16
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
meinem wir damit immer ein Tupel wie in der Definition und sparen uns die fünf
fehlende Symbole s, 0, i, m, 1.
Achtung. Die Definition eines Rings ist nicht ganz ohne Kontroversen. So ist in
manchen Quellen die Kommutativität der Multiplikation Bestandteil der Definition
eines Rings. Andere Quellen verlangen nicht unbedingt die Existenz eines neutralen
Elements bezüglich der Multiplikation.
Auch wir werden uns hauptsächlich mit kommutativen Ringen beschäftigen. Ringe,
die mittels Matrizenmultiplikation definiert werden, werden jedoch im Allgemeinen
nicht kommutativ sein.
Beispiel.
(i) Wir kennen implizit schon viele kommutative Ringe, wie Z, Q
und R mit den klassischen Operationen.
(ii) Wie immer gibt es ein pathologisches Beispiel: der Nullring. Die zugrunde
liegende Menge ist R = {0}. Es gibt nur eine Wahl für eine Abbildung R×
R → R und für eine Abbildung R → R. Und man überprüft leicht nach,
dass diese sowohl die Eigenschaften der Addition und der Multiplikation
erfüllen. Folglich ist der Nullring ein Ring und sogar ein kommutativer
Ring. Beachte, dass 1 = 0 im Nullring gilt! Der Nullring ist der einzige
Ring, in welchem 1 = 0 gilt. Diese Aussage werden wir in Kürze beweisen.
(iii) Sei R ein Ring und sei X zunächst ein Symbol. Wir können den Ring
R[X] der Polynome über R wie folgt definieren. Die Elemente von R[X]
sind Polynome in einer Variable X und Koeffizienten in R. In anderen
Worten, die Elemente von R[X] sind von der Form
an X n + an−1 X n−1 + · · · + a1 X + a0 =
n
X
ak X k
k=0
wobei n ∈ N ∪ {0} und
n ∈ R. Die Addition auf R[X] ist wie
Pn a0 , . . . , aP
m
folgt definiert. Seien k=0 ak X k , k=0 bk X k ∈ R[X]. Man setzt
!
! max{m,n}
n
m
X
X
X
ak X k +
bk X k =
(ak + bk )X k
k=0
k=0
k=0
wobei ak = 0 für k > n und bk = 0 für k > m gesetzt wird. Nun müssen
wir auch eine Multiplikationsabbildung definieren. Dies geschieht wie folgt.
Wir setzen
!
! n+m k
!
n
m
X
X
X X
k
k
ak X
·
bk X
=
al bk−l X k
k=0
k=0
k=0
l=0
Das neutrale Element der Addition von R[X] definieren wir als 0 ∈ R und
das der Multiplikation als 1 ∈ R.
Es wird eine Übungsaufgabe sein nachzuprüfen, dass R[X] zusammen
mit diesen Operationen einen Ring definiert. Falls R kommutativ ist, so
wird R[X] kommutativ sein.
Falls A = an X n + · · · + a1 X + a0 ∈ R[X] mit an 6= 0 so definieren wir
den Grad des Polynoms A als
deg P = n ≥ 0.
Beachten Sie, dass wir den Grad des Polynoms 0 ∈ R[X] nicht definiert
haben.
3. RINGE UND KÖRPER
17
Wir halten nun einige formale Konsequenzen der Ringaxiome fest. Dabei wird man
einige bekannte Rechenregeln wiedererkennen.
Lemma 1.3. Sei R ein Ring und a ∈ R.
(i) Es gilt 0 · a = a · 0 = 0.
(ii) Gemäß Definition ist das additive Inverse von a gleich −a. Es gilt −a =
(−1) · a = a · (−1) und (−1) · (−1) = 1.
Beweis. Distributivität ergibt 0 · a = (0 + 0) · a = 0 · a + 0 · a. Addiert man
nun −0 · a zu dieser Gleichung, so erhält man 0 = 0 · a. Der Beweis für a · 0 = 0 ist
völlig analog. Daraus ergibt sich Teil (i).
Gemäß Definition und Teil (i) haben wir ((−1) + 1) · a = 0 · a = 0. Wenden wir
Distributivität an, so folgt 0 = (−1)·a+1·a = (−1)·a+a. Wegen Lemma 1.1(iii) ist
das additive Inverse in einer Gruppe eindeutig bestimmt. Daraus folgt −a = (−1)·a
und −a = a · (−1) lässt sich analog zeigen.
Wir müssen noch (−1) · (−1) = 1 zeigen. Aus Teil (i) und Distributivität folgt
0 = 0 · 0 = ((−1) + 1) · ((−1) + 1) = (−1) · (−1) + (−1) · 1 + 1 · (−1) + 1 · 1.
Da 1 das neutrale Element bezüglich Multiplikation ist, haben wir 0 = (−1)·(−1)+
(−1) + (−1) + 1 = (−1) · (−1) + (−1). Also muss (−1) · (−1) = 1 gelten.
Bemerkung. Jeder Ring R ist mit einer Multiplikationsabbildung ausgestattet.
Diese definiert jedoch fast nie eine Gruppenstruktur auf R. Nehmen wir mal an,
dass sie es doch tut. Dann besitzt 0 ein multiplikatives inverses x, so muss 0 · x = 1
gelten. Teil (i) des letzten Lemmas impliziert dann 0 = 1. Jedes a ∈ R ist von der
Form a = 1 · a = 0 · a = 0. Also ist R der Nullring.
Wir halten fest: ist R nicht der Nullring so definiert die Multiplikation keine Gruppenstruktur mit neutralem Element 1.
Wenn wir das Nullelement 0 vernachlässigen, dann gibt es viele Ringe bei denen
die Multiplikation eine Gruppe definiert. Diese nennt man Körper und sie haben in
der linearen Algebra eine besondere Bedeutung.
Definition. Ein kommutativer Ring (K, s, 0, i, m, 1) nennt man einen Körper, falls
folgende Eigenschaft erfüllt ist.
(vi) Wir haben 0 6= 1 und für jedes a ∈ K r {0} gibt es ein a0 ∈ K mit a0 a = 1.
Lemma 1.4. Sei K ein Körper.
(i) Sind a, b ∈ K mit
ab = 0
so gilt
a=0
oder
b = 0.
(ii) Die Menge K r {0} zusammen mit der Multiplikation, dem Element 1 ∈
K r{0}, und der Abbildung i(a) = a0 implizit in (vi) oben ist eine abelsche
Gruppe.
Beweis. Seien a, b ∈ K mit ab = 0. Wir möchten a = 0 oder b = 0 beweisen.
Wir können also a 6= 0 annehmen, ansonsten ist die Aussage schon bewiesen. Axiom
(iv) in der Definition eines Körper impliziert, dass es ein a0 ∈ K gibt mit a0 a = 1.
Aus Lemma 1.3(i) erhalten wir
0 = a0 0 = a0 (ab) = (a0 a)b = 1b = b.
Hieraus folgt Teil (i).
18
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
Teil (i) lässt sich wie folgt umformulieren: falls a, b ∈ K mit a 6= 0 und b 6= 0, so gilt
ab 6= 0. Also nimmt die Multiplikationsabbildung m(a, b) = ab Werte in K r {0}
an, falls a, b ∈ K r {0}. Sie definiert also eine Abbildung
(K r {0}) × (K r {0}) → K r {0}.
Gemäß Definition von K gilt 0 6= 1, also liegt 1 ∈ K r {0}.
Für a ∈ K r {0} gibt es ein a0 ∈ K mit a0 a = 1. Wir definieren eine Abbildung
i : K r {0} → K durch i(a) = a0 . Wir halten aber fest, dass i(a) 6= 0 gelten muss,
den andererseits wäre 1 = i(a)a = 0a = 0 wegen Lemma 1.3(i). Also ist i eine
Abbildung K r {0} → K r {0}.
Um Teil (ii) zu beweisen, müssen wir zeigen, dass es bei K r {0} mit den soeben
beschrieben Abbildungen eine Gruppe mit neutralem Element handelt.
Die Assoziativität der Multiplikation (A) folgt aus (ii) in der Definition eines Rings,
Axiom (N) im Gruppenbegriff folgt aus (iii) in derselben Definition, schließlich folgt
(I) aus (iv) in der Definition eines Körpers.
Bemerkung.
(i) Wir halten nochmals das Kontrapositiv von Teil (i) im obigen Lemma fest. Sind a, b Elements eines Körper mit a 6= 0 und b 6= 0, so
ist ab 6= 0.
(ii) Aus unserer Definition folgt, dass 1 ∈ K r {0}. Insbesondere besitzt ein
Körper mindestens zwei Elemente.
(iii) Da K r {0} (mit der Multiplikation) eine Gruppe bildet, können wir
kürzen, siehe dazu Lemma 1.1(iv). Konkret, falls a, b, c ∈ K mit a 6= 0
und
ab = ac so gilt b = c.
(iv) Gemäß Definition ist jeder Körper ein Ring. Die Umkehrung gilt nicht,
d.h. wir werden unten in einem Beispiel sehen, dass es gibt Ringe gibt, die
keine Körper sind.
Beispiel.
(i) Der Ring der rationalen Zahlen Q ist ein Körper. Das gleiche
gilt für den Ring der reellen Zahlen R.
(ii) Die komplexen Zahlen C (siehe Vorlesung Analysis) bilden einen Körper.
(iii) Der Ring der ganzen Zahlen Z ist kein Körper, da 1/2 ∈ Q r Z.
(iv) Bis jetzt kennen wir nur Körper mit unendlich vielen Elementen. Ein
Körper muss per Definition mindestens zwei Elemente enthalten. Das lässt
eine große Lücke zu. Wir zeigen nun, dass es einen Körper F2 mit genau
zwei Elementen gibt. Wir machen den Ansatz F2 = {0, 1} mit 0 6= 1 zwei
Symbole. Bezüglich der Addition muss F2 eine abelsche Gruppe sein. Die
folgende Additionstabelle (die wir schon einmal gesehen haben) definiert
diese Gruppenstruktur:
+
0
1
0
0
1
1
1
0
Somit ist Axiom (i) in der Definition eines Rings erfüllt. Für die Multiplikationstabelle gibt es wegen Lemma 1.3 nur eine Möglichkeit:
·
0
1
0
0
0
1
0
1
3. RINGE UND KÖRPER
19
Also definiert die Multiplikation auf F2 r {0} = {1} eine Gruppenstruktur: die der trivialen Gruppe. Daraus folgt Axiom (vi) in der Definition
des Körpers. Die Axiome (ii), (iii) und (v) in der Definition des Ringbegriffs folgen sofort. Nach einer kurzen Rechnung folgt, dass Addition und
Multiplikation das Distributivgesetz befolgen (also Axiom (iv)).
Also sind alle Axiome erfüllt. Daher ist F2 ein Körper, der kleinste Körper,
den es gibt. In F2 gilt die bemerkenswerte Gleichung
1 + 1 = 0.
Es können also keine Vorzeichenfehler passieren!
Sei K ein Körper. Da K auch ein Ring ist, erhalten wir aus der Konstruktion aus
dem vorigen Abschnitt den Ring K[X] der Polynome mit Koeffizienten in K. Zur
Erinnerung, Elemente aus K[X] sind von der Form
an X n + an−1 X n−1 + · · · + a1 X + a0
mit
an , . . . , a0 ∈ K
für ein n ∈ N ∪ {0}. Wir werden weiter unten sehen, dass K[X] nie ein Körper ist.
Lemma 1.5. Sei K ein Körper.
(i) Seien A, B ∈ K[X] r {0}. Dann gilt AB 6= 0 und
deg AB = deg A + deg B.
(ii) Der Ring K[X] ist kein Körper.
Beweis. Um Teil (i) zu beweisen, schreiben wir A = an X n + · · · + a0 mit
an 6= 0 und B = bm X m + · · · + b0 mit bm 6= 0. Die Definition des Grads impliziert
deg A = n und deg B = m.
Wir berechnen das Produkt
AB = (an X n + · · · + a0 )(bm X m + · · · + b0 )
(1.3)
= an bm X n+m + (an bm−1 + an−1 bm )X n+m−1 + · · · + (a1 b0 + a0 b1 )X + a0 b0 .
Nun sind an 6= 0 und bm 6= 0. Somit ist das Produkt an bm 6= 0 weil K ein Körper ist.
Da der Term an bm X n+m nicht durch die weiteren Summanden in AB weggekürzt
werden kann, haben wir AB 6= 0. Insbesondere ist der Grad deg AB wohldefiniert.
Schließlich sehen wir aus (1.3), dass deg AB = n + m = deg A + deg B gilt. Somit
ist Teil (i) bewiesen.
Nun kommen wir zu (ii). Wäre K[X] ein Körper, so gäbe es A ∈ K[X] mit XA = 1.
Dies wird zu einem Widerspruch führen. Es gilt deg 1 = 0 und deg X = 1. Wenden
wir Teil (i) an, so erhalten wir 1 + deg A = 0 und somit deg A = −1. Dies ist ein
Widerspruch, da der Grad eines Polynoms nie negative sein kann.
Definition. Eine natürliche Zahl p nennt man Primzahl, falls p ≥ 2 und falls p in
N nur die Teiler 1 und p besitzt.
Bemerkung.
(i) In einem Körper K kann man wie “gewohnt” rechnen. Sind
a, b ∈ K mit b 6= 0 so schreiben wir b−1 für das multiplikative Inverse von
b und wir kürzen
a
ab.
b−1 a = ab−1 durch
b
20
1. ALGEBRAISCHE GRUNDLAGEN: MENGEN, GRUPPEN, RINGE, KÖRPER
(ii) Es gibt weitere endliche Körper. Für jede Primzahl p ∈ {2, 3, 5, 7, . . .}
und jede natürliche Zahl n ∈ N gibt es einen Körper Fpn der Kardinalität
pn . Das sind schon sämtliche endliche Körper. Die Existenz der Fp werden wir im Laufe des Semesters beweisen. Die restlichen Aussagen dieser
Bemerkung werden vielleicht in höheren Vorlesungen behandelt.
Wir haben gesehen, dass in F2 die Gleichung 1 + 1 = 0 gilt. Das Element 2 kommt
nicht in der Definition des Körpers vor. Jedoch können wir
2=1+1
in einem beliebigen Körper K definieren und somit hat 2 eine Bedeutung als Element von K. Dasselbe kann man für jede natürliche Zahl n ∈ N ∪ {0} machen
(1.4)
n := 1 + · · · + 1 ∈ K.
| {z }
n Summanden
Hier ist 0 = 0 in K. Für negative n ∈ Z definieren wir
n := −
(1 + · · · + 1)
|
{z
}
∈K
−n > 0 Summanden
In dieser Notation gilt
2 = 0 im Körper F2 .
Später werden wir einfach n für n schreiben. Hier spielt uns die Notation einen
Streich: das “n” ist je nach Situation ein Element in K und darf dann nicht mit
der natürlichen Zahl, die wir auch mit n bezeichnen, verwechselt werden!
Dieses Phänomen führt zu einer wichtigen Invariante eines Körpers, die Charakteristik.
Lemma 1.6. Sei K ein Körper. Angenommen es gibt eine natürliche Zahl n ∈ N
mit n = 0 als Element von K. Dann gibt es eine kleinste natürliche Zahl mit dieser
Eigenschaft und diese ist eine Primzahl.
Beweis. Falls es n ∈ N mit n = 0 in K gibt, so gibt es sicherlich ein kleinstes
n mit dieser Eigenschaft. Es reicht also zu zeigen, dass dieses n eine Primzahl ist.
Sicher gilt n 6= 1 da 1 = 1 6= 0 in einem Körper. Also haben wir n ≥ 2. Falls n = tt0
mit t, t0 ∈ N so zeigt man rasch, dass n = t · t0 = 0. Aus Lemma 1.4(i) folgt nun
t = 0 oder t0 = 0. Aus der Symmetrie der Situation können wir annehmen, dass
t = 0 gilt. Aus der Minimalität von n folgt t ≥ n. Aber t ist ein Teiler von n, also
t ≤ n. Somit gilt t = n und t0 = 1. Hieraus folgt, dass n nur zwei Teiler hat. Also
ist n eine Primzahl.
Definition. Sei K ein Körper. Falls es n ∈ N gibt mit n = 0 in K. Dann nennt
man die Primzahl, welche wir aus dem letzten Lemma erhalten, die Charakteristik
von K. Falls n 6= 0 für alle n ∈ N gilt, so wird die Charakteristik von K als 0
definiert.
Beispiel.
(i) Die Charakteristik von Q ist 0. Dasselbe gilt für die Körper R
und C.
(ii) Die Charakteristik von F2 ist 2.
KAPITEL 2
Matrizenkalkül
Bislang haben wir algebraische Strukturen wie Gruppen, Ringe und Körper eingeführt. In diesem Kapitel werden wir hauptsächlich in einem Körper K arbeiten.
Dabei soll es uns um das Lösen von Gleichungen mit Koeffizienten in K gehen. Die
einfachste Klasse von Gleichungen sind die linearen Gleichungen und diese werden
uns beschäftigen.
Beispiel. Ein Beispiel eines linearen Gleichungssystems mit Koeffizienten im Körper
Q und zwei Unbekannten ist
(2.1)
3x + 5y = 0.
Hier sind x und y die unbekannten Variablen. Dieses Gleichungssystem besitzt
unendliche viele Lösungen: für jedes λ ∈ Q wird durch x = −5λ und y = 3λ eine
Lösung gegeben.
Man mächte jedoch auch mehrere Gleichungen gleichzeitig behandeln:
(2.2)
x + 2y = 0
(2.3)
−3x + y = 0.
Dieses Gleichungssystem hat genau eine Lösung x = y = 0.
Matrizen sind wichtige Werkzeuge solche Gleichung systematisch zu studieren. Sie
besitzen aber auch ein Eigenleben und werden in späteren Kapitel eine neuen Rolle
annehmen: lineare Abbildungen werden sich mittels Matrizen beschreiben lassen.
Ziel des Kapitels ist es, Matrizen zu definieren, die Addition und Multiplikation
von Matrizen einzuführen, Zeilenstufenform einer Matrix zu definieren und die Determinante und Spur einer Matrix zu definieren.
1. Matrizen: Summe, Skalarprodukt und Produkt
Definition. Sei K ein beliebiger Körper und m, n ∈ N. Eine m × n Matrix mit
Koeffizienten in K ist ein Element


a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 


A= .
..
.. 
.
.
.
 .
.
.
. 
am,1
am,2
mn
···
am,n
des mn-fachen Kartesischen Produkts K . Das heißt, die ai,j sind Elemente von
K. Die Menge der m × n Matrizen mit Koeffizienten in K wird mit Matm,n (K)
bezeichnet.
Ist m = n so nennt man m × m Matrizen quadratisch und benutzt die abkürzende
Schreibweise Matm (K) = Matm,m (K).
21
22
2. MATRIZENKALKÜL
Bemerkung. Üblicherweise besteht eine m × n Matrix aus m Zeilen und n Spalten (beachten Sie die Reihenfolge). Ist A ∈ Matm,n (K) wie in der Definition, so
bezeichnet ai,j den Koeffizienten in der i-ten Zeile und j-ten Spalte von A.
Beispiel.
(i) Die Matrix
3
5
∈ Mat1,2 (Q)
besitzt als Koeffizienten genau die rationalen Zahlen die im Beispiel (2.1)
auftauchen.
(ii) Die Matrix
1 2
∈ Mat2,2 (Q)
−3 1
besitzt als Koeffizienten genau die rationalen Zahlen, die im Beispiel (2.2)
auftauchen. Diese Matrix ist, im Gegensatz zur Matrix im ersten Beispiel,
quadratisch.
Es gibt zwei Matrizen, die durchwegs eine besondere Rolle spielen.
Definition. Sei K ein Körper und m, n ∈ N.
(i) Die Nullmatrix ist durch

0
 ..
0m,n =  .
0
···
..
.
···

0
..  ∈ Mat (K)
m,n
. 
0
gegeben, d.h. alle Koeffizienten sind 0. Oft werden wir die Indizes in 0m,n
weglassen und das Symbol 0 für die Nullmatrix verwenden.
(ii) Sei m = n, also sind die Elemente von Matm (K) quadratische Matrizen.
Die Einheits- oder Einsmatrix ist durch


1 0 ···
0
 0 1 ···
0 


 ..
..  ∈ Mat (K)
.
..
Em =  .
m
. 


 0
··· 1 0 
0
··· 0 1
gegeben, d.h. alle Koeffizienten auf der Diagonale sind 1 und die restlichen
sind 0. Auch hier werden wir oft E anstatt Em schreiben.
Beachten Sie, dass die Einheitsmatrix nicht ausschließlich aus der 1 ∈ K besteht!
Die Erklärung dafür werden wir sehen, sobald wir das Produkt zweier Matrizen
kennen.
Zwei Matrizen mit Koeffizienten im selben Körper und welche die gleiche Anzahl
Zeilen und Spalten besitzen lassen sich summieren.
Definition. Sei K ein

a1,1 a1,2
 a2,1 a2,2

A= .
..
 ..
.
am,1 am,2
Körper und m, n ∈ N. Sind


· · · a1,n
b1,1
 b2,1
· · · a2,n 


..  und B =  ..
..

 .
.
.
· · · am,n
bm,1
b1,2
b2,2
..
.
···
···
..
.
b1,n
b2,n
..
.
bm,2
···
bm,n





1. MATRIZEN: SUMME, SKALARPRODUKT UND PRODUKT
in Matm,n (K) so ist ihre Summe komponentenweise durch

a1,1 + b1,1
a1,2 + b1,2 · · · a1,n + b1,n
 a2,1 + b2,1
a2,2 + b2,2 · · · a2,n + b2,n

A+B =
..
..
..
..

.
.
.
.
am,1 + bm,1
am,2 + bm,2
···
23



 ∈ Matm,n (K)

am,n + bm,n
gegeben.
Beispiel.
(2.4)
(i) Seien
1 2
A=
∈ Mat2 (Q)
3 4
und B =
−4
−9
2
15
∈ Mat2 (Q)
so gilt
A+B =
−3
−6
4
19
∈ Mat2 (Q).
(ii) Zwei nicht quadratische Matrizen mit Koeffizienten in F2 lassen sich auch
summieren. Falls
1
1
und B =
A=
0
1
mit A, B ∈ Mat2,1 (F2 ) so ist
1+1
0
=
.
A+B =
0+1
1
Wir werden nun die Skalarmultiplikation eines Elements aus K mit einer Matrix
mit Koeffizienten aus K definieren.
Definition. Sei K ein Körper und m, n ∈ N. Ist λ ∈ K und


a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 


A= .
..
.. 
..
 ..
.
.
. 
am,1 am,2 · · · am,n
so ist das Skalarprodukt durch



λA = 


λa1,1
λa2,1
..
.
λa1,2
λa2,2
..
.
···
···
..
.
λa1,n
λa2,n
..
.
λam,1
λam,2
···
λam,n




gegeben. In anderen Worten, wir multiplizieren jeden Eintrag von A mit dem “Skalar” λ.
Beispiel.
(i) Seien A und B wie in (2.4). Es gilt
2 4
4
2A =
und (−1)A =
6 8
9
−2
−15
.
(ii) Sei K ein beliebiger Körper, m, n ∈ N und A ∈ Matm,n (K). Aus den
Resultaten über Körper des letzten Kapitels folgern wir
0A = 0m,n
24
2. MATRIZENKALKÜL
und
(2.5)
(−1)A + A = 0m,n .
Das letzte Beispiel legt nahe, dass Matrizen bezüglich der Addition eine Gruppe
bilden.
Lemma 2.1. Sei K ein Körper und m, n ∈ N. Die Menge der Matrizen Matm,n (K)
zusammen mit der Matrizenaddition, dem Element 0m,n , und der durch (2.5) definierten Abbildung ist eine abelsche Gruppe.
Beweis. Die Summe zweier Matrizen in Matm,n (K) liegt wieder in Matm,n (K).
Dass die Summe assoziativ ist und dass 0m,n ein neutrales Element ist, folgt aus der
Definition des Körpers. Jedes Element in Matm,n (K) besitzt zu dem ein additives
Inverses (2.5).
Nun stellt sich die Frage ob man auch Matrizen miteinander multiplizieren kann.
Vielleicht lässt sich sogar eine Ringstruktur auf der Menge der Matrizen definieren. Die naheliegenste Methode zwei Matrizen miteinander zu multiplizieren ist die
folgende. Seien




a1,1 · · · a1,n
b1,1 · · · b1,n

..  und B =  ..
.. 
A =  ...
 .
. 
. 
am,1
···
am,n
bm,1
···
bm,n
beide in Matm,n (K). Wir definieren eine neue Matrix A♠B durch


a1,1 b1,1 · · · a1,n b1,n


..
..
A♠B = 
 ∈ Matm,n (K).
.
.
am,1 bm,1 · · · am,n bm,n
Das heißt, wir multiplizieren die Einträge Komponentenweise. Nun lässt es sich
leicht zeigen, dass Matm,n (K) mit der Matrizenaddition und mit der Verknüpfung
♠ einen kommutativen Ring bildet.
Achtung. Obwohl ♠ zunächst wie ein plausibler Kandidat für die Matrizenmultiplikation ist, ist es nicht die Definition, die wir brauchen werden. Wir werden später
im Kapitel über lineare Abbildungen sehen, dass diese Definition, obwohl sie uns
jetzt einfach erscheint, nicht die natürliche ist.
Hier ist eine vorläufige Erklärung wieso die Verknüpfung ♠ nicht geeignet ist. Matrizen sollen und werden lineare Abbildung repräsentieren. Beispiele solcher Abbildungen haben wir in der Einführungsvorlesung gesehen. Es kamen unter anderem Drehungen und Spiegelungen vor. Die geometrisch natürlichste Definition der
Multiplikation zweier Matrizen erhält man, in dem man die entsprechenden linearen Abbildung verknüpft. Nun haben wir in der ersten Vorlesung gesehen, dass
wenn man eine Spiegelung mit einer Drehung verknüpft, nicht dieselbe Abbildung
entsteht, wie wenn man die Abbildungen in umgekehrter Reihenfolge verknüpft.
Andererseits ist ♠ kommutativ und entsprich daher keineswegs der geometrischen
Situation.
Nun kommen wir zur “korrekten” Definition der Matrizenmultiplikation.
1. MATRIZEN: SUMME, SKALARPRODUKT UND PRODUKT
25
Definition. Sei K ein Körper und m, n, p ∈ N. Das Produkt der zwei Matrizen




b1,1 · · · b1,p
a1,1 · · · a1,n

..  ∈ Mat (K).
..  ∈ Mat (K) und B =  ..
A =  ...
 .
n,p
m,n
. 
. 
bn,1 · · · bn,p
am,1 · · · am,n
ist

a1,1 b1,1 + a1,2 b2,1 + · · · + a1,n bn,1

..
AB = 
.
am,1 b1,1 + am,2 b2,1 + · · · + am,n bn,1
···
a1,1 b1,p + a1,2 b2,p + · · · + a1,n bn,p
..
.
···
am,1 b1,p + am,2 b2,p + · · · + am,n bn,p
Völlig äquivalent schreiben wir C = AB mit C = (ci,k )1≤i≤m,1≤k≤p und
ci,k =
n
X
ai,j bj,k .
j=1
Diese etwas eigentümlich Definition werden wir weiter unten an Beispielen üben.
Bemerkung.
(i) In der Definition oben ist zu beachten, dass die Anzahl
Spalten n des ersten Faktors A gleich den Anzahl Zeilen des zweiten Faktors ist.
Das Produkt aus B und A ist nur dann wohldefiniert, wenn m = p.
(ii) Gilt m = n = p, sind also A und B quadratische Matrizen der gleichen
Größe, so läßt sich sowohl AB wie auch BA bilden.
Beispiel.
(i) Seien
1 2
A=
∈ Mat2 (Q)
3 4
und B =
8
6
7
5
∈ Mat2 (Q)
so gilt
1·8+2·6
3·8+4·6
1·7+2·5
3·7+4·5
Berechnen wir jedoch
8·1+7·3
BA =
6·1+5·3
8·2+7·4
6·2+5·4
AB =
=
=
20
48
17
41
29
21
30
32
.
,
so fällt
AB 6= BA
sofort ins Auge. Die Matrizenmultiplikation ist also im Allgemeinen nicht
kommutativ.
(ii) Sei A wie im Beispiel (i) und
−1
B=
∈ Mat2,1 (Q)
7
dann ist
AB =
1 · (−1) + 2 · 7
3 · (−1) + 4 · 7
=
13
25
.
Beachten Sie, dass das Produkt von B mit A nicht definiert ist! Die Anzahl
Spalten von B ist ungleich der Anzahl Zeilen von A.


 ∈ Matm,p (K).
26
2. MATRIZENKALKÜL
(iii) Sei B wie in (ii) und
5
C=
3
.
Die Matrix B hat eine Spalte und C hat eine Zeile. Also ist BC definiert
und gemäß Definition eine 2 × 2 Matrix. Es gilt
−5 −3
BC =
.
35 21
Da B aber zwei Zeilen hat, ist eine CB wohldefiniert 1 × 1 Matrix. Wir
haben
CB = ((−1) · 5 + 3 · 7) ∈ Mat1 (Q).
Eine 1×1 Matrix ist nichts anderes wie ein Element des Grundkörpers.
(iv) Natürlich können wir auch Matrizen mit Koeffizienten in F2 multiplizieren. Seien
1 1
1 1
und B =
A=
1 0
1 0
so gilt
AB =
1·1+1·1
1·1+0·1
(v) Sei K ein beliebiger Körper und
a
A=
c
1·1+1·0
1·1+0·0
b
d
=
0
1
1
1
.
∈ Mat2 (K).
Weiter oben haben wir die Einsmatrix in Matn (K) definiert. Für n = 2 erhalten
wird
1 0
E2 = E =
.
0 1
Da A und E quadratische Matrizen mit der selben Anzahl Zeilen sind, sind sowohl
AE wie auch EA definiert. Wir rechnen leicht nach, dass
a·1+b·0 a·0+b·1
a b
AE =
=
= A.
c·1+d·0 c·0+d·1
c d
Wie sieht es mit dem Produkt EA aus?
1·a+0·c 1·b+0·d
a
EA =
=
0·a+1·c 0·b+1·d
c
b
d
= A.
Dieses Beispiel zeigt, dass En ein neutrales Element bezüglich der Multiplikation
ist für n = 2. Dies wird auch für jedes n ≥ 1 richtig sein.
(vi) Ist A wie im Beispiel (v) so überrascht es nicht, dass
A02,2 = 02,2
und
02,2 A = 02,2
gilt. Hier ist 02,2 die 2 × 2 Nullmatrix.
Definition. Sei K ein Körper und m ∈ N. Eine Matrix in Mat1,m (K) nennt
man auch Zeilenvektor (der Länge m). Entsprechend nennt man eine Matrix in
Matm,1 (K) gerne Spaltenvektor (der Länge m).
Bemerkung. Sei K ein Körper und m, n ∈ N. Ist A = (ai,j )1≤i≤m,1≤j≤n ∈
Matm,n (K) so ist Av wohldefiniert für jeden Spaltenvektor v der Länge n. Das
Produkt ist eine Matrix Matm,1 (K), d.h. ein Spaltenvektor der Länge m.
1. MATRIZEN: SUMME, SKALARPRODUKT UND PRODUKT
27
Beispiel. Sei
A=
1
3
2
2
3
1


1
und v =  0 
−1
so gilt
Av =
−2
2
.
Wir halten im nächsten Lemma einige elementare Rechenregeln fest.
Lemma 2.2. Sei K ein Körper und m, n, p, q ∈ N.
(i) Sei A ∈ Matm,n (K), B ∈ Matn,p (K) und C ∈ Matp,q (K). Dann gilt das
Assoziativgesetz
(AB)C = A(BC).
(Man soll sich davon überzeugen, dass alle vier Produkte wohldefiniert
sind.)
(ii) Sind A, B ∈ Matm,n (K) und C ∈ Matn,p (K), so haben wir Distributivität
(A + B)C = AB + AC.
Liegt C ∈ Matp,m (K), so gilt analog
C(A + B) = CA + CB.
(iii) Ist A ∈ Matm,n (K) so gilt
Em A = A = AEn .
D.h. Em ist ein neutrales Element falls m = n.
(iv) Für jedes A ∈ Matm,n (K) gilt
A0n,p = 0m,p
und
0p,m A = 0p,n .
Beweis. Die vier Aussagen lassen sich formal mit der Definition der Matrizenaddition bzw. -multiplikation beweisen. Die Argumentation ist jedoch nicht besonders interessant. Wir begnügen uns damit, AEn = A aus Teil (iii) zu zeigen.
Dazu nehmen wir wie üblich an, dass A = (ai,j )1≤i≤m,1≤j≤n gilt mit ai,j ∈ K. Der
Eintrag von En in der j-ten Zeile und k-ten Spalte soll mit ej,k bezeichnet werden.
Es gilt
1 : falls j = k,
ej,k =
0 : sonst.
Wir schreiben AEn = A0 mit A0 = (ai,k )1≤i≤m,1≤k≤n . Aus der Definition erhalten
wir
n
X
a0i,k =
ai,j ej,k .
j=1
In dieser Summe überlebt nur der Faktor mit j = k, ansonsten ist ej,k = 0. Es gilt
daher
a0i,k = ai,k
für alle möglichen j und k.
Bemerkung. Die Assoziativität der Matrizenmultiplikation und die Einsmatrix
lassen erhoffen, dass irgendwo eine Gruppe versteckt ist. Dies ist tatsächlich der
Fall. Diese korrekt zu definieren, wird jedoch Zeit beanspruchen.
28
2. MATRIZENKALKÜL
Definition. Sei K ein Körper und m ∈ N. Gegeben seien quadratische Matrizen
A, B ∈ Matm (K). Man sagt, dass B ein Rechtsinverses zu A ist, falls AB = Em .
Analog bezeichnet man B als Linksinverses zu A, falls BA = Em . Schliesslich nennt
man B Inverses von A falls AB = BA = Em .
Es gibt keinen Grund anzunehmen, dass es zu einer Matrix A ein Links- oder
Rechtsinverses gibt!
Definition. Sei A wie in der vorigen Definition. Dann nennt man A invertierbar,
falls A ein Inverses besitzt.
Beispiel. In diesem Beispiel wollen wir erörtern, ob es ein Inverses bezüglich der
Matrizenmultiplikation gibt. Wir wollen uns dabei auf quadratische Matrizen in
Matn (K) beschränken, hier ist K wie immer ein Körper.
(i) Natürlich gilt En En = En2 = En , dass heißt, En ihr eigenes Inverses.
(ii) Sei 0n die Nullmatrix. Für jede Matrix A ∈ Matn (K) gilt 0n A = A0n =
0n . Somit hat 0n weder ein Links- noch ein Rechtsinverses.
(iii) Es gibt aber auch Matrizen ungleich der Nullmatrix die weder ein Linksnoch ein Rechtsinverses besitzt. Dies läßt sich mit der Matrix
1 1
A=
∈ Mat2 (Q)
1 1
beweisen. Nehmen wir an, dass es B ∈ Mat2 (Q) mit AB = E2 gibt. Wir
definieren die Hilfsmatrix
1 −1
C=
∈ Mat2 (Q).
−1 1
Dann gilt (CA)B = C(AB) = CE2 = C wegen Assoziativität, und weil
E2 die Einsmatrix ist, siehe Lemma 2.2. Berechnen wir nun
0 0
CA =
= 02 ,
0 0
so erhalten wir 02 = 02 B = C. Dies ist ein Widerspruch. Also kann
A kein Rechtsinverses besitzen. Unter Verwendung von CA = 02 zeigt
eine ähnliche Rechnung, dass A kein Linksinverses besitzt. Dies wird eine
Übungsaufgabe sein.
(iii) Die Matrix
1 1
∈ Mat2 (Q)
0 1
ist invertierbar. Ein Inverses ist durch
1 −1
∈ Mat2 (Q).
0 1
gegeben wie man leicht nachrechnet.
Lemma 2.3. Sei K ein Körper und m ∈ N.
(i) Sind A, B ∈ Matm (K) beide invertierbar, so ist auch AB invertierbar.
(ii) Ist A ∈ Matm (K) invertierbar, so ist auch jedes Inverse A0 von A invertierbar.
(iii) Die Menge der invertierbaren Matrizen zusammen mit der Matrizenmultiplikation ist eine Gruppe mit neutralem Element Em .
1. MATRIZEN: SUMME, SKALARPRODUKT UND PRODUKT
29
Beweis. Seien A0 und B 0 Inverse zu A und B 0 . Das heißt, A0 A = AA0 = En
und B 0 B = BB 0 = En . Wir behaupten, dass B 0 A0 ein Inverses zu AB ist. Dazu
berechnen wir
(AB)(B 0 A0 ) = A(BB 0 )A0 = AA0 = En
und
(B 0 A0 )(AB) = B 0 (A0 A)B = B 0 B = En ,
was für Teil (i) zu zeigen war.
Teil (ii) folgt sofort aus der Definition des Inversen.
Um Teil (iii) zu zeigen, muss man die Gruppenaxiome nachprüfen. Dass das Produkt
oder ein Inverses einer invertierbaren Matrix wieder invertierbar ist, folgt aus Teilen
(i) und (ii). Assoziativität und Existenz des neutralen Elements folgt aus Lemma
(2.2). Existenz des Inversen folgt aus der Definition.
Bemerkung. Aus dem Kapitel über Gruppentheorie folgt nun, dass das Inverse
einer invertierbaren Matrix eindeutig bestimmt ist.
Definition. Die Gruppe aus der vorherigen Definition wird mit GLn (K) bezeichnet. Die Inverse von A ∈ GLn (K) bezeichnen wir mit A−1 .
Wir werden üblicherweise GLn (K) als Teilmenge von Matn (K) betrachten.
Das letzte Lemma ist unbefriedigend, da es kein Rezept angibt, zu entscheiden wann
eine Matrix invertierbar ist. Wir wissen also abstrakt, dass die Gruppe GLn (K)
existiert. Wir können jedoch noch nicht sagen, welche Matrizen ihr angehören.
Für 2 × 2 Matrix lässt sich GL2 (K) jedoch leicht bestimmen. Später werden wir
mit Hilfe der Determinante eine ähnliche Aussage für alle n erhalten.
Lemma 2.4. Sei K ein Körper und
a b
A=
∈ Mat2 (K).
c d
Dann gilt
A ∈ GL2 (K) ⇐⇒ ad − bc 6= 0.
Beweis. Da wir die Äquivalenz zweier Aussagen beweisen wollen, müssen wir
beide Implikationen “⇐” und “⇒” beweisen.
Wir beginnen mit “⇐”. Dazu setzen wir δ = ad − bc. Dies ist ein Element von
K r {0} nach Voraussetzung. Deshalb ist δ −1 ein wohldefiniertes Element von K.
Wir setzen
−1
δ d −δ −1 b
d −b
−1
B=
=
δ
−δ −1 c δ −1 a
−c a
und werden nun nachweisen, dass B das Inverse von A ist. Dazu rechnen wir
ad − bc −ab + ba
1 0
AB = δ −1
=
= E2 .
cd − dc ad − bc
0 1
Also ist B zumindest ein Rechtsinverses von A. Völlig analog zeigt man, dass BA =
E2 . Und daraus folgt, dass A invertierbar ist.
Nun zeigen wir die andere Implikation “⇒”. Nach Voraussetzung gibt es ein B ∈
Mat2 (K) mit AB = E2 . Wir definieren die Hilfsmatrix
d −b
C=
.
−c a
30
2. MATRIZENKALKÜL
Diese erfüllt
(2.6)
CA =
ad − bc
−ca + ca
db − db
ad − bc
=
δ
0
0
δ
mit δ = ad − bc.
Wir möchten beweisen, dass δ 6= 0. Um dies zu tun nehmen wir das Gegenteil an,
und folgern einen Widerspruch. Falls δ = 0 so gilt wegen (2.6) CA = 02 = 0. Also
haben wir
0 = 0B = (CA)B = C(AB) = CE2 = C.
Aus der Definition von C folgt nun A = 0. Aber die Nullmatrix kann unmöglich
invertierbar sein. Dies haben wir schon weiter oben gesehen und daraus folgt der
gewünschte Widerspruch. Daher ist δ 6= 0 und das Lemma ist bewiesen.
2. Lineare Gleichungssysteme und Zeilenstufenform
Ziel dieses Abschnitts ist es, lineare Gleichungssysteme systematisch mittels Matrizen zu studieren.
Definition. Sei K ein Körper und m, n ∈ N. Gegeben seien Elemente ai,j ∈ K
sowie xi , bj ∈ K für 1 ≤ i ≤ m und 1 ≤ j ≤ n. Gilt

a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1



 a2,1 x1 + a2,2 x2 + · · · + a2,n xn = b2
(2.7)
..

.



am,1 x1 + am,2 x2 + · · · + am,n xn = bm
so sagt man, dass (x1 , . . . , xn ) ∈ K n eine Lösung des inhomogenen Gleichungssystems (2.7) ist. Sind b1 = b2 = · · · = bm = 0 so nennt man (x1 , . . . , xn ) ∈ K n eine
Lösung des homogenen Gleichungssystems (2.7).
Lineare Gleichungssystem sind die einfachsten Gleichungen, die man nur unter Verwendendung der Körperaxiome aufschreiben kann. Lässt man höhere Potenzen xkj
oder gar gemischte Terme xk11 · · · xknn zu, so redet man von polynomialen Gleichungen. Diese lassen sich nur mit viel größeren Mühe behandeln; die dazugehörige
Vorlesung heißt Algebraische Geometrie.
Matrizen lassen sich verwenden, um das System (2.7) viel effizienter zu beschreiben.
Sei dazu A ∈ Matm,n (K) die Matrix A = (ai,j )1≤i≤m,1≤j≤n und


b1


b =  ...  ∈ Matm,1 (K)
bm
ein Spaltenvektor. Sei x = (x1 , . . . , xn ) ∈ Mat1,n (K) ein Zeilenvektor. Dann gilt
Ax = b
⇐⇒
(x1 , . . . , xn ) is eine Lösung von (2.7).
Der Grund für diese Äquivalenz liegt in der Beobachtung, dass das Produkt der
zwei Matrizen A und b genau durch die linke Seite von (2.7) gegeben ist.
Natürlich ist die Notation Ax = b viel kompakter wie (2.7). Matrizen dienen jedoch
nicht nur der Kosmetik. Sie werden uns später helfen lineare Gleichungssysteme zu
lösen.
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
31
Definition. In Zukunft werden wir das inhomogene System (2.7) durch
[A|b]
abkürzen. Das homogene System (b = 0) lässt sich durch A alleine ausdrücken.
Bevor wir zur allgemeinen Theorie kommen, werden wir ein relativ einfaches Gleichungssytem von Hand lösen. Die Schritte, die wir dabei durchlaufen, werden wir
später verallgemeinern.
Beispiel. Wir betrachten das homogene Gleichungssystem, welches durch die Matrix
0 2 −2
A=
∈ Mat2,3 (Q)
2 4 6
gegeben ist. Wir wollen alle Lösungen des Systems bestimmen.
Zuerst nehmen wir an, dass der Spaltenvektor


x1
x =  x2 
x3
eine Lösung mit rationalen Koeffizienten ist. D.h. Ax = 0.
Natürlich ist x auch eine Lösung des homogenen Gleichungssystems, welches wir
durch das Vertauschen der zwei Zeilen von A erhalten:
2 4 6
0
A =
0 2 −2
Es gilt 2x1 + 4x2 + 6x3 = 0 und somit auch x1 + 2x2 + 3x3 = 0 nach Division durch
2. Dies entspricht Multiplikation der ersten Zeile von A0 mit 1/2. Also gilt A00 x = 0
mit
1 2 3
A00 =
0 2 −2
Es gilt
x1 + 2x2 + 3x3 = 0 und 2x2 − 2x3 = 0.
Falls wir die zweite Gleichung von der ersten subtrahieren, so erhalten wir
x1 + 5x3 = 0.
000
Wir haben A x = 0 mit
1
0
Als letztes multiplizieren wir, ähnlich wie
und erhalten
1
A0000 =
0
0000
wobei immer noch A x = 0 gelten muss.
A000 =
x1 = −5x3
0 5
2 −2
vorhin, die zweite Zeile von A000 mit 1/2
0 5
1 −1
Setzen wir x hier ein, so ergibt sich
und x2 = x3 .
Wir haben bewiesen, dass jede Lösung x ∈ Q3 von Ax = 0 von der Form


−5
(2.8)
x =  1  t ist für ein t ∈ Q.
1
Hier haben wir x3 durch t ersetzt.
32
2. MATRIZENKALKÜL
Wir sagen, dass A0000 in Zeilenstufenform ist. Diesen Begriff werden wir später für
allgemeine Matrizen definieren.
Umgekehrt sieht man sofort, dass jeder Spaltenvektor der Form (2.8) eine Lösung
von Ax = 0 ist.
Somit ist die Lösungsmenge bestimmt.
Insgesamt mussten wir drei verschiedene Zeilenumformungen durchführen, bis unsere Matrix A in Zeilenstufenform war. Wir fassen diese zusammen.
A
Z1 und Z2 vertauschen
A0
Z1 mal 1/2
A00
Z1 durch Z1-Z2 ersetzen
A000
Z2 mal 1/2
A0000 .
Wie schon angedeutet, kann man diese drei Zeilenumformungen in einem allgemeineren Kontext durchführen.
Definition. Sei K ein Körper und m, n ∈ N. Sei A ∈ Matm,n (K) eine Matrix mit
Zeilen a1 , . . . , am (wir betrachten die ai als Zeilenvektoren).
Wir sagen, dass eine Matrix A0 ∈ Matm,n (K) durch Zeilenumformungen aus A
entstehe falls:
(I) die i-te Zeile ai von A durch ai + λaj ersetzt wurde, wobei λ ∈ K und
1 ≤ i 6= j ≤ n, oder
(II) die i-te und j-te Zeilen von A vertauscht wurden wobei 1 ≤ i 6= j ≤ n,
oder
(III) die i-te Zeile ai durch λai ersetzt wurde, wobei λ ∈ K r{0} und 1 ≤ i ≤ n.
Diese Umformungen werden wir als Zeilenumformung vom Typ I, II oder III bezeichnen.
Ein wichtiges Fakt im Zusammenhang mit Zeilenumformungen ist, dass sie durch
Matrizenmultiplikation der sogenannten Elementarmatrizen entstehen.
Definition. Sei K ein Körper, m ∈ N und 1 ≤ i, j ≤ m. Wir definieren


0 ··· 0

.. 
ei,j =  ...
1
. 
0
···
0
wobei sich die 1 in der i-ten Zeile und j-ten Spalte befindet, alle weiteren Einträge
sind 0. Wir definieren drei Typen von Elementarmatrizen der Größe m.
(I) Für 1 ≤ i 6= j ≤ m und λ ∈ K definieren wir


1


..


.


I

 = Em + λei,j .
1 λ
E (i, j, λ) = 



..


.
1
In Worten: die Diagonaleinträge von E(i, j, λ) sind 1, außerhalb der Diagonale sind die Einträge 0, außer in der i-ten Zeile und j-ten Spalte wo
λ steht.
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
33
(II) Für 1 ≤ i 6= j ≤ m definieren wir







II
E (i, j) = 






1
..






 = Em − ei,i − ej,j + ei,j + ej,i .





.
0
1
..
.
1
0
..
.
1
(iii) Für 1 ≤ i ≤ m und λ ∈ K r {0} definieren


1


..


.


 = Em − ei,i + λei,i .
λ
E III (i, λ) = 




..


.
1
Nun werden wir beweisen, dass die drei Zeilenumformungen durch Linksmultiplikation der Elementarmatrizen induziert werden.
Lemma 2.5. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K).
(i) Seien 1 ≤ i 6= j ≤ n und λ ∈ K. Dann entsteht E I (i, j, λ)A durch A
mittels einer Zeilenumformung des Types I.
(ii) Seien 1 ≤ i 6= j ≤ n. Dann entsteht E II (i, j)A durch A mittels einer
Zeilenumformung des Typs II.
(iii) Seien 1 ≤ i ≤ n und λ ∈ K r {0}. Dann entsteht E III (i, λ)A durch A
mittels einer Zeilenumformung des Typs III.
Beweis. Wir schreiben

a1,1
 ..
A= .
am,1
···
···

a1,n
..  ∈ Mat (K).
m,n
. 
am,n
Seien 1 ≤ i 6= j ≤ n und λ ∈ K. Wir nehmen ohne Beschränkung der Allgemeinheit
an, dass i < j.
Es gilt


 
1
a1,1
···
a1,n
a1,1
···
a1,n





.
.
.
..
.
..
..  
..

  ..
.


 

  ai,1
 =  ai,1 + λaj,1
1
λ
·
·
·
a
·
·
·
a
+
λaj,n
i,n
i,n


 

 .
..  
..
..
.
.
.

 .
.
.  
.
.
1
am,1
···
am,n
am,1
···
am,n
hieraus folgt (i).




.



34
2. MATRIZENKALKÜL
Wir berechnen

1

..

.


0


..

.


1



···

a1,1
  ..
 .

  ai,1

  ..
 .

  aj,1

 .
  ..
am,1
1
1
0
..
.
ai,i
···
ai,j
···
···
aj,i
···
aj,j
···
···
···

a1,1
 ..
 .

 aj,1

 ..
 .

 ai,1

 .
 ..
···
···
aj,i
···
aj,j
···
···
ai,i
···
ai,j
···
am,1
···
Somit ist (ii) bewiesen.
Schlussendlich, sei λ ∈ K r {0}. Dann gilt


1
a1,1
···
a1,n



.
..
.
..
  ..

.


  ai,1

λ
·
·
·
a
i,n


 .

..
..
  ..

.
.
1
am,1
···
am,n

a1,n
.. 
. 

ai,n 

..  =
. 

aj,n 

.. 
. 
am,n

a1,n
.. 
. 

aj,n 

..  .
. 

ai,n 

.. 
. 
am,n



a1,n
.. 
. 

λai,n 
.
.. 
. 
am,n
···
a1,1
  ..
  .
 
 =  λai,1
 
  .
  ..
am,1
···
···
Also ist (iii) wahr.
Beispiel. Sei
A=
3
−1
7
2
3
−1
7
2
3
−1
7
2
3
−1
7
2
∈ Mat2 (Q).
Für λ ∈ Q gilt
E I (2, 1, λ)A =
1
λ
und
II
0
1
E (2, 1)A =
und
E III (2, λ)A =
0
1
1
0
1
0
0
λ
=
3
−1 + 3λ
−1
3
2
7
3
−λ
7
2λ
=
=
7
2 + 7λ
falls λ 6= 0.
Was passiert, wenn man hintereinander zweimal die Zeilen i und j vertausch? Man
erhält natürlich die ursprüngliche Matrix.
Im nächsten Lemma verallgemeinern wir diese Beobachtung.
Lemma 2.6. Sei K ein Körper, wir betrachten Elementarmatrizen der Größe m ∈
N.
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
35
(i) Für 1 ≤ i 6= j ≤ m und λ ∈ K gilt
E I (i, j, −λ)E I (i, j, λ) = Em .
(ii) Für 1 ≤ i 6= j ≤ m gilt
E II (i, j)E II (i, j) = Em .
(iii) Für 1 ≤ i ≤ m und λ ∈ K r {0} gilt
E III (i, λ−1 )E III (i, λ) = Em .
Insbesondere sind alle Elementarmatrizen invertierbar, d.h. sie liegen in GLm (K).
Beweis. Addiert man −λ mal die j-te Zeile zur i-ten Zeile von E I (i, j, λ) so
erhält man Em . Also folgt (i)
Vertauscht man zweimal hintereinander die selben zwei Zeilen so erhält man die
ursprüngliche Matrix. Hieraus folgert man (ii)
Multipliziert man die i-te Zeile einer Matrix zuerst mit λ und anschließend mit λ−1 ,
so erhält man wiederum die ursprüngliche Matrix. Daraus folgt (iii)
Die Invertierbarkeit der Elementarmatrizen folgt nun sofort aus (i), (ii) und (iii). Nun folgt leicht, dass Zeilenumformungen die Lösungsmenge eines linearen Gleichungssystems nicht verändern.
Lemma 2.7. Sei K ein Körper, m, n ∈ N, A ∈ Matm,n (K) und b ∈ Matm,1 (K) =
K m ein Zeilenvektor. Entstehen A0 bzw. b0 beide durch endlich viele, gleichen Zeilenumformungen aus A bzw. b so gilt
Ax = b ⇐⇒ A0 x = b0
für alle
x ∈ Matn,1 (K).
Beweis. Nach Voraussetzung und Lemma 2.5 gilt A0 = LA und b0 = Lb wobei
L ein endliches Produkt aus Elementarmatrizen E I (· · · ), E II (· · · ) und E III (· · · )
ist.
Wir wissen aus Lemma 2.6, dass Elementarmatrizen invertierbar sind. D.h. die
Menge aller invertierbarer Matrizen liegt in der Gruppe GLm (K). Also liegt auch
L in GLm (K). Insbesondere ist L invertierbar, d.h. L−1 existiert.
Wir erhalten
Ax = b =⇒ LAx = Lb =⇒ A0 x = b0
und andererseits
−1 0
−1 0
A0 x = b0 =⇒ L
| {zA} x = L b =⇒ Ax = b.
=L−1 (LA)
Wir haben weiter oben in einem Beispiel die Matrix
0 2 −2
2 4 6
durch geeignet Zeilenumformungen in besonders einfacher Form gebracht. Wir wollen dies nun für alle Matrizen machen.
36
2. MATRIZENKALKÜL
Definition. Sei K ein Körper und
Gestalt

0 ··· 0 1 ? ··· ? 0 ?
 0 ··· 0 0 0 ··· 0 1 ?

 0 ··· 0 0 0 ··· 0 0 0

 0 ··· 0 0 0 ··· 0 0 0

..
.. .. ..
.. .. ..
.
. . .
. . .
m, n ∈ N. Wir sagen, dass eine Matrix der
···
···
···
···
?
?
0
0
..
.
0 ?
0 ?
1 ?
0 0
.. ..
. .
···
···
···
···
?
?
?
0
0
0
0
1
···
···
···
···
..
.




 ∈ Matm,n (K)


in Zeilenstufenform ist.
In Worten: Eine Matrix A ∈ Matm,n (K) ist in Zeilenstufenform genau dann, wenn
folgende drei Bedingungen erfüllt sind.
(i) Der erste Eintrag ungleich Null jeder Zeile von A ist 1. Diesen Eintrag
nennt man Pivot. (N.B.: nicht jede Zeile muss ein Pivotelement besitzen,
d.h. es darf Nullzeilen geben.)
(ii) Der Pivoteintrag der i-ten Zeile von A steht rechts des Pivoteintrags der
i − 1-ten Zeile.
(iii) Die Einträge oberhalb eines Pivoteintrags sind 0.
Beispiel. Die Matrizen
1
0
0
1
5
−1

1
, 0
0
0
1
0
 
0
0
0 , 0
1
0
0
0
0

0
1
0 ,
0
0
1
0
0
1
sind in Zeilenstufenform.
Die Matrix

0
 0
0
0
1
0

0
0 
0
ist nicht in Zeilenstufenform. Vertauscht man jedoch die ersten zwei Zeilen so erhält
man


0 1 0
 0 0 0 
0 0 0
und diese Matrix ist in Zeilenstufenform.
Wir zeigen zunächst, dass sich jede Matrix durch Zeilenumformungen in Zeilenstufenform bringen lässt.
Später werden wir sehen, wir man durch hinstarren lineare Gleichungssyteme lösen
kann, wenn die dazugehörige Matrix in Zeilenstufenform ist.
Lemma 2.8. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K). Dann lässt sich jede Matrix in Matm,n (K) nach endlich vielen Zeilenumformung in Zeilenstufenform
bringen.
Beweis. Die erste Spalte von A könnte Null sein. Aber nachdem wir, falls
nötig, eine Zeilenvertauschung (Typ II) gemacht haben, enthält die erste Spalte
die ungleich Null ist ein Element ungleich Null in der ersten Zeile. Das heißt, wir
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
37
erhalten

A
Typ II
(falls nötig)


A0 = 

0
0
..
.
···
···
0
···

a ···
? ··· 


..

.
? ···
0
0
..
.
0
mit
a 6= 0.
Da a 6= 0 erlauben wir uns eine Zeilenumformung des Typs III und multiplizieren
die erste Zeile mit a−1 . Wir erhalten

A0
Typ III


A00 = 

0
0
..
.
···
···
0
···
0
0
..
.
1
a2
..
.
0
am

···
··· 



···
mit
a2 , . . . , am ∈ K.
Nun wenden wir Zeilenumformungen des Typs I an und subtrahieren a2 mal Zeile
eins von Zeile zwei. Dann subtrahieren wir a3 mal Zeile eins von Zeile drei, usw.
usw. Dies hat zur Folge, dass unter der führenden 1 der erste Zeile nur die 0 steht.
Also

Typ I
A00 |
·{z
··


000
}A = 

Typ I
m−1 mal
0
0
..
.
···
···
0
0
..
.
1
0
..
.
0
···
0
0

···
··· 
0

=

0

···
1
0
B
C
wobei B ein Zeilenvektor und C eine Matrix mit m − 1 Zeilen.
Nun wenden wir das oben angegebene Vorgehen induktiv auf C an. Die dabei
auftretenden Zeilenumformungen beeinflussen die erste Zeile von A000 nicht. Nach
einer Induktion auf m erhalten wir

0 ··· 0 1 ? ··· ? ? ? ··· ? ? ? ··· ? ?
 0 ··· 0 0 0 ··· 0 1 ? ··· ? ? ? ··· ? ?

induktiv 0000

A000
A =  0 ··· 0 0 0 ··· 0 0 0 ··· 0 1 ? ··· ? ?
 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 1

..
.. .. ..
.. .. ..
.. .. ..
.
. . .
. . .
. . .
Die Matrix A0000 is noch nicht ganz in Zeilenstufenform: die markierten Einträge
oberhalb der Pivots sind vielleicht noch nicht 0. Dieses Problem lässt sich jedoch
leicht lösen. Mit Hilfe von Zeilenumformungen des Typs I lassen sich auch auf diese
Werte eliminieren:
A0000
Typ I
···
Typ I
A00000
ist in Zeilenstufenform.
Proposition 2.9. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K) eine Matrix
in Zeilenstufenform. Sei r die größte ganze Zahl in {1, . . . , m} mit der Eigenschaft,
dass die r-te Zeile von A keine Nullzeile ist. Sei


b1


b =  ... 
bm
ein Spaltenvektor.
···
···
···
···
..
.




.


38
2. MATRIZENKALKÜL
Das lineare Gleichungssystem

(2.9)
Ax = b

x1


x =  ...  ∈ Matm,1 (K)
xn
mit
hat genau dann eine Lösung x, wenn br+1 = br+2 = · · · = bm = 0.
Nehmen wir an, dass eine Lösung existiert und seien j1 < j2 < · · · < jk die
Spalten von A, welche kein Pivotelement enthalten. Dann gibt es zu jeder Wahl von
xj1 , . . . , xjk ∈ K genau eine Lösung x wie in (2.9).
Beweis. Eine Lösung des Gleichungssystem erfüllt
···
xt1 + a1,t1 +1 xt1 +1
x t2 +
a2,t2 +1 xt2 +1 +
= b1 ,
= b2 ,
···
..
.
xtr + ar,tr +1 xtr +1
wobei t1 , t2 , . . . die Spalten von A bezeichnen, die ein Pivotelement enthalten.
Somit ist br+1 = · · · = bm = 0 ein notwendiges Kriterium für die Existenz einer
Lösung.
Umkehrt ist dies auch ein hinreichendes Kriterium. Nehmen wir also br+1 = · · · =
bm = 0 an. Sind xtr +1 , . . . , xm ∈ K beliebig, so lässt sich ein eindeutiges xtr ∈ K
finden, so dass die letzte nichttriviale Gleichung oben erfüllt ist. Man finden also
ein xtr−1 ∈ K welches die zweitletzte nichttriviale Gleichung löst, dabei kann man
xtr−1 +1 , . . . , xtr −1 frei wählen. Dieses “rückwärts-aufwärts” Lösen setzt man fort,
bis man ganz oben links angelangt ist.
Beispiel. Die Matrix
A=
1
0
2
0
0
1
5
−2
!
∈ Mat2,4 (Q)
ist in Zeilenstufenform; die Pivoteinträge sind umrandet.
Wir wollen das inhomogene System


x1
 x2 
7

Ax =
in x = 
 x3 
−3
x4
lösen. Gemäß Lemma existiert eine Lösung
Die Lösungsmenge ist also

−2x2 − 5x4 + 7



x2


2x
−3

4


x4
und wir können x2 und x4 frei wählen.






 ; x2 , x4 ∈ Q .




···
0
= br ,
= br+1 ,
..
.
0
= bm
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
39
Zur Erinnerung, gegeben eine Matrix A ∈ Matm,n (K) mit K ein Körper, so definiert
Ax = 0
mit x ∈ Matn,1 (K)
ein lineares Gleichungsssytem bestehend aus m homogenen linearen Gleichungen in
n Unbekannten. Der Nullvektor x ist natürlich immer eine Lösung. Diese Lösung
heißt die triviale Lösung.
Folgendes Korollar impliziert, dass ein überbestimmtes homogenes lineares Gleichungssystem (diejenige mit m > n) eine nicht triviale Lösung besitzt.
Korollar 2.10. Sei K ein Körper m, n ∈ N mit n > m und A ∈ Matm,n (K).
Dann existiert ein Spaltenvektor x ∈ K n r {0} mit Ax = 0.
Beweis. Wegen Lemmas 2.7 und 2.8 dürfen wir annehmen, dass A in Zeilenstufenform ist.
Jetzt werden wir Proposition 2.9 anwenden. Sei k die Anzahl Spalten von A welche
kein Pivoteintrag enthalten. Wäre nun k = 0, so enthielte jede Spalte von A einen
Pivoteintrag und es gäbe deren insgesamt mindestens n Stück. Da es mindestens
soviele Zeilen wie Pivoteinträge geben muss, folgt m ≥ n.
Dies ist ein Widerspruch. Es muss also k ≥ 1 gelten. Nun sind k Einträge von x
“frei wählbar”. Inbesondere gibt es eine Lösung von Ax = 0 mit x 6= 0.
Nun können wir eine für die Theorie wichtige Aussage beweisen. Eine quadratische
Matrix besitzt ein Rechtsinverses genau dann, wenn sie ein Linksinverses besitzt.
Proposition 2.11. Sei K ein Körper und m ∈ N. Seien A, B ∈ Matm (K) quadratische Matrizen mit AB = Em . Dann gilt BA = Em . Insbesondere sind A und
B invertierbar.
Beweis. Wegen Lemmas 2.5 und 2.8 gibt es ein Produkt L ∈ Matm (K) aus
endlich vielen Elementarmatrizen mit LA in Zeilenstufenform.
Die Matrix L ist invertierbar, weil sie ein endliches Produkt aus Elementarmatrizen
ist, siehe Lemma 2.6.
Das Pivotelement der i-ten Zeile von LA rechts des Pivotelements der i−1-ten Zeile
von LA steht und weil LA quadratisch ist, muss einer der zwei folgenden Aussagen
wahr sein.
(i) Das Produkt LA ist die Einsmatrix Em .
(ii) Die letzte Zeile von LA ist 0.
Wir wollen den zweiten Fall ausschliessen. Trifft er doch zu, so ist auch die letzte
Zeile von
(2.10)
(LA)B = L(AB) = L
Null. Also müsste auch die letzte Zeile von LL−1 = Em gleich 0 sein. Dies ist ein
Widerspruch.
Folglich sind wir im Fall (i) und es gilt LA = Em . Wir multiplizieren von links
mit L−1 und erhalten L−1 = L−1 (LA) = (L−1 L)A = A. Also ist zumindest A
invertierbar, da L und L−1 invertierbar sind. Aus AB = Em folgt nun L = L(AB) =
(LA)B = B und somit ist auch B invertierbar.
Also liegen A und B in der Gruppe GLm (K). Das Inverse in einer Gruppe ist
eindeutig bestimmt und ein Linksinverses ist auch ein Rechtsinverses. Für diese
Aussagen verweisen wir auf Teile (i) und (ii) von Lemma 1.1. Wir erhalten BA =
Em .
40
2. MATRIZENKALKÜL
Bemerkung. Die eben bewiesene Proposition und deren Beweis impliziert folgende
Aussage.
Sei A ∈ Matm (K) eine Matrix und L ein endliches Produkt aus Elementarmatrizen mit der Eigenschaft, dass LA in Zeilenstufenform ist. Dann ist genau dann A
invertierbar, wenn LA die Einsmatrix ist.
Wir halten zwei nützliche Konsequenzen fest. Bringen wir eine eine quadratische
Matrix in Zeilenstufenform, so können wir entscheiden ob die ursprüngliche Matrix
invertierbar ist oder nicht. Ist sie invertierbar, so ist die Matrix L (Notation wie
oben) die Inverse von A.
Diese Bemerkung erläutern an einem Beispiel.
Beispiel. Sei

1
A= 2
4
1
3
9

1
4  ∈ Mat3 (Q).
16
Wir wollen die Erkenntnis aus der letzten Bemerkung benutzen, um zu entscheiden
ob A invertierbar ist.
Also bringen wir A durch Zeilenumformungen in Zeilenstufenform. Wir werden jede
Zeilenumformung parallel an der Einsmatrix E3 durchführen. Dies wird schlussendlich die Matrix L aus der Bemerkung liefern.
Schritt 1. Wir subtrahieren 2 mal Zeile 1 von Zeile 2 und 4 mal Zeile 1 von Zeile
4. Wir erhalten


1 1 1
Typ I Typ I 0
A
A = E I (3, 1, −4)E I (2, 1, −2)A =  0 1 2 
0 5 12
und parallel

E3
Typ I
1
Typ I
E 0 = E I (3, 1, −4)E I (2, 1, −2)E3 =  −2
−4

0 0
1 0 .
0 1
Schritt 2. Der Eintrag in Zeile 2, Spalte 2 von A0 ist schon 1. Somit bleiben uns
Zeilenumformungen des Typs II und III ersparrt. Wir subtrahieren Zeile 2 von Zeile
1 und dann 5 mal Zeile 2 von Zeile 3. Dies ergibt


1 0 −1
Typ
I
Typ
I
A0
A00 = E I (3, 2, −5)E I (1, 2, −1)A0 =  0 1 2  .
0 0 2
Wir führen wieder die selben Umformungen parallel an E 0 aus und erhalten


3 −1 0
Typ
I
Typ
I
E0
E 00 = E I (3, 2, −5)E I (1, 2, −1)E 0 =  −2 1 0  .
6 −5 1
Schritt 3. Der Eintrag in Zeile 3 und Spalte 3 von A00 ist 2. Wir multiplizieren
also Zeile 3 mit 1/2 in A00 und E 00 und erhalten dabei


1 0 −1
Typ III 000
A00
A = E III (3, 1/2)A00 =  0 1 2 
0 0 1
2. LINEARE GLEICHUNGSSYSTEME UND ZEILENSTUFENFORM
und
41


3
−1
0
Typ III
1
0 .
E 000 = E III (3, 1/2)E 00 =  −2
E 00
3 −5/2 1/2
Schritt 4. Die Matrix A000 ist fast in Zeilenstufenform. Wir müssen noch 2 mal eine
Zeilenumformung des Types I durchführen. Explizit müssen wir Zeile 3 zu Zeile 1
addieren und dann 2 mal Zeile 3 von Zeile 2 subtrahieren. Also


1 0 0
Typ ITyp I 0000
A = E I (2, 3, −2)E I (1, 3, 1)A000 =  0 1 0 
A000
0 0 1
und schon ist A0000 in Zeilenstufenform. Folglich ist A invertierbar. Dieselbe Umformungen führen wir an E 000 aus und kriegen


6 −7/2 1/2
Typ ITyp I
6
−1  .
E 000
E 0000 = E I (2, 3, −2)E I (1, 3, 1)E 000 =  −8
3 −5/2 1/2
Weshalb haben wir die Einsmatrix mittransformiert? Wenn man den ganzen Prozess
betrachtet so haben wir
E3 = A0000 = E I (2, 3, −2) · · · E I (2, 1, −2) A
|
{z
}
L
die gleichen Umformungen haben wir an E3 unternommen, also
E 0000 = E I (2, 3, −2) · · · E I (2, 1, −2)E3 .
Somit ist E 0000 = L die Inverse von A.
Eine kurze Kontrollrechnung zeigt auch


1
6 −7/2 1/2
 −8
6
−1   2
4
3 −5/2 1/2
1
3
9
 
1
1
4 = 0
0
16
0
1
0

0
0 .
1
Lemma 2.12. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Folgende Aussagen
sind äquivalent.
(i) Die Matrix A ist invertierbar.
(ii) Das homogene Gleichungssystem Ax = 0 hat nur die Lösung x = 0 ∈ K m .
Beweis. Wir zeigen zuerst die einfachere Richtung (i)⇒(ii).
Sei also x ∈ K n eine Lösung Ax = 0. Wir multiplizieren diese Gleichung von links
mit A−1 und erhalten A−1 Ax = A−1 0 = 0. Es folgt x = 0.
Nun zu (ii)⇒(i). Wegen Lemmas 2.5 und 2.8 gibt es ein endliches Produkt L ∈
Matm (K) aus Elementarmatrizen mit LA in Zeilenstufenform.
Ähnlich wie im Beweis zu Proposition 2.11 muss LA entweder die Einsmatrix sein
oder eine Nullzeile besitzen.
Im ersten Fall gilt LA = Em und wegen Proposition 2.11 auch AL = Em . Somit
ist A invertierbar.
Der zweite Fall führt wie folgt zum Widerspruch. Unsere neue Matrix hat die Gestalt
0 A
LA =
0
mit A0 ∈ Matm−1,m (K). Wegen Korollar 2.10 gibt es ein x ∈ K m r{0} mit A0 x = 0.
Die letzte Zeile von LA bereitet keine Probleme: es gilt auch LAx = 0. Nun ist L
42
2. MATRIZENKALKÜL
invertierbar, somit haben wir 0 = L−1 LAx = Ax. Dies ist ein Widerspruch zu Teil
(ii).
KAPITEL 3
Die Determinante einer Matrix
Sei K ein Körper. Eine 1 × 1 Matrix (a1,1 ) besteht aus nur einem Eintrag a1,1 ∈ K.
Diese Matrix ist genau dann invertierbar, wenn a1,1 6= 0.
Für eine 2 × 2 Matrix
a b
A=
∈ Mat2 (K)
c d
ist die Situation schon etwas komplizierter, wie wir in Lemma 2.4 gesehen haben.
In der Tat ist A invertierbar, genau dann wenn
ad − bc 6= 0.
(3.1)
Im Prinzip können wir für eine beliebige m × m Matrix A ∈ Matm (K) entscheiden
ob sie invertierbar ist oder nicht. Dafür müssen wir A jedoch in Zeilenstufenform
bringen und das ist nicht immer sehr praktikabel.
In diesem Kapitel werden wir jeder quadratischen Matrix A ein Element aus K
zuordnen. Dieses Element heißt Determinante von A und ist ungleich 0 genau dann,
wenn A invertierbar ist.
Wir definieren zuerst ad hoc die Determinante einer 1 × 1 und einer 2 × 2 Matrizen:
det(a1,1 ) = a1,1 .
und
a b
det
= ad − bc.
c d
Im Laufe des Kapitels werden wir die allgemeine Definition der Determinante einer quadratischen Matrizen liefern. Diese Definition stimmt mit den zwei ad hoc
Definitionen oben überein.
Wir erläutern eine zentrale Eigenschaft für Determinanten von 2×2 Matrizen: sie ist
multiplikativ. Später werden wir sehen, dass die Multiplikativität sich auf Matrizen
beliebiger Größe überträgt.
Lemma 3.0. Sei K ein Körper und A, B ∈ Mat2 (K). Es gilt
det(AB) = det(A) det(B).
Beweis. Übungsaufgabe.
1. Permutationen
Es gibt mehrere (äquivalente) Definitionen für die Determinante einer m×m Matrix.
Wir werden die Determinante über die sogenannte Leibnizformel einführen. Ein
alternativer Zugang ist über die Laplaceentwicklung. Wir werden im Laufe des
Kapitels beweisen, dass beide Definitionen den gleichen Wert liefern.
Um die Determinante mittels der Leibnizformel einzuführen brauchen wir den Begriff der Permutation und der symmetrischen Gruppe.
43
44
3. DIE DETERMINANTE EINER MATRIX
Wir haben im Kapitel über Gruppentheorie die symmetrische Gruppe auf einer
beliebigen Menge als Beispiel kennengelernt. Im Zusammenhang mit der Determinante reicht es aus, die symmetrische Gruppe auf endlichen Mengen zu betrachten.
Definition. Sei n ∈ N = {1, 2, . . . }. Die symmetrische Gruppe Sn (auf {1, 2, . . . , n})
besteht aus allen bijektiven Abbildungen σ : {1, 2, . . . , n} → {1, 2, . . . , n}, die sogenannten Permutationen. Die Verknüpfung ist durch die Verknüfung von Abbildungen gegeben. Das Einselement der Gruppe ist die Identitätsabbildung id(i) = i für
i ∈ {1, . . . , n}. Die Inversionsabbildung ordnet jeder Permutation σ ihre Umkehrabbildung σ −1 zu.
Sind σ1 , σ2 ∈ Sn zwei Permutationen so bezeichnet σ2 ◦ σ1 ∈ Sn ihre Verknüpfung
Eine Permutation σ : {1, 2, . . . , n} → {1, 2, . . . , n} können wir tabellarisch wie folgt
darstellen
1
σ(1)
σ
2
σ(2)
3
σ(3)
···
···
n
σ(n)
Dabei kommt in der zweiten Zeile jedes Element von {1, 2, . . . , n} genau einmal
vor. Die Zahlen in der zweiten Zeile sind womöglich nicht mehr in aufsteigender
Reihenfolge. Daher der Begriff Permutation.
Beispiel. Die Gruppe S2 enthält nur id und σ mit
id
1
1
2
2
und
σ
1
2
2
1
Hier ist id die Identitätsabbildung. Was ist σ ◦ σ = σ 2 ? Rechnen wir nach! Es gilt
σ 2 (1) = σ(σ(1)) = σ(2) = 1
und
σ 2 (2) = σ(σ(2)) = σ(1) = 2
und somit σ 2 = id.
Die Kardinalität der symmetrische Gruppe Sn nimmt mit wachsendem n stark zu.
Lemma 3.1. Sei n ∈ N. Dann gilt
#Sn = n! = n(n − 1) · · · 2 · 1.
Beweis. Die Kardinalität #Sn ist die Anzahl bijektiver Abbildungen {1, . . . , n} →
{1, . . . , n}. Wieviele Möglichkeiten gibt es hierfür?
Für σ(1) gibt es zunächst die n Möglichkeiten {1, . . . , n}. Ist σ(1) einmal “gewählt”
so darf σ(2) jeden Wert in {1, . . . , n} außer der σ(1) annehmen; wir wollen, dass σ
injektiv ist. Also bleiben n−1 Möglichkeiten für σ(2). Analog gibt es für σ(3) genau
n − 3 mögliche Werte, nämlich {1, . . . , n} r {σ(1), σ(2)}. Dies führen wir weiter und
finden insgesamt
n(n − 1) · · · 2 · 1 = n!
Möglichkeiten für die Werte von σ. Hieraus ergibt sich die Behauptung.
Also hat #S10 mit 3628800 mehr als drei Millionen Elemente! Die Gruppen Sn
werden also schnell unübersichtlich groß. Wir können aber trotzdem mit diesen
Gruppen klarkommen, den sie sind aus einfachen Bausteinen aufgebaut: den Transpositionen.
1. PERMUTATIONEN
45
Definition. Sei n ∈ N. Eine Transposition ist eine Permutation τ ∈ Sn die genau
zwei Elemente aus {1, . . . , n} vertauscht. Präziser ausdrückt gibt es i, j ∈ {1, . . . , n}
mit i 6= j und
τ (i) = j,
τ (j) = i
Bemerkung.
tauscht.
sowie
τ (k) = k
für
k ∈ {1, . . . , n} r {i, j}.
(i) Ist τ eine Transposition, so werden nur zwei Zahlen ver1
1
τ
···
···
···
···
i
j
j
i
···
···
n
n
(ii) Für jede Transposition τ gilt τ 2 = id, denn wenn man die selben Zahlen
zweimal hintereinander vertauscht, passiert insgesamt nichts.
Beispiel.
(i) Das Elemente von S2 welches nicht das Einselement ist, ist eine
Transposition.
(ii) Die Permutation σ ∈ S3 die durch
1
2
σ
2
3
3
1
gegeben ist, ist keine Transposition.
Folgende zwei Permutationen sind jedoch Tranpositionen
τ1
1
1
2
3
3
2
und
τ2
1
2
2
1
3
3
Deren Produkt ist genau σ:
τ2 ◦ τ1 = σ.
Obwohl nicht jede Permutation in Sn eine Transposition ist, kann man jede Permutation als Produkt von endlich vielen Transpositionen schreiben. Dies ist der Inhalt
des nächsten Lemmas.
Lemma 3.2. Sei n ∈ N und σ ∈ Sn . Dann gibt es Transpositionen τ1 , . . . , τN ∈ Sn
mit
σ = τN ◦ · · · ◦ τ1 .
Beweis. Wir beweisen das Lemma über Induktion. Die Induktion ist über den
Defekt einer Permutation. Diese definieren wir wie folgt.
Sei σ ∈ Sn . Falls σ = id, so defineren wir D(σ) = 0. Falls σ 6= id dann gibt es ein
Index i ∈ {1, . . . , n} mit
(3.2)
σ(1) = 1,
σ(2) = 2,
...
σ(i − 1) = i − 1
aber σ(i) 6= i.
Der Defekt von σ ist nun
D(σ) = n − i ≥ 1.
Sei nun σ ∈ Sn beliebig. Falls D(σ) = 0 so ist σ = id. In diesem Fall ist nichts zu
zeigen, da σ das leere Produkt aus Transpositionen ist.
Wir nehmen nun an, dass D(σ) ≥ 1 und dass jede Permutation in Sn mit Defekt
höchstens D(σ) − 1 ein Produkt aus Transpositionen ist. Sei i = n − D(σ). Nach
Definition gilt σ(i) = j 6= i. Da σ injektiv ist, folgt σ(j) 6= j. Also muss j > i gelten.
Sei nun τ ∈ Sn die Transposition, welche i und j vertauscht.
Wir behaupten
(3.3)
D(τ ◦ σ) < D(σ).
46
3. DIE DETERMINANTE EINER MATRIX
Falls k ∈ {1, . . . , i − 1} so gilt σ(k) = k wegen (3.2) und τ (k) = k weil i, j > k.
Weiterhin haben wir τ (σ(i)) = τ (j) = i nach der Wahl von τ . Also ist τ ◦σ entweder
die Identität oder der kleinste Index i0 mit τ ◦ σ(i0 ) 6= i0 erfüllt i0 > i. In beiden
Fällen folgt (3.3).
Nach Induktionsvoraussetzung ist τ ◦ σ = τN −1 ◦ · · · τ1 mit τ1 , . . . , τN −1 Transpositionen. Wir multiplizieren diese Gleichung von links mit τ und nutzen τ 2 = id um
σ = τ ◦ τN −1 ◦ · · · τ1 zu erhalten.
Bemerkung. Die Faktorisierung einer Permutation als Produkt von Transpositionen ist nicht eindeutig im Allgemeinen: die Identität id lässt sich immer als τ 2 mit
τ einer Permutation beschreiben.
Seien
0
σ = τ1 ◦ · · · ◦ τN = τ10 ◦ · · · ◦ τN
0
zwei verschiedene Faktorisierungen einer Permutation s ∈ SN in Transpositionen.
Wir werden weiter unten beweisen, dass die Differenz der Anzahl Faktoren N − N 0
immer eine gerade Zahl ist. Dafür brauchen wir den Begriff des Vorzeichen einer
Permutation.
Definition. Sei n ∈ N und σ ∈ Sn . Man nennt ein Paar (i, j) mit i, j ∈ {1, . . . , n}
einen Fehlstand der Permutation σ falls
i<j
aber
σ(i) > σ(j).
Sei m die Anzahl der Fehlstände von σ, dann definieren wir
sign(σ) = (−1)m ∈ {−1, +1}.
Beispiel.
(i) Die Identitätsabbildung id ∈ Sn besitzt keine Fehlstände. Deshalb gilt
sign(id) = (−1)0 = 1.
(ii) Sei n ∈ N mit n ≥ 2 und τ die Transposition die 1 und 2 vertauscht. Das
heißt,
1 2 3 ··· n
τ
2 1 3 ··· n
Dann ist (1, 2) der einzige Fehlstand von τ . Es gilt also
sign(τ ) = (−1)1 = −1.
(iii) Sei σ ∈ S3 durch
σ
1
2
2
3
3
1
gegeben. Die Menge der Fehlstände von σ ist
{(1, 3), (2, 3)}.
Also gilt
sign(σ) = (−1)2 = 1.
Dass die Transposition in Beispiel (ii) oben Vorzeichen −1 besitzt, ist kein Zufall.
Lemma 3.3. Sei n ∈ N und τ ∈ Sn eine Transposition. Dann gilt sign(τ ) = −1.
1. PERMUTATIONEN
47
Beweis. Da τ eine Transposition ist, vertauscht sie zwei Indizes i, j ∈ {1, . . . , n}
mit i < j. Somit ist
(3.4)
(i, j)
ein Fehlstand von τ ist.
Es kann jedoch weitere Fehlstände geben. Sei i < k < j, dann gilt σ(i) = j > k =
σ(k). Wir erhalten j − i − 1 zusätzliche Fehlstände
(i, i + 1), (i, i + 2), . . . , (i, j − 1).
(3.5)
Andererseits ist auch (k, j) ein Fehlstand da σ(k) = k > i = σ(j). Diese Überlegung
ergibt wiederum j − i − 1 Fehlstände
(i + 1, j), (i + 2, j), . . . , (j − 1, j).
(3.6)
Wir haben also in (3.4), (3.5) und (3.6) insgesamt
1 + (j − i − 1) + (j − i − 1) = 1 + 2(j − i − 1)
Fehlstände gefunden.
Schliesslich deckt unsere Liste jeden Fehlstand von τ ab, denn ist (i0 , j 0 ) ein Fehlstand so muss i0 = i oder j 0 = j sein.
Somit gilt
σ(τ ) = (−1)1+2(j−i−1) = −1.
Teil (ii) des folgendes Lemma zeigt, dass die Abbildung
sign : Sn → {−1, +1}
ein Gruppenhomomorphismus ist; wir betrachten {−1, +1} als Untergruppe der
multiplikativen Gruppe Q r {0}. Die erste Aussage ist eine Hilfsresultat, welches
im Beweis von (ii) benötigt wird.
Lemma 3.4. Sei n ∈ N.
(i) Für jedes σ ∈ Sn gilt
sign(σ) =
Y σ(j) − σ(i)
i<j
j−i
;
die Indizes i und j laufen über {1, . . . , n} mit der Zusatzbedingung i < j.
(ii) Für σ1 , σ2 ∈ Sn gilt
sign(σ1 ◦ σ2 ) = sign(σ1 )sign(σ2 ).
Insbesondere ist sign : Sn → {−1, +1} ein Gruppenhomomorphismus.
Beweis. Wir beginnen mit Teil (i). Sei also σ ∈ Sn und m ≥ 0 die Anzahl
Fehlstände von σ. Wir spalten das Produkt aus der Behauptung im Zähler in zwei
Faktoren auf:
Y
Y
Y
(σ(j) − σ(i)) =
(σ(j) − σ(i))
(σ(j) − σ(i)).
i<j
i<j
σ(i)<σ(j)
i<j
σ(i)>σ(j)
Überlegen Sie sich, weshalb kein Faktor σ(i) = σ(j) auftaucht! Jeder Faktor im
Produkt ganz rechts ist negativ und entspricht einem Fehlstand von σ. Aus dieser
48
3. DIE DETERMINANTE EINER MATRIX
Überlegung erhalten wir
Y
(σ(j) − σ(i)) = (−1)m
i<j
Y
= (−1)m
Y
|σ(j) − σ(i)|
i<j
σ(i)>σ(j)
i<j
σ(i)<σ(j)
(3.7)
Y
(σ(j) − σ(i))
|σ(j) − σ(i)|.
i<j
Da σ bijektiv ist, durchläuft σ(j) jede Zahl in {1, .Q
. . , n} wenn j diese Menge
durchläuft. Das letzte Produkt (3.7) ist also gleich i<j (j − i). Somit erhalten
wir
Y σ(j) − σ(i)
= (−1)m .
j
−
i
i<j
Die rechte Seite ist aber sign(σ) per Definition. Es folgt Teil (i).
Nun beweisen wir (ii) und dafür dürfen wir die Formel für sign(σ) aus (i) benützen.
Wir haben also
Y σ1 (σ2 (j)) − σ1 (σ2 (i)) Y σ1 (σ2 (j)) − σ1 (σ2 (i)) σ2 (j) − σ2 (i)
sign(σ1 ◦ σ2 ) =
=
j−i
σ2 (j) − σ2 (i)
j−i
i<j
i<j


Y σ1 (σ2 (j)) − σ1 (σ2 (i))
 sign(σ2 )
(3.8)
=
σ
(j)
−
σ
(i)
2
2
i<j
{z
}
|
(∗)
Wir müssen noch zeigen, dass das Produkt (∗) gleich sign(σ1 ) ist. Dazu spalten wir
das Produkt auf in zwei Faktoren:
(3.9)
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
Y
Y
σ1 (σ2 (j)) − σ1 (σ2 (i))
σ1 (σ2 (j)) − σ1 (σ2 (i))
=
σ
(j)
−
σ
(i)
σ
(j)
−
σ
(i)
σ2 (j) − σ2 (i)
2
2
2
2
i<j
i<j
i<j
σ2 (i)<σ2 (j)
σ2 (i)>σ2 (j)
|
{z
(∗∗)
Wir vertauschen die Rollen von i und j im Produkt (∗∗) und finden
Y
Y
σ1 (σ2 (j)) − σ1 (σ2 (i))
σ1 (σ2 (i)) − σ1 (σ2 (j))
=
(∗∗) =
σ
(i)
−
σ
(j)
σ2 (j) − σ2 (i)
2
2
i>j
i<j
σ2 (i)>σ2 (j)
σ2 (i)<σ2 (j)
Setzen wir diesen Ausdruck in (3.9) ein, so sehen wir
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
Y
σ1 (σ2 (j)) − σ1 (σ2 (i))
=
.
σ2 (j) − σ2 (i)
σ2 (j) − σ2 (i)
i<j
σ2 (i)<σ2 (j)
Q
1 (i)
Dieser letzte Ausdruck ist dasselbe wie i<j σ1 (j)−σ
, denn σ2 ist eine Bijektion.
j−i
Also ist (∗) gleich sign(σ1 ). Wir kombieren diese Erkenntnis mit (3.8) und erhalten
sign(σ1 ◦ σ2 ) = sign(σ1 )sign(σ2 ), was zu zeigen war.
Da sign : Sn → {−1, +1} ein Gruppenhomomorphism ist, ist sein Kern eine Untergruppe.
Definition. Sei n ∈ N. Die alternierende Gruppe An (auf {1, 2, . . . , n}) ist die
Untergruppe
{σ ∈ Sn ; sign(σ) = +1}.
}
2. DIE DEFINITION DER DETERMINANTE
49
Bemerkung. Ist n ∈ N mit n ≥ 2 dann existiert eine Transposition τ ∈ Sn . Diese
erfüllt sign(τ ) = −1 wegen Lemma 3.3. Damit gilt τ ∈ Sn r An also inbesondere
An ( Sn .
Überlegen Sie sich in Ruhe, weshalb nicht jedes Element in Sn r An eine Tranposition sein muss falls n ≥ 4.
Lemma 3.5. Sei n ∈ N mit n ≥ 2 und σ ∈ Sn mit sign(σ) = −1. Dann gilt
An ∪ An σ = Sn
und
An ∩ An σ = ∅
hier ist An σ = {η ◦ σ; sign(η) = +1}. Schliesslich sind An und σAn gleich groß:
#An = #σAn = n!/2.
Beweis. Sicher haben wir An ∪ An σ ⊂ Sn . Ist andererseits η ∈ Sn r An so
gilt natürlich sign(η) = −1. Wegen Lemma 3.4(ii) haben wir sign(σ)sign(σ −1 ) =
sign(σ ◦ σ −1 ) = +1, also sign(σ −1 ) = −1. Aus dem selben Lemma folgt übrigens
auch sign(η ◦ σ −1 ) = sign(η)sign(σ −1 ) = (−1)2 = +1 und somit η ◦ σ −1 ∈ An .
Hieraus folgt η ∈ An σ und daher gilt auch An ∪ An σ = Sn .
Der Schnitt An ∩ An σ ist leer, denn die Elemente von An und σAn haben in Anbetracht von Lemma 3.4(ii) verschiedene Vorzeichen.
Um die Kardinalitätsfrage zu behandlen, reicht es #An = #σAn zu zeigen, denn es
gilt #Sn = n! wegen Lemma 3.1. Aber η 7→ σ ◦ η definiert eine Bijektion An → σAn
also müssen Bild- und Urbildbereich gleiche Kardinalität besitzen.
Wir werden später auf die Resultate über Permutationen in diesem Abschnitt verweisen. Schon bei der Definition der Determinante im nächsten Abschnitt werden
diese ein wichtige Rolle spielen.
2. Die Definition der Determinante
Nach der Vorarbeit des letzten Abschnitts können wir sofort die Determinante
definieren, um dann einige wichtige Eigenschaften zu beweisen.
Definition. Sei K ein Körper, m ∈ N und


a1,1 · · · a1,m

..  ∈ Mat (K).
A =  ...
m
. 
am,1 · · · am,m
Die Determinante von A ist
det(A) =
X
sign(σ)a1,σ(1) a2,σ(2) · · · am,σ(m) .
σ∈Sm
Bemerkung. Nur quadratische Matrizen besitzen eine Determinante (den nur diese können invertierbar sein).
Beispiel.
(i) Für n = 2 gilt S2 = {id, τ } mit τ die Transposition gegeben
durch τ (1) = 2 und τ (2) = 1. Falls
a1,1 a1,2
A=
∈ Mat2 (K)
a2,1 a2,2
50
3. DIE DETERMINANTE EINER MATRIX
gilt
det(A) =
X
sign(σ)a1,σ(1) a2,σ(2)
σ
= sign(id)a1,1 a2,2 + sign(τ )a1,τ (1) a2,τ (2)
= a1,1 a2,2 − a1,2 a2,1 .
Somit stimmt det A mit dem Ausdruck in Lemma 2.4 und der Definition
am Anfang dieses Kapitels überein.
(ii) Sei


a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3 
a3,1 a3,2 a3,3
eine 3×3 Matrix mit Koeffizienten in einem Körper K. Ihre Determinante
lässt sich mit der Regel von Sarrus berechnen:
det(A) = a1,1 a2,2 a3,3 +a1,2 a2,3 a3,1 +a1,3 a2,1 a3,2 −a1,3 a2,2 a3,1 −a1,2 a2,1 a3,3 −a1,1 a2,3 a3,2 .
Insgesagt treten 6 = 3! = #S3 Terme auf.
(iii) Die Determinante zweier wichtigen Matrizen werden wir nun berechnen.
Die Nullmatrix in Matm (K) hat Determinante 0, denn jede Summand in
der Definition ist 0.
Die Einsmatrix erfüllt det Em = 1 und dies sieht man wie folgt. Sei Em =
(ai,j )1≤i,j≤m . Gemäß Definition ist
X
det Em =
sign(σ)a1,σ(1) · · · am,σ(m) .
σ∈Sm
Für σ = id ist a1,σ(1) · · · am,σ(m) = a1,1 · · · am,m = 1. Sei nun σ ∈ Sm mit
σ 6= id, dann gilt a1,σ(1) · · · am,σ(m) = 0 da es ein j mit σ(j) 6= j gibt; für
dieses haben wir aj,σ(j) = 0.
Die Argumentation des letzten Beispiels impliziert


λ1
0


λ2




.
..
det A = λ1 · · · λm für A = 
.




λm−1
0
λm
Matrizen wie A, deren Einträge außerhalb der Diagonale Null sind, heißen
Diagonalmatrizen.
Folgendes Lemma verallgemeinert die Aussage, dass die Nullmatrix Determinante
Null besitzt.
Lemma 3.6. Sei K ein Körper, m ∈ N und A ∈ Matm (K) mit einer Nullzeile.
Dann gilt det(A) = 0.
Beweis. Übungsaufgabe in Serie 7.
Die zwei wichtigsten Eigenschaften halten wir in folgendem Satz fest. Er verallgemeinert erstens die Tatsache, dass die Determinante einer 2 × 2 Matrix über ihre
Invertierbarkeit entscheidet, siehe Lemma 2.4 und zweitens die Multiplikativität
der Determinante für 2 × 2 Matrizen, siehe Übungsserie 6.
2. DIE DEFINITION DER DETERMINANTE
51
Satz 1. Sei K ein Körper und m ∈ N.
(i) Eine Matrix A ∈ Matm (K) ist invertierbar genau dann, wenn det(A) 6= 0.
In anderen Worten
GLm (K) = {A ∈ Matm (K); det(A) 6= 0}.
(ii) Für A, B ∈ Matm (K) gilt
det(AB) = det(A) det(B).
Beweis. Später.
Bevor wir den Satz beweisen, werden wir zunächst einige einfachere Rechenregeln
der Determinante kennenlernen.
Lemma 3.7. Sei K ein Körper, m ∈ N und a1 , . . . , am ∈ K m Zeilenvektoren der
Länge m.
(i) Die Determinante ist linear in den Zeilen, d.h. für jedes i ∈ {1, . . . , m}
und jeden Zeilenvektor a0i ∈ K m und jedes Paar λ, µ ∈ K gilt






a1
a1
a1


 .. 
 .. 
..


 . 
 . 
.




 0 
0 


 a .
λa
+
µa
a
(3.10)
det 
=
λ
det
+
µ
det
i
i 

 i 
 i 


 . 
 . 
..
.




 .. 
.
.
am
am
am
(ii) Die Determinante ist alternierend, d.h. falls es zwei verschiedene Indizes
i, j ∈ {1, . . . , m} mit ai = aj gibt, dann gilt


a1


det  ...  = 0.
am
Beweis. Wir schreiben ai = (ai,1 , . . . , ai,m ) für jedes i ∈ {1, . . . , m}.
Der Beweis von Teil (i) ist eine formale Konsequenz der Definition der Determinante. Sei dazu a0i = (a0i,1 , . . . , a0i,m ). Per Definition ist die Determinante auf der
rechten Seite von (3.10) gleich
X
sign(σ)a1,σ(1) · · · ai−1,σ(i−1) (λai,σ(i) + µa0i,σ(i) )ai+1,σ(i+1) · · · am,σ(m)
σ∈Sm
=λ
X
sign(σ)a1,σ(1) · · · ai,σ(i) · · · am,σ(m) + µ
σ∈Sm

a1
 ..
 .

= λ det 
 ai
 .
 ..
am
X
sign(σ)a1,σ(1) · · · a0i,σ(i) · · · am,σ(m)
σ∈Sm


a1

 ..

 .


 + µ det  a0

 i

 .

 ..
am








was zu zeigen war.
Für den Beweis von Teil (ii) benötigen wir nun die die Theorie der Permutationen
wie wir sie im letzten Abschnitt behandelt haben.
52
3. DIE DETERMINANTE EINER MATRIX
Zunächst müssen wir uns im Klaren sein, dass m ≥ 2. Denn gilt m = 1 so können
wir natürlich nicht zwei Zeilen gleich sein!
Sei

 

a1
a1,1 · · · a1,m

 
.. 
A =  ...  =  ...
. 
am
am,1 · · · am,m
ein Zeilenvektor der Länge m ist. Nach Voraussetzung sind die i-te un j-te Zeile
von A gleich. Wir müssen det(A) = 0 zeigen. Zur Vereinfachung der Präsentation
nehmen wir i < j an.
Wir fixieren die Transposition τ ∈ Sm , welche i und j vertauscht.
Wir erinnern uns nun an Lemma 3.5 welches besagte, dass die symmetrische Gruppe
wie folgt zerlegt werden kann:
Sm = Am ∪ Am τ
und Am ∩ Am τ = ∅.
Die Determinante von A lässt sich also in zwei Teilsumme zerlegen:
X
X
sign(σ ◦ τ )a1,σ(τ (1)) · · · am,σ(τ (m))
det(A) =
sign(σ) a1,σ(1) · · · am,σ(m) +
| {z }
σ∈Am
σ∈Am
+1
Wegen Multiplikativität des Vorzeichens gilt sign(σ ◦ τ ) = sign(σ)sign(τ ). Eine Permutation hat Vorzeichen −1, also folgt
X
X
(3.11)
det(A) =
a1,σ(1) · · · am,σ(m) −
a1,σ(τ (1)) · · · am,σ(τ (m)) .
σ∈Am
σ∈Am
Die Strategie ist nun die Folgende. Wir werden zeigen, dass sich jeder Term der
ersten Summe mit einem Term der zweiten Summe aufhebt. Die Details sind wie
folgt.
Sei σ ∈ Am beliebig. Es gilt
a1,σ(τ (1)) · · ·ai,σ(τ (i)) · · ·aj,σ(τ (j)) · · ·am,σ(τ (m))
=a1,σ(1)
· · ·ai,σ(j)
· · ·aj,σ(i)
· · ·am,σ(m)
da τ (j) = i, τ (i) = j und weil alle anderen Werte von τ unberührt bleiben. Weiterhin sind die i-te und j-te Zeilen gleich, also.
a1,σ(τ (1)) · · ·ai,σ(τ (i)) · · ·aj,σ(τ (j)) · · ·am,σ(τ (m))
=a1,σ(1)
· · ·aj,σ(j)
· · ·ai,σ(i)
=a1,σ(1)
· · ·am,σ(m) .
· · ·am,σ(m)
Nun sieht man, dass sich die Terme in (3.11) gegenseitig aufheben. Es folgt det(A) =
0.
Wir wollen nun untersuchen wie sich die Determinante einer Matrix unter Zeilenumformungen verändert. Zur Erinnerung: es gab drei verschiedene Zeilenumformungen
und diese können durch linksmultiplikation mit Elementarmatrizen realisiert werden. Dies haben wir in Lemma 2.5 gesehen.
Lemma 3.8. Sei K ein Körper, m ∈ N, und A ∈ Matm (K).
(i) (Zeilenaddition) Seien i, j ∈ {1, . . . , m} mit i 6= j und λ ∈ K. Wir setzen
A0 = E I (i, j, λ)A. Dann gilt
det(A0 ) = det(A)
und insbesondere det(E I (i, j, λ)) = 1.
2. DIE DEFINITION DER DETERMINANTE
53
(ii) (Zeilenvertauschen) Seien i, j ∈ {1, . . . , m} mit i 6= j und A0 = E II (i, j)A.
Dann gilt
det(A0 ) = − det(A)
und insbesondere det E II (i, j) = −1.
(iii) (Skalarmultiplikation einer Zeile) Sei i ∈ {1, . . . , m} und λ ∈ K. Wir
setzen A0 = E III (i, λ)A. Dann gilt
det(A0 ) = λ det(A)
und insbesondere det E III (i, λ) = λ.
Beweis. Seien a1 , . . . , am die Zeilen von A.
Eine Zeilenumformung des Typs (I) wie in (i) ersetzt ai durch ai + λaj . Wir zeigen
den Fall i < j, gilt j > i so ist das Argument ähnlich. Wegen Lemma 3.7(i) gilt die
zweite Gleichung in







0
det(A ) = det 







a1

 .. 


 . 






 ai 
ai + λaj 





 .. 

..
+λ
det
=
det




.

 . 





aj

 aj 





..
..




.
.
am
am
{z
}
|
a1
..
.



a1
.. 
. 

aj 

..  .
. 

aj 

.. 
. 
am
det(A)
Ganz rechts steht nun eine Matrix mit zwei gleichen Zeilen. Wegen Lemma 3.7(ii)
muss die entsprechende Determinante gleich 0 sein. Es folgt also det(A0 ) = det(A).
Wenden man nun die eben bewiesen Gleichung auf die Einsmatrix A = Em an, so
folgt det(E I (i, j, λ)) = det(Em ) = 1.
Um (ii) zu zeigen, benötigen wir einen Trick. Wir nehmen wieder i < j an und
definieren die Hilfsmatrix


a1


..


.


 ai + aj 




..
B=
.
.


 ai + aj 




..


.
am
Sie stimmt in allen Zeilen, außer der i-ten und j-ten, mit A überein. Da aber B
zwei gleiche Zeilen besitzt, gilt det(B) = 0.
54
3. DIE DETERMINANTE EINER MATRIX
Nun formen wir det B mit Hilfe von Lemma 3.7(i) zweimal um. Linearität in der
i-ten Zeile ergibt




a1
a1




..
..




.
.








aj
ai








.
.
..
..
0 = det(B) = det 
.
 + det 




 ai + aj 
 ai + aj 








..
..




.
.
am
am
Nun nutzen wir Linearität in der j-ten



a1
a1
 .. 
 ..
 . 
 .



 ai 
 ai



 .. 

0 = det  .  + det  ...



 ai 
 aj



 . 
 .
 .. 
 ..
|
am
{z
}
=0
|
Zeile aus, um


a1
 ..

 .



 aj



 .

 + det  ..


 ai



 .

 ..

am
{z
}
=det(A)
|
am
{z
=det(A0 )



a1
 .. 

 . 




 aj 




 . 

 + det  .. 



 aj 




 . 

 .. 

am
} |
{z
}
=0
zu erhalten. Dass die äußeren beiden Matrizen Determinante Null haben, folgt da
sie beide zwei identische Zeilen besitzen. Wir erhalten
det(A) + det(A0 ) = 0
und daher
det(A0 ) = − det(A).
Die eben bewiesen Gleichung auf die Einsmatrix A = Em angewandt, impliziert
det(E II (i, j)) = − det(Em ) = −1.
Die Behauptung (iii) ist die einfachste. Den Lemma 3.7(i) mit µ = 0 und a0i = 0
ergibt sich




a1
a1
 .. 
 .. 
 . 
 . 





 aj  = λ det(A).
λa
det(A0 ) = det 
=
λ
det
j 



 . 
 . 
 .. 
 .. 
am
am
Die eben bewiesen Gleichung auf die Einsmatrix A = Em angewandt, impliziert
det(E III (i, λ)) = λ det(Em ) = λ.
Wir nähern uns jetzt dem Beweis von Satz 1. Bevor wir die Multiplikativität der
Determinante im Allgemeinen beweisen können, betrachten wir den Spezialfall eines
Produkts aus Elementarmatrizen.
Bemerkung. Seien K, m, A wie im Lemma oben und sei E ? eine Elementarmatrix
von Typ I, II oder III. Geht man die drei Fälle durch, so haben wir
det(E ? A) = det(E ? ) det(A)
bewiesen.
2. DIE DEFINITION DER DETERMINANTE
55
Wir verallgemeinern diese Bemerkung mit einem Induktionsargument.
Lemma 3.9. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Sei L ein endliches
Produkt aus Elementarmatrizen aus Matm (K).
(i) Es gilt
det(LA) = det(L) det(A).
(ii) Wir haben det(L) 6= 0.
Beweis. Wir können L als Produkt E (1) · · · E (N −1) E (N ) schreiben wobei jedes
E eine Elementarmatrix ist.
Der Beweis ist über Induktion auf N . Für N = 0 ist nichts zu zeigen. Das leere
Produkt ist per Definition die Einsmatrix L = Em .
Sei nun N ≥ 1. Dann ist nach Induktionsvoraussetzung
(i)
det(LA) = det(E (1) · · · E (N −1) ) det(E (N ) A).
Die Bemerkung oberhalb des Lemmas impliziert det(E (N ) A) = det(E (N ) ) det(A).
Also
(3.12)
det(LA) = det(E (1) · · · E (N −1) ) det(E (N ) ) det(A).
Wir wenden die Induktionsvoraussetzung ein zweites mal an, um
(3.13)
det(E (1) · · · E (N −1) ) det(E (N ) ) = det(E (1) · · · E (N ) ) = det(L)
zu erhalten. Nach Voraussetzung ist det(E (1) · · · E (N −1) ) 6= 0 und Lemma 3.8 impliziert det(E (N ) ) 6= 0. Also folgt det L 6= 0 und somit Teil (ii).
Die Gleichung (3.13) zusammen mit (3.12) impliziert Teil (i).
Beweis von Satz 1. Sei A ∈ Matm (K). Wir zeigen zuerst, dass
(3.14)
A ist invertierbar
⇐⇒
det(A) 6= 0
gilt. Wie immer müssen wir beide Implikationsrichtungen beweisen.
Aus den Resultaten von Kapitel 2, genauer aus Lemma 2.8, wissen wir, dass sich A
durch endlich viele Zeilenumformungen in Zeilenstufenform A0 bringen lässt. Zeilenumformungen entstehen durch linksmultiplikation mit Elementarmatrizen wegen
Lemma 2.5. Folglich gilt A0 = LA wobei L ein endliches Produkt aus Elementarmatrizen in Matm (K) ist.
Lemma 3.9 ergibt
(3.15)
det(A0 ) = det(L) det(A)
und
det(L) 6= 0.
Eine quadratische Matrix in Zeilenstufenform ist entweder die Einsmatrix oder
besitzt eine Nullzeile.
Nehmen wir zuerst an, dass A invertierbar ist. Dann ist A0 A−1 = L invertierbar.
Hätte nun A0 eine Nullzeile, dann würde auch L eine Nullzeile besitzen. Es gäbe
also wegen Korollar 2.10 eine nichttriviale Lösung x ∈ K m r {0} von Lx = 0, weil
man die Nullzeile von L nicht berücksichtigen muss. Dies ist ein Widerspruch da
x = L−1 Lx = 0. Also besitzt A0 keine Nullzeile und es muss A0 = Em gelten.
Aus (3.15) folgt nun 1 = det(L) det(A) und daher insbesondere det(A) 6= 0. Somit
haben wir die Implikation “=⇒” in (3.14) gezeigt.
Wir nun umgekehrt an, dass det(A) 6= 0. Aber wir wissen auch det(L) 6= 0. Also
folgt det(A0 ) 6= 0. Somit kann A0 wegen Lemma 3.6 keine Nullzeile besitzen. Also
ist A0 die Einsmatrix. Wir erhalten LA = Em . Aus Proposition 2.11 folgt die
Invertierbarkeit von A und somit die Richtung “⇐=” in (3.14).
56
3. DIE DETERMINANTE EINER MATRIX
Der Beweis vom ersten Teil des Satzes ist geliefert. Seien also A, B ∈ Matm (K).
Wir müssen zeigen, dass det(AB) und det(A) det(B) gleich sind.
Wie oben bringen wir A in Zeilenstufenform A0 = LA wobei L ein endliches Produkt aus Elementarmatrizen ist. Um den Beweis abzuschließen, müssen wir eine
Fallunterscheidung machen.
Fall 1: Die Matrix A ist nicht invertierbar. Dann kann A0 nicht die Einsmatrix sein wegen Proposition 2.11. Also muss A0 eine Nullzeile besitzen. Daher
besitzt auch A0 B eine Nullzeile. Wegen Lemma 3.6 gilt det(LAB) = det(A0 B) = 0.
Schließlich impliziert Lemma 3.9(i) det(LAB) = det(L) det(AB). Zusammengefasst
ergibt sich det(L) det(AB) = 0 und sogar det(AB) = 0 wegen Teil (ii) von Lemma
3.9. Der erste Teil des Satzes liefert auch det A = 0. Somit haben wir
det(AB) = 0 = det(A) det(B),
was zu zeigen war.
Fall 2: Die Matrix A ist invertierbar. Wie wir bereits im Beweis des ersten
Teils gesehen haben, muss A0 = Em sein. Wir haben also LAB = B. Wir wissen,
dass
1 = det(Em ) = det(LA) = det(L) det(A)
und
det(B) = det(LAB) = det(L) det(AB)
gelten muss, siehe Lemma 3.9. Multiplizieren wir die zweite Gleichung mit det(A)
so erhalten wir
det(A) det(B) = det(AB).
Herunterladen