Version vom 19.12.2016

Werbung
Lineare Algebra I
Herbstsemester 2016
Universität Basel
Philipp Habegger
19. Dezember 2016
Inhaltsverzeichnis
0 Einführung
5
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe,
1.1 Logische Aussagen und Beweise . . . . . . . . . .
1.2 Mengen und Abbildungen . . . . . . . . . . . . .
1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . .
1.4 Ringe und Körper . . . . . . . . . . . . . . . . . .
Körper
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
10
14
22
2 Matrizenkalkül
31
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt . . . . . . . . . . . 33
2.2 Lineare Gleichungssysteme und Zeilenstufenform . . . . . . . . . . . . . . 44
2.3 Eine Anwendung: PageRank . . . . . . . . . . . . . . . . . . . . . . . . . 59
3 Die
3.1
3.2
3.3
Determinante einer Matrix
63
Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Die Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . 71
Laplace Entwicklung der Determinante . . . . . . . . . . . . . . . . . . . 82
4 Vektorräume
4.1 Der Vektorraumbegriff . . . . .
4.2 Homomorphismen . . . . . . . .
4.3 Matrizen als Homomorphismen
4.4 Eine Anwendung auf Matrizen .
5 Mehr Körper
5.1 Äquivalenzrelationen .
5.2 Die Körper Fp . . . . .
5.3 Die komplexen Zahlen
5.4 Der Körper F9 . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
96
100
105
.
.
.
.
109
109
111
114
116
3
0 Einführung
Diese erste Version dieses Skripts zur Vorlesung “Lineare Algebra” ist an der Goethe
Universität Frankfurt am Main im Sommersemester 2011 entstanden. Inzwischen gab
es kleinere Revisionen und ich gehe davon aus, dass auch in Zukunft Teile des Skripts
angepasst/korrigiert/erweitert werden.
Es wird noch einige Zeit dauern, bis die gröbsten Fehler korrigiert sind. Sie benutzen
dieses Skript auf eigene Gefahr! Korrekturvorschläge nehme ich gerne entgegen. Bitte
teilen Sie mir solche per Email oder persönlich nach der Vorlesung mit.
Folgende zwei Bücher dienten als Grundstruktur dieser Vorlesung. Ich kann den Titel
von Artin auch als weiterführende Lektüre empfehlen.
1 Michael Artin, Algebra, Birkhäuser Verlag, 1999.
2 Gerd Fischer, Lineare Algebra, Vieweg Verlag.
5
1 Algebraische Grundlagen: Mengen,
Gruppen, Ringe, Körper
Bevor wir mit dem Studium linearer Abbildungen im Sinne der linearen Algebra loslegen, müssen wir die nötigen Grundlagen erarbeiten. Dabei werden wir uns von den
Rechenoperationen wie Addition, Multiplikation im vertrauten Rahmen der rationalen
oder reellen Zahlen lösen müssen.
Ziel dieses Kapitels ist es algebraische Strukturen einzuführen, die Rechenoperationen
wie Addition oder Multiplikation verallgemeinern. Die lineare Algebra wird sich in diesem Kontext abspielen.
1.1 Logische Aussagen und Beweise
Welche der folgenden Aussagen ist wahr und welche ist falsch?
(i) Der Himmel ist blau.
(ii) Alle Menschen sind sterblich.
(iii) Die Erde ist eine Scheibe.
Unsere Erfahrungen aus dem Alltag (und unsere Bildung) legen nahe, dass (i) und (ii)
wahr sind und (iii) falsch ist.
Mehrere Aussagen kann man mit und und oder zu einer Aussage verknüpfen. Z.B.:
(iv) Der Himmel ist blau und die Erde ist eine Scheibe.
(v) Der Himmel ist blau oder Feuer ist kalt.
(vi) Die Erde ist eine Scheibe oder Feuer ist kalt.
Hier sind Aussagen (iv) und (vi) falsch und (v) ist wahr.
Eine Aussage ist genau dann wahr, wenn ihre Negation falsch ist. So lautet die (wahre)
Negation von (iv): “Der Himmel ist nicht blau oder die Erde ist keine Scheibe”. Die
(falsche) Negation von (v) ist: “Der Himmel ist weder blau noch ist Feuer kalt”.
Ein mathematischer Beweis ist eine Kette logischer Schlüsse zwischen Aussagen. Ein
einfacher Schluss ist:
Euler ist ein Mensch und Menschen sind sterblich. Also ist Euler sterblich.
7
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Die Schlussfolgerung wird in der Mathematik oft durch einen Implikationspfeil abgekürzt.
Euler ist ein Mensch und Menschen sind sterblich =⇒ Euler ist sterblich.
Sind P und Q zwei beliebige Aussagen, so ist
P =⇒ Q
gleichbedeutend mit
P ist falsch oder Q ist wahr.
Man sagt auch, dass die Aussage P die Aussage Q impliziert. Oder dass Q aus P folgt.
Der Implikationspfeil =⇒ bedeutet nicht, dass die Aussage auf der rechten Seite durch
die Aussage links begründet wird. Daher ist die etwas seltsam anmutende Aussage
Menschen sind sterblich =⇒ Feuer ist heiss
wahr, da die Aussage rechts des Implikationspfeils wahr ist. Weiterhin sind
Die Erde ist flach =⇒ Feuer ist heiss
und
Die Erde ist flach =⇒ die Erde ist eine Kugel
beide wahr, denn eine falsche Aussage impliziert alle Aussagen.
Aus diesem Grund ist es wichtig, Widersprüche zu vermeiden. Aus einem Widerspruch
kann man jede Aussage herleiten und dies würde die gesamte Mathematik zerstören.
Der “Äquivalenzpfeil” ⇐⇒ wird eingesetzt, wenn zwei Aussagen gleichbedeutend sind.
Für eine ganze Zahl n gilt
n = 0 ⇐⇒ n2 = 0.
Obwohl Aussagen wie “Die Erde ist eine Kugel” oder “Menschen sind sterblich” auf
den ersten Blick korrekt sind, sind Begriffe aus dem Alltag tückisch. Die Erde ist nicht
wirklich eine Kugel sondern nur annäherungsweise, der Radius am Äquator ist grösser als
am Nordpol. Dass Menschen sterblich sind, kann man nicht zweifelsfrei belegen, solange
es noch lebendige Menschen gibt.
In der Mathematik beschäftigt man sich mit Idealen Grössen, welche unsere Vorstellung
der Welt annähern und einen (möglichst aussagekräftigen) Querschnitt der Realität liefern. Über diese Objekte können wir Vorhersagen treffen, die zweifelsfrei wahr sind.
Unser Werkzeug dafür ist der mathematische Beweis. Dieses Werkzeug werden wir im
Laufe des Semesters immer wieder antreffen.
Es gibt verschiedene Beweisstrategien. Wir behandeln hier zuerst den Induktionsbeweis.
Behauptung: Für jede ganze Zahl n ≥ 1 gilt
1 + 2 + 3 + ··· + n =
8
n(n + 1)
.
2
1.1 Logische Aussagen und Beweise
Beweis: Der Beweis ist mittels Induktion auf n.
Wir überprüfen daher zuerst die Aussage im Fall n = 1, das ist die sogenannte Induktionsverankerung. Für n = 1 ist die Summe in der Behauptung gleich 1. Auch
der rechten Seite steht ebenfalls 1 und damit stimmt unsere Behauptung zumindest für
n = 1.
Nun kommen wir zum Induktionsschritt. Dafür nehmen wir an, dass unsere Behauptung für n − 1 ≥ 1 wahr ist. Wir müssen nun zeigen, dass sie auch für den erhöhten
Wert n stimmt. Die Summe links ist
(n − 1)n
+n
1 + 2 + 3 + · · · + (n − 1) + n =
2
wobei wir die Induktionsvoraussetzung im Fall n − 1 verwendet haben. Nun gilt nach
einer Umformung
1 + 2 + 3 + ··· + n =
n2 − n + 2n
n2 + n
n(n + 1)
(n − 1)n
+n=
=
=
.
2
2
2
2
Was zu zeigen war.
Induktion ist ein mächtiges Mittel, es gibt aber Fallstricken. Können Sie den Fehler in
der Argumentation unten finden?
Behauptung: Alle Hosen haben die gleiche Farbe. 1
Beweis: Wir wollen mittels Induktion über n ≥ 1 zeigen, dass n beliebige Hosen die
gleiche Farbe haben.
Die Verankerung n = 1 ist leicht, da es sich bei nur einer Hose keine Frage stellt.
Nun müssen wir den Induktionsschritt machen. Wir nehmen an, dass die Aussage für n−
1 ≥ 1 bereits bewiesen ist. Seien also n Hosen gegeben. Wir bilden einen Kleiderhaufen
mit n − 1 Hosen. Aus der Induktionsvoraussetzung müssen alle Hosen auf dem Haufen
die gleiche Farbe besitzen.
Es bleibt aber eine Hose übrig und wir müssen überprüfen, dass sie die gleiche Farbe wie
die übrigen Hosen hat. Dazu bilden wir einen zweiten Kleiderhaufen mit n − 1 Hosen,
darunter die besagte Hose. Wieder haben alle Hosen auf dem neuen Haufen die gleiche
Farbe. Da die im ersten Durchlauf vergessene Hose darunter liegt, haben alle Hosen die
gleiche Farbe.
Eine weitere Technik ist mittels Widerspruchsbeweis. Dabei nehmen wir die Negation
der Schlussfolgerung an und leiten einen Widerspruch her.
√
Behauptung: 2 ist keine rationale Zahl.
Beweis: Wir werden die Negation
√ der Aussage annehmen, und einen Widerspruch herleiten. Die Negation besagt,
dass 2 eine rationale Zahl ist. Also existieren ganze Zahlen
√
p ≥ 1 und q ≥ 1 mit 2 = p/q.
Wären p und q beide gerade Zahlen, so könnten wir den Faktor 2 im
√ Quotienten p/q
kürzen. Dies würde zu einem neuen Paar führen, dessen Quotient 2 ist. Man kann
1
Natürliche ist die Aussage kreuzfalsch!
9
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
nicht beliebig oft durch zwei teilen, also dürfen wir annehmen, dass p und q nicht beide
gerade Zahlen sind.
Wir quadrieren und erhalten 2 = p2 /q 2 , also p2 = 2q 2 . Folglich ist p2 eine gerade Zahl.
Das Quadrat einer ungeraden Zahl ist wieder ungerade, wie man leicht überprüft. Also
ist p gerade und damit von der Form p = 2p0 . Wir setzen ein und erhalten
2q 2 = (2p0 )2 = 4p0
2
2
also q 2 = 2p0 .
Jetzt sehen wir, dass q 2 eine gerade Zahl ist. Mit dem gleichen Argument wir oben folgt,
dass q gerade ist. Die widerspricht jedoch unserer Annahmen, dass p und q nicht beide
gerade sind.
1.2 Mengen und Abbildungen
Die Mengelehre ist ein mögliches Fundament, um Mathematik zu betreiben. Für uns ist
jedes mathematische Objekt schlussendlich eine Menge.
Entgegen vieler Versprechungen bezüglich der Rigorosität im Einführungskapitel, werden
wir den Begriff der Menge nicht definieren.
Wir betreiben naive Mengenlehre, d.h. für uns ist eine Menge eine “Ansammlung” von
Objekten.
Wir benutzen die aus der Schule bekannten Symbole. Sind M und N Mengen, so schreiben wir M ⊆ N , falls jedes Element aus M ein Element aus N ist.
Dies ist keine mathematisch korrekte Definition. Wir müssen uns mit einer naiven Vorstellung des Mengenbegriffs begnügen. Eine präzise Behandlung würde uns zu weit vom
eigentlichen Thema wegführen.
Einige der folgenden Mengen werden wir im Laufe der Vorlesung immer wieder antreffen.
Beispiel 1.1. (i) Die leere Menge ∅ = {} enthält keine Elemente. Für jede Menge M
gilt ∅ ⊆ M .
(ii) Die Menge der natürlichen Zahlen ist N = {1, 2, 3, . . . }. Es gibt bei dieser Definition (wie auch vielen anderen in der Mathematik) keinen Konsens, da einige
Autoren auch die Null zu den natürlichen Zahlen zählen. Die Menge der ganzen
Zahlen ist Z = {0, ±1, ±2, . . . }. Hier gilt N ⊆ Z.
(iii) Die Menge der Primzahlen ist {2, 3, 5, . . . }. Die Eins ist keine Primzahl.
(iv) Die rationalen Zahlen sind Brüche von ganzen Zahlen. Ihre Gesamtheit wird mit
Q = {a/b : a, b ∈ Z und b 6= 0} bezeichnet. Es gilt Z ⊆ Q.
(v) In der Analysis spielt die Menge R der reellen Zahlen eine wichtige Rolle. Hier gilt
Q ⊆ R.
(vi) Es gibt auch exotischere Mengen, z.B. die Menge {{}} deren einziges Element
die leere Menge ist. Eine alternative Schreibweise ist {∅}. Es ist wichtig, die zwei
Mengen {{}} =
6 {} nicht zu verwechseln.
10
1.2 Mengen und Abbildungen
Hat man zwei Mengen gegeben, so gibt es viele Möglichkeiten weitere daraus zu gewinnen.
Definition 1.2. Seien M und N Mengen. Ihre Vereinigung ist M ∪ N = {m : m ∈
M oder m ∈ N } und ihr Schnitt ist M ∩ N = {m : m ∈ M und m ∈ N }. Wir setzen
auch M r N = {m ∈ M : m 6∈ N }.
Beispiel 1.3. (i) Es gilt {1, 2, 3} ∪ {a, b, c} = {1, 2, 3, a, b, c} = {b, a, 3, c, 2, 1}. (Bei
Mengen spielt die Reihenfolge der Elemente keine Rolle.)
(ii) Die Menge der positiven und negativen reellen Zahlen sind disjunkt, d.h. sie haben
kein gemeinsames Element. In Notationsschreibweise {x ∈ R : x > 0} ∩ {x ∈ R :
x < 0} = ∅.
(iii) Es gilt {p ∈ N : p eine Primzahl} ∩ {n ∈ N : n ist gerade} = {2}.
(iv) Ganz allgemein haben wir M ∪ ∅ = M und M ∩ ∅ = ∅ für jede Menge M .
Eine weitere wichtige Konstruktion ist die des Produkts zweier Mengen.
Definition 1.4. Seien M und N Mengen. Das kartesische Produkt der Mengen M
und N besteht aus allen Paaren bestehend aus einem Element aus M und aus N , es wird
mit M × N bezeichnet. D.h.
M × N = {(m, n) : m ∈ M und n ∈ N }.
Eine für die lineare Algebra wichtige Situation erhält man, wenn das Produkt aus Kopien
der reellen Zahlen nimmt.
Beispiel 1.5. (i) Es gilt R × R = {(x, y) : x, y ∈ R}. Also besteht jedes Element von
R × R aus zwei “Koordinaten”. Dies legt nahe, dass R × R als Ebene betrachtet
werden soll.
(ii) Jedes Element aus R × R × R hat drei “Koordinaten”. Und deshalb soll man sich
R × R × R als den dreidimensionalen Raum vorstellen.
(iii) Natürlich kann man jetzt beliebig lange weitergehen und R × R × R × R usw. definieren. Unser Vorstellungsvermögen lässt uns im Stich, da der vierdimensionalen
Raum schwer vorstellbar ist. Um die Notation zu erleichtern schreiben wir
Rn
für
R × R × ··· × R
{z
}
|
n Faktoren
für n ∈ N. Ganz allgemein ist M n das n-fache kartesische Produkt
M × M × ··· × M
|
{z
}
n Faktoren
einer Menge M mit sich selbst.
11
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Wir werden später den Begriff eines Vektorraums einführen. Der n-dimensionale reelle
Raum Rn ist ein klassisches Beispiel eines Vektorraums.
Mengen fallen in zwei Kategorien. Es gibt endliche und unendliche Mengen. D.h. Mengen, die endlich viele bzw. unendlich viele Elemente enthalten. Wir werden den Begriff
“endliche Menge” nicht präzise definieren.
Definition 1.6. Ist M eine endliche Menge, so bezeichnet #M oder |M | die Anzahl
Elemente in M . Diese Anzahl heisst auch Kardinalität von M .
Mengen werden interessanter, wenn man sie in Beziehung zu anderen Mengen bringen
kann.
Definition 1.7. Seien M und N Mengen. Eine Abbildung f : M → N ordnet jedem
Element m ∈ M genau ein Element f (m) ∈ N zu. Die Menge M nennt man gerne den
Definitionsbereich von f und N heisst Wertebereich.
Bemerkung 1.8. Sei Γ ⊆ M × N eine Teilmenge mit der Eigenschaft, dass es für jedes
m ∈ M genau ein n ∈ N mit (m, n) ∈ Γ gibt. Die Zuordnung
m 7→ das eindeutige n ∈ N mit (m, n) ∈ Γ
ist eine Abbildung im Sinne der Definition oben. Umgekehrt liefert jede Abbildung f :
M → N in Sinne unserer Definition eine Menge, der Graph von f ,
{(m, f (m)) : m ∈ M }
welche die besagte Eigenschaft oben erfüllt.
Wir stellen fest, dass Abbildungen (wie alle mathematischen Objekte) Mengen sind!
Nicht jedes Element von N muss als Wert angenommen werden. Es ist nur wichtig, dass
jedes Element aus M ein Bildpunkt in N besitzt. Auch erlaubt ist es, dass f mehrere
(oder sogar alle) Elemente von M auf dasselbe Element in N abbildet.
Beispiel 1.9. (i) Sei V die Menge aller Vorlesungen. Dann gibt es eine Abbildung
f : V → N die jeder Vorlesung die vorgesehene Anzahl Kreditpunkte zuordnet.
Z.B. gilt f (Lineare Algebra I) = 8.
(ii) Die Abbildung f (x) = 1/x kann nicht Definitionsbereich R haben, denn Division
durch Null ist nicht erlaubt. Der grösstmögliche Definitionsbereich ist R r {0}.
Definition 1.10. Sei f : M → N eine Abbildung zwischen Mengen M und N . Dann
heisst f surjektiv, falls jedes Element von N Bildpunkt ist, d.h. für jedes n ∈ N gibt
es (mindestens) ein m ∈ M mit f (m) = n. Die Abbildung f heisst injektiv falls
f (m) = f (m0 ) ⇒ m = m0 .
Eine surjektive und injektive Abbildung heisst bijektiv.
12
1.2 Mengen und Abbildungen
Bemerkung 1.11. Eine bijektive Abbildung f : M → N lässt sich invertieren. Für
jedes
genau ein m ∈ M
n∈N
gibt es
| {z }
| {z }
da f surjektiv
da f injektiv
mit f (m) = n. Die Zuordnung n 7→ m definiert die sogenannte Umkehr- oder Inverseabbildung f −1 : N → M .
Zwei Abbildungen f : M → N und g : N → P lassen sich zu einer Abbildung g ◦ f :
M → P verketten
f
G
M → N → P.
Konkret setzt man (g ◦ f )(m) = g(f (m)) für jedes m ∈ M . Dabei muss der Wertebereich
von f gleich dem Definitionsbereich von g sein. Ansonsten könnte man g nicht bei f (m)
auswerten.
Achtung. Verkettungen “liest” man von rechts nach links. In der Notation oben, also
bei g ◦ f wird zuerst f und dann g angewendet.
Beispiel 1.12. Ist f : M → N bijektiv und f −1 : N → M die Umkehrabbildung, so ist
(f −1 ◦ f )(m) = m für m ∈ M und (f ◦ f −1 )(n) = n für n ∈ N .
Definition 1.13. Die “triviale” Selbstabbildung f : M → M , die durch f (m) = m
definiert ist, heisst Identitätsabbildung. Sie wird mit 1M , idM , Id, id oder sogar nur
1 bezeichnet.
Zwischen zwei Mengen M und N kann es “sehr viele” Abbildungen geben. Ihr Gesamtheit ist selber eine Menge
Abb(M, N ) = {f : f : M → N ist eine Abbildung}.
Beispiel 1.14. (i) Die Menge Abb(R, R) wird man als Mathematiker wahrscheinlich
nie direkt benutzen. Diese Menge ist zu unüberschaubar. Es fehlt hier zusätzliche
Struktur die wirklich interessante Abbildungen heraus filtert. Stattdessen gibt es zu
viele “wilde” Abbildungen R → R.
(ii) Es gibt keine Abbildung mit Definitionsbereich N und Wertebereich {}. Um dies
einzusehen, überlege man sich welchen Bildpunkt das Element 1 ∈ N haben würde,
falls eine derartige Abbildung existieren würde.
(iii) Überlegen sie sich, ob eine Abbildung ∅ → ∅ existiert oder nicht!
(iv) Sind M und N zwei endliche Mengen und f : M → N eine bijektive Abbildung,
so gilt #M = #N .
Sind M und N unendliche Mengen, so können kuriose Dinge passieren. Die Abbildung
f : N = {1, 2, 3, . . . } → {2, 4, 6, . . . }
gegeben durch
f (n) = 2n
13
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
ist bijektiv obwohl N auf den ersten Blick gesehen doppelt so viele Elemente enthält
wie wie {2, 4, 6, . . .}. Noch kurioser ist die Tatsache, dass es sogar ein bijektive
Abbildung N → N2 gibt. Rein als Menge lässt sich N nicht von N2 unterscheiden!
Mengen bilden die Grundlage der ganzen Mathematik. Im Prinzip ist jedes Objekt,
welches wir untersuchen werden, eine Menge. Diese wird jedoch meistens zusätzliche
Struktur verschlüsseln.
Die erste “Struktur”, die wir behandeln werden, ist die Gruppenstruktur.
1.3 Gruppen
Bislang haben wir Z = {0, ±1, ±2, . . . } als Menge behandelt. Dabei haben wir den
folgenden wichtigen Aspekt vergessen.
Zwei ganze Zahlen a, b ∈ Z lassen sich zu einer ganzen Zahl a + b summieren.
(1.1)
Diese einfache Tatsache wird vom Mengenbegriff nicht berücksichtigt.
Betrachten wir (1.1) nüchtern aus der Perspektive der Mengenlehre an, so fällt auf, dass
die Addition eigentlich eine Abbildung ist:
m : Z × Z → Z definiert durch m(a, b) = a + b.
Man nennt m auch die Verknüpfungsabbildung.
Diese ist keineswegs beliebig, sie besitzt viele Eigenschaften, die man aus der Schule kennt
und formal beschreiben kann. Diese Eigenschaften werden im Gruppenbegriff elegant
verpackt. Schauen wir nun einige der Eigenschaften an.
Seien a und b in Z.
(N) Es gilt m(a, 0) = a + 0 = a und m(0, b) = 0 + b = b (Neutrales Element).
(K) Es gilt m(a, b) = a + b = b + a = m(b, a) (Kommutativität).
(I) Es gilt m(−a, a) = (−a) + a = 0 (Inverses).
Diese dritte Eigenschaft legt nahe, eine weitere Abbildung einzuführen. Wir setzen
i : Z → Z wobei i(a) = −a.
Mit dieser Notation sagt uns (iii) nichts anderes als
m(i(a), a) = 0.
Es gibt eine vierte Eigenschaft, die man nicht übersehen sollte.
(A) Für alle a, b, c ∈ Z gilt m(m(a, b), c) = (a + b) + c = a + (b + c) = m(a, m(b, c))
(Assoziativität).
14
1.3 Gruppen
Würde man nur mit den ganzen Zahlen arbeiten, so würde es sich nicht lohnen, die Abbildungen m und i einzuführen. Wir können die Addition bzw. Inversion mit denen aus
der Schule bekannten Symbole + und − ebenso gut beschreiben. Die vier Eigenschaften
oben bilden die Schablone für den Begriff der abelschen Gruppe.
Definition 1.15. Eine Gruppe ist ein Tupel (G, e, m). Hier ist G eine Menge, m :
G×G → G eine Abbildung und e ∈ G ein Element. Diese erfüllen folgende Eigenschaften
(auch Gruppenaxiome genannt).
(A) Für alle a, b, c ∈ G gilt m(m(a, b), c) = m(a, m(b, c)). (Assoziativgesetz)
(N) Für alle a ∈ G gilt m(e, a) = a. (Neutrales Element)
(I) Für jedes a ∈ G gibt es ein a0 ∈ G mit m(a0 , a) = e. (Inverses Element)
Die Abbildung m : G → G → G heisst Verknüpfungsabbildung der Gruppe und e
heisst neutrales Element der Gruppe. Jedes Element a0 wie in (I) heisst ein zu a
Inverses Element. Wir werden später sehen, dass jedes a ∈ G genau ein Inverses
besitzt. Dann dürfen wir von dem Inversen von a sprechen. Gilt zusätzlich
(K) Für alle a, b ∈ G gilt m(a, b) = m(b, a).
so nennt man G kommutativ. Anstatt kommutativ wird auch der synonyme Begriff
abelsch verwendet.
Bemerkung 1.16. (i) Die Kommutativität wird nicht ausdrücklich als Gruppenaxiom verlangt. Sie schliesst zu viele interessante Beispiele aus.
(ii) In unserem Beispiel der ganzen Zahlen war das neutrale Element e = 0 ∈ Z.
(iii) Die Symbole e und m in der Definition der Gruppe sind schwerfällig. Oft nutzt
man
a ·G b oder a · b oder ab oder a +G b oder a + b
für die Verknüpfungsabbildung. Die Symbole +G und + sind für abelsche Gruppen
reserviert; die Schreibweise a ·G b oder ab kommt jedoch auch bei nicht abelschen
Gruppen vor. Ist die Notation “multiplikativ” (d.h. wird ab für die Verknüpfung
verwendet), so schreiben wir a−1 für das Inverse von a und 1 anstatt e. Ist die
Notation “additiv”, so schreiben wir −a für das Inverse von a und 0 für e.
Es ist wichtig sich davon zu überzeugen, dass die Begriff “multiplikativ” und “additiv” keine Eigenschaft der Gruppe sind. Welches Symbol wir schlussendlich für
die Verknüpfung brauchen, ist aus mathematischer Sicht irrelevant. Denkbar wären
auch die Symbole
a♦b oder a♣b
als Symbole für die Verknüpfung von a und b.
15
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
(iv) In der Praxis erwähnt man oft nur die Menge G des Tupels (G, e, m). D.h. es
wird meistens von einer Gruppe G die Rede sein, wobei implizit klar ist, wie die
Verknüpfung und das neutrale Element zu verstehen sind.
Wir haben schon ein Beispiel einer Gruppe gesehen. Es gibt aber weitere Gruppen, die
wir zumindest implizit kennen.
Beispiel 1.17.
(i) Die Gruppe (Q, 0, +) der rationalen Zahlen mit der Addition.
(ii) Die Gruppe der rationalen Zahlen ungleich Null mit Multiplikation (Qr{0}, 1, m).
Hier gilt m(a, b) = ab für zwei rationale Zahlen a, b ∈ Q r {0}. Das Inverse von
a ist 1/a für a ∈ Q r {0}. Natürlich darf die Null nicht in der Gruppe enthalten
sein. Denn wäre a ein Inverses bezüglich der Multiplikation von 0, so hätten wir
1 = a0 = 0 was natürlich absurd ist. Man darf nicht durch Null dividieren!
(iii) Sei M eine beliebige Menge. Wir können aus M wie folgt eine Gruppe gewinnen.
Die Elemente dieser Gruppe sind bijektive Selbstabbildungen von M . D.h.
SM = {f : M → M : f ist bijektiv}.
Die Verknüpfung unserer Gruppe wird die Verknüpfung von Abbildungen sein:
m(f, g) = f ◦ g
für f, g ∈ SM .
Das neutrale Element ist die Identitätsabbildung 1M : M → M und das Inverse
von f ist
f −1
wobei f −1 die Inverseabbildung von f ist. Diese existiert, da f bijektiv ist.
Behauptung: Das Tupel (SM , 1M , m) ist eine Gruppe.
Beweis: Wir müssen die Axiome (A), (N) und (I) nachweisen. Falls f und g
bijektive Selbstabbildungen von M sind, so ist auch f ◦ g eine Selbstabbildung von
M . Diese Verknüpfung ist auch bijektiv. Somit ist f ◦ g ∈ SM und m : SM × SM →
SM ist eine wohldefinierte Abbildung.
Falls f, g, h ∈ SM und m ∈ M so gilt
((f ◦ g) ◦ h)(m) = (f ◦ g)(h(m)) = f (g(h(m))) = f ((g ◦ h)(m)) = (f ◦ (g ◦ h))(m).
Da dies für jedes m ∈ M gilt, haben wir (f ◦ g) ◦ h = f ◦ (g ◦ h). Somit ist das
Axiom (A) gezeigt.
Es gilt 1M ◦ f = f da 1M die Identitätsabbildung ist. Daraus folgt Axiom (N).
Schliesslich haben wir f −1 ◦ f = 1M da f −1 die Umkehrabbildung von f ist. Wir
folgern das Axiom (I) und somit ist (SM , 1M , m) eine Gruppe.
Die Gruppe SM heisst die symmetrische Gruppe auf M . Sie ist genau dann
abelsch, wenn #M ≤ 2.
16
1.3 Gruppen
(iv) Die triviale Gruppe ist die simpelste Gruppe, die man sich vorstellen kann. Sie
besteht aus nur einem Element G = {e}. Dadurch ist die Verknüpfungsabbildung
durch m(e, e) = e festgelegt. Natürlich muss e das neutrale Element sein und das
eigene Inverse sein. Man überprüft alle Axiome leicht nach. Die triviale Gruppe
ist sogar eine abelsche Gruppe.
Eine Gruppe (G, e, m) mit G = {e = g1 , . . . , gn } endlich lässt sich mit Hilfe der Verknüpfungstabelle untersuchen:
g1
..
.
g1
···
m(g1 , g1 ) · · ·
..
.
gn
m(g1 , gn )
..
.
gn
m(gn , g1 ) · · ·
m(gn , gn )
Diese Tabelle unterliegt Symmetriebedingungen, die sich aus den Axiomen ergeben.
Da g1 = e das neutrale Element der Gruppe ist, ist die erste Spalte gleich g1 , . . . , gn .
Eine abelsche Gruppe ergibt eine Verknüpfungstabelle, die symmetrisch bezüglich der
Diagonale von oben links nach unten rechts ist.
Beispiel 1.18. (i) Es gibt auch eine Gruppe mit zwei Elementen. Dazu betrachten
wir G = {−1, 1} ⊆ Q. Die Multiplikation auf den rationalen Zahlen (die für die
Verknüpfung in (Q r {1}, 1, ·) verantwortlich ist) definiert eine Verknüpfung auf
G, da
1 · 1 = (−1) · (−1) = 1 und 1 · (−1) = (−1) · 1 = −1.
D.h. wir erhalten eine Abbildung m : G × G → G. Da die Multiplikation auf Q das
Assoziativitätsgesetzt erfüllt, ist die eben definierte Verknüpfung auch assoziativ.
Schliesslich zeigt 1 · 1 = 1 und 1 · (−1) = −1, dass 1 ein neutrales Element ist.
Wegen 1 · 1 = (−1) · (−1) = 1 existiert stets ein Inverses. Damit ist bewiesen, dass
(G, 1, m) eine Gruppe ist. Sie ist ebenfalls abelsch. Hier ist ihre Verknüpfungstabelle
1 −1
1
1 −1
−1 −1
1
(ii) Wir betrachten die zweielementige Menge M = {♣, ♠}. In Beispiel 1.17(iii) haben
wir die symmetrische Gruppe SM kennengelernt. Es sind die bijektiven Selbstabbildungen {♣, ♠} → {♣, ♠}. Es gibt genau zwei mögliche Abbildungen
f (♣) = ♣, f (♠) = ♠
(die Identitätsabbildung auf M )
und
g(♣) = ♠, g(♠) = ♣.
Wir stellen fest, dass g ◦ g = f , da zweimal Vertauschen die Identitätsabbildung
ergibt. Die Verknüpfungstabelle hat die folgende Gestalt
f g
f f g
g g f
17
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Also ist S{♣,♠} eine abelsche Gruppe.
Weiterhin stellen wir fest, dass die Verknüpfungstabelle aus dem erste Beispiel bis
auf ein Vertauschen der Symbole 1 ↔ f und −1 ↔ g gleich sind.
Die zwei Gruppen unterscheiden sich lediglich in der Notation und sind aus gruppentheoretischer Sicht ununterscheidbar. Man nennt sie isomorph, mehr dazu später.
Es gibt bis auf Isomorphismus nur eine Gruppe mit zwei Elementen.
Kommen wir nun zum ersten Lemma.
Lemma 1.19. Sei (G, e, m) eine Gruppe. Wir benutzen die multiplikative Schreibweise,
d.h. m(a, b) = ab für alle a, b ∈ G.
(i) Sei a ∈ G. Wegen (I) gibt es a0 , a00 ∈ G mit a0 a = e und a00 a0 = e. Es gilt aa0 = e,
a00 = a und ae = a.
(ii) Sei e0 ∈ G mit e0 a = a für alle a ∈ G. Dann ist e0 = e. (Das neutrale Element ist
eindeutig.)
(iii) Seien a, a0 , ae0 ∈ G mit a0 a = e = ae0 a. Dann ist a0 = ae0 . (Es gibt genau ein zu a
inverses Element.)
(iv) Seien a, b, c ∈ G mit ab = ac, dann gilt b = c. Haben wir ba = ca, so gilt ebenfalls
b = c. (Man darf kürzen.)
Beweis. Der Beweis von (i) ist eine trickreiche Rechnung. Wir nutzen die Abkürzung ab
für m(a, b). Es gilt a00 a0 = e und damit
(N )
s.o.
(A)
(A)
(I)
(N )
(I)
aa0 = e(aa0 ) = (a00 a0 )(aa0 ) = a00 (a0 (aa0 )) = a00 ((a0 a)a0 ) = a00 (ea0 ) = a00 a0 = e.
Es folgt also die erste Behauptung in (i).
Die zweite Behauptung ist eine Übungsaufgabe.
Die dritte Behauptung ergibt sich aus
(I)
(A)
s.o.
(N )
ae = a(a0 a) = (aa0 )a = ea = a.
Nun beweisen wir Teil (ii). Sei also ẽ ein alternatives neutrales Element: d.h. ẽa = a für
alle a ∈ G. Für a = e erhalten wir ẽe = e. Aus der dritten Behauptung von (i) folgt
aber ẽe = ẽ und somit ẽ = e.
Nun kommen wir zu Teil (iii). Seien a ∈ G und a0 , ae0 ∈ G mit a0 a = e = ae0 a. Wir erhalten
(A)
(i)
(N )
(N )
a0 = ea0 = (ae0 a)a0 = ae0 (aa0 ) = ae0 e = ae0
und somit ist Teil (iii) erledigt.
Die erste Situation in Teil (iv) impliziert ab = ac. Wir erhalten also a0 (ab) = a0 (ac)
wobei a0 ein zu a inverses Element ist. Nutzt man nun auf beiden Seiten (A), so erhält
18
1.3 Gruppen
man (a0 a)b = (a0 a)c. Das Gruppenaxiom (I) impliziert a0 a = e und (N) ergibt eb = b
und ec = c. Wir erhalten b = c.
Die zweite Situation in (iv) ist ba = ca. Nun haben wir (ba)a0 = (ca)a0 . Wir argumentieren wie in der ersten Situation, nutzen aber Teil (i) diese Lemmas anstelle von (I) um
b = c zu folgern.
Der Beweis des Lemmas wäre für abelsche Gruppen viel einfacher gewesen.
Definition 1.20. Sei (G, e, m) eine Gruppe und a ∈ G. Wir benutzen die multiplikative
Schreibweise. Das wegen Teil (iii) des vorherigen Lemmas eindeutig bestimmte Element
a0 mit a0 a = e heisst Inverses von a.
Nutzen wir die additive Schreibweise für G so schreiben wir −a für das Inverse. In
multiplikativer Schreibweise wird das Inverse mit a−1 bezeichnet.
Bemerkung 1.21. Aus (ii) und (iii) des vorherigen Lemmas folgt, dass die Verknüpfungsabbildung m : G × G → G einer Gruppe das neutrale Element und die Inverseabbildung a 7→ a0 festlegt. Insbesondere wird eine endliche Gruppe durch ihre Verknüpfungstabelle eindeutig festgelegt.
Für eine feste Tabellengrösse n gibt es nur endlich viele Möglichkeiten, die Tabelle mit
Elementen aus G zu füllen. Natürlich ist nicht jede beliebige Tabelle bestehend aus
Elementen von G die Verknüpfungstabelle einer Gruppe. Auf jeden Fall gibt es zu festem
n nur endlich viele “verschiedene” Gruppen der Kardinalität n. Einen ersten Einblick in
was es bedeutet, dass zwei Gruppe “gleich” sind, haben wir in Beispiel 1.18 gehabt. Für
grössere n kann die genaue Anzahl durchaus schwierig zu bestimmen sein.2
n
1
2
3
4
5
6
7
8
..
.
60
..
.
2
Anzahl “verschiedener” Gruppen mit Kardinalität n
1 (die triviale Gruppe)
1 (Gruppe aus Bsp. 1.18)
1
2
1
2 (Erste nicht abelsche Gruppe)
1
5
..
.
13 (Erste nicht-triviale einfache Gruppe)
..
.
256
..
.
56092
..
.
2016
2017
..
.
6538
1
..
.
Quelle für 256 und 2016 H.-U. Besche and I. Panchenko: https://oeis.org/A000001.
19
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Dieses unregelmässige Verhalten steht im Kontrast zur Einfachheit des Gruppenbegriffs.
Ähnlich wie bei Mengen, können Gruppen mittels Abbildungen verglichen werden.
Definition 1.22. Seien (G, eG , ·G ) und (H, eH , ·H ) Gruppen. Eine Abbildung f : G → H
heisst Gruppenhomomorphismus (oder kurz Homomorphismus) falls
f (g1 ·G g2 ) = f (g1 ) ·H f (g2 )
für alle g1 , g2 ∈ G. Ist f bijektiv, so nennt man f einen Gruppenisomorphismus
(oder kurz Isomorphismus) und G und H heissen isomorph.
Beispiel 1.23. (i) Seien G und H die Gruppe der ganzen Zahlen mit der Addition.
Genauer G = H = (Z, 0, +). Falls n ∈ Z so erfüllt die Abbildung f : Z → Z
gegeben durch f (a) = na die Gleichung
f (a + b) = n(a + b) = na + nb = f (a) + f (b)
für alle a, b ∈ Z. Also ist f ein Gruppenhomomorphismus.
(ii) Sei nun G wie in Beispiel (i) und H die Gruppe Q r {0} mit der Multiplikation
und 1 als neutrales Element. Wir definieren f (a) = 2a für a ∈ Z. Dann ist f
ein Gruppenhomomorphismus weil f (a + b) = 2a+b = 2a 2b = f (a)f (b) für alle
a, b ∈ Q r {0}.
Wir bestimmen erste Eigenschaften eines Gruppenhomomorphismus.
Lemma 1.24. Seien (G, eG , ·G ) und (H, eH , ·H ) Gruppen und sei f : G → H ein Gruppenhomomorphismus.
(i) Es gilt f (eG ) = eH und f (a−1 ) = f (a)−1 für alle a ∈ G.
(ii) Seien
a1 , a2 ∈ {a ∈ G : f (a) = eH } = f −1 (eH ),
dann ist a1 ·G a2 ∈ f −1 (eH )
Beweis. Wegen Axiom (N) gilt eG ·G eG = eG . Also
eH ·H f (eG ) = f (eG ) = f (eG ·G eG ) = f (eG ) ·H f (eG ).
Wir berufen uns auf Teil (iv) des vorherigen Lemmas um f (eG ) zu kürzen. Daraus ergibt
sich eH = f (eG ) und die erste Hälfte von Teil (i) folgt.
Die zweite Hälfte ergibt sich aus
f (a−1 ) ·H f (a) = f (a−1 ·G a) = f (eG ) = eH .
und Teil (iii) von Lemma 1.19.
Teil (ii) ist wiederum ein Spiel mit den Axiomen. Denn a1 und a2 erfüllen f (a1 ) = eH
und f (a2 ) = eH . Deren Produkt liefert
eH = eH ·H eH = f (a1 ) ·H f (a2 ) = f (a1 ·G a2 ).
20
1.3 Gruppen
Definition 1.25. Die Menge f −1 (eH ) = {g ∈ G : f (g) = eH } aus dem letzten Lemma
heisst Kern von f . Die Schreibweise ist Ker(f ).
Das Bild von f ist die Menge ihrer Bildpunkte {f (g) : g ∈ G} und wird mit Bild(f )
bezeichnet.
Der Kern eines Gruppenhomomorphismus enthält das neutrale Element der Gruppe und
ist abgeschlossen unter der Verknüpfung- und der Inversionsabbildung. Die Elemente
des Kerns bilden also wieder eine Gruppe wobei die Verknüpfung und Inversion von der
umliegenden Gruppe G geerbt wird.
Beispiel 1.26. Seien G, H und f wie in Teil (i) des letzten Beispiels. Also gilt f (a) = na
für alle a ∈ Z. Falls n = 0 so ist f konstant 0. In anderen Worten, Ker(f ) = Z. Falls
n 6= 0 so haben wir
a ∈ Ker(f ) ⇔ na = 0 ⇔ a = 0.
Also gilt Ker(f ) = {0}.
Lemma 1.27. Seien (G, eG , ·G ) und (H, eH , ·H ) Gruppen und f : G → H ein Gruppenhomomorphismus. Dann ist
f injektiv
⇐⇒
Ker(f ) = {eG }
Beweis. Wir wissen von Lemma 1.24(i), dass f (eG ) = eH gilt. In anderen Worten eG ∈
Ker(f ). Sei g ∈ Ker(f ), es gilt also f (g) = eH . Falls f injektiv ist, so muss g = eG gelten.
Damit haben wir die Implikation “=⇒” bewiesen.
Nehmen wir nun an, dass Ker(f ) = {eG } gilt und dass g, h Element aus G sind, die
f (g) = f (h) erfüllen. Hieraus folgt eH = f (h)−1 ·H f (g) = f (h−1 ) ·H f (g) = f (h−1 ·G g),
die zweite Gleichung folgt aus Lemma 1.24(i) und die letzte aus der Definition des
Gruppenhomomorphismus. Weil eG das einzige Element von Ker(f ) ist, folgt h−1 ·G g =
eG . Nach Linksmultiplikation mit h und wegen h ·G h−1 = eG (Lemma 1.19(i)) folgt
g = h. Damit ist bewiesen, dass f injektiv ist.
Definition 1.28. Sei (G, e, ·) eine Gruppe (in multiplikativer Schreibweise). Eine Untergruppe dieser Gruppe ist eine Teilmenge H ⊆ G die folgende Eigenschaften erfüllt.
(i) Es gilt e ∈ H.
(ii) Für alle a, b ∈ H gilt ab ∈ H.
(iii) Für alle a ∈ H gilt a−1 ∈ H.
Beispiel 1.29. (i) Sicher ist 0 ∈ Z durch zwei teilbar. Weiterhin ist die Summe zweier geraden Zahlen wieder gerade und falls a durch zwei teilbar ist, so ist auch
−a durch zwei teilbar. Also bildet die Menge der durch zwei teilbaren Zahlen
{a ∈ Z : a gerade} eine Untergruppe von Z.
(ii) Ein beliebige Gruppe (G, e, m) besitzt immer {e} als Untergruppe. Zu dem ist G
selbst eine Untergruppe. Beide Behauptungen folgen direkt aus den Definitionen.
Diese Untergruppen nennt man die trivialen Untergruppen.
21
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Bemerkung 1.30. (i) Eine Untergruppe H einer Gruppe (G, e, m) definiert, zusammen mit dem neutralen Element und der Verknüpfung selbst eine Gruppe. Der
Beweis dafür folgt leicht: die Verknüpfung zweier Elemente aus H liegt in H wegen Eigenschaft (ii). Die Verknüpfungsabbildung erfüllt (A), weil G eine Gruppe
ist. Weiterhin ist auch (N) erfüllt, weil es auf G gilt. Schliesslich gilt auch (I).
(iii) Der Kern jedes Gruppenhomomorphismus ist eine Untergruppe. Dies folgt aus
Lemma 1.24.
Wir haben schon ein genügend grosses Vokabular zur Behandlung von Gruppen in der
linearen Algebra.
Es folgt nun ein kleiner Abschnitt, der verdeutlichen soll, dass der Gruppenbegriff zwar
elementar, aber sehr facettenreich ist. Heute ist das Studium endlicher Gruppen ein
aktuelles Forschungsgebiet.
Wir haben oben gesehen, dass jeder Kern eines Gruppenhomomorphismus eine Untergruppe liefert. Nun kann man sich fragen, ob umgekehrt jede Untergruppe einer Gruppe
als Kern eines Gruppenhomomorphismus auftaucht. Man kann sich davon überzeugen,
dass die trivialen Untergruppen, d.h. die ganze Gruppe und {e}, als Kern auftauchen. Im
Allgemeinen muss eine Untergruppe einer Gruppe jedoch kein Kern eines Gruppenhomomorphismus sein. Es gibt sogar nicht-triviale Gruppen, bei denen jede nicht-triviale
Untergruppe kein Kern ist. Solche Gruppen nennt man einfach. Einfache endliche Gruppen spielen die Rolle der Elementarteilchen in der Physik oder der Primzahlen in der
Arithmetik, sie sint die Bausteine der Gruppentheorie.
Die Klassifikation aller endlichen einfachen Gruppen war für lange Zeit ein wichtiges
Problem.
Satz (Klassifikationssatz für endliche einfache Gruppen ca. 2006). Sei G eine endliche
einfache Gruppe. Dann ist G in einer von 18 Familien enthalten oder G ist eine der 26
sporadischen endlichen einfachen Gruppen.
Beweis. 10.000 Seiten.
Die grösste sporadische Gruppe heisst Monstergruppe und wird üblicherweise mit M
bezeichnet. Ihre Existenz wurde in 1983 von Griess bewiesen, nachdem sie von Bernd
Fischer in der Dekade zuvor vermutet wurde. Ihre Ordnung ist
#M = 246 · 320 · 59 · 76 · 112 · 133 · 17 · 19 · 23 · 29 · 31 · 41 · 47 · 59 · 71.
Sie beschreibt die Symmetrie eines Objekts im 196883-dimensionalem Raum.
1.4 Ringe und Körper
Im letzten Abschnitt haben wir die Menge Z mit zusätzlicher Struktur einer Gruppe
versehen.
Wir haben dabei schon wieder etwas vernachlässigt. Wir können zwei Elemente in Z
auch miteinander multiplizieren und erhalten ein neues Element in Z. Diese Verknüpfung
22
1.4 Ringe und Körper
definiert jedoch keine Gruppe, denn das multiplikative Inverse zu 2 ist 1/2 und liegt ausserhalb von Z. Der Ringbegriff berücksichtigt dieses Phänomen und auch die Tatsache,
dass die Addition und Multiplikation in Z durch das Distributivgesetz verbunden sind:
a · (b + c) = a · b + a · c für a, b, c ∈ Z.
(1.2)
In der Definition eines Rings tauchen nun zwei Operationen auf. Die eine entspricht der
Addition in Z und die andere der Multiplikation.
Nun kommen wir zur formalen Definition eines Rings.
Definition 1.31. Ein Ring ist ein Tupel (R, 0, s, 1, m) bestehend aus einer Menge R,
einem Element 0 ∈ R genannt Nullelement, einer Abbildung s : R × R → R genannt
Addition, einem Element 1 ∈ R genannt Einselement und einer Abbildung m : R ×
R → R genannt Multiplikation mit den folgenden Eigenschaften.
(i) Das Tupel (R, 0, s) ist eine abelsche Gruppe, wir nennen sie die additive Gruppe
von R.
(ii) (Assoziativität der Multiplikation) Für alle a, b, c ∈ R gilt
m(m(a, b), c) = m(a, m(b, c))
oder (ab)c = a(bc) in der üblichen Notation.
(iii) (Neutrales Element der Multiplikation.) Für alle a ∈ R gilt
m(1, a) = m(a, 1) = a
oder 1a = a1 = a in der üblichen Notation.
(iv) (Distributivgesetz) Für alle a, b, c ∈ R gilt
m(a, s(b, c)) = s(m(a, b), m(a, c)) und
m(s(b, c), a) = s(m(b, a), m(c, a))
oder a(b + c) = (ab) + (ac) und (b + c)a = (ba) + (ca) in der üblichen Notation.
Der Ring heisst kommutativ, falls zusätzlich die folgende Eigenschaft erfüllt ist.
(v) (Kommutativgesetz) Für alle a, b ∈ R gilt
m(a, b) = m(b, a)
oder ab = ba in der üblichen Notation.
Spätestens jetzt wird die Notation wegen den zwei Operationen s (die Summation) und
m (die Multiplikation) schwerfällig. Deshalb werden wir ab jetzt fast ausschliesslich mit
der für uns natürlichen Notation schreiben. Konkret schreiben wir
a · b oder ab anstatt m(a, b)
23
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
und
a + b anstatt s(a, b)
für a und b Elemente eines Rings. Es ist auch sehr praktisch
−a
für das additive Inverse von a zu schreiben. Weiterhin setzen wir
a + (−b) = a − b.
Dabei gilt wie üblich die Konvention “Punkt vor Strich”. D.h. wir kürzen (ab) + c durch
ab + c ab.
Aus diesem Grund wurde vorsorglich das neutrale Element bezüglich + mit der 0 und
das neutrale Element bezüglich der Multiplikation mit der 1 bezeichnet.
Achtung. Dennoch sollte man sich im Klaren sein, dass + oder · möglicherweise nichts
mit den aus der Schule bekannten Rechenoperationen auf den ganzen, rationalen oder
reellen Zahlen gemeinsam haben.
Um die Notation weiter zu vereinfachen, werden wir oft, wie bei den Gruppen, einen Ring
mit der Menge R identifizieren. D.h. steht irgendwo “Sei R ein Ring . . . ”, so meinen wir
damit ein Tupel wie in der Definition.
Achtung. Die Definition eines Rings ist nicht ganz ohne Kontroversen. So ist in manchen Quellen die Kommutativität der Multiplikation Bestandteil der Definition während
andere Quelle so weit gehen, und nicht die Existenz eines neutralen Elements bezüglich
der Multiplikation fordern.
Wir werden uns hauptsächlich mit kommutativen Ringen beschäftigen. Ringe, die mittels
Matrizenmultiplikation definiert werden, werden jedoch im Allgemeinen nicht kommutativ sein.
Beispiel 1.32. (i) Wir kennen implizit schon viele kommutative Ringe, wie Z, Q und
R mit den klassischen Operationen.
(ii) Wie immer gibt es ein pathologisches Beispiel: der Nullring. Die zugrunde liegende
Menge ist R = {0}. Es gibt nur eine Wahl für eine Abbildung R × R → R und für
eine Abbildung R → R. Und man überprüft leicht nach, dass diese sowohl die Eigenschaften der Addition und der Multiplikation erfüllen. Folglich ist der Nullring
ein Ring und sogar ein kommutativer Ring. Beachte, dass 1 = 0 im Nullring gilt!
Der Nullring ist der einzige Ring, in welchem 1 = 0 gilt. Diese Aussage werden
wir in Kürze beweisen.
(iii) Sei R ein Ring und sei X zunächst ein Symbol. Wir können den Ring R[X] der
Polynome über R wie folgt definieren. Die Elemente von R[X] sind Polynome in
24
1.4 Ringe und Körper
einer Variable X und Koeffizienten in R. In anderen Worten, die Elemente von
R[X] sind von der Form
n
an X + an−1 X
n−1
+ · · · + a1 X + a0 =
n
X
ak X k
k=0
wobei n
P∈n N∪{0}k und
Pma0 , . . . k, an ∈ R. Die Addition auf R[X] ist wie folgt definiert.
Seien k=0 ak X , k=0 bk X ∈ R[X]. Man setzt
!
! max{m,n}
n
m
X
X
X
ak X k +
bk X k =
(ak + bk )X k
k=0
k=0
k=0
wobei ak = 0 für k > n und bk = 0 für k > m gesetzt wird. Nun müssen wir auch
eine Multiplikationsabbildung definieren. Dies geschieht wie folgt. Wir setzen
! m
! n+m k
!
n
X
X
X X
ak X k
bk X k =
al bk−l X k
k=0
k=0
k=0
l=0
Das neutrale Element der Addition von R[X] definieren wir als 0 ∈ R und das
neutrale Element der Multiplikation als 1 ∈ R.
Es wird eine Übungsaufgabe sein nachzuprüfen, dass R[X] zusammen mit diesen
Operationen einen Ring definiert. Falls R kommutativ ist, so wird R[X] kommutativ sein.
Falls A = an X n + · · · + a1 X + a0 ∈ R[X] mit an 6= 0 so definieren wir den Grad
des Polynoms A als
deg(A) = n ≥ 0.
Beachten Sie, dass wir den Grad des Polynoms 0 ∈ R[X] nicht definiert haben.
Wir halten nun einige formale Konsequenzen der Ringaxiome fest. Dabei wird man einige
bekannte Rechenregeln wiedererkennen.
Lemma 1.33. Sei R ein Ring und a ∈ R.
(i) Es gilt 0 · a = a · 0 = 0.
(ii) Gemäss Definition ist das additive Inverse von a gleich −a. Es gilt −a = (−1)·a =
a · (−1) und (−1) · (−1) = 1.
Beweis. Distributivität ergibt 0 · a = (0 + 0) · a = 0 · a + 0 · a. Addiert man nun −0 · a
zu dieser Gleichung, so erhält man 0 = 0 · a. Der Beweis für a · 0 = 0 ist völlig analog.
Daraus ergibt sich Teil (i).
Gemäss Definition und Teil (i) haben wir ((−1) + 1) · a = 0 · a = 0. Wenden wir
Distributivität an, so folgt 0 = (−1) · a + 1 · a = (−1) · a + a. Wegen Lemma 1.19(iii)
ist das additive Inverse in einer Gruppe eindeutig bestimmt. Daraus folgt −a = (−1) · a
und −a = a · (−1) lässt sich analog zeigen.
25
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Wir müssen noch (−1) · (−1) = 1 zeigen. Aus Teil (i) und Distributivität folgt
0 = 0 · 0 = ((−1) + 1) · ((−1) + 1) = (−1) · (−1) + (−1) · 1 + 1 · (−1) + 1 · 1.
Da 1 das neutrale Element bezüglich Multiplikation ist, haben wir 0 = (−1) · (−1) +
(−1) + (−1) + 1 = (−1) · (−1) + (−1). Also muss (−1) · (−1) = 1 gelten.
Bemerkung 1.34. Jeder Ring R ist mit einer Multiplikationsabbildung ausgestattet.
Diese definiert jedoch fast nie eine Gruppenstruktur auf R. Nehmen wir mal an, dass sie
es doch tut. Dann besitzt 0 ein multiplikatives Inverses x, also muss 0 · x = 1 gelten. Teil
(i) des letzten Lemmas impliziert 0 = 1. Jedes a ∈ R ist von der Form a = 1·a = 0·a = 0.
Also ist R der Nullring.
Wir halten fest: ist R nicht der Nullring, so definiert die Multiplikation keine Gruppenstruktur mit neutralem Element 1.
Wenn wir das Nullelement 0 vernachlässigen, dann gibt es interessante Ringe, bei denen
die Multiplikation eine Gruppe definiert. Diese nennt man Körper und sie haben in der
linearen Algebra eine besondere Bedeutung.
Definition 1.35. Ein kommutativer Ring K heisst Körper, falls die folgende Eigenschaft erfüllt ist.
(vi) Es gilt 0 6= 1 und für jedes a ∈ K r {0} gibt es ein a0 ∈ K mit a0 a = 1.
Lemma 1.36. Sei K ein Körper.
(i) Sind a, b ∈ K mit
ab = 0 so gilt
a = 0 oder
b = 0.
(ii) Die Menge K r {0} zusammen mit dem Element 1 ∈ K r {0} und der Multiplikation, ist eine abelsche Gruppe. Wir nennen sie multiplikative Gruppe von K
und schreiben K × = K r {0}.
Beweis. Seien a, b ∈ K mit ab = 0. Wir möchten a = 0 oder b = 0 beweisen. Wir
können also a 6= 0 annehmen, ansonsten ist die Aussage schon bewiesen. Axiom (iv) in
der Definition eines Körpers impliziert, dass es ein a0 ∈ K gibt mit a0 a = 1. Aus Lemma
1.33(i) erhalten wir
0 = a0 0 = a0 (ab) = (a0 a)b = 1b = b.
Hieraus folgt Teil (i).
Teil (i) lässt sich wie folgt umformulieren: falls a, b ∈ K mit a 6= 0 und b 6= 0, so gilt
ab 6= 0. Also nimmt die Multiplikationsabbildung m(a, b) = ab Werte in K r {0} an,
falls a, b ∈ K r {0}. Sie definiert also eine Abbildung
(K r {0}) × (K r {0}) → K r {0}.
Gemäss Definition von K gilt 0 6= 1, also liegt 1 ∈ K r {0}.
26
1.4 Ringe und Körper
Für a ∈ K r {0} gibt es ein a0 ∈ K mit a0 a = 1. Wir definieren eine Abbildung
i : K r {0} → K durch i(a) = a0 . Wir halten aber fest, dass i(a) 6= 0 gelten muss, den
andererseits wäre 1 = i(a)a = 0a = 0 wegen Lemma 1.33(i). Also ist i eine Abbildung
K r {0} → K r {0}.
Um Teil (ii) zu beweisen, müssen wir zeigen, dass K r {0} mit den soeben beschrieben
Abbildungen eine Gruppe mit neutralem Element 1 ist.
Die Assoziativität der Multiplikation (A) folgt aus (ii) in der Definition eines Rings,
Axiom (N) im Gruppenbegriff folgt aus (iii) in derselben Definition, schliesslich folgt (I)
aus (iv) in der Definition eines Körpers.
Bemerkung 1.37. (i) Wir halten nochmals das Kontrapositiv von Teil (i) im obigen
Lemma fest. Sind a, b Elements eines Körper mit a 6= 0 und b 6= 0, so ist ab 6= 0.
(ii) Aus unserer Definition folgt, dass 1 ∈ K r {0}. Insbesondere besitzt ein Körper
mindestens zwei Elemente.
(iii) Da K r {0} (mit der Multiplikation) eine Gruppe bildet, können wir kürzen, siehe
dazu Lemma 1.19(iv). Konkret, falls a, b, c ∈ K mit a 6= 0 und
ab = ac so gilt
b = c.
(iv) Gemäss Definition ist jeder Körper ein Ring. Die Umkehrung gilt nicht, d.h. wir
werden unten in einem Beispiel sehen, dass es Ringe gibt, die keine Körper sind.
Beispiel 1.38. (i) Der Ring der rationalen Zahlen Q ist ein Körper. Das gleiche gilt
für den Ring der reellen Zahlen R.
(ii) Die komplexen Zahlen C (siehe Vorlesung Analysis) bilden einen Körper.
(iii) Der Ring der ganzen Zahlen Z ist kein Körper, da 1/2 ∈ Q r Z.
(iv) Bis jetzt kennen wir nur Körper mit unendlich vielen Elementen. Ein Körper muss
per Definition mindestens zwei Elemente enthalten. Das lässt eine grosse Lücke
zu. Wir zeigen nun, dass es einen Körper F2 mit genau zwei Elementen gibt. Wir
machen den Ansatz F2 = {0, 1} mit 0 6= 1 zwei Symbole. Bezüglich der Addition
muss F2 eine abelsche Gruppe sein. Die folgende Additionstabelle (die wir schon
einmal gesehen haben) definiert diese Gruppenstruktur:
+
0
1
0 1
0 1
1 0
Somit ist Axiom (i) in der Definition eines Rings erfüllt. Für die Multiplikationstabelle gibt es wegen Lemma 1.33 nur eine Möglichkeit:
·
0
1
0 1
0 0
0 1
27
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Also definiert die Multiplikation auf F2 r {0} = {1} eine Gruppenstruktur: die
der trivialen Gruppe. Daraus folgt Axiom (vi) in der Definition des Körpers. Die
Axiome (ii), (iii) und (v) in der Definition des Ringbegriffs folgen im Fall a = b =
c = 1, da F2 r {0} eine Gruppe ist. Die Aussagen dieser drei Axiome gelten auch,
falls a = 0, b = 0 oder c = 0, da 0x = 0 für alle x ∈ F2 . Für das Distributivgesetz,
also Axiom (iv), reicht es wegen der Kommutativität der Multiplikation a(b + c) =
ab + ac für alle a, b, c ∈ F2 zu zeigen. Für a gibt es nur die Möglichkeiten 0 und
1. Ist a = 0, so steht links und rechts 0 wegen Lemma 1.33(i). Ist a = 1, so gilt
a(b + c) = 1(b + c) = b + c = 1b + 1c = ab + ac, was zu zeigen war. Dieses Argument
impliziert Axiom (iv).
Also sind alle Axiome erfüllt. Daher ist F2 ein Körper, der kleinste Körper, den
es gibt. In F2 gilt die bemerkenswerte Gleichung
1+1=0
oder, was äquivalent ist, −1 = 1. Es können also keine Vorzeichenfehler passieren!
Sei K ein Körper. Da K auch ein Ring ist, erhalten wir aus der Konstruktion aus dem
vorigen Abschnitt den Ring K[X] der Polynome mit Koeffizienten in K. Zur Erinnerung,
Elemente aus K[X] sind von der Form
an X n + an−1 X n−1 + · · · + a1 X + a0
mit an , . . . , a0 ∈ K
für ein n ∈ N ∪ {0}. Wir werden weiter unten sehen, dass K[X] nie ein Körper ist.
Lemma 1.39. Sei K ein Körper.
(i) Seien A, B ∈ K[X] r {0}. Dann gilt AB 6= 0 und
deg(AB) = deg(A) + deg(B).
(ii) Der Ring K[X] ist kein Körper.
Beweis. Um Teil (i) zu beweisen, schreiben wir A = an X n + · · · + a0 mit an 6= 0 und
B = bm X m + · · · + b0 mit bm 6= 0. Die Definition des Grads impliziert deg(A) = n und
deg(B) = m.
Wir berechnen das Produkt
AB = (an X n + · · · + a0 )(bm X m + · · · + b0 )
= an bm X n+m + (an bm−1 + an−1 bm )X n+m−1 + · · · + (a1 b0 + a0 b1 )X + a0 b0 .
(1.3)
Nun sind an 6= 0 und bm 6= 0. Somit ist das Produkt an bm 6= 0 weil K ein Körper ist,
cf. Lemma 1.36(i). Da der Term an bm X n+m nicht durch die weiteren Summanden in
AB weggekürzt werden kann, haben wir AB 6= 0. Insbesondere ist der Grad deg(AB)
wohldefiniert. Schliesslich sehen wir aus (1.3), dass deg(AB) = n+m = deg(A)+deg(B)
gilt. Somit ist Teil (i) bewiesen.
Nun kommen wir zu (ii). Wäre K[X] ein Körper, so gäbe es A ∈ K[X] mit XA = 1.
Dies wird zu einem Widerspruch führen. Es gilt deg(1) = 0 und deg(X) = 1. Wenden
wir Teil (i) an, so erhalten wir 1 + deg(A) = 0 und somit deg(A) = −1. Dies ist ein
Widerspruch, da der Grad eines Polynoms nie negativ sein kann.
28
1.4 Ringe und Körper
Definition 1.40. Eine natürliche Zahl p nennt man Primzahl, falls p ≥ 2 und falls p
in N nur die Teiler 1 und p besitzt.
Bemerkung 1.41. (i) In einem Körper K kann man wie “gewohnt” rechnen. Sind
a, b ∈ K mit b 6= 0 so schreiben wir b−1 für das multiplikative Inverse von b und
wir kürzen
a
ab.
b−1 a = ab−1 durch
b
(ii) Es gibt weitere endliche Körper. Für jede Primzahl p ∈ {2, 3, 5, 7, . . .} und jede
natürliche Zahl n ∈ N gibt es einen Körper Fpn der Kardinalität pn . Das sind
schon sämtliche endliche Körper. Die Existenz der Fp werden wir im Laufe des
Semesters beweisen. Die restlichen Aussagen dieser Bemerkung werden vielleicht
in höheren Vorlesungen behandelt.
Wir haben gesehen, dass in F2 die Gleichung 1 + 1 = 0 gilt. Das Element 2 kommt nicht
in der Definition des Körpers vor. Jedoch können wir
2=1+1
in einem beliebigen Körper K definieren und somit hat 2 eine Bedeutung als Element
von K. Dasselbe kann man für jede natürliche Zahl n ∈ N ∪ {0} machen
n := |1 + ·{z
· · + 1} ∈ K.
(1.4)
n Summanden
Hier ist 0 = 0 in K. Für negative n ∈ Z definieren wir
n := − (1 + · · · + 1) ∈ K
|
{z
}
−n > 0 Summanden
In dieser Notation gilt
2 = 0 im Körper F2 .
Später werden wir einfach n für n schreiben. Hier spielt uns die Notation einen Streich:
das “n” ist je nach Situation ein Element in K und darf dann nicht mit der natürlichen
Zahl, die wir auch mit n bezeichnen, verwechselt werden!
Dieses Phänomen führt zu einer wichtigen Invariante eines Körpers, die Charakteristik.
Lemma 1.42. Sei K ein Körper. Angenommen es gibt eine natürliche Zahl n ∈ N
mit n = 0 als Element von K. Dann gibt es eine kleinste natürliche Zahl mit dieser
Eigenschaft und diese ist eine Primzahl.
Beweis. Falls es n ∈ N mit n = 0 in K gibt, so gibt es sicherlich ein kleinstes n mit
dieser Eigenschaft. Es reicht also zu zeigen, dass dieses n eine Primzahl ist. Sicher gilt
n 6= 1 da 1 = 1 6= 0 in einem Körper. Also haben wir n ≥ 2. Falls n = tt0 mit t, t0 ∈ N so
zeigt man rasch, dass n = t · t0 = 0. Aus Lemma 1.36(i) folgt nun t = 0 oder t0 = 0. Aus
der Symmetrie der Situation können wir annehmen, dass t = 0 gilt. Aus der Minimalität
von n folgt t ≥ n. Aber t ist ein Teiler von n, also t ≤ n. Somit gilt t = n und t0 = 1.
Hieraus folgt, dass n nur zwei Teiler hat. Also ist n eine Primzahl.
29
1 Algebraische Grundlagen: Mengen, Gruppen, Ringe, Körper
Definition 1.43. Sei K ein Körper. Falls es n ∈ N gibt mit n = 0 in K. Dann nennt
man die Primzahl, welche wir aus dem letzten Lemma erhalten, die Charakteristik
von K. Falls n 6= 0 für alle n ∈ N gilt, so wird die Charakteristik von K als 0 definiert.
Beispiel 1.44.
C.
(i) Die Charakteristik von Q ist 0. Dasselbe gilt für die Körper R und
(ii) Die Charakteristik von F2 ist 2.
30
2 Matrizenkalkül
Bislang haben wir algebraische Strukturen wie Gruppen, Ringe und Körper eingeführt.
In diesem Kapitel werden wir hauptsächlich in einem Körper K arbeiten und lineare
Abbildungen sowie lineare Gleichungen systematisch untersuchen.
Lineare Gleichungen und Abbildungen tauchen überall in der Mathematik auf. Sie spielen
auch in der Physik und anderen Naturwissenschaften eine wichtige Rolle. Lineare Gleichungen gehören zu den einfachsten Gleichungen, die untersucht werden. Ihre Bedeutung
stammt aus der Tatsache, dass sie die einzigen Gleichungen sind, die sich systematisch
lösen lassen. Grob gesagt sind lineare Abbildungen, die einfachste Art Abbildung. Die
lineare Algebra ist das Studium von linearen Gleichungen und Abbildungen.
Das wichtigste Hilfsmittel bei der Untersuchung von linearen Abbildungen und Gleichungen ist die Matrix.
Beispiel 2.1. (i) Als einführendes Beispiel untersuchen wir die Drehung der Ebene
um einen Winkel θ ∈ R. Als Ebene verstehen wir das kartesische Produkt R2 = R×
R. Die in der Mathematik natürliche Einheit für die Drehung ist der Bogenwinkel,
d.h. eine Drehung um π/2 entspricht einer Drehung um 90 Grad, eine Drehung
um π entspricht einer Drehung um 180 Grad, usw.
Wir untersuchen den Fall√der Drehung
um θ = π/4 (also um 45 Grad).
Dabei
√
√
√
wird der Punkt (1, 0) auf ( 2/2, 2/2) gedreht und (0, 1) wird auf (− 2/2, 2/2)
gedreht. Wir schreiben
√
√
√
√
Dπ/4 ((1, 0)) = ( 2/2, 2/2) und Dπ/4 ((0, 1)) = (− 2/2, 2/2).
Wie wird ein allgemeiner Punkt (x, y) ∈ R2 gedreht? Hier nutzen wir die Linearität
aus, dieses Konzept steht im Zentrum der linearen Algebra. Es gilt
Dπ/4 ((x + x0 , y + y 0 )) = Dπ/4 (x, y) + Dπ/4 (x0 , y 0 )
für zwei Punkte (x, y), (x0 , y 0 ) der Ebene R2 , wobei komponentenweise addiert wird.
Wir schreiben (x, y) = (x + 0, 0 + y) und erhalten
√
√
√
√
Dπ/4 (x, y) = Dπ/4 (x, 0) + Dπ/4 (0, y) = ( 2x/2, 2x/2) + (− 2y/2, 2y/2),
da (x, 0) aus (1, 0) durch Streckung um den Faktor x entsteht, und Drehung und
Streckung vertauschen (analoges gilt für (0, y)).
Wir finden, dass (x, y) durch Drehung um π/4 in
√
√
√
√ !
2
2
2
2
x−
y,
x+
y
2
2
2
2
31
2 Matrizenkalkül
überführt wird.
Diese Drehung ist ein typisches Beispiel einer linearen Abbildung. Ihr Studium bildet den Kern der linearen Algebra. Wir werden diese Abbildung durch eine Matrix
√ !
√
2
−√ 22
√2
2
2
2
2
repräsentieren.
(ii) Für θ ∈ R ist die Drehung um den Winkel θ durch
(x, y) 7→ (x0 , y 0 ) = cos(θ)x + (− sin θ)y, sin(θ)x + cos(θ)y
gegeben. Ordnung wir die Einträge zusammen, erhalten wir die Matrix
cos θ − sin θ
Dθ =
,
sin θ cos θ
welche unsere Drehung repräsentiert.
(iii) Für reelle Zahlen a, b, c, d ∈ R erhalten wir eine durch
(x, y) 7→ (x0 , y 0 ) = (ax + by, cx + dy).
definierte Abbildung R2 → R2 . Wir werden sie später als lineare Abbildung erkennen und sie durch die Matrix
a b
c d
repräsentieren.
(iv) Ein Beispiel eines linearen Gleichungssystems mit Koeffizienten im Körper Q und
zwei Unbekannten ist
3x + 5y = 0.
(2.1)
Hier sind x und y die unbekannten Variablen. Dieses Gleichungssystem besitzt unendliche viele Lösungen: für jedes λ ∈ Q wird durch x = −5λ und y = 3λ eine
Lösung gegeben. Auch Gleichungssysteme lassen sich durch Matrizen repräsentieren.
Die entsprechende Matrix lautet hier
3 5 .
Man möchte jedoch auch mehrere Gleichungen gleichzeitig behandeln:
x + 2y = 0
−3x + 5y = 0.
(2.2)
(2.3)
Dieses Gleichungssystem hat genau eine Lösung x = y = 0. Im letzten Beispiel
erhalten wir die Matrix
1 2
.
−3 5
32
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
Matrizen sind wichtige Werkzeuge, um lineare Abbildungen und Gleichungen zu studieren. Sie besitzen aber auch ein Eigenleben und werden in späteren Kapiteln eine neuen
Rolle annehmen.
Ziel dieses Kapitels ist es,
• Matrizen zu definieren
• mit Matrizen zu rechnen, d.h. Addition, Skalarmultiplikation und Matrixprodukt
werden eingeführt,
• und lineare Gleichungssystem mit der Hilfe von Matrizen zu lösen und Matrizen
in die sogenannte Zeilenstufenform zu bringen.
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
Definition 2.2. Sei K ein beliebiger Körper
Koeffizienten in K ist ein Element

a1,1 a1,2
 a2,1 a2,2

A =  ..
..
 .
.
am,1 am,2
und m, n ∈ N. Eine m × n Matrix mit
···
···
...
a1,n
a2,n
..
.
···
am,n





des mn-fachen Kartesischen Produkts K mn . Das heisst, die ai,j sind Elemente von K.
Die Menge der m × n Matrizen mit Koeffizienten in K wird mit Matm,n (K) bezeichnet.
Ist m = n so nennt man m × m Matrizen quadratisch und benutzt die abkürzende
Schreibweise Matm (K) = Matm,m (K).
Bemerkung 2.3. Elemente in Matm,n (K) sind Matrizen mit m Zeilen und n Spalten, beachten Sie die Reihenfolge der Anzahl Zeilen und Spalten in der Schreibweise
Matm,n (K). Ist A ∈ Matm,n (K) wie in der Definition, so bezeichnet ai,j den Koeffizienten in der i-ten Zeile und j-ten Spalte von A.
Beispiel 2.4.
(i) Die Matrix
3 5
∈ Mat1,2 (Q)
besitzt als Koeffizienten die rationalen Zahlen, die im Beispiel (2.1) auftauchen.
(ii) Die Matrix
1 2
−3 5
∈ Mat2,2 (Q)
besitzt als Koeffizienten genau die rationalen Zahlen, die im Beispiel (2.2) auftauchen. Diese Matrix ist, im Gegensatz zur Matrix im ersten Beispiel, quadratisch.
Es gibt zwei Matrizen, die eine besondere Rolle spielen.
33
2 Matrizenkalkül
Definition 2.5. Sei K ein Körper und m, n ∈ N.
(i) Die Nullmatrix ist durch

0m,n

0 ··· 0


=  ... . . . ...  ∈ Matm,n (K)
0 ··· 0
gegeben, d.h. alle Koeffizienten sind 0. Oft werden wir die Indizes in 0m,n weglassen
und das Symbol 0 für die Nullmatrix verwenden.
(ii) Sei m = n, also sind die Elemente von Matm (K) quadratische Matrizen. Die
Einheitsmatrix oder Einsmatrix oder Identitätsmatrix ist durch


1 0 ···
0
 0 1 ···
0 


 ..

.
.
.
.
Em =  .
 ∈ Matm (K)
.
.


 0
··· 1 0 
0
··· 0 1
gegeben, d.h. alle Koeffizienten auf der Diagonale sind 1 und die restlichen sind 0.
Auch hier werden wir oft E anstatt Em schreiben.
Beachten Sie, dass die Einheitsmatrix nicht ausschliesslich aus der 1 ∈ K besteht! Die
Erklärung dafür werden wir sehen, sobald wir das Produkt zweier Matrizen kennen.
Zwei Matrizen mit Koeffizienten im selben Körper und welche die gleiche Anzahl Zeilen
und Spalten besitzen lassen sich summieren.
Definition 2.6. Sei

a1,1
 a2,1

A =  ..
 .
am,1
K ein Körper und m, n ∈ N. Sind


a1,2 · · · a1,n
b1,1 b1,2
 b2,1 b2,2
a2,2 · · · a2,n 


..
..  und B =  ..
..
..
 .
.
.
. 
.
am,2 · · · am,n
bm,1 bm,2
in Matm,n (K) so ist ihre Summe komponentenweise durch

a1,1 + b1,1 a1,2 + b1,2 · · · a1,n + b1,n
 a2,1 + b2,1 a2,2 + b2,2 · · · a2,n + b2,n

A+B =
..
..
..
...

.
.
.
am,1 + bm,1 am,2 + bm,2 · · · am,n + bm,n
···
···
..
.
b1,n
b2,n
..
.
···
bm,n








 ∈ Matm,n (K)

gegeben.
Achtung. Zwei Matrix müssen die gleiche Anzahl Spalten und Zeilen haben, um summierbar zu sein.
34
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
Beispiel 2.7.
(i) Seien
1 2
A=
∈ Mat2 (Q)
3 4
und
B=
−4 2
−9 15
∈ Mat2 (Q)
(2.4)
so gilt
A+B =
−3 4
−6 19
∈ Mat2 (Q).
(ii) Zwei nicht quadratische Matrizen mit Koeffizienten in F2 lassen sich auch summieren. Falls
1
1
A=
und B =
0
1
mit A, B ∈ Mat2,1 (F2 ) so ist
A+B =
1+1
0+1
=
0
1
.
1 0
(iii) Sei E2 =
die 2 × 2 Einheitsmatrix mit Koeffizienten in Q. Nach dem
0 1
Rezept von Beispiel 2.1 können wir eine Abbildung R2 → R2 wie folgt definieren
(x, y) 7→ (1 · x + 0 · y, 0 · x + 1 · y) = (x, y).
Es handelt sich um die Identitätsmatrix. Dies ist die Begründung für die Bezeichnung “Einheitsmatrix”.
Wir werden nun die Skalarmultiplikation eines Elements aus K mit einer Matrix mit
Koeffizienten aus K definieren.
Definition 2.8. Sei K ein Körper und

a1,1
 a2,1

A =  ..
 .
am,1
m, n ∈ N. Ist λ ∈ K und

a1,2 · · · a1,n
a2,2 · · · a2,n 

..
.. 
..
.
.
. 
am,2 · · · am,n
so ist das Skalarmultiplikation von λ

λa1,1
 λa2,1

λA =  ..
 .
λam,1
mit A durch
···
···
...
λa1,n
λa2,n
..
.
λam,2 · · ·
λam,n
λa1,2
λa2,2
..
.





gegeben. In anderen Worten, wir multiplizieren jeden Eintrag von A mit dem “Skalar”
λ.
35
2 Matrizenkalkül
Beispiel 2.9.
(i) Seien A und B wie in (2.4). Es gilt
2 4
4 −2
2A =
und (−1)B =
.
9 −15
6 8
(ii) Sei K ein beliebiger Körper, m, n ∈ N und A ∈ Matm,n (K). Aus den Resultaten
über Körper des letzten Kapitels folgern wir
0A = 0m,n
und
(−1)A + A = 0m,n .
(2.5)
Das letzte Beispiel legt nahe, dass Matrizen bezüglich der Addition eine Gruppe bilden.
Lemma 2.10. Sei K ein Körper und m, n ∈ N. Die Menge der Matrizen Matm,n (K)
zusammen mit der Matrizenaddition, dem Element 0m,n , und der durch (2.5) definierten
Abbildung ist eine abelsche Gruppe.
Beweis. Die Summe zweier Matrizen in Matm,n (K) liegt wieder in Matm,n (K). Dass die
Summe assoziativ ist und dass 0m,n ein neutrales Element ist, folgt aus der Definition des
Körpers. Jedes Element in Matm,n (K) besitzt zu dem ein additives Inverses (2.5).
Nun stellt sich die Frage, ob man auch Matrizen miteinander multiplizieren kann. Als
Ausgangslage steht die Repräsentation einer linearen Abbildung als Matrix, wie wir sie
in Beispiel 2.1(i)–(iii) gesehen haben. Da wir Matrizen als Abbildung auffassen wollen,
liegt es nahe, das Verhalten von Matrizen unter Verkettung zweier solcher Abbildungen
zu untersuchen und dieses Verhalten als Vorlage für das Matrixprodukt zu nehmen.
Beispiel 2.11. (i) Wir untersuchen zwei Abbildungen f : R2 → R2 und g : R2 → R2 ,
sie sollen durch
f (x, y) = (ax + by, cx + dy)
und
g(x, y) = (a0 x + b0 y, c0 x + d0 y)
definiert sein, wobei a, b, c, d, a0 , b0 , c0 , d0 ∈ R.
Die Verkettung f ◦ g : R2 → R2 erhält man durch Einsetzung.
(f ◦ g)(x, y) = a(a0 x + b0 y) + b(c0 x + d0 y), c(a0 x + b0 y) + d(c0 x + d0 y)
= (aa0 + bc0 )x + (ab0 + bd0 )y, (ca0 + dc0 )x + (cb0 + dd0 )y .
Die Abbildungen f und g werden vermöge dem Rezept in Beispiel 2.1(iii) durch
0 0 a b
a b
F =
und G =
c d
c0 d0
36
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
repräsentiert. Schliesslich ist
M=
aa0 + bc0 ab0 + bd0
ca0 + dc0 cb0 + dd0
die Matrix, welche f ◦ g repräsentiert. Wir werden das Matrixprodukt aus F und
G, also M definieren. Das Produkt zweier Matrizen entspricht das hintereinanderausführen von zwei Abbildungen.
(ii) Wir untersuchen (i) im Spezialfall f = Dα und g = Dβ , also die Drehung der
Ebene um α bzw. β. Die Verkettung Dα ◦ Dβ wird durch die Matrix
cos(α) cos(β) − sin(α) sin(β) − cos(α) sin(β) − sin(α) cos(β)
.
sin(α) cos(β) + cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β)
Die Additionstheorem vom Sinus und Kosinus implizieren, dass diese Matrix gleich
cos(α + β) − sin(α + β)
.
sin(α + β) cos(α + β)
Diese Matrix entspricht Drehung und den Winkel α + β. Dies ist dadurch erklärt,
dass wir bei der Verkettung zuerst um β und dann um α gedreht haben, und dass
zwei verkettete Drehungen der Ebene eine Drehung um die Summe der Drehwinkeln
ist. Das Matrixprodukt verschlüsselt hier die Additionstheorem aus der Trigonometrie.
Nun kommen wir zur Definition der Matrizenmultiplikation.
Definition 2.12. Sei K ein Körper und m, n, p ∈ N. Das Produkt der zwei Matrizen




a1,1 · · · a1,n
b1,1 · · · b1,p

..  ∈ Mat (K) und B =  ..
..  ∈ Mat (K).
A =  ...
 .
m,n
n,p
. 
. 
am,1 · · · am,n
bn,1 · · · bn,p
ist

a1,1 b1,1 + a1,2 b2,1 + · · · + a1,n bn,1 · · ·

..
AB = 
.
am,1 b1,1 + am,2 b2,1 + · · · + am,n bn,1 · · ·

a1,1 b1,p + a1,2 b2,p + · · · + a1,n bn,p

..
 ∈ Matm,p (K).
.
am,1 b1,p + am,2 b2,p + · · · + am,n bn,p
Völlig äquivalent schreiben wir C = AB mit C = (ci,k )1≤i≤m,1≤k≤p und
ci,k =
n
X
ai,j bj,k .
j=1
Diese etwas eigentümlich Definition werden wir weiter unten an Beispielen üben.
37
2 Matrizenkalkül
Bemerkung 2.13. (i) In der Definition oben ist zu beachten, dass die Anzahl Spalten
n des ersten Faktors A gleich den Anzahl Zeilen des zweiten Faktors ist.
Das Produkt aus B und A ist nur dann wohldefiniert, wenn m = p.
(ii) Gilt m = n = p, sind also A und B quadratische Matrizen der gleichen Grösse, so
lässt sich sowohl AB wie auch BA bilden.
Beispiel 2.14.
(i) Seien
1 2
A=
∈ Mat2 (Q) und
3 4
B=
8 7
6 5
∈ Mat2 (Q)
so gilt
AB =
1·8+2·6 1·7+2·5
3·8+4·6 3·7+4·5
8·1+7·3 8·2+7·4
6·1+5·3 6·2+5·4
=
20 17
48 41
29 44
21 32
.
Berechnen wir jedoch
BA =
=
,
so fällt
AB 6= BA
sofort ins Auge. Das Matrixprodukt ist für quadratische n × n Matrizen nicht kommutativ, falls n = 2. Es ist für n ≥ 3 ebenfalls nicht kommutativ.
(ii) Sei A wie im Beispiel (i) und
B=
dann ist
AB =
−1
7
∈ Mat2,1 (Q)
1 · (−1) + 2 · 7
3 · (−1) + 4 · 7
=
13
25
.
Beachten Sie, dass das Produkt von B mit A nicht definiert ist! Die Anzahl Spalten
von B ist ungleich der Anzahl Zeilen von A.
(iii) Sei B wie in (ii) und
C=
5 3
.
Die Matrix B hat eine Spalte und C hat eine Zeile. Also ist BC definiert und
gemäss Definition eine 2 × 2 Matrix. Es gilt
−5 −3
BC =
.
35 21
Da B zwei Zeilen hat, ist CB eine wohldefiniert 1 × 1 Matrix. Wir haben
CB = ((−1) · 5 + 3 · 7) ∈ Mat1 (Q).
Eine 1 × 1 Matrix können wir mit einem Element des Grundkörpers identifizieren.
38
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
(iv) Natürlich können wir auch Matrizen mit Koeffizienten in F2 multiplizieren. Seien
1 1
1 0
A=
und
1 1
1 0
B=
so gilt
AB =
1·1+1·1 1·1+1·0
1·1+0·1 1·1+0·0
=
0 1
1 1
.
(v) Sei K ein beliebiger Körper und
A=
a b
c d
∈ Mat2 (K).
Weiter oben haben wir die Einheitsmatrix in Matn (K) definiert. Für n = 2 erhalten wird
E2 = E =
1 0
0 1
.
Da A und E quadratische Matrizen mit der selben Anzahl Zeilen sind, sind sowohl AE
wie auch EA definiert. Wir rechnen leicht nach, dass
a·1+b·0 a·0+b·1
a b
AE =
=
= A.
c·1+d·0 c·0+d·1
c d
Wie sieht es mit dem Produkt EA aus?
1·a+0·c 1·b+0·d
a b
EA =
=
= A.
0·a+1·c 0·b+1·d
c d
Dieses Beispiel zeigt, dass En ein neutrales Element bezüglich der Multiplikation ist für
n = 2. Dies wird auch für jedes n ≥ 1 richtig sein.
(vi) Ist A wie im Beispiel (v) so überrascht es nicht, dass
A02,2 = 02,2
und
02,2 A = 02,2
gilt. Hier ist 02,2 die 2 × 2 Nullmatrix.
Definition 2.15. Sei K ein Körper und m ∈ N. Eine Matrix in Mat1,m (K) nennt man
auch Zeilenvektor (der Länge m). Entsprechend nennt man eine Matrix in Matm,1 (K)
auch Spaltenvektor (der Länge m).
Bemerkung 2.16. Sei K ein Körper und m, n ∈ N. Ist A = (ai,j )1≤i≤m,1≤j≤n ∈
Matm,n (K) so ist Av wohldefiniert für jeden Spaltenvektor v der Länge n. Das Produkt
ist eine Matrix Matm,1 (K), d.h. ein Spaltenvektor der Länge m.
39
2 Matrizenkalkül
Beispiel 2.17. Sei
A=
1 2 3
3 2 1

und

1
v= 0 
−1
so gilt
Av =
−2
2
.
Wir halten im nächsten Lemma einige Rechenregeln des Matrixprodukts fest.
Lemma 2.18. Sei K ein Körper und m, n, p, q ∈ N.
(i) Sei A ∈ Matm,n (K), B ∈ Matn,p (K) und C ∈ Matp,q (K). Dann gilt das Assoziativgesetz
(AB)C = A(BC).
(Man soll sich davon überzeugen, dass alle vier Produkte wohldefiniert sind, wie
vielen Spalten bzw. Zeilen hat das Produkt (AB)C?.)
(ii) Sind A, B ∈ Matm,n (K) und C ∈ Matn,p (K), so haben wir Distributivität
(A + B)C = AC + AC.
Liegt C in Matp,m (K), so gilt analog
C(A + B) = CA + CB.
(iii) Ist A ∈ Matm,n (K) so gilt
Em A = A = AEn .
D.h. Em ist ein neutrales Element falls m = n.
(iv) Für jedes A ∈ Matm,n (K) gilt
A0n,p = 0m,p
und
0p,m A = 0p,n .
Beweis. Die vier Aussagen lassen sich formal mit der Definition der Matrizenaddition
bzw. -multiplikation beweisen. Teil (iv) folgt, da a0 = 0a = 0 für alle a ∈ K.
Wir zeigen nur die Assoziativität des Matrixprodukts sowie AEn = A aus Teil (iii). Die
anderen Aussagen lassen sich ähnlich durch direktes “Ausrechnen” beweisen.
Um (i) zu zeigen, schreiben wir
A = (ai,j )1≤i≤m ,
1≤j≤n
40
B = (bj,k )1≤j≤n
1≤k≤p
und C = (ck,l )1≤k≤p .
1≤l≤q
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
Aus der Definition des MatrixproduktsPfolgt, dass der Eintrag von AB ∈ Matm,p (K) in
der i-ten Zeile und k-ten Spalte gleich nj=1 ai,j bj,k ist. Entsprechend ist der Eintrag von
(AB)C in der i-ten Zeile und l-ten Spalte gleich
!
p
p
n
n
X
X
X
X
ai,j bj,k ck,l
(2.6)
ai,j bj,k ck,l =
k=1
k=1 j=1
j=1
hier haben wir die Körperaxiome verwendet.
Wir müssen überprüfen, dass es sich bei (2.6) auch um den Eintrag von A(BC) in der
i-ten Zeilen
l-ten Spalte handelt. Der Eintrag von BC in der j-ten Zeile und l-ten
Pund
p
Spalte ist k=1 bj,k ck,l und entsprechend ist der Eintrag der i-ten Zeile und l-ten Spalte
von A(BC) gleich
!
p
p
n
n X
X
X
X
ai,j
bj,k ck,l =
ai,j bj,k ck,l
j=1
j=1 k=1
k=1
Aber diese Doppelsumme ist gleich (2.6), da die Summationsreihenfolge vertauscht werden darf.
Um die zweite Identität in (iii) zu zeigen, nehmen wir wie oben an, dass A = (ai,j )1≤i≤m
1≤j≤n
gilt mit ai,j ∈ K. Der Eintrag von En in der j-ten Zeile und k-ten Spalte soll mit ej,k
bezeichnet werden. Es gilt
1 : falls j = k,
ej,k =
0 : sonst.
Wir schreiben AEn = A0 mit A0 = (ai,k )1≤i≤m . Aus der Definition erhalten wir
1≤k≤n
a0i,k
=
n
X
ai,j ej,k .
j=1
In dieser Summe überlebt nur der Faktor mit j = k, ansonsten ist ej,k = 0. Es gilt daher
a0i,k = ai,k
für alle möglichen j und k.
Bemerkung 2.19. Die Assoziativität der Matrizenmultiplikation und die Eigenschaften
der Einheitsmatrix lassen erhoffen, dass irgendwo eine Gruppe versteckt ist. Dies ist
tatsächlich der Fall. Diese korrekt zu definieren, wird jedoch Zeit beanspruchen.
Definition 2.20. Sei K ein Körper und m ∈ N. Gegeben seien quadratische Matrizen
A, B ∈ Matm (K). Man sagt, dass B ein Rechtsinverses von A ist, falls AB = Em .
Analog bezeichnet man B als Linksinverses von A, falls BA = Em . Schliesslich nennt
man B Inverses von A, falls AB = BA = Em . Im letzten Fall sagen wir, dass A
invertierbar ist.
Es gibt zunächst keinen Grund anzunehmen, dass es zu einer Matrix A ein Links- oder
Rechtsinverses gibt!
41
2 Matrizenkalkül
Beispiel 2.21. Hier wollen wir an Beispielen erkunden, wann es ein Inverses bezüglich
der Matrizenmultiplikation gibt. Wir wollen uns dabei auf quadratische Matrizen in
Matn (K) beschränken, hier ist K wie immer ein Körper.
(i) Natürlich gilt En En = En2 = En . Dass heisst, En ist ihr eigenes Inverses.
(ii) Sei 0n die Nullmatrix. Für jede Matrix A ∈ Matn (K) gilt 0n A = A0n = 0n . Somit
besitzt 0n weder ein Links- noch ein Rechtsinverses.
(iii) Es gibt aber auch Matrizen ungleich der Nullmatrix, die weder ein Links- noch ein
Rechtsinverses besitzt. Dies lässt sich mit der Matrix
1 1
A=
∈ Mat2 (Q)
1 1
beweisen. Nehmen wir an, dass es B ∈ Mat2 (Q) mit AB = E2 gibt. Wir definieren
die Hilfsmatrix
1 −1
C=
∈ Mat2 (Q).
−1 1
Dann gilt (CA)B = C(AB) = CE2 = C wegen Assoziativität, und weil E2 die
Einheitsmatrix ist, siehe Lemma 2.18. Berechnen wir nun
0 0
CA =
= 02 ,
0 0
so erhalten wir 02 = 02 B = C. Dies ist ein Widerspruch. Also kann A kein Rechtsinverses besitzen. Unter Verwendung von CA = 02 zeigt eine ähnliche Rechnung,
dass A kein Linksinverses besitzt.
(iv) Die Matrix
1 1
0 1
∈ Mat2 (Q)
ist invertierbar. Ein Inverses ist durch
1 −1
∈ Mat2 (Q),
0 1
gegeben wie man leicht nachrechnet.
Lemma 2.22. Sei K ein Körper und m ∈ N.
(i) Sind A, B ∈ Matm (K) beide invertierbar, so ist auch AB invertierbar.
(ii) Ist A ∈ Matm (K) invertierbar, so ist auch jedes Inverse A0 von A invertierbar.
(iii) Die Menge der invertierbaren Matrizen zusammen mit dem Matrizprodukt bildet
eine Gruppe mit neutralem Element Em .
42
2.1 Matrizen: Summe, Skalarmultiplikation und Produkt
Beweis. Seien A0 und B 0 Inverse zu A und B 0 . Das heisst, A0 A = AA0 = Em und
B 0 B = BB 0 = Em . Wir behaupten, dass B 0 A0 ein Inverses zu AB ist. Dazu berechnen
wir
(AB)(B 0 A0 ) = A((BB 0 )A0 ) = A(Em A0 ) = AA0 = Em
und
(B 0 A0 )(AB) = B 0 ((A0 A)B) = B 0 (Em B) = Em ,
was für Teil (i) zu zeigen war.
Teil (ii) folgt sofort aus der Definition des Inversen.
Um Teil (iii) zu zeigen, muss man die Gruppenaxiome nachprüfen. Dass das Produkt
zweier invertierbaren Matrix wieder invertierbar ist, folgt aus Teil (i). Damit ist die Teilmenge der invertierbaren Matrizen in Matn (K) abgeschlossen unter dem Matrixprodukt.
Also ist die Verknüpfung wohldefiniert. Die Assoziativität dieser Verknüpfung folgt aus
Lemma 2.18(i). Dass Em ein neutrales Element ist, folgt aus Lemma 2.18(iii). Das ein
Inverses Elemente einer invertierbaren Matrix ebenfalls invertierbar ist, folgt aus Teil
(ii) dieses Lemmas.
Bemerkung 2.23. Aus dem Kapitel über Gruppentheorie, genauer aus Lemma 1.19(iii),
folgt nun, dass das Inverse einer invertierbaren Matrix eindeutig bestimmt ist.
Definition 2.24. Die Gruppe aus der vorherigen Definition wird mit GLn (K) bezeichnet. Sie heisst allgemeine lineare Gruppe. Die Inverse von A ∈ GLn (K) bezeichnen
wir mit A−1 .
Das letzte Lemma ist unbefriedigend, da es kein Rezept angibt, zu entscheiden wann eine
Matrix invertierbar ist. Wir wissen also abstrakt, dass die Gruppe GLn (K) existiert. Wir
können jedoch noch nicht sagen, welche Matrizen ihr angehören.
Für 2 × 2 Matrizen lässt sich GL2 (K) jedoch leicht bestimmen. Später werden wir mit
Hilfe der Determinante eine ähnliche Aussage für alle n erhalten.
Lemma 2.25. Sei K ein Körper und
a b
A=
∈ Mat2 (K).
c d
Dann gilt
A ∈ GL2 (K)
⇐⇒ ad − bc
6= 0.
Beweis. Da wir die Äquivalenz zweier Aussagen beweisen wollen, müssen wir beide Implikationen “⇐=” und “=⇒” beweisen.
Wir beginnen mit “⇐=”. Dazu setzen wir δ = ad − bc. Dies ist ein Element von K r {0}
nach Voraussetzung. Deshalb ist δ −1 ein wohldefiniertes Element von K. Wir setzen
−1
δ d −δ −1 b
d −b
−1
B=
=δ
−δ −1 c δ −1 a
−c a
43
2 Matrizenkalkül
und werden nun nachweisen, dass B das Inverse von A ist. Dazu rechnen wir
ad − bc −ab + ba
1 0
−1
=
= E2 .
AB = δ
cd − dc ad − bc
0 1
Also ist B zumindest ein Rechtsinverses von A. Eine ähnliche Rechnung zeigt BA = E2
und daraus folgt, dass A invertierbar ist.
Nun zeigen wir die andere Implikation “=⇒”. Nach Voraussetzung gibt es ein B ∈
Mat2 (K) mit AB = E2 . Wir definieren die Hilfsmatrix
d −b
C=
.
−c a
Diese erfüllt
CA =
ad − bc db − db
−ca + ca ad − bc
=
δ 0
0 δ
(2.7)
mit δ = ad − bc.
Wir möchten beweisen, dass δ 6= 0. Um dies zu tun nehmen wir das Gegenteil an, und
folgern einen Widerspruch. Falls δ = 0 so gilt wegen (2.7) CA = 02 = 0. Also haben wir
0 = 0B = (CA)B = C(AB) = CE2 = C.
Aus der Definition von C folgt nun A = 0. Aber die Nullmatrix kann unmöglich invertierbar sein. Dies haben wir schon weiter oben gesehen und daraus folgt der gewünschte
Widerspruch. Daher ist δ 6= 0 und das Lemma ist bewiesen.
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Ziel dieses Abschnitts ist es, lineare Gleichungssysteme systematisch mittels Matrizen
zu studieren.
Definition 2.26. Sei K ein Körper und m, n ∈ N.
sowie xj , bi ∈ K für 1 ≤ i ≤ m und 1 ≤ j ≤ n. Gilt


a1,1 x1 + a1,2 x2 + · · · +


 a2,1 x1 + a2,2 x2 + · · · +
..

.


 a x + a x + ··· +
m,1 1
m,2 2
Gegeben seien Elemente ai,j ∈ K
a1,n xn
a2,n xn
= b1
= b2
(2.8)
am,n xn = bm
so sagt man, dass (x1 , . . . , xn ) ∈ K n eine Lösung des inhomogenen linearen Gleichungssystems (2.8) ist. Sind b1 = b2 = · · · = bm = 0 so nennt man (x1 , . . . , xn ) ∈ K n
eine Lösung des homogenen Gleichungssystems (2.8).
Lineare Gleichungssysteme sind die einfachsten Gleichungen, die man nur unter Verwendendung der Körperaxiome aufschreiben kann. Lässt man höhere Potenzen xkj oder
44
2.2 Lineare Gleichungssysteme und Zeilenstufenform
gar gemischte Terme xk11 · · · xknn zu, so redet man von polynomialen Gleichungen. Diese
lassen sich nur mit viel grösserer Mühe behandeln; die dazugehörige Vorlesung heisst
Algebraische Geometrie.
Matrizen lassen sich verwenden, um das System (2.8) viel effizienter zu beschreiben. Sei
dazu A ∈ Matm,n (K) die Matrix A = (ai,j )1≤i≤m und
1≤j≤n


b1
 .. 
b =  .  ∈ Matm,1 (K)
bm
ein Spaltenvektor. Sei x = (x1 , . . . , xn ) ∈ Mat1,n (K) ein Zeilenvektor. Dann gilt
Ax = b
⇐⇒
(x1 , . . . , xn ) ist eine Lösung von (2.8).
Der Grund für diese Äquivalenz liegt in der Beobachtung, dass das Produkt der zwei
Matrizen A und x genau durch die linke Seite von (2.8) gegeben ist.
Natürlich ist die Notation Ax = b viel kompakter wie (2.8). Matrizen dienen jedoch nicht
nur der Kosmetik. Sie werden uns später helfen, lineare Gleichungssysteme zu lösen.
Definition 2.27. In Zukunft werden wir das inhomogene System (2.8) durch
[A|b]
abkürzen. Das homogene System (b = 0) lässt sich durch A alleine ausdrücken.
Bevor wir zur allgemeinen Theorie kommen, werden wir ein relativ einfaches Gleichungssytem von Hand lösen. Die Schritte, die wir dabei durchlaufen, werden wir später verallgemeinern.
Beispiel 2.28. Wir betrachten das homogene Gleichungssystem, welches durch die Matrix
0 2 −2
A=
∈ Mat2,3 (Q)
2 4 6
gegeben ist. Wir wollen alle Lösungen des homogenen Systems
2x2 − 2x3 = 0
2x1 + 4x2 + 6x3 = 0
bestimmen.
Zuerst nehmen wir an, dass der Spaltenvektor


x1
x =  x2 
x3
eine Lösung mit rationalen Koeffizienten ist. D.h. Ax = 0.
45
2 Matrizenkalkül
Natürlich ist x auch eine Lösung des homogenen Gleichungssystems, welches wir durch
das Vertauschen der zwei Zeilen von A erhalten:
2 4 6
0
A =
0 2 −2
Es gilt 2x1 + 4x2 + 6x3 = 0 und somit auch x1 + 2x2 + 3x3 = 0 nach Division durch 2.
Dies entspricht Multiplikation der ersten Zeile von A0 mit 1/2. Also gilt A00 x = 0 mit
1 2 3
00
A =
0 2 −2
Es gilt
x1 + 2x2 + 3x3 = 0 und
2x2 − 2x3 = 0.
Falls wir die zweite Gleichung von der ersten subtrahieren, so erhalten wir
x1 + 5x3 = 0.
Wir haben A000 x = 0 mit
000
A =
1 0 5
0 2 −2
Als letztes multiplizieren wir, ähnlich wie vorhin, die zweite Zeile von A000 mit 1/2 und
erhalten
1 0 5
0000
A =
0 1 −1
wobei immer noch A0000 x = 0 gelten muss. Setzen wir x hier ein, so ergibt sich
x1 = −5x3
und
x2 = x3 .
Wir haben bewiesen, dass jede Lösung x ∈ Q3 von Ax = 0 von der Form


−5
x =  1  t ist für ein t ∈ Q.
1
(2.9)
Hier haben wir x3 durch t ersetzt.
Umgekehrt sieht man sofort, dass jeder Spaltenvektor der Form (2.9) eine Lösung von
Ax = 0 ist.
Wir sagen, dass A0000 in Zeilenstufenform ist. Diesen Begriff werden wir später für
allgemeine Matrizen definieren.
Somit ist die Lösungsmenge bestimmt.
Insgesamt mussten wir drei verschiedene Zeilenumformungen durchführen, bis unsere
Matrix A in Zeilenstufenform war. Wir fassen diese zusammen.
A
46
Z1 und Z2 vertauschen
A0
Z1 mal 1/2
A00
Z1 durch Z1-Z2 ersetzen
A000
Z2 mal 1/2
A0000 .
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Wie schon angedeutet, kann man diese drei Zeilenumformungen in einem allgemeineren
Kontext durchführen.
Definition 2.29. Sei K ein Körper und m, n ∈ N. Sei A ∈ Matm,n (K) eine Matrix mit
Zeilen a1 , . . . , am (wir betrachten die ai als Zeilenvektoren).
Wir sagen, dass eine Matrix A0 ∈ Matm,n (K) durch Zeilenumformungen aus A entstehe, falls:
(I) die i-te Zeile ai von A durch ai +λaj ersetzt wurde, wobei λ ∈ K und 1 ≤ i 6= j ≤ n,
oder
(II) die i-te und j-te Zeilen von A vertauscht wurden wobei 1 ≤ i 6= j ≤ n, oder
(III) die i-te Zeile ai durch λai ersetzt wurde, wobei λ ∈ K r {0} und 1 ≤ i ≤ n.
Diese Umformungen werden wir als Zeilenumformung vom Typ I, II oder III bezeichnen.
Ein wichtiger Fakt im Zusammenhang mit Zeilenumformungen ist, dass sie durch Matrizenmultiplikation der sogenannten Elementarmatrizen entstehen.
Definition 2.30. Sei K ein Körper, m ∈ N

0
 ..
ei,j =  .
0
und 1 ≤ i, j ≤ m. Wir definieren

··· 0
. 
1 .. 
···
0
wobei sich die 1 in der i-ten Zeile und j-ten Spalte befindet, alle weiteren Einträge sind
0. Wir definieren drei Typen von Elementarmatrizen der Grösse m.
(I) Für 1 ≤ i 6= j ≤ m und λ ∈ K definieren wir

1
...



1 λ
E I (i, j, λ) = 

..

.




 = Em + λei,j .


1
In Worten: die Diagonaleinträge von E(i, j, λ) sind 1, ausserhalb der Diagonale
sind die Einträge 0, ausser in der i-ten Zeile und j-ten Spalte wo λ steht.
(II) Für 1 ≤ i 6= j ≤ m definieren wir

1

..
.



0
1

II
.

..
E (i, j) = 

1
0


...







 = Em − ei,i − ej,j + ei,j + ej,i .





1
47
2 Matrizenkalkül
(iii) Für 1 ≤ i ≤ m und λ ∈ K r {0} definieren

1
..

.


III
λ
E (i, λ) = 

..

.




 = Em − ei,i + λei,i .


1
Nun werden wir beweisen, dass die drei Zeilenumformungen durch Linksmultiplikation
der Elementarmatrizen induziert werden.
Lemma 2.31. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K).
(i) Seien 1 ≤ i 6= j ≤ n und λ ∈ K. Dann entsteht E I (i, j, λ)A durch A mittels einer
Zeilenumformung des Types I.
(ii) Seien 1 ≤ i 6= j ≤ n. Dann entsteht E II (i, j)A durch A mittels einer Zeilenumformung des Typs II.
(iii) Seien 1 ≤ i ≤ n und λ ∈ K r {0}. Dann entsteht E III (i, λ)A durch A mittels einer
Zeilenumformung des Typs III.
Beweis. Wir schreiben

a1,1 · · ·
 ..
A= .
am,1 · · ·
Seien 1 ≤ i 6= j ≤ n
dass i < j.
Es gilt

1
..

.


1 λ


..

.
1
und λ ∈ K. Wir nehmen ohne Beschränkung der Allgemeinheit an,
a1,1
  ..
 .

  ai,1
 .
  ..
···
am,1
···

hieraus folgt (i).
Wir berechnen

1

..
.



0
1

...



1
0


..

.
48

a1,n
..  ∈ Mat (K).
m,n
. 
am,n
···

 
a1,1
a1,n
..  
..
.  
.
 
ai,n  =  ai,1 + λaj,1

.. 
..
.  
.
am,n
am,1
a1,1
  ..
 .

  ai,1 · · ·
 .
  ..

 a
  j,1 · · ·
 .
  ..
1
am,1
···
···
ai,n + λaj,n
..
.
···
am,n
···
ai,i · · ·
ai,j · · ·
aj,i · · ·
aj,j · · ·
···
a1,n
..
.

a1,n
.. 
. 

ai,n 
.. 
. 
=
aj,n 

.. 
. 
am,n




.


2.2 Lineare Gleichungssysteme und Zeilenstufenform


a1,n
.. 
. 

aj,n 
.. 
. 
.
ai,n 

.. 
. 
am,n
···
a1,1
 ..
 .

 aj,1 · · ·
 .
 ..

 a
 i,1 · · ·
 .
 ..
am,1
aj,i · · ·
aj,j · · ·
ai,i · · ·
ai,j · · ·
···
Somit ist (ii) bewiesen.
Schlussendlich, sei λ ∈ K r {0}. Dann gilt







a1,1
  ..
 .

  ai,1
 .
  ..
···
am,1
···

1
...
λ
..
.
1
···
 
a1,n
a1,1
..   ..
.   .
 
ai,n  =  λai,1
 .
.. 
.   ..
am,n
am,1
···
···
···

a1,n
.. 
. 

λai,n  .
.. 
. 
am,n
Also ist (iii) wahr.
Beispiel 2.32. Sei
A=
3 7
−1 2
∈ Mat2 (Q).
Für λ ∈ Q gilt
I
E (2, 1, λ)A =
1 0
λ 1
0 1
1 0
1 0
0 λ
und
II
E (2, 1)A =
und
E
III
(2, λ)A =
3 7
−1 2
=
3 7
−1 2
3 7
−1 2
3
7
−1 + 3λ 2 + 7λ
−1 2
3 7
3
7
−λ 2λ
=
=
falls λ 6= 0.
Was passiert, wenn man hintereinander zweimal die Zeilen i und j vertauscht? Man
erhält natürlich die ursprüngliche Matrix.
Im nächsten Lemma verallgemeinern wir diese Beobachtung.
Lemma 2.33. Sei K ein Körper, wir betrachten Elementarmatrizen der Grösse m ∈ N.
(i) Für 1 ≤ i 6= j ≤ m und λ ∈ K gilt
E I (i, j, −λ)E I (i, j, λ) = Em .
49
2 Matrizenkalkül
(ii) Für 1 ≤ i 6= j ≤ m gilt
E II (i, j)E II (i, j) = Em .
(iii) Für 1 ≤ i ≤ m und λ ∈ K r {0} gilt
E III (i, λ−1 )E III (i, λ) = Em .
Weiterhin sind alle Elementarmatrizen invertierbar, d.h. sie liegen in GLm (K).
Beweis. Addiert man −λ mal die j-te Zeile zur i-ten Zeile von E I (i, j, λ) so erhält man
Em . Also folgt (i)
Vertauscht man zweimal hintereinander die selben zwei Zeilen so erhält man die ursprüngliche Matrix. Hieraus folgert man (ii)
Multipliziert man die i-te Zeile einer Matrix zuerst mit λ und anschliessend mit λ−1 , so
erhält man wiederum die ursprüngliche Matrix. Daraus folgt (iii)
Die Invertierbarkeit der Elementarmatrizen folgt schnell aus (i), (ii) und (iii). Wenden
wir bspw. (i) auf λ und −λ an, so folgt
E I (i, j, −λ)E I (i, j, λ) = Em = E I (i, j, λ)E I (i, j, −λ),
also ist E I (i, j, λ) invertierbar. Da E II (i, j) sein eigenes Rechts- und Linksinverses ist,
folgt, dass E II (i, j) invertierbar ist. Schliesslich folgt
E III (i, λ−1 )E III (i, λ) = Em = E III (i, λ)E III (i, λ−1 ).
aus (iii) angewendet auf λ und λ−1 .
Nun folgt leicht, dass Zeilenumformungen die Lösungsmenge eines linearen Gleichungssystems nicht verändern.
Lemma 2.34. Sei K ein Körper, m, n ∈ N, A ∈ Matm,n (K) und b ∈ Matm,1 (K) = K m
ein Spaltenvektor. Entsteht die ergänzte Matrix (A0 , b0 ) ∈ Matm,n+1 (K) durch endlich
viele Zeilenumformungen aus der ergänzten Matrix (A, b) so gilt
Ax = b ⇐⇒ A0 x = b0
für alle
x ∈ Matn,1 (K).
Beweis. Nach Voraussetzung und Lemma 2.31 gilt A0 = LA und b0 = Lb wobei L ein
endliches Produkt aus Elementarmatrizen E I (· · · ), E II (· · · ) und E III (· · · ) ist.
Wir wissen aus Lemma 2.33, dass Elementarmatrizen invertierbar sind. D.h. die Menge
aller invertierbarer Matrizen liegt in der Gruppe GLm (K). Also liegt auch L in GLm (K).
Insbesondere ist L invertierbar, d.h. L−1 existiert.
Wir erhalten
Ax = b =⇒ LAx = Lb =⇒ A0 x = b0
und andererseits
−1 0
−1 0
A0 x = b0 =⇒ L
| {zA} x = L b =⇒ Ax = b.
=L−1 (LA)
50
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Wir haben weiter oben in einem Beispiel die Matrix
0 2 −2
2 4 6
durch geeignete Zeilenumformungen in besonders einfache Form gebracht. Wir wollen
dies nun für alle Matrizen machen.
Definition 2.35.
Gestalt

0 ··· 0 1
 0 ··· 0 0

 0 ··· 0 0


 0 ··· 0 0
..
.. ..
.
. .
Sei K ein Körper und m, n ∈ N. Wir sagen, dass eine Matrix der
?
0
0
0
..
.
···
···
···
···
?
0
0
0
..
.
0
1
0
0
..
.
?
?
0
0
..
.
···
···
···
···
?
?
0
0
..
.
0
0
1
0
..
.
?
?
?
0
..
.
···
···
···
···
?
?
?
0
0
0
0
1
···
···
···
···
..
.




 ∈ Matm,n (K)


in Zeilenstufenform ist.
In Worten: Eine Matrix A ∈ Matm,n (K) ist in Zeilenstufenform genau dann, wenn
folgende drei Bedingungen erfüllt sind.
(i) Der erste Eintrag ungleich Null jeder Zeile von A ist 1. Diesen Eintrag nennt man
Pivoteintrag. (N.B.: nicht jede Zeile muss ein Pivoteintrag besitzen, d.h. es darf
Nullzeilen geben. Aber es gibt stets höchstens ein Pivoteintrag. In der Matrix oben
sind die Pivoteinträge in einem Quadrat hevorgehoben.)
(ii) Ist die i-te Zeile ungleich Null und i ≥ 2, so ist auch die (i − 1)-te Zeile ungleich
Null. Weiterhin steht der Pivoteintrag der i-ten Zeile rechts des Pivoteintrags der
(i − 1)-ten Zeile.
(iii) Die Einträge oberhalb eines Pivoteintrags sind 0.
Beispiel 2.36.
(i) Die Matrizen

 

1 0 0
0 0 0
1 0 5
1
1
0
, 0 1 0 , 0 0 0 ,
0 1 −1
0 0 1
0 0 1
0 0 0
sind in Zeilenstufenform.
Die Matrix


0 0 0
 0 1 0 
0 0 0
ist nicht in Zeilenstufenform. Vertauscht
erhält man

0 1
 0 0
0 0
man jedoch die ersten zwei Zeilen so

0
0 
0
und diese Matrix ist in Zeilenstufenform.
51
2 Matrizenkalkül
(ii) Wir werden das inhomogene lineare Gleichungssystem




 
x
1 2 −2 3 
1

y


 5 7 −3 1 
 1 
 z =b=
2 6 −8 0
1
|
{z
} w
=A
lösen.

1 2 −2 3 1
(A|b) =  5 7 −3 1 1  .
2 6 −8 0 1

Oben links in A steht bereits eine Eins.
Schritt 1: Wir führen zweimal eine Typ I Zeilenumformung auf (A|b) an. Wir
addieren −5 mal Zeile 1 zu 2 und −2 mal Zeile 1 zu Zeile 3. und Also


1
1 2 −2 3
(A0 |b0 ) =  0 −3 7 −14 −4  .
0 2 −4 −6 −1
Schritt 2: Nun führen wir eine Typ II Zeilenumformung auf (A0 |b0 ) aus. Genauer,
wir vertauschen die Zeilen 2 und 3 und erhalten


1
1 2 −2 3
(A00 |b00 ) =  0 2 −4 −6 −1  .
0 −3 7 −14 −4
Schritt 3: Wir führen eine Zeilenumformung vom Typ III an und multiplizieren
Zeile 2 mit 1/2 und erhalten


1
1 2 −2 3
(A000 |b000 ) =  0 1 −2 −3 −1/2  .
0 −3 7 −14 −4
Schritt 4: Jetzt möchten wir in der zweiten Spalte oben und unten eine Null
erzwingen. Hierfür sind zwei Typ I Zeilenumformungen nötig. Wie addieren −2
mal Zeile 2 zu Zeile 1 und 3 mal Zeile 2 zu Zeile 3. Das Ergebnis ist


2
1 0 2
9
(A0000 |b0000 ) =  0 1 −2 −3 −1/2  .
0 0 1 −23 −11/2
Schritt 5: Schliesslich addieren wir −2
zu Zeile 2. Wir erhalten

1 0
(A00000 |b00000 ) =  0 1
0 0
52
mal Zeile 3 zu Zeile 1 und 2 mal Zeile 3

13
0 55
0 −49 −23/2  .
1 −23 −11/2
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Diese Matrix ist nun in Zeilenstufenform.
hat die Form
x
+55w
y
−49w
z −23w
Das entsprechende Gleichungssystem
= 13
= −23/2
= −11/2.
Die Lösungsmenge des ursprünglichen (wie auch des neuen) Gleichungssystems ist



−55w + 13







49w
−
23/2

 : t ∈ Q ⊆ Q4 .
 23w − 11/2 






w
Wir zeigen jetzt, dass sich jede Matrix durch Zeilenumformungen in Zeilenstufenform
bringen lässt.
Später werden wir sehen, wie man durch hinstarren lineare Gleichungssyteme lösen kann,
wenn die dazugehörige Matrix in Zeilenstufenform ist.
Lemma 2.37. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K). Dann lässt sich
jede Matrix in Matm,n (K) nach endlich vielen Zeilenumformungen in Zeilenstufenform
bringen.
Beweis. Der Beweis ist per Induktion auf m + n. Im Fall A = 0 gibt es nichts zu zeigen.
Also nehmen wir A 6= 0 an.
Die erste Spalte von A könnte Null sein. Aber nachdem wir, falls nötig, eine Zeilenvertauschung (Typ II) gemacht haben, enthält die erste Spalte die ungleich Null ist ein
Element ungleich Null in der ersten Zeile. Das heisst, wir erhalten

A
Typ II
(falls nötig)


A0 = 

0 ···
0 ···
..
.
0 ···

a ···
? ··· 


..

.
0 ? ···
0
0
..
.
mit a 6= 0.
Da a 6= 0 erlauben wir uns eine Zeilenumformung des Typs III und multiplizieren die
erste Zeile mit a−1 . Wir erhalten

A0
Typ III


A00 = 

0 ···
0 ···
..
.
0 ···

0 1 ···
0 a2 · · · 


.. ..

. .
0 am · · ·
mit a2 , . . . , am ∈ K.
Nun wenden wir Zeilenumformungen des Typs I an und subtrahieren a2 mal Zeile eins
von Zeile zwei. Dann subtrahieren wir a3 mal Zeile eins von Zeile drei, usw. usw. Dies
hat zur Folge, dass unter der führenden 1 der erste Zeile nur die 0 steht. Also
53
2 Matrizenkalkül

00 Typ I
A |
·{z
··


}A = 

Typ I
m−1 mal
000

1 ···
0 ··· 
0 1 b

=
..
0 0 C

.
0 0 ···
0 ···
0 ···
..
.
0
0
..
.
0 ···
wobei b ein Zeilenvektor und C eine Matrix mit m − 1 Zeilen ist.
Nun wenden wir das oben angegebene Vorgehen induktiv auf C an. Die dabei auftretenden Zeilenumformungen beeinflussen die erste Zeile von A000 nicht. Nach einer Induktion
auf m erhalten wir


0 ··· 0 1 ? ··· ? ? ? ··· ? ? ? ··· ? ? ···
 0 ··· 0 0 0 ··· 0 1 ? ··· ? 0 ? ··· ? 0 ··· 


induktiv


A000
A0000 =  0 · · · 0 0 0 · · · 0 0 0 · · · 0 1 ? · · · ? 0 · · ·  .
 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 1 ··· 


..
.. .. ..
.. .. ..
.. .. ..
..
.
.
. . .
. . .
. . .
Die Matrix A0000 ist noch nicht ganz in Zeilenstufenform: die markierten Einträge oberhalb
der Pivoteinträge von C sind vielleicht noch nicht 0. Dieses Problem lässt sich jedoch
leicht lösen. Mit Hilfe von Zeilenumformungen des Typs I lassen sich auch auf diese
Werte eliminieren:
A0000
Typ I
···
Typ I
A00000
ist in Zeilenstufenform.
Proposition 2.38. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K) eine Matrix in
Zeilenstufenform. Sei r die grösste ganze Zahl in {1, . . . , m} mit der Eigenschaft, dass
die r-te Zeile von A keine Nullzeile ist. Sei


b1


b =  ... 
bm
ein Spaltenvektor.
Das lineare Gleichungssystem

Ax = b mit

x1


x =  ...  ∈ Matm,1 (K)
xn
(2.10)
hat genau dann eine Lösung x, wenn br+1 = br+2 = · · · = bm = 0.
Nehmen wir an, dass eine Lösung existiert und seien j1 < j2 < · · · < jk die Spalten von
A, welche keinen Pivoteintrag enthalten. Dann gibt es zu jeder Wahl von xj1 , . . . , xjk ∈ K
genau eine Lösung x wie in (2.10).
54
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Beweis. Eine Lösung des Gleichungssystem erfüllt
xt1 + a1,t1 +1 xt1 +1 · · ·
= b1 ,
= b2 ,
xt2 + a2,t2 +1 xt2 +1 + · · ·
...
xtr + ar,tr +1 xtr +1 · · ·
= br ,
0 = br+1 ,
..
.
0 = bm
wobei t1 , t2 , . . . die Spalten von A bezeichnen, die ein Pivoteintrag enthalten.
Somit ist br+1 = · · · = bm = 0 ein notwendiges Kriterium für die Existenz einer Lösung.
Umkehrt ist dies auch ein hinreichendes Kriterium. Nehmen wir also br+1 = · · · = bm = 0
an. Sind xtr +1 , . . . , xm ∈ K beliebig, so lässt sich ein eindeutiges xtr ∈ K finden, so dass
die letzte nichttriviale Gleichung oben erfüllt ist. Man findet also ein xtr−1 ∈ K welches
die zweitletzte nichttriviale Gleichung löst, dabei kann man xtr−1 +1 , . . . , xtr −1 frei wählen.
Dieses “rückwärts-aufwärts” Lösen setzt man fort, bis man ganz oben links angelangt
ist.
Beispiel 2.39. Die Matrix
A=
1
0
2
0
0
1
5
−2
∈ Mat2,4 (Q)
ist in Zeilenstufenform; die Pivoteinträge sind umrandet.
Wir wollen das inhomogene System

x1
 x2
7
Ax =
in x = 
 x3
−3
x4




lösen. Gemäss Proposition 2.38 existiert eine Lösung und wir können x2 und x4 frei
wählen.
Die Lösungsmenge ist also



−2x
−
5x
+
7


2
4





x
2

 ; x2 , x4 ∈ Q .


2x4 − 3






x4
Zur Erinnerung, gegeben eine Matrix A ∈ Matm,n (K) mit K ein Körper, so definiert
Ax = 0 mit x ∈ Matn,1 (K)
ein lineares Gleichungsssytem bestehend aus m homogenen linearen Gleichungen in n
Unbekannten. Der Nullvektor x ist natürlich immer eine Lösung. Diese Lösung nennt
man die triviale Lösung.
Folgendes Korollar impliziert, dass ein überbestimmtes homogenes lineares Gleichungssystem (diejenige mit n > m) eine nicht triviale Lösung besitzt.
55
2 Matrizenkalkül
Korollar 2.40. Sei K ein Körper m, n ∈ N mit n > m und A ∈ Matm,n (K). Dann
existiert ein Spaltenvektor x ∈ K n r {0} mit Ax = 0.
Beweis. Wegen Lemmata 2.34 und 2.37 dürfen wir annehmen, dass A in Zeilenstufenform
ist.
Jetzt werden wir Proposition 2.38 anwenden. Sei k die Anzahl Spalten von A welche
keinen Pivoteintrag enthalten. Wäre nun k = 0, so enthielte jede Spalte von A einen
Pivoteintrag und es gäbe deren insgesamt mindestens n Stück. Da es mindestens soviele
Zeilen wie Pivoteinträge geben muss, folgt m ≥ n. Dies ist ein Widerspruch.
Es muss also k ≥ 1 gelten. Nun sind k Einträge von x wie in Proposition 2.38 frei
wählbar. Inbesondere gibt es eine Lösung von Ax = 0 mit x 6= 0.
Nun können wir eine für die Theorie wichtige Aussage beweisen. Eine quadratische
Matrix besitzt ein Rechtsinverses genau dann, wenn sie ein Linksinverses besitzt.
Proposition 2.41. Sei K ein Körper und m ∈ N. Seien A, B ∈ Matm (K) quadratische
Matrizen mit AB = Em . Dann gilt BA = Em . Insbesondere sind A und B invertierbar.
Beweis. Wegen Lemmata 2.31 und 2.37 gibt es ein Produkt L ∈ Matm (K) aus endlich
vielen Elementarmatrizen mit LA in Zeilenstufenform.
Die Matrix L ist invertierbar, weil sie ein endliches Produkt aus Elementarmatrizen ist,
siehe Lemma 2.33.
Der Pivoteintrag eine Zeile ungleich Null von LA steht rechts des Pivoteintrags der
vorhergehenden Zeile von LA. Weil LA quadratisch ist, muss eine der zwei folgenden
Aussagen wahr sein.
(i) Das Produkt LA ist die Einheitsmatrix Em .
(ii) Die letzte Zeile von LA ist 0.
Wir wollen den zweiten Fall ausschliessen. Trifft er doch zu, so ist auch die letzte Zeile
von
(LA)B = L(AB) = L
(2.11)
Null. Also müsste auch die letzte Zeile von LL−1 = Em gleich 0 sein. Dies ist ein
Widerspruch.
Folglich sind wir im Fall (i) und es gilt LA = Em . Wir multiplizieren von links mit L−1
und erhalten L−1 = L−1 (LA) = (L−1 L)A = A. Also ist zumindest A invertierbar, da
L und L−1 invertierbar sind. Aus AB = Em folgt nun L = L(AB) = (LA)B = B und
somit ist auch B invertierbar.
Also liegen A und B in der Gruppe GLm (K). Lemma 1.19(i) impliziert BA = Em .
Die eben bewiesene Proposition und deren Beweis impliziert folgende Aussage.
Lemma 2.42. Sei A ∈ Matm (K) eine Matrix und L ein endliches Produkt aus Elementarmatrizen mit der Eigenschaft, dass LA in Zeilenstufenform ist. Dann ist genau
dann A invertierbar, wenn LA die Einheitsmatrix ist. In diesem Fall gilt L = A−1 . Is A
nicht invertierbar, so ist die letzte Zeile von LA eine Nullzeile.
56
2.2 Lineare Gleichungssysteme und Zeilenstufenform
Beweis. Ist A invertierbar, so folgt die Aussage wie im Beweis der Proposition. Ist LA
die Einheitsmatrix, so L = A−1 wegen der Aussage besagter Proposition. Falls A nicht
invertierbar ist, so folgt die letzte Aussage wie im Beweis der Proposition.
Wir halten zwei nützliche Konsequenzen fest.
(i) Bringen wir eine quadratische Matrix in Zeilenstufenform, so können wir entscheiden, ob die ursprüngliche Matrix invertierbar ist oder nicht.
(ii) Ist eine quadratische Matrix A invertierbar, und ist L ein Produkt aus Elementarmatrizen mit der Eigenschaft, dass LA Zeilenstufenform hat, so ist die Matrix L
die Inverse von A.
Diese Bemerkung erläutern wir an einem Beispiel.
Beispiel 2.43. Sei


1 1 1
A =  2 3 4  ∈ Mat3 (Q).
4 9 16
Wir wollen die Erkenntnis aus der letzten Bemerkung benutzen, um zu entscheiden ob
A invertierbar ist.
Also bringen wir A durch Zeilenumformungen in Zeilenstufenform. Wir werden jede Zeilenumformung parallel an der Einheitsmatrix E3 durchführen. Dies wird schlussendlich
die Matrix L aus der Bemerkung liefern.
Schritt 1. Wir subtrahieren 2 mal Zeile 1 von Zeile 2 und 4 mal Zeile 1 von Zeile 3.
Wir erhalten


1 1 1
Typ I Typ I
A
A0 = E I (3, 1, −4)E I (2, 1, −2)A =  0 1 2 
0 5 12
und parallel

E3
Typ I

1 0 0
Typ I
E 0 = E I (3, 1, −4)E I (2, 1, −2)E3 =  −2 1 0  .
−4 0 1
Schritt 2. Der Eintrag in Zeile 2, Spalte 2 von A0 ist schon 1. Somit bleiben uns Zeilenumformungen des Typs II und III erspart. Wir subtrahieren Zeile 2 von Zeile 1 und
dann 5 mal Zeile 2 von Zeile 3. Dies ergibt


1 0 −1
Typ I Typ I
A0
A00 = E I (3, 2, −5)E I (1, 2, −1)A0 =  0 1 2  .
0 0 2
Wir führen wieder die selben Umformungen parallel an E 0 aus und erhalten


3 −1 0
Typ I Typ I
E0
E 00 = E I (3, 2, −5)E I (1, 2, −1)E 0 =  −2 1 0  .
6 −5 1
57
2 Matrizenkalkül
Schritt 3. Der Eintrag in Zeile 3 und Spalte 3 von A00
Zeile 3 mit 1/2 in A00 und E 00 und erhalten dabei

1
00 Typ III
000
III
00

0
A
A = E (3, 1/2)A =
0
und
ist 2. Wir multiplizieren also

0 −1
1 2 
0 1


3
−1
0
Typ III
1
0 .
E 000 = E III (3, 1/2)E 00 =  −2
E 00
3 −5/2 1/2
Schritt 4. Die Matrix A000 ist fast in Zeilenstufenform. Wir müssen noch 2 mal eine Zeilenumformung des Types I durchführen. Explizit müssen wir Zeile 3 zu Zeile 1 addieren
und dann 2 mal Zeile 3 von Zeile 2 subtrahieren. Also


1 0 0
Typ ITyp I
A000
A0000 = E I (2, 3, −2)E I (1, 3, 1)A000 =  0 1 0 
0 0 1
und schon ist A0000 in Zeilenstufenform. Folglich ist A invertierbar. Dieselbe Umformungen führen wir an E 000 aus und kriegen


6 −7/2 1/2
Typ ITyp I
6
−1  .
E 000
E 0000 = E I (2, 3, −2)E I (1, 3, 1)E 000 =  −8
3 −5/2 1/2
Weshalb haben wir die Einheitsmatrix mittransformiert? Wenn man den ganzen Prozess
betrachtet so haben wir
E3 = A0000 = E I (2, 3, −2) · · · E I (2, 1, −2) A
{z
}
|
L
die gleichen Umformungen haben wir an E3 unternommen, also
E 0000 = E I (2, 3, −2) · · · E I (2, 1, −2)E3 .
Somit ist E 0000 = L die Inverse von A.
Eine kurze Kontrollrechnung zeigt auch


 

6 −7/2 1/2
1 1 1
1 0 0
 −8
6
−1   2 3 4  =  0 1 0  .
3 −5/2 1/2
4 9 16
0 0 1
Lemma 2.44. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Die folgenden Aussagen
sind äquivalent.
(i) Die Matrix A ist invertierbar.
58
2.3 Eine Anwendung: PageRank
(ii) Das homogene Gleichungssystem Ax = 0 hat nur die Lösung x = 0 ∈ K m .
Beweis. Wir zeigen zuerst die einfachere Richtung “(i)⇒(ii)”.
Sei also x ∈ K m eine Lösung Ax = 0. Wir multiplizieren diese Gleichung von links mit
A−1 und erhalten A−1 Ax = A−1 0 = 0. Es folgt x = 0.
Nun zu “(ii)⇒(i)”. Wegen Lemmata 2.31 und 2.37 gibt es ein endliches Produkt L ∈
Matm (K) aus Elementarmatrizen mit LA in Zeilenstufenform.
Es gibt nichts zu zeigen, falls A invertierbar ist.
Nehmen wir also die Negation aus, daraus wird ein Widerspruch folgen. Aus Lemma
2.42 folgt, dass unsere neue Matrix die Gestalt
0 A
LA =
0
hat, wobei A0 ∈ Matm−1,m (K). Wegen Korollar 2.40 gibt es ein x ∈ K m r {0} mit
A0 x = 0. Die letzte Zeile von LA bereitet keine Probleme: es gilt auch LAx = 0. Nun
ist L invertierbar, somit haben wir 0 = L−1 LAx = Ax. Dies ist ein Widerspruch zu Teil
(ii).
2.3 Eine Anwendung: PageRank
Eine Suchanfrage bei Google kann mehrere millionen Suchtreffen liefern. Erfahrungsgemäss sind die Suchergebnisse meistens so sortiert, dass die relevanten Resultate weiter
vorne auftauchen. Wie bewertet Google die Seiten nach ihrer Relevanz?
Der Algorithmus, den Google einsetzt heisst PageRank und ist eine prominente Anwendung der linearen Algebra. Wir werden in diesem Abschnitt eine vereinfachte Version
des PageRank Algorithmus vorstellen.
Das Ziel dieses Algorithmus ist es, jeder Webseite einen “Bekanntheitsgrad” zuzordnen. Die Menge aller Webseiten wird mit {1, 2, . . . , M } bezeichnet. Jeder Webseite
i ∈ {1, 2, . . . , M } wird eine reelle Zahl xi mit 0 ≤ xi ≤ 1 zugeordnet, dies ist der
Bekanntheitsgrad von i. Je höher der Bekanntheitsgrad, desto weiter oben im Suchergebnis wird die Webseite auftauchen, falls sie dem Suchkriterion entspricht. D.h. die
Resultate werden in absteigender Reihenholge ihrer Bekanntheit dargestellt.
Die Berechnung des Bekanntheitsgrad basiert auf dem folgenden Modell. Bekanntlich
sind Webseiten untereinander verlinkt. Webseite auf die besonders häufig verwiesen werden, sollen als wichtiger gewichtet werden.
Eine Webseite i ∈ {1, 2, . . . , M } verlinkt dabei auf Ni ≥ 0 verschiedene Webseiten. Die
xi erfüllen die folgenden zwei Regeln.
(i) Eine Webseite j verteilt an alle Webseiten auf die j verlinkt seinen Bekanntheitsgrad mit Gewicht 1/Nj . Hat eine Webseite j keine Verweise nach aussen (also
Nj = 0), so verteilt diese Seite seinen Bekanntheitsgrad gleichmässig, also mit Gewicht 1/(M − 1), auf alle anderen Seiten. Der Sachverhalt drückt sich in folgender
59
2 Matrizenkalkül
Gleichung aus
xi =
M
X
j=1,j6=i
j verlinkt auf i
M
X
xj
xj
+
Nj j=1,j6=i M − 1
für alle i ∈ {1, . . . , M }.
(2.12)
Nj =0
(ii) Der gesamte Bekanntheitsgrad im Internet ist auf 1 normiert. Dies drückt sich
durch
x1 + x2 + · · · + xM = 1
(2.13)
aus.
Die Gleichungen (2.12) und (2.13) bilden ein inhomogenes lineares Gleichungssystem.
Ingesamt gibt es M + 1 Gleichungen und M Unbekannte.1 An dieser Stelle begnügen
wir uns damit, ein Beispiel mit M = 5 Webseiten durchzurechnen. Schwarze Pfeile
repräsentieren Verweise.
4. www.mathoverflow.net
1. www.unibas.ch
5. www.google.com
3. www.arxiv.org
2. www.wikipedia.org
Wir stellen das zum Beispiel zugehörige inhomogene Gleichungssystem auf. Dazu halten
wir zuerst
N1 = 2,
1
N2 = 3,
N3 = 0,
N4 = 1,
N5 = 4
Man kann ganz allgemein beweisen, dass diese System eine eindeutige Lösung besitzt. Wir werden
dieses Problem in einem späteren Kapitel aufgreifen.
60
2.3 Eine Anwendung: PageRank
fest
−x1 + x32 + x43
x1
− x2 + x43
2
x1
+ x32 − x3 + x4
2
x3
− x4
4
x3
x2
+
3
4
x1 + x2 + x3 + x 4
+ x45
+ x45
+ x45
+ x45
− x5
+ x5
= 0,
= 0,
= 0,
= 0,
= 0,
= 1.
Die (eindeutige) Lösung ist
4 3 34 5 16
(x1 , x2 , x3 , x4 , x5 ) =
, ,
, ,
= (0.19 . . . , 0.21 . . . , 0.32 . . . , 0.11 . . . , 0.15 . . .)
21 14 105 42 105
Die Reihenfolge ist also
1. www.arxiv.org
2. www.wikipedia.org
3. www.unibas.ch
4. www.google.com
5. www.mathoverflow.net
61
3 Die Determinante einer Matrix
Sei K ein Körper. Eine 1 × 1 Matrix (a) besteht aus nur einem Eintrag a ∈ K. Diese
Matrix ist genau dann invertierbar, wenn a 6= 0.
Für eine 2 × 2 Matrix
a b
A=
∈ Mat2 (K)
c d
ist die Situation schon etwas komplizierter, wie wir in Lemma 2.25 gesehen haben. In
der Tat ist A invertierbar, genau dann wenn
ad − bc 6= 0.
(3.1)
Wir können für eine beliebige m × m Matrix A ∈ Matm (K) entscheiden, ob sie invertierbar ist oder nicht, in dem wir sie in Zeilenstufenform bringen. Das ist aber nicht in
jeder Situation praktikabel.
In diesem Kapitel werden wir jeder quadratischen Matrix A ein Element aus K zuordnen, welches genau dann ungleich 0 ist, wenn A invertierbar ist. Dieses Element heisst
Determinante von A.
Wir definieren zuerst ad hoc die Determinante einer 1 × 1 und einer 2 × 2 Matrizen:
det(a) = a.
und
det
a b
c d
= ad − bc.
Im Laufe des Kapitels werden wir die Determinante auf quadratische Matrizen beliebiger
Grösse verallgemeinern. Diese Definition stimmt mit den zwei ad hoc Definitionen oben
überein.
Eine zentrale Eigenschaft der Determinanten von 2×2 Matrizen ist die Multiplikativität.
Lemma 3.1. Sei K ein Körper und A, B ∈ Mat2 (K). Es gilt
det(AB) = det(A) det(B).
Beweis. Übungsaufgabe auf Serie 7.
Auch diese Eigenschaft verallgemeinert sich auf quadratische Matrizen beliebiger Grösse.
63
3 Die Determinante einer Matrix
3.1 Permutationen
Es gibt mehrere (äquivalente) Definitionen für die Determinante einer m×m Matrix. Wir
werden die Determinante über die sogenannte Leibnizformel einführen. Ein alternativer
Zugang ist über die Laplaceentwicklung. Wir werden im Laufe des Kapitels beweisen,
dass beide Definitionen den gleichen Wert liefern.
Um die Determinante mittels der Leibnizformel einzuführen, brauchen wir den Begriff
der Permutation und der symmetrischen Gruppe.
Wir haben im Kapitel über Gruppentheorie die symmetrische Gruppe auf einer beliebigen Menge kennengelernt, cf. Beispiel 1.17(iii). Im Zusammenhang mit der Determinante
reicht es aus, die symmetrische Gruppe auf endlichen Mengen zu betrachten.
Definition 3.2. Sei n ∈ N = {1, 2, . . . }. Die symmetrische Gruppe Sn (auf {1, 2, . . . , n})
besteht aus allen bijektiven Abbildungen σ : {1, 2, . . . , n} → {1, 2, . . . , n}, die sogenannten Permutationen. Die Verknüpfung ist durch die Verknüfung von Abbildungen gegeben. Das Einselement der Gruppe ist die Identitätsabbildung Id(i) = i für i ∈ {1, . . . , n}.
Die Inversionsabbildung ordnet jeder Permutation σ ihre Umkehrabbildung σ −1 zu.
Es handelt sich um die Gruppe S{1,2,...,n} aus Beispiel 1.17(iii).
Sind σ1 , σ2 ∈ Sn zwei Permutationen so bezeichnet σ2 ◦ σ1 ∈ Sn ihre Verknüpfung
Eine Permutation σ : {1, 2, . . . , n} → {1, 2, . . . , n} können wir tabellarisch wie folgt
darstellen
k
σ(k)
1
2
3
···
σ(1) σ(2) σ(3) · · ·
n
σ(n)
Dabei kommt in der zweiten Zeile jedes Element von {1, 2, . . . , n} genau einmal vor.
Die Zahlen in der zweiten Zeile sind womöglich nicht mehr in aufsteigender Reihenfolge.
Daher der Begriff Permutation.
Beispiel 3.3. Die Gruppe S2 enthält nur Id und σ mit
k
Id(k)
1 2
1 2
und
k
σ(k)
1 2
2 1
Hier ist Id die Identitätsabbildung. Was ist σ ◦ σ = σ 2 ? Rechnen wir nach! Es gilt
σ 2 (1) = σ(σ(1)) = σ(2) = 1
und
σ 2 (2) = σ(σ(2)) = σ(1) = 2
und somit σ 2 = Id.
Die Kardinalität der symmetrische Gruppe Sn nimmt mit wachsendem n stark zu.
Lemma 3.4. Für n ∈ N gilt
#Sn = n! = n · (n − 1) · · · · · 2 · 1.
64
3.1 Permutationen
Beweis. Die Kardinalität #Sn ist die Anzahl bijektiver Abbildungen {1, . . . , n} → {1, . . . , n}.
Wieviele Möglichkeiten gibt es hierfür?
Für σ(1) gibt es zunächst die n Möglichkeiten {1, . . . , n}. Ist σ(1) einmal “gewählt”
so darf σ(2) jeden Wert in {1, . . . , n} ausser der σ(1) annehmen; wir wollen, dass σ
injektiv ist. Also bleiben n − 1 Möglichkeiten für σ(2). Analog gibt es für σ(3) genau
n − 3 mögliche Werte, nämlich {1, . . . , n} r {σ(1), σ(2)}. Dies führen wir weiter und
finden insgesamt
n(n − 1) · · · 2 · 1 = n!
Möglichkeiten für die Werte von σ. Hieraus ergibt sich die Behauptung.
Also hat #S10 mit 3628800 mehr als drei Millionen Elemente! Die Gruppen Sn werden
also schnell unübersichtlich gross.
Wir können aber trotzdem mit diesen Gruppen arbeiten, den ihre Elemente sind aus
einfachen Bausteinen aufgebaut: den Transpositionen.
Definition 3.5. Sei n ∈ N. Eine Transposition ist eine Permutation τ ∈ Sn , die
genau zwei Elemente aus {1, . . . , n} vertauscht. D.h. es gibt i, j ∈ {1, . . . , n} mit i 6= j
und
τ (i) = j,
τ (j) = i
Bemerkung 3.6.
sowie τ (k) = k
für alle
k ∈ {1, . . . , n} r {i, j}.
(i) Ist τ eine Transposition, so werden nur zwei Zahlen vertauscht
k
τ (k)
1 ···
1 ···
i − 1 i i + 1 ···
i − 1 j i + 1 ···
j − 1 j j + 1 ···
j − 1 i j + 1 ···
n
n
hier wurde der Fall 1 < i < j < n dargestellt.
(ii) Für jede Transposition τ gilt τ 2 = Id, denn wenn man die selben Zahlen zweimal
hintereinander vertauscht, passiert insgesamt nichts.
Beispiel 3.7. (i) Das Elemente von S2 welches nicht das Einselement ist, ist eine
Transposition.
(ii) Die Permutation σ ∈ S3 die durch
k
σ(k)
1 2 3
2 3 1
gegeben ist, ist keine Transposition.
Die folgenden zwei Permutationen sind Tranpositionen
k
τ1 (k)
1 2 3
1 3 2
und
k
τ2 (k)
1 2 3
2 1 3
Deren Produkt ist
τ2 ◦ τ1 = σ.
65
3 Die Determinante einer Matrix
Obwohl nicht jede Permutation in Sn eine Transposition ist, kann man jede Permutation
als Produkt von endlich vielen Transpositionen schreiben. Dies ist der Inhalt des nächsten
Lemmas.
Lemma 3.8. Sei n ∈ N und σ ∈ Sn . Dann gibt es Transpositionen τ1 , . . . , τN ∈ Sn mit
σ = τN ◦ · · · ◦ τ1 .
Beweis. Wir beweisen das Lemma über Induktion. Die Induktion ist über den Defekt
einer Permutation. Diese definieren wir wie folgt.
Sei σ ∈ Sn . Falls σ = Id, so defineren wir D(σ) = 0. Falls σ 6= Id dann gibt es einen
Index i ∈ {1, . . . , n} mit
σ(1) = 1,
σ(2) = 2,
...
σ(i − 1) = i − 1 und σ(i) 6= i.
(3.2)
Es muss zwangsläufig i ≤ n − 1 gelten. Der Defekt von σ ist
D(σ) = n − i ≥ 1.
Sei nun σ ∈ Sn beliebig. Falls D(σ) = n, so ist σ = Id. In diesem Fall ist nichts zu
zeigen, da σ das leere Produkt aus Transpositionen ist.
Wir nehmen nun an, dass D(σ) ≥ 1 und dass jede Permutation in Sn mit Defekt
höchstens D(σ) − 1 ein Produkt aus Transpositionen ist. Sei i = n − D(σ). Nach Definition gilt σ(i) = j 6= i. Da σ injektiv ist, muss j > i gelten. Sei nun τ ∈ Sn die
Transposition, welche i und j vertauscht.
Wir behaupten
D(τ ◦ σ) < D(σ).
(3.3)
Falls k ∈ {1, . . . , i − 1} so gilt σ(k) = k wegen (3.2) und τ (σ(k)) = τ (k) = k weil
k < i < j. Weiterhin haben wir τ (σ(i)) = τ (j) = i nach der Wahl von τ . Also ist τ ◦ σ
entweder die Identität, und damit D(τ ◦ σ) = 0 < D(σ) oder der kleinste Index i0 mit
τ ◦ σ(i0 ) 6= i0 erfüllt i0 > i, also D(τ ◦ σ) = d − i0 < d − i = D(σ). In beiden Fällen folgt
(3.3).
Nach Induktionsvoraussetzung ist τ ◦σ = τN −1 ◦· · ·◦τ1 mit τ1 , . . . , τN −1 Transpositionen.
Wir multiplizieren diese Gleichung von links mit τ und nutzen τ 2 = Id, um σ = τ ◦τN −1 ◦
· · · τ1 zu erhalten.
Achtung. Die Faktorisierung einer Permutation als Produkt von Transpositionen ist
im Allgemeinen nicht eindeutig: die Identität Id lässt sich immer als τ 2 mit τ einer
Permutation beschreiben.
Seien
σ = τ1 ◦ · · · ◦ τN = τ10 ◦ · · · ◦ τN0 0
zwei verschiedene Faktorisierungen einer Permutation s ∈ SN in Transpositionen. Wir
werden weiter unten beweisen, dass die Differenz der Anzahl Faktoren N − N 0 immer
eine gerade Zahl ist. Dafür brauchen wir den Begriff des Vorzeichen einer Permutation.
66
3.1 Permutationen
Definition 3.9. Sei n ∈ N und σ ∈ Sn . Man nennt ein Paar (i, j) mit i, j ∈ {1, . . . , n}
einen Fehlstand der Permutation σ, falls
i<j
und
σ(i) > σ(j).
Sei m die Anzahl der Fehlstände von σ, dann definieren wir
sign(σ) = (−1)m ∈ {−1, +1}.
Man nennt sign(σ) das Vorzeichen von σ.
Beispiel 3.10.
gilt
(i) Die Identitätsabbildung Id ∈ Sn besitzt keine Fehlstände. Deshalb
sign(Id) = (−1)0 = 1.
(ii) Sei n ∈ N mit n ≥ 2 und τ die Transposition, die 1 und 2 vertauscht. Das heisst,
k
τ (k)
1 2 3 ···
2 1 3 ···
n
n
Dann ist (1, 2) der einzige Fehlstand von τ . Es gilt also
sign(τ ) = (−1)1 = −1.
(iii) Sei σ ∈ S3 durch
k
σ(k)
1 2 3
2 3 1
gegeben. Wir sehen dass (1, 3) und (2, 3) Fehlstände sind, aber (1, 2) kein Fehlstand
ist. Also gilt
sign(σ) = (−1)2 = 1.
(iv) Ist σ wie in (iii) und τ ∈ S3 die Transposition, die 1 und 2 vertauscht. Dann gilt
k
τ ◦ σ(k)
1 2 3
1 3 2
Also ist τ ◦σ eine Transposition mit einzigem Fehlstand (2, 3). Wir finden sign(τ ◦ σ) =
−1.
Dass die Transpositionen in Beispiel (ii) und (iv) oben Vorzeichen −1 besitzt, ist kein
Zufall.
Lemma 3.11. Sei n ∈ N und τ ∈ Sn eine Transposition. Dann gilt sign(τ ) = −1.
67
3 Die Determinante einer Matrix
Beweis. Da τ eine Transposition ist, vertauscht sie zwei Indizes i, j ∈ {1, . . . , n} mit
i < j. Somit ist
(i, j)
(3.4)
ein Fehlstand von τ ist.
Es kann jedoch weitere Fehlstände geben. Sei i < k < j, dann gilt σ(i) = j > k = σ(k).
Wir erhalten j − i − 1 zusätzliche Fehlstände
(i, i + 1), (i, i + 2), . . . , (i, j − 1).
(3.5)
Andererseits ist auch (k, j) ein Fehlstand da σ(k) = k > i = σ(j). Diese Überlegung
ergibt wiederum j − i − 1 Fehlstände
(i + 1, j), (i + 2, j), . . . , (j − 1, j).
(3.6)
Wir haben also in (3.4), (3.5) und (3.6) insgesamt
1 + (j − i − 1) + (j − i − 1) = 1 + 2(j − i − 1)
Fehlstände gefunden.
Schliesslich deckt unsere Liste jeden Fehlstand von τ ab, denn ein Fehlstand (i0 , j 0 ) muss
i0 = i oder j 0 = j erfüllen.
Somit gilt
σ(τ ) = (−1)1+2(j−i−1) = −1.
Wir wissen, dass eine Transposition τ in Sn Vorzeichen −1 besitzt. Weiterhin gilt τ 2 =
τ ◦ τ = Id, also sign(τ 2 ) = 1 = sign(τ )2 .
Wir haben in Beispiel 3.10(iv) Permutationen gesehen, die sign(τ ◦ σ) = −1 = sign(τ )sign(σ)
erfüllen.
Teil (ii) des nächsten Lemma verallgemeinert diese Gleichung. Wir werden zeigen, dass
sign(σ ◦ τ ) = sign(σ)sign(τ ) für alle σ, τ ∈ Sn gilt. In anderen Worten ist die Abbildung
sign : Sn → {−1, +1}
ein Gruppenhomomorphismus, wobei wir {−1, +1} als Untergruppe der multiplikativen
Gruppe Q r {0} betrachten. Die erste Aussage ist eine Hilfsresultat, welches im Beweis
von (ii) benötigt wird.
Lemma 3.12. Sei n ∈ N.
(i) Für jedes σ ∈ Sn gilt
sign(σ) =
σ(j) − σ(i)
;
j−i
1≤i<j≤n
Y
die Indizes i und j laufen über {1, . . . , n} mit der Zusatzbedingung i < j.
(ii) Für σ1 , σ2 ∈ Sn gilt
sign(σ1 ◦ σ2 ) = sign(σ1 )sign(σ2 ).
Insbesondere ist sign : Sn → {−1, +1} ein Gruppenhomomorphismus.
68
(3.7)
3.1 Permutationen
Beweis. Wir beginnen mit Teil (i). Sei also σ ∈ Sn und m ≥ 0 die Anzahl Fehlstände
von σ. Wir spalten den Zähler des Produkts (3.7) in zwei Faktoren auf
Y
Y
Y
(σ(j) − σ(i)) =
(σ(j) − σ(i))
(σ(j) − σ(i)),
i<j
i<j
σ(i)<σ(j)
i<j
σ(i)>σ(j)
dabei läuft das Produkt über Paare i, j ∈ {1, . . . , n} mit der beschriebenen Zusatzbedingung. (Weshalb taucht kein Faktor σ(i) = σ(j) auf?) Jeder Faktor im Produkt ganz
rechts ist negativ und entspricht genau einem Fehlstand von σ. Aus dieser Überlegung
erhalten wir
Y
Y
Y
(σ(j) − σ(i)) = (−1)m
(σ(j) − σ(i))
|σ(j) − σ(i)|
i<j
i<j
σ(i)<σ(j)
= (−1)m
Y
i<j
σ(i)>σ(j)
|σ(j) − σ(i)|.
(3.8)
i<j
Da σ bijektiv ist, durchläuft σ(j) jede Zahl
Q in {1, . . . , n} wenn j diese Menge durchläuft.
Das letzte Produkt (3.8) ist also gleich i<j (j − i). Somit erhalten wir
Y σ(j) − σ(i)
i<j
j−i
= (−1)m .
Die rechte Seite ist aber sign(σ) per Definition. Es folgt Teil (i).
Nun beweisen wir (ii) und dafür dürfen wir die Formel für sign(σ) aus (i) benützen.
Wir haben also
Y σ1 (σ2 (j)) − σ1 (σ2 (i)) Y σ1 (σ2 (j)) − σ1 (σ2 (i)) σ2 (j) − σ2 (i)
=
sign(σ1 ◦ σ2 ) =
j
−
i
σ2 (j) − σ2 (i)
j−i
i<j
i<j
!
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
=
sign(σ2 )
(3.9)
σ
(j)
−
σ
(i)
2
2
i<j
|
{z
}
(∗)
Wir müssen noch zeigen, dass das Produkt (∗) gleich sign(σ1 ) ist. Dazu spalten wir das
Produkt auf in zwei Faktoren:
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
Y σ1 (σ2 (j)) − σ1 (σ2 (i)) Y σ1 (σ2 (j)) − σ1 (σ2 (i))
=
σ2 (j) − σ2 (i)
σ2 (j) − σ2 (i)
σ2 (j) − σ2 (i)
i<j
i<j
i<j
σ2 (i)<σ2 (j)
σ2 (i)>σ2 (j)
|
{z
(∗∗)
}
(3.10)
Wir vertauschen die Rollen von i und j im Produkt (∗∗) und finden
(∗∗) =
Y
i<j
σ2 (i)>σ2 (j)
σ1 (σ2 (i)) − σ1 (σ2 (j))
=
σ2 (i) − σ2 (j)
Y
i>j
σ2 (i)<σ2 (j)
σ1 (σ2 (j)) − σ1 (σ2 (i))
σ2 (j) − σ2 (i)
69
3 Die Determinante einer Matrix
Setzen wir diesen Ausdruck in (3.10) ein, so sehen wir
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
Y σ1 (σ2 (j)) − σ1 (σ2 (i))
=
.
σ
(j)
−
σ
(i)
σ
(j)
−
σ
(i)
2
2
2
2
i<j
σ2 (i)<σ2 (j)
1 (i)
Dieser letzte Ausdruck ist dasselbe wie i<j σ1 (j)−σ
, denn σ2 ist eine Bijektion. Also ist
j−i
(∗) gleich sign(σ1 ). Wir kombieren diese Erkenntnis mit (3.9) und erhalten sign(σ1 ◦ σ2 ) =
sign(σ1 )sign(σ2 ), was zu zeigen war.
Q
Da sign : Sn → {−1, +1} ein Gruppenhomomorphism ist, ist sein Kern eine Untergruppe.
Bemerkung 3.13. Sei σ eine Permutation in Sn . Dann existieren Transpositionen
τ1 , . . . , τN ∈ Sn mit σ = τ1 ◦ · · · ◦ τN . Diese Transpositionen müssen nicht eindeutig
sein. Aber Lemmas 3.11 und 3.12(ii) implizieren, dass sign(σ) = (−1)N gilt. Also ist die
Parität von der Anzahl N Transpositionen eine wohldefinierte Invariante von σ.
Definition 3.14. Sei n ∈ N. Die alternierende Gruppe An (auf {1, 2, . . . , n}) ist die
Untergruppe
{σ ∈ Sn : sign(σ) = +1}
der symmetrischen Gruppe Sn .
Bemerkung 3.15. Ist n ∈ N mit n ≥ 2 dann existiert eine Transposition τ ∈ Sn .
Diese erfüllt sign(τ ) = −1 wegen Lemma 3.11. Damit gilt τ ∈ Sn r An also inbesondere
An ( Sn .
Lemma 3.16. Sei n ∈ N mit n ≥ 2 und η ∈ Sn mit sign(η) = −1. Dann gilt
An ∪ An η = Sn
und
An ∩ An η = ∅
hier ist An η = {σ ◦ η : sign(σ) = +1}. Schliesslich sind An und An η gleich gross:
#An = #An η = n!/2.
Beweis. Sicher haben wir An ∪ An η ⊆ Sn . Ist andererseits σ ∈ Sn r An , so gilt sign(σ) =
−1. Wegen Lemma 3.12(ii) haben wir sign(η)sign(η −1 ) = sign(η ◦ η −1 ) = +1, also
sign(η −1 ) = −1. Aus dem selben Lemma folgt ebenfalls
sign(σ ◦ η −1 ) = sign(σ)sign(η −1 ) = (−1)2 = +1
und somit σ ◦ η −1 ∈ An . Hieraus folgt σ ∈ An η und daher gilt auch An ∪ An η = Sn .
Der Schnitt An ∩ An η ist leer, denn die Elemente von An und An η haben in Anbetracht
von Lemma 3.12(ii) Vorzeichen +1 resp. −1.
Um die Kardinalitätsfrage zu behandlen, reicht es #An = #An η zu zeigen, denn es gilt
#Sn = n! wegen Lemma 3.4. Aber σ 7→ σ ◦ η definiert eine Bijektion An → An σ mit
Umkehrabbildung σ 7→ σ◦η −1 . Also müssen Bild- und Urbildbereich gleiche Kardinalität
besitzen.
Wir werden später auf die Resultate über Permutationen in diesem Abschnitt verweisen. Schon bei der Definition der Determinante im nächsten Abschnitt werden diese ein
wichtige Rolle spielen.
70
3.2 Die Definition der Determinante
3.2 Die Definition der Determinante
Nach der Vorarbeit des letzten Abschnitts können wir sofort die Determinante definieren,
um dann einige wichtige Eigenschaften zu beweisen.
Definition 3.17. Sei K ein Körper, m ∈ N und


a1,1 · · · a1,m

..  ∈ Mat (K).
A =  ...
m
. 
am,1 · · · am,m
Die Determinante von A ist
det(A) =
X
sign(σ)a1,σ(1) a2,σ(2) · · · am,σ(m) .
σ∈Sm
Diese Darstellung der Determinante heisst Leibnizformel.
Bemerkung 3.18. Nur quadratische Matrizen besitzen eine Determinante (den nur
diese können invertierbar sein).
Beispiel 3.19. (i) Für n = 2 gilt S2 = {Id, τ } mit τ die Transposition gegeben durch
τ (1) = 2 und τ (2) = 1. Falls
a1,1 a1,2
∈ Mat2 (K)
A=
a2,1 a2,2
gilt
det(A) =
X
sign(σ)a1,σ(1) a2,σ(2)
σ
= sign(Id)a1,1 a2,2 + sign(τ )a1,τ (1) a2,τ (2)
= a1,1 a2,2 − a1,2 a2,1 .
Somit stimmt det(A) mit dem Ausdruck in Lemma 2.25 und der Definition am
Anfang dieses Kapitels überein.
(ii) Sei

a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3 
a3,1 a3,2 a3,3

eine 3 × 3 Matrix mit Koeffizienten in einem Körper K. Ihre Determinante lässt
sich mit der Regel von Sarrus berechnen:
det(A) = a1,1 a2,2 a3,3 +a1,2 a2,3 a3,1 +a1,3 a2,1 a3,2 −a1,3 a2,2 a3,1 −a1,2 a2,1 a3,3 −a1,1 a2,3 a3,2 .
Insgesagt treten 6 = 3! = #S3 Terme auf.
71
3 Die Determinante einer Matrix
(iii) Die Determinante zweier wichtiger Matrizen werden wir nun berechnen.
Die Nullmatrix in Matm (K) hat Determinante 0, denn jede Summand in der Definition ist 0.
Die Einheitsmatrix erfüllt det Em = 1 und dies sieht man wie folgt. Wir schreiben
Em = (ai,j )1≤i,j≤m , wobei ai,j = 1 genau dann, wenn i = j und ansonsten ist
ai,j = 0. Gemäss Definition ist
X
det Em =
sign(σ)a1,σ(1) · · · am,σ(m) .
σ∈Sm
Für σ = Id ist a1,σ(1) · · · am,σ(m) = a1,1 · · · am,m = 1. Sei nun σ ∈ Sm mit σ 6= Id,
dann gilt a1,σ(1) · · · am,σ(m) = 0, da es ein i mit σ(i) 6= i gibt; für dieses haben wir
ai,σ(i) = 0.
Die Argumentation des letzten Beispiels impliziert

λ1 0 · · · · · ·
0
..

 0 λ2 0
.
 . .
..
.
.
..
.. ..
det A = λ1 · · · λm für A = 
.
 ..
 .
 ..
0 λm−1 0
0 ··· ···
0
λm




.



Eine Matrix, deren Einträge ausserhalb der Diagonale Null sind, heisst Diagonalmatrix.
Folgendes Lemma verallgemeinert die Aussage, dass die Nullmatrix Determinante Null
besitzt.
Lemma 3.20. Sei K ein Körper, m ∈ N und A ∈ Matm (K) mit einer Nullzeile. Dann
gilt det(A) = 0.
Beweis. Die Formel für die Determinante von A = (aij )1≤i,j≤m lautet
X
det(A) =
sign(σ)a1,σ(1) · · · am,σ(m) .
(3.11)
σ∈Sm
Ist beispielsweise die i-te Zeile von A eine Nullzeile, so gilt ai,1 = ai,2 = · · · = ai,m = 0.
Wegen (3.11) taucht in jedem Summand von det(A) ein Faktor aus der i-ten Zeile auf.
Deshalb ist jeder Summand 0 und daher gilt det(A) = 0.
Die zwei wichtigsten Eigenschaften halten wir in folgendem Satz fest. Er verallgemeinert
erstens die Tatsache, dass die Determinante einer 2 × 2 Matrix über ihre Invertierbarkeit
entscheidet, siehe Lemma 2.25 und zweitens die Multiplikativität der Determinante für
2 × 2 Matrizen, cf. Lemma 3.1.
Satz 3.21. Sei K ein Körper und m ∈ N.
72
3.2 Die Definition der Determinante
(i) Eine Matrix A ∈ Matm (K) ist invertierbar genau dann, wenn det(A) 6= 0. In
anderen Worten
GLm (K) = {A ∈ Matm (K) : det(A) 6= 0}.
(ii) Für A, B ∈ Matm (K) gilt
det(AB) = det(A) det(B).
Beweis. Später.
Bevor wir den Satz beweisen, werden wir zunächst einige einfachere Rechenregeln der
Determinante kennenlernen.
Lemma 3.22. Sei K ein Körper, m ∈ N und a1 , . . . , am ∈ K m Zeilenvektoren der Länge
m.
(i) Die Determinante ist linear in den Zeilen, d.h. für jedes i ∈ {1, . . . , m} und jeden
Zeilenvektor a0i ∈ K m und jedes Paar λ, µ ∈ K gilt






a1
a1
a1
..


 .. 
 .. 
.


 . 
 . 






det  λai + µa0i  = λ det  ai  + µ det  a0i  .
(3.12)






.
.
.
..


 .. 
 .. 
am
am
am
(ii) Die Determinante ist alternierend, d.h. falls es zwei verschiedene Indizes i, j ∈
{1, . . . , m} mit ai = aj gibt, dann gilt


a1


det  ...  = 0.
am
Beweis. Wir schreiben ai = (ai,1 , . . . , ai,m ) für jedes i ∈ {1, . . . , m}.
Der Beweis von Teil (i) ist eine formale Konsequenz der Definition der Determinante.
Sei dazu a0i = (a0i,1 , . . . , a0i,m ). Per Definition ist die Determinante auf der rechten Seite
von (3.12) gleich
X
sign(σ)a1,σ(1) · · · ai−1,σ(i−1) (λai,σ(i) + µa0i,σ(i) )ai+1,σ(i+1) · · · am,σ(m)
σ∈Sm
=λ
X
sign(σ)a1,σ(1) · · · ai,σ(i) · · · am,σ(m) + µ
σ∈Sm

X
sign(σ)a1,σ(1) · · · a0i,σ(i) · · · am,σ(m)
σ∈Sm


a1
 .. 

 . 




= λ det  ai  + µ det 
 . 

 .. 

am

a1
.. 
. 

a0i 
.. 
. 
am
73
3 Die Determinante einer Matrix
was zu zeigen war.
Für den Beweis von Teil (ii) benötigen wir nun die die Theorie der Permutationen aus
dem letzten Abschnitt.
Zunächst müssen wir uns im Klaren sein, dass m ≥ 2. Denn gilt m = 1 so können wir
natürlich nicht zwei verschiedene Zeilen gleich sein!
Sei

 

a1
a1,1 · · · a1,m

 
.. 
A =  ...  =  ...
. 
am
am,1 · · ·
am,m
Nach Voraussetzung sind die i-te un j-te Zeile von A gleich. Wir müssen det(A) = 0
zeigen. Wir dürfen i < j annehmen und das vereinfacht die Präsentation.
Wir fixieren die Transposition τ ∈ Sm , welche i und j vertauscht.
Wir erinnern uns nun an Lemma 3.16 welches besagte, dass die symmetrische Gruppe
wie folgt zerlegt werden kann:
Sm = Am ∪ Am τ
und Am ∩ Am τ = ∅.
Die Determinante von A lässt sich also in zwei Teilsummen zerlegen:
X
X
det(A) =
sign(σ) a1,σ(1) · · · am,σ(m) +
sign(σ ◦ τ )a1,σ(τ (1)) · · · am,σ(τ (m))
| {z }
σ∈Am
σ∈Am
+1
Wegen Multiplikativität des Vorzeichens gilt sign(σ ◦ τ ) = sign(σ)sign(τ ), cf. Lemma
3.12(ii). Eine Permutation hat Vorzeichen −1 wegen Lemma 3.11. Also folgt
det(A) =
X
a1,σ(1) · · · am,σ(m) −
σ∈Am
X
a1,σ(τ (1)) · · · am,σ(τ (m)) .
(3.13)
σ∈Am
Die Strategie ist nun die Folgende. Wir werden zeigen, dass sich jeder Term der ersten
Summe mit einem Term der zweiten Summe aufhebt. Die Details sind wie folgt.
Sei σ ∈ Am beliebig. Es gilt
a1,σ(τ (1)) · · ·
= a1,σ(1) · · ·
ai,σ(τ (i)) · · ·
ai,σ(j) · · ·
aj,σ(τ (j)) · · ·
aj,σ(i) · · ·
am,σ(τ (m))
am,σ(m)
da τ (j) = i, τ (i) = j, alle anderen Werte von τ bleiben unberührt. Weiterhin sind die
i-te und j-te Zeilen gleich, also
=
=
a1,σ(τ (1)) · · ·
a1,σ(1) · · ·
a1,σ(1)
ai,σ(τ (i)) · · ·
ai,σ(i) · · ·
···
aj,σ(τ (j)) · · ·
aj,σ(j) · · ·
am,σ(τ (m))
am,σ(m)
am,σ(m) .
Es handelt sich um einen Summand in der Leibnizformel für die Determinante. Nun
sieht man, dass sich die Terme in (3.13) gegenseitig aufheben. Es folgt det(A) = 0.
74
3.2 Die Definition der Determinante
Wir wollen untersuchen, wie sich die Determinante einer Matrix unter Zeilenumformungen verändert. Zur Erinnerung: es gab drei verschiedene Zeilenumformungen und diese
können durch linksmultiplikation mit Elementarmatrizen realisiert werden. Dies haben
wir in Lemma 2.31 gesehen.
Lemma 3.23. Sei K ein Körper, m ∈ N, und A ∈ Matm (K).
(i) (Zeilenaddition) Seien i, j ∈ {1, . . . , m} mit i 6= j und λ ∈ K. Wir setzen A0 =
E I (i, j, λ)A. Dann gilt
det(A0 ) = det(A)
und det E I (i, j, λ) = 1.
(ii) (Zeilenvertauschung) Seien i, j ∈ {1, . . . , m} mit i 6= j und A0 = E II (i, j)A. Dann
gilt
det(A0 ) = − det(A)
und det E II (i, j) = −1.
(iii) (Skalarmultiplikation einer Zeile) Sei i ∈ {1, . . . , m} und λ ∈ K. Wir setzen
A0 = E III (i, λ)A. Dann gilt
det(A0 ) = λ det(A)
und det E III (i, λ) = λ.
Beweis. Seien a1 , . . . , am die Zeilen von A.
Eine Zeilenumformung des Typs I wie in (i) ersetzt ai durch ai + λaj . Wir zeigen den
Fall i < j, gilt j > i so ist das Argument ähnlich. Wegen Lemma 3.22(i) gilt die zweite
Gleichung in






0
det(A ) = det 







a1

 .. 


 . 






 ai 
ai + λaj 




..
.




.
+λ
det
=
det
.

 . 


 a 

aj

 j 





..
.. 



.
.
am
am
{z
}
|
a1
..
.



a1
.. 
. 

aj 
.. 
. 
.
aj 

.. 
. 
am
det(A)
Ganz rechts steht nun eine Matrix mit zwei gleichen Zeilen. Wegen Lemma 3.22(ii) muss
die entsprechende Determinante gleich 0 sein. Es folgt also det(A0 ) = det(A).
Wenden man nun die eben bewiesen Gleichung auf die Einheitsmatrix A = Em an, so
folgt det(E I (i, j, λ)) = det(Em ) = 1. Hieraus folgt die zweite Behauptung in (i).
75
3 Die Determinante einer Matrix
Um (ii) zu zeigen, benötigen wir einen Trick. Wir nehmen wieder i < j an und definieren
die Hilfsmatrix


a1
..




.


 ai + aj 


..
.
B=
.


 a +a 
 i
j 


..


.
am
Sie stimmt in allen Zeilen, ausser der i-ten und j-ten, mit A überein. Da aber B zwei
gleiche Zeilen besitzt, gilt det(B) = 0.
Nun formen wir det(B) mit Hilfe von Lemma 3.22(i) zweimal um. Linearität in der i-ten
Zeile ergibt




a1
a1
..
..








.
.





 aj 
 ai




..
..
 + det 
.
0 = det(B) = det 
.
.




 a +a 
 a +a 
 i
 i
j 
j 




..
..




.
.
am
am
Nun nutzen wir Linearität in der j-ten Zeile aus, um


a1
a1
 ..
 .. 
 .
 . 



 ai
 ai 
 .
 . 


0 = det  ..  + det 
 ..
 a
 a 
 j
 i 
 .
 . 
 ..
 .. 
am
am
{z
} |
{z
|

=0
=det(A)


a1
a1
 .. 
 ..

 . 
 .





 aj 
 aj

 . 


 + det  ..  + det  ...





 a 
 a

 i 
 j

 . 
 .

 .. 
 ..
am
am
} |
{z
} |
{z


=det(A0 )
=0












}
zu erhalten. Dass die äusseren beiden Matrizen Determinante Null haben, folgt da sie je
zwei identische Zeilen besitzen. Wir erhalten
det(A) + det(A0 ) = 0 und daher
det(A0 ) = − det(A).
Die eben bewiesen Gleichung auf die Einheitsmatrix A = Em angewandt, impliziert
det(E II (i, j)) = − det(Em ) = −1.
Die Behauptung (iii) ist die einfachste. Den Lemma 3.22(i) mit µ = 0 und a0i = 0 ergibt
76
3.2 Die Definition der Determinante
sich



a1
 .. 

 . 




0
det(A ) = det  λaj  = λ det 
 . 

 .. 

am

a1
.. 
. 

aj  = λ det(A).
.. 
. 
am
Die eben bewiesen Gleichung auf die Einheitsmatrix A = Em angewandt, impliziert
det(E III (i, λ)) = λ det(Em ) = λ.
Beispiel 3.24.
(i) Wir berechnen die Determinante der Matrix


1 2 0
A =  2 1 2  ∈ Mat3 (Q)
0 2 1
auf zwei verschiedene Arten.
Zuerst benützen wir die Formel von Leibniz, bzw. die Regel von Sarrus. Es folgt
det(A) = 1 · 1 · 1 + 2 · 2 · 0 + 0 · 2 · 2 − 0 · 1 · 0 − 2 · 2 · 1 − 1 · 2 · 2 = −7.
Das war leicht. Wir können die Determinante auch mit der Hilfe von Zeilenumformungen bestimmen. Wir werden also A in Zeilenstufenform bringen, und konsequent buchhalten wie sich die Determinante verändert.
Wir bringen zunächst den Eintrag in der zweiten Zeile der erste Spalte auf 0 durch
eine Typ I Umformung. Wir erhalten


1 2 0
A0 = E I (2, 1, −2)A =  0 −3 2  .
0 2 1
Unser letztes Lemma impliziert
det(A0 ) = det(A).
Als nächstes machen wir eine Typ III Umformung


1 2
0
A00 = E III (2, −1/3)A0 =  0 1 −2/3  .
0 2
1
Die Determinante hat sich nun verändert:
1
1
det(A00 ) = − det(A0 ) = − det(A).
3
3
77
3 Die Determinante einer Matrix
Jetzt kommen die übrigen Einträge der zweiten Spalte dran. Wir führen zwei Umformungen des Typs II durch:


1 0 4/3
A000 = E I (3, 2, −2)E (I) (1, 2, −2)A00 =  0 1 −2/3  .
0 0 7/3
Umformungen des Types III ändern die Determinante nicht. Daher gilt
1
det(A000 ) = det(A00 ) = − det(A).
3
Nun machen wir noch eine Umformung des Types III und erhalten


1 0 4/3
A0000 = E III (3, 3/7)A000 =  0 1 −2/3 
0 0
1
wobei die Determinante durch
det(A0000 ) =
1
3
det(A000 ) = − det(A).
7
7
gegeben ist.
Schliesslich machen wir noch zwei Umformungen des Types
Einheitsmatrix:

1 0
00000
I
I
0000

0 1
A = E (2, 3, 2/3)E (1, 3, −4/3)A =
0 0
I und erhalten die

0
0 .
1
Wiederum haben wir
1
det(A00000 ) = det(A0000 ) = − det(A).
7
Aber A00000 ist die Einheitsmatrix E3 . Wir wissen, dass det(E3 ) = 1. Also können
wir nach det(A) auflösen:
det(A) = −7.
Wir haben also den selben Wert für det(A), was nicht überraschend (aber beruhigend) sein sollte.
Vergleicht man die zwei Methoden, so fällt sofort der Mehraufwand der zweiten
ins Auge. Für kleiner Matrizen ist die Formel von Leibniz durchaus sinnvoll. Will
man jedoch die Determinante einer grösseren Matrix berechnen, so ist der Weg
über Zeilenumformungen viel effizienter. Dies liegt daran, dass die Formel von
Leibniz m! Summanden enthält. Andererseits kann man eine m × m Matrix nach
m2 Zeilenumformungen auf Zeilenstufenform bringen. Da m! viel schneller wächst
als m2 , überweigt der Rechenaufwand bei der Leibniz Formel für grosse Werte für
m.
78
3.2 Die Definition der Determinante
(ii) Schauen wir uns mal eine grössere

0 0
 0 0

A=
 0 3
 0 0
1 0
Matrix an.

0 0 5
0 4 1 

0 0 0 
 ∈ Mat5 (Q).
2 0 0 
0 0 0
Wir wollen ihre Determinante bestimmen.
Zuerst bringen wir den Eintrag in der ersten Zeile und ersten Spalte auf 1 indem
wir die erste und fünfte Zeile vertauschen:


1 0 0 0 0
 0 0 0 4 1 


0
II
 wobei det(A0 ) = − det(A)
0
3
0
0
0
A = E (1, 5)A = 


 0 0 2 0 0 
0 0 0 0 5
wegen Lemma 3.23.
Wir machen wie üblich weiter und

1 0 0 0
 0 3 0 0

A00 = E II (2, 3)A0 = 
 0 0 0 4
 0 0 2 0
0 0 0 0
erhalten

0
0 

1 
 wobei
0 
5
det(A00 ) = − det(A0 ) = det(A)
sowie



A = E (3, 4)A = 


000
II
00
1
0
0
0
0
0
3
0
0
0
0
0
2
0
0
0
0
0
4
0
0
0
0
1
5






wobei
det(A000 ) = − det(A).
Schliesslich haben wir

A
0000


= E (4, 5, −1/5)A = 


I
000
1
0
0
0
0
0
3
0
0
0
0
0
2
0
0
0
0
0
4
0
0
0
0
0
5






wobei
det(A0000 ) = det(A000 ) = − det(A).
Diese letzte Matrix ist noch nicht in Zeilenstufenform. Dafür müssten wir die Zeilen noch durch die entsprechenden Diagonaleinträge dividieren. Andererseits ist
79
3 Die Determinante einer Matrix
A0000 eine Diagonalmatrix und wir wissen, dass die Determinante einer Diagonalmatrix gleich dem Produkt der Diagonaleinträge ist, cf. Beispiel 3.19(iii). Also
det(A0000 ) = 1 · 3 · 2 · 4 · 5 = 120.
Es folgt
det(A) = −120.
Wir nähern uns jetzt dem Beweis von Satz 3.21. Bevor wir die Multiplikativität der
Determinante im Allgemeinen beweisen können, betrachten wir den Spezialfall eines
Produkts aus Elementarmatrizen.
Bemerkung 3.25. Seien K, m, A wie im Lemma oben und sei E ? eine Elementarmatrix
von Typ I, II oder III. Geht man die drei Fälle von Lemma 3.23 durch, so haben wir
det(E ? A) = det(E ? ) det(A)
bewiesen.
Wir verallgemeinern diese Bemerkung mit einem Induktionsargument.
Lemma 3.26. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Sei L ein endliches
Produkt aus Elementarmatrizen aus Matm (K).
(i) Es gilt
det(LA) = det(L) det(A).
(3.14)
(ii) Wir haben det(L) 6= 0.
Beweis. Wir können L als Produkt E (1) · · · E (N −1) E (N ) schreiben, wobei jedes E (i) eine
Elementarmatrix ist.
Wir beweisen (i) und (ii) gleichzeitig per Induktion auf N . Für N = 0 ist nichts zu
zeigen, da das leere Produkt per Definition die Einheitsmatrix L = Em ist.
Sei nun N ≥ 1. Die Induktionsvoraussetzung impliziert (3.14), falls L ein Produkt aus
höchstens N − 1 Elementarmatrizen ist. Also gilt
det(LA) = det(E (1) · · · E (N −1) ) det(E (N ) A).
Die Bemerkung oberhalb des Lemmas impliziert det(E (N ) A) = det(E (N ) ) det(A). Also
det(LA) = det(E (1) · · · E (N −1) ) det(E (N ) ) det(A).
(3.15)
Wir wenden die Induktionsvoraussetzung ein zweites mal an (mit L = E (1) · · · E (N −1)
und A = E (N ) ), um
det(E (1) · · · E (N −1) ) det(E (N ) ) = det(E (1) · · · E (N ) ) = det(L)
(3.16)
zu erhalten. Nach Voraussetzung ist det(E (1) · · · E (N −1) ) 6= 0 und Lemma 3.23 impliziert
det(E (N ) ) 6= 0. Also folgt det(L) 6= 0 und somit Teil (ii).
Die Gleichung (3.16) zusammen mit (3.15) impliziert Teil (i).
80
3.2 Die Definition der Determinante
Beweis von Satz 3.21. Sei A ∈ Matm (K).
Aus den Resultaten von Kapitel 2, genauer aus Lemma 2.37, wissen wir, dass sich A durch
endlich viele Zeilenumformungen in Zeilenstufenform bringen lässt. Zeilenumformungen
entstehen durch linksmultiplikation mit Elementarmatrizen wegen Lemma 2.31. Folglich
existiert ein endliches Produkt aus Elementarmatrizen L ∈ Matm (K), so dass LA in
Zeilenstufenform ist.
Lemma 3.26 ergibt
det(LA) = det(L) det(A) und
det(L) 6= 0.
(3.17)
Weiterhin haben wir in Lemma 2.42 gesehen, dass die quadratische Matrix LA entweder
die Einheitsmatrix ist oder eine Nullzeile besitzt, da sie in Zeilenstufenform ist.
Wir zeigen zuerst, dass
A ist invertierbar
⇐⇒
det(A) 6= 0
(3.18)
gilt. Wie immer müssen wir beide Implikationsrichtungen beweisen.
Nehmen wir zuerst an, dass A invertierbar ist. Hätte nun LA eine Nullzeile, dann würde
auch L = (LA)A−1 eine Nullzeile besitzen. Eine quadratische Matrix mit einer Nullzeile
hat Determinante 0 wegen Lemma 3.20. Aber det(L) 6= 0 wegen (3.17). Folglich kann
LA keine Nullzeile besitzen und es muss LA = Em gelten. Aus (3.17) folgt nun 1 =
det(L) det(A) und daher insbesondere det(A) 6= 0. Somit haben wir die Implikation
“=⇒” in (3.18) gezeigt.
Wir nehmen nun umgekehrt an, dass det(A) 6= 0 gilt. Wegen (3.17) wissen wir det(L) 6= 0
und folglich det(LA) 6= 0. Somit kann LA wegen Lemma 3.20 keine Nullzeile besitzen.
Also ist LA die Einheitsmatrix. Wir erhalten LA = Em . Aus Proposition 2.41 folgt die
Invertierbarkeit von A und somit die Richtung “⇐=” in (3.18).
Die schliesst den Beweis des ersten Teils des Satzes ab. Seien also A, B ∈ Matm (K). Für
Teil (ii) müssen wir zeigen, dass det(AB) und det(A) det(B) gleich sind.
Wie oben bringen wir A in Zeilenstufenform LA wobei L ein endliches Produkt aus Elementarmatrizen ist. Um den Beweis abzuschliessen, müssen wir eine Fallunterscheidung
machen.
Fall 1: Die Matrix A ist nicht invertierbar. Dann kann LA nicht die Einheitsmatrix sein wegen Proposition 2.41. Also muss LA eine Nullzeile besitzen. Daher besitzt auch LAB eine Nullzeile. Wegen Lemma 3.20 gilt det(LAB) = 0. Schliesslich
impliziert Lemma 3.26(i) det(LAB) = det(L) det(AB). Zusammengefasst ergibt sich
det(L) det(AB) = 0 und sogar det(AB) = 0 wegen (3.17). Der erste Teil des Satzes (der
bereits bewiesen ist) impliziert det(A) = 0. Somit haben wir
det(AB) = 0 = det(A) det(B),
was zu zeigen war.
Fall 2: Die Matrix A ist invertierbar. Wie wir bereits im Beweis des ersten Teils
gesehen haben, muss LA = Em sein. Wir haben also LAB = B. Wir wissen, dass
1 = det(Em ) = det(LA) = det(L) det(A) und
det(B) = det(LAB) = det(L) det(AB)
81
3 Die Determinante einer Matrix
gelten muss, siehe Lemma 3.26. Multiplizieren wir die zweite Gleichung mit det(A) so
erhalten wir
det(A) det(B) = det(AB).
Korollar 3.27. Sei K ein Körper und m ∈ N.
(i) Die Einschränkung der Determinante definiert einen Gruppenhomomorphismus
det : GLm (K) → K r {0},
wobei die Verknüpfung auf K r {0} die Multiplikation ist und 1 das neutrale Element ist.
(ii) Ist A ∈ GLm (K), so gilt
det(A−1 ) = det(A)−1 .
Beweis. Wegen Satz 3.21 gilt det(AB) = det(A) det(B) für alle A, B ∈ GLm (K). Dies
ist die Definition eines Gruppenhomomorphismus und Teil (i) folgt.
Teil (ii) ist eine Konsequenz folgender Rechnung
1 = det(Em ) = det(A−1 A) = det(A−1 ) det(A).
Der Kern eines Gruppenhomomorphismus ist eine Untergruppe des Definitionsbereichs,
cf. Bemerkung 1.30(ii).
Definition 3.28. Sei K ein Körper und m ∈ N. Die Menge
SLm (K) = {A ∈ GLm (K) : det(A) = 1}
ist eine Untergruppe von GLm (K), man nennt sie die spezielle lineare Gruppe.
3.3 Laplace Entwicklung der Determinante
Dieser letzte Abschnitt des Kapitels handelt von einer rekursiven Formel für die Berechnung der Determinante.
Definition 3.29. Sei K ein Körper, m ∈ N und A ∈ Matm (K) eine quadratische
Matrix. Diese habe die Form


a1,1 · · · a1,m

..  .
A =  ...
. 
am,1 · · · am,m
Für ein Paar i, j ∈ {1, . . . , m} erhalten wir eine neue quadratische Matrix Ai,j ∈
Matm−1 (K) in dem wir die i-te Zeile und j-te Spalte streichen:


a1,1 · · · a1,j−1
a1,j+1 · · · a1,m
..
..
..
 ..

.
.
.

 .


· · · ai−1,j−1 ai−1,j+1 · · · ai−1,m 
 a
Ai,j =  i−1,1
 ∈ Matm−1 (K).
 ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,m 
 .

..
..
..
 ..

.
.
.
am,1 · · · am,j−1 am,j+1 · · · am,m
82
3.3 Laplace Entwicklung der Determinante
Der Laplacesche Entwicklungssatz erfolgt durch eine geschickt Anwendung von Spaltenumformungen.
Proposition 3.30. Sei K ein Körper, m ∈ N und


a1,1 · · · a1,m

..  ∈ Mat (K).
A =  ...
m
. 
am,1 · · ·
am,m
Für jedes i ∈ {1, . . . , m} gilt
det(A) =
m
X
(−1)i+j ai,j det(Ai,j ).
j=1
Bemerkung 3.31. Wir “entwickeln” dabei die Determinante nach der i-ten Zeile. Beachten Sie, dass die Determinanten auf der rechten Seite (also det(Ai,j )), Determinanten
von (m − 1) × (m − 1)-Matrizen sind.
Bevor wir die Proposition beweisen, benötigen wir das folgende Lemma über Spaltenumformungen. Man soll es mit Lemma 3.23(ii) vergleichen.
Lemma 3.32. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Entsteht A0 ∈ Matm (K)
aus A durch Vertauschung der i-ten und j-tem Spalten mit i, j ∈ {1, . . . , m} und i 6= j,
so gilt det A0 = − det A.
Beweis. Sei τ ∈ Sm die Transposition, welche i und j vertauscht. Wir nehmen an, dass
i < j, der Fall i > j ist analog. Ist A = (ai,j )1≤i,j≤m so gilt


a1,τ (1) · · · a1,τ (i) · · · a1,τ (j) · · · a1,τ (m)


..
..
..
..
A0 = 
.
.
.
.
.
am,τ (1) · · ·
am,τ (i) · · ·
am,τ (j) · · ·
am,τ (m)
P
Nach Definition der Determinante gilt det A0 = σ∈Sm sign(σ)a1,σ(τ (1)) · · · am,σ(τ (m)) . Es
gilt sign(σ ◦ τ ) = sign(σ)sign(τ ) = −sign(σ) wegen Lemma 3.12(ii) und Lemma 3.11.
Also
X
− det A0 =
sign(σ ◦ τ )a1,(σ◦τ )(1) · · · am,(σ◦τ )(m) .
(3.19)
σ∈Sm
Die durch σ 7→ σ ◦ τ definierte Abbildung Sm → Sm ist zu sich selbst invers. Damit ist
sie bijektiv. Durchläuft σ alle Elemente von Sm einmal, so durchläuft σ ◦ τ alle Elemente
von Sm einmal (in neuer Reihenfolge). Damit können wir die Summe in (3.19) umordnen
zu
X
− det A0 =
sign(σ)a1,σ(1) · · · am,σ(m) = det A,
σ∈Sm
was zu zeigen war.
83
3 Die Determinante einer Matrix
Beweis von Proposition 3.30. Wir beweisen die Proposition für i = 1. Der allgemeinen
Fall ist ähnlich, erfolgt z.B. durch Zeilenumformungen.
Da die Determinantenabbildung linear in der ersten Zeile ist, gilt




1
0 ···
0
0
1 ···
0
 a2,1 a2,2 · · · a2,m 
 a2,1 a2,2 · · · a2,m 




det A =a1,1 det  ..
..
..  + a1,2 det  ..
..
..  +
 .
 .
. 
.
. 
.
am,1 am,2 · · · am,m
am,1 am,2 · · · am,m
(3.20)


0
0 ···
1
 a2,1 a2,2 · · · a2,m 


· · · + a1,m det  ..
..
..  .
 .
.
. 
am,1 am,2 · · · am,m
Wir betrachten die Matrix

0 ···
 a2,1 · · ·

A0 =  ..
 .
am,1 · · ·
0
a2,j−1
..
.
1
a2,j
..
.
0
a2,j+1
..
.
···
···
am,j−1 am,j am,j+1 · · ·
0

a2,m
..
.




am,m
Vertauschen wir Spalten j und j − 1, dann j − 1 und j − 2 etc. bis schliesslich Spalten
2 und 1, so rückt die j-te Spalte an erste Stelle und wir erhalten

 

0
1
0 ···
0
0
···
0
1

 a2,j a2,1 · · · a2,j−1 a2,j+1 · · · a2,m   a2,j


 
00
A =  ..
.
..
..
..
..  =  ..
 .
.
.
.
.   .
A1,j 
am,j
am,j am,1 · · · am,j−1 am,j+1 · · · am,m
Ingesamt haben wir j − 1 Spalten vertauscht. Wegen Lemma 3.32 ändert sich jedes mal
das Vorzeichen. Also gilt det A00 = (−1)j−1 det A0 = (−1)j+1 det A0 .
Aus der Leibnizformel folgt det A00 = det A1,j , da Permutationen, die zu einem Summand
ungleich Null in A00 führen, die 1 festhalten müssen.
Setzen wir alles in (3.20), so folgt
det A = (−1)1+1 a1,1 det A1,1 + (−1)2+1 a1,2 det A1,2 + · · · + (−1)m+1 a1,m det A1,m ,
was zu zeigen war.
Beispiel 3.33. Sei m ∈ N. Wir berechnen die Determinante der Bandmatrix


2 1
0 ···
0
 1 2
1
0 ··· 0 


 0 1
2
1 ··· 0 


Am =  ..
 ∈ Matm (Q)
.
.
.
.
.
.
 .

.
.
.


 0 ··· 0
1
2 1 
0 ···
0
1 2
84
3.3 Laplace Entwicklung der Determinante
mittels Laplaceentwicklung nach der ersten
fort

2 1
0 ···
 1 2
1
0 ···

 0 1
2
1 ···

det Am = 2 det  ..
.
.
.. .. ...
 .


1
2
0 ···
0
1
{z
|
(m − 1) × (m − 1) Matrix
Zeile. Aus Proposition 3.30 erhalten wir so0
0
0
..
.


1
0
0
..
.
1
2
1








 − det 





1 
0 ···
2
}
|
0
1
0
2
1
.. ..
.
.
1
0
{z

··· 0
··· 0 

··· 0 

.
. . .. 
. . 

2 1 
1 2
}
(m − 1) × (m − 1) Matrix
Die erste Determinante links ist det Am−1 . Die zweite Determinante können wir wiederum nach der ersten Zeile entwicken, sie ist det Am−2 . Wir erhalten also
det Am = 2 det Am−1 − det Am−2
für alle
m ≥ 3.
(3.21)
Für m = 1 gilt det A1 = 2 und für m = 2 erhalten wir det A2 = 3.
Wir behaupten, dass det Am = m + 1 für alle m ∈ N gilt. Diese Formel werden wir über
Induktion auf m beweisen. Die Fälle m = 1 und m = 2 haben wir bereits überprüft.
Die Induktionsannahme ist nun det An = n + 1 für n ≤ m − 1. Aus dieser Annahme und
(3.21) folgt
det Am = 2 det Am−1 − det Am−2 = 2m − (m − 1) = m + 1,
was zu zeigen war.
Der Entwicklungssatz von Laplace ist oft auch ein praktisches Mittel um die Inverse
einer Matrix zu berechnen.
Definition 3.34. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Die zu A komplementäre Matrix, oft auch adjunkte Matrix genannte, ist


b1,1 · · · b1,m

..  ∈ Mat (K) wobei b = (−1)i+j det A .
A# =  ...
m
i,j
j,i
. 
bm,1 · · ·
bm,m
Beachten Sie die Reihenfolge der Indizes!
Proposition 3.35. Sei K ein Körper, m ∈ N und A ∈ Matm (K). Es gilt
AA# = det(A)Em .
Insbesondere ist A−1 =
1
A#
det(A)
falls A invertierbar ist.
Beweis. Sei A# = (bi,j )1≤i,j≤m . Wir müssen
m
X
det(A) : falls i = j,
ai,k bk,j =
0
: sonst
k=1
85
3 Die Determinante einer Matrix
für alle i, j beweisen. Die linke Seite ist gemäss Definition der adjunkten Matrix gleich
m
X
k=1
ai,k bk,j
m
X
=
(−1)k+j ai,k det(Aj,k ).
k=1
Falls i = j, so ist diese Summe gleich det A wegen Proposition 3.30. Falls i 6= j so
können wir auch dieselbe Proposition anwenden: die Summe ist dann die Determinante
einer Matrix mit zwei identischen Zeilen. Also ist die Summe 0, was zu zeigen war.
86
4 Vektorräume
Implizit haben wir schon einige Vektorräume kennengelernt. Ist K ein Körper, so trägt
das Kartesische Produkt K m die Struktur einer abelschen Gruppe. Wir können zwei
Zeilenvektoren (x1 , . . . , xm ), (y1 , . . . , ym ) ∈ K m addieren
(x1 , . . . , xm ) + (y1 , . . . , ym ) = (x1 + y1 , . . . , xm + ym ) ∈ K m .
Aber es ist mehr Struktur verborgen. Wir können auch einen Zeilenvektor (x1 , . . . , xm ) ∈
K m mit einem Skalar λ ∈ K multiplizieren:
λ(x1 , . . . , xm ) = (λx1 , . . . , λxm ) ∈ K m .
In diesem Kapitel lernen wir den Begriff des Vektorraums kennen, er abstrahiert Eigenschaften des K m . Jeder Vektorräume besitzt eine Dimension und K m hat Dimension m,
wie wir sehen werden. Der Vektorraumbegriff geht weiter als K m . Wir werden beispielsweise sehen, dass die Menge der stetigen Funktionen R → R einen Vektorraum bilden.
Das ist ein unendlichdimensionaler Vektorraum und er spielt in der Analysis (z.B. in der
Funktionalanalysis) eine Rolle.
Ziele dieses Kapitels:
• Vektorräume einführen und Beispiele angeben
• Dimensionsbegriff
• Lineare Abbildungen zwischen Vektorräume und Matrizen
4.1 Der Vektorraumbegriff
Ein Vektorraum ist grob gesagt eine abelsche Gruppe zusammen mit einem Körper und
diese zwei Strukturen müssen kompatibel sein. Die formale Definition ist wie folgt.
Definition 4.1. Ein K-Vektorraum ist ein Tripel (V, K, s), hier ist V eine abelsche
Gruppe, K ein Körper und
s:K ×V →V
eine Abbildung genannt Skalarmultiplikation auf V mit den folgenden Eigenschaften.
(i) Es gilt s(λ, v + w) = s(λ, v) + s(λ, w) für λ ∈ K und v, w ∈ V .
(ii) Es gilt s(λ + µ, v) = s(λ, v) + s(µ, v) für λ, µ ∈ K und v ∈ V .
87
4 Vektorräume
(iii) Es gilt s(λµ, v) = s(λ, s(µ, v)) für λ, µ ∈ K und v ∈ V .
(iv) Es gilt s(1, v) = v für alle v ∈ V .
Bemerkung 4.2. Wir werden oft den Begriff Vektorraum brauchen, und erwähnen
den Grundkörper K nur, falls dieser nicht aus dem Kontext ersichtlich ist.
Meistens schreiben wir nur λv anstatt s(λ, v). Bei der Skalarmultiplikation gilt “Punkt
vor Stricht”. D.h. λv + w = (λv) + w.
Das Tripel (V, K, s) werden wir oft mit V abkürzen. Wir sagen also, dass V ein KVektorraum ist, falls wir implizit ein Tripel wie in der Definition haben.
Lemma 4.3. Sei K ein Körper und V ein K-Vektorraum. Sei v ∈ V , dann gilt
0v = 0 und
(−1)v = −v.
Beweis. Die erste Gleichung folgt aus 0v = (0 + 0)v = 0v + 0v und daher 0v = 0. Die
zweite Gleichung ist eine Konsequenz von 0 = (1+(−1))v = 1v +(−1)v = v +(−1)v.
Beispiel 4.4. (i) Das kartesische Produkt K m ist ein K-Vektorraum für jeden Körper
K. Ganz analog bilden die m × n Matrizen Matm,n (K) auch einen K-Vektorraum.
(ii) Die Menge der stetigen Funktionen auf den reellen Zahlen
C 0 (R) = {f : R → R : f ist stetig}
ist ein R-Vektorraum. Wir können zwei stetige Funktionen f, g : R → R punktweise
zu einer stetigen Funktion f +g : R → R addieren, in dem (f +g)(x) = f (x)+g(x)
für alle x ∈ R setzen. Für λ ∈ R ist durch (λf )(x) = λf (x) eine stetige Funktion
λf : R → R gegeben.
(iii) Über jedem Körper K gibt es den trivialen Vektorraum V = {0}.
(iv) Ein abstrakteres Beispiel aus der Algebra. Seien K und F Körper wobei F ⊇ K.
Wir gehen also davon aus, dass die Addition und Multiplikation auf dem grösseren
Körper F mit den entsprechenden Operationen auf K übereinstimmen. Dann ist
F ein K-Vektorraum. Als Beispiel innerhalb vom Beispiel soll man sich den Fall
F = C und K = R vor Augen führen.
(v) Ist K wiederum ein Körper, so bezeichnet K[X] der im ersten Kapitel eingeführte
Polynomring. Dieser ist auch ein K[X] Vektorraum.
Definition 4.5. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge U ⊆ V
heisst Untervektorraum, falls die folgenden drei Bedingungen erfüllt sind:
(i) Es gilt U 6= ∅.
(ii) Für u, v ∈ U ist die Summe u + v ∈ U .
(iii) Für u ∈ U und λ ∈ K gilt λu ∈ U .
88
4.1 Der Vektorraumbegriff
Bemerkung 4.6. Sei K ein Körper, V ein K-Vektorraum und U ein Untervektorraum
von V . Dann ist U auf natürliche Art selbst ein K-Vektorraum: die Einschränkung
der Skalarmultiplikation K × V → V auf K × U definiert eine Skalarmultiplikation
K × U → U wegen Eigenschaft (iii). Weiterhin ist U mit 0 ∈ U und + eine abelsche
Gruppe: Nach (i) gibt es u ∈ U und wegen (iii) haben wir 0 = 0u ∈ U . Also besitzt
U zumindest das neutrale Element von V . Wegen (ii) ist U unter + abgeschlossen. Ist
u ∈ U , so gilt −u = (−1)u ∈ U wegen (iii). Somit ist U wie behauptet eine Gruppe.
Sie ist abelsch und man überprüft sofort, dass die übrigen Bedingung des Vektorraums
gegeben sind.
Beispiel 4.7. (i) Wir knüpfen an Beispiel (ii) oben an. Wir haben C 0 (R) schon als
R-Vektorraum erkannt. Die Teilmenge
C 1 (R) = {f : R → R : f ist differenzierbar und besitzt eine stetige Ableitung}
ist ein Untervektorraum von R.
(ii) Ist K wieder ein beliebiger Körper und d ∈ N, dann ist
{P ∈ K[X] r {0} : deg(P ) ≤ d} ∪ {0} = {ad X d + · · · + a1 X + a0 : a0 , . . . , ad ∈ K}
ein Untervektorraum von K[X].
(iii) In jedem K-Vektorraum V gibt es zwei ausgezeichnete Untervektorräume:
(a) Der Nullraum {0} ⊆ V .
(b) Der ganze Vektorraum V ⊆ V .
Definition 4.8. Sei K ein Körper, V ein K-Vektorraum und v1 , . . . , vm ∈ V eine
Ansammlung von Vektoren aus V . Der Spann des Tupels (v1 , . . . , vm ) ist die Teilmenge
Spann(v1 , . . . , vm ) = {λ1 v1 + · · · + λm vm : λ1 , . . . , λm ∈ K} ⊆ V.
Der Spann des leeren Tupels ist Spann() = {0}.
Bemerkung 4.9. (i) Der Spann eines Tupels ist immer ein Untervektorraum des
umliegenden Vektorraums. Dies wird in Übungsblatt 10 beweisen.
(ii) Sei V = C als R-Vektorraum. Der Spann von i ∈ C ist die imaginäre Achse
Spann(i) = {yi : y ∈ R}.
(iii) Der Spann des leeren Tupels ist der Nullraum:
Spann() = {0}.
89
4 Vektorräume
Definition 4.10. Sei K ein Körper und V ein K-Vektorraum. Ein Tupel (v1 , . . . , vm )
mit v1 , . . . , vm ∈ V heisst endliches Erzeugendensystem von V , falls es für jedes
v ∈ V Elemente λ1 , . . . , λm ∈ K gibt, mit
v = λ1 v1 + · · · + λm vm
oder äquivalent
V = Spann(v1 , . . . , vm ).
Wir nennen V endlich erzeugt, falls V ein endliches Erzeugendensystem besitzt.
Bemerkung 4.11. Wie die Definition suggeriert, muss nicht jeder Vektorraum ein endliches Erzeugendensystem besitzen. Z.B. ist R als Q-Vektorraum nicht endlich erzeugt.
Man könnte auch unendliche Erzeugendensysteme zulassen. Viele der Aussage die wir
beweisen werden, können auf den unendlichen Fall verallgemeinert werden. Wir konzentrieren uns auch endliche Erzeugendensysteme und arbeiten mit der folgenden Konvention: ein endliches Erzeugendensystem nennen wir oft einfach Erzeugendensystem.
Beispiel 4.12.
(i) Der Q-Vektorraum Q2 wird durch
((1, 0), (2, 3), (0, 1), (0, 1))
(endlich) erzeugt. Bereits das kürzere Tupel
((1, 0), (0, 1))
ist ein Erzeugendensystem.
(ii) Für jeden Körper wird K n durch
((1, 0, . . . , 0), . . . , (0, . . . , 0, 1, 0, . . . , 0), . . . (0, . . . , 0, 1))
endlich erzeugt.
(iii) Der Polynomring K[X] kann nicht endlich erzeugt sein. Seien P1 , . . . , Pm ∈ K[X]r
{0} Polynome. Wir behaupten, dass (P1 , . . . , Pm ) kein Erzeugendensystem von
K[X] ist. Sei D ≥ max{deg P1 , . . . , deg Pm } eine ganze Zahl. Dann ist X D+1 nicht
von der Form λ1 P1 + · · · + λm Pm , da der Grad der Summe (falls sie ungleich Null
ist) höchstens D ist. Also X D+1 6∈ Spann(P1 , . . . , Pm ), was zu zeigen war.
Im ersten Beispiel haben wir erlebt, dass ein Erzeugendensystem eines Vektorraums nicht
zwangsweise minimal sein muss. Es kann also Redundanzen geben und diese wollen wir
mit den folgenden Definition ausmerzen.
Definition 4.13. Sei K ein Körper und V ein Vektorraum. Ein Tupel (v1 , . . . , vm ) mit
v1 , . . . , vm ∈ V nennt man linear unabhängig, falls
λ1 , . . . , λ m ∈ K
und
λ1 v1 + · · · + λm vm = 0
=⇒
λ1 = · · · = λm = 0.
Ist (v1 , . . . , vm ) nicht linear unabhängig, so nennen wir es linear abhängig.
Folgende Konvention ist nützlich: Das leere Tupel () ist linear unabhängig.
90
4.1 Der Vektorraumbegriff
Bemerkung 4.14. Die Definition ist so zu verstehen, dass die einzige Lösung des Gleichungssystems λ1 v1 + · · · + λm vm = 0 mit Unbekannten λ1 , . . . , λm die triviale Lösung
λ1 = · · · = λm = 0 ist.
Beispiel 4.15.
da
(i) Das Quadrupel in Beispiel 4.12(i) oben ist nicht linear unabhängig,
2 · (1, 0) + (−1) · (2, 3) + 3 · (0, 1) + 0 · (0, 1) = 0
oder sogar einfacher
0 · (1, 0) + 0 · (2, 3) + 1 · (0, 1) + (−1) · (0, 1) = 0.
(ii) Das n-Tupel in Beispiel 4.12(ii) oben ist linear unabhängig, wie man leicht nachprüft.
(iii) Ist K irgendein Körper, so ist das d-Tupel aus Polynomen
(1, X, X 2 , . . . , X d−1 )
in K[X] linear unabhängig.
(iv) Sei K wiederum irgendein Körper und v1 , . . . , vm ∈ K m Spaltenvektoren. Aus diesen Vektoren konstruieren wir eine quadratische Matrix mit Spalten v1 , . . . , vm
A = (v1 · · · vm ) ∈ Matm (K).
Es gilt
det(A) 6= 0 ⇐⇒ (v1 , . . . , vm ) ist linear unabhängig.
Wir zeigen zuerst die Implikationsrichtung “=⇒”. Seien λ1 , . . . , λm ∈ K mit
λ1 v1 + · · · + λm vm = 0.
Diese Gleichung können wir in Matrixform wie folgt umschreiben:


λ1


A  ...  = 0.
λm
Nach Voraussetzung ist det(A) 6= 0. Also impliziert Satz 3.21, dass A invertierbar
ist. Wir multiplizieren die Matrixgleichung oben von links mit A−1 und erhalten
λ1 = · · · = λm = 0. Also ist (v1 , . . . , vm ) linear unabhängig.
Nun beweisen wir “⇐=”. Das homogene lineare Gleichungssystem, welches durch A
definiert ist, hat nur die triviale Lösung. Aus Lemma 2.44 folgt, dass A invertierbar
ist. Also gilt det(A) 6= 0 wegen Satz 3.21.
91
4 Vektorräume
(v) Ein Tupel welches den Nullvektor
(v1 , . . . , vi−1 , 0, vi+1 , . . . , vm )
enthält, muss linear abhängig sein, da
0 · v1 + · · · + 0 · vi−1 + 1 · 0 + 0 · vi + · · · + 0 · vm = 0.
(vi) Sei (v1 , . . . , vm ) ein Tupel aus Vektoren eines Vektorraums, welches ein linear
abhängiges Untertupel enthält. Dann ist (v1 , . . . , vm ) linear abhängig. D.h. lineare
Abhängigkeit “infiziert” grössere Tupel.
(v) Sei (v1 , . . . , vm ) ein Tupel bestehend aus Vektoren eines Vektorraums, so dass
(v1 , . . . , vm ) linear unabhängig ist. Dann ist jedes kleinere Tupel (vi1 , . . . , vin ) linear unabhängig, wobei {i1 , . . . , in } aus n Elementen in {1, . . . , m} besteht.
Wir können nun den wichtigen Begriff der Basis eines Vektorraums definieren.
Definition 4.16. Sei K ein Körper und V ein K-Vektorraum. Ein Tupel B = (v1 , . . . , vm )
mit v1 , . . . , vm ∈ V heisst Basis von V , falls die folgenden Bedingungen erfüllt sind.
(i) Das Tupel B ist ein Erzeugendensystem von V .
(ii) Das Tupel B ist linear unabhängig.
Beispiel 4.17. Sei K ein Körper und V = K n . Wir setzen
 
 

1
0
 0 
 1 

 
 

 0 
 0 

e1 =   , e2 =   , . . . , em = 
 .. 
 .. 

 . 
 . 

0
0

0
.. 
. 

,
0 

0 
1
es sind Elemente aus K n . Das Tupel B = (e1 , . . . , em ) ist ein Erzeugendensystem von
K m . Es ist aber auch linear unabhängig. Somit ist gezeigt, dass B eine Basis des K m
ist. Wir nennen B die Standardbasis des K m .
Mit der Hilfe einer Basis kann man alle Elemente eines Vektorraums beschreiben.
Lemma 4.18. Sei K ein Körper, V ein K-Vektorraum und B = (v1 , . . . , vm ) eine Basis
von V . Für jedes Element v ∈ V gibt es eindeutig bestimmte Koeffizienten λ1 , . . . , λm ∈
K mit
v = λ1 v1 + · · · + λm vm .
Beweis. Wir müssen Existenz und Eindeutigkeit der λj beweisen.
Die Existenz folgt aus der Tatsache, dass B per Definition ein Erzeugendensystem von
V ist.
92
4.1 Der Vektorraumbegriff
Nun beweisen wir Eindeutigkeit. Seien also λ1 , . . . , λm ∈ K und µ1 , . . . , µm ∈ K mit
v = λ1 v1 + · · · + λm vm = µ1 v1 + · · · + µm vm .
Wir subtrahieren den linken Ausdruck vom Ausdruck in der Mitte und erhalten
(λ1 − µ1 )v1 + · · · + (λm − µm )vm = 0.
Gemäss Definition ist (v1 , . . . , vm ) linear unabhängig. Also folgt
λ1 = µ1 , . . . , λm = µm
und daraus ergibt sich die Eindeutigkeit der λj .
Beachten Sie, dass wir (noch) nicht bewiesen haben, dass ein Vektorraum eine Basis
besitzt. Wir werden dies bald für endlich erzeugt Vektorräume tun.
Satz 4.19. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum.
(i) Jedes linear unabhängige Tupel (v1 , . . . , vn ) von V kann zu einer Basis (v1 , . . . , vn , vn+1 , . . . , vm )
von V ergänzt werden.
(ii) Der Vektorraum V besitzt eine Basis.
0
(iii) Je zwei Basen B = (v1 , . . . , vm ) und B 0 = (v10 , . . . , vm
0 ) von V haben die gleiche
0
Länge, d.h. es gilt m = m .
Beweis. Wir werden den Satz erst später beweisen.
Bemerkung 4.20. Ein Vektorraum besitzt in der Regel keine eindeutige Basis. Der
eben zitierte Satz impliziert, dass wenigstens die Länge einer Basis unabhängig von der
bestimmten Wahl der Basis ist.
Die Länge einer Basis ist eine wichtige Invariante des Vektorraums.
Definition 4.21. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum. Die
Länge einer beliebigen Basis von V ist eindeutig bestimmt und heisst Dimension von
V . Wir schreiben dafür dim V .
Wir beweisen Satz 4.19 mit der Hilfe von einigen Lemmas.
Lemma 4.22. Sei K ein Körper, V ein K-Vektorraum und (v1 , . . . , vm ) ein linear
unabhängigs Tupel mit v1 , . . . , vm ∈ V . Sei v ∈ V , dann gilt
(v1 , . . . , vm , v) ist linear unabhängig ⇐⇒ v 6∈ Spann(v1 , . . . , vm ).
93
4 Vektorräume
Beweis. Wir beweisen die Implikationsrichtung “=⇒” durch Kontraposition. Wäre v ∈
Spann(v1 , . . . , vm ), so könnten wir λ1 , . . . , λm ∈ K mit v = λ1 v1 + · · · + λm vm wählen.
In anderen Worten, wir hätten
λ1 v1 + · · · + λm vm + (−1)v = 0.
Nicht alle Koeffizienten λ1 , . . . , λm , −1 sind Null. Also ist (v1 , . . . , vm , v) linear abhängig.
Die umgekehrte Richtung “⇐=” erfolgt auch durch Kontraposition. Sei also (v1 , . . . , vm , v)
linear abhängig. Es gibt daher λ1 , . . . , λm , λ ∈ K mit
λ1 v1 + · · · + λm vm + λv = 0 und λ1 , . . . , λm , λ sind nicht alle gleich 0.
Da (v1 , . . . , vm ) linear unabhängig ist, gilt λ 6= 0. Wir können die Gleichung nach v
auflösen und erhalten
v=
−λm
−λ1
v1 + · · · +
vm ∈ Spann(v1 , . . . , vm ).
λ
λ
.
Beweis von Satz 4.19(i) und (ii). Zuerst erledigen wir Teil (i).
Gemäss Voraussetzung ist V endlich erzeugt. Er besitzt also ein Erzeugendensystem
(u1 , . . . , uk ).
Wir ergänzen (v1 , . . . , vn ) schrittweise durch Einträge u1 , . . . , uk , so dass wieder ein linear unabhängiges (längeres) Tupel entsteht und wiederholen den Prozess, so lange wie
möglich. Genauer: es gibt Indizes i1 , . . . , il mit 1 ≤ i1 < i2 < · · · < il ≤ k, so dass die
folgenden Eigenschaften gelten:
• Das ergänzte Tupel L = (v1 , . . . , vn , ui1 , . . . , uil ) ist linear unabhängig.
• Entweder ist l = k oder l < k und (v1 , . . . , vn , ui1 , . . . , uil , ui ) ist linear abhängig
für jedes i ∈ {1, . . . , k} r {i1 , . . . , il }.
(Der Fall l = 0 tritt z.B. ein, wenn sich (v1 , . . . , vn ) nicht weiter ergänzen lässt.)
Nach Konstruktion ist L linear unabhängig. Wir wollen zeigen, dass es eine Basis ist.
Dazu müssen wir überprüfen, dass es ein Erzeugendensystem ist.
Ist jedes ui in Spann(L) so sind wir fertig: In diesem Fall gilt sicherlich Spann(L) ⊇
Spann(u1 , . . . , uk ) = V , also Spann(L) = V . Also ist L ein linear unabhängiges Erzeugendensystem, d.h. ein Basis von V .
Nehmen wir aber an, dass es ein ui gibt mit ui 6∈ Spann(L). Dann ist gemäss Lemma
4.22 das um ui erweiterte Tupel
L0 = (v1 , . . . , vn , ui1 , . . . , uil , ui )
linear unabhängig. Das ist ein Widerspruch, da sich L nach Konstruktion nicht weiter
ergänzen lässt, ohne linear abhängig zu werden. Also ist Spann(L) = V , was zu zeigen
war.
Teil (i) ist also bewiesen. Teil (ii) kriegen wir gratis: Wir wenden Teil (i) einfach auf das
(linear unabhängige!) leere Tupel () an und erhalten eine Basis von V .
94
4.1 Der Vektorraumbegriff
Um Teil (iii) zu beweisen, sind weitere Vorarbeiten nötig.
Lemma 4.23. Sei K ein Körper und V ein Vektorraum. Ist (v1 , . . . , vn ) ein linear
unabhängiges Tupel und (u1 , . . . , um ) ein Erzeugendensystem von V , dann gilt n ≤ m.
Beweis. Da (u1 , . . . , um ) den Vektorraum V erzeugt, gibt es für jedes vj Koeffizienten
a1,j , . . . , am,j ∈ K mit
vj = a1,j u1 + · · · + am,j um .
Wir schreiben die Koeffizienten ai,j in Matrixform


a1,1 · · · a1,n

..  ∈ Mat (K).
A =  ...
m,n
. 
am,1 · · ·
am,n
Zu zeigen ist die Ungleichung m ≥ n. Wir nehmen das Gegenteil m < n an, und werden
einen Widerspruch schliessen.
Die Matrix A definiert ein unterbestimmtes homogenes lineares Gleichungssystem. Wegen Korollar 2.40 gibt es eine nicht-triviale Lösung




λ1
λ1
 .. 
 . 
n
 .  ∈ K r {0} von A  ..  = 0.
λn
λn
Also gilt
λ1 v1 + · · · + λn vn =
n X
m
X
j=1 i=1
m X
n
X
ai,j λj ui =
(
ai,j λj )ui = 0.
i=1 j=1
Aber nicht alle λ1 , . . . , λn sind gleich 0 und dies widerspricht der Tatsache, dass (v1 , . . . , vn )
linear unabhängig ist.
Mit diesem Lemma können wir den letzten Teil von Satz 4.19 beweisen.
0
Beweis von Satz 4.19(iii). Seien (v1 , . . . , vm ) und (v10 , . . . , vm
0 ) zwei Basen von V . Beide
sind linear unabhängige Erzeugendensysteme.
Lemma 4.23 impliziert nun m0 ≤ m wie auch m ≤ m0 . Es gilt also m = m0 , was zu zeigen
war.
Beispiel 4.24. (i) Für jeden Körper K haben wir weiter oben die Standardbasis (e1 , . . . , em )
von K m eingeführt. Die Dimension von K m ist also (und das ist nicht wirklich
überraschend) gleich m.
(ii) Der Nullraum {0} hat Dimension 0, da er das leere Tupel () als Basis hat.
Das nächste Korollar von Satz 4.19 zeigt, dass die Dimension eine “monotone” Funktion
ist: ein Untervektorraum hat höchstens die Dimension des umliegenden Raums.
95
4 Vektorräume
Korollar 4.25. Sei K ein Körper, V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Ist V endlich erzeugt, so ist auch U endlich erzeugt und es gilt dim U ≤ dim V .
Beweis. Wir beweisen zuerst, dass U endlich erzeugt ist. Dafür nehmen wir an, dass U
nicht endlich erzeugt ist, und folgern einen Widerspruch.
Wir beweisen mittels Induktion, dass es Vektoren u1 , u2 , . . . in U gibt, mit
(u1 , u2 , . . . , un ) linear unabhängig für n ≥ 0.
(4.1)
Für die Induktionsverankerung (n = 0) ist nichts zu zeigen, da () per Definition linear
unabhängig ist. Sei also n ≥ 1 und u1 , . . . , un ∈ U mit (u1 , . . . , un ) linear unabhängig.
Da U nicht endlich erzeugt ist, gibt es un+1 ∈ U rSpann(u1 , . . . , un ). Wegen Lemma 4.22
ist (u1 , . . . , un , un+1 ) linear unabhängig. Unsere Behauptung (4.1) ist für alle n bewiesen.
Wegen Voraussetzung hat V Dimension m ∈ N und besitzt wegen Satz 4.19(ii) eine Basis
(v1 , . . . , vm ). Aber (u1 , . . . , um+1 ) ist linear unabhängig und dies widerspricht Lemma
4.23.
Somit ist U endlich erzeugt und besitzt insbesondere eine Basis (u1 , . . . , udim W ). Lemma
4.23 impliziert dim W ≤ m = dim V , was zu zeigen war.
Die Dimension eines Untervektorraums kann also nicht die Dimension des umliegenden
Raumes übertreffen. Was passiert aber, wenn die zwei Vektorräume die gleiche Dimension haben?
Korollar 4.26. Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und U ⊆ V
ein Untervektorraum (dieser ist endlich erzeugt wegen Korollar 4.25). Gilt dim U =
dim V , so folgt U = V .
Beweis. Wir schreiben m = dim U und wählen eine Basis (u1 , . . . , um ) von U . Wäre
aber U ( V gelten, so könnten wir ein v ∈ V r U wählen und (u1 , . . . , um , v) wäre linear
unabhängig wegen Lemma 4.22. Wegen Satz 4.19 könnte man dieses Tupel zu einer Basis
von V ergänzen. Das ergänzte Tupel hätte Länge dim V ≥ m + 1 und dies Widerspricht
der Voraussetzung dim U = dim V .
4.2 Homomorphismen
Der Prototyp einer linearen Abbildung wird durch eine m×n Matrix A mit Koeffizienten
in einem Körper K gegeben:
ψ(v) = Av ∈ K m
wobei v ein Spaltenvektor der Länge n ist.
D.h. ϕ ist eine Abbildung K n → K m . Sie erfüllt die folgenden Eigenschaften
ϕ(v +w) = ϕ(v +w) = Av +Aw = ϕ(v)+ϕ(w) und ϕ(λv) = A(λv) = λ(Av) = λϕ(v)
für w ∈ K n und λ ∈ K.
96
4.2 Homomorphismen
Definition 4.27. Sei K ein Körper und V, W zwei K-Vektorräume. Eine Abbildung
ϕ : V → W nennt man lineare Abbildung, oder auch Homomorphismus von
Vektorräumen oder auch Homomorphismus, falls sie die folgenden Eigenschaften
erfüllt.
(i) Für alle v, w ∈ V gilt ϕ(v + w) = ϕ(v) + ϕ(w).
(ii) Für alle v ∈ V und alle λ ∈ K gilt ϕ(λv) = λϕ(v)
Wir nennen ϕ einen Isomorphismus von Vektorräumen oder einfach Isomorphismus, falls ϕ bijektiv ist. Einen Homomorphismus ϕ : V → V (d.h. mit V = W )
nennt man Endomorphismus von V .
Bemerkung 4.28. Die erste Bedingung impliziert, dass ϕ ein Gruppenhomomorphism
der abelschen Gruppen V und W ist. Wir können die Resultate von Kapitel 1 anwenden, um Eigenschaften von ϕ herzuleiten. Beispielsweise impliziert Lemma 1.24(i) die
Identität
ϕ(0) = 0.
Beispiel 4.29. (i) Die durch die Matrix A zu Beginn dieses Abschnitts definierte Abbildung ist ein Homomorphismus K n → K m .
(ii) Wir haben bereits gesehen, dass C 1 (R) und C 0 (R) Vektorräume über R sind. Jede
Funktion f ∈ C 1 (R) ist differenzierbar mit stetiger Ableitung, d.h.
df
∈ C 0 (R).
dx
In der Analysis Vorlesung wurde gezeigt, dass
df
dg
d(f + g)
=
+
dx
dx dx
sowie
df
d(λf )
=λ
dx
dx
gelten, hier sind g ∈ C 1 (R) und λ ∈ R.
Also ist das Differenzieren
ϕ(f ) =
df
dx
eine lineare Abbildung ϕ : C 1 (R) → C 0 (R).
(iii) Sei θ ∈ R mit 0 ≤ θ < 2π und
Aθ =
cos θ − sin θ
sin θ cos θ
.
Die durch Aθ induzierte lineare Abbildung
ϕθ (v) = Aθ v
für v ∈ R2
ist die Drehung um den Winkel θ.
97
4 Vektorräume
(iv) Ist V ein beliebiger Vektorraum über einem Körper K so werden durch
ϕ1 (v) = 0
und
ϕ2 (v) = v
für alle v ∈ V.
zwei lineare Selbstabbildungen ϕ1,2 : V → V definiert. Die Abbildung ϕ1 heisst
Nullabbildung und ϕ2 ist die Identität.
Definition 4.30. Sei K ein Körper, V, W zwei K-Vektorräume und ϕ : V → W ein
Homomorphismus von Vektorräumen. Der Kern von ϕ ist
Ker(ϕ) = {v ∈ V : ϕ(v) = 0} ⊆ V
und das Bild von ϕ ist
Bild(ϕ) = {ϕ(v) : v ∈ V } ⊆ W.
Lemma 4.31. Sei K ein Körper, V, W zwei K-Vektorräume und ϕ : V → W ein
Homomorphismus.
(i) Dann ist Ker(ϕ) ein Untervektorraum von V .
(ii) Weiter ist Bild(ϕ) ein Untervektorraum von W .
(iii) Die Abbildung ϕ ist genau dann injektiv, wenn Ker(ϕ) = {0}.
Beweis. Dass Ker(ϕ) ein Untervektorraum ist, beweist man genauso wie die analoge
Aussage für Gruppe aus Kapitel 1, siehe dazu Lemma 1.24(ii).
Wir zeigen nun (ii). Wegen ϕ(0) = 0 gilt 0 ∈ Bild(ϕ), also ist Bild(ϕ) 6= ∅. Sind
w, w0 ∈ Bild(ϕ) so gibt es v, v 0 ∈ V mit ϕ(v) = w und ϕ(v 0 ) = w0 . Es folgt w + w0 =
ϕ(v) + ϕ(v 0 ) = ϕ(v + v 0 ) ∈ Bild(ϕ) da v + v 0 ∈ V . Also ist Bild(ϕ) abgeschlossen unter
Summation. Für λ ∈ K gilt λw = λϕ(v) = ϕ(λv) ∈ Bild(ϕ). Somit sind alle drei Axiom
des Untervektorraums erfüllt und (ii) ist bewiesen.
Schliesslich folgt (iii) aus der entsprechenden Aussage für Gruppe, Lemma 1.27.
Beispiel 4.32. (i) Sei K ein Körper und A ∈ Matm,n (K). Die lineare Abbildung
ϕ(v) = Av hat als Kern die Lösungsmenge eines homogenenen Gleichungssystems
Ker(ϕ) = {v ∈ K n : Av = 0}
(ii) Der Kern der Ableitungsabbildung aus Beispiel 4.29(ii) oben ist der Untervektorraum der konstanten Funktionen, dies folgt aus dem Mittelwertsatz der Differentialrechnung.
(iii) Der Kern von ϕθ aus Beispiel 4.29(iii) ist die Menge {0}. Um dies zu beweisen,
beachte
det(Aθ ) = cos2 θ + sin2 θ = 1.
Nun
v ∈ Ker(ϕθ ) ⇐⇒ Aθ v = 0 ⇐⇒ v = 0
da Aθ invertierbar ist.
98
(4.2)
4.2 Homomorphismen
(iv) Der Homomorphismus ϕ1 aus Beispiel 4.29(iv) erfüllt Ker(ϕ1 ) = V . Für sein
Partner gilt Ker(ϕ2 ) = {0}.
Wir wollen nun zeigen, dass der Dimensionsbegriff kompatibel mit Homomorphismen
ist.
Satz 4.33 (Dimensionsformel). Sei K ein Körper, V, W zwei endlich erzeugte K-Vektorräume
und ϕ : V → W ein Homomorphismus. Dann sind Ker(ϕ) und Bild(ϕ) endlich erzeugte
K-Vektorräume und es gilt die Dimensionsformel
dim V = dim Ker(ϕ) + dim Bild(ϕ).
Beweis. Man beachte, dass dim V wohldefiniert ist, da V endlich erzeugt ist. Nach Voraussetzung ist W endlich erzeugt. Korollar 4.25 impliziert, dass Ker(ϕ) und Bild(ϕ)
endlich erzeugt sind. Somit haben auch diese Vektorräume eine wohldefinierte Dimension.
Wir wählen eine Basis (vn−k+1 , . . . , vn ) von Ker(ϕ), wobei k = dim Ker(ϕ). Diese Basis dürfen wir wegen Satz 4.19(i) zu einer Basis (v1 , . . . , vn−k , vn−k+1 , . . . , vn ) von V
ergänzen, hier ist n = dim V .
Wir zeigen weiter unten, dass (ϕ(v1 ), . . . , ϕ(vn−k )) eine Basis von Bild(ϕ) ist. Daraus
folgt dim Bild(ϕ) = n−k. Hieraus folgt die Dimensionsformel dim V = n = k +(n−k) =
dim Ker(ϕ) + dim Bild(ϕ).
Weshalb ist das angegebene Tupel eine Basis? Jedes beliebige w ∈ Bild(ϕ) ist vom Typ
w = ϕ(v) mit v ∈ V . Wir finden λ1 , . . . , λn ∈ K mit
v = λ1 v1 + · · · + λm vn .
Setzen wir diesen Ausdruck in ϕ ein, so ergibt sich
w = ϕ(v) = λ1 ϕ(v1 ) + · · · + λk ϕ(vn−k ) + λk+1 ϕ(vn−k+1 ) + · · · + λn ϕ(vn )
| {z }
| {z }
0
0
und damit w ∈ Spann(ϕ(v1 ), . . . , ϕ(vn−k )). Also folgt Bild(ϕ) ⊆ Spann(ϕ(v1 ), . . . , ϕ(vn−k )).
Die umgekehrte Inklusion ist klar, also erhalten wir sogar Bild(ϕ) = Spann(ϕ(v1 ), . . . , ϕ(vn−k )).
Somit ist gezeigt, dass (ϕ(v1 ), . . . , ϕ(vn−k )) ein Erzeugendensystem von Bild(ϕ) ist.
Es bleibt zu zeigen, dass dieses Tupel auch linear unabhängig ist. Dazu nehmen wir
0 = µ1 ϕ(v1 ) + · · · + µn−k ϕ(vn−k )
an mit µ1 , . . . , µn−k ∈ K. Es folgt ϕ(µ1 v1 + · · · + µn−k vn−k ) = 0 und somit µ1 v1 +
· · · + µn−k vn−k ∈ Ker(ϕ). Wir kennen schon eine Basis von Ker(ϕ). Deshalb gibt es
µn−k+1 , . . . , µn ∈ K mit
µ1 v1 + · · · + µn−k vn−k = µn−k+1 vn−k+1 + · · · + µn vn .
Wir stellen nun diese Gleichung um und erhalten
µ1 v1 + · · · + µn−k vn−k − µn−k+1 vn−k+1 − · · · − µn vn = 0.
Da (v1 , . . . , vn ) linear unabhängig ist, folgt µ1 = · · · = µn = 0. Insbesondere also µ1 =
· · · = µn−k = 0. Somit ist gezeigt, dass (ϕ(v1 ), . . . , ϕ(vn−k )) linear unabhängig ist.
Definition 4.34. In der Situation der Proposition heisst dim Bild(ϕ) der Rang von ϕ.
99
4 Vektorräume
4.3 Matrizen als Homomorphismen
Seien V und W endlich erzeugte K-Vektorräume wobei K ein Körper ist. Wir werden
bald aus einer linearen Abbildung (zusammen mit einer Basis von V und W ) eine Matrix
konstruieren.
Zuerst kommt noch eine leichte Definition.
Definition 4.35. Sei K ein Körper und V, W zwei K-Vektorräume. Wir definieren die
Menge
Hom(V, W ) = {ϕ : V → W : ϕ ist ein Homomorphismus}.
Man schreibt auch gerne End(V ) an der Stelle von Hom(V, V ). Die Menge Hom(V, W )
trägt die Struktur eines K-Vektorraums. Sind z.B. ϕ, ψ ∈ Hom(V, W ), so ist ihre Summe
ϕ + ψ ∈ Hom(V, W ) durch
(ϕ + ψ)(v) = ϕ(v) + ψ(v)
für alle
v∈V
definiert. Falls λ ∈ K, so ist λϕ ∈ Hom(V, W ) durch
(λϕ)(v) = λϕ(v) für alle
v∈V
gegeben.
Bemerkung 4.36. Im Spezialfall wo W der Grundkörper K ist, wird in einer Übungsaufgabe
genauer untersucht.
Lemma 4.37. Sei K ein Körper, V ein endlich erzeugter K-Vektorraum mit Basis
(v1 , . . . , vn ). Seien w1 , . . . , wn beliebige Elemente eines K-Vektorraums W . Es gibt genau
ein ϕ ∈ Hom(V, W ) mit ϕ(vi ) = wi .
Beweis. Wir müssen Existenz und Eindeutigkeit zeigen. Für die Existenz nutzen wir
Lemma 4.18: für jedes v ∈ V gibt es ein eindeutiges (λ1 , . . . , λn ) ∈ K n mit v = λ1 v1 +
· · · + λn vn . Wir definieren
ϕ(v) = λ1 w1 + · · · + λn wn .
Da (λ1 , . . . , λn ) eindeutig durch v definiert ist, ist ϕ(v) wohldefiniert. Nun überprüft man
schnell, dass ϕ eine lineare Abbildung V → W ist. Per Konstruktion gilt ϕ(vj ) = wj für
alle j ∈ {1, . . . , n}.
Um die Eindeutigkeit zu zeigen, seien ϕ, ϕ0 ∈ Hom(V, W ) mit ϕ(vi ) = ϕ0 (vi ). Die Differenz ψ = ϕ−ϕ0 ist ebenfalls linear und erfüllt ψ(v1 ) = · · · = ψ(vn ) = 0. Also gilt ψ(v) = 0
für jedes v ∈ V da (v1 , . . . , vn ) ein Erzeugendensystem von V ist. Also ϕ = ϕ0 .
Definition 4.38. Sei K ein Körper und V, W zwei endlich erzeugte K-Vektorräume.
Weiterhin sei B = (v1 , . . . , vn ) eine Basis von V und C = (w1 , . . . , wm ) eine Basis von
W . Schliesslich sei ϕ ∈ Hom(V, W ). Für jedes vj gibt es wegen Lemma 4.18 eindeutig
bestimmte Koeffizienten a1,j , . . . , am,j ∈ K mit
ϕ(vj ) = a1,j w1 + · · · + am,j wm .
100
(4.3)
4.3 Matrizen als Homomorphismen
Die ai,j definieren eine Matrix

a1,1 · · ·
 ..
MB,C (ϕ) =  .
am,1 · · ·

a1,n
..  ∈ Mat (K).
m,n
. 
am,n
Wir sagen, dass MB,C (ϕ) den Homomorphismus ϕ bezüglich den Basen B und C repräsentiert. Im wichtigen Spezialfall V = W und B = C schreiben wir MB (ϕ) = MB,B (ϕ).
Achtung. Die Reihenfolge der Indizes in (4.3) bei der Definition von MB,C (ϕ) ist wichtig.
Bemerkung 4.39. (i) Die Matrix MB,C (ϕ) hängt sowohl von ϕ wie auch von den
zwei Basen B, C ab. Wir werden später sehen, was passiert, wenn man die Basen
durch andere Basen ersetzt.
(ii) In der Situation der Definition erhalten wir eine Abbildung
Hom(V, W ) → Matm,n (K),
die durch
ϕ 7→ MB,C (ϕ)
(4.4)
definiert ist. Wegen Lemma 4.37 das eine bijektive Abbildung. Weiterhin überprüft
man leicht, dass sie linear ist. Es folgt aus der Dimensionsformel, dass dim Hom(V, W ) =
dim Matm,n (K).
(iii) Sei B die Standardbasis des K n und C die Standardbasis des K m . Wir haben schon
zu Beginn des Kapitels eine Matrix A ∈ Matm,n (K) als Homomorphismus A :
K n → K m betrachtet.
Die Konvention (4.3) impliziert nun, dass
MB,C (A betrachtet als Homomorphismus K n → K m ) = A
dies bestätigt, dass die Wahl (4.3) sinnvoll ist.
Ab jetzt werden wir stillschweigend einen Homomorphismus in Hom(K n , K m ) mit
einer Matrix aus Matm,n (K) identifizieren.
Lemma 4.40. Sei K ein Körper, V, W endlich erzeugte Vektorräume und ϕ ∈ Hom(V, W ).
Es gibt eine Basis B von V und eine Basis C von W mit
Er 0
MB,C (ϕ) =
0 0
wobei Er die r × r Einheitsmatrix ist mit r = dim Bild(ϕ).
Beweis. Der Beweis ist ähnlich wie der Beweis der Dimensionsformel, Satz 4.33. Wir
wählen zuerst eine Basis B = (v1 , . . . , vn ) von V , die Ergänzung einer Basis (vn−k+1 , . . . , vn )
von Ker(ϕ) ist (hier ist k = dim Ker(ϕ)). Genauso wie im Beweis der Dimensionsformel
101
4 Vektorräume
gilt, dass (ϕ(v1 ), . . . , ϕ(vn−k )) eine Basis von Bild(ϕ) ist, also r = n − k. Wir ergänzen
diese zu einer Basis C = (ϕ(v1 ), . . . , ϕ(vn−k ), wn−k+1 , . . . , wm ) von W mit m = dim W .
Falls k < n gilt z.B.
ϕ(v1 ) = 1 · ϕ(v1 ) + 0 · ϕ(v2 ) + · · · + 0 · ϕ(vn−k ) + 0 · wn−k+1 + · · · + 0 · wm
also ist die erste Spalte von MB,C (ϕ) von der Form
 
1
 0 
 
 ..  .
 . 
0
Entsprechend ist die j-te Spalte gleich dem j-ten Standardbasisvektor (als Spaltenvektor), falls j ∈ {1, . . . , r}. Für j > r ist ϕ(vj ) = 0, da vj ∈ Ker(ϕ). Also ist die j-te Spalte
von MB,C (ϕ) gleich Null falls j > r.
Als nächstes müssen wir untersuchen, wie sich MB,C (ϕ) verändert, wenn man die Basen
B, C durch neue Basen austauscht. Dies ist nicht sehr kompliziert, benötigt aber ein paar
Begriffe. Unter anderem müssen wir Übergangsmatrizen einführen.
Definition 4.41. Sei V ein endlich erzeugte K-Vektorraum und B = (v1 , . . . , vn ) eine
Basis von V . Dann definiert die Zuordnung
ΨB (λ1 , . . . , λn ) = λ1 v1 + · · · + λn vn
eine lineare Abbildung ΨB : K n → V .
Bemerkung 4.42. Wir behalten die Notation der Definition bei. Also ΨB ∈ Hom(K n , V ).
Da (v1 , . . . , vn ) linear unabhängig ist, muss Ker(ΨB ) = {0} sein. Wegen Lemma 4.31(iii)
ist ΨB sogar injektiv. Aber das Tupel (v1 , . . . , vn ) ist auch ein Erzeugendensystem von
V . Dies übersetzt sich wie folgt: ΨB ist surjektiv.
Also ist ΨB bijektiv und damit ein Isomorphismus. In einer Übungsaufgabe wird überprüft,
n
dass die Umkehrabbildung Ψ−1
B : V → K auch ein Homomorphismus ist.
Definition 4.43. Seien K und V wie gerade eben und n = dim V . Sind B und C zwei
Basen von V so erhalten wir bijektive Homomorphismen
ΨB : K n → V
und
ΨC : K n → V.
Die Verkettung
Ψ−1
C ◦ ΨB
ist ein Homomorphismus in Hom(K n , K n ), der durch eine Matrix TB,C bezüglich der
Standardbasis des K n im Definitionsbereich und im Bildbereich gegeben ist. Man nennt
TB,C Übergangsmatrix.
Das nächste Lemma liefert einfache Eigenschaften der Übergangsmatrizen.
102
4.3 Matrizen als Homomorphismen
Lemma 4.44. Wir behalten die Notation der Definitionen bei.
(i) Es gilt TB,C TC,B = En , also insbesondere TB,C ∈ GLn (K).
(ii) Seien B = (v1 , . . . , vn ), C = (w1 , . . . , wn ) und (λ1 , . . . , λn ), (µ1 , . . . , µn ) ∈ K n . Es
gilt




µ1
λ1




µ1 w1 + · · · + µn wn = λ1 v1 + · · · + λn vn ⇐⇒  ...  = TB,C  ...  .
µn
λn
Beweis. Der erste Teil folgt sofort aus
−1
TB,C TC,B = (Ψ−1
C ◦ ΨB ) ◦ (ΨB ◦ ΨC ) = En .
Für den Beweis von (ii) sei v ∈ V beliebig. Per Definition gilt
v = λ1 v1 + · · · + λn vn ⇐⇒ v = ΨB (λ1 , . . . , λn )
und natürlich die analoge Aussage für C. Wir erhalten
µ1 w1 + · · · + µn wn = λ1 v1 + · · · + λn vn ⇐⇒ ΨC (µ1 , . . . , µn ) = ΨB (λ1 , . . . , λn ).
Die letzte Aussage ist wegen TB,C = Ψ−1
C ◦ ΨB gleichbedeutend mit




µ1
λ1
 .. 
 . 
 .  = TB,C  ..  .
µn
λn
Lemma 4.45. Sei K ein Körper, V, W endlich erzeugte K-Vektorräume und ϕ ∈
Hom(V, W ). Seien weiterhin B eine Basis von V und C eine Basis von W . Dann gilt
ϕ ◦ ΨB = ΨC ◦ MB,C (ϕ).
Beide Seiten sind Homomorphismen K n → W mit n = dim V .
Beweis. Seien
B = (v1 , . . . , vn ) und C = (w1 , . . . , wm )
und (e1 , . . . , en ) die Standardbasis des K n (betrachtet als Spaltenvektoren). Wir setzen
auch MB,C (ϕ) = (ai,j )1≤i≤m,1≤j≤n .
Beim Beweis geht es nur darum, die Definitionen richtig anzuwenden. Es gilt z.B.
ΨB (ej ) = vj und
(ϕ ◦ ΨB )(ej ) = ϕ(vj ) = a1,j w1 + · · · + am,j wm .
(4.5)
103
4 Vektorräume
Andererseits haben wir


a1,j


MB,C (ϕ)ej =  ...  .
am,j
Also
(ΨC ◦ MB,C (ϕ))(ej ) = a1,j w1 + · · · + am,j wm .
(4.6)
Aus (4.5) und (4.6) folgt, dass (ϕ ◦ ΨB )(ej ) = (ΨC ◦ MB,C (ϕ))(ej ) für alle Standardbasisvektoren ej . Also stimmen die linearen Abbildungen ϕ ◦ ΨB und ΨC ◦ MB,C (ϕ) wegen
Lemma 4.37 übereinstimmen; zur Erinnerung: (e1 , . . . , en ) ist eine Basis des K n .
Wir können nun die Transformationsformel beweisen.
Satz 4.46 (Transformatiosnformel). Sei K ein Körper, V, W endlich erzeugte K-Vektorräume
und ϕ ∈ Hom(V, W ). Seien weiterhin B, B 0 Basen von V und C, C 0 Basen von W . Dann
gilt
TC,C 0 MB,C (ϕ)T−1
B,B0 = MB0 ,C 0 (ϕ).
Beweis. Wir multiplizieren die Gleichung aus Lemma 4.45 von rechts mit Ψ−1
B und erhalten
ϕ = ΨC ◦ MB,C (ϕ) ◦ Ψ−1
(4.7)
B .
Die gleiche Identität gilt, wenn wir B und C durch die neuen Basen B 0 und C 0 ersetzen:
ϕ = ΨC 0 ◦ MB0 ,C 0 (ϕ) ◦ Ψ−1
B0 .
(4.8)
Wir setzen die zwei Ausdrücke (4.7) und (4.8) gleich und erhalten nach kurzer Umformung
−1
Ψ−1
C 0 ◦ ΨC ◦MB,C (ϕ) ◦ ΨB ◦ ΨB0 = MB0 ,C 0 (ϕ).
| {z }
| {z }
=TC,C 0
=T−1
B,B0
Ein wichtiger Spezialfall tritt ein, falls V = W und sowohl Definitions- und Bildbereich
mit der selben Basis ausgestattet sind. Wir halten ihn gesondert als Korollar fest, welches
direkt aus dem letzten Satz folgt.
Definition 4.47. Ist B eine Basis von V (insbesondere soll ab jetzt V endlich erzeugt
sein) und ϕ ein Endomorphismus von V, so kürzen wir MB (ϕ) durch MB,B (ϕ) ab.
Korollar 4.48 (Transformationsformel für Endomorphismen). Sei K ein Körper, V ein
endlich erzeugter K-Vektorraum und ϕ ∈ End(V ). Seien weiterhin B und C Basen von
V mit Übergangsmatrix T = TB,C ∈ GLn (K) Dann gilt
T MB (ϕ)T −1 = MC (ϕ).
Definition 4.49. Sei K ein Körper und m ∈ N. Gegeben seien zwei Matrizen A, B ∈
Matm (K). Man nennt A ähnlich zu B, falls es T ∈ GLm (K) gibt, mit
A = T BT −1 .
104
4.4 Eine Anwendung auf Matrizen
Bemerkung 4.50. Ist A ähnlich zu B, so ist auch B ähnlich zu A, denn B = T −1 AT .
In diesem Fall nennen wir A und B ähnliche Matrizen.
Definition 4.51. Sei K ein Körper und

a11 · · ·
 ..
A= .
am1 · · ·

a1m
..  ∈ Mat (K)
m
. 
amm
eine quadratische Matrix. Die Spur von A ist die Summe ihrer Diagonalelemente
Spur(A) = a11 + a22 + · · · + amm .
Lemma 4.52. Sei K ein Körper, m ∈ N und A, B ∈ Matm (K) ähnliche Matrizen.
Dann haben A und B gleiche Determinante und gleiche Spur.
Beweis. Wegen Voraussetzung gibt es T ∈ GLm (K) mit A = T BT −1 . Daher gilt
det(A) = det(T BT −1 ) = det(T ) det(B) det(T −1 ) = det(T ) det(T )−1 det(B) = det(B).
In Serie 7 wurde bewiesen, dass Spur(AB) = Spur(BA) gilt. Wir erhalten also
Spur(A) = Spur(T (BT −1 )) = Spur(BT −1 T ) = Spur(B).
Bemerkung 4.53. Sei V ein endlich erzeugter K-Vektorraum und ϕ ∈ End(V ) wie
in Korollar 4.48. Wir können eine Matrix finden MB (ϕ), die ϕ repräsentiert sobald wir
eine Basis B von V fixiert haben. Die Wahl einer neuen Basis C führt zu einer Matrix
MC (ϕ), die zu MB (ϕ) ähnlich ist. Da wegen Lemma 4.52 ähnliche Matrizen die gleiche
Determinante und Spur haben, ist die Determinante und Spur eines Endomorphismus
wohldefiniert. D.h. diese Grössen hängen nicht von der Wahl einer Basis ab.
Definition 4.54. Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und ϕ ∈
End(V ). Sei B eine beliebige Basis von V . Wir definieren die Determinante bzw. Spur
des Endomorphismus ϕ als
det(ϕ) = det(MB (ϕ)) und
Spur(ϕ) = Spur(MB (ϕ)).
Bemerkung 4.55. Wegen Korollar 4.48 und Lemma 4.52 sind Determinante und Spur
von ϕ unabhängig von der Wahl der Basis B.
4.4 Eine Anwendung auf Matrizen
Wir werden die Transformationsformel anwenden, um eine eher überraschende Eigenschaft von Matrizen zu beweisen.
105
4 Vektorräume
Definition 4.56. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K) eine Matrix. Die Zeilen a1 , . . . , am ∈ K n von A spannen einen Untervektorraum Spann(a1 , . . . , am ) des K n
auf, er heisst Zeilenraum von A. Der Zeilenrang von A ist dim Spann(a1 , . . . , am ),
er wird mit ZR(A) abgekürzt. Die Spalten b1 , . . . , bn ∈ K m von A spannen einen Untervektorraum Spann(b1 , . . . , bn ) des K m auf, er heisst Spaltenraum von A. Der Spaltenrang von A ist dim Spann(b1 , . . . , bn ), er und wird mit SR(A) abgekürzt.
Beispiel 4.57.
(i) Der Zeilenrang von
1 1 1
A=
∈ Mat2,3 (Q)
2 2 2
ist
ZR(A) = dim Spann ((1, 1, 1), (2, 2, 2)) = 1
und der Spaltenrang ist
SR(A) = dim Spann
1
2
1
1
,
,
=1
2
2
(ii) Sei A eine Matrix, wie sie in Proposition 4.40 auftaucht, d.h.
Er 0
A=
0 0
wobei Er die r × r Einheitsmatrix ist. Es gilt
ZR(A) = r = SR(A).
Bemerkung 4.58.
(i) Ist A ∈ Matm,n (K), so gilt ZR(A) ≤ m und SR(A) ≤ n.
(ii) Wir können A als Homomorphismus in K n → K m betrachten. Der Rang von A
war per Definition die Dimension von Bild(A). Andererseits ist
Bild(A) = Spann(Ae1 , . . . , Aen )
mit (e1 , . . . , en ) die Standardbasis von K n . Nun ist Aej die j-te Spalte von A. Also
ist der Rang von A nichts anderes als sein Spaltenrang SR(A).
Zeilen- und Spaltenraum einer Matrix sind im Allgemeinen nicht Untervektorräume
des selben Vektorraums. Um so erstaunlicher ist es, dass ganz allgemein Zeilen- und
Spaltenrang einer Matrix übereinstimmen. Wir werden weiter unten ZR(A) = SR(A)
mit Hilfe der Transformationsformel beweisen.
Definition 4.59. Sei K ein Körper, m, n ∈ N und


a1,1 · · · a1,n

..  ∈ Mat (K).
A =  ...
m,n
. 
am,1 · · ·
106
am,n
4.4 Eine Anwendung auf Matrizen
Die Transponierte von A ist

a1,1 · · ·
 ..
t
A = .
a1,n · · ·

am,1
..  ∈ Mat (K).
n,m
. 
am,n
Bemerkung 4.60. Transponieren einer Matrix macht aus Zeilen Spalten und aus Spalten Zeilen. In der Notation der Definition gilt folgendes. Der Zeilenraum von A ist der
Spaltenraum von At und der Spaltenraum von A ist der Zeilenraum von At .
Es gibt ein paar einfache Rechenregeln im Zusammenhang mit transponieren, die bekannt sein sollen.
Lemma 4.61. Sei K ein Körper, m, n, p ∈ N.
(i) Für A, B ∈ Matm,n (K) gilt (A + B)t = At + B t .
(ii) Für A ∈ Matm,n (K) und B ∈ Matn,p (K) gilt gilt (AB)t = B t At .
(iii) Ist A ∈ Matm (K), so haben wir det(At ) = det(A).
Beweis. Teil (i) folgt ganz leicht aus der Definition.
Teil (ii) braucht eine kleine Rechnung, ist aber nicht weiter schwierig zu zeigen.
Für Teil (iii) benötigen wir die Leibnizformel für die Determinante. Wir schreiben A =
(ai,j )1≤i,≤m und At = (bi,j )1≤i,j≤m , also bi,j = aj,i und
det At =
X
sign(σ)b1,σ(1) · · · bm,σ(m) =
X
sign(σ)aσ(1),1 · · · aσ(m),m .
(4.9)
σ∈Sm
σ∈Sm
Wegen σ(i) = j ⇐⇒ i = σ −1 (j) sehen wir durch Vertauschung von Faktoren, dass
m
Y
aσ(i),i =
i=1
m
Y
aj,σ−1 (j) = a1,σ−1 (1) · · · am,σ−1 (m) .
j=1
Wir setzen in (4.9) ein und benutzen sign(σ) = sign(σ)−1 = sign(σ −1 ) ∈ {±1}. Es folgt
det(At ) =
X
sign(σ −1 )a1,σ−1 (1) · · · am,σ−1 (m) .
σ∈Sm
Durchläuft σ alle Elemente von Sm , so durchläuft σ −1 ebenfalls die Elemente von Sm (in
neuer Reihenfolge). Es folgt det(At ) = det A.
Proposition 4.62. Sei K ein Körper, m, n ∈ N und A ∈ Matm,n (K). Dann gilt
ZR(A) = SR(A).
107
4 Vektorräume
Beweis. Wir betrachen A zunächst als lineare Abbildung in Hom(K n , K m ). Wegen Lemma 4.40 gibt es Basen von K n und K m mit der Eigenschaft, dass A bezüglich dieser Basen
die Form
Er 0
0 0
hat. Hier ist r der Rang der linearen Abbildung K n → K m , die durch Linksmultiplikation
mit A induziert wird. In der Bemerkung direkt nach der Definition des Spaltenrangs ist
zu lesen, dass
SR(A) = r.
(4.10)
Wegen der Transformationsformel gibt es P ∈ GLm (K) und Q ∈ GLn (K) mit
Er 0
P AQ =
.
0 0
Wir transponieren (4.12) und nutzen dabei Lemma 4.61(ii). Es folgt
Er 0
t t t
QAP =
.
0 0
(4.11)
(4.12)
Aber wir können P t und At als Endomorphismen in End(K m ) resp. End(K n ) auffassen.
Beide Matrizen sind invertierbar wegen Lemma 4.61(iii). Die Matrix P t betrachtet als
lineare Abbildung ist surjektiv, also Bild(At P t ) = Bild(At ). Weiterhin ist Qt injektiv,
also dim Bild(At P t ) = dim Bild(Qt At P t ) wegen der Dimensionsformel. Aus Bemerkung
4.58(ii) folgt SR(At ) = SR(Qt At P t ).
Der Spaltenrang von Qt At P t ist wegen (4.12) ebenfalls gleich dim Bild(Qt At P t ) = r.
Wir erhalten
SR(At ) = dim Bild(At ) = r.
(4.13)
Aber der Spaltenraum von At ist der Zeilenraum von A und somit gilt
ZR(A) = SR(At ) = r.
Die Proposition folgt aus (4.10).
108
5 Mehr Körper
Bis jetzt haben wir viel über “abstrakte” Körper gesprochen. Aus der Schule oder aus
der Analysis Vorlesung kennen wir die rationalen Zahlen Q und die reellen Zahlen R.
Am Anfang der Vorlesung haben wir den kleinstmöglichen Körper F2 kennengelernt.
In diesem Kapitel wollen wir für jede Primzahl p ≥ 2 einen Körper Fp mit p Elemente
konstruieren. Der Begriff der Äquivalenzrelation wird uns dabei behilflich sein.
Weiterhin werden wir einige Eigenschaften der komplexen Zahlen behandeln.
5.1 Äquivalenzrelationen
Definition 5.1. Sei M eine Menge. Eine Relation R auf M ist eine Teilmenge von
M × M . Für x, y ∈ M schreibt man xRy ⇐⇒ (x, y) ∈ R.
Eine Relation ∼ auf M nennt man Äquivalenzrelation (auf M ), falls folgende Eigenschaften gelten.
(R) Für jedes x ∈ M gilt x ∼ x. (Reflexivität)
(S) Für jedes Paar x, y ∈ M mit x ∼ y gilt auch y ∼ x. (Symmetrie)
(T) Für jedes Tripel x, y, z ∈ M mit x ∼ y und y ∼ z gilt x ∼ z. (Transitivität)
Beispiel 5.2. (i) Auf der Menge R r {0} definieren wir x ∼ y genau dann, wenn
x und y das gleiche Vorzeichen besitzen. Dann ist ∼ eine Äquivalenzrelation auf
R r {0}.
(ii) Auf R definieren wir eine Relation R durch
xRy
⇐⇒ x ≤ y,
falls x, y ∈ R. Diese Relation ist keine Äquivalenzrelation, da sie nicht symmetrisch
ist: zwar gilt 1R2, aber 2R1.
(iii) Ist K ein Körper und m ∈ N so ist
A ∼ B ⇐⇒ A und B sind ähnlich
eine Äquivalenzrelation auf Matm (K).
−1
Beweis: Reflexivität: Sicher gilt A ∼ A da A = Em AEm
.
Symmetrie: Falls A ∼ B, so gibt es T ∈ GLm (K) mit A = T BT −1 . Folglich haben
wir B = T −1 AT = T −1 A(T −1 )−1 und somit B ∼ A.
109
5 Mehr Körper
Transitivität: Falls A ∼ B und B ∼ C mit C ∈ Matm (K), so gibt es T, U ∈
GLm (K) mit A = T BT −1 und B = U CU −1 . Also A = T U CU −1 T −1 = T U C(T U )−1
und somit A ∼ C; wir haben hier (T U )−1 = U −1 T −1 verwendet.
(iv) Sei m ∈ Z. Wir sagen, dass a, b ∈ Z äquivalent modulo m sind, falls a − b durch
m teilbar ist. In anderen Worten, falls es k ∈ Z gibt, mit a − b = mk. Abkürzend
schreiben wir dann
a ≡ b (mod m)
und sagen, dass a und b äquivalent modulo m sind. Die drei Eigenschaften Reflexivität, Symmetrie und Transitivität lassen sich schnell nachprüfen.
Definition 5.3. Sei ∼ eine Äquivalenzrelation auf einer Menge M . Für x ∈ M definieren wir die Menge
[x] = {y ∈ M : y ∼ x} ⊆ M.
D.h. alle Elemente aus M , die zu x äquivalent sind. Jede Teilmenge der Form [x] von
M nennt man Äquivalenzklasse (bezüglich ∼) und x heisst Repräsentant von [x].
Achtung. Die Äquivalenzklasse [x] soll nicht mit dem Repräsentant x verwechselt werden! Die Klasse [x] ist eine Teilmenge von M aber x ist ein Element von M .
Beispiel 5.4.
sie sind
(i) Wir beziehen uns auf Beispiel 5.2(i). Es gibt zwei Äquivalenzklassen,
[−1] = {x ∈ R : x < 0}
und
[1] = {x ∈ R : x > 0}.
(ii) Wir beziehen uns auf Beispiel 5.2(iii). Die Äquivalenzklasse einer Matrix A ∈
Matm (K) sind alle Matrizen aus Matm (K), die zu A ähnlich sind:
[A] = {B ∈ Matm (K) : es existiert T ∈ GLm (K) mit B = T AT −1 }.
(ii) Wie sieht eine Äquivalenzklasse im Beispiel 5.2(iv) zu vorgegebenem m ∈ Z aus?
Nun es gilt x ≡ y (mod m) genau dann, wenn x = y + mk für ein k ∈ Z. Also
haben wir
[x] = x + mZ = {x + mk : k ∈ Z}.
Diese Äquivalenzklassen heissen Restklassen modulo m.
Betrachten wir den Spezialfall m = 2. Dann ist [x] = x + 2Z. Falls x gerade ist,
so haben wir x ∈ 2Z und damit
[x] = 2Z = [0] falls x gerade.
Ist x ungerade, so ist es von der Form x = 1 + 2k mit k ∈ Z. D.h. x ≡ 1 (mod 2)
und somit
[x] = 1 + 2Z = [1] falls x ungerade.
Zusammengefasst halten wir fest, dass es im Fall m = 2 zwei Äquivalenzklassen [0]
und [1] gibt. Die Klasse [0] ist die Menge der gerade Zahlen und [1] ist die Menge
der ungeraden Zahlen.
110
5.2 Die Körper Fp
Nun kommt eine Grundlegende Eigenschaft für allgemeine Äquivalenzrelationen. Das
folgende Lemma besagt, dass eine Menge mit einer Äquivalenzrelation die disjunkt Vereinigung ihrer Äquivalenzklassen ist.
Lemma 5.5. Sei ∼ eine Äquivalenzrelation auf einer Menge M .
(i) Jedes Element von M ist in einer Äquivalenzklasse enthalten.
(ii) Ist y ∈ [x] so gilt [x] = [y].
(iii) Zwei Äquivalenzklassen sind entweder gleich, oder haben kein gemeinsames Element (sie sind disjunkt).
Inbesondere ist M die disjunkte Vereinigung aller Äquivalenzklassen.
Beweis. Ist x ∈ M so gilt wegen (R)eflexivität x ∼ x und somit x ∈ [x]. Dies impliziert
Teil (i).
Nach Voraussetzung gilt x ∼ y. Falls z ∈ [x] so gilt z ∼ x. (T)ransitivität ergibt z ∼ y,
also z ∈ [y]. Da z beliebig war, folgt [x] ⊆ [y]. (S)ymmetrie und die Voraussetzung
implizieren ebenfalls y ∼ x. Aus dem gleichen Argument wie oben folgt [y] ⊆ [x]. Also
[x] = [y] und daraus folgt Teil (ii).
Seien [x], [y] zwei Äquivalenzklassen wie in (iii). Falls [x] ∩ [y] = ∅, so ist nichts zu zeigen.
Andererseits gibt es z mit z ∈ [x] und z ∈ [y]. Wegen (ii) muss also [x] = [z] = [y] gelten.
Es folgt Teil (iii).
Definition 5.6. Sei M ein Menge mit einer Äquivalenzrelation, dann ist
M/∼= {[x] : x ∈ M }
die Menge der Äquivalenzklassen.
Im Spezialfall M = Z und ∼ äquivalenz modulo m, so schreiben wir Z/mZ für die Menge
der Äquivalenzklassen.
Achtung. Der “Quotient” M/∼ ist keine Teilmenge von M . Seine Elemente sind Teilmengen von M .
5.2 Die Körper Fp
Sei m ∈ Z. Wir werden jetzt auf der Menge Z/mZ der Restklassen modulo m eine
Ringstruktur definieren.
Seien [x], [y] ∈ Z/mZ Restklassen. Die Summe [x] + [y] definieren wir als die Restklasse
[x + y]. Wir wollen nachprüfen, dass die Summe wohldefiniert ist, d.h. dass [x + y]
unabhängig von der Wahl der Repräsentaten x, y ist. Sind x0 , y 0 ∈ Z mit [x] = [x0 ] und
[y] = [y 0 ] so gilt x = x0 +mk und y = y 0 +ml für k, l ∈ Z. Also x+y = x0 +y 0 +m(k +l) ∈
[x0 + y 0 ] und daher [x + y] = [x0 + y 0 ]. Also ist unsere Summe wohldefiniert. Es gilt z.B.
[x] + [0] = [x + 0] = [x], also ist [0] ein neutrales Element bezüglich der Addition.
111
5 Mehr Körper
Weiterhin haben wir [x] + [−x] = [x + (−x)] = [0] und somit besitzt jede Restklassen
ein Inverses bezüglich der Addition.
Das Produkt [x][y] wollen wir analog als [xy] definieren. Dazu müssen wir wieder Wohldefiniertheit überprüfen. Wir haben xy = (x0 + mk)(y 0 + ml) = x0 y 0 + x0 ml + y 0 mk + m2 kl ∈
[x0 y 0 ]. Es gilt z.B. [1][x] = [1x] = [x] also ist [1] ein neutrales Element bezüglich der Multiplikation.
Lemma 5.7. Die Menge Z/mZ mit den eben definierten Addition und Multiplikation
ist ein kommutativer Ring mit Eins [1].
Beweis. Man muss verschiedene Eigenschaften wie Assoziativität, Distributivität und
Kommutativität nachprüfen. Diese folgen aber aus den entsprechenden Eigenschaften
des Rings Z.
Beispiel 5.8.
(i) Für m = 5 haben wir
[6][7][8] = [1][2][3] = [6] = [1]
in
Z/5Z.
Die “modulo m” Schreibweise ist durchaus praktisch. Obige Rechnung ist gleichbedeutend wie
6 · 7 · 8 ≡ 1 · 2 · 3 ≡ 6 ≡ 1 (mod 5).
(ii) Der Ring Z/mZ muss kein Körper sein. Für m = 4 gilt
22 ≡ 2 · 2 ≡ 4 ≡ 0 (mod 4).
Das Element [2] ∈ Z/4Z kann kein multiplikatives Inverse besitzen. Da [2] 6= [0]
ist Z/4Z kein Körper.
Auch Z/6Z ist kein Körper, da
2 · 3 ≡ 6 ≡ 0 (mod 6).
Also sind sowohl [2] wie auch [3] nicht invertierbar in Z/6Z.
(iii) Für gewisse m ist Z/mZ doch ein Körper. Zum Beispiel für m = 2. Die Einzigen Elemente sind [0] und [1] und [1] ist trivialerweise invertierbar (bezüglich der
Multiplikation). Somit ist Z/2Z ein Körper, er ist unser altbekannter F2 .
Wir werden weiter unten zeigen, dass Z/pZ ein Körper ist, für jede Primzahl p. Dazu
brauchen wir Divison mit Rest.
Lemma 5.9 (Division mit Rest). Sei x, m ∈ Z mit m ≥ 1. Es gibt k, r ∈ Z mit
x = km + r und r ∈ {0, . . . , m − 1}. Weiterhin ist r als Element von {0, . . . , m − 1} mit
der Eigenschaft (x − r)/m ∈ Z eindeutig bestimmt, man nennt es den Rest bei Division
von x durch m.
112
5.2 Die Körper Fp
Beweis. Der Quotient x/m ist eine rationale Zahl. Wir wählen die grösste ganze Zahl
k ∈ Z mit k ≤ x/m. Es gilt also
x
x
−1<k ≤ .
(5.1)
m
m
Wir setzen r = x − km ∈ Z. Dann ist r < m und r ≥ 0 wegen (5.1). Die letzte
Ungleichung impliziert r ≤ m − 1, da r eine ganze Zahl ist.
Wir müssen nachweisen, dass r eindeutig festgelegt ist. Seien r, r0 ∈ {0, . . . , m − 1} und
k, k 0 ∈ Z mit x = km + r = k 0 m + r0 . Ohne Einschränkung gilt k ≥ k 0 . Falls k > k 0 , so
gilt k − k 0 ≥ 1, also r0 − r = (k − k 0 )m ≥ m; das ist unmöglich, da r0 − r ≤ r0 ≤ m − 1.
Folglich gilt k = k 0 und damit auch r = r0 .
Bemerkung 5.10. Sei m ≥ Z und m ≥ 1. Division mit Rest hat folgende wichtige
Konsequenz für Restklassen modulo m. Sei [x] ∈ Z/mZ eine Restklasse mit Repräsentant
x ∈ Z. Es gibt also k, r ∈ Z mit x = mk + r und 0 ≤ r ≤ m − 1. Insbesondere also
[x] = [r] da m die Differenz x − r teilt. Somit ist Z/mZ = {[0], [1], . . . , [m − 1]}. Die
Eindeutigkeitsaussage im letzten Lemma impliziert, dass [0], [1], . . . , [m − 1] paarweise
verschieden sind. Also besitzt Z/mZ genau m Elemente.
Satz 5.11. Sei p ≥ 2 eine Primzahl. Dann ist Z/pZ ein Körper mit #Z/pZ = p.
Beweis. Wir wissen bereits, dass Z/pZ genau p Elemente [0], [1], . . . , [p − 1] besitzt.
Wegen Lemma 5.7 ist Z/pZ ein kommutativer Ring mit Eins. Um zu zeigen, dass Z/pZ
ein Körper ist, müssen wir überprüfen, dass [a] ein Inverses bezüglich der Multiplikation
besitzt, falls a ∈ {1, . . . , p − 1}.
Wir betrachten die Menge
I = {ua + vp : u, v ∈ Z} ⊆ Z.
Diese Menge ist nicht leer und enthält positive ganze Zahlen wie p = 0 · a + 1 · p und
(−1)·a+1·p ∈ {1, . . . , p−1}. Sie enthält daher auch eine kleinste ganze Zahl x = ua+vp
(hier sind u, v ∈ Z). Diese Zahl must x ≤ p − 1 erfüllen.
Wir dividieren p durch x mit Rest, vgl. Lemma 5.9. Es gibt also k, r ∈ Z mit p = kx + r
und 0 ≤ r ≤ x − 1. Also r = p − kx = −kua + (1 − kv)p und dieses Element ist in I.
Aber 0 ≤ r < x also muss r = 0 sein, da es in I kein positives Element kleiner als x
geben kann. Es folgt p = kx.
Da p eine Primzahl ist, gibt es nur zwei Möglichkeiten: x = 1 oder x = p. Die Zweite
können wir auschliessen, da x ≤ p − 1.
Folglich bleibt nur x = 1 übrig. In anderen Worten
ua + vp = 1.
Aber das bedeutet ua ≡ 1 (mod p) oder [u][a] = [1]. Somit haben wir ein Inverses zu
[a] gefunden.
Beispiel 5.12. Wir berechnen Inverse in Fp für p = 5. Es gilt Fp = {[0], [1], [2], [3], [4]}.
Man findet
[1] · [1] = [1] und [4] · [4] = [16] = [1].
Also
[1]−1 = [1] und
[4]−1 = [4].
113
5 Mehr Körper
5.3 Die komplexen Zahlen
In Serie 3, Aufgabe E2 haben wir die folgenden Verknüpfungen eingeführt. Für zwei
Paare reeller Zahlen (x, y), (u, v) definierten wir
(x, y) + (u, v) = (x + u, y + v) und (x, y)(u, v) = (xu − yv, xv + yu).
(5.2)
(Diese Verknüpfungen wurden für einen beliebigen kommutativen Ring definiert.) In
dieser Übungsaufgabe haben wir gesehen, dass R × R = R2 mit dieser Addition und
dieser Multiplikation ein kommutativer Ring mit Nullelement (0, 0) und Einselement
(1, 0) ist. Das Element (0, 1) besitzt eine besondere Eigenschaft, es gilt
(0, 1)2 = (0, 1)(0, 1) = (−1, 0) = −(1, 0).
Das Element (0, 1) werden wir mit i bezeichnen. Weiterhin werden wir ein Element (x, 0)
von R2 mit x ∈ R identifizieren. In dieser Schreibweise gilt (1, 0) = 1 und
(x, y) = x(1, 0) + y(0, 1) = x + iy.
Das Produkt komplexer Zahlen lässt sich durch “Ausmultiplizieren” wie folgt berechnen
(x + iy)(u + iv) = xu + ixv + iyu + i2 vy = (xu − vy) + i(xv + yu),
wobei x, y, u, v ∈ R. Dies ist konsistent mit (5.2).
Definition 5.13. Das komplex konjugierte von z = x + iy ∈ C mit x, y ∈ R ist
z = x − iy ∈ C.
Bemerkung 5.14. Für z = x + iy ∈ C r {0} mit x, y ∈ R gilt zz = x2 + y 2 ∈ R. Wir
brauchen diese Bemerkung, um zu zeigen, dass C ein Körper ist.
Definition-Lemma 5.15. Der soeben definierte Ring ist ein Körper. Wir nennen ihn
den Körper der komplexen Zahlen und bezeichnen ihn mit C. Ist z = x + yi ∈ C
mit x, y ∈ R, so nennt man x den Realteil und y den Imaginärteil von z.
Beweis. Aus Aufgabe E2, Serie 3 wissen wir, dass (C, 0, +, 1, ·) ein kommutativer Ring
ist. Wir müssen noch überprüfen, dass jedes z ∈ Cr{0} ein bezüglich der Multiplikation
inverses Element besitzt. Sei z = x + iy mit x, y ∈ R. Da z 6= 0 gilt x 6= 0 oder y 6= 0.
Insbesondere ist x2 + y 2 > 0. Wegen Bemerkung 5.14 gilt
x2
z
= 1.
+ y2
x2
z
x − iy
= 2
.
2
+y
x + y2
z
Also ist z invertierbar und
z −1 =
114
5.3 Die komplexen Zahlen
Beispiel 5.16. In C gilt (1 + i)(1 − i) = 12 − i2 = 2 und 1/(1 + i) = (i − 1)/2. Weiterhin
ist i−1 = −i.
Die komplexen Zahlen C können wir mit der Ebene R2 identifizieren. Die Multiplikation
auf C hat eine geometrische Interpretation.
Definition 5.17. Der Absolutbetrag einer komplexen Zahl z = x+yi ∈ C mit x, y ∈ R
ist
p
|z| = x2 + y 2 .
Bemerkung 5.18. Für z, w ∈ C gilt |zw| = |z||w|, wie in einer Übungsaufgabe auf
Serie 13 nachgewiesen wird.
Jede komplexe Zahl z ∈ C r {0} lässt sich wie folgt in Polarkoordinaten schreiben. Seien
x, y ∈ R mit z = x + iy ∈ C r {0}. Sei r = |z| > 0. Es gibt α ∈ R mit
x = r cos α
und
y = r sin α.
(5.3)
Also gilt z = r(cos α+i sin α). Wir haben z in Polarkoordinaten geschrieben. Der Winkel
α ist nicht eindeutig festgelegt, da (5.3) auch gilt, wenn wir α durch α + 2πk mit k ∈ Z
ersetzen.
Sei nun w ∈ C r {0} eine weitere komplexe Zahl. Wir kürzen r0 = |w| > ab und wählen
β ∈ R mit
w = r0 (cos β + i sin β).
Das Produkt zw ist
zw = r(cos α + i sin α)r0 (cos β + i sin β)
= rr0 (cos α cos β − sin α sin β) + i(sin α cos β + cos α sin β)
Die Additionstheorem für den Sinus und den Kosinus implizieren cos α cos β−sin α sin β =
cos(α+β) und sin α cos β+cos α sin β = sin(α+β). Hieraus folgt mit r = |z| und r0 = |w|,
dass
zw = |z||w|(cos(α + β) + i sin(α + β)).
Wir halten die folgende Beobachtung fest: Bei der Multiplikation zweier komplexer Zahlen
ungleich Null multiplizieren sich die Absolutbeträge und die Winkeln addieren sich.
Wir zeigen nun, dass jede komplexe Zahl eine Quadratwurzel in den komplexen Zahlen
besitzt.
Lemma 5.19. Sei w ∈ C, dann existiert z ∈ C mit z 2 = w.
Beweis. Für w = 0 nehmen wir z = 0. Falls w 6= 0, so existiert r > 0 und α ∈ R mit
w = r(cos(α) + i sin(α)). Wir definieren
√
z = r(cos(α/2) + i sin(α/2)).
Aus den Berechnung in Bemerkung 5.18 folgt z 2 = w.
115
5 Mehr Körper
Es gilt sogar der folgende Satz, den wir jedoch nicht beweisen werden.
Satz (Fundamentalsatz der Algebra). Ein nichtkonstantes Polynom P ∈ C[X] besitzt
eine komplexe Nullstelle. D.h. es existiert x ∈ C mit P (x) = 0.
Bemerkung 5.20. Hier stellen wir einen zweiten Zugang zu den komplexen Zahlen vor.
Er beruht auf dem Matrizenkalkül. Wir betrachten dazu die Menge
1 0
0 1
x y
K= x
+y
: x, y ∈ R =
: x, y ∈ R ⊆ Mat2 (R).
0 1
−1 0
−y x
Die Summe und das Produkt zweier Matrizen aus K liegen wieder in K, da
x y
u v
x+u
y+v
+
=
∈K
−y x
−v u
−(y + v) x + u
und
x y
−y x
u v
−v u
=
xu − yv xv + uy
−uy − xv xu − yv
∈K
für alle x, y, u, v ∈ R. Man vergleiche diese Berechnung mit (5.2). Also ist K mit der
Matrixaddition und Matrixmultiplikation ein Ring. Es ist sogar ein kommutativer Ring
mit Eins E2 , wie eine kurze Rechnung zeigt.
Jede Matrix
x y
∈ K r {0} hat Determinante x2 + y 2 6= 0
−y x
x −y
1
∈ K. Also ist K ein Körper. Die Matrix
und Inverses x2 +y2
y x
0 1
I=
−1 0
erfüllt I 2 = −E2 . Also entsprechen die Matrizen in K den komplexen Zahlen in C, wobei
die Matrix I ∈ K dem Element i ∈ C entspricht. Genauer gesagt, existiert eine bijektive
Abbildung K → C, welche die Ringstrukturen respektiert und welche I auf i schickt.
Man sagt, dass die Körper K und C “isomorph” sind, sie sind aus sicher der Algebra
ununterscheidbar.
5.4 Der Körper F9
Wir nehmen Bemerkung 5.20 als Motivation für die folgende Konstruktion.
Wir definieren





 

0 1
1 0
+y
: x, y ∈ F3 ⊆ Mat2 (F3 ),
K= x
0 1
−1 0





 | {z }
|
{z
}
=E
116
=I
5.4 Der Körper F9
es ist ein F3 -Vektorraum der Dimension 2, da (E, I) linear unabhängig ist. Es gilt
0 1
2
I =
= −E.
(5.4)
−1 0
Seien x, y, u, v ∈ F3 , dann gilt (ähnlich wie bei den komplexen Zahlen)
(xE + yI) + (uE + vI) = (x + u)E + (y + v)I
und
(xE + yI)(uE + vI) = xuE + yvI 2 + (xv + yu)I = (xu − yv)E + (xv + yu)I
wegen (5.4). Inbesondere ist K abgeschlossen unter der Matrixaddition und -multiplikation.
Schliesslich gilt
(xE + yI)(uE + vI) = (uE + vI)(xE + yI),
also ist K ein kommutativer Ring mit Eins E.
Wir zeigen nun, dass K ein Körper ist. Sei dazu x, y ∈ F3 nicht beide Null. Zuerst
behaupten wir, dass det(xE + yI) 6= 0. Aus y = 0 folgt x 6= 0 und det(xE) = x2 6= 0.
Also stimmt unsere Behauptung für y = 0. Für y 6= 0 gilt det(xE + yI) = y 2 det(tE + I),
wobei t = x/y ∈ F3 . Aber
det(tE + I) = t2 + 1
und wir stellen fest, dass 02 + 1 ≡ 1 (mod 3), 12 + 1 ≡ 2 (mod 3), und 22 + 1 ≡ 2
(mod 3). Hieraus folgt unsere Behauptung und xE + yI ist ein invertierbares Element
in Mat2 (F3 ), es gilt
1
x −y
−1
∈ K.
(xE + yI) =
det(xE + yI) y x
Folglich ist K ein Körper. Er enthält genau neun Elemente, da es 32 = 9 Möglichkeiten
für das Paar (x, y) ∈ F3 gibt und da (E, I) linear unabhängig ist. Der Körper F3 ist
vermöge
x 0
: x ∈ F3 ⊆ K
0 x
in K enthalten und wird mit F9 bezeichnet.
Achtung. Der Körper F9 darf nicht mit dem Ring Z/9Z verwechselt werden. Der Ring
Z/9Z ist kein Körper.
Bemerkung 5.21. Man kann zeigen, dass es zu jeder Primzahl p und zu jeder natürlichen
Zahl e einen Körper mit pe Elementen gibt. Dieser Körper ist sogar eindeutig bis auf
Isomorphie festgelegt.
117
Index
Ändliche Matrizen, 104
Äquivalenzklasse, 110
Äquivalenzrelation, 109
Übergangsmatrix, 102
Grad eines Polynoms, 25
Gruppenisomorphismus, 20
Abbildung von Mengen, 12
Absolutbetrag auf C, 115
Additive Gruppe eines Körpers, 23
Adjunkte Matrix, 85
Allgemeine lineare Gruppe, 43
Alternierende Gruppe, 70
Identitätsabbildung, 13
Identitätsmatrix, 34
Imaginärteil, 114
Inhomogenes lineares Gleichungssystem,
44
Injektive Abbildung, 12
Inverses Element, 19
Inverses Element in einer Gruppe, 15
Invertierbare Matrix, 41
Isomorphismus von Vektorräumen, 97
Basis eines Vektorraums, 92
Bijektive Abbildung, 12
Bild eines Gruppenhomomorphismuses,
21
Bild, Homomorphismus von Vektorräumen,
98
Charakteristik eines Körpers, 30
Definitionsbereich, 12
Determinante, 71
Determinante eines Endomorphismus, 105
Diagonalmatrix, 72
Dimension eines endlich erzeugten Vektorraums, 93
Homogenes lineares Gleichungssystem, 44
Homomorphismus von Vektorräumen, 97
Körper, 26
Kardinalität einer Menge, 12
Kartesisiches Produkt zweier Mengen, 11
Kern eines Gruppenhomomorphismuses,
21
Kern, Homomorphismus von Vektorräumen,
98
Kommutativer Ring, 23
Komplementäre Matrix, 85
Komplexe Konjugation, 114
Komplexe Zahlen, 114
Einheitsmatrix, 34
Einsmatrix, 34
Elementarmatrizen, 47
Endlich erzeugter Vektorraum, 90
Endliches Erzeugendensystem, 90
Endomorphismus eines Vektorraums, 97
Leeres Tupel, 90
Leibnizformel, 71
Linear abhängig, 90
Linear unabhängig, 90
Lineare Abbildung, 97
Linksinverses, 41
Fehlstand einer Permutation, 67
Matrix, 33
119
Index
Matrixprodukt, 37
Multiplikative Gruppe eines Körpers, 26
Neutrales Element einer Gruppe, 15
Nullabbildung, 98
Nullmatrix, 34
Permutation, 64
Pivoteintrag, 51
Primzahl, 29
Quadratische Matrix, 33
Rang, 99
Realteil, 114
Rechtsinverses, 41
Relation auf einer Menge, 109
Repräsentant einer Äquivalenzklasse, 110
Restklassen modulo m, 110
Ring, 23
Schnitt zweier Mengen, 11
Skalarmultiplikation, 35, 87
Spaltenrang einer Matrix, 106
Spaltenvektor, 39
Spann eines Vektorentupels, 89
Spezielle Lineare Gruppe, 82
Spur einer quadratischen Matrix, 105
Spur eines Endomorphismus, 105
Standardbasis des K m , 92
Summe zweier Matrizen, 34
Surjektive Abbildung, 12
Symmetrische Gruppe, 16
Symmetrische Gruppe Sn , 64
Transponierte Matrix, 107
Transposition, 65
Triviale Lösung eines homogenen Gleichungssystems, 55
Untergruppe, 21
Untervektorraum, 88
Vektorraum über einem Körper, 87
Vereinigung zweier Mengen, 11
Verknüpfungsabbildung einer Gruppe, 15
120
Vorzeichen einer Permutation, 67
Wertebereich, 12
Zeilenrang einer Matrix, 106
Zeilenraum einer Matrix, 106
Zeilenstufenform, 51
Zeilenumformungen, 47
Zeilenvektor, 39
Herunterladen