lineare algebra i - math.uni

Werbung
LINEARE ALGEBRA I
Ernst Bönecke
Universität Hamburg
2015
VORWORT
Dieser Text ist entstanden aus mehreren Vorlesungen über Lineare Algebra, insbesondere den drei Kursen aus den Jahren 2000 - 2004, und anderen
Vorlesungen,die ich als Dozent an der Universität Hamburg gehalten habe.
Er ist kein reines Vorlesungsskript, denn er enthält mehr als man in 14 Semesterwochen schaffen kann, insbesondere mehr Beispiele.
Der Aufbau richtet sich nicht nach didaktischen, sondern allein nach mathematischen Gesichtspunkten. So werden bereits in §2 Faktorgruppen behandelt - ein Thema, das Anfänger häufig als abstrakt empfinden. Ich hoffe
aber, den Text so ausführlich aufgeschrieben zu haben, dass man danach die
Lineare Algebra auch vor Beginn eines Mathematik- oder Physikstudiums
lernen kann.
Kenntnisse in Analysis werden nicht vorausgesetzt, außer der Existenz
von Quadratwurzeln nichtnegativer reeller Zahlen. Auch das Induktionsaxiom, das eher in die Analysis gehört, und die Konstruktion des Körpers der
komplexen Zahlen werden nicht vorausgesetzt, sondern ausführlich behandelt.
Der Text knüpft an Schulkenntnisse an, z.B. wird die analytische Geometrie im R2 und im R3 in §1 wiederholt. Er richtet sich also an alle Anfänger
mit Studienfach Mathematik oder Physik und eignet sich gut dafür, sich zwischen Schule und Hochschule auf das Studium vorzubereiten.
Hamburg, im November 2015
1
Inhaltsverzeichnis
§1
Grundbegiffe
1.1
1.2
1.3
1.4
1.5
1.6
1.7
Einiges über Aussagen und Mengen
Relationen, Induktion
Funktionen
Etwas analytische Geometrie im Rn
Geraden im R2
Geraden und Ebenen im R3
Aufgaben
4
10
14
19
23
26
31
§2
Gruppen
34
2.1
2.2
2.3
2.4
Allgemeines
Untergruppen und Normalteiler
Homomorphismen von Gruppen
Aufgaben
34
38
47
53
§3
Ringe und Körper
55
3.1
3.2
3.3
3.4
3.5
3.6
Etwas Ringtheorie
Der Ring der ganzen Zahlen
Der Polynomring in einer Unbestimmten
Der Körper der Brüche
Der Körper der komplexen Zahlen
Aufgaben
55
59
70
82
87
94
§4
Vektorräume
98
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
Definition und Beispiele
Basis und Dimension
Lineare Abbildungen
Matrizen
Der Rang einer Matrix
Lineare Gleichungssysteme
Summen von Vektorräumen
Anwendung: Körpererweiterungen
Die Algebra der n × n-Matrizen, Quaternionen
Aufgaben
4
2
98
104
115
121
132
142
152
157
160
167
§5
5.1
5.2
5.3
5.4
5.5
Determinanten
171
Permutationen
171
Definition der Determinante
176
Der Laplacesche Entwicklungssatz
185
Determinante eines Endomorphismus 191
Aufgaben
193
Literaturverzeichnis
195
Verzeichns der Definitionen
196
3
§1 Grundbegriffe
1.1 Einiges über Aussagen und Mengen
Mengenlehre und Logik sind für uns nicht Selbstzweck, sondern man braucht
sie, um mathematische Sachverhalte kurz und unmissverständlich zu formulieren. Wir werden uns auf das Notwendigste beschränken.
Definition 1.1.1 : Unter einer Aussage A verstehen wir ein sprachliches
oder schriftliches Gebilde, das entweder wahr ( w ) ist oder falsch ( f ) .
Man sagt auch, die Aussage A hat den Wahrheitswert w oder f .
Beispiel 1.1.2
Aussage
Es gibt keinen Studierenden in diesem Hörsaal
1·2=2
1 · 2 = 2 und 3 · 4 = 4
1 · 2 = 2 oder 3 · 4 = 4
Wenn Ptolemäus Recht hat , dann ist die
Erde eine Scheibe
Wahrheitswert
f
w
f
w
w
2
Wichtig ist für uns die Verknüpfung von Aussagen : Mathematische Sätze
sind logisch verknüpfte Aussagen. Man definiert so eine Verknüpfung, indem
man den Wahrheitswert der verknüpften Aussage in Abhängigkeit von den
Wahrheitswerten der gegebenen Aussage festlegt:
Definition 1.1.3 : Seien A und B zwei gegebene Aussagen. Dann definieren
wir die Wahrheitswerte von
a) A und B , in Zeichen: A ∧ B , durch folgende Tabelle:
A B A∧B
w w
w
w f
f
f
f w
f f
f
A ∧ B ist also genau dann wahr, wenn sowohl A als auch B wahr sind.
b) A oder B , in Zeichen: A ∨ B , durch folgende Tabelle:
A B A∨B
w w
w
w f
w
f w
w
f f
f
A ∨ B ist also auch dann wahr, wenn beide Aussagen wahr sind. Man sieht
4
hier, wie sinnvoll es ist, solche Verabredungen am Anfang zu treffen, um
Missverständnisse oder sprachlich unschöne Formulierungen wie “und/oder”,
die man in juristischen Texten häufig findet, zu vermeiden.
c)Aus A folgt B , in Zeichen: A =⇒ B , man sagt auch:
A impliziert B oder : Wenn A gilt, dann gilt B , durch folgenden Tabelle:
A B A =⇒ B
w w
w
f
w f
f w
w
w
f f
Man beachte: A =⇒ B ist stets wahr, wenn A falsch ist. Das mag manchen erstaunen, ist aber eine sinnvolle Definition, die sich sogar mit dem
umgangssprachlichen Gebrauch deckt, wie das Beispiel “Wenn Ptolemäus
Recht hat, dann ist die Erde eine Scheibe” zeigt, das wahr ist , obwohl beide
Teilaussagen falsch sind.
d) A gleichbedeutend mit B , in Zeichen : A ⇐⇒ B , man sagt auch:
A gilt genau dann, wenn B gilt , durch folgende Tabelle:
A B
w w
w f
f w
f f
A
⇐⇒
w
f
f
w
B
e) nicht A , in Zeichen : ¬A , auch non A , durch die Tabelle
A ¬A
w f
f
w
Solche Tabellen mit Wahrheitswerten wie diese fünf hier nennt man auch
Wahrheitstafeln.
2
Wahrheitstafeln verwendet man auch, um die Wahrheitswerte von weiteren
verknüpften Aussagen wie
A ∧ (B ∧ C)
(¬A) ∨ B
¬(A ∨ B)
auszurechnen. Dabei muss man sämtliche möglichen Wahrheitswerte von A,
B und C berücksichtigen, z.B. für (¬A) ∨ B :
5
A B
w w
w f
f w
f f
¬A (¬A) ∨ B
f
w
f
f
w
w
w
w
Wir sehen an diesem Beispiel, dass (¬A) ∨ B dieselbe Wahrheitstafel hat wie
A =⇒ B . Man wird die Aussagen “A =⇒ B ” und “(¬A) ∨ B”
deshalb “logisch gleichwertig” nennen:
Definition 1.1.4 : Gegeben seien mehrere Aussagen A, B, C, . . . und zwei
Aussagen X und Y , die beide durch Verknüpfung dieser Aussagen A, B, C, . . .
entstanden sind. Wenn die Aussage
X
⇐⇒
Y
für alle möglichen Wahrheitswerte der Aussagen A, B, C, . . . den Wahrheitswert w annimmt, so sagt man: X und Y sind (logisch) gleichwertig . Die
Aussage “X ⇐⇒ Y ” bezeichnet man dann als eine Tautologie .
Satz 1.1.5 : Wenn A, B, C Aussagen sind, dann gelten folgende Tautologien:
a) ¬(¬A) ⇐⇒ A
b) A ∧ B ⇐⇒ B ∧ A
c) (A ∧ B) ∧ C ⇐⇒ A ∧ (B ∧ C)
d) A ∨ B ⇐⇒ B ∨ A
e) (A ∨ B) ∨ C ⇐⇒ A ∨ (B ∨ C)
f) A ∧ (B ∨ C) ⇐⇒ (A ∧ B) ∨ (A ∧ C)
g) A ∨ (B ∧ C) ⇐⇒ (A ∨ B) ∧ (A ∨ C)
h) ¬(A ∧ B) ⇐⇒ (¬A) ∨ (¬B)
i) ¬(A ∨ B) ⇐⇒ (¬A) ∧ (¬B)
j) (A =⇒ B) ⇐⇒ ((¬B) =⇒ (¬A))
Man beweist diesen Satz durch Wahrheitstafeln, z.B. für h) :
A B
w w
w f
f w
f f
A∧B
w
f
f
f
¬(A ∧ B)
f
w
w
w
¬A
f
f
w
w
¬B
f
w
f
w
(¬A) ∨ (¬B)
f
w
w
w
h)
w
w
w
w
2
Zur Schreibweise : Bei den Formeln in Satz 1.1.5 haben wir Klammern
weggelassen: Statt d) hätten wir genauer
(A ∨ B)
⇐⇒
6
(B ∨ A)
schreiben müssen. Man kann die Klammern weglassen, wenn man vereinbart:
Die Verknüpfungen sind in der Reihenfolge
erst ¬ , dann ∧ , dann ∨ , dann =⇒ und dann ⇐⇒
auszuführen, soweit Klammern nichts Anderes festlegen.
Neben Aussagen hat man es in der Mathematik zu tun mit Zahlen oder
Buchstaben, die man zusammenfassen möchte zu einer Menge. Es bereitet
nun erhebliche Schwierigkeiten, exakt zu definieren, was eine Menge ist. Da
wir uns hier nicht mit Grundlagen der Mathematik beschäftigen wollen, reicht
für uns die folgende
Definition 1.1.6 : Unter einer Menge M verstehen wir eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten unserer Anschauung
oder unseres Denkens, welche die Elemente der Menge M genannt werden,
zu einem Ganzen. Ist x ein Element von M , so schreiben wir
x∈M
;
ist diese Aussage falsch, so schreiben wir
x∈
/M
.
Definition 1.1.7 (Schreibweise von Mengen) : Man kann eine Menge
auf zwei Arten angeben: Entweder, man schreibt in geschweiften Klammern
alle Elemente der Menge hin, etwa
{1, 2, 5, x} ,
das soll bedeuten, dass die Menge aus den Elementen 1, 2, 5 und x besteht,
oder man schreibt in den geschweiften Klammern ein Symbol für die Elemente, einen senkrechten Strich und dann die Eigenschaft, die die Elemente
haben sollen. Z.B. ist
{ x | x ist ganze Zahl und 2 teilt x }
die Menge der geraden ganzen Zahlen.
Definition und Beispiel 1.1.8 : Mengen, die bei uns immer wieder vorkommen, sind
N0 = {0, 1, 2, . . .}
(Pünktchen setzt man, wenn man nicht alle Elemente hinschreiben will oder
kann, aber sich denken kann, wie es weitergeht), die Menge der natürlichen
Zahlen mit Null ,
N = {1, 2, 3, . . .}
7
die Menge der natürlichen Zahlen, (es ist Definitionssache, ob man 0 zu
den natürlichen Zahlen rechnet; wir wollen das hier nicht tun),
{0, 1, −1, 2, −2, 3, −3, . . .}
=
Z
die Menge der ganzen Zahlen ,
nr o
Q =
r ∈ Z ∧ s ∈ Z ∧ s 6= 0
s
die Menge der rationalen Zahlen , schließlich die Mengen R der reellen
und C der komplexen Zahlen , die in 3.5 eingeführt werden. Wir wollen
noch vereinbaren, dass es eine Menge gibt, die gar kein Element enthält, die
leere Menge ∅ .
Definition 1.1.9 (Gleichheit zweier Mengen) : Zwei Mengen M und N
heißen gleich , man schreibt M = N , wenn jedes Element von M auch
Element von N , und jedes Element von N auch Element von M ist. Wir
wollen diese Definition etwas formaler aufschreiben und dabei auch gleich
zwei neue Symbole kennenlernen :
M
=
N
:⇐⇒
∀ x : (x ∈ M
⇐⇒
x ∈ N) ,
das Zeichen :⇐⇒ bedeutet, dass die linke Aussage durch die rechte definiert wird, man liest es : “nach Definition gleichbedeutend”. Das Zeichen ∀ heißt: “für alle” .
Definition 1.1.10 (Teilmenge): Seien M und N Mengen. Man sagt, M ist
Teilmenge von N , wenn jedes Element von M auch Element von N ist.
Formal :
M ⊂ N :⇐⇒ ∀ x : (x ∈ M =⇒ x ∈ N ).
Beispiel 1.1.11 : a) Es gilt N ⊂ Z und Z ⊂ Q .
b) Es gilt für jede Menge M : ∅ ⊂ M .
Beweis: Es gilt ∀ x : (x ∈ ∅ =⇒ x ∈ M ) , denn die Aussage “x ∈ ∅ ” ist
für alle x falsch, nach Definition der leeren Menge.
2
Wir definieren drei Operationen zwischen Mengen:
Definition 1.1.12 : Seien M und N Mengen.
a) Den Durchschnitt der Mengen M und N definieren wir als
M ∩N
:=
{ x | x∈M ∧x∈N } .
Dabei bedeutet das Zeichen “ := ”, dass die linke Menge durch die rechte
Menge definiert wird. Man liest es: “nach Definition gleich”.
b) Als Vereinigung der Mengen M und N definieren wir
M ∪N
:=
{ x | x∈M ∨x∈N } .
8
c) Als Differenz von M und N definieren wir
M \N
{ x | x∈M ∧x∈
/N }.
:=
Bemerkung 1.1.13 : Wir haben inzwischen einige Zeichen kennengelernt:
∧ ,
∨ ,
¬ ,
=⇒ ,
⇐⇒ ,
:⇐⇒
stehen zwischen zwei Aussagen . Die Zeichen
∩ ,
∪ ,
\ ,
⊂ ,
= ,
:=
stehen zwischen zwei Mengen . Das ist klar, wird aber von Anfängern häufig
falsch gemacht. - In der Mathematik geht man davon aus , dass die Elemente
von Mengen selbst wieder Mengen sind. Deshalb können die Zeichen
=
,
:=
auch zwischen Elementen einer Menge stehen.
Falls N ⊂ M ist, hat man für M \ N eine besondere Bezeichnung:
Definition 1.1.14 : Seien M und N Mengen, N ⊂ M . Dann heißt
{N
:=
M \N
das Komplement von N (bezüglich M , genauer kann man auch {M N
schreiben).
Aus Satz 1.1.5 folgen einige Rechenregeln für ∩, ∪, { :
Satz 1.1.15 : Seien R, S, T Mengen, dann gilt
a) R ∩ S = S ∩ R
b) (R ∩ S) ∩ T = R ∩ (S ∩ T )
c) R ∪ S = S ∪ R
d) (R ∪ S) ∪ T = R ∪ (S ∪ T )
e) R ∩ (S ∪ T ) = (R ∩ S) ∪ (R ∩ T )
f) R ∪ (S ∩ T ) = (R ∪ S) ∩ (R ∪ T )
Sind S und T Teilmengen einer Menge M , so gilt für das Komplement
bezüglich M :
g)
{({S)
=
S
h)
{(S ∪ T )
=
{S ∩ {T
i)
{(S ∩ T )
=
{S ∪ {T
Beweis mit den Regeln aus Satz 1.1.5 ; wir wollen das an einem Beispiel
9
vorführen, etwa:
e) Nach Definition 1.1.9 muss man zeigen, dass jedes Element von R ∩(S ∪T )
auch Element von (R ∩ S) ∪ (R ∩ T ) ist, und umgekehrt: Nun gilt für jedes
Element x :
1.1.12
x ∈ R ∩ (S ∪ T ) ⇐⇒
1.1.12
x∈R ∧ x∈S∪T
⇐⇒
1.1.5
x ∈ R ∧ (x ∈ S ∨ x ∈ T ) ⇐⇒
1.1.12
(x ∈ R ∧ x ∈ S) ∨ (x ∈ R ∧ x ∈ T ) ⇐⇒
1.1.12
x∈R∩S ∨x∈R∩T
⇐⇒
x ∈ (R ∩ S) ∪ (R ∩ T ) .
2
Definition 1.1.16 : Seien M und N Mengen, dann heißt
M ×N
:=
{ (x, y) | x ∈ M ∧ y ∈ N }
das cartesische Produkt der Mengen M und N . Die Elemente von
M × N heißen geordnete Paare von Elementen von M und N . Wir
wollen nicht definieren, was ein geordnetes Paar ist, man muss nur wissen,
wann zwei geordnete Paare gleich sind: Seien (x1 , y1 ) , (x2 , y2 ) ∈ M × N ,
dann gilt
(x1 , y1 )
=
(x2 , y2 )
⇐⇒
x1 = x2 ∧ y1 = y2
.
Es kommt also auf die Reihenfolge an : (2, 3) 6= (3, 2) !
1.2 Relationen, Induktion
Definition 1.2.1 : Sei M eine Menge. Eine Relation in M ist eine Teilmenge
R von M × M .
Statt (x, y) ∈ R sagt man dann: “ x steht in Relation R zu y ”.
(1.2.2) Beispiele für Relationen sind
a) ∅,
b) D := { (x, y) ∈ M | x = y } , die Gleichheitsrelation in M .
c) Ein weiteres Beispiel ist die
(1.2.3) Anordnung ≤ in Z: Man setzt
≤ :=
{ (x, y) ∈ Z | es gibt ein z ∈ N0 : x + z = y } ,
10
und wir schreiben im Folgenden x ≤ y statt (x, y) ∈≤. Statt a ≤ b schreibt
man auch : b ≥ a für a, b ∈ Z, und man schreibt
a < b statt a ≤ b ∧ a 6= b ,
b > a statt a < b . Es gilt dann
(O1) ∀ x ∈ Z : x ≤ x ,
(O2) ∀ x, y ∈ Z : (x ≤ y ∧ y ≤ x =⇒ x = y ),
(O3) ∀ x, y, z ∈ Z : (x ≤ y ∧ y ≤ z =⇒ x ≤ z ) .
2
Für “es gibt ein” führt man eine Abkürzung ein:
Definition 1.2.4 : Statt “es existiert ein” schreiben wir : “ ∃ ”. Sei also M
eine Menge und A(x) ein sprachliches Gebilde, in das man für x ein Element
aus M einsetzen kann und dann eine Aussage erhält. In der Logik nennt man
das ein einstelliges Prädikat . Dann ist
∃ x ∈ M : A(x)
eine Aussage.
(1.2.5) Beachten Sie: a) “ ∃ x ∈ M : A(x) ” heißt, dass es mindestens
ein Element x mit der Eigenschaft A(x) gibt, es kann auch mehrere solche
Elemente geben ! Will man ausdrücken, dass es genau ein Element x mit
der Eigenschaft A(x) gibt, so schreibt man:
∃1 x ∈ M : A(x) .
b) Es gibt einige logische Regeln für “ ∃ ” und “∀ ”: Seien M und N Mengen,
A(x), B(x) einstellige Prädikate und C(x, y) ein zweistelliges Prädikat (d.h.
hier muss man für x und y Elemente einsetzen, um eine Aussage zu erhalten).
Dann gelten die Regeln:
(1)
¬(∀ x ∈ M : A(x)) ⇐⇒ ∃ x ∈ M : (¬A(x))
(2)
¬(∃ x ∈ M : A(x)) ⇐⇒ ∀ x ∈ M : (¬A(x))
(3) ∀ x ∈ M : A(x) ∧ ∀ x ∈ M : B(x) ⇐⇒ ∀ x ∈ M : (A(x) ∧ B(x))
(4) ∀ x ∈ M : A(x) ∨ ∀ x ∈ M : B(x) =⇒ ∀ x ∈ M : (A(x) ∨ B(x))
(5) ∃ x ∈ M : (A(x) ∨ B(x)) ⇐⇒ ∃ x ∈ M : A(x) ∨ ∃ x ∈ M : B(x)
(6) ∃ x ∈ M : (A(x) ∧ B(x)) =⇒ ∃ x ∈ M : A(x) ∧ ∃ x ∈ M : B(x)
(7)
∀ x ∈ M ∀ y ∈ N : C(x, y) ⇐⇒ ∀ y ∈ N ∀ x ∈ M : C(x, y)
(8)
∃ x ∈ M ∃ y ∈ N : C(x, y) ⇐⇒ ∃ y ∈ N ∃ x ∈ M : C(x, y)
(9)
∃ x ∈ M ∀ y ∈ N : C(x, y) =⇒ ∀ y ∈ N ∃ x ∈ M : C(x, y) .
Man mache sich an Beispielen klar, dass bei (4),(6) und (9) nicht “ ⇐⇒ ”
steht!
11
Definition 1.2.6 : Sei M eine Menge und R eine Relation in M , die die drei
Eigenschaften
(Ä1) ∀ x ∈ M : (x, x) ∈ R (“Reflexivität”),
(Ä2) ∀ x, y ∈ M : ((x, y) ∈ R =⇒ (y, x) ∈ R) ( “Symmetrie”)
(Ä3) ∀ x, y, z ∈ M : ((x, y) ∈ R ∧ (y, z) ∈ R =⇒ (x, z) ∈ R)
( “Transitivität”)
hat, dann heißt R eine Äquivalenzrelation auf M . Man schreibt dann meist
∼
statt R und x ∼ y
statt (x, y) ∈ R.
Definition und Satz 1.2.7 : Sei M eine Menge und ∼ eine Äquivalenzrelation auf M . Für x ∈ M nennt man
x
:=
{ y∈M | y∼x }
die Äquivalenzklasse von x . Es gilt
(1)
∀ x ∈ M : x ∈ x,
(2)
∀ x, y ∈ M : (x = y
[
x = M.
(3)
∨ x ∩ y = ∅),
x∈M
Der Beweis ist eine leichte Übungsaufgabe.
2
Eine Eigenschaft der Menge N der natürlichen Zahlen ist das
(1.2.8) Induktionsaxiom (IP) : Sei P (n) ein einstelliges
Prädikat, das für natürliche Zahlen n definiert ist. Dann gilt
(P (1) ∧ ∀ m ∈ N : (P (m) =⇒ P (m + 1)))
=⇒
∀ n ∈ N : P (n) .
2
Man kann damit Induktionsbeweise führen, um eine Aussage der Form
∀ n ∈ N : P (n)
zu beweisen. Entsprechend dem Induktionsaxiom besteht so ein Induktionsbeweis aus zwei (!) Schritten:
Induktionsanfang : Man zeigt, dass P (1) wahr ist.
Induktionsschluss : Man zeigt für jedes m ∈ N : Wenn P (m) wahr ist
(Induktionsvoraussetzung), dann gilt auch P (m + 1).
12
Aus diesen beiden Aussagen folgt dann, dass die Aussage ∀ n ∈ N : P (n)
wahr ist.
2
Bemerkung 1.2.9 : In der Schule lernt man häufig folgendes Schema für
Induktionsbeweise:
Induktionsanfang : Man zeigt, dass P (1) wahr ist.
Induktionsvoraussetzung: Sei m ∈ N, und P (m) sei wahr.
Induktionsschluss: Man zeigt, dass dann auch P (m + 1) wahr ist.
Wenn man das Induktionsaxiom verstanden hat, mag diese Schreibweise angehen. Aber man darf dieses Schema nicht lesen als
P (1)
∧
∀ m ∈ N : P (m)
=⇒
∀ m ∈ N : P (m + 1)
dann hat man das Induktionsaxiom nicht verstanden. Die obige, zweiteilige,
Form des Induktionsbeweises, bei der die Induktionsvoraussetzung (I.V.) Teil
des Induktionsschlusses ist, ist logisch durchsichtiger.
2
Man kann auch den Induktionsanfang bei einer Zahl k ∈ Z und den Induktionsschluss für alle m ∈ Z mit m ≥ k machen, dann gilt P (n) für alle n ∈ Z
mit n ≥ k.
Bemerkung 1.2.10 : Man kann das Induktionsaxiom auch für
rekursive Definitionen verwenden: Wenn man für alle n ∈ N ein Element
x(n) definieren will, definiert man
(1.) x(1) , und
(2.) für jedes m ∈ N : x(m + 1) mit Hilfe von x(m),
dann ist nach dem Induktionaxiom x(n) für jedes n ∈ N definiert.
Ein Beispiel ist die Definition des Summenzeichens:
Definition 1.2.11: Sei M eine Menge, in der eine Addition + definiert ist.
Seien m, n ∈ Z , m ≤ n . Für jede Zahl k in Z mit m ≤ k ≤ n sei ak ∈ M
gegeben. Dann setzen wir
m
P
(I) für n = m :
ak := am
(II) für n ≥ m :
k=m
n+1
P
k=m
ak
:=
n
P
ak + an+1
,
k=m
wenn auch an+1 ∈ M ist.
Übrigens: wenn M genau ein Element 0 mit der Eigenschaft
∀a ∈ M : a + 0
13
=
a
besitzt, definiert man noch die leere Summe
n
X
ak := 0 für n < m .
k=m
Wir brauchen das Summenzeichen häufig etwas allgemeiner: Bei der in M
definierten Addition + komme es auf die Reihenfolge der Summanden nicht
an, es sei a + b = b + a für alle a, b. Sei
I = {j1 , . . . , jn } mit n ∈ N0
eine Menge und seien aj1 , . . . , ajn ∈ M . Dann setzen wir
X
k∈I
ak :=
n
X
aj k
.
k=1
2
Es gibt noch zwei Aussagen über natürliche Zahlen, die zum Induktionsaxiom
(IP) gleichbedeutend sind. Das wollen wir aber hier nicht beweisen:
(1.2.12) Prinzip der Ordnungsinduktion (OI): Sei P (n) ein einstelliges
Prädikat, das für natürliche Zahlen n definiert ist. Dann gilt
P (1)∧∀ m ∈ N : ((∀ k ∈ N : (k < m =⇒ P (k))) =⇒ P (m)) =⇒ ∀ n ∈ N : P (n)
Das liest sich etwas kompliziert, sagt aber nur: Man macht den Induktionsschluss nicht vom m auf m + 1, sondern von allen Zahlen k < m auf m.
(1.2.13) Wohlordnung der natürlichen Zahlen (WO) : Jede
nichtleere Teilmenge M von N besitzt ein kleinstes Element, d.h.
∃ a ∈ M∀ x ∈ M : a ≤ x .
So ein Element (das dann eindeutig bestimmt ist) nennen wir min(M) .
1.3 Funktionen
Definition 1.3.1 : Seien M und N Mengen, dann heißt eine Vorschrift
f , die jedem Element x ∈ M genau ein Element aus N zuordnet, das
man mit f (x) bezeichnet, eine Funktion (Abbildung) von M in N . Man
schreibt zur Abkürzung
f : M −→ N
x 7−→ f (x) .
14
Die Menge M heißt der Definitionsbereich von f , die Menge N der
Wertebereich von f , das Element f (x) der Funktionswert von x . Für
die Menge aller Funktionen von M in N schreiben wir: F(M, N ) .
Bemerkung 1.3.2 : Falls Sie die Begriffe “Vorschrift” und “Zuordnung”
unpräzis finden, machen Sie es formaler (aber weniger einprägsam): Seien M
und N Mengen und F eine Teilmenge von M × N mit den beiden Eigenschaften:
(1) ∀ x ∈ M ∃y ∈ N : (x, y) ∈ F ,
(2) ∀ x ∈ M ∀y1 , y2 ∈ N : ((x, y1 ) ∈ F ∧ (x, y2 ) ∈ F =⇒ y1 = y2 ) .
Dann heißt das Paar f := (F, N ) eine Funktion von M in N .
Mit dieser etwas formaleren Definition kann man beweisen:
Satz 1.3.3 : Seien M1 , M2 , N1 , N2 Mengen. Zwei Funktionen
f : M1 −→ N1
und g : M2 −→ N2
sind gleich , wenn gilt
M1
=
M2
∧
N1
=
N2
∧
∀ x ∈ M1 : f (x)
=
g(x) ,
also wenn Definitions- und Wertebereiche und für alle x ∈ M1 die
Funktionswerte übereinstimmen.
Definition 1.3.4 : Sei f : M −→ N eine Abbildung. Sei A ⊂ M und
B ⊂ N . Dann heißt
f (A) := { y ∈ N | ∃ x ∈ A : y = f (x) }
das Bild von A unter f und
−1
f (B)
:=
{ x ∈ M | f (x) ∈ B }
2
das Urbild von B unter f .
Definition 1.3.5 : Sei f : M
Dann heißt die durch
f |A : A −→ N
−→ N eine Abbildung und A ⊂ M .
,
f |A (x)
:=
f (x)
definierte Abbildung die Restriktion (Einschränkung) von f auf A . f |A
hat also einen kleineren Definitionsbereich als f ; die Funktionswerte f |A (x)
sind für x ∈ A aber die gleichen wie die Funktionswerte f (x) .
2
Zusätzliche Eigenschaften von Funktionen haben besondere Namen:
15
Definition 1.3.6 : Sei f : M −→ N eine Abbildung. f heißt
a) surjektiv (Abbildung von M auf N ) , wenn f (M ) = N ist, oder,
was nach Definition 1.3.4 gleichbedeutend ist:
∀ y ∈ N ∃ x ∈ M : f (x)
=
y
,
b) injektiv ( eineindeutig ), wenn verschiedene Elemente von M
verschiedene Funktionswerte haben, oder, was gleichbedeutend ist:
∀ x, x0 ∈ M : ( f (x) = f (x0 )
=⇒
x = x0 ) ,
c) bijektiv , wenn f surjektiv und injektiv ist.
Definition 1.3.7 : Sei f : M −→ N bijektiv. Sei y ∈ N , dann gibt es
dazu, da f surjektiv ist, ein, und da f injektiv ist, genau ein Element aus
M , dessen Funktionswert gleich y ist, wir nennen es f −1 (y) . Die Funktion
f −1 : N −→ M
,
y 7−→ f −1 (y)
heißt die Umkehrfunktion von f .
(1.3.8) Beachten Sie : Sei f : M −→ N , dann ist für B ⊂ N das
−1
Urbild f (B)
definiert. Nur, wenn f bijektiv ist, ist die
Umkehrfunktion f −1
definiert. Für B ⊂ N ist dann allerdings
−1
f −1 (B) = f (B) ,
so dass es keine Missverständnisse gibt.
(1.3.9) Beispiele : 1) Ist M eine Menge, so heißt
idM : M −→ M
x 7−→ x
die identische Abbildung von M . Sie bildet jedes Element auf sich selbst
ab und ist bijektiv.
2) Sei f : R −→ R , f (x) := x2 , so ist f nicht surjektiv, denn zu
−1 gibt es kein x ∈ R mit f (x) = −1 . f ist auch nicht injektiv, denn
f (2)
=
Setzt man aber R∗+
f (−2)
:=
=
4 ,
aber 2 6= −2 .
{ x ∈ R | x > 0 } und betrachtet
g : R∗+ −→ R∗+
,
g(x)
:=
x2
,
so ist g bijektiv. Um das zu beweisen, muss man zeigen, dass es zu jedem
y ∈ R∗+ ein x ∈ R∗+ mit y = x2 gibt, also dass man aus positiven reellen
16
Zahlen Quadratwurzeln ziehen kann. Man lernt das in der Analysis.
Definition 1.3.10 : Seien f : L −→ M und g : M −→ N Abbildungen, dann kann man die Hintereinanderausführung von f und g
bilden :
g ◦ f : L −→ N ,
x 7−→ g(f (x)) .
Beachten Sie, dass man (g ◦ f )(x) erhält, indem man zuerst f auf x und
dann g auf f (x) anwendet.
2
Bildet man die Hintereinanderausführung von drei oder mehr Funktionen, so
kommt es nicht auf die Reihenfolge der Klammern an:
Satz 1.3.11 (Assoziativität der Hintereinanderausführung) : Seien
f : K −→ L ,
g : L −→ M
,
h : M −→ N
Abbildungen, dann gilt
(h ◦ g) ◦ f
h ◦ (g ◦ f ) .
=
Beweis : (h ◦ g) ◦ f und h ◦ (g ◦ f ) sind beides Abbildungen von K in N ,
und für alle x ∈ K gilt
((h ◦ g) ◦ f )(x)
=
(h ◦ g)(f (x))
=
h(g(f (x))) ,
(h ◦ (g ◦ f ))(x)
=
h((g ◦ f )(x))
=
h(g(f (x))) .
Nach Satz 1.3.3 gilt h ◦ (g ◦ f )
=
(h ◦ g) ◦ f
2
.
Wir wollen noch ein Kriterium dafür beweisen, wann eine Funktion injektiv,
surjektiv oder bijektiv ist:
Satz 1.3.12 : Sei f : M −→ N eine Funktion und seien M, N 6= ∅ .
Dann gilt:
a) f ist injektiv genau dann, wenn es eine Abbildung
g : N −→ M
mit g ◦ f
=
idM
gibt.
b) f ist surjektiv genau dann, wenn es eine Abbildung
g : N −→ M
mit f ◦ g
=
idN
gibt.
c) f ist bijektiv genau dann, wenn es eine Abbildung
g : N −→ M
mit f ◦ g
=
idN
17
und g ◦ f
=
idM
gibt.
In diesem Fall ist g = f −1 die Umkehrfunktion von f .
Beweis : a) 1.) Sei f injektiv. Sei y ∈ N , dann gibt es zwei Möglichkeiten:
Entweder ist y ∈ f (M ) , dann gibt es, da f injektiv ist, genau ein x mit
y = f (x) . Wir setzen g(y) := x . Oder es ist y ∈
/ f (M ) . Wegen M 6= ∅
gibt es ein Element x0 ∈ M . Wir setzen dann g(y) := x0 . Dann ist
g◦f
=
idM
,
denn für alle x ∈ M gilt (g ◦ f )(x) = x .
2.) Es gebe ein g : N −→ M mit g ◦ f = idM . Seien x, x0 ∈ M , dann
gilt
f (x) = f (x0 )
g(f (x)) = g(f (x0 ))
=⇒
x = x0
=⇒
,
idM (x) = idM (x0 )
=⇒
also ist f injektiv.
b) 1.) Sei f surjektiv. Sei y ∈ N , dann gibt es mindestens ein x ∈ M
−1
mit y = f (x) , es ist f ({y}) 6= ∅ .
−1
(∗) Wir wählen ein x ∈ f ({y})
und setzen
g(y)
:=
x ,
dann gilt
f ◦g
=
idN
,
denn für y ∈ N gilt g(y) = x , wobei f (x) = y ist, also f (g(y)) = y .
2.) Es gebe ein g : N −→ M mit f ◦ g = idN . Sei y ∈ N ,dann ist
y = (f ◦ g)(y) = f (g(y)) , also gibt es ein x ∈ M mit y = f (x) , nämlich
x := g(y) . Also ist f surjektiv.
c) 1.) Wenn es ein g : N −→ M mit
f ◦ g = idN
und g ◦ f = idM
gibt, folgt aus a) und b) , dass f bijektiv ist.
2.) Wenn f bijektiv ist, haben wir die Umkehrfunktion f −1 : N −→ M ,
die die beiden Gleichungen
f ◦ f −1 = idN
f −1 ◦ f = idM
,
erfüllt.
3.) Sei f bijektiv und es gebe g : N −→ M mit
f ◦ g = idN
,
g ◦ f = idM
18
,
dann folgt
f −1
=
f −1 ◦ (f ◦ g)
=
(f −1 ◦ f ) ◦ g
=
idN ◦ g
=
g
.
Bei (∗) haben wir gebraucht, dass man aus (möglicherweise unendlich vielen)
Mengen je ein Element auswählen kann; das “Auswahlaxiom” der Mengenlehre besagt, dass das geht. Wir wollen auf solche Fragen der Grundlagen der
Mathematik hier nicht eingehen.
2
Definition 1.3.13 : a) Für n ∈ N setzen wir
:=
n
n
:=
{ m∈N | m≤n }
{1, 2, . . . , n} ,
0
,
also
und zusätzlich
∅ .
:=
b) Sei M eine Menge. M heißt endlich , wenn es ein n ∈ N0 und eine
bijektive Abbildung
f : n −→ M
gibt. Man kann dann (mit Induktion) beweisen, dass das n eindeutig bestimmt ist. Es ist daher sinnvoll,
#(M )
:=
n
die Mächtigkeit von M zu nennen.
c) Ist die Menge M nicht endlich, so heißt M eine unendliche Menge.
1.4 Etwas analytische Geometrie im Rn
Wir wollen dieses Kapitel voranstellen, auch wenn wir hinterher Vieles allgemeiner machen. Aber Sie sollen zunächst mal etwas lernen, das an die
“Vektorrechnung” anknüpft, die Sie von der Schule kennen:
Bemerkung 1.4.1 : Mit der Einführung der reellen Zahlen beschäftigen Sie
sich in der Analysis. Hier brauchen Sie zunächst nur zu wissen, dass man für
a, b ∈ R
die Summe a + b ∈ R und
das Produkt a · b ∈ R hat,
die Rechenregeln setzen wir auch mal als bekannt voraus, auch, dass man die
reellen Zahlen anordnen kann, so dass
a < b , a ≤ b ,b > a ,b ≥ a
für a, b ∈ R definierte Aussagen sind. Wir brauchen noch: Für a ∈ R, a ≥ 0,
ist
√
√
√
a ∈ R definiert , ( a)2 = a , a ≥ 0.
19
Definition 1.4.2 : Sei n ∈ N. Dann definieren wir mit Def.1.1.16 Rn rekursiv durch
R1 := R ,
Rn+1 := Rn × R für n ∈ N,
also
Rn = { (x1 , . . . , xn ) | ∀ j ∈ n : xj ∈ R } ,
also ist Rn die Menge der geordneten n−tupel reeller Zahlen.
Man kann Elemente aus Rn addieren,
(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn )
und mit einem λ ∈ R multiplizieren:
λ(x1 , . . . , xn ) := (λ · x1 , . . . , λ · xn ),
für x1 , . . . , xn , y1 , . . . yn ∈ R . Für n = 2 und n = 3 kann man diese Addition
von “Vektoren” und die Multiplikation mit reellen Zahlen geometrisch veranschaulichen (etwa für n = 2):
x2
x+y
7
6
y > x
x2
6
>
λx
>
x
-
x1
Noch zur Schreibweise: Man hat die reelle Zahl 0 , und
0 := (0, . . . , 0) ∈ Rn ,
wir schreiben für beide Elemente dasselbe Zeichen. Zu
x = (x1 , . . . , xn ) ∈ Rn
hat man
−x := (−x1 , . . . , −xn ) ∈ Rn ,
x + (−x) = 0.
Für x, y ∈ Rn schreiben wir auch
x − y := x + (−y).
20
dafür gilt
-
x1
Definition 1.4.3 : Seien
x = (x1 , . . . , xn ) , y = (y1 , . . . , yn ) ∈ Rn .
Dann nennen wir
hx, yi :=
n
X
xj y j
j=1
das kanonische Skalarprodukt von x und y. Man hat also die Abbildung
h ,
i
:
Rn × Rn −→ R ,
(x, y) 7−→ hx, yi ,
d,h. zwei “Vektoren” x, y ∈ Rn wird ein “Skalar” hx, yi ∈ R zugeordnet.
Behauptung 1.4.4 : Für alle x, x0 , y ∈ Rn , λ ∈ R gilt
(H1) hx+x0 , yi = hx, yi+hx0 yi ,
hλx, yi = λ hx, yi ,
(H2) hx, yi = hy, xi ,
(H4) hx, xi ≥ 0 und (x 6= 0
=⇒
hx, xi > 0 ).
Beweisen kann man diese Aussagen direkt mit der Definition. Bei (H4)
braucht man noch, was man in der Analysis lernt :
∀ a ∈ R : (a 6= 0
=⇒
∀a, b ∈ R : (a, b ≥ 0
a2 > 0) ,
=⇒
und
a + b ≥ 0).
2
Wegen (H4) ist die folgende Definition sinnvoll:
Definition 1.4.5 : Für x = (x1 , . . . , xn ) ∈ Rn nennen wir
q
p
k x k :=
hx, xi =
x21 + . . . + x2n
die Norm (Länge) von x .
Den Winkel zwischen zwei “Vektoren” wollen wir jetzt nicht definieren, dazu
fehlen uns Kenntnisse aus der Analysis. Aber wir können “senkrecht stehen”
von Vektoren definieren:
Definition 1.4.6 : Seien x, y ∈ Rn . Wir sagen, x und y sind zueinander
21
orthogonal , oder: x und y stehen senkrecht aufeinander, in Zeichen :
x⊥y , wenn
hx, yi = 0 ist.
2
Ganz einfach zu beweisen (aber letztlich nur eine Folge davon, dass wir unsere
Definitionen passend gewählt haben) ist
Satz 1.4.7 (Pythagoras) Seien x, y ∈ Rn , x⊥y, dann gilt
k x k2 + k y k2 = k x − y k2 .
H
y 6HHH
H
HH
HH x − y
H
HH
H
x
H
j
H
-
Beweis :
k x − y k2 1.4.5
hx − y, x − yi (H1)
hx, x − yi − hy, x − yi
=
=
(H1),(H2) hx, xi − hx, yi − hy, xi + hy, yi (*) k x k2 + k y k2 ,
=
=
wobei wir bei (*) verwendet haben, dass x⊥y gilt.
2
Definition 1.4.8 : Sei n ∈ N und seien p, a ∈ Rn , a 6= 0 . Dann heißt die
Menge
Gp,a := { p + λa | λ ∈ R } , kurz geschrieben:
Gp,a = p + R · a
die Gerade durch p mit Richtung a . Die Schreibweise
Gp,a = p + R · a
22
heißt eine Parameterdarstellung von Gp,a .
Bemerkung 1.4.9 (1.5) : Zu einer Geraden G ⊂ Rn sind p , a mit
G = Gp,a nicht eindeutig bestimmt. Bitte überlegen Sie sich: Für p, q, a, b ∈
Rn mit a, b 6= 0 gilt
Gp,a = Gq,b
⇐⇒
q ∈ Gp,a ∧ ∃ µ ∈ R \ {0} : b = µa .
2
Man kann mit der Parameterdarstellung durchaus rechnen, z.B. kann man
Schnittpunkte ausrechnen, wenn sie existieren. Im R2 kann man Geraden
auch anders, als Lösungsmenge einer linearen Gleichung, angeben:
1.5 Geraden im R2
Bemerkung 1.5.1 : Sei G ⊂ R2 eine Gerade, dann gibt es p, a ∈ R2 mit
a 6= 0 und
G
=
x
Gp,a
=
{ p + λa | λ ∈ R }
(x1 , x2 ) ∈ G
=
,
also gilt :
⇐⇒
∃ λ ∈ R : (x1 = p1 + λ a1 ∧ x2 = p2 + λ a2 ) .
Wir multiplizieren die erste Gleichung mit a2 , die zweite mit a1 und subtrahieren die beiden Gleichungen voneinander :
a2 x1 − a1 x2 = a2 p1 − a1 p2 , dann wird
G ⊂
x ∈ R2 h x, (−a2 , a1 ) i = h p, (−a2 , a1 ) i
,
wir werden gleich sehen, dass hier nicht nur “⊂ ”, sondern sogar “ = ” steht.
Zunächst
Definition und Satz 1.5.2 : Für a = (a1 , a2 ) ∈ R2 definieren wir
a⊥
:=
(−a2 , a1 ) .
Dann gilt für alle a, b ∈ R2 , λ ∈ R :
(1) (a + b)⊥ = a⊥ + b⊥ , (λ a)⊥ = λ a⊥
(2) h a, a⊥ i = 0 , h a, b⊥ i = −h a⊥ , bi ,
ka⊥ k = kak , (a⊥ )⊥ = −a .
Beweis als Übungsaufgabe (1.5).
2
23
Definition und Satz 1.5.3 : Sei c ∈ R2 \ {0} und α ∈ R , dann ist
Hc,α :=
x ∈ R2 h x, c i = α
=
x ∈ R2 c1 x1 + c2 x2 = α
eine Gerade im R2 , und zwar
(∗)
Hc,α
=
G
α
·c,c⊥
kck2
.
Hc,α heißt die Gleichungsdarstellung der Geraden G := G α 2 ·c,c⊥
kck
denn Hc,α ist die Menge der Lösungen x der linearen Gleichung
c1 x 1 + c2 x 2
=
,
α .
Beweis : Wenn wir die Gleichheit (∗) zeigen, ist bewiesen, dass Hc,α eine
Gerade ist :
1.) Sei x ∈ G α 2 ·c,c⊥ , dann gibt es ein λ ∈ R mit
kck
x
α
c + λ c⊥
kck2
=
also h x, c i =
h x, c i
2.) Sei x ∈ Hc,α
hx −
α
kck2
kck2
=
α
c, c i
kck2
α
h c, c i + λ h c⊥ , c i ,
kck2
=
α ,
also h x, c i = α ,
,
h x, c i −
=
,
also x ∈ Hc,α
.
dann folgt
α
h c, c i
kck2
α−α
=
=
0 .
α
Für y := x − kck
2 c gilt also h y, c i = 0 , und es ist c 6= 0 . Ist c1 6= 0 , so
folgt aus 0 = h y, c i = y1 c1 + y2 c2 :
y1 =
y2
· (−c2 ) ,
c1
also y
und sowieso : y2 =
=
y2 ⊥
·c
c1
y2
c1
c1
,
.
Ist c2 6= 0 , so folgt
y2 = −
y1
· c1
c2
,
und sowieso : y1 = −
also y
=
24
−
y1 ⊥
·c
c2
,
y1
· (−c2 ) ,
c2
auf jeden Fall: ∃ λ ∈ R : y = λc⊥
x−
also x ∈ G
α
·c,c⊥
kck2
α
c = λc⊥
2
kck
,
,
x =
α
c + λc⊥
2
kck
,
.
2
Bemerkung 1.5.4 : Mit der Formel
(∗)
Hc,α
=
G
α
·c,c⊥
kck2
erhält man zu einer Geraden in Gleichungsdarstellung leicht eine Parameterdarstellung. Umgekehrt geht das auch: Für p, a ∈ R2 mit a 6= 0 gilt
(∗∗)
Gp,a
=
Ha⊥ ,ha⊥ ,pi
.
Beweis als Übung.
2
(1.5.5) Schnittpunkt zwischen Geraden im R2 : Hat man zwei
Geraden im R2 , etwa in Parameterform
Gp,a
und Gq,b
mit p, q, a, b ∈ R2 , a, b 6= 0 ,
so kann man fragen, ob sie einen eindeutig bestimmten Schnittpunkt s besitzen. Ist s ∈ Gp,a ∩ Gq,b , so gibt es λ, µ ∈ R mit
s = p + λa
=
q + µb ,
und wenn wir das Skalarprodukt mit a⊥ bilden :
(0)
h p, a⊥ i
=
h q, a⊥ i + µh b, a⊥ i ,
und es gibt genau dann eine eindeutig bestimmte Lösung für µ , wenn
h b, a⊥ i =
6 0 ist :
h p − q, a⊥ i
(1)
Gp,a ∩ Gq,b =
q+
b
für h b, a⊥ i =
6 0 .
h b, a⊥ i
Ist h b, a⊥ i = 0 , so sieht man:
Für h p − q, a⊥ i =
6 0 gibt es keinen Schnittpunkt,
für h p − q, a⊥ i = 0 ist jedes µ ∈ R Lösung von (0) .
25
Man sieht, dass h b, a⊥ i = 0 bedeutet, dass die Geraden Gp,a und Gq,b
parallel sind. Wir halten es schon einmal fest: Eine lineare Gleichung mit
einer Unbekannten, wie (0) , besitzt durchaus nicht immer eine eindeutig
bestimmte Lösung; es kann auch sein, dass sie keine Lösung besitzt oder
dass alle reellen Zahlen Lösungen sind !
Der Vollständigkeit halber geben wir noch Formeln für den Schnittpunkt an,
wenn mindestens eine der Geraden in Gleichungsdarstellung gegeben ist: Für
a, b, c, p ∈ R2 , a, b, c 6= 0 und α, β ∈ R gilt
1
⊥
⊥
(βa − αb )
für h a⊥ , b i =
6 0 ,
(2)
Ha,α ∩ Hb,β =
⊥
ha ,bi
Gp,a ∩ Hc,α
(3)
=
α − h p, c i
p+
a
h a, c i
für h a, c i =
6 0 .
Beweisen können Sie diese Formeln leicht. Auswendig lernen sollten Sie sie
keineswegs !
2
Es liegt nahe, dass man so etwas wie den Vektor x⊥ , der “die” zu x senkrechte Richtung angibt, falls x 6= 0 ist, im Rn für n ≥ 3 nicht definieren
kann.
x
x⊥ H
Y
HH
H
HH
H
1.6 Geraden und Ebenen im R3
Zuvor die
Definition 1.6.1 : Seien a, b ∈ Rn , n ∈ N . Dann heißt das Paar (a, b)
linear unabhängig, wenn für alle λ, µ ∈ R gilt
λa + µb = 0
=⇒
26
λ = µ = 0 .
Bemerkung 1.6.2 : Seien p, a ∈ R3 , a 6= 0 , so ist
Gp,a
=
{ p + λa | λ ∈ R }
die Gerade durch p mit Richtung a , in Parameterdarstellung. Aber: Ist
c ∈ R3 , c 6= 0 , und α ∈ R , so ist
Hc,α =
x ∈ R3 h x, c i = α
,
also die Menge der Lösungen (x1 , x2 , x3 ) der linearen Gleichung
c1 x 1 + c2 x 2 + c3 x 3 = α
keine Gerade: Sei p ∈ Hc,α , also p eine feste Lösung dieser Gleichung (die
wegen c 6= 0 existiert: Ist etwa c1 6= 0 , so ist
α
p =
, 0, 0
eine Lösung ),
c1
dann gilt für beliebiges x ∈ Hc,α :
(1)
h x − p, c i
=
h x, c i − h p, c i
=
α−α
=
0 ,
Hc,α ist die Menge der x ∈ R3 , für die x − p auf c senkrecht steht : Anschaulich gesehen, ist das eine Ebene:
x3
c
XXX
XXX
x2
XXX XX
XXX
X
X
XX
XX
X
E
XXXX
XXX
XXX
X
x1
Sei
E := { y ∈ R3 | h y, c i = 0 } ,
dann gibt es wegen c 6= 0 stets zwei Lösungen a, b von h y, c i = 0 , also zwei
Elemente aus E , die verschiedene “Richtungen” haben: Ist etwa c1 6= 0 ,
so kann man
c2
c3
a :=
− , 1, 0
, b :=
− , 0, 1
c1
c1
27
wählen, entsprechend für die Fälle c2 6= 0 bzw. c3 6= 0 . Dass a und b verschiedene “Richtungen” haben, kann man mit Definition 1.6.1 so ausdrücken:
Das Paar (a, b) ist linear unabhängig. Es gilt dann
(2)
E = { λ a + µ b | α, µ ∈ R } .
Beweis von (2): 1.) Aus h a, c i = h b, c i = 0 folgt
hλa + µb, ci
=
λ h a, c i + µ h b, c i
=
0
für alle λ, µ ∈ R , also { λ a + µ b | λ, µ ∈ R } ⊂ E .
2.) Wir zeigen E ⊂ { λa + µb | λ, µ ∈ R } für den Fall c1 =
6 0 und obiges
a, b : Sei y = (y1 , y2 , y3 ) ∈ E , dann setzen wir λ := y2 und µ := y3 .
Wegen
h y, c i = 0
gilt dann y1 = −
c3
c2
y2 − y3
c1
c1
,
also
y1
=
λa1 + µb1
,
y2
=
λa2 + µb2
wegen a2 = 1 ,
b2 = 0 ,
y3
=
λa3 + µb3
wegen a3 = 0 ,
b3 = 1 ,
y
=
λa + µb
also
Aus (1) und (2) folgt dann
Hc,α
=
{ p + λa + µb | λ, µ ∈ R }
,
wobei p eine feste Lösung von h x, c i = α ist, und a, b Lösungen von
h y, c i = 0 sind, noch so, dass das Paar (a, b) linear unabhängig ist.
2
Wir haben gesehen: Eine lineare Gleichung
h x, c i = α ,
c ∈ R3 \ {0} , α ∈ R
beschreibt eine Ebene im R3 . Kann man eine Gerade im R3 vielleicht durch
mehrere lineare Gleichungen beschreiben ?
Definition und Satz 1.6.3 : Seien b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) ∈ R3 ,
dann nennen wir
b ×c
:=
(b2 c3 − b3 c2 , −b1 c3 + b3 c1 , b1 c2 − b2 c1 )
das Vektorprodukt von b und c . Es gilt
(0)
h b, b × c i = h c, b × c i = 0 ,
28
d.h. b und c stehen auf b × c senkrecht.
Beweis : Die Gleichung (0) ist Aufgabe (1.9) e).
2
Bemerkung 1.6.4 : 1.) Sei
Gp,a
=
mit a, p ∈ R3 , a 6= 0
{ p + λa | λ ∈ R }
eine Gerade im R3 Dann gilt für x ∈ Gp,a , x = (x1 , x2 , x3 ) :
xj = pj + λaj
für j ∈ 3 .
Man kann eine dieser Gleichungen nach λ auflösen und auf diese Weise λ
eliminieren: Wegen a 6= 0 ist eins der aj ungleich 0 . Sei etwa a1 6= 0 , dann
1
a2
a2
1
x1 − p1 und x2 = p2 + x1 − p1 , also
haben wir λ =
a1
a1
a1
a1
a1 x2 − a2 x1 = a1 p2 − a2 p1
a1 x 3 − a3 x 1 = a1 p 3 − a3 p 1
,
entsprechend :
.
Setzen wir
b := (−a2 , a1 , 0) ,
(∗)
c := (−a3 , 0, a1 ) ,
β := a1 p2 − a2 p1 , γ := a1 p3 − a3 p1 , so ist
Gp,a ⊂
x ∈ R3 h b, x i = β ∧ h c, x i = γ
,
wobei die Familie (b, c) wegen a1 6= 0 linear unabhängig ist, und b und c
stehen auf dem Richtungsvektor a von Gp,a senkrecht:
b⊥a wegen h (−a2 , a1 , 0), (a1 , a2 , a3 ) i = 0 ,
ebenso :
c⊥a .
2.) Wir zeigen nun : Für eine linear unabhängige Familie (b, c) mit b, c ∈ R3
und β, γ ∈ R ist
x ∈ R3 h b, x i = β ∧ h c, x i = γ
eine Gerade im R3 , deren Richtungsvektor auf b und c senkrecht steht.
Damit ist dann auch gezeigt, dass in (∗) das Gleichheitszeichen steht: Aus
der linearen Unabhängigkeit von (b, c) folgt, dass b und c ungleich 0 sind.
29
Sei etwa b1 6= 0 . Wir multiplizieren die Gleichung h b, x i = β mit c1 und
die Gleichung h c, x i = γ mit b1 ,
b1 c 1 x 1 + b2 c 1 x 2 + b3 c 1 x 3
=
c1 β
,
b1 c 1 x 1 + b1 c 2 x 2 + b1 c 3 x 3
=
b1 γ
,
und subtrahieren:
(b2 c1 − b1 c2 )x2 + (b3 c1 − b1 c3 ) x3 = c1 β − b1 γ
Angenommen, b2 c1 − b1 c2 = 0 ∧ b3 c1 − b1 c3 = 0 ,
c2 =
.
dann folgt
c1
c1
c1
b2 ∧ c3 = b3 , sowieso: c1 = b1
b1
b1
b1
,
c1
b , also (b, c) nicht linear unabhängig, Widerspruch. Also ist
b1
b2 c1 − b1 c2 6= 0 ∨ b3 c1 − b1 c3 6= 0 . Sei etwa
also c =
b2 c1 − b1 c2 6= 0 ,
dann können wir
c 1 β − b1 γ − b3 c 1 + b1 c 3
b2 c 1 − b1 c 2
1
p1 := (β − b2 p2 − b3 p3 )
b1
wählen, dann ist p eine Lösung von
p3 := 1 ,
p2 :=
h b, p i = β
∧
h c, p i = γ
und
.
Für jede weitere Lösung x von h b, x i = β ∧ h c, x i = γ gilt dann
h b, x − p i = 0
∧
h c, x − p i = 0 ,
also ist y := x − p eine Lösung von
h c, y i
=
0 .
(b2 c1 − b1 c2 )y2 + (b3 c1 − b1 c3 )y3
=
0 .
(∗∗)
h b, y i
=
Mit derselben Rechnung wie oben folgt
Wenn wir y3 := b1 c2 − b2 c1 setzen, folgt
y2 = −b1 c3 + b3 c1
,
und aus h b, y i = 0 :
30
b1 y1 + b2 (−b1 c3 + b3 c1 ) + b3 (b1 c2 − b2 c1 ) = 0 ,
b1 y1 + b1 (c2 b3 − c3 b2 )
y1
y
=
=
=
0 ,
−c2 b3 + c3 b2
,
also
(b2 c3 − b3 c2 , −b1 c3 + b3 c1 , b1 c2 − b2 c1 )
=
b×c ,
und jede andere Lösung von (∗∗) ist ein λ−faches dieses Vektors, λ ∈ R .
Für jede Lösung x von h b, x i = β ∧ h c, x i = γ gilt
x
=
p + λ ( b × c) ,
also
x ∈ R3 h b, xi = β ∧ h c, x i = γ
=
Gp,b×c
.
2
Bemerkung 1.6.5 : Sie sehen: Es ist gar nicht von vornherein klar, wie
die Lösungsmenge von m Gleichungen mit n Unbekannten im Rn geometrisch aussieht. Wir werden im Laufe dieses Semesters eine Theorie dafür
entwickeln. Das ist auch deshalb sinnvoll, weil wir bei unseren bisherigen
Überlegungen oft nur Spezialfälle betrachtet haben, wenn wir gesagt haben:
Sei b ∈ R3 , b 6= 0 , dann ist eine der drei Komponenten 6= 0 .
Sei etwa b1 6= 0 , dann folgt . . . .
1.7 Aufgaben
(1.1) Sei f : M −→ N eine Abbildung. Zeigen Sie:
−1
a) Für alle A ⊂ M gilt A ⊂ f (f (A)) .
b) f ist genau dann injektiv, wenn für alle A ⊂ M gilt
−1
A
=
f (f (A)) .
−1
c) Für alle B ⊂ N gilt f ( f (B)) ⊂ B .
d) f ist genau dann surjektiv, wenn für alle B ⊂ N gilt
−1
B
=
f ( f (B)) .
e) Ist f bijektiv, so ist für alle B ⊂ N das Bild von B unter f −1
gleich dem Urbild von B unter f :
f −1 (B)
−1
=
31
f (B) .
(1.2) Sei f : M −→ N eine Abbildung und seien A, B ⊂ M , C, D ⊂ N .
Zeigen Sie :
−1
−1
f (C ∪ D)
a)
=
−1
b)
c)
d)
e)
f)
−1
f (C)∪ f (D)
−1
−1
f (C ∩ D) = f (C)∩ f (D)
f (A ∪ B) = f (A) ∪ f (B)
f (A ∩ B) ⊂ f (A) ∩ f (B)
Es gilt ∀ A, B ⊂ M : f (A ∩ B) = f (A) ∩ f (B)
genau dann, wenn f injektiv ist.
Geben Sie eine Funktion f : M −→ N und Teilmengen
A, B von M an mit f (A) ∩ f (B) 6= f (A ∩ B) .
(1.3.) Seien L, M, N nichtleere Mengen,
f : L −→ M
a)
b)
c)
d)
,
g : M −→ N
Funktionen. Zeigen Sie :
Sind f und g surjektiv, so ist g ◦ f surjektiv.
Sind f und g injektiv, so ist g ◦ f injektiv.
Ist g ◦ f surjektiv, so ist g surjektiv .
Ist g ◦ f injektiv, so ist f injektiv.
(1.4) Seien c ∈ R2 \ {0} , α ∈ R und p ∈ R2 .
Sei G := { x ∈ R2 | < c, x > = α } .
a) Berechnen Sie den “Fußpunkt f des Lots von p auf G ”, d.h.
den Schnittpunkt der auf G senkrechten Geraden durch p mit
G , und damit den “Abstand von p und G ”, d.h. kp − f k .
b) Zeigen Sie: Ist G in der Form
G =
x ∈ R2 hc, xi = α
mit kck = 1
(“Hessesche Normalform”)
gegeben, so ist der Abstand von p und G gleich
| hc, pi − α | .
(1.5) Beweisen Sie, dass für alle a, b ∈ R2 , λ ∈ R gilt:
a) (a + b)⊥ = a⊥ + b⊥ , (λa)⊥ = λ · a⊥ ,
b) ha, a⊥ i = 0 , ha, b⊥ i = −ha⊥ , bi ,
c) ka⊥ k = kak , d) (a⊥ )⊥ = −a .
32
(1.6) Seien a, b, c R2 mit a 6= b , c ∈
/ Ga,b−a gegeben. Als “Höhen im Dreieck
(a, b, c) ” bezeichnet man die Geraden durch die Punkte a, b, c, die auf
den Geraden durch die anderen beiden Punkte senkrecht stehen. Zeigen
Sie, dass sich die drei Höhen in genau einem Punkt h schneiden, und
geben Sie eine Formel zur Berechnung dieses “Höhenschnittpunkts” an.
(1.7) Sei m ∈ R2 und r ∈ R , r > 0 , dann heißt
K := { x ∈ R2 | kx − mk = r }
der “Kreis mit Mittelpunkt m und Radius r ”. Zeigen Sie:
a) Sei p ∈ R2 mit kp − mk < r . Sei S eine Gerade durch p . Dann
gibt es genau zwei Schnittpunkte aS , bS von S mit K , und das
Produkt
kaS − pk · kbS − pk
hängt nicht von S ab. (“Zwei-Sehnen-Satz”).
b) Sei p ∈ R2 mit kp − mk > r . Sei S eine Gerade durch p , die
zwei Schnittpunkte aS , bS mit K hat, und T eine Gerade
durch p , die K in genau einem Punkt q schneidet. Dann gilt
kaS − pk · kbS − pk = kq − pk2 .
(“Sehnen-Tangenten-Satz”).
(1.8) Seien p, q, a, b ∈ R3 und (a, b) linear unabhängig. Berechnen Sie, analog zu Aufgabe (1.4), den Abstand d des Punktes q von der Ebene
Ep,a,b .
(1.9) Sei P (x, y) das für ganze Zahlen x, y definierte zweistellige Prädikat
x ≤y
.
Zeigen Sie an diesem Beispiel, dass in Regel 1.2.5 (9) in der Mitte kein
⇐⇒ stehen kann.
33
§2 Gruppen
2.1 Allgemeines
Definition 2.1.1 : Sei H eine nichtleere Menge und τ eine Verknüpfung
auf H , d.h. eine Abbildung
τ : H × H −→ H
,
(x, y) 7−→ xτ y
.
Wenn die Aussage
(G1) ∀ x, y, z ∈ H : xτ (yτ z) = (xτ y)τ z
(Assoziativgesetz)
gilt, dann heißt H (genauer: das Paar (H, τ ) ) eine Halbgruppe .
Definition 2.1.2 : Sei G eine nichtleere Menge und τ eine Verknüpfung auf
G , d.h. eine Abbildung
τ : G × G −→ G ,
(x, y) 7−→ xτ y
.
Wenn die Aussagen
(G1) ∀ x, y, z ∈ G : xτ (yτ z) = (xτ y)τ z
(Assoziativgesetz)
(G2) ∃ e ∈ G ∀ x ∈ G : eτ x = x (Existenz eines linksneutralen Elements)
(G3) ∀ x ∈ G ∃ x∗ ∈ G : x∗ τ x = e (Existenz eines Linksinversen)
richtig sind, dann heißt G (genauer: das Paar (G, τ )) eine Gruppe .
Wenn zusätzlich
(G4) ∀ x, y ∈ G : xτ y = yτ x (Kommutativgesetz)
gilt, heißt (G, τ ) eine abelsche (kommutative) Gruppe .
2
Jede Gruppe ist also auch eine Halbgruppe.
Bemerkung 2.1.3 : In Def. 2.1.1 steht mit Absicht möglichst Wenig, damit
man wenig Arbeit hat, wenn man nachweisen will, dass eine gegebene Menge
G mit einer Verknüpfung τ eine Gruppe ist. Tatsächlich folgt aus (G1) - (G3)
mehr:
Folgerung 2.1.4 : Sei (G, τ ) eine Gruppe, e ein linksneutrales Element.
Dann gilt für alle x, y ∈ G :
(a) Wenn x∗ ∈ G ist mit x∗ τ x = e, dann ist auch xτ x∗ = e .
(b) xτ e = x .
(c) Sei f ∈ G mit ∀ a ∈ G : f τ a = a , dann ist f = e.
Das linksneutrale Elementist also eindeutig bestimmt, und wegen (b) es ist
auch rechtsneutral. Man spricht daher von dem neutralen Element von
34
(G, τ ) .
(d) ∃1 x∗ ∈ G : x∗ τ x = e , und es gilt auch
xτ x∗ = e . x∗ heißt daher das Inverse von x,
und wir schreiben meist x−1 statt x∗ .
(e) e∗ = e.
(f) Es gelten die Kürzungsregeln :
∀ a ∈ G : (aτ x = aτ y =⇒ x = y ∧ xτ a = yτ a =⇒ x = y) .
(g) ∃1 a ∈ G : xτ a = y ∧ ∃1 b ∈ G : bτ x = y .
(h) ∀ x, y ∈ G : ((x−1 )−1 = x
∧ (xτ y)−1 = y −1 τ x−1 ) .
Beweis : (a) Wegen (G3) hat man (x∗ )∗ ∈ G mit (x∗ )∗ τ x∗ = e , also
xτ x∗ (G2)
eτ (xτ x∗ ) = ((x∗ )∗ τ x∗ )τ (xτ x∗ ) = (x∗ )∗ τ (x∗ τ (xτ x∗ ))
=
= (x∗ )∗ τ ((x∗ τ x)τ x∗ ) = (x∗ )∗ τ (eτ x∗ ) = (x∗ )∗ τ x∗ = e .
(b) xτ e (G3)
xτ (x∗ τ x) (G1)
(xτ x∗ )τ x (a)
=
=
= eτ x = x.
(c) e = f τ e (b)
= f.
∗
(d) Seien x und x0 Linksinverse von x , dann gilt
0
(b) 0
x∗ = eτ x∗ = (x0 τ x)τ x∗ = x0 τ (xτ x∗ ) (a)
= x τe = x ,
das Linksinverse x∗ zu x ist also eindeutig bestimmt, und nach (a) auch
rechtsneutral.
(e) eτ e (G2)
e und e∗ τ e (G3)
e . Nach (d) folgt e = e∗ .
=
=
(f) Aus aτ x = aτ y folgt
a∗ τ (aτ x) = a∗ τ (aτ y),
und mit (G1) :
(a∗ τ a)τ x = (a∗ τ a)τ y;
und mit (G3) :
eτ x = eτ y,
also mit (G2) :
x = y.
Entsprechend zeigt man die zweite Implikation, wobei man noch (d) braucht.
(g) Setzen wir a := x∗ τ y , so folgt
xτ a = xτ (x∗ τ y) = (xτ x∗ )τ y = eτ y = y.
Zum Beweis der zweiten Aussage setzt man b := yτ x∗ . Dass a und b eindeutig
bestimmt sind, folgt aus (f).
(h) Wegen (d) haben wir
x−1 τ x = xτ x−1 = e ,
35
und da das Inverse eindeutig bestimmt ist, ist x das Inverse von x−1 , also
(x−1 )−1 = x. Für x, y ∈ G gilt
(y −1 τ x−1 )τ (xτ y) = (y −1 τ (x−1 τ x))τ y = (y −1 τ e)τ y = y −1 τ y = e ,
also folgt (wieder mit (d)) : (xτ y)−1 = y −1 τ x−1 .
2
In Halbgruppen kann man Potenzen mit Exponenten aus N definieren, in
Gruppen sogar mit Exponenten aus Z :
Definition 2.1.5 : Sei (G, τ ) eine Halbgruppe und x ∈ G . Dann definieren
wir Potenzen von x rekursiv durch
x1 := x ,
(∗)
xn+1 := xn τ x für n ∈ N .
Ist (G, τ ) eine Gruppe, e ihr neutrales Element, so setzen wir zusätzlich
x0 := x und für n ∈ N :
(∗∗) x−n := (x−1 )n .
Bemerkung 2.1.6 : Beim Beweis von Folgerung 2.1.7 setzen wir die folgende Eigenschaft der ganzen Zahlen als bekannt voraus: Es ist N0 ⊂ Z , und
wenn m ∈ Z, m ∈
/ N0 ist, dann ist −m ∈ N. Also ist
Z = N0 ∪ { −k | k ∈ N }
.
Folgerung 2.1.7 : Sei (G, τ ) eine Halbgruppe und seien x, y ∈ G ,
n, m ∈ N . Dann gilt
(1) xn τ xm = xn+m
(2) (xn )m = xn·m
(3) Wenn xτ y = yτ x ist: (xτ y)n = xn τ y n .
Ist (G, τ ) eine Gruppe , so gelten diese Regeln für alle n, m ∈ Z .
Beweis : (1) a) Sei (G, τ ) eine Halbgruppe. Dann beweisen wir (1) durch
Induktion nach m :
Induktionsanfang: Sei n ∈ N beliebig und m = 1 : Dann gilt
xn τ x1 = xn+1
nach Definition (∗).
Induktionsschluss: Sei n ∈ N beliebig und für m sei (1) richtig (I.V.), dann
folgt
n
m
n
m
(I.V.) xn+m τ x (∗) xn+m+1
xn τ xm+1 (∗)
= x τ (x τ x) = (x τ x )τ x
=
=
36
.
b) Sei nun (G, τ ) eine Gruppe und x ∈ G .
b1 ) Wir zeigen zunächst
∀ m ∈ Z : xm+1 = xm τ x.
Beweis von b1 ) : Für m ∈ N ist das die Definition (∗). Für m = −1 oder
m = 0 gilt das nach Definition von x0 . Sei m ∈ Z , m ≤ −2 , dann ist
m = −k mit k ≥ 2 , also k − 1 ∈ N . Nach Def. (∗∗) folgt
xm τ x = (x−1 )−m τ x = (x−1 )−m−1 τ x−1 τ x = (x−1 )−m−1 = xm+1
.
b2 ) Wir zeigen nun ∀ n ∈ Z ∀ m ∈ N0 : xn τ xm = xn+m durch Induktion
nach m :
Induktionsanfang: Für m = 0 gilt
xn τ x0 = xn τ e = xn = xn+0
.
Induktionsschluss: Sei m ∈ N0 , und für alle n ∈ Z sei xn τ xm = xn+m
richtig. Dann folgt
xn τ xm+1 = xn τ xm τ x = xn+m τ x b=1 ) xn+m+1
.
b3 ) Wir verwenden b2 ) für x−1 statt x. Dann haben wir
∀ n ∈ Z ∀ m ∈ N0 : (x−1 )n τ (x−1 )m = (x−1 )n+m
und nach (∗∗).
∀ n ∈ Z ∀ m ∈ N0 : x−n τ x−m = x−(n+m)
.
Mit n ∈ Z ist auch −n ∈ Z, und mit m ∈ N0 ist −m ∈ Z \ N , also gilt
∀ n ∈ Z ∀ m ∈ Z \ N : xn τ xm = x−(−(n+m)) = xn+m
.
c) Mit b2 ) und b3 ) haben wir gezeigt:
∀ n ∈ Z ∀ m ∈ Z : xn τ xm = xn+m
.
(2) und (3) zeigt man ähnlich.
2
(2.1.8) Additive und multiplikative Schreibweise : Häufig haben wir
in einer Menge G zwei Verknüpfungen. Dafür kann man dann nicht immer
37
“τ ” schreiben:
a) Schreibt man die Verknüpfung als Addition + , so schreibt man, falls vorhanden,
• für das neutrale Element : 0 , und spricht vom Nullelement,
• für das inverse Element eines x ∈ M : −x, und spricht vom Negativen
von x,
• für die n−te Potenz von x , n ∈ N bzw. Z : nx , und spricht vom
n−fachen von x.
b) Schreibt man die Verknüpfung als Multiplikation ·, so schreibt man, falls
vorhanden,
• für das neutrale Element : 1G oder einfach 1 , und spricht vom Einselement.
• für das Inverse eines x ∈ M : wie bisher, x−1 ,
• und für Potenzen von x wie bisher: xn .
2.2 Untergruppen und Normalteiler
Definition 2.2.1 : Sei (G, ·) eine Gruppe. Eine Menge U heißt eine
Untergruppe von G, wenn gilt
(U1) U 6= ∅ und U ⊂ G,
(U2) ∀ a, b ∈ U : a−1 · b ∈ U .
- Die Definition ist sinnvoll, denn es gilt die
Behauptung 2.2.2 : Sei U eine Untergruppe von (G, ·), dann ist U mit der
auf U eingeschränkten Verknüpfung · selbst eine Gruppe, mit dem neutralen
Element e von G als neutralem Element von U .
Beweis : (1) Wegen U 6= ∅ gibt es ein Element a ∈ U . Dafür ist nach (U2)
a−1 · a ∈ U
,
also e ∈ U .
Für a, b ∈ U ist dann nach (U2) auch
a−1 = a−1 · e ∈ U
,
und damit
a · b = (a−1 )−1 · b ∈ U ,
also ist die Restriktion von · auf U × U eine Abbildung von U × U
nach U ! Und die Gruppenaxiome (G1)-(G3) gelten für U .
2
Beispiel (2.2.3) : Sei (G, ·) eine Gruppe und a ∈ G fest. Dann ist
< a >:= { an | n ∈ Z }
38
eine Untergruppe. < a > heißt die von a erzeugte zyklische Untergruppe
von G.
Dass { an | n ∈ Z } eine Untergruppe ist, sieht man leicht mit der Potenzregel (1) aus 2.1.6. Andererseits: Jede Untergruppe U mit a ∈ U enthält
auch < a >, denn sie enthält a, a−1 , und mit Induktion folgt dann, dass auch
alle Potenzen von a in U liegen.
Bemerkung 2.2.4 : Sei U eine Untergruppe von (G, ·) , dann wird durch
a∼b
:⇐⇒
a−1 · b ∈ U
eine Äquivalenzrelation in G definiert. Die Äquivalenzklassen sind die Mengen
a · U := { a · u | u ∈ U } .
Die Mengen a · U heißen die Linksnebenklassen von G bezüglich U .
Beweis : Es gilt für alle a, b, c ∈ G:
(Ä1) a ∼ a wegen a−1 · a = e ∈ U.
(Ä2) Aus a ∼ b folgt a−1 · b ∈ U , also (a−1 · b)−1 ∈ U, b−1 · a ∈ U , also b ∼ a.
(Ä3) Aus a ∼ b und b ∼ c folgt
a−1 ·b ∈ U
und b−1 ·c ∈ U , also a−1 ·c = a−1 ·b·b−1 ·c ∈ U
also a ∼ c .
Beachten Sie, dass wir hier die (wegen des Assoziativgesetzes (G1) überflüssigen) Klammern weggelassen haben. Sei a die Äquivalenzlasse von a ,
also
a = { b∈G | b∼a } ,
und u ∈ U , dann ist a · u ∈ a wegen a−1 · (a · u) = u ∈ U , also a · U ⊂ a, und
wenn b ∈ a ist, gilt a ∼ b, also u := a−1 · b ∈ U , b = a · u ∈ a · U .
2
(2.2.5) Satz von Lagrange : Sei (G, ·) eine endliche Gruppe, d.h die
Menge G sei endlich, und U eine Untergruppe von G. Sei [G : U ] die Anzahl
der Linksnebenklassen von G bezüglich U , dann gilt
#(G) = [G : U ] · #(U ).
Beweis : Nach Bemerkung 2.2.4 wird durch
a∼b
:⇐⇒
a−1 · b ∈ U
für a, b ∈ G
eine Äquivalenzrelation auf G definiert, wobei die Äquivalenzklassen die
Linksnebenklassen a · U , a ∈ G sind, also gilt nach Satz 1.2.7(3) :
[
(∗)
G =
a·U .
a∈G
39
Die Nebenklassen sind endliche Mengen, da sie Teilmengen der endlichen
Menge G sind.
(1) Alle Nebenklassen haben die gleiche Mächtigkeit.
Beweis: Wegen U ⊂ G gibt es ein m ∈ N mit #(U ) = m. Sei a ∈ G und
f : U −→ a · U , f (x) := a · x ,
dann ist f surjektiv nach Definition von a·U , und injektiv nach der Kürzungsregel 2.1.4(f), also bijektiv. Also ist auch #(a · U ) = m , und zwar für alle
a ∈ G dasselbe m . Alle Nebenklassen haben also die Mächtigkeit #(U ).
(2) Zwei verschiedene Linksnebenklassen haben nach Satz 1.2.7(2) kein Element gemeinsam, und es gilt (∗). Es gibt also insgesamt [G : U ] Linksnebenklassen, die je #(U ) Elemente enthalten. Also ist
#(G) = [G : U ] · #(U ) .
2
Anwendung 2.2.6 : Sei (G, ·) eine Gruppe. Wenn man die Teilmengen U
von G sucht, die Untergruppen von G sind, so kann man sich also auf die
Teilmengen U beschränken, für die gilt
∃ n ∈ N : #(G) = n · #(U ) ,
man sagt: “Die Mächtigkeit von U ist ein Teiler von #(G)”.
Bemerkung 2.2.7 : Sei (G, ·) eine Gruppe und U eine Untergruppe, so hat
man die Menge
G/U := { a · U | a ∈ G }
.
Wir fragen uns, ob diese Menge G/U durch die Definition
(∗∗) (a · U ) ◦ (b · U ) := (a · b) · U ,
also
a ◦ b := a · b für a = a · U , a, b ∈ G
eine Gruppe (G/U , ◦) wird. Die Frage dabei ist, ob durch
a ◦ b := a · b
überhaupt eindeutig eine Abbildung
◦ : G/U × G/U −→ G/U
40
definiert ist, ob also aus
a · U = a0 · U ∧ b · U = b 0 · U
(a · b) · U
=
(a0 · b0 ) · U
immer
folgt.
Wenn ja, dann sagt man: ◦ ist wohldefiniert . Wenn die Gruppe (G, ·) nicht
kommutativ ist, ist das nicht immer der Fall. Man muss von U etwas mehr
fordern als nur die Untergruppen-Eigenschaft:
Definition 2.2.8 : Sei (G, ·) eine Gruppe und N eine Untergruppe von G.
Wenn auch noch
(N)
∀ x ∈ G ∀ u ∈ N : x·u·x−1 ∈ N
gilt, dann heißt N ein Normalteiler in G.
Bemerkung 2.2.9 : Man sieht, dass in einer kommutativen Gruppe jede
Untergruppe ein Normalteiler ist!
- Es wird Zeit, einige Beispiele anzugeben:
(2.2.10) Die symmetrische Gruppe
Sei M eine nichtleere Menge. Wir setzen
SM := { f : M −→ M | f ist bijektiv }
,
Man rechnet nach, dass für f, g ∈ SM auch
die Hintereinanderausführung f ◦ g und die Umkehrfunktion f −1 bijektiv,
also Elemente von SM , sind. Dass die Hintereinanderausführung ◦ assoziativ ist, wissen wir aus Satz 1.3.11, und für die in 1.3.9 definierte identische
Abbildung idM gilt
∀ f ∈ SM : f ◦ idM = idM ◦ f = f
.
Also ist (SM , ◦) eine Gruppe, mit idM als neutralem Element. Sie heißt die
symmetrische Gruppe von M . Für #(M ) ≥ 3 ist sie nicht abelsch: Seien
a, b, c drei verschiedene Elemente von M und seien
f, g : M −→ M,
f (a) := b , f (b) := c , f (c) := a ,
g(a) := b , g(b) := a , g(c) := c
und f (x) := g(x) := x für x ∈
/ {a, b, c}, dann gilt
(f ◦ g)(c) = f (c) = a ,
(g ◦ f )(c) = g(a) = b ,
41
also f ◦ g 6= g ◦ f .
Wenn M eine unendliche Menge ist, ist auch SM unendlich. Uns interessieren
mehr die endlichen Gruppen, die man bekommt, wenn man
M := n für n ∈ N
nimmt. Wir schreiben dann Sn statt Sn und nennen die Elemente dieser
Gruppe Permutationen der Menge n . Im Zusammenhang mit Determinanten werden wir uns noch ausführlich mit diesen Gruppen beschäftigen.
Wir beginnen mit
Beispiel (2.2.11) : Die Gruppe S3
Wie gesagt, ist sie nicht kommutativ. Wir werden gleich Bezeichnungen für
ihre Elemente einführen, deren Sinn sich in (2.2.13) erschließen wird. Wir
definieren hier mal die Permutationen (1, 2, 3) , (1, 3, 2) , (1, 2) , (1, 3) , (2, 3)
(das sollen jetzt keine Tripel bzw. Paare ganzer Zahlen, sondern Bezeichnungen für Permutationen sein) durch
(1, 2, 3) : 1 7→ 2 , 2 7→ 3 , 3 7→ 1 ,
(1, 3, 2) : 1 7→ 3 , 2 7→ 1 , 3 7→ 2 ,
(1, 2) : 1 7→ 2 , 2 7→ 1 , 3 7→ 3 ,
(1, 3) : 1 7→ 3 , 2 7→ 2 , 3 7→ 1 ,
(2, 3) : 1 7→ 1 , 2 7→ 3 , 3 7→ 2 .
Zusammen mit id3 sind das alle Permutationen von 3. Die Verknüpfung ◦
schreibt man sich am besten in einer Gruppentafel auf: Seien a, b ∈ S3 . In
die linke Spalte schreibt man das a von a ◦ b, in die obere Zeile das b, und
in die Kreuzung der Zeile von a und der Spalte von b die Hintereinanderausführung a ◦ b:
id3
(1,2,3) (1,3,2)
(1,2)
(1,3)
(2,3)
◦
id3
id3
(1,2,3) (1,3,2)
(1,2)
(1,3)
(2,3)
id3
(1,3)
(2,3)
(1,2)
(1,2,3) (1,2,3) (1,3,2)
(1,3,2) (1,3,2)
id3
(1,2,3)
(2,3)
(1,2)
(1,3)
(1,2)
(1,2)
(2,3)
(1,3)
id3
(1,3,2) (1,2,3)
(1,3)
(1,3)
(1,2)
(2, 3) (1,2, 3)
id3
(1,3,2)
(2,3)
(2,3)
(1,3)
(1,2)
(1,3,2) (1,2,3)
id3
(a) Wegen Anwendung (2.2.6) wissen wir, dass eine Untergruppe U von
(S3 , ◦) nur
1, 2, 3 oder 6
42
Elemente enthalten kann. Mit 1 bzw. 6 Elementen haben wir die
trivialen Untergruppen
{ id3 } bzw. S3
.
Aus der Gruppentafel sehen wir, dass
U3 := { id3 , (1, 2)} ,
U2 := { id3 , (1, 3)} ,
U1 := { id3 , (2, 3)}
Untergruppen mit zwei Elementen sind, und zwar die einzigen. Und
V := { id3 , (1, 2, 3), (1, 3, 2)}
ist die einzige Untergruppe mit drei Elementen.
(b) Nehmen wir mal die Untergruppe U3 und bilden einige Linksnebenklassen:
(1, 2, 3) ◦ U3 = (1, 3) ◦ U3 = {(1, 2, 3), (1, 3)} ,
(1, 3, 2) ◦ U3 = (2, 3) ◦ U3 = {(1, 3, 2), (2, 3} .
Aber: Es ist
((1, 2, 3) ◦ (1, 3, 2)) ◦ U3 = id3 ◦ U3 = {(1, 2), id3 } ,
((1, 3) ◦ (2, 3)) ◦ U3 = (1, 3, 2) ◦ U3 = {(1, 3, 2), (2, 3)} ,
man sieht, dass durch (∗∗) in (2.2.7) keine eindeutige Verknüpfung in S3 /U3
definiert ist!
(c) Für die Untergruppe V kann man anhand der Gruppentafel nachrechnen:
∀ x ∈ S3 ∀ v ∈ V : x ◦ v ◦ x−1 ∈ V
,
V ist also ein Normalteiler in S3 . Man hat zwei verschiedene Linksnebenklassen
id3 ◦ V = V
und (1, 2) ◦ V = {(1, 2), (2, 3), (1, 3)} .
Satz und Definition 2.2.12: Sei (G, ·) eine Gruppe und N ein Normalteiler
in G. Dann wird die Menge der Linksnebenklassen
G/N = { a · N | a ∈ G }
(∗∗)
(a·N )◦(b·N )
:=
(a·b)·N
mit der durch
für a, b ∈ G
definierten Verknüpfung ◦ eine Gruppe, genannt die
Faktorgruppe von G modulo N . Die Nebenklasse N (= e · N , wenn e
43
das neutrale Element von G ist,) ist das neutrale Element von (G/N , ◦)
Bemerkung : Das Zeichen ◦ bedeutet hier nicht, wie in (2.2.10)und (2.2.11),
die Hintereinanderausführung von Funktionen, sondern ist nur ein Zeichen
für eine von · verschiedene Verknüpfung (und wir werden später auch dafür
wieder · schreiben, wenn keine Verwechslungen zu befürchten sind).
Beweis : (1) Wir zeigen, dass durch (∗∗) eindeutig eine Verknüpfung ◦ auf
G/N definiert ist: Seien a, a0 , b, b0 ∈ G und
a · N = a0 · N
a ∈ a0 · N
∃ u ∈ N : a = a0 · u
∧
und b · N = b0 · N
und b ∈ b0 · N
,
,
dann gilt
also
∃ v ∈ N : b = b0 · v
,
also ∀ w ∈ N :
a · b · w = (a0 · u) · (b0 · v) · w = a0 · u · b0 · v · w
= a0 · b0 · (b0 )−1 · u · b0 · v · w
.
.
Nach Definition des Normalteilers (angewendet auf (b0 )−1 ∈ G und u ∈ N )
gibt es ein u0 ∈ U mit
(b0 )−1 · u · b0 = u0
a · b · w = a0 · b0 · u0 · v · w
,
,
also
mit u0 · v · w ∈ U
a · b · w ∈ a0 · b 0 · N
,
also
.
Also ist (a · b) · N ⊂ (a0 · b0 ) · N , und ebenso zeigt man (a0 · b0 ) · N ⊂ (a · b)· N ,
die beiden Nebenklassen sind also gleich. Durch (∗∗) ist also eindeutig eine
Verknüpfung ◦ auf G/N definiert.
(2) Die Gültigkeit des Assoziativgesetzes in (G/N , ◦) folgt aus der Def. (∗∗)
und dem Assoziativgesetz in (G, ·). Ist e das neutrale Element von (G, ·) , so
ist
e·N = N
das neutrale Element von (G/N , ◦) , und zu x · N ∈ G/N ist x−1 · N das
Inverse.
2
- Wir wollen uns noch einmal mit der in Beispiel (2.2.11) verwendeten Schreibweise beschäftigen, damit Sie sehen, was es mit Bezeichnungen wie “(1,3,2)”
oder “(2,3)” auf sich hat, und um weitere Beispiele angeben zu können:
(2.2.13) Schreibweise von Permutationen : Sei n ∈ N , n ≥ 2. Ein
44
σ ∈ Sn kann man dadurch angeben, dass man für 1, . . . , n die Funktionswerte hinschreibt, wie in (2.2.11) :
σ : 1 7→ σ(1), . . . , n 7→ σ(n) .
Das ist ziemlich viel Schreibarbeit. Einfacher ist es, man schreibt nur eine
Zeile hin, beginnend mit einer runden Klammer, schreibt eine Zahl j ∈ n
hin, dahinter ihren Funktionswert k := σ(j) , also
(j, k, . . . ,
danach σ(k) usw. Irgendwann wird ein l mit σ(l) = j auftreten, dann
schließt man die Klammer :
(j, k, . . . , l) .
Z.B. ist (1, 3, 4) eine Abkürzung für
σ : 1 7→ 3 , 3 7→ 4 , 4 7→ 1 ,
σ ∈ S4
,
wenn man vereinbart, dass Zahlen, die nicht in der Klammer auftauchen, auf
sich selbst abgebildet werden. Wir formulieren das etwas genauer:
Definition 2.2.14 : Eine Permutation σ ∈ Sn heißt ein Zyklus, wenn es
eine Teilmenge {a1 , . . . , ar } ⊂ n , r ≥ 1 , gibt, so dass
∀ j ∈ r − 1 : σ(aj ) = aj+1 ,
für j = r : σ(ar ) = a1 und
∀ j ∈ n \ {a1 , . . . , ar } : σ(j) = j
gilt . Ist r = 1 , so ist σ = idn und man schreibt
(1) := idn .
Ist r > 1 , so schreibt man für σ kurz
(a1 , a2 , . . . , ar ) .
Bemerkungen 2.2.15 : 1) Nicht jedes σ ∈ Sn ist ein Zyklus, sondern i.A.
ein Produkt mehrerer Zyklen, z.B. ist
σ
=
(1, 2) ◦ (3, 4) ∈ S4
kein Zyklus.
2) Die Zyklenschreibweise ist nicht eindeutig, z.B. ist
(1, 2, 3) = (2, 3, 1) ∈ S3 .
3) Mit der Zyklenschreibweise kann man gut rechnen: Etwa in S3 rechnet man
σ := (1, 3, 2) ◦ (2, 3) so aus: Man nimmt eine Zahl aus 3 , etwa 1 , wendet
darauf den hinten stehenden Zyklus an, das ergibt in diesem Fall wieder 1 ,
darauf dan den vorderen Zyklus, das ergibt hier 3, man schreibt
(1, 3
45
hin und wiederholt das Spiel mit 3 : Der hintere Zyklus,angewendet auf 3 ,
ergibt 2 , der vordere, angewendet auf 2 , ergibt 1 . Das hatten wir schon,
man schließt die Klammer:
(1, 3)
Zur Probe kann man noch nachrechnen, dass σ(2) = 2 ist. Also ist
σ = (1, 3). Es kann sein, dass weitere Zyklen hinzukommen (bei Sn mit
n ≥ 4 ).
Beispiel (2.2.16) : Die Gruppe V4
In der Gruppe (S4 , ◦) sei V4 := {e, a, b, c} mit
e := id4 , a := (1, 2) ◦ (3, 4) , b := (1, 3) ◦ (2, 4) , c := (1, 4) ◦ (2, 3) ,
dann rechnen wir folgende Produkte aus:
◦ e a
e e a
a a e
b b c
c c b
b c
b c
c b
e a
a e
Man sieht aus dieser Tabelle: Für alle x, y ∈ V4 gilt
x−1 = x und x · y ∈ V4
.
Also ist V4 eine Untergruppe von S4 , also (V4 , ◦) eine Gruppe und obige
Tabellle die Gruppentafel von (V4 , ◦) . (V4 , ◦) heißt die
Kleinsche Vierergruppe .
Beispiel (2.2.17) : Die zyklischen Gruppen Zn
Sei n ∈ N , n ≥ 2. Wir nehmen die Gruppe (Sn , ◦) und darin die Permutation
α := (1, 2, . . . , n) ,
jede Zahl aus n wird also auf die folgende abgebildet, und n auf 1 . Führt man
die Permutation α genau n mal aus, so erhält man die identische Abbildung
idn , und n ist die kleinste Zahl k ∈ N mit αk = idn . Die von α erzeugte
zyklische Untergruppe
j < α >=
α j∈n
bezeichnen wir mit Zn und nennen (Zn , ◦) die
zyklische Gruppe mit n Elementen .
46
- Um das etwas deutlicher zu machen, nehmen wir n := 4 :
Beispiel (2.2.18): Die zyklische Gruppe Z4
In S4 nehmen wir
α := (1, 2, 3, 4) ,
dann ist
α2 = (1, 3) ◦ (2, 4) ,
α3 = (1, 4, 3, 2) ,
α4 = id4
.
Wir schreiben uns die Gruppentafel von (Z4 , ◦) auf:
◦
id4
α
α2
α3
id4
id4
α
α2
α3
α
α
α2
α3
id4
α2
α2
α3
id4
α
α3
α3
id4
α
α2
Wir sehen einen wesentlichen Unterschied zur Gruppentafel von V4 in (2.2.16):
Beide Gruppen bestehen aus 4 Elementen. In V4 ist das Quadrat jedes Elements gleich dem neutralen Element, in Z4 gilt das nur für zwei Elemente.
Und in V4 gilt
∀ x ∈ V4 : < x > 6= V4 ,
wir sagen: V4 ist keine zyklische Gruppe . Solche Unterschiede werden im
nächsten Abschnitt deutlicher:
2.3 Homomorphismen von Gruppen
Definition 2.3.1 : Seien (G, ·) und (H, ◦) Halbgruppen. Eine Abbildung
ϕ : G −→ H
heißt ein Homomorphismus von (G, ·) in (H, ◦) wenn gilt
∀ x, y ∈ G : ϕ(x · y) = ϕ(x) ◦ ϕ(y) .
Zusatz 2.3.2 : Ein Homomorphismus der Halbgruppe (G, ·) in die Halbgruppe (H, ◦) heißt ein
Endomorphismus , wenn (G, ·) = (H, ◦) ,
Monomorphismus , wenn ϕ injektiv,
Epimorphismus, wenn ϕ surjektiv,
Isomorphismus, wenn ϕ bijektiv,
Automorphismus, wenn ϕ bijektiv und (G, ·) = (H, ◦) ist.
2
47
(2.3.3) Beispiele :(1) Seien (G, ·) und (H, ◦) Gruppen, eH das neutrale
Element von H , dann ist
ϕ : G −→ H
x 7→ eH
,
ein Homomorphismus.
(2) Sei (G, ·) eine Gruppe, a ∈ G ein festes Element, dann ist
ϕa : G −→ G ,
x 7→ a · x · a−1
ein Automorphismus von (G, ·). Falls (G, ·) abelsch oder a das neutrale Element von (G, ·) ist, ist ϕa = idG . - Das ist Übungsaufgabe (2.5 b)!
(3) Ein Beispiel aus der Analysis: Sei (R, +) die additive Gruppe der reellen
Zahlen und (R∗+ , ·) mit
R∗+ := { x ∈ R | x > 0 }
die multiplikative Gruppe der positiven reellen Zahlen, dann ist die Exponentialfunktion
exp : R −→ R∗+
ein Isomorphismus der Gruppe (R, +) in (R∗+ , ·).
(4) Sei (G, ·) eine Gruppe, N ein Normalteiler in (G, ·) und (G/N , ◦) die
Faktorgruppe von G modulo N . Da wir
(a · N ) ◦ (b · N )
:=
(a · b) · N
für a, b ∈ G
definiert hatten, ist die surjektive Abbildung
κN : G −→ G/N
,
a 7→ a · N
ein Epimorphismus von Gruppen. κN heißt der
kanonische Nebenklassenepimorphismus von G auf G/N . (“kanonisch”
bedeutet: “naheliegend”).
2
Satz 2.3.4 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG
bzw. eH , und
ϕ : G −→ H
ein Homomorphismus von (G, ·) in (H, ◦). Dann gilt
(1) ϕ(eG ) = eH ,
(2) ∀ x ∈ G : ϕ(x−1 ) = (ϕ(x))−1 ,
48
(3) ∀ x ∈ G ∀ n ∈ Z : ϕ(xn ) = (ϕ(x))n
Beweis : (1) Es ist eG ◦ eG = eG , also
.
ϕ(eG ) ◦ ϕ(eG ) = ϕ(eG ) = ϕ(eG ) ◦ eH
.
Mit der Kürzungsregel (2.1.4)(f) folgt
ϕ(eG ) = eH
.
−1
(2) ϕ(x) ◦ ϕ(x−1 ) = ϕ(x · x−1 ) = ϕ(eG ) (1)
= eH , also ist ϕ(x ) das
(eindeutig bestimmte) Inverse von ϕ(x) in der Gruppe (H, ◦) , also
ϕ(x−1 ) = (ϕ(x))−1
.
(3) Für n = 0 ist das Regel (1).
(a) Sei n ∈ N, dann machen wir Induktion nach n : Für n = 1 gilt
ϕ(x1 ) = ϕ(x) = (ϕ(x))1
.
Sei n ∈ N und für n sei (3) richtig, dann folgt
ϕ(xn+1 ) = ϕ(xn · x) = ϕ(xn ) ◦ ϕ(x) = (ϕ(x))n ◦ ϕ(x) = (ϕ(x))n+1
,
wobei wir die Definition 2.1.5(∗) der Potenzen in den Gruppen (G, ·) und
(H, ◦) verwendet haben.
(b) Für negative Exponenten −n , n ∈ N erhalten wir nach (2.1.5)(∗∗)
und (a) :
−1 n
−1 n (2)
−1 n (∗∗)
−n
(a)
ϕ(x−n ) (∗∗)
= ϕ((x ) ) = (ϕ(x ))
= ((ϕ(x)) )
= ϕ(x) .
2
(2.3.5) Sprechweise : Seien (G, ·) und (H, ◦) Gruppen. Es gebe einen
Isomophismus der beiden Gruppen
ϕ : G −→ H
,
dann haben wir wegen der Bijektivität von ϕ die Umkehrfunktion
ϕ−1 : H −→ G .
Sie ist auch ein Gruppen-Homomorphismus, denn seien x, y ∈ H , dann gibt
es a, b ∈ G mit ϕ(a) = x , ϕ(b) = y , also a = ϕ−1 (x) , b = ϕ−1 (y), und
wir erhalten
ϕ−1 (x ◦ y) = ϕ−1 (ϕ(a) ◦ ϕ(b)) = ϕ−1 (ϕ(a · b)) = a · b = ϕ−1 (x) · ϕ−1 (y) .
49
Man kann daher sagen : (G, ·) ist isomorph zu (H, ◦) und schreiben :
G∼
= H. Für Gruppen (G, ·), (H, ◦) und (L, τ ) hat man dann die Aussagen
(Ä1) G ∼
=G,
(Ä2) G ∼
= H =⇒ H ∼
=G,
∼
∼
(Ä3) G = H ∧ H = L =⇒ G ∼
=L,
wie bei einer Äquivalenzrelation, aber man kann nicht sagen, dass ∼
= eine
Äquivalenzrelation ist, da die “Menge aller Gruppen” nicht existiert! Man
kann nicht beliebige Objekte zu einer Menge zusammenfassen, das führt zu
logischen Widersprüchen.
2
(2.3.6) Beispiel : Die Gruppen (V4 , ◦) und (Z4 , ◦) sind nicht isomorph!
Die beiden Mengen V4 und Z4 haben jeweils vier Elemente, es gibt also eine
bijektive Abbildung von V4 auf Z4 . Aber angenommen,
ϕ : Z4 −→ V4
ist ein Isomorphismus der Gruppen (Z4 , ◦) und (V4 , ◦), dann gilt nach Satz
2.3.4 (1) :
∀ x ∈ V4 : ϕ(x2 ) (2.1.6)
ϕ( id4 ) = id4 ,
=
also für das in (2.2.17) definierte α ∈ Z4 :
∃ y ∈ V4 : α = ϕ(y) und damit α2 = (ϕ(y))2 = ϕ(y 2 ) = ϕ( id4 ) = id4 ,
was nach der Tabelle in (2.2.18) falsch ist.
Definition und Satz 2.3.7 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG bzw. eH , und ϕ : G −→ H ein Homomorphismus von
G nach H. Dann heißt
ker ϕ
:=
{ x ∈ G | ϕ(x) = eH }
der Kern des Homomorphismus ϕ . ker ϕ ist ein Normalteiler in (G, ·).
Beweis : Es ist ker ϕ ⊂ G nach Definition und eG ∈ ker ϕ nach 2.3.4 (1),
also ker ϕ 6= ∅ . Seien a, b ∈ ker ϕ , dann gilt nach (2.3.4) (2) :
ϕ(a−1 · b) = ϕ(a−1 ) ◦ ϕ(b) = (ϕ(a))−1 ◦ eH = (eH )−1 ◦ eH = eH
,
also ist ker ϕ eine Untergruppe von G. Sei x ∈ G und a ∈ ker ϕ , dann gilt
ϕ(x·a·x−1 ) = ϕ(x)◦ϕ(a)◦ϕ(x−1 ) = ϕ(x)◦eH ◦(ϕ(x))−1 = ϕ(x)◦(ϕ(x))−1 = eH ,
50
also x · a · x−1 ∈ ker ϕ . Also ist ker ϕ ein Normalteiler in G .
2
Bemerkung (2.3.8) : Seien M und N Mengen und f : M −→ N ,
und will man zeigen, dass f injektiv ist, so muss man
∀ a, b ∈ M : (f (a) = f (b)
=⇒
a = b)
zeigen. Hat man einen Gruppenhomomorphismus ϕ : G −→ H von
zwei Gruppen (G, ·) und (H, ◦) , mit neutralen Elementen eG bzw. eH , so
muss man nur
∀ a ∈ G : (ϕ(a) = eH
=⇒
a = eG )
zeigen, wegen ϕ(eG ) = eH und des folgenden Satzes:
Satz 2.3.9 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG
bzw. eH , und ϕ : G −→ H ein Gruppenhomomorphismus. Dann gilt
⇐⇒
ϕ ist ein Monomorphismus
ker ϕ = {eG } .
Beweis : a) Sei ϕ ein Monomorphismus, also ein injektiver Homomorphismus, und
ϕ(eG ) ,
also ϕ(x) = eH (2.3.4)(1)
=
x ∈ ker ϕ ,
dann folgt x = eG . Also: ker ϕ ⊂ {eG } , und “⊃” folgt aus (2.3.4)(1).
b) Sei ker ϕ = {eG } und seien a, b ∈ G mit ϕ(a) = ϕ(b). Dann folgt
ϕ(a) ◦ (ϕ(b))−1 = eH
,
also a · b−1 = eG
also a = b. Also ist ϕ injektiv.
,
also ϕ(a · b−1 ) = eH
,
a · b−1 ∈ ker ϕ ,
2
(2.3.10) Homomorphiesatz für Gruppen : Seien (G, ·) und (H, τ ) Gruppen ,
ϕ : G −→ H ein Epimorphismus von Gruppen.
Sei κ : G −→ G/ ker ϕ , x 7→ x · ( ker ϕ)
der kanonische Nebenklassenepimorphismus von G auf die Faktorgruppe
G/ ker ϕ , dann gibt es genau einen Gruppen-Isomorphismus
ι : G/ ker ϕ −→ H
mit ι ◦ κ
51
=
ϕ .
( “ ◦ ” ist hier die Hintereinanderausführung von Abbildungen.) Man sagt,
dass das folgende “Diagramm kommutativ” wird:
ϕ
G
-
H
κ
∃1 ι
?
G/ ker ϕ
Beweis : a) Wir zeigen zunächst: Wenn ein Homomorphismus ι mit ι◦κ = ϕ
existiert, so ist ι eindeutig bestimmt: Es gilt dann nämlich für x ∈ G :
ι(x · ker ϕ) = ι(κ(x)) = (ι ◦ κ)(x) = ϕ(x) ,
man kann also ι nicht anders als durch
(∗)
ι(x · ker ϕ)
:=
ϕ(x)
definieren:
b) Wir definieren ι durch (∗). Dann ist ι eindeutig definiert, denn seien
x, x0 ∈ G mit x · ker ϕ = x0 · ker ϕ , dann ist x−1 · x0 ∈ ker ϕ , also
ϕ(x−1 · x0 ) = eG , also ϕ(x) = ϕ(x0 ). ι ist ein Gruppenhomomorphismus,
denn für
x · ker ϕ , y · ker ϕ ∈ G/ ker ϕ gilt
ι((x · ker ϕ) ∗ (y · ker ϕ)) = ι((x · y) · ker ϕ)
= ϕ(x · y) = ϕ(x)τ ϕ(y) = ι(x · ker ϕ)τ ι(y · ker ϕ) .
Hier haben wir mit ∗ die Verknüpfung in der Faktorgruppe G/ ker ϕ bezeichnet. ι ist injektiv nach Satz 2.3.9, denn aus
ι(x · ker ϕ) = eH
folgt ϕ(x) = eH
,
also x ∈ ker ϕ ,
und damit ist x · ker ϕ = ker ϕ = eG · ker ϕ das neutrale Element in
(G/ ker ϕ , ∗). Und ι ist surjektiv, weil ϕ surjektiv ist: Sei z ∈ H, dann gibt
es ein x ∈ G mit z = ϕ(x), also z = ι(x · ker ϕ) . Die Gleichung
ι ◦ κ = ϕ folgt aus der Def. (∗) von ι .
2
52
2.4 Aufgaben
(2.1) Sei (G, ·) eine Gruppe. Zeigen Sie: Sei a ∈ G, dann ist
la : G −→ G , la (x) := a · x
bijektiv. Die Abbildung
l : G −→ SG
,
a 7→ la
ist ein Monomorphismus der Gruppe (G, ·) in die symmetrische Gruppe
(SG , ◦). (Interpretation: Wegen G ∼
= l(G) ist also jede Gruppe isomorph
zu einer Untergruppe einer symmetrischen Gruppe.)
(2.2) (Regeln für das Rechnen mit Zyklen :) Sei n ∈ N und seien a1 , . . . , ak
paarweise verschiedene Elemente aus n. Zeigen Sie :
a) (a1 , . . . , ak )−1 = (ak , ak−1 , . . . , a1 ),
b) (a1 , a2 )−1 = (a1 , a2 ),
c) ∀ τ ∈ Sn : τ ◦ (a1 , . . . , ak ) ◦ τ −1 = (τ (a1 ), . . . , τ (ak )) ,
d) seien auch b1 , . . . , bl paarweise verschiedene Elemente aus n und
{b1 , . . . , bl } ∩ {a1 , . . . , ak } = ∅, so gilt
(a1 , . . . , ak ) ◦ (b1 , . . . , bl ) = (b1 , . . . bl ) ◦ (a1 , . . . , ak ) .
(2.3) In der symmetrischen Gruppe (S4 , ◦) sei
γ := (1, 2, 3, 4) und δ := (2, 4) .
a) Berechnen Sie γ m für m ∈ 4 , δ n für n ∈ 2 .
b) Zeigen Sie γ ◦ δ = δ ◦ γ 3 .
c) Zeigen Sie, dass
D4 := { δ n ◦ γ m | m ∈ {0, 1, 2, 3} ∧ n ∈ {0, 1} }
eine Untergruppe von (S4 , ◦) mit 8 Elementen ist.
(D4 , ◦) heißt die Diedergruppe (gesprochen: Di-edergruppe)
mit 8 Elementen.
(2.4) In der symmetrischen Gruppe (S8 , ◦) sei e := id8 ,
n := (1, 5) ◦ (2, 6) ◦ (3, 7) ◦ (4, 8) , i := (1, 2, 5, 6) ◦ (3, 4, 7, 8) ,
j := (1, 3, 5, 7) ◦ (2, 8, 6, 4) , k := (1, 4, 5, 8) ◦ (2, 3, 6, 7) .
Zeigen Sie, dass Q := {e, n, i, j, k, i−1 , j −1 , k −1 } eine nicht kommutative Untergruppe von (S8 , ◦) ist. Rechnen Sie dazu möglichst nur
n2 , i2 , j 2 , k 2 , i ◦ j, j ◦ k, k ◦ i
53
aus und berechnen Sie die übrigen Produkte mit den Regeln aus (2.1.4)
h) . Q heißt die Quaternionengruppe .
(2.5) Sei (G, ·) eine Gruppe. Zeigen Sie :
a) Aut(G) := { ψ : G −→ G | ψ ist ein Automorphismus von G }
ist eine Untergruppe von (SG , ◦) .
Aut(G) heißt die Automorphismengruppe von G.
b) Für jedes a ∈ G ist
ϕa : G −→ G , ϕa (x) := a · x · a−1
ein Automorphismus von G (siehe auch 2.3.3 (2)) . ϕa heißt ein
innerer Automorphismus von G.
c) Sei Inn(G) := { ϕa | a ∈ G } die Menge der inneren
Automorphismen von G, dann ist Inn(G) ein Normalteiler in
(Aut(G), ◦) .
d) Zählen Sie nach, dass
#(Inn(S3 )) = #(Aut(S3 )) = 6
ist, und damit Aut(S3 ) = Inn(S3 ).
(Hinweis: Überlegen Sie sich, dass ein ψ ∈ Aut(S3 ) bereits durch
ψ((1, 2)) und ψ((1, 2, 3))
bestimmt ist, und dass es für diese Funktionswerte nur 3 bzw.2
Möglichkeiten gibt.)
e) Sei (Z4 , ◦) die in (2.2.18) definierte zyklische Gruppe
k Z4 =
α k ∈ {0, 1, 2, 3}
mit α = (1, 2, 3, 4) .
Zeige, dass durch
ψ : Z4 −→ Z4
,
ψ(αj ) := α3j
für j ∈ N0
ein Automorphismus von Z4 definiert ist, der kein innerer Automorphismus von Z4 ist .
(2.6) Zeigen Sie: Die in (2.2.16) definierte Gruppe V4 ist ein Normalteiler in
(S4 , ◦), und es gilt
S4 /V4 ∼
= S3 .
54
§3 Ringe und Körper
3.1 Etwas Ringtheorie
Definition 3.1.1 : Sei R eine Menge. Es gebe zwei Verknüpfungen
+ : R × R −→ R ,
(x, y) 7→ x + y
· : R × R −→ R ,
(x, y) 7→ x · y
,
,
die wir Addition und Multiplikation nennen, so dass gilt:
(R1) (R, +) ist eine abelsche Gruppe.
Das neutrale Element dieser Gruppe bezeichnen wir mit 0, und statt
vom “Inversen” eines Elements x sprechen wir vom Negativen
und schreiben: −x, siehe auch (2.1.7),
(R2) (R, ·) ist eine Halbgruppe. Nach Def.2.1.1 bedeutet das:
∀ x, y, z ∈ R : x · (y · z) = (x · y) · z
.
(R3) ∃ 1 ∈ R : (1 6= 0 ∧ ∀ x ∈ R : 1 · x = x · 1 = x),
es gibt also ein neutrales Element bezüglich ·. Wir nennen 1 das
Einselement von (R, +, ·),
(R4) ∀ x, y, z ∈ R : (x·(y +z) = (x·y)+(x·z) ∧ (x+y)·z = (x·z)+(y ·z))
(Distributivgesetz) ,
dann heißt R , genauer: Das Tripel (R, +, ·) , ein Ring .
(3.1.2) Bemerkungen : (1) Das, was wir hier als “Ring” definiert haben,
heißt in der Literatur genauer “assoziativer Ring mit Eins”, aber das ist uns
zu lang. Man kann aber auch eine Theorie ohne die Axiome (R2) und (R3)
entwickeln.
(2) Das neutrale Element 1 mit der Eigenschaft aus (R3) ist eindeutig bestimmt, denn sei auch 10 ∈ R mit
∀ x ∈ R : 10 · x = x · 10 = x ,
dann folgt
10 = 10 · 1 = 1 .
(3) Auf die Klammern auf der rechten Seite der Regeln im Distributivgesetz
werden wir verzichten: Wir definieren: “Punktrechnung geht vor Strichrechnung”, dann bedeutet also
x·y+x·z
dasselbe wie (x · y) + (x · z) .
Definition 3.1.3 : Sei (R, +, ·) ein Ring. Gilt zusätzlich zu den Axiomen
(R1) - (R4) noch
55
(R5) ∀ x, y ∈ R : x · y = y · x (Kommutativgesetz der Multiplikation) ,
so heißt (R, +, ·) ein kommutativer Ring . Gilt
(R6) ∀ x, y ∈ R \ {0} : x · y 6= 0 ,
so heißt (R, +, ·) ein nullteilerfreier Ring .
Folgerung 3.1.4 : Sei (R, +, ·) ein Ring, 0 das Nullelement und 1 das Einselement von (R, +, ·), dann gilt für alle x, y ∈ R :
(1) x · 0 = 0 ,
(2) 0 · x = 0 ,
(3) (−x) · y = x · (−y) = −(x · y) ,
(4) (−1) · x = −x ,
(5) (−x) · (−y) = x · y .
(R4)
Beweis : (1) Aus 0 + 0 = 0 folgt x · 0 = x · (0 + 0) = x · 0 + x · 0 ,
andererseits gilt auch x · 0 + 0 = x · 0 , also nach der Kürzungsregel in der
Gruppe (R, +) :
x·0 = 0 .
(2) zeigt man analog zu (1) mit (R4).
(R4)
(2)
(3) x · y + (−x) · y = (x + (−x)) · y = 0 · y = 0 ,
also ist (−x) · y das eindeutig bestimmte Negative von x · y ,
(−x) · y = −(x · y) , und ebenso
(R4)
(1)
x · (−y) + x · y = x · ((−y) + y) = x · 0 = 0 , also x · (−y) = −(x · y) .
(3)
(4) (−1) · x = −(1 · x) = −x ,
(3)
(3)
(2.1.4)(h)
(5) (−x) · (−y) = −(x · (−y)) = −(−(x · y))
=
x·y .
2
Bemerkung 3.1.5 : Alles, was wir für Gruppen gelernt haben, gilt auch
für die abelsche Gruppe (R, +) eines Ringes (R, +, ·). Statt Potenzen in
(R, +) spricht man nach (2.1.8) von Vielfachen
na für a ∈ R , n ∈ Z ,
und da (R, ·) eine Halbgruppe ist, hat man auch Potenzen
an
für a ∈ R , n ∈ N .
Wegen (R3) können wir noch definieren:
a0 := 1 für a ∈ R ,
56
dann sind also Potenzen an für n ∈ N0 definiert und alle a ∈ R , auch
00 = 1 .
(Die untere 0 ist die 0 aus R, die obere die aus N0 .)
Definition 3.1.6 : Sei (R, +, ·) ein Ring, mit Einselement 1 und U ⊂ R .
Es gelte
(I1)
U ist eine Untergruppe von (R, +) , d.h.
U 6= ∅ ∧ ∀ a, b ∈ U : b − a ∈ U , und
(UR) 1 ∈ U ∧ ∀ a, b ∈ U : a · b ∈ U ,
dann heißt U ein Unterring von (R, +, ·).
2
Bemerkungen 3.1.7 (1) Die Definition ergibt Sinn: Ist U Unterring von
(R, +, ·), so ist (U, +, ·) selbst wieder ein Ring, mit demselben Nullelement
und Einselement wie in (R, +, ·).
(2) Da (R, +) abelsch ist, ist eine Teilmenge U von R, die (I1) erfüllt, ein
Normalteiler in (R, +) . Man kann daher die Faktorgruppe
(R/U , ⊕)
(a + U ) ⊕ (b + U ) = (a + b) + U
mit
bilden, aber man möchte diese Linksnebenklassen nun auch multiplizieren.
Damit das “wohldefiniert” wird, und nicht nur Triviales ergibt, nimmt man
statt Unterringen “Ideale”:
Definition 3.1.8 : Sei (R, +, ·) ein Ring und I ⊂ R. Es gelte
(I1) I ist eine Untergruppe von (R, +), d.h.
I 6= ∅ ∧ ∀ a, b ∈ I : b − a ∈ I , und
(I2) ∀r ∈ R ∀a ∈ I : (r · a ∈ I ∧ a · r ∈ I) , ,
dann heißt I ein Ideal in (R, +, ·).
- Man beachte, dass wir hier keineswegs gefordert haben, dass 1 ∈ I ist. Ist
nämlich 1 ∈ I, so ist wegen (I2) :
∀r ∈ R : r · 1 ∈ I ,
dann ist also R ⊂ I , also I = R. Wir wollen aber auch “nichttriviale”
Ideale haben !
Definition und Satz 3.1.9 : Sei (R, +, ·) ein Ring, mit Nullelement 0 und
Einselement 1 . Sei I ein Ideal in R. Dann hat man die durch
(a + I) ⊕ (b + I)
:=
(a + b) + I
für a, b ∈ R
gemäß (2.2.12) definierte Faktorgruppe (R/I , ⊕) , mit dem Nullelement
0 + I = I. Durch
(∗) (a + I) (b + I)
:=
(a · b) + I
57
wird eindeutig eine Verknüpfung auf R/I definiert. (R/I , ⊕, ) ist dann
ein Ring, mit Nullelement 0 + I und Einselement 1 + I . (R/I , ⊕, ) heißt
der Faktorring von R modulo I .
Beweis : (1) Wir zeigen, dass durch (∗) eindeutig eine Abbildung
: R/I × R/I −→ R/I
definiert ist: Seien a, a0 , b, b0 ∈ R mit
a + I = a0 + I
und b + I = b0 + I
,
dann gilt a − a0 ∈ I und b − b0 ∈ I , also
a · b − a0 · b0 = a · b − a · b0 + a · b0 − a0 · b0 = a · (b − b0 ) + (a − a0 ) · b0
,
und das liegt in I , denn b−b0 ∈ I und a−a0 ∈ I , nach (I2) also a·(b−b0 ) ∈ I
und (a − a0 ) · b0 ∈ I, und nach (I1) liegt auch die Summe in I . Also gilt
a·b+I
=
a0 · b 0 + I
.
(2) Die anderen Ringaxiome gelten in (R/I , ⊕, ), da sie in (R, +, ·) gelten.
2
Um Homomorphismen von Ringen zu definieren, müssen wir zwei evtl. verschiedene Mengen R und S nehmen, mit verschiedener Addtion und Multiplikation. Um die Formeln aber nicht zu unübersichtlich werden zu lassen,
schreiben wir die Zeichen + und · für die Verknüpfungen in beiden Ringen.
Für die Einselemente schreiben wir aber 1R bzw. 1S :
Definition 3.1.9 : Seien (R, +, ·) und (S, +, ·) Ringe, mit Einselementen 1R
bzw. 1S . Eine Abbildung
ψ : R −→ S
heßt ein
(RH1)
(RH2)
(RH3)
Ringhomomorphismus, wenn gilt
∀ a, b ∈ R : ψ(a + b) = ψ(a) + ψ(b) ,
∀ a, b ∈ R : ψ(a · b) = ψ(a) · ψ(b) ,
ψ(1R ) = 1S .
2
Man beachte, dass (RH3) nicht aus Satz 2.3.4(1) folgt, denn (R, ·) und (S, ·)
sind keine Gruppen!
58
Wie bei Gruppen-Homomorphismen definiert man den Kern :
Definition und Satz 3.1.10 : Seien (R, +, ·) und (S, +·) Ringe,
ψ : R −→ S ein Homomorphismus. Dann heißt
ker ψ
:=
{ x ∈ R | ψ(x) = 0 }
der Kern des Ringhomomorphismus ψ . ( Die 0 hier ist natürlich die 0
in S .)
ker ψ ist ein Ideal in R .
Beweis : (I1) ker ψ ist ein Normalteiler, also eine Untergruppe, von (R, +)
nach Satz 2.3.7 .
(I2) Für r ∈ R und a ∈ ker ψ gilt
ψ(r · a) = ψ(r) · ψ(a) = ψ(r) · 0 = 0 und
ψ(a · r) = ψ(a) · ψ(r) = 0 · ψ(r) = 0 ,
also r · a, a · r ∈ ker ψ .
2
Man hat also den Faktorring R/ ker ψ , und kann damit den Homomorphiesatz für Ringe formulieren:
(3.1.11) Homomorphiesatz für Ringe : Seien (R, +, ·) und (S, +, ·)
Ringe ,
ψ : R −→ S ein Epimorphismus von Ringen.
Sei κ : R −→ R/ ker ψ , x 7→ x + ( ker ψ) der
kanonische Nebenklassenepimorphismus von R auf den Faktorring R/ ker ψ ,
dann gibt es genau einen Ring-Isomorphismus
ι : R/ ker ψ −→ S
mit ι ◦ κ
=
ψ
.
( “ ◦ ” ist hier die Hintereinanderausführung von Abbildungen.)
Beweis : Da Satz 2.3.9 schon bewiesen ist, muss man nur noch nachrechnen,
dass κ und ι die Bedingungen (RH2) und (RH3) für einen Ringhomomorphismus erfüllt. Das ist eine leichte Übungsaufgabe.
2
3.2 Der Ring der ganzen Zahlen
Das Rechnen mit ganzen Zahlen sollte aus der Schule bekannt sein, d.h. wir
wissen, dass (Z, +, ·) mit der gewöhnlichen Addition + und der gewöhnlichen
59
Multiplikation · ein kommutativer, nullteilerfreier Ring ist, mit der Zahl 0 als
Nullelement und der Zahl 1 als Einselement.
Bemerkung 3.2.1 : Mit der Anordnung der ganzen Zahlen, dem Induktionsaxiom und gleichbedeutenden Aussagen hatten wir uns schon in Abschnitt
1.2 beschäftigt. Wir setzen als bekannt voraus, dass außer den Axiomen (O1)
- (O3) auch noch
(O4) ∀ x, y ∈ Z : (x ≤ y ∨ y ≤ x) ,
(O5) ∀ x, y, z ∈ Z : (x ≤ y =⇒ x + z ≤ y + z),
(O6) ∀ x, y, z ∈ Z : (x ≤ y ∧ z ≥ 0 =⇒ x · z ≤ y · z)
gilt.
Satz 3.2.2 : Sei m eine feste ganze Zahl. Dann ist die Menge
(m)
:=
{ km | k ∈ Z }
ein Ideal in
(Z, +, ·) .
Dabei bezeichnet km für k ∈ Z das k−fache von m - das aber gleich dem
Produkt k · m in Z ist.
Beweis : (I1) (m) ⊂ Z sieht man, und (m) 6= ∅ wegen 0 = 0 · m ∈ (m).
Seien a, b ∈ (m), dann gibt es k, l ∈ Z mit a = km , b = lm , also
b − a = (l − k)m ∈ (m).
(I2) Sei r ∈ Z und a ∈ (m), dann gibt es ein k ∈ Z mit a = km , also
a · r = r · a = r · (km) = r · (k · m) = (r · k) · m = (r · k)m ∈ (m) .
2
Wir wollen zeigen, dass die Ideale (m) , m ∈ N0 , sogar alle Ideale von
(Z, +, ·) sind. Dazu brauchen wir den
Satz 3.2.3 (Division mit Rest in Z): Sei n ∈ Z, a ∈ N, dann gibt es
eindeutig bestimmte Zahlen v ∈ Z, r ∈ N0 mit
n = v·a+r
und 0 ≤ r < a .
Beweis : a) Wir zeigen die Existenz von v und r:
a1 ) Sei zunächst n ∈ N0 . Dann zeigen wir die Aussage
∀ a ∈ N ∃ v ∈ N0 ∃ r ∈ N0 : (n = v · a + r ∧ r < a)
|
{z
}
⇐⇒ : P (n)
durch Induktion nach n:
Induktionsanfang: Für n = 0 gilt
0 = 0·a+0 ∧ 0<a ,
60
für beliebiges a ∈ N. Die Aussage ist also für n = 0 richtig.
Induktionsschluss: Sei n ∈ N0 , und für n sei P (n) richtig. Dann folgt
n + 1 = (v · a + r) + 1 = v · a + (r + 1) ,
mit 0 ≤ r < a , also 0 ≤ r + 1 ≤ a. Wenn r + 1 < a ist, sind wir fertig, es
gilt dann auch P (n + 1). Anderenfalls gilt r + 1 = a und wir haben
n + 1 = v · a + a = (v + 1) · a + 0 ,
und auch in diesem Fall gilt P (n + 1).
a2 ) Sei nun n ∈ Z \ N und a ∈ N gegeben. Dann ist −n ∈ N , also
nach a1 ) :
∃ v ∈ N0 ∃ r ∈ N0 : (−n = v · a + r ∧ r < a) ,
n = (−v) · a − r
also
mit 0 ≤ r < a .
Ist hier r = 0 , so haben wir die Behauptung gezeigt, mit −v ∈ Z. Ist
0 < r < a , so ist 0 < a − r < a, wir haben
n = (−v − 1) · a + (a − r)
mit −v − 1 ∈ Z, also gilt die Behauptung auch in diesem Fall.
b) Wir zeigen nun die Eindeutigkeit von v und r: Sei auch
n = v 0 · a + r0
mit v 0 ∈ Z , 0 ≤ r0 < a ,
v · a + r = v 0 · a + r0
0
dann folgt
.
0
Ist hier v = v , so folgt auch r = r und wir haben die Eindeutigkeit.
Angenommen, v 6= v 0 , so ist eine der beiden Zahlen die kleinere, etwa v < v 0 ,
also existiert ein w ∈ N mit v + w = v 0 ,
v · a + r = (v + w) · a + r0
r = w · a + r0
,
,
mit r < a, aber w · a + r0 ≥ w · a > a , was ein Widerspruch ist.
2
Satz 3.2.4 : Sei I ein Ideal von (Z, +, ·) , dann gibt es genau ein m ∈ N0
mit I = (m) .
Beweis : Sei I ein Ideal von (Z, +, ·) , dann kann
I
=
{0} sein, dann ist I
61
=
(0) .
Sei I 6= {0} , dann gibt es ein c ∈ I, c 6= 0. Es kann c ∈ N sein, sonst ist
−c ∈ N , aber auch −c ∈ I , da I Untergruppe von (Z, +) ist. Jedenfalls ist
M
I ∩N
:=
6=
∅ ,
und nach (1.2.13) existiert
m
:=
min(M ) ,
also ist m ∈ I , und da I Untergruppe ist, auch
∀ v ∈ Z : vm ∈ I
also (m) ⊂ I
,
.
Sei nun n ∈ I , dann dividieren wir n mit Rest durch m : Nach Satz 3.2.3
haben wir ein r ∈ N0 und ein v ∈ Z mit
n = v·m+r
und 0 ≤ r < m ,
also r = n − v · m . Da die rechte Seite in I liegt, ist auch r ∈ I. Aus
0 < r < m würde folgen, dass in I ∩ N noch ein kleineres Element als m
liegt, Widerspruch zur Definition von m , also r = 0,
n = v · m ∈ (m).
2
Definition 3.2.5 : Seien a, b ∈ Z. Wir sagen:
a b , gesprochen: a teilt b :⇐⇒ ∃ c ∈ Z : a · c = b .
Definition 3.2.6 : Sei p ∈ N , p 6= 1 . p heißt eine Primzahl, wenn gilt
∀ a, b ∈ Z : ( p a · b =⇒ p a ∨ p b ) .
Satz 3.2.7 : Eine Zahl p ∈ N ist genau dann eine Primzahl, wenn gilt
(∗) ∀ k, l ∈ N : (p = k · l
k = 1 ∨ l = 1) .
=⇒
Beweis : 1) p sei eine Primzahl und seien k, l ∈ N mit
p
=
k·l
,
dann gilt p · 1
p |k · l
=
k·l
,
nach Definition 3.2.6 also p | k oder p | l . Aus p | k folgt
∃t ∈ Z : p · t
62
=
k
,
,
also
sogar t ∈ N wegen p, k ∈ N , also
k
=
p·t
≥
p·1
=
p .
Aus k > p oder l > 1 würde dann
k·l > p·1
=
p folgen, Widerspruch, also
k = p und l = 1 . Analog: Aus p | l folgt k = 1 .
2) Für p gelte (∗) . Seien a, b in Z ; es gelte
p|a · b ,
aber nicht p | a .
Dann ist
I
:=
{ n · p + m · a | n, m ∈ Z }
ein Ideal von (Z, +, ·) , was man leicht nachrechnet. Nach Satz 3.2.4 gibt es
genau ein d ∈ N0 mit
I = (d) ,
sogar d ∈ N ,
denn p = 1 · p + 0 · a ∈ I , also I 6= {0} . Es ist p ∈ (d) , also gibt es ein
s ∈ Z mit
p = s·d ,
sogar s ∈ N wegen p, d ∈ N .
Nach (∗) folgt s = 1 oder d = 1 . Aus s = 1 würde folgen: p = d ,
a = 0 · p + 1 · a ∈ I ∈ (d) = (p) ,
∃t ∈ Z : a = t · p ,
p|a ,
also
Widerspruch.
Also ist d = 1 , also 1 ∈ I , also
∃ u, v ∈ Z : 1
b
=
=
u·p+v·a ,
also
u·p·b+v·a·b ,
und wegen p | p , p | a · b folgt: p | b . Also ist p eine Primzahl.
2
Bemerkung 3.2.8 : Wir kennen nun alle Ideale von (Z, +, ·), es sind die
Ideale (m) mit m ∈ N0 , und wollen uns nun die zugehörigen Faktorringe
63
Z/(m) ansehen:
Ist m = 0 , so haben wir
(0) = { k · 0 | k ∈ Z } = {0} ,
und der Faktorring Z/(0) ist isomorph zu Z : Die Abbildung
Z −→ Z/(0)
,
z 7→ z + (0)
ist ein Ring-Isomorphismus. Auch für m = 1 erhalten wir nichts Neues: Es
ist
(1) = { k · 1 | k ∈ Z } = Z ,
und Z/Z ∼
= (0) .
Wir nehmen daher im Folgenden m ∈ N , m ≥ 2.
Folgerung 3.2.9 : Sei m ∈ N , m ≥ 2. Wenn wir die Nebenklassen a + (n)
für a ∈ Z mit a bezeichnen, so ist
Z/(m)
=
{0, 1, . . . , m − 1}
und Summe und Produkt von a, b ∈ Z/(m) erhält man, indem man die
ganzen Zahlen a, b addiert bzw. multipliziert und vom Ergebnis c den nach
Satz 3.2.3 existierenden Divisionsrest c0 modulo m nimmt, d.h. man sucht
sich die Zahl c0 ∈ N0 mit
0 ≤ c0 < n und c − c0 ∈ (n),
und bildet dazu c0 . Sei nämlich c − c0 ∈ (n), dann gilt c + (n) = c0 + (n) ,
also c = c0 .
a) Die additive Gruppe (Z/(n) , +) ist für uns nichts Neues: Sei (Zn , ◦) die
aus Beispiel (2.1.16) bekannte Gruppe, dann ist
Zn = < α > = {α0 , α1 , α2 , . . . , αn−1 } mit α = (1, 2, · · · , n)
und die Abbildung
ϕ : Zn −→ Z/(n)
,
αk 7→ k
für k ∈ {0, . . . , n − 1}
ist ein Isomorphismus der Gruppe (Zn , ◦) auf die Gruppe (Z/(n) , +). Wir
sehen uns als Beispiel die Gruppentafeln für (Z/(5) , +) und (Z/(6) , +) an,
wobei wir zur Unterscheidung ã für die Elemente aus Z/(6) schreiben:
64
(Z/(5) , +) :
(Z/(6) , +)
+ 0 1 2 3 4
0
1
2
3
4
0
1
2
3
4
1
2
3
4
0
2
3
4
0
1
3
4
0
1
2
+ 0̃ 1̃ 2̃
3̃ 4̃ 5̃
0̃
1̃
2̃
3̃
4̃
5̃
3̃
4̃
5̃
0̃
1̃
2̃
4
0
1
2
3
0̃
1̃
2̃
3̃
4̃
5̃
1̃
2̃
3̃
4̃
5̃
0̃
2̃
3̃
4̃
5̃
0̃
1̃
4̃
5̃
0̃
1̃
2̃
3̃
5̃
0̃
1̃
2̃
3̃
4̃
Deutliche Unterschiede in der Struktur haben die multiplikativen Halbgruppen (Z/(5) , ·) und (Z/(6) , ·) :
(Z/(5) , ·) :
(Z/(6) , ·) :
·
0 1 2 3
·
4
0̃ 1̃ 2̃ 3̃ 4̃
5̃
0̃ 0̃ 0̃ 0̃ 0̃ 0̃ 0̃
1̃ 0̃ 1̃ 2̃ 3̃ 4̃ 5̃
2̃ 0̃ 2̃ 4̃ 0̃ 2̃ 4̃
3̃ 0̃ 3̃ 0̃ 3̃ 0̃ 3̃
4̃ 0̃ 4̃ 2̃ 0̃ 4̃ 2̃
5̃ 0̃ 5̃ 4̃ 3̃ 2̃ 1̃
Dass in den Tabellen jeweils in der ersten Zeile und Spalte, also bei den Produkten mit dem Nullelement, nur das Nullelement steht, ist nach Folgerung
3.1.4 klar. Aber wir sehen: In Z/(5) \ {0} besitzt jedes Element ein Inverses
bezüglich · :
0
1
2
3
4
0
0
0
0
0
0
1
2
3
4
0
2
4
1
3
−1
1
0
3
1
4
2
0
4
3
2
1
= 1 ,
−1
2
= 3 ,
−1
3
= 2 ,
−1
4
= 4 .
In Z/(6) \ {0̃} gilt das nicht, schlimmer noch: Es gibt Produkte von Elementen ungleich 0̃, die 0̃ sind. Wir haben hier ein Beispiel für einen Ring, der
nicht nullteilerfrei ist. Das liegt daran, dass 5 eine Primzahl ist, 6 aber nicht.
Allgemein: Sei n ∈ N , n ≥ 2 und n keine Primzahl,
Z/(n) = { ã | a ∈ {0, 1, . . . , n − 1} }
mit ã := a + (n) ,
dann gibt es nach Satz 3.2.7 zwei Zahlen
k, l ∈ N mit 1 < k < n , 1 < l < n und n = k · l
k̃ · ˜l = 0̃ und k̃, ˜l 6= 0̃ .
65
,
also
Satz und Definition 3.2.11 : Sei (R, +, ·) ein Ring, 1 das Einselement von
R. Dann ist die Menge der Elemente, die ein Inverses bezüglich · besitzen,
also
R× := { a ∈ R | ∃ a∗ ∈ R : a · a∗ = a∗ · a = 1 }
mit · eine Gruppe, genannt die Einheitengruppe von R .
Beweis : Sind a, b ∈ R× , so haben wir
(a · b) · (b∗ · a∗ ) = (a · (b · b∗ )) · a∗ = (a · 1) · a∗ = a · a∗ = 1 ,
ebenso: (b∗ · a∗ ) · (a · b) = 1 . Also ist a · b ∈ R× , · ist eine Verknpfung auf
R× .
(G1) Das Assoziativgesetz für · gilt in R× , da es in R gilt.
(G2) Wegen 1 · 1 = 1 ist 1 ∈ R× und
∀ a ∈ R× : 1 · a = a .
(G3) Sei a ∈ R× , dann haben wir nach Def. von R× ein a∗ ∈ R mit a∗ ·a = 1.
Dieses a∗ gehört aber sogar zu R× wegen a · a∗ = 1, wir können
also (a∗ )∗ := a nehmen.
(R× , ·) erfüllt also die Gruppenaxiome.
2
Beisiele 3.2.12 : 1) Es ist Z× = {1, −1} .
2) Ist n eine Primzahl, so ist
(Z/(n) )× = Z/(n) \ {0} für 0 = 0 + (n) .
3) Es gilt
(Z/(8) )× = {1, 3, 5, 7} ,
mit a := a + (8) ,
(Z/(10) )× = {1̃, 3̃, 7̃, 9̃}
ã := a + (10) für a ∈ Z
und wir haben folgende Gruppentafeln:
((Z/(8) )× , ·)
·
1
3
5
7
Wir
((Z/(10) )× , ·)
·
1 3 5 7
1 3
3 1
5 7
7 5
sehen:
5 7
7 5
1 3
3 1
(Z/(8) )× ∼
= V4
,
1̃ 3̃ 7̃ 9̃
1̃ 1̃ 3̃
3̃ 3̃ 9̃
7̃ 7̃ 1̃
9̃ 9̃ 7̃
× ∼
(Z/(10) ) = Z4 .
66
7̃
1̃
9̃
3̃
9̃
7̃
3̃
1̃
Ist jedenfalls n eine Primzahl p, so ist Z/(p) \ {0 + (p)} mit der auf diese
Menge eingeschränkten Multiplikation eine kommutative Gruppe. Bevor wir
das beweisen, noch ein neuer Begriff:
Definition 3.2.13 : Sei (K, +, ·) ein kommutativer Ring, mit Nullelement 0
und Einselement 1. Wenn dann (zusätzlich zu den Axiomen
(R1) - (R5) ) noch gilt
(KK)
∀ x ∈ K\{0} ∃ x−1 ∈ K : x−1 ·x = 1 ,
dann nennen wir (K, +, ·) einen Körper .
2
Folgerung 3.2.14 : Ist (K, +, ·) ein Körper, mit Nullelement 0 und Einselement 1, so ist K \ {0} mit der darauf eingeschränkten Multiplikation · eine
kommutative Gruppe.
Beweis : Wegen der Kommutativität von (K, ·) und nach Axiom (KK) ist
K \ {0}
=
K×
die Einheitengruppe von (K, +, ·) , also nach Satz 3.2.11 eine Gruppe. Wegen
(R5) ist diese Gruppe kommutativ.
2
Sie kennen aus der Schule Beispiele für Körper:
(Q, +, ·) , den Körper der rationalen Zahlen,
(R, +, ·) , den Körper der reellen Zahlen,
dessen genaue Charakterisierung in die Analysis gehört,
und vielleicht noch
(C, +, ·) , den Körper der komplexen Zahlen,
den wir hier (sicherheitshalber) noch einführen werden.
Aber nun eben auch:
Satz 3.2.15 : Sei p eine Primzahl, dann ist (Z/(p) , +, ·) ein Körper.
Z/(p) enthält genau p Elemente.
Beweis : Für a ∈ Z setzen wir wieder
a = a + (p) ,
dann wissen wir:
Z/(p) = {0, . . . , p − 1} ,
67
und die angegebenen p Elemente sind verschieden. Dass (Z/(p) , +, ·) ein Ring
ist, gilt nach Satz 3.1.9 , und kommutativ ist er, da (Z, +, ·) ein kommutativer
Ring ist. 1 ist das Einselement von (Z/(p) , +, ·) . Sei a ∈ Z/(p) mit
(∗)
a 6= 0 ,
also 0 < a < p .
Sei I := { r · a + s · p | r, s ∈ Z } , dann ist I ein Ideal im Ring
(Z, +, ·) , mit a = 1 · a + 0 · p ∈ I und p = 0 · a + 1 · p ∈ I . Nach
Satz 3.2.5 gibt es ein d ∈ N0 mit
I = (d) ,
sogar d ∈ N wegen p ∈ I ,
also I 6= (0) .
Es ist dann p ∈ (d) , also
∃t ∈ Z : p = t · d ,
sogar t ∈ N wegen p, d ∈ N . Nun ist p ∈ P , also folgt aus p = t · d nach
Satz 3.2.8 : d = 1 oder t = 1. Angenommen, t = 1, dann würde d = p und
a ∈ I = (d) = (p) folgen, also
a = a + (p) = 0 + (p) = 0
folgen, Widerspruch zu (∗). Also ist t = 1 falsch und es gilt d = 1 ,
I = (d) = (1) = Z ,
{ r · a + s · p | r, s ∈ Z }
also
=
Z ,
und das heißt, zu jedem z ∈ Z gibt es r, s ∈ Z mit z = r · a + s · p ,
insbesondere
∃r ∈ Z ∃s ∈ Z : 1 = r · a + s · p ,
und mit diesem r folgt
1 − r · a = s · p ∈ (p) ,
1 = r·a .
Wir haben also ein Inverses zu a gefunden: Es gilt (KK) .
2
-Zwischen den Körpern Q, R, C einerseits und den Körpern Z/(p) andererseits gibt es einen wesentlichen Unterschied: Nimmt man die 1 dieser Körper
und bildet die Vielfachen
n 1 für n ∈ N ,
68
so sind diese in Q, R und C niemals 0. In Z/(5) = {0, 1, 2, 3, 4} mit dem
Einselement 1 gilt aber
51 = 1 + 1 + 1 + 1 + 1 = 0 .
Definition und Satz 3.2.16 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring, mit Nullelement 0 und Einselement 1. Wenn alle Vielfachen
n 1 für n ∈ N
ungleich dem Nullement 0 sind, dann sagen wir:
R hat die Charakteristik 0 und schreiben : char R = 0.
Anderenfalls ist
{ n ∈ N | n1 = 0 }
eine nichtleere Teilmenge von N ,
und
char R := p := min { n ∈ N | n 1 = 0 }
ist eine natürliche Zahl, sogar eine Primzahl. Wir sagen dann:
R hat die Charakteristik p .
Beweisen müssen wir nur, dass p eine Primzahl ist: Angenommen, p ist
keine Primzahl, dann haben wir nach Satz 3.2.8 zwei Zahlen
k, l ∈ N mit p = k · l
und (1 < k < p) ∧ (1 < l < p) .
Aus p 1 = 0 folgt dann
(k 1) · (l 1) (∗)
= (k · l) 1 = p 1 = 0
und da (R, +, ·) nullteilerfrei ist:
k1 = 0
∨
l1 = 0,
aber k, l < p , Widerspruch zur Minimalität von p. Die Formel
(∗)
∀ m, n ∈ N0 : (n 1) · (m 1) = (n · m) 1
folgt mit Induktion aus dem Distributivgesetz und der Potenzregel 2.1.7(1).
2
Wir haben also : char Q = 0
, char Z/(p) = p für alle p ∈ P.
69
3.3 Der Polynomring in einer Unbestimmten
(3.3.1) Zur Motivation : Sei (R, +, ·) ein kommutativer, nullteilerfreier
Ring, dann heißt eine Funktion
f : R −→ R
eine Polynomfunktion , wenn es ein n ∈ N0 und a0 , . . . , an ∈ R gibt, so
dass
n
X
f (t) =
ak · tk für alle t ∈ R gilt.
k=0
Ist R = Q oder R , so haben diese Polynomfunktionen die angenehme
Eigenschaft, dass ihre Koeffizienten eindeutig bestimmt sind: Seien
n, m ∈ N0 , a0 , . . . an , b0 , . . . , bm ∈ R und
∀t ∈ R :
n
X
ak · tk =
m
X
bk · tk
,
etwa n ≤ m ,
k=0
k=0
dann folgt ak = bk für k ∈ {0, . . . , n} und bk = 0 für k > n . Für andere
Ringe oder Körper gilt das nicht: Sei etwa
K := Z/(3)
und f, g : K −→ K
f (t) := t und g(t) := t3
,
,
dann gilt
f (0) = 0 = g(0) ,
f (1) = 1 = g(1) ,
f (2) = 2 = g(2) ,
also f = g
,
f (t) = 0 + 1 · t + 0 · t2 + 0 · t3
,
g(t) = 0 + 0 · t + 0 · t2 + 1 · t3
,
aber
die Koeffizienten sind also nicht eindeutig bestimmt und es ist daher nicht
möglich, den Grad einer solchen Polynomfunktion zu definieren. (Soll der
Grad von f nun 1 oder 3 sein ?) Man führt daher statt Polynomfunktionen
Polynome
n
X
ak · X k
k=0
mit einem Element X ∈
/ K ein. In manchen Büchern werden nun Polynome
n
P
als “formale Ausdrücke
ak X k ” eingeführt, das ist im Grunde genau so
k=0
70
unverständlich, wie wenn man
√ versucht, die komplexen Zahlen dadurch
√ einzuführen, dass man sagt: “ −1 existiert nicht. Wir setzen daher i := −1 ”.
Wie bei der Einführung von C muss man sich die Mühe machen, die Menge
K zu erweitern. Das geht natürlich nicht ganz schnell, aber das Ergebnis ist
so, wie man es haben will. Dazu zunächst eine Abkürzung:
Definition 3.3.2 : Sei M eine Menge und P (y) ein einstelliges Prädikat, in
das man Elemente y ∈ M einsetzen kann. Dann sagen wir:
Für fast alle y ∈ M gilt P (y) , in Zeichen : ∀0 y ∈ M : P (y) , wenn die
Menge
{ z ∈ M | ¬P (z) } endlich ist.
2
Was Folgen in M sind, wissen Sie vielleicht aus der Analysis, nämlich Funktionen a von N0 in M , die wir aber etwas anders schreiben, nämlich
(aj )j∈N0
statt a und aj
statt a(j) :
Definition 3.3.3 : Sei R ein kommutativer Ring und F(N0 , R) die Menge
der Folgen (aj )j∈N0 mit aj ∈ R .
Dann setzen wir
R[X]
:=
{ (aj )j∈N0 ∈ F(N0 , R) | ∀0 j ∈ N0 : aj = 0 }
.
Hilfssatz und Definition 3.3.4 : Sei M eine nichtleere, endliche Teilmenge von N0 . Dann besitzt M ein größtes Element, also ein
m∈M
mit ∀ a ∈ M : a ≤ m .
Dieses Element bezeichnen wir mit max M
.
Beweis durch Induktion nach n := #(M ):
Induktionsanfang: Ist #(M ) = 1, also M = {a1 } , so leistet m := a1 das
Gewünschte.
Induktionsschluss: Sei n ∈ N, und für Mengen M 0 mit #(M 0 ) = n sei die
Behauptung richtig. Sei M eine Teilmenge von N0 mit n + 1 Elementen und
b ∈ M , dann hat M 0 := M \ {b} nur m Elemente, es gibt ein m0 mit
m0 ∈ M 0
und ∀ a ∈ M 0 : a ≤ m0 .
Es kann b ≤ m0 sein, dann setzen wir m := m0 . Ist b > m, so setzen wir
m := b.
2
71
Definition 3.3.5 : Sei (aj )j∈N0 ∈ R[X] . Es kann
(aj )j∈N0
=
(0, 0, . . .)
sein. Anderenfalls ist { j ∈ N0 | aj 6= 0 } nichtleer und endlich. Wir nennen
deg(aj )j∈N0 := max { j ∈ N0 | aj 6= 0 }
den Grad von (aj )j∈N0 . Für (0, 0, . . .) definieren wir keinen Grad.
Satz 3.3.6 : Sei R ein kommutativer Ring. Setzt man für
(aj )j∈N0 , (bj )j∈N0 ∈ R[X] :
(aj )j∈N0 + (bj )j∈N0
(aj )j∈N0 · (bj )j∈N0
:=
:=
(aj + bj )j∈N0
!
j
X
ak · bj−k
k=0
,
,
j∈N0
so wird (R[X], +, ·) ein kommutativer Ring, mit
Nullelement (0, 0, 0, . . .) und
Einselement (1, 0, 0, . . .) .
Den Beweis dafür wollen wir nicht im Einzelnen führen. Man muss sich
zunächst überlegen, dass aus
∀0 j ∈ N0 : aj = 0 und ∀0 j ∈ N0 : bj = 0 auch
0
0
∀ j ∈ N0 : aj + bj = 0 und ∀ j ∈ N0 :
j
X
ak · bj−k = 0
k=0
folgt. Für letzteres und den Beweis der Assoziativität und Kommutativität
von · ist es nützlich, zu verwenden, dass
j
X
k=0
ak · bj−k
X
=
ak · b l
(k,l)∈N0 ×N0 mit k+l=j
gilt.
Bemerkung 3.3.7 : Man möchte haben, dass R ⊂ R[X] gilt. Das ist dasselbe Problem wie bei der Zahlbereichserweiterung von Z zu Q . Dort sieht
man zunächst nicht, dass ganze Zahlen n ∈ Z Brüche sind, aber man kann
n
n mit
∈ Q identifizieren.
1
Hier wird man ein
a ∈ R mit dem Element
72
(a, 0, 0, . . . )
identifizieren; das geht wegen der
Beh. 3.3.8 : ϕ : R −→ R[X] ,
Ringhomomorphismus.
Der Beweis ist leicht.
a 7−→ (a, 0, 0, . . .) ist ein injektiver
2
Folgerung 3.3.9 : Wenn wir für a ∈ R
a statt (a, 0, 0, . . .) ∈ R[X]
schreiben, ist es egal, ob wir a + b oder a · b in R oder in R[X] bilden, und
dann ist R ⊂ R[X] . Wir setzen noch
X
X∈
/R,
:=
(0, 1, 0, 0, . . .) ,
und ∀ k ∈ N0 : X k
Sei nun (aj )j∈N0 ∈ R[X] ,
aj
=
0
für
dann gilt
=
( |{z}
0
, . . . , 0, |{z}
1
, 0, . . .) .
0-te Stelle
k-te Stelle
dann gibt es ein n ∈ N0 mit
j > n,
(aj )j∈N0
=
=
also
(a0 , a1 , . . . , an , 0, 0, . . .)
n
X
(0, . . . , 0, ak , 0, . . .)
k=0
=
n
X
(ak , 0, 0, . . .) · (0, . . . , 0,
k=0
=
n
X
ak · X k
1
, 0, . . .)
|{z}
k-te Stelle
.
k=0
Zwischen Folgen (aj )j∈N0 und (bj )j∈N0 , also Funktionen von N0 nach R ,
hat man
(aj )j∈N0 = (bj )j∈N0 ⇐⇒ ∀ j ∈ N0 : aj = bj .
Mit
dem oben definierten X und der Schreibweise
∞
P
ak · X k statt (a0 , a1 , . . . , an , 0, . . .) erhält man
k=0
Satz und Definition 3.3.10 : Sei (R, +, ·) ein kommutativer Ring.
Dann ist
( ∞
)
X
R[X] =
ak · X k ∀ k ∈ N0 : ak ∈ R ∧ ∀0 k ∈ N0 : ak = 0
k=0
73
,
und (R[X], +, ·) ist ein kommutativer Ring, wenn man
∞
X
ak · X k +
k=0
∞
X
∞
X
bk · X k
∞
X
:=
k=0
!
ak · X
k
·
k=0
(ak + bk ) · X k
,
k=0
!
∞
X
bk · X
k
:=
k=0
∞
X
j
X
j=0
k=0
!
ak · bj−k
· Xj
setzt. Es ist
X ∈ R[X] , X ∈
/R .
(R[X], +, ·) heißt der Polynomring in der Unbestimmten X über R .
Es gilt in R[X] :
∞
X
k
ak · X =
∞
X
k=0
bk · X k
⇐⇒
∀ k ∈ N0 : ak = bk .
k=0
∞
P
Damit ist dann für f (X) =
ak · X k 6= 0
k=0
deg f (X)
=
max { k ∈ N0 | ak 6= 0 }
definiert. Die Elemente von R[X] heißen Polynome in X .
Definition 3.3.11 : Sei R ein kommutativer Ring, mit Einselement 1 , und
f (X) ∈ R[X] ,
f (X) 6= 0 ,
dann ist also n = deg f (X) definiert, und man hat a0 , . . . , an ∈ R mit
f (X) =
n
X
ak · X k
und an 6= 0 .
k=0
Das Element
`(f )
:=
an
heißt der Leitkoeffizient des Polynoms f (X) . Ist f (X) 6= 0 und
`(f )
=
1 ,
so heißt das Polynom f (X) normiert .
Behauptung 3.3.12 : Sei R ein kommutativer, nullteilerfreier Ring .
Seien f (X) , g(X) ∈ R[X] \ {0} , dann gilt
deg(f (X) · g(X))
=
deg f (X) + deg g(X) ,
74
`(f · g)
`(f ) · `(g) ,
=
und der Polynomring ist auch nullteilerfrei.
Beweis : Sei n := deg f (X) , m := deg g(X) , dann ist
f (X) =
n
X
ak · X k
mit `(f ) = an 6= 0 ,
bk · X k
mit `(g) = bm 6= 0 ,
k=0
g(X) =
m
X
und
k=0
f (X) · g(X) =
∞
X
j
X
j=0
k=0
!
· Xj
ak · bj−k
.
Ist j > n + m und k ∈ {0, . . . , j} , so kann
(1) k ≤ n sein, dann ist j − k > n + m − n = m , also bj−k = 0 ,
oder es kann
(2) k > n sein, dann ist ak = 0 , auf jeden Fall :
ak · bj−k = 0 . Also ist
f (X) · g(X)
=
n+m
X
j
X
j=0
k=0
!
ak · bj−k
· Xj
,
und für j = n + m gilt ak bj−k 6= 0 höchstens für k = n und j − k = m .
Also ist
n+m
X
ak · bn+m−k
=
an · b m
=
`(f ) · `(g) .
k=0
Also ist f (X) · g(X) 6= 0 , R[X] ist nullteilerfrei und wir haben die angegebenen Formeln.
2
Definition 3.3.13 (Einsetzen in Polynome) : Sei R ein kommutativer,
nullteilerfreier Ring und
f (X)
=
n
X
ak · X k ∈ R[X]
k=0
75
ein Polynom, dann kann man für X jedes Element aus R[X] einsetzen, man
kann etwa
n
X
f (X 2 ) :=
ak · X 2k
k=0
bilden. Insbesondere kann man jedes λ ∈ R einsetzen, man kann
f (λ)
n
X
:=
ak · λ k ∈ R
k=0
bilden und erhält so zu f (X) ∈ R[X] eine Polynomfunktion
f˜ ∈ F(R, R) ,
f˜(λ) := f (λ) .
Macht man nun die Menge F(R, R) zu einem Ring (F(R, R), +, ·) , indem
man für g, h ∈ F(R, R)
g + h : R −→ R durch (g + h)(λ) := g(λ) + h(λ) ,
g · h : R −→ R durch (g · h)(λ) := g(λ) · h(λ)
für λ ∈ R definiert, so wird die Abbildung
g : R[X] −→ F(R, R) ,
f (X) 7−→ f˜
ein Ring-Homomorphismus (wozu man
˜
˜
f^
1 + f2 = f1 + f2
,
˜ ˜
f^
1 · f2 = f1 · f2
für f1 , f2 ∈ R[X]
im Einzelnen nachrechnen müsste). g ist i.A. nicht surjektiv; man sieht,
etwa für R := R , leicht, dass es Funktionen gibt, die keine Polynomfunktionen sind. Z.B. ist
sin : R −→ R
ungleich 0 und hat unendlich viele “Nullstellen”. Nach dem nächsten Satz
haben Polynomfunktionen 6= 0 aber nur endlich viele Nullstellen. Die Abbildung g ist i.A. aber auch nicht injektiv, wie wir in (3.3.1) gesehen
haben:
f (X) := X und g(X) := X 3 ∈ Z/(3) [X]
sind verschiedene Polynome, aber für die Polynomfunktionen gilt
f˜(λ) = λ = λ3 = g̃(λ) für alle λ ∈ Z/(3)
f˜
=
g̃
76
.
,
also
g ist aber injektiv, wenn R unendlich viele Elemente hat, das ist Satz
3.3.15 . Zunächst
Definition und Satz 3.3.14 : Sei R ein kommutativer, nullteilerfreier Ring.
Für f (X) ∈ R[X] heißt
N (f (X))
{ α ∈ R | f (α) = 0 }
:=
die Menge der Nullstellen von f (X) . Es gilt dann für f (X) 6= 0 :
#(N (f (X))) ≤ deg f (X) .
Beweis durch Induktion nach deg f (X) :
Induktionsanfang: Ist deg f (X) = 0 , so ist
f (X)
a0 ∈ R ,
=
a0 6= 0 ,
es gibt kein α ∈ R mit f (α) = 0 , also
#(N (f (X)))
=
0
=
deg f (X) .
Induktionsschluss: Sei n ∈ N , und für Polynome vom Grad n − 1 sei die
Beh. richtig. Sei nun f (X) ∈ R[X] \ {0} und deg f (X) = n . Es kann sein,
dass es keine Nullstelle von f (X) gibt, dann ist
#(N (f (X)))
=
0
<
n
=
deg f (X) ,
die Behauptung ist also für f (X) richtig. Sonst: Sei α eine Nullstelle von
f (X) ,
n
X
f (X) =
ak · X k mit an 6= 0 ,
k=0
dann ist f (α) = 0 , also
f (X) = f (X) − f (α) =
n
X
k
ak ·X −
k=0
n
X
k
ak ·α =
k=0
n
X
ak ·(X k −αk ) .
k=1
Wie Sie durch Ausmultiplizieren (ohne Induktion) beweisen können, ist für
alle j ∈ N :
X j − αj
=
(X − α) ·
j−1
X
X l · αj−1−l
,
also
l=0
f (X)
=
(X − α) ·
n
X
ak ·
k−1
X
j=0
k=1
77
!
X j · αk−1−j
.
n
P
Nun ist g(X) :=
ak ·
!
k−1
P
X j · αk−1−j
ein Polynom vom Grad n − 1 ,
j=0
k=1
denn die höchste Potenz von X , die darin vorkommt, ist X n−1 , mit dem
Koeffizienten an 6= 0 . Also ist
f (X)
=
(X − α) · g(X) mit
deg g(X)
=
n−1 ,
und da R nullteilerfrei ist, ist eine Nullstelle von f (X) eine Nullstelle von
X − α oder von g(X) , und g(X) hat höchstens n − 1 Nullstellen. Also ist
2
#(N (f (X))) ≤ 1+(n−1) = n .
Man erhält damit den
Satz 3.3.15: Sei R ein kommutativer, nullteilerfreier Ring und unendlich
vielen Elementen, dann ist die Abbildung
˜ : R[X] −→ F(R, R) ,
die dem Polynom
f (X)
=
n
X
ak · X k
∈
R[X]
k=0
die Polynomfunktion f˜ : R −→ R ,
f˜(λ)
:=
n
X
ak · λk
k=0
zuordnet, injektiv.
Beweis : Seien f1 (X) , f2 (X) ∈ R[X] und
f˜1
f˜2
=
,
dann hat das Polynom
f1 (X) − f2 (X)
unendlich viele Nullstellen, nämlich alle λ ∈ R . Nach Satz 3.3.14 geht das
nur, wenn f1 (X) − f2 (X) das Nullpolynom ist, also:
f1 (X)
=
2
f2 (X) .
Für den folgenden Satz braucht man nun einen Körper K. Für die Elemente
aus K[X]werden wir im Rest dieses Abschnitts, wie schon in 3.3.13, einfach
f , g, ,...
statt f (X) , g(X) , . . .
78
schreiben:
Satz 3.3.16 : Sei K ein Körper, f, g ∈ K[X] und g 6= 0 . Dann gibt es
eindeutig bestimmte Polynome q, r ∈ K[X] mit
f
=
q · g + r ∧ (r = 0 ∨ deg r < deg g) .
Beweis : 1) der Eindeutigkeit von q und r : Seien auch q 0 , r0 ∈ K[X] mit
f
=
q 0 · g + r0 ∧ (r0 = 0 ∨ deg r0 < deg g ) ,
0
(q − q 0 ) · g + (r − r0 ) ,
=
0
(q − q ) · g
0
r −r
=
dann folgt
also
.
Aus q − q 0 6= 0 würde folgen: deg(q − q 0 ) ≥ 0 , also nach Behauptung 3.3.12:
deg(r0 − r)
deg((q − q 0 ) · g)
=
=
deg(q − q 0 ) + deg g ≥ deg g
,
aber (r = 0 ∨ deg r < deg g) ∧ (r0 = 0 ∨ deg r0 < deg g) , also
r − r0 = 0 ∨ deg(r − r0 ) < deg g , Widerspruch.
Also ist q − q 0 = 0 , q = q 0 , und damit
r − r0
=
0 ,
r = r0 .
2) der Existenz von q, r :
a) Ist f = 0 , so kann man q := r := 0 nehmen.
b) Ist f 6= 0 , so beweisen wir die Existenz von q, r durch Induktion
nach deg f :
Induktionsanfang : Ist deg f = 0 , so ist f (X) = a ∈ K \ {0} . Ist deg g = 0,
also g(X) = b ∈ K \ {0} , so ist
a = a · b−1 · b + 0 , wir können also q := a · b−1 und r := 0 nehmen.
Ist deg g ≥ 1 , so haben wir
a = 0 · g + a , wir können also q := 0 und r := a nehmen.
Induktionsschluss : Sei deg f = m ∈ N , und für Polynome u ∈ K[X] mit
deg u < m sei die Behauptung richtig. Trivial ist der Fall
deg g > m : Dann können wir
r := f , q := 0 nehmen, dann ist
f = 0 · g + f ∧ deg f < deg g . Sei nun
deg g ≤ m , also
f (X)
=
m
X
ak · X
k
,
g(X)
k=0
=
n
X
bk · X k
mit am , bn 6= 0
k=0
und n ≤ m , so ist
u(X)
:=
f (X) − am · bn −1 · g(X) · X m−n
79
ein Polynom, bei dem X m den Koeffizienten
am − am · bn −1 · bn
=
0
hat, also ist deg u < m oder u = 0 . Ist u = 0 , so haben wir
f (X)
q(X) · g(X) + 0 mit q(x)
=
:=
am · bn −1 · X m−n .
Ist deg u < m , so können wir die Induktionsvoraussetzung anwenden: Es
gibt q1 , r ∈ K[X] mit
u
f (X)
und mit q(X)
q1 · g + r ∧ (r = 0 ∨ deg r < deg g) ,
=
=
:=
also
(q1 (X) + am · bn −1 · X m−n ) · g(X) + r(X) ,
q1 (X) + am · bn −1 · X m−n folgt die Behauptung.
2
Man kann also im Polynomring K[X] , wenn K ein Körper ist, “mit Rest
dividieren”, so wie wir es in Satz 3.2.3 für Z bewiesen haben. Man definiert
daher allgemein:
Definition 3.3.17 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring. R
heißt ein euklidischer Ring , wenn es eine Funktion
δ : R \ {0} −→ N0
gibt mit folgender Eigenschaft: Zu a, b ∈ R mit b 6= 0 gibt es Elemente
q, r ∈ R mit
a = q·b+r
und entweder r = 0 oder δ(r) < δ(b) .
Die Abbildung δ heißt dann eine Gradfunktion .
2
(3.3.18) Beispiele: (1) Setzt man für c ∈ Z \ {0} :
c
für
0<c
| c | :=
−c
für
c<0
,
so kann man δ(c) := | c | für c 6= 0 setzen. Z mit δ wird dann ein euklidischer
Ring.
(2) Sei K ein Körper, dann wird der Polynomring K[X] mit δ := deg ein
euklidischer Ring.
80
Der Vorteil dieser allgemeinen Definition ist, dass man damit sehr übersichtlich folgenden Satz beweisen kann - den wir für Z schon als Satz 3.2.5
bewiesen haben:
Satz 3.3.19 : Sei (R, +, ·) ein euklidischer Ring, und I ein Ideal von R. Dann
gibt es ein d ∈ R mit
I = (d) := { x · d | x ∈ R }
.
Beweis : Sei δ die Gradfunktion von R. Ist I = {0}, so können wir d := 0
nehmen. Sonst ist
M
:=
{ δ(x) | x ∈ I \ {0} }
eine nichtleere Teilmenge von N0 , es existiert also min M , und dazu ein d ∈ M
mit δ(d) = min M . Sei nun y ∈ I beliebig. Dann gibt es q, r ∈ R mit
y = q·d+r
und (r = 0 ∨ δ(r) < δ(d)) .
Wegen d, y ∈ I folgt r ∈ I , und aus r 6= 0 würde δ(r) < δ(d) = min M
folgen, Widerspruch zur Definition von M . Also ist r = 0 und damit
y = q · d ∈ (d) ,
und damit I ⊂ (d) . (d) ⊂ I gilt wegen d ∈ I.
2
Wie in Z kann man in K[X] Teilbarkeit und Primelemente definieren:
Definition 3.3.20 : Sei K ein Körper und seien f, g ∈ K[X]. Wir sagen:
f g , gesprochen: f teilt g :⇐⇒ ∃ h ∈ K[X] : f · h = g .
Definition 3.3.21 : Sei p ∈ K[X] \ {0} , deg(p) 6= 0 .
p heißt ein Primpolynom, wenn gilt
∀ f, g ∈ K[X] : ( p f · g =⇒ p f ∨ p g ) .
Mit einem Beweis, den man fast wörtlich bei Satz 3.2.8 abschreiben kann
(und den wir besser gleich allgemeiner für euklidische Ringe bewiesen hätten)
zeigt man, dass man Primpolynome nicht in ein Produkt von Polynomen mit
kleinerem Grad zerlegen kann - außer einer der Faktoren hat den Grad 0 :
Satz 3.3.22 : Sei K ein Körper. Ein Polynom p ∈ K[X]\{0} ist genau dann
ein Primpolynom, wenn gilt
∀ f, g ∈ K[X] : (p = f · g
=⇒
81
deg f = 0 ∨ deg g = 0)
2
Bemerkung 3.3.23 : Ist R ein kommutativer, nullteilerfreier Ring, so haben wir in 3.3.10 und 3.3.12 gesehen, dass auch R[X] ein kommutativer,
nullteilerfreier Ring ist. Wir können daher den Polynomring in einer Unbestimmten über R[X] bilden, mit einer Unbestimmten, die nicht in R[X] liegt
und die wir daher nicht X nennen können. Nennen wir sie Y , so haben wir
R[X, Y ]
:=
(R[X])[Y ]
und nennen (R[X, Y ], +, ·) den Polynomring in zwei Unbestimmten
über R . Als Menge ist
( ∞
)
X
R[X, Y ] =
ajk · X j · Y k ajk ∈ R ∧ ajk = 0 für fast alle j, k ∈ N0
.
j,k=0
Man muss aber vorsichtig sein, nicht alle Eigenschaften des Polynomrings in
einer Unbestimmten hat auch der Polynomring in zwei Unbestimmten, z.B.:
Hat man einen Körper K , so ist K[X] nach Satz 3.3.16 und Def. 3.3.17 ein
euklidischer Ring. K[X, Y ] ist es aber nicht !
2
3.4 Der Körper der Brüche
Aus der Schule wissen Sie, dass man den Ring (Z, +, ·) der ganzen Zahlen
erweitern kann zum Körper der rationalen Zahlen. Das geht allgemein für
kommutative, nullteilerfreie Ringe :
Satz und Definition 3.4.1 : Sei (R, +, ·) ein kommutativer, nullteilerfreier
Ring, mit Nullelement 0 und Einselement 1. Wir setzen
R∗ := R \ {0} .
Dann wird durch
(a, f ) ∼ (b, g)
:⇐⇒
a·g = b·f
für a, b ∈ R , f, g ∈ R∗
eine Äquivalenzrelation auf der Menge R × R∗ definiert. Für die Äquivalenza
klasse von (a, f ) schreiben wir: . Dann wird
f
a ∗
Q(R) :=
a ∈ R, f ∈ R
f 82
1
0
ein Körper (Q(R), ⊕, ), mit Nullelement und Einselement , wenn man
1
1
definiert:
a
b
a·g+b·f
⊕ :=
,
f
g
f ·g
a
b
a·b
:=
f
g
f ·g
,
für a, b ∈ R, f, g ∈ R∗ . (Q(R), ⊕, ) heißt der Körper der Brüche oder
auch der Quotientenkörper von R . In Q(R) können wir “kürzen“: Es gilt
(Kü)
a·g
a
=
f ·g
f
für alle a ∈ R , f, g ∈ R∗
.
Beweis : Im Folgenden seien stets a, b, c, a0 , b0 ∈ R , f, g, h, f 0 , g 0 ∈ R∗ .
(1) Wir zeigen zunächst, dass ∼ eine Äquivalenzrelation auf R × R∗ ist: Es
gilt
(Ä1) (a, f ) ∼ (a, f ) wegen a · f = a · f ,
(Ä2) ( (a, f ) ∼ (b, g) =⇒ (b, g) ∼ (a, f ) ) wegen
a·g = b·f
=⇒
b·f = a·g
.
(Ä3) ( (a, f ) ∼ (b, g) ∧ (b, g) ∼ (c, h) )
=⇒
(a · g = b · f ∧ b · h = c · g)
=⇒
(a · g · h = b · f · h ∧ b · h · f = c · g · f ) .
Wegen der Kommutativität des Ringes R folgt daraus
a·h·g = c·f ·g
,
also (a · h − c · f ) · g = 0 .
Wegen der Nullteilerfreiheit von R, und wegen g ∈ R∗ , also g 6= 0, folgt
daraus
a·h−c·f = 0 ,
also a · h = c · f
also (a, f ) ∼ (c, h) .
,
(Kü) folgt sofort aus der Definition von ∼ .
(2) Wir zeigen nun, dass Addition ⊕ und Multiplikation in Q(R) eindeutig
definiert (also “wohldefiniert”) sind : Es gelte
a
a0
= 0
f
b
und
b
b0
= 0
g
g
(a, f ) ∼ (a0 , f 0 ) ∧ (b, g) ∼ (b0 , g 0 ) ,
83
,
dann gilt
also
a · f 0 = a0 · f ∧ b · g 0 = b0 · g
(∗)
.
Aus (∗) erhalten wir :
a · f 0 · g · g 0 = a0 · f · g · g 0 ∧ b · g 0 · f · f 0 = b0 · g · f · f 0 .
Wir addieren die beiden Gleichungen. Unter Verwendung der Kommutativität der Multiplikation und des Distributivgesetzes in R folgt :
(a · g + b · f ) · g 0 · f 0 = (a0 · g 0 + b0 · f 0 ) · g · f
,
(a · g + b · f, f · g) ∼ (a0 · g 0 + b0 · f 0 , f 0 · g 0 ) ,
a·g+b·f
a0 · g 0 + b 0 · f 0
=
f ·g
f 0 · g0
also
also
.
⊕ ist also wohldefiniert. Und aus (∗) folgt durch Multiplikation der beiden
Gleichungen:
a · b · f 0 · g 0 = a0 · b 0 · f · g ,
also
(a · b, f · g) ∼ (a0 · b0 , f 0 · g 0 ) ,
also
a0 · b 0
a·b
= 0 0
f ·g
f ·g
.
Also ist auch wohldefiniert.
(3) Ohne Probleme, aber mühsam, können wir nun zeigen, dass (Q(R), ⊕)
eine abelsche Gruppe ist. Wir verwenden dabei die Rechenregeln im Ring
(R, +, ·), ohne sie jedesmal zu erwähnen:
a
b
c
a·g+b·f
c
(a · g + b · f ) · h + c · (f · g)
⊕
⊕
=
⊕
=
f
g
h
f ·g
h
(f · g) · h
=
a·g·h+b·f ·h+c·f ·g
f ·g·h
und das erhält man auch , wenn man
b
c
a
⊕
⊕
f
g h
ausrechnet, also gilt das Assoziativgesetz für ⊕ . Und
a
b
⊕
f
g
=
a·g+b·f
f ·g
b·f +a·g
g·f
=
=
es gilt also auch das Kommutativgesetz für ⊕ . Wegen
a 0
⊕
f
1
=
a·1+0·f
f ·1
84
=
a
f
b
a
⊕
g f
,
,
a
−a
0
das neutrale Element in (Q(R), ⊕). Zu haben wir das Negative
,
1
f
f
denn
a −a
a · f + (−a) · f
(a + (−a)) · f
⊕
=
=
f
f
f ·f
f ·f
ist
(Kü) a + (−a)
=
f
Bezüglich ⊕ haben wir also
−
a
f
0
f
=
−a
f
=
=
0 · f (Kü) 0
=
.
1·f
1
.
(4) Einfacher ist es, nachzurechnen, dass (Q(R), ) eine Halbgruppe ist: Es
gilt
a
b
c
a·b
c
=
=
f
g
h
f ·g
h
(a · b) · c
a · (b · c)
a
b
c
=
=
.
(f · g) · h
f · (g · h)
f
g h
Es gilt auch das Kommutativgesetz für :
b
a
f
g
(5)
=
a·b
f ·g
=
b·a
g·f
1
ist das Einselement in (Q(R), ·) wegen
1
a·1
a 1
=
=
f
1
f ·1
b
a
g f
=
a
f
.
.
(6) Nun zum Distributivgesetz: Da kommutativ ist, brauchen wir nur eine
Gleichung nachzurechnen. Es gilt
b
c
a·g+b·f
c
(a · g + b · f ) · c
a
⊕
=
=
f
g
h
f ·g
h
(f · g) · h
=
a·c·g+b·c·f
f ·g·h
=
a·c
b·c
⊕
f ·h g·h
(Kü)
=
a
=
f
a·c·g·h+b·c·f ·h
(f · h) · (g · h)
c
b
c
⊕
.
h
g
h
(5) Um den Beweis, dass (Q(R), ⊕, ) ein Körper ist, zu vervollständigen,
müssen wir nur noch die Eigenschaft (KK) nachweisen: Sei
a
∈ Q(R) ,
f
85
a
0
6=
f
1
,
dann ist a ∈ R∗ , denn aus a = 0 würde
a
0
0·f
=
=
f
f
f
folgen. Zu
(Kü)
=
0
1
a
mit a ∈ R∗ haben wir aber
f
f
∈ Q(R) ,
a
und
f
a
a f
=
f ·a
a·f
(Kü)
=
1
1
.
In (Q(R), ) haben wir also
−1
a
f
=
f
a
für a, f ∈ R∗
.
2
Folgerung 3.4.2 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring und
Q(R) der in 3.4.1 definierte Körper der Brüche von R. Dann ist durch
j : R −→ Q(R) ,
a 7→
a
1
ein injektiver Ringhomomorphismus von (R, +, ·) in (Q(R), ⊕, ) definiert.
Wenn wir nun
a
für a ∈ R
a statt
1
und + statt ⊕ , · statt in Q(R) schreiben, ist (R, +, ·) ein Unterring von
(Q(R), +, ·) .
2
(3.4.3) Beispiele für Körper der Brüche:
(1) (Z, +, ·) ist ein kommutativer, nullteilerfreier Ring. Der Körper der
Brüche ist der Körper
Q(Z) = Q
der rationalen Zahlen. Das wissen Sie aus der Schule, aber es ist zu bezweifeln,
dass Sie das dort so ausführlich wie in Satz 3.4.1 bewiesen haben !
(2) Sei K ein Körper. Nach (3.3.10) und (3.3.12) ist dann der Polynomring
K[X] ein kommutativer, nullteilerfreier Ring , und daher können wir
f (X) K(X) := Q(K[X]) =
f (X), g(X) ∈ K[X] ∧ g(X) 6= 0
g(X) 86
bilden. K(X) heißt der Körper der rationalen Funktionen mit Koeffizienten in K .
3.5 Der Körper der komplexen Zahlen
Die Einführung der komplexen Zahlen ist eigentlich Schulstoff. Da aber erfahrungsgemäß nicht jeder Abiturient die komplexen Zahlen kennt, und wir
sie von §4 an ständig brauchen, geben wir hier eine kurze Einführung.
(3.5.1) Die Anordnung der reellen Zahlen : Wir wollen hier nicht auch
noch die reellen Zahlen definieren, und nicht mal alle Axiome angeben, durch
die der Körper (R, +, ·) charakterisiert ist. Was wir brauchen, ist die Anordnung der reellen Zahlen. Man muss wissen:
(R, +, ·) ist ein Körper, mit Nullelement 0 und Einselement 1. In R gibt es
eine Teilmenge R∗+ von Zahlen, die man als positive reelle Zahlen bezeichnet, mit den Eigenschaften:
(AK1) Für alle a ∈ R gilt genau eine der drei Aussagen:
a ∈ R∗+ , a = 0 , −a ∈ R∗+ .
(AK2) ∀ a, b ∈ R∗+ : a + b ∈ R∗+ ,
(AK3) ∀ a, b ∈ R∗+ : a · b ∈ R∗+ .
Der Vollständigkeit halber, aber man braucht es nur
in der Analysis: Es gilt noch
(AK4) ∀ a ∈ R ∃ n ∈ N : n 1 − a ∈ R∗+ .
Man kann damit für a, b ∈ R definieren:
a<b
:⇐⇒
b − a ∈ R∗+ ,
und :
a≤b
:⇐⇒
(a < b ∨ a = b) .
Wir schreiben gelegentlich noch b > a statt a < b und b ≥ a statt a ≤ b. Für
reelle Zahlen gelten dann die Anordnungsaxiome (O1) - (O6) , wie wir sie
aus 1.2.3 und 3.2.1 für die ganzen Zahlen kennen.
Folgerung 3.5.2 : (i)
Für alle reellen Zahlen a gilt 0 ≤ a2 ,
(ii) −1 < 0 .
Beweis : (i) Ist a = 0 , so gilt nach Folgerung 3.1.4(1) : a2 = 0 · 0 = 0.
Ist a ∈ R∗+ , so ist a2 = a · a ∈ R∗+ nach (AK3) .
Ist a ∈
/ R∗+ und a 6= 0, so ist −a ∈ R∗+ nach (AK1) , und nach Folgerung
3.1.4(5):
a2 = a · a = (−a) · (−a) ∈ R∗+
nach (AK3) ,
in jedem Fall also 0 ≤ a2 .
(ii) Nach (i) und wegen 1 6= 0 ist 0 < 1 · 1 = 1, also 1 ∈ R∗+ , also
87
0 − (−1) ∈ R∗+ , also −1 < 0 .
2
Man entnimmt dieser Folgerung: −1 ist nicht Quadrat einer reellen Zahl. Wir
wollen nun R so zu einem Körper C erweitern, dass es in C ein Element mit
−1 als Quadrat gibt. Das wird dann aber kein Körper sein, in dem es eine
Teilmenge mit den Eigenschaften (AK1)- (AK3) gibt.
Definition 3.5.3 : In der Menge
C
:=
{ (x, y) | x, y ∈ R }
definieren wir eine Addition ⊕ und eine Multiplikation durch
(a, b) ⊕ (u, v) := (a + u, b + v) ,
(a, b) (u, v) := (a · u − b · v, a · v + b · u)
für a, b, u, v ∈ R.
Satz und Definition 3.5.4 : Mit der in 3.5.3 definierten Addition ⊕ und
Multiplikation erhalten wir einen Körper (C, ⊕, ), mit Nullelement (0, 0)
und Einselement (1, 0),den wir den Körper der komplexen Zahlen nennen.
Beweis : Man sieht, dass ⊕ und Abbildungen von C × C nach C, also
Verknüpfungen auf C, sind.
Seien im Folgenden (a, b), (u, v), (s, t) ∈ C.
(1) Wir zeigen, dass (C, ⊕) , eine abelsche Gruppe ist: Es gilt
((a, b)⊕(u, v))⊕(s, t) = (a+u, b+v)⊕(s, t) = ((a+u)+s, (b+v)+t)
= (a+(u+s), b+(v+t)) = (a, b)⊕(u+s, v+t) = (a, b)⊕((u, v)⊕(s, t)) ,
(a, b) ⊕ (u, v) = (a + u, b + v) = (u + a, v + b) = (u, v) ⊕ (a, b) ,
(a, b) ⊕ (0, 0)
=
(a + 0, b + 0)
=
(a, b) ,
also ist (0, 0) das Nullelement, und
(a, b) ⊕ (−a, −b)
=
(a + (−a), b + (−b))
also ist (−a, −b) das Negative von (a, b) ∈ C
−(a, b)
=
=
(0, 0) ,
,
(−a, −b) .
(2) Wir zeigen nun, dass (C, ⊕, ) ein kommutativer Ring ist: Es gilt
((a, b) (u, v)) (s, t) = (a · u − b · v, a · v + b · u) (s, t)
88
= ((a · u − b · v) · s − (a · v + b · u) · t, (a · u − b · v) · t + (a · v + b · u) · s)
= (a · u · s − b · v · s − a · v · t − b · u · t, a · u · t − b · v · t + a · v · s + b · u · s)
= (a · (u · s − v · t) − b · (u · t + v · s), a · (u · t + v · s) + b · (u · s − v · t))
= (a, b) (u · s − v · t, u · t + v · s) = (a, b) ((u, v) (s, t)) ,
(a, b)(u, v) = (a·u−b·v, a·v+b·u) = (u·a−v·b, v·a+u·b) = (u, v)(a, b) ,
(a, b) (1, 0) = (a · 1 − b · 0, a · 0 + b · 1) = (a, b) ,
also ist (1, 0) das Einselement, und es gilt das Distributivgesetz:
(a, b) ((u, v) ⊕ (s, t)) = (a, b) (u + s, v + t)
= (a·(u+s)−b·(v +t), a·(v +t)+b·(u+s))
= (a · u + a · s − b · v − b · t, a · v + a · t + b · u + b · s)
= (a · u − b · v, a · v + b · u) ⊕ (a · s − b · t, a · t + b · s)
= ((a, b)(u, v))⊕((a, b)(s, t)) .
(3) Nun zum Axiom (KK) : Sei (a, b) ∈ C , (a, b) 6= (0, 0). Dann gilt nach
Folgerung 3.5.2 :
0 ≤ a2 und 0 ≤ b2 ,
und wegen (a, b) 6= (0, 0) gilt nicht a2 = b2 = 0 , eine der beiden Zahlen ist
also nicht Null, und für die Summe gilt daher
0 < a2 + b2
nach (AK2) .
Daher haben wir t := (a2 + b2 )−1 ∈ R . Es folgt
(a, b)(a·t, −b·t) = (a·(a·t)−b·(−b·t), a·(−b·t)+b·(a·t))
= (a2 · t + b2 · t, −a · (b · t) + a · (b · t)) = ((a2 + b2 ) · t, 0) = (1, 0) .
Wir haben also ein Inverses zu (a, b) 6= (0, 0),
(a, b)−1 = (a · ((a2 + b2 )−1 ), −b · ((a2 + b2 )−1 )) .
Insgesamt: (C, ⊕, ) ist ein Körper.
2
So ähnlich, wie wir in 3.3.9 gesehen haben, dass man R als Unterring von
R[X], und in 3.4.2, dass man R als Unterring von Q(R) auffassen kann, sehen
wir, dass man R als Unterring (in diesem Fall muss man besser sagen: als
89
Unterkörper) von C auffassen kann:
Folgerung 3.5.5 : Die Abbildung
ι : R −→ C ,
a 7→ (a, 0)
ist ein injektiver Ringhomomorphismus von (R, +, ·)in (C, ⊕, ) .
Wir schreiben daher
a statt (a, 0) ,
dann wird R ⊂ C . Wenn wir nun auch noch
+ statt ⊕ ,
· statt für die Verknüpfungen in C schreiben, wird (R, +, ·) ein Unterring von (C, +, ·).
Da beide Körper sind, sagen wir: (R, +, ·) ist ein Unterkörper von (C, +, ·).
Wenn wir diese Schreibweisen verwenden, also a statt (a, 0) schreiben, gilt
für beliebiges (a, b) ∈ C :
(a, b) = (a, 0) + (0, b) = (a, 0) + (0, 1) · (b, 0) = a + (0, 1) · b .
Das Element (0, 1) gehört zu C, aber nicht zu R . Wir nennen
i
:=
(0, 1)
die imaginäre Einheit . Dann gilt für jedes (a, b) ∈ C :
(a, b) = a + i · b ,
(∗)
C = { a + i · b | a, b ∈ R }
und damit
.
Es gilt
i2 = (0, 1) · (0, 1) = (−1, 0) = −1 ,
aber i ist nicht die einzige Zahl mit Quadrat −1, denn es gilt auch
(−i)2 = (−i) · (−i) = i · i = −1 .
√
Die Schreibweise i = −1 sollte man deshalb besser nicht verwenden ! Mit
der Schreibweise (∗) für C - und mit i2 = −1 - kann man auch die Definition
von Addition und Multiplikation in C übersichtlicher schreiben als
(a + ib) + (u + iv) = (a + u) + i(b + v) ,
(a + ib) · (u + iv) = (a · u − b · v) + i(a · v + b · u) .
90
Definition 3.5.6: Sei z ∈ C , z = x + iy = (x, y) mit x, y ∈ R . Aus der
Definition des cartesischen Produkts folgt
(x, y) = (x0 y 0 )
⇐⇒
(x = x0 ∧ y = y 0 ) für x, x0 , y, y 0 ∈ R .
Hat man also z = x + i · y mit x, y ∈ R, so sind x und y eindeutig bestimmt.
Man nennt
x den Realteil von z , und schreibt Re z := x , und
y den Imaginärteil von z , und schreibt Im z := y .
Und man nennt noch
z := x − i · y das Konjugiert-Komplexe von z.
Folgerung 3.5.7 : Die Abbildung
: C −→ C , z 7→ z
ist ein Automorphismus des Körpers (C, +, ·) , d.h.
gilt
(∗)
ist bijektiv, und es
∀ z, w ∈ C : (z + w = z+w ∧z · w = z·w) .
Und es gilt
(∗∗)
∀z ∈ C : z = z
.
Beweis : Die Regeln (∗) und (∗∗) kann man leicht nachrechnen. Aus (∗∗)
sich selbst als Umkehrfunktion hat und daher
folgt, dass die Abbildung
bijektiv ist.
2
Bemerkung 3.5.8 : In der Analysis lernt man: Zu jedem a ∈ R mit a ≥ 0
√
gibt es genau ein y ∈ R mit y 2 = a und y ≥ 0. Wir setzen a := y und
haben damit die Wurzelfunktion
√
√
: { a ∈ R | a ≥ 0 } −→ { a ∈ R | a ≥ 0 } , a 7→ a .
√
√ √
√
Es gilt ∀ a, b ∈ R : a · b = a · b . Damit ist
ein Endomorphismus
der Gruppe (R∗+ , ·) (aber keineswegs ein Homomorphismus bezüglich +) .
Die Wurzelfunktion ist streng monoton wachsend: Es gilt
√
√
(M)
∀ a, b ∈ R : (0 ≤ a < b =⇒
a < b) .
Beweis : von (M) : Es gelte 0 ≤ a < b. Dann ist
√
√
a+ b>0 ,
91
√
√
√
√
denn aus a + b = 0 würde a = b = 0 folgen. Aus b − a ≤ 0 und der
Gleichung
√
√
√
√
( b + a) · ( b − a) = b − a
√
√
würde b − a ≤ 0 folgen, Widerspruch zu a < b . Also : b − a > 0 .
2
Definition 3.5.9 : Sei z ∈ C , z = x + i · y mit x, y ∈ R. Nach Folgerung
3.5.2(1) und nach (AK2) gilt dann x2 + y 2 ≥ 0. Wir können daher definieren:
p
| z | :=
x2 + y 2
und nennen diese Zahl den Betrag von z . Auch für eine reelle Zahl x ist
√
damit |x| definiert, als |x| = x2 .
Nachrechnen kann man die
(3.5.10) Rechenregeln für den Betrag : Für alle z, w ∈ C gilt
√
(a) |z| = z · z,
(b) |z| = |z|,
(c) |Re z| ≤ |z| und |Im z| ≤ |z|
und es gelten die folgenden, auch für den Betrag reeller Zahlen wichtigen,
Regeln
(d) |z| ≥ 0 und (|z| = 0 ⇐⇒ z = 0) ,
(e) |z + w| ≤ |z| + |w| ,
(f) |z · w| = |z| · |w|
und daher auch die aus (e) und (f) folgende Regel
(g) | |z| − |w| | ≤ |z − w| .
2
(3.5.11) Die komplexe Zahlenebene: Man kann sich die komplexen
Zahlen, das Konjugiert-Komplexe und die Summe komplexer Zahlen geometrisch veranschaulichen. Wir hatten C eingeführt als cartesisches Produkt
C = R × R, daher kann man sich C vorstellen als die
Gaußsche Zahlenebene , in der die komplexen Zahlen in der Form
z = x + i · y mit x, y ∈ R eingetragen sind:
92
Im
Imaginäre Achse
i·y
HH
HH
H
*
z =x+i·y
x
HH
H
HH
H
HH
H
−i · y
HH
H
j
Re
Reelle Achse
z
|z| ist dann die Länge des “Vektors” z = x + iy , z der Vektor, den man
durch Spiegelung von z an der reellen Achse bekommt, und die Summe ist
die aus 1.2 bekannte Summe von Vektoren aus R2 :
Im
7
w > z
z+w
Re
Zur Veranschaulichung des Produkts braucht man Winkel, das gehört in die
93
Analysis.
Für den nächsten Satz brauchen wir noch das Produktzeichen, das man
ähnlich wie das Summenzeichen in 1.2.11 definiert:
Definition 3.5.12 : Sei (R, +, ·) ein Ring. Seien m, n ∈ Z. Dann definieren
wir rekursiv
(i)
für n < m:
n
Y
aj
:=
1
(“leeres Produkt”),
j=m
(ii)
für m ≤ n und am , . . . , an ∈ R :
n
Y
aj
:=
j=m
n−1
Y
aj · an
.
j=m
(3.5.13) Fundamentalsatz der Algebra : Sei f (X) ∈ C[X] ein Polynom,
f (X) 6= 0 , so dass n := degf (X) definiert ist, n ∈ N0 . Dann gibt es (nicht
notwendig verschiedene) Zahlen a1 , . . . , an ∈ C und ein c ∈ C \ {0} mit
f (X)
=
c·
n
Y
(X − aj ) .
j=1
Man sagt dazu: f (X) zerfällt in ein Produkt von Linearfaktoren.
2
Was der Name des Satzes nicht vermuten lässt: Der Satz lässt sich nur mit
Mitteln der Analysis beweisen, der Beweis gehört also nicht hierher. Der
Beweis geht am Einfachsten mit Sätzen aus der Theorie der differenzierbaren
Funktionen einer komplexen Variablen (“Funktionentheorie”). Wir werden
ihn aber später bei der Theorie der Eigenwerte brauchen.
2
3.6 Aufgaben
(3.1) Sei K ein Körper. Zeigen Sie:
a) Sei I ein Ideal im Polynomring K[X], dann gibt es ein Polynom
m(X) mit
I = (m(X)) := { f (X) · m(X) | f (X) ∈ K(X) }
94
.
b) In K[X, Y ] ist


I :=

X
ajk · X j · Y k
(j,k)∈N0 ×N0 mit (j,k)6=(0,0)


ajk ∈ K

ein Ideal, aber es gibt kein Polynom m(X, Y ) ∈ K[X, Y ] mit
I = { f (X, Y ) · m(X, Y ) | f (X, Y ) ∈ K[X, Y ] }
.
(3.2) Sei (A, +) eine abelsche Gruppe, 0 ihr neutrales Element. Sei
End(A) := { ϕ : A −→ A | ϕ ist ein Gruppen-Endomorphismus von A } .
Für ϕ, ψ ∈ End(A) definiere ϕ + ψ durch
(ϕ + ψ)(x) := ϕ(x) + ψ(x) für x ∈ A .
Sei ◦ die Hintereinanderausführung von Abbildungen. Zeigen Sie, dass
( End(A), +, ◦) ein Ring ist.
(3.3) Sei M eine nichtleere Menge und (R, +, ·) ein Ring.
Für f, g : M −→ R und x ∈ M setze
(f + g)(x) := f (x) + g(x) ,
(f · g)(x) := f (x) · g(x) .
Zeigen Sie, dass (F(M, R), +, ·) ein Ring ist, der für #(M ) ≥ 2 nicht
nullteilerfrei ist.
(3.4) Sei R ein kommutativer Ring, 1 das Einselement, 1 , 1 6= 0 . Für
u(X) =
∞
X
j
aj X ∈ K[X] sei D(u(X)) :=
j=0
∞
X
(j + 1) aj+1 X j
.
j=0
Zeigen Sie (ohne Benutzung von Regeln aus der Analysis), dass für
u(X), v(X) ∈ R[X] und a ∈ R gilt
a) D(a · u(X)) = a · D(u(X)) ,
b) D(u(X) + v(X)) = D(u(X)) + D(v(X)) ,
c) D(u(X) · v(X)) = D(u(X)) · v(X) + u(X) · D(v(X)) .
Ist die Abbildung D : R[X] −→ R[X] , u(X) 7−→ D(u(X))
ein Homomorphismus von Ringen ?
95
(3.5) Sei (R, +, ·) ein kommutativer Ring und α ∈ R . Sei
Rα := R × R ,
und für (a, b), (c, d) ∈ Rα
(a,b) ⊕(c, d) := (a + b, c + d) ,
(a, b) ◦ (c, d) := (a · c + α · b · d, a · d + b · c) .
sei
Zeigen Sie:
a) (Rα , ⊕, ◦) ist ein kommutativer Ring mit Eins,
ϕ : R −→ Rα , ϕ(a) := (a, 0)
ist ein injektiver Ringhomomorphismus, und es gibt ein
(x, y) ∈ Rα mit (x, y)2 = (α, 0) .
b) Ist R ein Körper, und gibt es kein x ∈ R mit x2 = α , so ist
(Rα , ⊕, ◦) ein Körper.
(Hinweis: Mit R := R und α := −1 ist C := R−1 der Körper der
komplexen Zahlen, wir haben hier also nur eine Verallgemeinerung von
Satz 3.5.4 .)
(3.6) Zeigen Sie, etwa mit Aufgabe (3.5), dass es Körper mit 9 und mit 25
Elementen gibt.
(3.7) Sei K := Z/(3) . Geben Sie alle normierten Primpolynome vom
Grad 3 aus K[X] an. Hinweis: Für alle α ∈ K gilt α3 = α .
Zu den folgenden Aufgaben: Sei n ∈ Z \ {0, 1}, und n sei quadratfrei, d.h.
es
Quadratzahl in N \ {1}, die Teiler von n ist. Für n < 0 setze
√
√ gebe keine
n := i −n. Zeigen Sie:
√
√
Z[ n] := { a + b n | a, b ∈ Z } ,
und für n − 1 ∈ (4)( d.h. wenn 4 Teiler von n − 1 ist ) auch
√ 1 + n On :=
a+b
a, b ∈ Z
2
sind Unterringe
√ von √C .
√
b) Für z = a + b n ∈ Z[ n] setze z := a − b n , und für
√
√
1+ n
1− n
z = a+b
∈ On setze z := a + b
.
2
2
√
Dann gilt für alle z, w ∈ Z[ n] bzw. On
N (z) := z · z ∈ Z , N (z · w) = N (z) · N (w)
(3.8) a)
96
√
und damit: Zu z existiert genau dann ein z ∗ ∈ Z[ n] bzw. On
mit z · z ∗ = 1 , wenn N (z) ∈ {±1} ist.
(3.9) Sei (R, +, ·) ein Ring, 1 das Einselement von R . Nach Satz 3.2.11 ist
die Menge R× der invertierbaren Elemente von R, also
R× := { a ∈ R | ∃ a∗ ∈ R : a · a∗ = a∗ · a = 1 }
mit · eine Gruppe , die Einheitengruppe von R .
a) Bestimmen Sie mit Aufgabe (3.4) b) die Einheitengruppen der in
Aufgabe √
(3.4) a) definierten
Ringe
√
Z[ −1] ,√ Z[ −2] , O−3 .
b) Zeigen Sie, dass Z[ 3]× unendlich
√ viele Elemente hat. Tipp:
Wenn Sie ein Element z1 ∈ Z[ 3]× , z1 6= ±1 , gefunden
haben,
sind alle z1n , n ∈ N0 , verschieden und liegen auch
√ dann
×
in Z[ 3] .
√
√
(3.10) Alle Q( n) := { a + b n | a, b ∈ Q } sind Unterkörper von C , im
Falle von n > 0 auch von R .
97
§4 Vektorräume
4.1 Definition und Beispiele
(4.1.1) Zur Motivation : Wenn man von “Vektoren” spricht , denkt man
von der Schule her meistens an “Vektoren im dreidimensionalen Raum” ,
wie wir das in 1.6 gemacht haben. Wir wollen hier aber von der Vorstellung
loskommen, dass Vektoren “Pfeile” sind. Gleich die ersten Beispiele werden
zeigen, dass es auch etwas allgemeiner sein muss.
Definition 4.1.2 : V sei eine nichtleere Menge und K ein Körper,
1 das Einselement von K . Es gebe eine Verknüpfung
+ : V × V −→ V
(a, b) 7−→ a + b
,
und eine äußere Operation
ω : K × V −→ V
,
(α, a) 7−→ αa ,
so dass gilt :
(V1) (V, +) ist eine abelsche Gruppe.
(V2) Für alle α, β ∈ K und alle a, b ∈ V gilt
(a) α(a + b) = αa + αb ,
(b) (α + β)a = αa + βa ,
(c) (α · β)a = α(βa) ,
(d) 1 a = a .
Dann heißt V (genauer: Das Tripel (V, +, ω) ) ein
K-(Links-)Vektorraum . Die Elemente von V heißen Vektoren,
die Elemente von K Skalare .
2
Beispiel 4.1.3 : Sei L ein Körper und K ein Unterkörper von L , d.h. ein
Unterring, der auch noch Körper ist. Dann ist (L, +) eine abelsche Gruppe,
es gilt also (V1) für (L, +) . Als äußere Operation von K auf L nehmen wir
die Multiplikation in L , eingeschränkt auf K × L ; wir setzen also
ω : K × L −→ L ,
ω(α, a)
:=
α |{z}
· a ,
↑
Multiplikation in L
also αa := α · a . Auf diese Weise wird L ein K−Vektorraum, denn die
Rechenregeln
(V2) (a) und (b) folgen dann aus dem Distributivgesetz in L ,
(c) aus dem Assoziativgesetz für (L, ·) , und
98
(d) daraus, dass 1 das Einselement von L ist .
Wir erhalten damit gleich weitere Beispiele:
a.) Sei (K, +, ·) ein Körper, dann ist K ein Unterkörper von sich selbst. K
selbst ist also ein K−Vektorraum.
b.) Q, R, C sind Körper mit Q ⊂ R ⊂ C, Q ist Unterkörper von R und R
ist Unterkörper von C . Also sind
Q, R, C jeweils Q−Vektorräume ,
R und C auch R−Vektorräume , und
C ist ein C−Vektorraum.
Beispiel 4.1.4 : Sei (K, +, ·) ein Körper, A eine nichtleere Menge und V ein
K−Vektorraum, den wir schon kennen (z.B. V = K ). Dann wird F(A, V ),
die Menge der Funktionen von A nach V , wieder ein K−Vektorraum, wenn
wir für f, g ∈ F(A, V ) definieren:
(∗)
(f +g)(x) := f (x)+g(x) für alle x ∈ A
↑
Addition in V ,
dann ist also f + g ∈ F(A, V ) für alle f, g ∈ F(A, V ) , und wir definieren die
äußere Operation von K auf F(A, V ) durch
(∗∗)
(λf )(x) := λ f (x) für alle λ ∈ K und f ∈ F(A, V ) ,
↑
äußere Operation von K auf V ,
dann ist also λf ∈ F(A, V ) . Wir prüfen nach, ob die Axiome (V1) , (V2)
gelten:
(V1) + ist eine Verknüpfung auf F(A, V ) . Es gilt
(G1) ∀ f, g, h ∈ F(A, V ) : (f + g) + h = f + (g + h) ,
denn (V, +) ist eine Gruppe, und damit gilt nach (∗) :
∀ x ∈ A : ((f + g) + h)(x)
=
=
=
(f (x) + g(x)) + h(x)
f (x) + (g + h)(x)
(f + g)(x) + h(x)
=
=
f (x) + (g(x) + h(x))
(f + (g + h))(x) .
(G4) ∀ f, g ∈ F(A, V ) : f + g = g + f ,
denn (V, +) ist eine abelsche Gruppe, also gilt
∀ x ∈ A : (f +g)(x)
=
f (x)+g(x)
=
g(x)+f (x)
=
(g+f )(x) .
(G2) Sei 0 : A −→ V , 0(x) := 0, wobei die hintere 0 das Nullelement der
abelschen Gruppe (V, +) ist, dann gilt für alle f ∈ F(A, V ) :
0+f = f
wegen (0 + f )(x) = 0(x) + f (x) = 0 + f (x) = f (x) .
99
(G3) Zu f ∈ F(A, V ) haben wir −f , definiert durch (−f )(x) := −f (x) für
x ∈ A. Dafür gilt
(−f )+f = 0 wegen ((−f )+f )(x) = (−f )(x)+f (x)
= −f (x) + f (x) = 0 = 0(x) für x ∈ A .
Also ist (F(A, V ), +) eine abelsche Gruppe.
(V2) Für beliebige α, β ∈ K, f, g ∈ F(A, V ), x ∈ A gilt nun nach (∗∗) :
((α + β)f )(x)
=
=
=
(α + β)f (x)
αf (x) + βf (x) wegen (V2)(b) für V
(αf )(x) + (βf )(x)
(α + β)f
=
=
(αf + βf )(x),
αf + βf
also
,
also gilt (V2)(b) für F(A, V ) ,
(α(f + g))(x)
=
=
=
α(f + g)(x)
=
α(f (x) + g(x))
αf (x) + αg(x) wegen (V2)(a) für V
(αf )(x) + (αg)(x)
α(f + g)
=
=
(αf + αg)(x) ,
αf + αg
also
,
also gilt (V2)(a) für F(A, V ) ,
(α(βf ))(x)
=
=
α(βf )(x)
=
α(β(f (x)))
(α · β)f (x) wegen (V2)(c) für V
=
((α · β)f )(x) ,
α(βf )
(α · β)f
=
,
also
,
also gilt (V2)(c) für F(A, V ) , und
(1f )(x)
=
1f (x)
=
f (x)
1f
wegen (V2)(d) für V
=
f
,
also
,
also gilt (V2)(d) für F(A, V ) . Insgesamt haben wir gezeigt: F(A, V ) ist ein
K−Vektorraum.
2
Beispiel 4.1.5 : Sei K ein Körper. Nach Beispiel 4.1.3 a.) ist K selbst ein
K−Vektorraum, wenn man die Multiplikation von K als “äußere” Operation
100
von K auf K nimmt. Nach Beispiel 4.1.4 ist dann für eine beliebige nichtleere
Menge A auch F(A, K) ein K−Vektorraum, wenn man für
f, g ∈ F(A, K) und α ∈ K
f +g
und αf
definiert durch
(∗) (f + g)(x) := f (x) + g(x) und (∗∗) (αf )(x) :=
für x ∈ A . Einen wichtigen Spezialfall betrachten wir gleich.
α · f (x)
Definition 4.1.6 : Seien J und M Mengen. Für
a : J −→ M
j 7−→ a(j)
,
schreiben wir auch
(aj )j∈J
statt a und aj
statt a(j) ,
und sprechen von der Familie (aj )j∈J in M mit der Indexmenge J statt
von der Funktion a . - Familien sind also einfach Funktionen, etwas anders
geschrieben. Familien mit Indexmenge N bzw. N0 hatten wir in §3 , das
waren Folgen.
Die Familie (aj )j∈J heißt endlich , wenn J eine endliche Menge ist. Ist
I ⊂ J , so heißt
a|I = (aj )j∈I
2
eine Teilfamilie von (aj )j∈J .
Beispiel 4.1.7: Der K−Vektorraum K n
Sei K ein Körper und n ∈ N . Wir hatten definiert:
n
=
{1, . . . , n} .
Nach Beispiel 4.1.5 ist dann
F(n, K)
=
{ (aj )j∈n | ∀ j ∈ n : aj ∈ K }
ein Vektorraum, mit den durch (∗) und (∗∗) definierten Rechenoperationen,
die sich in der Schreibweise mit Familien schreiben lassen als
(∗)
(aj )j∈n + (bj )j∈n
(∗∗) λ (aj )j∈n
:=
:=
(aj +bj )j∈n
(λ· aj )j∈n
für
(a1 , . . . , an )
:=
,
(aj )j∈n , (bj )j∈n ∈ F(n, K) , λ ∈ K
Schreibt man nun
101
(aj )j∈n
,
.
so sieht man , dass F(n, K) die Menge der n−tupel von Elementen aus K
ist. Man schreibt K n := F(n, K) , und K n wird also ein K−Vektorraum,
wenn man
(∗) (a1 , . . . , an )+(b1 , . . . , bn )
(∗∗) λ(a1 , . . . , an )
:=
:=
(a1 +b1 , . . . , an +bn ) ,
(λa1 , . . . , λan )
definiert. Insbesondere erhalten wir damit für K := R die R−Vektorräume
R2 und R3 als Beispiele.
2
Einige Rechenregeln für Vektorräume folgen direkt aus den Axiomen:
Satz 4.1.8 : Sei K ein Körper, 1 das Einselement von K , und V ein
K−Vektorraum. Dann gilt für alle a ∈ V und alle α ∈ K :
(1)
0a = 0 ,
(2) α 0 = 0 ,
↑
↑
↑
↑
0 in K 0 in V
0 in V
(3) (−α)a = −(α a) = α(−a) ,
man kann daher für alle drei Elemente −αa schreiben,
(4) (−1)a = −a .
(V2)(b)
=
0a + 0a ,
also
Beweis : (1) 0 a = (0 + 0)a
0a + (−(0a)) = 0a + 0a + (−0a) ,
also
0 = 0a .
(V1)
(V2)(a)
(2) α0 = α (0 + 0)
=
α0 + α0 ,
und Addition von −(α 0) ergibt 0 = α 0 .
(1)
(V2)(b)
(3) 0 = 0 a = (α + (−α))a
=
α a + (−α)a ,
also
(−α)a = −(αa) , und
(2)
(V1)
(V2)(a)
0 = α 0 = α(a + (−a))
=
αa + α(−a) ,
also
α(−a) = −(αa) .
(3)
(V2)(d)
(4) (−1)a = −(1 a)
=
−a .
2
Satz 4.1.9 : Sei V ein K−Vektorraum. Dann gilt
∀ α ∈ K ∀ a ∈ V : ( αa = 0
⇐⇒
α = 0 ∨ a = 0) .
Beweis : “ ⇐= ” gilt nach Satz 4.1.8 (1) und (2) .
“ =⇒ ” : Sei αa = 0 . Es kann α = 0 sein, dann sind wir fertig, oder
α 6= 0 , also α ∈ K ∗ . Dann existiert α−1 ∈ K ∗ , und es folgt
0 = α−1 0 = α−1 (α a)
(V2)(c)
(V2)(d)
= = (α−1 α)a = 1a
=
a .
102
In jedem Fall gilt α = 0 ∨ a = 0 .
Definition 4.1.10 : Sei K ein Körper und V ein K−Vektorraum.
heißt ein Untervektorraum ( Unterraum, Teilraum ) von V , falls
(UV1) W ⊂ V ∧ W 6= ∅
(UV2) ∀ v, w ∈ W : v + w ∈ W
(UV3) ∀ v ∈ W ∀ λ ∈ K : λ v ∈ W .
2
W
gilt
2
Die Definition des Untervektorraums ist sinnvoll wegen
Satz 4.1.11 : Ist V ein K−Vektorraum und W ein Untervektorraum von
V , so ist W mit der auf W × W eingeschränkten Verknpfung + und der
auf K × W eingeschränkten äußeren Operation selbst ein K−Vektorraum.
Beweis : Die Axiome (UV2) und (UV3) sagen, dass die Restriktionen
+|W × W : W × W −→ V
,
(v, w) 7−→ v + w
,
und
ω|K × W : K × W −→ V , (λ, v) 7−→ λv
tatsächlich Abbildungen nach W sind. Man hat also eine Addition und eine
äußere Operation auf W . Die Rechenregeln
u + (v + w)
u+v
λ(u + v)
(λ + µ)u
(λ · µ)u
1u
=
=
=
=
=
=
(u + v) + w
v+u
λu + λv
λu + µu
λ(µ u)
u
für alle u, v, w ∈ W und alle λ, µ ∈ K gelten, da sie sogar für alle
u, v, w ∈ V gelten. Damit hat man (V2), und einen Teil von (V1). Sei v ∈ W ,
dann ist nach (UV3) auch
−v
=
(−1) v ∈ W
.
Damit hat man zu v, u ∈ W ein x ∈ W mit v + x = u , nämlich
x := (−v) + u ∈ W nach (UV2) . Auch ist W 6= ∅ . Also gilt auch (V1) für
W .
2
Beispiele 4.1.12 : a.) Sei V ein beliebiger Vektorraum, dann sind {0} und
V Untervektorräume von V .
b.) Sei v ∈ R2 , v 6= 0 und
Rv
:=
{ λv | λ ∈ R }
,
dann ist R v ein Untervektorraum des R−Vektorraums R2 . Man kann sich
R v vorstellen als Gerade durch den Nullpunkt, wobei v die “Richtung”
103
angibt.
(4.1.13) Sei K ein Körper. Dann haben wir nach 3.3.10 den Polynomring
(K[X], +, ·) mit
( ∞
)
X
K[X] =
ak · X k ak ∈ K , ∀0 k ∈ N0 : ak = 0
.
k=0
Die Multiplikation · in K[X] ist eine Abbildung
· : K[X] × K[X] −→ K[X] ,
wir schränken sie ein auf K × K[X] , dann haben wir eine äußere Operation
ω : K × K[X] −→ K[X] ,
(α,
∞
X
k
ak · X ) 7−→
∞
X
(α · ak ) · X k
k=0
k=0
und aus den Rechenregeln im Ring K[X] folgt, dass (K[X], +, ω) ein
K−Vektorraum ist.
4.2 Basis und Dimension
Grundlegend für die Lineare Algebra sind die Begriffe
“lineare Unabhängigkeit” und “Erzeugendensystem”:
Definition und Satz 4.2.1 : Sei K ein Körper , V ein K−Vektorraum,
n ∈ N und (vj )j∈n eine Familie von Vektoren aus V . Sei
)
(
n
X
.
a ∈ V | ∃ (α1 , . . . , αn ) ∈ K n : a =
αj vj
span(vj )j∈n :=
j=1
Dann ist span(vj )j∈n ein Untervektorraum von V . Er heißt der von der
Familie (vj )j∈n aufgespannte Untervektorraum von V . Die Elemente
von span(vj )j∈n heißen Linearkombinationen von (vj )j∈n . Es gilt :
(1) v1 , . . . , vn ∈ span(vj )j∈n .
(2) Für jeden Untervektorraum U von V mit
{v1 , . . . , vn } ⊂ U ist span(vj )j∈n ⊂ U ,
d.h. span(vj )j∈n ist der “kleinste” Untervektorraum von V , der die Vektoren v1 , . . . , vn enthält. - Man setzt noch :
span(vj )j∈0
:=
{0} .
Beweis : Sei n ∈ N0 und T := span(vj )j∈n .
(0) Wir zeigen zunächst, dass T ein Untervektorraum von V ist:
104
Für n = 0 ist das klar. Sei nun n ∈ N . Es gilt T ⊂ V nach Definition,
und
n
P
(UV1) T 6= ∅ , da 0 =
0 vj ∈ T .
j=1
↑
↑
∈V
∈K
(UV2,3) Seien a, b ∈ T und λ ∈ K , dann gibt es
(α1 , . . . , αn ) , (β1 , . . . , βn ) ∈ K n mit
n
n
P
P
a =
αj vj und b =
βj vj ,
also
j=1
a+b =
j=1
n
P
(αj + βj )vj
,
λa =
j=1
n
P
(λ αj )vj
,
also
j=1
a + b ∈ T , λ a ∈ T wegen
(αj + βj )j∈n , (λ αj )j∈n ∈ K n .
(1) Für n = 0 ist bei (1) und (2) nichts zu zeigen. Sei n ∈ N , dann gilt für
alle k ∈ n :
n
P
1 für j = k
vk =
δjk vj mit δjk =
,
0 für j 6= k
j=1
also vk ∈ T .
(2) Sei U ein Untervektorraum von V mit
{v1 , . . . , vn } ⊂ U ,
dann sind alle vj ∈ U für j ∈ n , und für beliebiges αj ∈ K ist nach
(UV3) auch αj vj ∈ U . Nach (UV2), und mit Induktion nach n , folgt auch
n
P
αj vj ∈ U .
j=1
2
Also gilt T ⊂ U .
Definition 4.2.2 : Sei V ein K−Vektorraum. Gibt es ein n ∈ N0 und eine
Familie (vj )j∈n mit vj ∈ V und
V
=
span(vj )j∈n
,
dann heißt V endlich erzeugt und die Familie (vj )j∈n ein
Erzeugendensystem von V .
Formal etwas komplizierter ist der Begriff “linear unabhängig”:
Definition 4.2.3 : Sei K ein Körper und V ein K−Vektorraum.
Sei n ∈ N , und seien a1 , . . . , an ∈ V . Die Familie
(a1 , . . . , an ) = (aj )j∈n
heißt linear unabhängig , wenn gilt
105
2
n
∀ (α1 , . . . , αn ) ∈ K :
n
P
αk ak = 0
=⇒
∀ j ∈ n : αj = 0
.
k=1
Die Familie (v1 , . . . , vn ) heißt linear abhängig , wenn sie nicht linear unabhängig ist, d.h. wenn gilt
n
P
n
∃ (α1 , . . . , αn ) ∈ K :
α k ak = 0 ∧ ∃ j ∈ n : α j =
6 0 .
k=1
2
Die “leere Familie” (aj )j∈0 nennen wir linear unabhängig.
Bemerkung 4.2.4 : Nach Definition 4.2.1 heißt der Vektor
n
P
αk vk eine
k=1
Linearkombination von (v1 , . . . , vn ) . Man nennt nun eine
n
P
Linearkombination
αk vk , in der nicht alle αk = 0 sind, eine
k=1
nichttriviale Linearkombination von (v1 , . . . , vn ) , und die
Linearkombination
n
X
αk vk
mit ∀ k ∈ n : αk = 0
k=1
die triviale Linearkombination. Also besagt Definition 4.2.3 :
Eine Familie (v1 , . . . , vn ) mit n ∈ N ist
• linear unabhängig genau dann, wenn nur die triviale Linearkombination
von (v1 , . . . , vn ) Null ist, und
• linear abhängig, wenn es eine nichttriviale Linearkombination von
(v1 , . . . , vn ) gibt, die Null ist.
2
Beispiel 4.2.5 : Für eine beliebige Teilmenge A von R , A 6= ∅ , ist nach
Beispiel 4.1.5
F(A, R) = { f : A −→ R }
ein R−Vektorraum, mit den dort durch (∗) und (∗∗) definierten
Rechenoperationen. Für x ∈ A sei
f1 (x) := |x| ,
f2 (x) := x2 + x ,
f3 (x) := x2 − x .
a) Sei A := R und (α1 , α2 , α3 ) ∈ R3 mit
α1 f1 + α2 f2 + α3 f3 = 0 ∈ F(A, R) ,
dann gilt für alle x ∈ A = R :
α1 f1 (x) + α2 f2 (x) + α3 f3 (x) = 0(x) = 0 ∈ R ,
106
α1 |x| + α2 (x2 + x) + α3 (x2 − x) = 0 ,
insbesondere für x = 1, 2, −1 :
α1
+ 2α2
=0
,
also
2α1 + 6α2 + 2α3 = 0
,
also
α1
,
also
+ 2α3 = 0
1
α2 = − α1 ,
2
α3 =
1
α1 ,
2
2α1 = 0,
also α1 = 0 und damit auch α2 = α3 = 0 . Also ist (f1 , f2 , f3 ) im
R−Vektorraum F(R, R) linear unabhängig.
b) Sei nun A := R∗+ , dann gilt für alle x ∈ A :
f1 (x) = x ,
−2x + (x2 + x) − (x2 − x) = 0 , also
−2f1 + 1 · f2 + (−1)f3 = 0 ,
2
also ist (f1 , f2 , f3 ) im R−Vektorraum F(R∗+ , R) linear abhängig.
- Was bedeutet “lineare Unabhängigkeit” für zwei Vektoren ?
Bemerkung 4.2.6 : Seien a1 , a2 ∈ V , und (a1 , a2 ) sei linear abhängig,
dann gibt es α1 , α2 ∈ K mit
α1 a1 + α2 a2 = 0
und α1 , α2 sind nicht beide 0 . Ist α1 6= 0 , so folgt
a1 = −(α1−1 · α2 )a2 ,
ist α1 = 0 , so folgt α2 6= 0 und
α2 a2 = 0 , also a2 = 0 , also
a2 = 0 a1 .
Jedenfalls ist einer der beiden Vektoren (man weiß aber nicht, welcher) ein
λ− faches des anderen. Das gilt im Prinzip genau so für mehr als zwei
Vektoren:
Satz 4.2.7 : Sei V ein K−Vektorraum . Sei n ∈ N , n ≥ 2 und
(a1 , . . . , an ) eine Familie von Vektoren aus V . Dann gilt:
(a1 , . . . , an ) ist linear abhängig ⇐⇒ es gibt ein k ∈ n , so dass
ak Linearkombination von (a1 , . . . , ak−1 , ak+1 , . . . , an ) ist.
Beweis : “ =⇒ ” Sei (a1 , . . . , an ) linear abhängig, dann gibt es
(α1 , . . . , αn ) ∈ K n , (α1 , . . . , αn ) 6= 0 , mit
n
P
0 =
α j aj .
j=1
Es gibt ein k ∈ n mit αk 6= 0 , also ist
ak
=
−αk−1 ·
X
α j aj
=
j∈n\{k}
X
j∈n\{k}
107
(−αk−1 · αj )aj
.
“ ⇐= ”: Sei ak Linearkombination von (a1 , . . . , ak−1 , ak+1 , . . . , an ) , dann
gibt es eine Familie (βj )j∈n\{k} ∈ K n−1 mit
P
ak =
βj aj , also mit βk := −1 :
j∈n\{k}
n
P
βj aj = 0 und (β1 , . . . , βk , . . . , βn ) 6= 0 ,
j=1
2
also ist (a1 , . . . , an ) linear abhängig .
Definition 4.2.8 : Sei V ein endlich erzeugter K−Vektorraum .
Sei n ∈ N0 . Eine Familie (vj )j∈n von Elementen aus V heißt eine
Basis von V , wenn gilt
(B1) V = span(vj )j∈n , d.h. (vj )j∈n ist ein Erzeugendensystem von V ,
und
(B2) (vj )j∈n ist linear unabhängig.
Die Zahl n heißt die Länge der Basis (vj )j∈n .
2
Hier in diesem Paragraphen beschäftigen wir uns hauptsächlich mit endlich
erzeugten Vektorräumen. Wir definieren aber auch, was eine Basis eines nicht
endlich erzeugten Vektorraums ist:
Definition 4.2.9 : Sei V ein K−Vektorraum , V 6= {0} . Eine Familie
(vj )j∈J von Vektoren vj ∈ V , wobei J eine beliebige Menge ist, heißt eine
Basis von V , wenn gilt
(B1’) (vj )j∈J ist ein Erzeugendensystem von V , d.h. zu jedem a ∈ V
gibt es eine endliche Teilmenge {j1 , . . . , jn } von J , so dass
a ∈ span(vj1 , . . . , vjn ) ist, und
(B2’) (vj )j∈J ist linear unabhängig , d.h. für jede endliche Teilmenge
{j1 , . . . , jn } von J ist (vj1 , . . . , vjn ) linear unabhängig.
2
Satz 4.2.10 : Sei V ein K−Vektorraum und (vj )j∈n mit n ∈ N eine
Familie in V . Dann gilt:
n
P
(vj )j∈n ist Basis von V ⇐⇒ ∀ v ∈ V ∃1 (α1 , . . . , αn ) ∈ K n : v =
αj vj ,
j=1
d.h. (vj )j∈n ist genau dann eine Basis von V , wenn man jeden Vektor aus
V eindeutig als Linearkombination von (vj )j∈n erhält.
Beweis : “ =⇒ ” : Sei v ∈ V , dann gilt wegen V = span(vj )j∈n :
n
P
∃ (α1 , . . . , αn ) ∈ K n : v =
αj vj .
j=1
Sei auch (β1 , . . . , βn ) ∈ K
n
mit v =
n
P
βj vj , dann ist
j=1
n
X
(αj − βj ) vj
=
j=1
108
v−v
=
0 ,
und da (vj )j∈n linear unabhängig ist : ∀ j ∈ n : αj − βj = 0 , also
∀ j ∈ n : αj = βj , also
n
P
∃1 (α1 , . . . , αn ) ∈ K n : v =
jαj vj .
j=1
“ ⇐= ” : Es gelte ∀ v ∈ V ∃1 (α1 , . . . , αn ) ∈ K n : v =
n
P
αj vj , dann
j=1
ist (vj )j∈n ein Erzeugendensystem von V . Sei
n
P
(α1 , . . . , αn ) ∈ K n mit
αj vj = 0 ,
j=1
dann folgt wegen 0 =
n
P
0 vj , und da sich 0 eindeutig als
j=1
Linearkombination von (vj )j∈n darstellen lässt,
∀ j ∈ n : αj = 0 .
Also ist (vj )j∈n linear unabhängig.
2
Beispiel 4.2.11 : Sei n ∈ N , dann ist K n , die Menge der n−tupel von
Elementen in K , mit den in 4.1.7 definierten Rechenoperationen ein
K−Vektorraum . Setzen wir für k ∈ n :
1 für j = k
,
ek := (0, . . . , 0, 1, 0, . . . , 0) = (δjk )j∈n mit δjk =
0 für j 6= k
↑
k−te Stelle
so ist (ek )k∈n eine Basis von K n . Sie heißt die kanonische oder
Standard-Basis von K n .
n
P
Beweis: Sei
αk ek = 0 ∈ K n mit (α1 , . . . , αn ) ∈ K n , dann ist
k=1
(α1 , . . . , αn ) = (0, . . . , 0) , also
∀ k ∈ n : αk = 0 ,
nach Definition der Gleichheit zweier Funktionen bzw. Familien. Also ist
(ek )k∈n linear unabhängig. Sei (α1 , . . . , αn ) ∈ K n beliebig, dann gilt
n
P
(α1 , . . . , αn ) =
αk ek ,
k=1
also ist (ek )k∈n ein Erzeugendensystem von K n .
2
Beispiel 4.2.12 : Sei K ein Körper. In dem in 4.1.13 definierten
K−Vektorraum K[X] der Polynome mit Koeffizienten aus K sei
fj (X) := X j für j ∈ N0 .
Wir behaupten: (fj (X))j∈N0 ist eine Basis von K[X] .
Beweis: (B1’) ist klar, denn sei f (X) ∈ K[X] , dann gibt es ein n ∈ N0 und
a0 , . . . , an ∈ K , so dass
109
n
P
f (X) =
aj · X j =
j=0
f (X)
n
P
aj fj (X) ist, also
j=0
n
P
=
aj fj (X) .
j=0
f (X) ist eine Linearkombination
Pder endlichen Teilfamilie (fj (X))j∈n∪{0} .
(B2’) Sei J ⊂ N0 endlich und
αj fj (X) = 0 . Setzen wir noch
j∈J
αj
:= 0 für j ∈ N0 \ J
∞
P
αj X j = 0 .
,
so haben wir
j=0
Nach Folgerung 3.3.9 sind die Koeffizienten eines Polynoms eindeutig bestimmt,
also
∀ j ∈ N0 : αj = 0 .
Also ist (fj (X))j∈N0 linear unabhängig.
2
Bemerkung 4.2.13 : Unser Ziel ist es, zu zeigen:
(I) Jeder Vektorraum besitzt eine Basis. Für endlich erzeugte Vektorräume
folgt der Beweis.
(II) Ist V endlich erzeugt, so haben zwei Basen von V die gleiche Länge.
Zum Beweis brauchen wir den Basisergänzungssatz und den Austauschsatz,
die beide nicht wirklich schwierig zu beweisen sind :
Basisergänzungssatz 4.2.14 : Sei V ein endlich erzeugter
K−Vektorraum . Sei
(aj )j∈r mit r ∈ N0 ein endliches Erzeugendensystem von V
und
(bk )k∈s mit s ∈ N0 eine linear unabhängige Familie in V .
Dann gibt es t Vektoren
bs+1 , . . . , bs+t ∈ {a1 , . . . , ar } , so dass
(bk )k∈s+t eine Basis von V ist.
Also: Man kann jede linear unabhängige Familie durch Hinzunahme
geeigneter Vektoren aus V zu einer Basis von V ergänzen.
Beweis : Es kann sein, dass gilt :
(a) (bk )k∈s ist ein Erzeugendensystem von V ,
dann ist (bk )k∈s bereits eine Basis von V , wir brauchen also nichts hinzuzunehmen, können also t := 0 nehmen. Wenn (a) nicht gilt, ist jedenfalls
(b1 , . . . , bs , a1 , . . . , ar )
ein Erzeugendensystem von V , denn sei v ∈ V , dann gilt
r
P
∃ (αj )j∈r ∈ K r : v =
αj aj , also
j=1
v =
s
P
k=1
0 bk +
r
P
αj aj ∈ span(b1 , . . . , bs , a1 , . . . , ar ) .
j=1
110
Dabei kann es sein, dass man nicht alle der Vektoren a1 , . . . , ar braucht , um
- zusammen mit den b1 , . . . , bs - V zu erzeugen. Sei
M
:=
{m ∈ N0 | ∃{c1 , . . . , cm } ⊂ {a1 , . . . , ar } :
V = span(b1 , . . . , bs , c1 , . . . , cm ) } ,
dann ist 0 ∈
/ M , da (a) nicht gilt, also M ⊂ N . Es ist r ∈ M , also
M 6= ∅ , und nach Satz 1.2.13 existiert
t
min M ∈ N .
:=
Dann ist
(b1 , . . . , bs , c1 , . . . , ct ) mit {c1 , . . . , ct } ⊂ {a1 , . . . , ar }
ein Erzeugendensystem von V , und auch linear unabhängig, denn seien
β1 , . . . , βs , γ1 , . . . , γt ∈ K mit
s
t
P
P
β k bk +
γl cl = 0 ,
k=1
l=1
dann könnte gelten :
(1) ∃ j ∈ t : γj 6= 0 , dann folgt für dieses j :
cj
s
P
=
(−γj−1 βk )bk +
k=1
(−γj−1 γl )cl
P
,
l∈t\{j}
also cj ∈ span(b1 , . . . , bs , c1 , . . . , cj−1 , cj+1 , . . . , ct ) , also
(∗) V = span(b1 , . . . , bs , c1 , . . . , cj−1 , cj+1 , . . . , ct ) ,
denn zu jedem v ∈ V gibt es α1 , . . . , αs , δ1 , . . . , δt ∈ K mit
v
=
s
X
α k bk +
k=1
v
=
s
X
t
X
δl cl ,
also
l=1
(αk − δj γj−1 βk )bk +
k=1
X
(δl − δj γj−1 γl )cl
.
l∈t\{j}
Aus (∗) folgt aber : t − 1 ∈ M , Widerspruch zu t = min M . Also gilt (1)
nicht, sondern
(2) ∀ l ∈ t : γl = 0 , und damit
s
P
βk bk = 0 , also, da (bk )k∈s linear unabhängig ist, auch
k=1
∀k ∈ s : βk = 0 ,
und wir sind fertig.
2
Folgerung 4.2.15 : Sei V ein K−Vektorraum und
111
(aj )j∈r mit r ∈ N0 ein Erzeugendensystem von V .
Dann gibt es ein n ∈ N0 , n ≤ r und eine Teilfamilie
(c1 , . . . , cn ) von (aj )j∈r , die Basis von V ist.
Beweis : Man wende Satz 4.2.14 mit s := 0 an.
2
Folgerung 4.2.16 : Jeder endlich erzeugte K−Vektorraum V besitzt eine
Basis.
2
Bemerkung 4.2.17 : Auch Vektorräume, die nicht endlich erzeugt sind, besitzen eine Basis. Wir wollen das aber nicht beweisen.
Hilfssatz 4.2.18 : Sei V ein K−Vektorraum und (b1 , . . . , bn ) eine Basis
von V . Seien u, v ∈ V beliebig, dann ist
(u, v, b2 , . . . , bn ) linear abhängig.
Beweis : Wegen u, v ∈ span (bj )j∈n gilt :
∃ (βj )j∈n ∈ K n : u =
n
P
β j bj
∧
∃ (γj )j∈n ∈ K n : v =
j=1
n
P
γj bj
,
j=1
also
γ1 u − β1 v
=
n
P
(γ1 βj − β1 γj ) bj ,
j=2
und wenn γ1 6= 0 oder β1 6= 0 ist, folgt die Beh. Für γ1 = 0 haben wir
n
P
0 u + (−1)v +
γj bj = 0 ,
j=2
und wegen −1 6= 0 folgt die Behauptung.
2
Austauschsatz 4.2.19 : Sei V ein K−Vektorraum , (b1 , . . . , bn ) eine Basis von V und (a1 , . . . , am ) ein Erzeugendensystem von V . Dann gilt für
alle k ∈ N0 :
Wenn k ≤ n ist, gibt es k Vektoren ai1 , . . . , aik ∈ {a1 , . . . , am } , so dass
(ai1 , . . . , aik , bk+1 , . . . , bn )
eine Basis von V ist.
Beweis durch Induktion nach k :
(I) Für k = 0 ist die Behauptung trivialerweise wahr.
(II) Sei k ∈ N0 , und für k sei die Behauptung wahr. Ist k ≤ n , so haben
wir dann eine Basis
(ai1 , . . . , aik , bk+1 , . . . , bn ) mit ai1 , . . . , aik ∈ {a1 , . . . , am }
von V . Ist nun k + 1 > n , so ist die Behauptung für k + 1 richtig.
Ist k + 1 ≤ n , so ist k < n , und
(ai1 , . . . , aik ,
bk+2 . . . , bn )
ist eine aus n − 1 Vektoren bestehende, linear unabhängige, Familie in
112
V . Nach Satz 4.2.14 kann man sie durch Hinzunahme von Vektoren aus
{a1 , . . . , am } ergänzen zu einer Basis von V . Zwei (oder mehr) Vektoren aus
{a1 , . . . , am } können es nach Hilfssatz 4.2.18 nicht sein, denn dann wäre die
entstehende Familie linear abhängig, da wir aus
(ai1 , . . . , aik , bk+1 , bk+2 , . . . , bn )
nur den einen Vektor bk+1 herausgenommen haben. 0 Vektoren aus
{a1 , . . . , am } können es auch nicht sein, denn dann wäre bereits
(ai1 , . . . , aik , bk+2 , . . . , bn ) eine Basis von V , also bk+1 eine Linearkombination dieser Basis und damit (ai1 , . . . , aik , bk+1 , . . . , bn ) linear abhängig. Also
können wir einen Vektor aus {a1 , . . . , am } finden, den wir aik+1 nennen, so
dass
2
(ai1 , . . . , aik+1 , bk+2 , . . . , bn ) eine Basis von V ist.
Folgerung 4.2.20 : Sei V ein K−Vektorraum . Seien m, n ∈ N0 ,
(a1 , . . . , am ) ein Erzeugendensystem und (b1 , . . . , bn ) eine Basis von V .
Dann gilt
n ≤ m .
Beweis : Wir wenden den Austauschsatz an mit k := n : Es gibt n
Vektoren ai1 , . . . , ain ∈ {a1 , . . . , am } , so dass
(ai1 , . . . , ain ) eine Basis von V ist.
Die Vektoren ai1 , . . . , ain sind alle verschieden, denn gäbe es j, k ∈ n mit
j 6= k und aij = aik , dann hätten wir
1 · aij + (−1)aik +
X
0 · ail
=
0 ,
l∈n\{j,k}
im Widerspruch zur linearen Unabhängigkeit von (ai1 , . . . , ain ) . Also liegen
in {a1 , . . . , am } mindestens n verschiedene Elemente; es ist n ≤ m .
2
Folgerung 4.2.21 : Sei V ein K−Vektorraum . Seien n, m ∈ N0 , und
seien (a1 , . . . , am ) und (b1 , . . . , bn ) Basen von V . Dann gilt n = m, d.h.
zwei Basen von V haben gleiche Länge.
Beweis : Jede Basis ist auch ein Erzeugendensystem von V , also gilt nach
Folgerung 4.2.20 :
2
n ≤ m und m ≤ n .
Definition 4.2.22 : Sei V ein K−Vektorraum .
a) Ist V endlich erzeugt, so gibt es nach Folgerung 4.2.15 eine Basis
endlicher Länge. Sei n die Länge einer beliebigen endlichen Basis
113
von V . (Das n ist nach Folgerung 4.2.21 eindeutig bestimmt.) Dann
setzen wir
dim V := dimK V := n
und nennen n die Dimension von V (über K ).
b) Ist V nicht endlich erzeugt, so schreiben wir :
dim V
=
dimK V
=
∞
und nennen V einen unendlichdimensionalen K−Vektorraum.
2
Beispiel 4.2.11 : Sei n ∈ N . Im K−Vektorraum K n war
(e1 , . . . , en ) mit ek = (δjk )j∈n
eine Basis, also ist dimK K n = n .
Beispiel 4.2.12 : Im K−Vektorraum K[X] war
(fj (X))j∈N0 mit fj (X) = X j
eine Basis. K[X] ist nicht endlich erzeugt, denn wäre
dimK K[X] = n ∈ N0 ,
dann könnte man die aus n+1 Elementen bestehende Familie (fj (X))j∈n∪{0}
zu einer Basis ergänzen, die dann mehr als n Elemente hätte, Widerspruch
zu Folgerung 4.2.21. Also ist
dimK K[X] = ∞.
Beispiel 4.2.23 : Nach Beispiel 4.1.3 ist C ein R−Vektorraum. Zu jedem
z ∈ C gibt es eindeutig bestimmte a, b ∈ R mit
z = a·1+b·i ,
also ist (1, i) eine Basis des R−Vektorraums C , also ist
dimR C = 2 .
Nach Beispiel 4.2.11 ist andererseits wegen C = C1 :
dimC C = 1 .
Satz 4.2.24 : Sei V ein K−Vektorraum . V sei endlichdimensional, d.h.
es gebe ein n ∈ N0 mit
dimK V = n .
Dann gilt für jeden Untervektorraum U von V :
(1) Auch U ist endlich erzeugt, und dimK U ≤ dimK V .
(2) Aus dimK U = dimK V folgt U = V .
Beweis : (1) Es gibt eine Basis (b1 , . . . , bn ) von V . Angenommen, es ist
dimK U = ∞ oder dimK U = m > n , dann gibt es in U eine linear
unabhängige Familie
(u1 , . . . , un+1 ) ,
114
die dann auch in V linear unabhängig ist. Nach dem Basisergänzungssatz
4.2.14 lässt sie sich ergänzen zu einer Basis
(u1 , . . . , un+1 , . . . , ur ) von V ,
mit r ≥ n + 1 > n , Widerspruch zu Folgerung 4.2.21. Also ist dim U ≤ n .
(2) Sei dimK U = dimK V = n , dann gibt es eine Basis
(a1 , . . . , an ) von U .
(a1 , . . . , an ) ist linear unabhängig in V , lässt sich also nach 4.2.21 ergänzen
zu einer Basis
(a1 , . . . , an , c1 , . . . , ct ) mit t ∈ N0 , c1 , . . . , ct ∈ V
von V , die dann die Länge n + t hat. Nach 4.2.21 folgt n + t = n , also
t = 0 , also ist (a1 , . . . , an ) Basis von V ,
V = span (a1 , . . . , an ) = U .
2
4.3 Lineare Abbildungen
Definition 4.3.1 : Sei K ein Körper, V und W seien K−Vektorräume
(also Vektorräume über demselben Körper). Eine Abbildung
F : V −→ W
heißt eine K−lineare Abbildung (oder ein
K−Vektorraum-Homomorphismus ), wenn gilt
(L1) ∀ a, b ∈ V : F (a + b) = F (a) + F (b) , und
↑
↑
Addition in V , Addition in W
(L2) ∀ a ∈ V ∀ λ ∈ K : F (λa) = λF (a) .
↑
↑
äußere Operation auf V , auf W .
Die Begriffe Endo-, Mono-, Epi-, Iso- und Auto-morphismus von Vektorräumen definiert man wie in 2.3.2.
Bemerkung 4.3.2 : Seien V , W K−Vektorräume und
F : V −→ W sei K−linear.
Dann ist F nach (L1) ein Gruppenhomomorphismus von (V, +) in (W, +).
Aus Satz 2.3.4 folgt daher
F (0) = 0 und ∀ b ∈ V : F (−b) = −F (b) und damit
∀ a, b ∈ V : F (a − b) = F (a) − F (b) .
Satz 4.3.3 : (1) Sei (v1 , . . . , vn ) linear abhängig in V , dann ist
(F (v1 ), . . . , F (vn )) linear abhängig in W .
(2) Ist V 0 ein Untervektorraum von V , so ist F (V 0 ) ein
Untervektorraum von W .
−1
(3) Ist W 0 ein Untervektorraum von W , so ist F (W 0 ) ein
115
Untervektorraum von V .
(4) dim F (V ) ≤ dim V , wenn man für ∈ N0 ∪ {∞} setzt: n ≤ ∞.
Beweis : (1),(2),(3) als Übungsaufgabe.
(4) Für dim V = ∞ ist das sicher richtig. Sei dim V = n ∈ N0 , dann
haben wir eine Basis (v1 , . . . , vn ) von V . Zu y ∈ F (V ) gibt es ein v ∈ V
mit y = F (v) , und
∃ (αj )j∈n ∈ K n : v =
n
X
αj vj
,
also
j=1
F (v) = F (
n
X
n
n
(L1) X
(L2) X
αj vj ) =
F (αj vj ) =
αj F (vj ) ,
j=1
j=1
j=1
also ist (F (v1 ), . . . , F (vn )) ein Erzeugendensystem von F (V ) , und nach
Folgerung 4.2.20 :
dimK F (V ) ≤ n .
2
Bemerkung 4.3.4 : Sei F : V −→ W K−linear, dann definiert man
den Kern von F als Kern des Gruppenhomorphismus F von (V, +) in (W, +),
also
ker F
:=
−1
F ({0})
=
{ v ∈ V | F (v) = 0 }
.
Nach 4.3.3(3) ist ker F ein Untervektorraum von V . Nach Satz 2.3.9 gilt
F ist injektiv ⇐⇒ ker F = {0} .
2
(4.3.5) Beispiele für lineare Abbildungen
Triviale Beispiele sind
0 : V −→ W , 0(v) := 0 ∈ W für alle v ∈ V , und
idV : V −→ V , idV (x) := x für alle x ∈ V .
Ein weiteres Beispiel für lineare Abbildungen steht in
Satz und Definition 4.3.6 : Sei V ein K−Vektorraum mit
dimk V = n ∈ N und
B := (v1 , . . . , vn ) eine Basis von V , dann ist
ΦB : K n −→ V
,
ΦB (β1 , . . . , βn )
:=
n
X
βj vj
j=1
ein K−Vektorraum-Isomorphismus. .ΦB heißt der durch B gegebene
Basisisomorphismus von K n nach V .
116
2
Der Beweis ist eine sehr leichte Übungsaufgabe.
Satz und Definition 4.3.7 : Seien V und W
HomK (V, W )
:=
K−Vektorräume, dann ist
{ F ∈ F(V, W ) | F ist K − linear }
ein Untervektorraum von F(V, W ) . Für V = W schreibt man
EndK (V )
:=
HomK (V, V ) ,
die Elemente von EndK (V ) sind also die Endomorphismen von V . Für
W = K nennt man
V ∗ := HomK (V, K)
den Dualraum von V und die Elemente von V ∗ Linearformen auf V.
Beweis : Nach Definition ist HomK (V, W ) ⊂ F(V, W ) und
HomK (V, W ) 6= ∅ , da 0 : V −→ W , v 7−→ 0 , K− linear ist. Seien
F, G ∈ HomK (V, W ) und λ ∈ K , dann sind auch
F + G , λF ∈ HomK (V, W ) ,
denn für a, b ∈ V und α ∈ K gilt
(∗)
(1)
(F + G)(a + b) = F (a + b) + G(a + b) = F (a) + F (b) + G(a) + G(b)
(∗)
= F (a) + G(a) + F (b) + G(b) = (F + G)(a) + (F + G)(b) ,
(∗)
(1)
(F + G)(αa) = F (αa) + G(αa) = αF (a) + αG(a)
(∗)
= α(F (a) + G(a)) = α(F + G)(a) ,
(∗∗)
(1)
(λF )(a + b) = λF (a + b) = λ(F (a) + F (b))
(∗∗)
= λF (a) + λF (b) = (λF )(a) + (λF )(b) ,
(∗∗)
(1)
(λF )(αa) = λF (αa) = λ(αF (a))) = (λ · α)F (a)
(∗∗)
= (α · λ)F (a) = α(λF (a)) = α(λF )(a) .
Bei (∗) und (∗∗) haben wir die Definition der Rechenoperationen in F(V, W )
benutzt, bei (1) die Linearität von F und G .
2
Auch die Hintereinanderausführung linearer Abbildungen ist linear :
Satz 4.3.8 : Seien U, V, W K−Vektorräume,
G ∈ HomK (U, V ) und F ∈ HomK (V, W ) ,
dann ist F ◦ G ∈ HomK (U, W ) .
Beweis : F ◦ G ist eine Abbildung von U in W . F ◦ G ist K−linear,
denn für alle a, b ∈ U und alle α ∈ K gilt
G linear
(F ◦ G)(a + b) = F (G(a + b))
=
F (G(a) + G(b))
117
F linear
=
F (G(a)) + F (G(b)) = (F ◦ G)(a) + (F ◦ G)(b) ,
G linear
(F ◦ G)(αa) = F (G(αa))
=
F (αG(a))
F linear
=
αF (G(a)) = α(F ◦ G)(a) .
2
Definition und Satz 4.3.9 : Sei K ein Körper, V ein K−Vektorraum und
W ein Untervektorraum von V . Dann hat man nach 2.2.12 die Faktorgruppe
V /W = { v + W | v ∈ V }
,
wobei
v+W = { v+w | w ∈W }
ist ,
und es gilt für u, v ∈ V :
(u + W ) + (v + W )
=
(u + v) + W
⇐⇒
u+W = v+W
,
u − v ∈ W.
Wenn man für v ∈ V , λ ∈ K definiert:
ω(λ, v + W )
:=
λ(v + W )
:=
(λv) + W
,
dann wird (V /W , +, ω) ein K−Vektorraum. V /W heißt der
Quotienten-Vektorraum von V modulo W .
Beweis : Das Axiom (V2) für V /W gilt, da es für (V, +, ω) gilt.
2
Beispiel 4.3.10 : Nehmen wir
V
:=
2
R
und W
:=
R·
1
2
,
dann sind die Elemente von V /W Geraden, die zu R ·
1
2
parallel sind.
- Der Homomorphiesatz für Gruppen gilt auch für Quotienten-Vektorräume:
(4.3.11) Homomorphiesatz für Vektorräume : Seien V und U
K−Vektorräume,
F : V −→ U
eine surjektive lineare Abbildung . Sei
κ : V −→ V / ker F
118
,
x 7→ x + ker F
der kanonische Nebenklassenepimorphismus von V auf den
Quotienten-Vektorraum V / ker F , dann gibt es genau einen VektorraumIsomorphismus
ι : V / ker F −→ U
mit ι ◦ κ = F
.
Als Diagramm:
F
V
-
U
κ
∃1 ι
?
V / ker F
Beweis : Da Satz 2.3.9 gilt, müssen wir nur noch zeigen, dass κ und ι die
Linearitätsbedingung (L2) erfüllen. Das ist aber leicht zu sehen.
2
Satz 4.3.12 : Sei V ein endlichdimensionaler K−Vektorraum und W ein
Untervektorraum von V , dann ist
dim V /W
=
dim V − dim W
.
Es gilt:
(∗) Wenn (w1 , . . . , wk ) eine Basis von W ist,
und wir diese durch v1 , . . . , vr zu einer Basis
(w1 , . . . , wk , v1 , . . . , vr ) von V ergänzen können, dann ist
(v1 + W, . . . , vr + W ) eine Basis von V /W .
Beweis : Nach Satz 4.2.24 ist auch W endlichdimensional. Sei
(w1 , . . . , wk ) eine Basis von W
,
dann können wir diese Basis nach Satz 4.2.14 ergänzen zu einer Basis
(w1 , . . . , wk , v1 , . . . , vr )
von V
und behaupten:
(∗)
(v1 + W, . . . , vr + W ) ist eine Basis von V /W
119
.
Wenn wir das gezeigt haben, folgt
dim V /W
=
r
=
(r + k) − k
dim V − dim W
=
.
(4.3.13) Dimensionsformel für lineare Abbildungen : Seien V, U
K−Vektorräume,
F : V −→ U K − linear und dimk V < ∞ .
Dann gilt die Formel
dim V = dim ker F + dim F (V ) .
(∗) Nach 4.2.24 existiert eine endliche Basis
(w1 , . . . , wk ) von ker F ,
die wir durch v1 , . . . , vr zu einer Basis (w1 , . . . , wk , v1 , . . . vr ) von V ergänzen
können. Dann ist
(F (v1 ), . . . , F (vr )) eine Basis von
F (V ) .
Beweis : Wir schränken den Wertebereich von F ein, indem wir
G : V −→ F (V ) ,
G(x) := F (x)
setzen, dann ist G linear und surjektiv, und es ist
ker G
=
ker F
.
Nach Satz 4.3.12 ist dann
dim V
=
dim ker F + dim V / ker F
.
Nach dem Homomorphiesatz 4.3.11 gibt es einen Isomorphismus
ι : V / ker F −→ F (V ) ,
also dim V / ker F = dim F (V ), womit
dim V
=
dim ker F + dim F (V )
bewiesen ist. Der Rest folgt aus (∗) von Satz 4.3.12 : Wenn wir eine Basis
(w1 , . . . , wr ) von ker F haben, und diese durch (v1 , . . . , vr ) zu einer Basis von
V ergänzen, ist
(v1 + ker F, . . . , vr + ker F ) eine Basis von V / ker F
.
Die folgenden Aussagen (mit κ(x) := x + ker F ) sind gleichbedeutend:
(κ(v1 ), . . . , κ(vr )) ist eine Basis von V / ker F
120
.
und da ι ein Isomorphismus ist:
(ι(κ(v1 )), . . . , ι(κ(vr ))) ist eine Basis von F (V ) .
und wegen ι ◦ κ = F :
(F (v1 ), . . . , F (vr )) ist eine Basis von F (V ) .
2
4.4 Matrizen
Unser Ziel ist es, einer linearen Abbildung
F : V −→ W ,
wobei V und W endlichdimensionale Vektorräume über einem Körper K
sind, eine Matrix zuzuordnen. Matrizen sind aber auch für sich genommen
interessante Objekte in der Algebra. Wir beschäftigen uns daher zunächst
mit Matrizen und den Rechenoperationen zwischen ihnen:
Definition 4.4.1 : Seien m, n ∈ N . Eine m × n - Matrix mit Einträgen
aus einer Menge R ist eine Familie
A
=
(akj )(k,j)∈m×n
mit akj ∈ R ,
kurz: A = (akj ) ,
also eine Abbildung A ∈ F(m × n, R) , A(k, j) := akj . Man schreibt sich
eine Matrix A = (akj )(k,j)∈m×n zumeist als “rechteckiges Schema” auf:


a11 . . . a1n

..  .
A =  ...
. 
am1 . . . amn
Für die Menge aller m × n - Matrizen mit Einträgen aus R schreiben wir
M (m × n, R) ,
und für A = (akj ) ∈ M (m × n, R) nennen wir die
ak := (ak1 , . . . , akn ) für k ∈ m die Zeilenvektoren von A ,
und die


a1j


aj :=  ...  für j ∈ n die Spaltenvektoren von A .
amj
121
Ist m = n , so heißt die Matrix A quadratisch .
Nach unserer Definition ist M (m × n, R) = F(m × n, R) . Damit ist auch
definiert, wann zwei Matrizen
A = (akj ) , B = (bkj ) gleich sind:
Es gilt (akj ) = (bkj ) ⇐⇒ ∀ (k, j) ∈ m × n : akj = bkj .
Definition 4.4.2 : Sei (R, +, ·) ein kommutativer Ring, m, n ∈ N . Dann
definieren wir für (akj ), (bkj ) ∈ M (m × n, R) und λ ∈ R:

 (akj ) + (bkj ) := (akj + bkj ) ,
(∗)

λ(akj )
:=
(λ · akj )
Wenn 0 das Nullelement und 1 das Einselement von R bezeichnet, setzen wir
für (k, j) ∈ m × n:


0
..


0
.
0




0




Ekj :=  0 . . . 0 1 0 . . . 0  ←− k − te Zeile


0




.


..
0
0
0
↑
j−te Spalte
Folgerung 4.4.3 : Ist K ein Körper, so ist
M (m × n, K) = F(m × n, K)
mit der in (∗) definierten Adition und äußeren Operation nach Beispiel 4.1.4
ein K−Vektorraum, und da für jedes A = (akj )) ∈ M (m × n, K)
A =
m X
n
X
k=1
akj Ekj
j=1
gilt, mit eindeutig bestimmten Koeffizienten akj , ist
(Ekj )(k,j)∈m×n
eine Basis von M (m × n, K) , und damit
dimK M (m × n, K) = m · n .
122
2
Definition 4.4.4 : Seien m, n, r ∈ N, R ein kommutativer Ring. Dann definiert man das Produkt der Matrizen
A
=
A·B
(akj ) ∈ M (m × n, R) ,
:=
B
=
(bjl ) ∈ M (n × r, R) als
(ckl ) ∈ M (m × r, R) mit ckl
n
X
:=
akj bjl
.
j=1
(4.4.5) Bemerkungen : 1) Man kann also nicht beliebige Matrizen
multiplizieren, A · B ist nur definiert, wenn
A ∈ M (m × n, R) , B ∈ M (n × r, R)
ist, d.h. wenn die Spaltenzahl der ersten gleich der Zeilenzahl der zweiten
Matrix ist.
2) Man merkt sich die Definition des Matrizenprodukts
!
n
X
= (ckl )
A·B =
akj bjl
j=1
(k,l)∈m×r
am besten so: Um ckl auszurechnen, bildet man das “Skalarprodukt” des
k−ten Zeilenvektors von A mit dem l−ten Spaltenvektor von B .
Satz 4.4.6 : Seien m, n, r, t ∈ N , R ein kommutativer Ring und
A ∈ M (m × n, K) ,
B ∈ M (n × r, K) ,
C ∈ M (r × t, K) ,
dann gilt A · (B · C) = (A · B) · C .
Beweis : Sei A = (akj ) , B = (bjl ) , C = (cls ) mit
k ∈ m, j ∈ n, l ∈ r, s ∈ t , dann gilt
!!
n
r
X
X
A · (B · C) =
akj ·
bjl cls
j=1
=
r
X
n
X
l=1
j=1
l=1
!
akj bjl
(k,s)∈m×t
!
· cls
=
(A · B) · C
.
(k,s)∈m×t
2
Das Matrizenprodukt ist also assoziativ. Kommutativ ist es nicht, auch wenn
der Ring (R, +, ·) kommutativ ist:
Bemerkungen 4.4.7 : Sei (R, +, ·) ein kommutativer Ring.
123
(1) Wir rechnen das Produkt der in 4.4.2 definierten Elemente
Ekj = (δku · δjv )(u,v)∈m×n ∈ M (m × n, R) mit
Est = (δsv · δtw )(v,w)∈n×r ∈ M (n × r, R)
für m, n, r ∈ N aus. Am besten geht das, indem man sich ein Blatt Papier
nimmt, die Matrizen Ekj und Est hinschreibt und dann gemäß (4.4.5) 2)
multipliziert (und es ist wichtig, dass Sie einen Blick dafür entwickeln, wie
man einfache Matrizenprodukte schnell ausrechnet). Aber wenn Sie es formal
mit der Definition in 4.4.4 ausrechnen wollen:
Ekj · Est = (δku · δjv )(u,v)∈m×n · (δsv · δtw )(v,w)∈n×r
!
n
X
=
,
δku · δjv · δsv · δtw
v=1
(u,w)∈m×r
und da δjv δsv nur für v = j = s gleich 1 und sonst 0 ist:
Ekj · Est = (δku · δjs · δsw )(u,w)∈m×r = δjs (δku · δsw )(u,w)∈m×r , also
(∗∗)
Ekj ·Est = δjs Ekt
für k ∈ m, j, s ∈ n, t ∈ r
.
Wir werden diese Formel noch brauchen, z.B. für
(2) Wir sehen uns quadratische Matrizen an, also M (n × n, R), und behaupten, dass die Multiplikation in M (n × n, R) für n ≥ 2 nicht kommutativ ist.
Für ein Gegenbeispiel setzen wir
C :=
n
X
Ekk
,
A := E11 + E12 + E21 + C
,
B := E12 + E21 + C ,
k=3
dann folgt nach (∗∗) in (1) :
A · B = (E11 + E12 + E21 + C) · (E12 + E21 + C) = E11 + E12 + E22 + C
,
B · A = (E12 + E21 + C) · (E11 + E12 + E21 + C) = E11 + E21 + E22 + C
,
Sei (dkj ) := A · B und (fkj ) := B · A , dann gilt also
d21 = 0 , aber f21 = 1 ,
also A · B 6= B · A .
Übrigens: Zu A und B gibt es Metrizen A−1 und B −1 mit
A · A−1 = A−1 · A = En
und B · B −1 = B −1 · B = En , nämlich
124
A−1 := E12 + E21 − E22 + C
und B −1 := B
.
Wir brauchen das in 4.4.9 .
Satz 4.4.8 : Sei n ∈ N, R ein kommutativer Ring. Dann ist die Menge
M (n × n, R) mit der in Definition 4.4.2 definierten Addition + und der in
4.4.4 definierten Multiplikation · ein Ring, mit dem Einselement


1
0
1 für k = j


.
.
En := 
.
 = (δkj ) mit δkj =
.
0 für k 6= j
0
1
En heißt die Einsmatrix in M (n × n, R). Für n ≥ 2 ist dieser Ring weder
kommutativ noch nullteilerfrei.
Beweis : Für A, B ∈ M (n × n, R) sind A + B , A · B ∈ M (n × n, R) nach
4.4.2 bzw.4.4.4. + und · sind also Verknüpfungen in M (n × n, R).
(R1) Dass (M (n × n, R), +) eine abelsche Gruppe ist, rechnet man leicht
nach. Das Nullelement ist die Nullmatrix


0 ... 0

..  ,
0 :=  ...
. 
0 ... 0
das Negative von (akj ) ist (−akj ).
(R2) Das Assoziativgesetz für · haben wir gerade als Satz 4.4.6 bewiesen.
(R3) Seien (akj ), (bkj ), (ckj ) ∈ M (n × n, R), dann gilt
(((akj ) + (bkj )) · (ckj ) =
!
n
X
(akl + bkl ) · clj
=
=
l=1
=
n
X
(akj + bkj ) · (ckj )
n
X
akl · clj +
l=1
!
akl · clj
+
l=1
n
X
n
X
!
bkl · clj
l=1
!
bkl · clj
=
(akj ) · (ckj ) + (bkj ) · (ckj ) ,
l=1
entsprechend die zweite Gleichung des Distributivgesetzes.
(R4) Sei A = (akj ) ∈ M (n × n, R) , dann gilt
!
n
X
A · En =
akl δlj
.
l=1
In dieser Summe ist höchstens der Summand mit l = j ungleich 0, also
A · En
=
(akj · 1)
125
=
A .
entsprechend En ·A = A. En ist also das Einselement des Ringes M (n×n, R).
Kommutativ ist (M (n × n, R), +, ·) nicht, das folgt aus Bemerkung (2) in
(4.4.7). Es gilt
E12 · E11 = 0 ,
also ist (M (n × n, R), +, ·) nicht nullteilerfrei .
2
Bemerkung: M (n × n, R) ist mit · keine Gruppe, weil (M (n × n, R), +, ·)
nicht nullteilerfrei ist. Aber man kann die Einheitengruppe M (n × n, R)×
betrachten. Man nennt sie GL(n, R) . Dass für einen beliebigen Ring (S, +, ·),
mit Einselement 1, die Menge
S × = { a ∈ R | ∃ a∗ ∈ R : a∗ · a = a · a∗ = 1 }
eine Gruppe ist, hatten wir schon in 3.2.11 bewiesen. Dass GL(n, R) nicht
kommutativ ist, folgt aus dem Gegenbeispiel in (4.4.7) 2) :
Satz und Definition 4.4.9 : Sei n ∈ N , R ein kommutativer Ring und
GL(n, R) := { A ∈ M (n × n, R) |
∃ A−1 ∈ M (n × n, R) : A−1 · A = A · A−1 = En } ,
dann ist (GL(n, R), ·) eine, für n ≥ 2 nicht kommutative, Gruppe. Sie heißt
die allgemeine lineare Gruppe vom Grad n über R .
2
Nun kommen wir zum Thema: Matrizen linearer Abbildungen von K−Vektorräumen. Dabei sei also stets K ein Körper.
Satz 4.4.10 : Sei V ein endlichdimensionaler K−Vektorraum,
(v1 , . . . , vn ) eine Basis von V
,
und seien b1 , . . . , bn beliebige Vektoren aus einem K−Vektorraum W .
Dann gibt es genau eine lineare Abbildung
F : V −→ W mit F (vj ) = bj für alle j ∈ n ,
d.h. man kann eine lineare Abbildung dadurch definieren, dass man die Funktionswerte von Basiselementen festlegt.
Beweis : (1) Es gibt höchstens eine lineare Abbildung
F : V −→ W mit F (vj ) = bj für alle j ∈ n ,
denn man kann jedes v ∈ V eindeutig als Linearkombination
v
=
n
X
αj v j
mit (α1 , . . . , αn ) ∈ K n
j=1
126
schreiben, und aus der Linearität von F folgt dann
!
n
n
n
X
X
X
(∗) F (v) = F
αj vj =
αj F (vj ) =
α j bj
j=1
j=1
.
j=1
Wir wissen also, wie F (v) zu berechnen ist, wenn überhaupt so ein
F ∈ HomK (V, W ) existiert.
(2) Um die Existenz eines F ∈ HomK (V, W ) mit ∀j ∈ n : F (vj ) = bj zu
zeigen, definieren wir F durch (∗) :
F (v)
n
X
:=
α j bj
für v =
j=1
n
X
αj v j
.
j=1
Da die αj durch v eindeutig bestimmt sind, ist F auf diese Weise eindeutig
festgelegt, also eine Abbildung. F ist linear, denn für
n
n
P
P
v =
αj vj , v 0 =
βj vj , λ ∈ K gilt
j=1
0
j=1
F (v + v ) = F
n
X
!
(αj + βj )vj
=
j=1
F (λ v) = F
n
X
(αj + βj )bj = F (v) + F (v 0 ) und
j=1
n
X
!
(λαj )vj
=
j=1
n
X
(λαj )bj = λ F (v) .
j=1
Es gilt ∀ k ∈ n : F (vk ) = bk , denn n
P
1
vk =
δjk vj mit δjk =
0
j=1
n
P
F (vk ) =
δjk bj = bk .
für j = k
für j =
6 k
, also
2
j=1
Bemerkung : In Satz 4.4.10 ist (vj )j∈n eine Basis von V , aber (bj )j∈n
i.A. keine Basis von W . Man kann aber die bj als Linearkombinationen
einer Basis von W schreiben, dann erhält man
(4.4.11) Die zu einer linearen Abbildung gehörige Matrix :
Seien V und W endlichdimensionale K−Vektorraume und sei
F : V −→ W K−linear.
Gegeben seien feste Basen
(v1 , . . . , vn ) von V und (w1 , . . . , wm ) von W , mit n, m ∈ N .
Dann hat man für alle j ∈ n
bj := F (vj ) ,
die Vektoren bj sind durch F eindeutig bestimmt, und umgekehrt ist nach
127
Satz 4.4.10 auch F durch (F (v1 ), . . . , F (vn )) eindeutig festgelegt. Da
(w1 , . . . , wm ) eine Basis von W ist, kann man die bj eindeutig als Linearkombinationen von (w1 , . . . , wm ) schreiben :
b1 = a11 w1 + . . . + am1 wm
..
..
.
.
bn = a1n w1 + . . . + amn wm
mit gewissen m−tupeln (a1j , . . . , amj ) ∈ K m , die natürlich von j abhängen.
Kurz als Formel, die man sich unbedingt merken muss :

(4.4.12)

a1j
m
P


∀ j ∈ n ∃1  ...  ∈ K m : F (vj ) =
akj wk
k=1
amj
Auf diese Weise kann man bei gegebenem F und festgelegten Basen
(v1 , . . . , vn ) von V und (w1 , . . . , wm ) von W die Elemente
akj für j ∈ n und k ∈ m
berechnen, die zusammen eine Matrix (akj ) ∈ M (m × n, K) bilden :
Definition und Satz 4.4.13 : Seien V und W K−Vektorräume,
K ein Körper,
A := (v1 , . . . , vn ) sei Basis von V und
B := (w1 , . . . , wm ) sei Basis von W , mit n, m ∈ N .
Sei
MBA : HomK (V, W ) −→ M (m × n, K) ,
MBA (F )
:=
F (vj )
(akj ) ,
=
m
X
wobei akj
akj wk
durch
für j ∈ n
k=1
MBA
ein K−Vektorraum-Isomorphismus.
definiert ist, dann ist
Beweis : (1) Nach (4.4.11) ist MBA eine Abbildung.
(2) Seien F , G ∈ HomK (V, W ) und λ ∈ K , dann gilt für j ∈ n :
(F + G)(vj ) = F (vj ) + G(vj ) =
m
X
akj wk +
k=1
m
X
k=1
wenn MBA (G) = (bkj ) ist, also
(F + G)(vj )
=
m
X
k=1
128
(akj + bkj )wk
,
bkj wk
,
nach Formel (4.4.12) also
4.4.2
MBA (F + G) = (akj + bkj ) = (akj ) + (bkj ) = MBA (F ) + MBA (G) ,
ähnlich:
(λ F )(vj ) = λ F (vj ) = λ
m
X
akj wk
m
X
=
k=1
(λakj )wk
,
k=1
also nach Formel (4.4.12) :
4.4.5
MBA (λ F ) = (λ akj ) = λ (akj ) = λ MBA (F ) .
MBA ist also K−linear.
(3) MBA ist injektiv, denn sei F ∈ ker MBA , also MBA (F ) = 0 das Nullelement von M (m × n, K) also


0 ... 0

..  die Nullmatrix ,
MBA (F ) =  ...
. 
0 ... 0
dann gilt nach Formel (4.4.12) :
m
X
∀ j ∈ n : F (vj ) =
0 wk = 0 ∈ W
,
k=1
also ist F die Nullabbildung , F = 0 ∈ HomK (V, W ) . Nach Bemerkung
4.3.4 ist MBA injektiv.
(4) MBA ist surjektiv, denn sei (akj ) ∈ M (m × n, K) , dann ist durch
F : V −→ W
,
F (vj ) :=
m
X
akj wk
k=1
nach Satz 4.4.10 genau eine lineare Abbildung F ∈ HomK (V, W ) definiert.
Für dieses F gilt dann nach (4.4.12) wieder
MBA (F )
=
(akj ) .
Insgesamt : MBA ist ein Vektorraum-Isomorphismus.
Bemerkung 4.4.14 : In Satz 4.3.8 haben wir gesehen: Sind U, V, W
K− Vektorräume, und
129
2
G : U −→ V , F : V −→ W K−linear ,
dann ist auch F ◦ G : U −→ W K−linear .
Sind nun U, V, W endlichdimensional, mit Basen
A = (u1 , . . . , ur ) von U ,
B = (v1 , . . . , vn ) von V ,
C = (w1 , . . . , wm ) von W ,
dann hat man Matrizen
A := MCB (F ) = (akj ) ∈ M (m × n, K) , B := MBA (G) = (bjl ) ∈ M (n × r, K) ,
die gemäß Formel (4.4.12) definiert sind durch
F (vj )
m
X
=
für j ∈ n ,
akj wk
k=1
G(ul )
n
X
=
für l ∈ r
bjl vj
.
j=1
Aus diesen Gleichungen erhält man für l ∈ r :
(F ◦ G)(ul )
=
F (G(ul ))
n
X
=
bjl F (vj )
j=1
=
n
X
m
X
bjl
j=1
akj wk
=
k=1
m
X
n
X
k=1
j=1
!
akj bjl
wk
,
also gilt für die − nach 4.4.13 eindeutig bestimmte − Matrix
C := (ckl )
=
MCA (F ◦ G) ∈ M (m × r, K) mit
(F ◦ G)(ul )
=
m
X
ckl wk :
k=1
ckl
=
n
X
akj bjl
für k ∈ m ,
l∈r
.
j=1
C ist daher das Produkt der Matrizen
A
=
(akj ) ∈ M (m × n, K) ,
C = A·B
:=
B
=
(ckl ) mit ckl
(bjl ) ∈ M (n × r, K) ,
:=
n
X
j=1
130
akj bjl
,
also
es gilt also die Formel
MCA (F ◦ G)
(4.4.15)
MCB (F ) · MBA (G) ,
=
d.h. bezüglich festgelegter Basen ist die Matrix der Hintereinanderausführung
F ◦ G gleich dem Produkt der Matrizen von F und von G .
Bemerkung 4.4.16 : Seien V und W K−Vektorräume,
F : V −→ W K−linear,
dimk V = n , dimk W = m ,
dann hatten wir in 4.4.11 die Matrix von F bezüglich gegebener Basen
A = (a1 , . . . , an ) von V
, B = (b1 , . . . , bm ) von W
A
definiert, also A := MB (F ) ∈ M (m × n, K) , und zwar durch Formel
(4.4.12) . Wählt man nun andere Basen von V bzw. W , so haben sie die
gleiche Länge. Sei also auch
A0 = (a01 , . . . , a0n ) eine Basis von V und
B0 = (b01 , . . . , b0m ) eine Basis von W ,
0
so hat man A0 := MBA0 (F ) ∈ M (m × n, K) . Wie kann man A0 aus A
berechnen ? Das geht ganz einfach (und ohne dass man viele Indizes hinschreiben muss) so: Sicher ist
F = idW ◦ F ◦ idV ,
aber wir nehmen jetzt folgende Basen :
idV
−→
V
F
−→
V
W
|
|
|
mit Basis A0 mit Basis A
mit Basis B
dann gilt nach Formel (4.4.15) :
0
0
(∗ ∗ ∗) MBA0 (F ) = MBA0 ( idW ◦ F ◦ idV ) =
=
0
MBB0 ( idW )· MBA (F ◦ idV )
=
idW
−→
W
|
mit Basis B0
,
0
MBA0 ( idW ◦ (F ◦ idV ))
0
MBB0 ( idW )· MBA (F )· MAA ( idV ) .
Wir setzen S := MBB0 ( idW ) , dann ist S ∈ M (m × m, K) , und wegen
0
MBB0 ( idW ) · MBB ( idW )
0
4.4.12
4.4.15 B0
= MB0 ( idW ) = Em
MBB ( idW ) · MBB0 ( idW )
,
4.4.15 B
4.4.12
= MB ( idW ) = Em
0
ist sogar S ∈ GL(m, K) , S −1 = MBB ( idW ). Ebenso gilt für T := MAA0 ( idV ) :
0
T ∈ GL(n, K) und T −1 = MAA ( idV ) . Setzen wir das in (∗) ein, so erhalten
131
wir
A0
S · A · T −1
=
A = MBA (F ) ,
für
0
A0 = MBA0 (F )
(4.4.17)
mit den Transformationsmatrizen
T := MAA0 ( idV ) ,
S := MBB0 ( idW )
Dabei haben wir (4.4.11) benutzt, um MBB ( idW ) = Em zu zeigen: Es gilt
r
X
∀ r ∈ m : idW (br ) = br =
δlr bl
und (δlr ) = Em
.
l=1
Man braucht die Formel (4.4.11) auch, wenn man S und T konkret ausrechnen will: T = (tkj ) ∈ M (n × n, K) ist nach Formel (4.4.11) definiert
durch
n
X
tkj a0k ,
also
∀ j ∈ n : idV (aj ) =
k=1
∀ j ∈ n : aj
=
n
X
tkj a0k
,
k=1
d.h. man erhält die Einträge tkj der Transformationsmatrix T , indem man
die Basisvektoren von A als Linearkombinationen der Basisvektoren von A0
darstellt. Entsprechend ist
S = (slr ) ∈ GL(m, K) gegeben durch
∀ r ∈ m : br =
r
X
slr b0l
2
.
l=1
Wir brauchen die Transformationsformel (4.4.17) schon im nächsten Abschnitt. Den wiederum brauchen wir zur Lösung linearer Gleichungssysteme:
4.5 Der Rang einer Matrix
Definition 4.5.1 : Seien m, n ∈ N , K ein Körper,
A
=
(akj )(k,j)∈m×n ∈ M (m × n, K) ,
dann definieren wir die transponierte Matrix t A ∈ M (n × m, K) als
t
A
:=
(bjk )(j,k)∈n×m
132
mit bjk := akj
.
Rechenregeln 4.5.2 : Seien n, m, r ∈ N , K ein Körper,
A, C ∈ M (m × n, K) ,
B ∈ M (n × r, K) ,
λ∈K
,
dann
(1)
(3)
(5)
gilt
t
(A + C) = t A +t C ,
(2) t (λA) = λ t A ,
t t
( A) = A ,
(4) t (A · B) = t B ·t A .
Ist m = n und A ∈ GL(n, K) , so ist auch
t
A ∈ GL(n, K) , und es gilt (t A)−1 = t (A−1 ) .
Beweis : (1) ,(2) und (3) sind leicht einzusehen.
(4) Es ist
t
A = (αjk )(j,k)∈n×m mit αjk := akj ,
t
B = (βlj )(l,j)∈r×n mit βlj := bjl
für k ∈ m , j ∈ n , l ∈ r , also ist t B ·t A ∈ M (r × m, K) definiert,
!
n
X
t
B ·t A =
βlj αjk
=
j=1
n
X
!
bjl akj
j=1
(5) Aus A · A
= A
(A−1 ) ·t A
−1
n
X
!
t
=
akj bjl
j=1
(l,k)∈r×m
−1
t
=
(l,k)∈r×m
(A · B) .
(l,k)∈r×m
· A = En folgt nach (4) :
=
t
A ·t (A−1 )
=
t
En
=
En
,
also t A ∈ GL(n, K) und (t A)−1 = t (A−1 ) .
Definition 4.5.3 : Seien m, n ∈ N , K ein Körper,
A = (akj ) ∈ M (m × n, K) ,
dann hatten wir in 4.4.1 die
ak = (ak1 , . . . , akn ) für k ∈ m die Zeilenvektoren,
und die


a1j


aj =  ...  ∈ K m für j ∈ n die Spaltenvektoren von A
amj
genannt. Besser ist es übrigens, alle n− und m−tupel als Spalten zu schreiben, dann sind also
t
a1 , . . . ,t am ∈ K n die Zeilenvektoren von A .
Wir nennen nun
ZRg(A) := dim span(t a1 , . . . ,t am ) den Zeilenrang von A und
SRg(A) := dim span(a1 , . . . , an ) den Spaltenrang von A .
133
Bemerkung 4.5.4 : Es ist
span(t a1 , . . . ,t am ) ⊂ K n ,
span(a1 , . . . , an ) ⊂ K m ,
wir haben also Untervektorräume verschiedener Vektorräume. Wir werden
aber zeigen, dass sie gleiche Dimension haben, dass also
ZRg(A) = SRg(A) gilt.
Dazu zunächst die
Schreibweise (4.5.5) : Seien m, n ∈ N , K ein Körper und
A ∈ M (m × n, K) . Sei
fA : K n −→ K m
,
fA (x)
A·x ,
:=
wobei unter A · x das Produkt der m × n−Matrix A mit der n × 1−Matrix
x ∈ K n = M (n×1, K) verstanden wird, dann ist fA eine lineare Abbildung.
Hilfssatz 4.5.6 : Sei K ein Körper, n ∈ N , U ein Untervektorraum
von K n und T ∈GL(n, K) . Dann gilt
dim fT (U )
=
dim U
.
Beweis : Sei F : U −→ fT (U ) , F (x) := fT (x) ,
dann ist F linear, da fT linear ist, und surjektiv, also
F (U )
=
fT (U ) .
F ist auch injektiv, denn für x, y ∈ U gilt
F (x) = F (y)
=⇒
fT (x) = fT (y)
=⇒
T ·x = T ·y
,
und da T −1 ∈ GL(n, K) existiert, folgt
T −1 · (T · x) = T −1 · (T · y) ,
also (T −1 · T ) · x = (T −1 · T ) · y
,
also x = y . Nach Bemerkung 4.3.4 ist ker F = {0} , und nach der
Dimensionsformel (4.3.13) folgt
dim U = dim ker F + dim F (U ) = 0 + dim fT (U ) .
2
Hilfssatz 4.5.7 : Sei A ∈ M (m × n, K) , S ∈GL(m, K) und T ∈GL(n, K) .
Dann gilt
(1) SRg(S · A · T ) = SRg(A) ,
(2) ZRg(S · A · T ) = ZRg(A) .
134
Beweis : (1) a) Seien a1 , . . . , an die Spaltenvektoren von A und e1 , . . . , en
die kanonischen Basisvektoren von K n , als Spalten geschrieben, dann gilt
aj
A · ej
=
für j ∈ n ,
wie man mit scharfem Blick für die Matrizenmultiplikation sieht, also
SRg(A)
dim span(fA (e1 ), . . . , fA (en ))
=
=
dim fA (K n ) .
Nach Hilfssatz 4.5.6 ist
dim fT (K n )
=
dim K n
=
n ,
also wegen fT (K n ) ⊂ K n nach Satz 4.2.24(2) :
fT (K n ) = K n , also
SRg(A)
=
dim fA (fT (K n ))
=
dim fA·T (K n )
dim(fA ◦ fT )(K n )
=
SRg(A · T ) .
=
b) Es ist
SRg(S · A)
dim fS·A (K n )
=
dim fS (fA (K n )) ,
=
und Hilfssatz 4.5.6, angewendet auf den Untervektorraum fA (K n ) von K m ,
ergibt
dim fS (fA (K n )) = dim fA (K n ) ,
also
SRg(S · A)
dim fA (K n )
=
=
SRg(A) .
Insgesamt folgt aus b), angewendet auf A · T statt A , und aus a) :
SRg(S · A · T )
(2) Es ist
ZRg(A)
t
=
SRg(A · T )
=
SRg(t A) ,
(S · A · T )
=
t
=
SRg(A) .
und
T ·t A ·t S
nach 4.5.2 (4) ,
und nach 4.5.2 (5) sind auch t T und t S invertierbar, also gilt nach (1) :
ZRg(S · A · T )
(1)
=
=
SRg(t (S · A · T ))
SRg(t A)
=
ZRg(A) .
135
=
SRg(t T ·t A ·t S)
2
Satz und Definition 4.5.8 : Seien m, n ∈ N , K ein Körper
und A ∈ M (m × n, K) . Dann gilt
SRg(A)
=
ZRg(A) ,
d. h. Zeilenrang und Spaltenrang von A sind gleich. Wir nennen diese Zahl
den Rang von A , also
Rg A
Beweis : Sei
K :=
L :=
:=
SRg(A)
=
ZRg(A) .
(e1 , . . . , en ) die kanonische Basis von K n und
(f 1 , . . . , f m ) die kanonische Basis von K m . Dann gilt
∀ j ∈ n : fA (ej )
=
A · ej
aj
=
=
n
X
akj f k
,
also
k=1
MLK (fA )
=
A .
Nun haben wir in (4.3.13)(*) (bei der Dimensionsformel für lineare
Abbildungen) bewiesen: Es gibt eine Basis
B
:=
(w1 , . . . , wr ) von fA (K n ) und eine Basis
A
:=
(u1 , . . . , ur , v1 , . . . , vk ) von K n (also r + k = n), so dass
fA (uj ) = wj für j ∈ r und fA (vl ) = 0 für l ∈ k
ist. Ergänzen wir B zu einer Basis
C







:=
(w1 , . . . , wr , wr+1 , . . . , wm ) von K m , so wird nach (4.4.12):
B := MCA (fA ) =

1
0 |

..
r Zeilen
.
| 0 


0
1 |

− − − + − 
0
| 0


Er | 0
=  − + −  ∈ M (m×n, K) .
0 | 0
r Spalten
Für die Matrix B gilt nun offensichtlich SRg(B) = ZRg(B) . Andererseits
gilt nach der Formel für die Koordinatentransformation aus (4.4.17) :
MLK (fA )
=
MLC ( idK m ) · MCA (fA ) · MAK ( idK n ) ,
136
also mit T := MAK ( idK n ) ∈ GL(n, K) , S := MLC ( idK m ) ∈ GL(m, K) :
A
=
S·B·T
,
und nach dem Hilfssatz 4.5.7 :
SRg(A)
↓
=
SRg(B)
=
ZRg(B)
↓
=
ZRg(A) .
2
Wie kann man nun den Rang praktisch berechnen ? Es ist dazu nicht nötig,
Basen von K n bzw. K m zu finden, so dass die Matrix von fA bezüglich
dieser Basen die Form


Er | 0
 − + −  mit r = RgA
0 | 0
hat, es geht etwas einfacher. Man überlegt sich, dass gewisse Umformungen
den Rang von A nicht ändern :
Definition 4.5.9 : Sei A ∈ M (m × n, K) , mit Zeilenvektoren
a1 , . . . , am ∈ K n (als Zeilen geschrieben).
Unter einer elementaren Zeilenumformung von A versteht man eine
Umformung der folgenden Art:
(I) Multiplikation der k−ten Zeile mit λ ∈ K \ {0} : Aus




a1
a1
 .. 
 .. 
 . 
 . 




A =  ak  wird AI :=  λak  .
 . 
 . 
 .. 
 .. 
am
am
(II) Addition der j−ten Zeile zur k−ten Zeile, j 6= k : Aus




a1
a1
..
 .. 


 . 


.




 ak 
 ak + aj 

 . 

..
 wird AII := 
 .
.
A = 
.
.




 a 
 a

 j 


j
 . 


..
 .. 


.
am
am
Durch Hintereinanderausführung mehrerer Umformungen
vom Typ (I) oder (II) erhält man noch folgende Umformungen:
137
(III) Addition des λ−fachen der j−ten Zeile zur k−ten Zeile, k 6= j , λ ∈ K :
Aus




..
..
.
.




 ak 
 ak + λaj 
 . 


..
III

 ,
A = 
:= 
.
 ..  wird A


 a 


a
j
 j 


..
..
.
.
und zwar erhält man das folgendermaßen: Für λ = 0 macht man gar nichts.
Für λ 6= 0 formt man so um :







..
..
..
..
.
.
.
.







 ak 
 ak 
 ak + λaj 
 a + λa
I
II

 I mit λ−1  k . j
 .  −→
 .  −→
.
 .. 
 .. 



..
..







−→
 a 
 λa 
 λa


aj
j 
j
 j 




..
..
..
..
.
.
.
.
(IV) Vertauschen der k−ten Zeile mit der j−ten Zeile, k 6= j : Aus




..
..
.
.




 ak 
 aj 


 . 
 wird AIV :=  ...  ,
.
A = 
.




 a 
 a 
 j 
 k 
..
..
.
.
und zwar erhält man


..
.


 ak 
I
 .  −→
 .. 


 a 
 j 
..
.

III
−→







das folgendermaßen:



..
..
.
.



 ak 
 ak
II
 .  −→

..
 .. 

.



 −a 
 a −a
j 
j

 k
..
..
.
.
..
.
ak − (ak − aj )
..
.
ak − aj
..
.


..
.
aj
..
.






 = 



 a −a
j

 k
..
.
138








..
.
aj
..
.














 a
 k
..
.
II
−→








.








Entsprechend definiert man elementare Spaltenumformungen .
Hilfssatz 4.5.10 : Entsteht B aus A durch elementare
Zeilen- bzw. Spaltenumformungen, so gilt
Rg A
=
Rg B
.
Beweis für Zeilenumformungen: Es reicht, den Satz für eine el. Umformung
vom Typ I oder II zu beweisen. Durch Induktion nach der Anzahl solcher
Umformungen folgt er dann auch für endlich viele Umformungen vom
Typ I - IV :
I) Es ist AI = Sk (λ) · A mit


1
0
..
..


.
.
0




1 0




Sk (λ) :=  0 . . . 0 λ 0 . . . 0  ←− k − te Zeile ,


0 1




.
.


..
..
0
0
1
↑
k−te Spalte,
Sk (λ) ∈ M (m × m, K) , sogar Sk (λ) ∈ GL(m, K) wegen
Sk (λ) · Sk (λ−1 ) = Sk (λ−1 ) · Sk (λ) = Em .
Nach Hilfssatz 4.5.7 und Satz 4.5.8 folgt
RgAI = RgA .
II) Es ist AII 
= Qjk (1) · A mit

1
0
..


..
.
0
.
0






1
0


 0 . . . 0 1 0 . . . 0 λ 0 . . . 0  ←− k − te Zeile ,




1
0


j
.
.


..
..
Qk (λ) := 



1
0




0
1
0




0 1




.
.
..
..


0
1
↑
j−te Spalte,
139
für λ ∈ K . Es ist
Qjk (λ) ∈ M (m × m, K) , sogar Qjk (λ) ∈ GL(m, K) ,
denn es existiert
Qjk (λ)−1 = Qjk (−λ) .
Nach Hilfssatz 4.5.7 und Satz 4.5.8 folgt RgAII = RgA .
Für Spaltenumformungen folgt die Behauptung daraus wegen
RgA = SRg(A) = ZRg(t A) = Rgt A .
Definition und Satz 4.5.11 : Man sagt, eine Matrix M ∈ M (m × n, K)
hat Zeilenstufenform , wenn es Zahlen j1 , . . . , jr ∈ n gibt mit
1 ≤ j1 < j2 < . . . < jr ≤ n ,
so dass B die Form


















|
|
b1j1
|
|
∗
b2j2
...
|
|
0
brjr
















hat, mit
b1j1 , . . . , brjr 6= 0 ,
Nullen unterhalb der “Stufenlinie” und irgendwelchen Einträgen oberhalb
der bkjk . Es gilt dann
RgB
=
ZRg(B)
=
r
.
Beweis : (b1 , . . . , br ) ist eine Basis von
span(b1 , . . . , br , . . . , bm ) ,
denn br+1 , . . . , bm = 0 , und aus
r
P
β k bk = 0
k=1
folgt zunächst, wenn man die j1 −te Komponente dieser Summe betrachtet :
β1 b1j1 = 0 , also wegen b1j1 6= 0 : β1 = 0 .
r
P
Mit der Gleichung
βk bk = 0 kann man so fortfahren und erhält
k=2
140
0 = β2 = . . . = βr
Also ist ZRg(B) = r .
.
2
Bei einer Matrix in Zeilenstufenform kann man also den Rang leicht ablesen,
es ist die “Anzahl der Stufen” dieser Matrix. Es gilt nun
Satz 4.5.12 : Jede Matrix A ∈ M (m × n, K) kann man durch endlich viele
elementare Zeilenumformungen auf Zeilenstufenform bringen.
Beweis : Wir machen hier keinen exakten Induktionsbeweis, sondern geben
die Schritte an, die man praktisch macht und auch so programmieren kann:
Ist A = 0 , so sind wir fertig: A hat Zeilenstufenform, mit
0 Stufen.
(∗) Sei nun A 6= 0 , so gibt es mindestens ein akj 6= 0 . Die j1 −te Spalte sei
diejenige mit dem kleinsten Index, in der nicht nur Nullen stehen, also
a1 = . . . = aj1 −1 = 0 , und
∃ k ∈ m : akj1 6= 0 .
Wenn nicht schon a1j1 6= 0 ist, vertauschen wir die 1. mit der k−ten Zeile
(das ist eine Umformung vom Typ IV) und erhalten eine Matrix A0 mit
a01j1 6= 0 .
In der Matrix A0 addieren wir nun zur k−ten Zeile, k = 2, . . . , m , jeweils
a0kj1
das − 0 −fache der 1.Zeile, das sind m − 1 Umformungen vom Typ III,
a1j1
und erhalten so eine Matrix A00 mit
a0kj
a00kj1 = a0kj1 − 0 1 · a01j1 = 0 .
a1j1
00
A hat also die Form


A00
=








|
|
a001j1
0
..
.
0
|
|
|
∗ 






B1 
.
Ist nun B1 = 0 oder j1 = n , so sind wir fertig, A00 hat Zeilenstufenform.
Anderenfalls ist B1 eine Matrix mit m − 1 Zeilen, und wir fangen wieder
bei (∗) an, mit B1 statt A . Nach r solchen Schritten, r ≤ m , erhält
141
man eine Matrix der Form

B
=
















|
|

b1j1
|
|
∗
b2j2
...
|
|
0
brjr
















.
Bemerkung 4.5.13 : Unser Problem, den Rang einer Matrix zu bestimmen,
ist damit gelöst: Man formt die Matrix durch elementare Zeilenumformungen
so um, dass man auf eine Matrix in Zeilenstufenform kommt, die denselben
Rang hat. Man kann zur Vereinfachung der Matrix auch elementare Spaltenumformungen verwenden; diese ändern den Rang auch nicht.
4.6 Lineare Gleichungssysteme
Definition 4.6.1 : Sei K ein Körper, m, n ∈ N ,


b1


A = (akj ) ∈ M (m × n, K) und b =  ...  ∈ K m
bm
seien gegeben. Dann heißen die m Gleichungen


 a11 x1 + . . . + a1n xn = b1
..
..
..
(1)
.
.
.

 a
x
+
.
.
.
+
a
x
=
b
m1
1
mn
n
m
,
wobei x1 , . . . , xn gesucht sind, ein lineares Gleichungssystem von m
Gleichungen mit n Unbekannten. Fasst man den gesuchten Vektor


x1


x =  ...  ∈ K n
xn
als n × 1−Matrix und b als m × 1−Matrix auf, so kann man statt (1) kürzer
schreiben:
142
(2)
A·x = b .
Das System (1) bzw. (2) heißt homogen , falls b = 0 ist, sonst inhomogen.
Die Menge
Lös(A, b)
:=
{ x ∈ Kn | A · x = b } ⊂ Kn
heißt die Lösungsmenge von (1) bzw.(2) . A · x = b heißt lösbar , wenn
6=
Lös(A, b)
∅ ist.
Bemerkung 4.6.2 : Zu A ∈ M (m × n, K) haben wir nach (4.5.5) die
lineare Abbildung
fA : K n −→ K m
,
fA (x) := A · x .
Statt (2) kann man daher auch
(3)
fA (x) = b
schreiben. Auf diese Weise können wir unsere Sätze über lineare Abbildungen
auf lineare Gleichungssysteme anwenden.
Satz 4.6.3 : Das lineare Gleichungssystem A · x = b sei lösbar, und
a ∈ K n sei eine Lösung. Dann ist die Lösungsmenge
Lös(A, b)
=
a + ker fA
:=
{ a + y | y ∈ ker fA }
,
wobei fA (x) = A · x ist. Man erhält also alle Lösungen von A · x = b ,
indem man zu einer festen Lösung a alle Lösungen des “zugehörigen homogenen Systems” A · y = 0 addiert.
Beweis : 1) Sei x ∈ Lös(A, b) , dann folgt wegen a ∈ Lös(A, b) :
fA (x) = b und fA (a) = b , also für y := x − a :
fA (y) = fA (x) − fA (a) = 0 , y ∈ ker fA , also
x = a + y mit y ∈ ker fA .
2) Sei x = a + y mit y ∈ ker fA , dann gilt
fA (x) = fA (a)+fA (y) = b+0 = b , also x ∈ Lös(A, b) .
Bemerkung 4.6.4 : Bei einem inhomogenen linearen Gleichungssystem
fA (x) = b , also mit b 6= 0 ,
ist Lös(A, b) kein Untervektorraum von K n , denn wegen
fA (0) = 0 6= b ist 0 ∈
/ Lös(A, b) .
Bei einem homogenen linearen Gleichungssystem
fA (x) = 0
ist Lös(A, 0) = ker fA , also Lös(A, 0) ein Untervektorraum von K n , also 0 ∈ Lös(A, 0) ; das System hat also auf jeden Fall die triviale Lösung
143
x = 0 , und es hat nichttriviale Lösungen, also Lösungen 6= 0 , wenn
ker fA 6= {0} , also dim ker fA > 0 ist.
Diese Dimension kann man mit der Dimensionsformel (4.3.13) berechnen:
Satz 4.6.5 : Sei A ∈ M (m×n, K) , dann gilt für den Lösungsraum Lös(A, 0)
von A · x = 0 :
dim Lös(A, 0)
=
n − RgA .
Beachte: n ist die Anzahl der Unbekannten im System A · x = 0 .
Beweis : Es ist Lös(A, 0) = ker fA für
fA : K n −→ K m , fA (x) = A · x ,
und nach der Dimensionsformel (4.3.13) gilt für fA :
dim K n = dim ker fA + dim fA (K n ) , also
n = dim Lös(A, 0) + dim fA (K n ) .
Sei (e1 , . . . , en ) die kanonische Basis des K n , dann ist
(fA (e1 ), . . . , fA (en ))
ein Erzeugendensystem von fA (K n ) . Nun gilt für j ∈ n :


a1j


fA (ej ) = A · ej =  ...  = aj ,
amj
wobei aj der j−te Spaltenvektor von A ist. Also gilt
dim fA (K n ) = dim span(a1 , . . . , an ) = SRg(A) = RgA .
2
Damit wissen wir alles über homogene lineare Gleichungssysteme. Wann ist
nun ein inhomogenes System A · x = b lösbar ?
Definition 4.6.6 : Sei A ∈ M (m × n, K) und b ∈ K m . Dann heißt die
Matrix
A die einfache Matrix des Systems A · x = b
und die m × (n + 1)−Matrix, die entsteht, wenn man zu A den Vektor b
als zusätzliche Spalte nimmt, also


a11 . . . a1n b1

..
.. 
(A, b) :=  ...
.
. 
am1 . . . amn bm
die erweiterte Matrix des Systems A · x = b .
144
Satz 4.6.7 : Für die Lösungsmenge des linearen Gleichungssystems
A·x
=
b mit A ∈ M (m × n, K) ,
Lös (A, b) 6= ∅
⇐⇒
RgA
=
b ∈ Km
Rg (A, b)
gilt :
,
wobei (A, b) die erweiterte Matrix des Systems ist.
Beweis : Sei
fA : K n −→ K m
x 7−→ A · x ,
,
dann gilt:
Lös (A, b) 6= ∅
⇐⇒
∃ x ∈ K n : fA (x)
⇐⇒
b ∈ fA (K n ) .
=
b
Wie wir beim Beweis von Satz 4.6.5 gesehen haben, ist
fA (K n )
=
span(a1 , . . . , an ) ,
wobei a1 , . . . , an die Spaltenvektoren von A sind, also gilt
Lös (A, b) 6= ∅
b ∈ span(a1 , . . . , an )
⇐⇒
span(a1 , . . . , an , b)
=
span(a1 , . . . , an )
4.2.24 (2)
⇐⇒ dim span(a1 , . . . , an , b)
=
dim span(a1 , . . . , an )
⇐⇒
⇐⇒
Rg (A, b)
=
RgA .
Man mache sich bei jedem Schritt klar, warum “ ⇐⇒
” gilt.
2
Es kann durchaus sein, dass A · x = b mehrere Lösungen hat. Es gilt
Satz 4.6.8 : Für A ∈ M (m × n, K) und b ∈ K m sind folgende Aussagen
gleichbedeutend:
(i) A · x = b ist eindeutig lösbar.
(ii) RgA = Rg (A, b) = n .
Beweis : (i) =⇒ (ii) : A · x = b sei eindeutig lösbar, dann ist A · x = b
lösbar, und nach Satz 4.6.7 folgt
RgA = Rg (A, b) .
Für die Lösungsmenge von A · x = b gilt nach Satz 4.6.3 :
145
Lös (A, b) = a + ker fA ,
wobei a eine feste Lösung ist. Da A · x = b eindeutig lösbar ist, ist
ker fA = {0} , also dim ker fA = 0 , dim Lös(A, 0) = 0 , also
nach Satz 4.6.5 : n − RgA = 0 , also n = RgA .
(ii) =⇒ (i) : Es gelte RgA = Rg (A, b) = n . Wegen RgA = Rg (A, b)
folgt nach Satz 4.6.7 : A · x = b ist lösbar, und nach Satz 4.6.3:
Lös (A, b) = a + ker fA ,
wobei a eine Lösung ist, und nach Satz 4.6.5:
dim ker fA = dim Lös(A, 0) = n − RgA = 0 , also
ker fA = {0} , Lös (A, b) = {a} .
2
- Wie kann man nun ein lineares Gleichungssystem A · x = b praktisch
lösen? Man bringt dazu die erweiterte Matrix (A, b) durch elementare Zeilenumformungen auf Zeilenstufenform (B, c) und löst dann
B·x = c ,
was, wie wir sehen werden, ganz einfach ist. Zunächst
Hilfssatz 4.6.9 : Wird aus der m × (n + 1)−Matrix (A, b) durch endlich
viele elementare Zeilenumformungen die Matrix (B, c) , so gilt
Lös (A, b)
=
Lös(B, c) ,
d.h. an der Lösungsmenge ändert sich nichts.
Beweis : Beim Beweis von Hilfssatz 4.5.10 haben wir gesehen, dass man
elementare Zeilemformungen einer Matrix A durch Multiplikation von links
mit Matrizen aus GL(m, K) erhält : Aus A ∈ M (m × n, K) wird
F1 · F2 · . . . · Fr · A mit r ∈ N0 und F1 , . . . , Fr ∈ GL(m, K) .
Da GL(m, K) eine Gruppe ist, ist auch
r
Q
F :=
Fj ∈ GL(m, K) ,
j=1
und durch elementare Zeilenumformungen wird aus (A, b) also die Matrix
F · (A, b) . Nun gilt für x ∈ K n :
A · x = b ⇐⇒ F · A · x = F · b , ,
wobei man für “⇐= ” braucht, dass F invertierbar ist. Also ist
Lös (A, b) = Lös(F · A, F · b) = Lös(B, c) .
2
Warnung : Für elementare Spaltenumformungen an (A, b) gilt 4.6.9 nicht.
Sie ändern zwar den Rang von (A, b) nicht, wohl aber die Lösungsmenge
von A · x = b .
2
146
(4.6.10) Gaußsches Eliminationsverfahren : Gegeben sei ein lineares
Gleichungssystem
A · x = b mit A ∈ M (m × n, K) , b ∈ K m gegeben,
und x ∈ K n gesucht.
Dann schreibt man sich die erweiterte Koeffizientenmatrix (A, b) auf und
bringt sie, wie in Satz 4.5.12 beschrieben, durch endlich viele elementare Zeilenumformungen auf Zeilenstufenform (B, c) , und nach Hilfssatz 4.6.9 sind
die Lösungen von
B · x = c genau die Lösungen von A · x = b ,
und es gilt nach Hilfssatz 4.5.10 :
RgA = RgB und Rg (A, b) = Rg(B, c) .
Die Matrix (B, c) hat die Form




















|
|
|
|
b1j1
|
|
∗
b2j2
..
.
|
|
0
brjr
|
|
|
|
|
|
|
|
c1 


.. 

. 


.. 
. 

cr 



cr+1 


0
und daraus kann man alles ablesen, was man wissen möchte:
a) Ist cr+1 6= 0 , so ist RgB = r , Rg(B, c) = r + 1 , also ist das System
nach Satz 4.6.7 nicht lösbar.
b) Ist cr+1 = 0 , so ist
RgB = Rg(B, c) = r ,
das System ist also lösbar, und eindeutig lösbar, wenn auch noch
r = n = Anzahl der Unbekannten ist. Die Lösungen erhält man
folgendermaßen: Für die Unbekannten
xj , j ∈
/ {j1 , . . . , jr }
kann man beliebige Werte aus K einsetzen. Die Unbekannten
xj1 , . . . , xjr erhält man in Abhängigkeit von diesen Unbekannten,
147
wenn man die Gleichungen
brjr xjr + . . .
..
.
= cr
..
.
b1j1 xj1 + . . .
= c1
in dieser Reihenfolge nach xjr , . . . , xj1 auflöst. Man sieht das am besten an
Beispielen.
Beispiele 4.6.11 : 1) Gegeben sei das lineare Gleichungssystem
x1
x1
3x1
2x1
2x1
+
+
+
−
+
2x2
4x2
2x2
2x2
6x2
Die erweiterte Matrix






−
x3
− 5x3
+ 5x3
+ 10x3
− 6x3
1 1 −1
1 4 −5
3 2
5
2 −2 10
2 6 −6
+ x4
+ 2x4
+ 4x4
+ x4
0 4 |
1 3 |
2 2 |
4 −1 |
1 7 |
+
+
+
−
+
4x5
3x5
2x5
x5
7x5
2
1
12
11
3
= 2
= 1
= 12
= 11
= 3






bringen wir, wie im Beweis von Satz 4.5.12 beschrieben, auf Zeilenstufenform:


1 2 −1 0 4 |
2
 0 2 −4 1 −1 | −1 


0 0
6 
(A , b ) = 
 0 −4 8 2 −10 |
 ,
 0 −6 12 4 −9 |
7 
0 2 −4 1 −1 | −1


1 2 −1 0 4 |
2
 0 2 −4 1 −1 | −1 


00 00
 ,
0
0
0
4
−12
|
4
(A , b ) = 


 0 0 0 7 −12 |
4 
0 0 0 0 0 |
0


1 2 −1 0 4 |
2
 0 2 −4 1 −1 | −1 


000 000
4 
(A , b ) = 
 0 0 0 4 −12 |
 .
 0 0 0 0 9 | −3 
0 0 0 0 0 |
0
148
Wir sehen: RgA000 = Rg(A000 , b000 ) = 4 6= 5 , das System ist also lösbar, aber
nicht eindeutig lösbar. Wir wählen
x3 ∈ R beliebig und erhalten damit
1
9x5 = −3 , also x5 = − ,
3
4x4 − 12x5 = 4 , also x4 = 1 + 3x5 = 0 ,
1 1
2
1
2x2 −4x3 +x4 −x5 = −1 , also x2 = 2x3 − −0− · = 2x3 −
,
2
2 3
3
4
4
14
− 3x3 .
x1 + 2x2 − x3 + 4x5 = 2 , also x1 = 2 − 4x3 + + x3 + =
3
3
3
2)
x1 + 2x2 − x3 = 1
,
2x1 − x2 + x3 = 2
,
−x1 + 3x2 − 2x3 = 1
.
Die erweiterte Matrix ist


1
2 −1 | 1
(A, b) =  2 −1 1 | 2  ,
−1 3 −2 | 1
wir bringen sie auf Zeilenstufenform:

1 2 −1 |
0 0

0 −5 3 |
(A , b ) =
0 5 −3 |

1 2 −1 |
00 00

0 −5 3 |
(A , b ) =
0 0
0 |
Wir sehen: Es war
RgA = 2 , aber Rg (A, b) = 3 ,
das System ist also nicht lösbar.

1
0  ,
2

1
0  .
2
2
Für das nächste Rechenverfahren brauchen wir
Satz 4.6.12 : Sei n ∈ N und K ein Körper. Dann sind für eine Matrix
A ∈ M (n × n, K) die folgenden Aussagen gleichbedeutend:
(i)
A ∈ GL(n, K) ,
(ii) Rg A = n ,
(iii) fA : K n −→ K n , fA (x)
:=
A·x
ist ein Isomorphismus.
Beweis : Sei K := (e1 , . . . , en ) die kanonische Basis des K n (als Spaltenvektoren geschrieben), dann ist
A
=
MKK (fA ) .
149
(i)
=⇒
(ii) : Ist A ∈ GL(n, K) , so gilt
4.5.7
RgA = ZRg(A) = ZRg(A · En ) = ZRg(En ) = n .
(ii)
=⇒
(iii) : Wenn (ii) gilt, haben wir
n
=
Rg A
=
dim span(a1 , . . . , an )
dim span(fA (e1 ), . . . , fA (en ))
=
dim fA (K n ) ,
=
also fA (K n ) = K n , also ist fA surjektiv. Nach der Dimensionsformel (4.3.13)
ist dim ker fA = 0 , also ist fA injektiv. Also ist fA ein Isomorphismus.
(iii) =⇒ (i) : Ist fA ein Isomorphismus, so ist fA bijektiv, wir haben also
die Umkehrfunktion G : K n −→ K n , die, wie wir nachrechnen können,
wiederum K−linear ist. Aus
fA ◦ G
=
G ◦ fA
=
idK n
folgt nach (4.4.15) :
MKK (fA ) · MKK (G)
MKK (G) · MKK (fA )
=
=
MKK ( idK n ) ,
also für B := MKK (G) :
A·B
=
B·A
=
En
,
2
also A ∈ GL(n, K) .
Anwendung 4.6.13 : Man kann das Gaußsche Eliminationsverfahren anwenden, um mit geringem Rechenaufwand das Inverse einer Matrix
A ∈ M (n × n, K)
auszurechnen, und man sieht bei der Rechnung auch, ob es existiert : Die
inverse Matrix
B = (bkj ) := A−1 ,
erfüllt, falls sie existiert, die Gleichung A · B = En , also
n
X
1 für k = j
akl · blj = δkj =
∀ k, j ∈ n :
0 für k 6= j
.
l=1
Das sind n2 lineare Gleichungen mit den n2 Unbekannten bkj , aber man
muss erfreulicherweise nicht alle diese Gleichungen hinschreiben: Für jedes
feste j ∈ n hat man n Gleichungen mit n Unbekannten b1j , . . . , bnj :
n
X
akl · blj
=
l=1
150
δkj ,
also
A · bj
=
ej
mit dem unbekannten Spaltenvektor bj . Die einfache Matrix A ist für alle
j ∈ n dieselbe, nur die “rechte Seite” hängt von j ab. Wir lösen nun diese
n Gleichungssysteme (mit jeweils n Gleichungen mit n Unbekannten) dadurch, dass wir alle “rechten Seiten”, also die Spaltenvektoren ej , auf einmal
rechts neben die Matrix A schreiben, das ergibt die Matrix


a11 . . . a1n | 1
0
 ..

..
..
 .
 = (A | En ) ,
.
. |
an1 . . . ann | 0
1
und mit allen rechten Seiten gleichzeitig, also mit En , die elementaren
Zeilenumformungen ausführen. Wir kommen dann zunächst auf eine Matrix
der Form
( A0 | C 0 ) .
Hat dieses A0 nun weniger als n Stufen, so war
Rg A
=
Rg A0 < n
und nach Satz 4.6.12 ist A nicht invertierbar, wir brauchen also nicht weiter
zu rechnen. Hat man n Stufen, so ist


| a011
∗

 |


0


|
a
22




|
A0 = 
 , mit a011 , . . . , a0nn 6= 0 ,


..


.


0
 0
| ann 
|
und man führt weitere elementare Zeilenumformungen an (A0 | C 0 ) aus:
Man dividiert die k−te Zeile durch a0kk , für k = 1, . . . , n, und addiert dann,
beginnend mit der letzten Zeile, passende Vielfache jeder Zeile zu den vorhergehenden, so dass man auch oberhalb der Diagonale nur noch Nullen hat.
Insgesamt hat man dann die Matrix
( En | C ) ,
und wenn man sich nun wieder die einzelnen Gleichungssysteme ansieht, so
steht da
E n · bj = c j
für j = 1, . . . , n,
151
für die “unbekannten” Vektoren bj . Also gilt
cj
=
bj
,
C
=
B
,
die rechts stehende Matrix ist also die Inverse von A :
( En | A−1 ) .
2
4.7 Summen von Vektorräumen
Definition und Satz 4.7.1 : Sei K ein Körper, n ∈ N , und für jedes
j ∈ n sei Vj ein K−Vektorraum. Dann ist nach Definition 1.0.16 das
cartesische Produkt
Y
Vj
:= V1 × V2 × . . . × Vn
j∈n
definiert. Diese Menge wird ein K−Vektorraum, wenn man für
Y
(v1 , . . . , vn ) , (w1 , . . . , wn ) ∈
Vj und λ ∈ K definiert :
j∈n
(v1 , . . . , vn ) + (w1 , . . . , wn )
λ(v1 , . . . , vn )
:=
(v1 + w1 , . . . , vn + wn ) ,
:=
(λv1 , . . . , λvn ) .
Dieser K−Vektorraum heißt das äußere direkte Produkt von V1 , . . . , Vn .
Sind V1 , . . . , Vn endlichdimensional,
dim Vj = kj
so ist auch
Y
für j ∈ n ,
Vj endlichdimensional,
j∈n
dimK
Y
Vj
=
k1 + . . . + kn
.
j∈n
Beweis : Dass für
Y
Vj die Vektorraum-Axiome gelten, kann man nach-
j∈n
rechnen. Hat man dimK Vj = kj ∈ N0 für j ∈ n , so hat man für jedes
j ∈ n Basen
(j)
(j)
(b1 , . . . , bkj ) von Vj
(1)
,
(1)
und man sieht, dass
(2)
(2)
((b1 , 0, . . . , 0) , . . . , (bk1 , 0, . . . , 0) , (0, b1 , 0, . . . , 0) , . . . , (0, bk2 , 0, . . . , 0) ,
152
(n)
(n)
. . . , (0, . . . , 0, b1 ) , . . . , (0, . . . , 0, bkn ))
Y
eine Basis von
Vj ist.
j∈n
2
- Meistens benutzt man diese Konstruktion für n = 2 . Aber man kann
diese Konstruktion sogar für beliebig (möglicherweise unendlich) viele Vektorräume machen :
Definition und Satz 4.7.2 : Sei I eine nichtleere Menge, K ein Körper,
und für jedes j ∈ I sei Vj ein K−Vektorraum. Dann setzt man
(
)
Y
[
Vj :=
(vj )j∈I ∈ F(I,
Vj ) ∀ j ∈ I : vj ∈ Vj
,
j∈I
j∈I
man nimmt also die Menge aller Familien (vj )j∈I , bei denen vj ∈ Vj für
jedes j ∈ I gilt, und definiert
und λ ∈ K :
für (vj )j∈I , (wj )j∈I
dann wird
Y
(vj )j∈I + (wj )j∈I
:=
(vj + wj )j∈I
λ (vj )j∈I
:=
(λ vj )j∈I
,
,
Vj ein K−Vektorraum, den man das äußere direkte
j∈I
Produkt der Vektorräume Vj , j ∈ I , nennt. Man hat darin den Untervektorraum
(
)
M
Y
0
Vj
:=
(vj )j∈I ∈
Vj ∀ j ∈ I : vj = 0
,
j∈I
j∈I
also
M die Menge der Familien, bei denen fast alle Komponenten Null sind.
Vj heißt die äußere direkte Summe der Vj , j ∈ I , und für eine
j∈I
endliche Indexmenge I ist
M
Vj
=
j∈I
Y
Vj
,
j∈I
es ist dann also egal, ob man von der äußeren direkten Summe oder dem
äußeren direkten Produkt spricht.
Der Beweis dieser Aussagen ist leicht.
2
153
(4.7.3) Beachte hierbei, dass die Vj beliebige K−Vektorräume sind. Sie
können ganz verschieden sein. Es kann aber auch V1 = V2 =: V und I =
{1, 2} gelten, dann hat man
M
V1 × V2 =
Vj = V × V ,
j∈2
und wenn dim V = n ist, ist
dim(V × V )
=
2n .
Soweit war alles ganz einfach. Etwas verwirrend wird die Situation dadurch,
dass man noch eine andere Konstruktion hat:
Definition 4.7.4 : Sei V ein K−Vektorraum, r ∈ N und W1 , . . . , Wr seien
Untervektorräume von V . Dann setzt man
r
X
Wj := W1 + . . . + Wr
j=1
:=
{ v ∈ V | ∀ j ∈ r ∃ wj ∈ Wj : v = w1 + . . . + wr }
=
{ w1 + . . . + wr | ∀ j ∈ r : wj ∈ Wj }
.
Satz und Definition 4.7.5 : Sei V ein K−Vektorraum, r ∈ N , und
W1 , . . . , Wr
seien Untervektorräume von V
.
Dann sind folgende Aussagen gleichbedeutend :
r
P
(1) Zu jedem w ∈
Wj gibt es ein eindeutig bestimmtes r−tupel
j=1
(w1 , . . . , wr ) ∈ W1 × . . . × Wr mit
w
(2)
(3)
=
w1 + . . . + wr
.
Für jedes j ∈ r sei wj ∈ Wj , und es sei w1 + . . . + wr = 0 , dann
folgt:
∀ j ∈ r : wj = 0 .
X
Für alle k ∈ r ist Wk ∩
Wj = {0} .
j∈r\{k}
Falls eine dieser drei Aussagen erfüllt ist (und damit alle drei Aussagen gelr
X
ten) , nennen wir W :=
Wj die innere direkte Summe der Wj und
j=1
schreiben
W
=
W1 ⊕ W2 ⊕ . . . ⊕ Wr
=
r
M
j=1
154
Wj
.
Beweis : (1)
r
X
(2) ist trivial: Wenn sich jeder Vektor w ∈
=⇒
Wj
j=1
eindeutig als w = w1 + . . . + wr mit wj X
∈ Wj darstellen läßt, dann auch 0 .
Wj , dann gibt es zu jedem
(2) =⇒ (3) : Sei w ∈ Wk ∩
j∈r\{k}
j ∈ r \ {k} ein wj ∈ Wj mit
X
w =
wj , und es ist wk := −w ∈ Wk
,
also
j∈r\{k}
0
r
X
=
wj
mit wj ∈ Wj
für alle j ∈ r
.
j=1
Nach (2) folgt daraus
∀ j ∈ r : wj = 0 ,
(3)
=⇒
insbesondere
w = −wk = 0 .
r
X
(1) : Sei w ∈
Wj , dann gibt es w1 , . . . , wr mit
j=1
w =
r
X
wj
und ∀ j ∈ r : wj ∈ Wj
vj
mit ∀ j ∈ r : vj ∈ Wj
. Sei auch
j=1
w =
r
X
,
j=1
dann gilt für jedes k ∈ r :

vk − wk =
X
(wj − vj ) ∈ 
j∈r\{k}

X
Wj  ∩ Wk
,
j∈r\{k}
und nach (3) : vk − wk = 0 , also
∀ k ∈ r : vk = wk
.
2
Bemerkung 4.7.6 : Sei V ein K−Vektorraum, r ∈ N , und seien
W1 , . . . , Wr Untervektorräume von V , für die die Aussage
155
Für alle k ∈ r ist Wk ∩
(3)
X
Wj = {0}
j∈r\{k}
gilt, dann hat man also die innere direkte Summe
r
X
Wj . Man kann aber
j=1
auch die Vektorräume
Y Wj nehmen und gemäß Definition 4.7.1 deren äußeres direktes Produkt
Wj bilden (das wir in 4.7.2 auch als äußere direkte
j∈r
Summe bezeichnet hatten). Erfreulicherweise gibt es keine Verwechslungsgefahr, denn innere und äußere direkte Summe sind in diesem Fall isomorph.
Genauer: Sei
Y
ϕ :
Wj
r
M
−→
j∈r
Wj
(w1 , . . . , wr ) 7−→ w1 + . . . + wr
,
,
j=1
| {z }
| {z }
äußere ,
innere direkte Summe
dann ist ϕ ein Isomorphismus.
Y
Wj
Beweis : Seien (v1 , . . . , vr ) , (w1 , . . . , wr ) ∈
und λ ∈ K , dann
j∈r
gilt
ϕ((v1 , . . . , vr ) + (w1 , . . . , wr ))
=
v1 + w1 + . . . + vr + wr
=
=
=
ϕ(v1 + w1 , . . . , vr + wr )
v1 + . . . + vr + w1 + . . . + wr
ϕ(v1 , . . . , vr ) + ϕ(w1 , . . . , wr ) ,
ϕ(λ(v1 , . . . , vr ))
=
=
ϕ(λv1 , . . . , λvr )
λ(v1 + . . . + vr )
=
=
λv1 + . . . + λvr
λϕ(v1 , . . . , vr ) ,
also: ϕ ist K−linear. ϕ ist surjektiv, denn
r
M
Wj
=
{ w1 + . . . + wr | ∀ j ∈ r : wj ∈ Wj }
j=1
=
{ ϕ(w1 , . . . , wr ) | ∀j ∈ r : wj ∈ Wj }
=
ϕ
r
Y
!
Wj
j=1
Und: ϕ ist injektiv, denn sei (w1 , . . . , wr ) ∈ ker ϕ , dann ist
w1 + . . . + wr = 0 .
Es gilt die Aussage (3), also auch die Aussage (2), von Satz 4.7.5, also
∀ j ∈ r : wj = 0 ,
also (w1 , . . . , wr ) = (0, 0, . . . , 0) .
156
.
2
Folgerung 4.7.7 : Äußere und innere direkte Summe von Vektorräumen
W1 , . . . , Wr (wobei man die innere direkte Summe nur bilden kann, wenn
alle Wj , j ∈ r , Unter-Vektorräume eines Vektorraums V sind), sind zwar
nicht gleich, aber isomorph.
2
4.8 Anwendung: Körpererweiterungen
Bemerkung 4.8.1 : Sei (K, +, ·) ein Körper. Dann suchen wir zunächst den
“kleinsten” in K enthaltenen Körper, den wir P (K) nennen, d.h. den Körper
P (K) , für den für jeden Unterkörper U von K gilt:
P (K) ⊂ U ⊂ K
.
P (K) heißt der Primkörper von K . P (K) ist dann ein Unterring von
(K, +, ·) , und wenn wir das Einselement von K mal mit 1K bezeichnen, gilt
1K ∈ P (K) .
Da (K, +) eine abelsche Gruppe ist, folgt mit Induktion
∀ n ∈ N0 : n 1K ∈ P (K)
und da auch das Negative dazugehört,
∀ n ∈ Z : n 1K ∈ P (K) .
n 1k bezeichnet dabei stets das n−fache von 1K . Also ist
UK := { n 1K | n ∈ Z }
eine Teilmenge von K, sogar ein Untering. Man braucht dazu die Potenzregeln 2.1.6 (umgeschrieben für die Vielfachen von 1K ), und die Regel (∗) aus
dem Beweis von Satz 3.2.16. Die Abbildung
ϕ : Z −→ UK
,
n 7→ n 1K
ist dann ein surjektiver Ring-Homomorphismus. In Def. und Satz 3.2.16 hatten wir nun die Charakteristik von K definiert, und das ergibt für P (K) zwei
Möglichkeiten:
(1.) char K = p ,
p eine Primzahl: Dann ist
p 1K = 0 ,
157
p ist die kleinste natürliche Zahl n mit n 1K = 0 , und wir haben
ker ϕ = (p) .
Nach dem Homomorphiesatz für Ringe (3.1.11) haben wir genau einen RingIsomorphismus
ι : Z/ ker ϕ −→ UK
mit ι(a + ker ϕ) = ϕ(a) für a ∈ Z ,
ι : Z/(p) −→ UK
a + (p) 7→ a 1K
,
also
.
Da Z/(p) ein Körper ist, ist auch UK ein Körper: Das Inverse eines Elements
x ∈ UK \ {0} ist
x−1 = ι((ι−1 (x))−1 ) mit (ι−1 (x))−1 ∈ Z/(p)
.
Es ist also P (K) = UK und damit
P (K) ∼
= Z/(p)
.
(2.) char K = 0. Dann sind alle Elemente aus UK verschieden, denn wäre
etwa
n 1k = m 1k mit n, m ∈ Z , n < m ,
dann wäre m − n ∈ N, die Menge
{ k ∈ N | k 1K = 0 }
wäre nichtleer, Widerspruch zu char K = 0. Die Abbildung ϕ ist nur ein
Isomorphismus von Ringen, UK ist kein Körper. In P (K) liegen aber auch
die Inversen der Elemente von UK \ {0}, wir setzen
BK :=
(n 1K ) · (m 1K )−1 n, m ∈ Z ∧ m 6= 0
,
dann ist BK ⊂ P (K) und
ψ : Q −→ BK
,
n
7→ (n 1K ) · (m 1k )−1
m
ist ein Ring-Isomorphismus. Dazu müssen wir nur zeigen, dass ψ wohldefiniert
ist: Seien n, n0 ∈ Z , m, m0 ∈ Z \ {0}, dann gilt
n
n0
= 0
m
m
=⇒
n·m0 = m·n0
=⇒
=⇒
(n 1K )·(m0 1K ) = (m 1K )·(n0 1K )
(n 1K ) · (m 1K )−1 = (n0 1K ) · (m0 1K )−1 ,
158
die Homomorphiebedingungen (RH1) - (RH3) sind offensichtlich erfüllt. Da
Q ein Körper ist, ist es auch BK und damit
P (K) = BK ∼
=Q .
2
Folgerung 4.8.2 : Für einen beliebigen Körper K haben wir also den
Unterkörper P (K), und nach Folgerung 4.1.3 ist K ein P (K)−Vektorraum,
wir haben also
dimP (K) K ∈ N oder
dimP (K) K = ∞ .
Allgemein mit Körpererweiterungen beschäftigt man sich in der Algebra. Hier
nur einige
Beispiele 4.8.3 :(1) Sei K ein endlicher Körper. Dann ist auch P (K)
endlich, also existieren eine Primzahl p mit P (K) ∼
= Z/(p) und ein n ∈ N
mit dimP (K) K = n. Man kann dann nachzählen:
#(K) = pn
.
Körper mit 6 Elementen braucht man also gar nicht erst zu suchen.
(2) Der Primkörper von R und C ist also Q. Es ist
dimQ R = ∞ .
√
Zum Beweis kann man zeigen, dass die Familie ( p)p∈P eine linear unabhängige Familie ist, oder auch: Q ist abzählbar, d.h. es gibt eine bijektive Abbildung von Z auf Q, aber für R gilt das nicht. Das gehört aber in die Analysis.
(3) Schreibt man die komplexen Zahlen z als a + i · b mit a, b ∈ R , so sind
a und b eindeutig bestimmt. Daher ist (1, i) eine Basis des R−Vektorraums
C,
dimR C = 2 .
⊂
⊂
Daraus sieht man, dass es keinen Körper K mit R 6= K 6= C gibt, weil es
keine Zahl n ∈ N mit 1 < n < 2 gibt.
(4) Für einen beliebigen Köper K und den Körper K(X) der rationalen
Funktionen mit Koeffizienten aus K gilt
dimK K(X) = ∞ .
⊂
⊂
⊂
⊂
(5) Es gibt beliebig viele Körper K mit Q 6= K 6= R oder Q 6= K 6= C.
Dazu gehören
159
√
√ Q( 2) :=
a + b · 2 a, b ∈ Q
,
√
√
Q( −3) :=
a + b · i · 3 a, b ∈ Q
, auch
Q(i) := { a + b · i | a, b ∈ Q } .
Mit solchen Körpern und Unterringen davon beschäftigt man sich in der
Zahlentheorie.
(6) Es gibt keinen Körper K mit
⊂
C 6= K
und
dimC K = n ∈ N .
Angenommen, es gibt doch so einen Körper K, dann haben wir ein a ∈ K \C.
Die Familie
(a0 , a1 , . . . , an )
ist dann eine linear abhängige Familie im C−Vektorraum K, da sie aus n + 1
Elementen besteht. Es gibt dann
α0 , . . . , αn ∈ C mit (α0 , . . . , αn ) 6= 0 und
n
X
α j aj = 0 ,
j=0
also ein Polynom
f (X) :=
n
X
αj · X j ∈ C[X] \ {0} mit f (a) = 0 .
j=0
Man hat dann k := deg f (X) , 0 ≤ k ≤ n, und nach dem Fundamentalsatz
der Algebra (3.5.13) :
∃ c, b1 , . . . , bk ∈ C : f (X) = c ·
k
Y
(X − bj ) .
j=1
Wegen f (a) = 0 folgt daraus
a ∈ {b1 , . . . , bk } ⊂ C ,
Widerspruch.
Sie sehen also, dass man Sätze und Methoden der Linearen Algebra in anderen Gebieten der Mathematik, insbesondere der Algebra und der Zahlentheorie, braucht !
4.9 Die Algebra der n × n-Matrizen, Quaternionen
Bemerkung 4.9.1 : Sei n ∈ N und K rin Körper. Nach Bemerkung 4.4.5
160
hat man eine Addition
+ : M (n×n, K)×M (n×n, K) −→ M (n×n, K) , ((akj ), (bkj )) 7→ (akj +bkj )
und eine äußere Operation ω,
ω : K × M (n × n, K) −→ M (n × n, K) ,
(λ, (akj )) 7→ (λ · akj ) ,
so dass (M (n × n, K), +, ω) ein K−Vektorraum ist. Nach Definition 4.4.9
haben wir in M (n × n, K) auch noch eine Multiplikation · , und damit ist
(M (n × n, K), +, ·) nach Satz 4.4.13 ein Ring. Die Regel
(L) ∀ λ ∈ K ∀ A, B ∈ M (n×n, K) : λ(A·B) = (λA)·B = A·(λB)
kann man nachrechnen. Man sagt: (M (n×n, K), +, ·, ω) ist eine K−Algebra:
Defnition 4.9.2 : Sei K ein Körper. A sei eine Menge mit zwei Verknüpfungen +, · und einer äußeren Operation ω von K auf A, so dass gilt
(R) (A, +, ·) ist ein Ring.
(V) (A, +, ω) ist ein K−Vektorraum.
(L) ∀ λ ∈ K ∀a, b ∈ A : λ(a · b) = (λa) · b = a · (λb) ,
dann heißt (A, +, ·, ω) (kurz: A) eine K−Algebra (Plural : K−Algébren).
2
Bemerkung 4.9.3 : Wir wollen die K−Algebra M (n × n, K) etwas genauer
untersuchen. Nach Bemerkung 4.4.3 ist die Familie (Ejk )(j,k)∈n×n , wobei Ejk
die Matrix ist, die am Schnittpunkt der j−ten Zeile mit der k−ten Spalte
die 1 aus K hat und sonst nur Nullen, eine Basis des K−Vektorraums
M (n × n, K). Für jedes A = (ajk ) ∈ M (n × n, K) gilt also
A
=
n
X
ajk Ejk
.
j,k=1
Die Matrizen-Multiplikation wird nun sehr einfach, wenn man die Regel 4.4.7
(1) für die Multiplikation der Basiselemente verwendet: Es war
Ejk · Ers
=
δkr
δkr Ejs für j, k, r, s ∈ n,
1 für k = r
=
.
0 für k 6= r
mit
Definition und Satz 4.9.4 : Sei (R, +, ·) ein Ring. Dann heißt
Z(R) := { a ∈ R | ∀ r ∈ R : a · r = r · a }
161
das Zentrum von R. Z(R) ist ein Unterring von R.
Beweis : Sei 1 das Einselement von R. Dann ist 1 ∈ Z(R), also Z(R) 6= ∅.
Für alle a, b ∈ Z(R) und alle r ∈ R gilt
(a − b) · r = a · r − b · r = r · a − r · b = r · (a − b) und
(a · b) · r = a · (b · r) = a · (r · b) = (a · r) · b = (r · a) · b = r · (a · b) ,
also a − b ∈ Z(R), a · b ∈ Z(R).
2
Wie sieht nun das Zentrum des Ringes M (n × n, K) aus? Es zeigt sich, dass
nur die Matrizen dazu gehören, von denen man das sowieso erwartet:
Satz 4.9.5 : Sei K ein Körper, n ∈ N. Dann ist
Z(M (n × n, K))
=
K En
:=
{ λEN | λ ∈ K }
.
Beweis : Für n = 1 ist das klar, da (M (1 × 1), ·) kommutativ ist und
M (1 × 1, K) = K E1 ist.
Sei nun n ≥ 2, und seien s, t ∈ n zwei Indizes mit s 6= t. Sei
A = (ajk )(j,k)∈n×n ∈ Z(M (n × n, K)). Wir haben nach 4.4.3 :
A
=
n X
n
X
ajk Ejk
.
j=1 k=1
Dann gilt
Est · A
Est ·
=
n X
n
X
A · Est
ajk Ejk
,
=
j=1 k=1
n X
n
X
ajk Est · Ejk
n X
n
X
ajk Ejk · Est
,
ajk Ejk · Est
,
j=1 k=1
=
j=1 k=1
n X
n
X
j=1 k=1
und nach der Multiplikationsregel in 4.4.7 :
n X
n
X
j=1 k=1
ajk δtj Esk
=
n X
n
X
j=1 k=1
162
ajk δks Ejt
.
Links enthält die Summe über j höchstens einen Summanden ungleich 0,
nämlich den mit j = t . Rechts enthält die Summe über k höchstens einen
Summanden ungleich 0, nämlich den mit k = s. Wir erhalten
n
X
atk Esk
=
ajs Ejt
,
j=1
k=1
n
X
(∗)
n
X
atk Esk −
n
X
ajs Ejt = 0 .
j=1
k=1
Nun ist die Familie (Ejk )(j,k)∈n×n linear unabhängig. Wir sehen daher aus der
Gleichung (∗):
(1.) Für k 6= t ist atk = 0, da Esk in der zweiten Summe nicht vorkommt,
ebenso: ajs = 0 für j 6= s. Jedenfalls ist A eine Matrix mit 0 außerhalb der
Diagonale.
(2.) Die Gleichung (∗) vereinfacht sich also zu
att Est
=
ass Est
,
A ist also eine Diagonalmatrix, bei der alle Diagonalelemente gleich sind,
etwa att =: λ ∈ K ,
A
=
λ En ∈ K En
,
also Z(M (n × n, K)) ⊂ K En
.
Dass K En ⊂ Z(M (n × n, K)) gilt, sieht man mit Regel (L) und der Tatsache En ∈ Z(M (n × n, K)).
2
In 3.1.8 haben wir gelernt, was das Ideal eines Ringes ist, hier haben wir den
Satz 4.9.6 : Sei K ein Körper, n ∈ N . Dann enthält (M (n × n, K), +, ·)
nur die Ideale {0} und M (n × n, K).
Beweis : Sei I ein Ideal in M (n × n, K). Es kann I = {0} sein. Anderenfalls
enthält I eine Matrix
A
=
n X
n
X
ajk Ejk
,
j=1 k=1
in der nicht alle ajk = 0 sind. Seien etwa s, t ∈ n mit ast 6= 0. Da I ein Ideal
ist, enthält I mit A auch
Ess · A
=
n X
n
X
j=1 k=1
ajk Ess · Ejk =
n X
n
X
j=1 k=1
163
ajk δsj Esk =
n
X
k=1
ask Esk
,
und I enthält auch
Ess · A · Ett =
n
X
ask Esk · Ett =
k=1
n
X
ask δkt Est = ast Est ,
k=1
und auch
((ast )−1 En ) · Ess · A · Ett = (ast )−1 · ast Est = Est
,
für dieses feste Paar (s, t). Sei nun aber j ∈ n beliebig, dann enthält I auch
(Ejs · Est ) · Etj = Ejt · Etj = Ejj
und damit auch
n
P
Ejj = En . Für eine beliebige Matrix B ∈ M (n × n, K)
j=1
enthält I dann auch B = B · En . Also ist I = M (n × n, K).
2
Satz und Definition 4.9.7 : In M (2 × 2, C) sei
u v
H :=
u, v ∈ C
−v u
,
wobei u das Konjugiert-Komplexe von u bezeichnet. Dann gilt:
a) H ist ein Unterring von (M (2 × 2, C), +, ·), mit Einselement E2 .
b) Wegen R ⊂ C ist ω(α, A) := α A für α ∈ R und A ∈ H definiert,
und H wird auf diese Weise ein R−Vektorraum. Eine Basis dieses
R−Vektorraums ist (E2 , I, J, K) mit
i 0
0 1
0 i
I :=
, J :=
, K :=
.
0 −i
−1 0
i 0
Für die Produkte gilt
I · J = −J · I = K , J · K = −K · J = I , K · I = −I · K = J ,
I · I = J · J = K · K = −E2
.
H ist eine R−Algebra.
c) Jedes Element aus H \ {0} besitzt bezüglich · ein Inverses.
164
d) Die Abbildung
ϕ : C −→ H ,
u 7→
u 0
0 u
ist ein injektiver Ringhomomorphismus. ϕ ist R−linear, aber nicht
C−linear.
(H, +, ·, ω) heißt die Algebra der ( Hamiltonschen )
Quaternionen .
Beweis : a) Es ist H ⊂ M (2 × 2, C),
0 0
H 6= ∅ wegen
∈ H . Seien
0 0
u v
x y
,
∈H ,
−v u
−y x
also u, v, x, y ∈ C. Dann gilt
u, v
x, y
u − x, v − y
−
=
−v, u
−y, x
−v + y, u − x
u − x,
v−y
=
∈H ,
−(v − y), u − x
u·y+v·x
x, y
u · x − v · y,
u, v
·
=
−v · x − u · y, −v · y + u · x
−y, x
−v, u
u · x − v · y,
u·y+v·x
=
∈H ,
−(u · y + v · x), (u · x − v · y)
1 0
1 0
∈H .
E2 =
=
0 1
−0 1
u v
b) Sei
∈ H , dann gibt es eindeutig bestimmte a, b, c, d ∈ R mit
−v u
u = a + ib , v = c + id , also
u v
a + ib c + id
=
= aE2 + bI + cJ + dK .
−v u
−c + id a − ib
Also ist (E2 , I, J, K) eine Basis von H als R−Vektorraum. Die Produkte der
Basiselemente rechnen wir hier nicht alle aus, vielleicht ein Beispiel:
i 0
0 1
I ·J =
·
= K = −J · I .
0 −i
−1 0
165
Dass H die Algebra-Bedingung (L) erfüllt, folgt daraus, dass M (2 × 2, C)
eine C−Algebra
ist. u v
0 0
c) Sei q :=
6=
, dann ist
−v u
0 0
N (q) := u · u − v · (−v) = u · u + v · v = |u|2 + |v|2 ∈ R∗+
.
Also ist
1
N (q)
u −v
v u
1
=
N (q)
u
−v
−(−v) u
∈H ,
wobei wir auch noch benutzt haben, dass H ein R−Vektorraum ist. Es gilt
1
1
u v
u · u + v · v −u · v + v · u
u −v
·
=
−v u
N (q) v u
N (q) −v · u + v · u v · v + u · u
1
N (q)
0
=
= E2
0
N (q)
N (q)
und ebenso
1
N (q)
u −v
v u
u v
·
= E2
−v u
.
Wir haben also
q
−1
1
=
N (q)
u −v
v u
u v
−v u
für q =
+
.
d) Schreiben wir zur Abkürzung · für + oder ·, so gilt für u, x ∈ C:
!
+
u · x
0
+
+
u 0 + x 0
ϕ(u · x) =
=
·
= ϕ(u) · ϕ(x) ,
+
0 x
0 u
0
u · x
und es gilt
ϕ(1) =
1 0
0 1
= E2
,
ϕ ist also ein Ring-Homomorphismus, und injektiv wegen
ker ϕ = { u ∈ C | ϕ(u) = 0 }
u 0
0
0
=
= {0} .
= u ∈ C
0 u
0 0
166
ϕ ist R− linear, denn für λ ∈ R , u ∈ C gilt
λu 0
λu 0
u 0
ϕ(λ u) =
=
= λ
= λ ϕ(u) .
0 λu
0 u
0 λu
Für λ ∈ C gilt das zweite Gleichheitszeichen im Allgemeinen nicht!
Bemerkung 4.9.8 : H erfüllt also alle Körperaxiome, bis auf die Kommutativität von · , was man an den Produkten der Basiselemente sieht. Man
nennt H deshalb auch einen Schiefkörper . Wegen (4.9.7) (d) kann man C
als Unterring von H auffassen. Aber H ist kein C−Vektorraum, und Körper
⊂
K mit C 6= K und dimC K ∈ N gibt es ja nach 4.8.3 (6) nicht !
(4.10) Aufgaben
(4.1) a) C ist ein R-Vektorraum mit dimR C = 2. Zeigen Sie, dass die Abbildung
: C −→ C , z 7→ z
R−linear ist. Bestimmen Sie MBB ( ) bezüglich der Basis
a1 ) B := (1, i) , a2 ) B := (1 + i, 1 − i).
auch C−linear?
b) Ist
(4.2) (Hier werden einfache Analysis-Kenntnisse vorausgesetzt:)
Im R−Vektorraum F(R, R) haben wir die Funktionen sin, cos, exp. Zeigen Sie, dass die Familie B := (sin, cos, exp) linear unabhängig ist. Sei
V := span(B) und D(f ) := f 0 für f ∈ V die erste Ableitung von f .
Zeigen Sie, dass durch D(f ) := f 0 eine lineare Abbildung von V nach V
definiert ist, und berechnen Sie B := MBB (D) . Besitzt B ein Inverses?
(4.3) Sei V ein K−Vektorraum und B = (bj )j∈I eine Basis von V .
Nach Definition 4.3.7 war V ∗ = HomK (V, K) der Dualraum von V .
Zeigen Sie:
1
für
j=k
a) Durch βj (bk ) := δjk , δjk :=
für j, k ∈ I
0
für
j 6= k
sind Elemente βj ∈ V ∗ definiert, und B∗ := (βj )j∈I ist in V ∗
linear unabhängig.
b) Ist n ∈ N und I = n , so ist B∗ sogar eine Basis von V ∗ .
B∗ heißt die zu B duale Basis von V ∗ .
c) Ist I nicht endlich, so wird durch β(bj ) := 1 für alle j ∈ I ein
Element aus V ∗ definiert, für das β ∈
/ span B∗ gilt.
167
(4.4) Sei V ein K−Vektorraum und V ∗ der Dualraum von V .
a) Zeigen Sie, dass
ϕ : V −→ (V ∗ )∗ ,
ϕ(a) := fa , wobei fa (β) := β(a) für a ∈ V , β ∈ V ∗
ist, ein Vektorraum-Homomorphismus von V in (V ∗ )∗ ist.
b) Sei dimK V ∈ N , dann ist ϕ sogar ein Isomorphismus. (Man kann
Aufgabe (4.3) b) verwenden.)
(4.5) Sei V ein K−Vektorraum, U und W seien Untervektorräume von
V . Nach Definition 4.7.4 ist
U +W
:=
{ u+w | u∈U ∧ w ∈W }
ein Untervektorraum von V , und nach Definition 4.7.1 ist
U ×W
:=
{ (u, w) | u ∈ U ∧ w ∈ W }
ein K−Vektorraum. Zeigen Sie :
a) F : U × W −→ U + W , F (u, w) := u + w
ist K−linear und surjektiv. Bestimmen Sie ker F .
b) Seien U und W endlichdimensional, dann gilt
dim(U + W ) + dim(U ∩ W )
=
dim U + dim W
.
(4.6) Seien a, b ∈ C und P (X) := X 2 − a · X − b ∈ C[X] . Zeigen Sie, dass
U
:=
{ (un )n∈N0 ∈ F(N0 , C) | ∀ n ∈ N0 : un+2 = a · un+1 + b · un }
ein Untervektorraum von F(N0 , C) ist, und dass gilt:
a) Hat P (X) zwei verschiedene Wurzeln λ, µ ∈ C ,so bilden die Folgen
(λn )n∈N0 und (µn )n∈N0 eine Basis von U .
b) Hat P (X) eine zweifache Nullstelle λ ∈ C , gilt also a2 + 4b = 0 ,
und ist b 6= 0 , so bilden die Folgen (λn )n∈N0 und (nλn )n∈N0
eine Basis von U .
c) Finden Sie eine Basis von U für den Fall a = b = 0 .
d) Geben Sie mit a) eine nicht-rekursive Formel zur Berechnung der
durch
F0 := 0 ,
F1 := 1 ,
Fn+2 := Fn+1 + Fn
definierten Fibonacci-Zahlen an.
168
für n ∈ N0
(4.7) Bestimmen Sie den Rang von
 1 i√
−2 3
0√
2
1

1
− 2i 3
2
0
1
1
2

1
0 √  ∈ M (3 × 3, C) .
− 2i 3
(4.8) Bestimmen Sie für n ∈ N die Lösungsmenge L ⊂ Rn des linearen
Gleichungssystems
n
X
1 für j = k
(1 − δjk )xj = 1 , k ∈ n , wobei δjk =
0 für j =
6 k
.
j=1
(4.9) Für welche λ ∈ R ist die Matrix

1 λ
 λ 1
A := 
 0 λ
0 0
0
0
1
λ

0
0 
 ∈ M (4 × 4, R)
0 
1
invertierbar? Berechnen Sie A−1 für diese λ .
(4.10) Eine Matrix A ∈ M (3 × 3, R) heißt ein magisches Quadrat, wenn
es ein c ∈ R gibt, so dass alle Zeilensummen, alle Spaltensummen und
alle Diagonalsummen gleich c sind. Zeigen Sie, dass die Menge V aller
magischen Quadrate ein Untervektorraum von M (3 × 3, R) ist, und
geben Sie eine Basis von V an.
(Tipp: Setzen Sie a := a12 , b := a21 und drücken Sie die anderen
Marixelemente durch a, b und c aus.)
(4.11) Konstruieren Sie einen Körper mit 4 Elementen.
(4.12) Im Körper Z/(5) sei a :=
Lösungsmenge L ⊂ (Z/(5) )4
für

1 3 1
 2 2 4
A := 
 4 1 0
0 2 3
a + (5) für a ∈ Z . Bestimmen Sie die
des linearen Gleichungssystems A · x = b

3
0 

2 
4

,

0
 1 

b := 
 2 
0
.
(4.13) Sei n ∈ N . Eine Matrix A ∈ M (n × n, K) heißt nilpotent, wenn es
ein m ∈ N mit Am = 0 gibt. Zeigen Sie:
169
a) A sei eine echte obere Dreiecksmatrix , d.h. A = (akj ) mit
akj = 0 für k ≥ j
,
dann ist A nilpotent.
b) A sei nilpotent. Dann ist En − A invertierbar.
(Tipp: Eine Idee liefert die geometrische Reihe aus der Analysis:
Für q ∈ R mit | q | < 1 gilt
−1
(1 − q)
=
∞
X
s=0
170
qs
. )
§5 Determinanten
5.1 Permutationen
(5.1.1) Zur Wiederholung : Schon in (2.2.10) hatten wir für n ∈ N die
symmetrische Gruppe Sn kennengelernt, das war die Menge aller bijektiven
Abbildungen von
n = {1, . . . , n}
auf sich selbst, mit der Hintereinanderausführung ◦ von Abbildungen als
Verknüpfung. Die Elemente von Sn hatten wir Permutationen von n genannt.
Behauptung (5.1.2) : #(Sn ) = n! ,
wobei n! für n ∈ N0 rekursiv definiert ist durch
0! := 1 ,
(n + 1)! := n! · (n + 1) .
Beweis : Wir zeigen mit Induktion nach n die folgende, scheinbar allgemeinere Aussage:
(P (n)) : Seien S, T Mengen mit #(S) = #(T ) = n , n ∈ N , dann
gibt es genau n! bijektive Abbildungen von S auf T .
Induktionsanfang: Für n = 1 hat man je genau ein Element a ∈ S, b ∈ T , es
gibt genau eine bijektive Abbildung von S auf T , nämlich die Abbildung mit
a 7→ b. Wegen 1 = 1! ist P (1) richtig.
Induktionsschluss : Sei n ∈ N . Sei nun #(S) = n + 1 und #(T ) = n + 1,
dann hat man ein a ∈ S und S 0 := S \ {a}, so dass
S = S 0 ∪ {a} und #(S 0 ) = n
ist, und es ist
T = {b1 , . . . , bn+1 }
mit n + 1 verschiedenen Elementen b1 , . . . , bn+1 . Für j ∈ n + 1 setzen wir
Mj := { f : S −→ T | f ist bijektiv und f (a) = bj } .
Wenn nun P (n) richtig ist, hat Mj genau n! Elemente, nämlich so viele, wie
es bijektive Abbildungen von S 0 auf T \ {bj } gibt. Und
{ f : S −→ T | f ist bijektiv }
=
n+1
[
Mj
,
j=1
wobei rechts die Vereinigung elementfremder Mengen steht. Also ist
#( { f : S −→ T | f ist bijektiv } )
171
=
(n+1)·n!
=
(n+1)! ,
was zu beweisen war. Für S = T = n erhalten wir die Behauptung.
2
Definition 5.1.3 : Sei n ∈ N , τ ∈ Sn und es gebe j, k ∈ n , j 6= k , mit
τ = (j, k) ,
dann heißt τ eine Transposition .
Man sieht, dass für Transpositionen τ gilt
τ = τ −1 .
Satz 5.1.4 : Sei n ∈ N , dann ist jedes σ ∈ Sn ein Produkt von endlich
vielen Zyklen.
Beweis : Für jedes σ ∈ Sn setzen wir
B(σ)
{ j ∈ n | σ(j) 6= j }
:=
.
Wir beweisen die Behauptung durch Induktion nach #(B(σ)) :
Induktionsanfang : Ist #(B(σ)) = 0 , so ist σ = idn = (1) .
Induktionsschluss : Sei k ∈ N0 , und für die ϕ ∈ Sn mit
#(B(ϕ)) ≤ k
sei die Behauptung richtig. Sei σ ∈ Sn mit
#(B(σ)) = k + 1 , also
B(σ)
{a1 , . . . , ak+1 } ⊂ n ,
=
dann ist σ(ak+1 ) gleich einem der aj mit j 6= k + 1 und
τ
:=
(τ ◦ σ)(ak+1 )
(aj , ak+1 ) ∈ Sn
=
τ (aj )
=
. Es gilt
ak+1
,
also
B(τ ◦ σ) ⊂ {a1 , . . . , ak } ,
denn für die l ∈ n \ {a1 , . . . , ak+1 } gilt
(τ ◦ σ)(l)
=
τ (l)
=
l
,
sie werden weder von τ noch von σ verändert. Also ist
#(B(τ ◦ σ)) ≤ k
und daher τ ◦ σ ein Produkt endlich vieler Zyklen: Es gibt Zyklen
ψ1 , . . . , ψm ∈ Sn mit
τ ◦σ
=
ψ1 ◦ . . . ◦ ψm
,
172
und wegen τ = τ −1 :
2
σ
τ ◦ ψ1 ◦ . . . ◦ ψm
=
.
Da auch τ ein Zyklus ist, gilt die Behauptung auch für σ .
Definition 5.1.5 : Für jedes σ ∈ Sn nennen wir
sign σ
Y
:=
(k,j)∈n×n
mit k<j
2
σ(j) − σ(k)
j−k
das Signum von σ .
Folgerung 5.1.6 : Es ist sign σ ∈ {−1, 1} , und zwar
sign σ
=
+1 ,
wenn die Anzahl der Fehlstände von σ , worunter man die Paare
(k, j) ∈ n × n mit k < j
,
aber σ(k) > σ(j)
versteht, gerade ist, und
sign σ = −1 ,
,
wenn die Anzahl der Fehlstände von σ ungerade ist.
Beweis : In dem Bruch
Y
(k,j)∈n×n
mit k<j
σ(j) − σ(k)
j−k
treten im Nenner für alle zweielementigen Teilmengen {k, j} von n die Differenzen auf, genau einmal und mit positivem Vorzeichen. Da σ bijektiv ist,
sind auch die Mengen {σ(k), σ(j)} mit (k, j) ∈ n × n und k < j alle zweielementigen Teilmengen von n . Also treten auch im Zähler alle Differenzen
j − k auf, aber mit negativem Vorzeichen, wenn σ(j) < σ(k) ist. Bis auf
diese Vorzeichen kürzt sich alles weg, und es bleiben so viele Faktoren (−1)
übrig, wie σ Fehlstände hat.
2
Beispiele 5.1.7: In S3 gilt
(1 − 2)(3 − 2)(3 − 1)
a) sign (1, 2) =
= −1 ,
(2 − 1)(3 − 1)(3 − 2)
(1 − 3)(2 − 3)(2 − 1)
b) sign (1, 3, 2) =
= 1 .
(2 − 1)(3 − 1)(3 − 2)
173
Satz 5.1.8 : Für σ, τ ∈ Sn gilt
sign (τ ◦ σ)
Beweis : Es gilt
=
sign (τ ◦ σ) =
sign τ · sign σ
Y
(k,j)∈n×n
mit k<j
a :=
Y
(k,j)∈n×n
mit k<j
.
τ (σ(j)) − τ (σ(k))
= a · b mit
j−k
τ (σ(j)) − τ (σ(k))
σ(j) − σ(k)
,
Y
b :=
(k,j)∈n×n
mit k<j
σ(j) − σ(k)
j−k
.
Es ist b = sign σ , und
a =
Y
(k,j)∈n×n
mit k<j∧σ(k)<σ(j)
=
Y
(k,j)∈n×n
mit k<j∧σ(k)<σ(j)
τ (σ(j)) − τ (σ(k))
·
σ(j) − σ(k)
τ (σ(j)) − τ (σ(k))
·
σ(j) − σ(k)
Y
(k,j)∈n×n
mit k<j∧σ(k)>σ(j)
Y
(k,j)∈n×n
mit k>j∧σ(k)<σ(j)
τ (σ(j)) − τ (σ(k))
σ(j) − σ(k)
τ (σ(j)) − τ (σ(k))
,
σ(j) − σ(k)
hier haben wir im zweiten Produkt zuerst die Variablen umbenannt ( j in k
und k in j) , und dann mit −1 erweitert. Also ist
a
=
Y
(k,j)∈n×n
mit σ(k)<σ(j)
τ (σ(j)) − τ (σ(k))
σ(j) − σ(k)
,
denn mit k < j und k > j erhält man (wegen σ(k) < σ(j) , also k 6= j )
alle Paare (k, j) ∈ n × n mit σ(k) < σ(j) . Da σ bijektiv ist, enthält a bis
auf die Reihenfolge dieselben Faktoren wie
Y
(k,j)∈n×n
mit k<j
also a = sign τ
τ (j) − τ (k)
j−k
,
.
2
Korollar 5.1.9 : Für alle σ ∈ Sn gilt sign σ −1 = sign σ
Beweis : Es ist σ ◦ σ −1 = idn , also nach 5.1.8 :
sign σ · sign σ −1
=
5.1.6
sign idn = 1 ,
174
.
also sign σ −1 =
1
, und wegen sign σ ∈ {1, −1} ist das gleich sign σ
sign σ
.
2
Korollar 5.1.10 : Sei n ∈ N , n ≥ 2 und τ ∈ Sn eine Transposition. Dann
ist
sign τ = −1 .
Beweis : Nach Definition 5.1.3 gibt es k, l ∈ n mit k 6= l und
τ
=
(k, l) .
=
(1, 2) und
a) Ist {k, l} = {1, 2} , so ist
τ
sign τ =
=
n
n
n
2
Y
Y
Y
Y
τ (j) − τ (k)
τ (j) − τ (k)
=
j−k
j−k
k=1 j=k+1
k=1 j=k+1
n
n
n
n
Y
τ (j) − 2 Y τ (j) − 1
1−2 Y j−2 Y j−1
·
=
·
·
= −1 .
j
−
1
j
−
2
2
−
1
j
−
1
j
−
2
j=2
j=3
j=3
j=3
Haben {k, l} und {1, 2} genau ein Element gemeinsam, etwa k = 2 , so gilt
(l, 1) ◦ (1, 2) ◦ (l, 1)
=
(l, 2)
=
(2, l)
=
(k, l)
=
τ
,
also
sign τ = sign (l, 1) · sign (1, 2) · sign (l, 1) = (−1) · (sign (l, 1))2 = −1 .
c) Ist {k, l} ∩ {1, 2} = ∅ , so gilt
(k, 1) ◦ (l, 2) ◦ (1, 2) ◦ (k, 1) ◦ (l, 2)
=
(k, l)
=
τ
,
also
sign τ = sign (1, 2) · (sign (k, 1))2 · (sign (l, 2))2 = sign (1, 2) = −1 .
2
Hilfssatz 5.1.11 : Ist n ∈ N, n ≥ 2 , so gibt es zu jedem σ ∈ Sn
Transpositionen τ1 , . . . , τq ∈ Sn mit
σ
=
τ1 ◦ . . . ◦ τq
,
also nach Satz 5.1.8 und Korollar 5.1.10 :
(∗) sign σ
=
(−1)q
.
Weder q noch die Transpositionen τ1 , . . . , τq sind eindeutig bestimmt.
Wegen (∗) ist durch σ aber festgelegt, ob q gerade oder ungerade ist.
175
Beweis : Nach Satz 5.1.4 wissen wir, dass σ ein Produkt von endlich vielen
Zyklen ist. Wir müssen also nur zeigen, dass jeder Zyklus
(a1 , . . . , aq ) mit verschiedenen Elementen a1 , . . . , aq ∈ n
ein Produkt von Transpositionen ist: Man rechnet nach:
(a1 , aq ) ◦ (a1 , aq−1 ) ◦ . . . ◦ (a1 , a2 )
=
(a1 , . . . , aq ) .
Dass q nicht eindeutig bestimmt ist, sieht man an
idn
=
(1, 2) ◦ (1, 2) ,
hier kann man also q = 0 oder q = 2 nehmen.
2
Definition und Satz 5.1.12 : Sei n ∈ N , n ≥ 2 , dann setzen wir
An
:=
{ σ ∈ Sn | sign σ = 1 }
.
(An , ◦) ist eine Untergruppe von (Sn , ◦) und heißt die
alternierende Gruppe vom Grad n .
n!
An enthält
Elemente.
2
Beweis : 1) Nach Definition ist An ⊂ Sn , und es ist An 6= ∅ wegen idn ∈ An .
Seien σ, τ ∈ An , dann gilt σ ◦ τ −1 ∈ Sn und
sign (σ ◦ τ −1 ) = sign σ · sign τ −1 = 1 · 1 = 1 ,
denn wegen τ ◦ τ −1 = idn ist auch sign τ −1 = 1. Also ist σ ◦ τ −1 ∈ An . Also
ist An eine Untergruppe von (Sn , ◦).
2) Nach dem Satz von Lagrange (2.2.5) haben wir
#(Sn ) = [Sn : An ] · #(An ) ,
wobei [Sn : An ] die Anzahl der Linksnebenklassen von Sn bezüglich An ist.
Außer An selbst gibt es nur noch die Linksnebenklasse (1, 2) ◦ An , die aus
allen Permutationen aus Sn mit Signum −1 besteht. Also ist [Sn : An ] = 2
1
n!
und damit
#(An ) =
#( Sn ) =
.
2
2
2
5.2 Definition der Determinante
Definition 5.2.1 : Sei n ∈ N und R ein kommutativer Ring. Eine Abbildung
176
det : M (n × n, R) −→ R , A 7−→ det A
heißt (eine) Determinante, falls gilt :
(D1) det ist R -linear als Funktion jedes Zeilenvektors. Das soll heißen: Ist
j ∈ n fest und gilt für den j−ten Zeilenvektor von A :
(a) aj = a0j + a00j , so gilt




a1
a1


 .. 
 .. 
a1
. 

 . 
 .. 




 . 
 aj−1 
 aj−1 






det  aj  = det  a0j  + det  a00j  ,
 . 




 aj+1 
 aj+1 
 .. 
 . 
 . 
 .. 
 .. 
an
an
an
(b) aj = λa0j mit λ ∈ R , so gilt

a1
 .. 
 . 


 aj−1 
 0 
λ det  aj 


 aj+1 
 . 
 .. 
an



a1
 .. 
 . 


det  aj 
 . 
 .. 
an
=
.
(D2) det ist alternierend, das soll heißen: Gilt
aj = ak für zwei Zeilenvektoren aj , ak mit k 6= j , so ist
det A = 0 .


e1


(D3) det ist normiert , d.h. det En = det  ...  = 1 .
en
(5.2.2) Motivation dafür, warum man eine Funktion mit diesen Eigenschaften sucht: Hat man n Vektoren a1 , . . . , an im Rn , so soll das Volumen des
von a1 , . . . , an aufgespannten Parallelotops
( n
)
X
P (a1 , . . . , an ) :=
αj aj ∀ j ∈ n : 0 ≤ αj ≤ 1
j=1
gerade die Eigenschaften (D1) - (D3) haben. Für n = 3 nennt man ein
Parallelotop auch einen Spat, und für n = 2 ein Parallelogramm.
177
Die Eigenschaften (D1) - (D3) sind dann folgende Eigenschaften, die man
von einem Flächeninhalt erwartet:
(D1)(a) Hat man zwei Parallelogramme P 0 und P 00 mit den Seiten
a01 und a2 bzw. a001 und a2
mit den Flächeninhalten F 0 bzw. F 00 , so hat das Parallelogramm mit
den Seiten a01 + a001 und a2 den Flächeninhalt F 0 + F 00 ,
(b) Hat das Parallelogramm mit den Seiten a1 und a2 den Flächeninhalt
F und ist λ ∈ R , so hat das Parallelogramm mit den Seiten λa1 und
a2 den Flächeninhalt λF .
(D2) Ein Parallelogramm mit den Seiten a1 und a1 hat den Flächeninhalt
0.
(D3) Das Parallelogramm mit den kanonischen Basisvektoren e1 und e2 als
Seiten hat den Flächeninhalt 1 .
2
Bevor wir zeigen, dass es genau eine Abbildung det mit den Eigenschaften
(D1) - (D3) gibt, wollen wir aus diesen Eigenschaften einige Folgerungen
ziehen:
Satz 5.2.3 : Sei R ein kommutativer Ring, n ∈ N . Eine Determinante
det : M (n × n, R) −→ R
hat die folgenden weiteren Eigenschaften:
(D4) Für alle λ ∈ R ist det(λA) = λn det A .
(D5) Ist eine Zeile von A der Nullvektor, so ist det A = 0 .
(D6) Entsteht B aus A durch eine Zeilenvertauschung, so gilt
det B = − det A .
(Daher kommt der Name “alternierend” !)
Also: Eine elementare Zeilenumformung vom Typ IV ändert an det A
das Vorzeichen.
(D7) Ist λ ∈ R , und entsteht B aus A durch Addition des λ−fachen der
j−ten Zeile zur k−ten Zeile, k 6= j , so ist
178
det B = det A .
Also: Eine elementare Zeilenumformung vom Typ III ändert nichts an
det A .
Beweis : (D4) Nach (D1)(b) , n mal angewendet, gilt


λa1


det(λA) = det  ...  = λn det A .
λan
(D5) Ist j ∈ n und aj = 0 , so gilt aj = 0 · aj , also nach (D1)(b) :
det A = 0 · det A = 0 .
(D6) B entstehe aus A durch Vertauschen der Zeilen ak und aj . Schreiben
wir uns in A und B die unveränderten Zeilen al , l ∈
/ {k, j} , gar nicht erst
hin, so gilt




..
..
.
.




 ak 
 aj 
 . 
 .  (D2)



det A + det B = det 
 ..  + det  ..  =
 a 
 a 
 j 
 k 
..
..
.
.

..
.
aj
..
.


..
.
aj
..
.














 + det



det 
+
det



 a 
 a 
 j 
 k 
..
..
.
.




..
..
.
.




 aj

 ak





.
.
 + det 

.
.
det 
.
.




 a +a 
 a +a 
k 
k 
 j
 j
..
..
.
.
..
.
ak
..
.








 + det


 a 
 j 
..
.




(D1)(a)
=
det 



also det B = − det A .
179

..
.
ak
..
.






 (D1)(a)


=


 a 
 k 
..
.

..
.

aj + ak 
 (D2)
..
 = 0 ,
.

aj + ak 

..
.
(D7) Mit derselben Schreibweise wie eben gilt


..
.


 ak + λaj 

 (D1)(a)
..

det B = det 
=
det
.




aj


..
.

..
.
aj
..
.



(D1)(b)
=
det A + λ det 

 a
 j
..
.

..
.
ak
..
.





 a
 j
..
.
..
.
λaj
..
.





 + det








 a
 j
..
.











 (D2)
 = det A + 0 .



2
Eine Verallgemeinerung von (D6) ist
Korollar 5.2.4 : Sei R ein kommutativer Ring, n ∈ N , b1 , . . . , bn seien
(Zeilen-)Vektoren aus Rn und σ ∈ Sn . Dann gilt




b1
bσ(1)




det  ...  = sign σ · det  ...  .
bσ(n)
bn
Beweis : Nach Hilfssatz 5.1.11 gibt es Transpositionen τ1 , . . . , τq ∈ Sn mit
σ
=
τ1 ◦ . . . ◦ τq
,
und es ist sign σ = (−1)q
.
Wir zeigen nun

(∗)

b(τ1 ◦...◦τq )(1)


..
det 

.
b(τ1 ◦...◦τq )(n)

=

b1


(−1)q det  ... 
bn
durch Induktion nach q :
Induktionsanfang: Für q = 0 ist (∗) trivial wegen τ1 ◦ . . . ◦ τq = idn .
Induktionsschluss : Sei q ∈ N und für q − 1 sei (∗) richtig. τq ist eine
Transposition, etwa τq = (k, j) mit k, j ∈ n und k 6= j . Dann ensteht die
Matrix




b(τ1 ◦...◦τq )(1)
b(τ1 ◦...◦τq−1 )(1)




..
..
0
A = 
 aus A := 

.
.
b(τ1 ◦...◦τq )(n)
b(τ1 ◦...◦τq−1 )(n)
180
durch Vertauschung der k-ten mit der j-ten Zeile, also durch eine Vertauschung, also nach (D6) :




b1
b1
(∗∗)




det A = − det A0 = −(−1)q−1 det  ...  = (−1)q det  ...  ,
bn
bn
wobei wir bei (∗∗) die Induktionsvoraussetzung benutzt haben.
2
Satz 5.2.5 : Ist n ∈ N und R ein kommutativer Ring, so gibt es genau eine
Funktion
det : M (n × n, R) −→ R
mit den Eigenschaften (D1) - (D3) , und zwar die für
A = (akj ) ∈ M (n × n, R) durch
X
sign σ · a1σ(1) · . . . · anσ(n)
(∗) det A :=
σ∈Sn
definierte Funktion.
Bemerkung 5.2.6 : (∗) heißt die Leibniz-Formel für det . Zur Berechnung von det ist sie − außer für n ∈ {1, 2} − unpraktisch, da man die
Summe über n! Summanden zu bilden hat. Zur Berechnung von det verwendet man besser die Eigenschaften (D1)-(D7) und weitere Sätze, die folgen.
Beweis von Satz 5.2.5 : (1) Wir zeigen, dass aus (D1) - (D3) die Regel
(∗) folgt, dass es also für det A nur eine Möglichkeit gibt, also die Eindeutigkeit von det : Für l ∈ N seien die al die Zeilenvektoren von A , dann
gilt
al = al1 e1 + . . . + aln en ,
wobei e1 , . . . , en die (als Zeilen geschriebenen) kanonischen Basisvektoren
von K n sind, und wir wenden (D1) nacheinander für alle Zeilen an :
 n



P


a
e
e
1k
k
1
1
k
1
 k =1

a1
n
 1

 a2 
X
 .. 




a2
det  .  = det 
a1k1 det  .. 
 =


 . 
..
k1 =1


.
an
an
an
181

=
n
X
a1k1 ·
k1 =1
n
X
k2 =1



a2k2 det 


ek1
ek2
a3
..
.







=
...
an
=
n
X
n
X
...
k1 =1 k2 =1
n
X

a1k1 a2k2 · . . . · ankn
kn =1

ek1


det  ... 
ekn
.
Hier wird also summiert über alle n−tupel
(k1 , . . . , kn ) ∈ nn ,
also über nn Summanden. Ist in einem solchen n−tupel aber
kj = kl für ein Paar (j, l) ∈ n × n mit j 6= l ,
so ist nach (D2)


ek1
 .. 
 . 


 ekj 
 . 

det 
 ..  = 0 .
 e 
 kl 
 . 
 .. 
ekn
Wir müssen also nur summieren über die n−tupel (k1 , . . . , kn ) , für die die
Abbildung
σ : n −→ n , σ(j) := kj
injektiv ist, also, da n endlich ist, bijektiv ist. Also ist




a1
e
σ(1)
X




det  ...  =
a1σ(1) · . . . · anσ(n) · det  ...  ,
σ∈Sn
eσ(n)
an
und nach Korollar 5.2.4 :

det A
=
X
a1σ(1) · . . . · anσ(n)
σ∈Sn

e1


· sign σ · det  ... 
en
,
und aus (D3) folgt (∗) .
Um die Existenz einer Funktion det mit den Eigenschaften (D1) - (D3) zu
182
zeigen, definieren wir det A durch die Leibniz-Formel (∗) und zeigen, dass
das so definierte det A die Eigenschaften (D1) - (D3) hat:
(D1)(a) Ersetzt man in A die Zeile aj durch a0j + a00j , so erhält man aus
(∗)


..
.
X


sign σ · a1σ(1) · . . . · (a0jσ(j) + a00jσ(j) ) · . . . · anσ(n)
det  a0j + a00j  =
..
σ∈Sn
.
X
=
sign σ · a1σ(1) · . . . · a0jσ(j) · . . . · anσ(n)
σ∈Sn
X
+
sign σ · a1σ(1) · . . . · a00jσ(j) · . . . · anσ(n)
σ∈Sn




a1
a1
 .. 
 .. 
 . 
 . 




det  a0j  + det  a00j 
 . 
 . 
 .. 
 .. 
an
an
=
(b) Ersetzt man
 .
..

det  λaj
..
.
,
aj durch λaj , λ ∈ R , so wird

X

sign σ · a1σ(1) · . . . · λajσ(j) · . . . · anσ(n)
 =
σ∈Sn
=
λ
X
sign σ a1σ(1) · . . . · ajσ(j) · . . . · anσ(n)
σ∈Sn
=
 . 
..


λ det  aj 
..
.
.
(D2) Sei A eine Matrix, in der die k−te und die l−te Zeile gleich sind, etwa
k < l . Sei τ die Transposition (k, l) , dann ist
Sn = An ∪ An ◦ τ und An ∩ An ◦ τ = ∅ .
Für σ ∈ An ist sign σ = 1 . Wenn σ die Gruppe An durchläuft, durchläuft
σ ◦ τ die Menge An ◦ τ , und es ist sign (σ ◦ τ ) = −1 . Also ist
X
X
(∗∗) det A =
a1σ(1) · . . . · anσ(n) −
a1σ(τ (1)) · . . . · anσ(τ (n)) .
σ∈An
σ∈An
183
Die k−te und die l−te Zeile sind gleich, also gilt wegen τ = (k, l) :
a1σ(τ (1))
·
a1σ(1)
a1σ(1)
a1σ(1)
·
·
···
. . . · akσ(τ (k)) · . . . · alσ(τ (l)) · . . . · anσ(τ (n)) =
... ·
... ·
... ·
· ... ·
· ... ·
· ... ·
akσ(l)
alσ(l)
akσ(k)
alσ(k)
akσ(k)
alσ(l)
· ... ·
· ... ·
· ... ·
anσ(n)
anσ(n)
anσ(n)
↓
=
=
,
im letzten Schritt haben wir die Kommutativität von (K, ·) benutzt. In (∗∗)
heben sich also immer zwei Summanden gegenseitig auf, es ist
det A = 0 .
1 für k = j
(D3) Es ist En = (δkj ) mit δkj =
also nach (∗) :
0 für k 6= j
X
det En =
sign σ · δ1σ(1) · . . . · δnσ(n) .
σ∈Sn
Ist nun σ 6= idn , so steht im Produkt δ1σ(1) · . . . · δnσ(n) ein Faktor δjσ(j)
mit σ(j) 6= j , also 0 . Also ist
det En
sign idn · δ11 · . . . · δnn
=
=
1 .
2
Korollar 5.2.7 : Sei n ∈ N , R ein kommutativer Ring und
A ∈ M (n × n, R) . Dann gilt
det t A
=
det A .
Beweis : Für A = (akj ) ist t A = (a0kj ) mit a0kj = ajk , also nach der
Leibniz-Formel:
X
det t A =
sign σ · a01σ(1) · . . . · a0nσ(n)
σ∈Sn
X
=
sign σ · aσ(1)1 · . . . · aσ(n)n
σ∈Sn
Da (R, ·) kommutativ ist, gilt für b1 , . . . , bn ∈ R :
n
Y
bj
j=1
det t A
=
=
n
Y
bσ−1 (j)
,
also folgt
j=1
X
sign σ · aσ(σ−1 (1)),σ−1 (1) · . . . · aσ(σ−1 (n)),σ−1 (n)
σ∈Sn
184
und wegen sign σ = sign σ −1 :
X
det t A =
sign σ −1 · a1,σ−1 (1) · . . . · an,σ−1 (n)
σ∈Sn
Da die Abbildung Sn −→ Sn , σ 7−→ σ −1 bijektiv ist, können wir den
“Summationsindex” σ −1 durch σ ersetzen :
X
det t A =
sign σ · a1σ(1) · . . . · anσ(n)
σ −1 ∈Sn
=
X
sign σ · a1σ(1) · . . . · anσ(n)
=
det A .
2
σ∈Sn
Korollar 5.2.8 : Die Aussagen (D1) - (D7) für die Determinante bleiben
richtig, wenn man überall “Zeile” durch “Spalte” ersetzt.
5.3 Der Laplacesche Entwicklungssatz
Definition 5.3.1 : Sei n ∈ N und R ein kommutativer Ring,
A ∈ M (n × n, R) und seien j, k ∈ n fest. Dann bezeichnen wir mit A0jk
die Matrix, die aus A durch Streichen der j−ten Zeile und k−ten Spalte
entsteht, also


a11 . . . a1,k−1
|
a1,k+1 . . . a1n
..
..
.. 
 ..
.
|
.
. 
 .


 aj−1,1 . . . aj−1,k−1 | aj−1,k+1 . . . aj−1,n 


−
−
+
−
−
−  ∈ M ((n−1)×(n−1), K) .
A0jk :=  −


 aj+1,1 . . . aj+1,k−1 | aj+1,k+1 . . . aj+1,n 
 .
..
..
.. 
 ..
.
|
.
. 
an1 . . . an,k−1
| an,k+1 . . . ann
Hilfssatz 5.3.2 : Sei n ∈ N , R ein kommutativer Ring. Seien j, k ∈ n fest,
und die Matrix A ∈ M (n × n, R) habe als j−ten Zeilenvektor den Vektor
ek = (δkl )l∈n , es sei also


a11 . . . a1k . . . a1n
..
.. 
 ..
.
. 
 .


 aj−1,1 . . . aj−1,k . . . aj−1,n 


...
1
...
0  .
A =  0


 aj+1,1 . . . aj+1,k . . . aj+1,n 
 .
..
.. 
 ..
.
. 
an1 . . . ank . . . ann
185
Dann gilt
det A
=
(−1)j+k det A0jk
.
Beweis : 1) Im Spezialfall j = k = n hat man

a11 . . . a1,n−1
a1n

..
..
..

.
.
.
A = 
 an−1,1 . . . an−1,n−1 an−1,n
0
...
0
1





.
Nach der Leibniz - Formel ist
X
det A =
sign σ · a1σ(1) · . . . · anσ(n)
.
σ∈Sn
Ist nun σ ∈ Sn mit σ(n) =
6 n , so ist anσ(n) = 0 . Wir müssen also nur
über die σ ∈ Sn mit σ(n) = n summieren. Für diese ist
σ 0 : n − 1 −→ n − 1 ,
σ 0 (l) := σ(l)
ein Element aus Sn−1 , die Abbildung
0
: { σ ∈ Sn | σ(n) = n } −→ Sn−1
,
σ 7−→ σ 0
ist eine Bijektion, und es gilt noch sign σ 0 = sign σ . Also ist
X
det A =
sign σ 0 · a1σ0 (1) · . . . · an−1,σ0 (n−1) · 1
σ 0 ∈Sn−1
=
det A0nn
=
(−1)n+n det A0nn
,
in diesem Fall ist die Behauptung also richtig.
2) Seien nun j, k ∈ n beliebig. Durch n−j Zeilenvertauschungen in A bringen wir die Zeile ek nach unten, das gibt nach (D6) n−j Vorzeichenwechsel.
Nun bringen wir durch n − k Spaltenvertauschungen die unten stehende 1
nach hinten, das gibt nach (D6) und Korollar 5.2.8 n − k Vorzeichenwechsel.
Dann können wir 1) anwenden auf die Matrix


|
a1k
.. 

|
. 



| aj−1,k 



A0jk
|
− 



| aj+1,k  und erhalten insgesamt :


.. 

|
. 




|
a
nk 

 − − − +
− 
0 ... 0 |
1
186
det A
=
(−1)n−j · (−1)n−k det A0jk
2
(−1)j+k det A0jk .
=
Satz 5.3.3 (Laplacescher Entwicklungssatz) : Sei R ein
kommutativer Ring, n ∈ N , n ≥ 2 und A ∈ M (n × n, R) . Dann gilt für
feste j, k, l ∈ n :
n
X
(1)
asl · (−1)s+j det A0sj
δlj · det A ,
=
s=1
für l = j nennt man diese Formel die “Entwicklung von det A nach der
j−ten Spalte”, und
n
X
(2)
als · (−1)k+s det A0ks
δlk · det A ,
=
s=1
für l = k heißt das “Entwicklung von det A nach der k−ten Zeile ”.
Beweis : (2) Für die k−te Zeile ak von A gilt
ak =
n
X
aks es
mit den Zeilenvektoren
es = (0, . . . , 0, 1 0, . . . , 0) ,
s=1
↑
s−te Stelle
t
n
es ∈ K . Nach (D1) ist det linear als Funktion der k−ten Zeile, also



a1
a1
..


.

 ..


 .

 ak−1 

n
 P
 ak−1

X
 n a e 

(∗)
det A = det 
=
aks det  es
ks s 
 s=1


s=1
 a
 ak+1


 .

k+1


 ..
.
..


an
an
{z
|











}
= (−1) det A0ks
nach Hilfssatz 5.3.2. Für l = k haben wir damit (2) bewiesen. Für l 6= k
betrachten wir statt A die Matrix B , die aus A entsteht, wenn man die
k−te Zeile durch die l−te Zeile ersetzt. B hat dann zwei gleiche Zeilen, also
gilt nach (D2) :
det B = 0 .
k+s
Entwickeln wir nun B nach der k−ten Zeile, so erhalten wir nach (∗) :
0
=
n
X
als (−1)k+s det A0ks
s=1
187
;
wegen δlk = 0 also (2) in diesem Fall.
(1) folgt nach Kor. 5.2.7 durch Vertauschen von Zeilen und Spalten aus
(2).
2
Es mag merkwürdig erscheinen, den Laplaceschen Entwicklungssatz auch hinzuschreiben für l 6= j bzw. l 6= k . Man erhält damit aber sofort den
Satz 5.3.4 : Sei R ein kommutativer Ring, n ∈ N und A ∈ M (n × n, R) .
Sei det A ∈ R× , dann besitzt A die inverse Matrix
A−1 = (ckj )(k,j)∈n×n
mit ckj := (det A)−1 · (−1)k+j det A0jk
.
Beweis : Mit den so definierten ckj gilt nach den Formeln (1) und (2) im
Laplaceschen Entwicklungssatz für j, k, l ∈ n :
n
n
P
P
(1)
cjs asl = δjl , (2)
als csk = δlk , also
s=1
s=1
C ·A
also
C
=
A−1
=
En
A·C
,
=
En
,
.
2
(5.3.5) Bemerkungen : 1) Man beachte die Indexvertauschung:
ckj
=
(det A)−1 (−1)k+j det A0jk
.
2) Sei R ein Körper. Zur numerischen Berechnung von A−1 ist Satz 5.3.4 für
n ≥ 3 ungeeignet, da man n2 Determinanten ausrechnen muss. Das als Anwendung 4.6.13 angegebene Verfahren geht schneller. Aber für theoretische
Zwecke ist es gut, dass man überhaupt eine Formel zur Berechnung von A−1
hat.
3) Sei R ein kommutativer Ring. Für
a b
A =
∈ M (2×2, R) mit det A = ad−bc ∈ R× erhält man
c d
d −b
−1
−1
A
= (ad − bc)
.
−c a
2
Satz 5.3.6 (Determinanten-Multiplikationssatz) : Sei n ∈ N , R ein
kommutativer Ring und seien A, B ∈ M (n × n, R) . Dann gilt
det(A · B)
=
188
det A · det B
Beweis : Sei A = (alk )(l,k)∈n×n , B = (bkj )(k,j)∈n×n , dann ist
A·B
=
(clj ) mit clj
=
n
X
alk bkj ,
k=1
A · B hat also die Zeilenvektoren
cl
=
n
X
alk bk ,
k=1
wobei bk = (bk1 , . . . , bkn ) der k−te Zeilenvektor von B ist. Also gilt

 n
P


 k =1 a1k1 bk1 
c1

 1

 .. 

.
.
det(A · B) = det  .  = det 

.

 n
P


cn
ankn bkn
kn =1
(D1)
=
n
X
k1 =1
...
n
X

a1k1 · . . . · ankn
kn =1

bk 1


det  ... 
bkn
.
Wir summieren also über alle n−tupel k := (k1 , . . . , kn ) ∈ nn :


b
k
1
X


det(A · B) =
a1k1 · . . . · ankn det  ...  .
k∈nn
bkn
Da det alternierend ist , also wegen (D2) , ist


bk 1


det  ...  = 0 , falls es r, s ∈ n mit r 6= s und kr = ks gibt,
bk n
wir müssen also nur über die n−tupel summieren, für die
σ : n −→ n ,
det(A · B)
=
σ(r) := kr
bijektiv ist :


b
σ(1)
X


a1σ(1) · . . . · anσ(n) · det  ... 
σ∈Sn
bσ(n)
189
,
also nach Korollar 5.2.4 :

det(A · B)
=

b
1
X


a1σ(1) · . . . · anσ(n) · sign (σ) · det  ... 
σ∈S
bn
| n
{z
} |
{z
}
det A
det B
wobei wir hier für det A die Leibniz-Formel verwendet haben.
,
2
Folgerung 5.3.7 : Sei n ∈ N , R ein kommutativer Ring. Eine Matrix
A ∈ M (n × n, R) ist genau dann invertierbar, wenn det A ∈ R× ist, also
det A invertierbar in R.
Beweis : 1) Sei det A ∈ R× , dann existiert
A−1 = (det A)−1 (−1)k+j det A0jk (k,j)∈n×n
nach Satz 5.3.4.
2) Ist A invertierbar, so existiert A−1 ∈ M (n × n, R) mit
A · A−1 = En , also nach Satz 5.3.6 :
(D3)
det A · det A−1 = det En = 1 , also det A ∈ R×
.
2
Satz 5.3.8 : Sei n ∈ N , R ein kommutativer Ring. Die Determinante
det : M (n × n, R) −→ R
hat noch die Eigenschaften:
(D8) Ist A eine obere Dreiecksmatrix, also


λ1
∗


...
A = 
 mit λ1 , . . . , λn ∈ R
0
λn
und irgendwelchen Elementen aus R bei ∗,
so ist det A = λ1 · . . . · λn .
(D9) Sei A ∈ M (n × n, R) , n ≥ 2 , von der Form


B | C
A =  − + −  , wobei B und D quadratisch sind, so gilt
0 | D
190
det A
=
det B · det D
.
Beweis : (D9) Sei B ∈ M (r × r, R) , D ∈ M ((n − r) × (n − r), R) ,
mit 1 ≤ r < n , dann haben wir



 

B | C
Er | C
B |
0
A =  − + −  =  − + − · − + − 
0 | D
0 | D
0 | En−r
,
wie man mit der Definition des Matrizenprodukts nachrechnet, also mit




Er | C
B |
0
D0 :=  − + −  , B 0 :=  − + −  :
0 | D
0 | En−r
det A
=
det D0 · det B 0
nach dem Determinanten-Multiplikationssatz 5.3.6 . Entwickelt man
det D0 nacheinander nach der 1. bis r−ten Spalte und
det B 0 nacheinander nach der n−ten bis (r + 1)−ten Spalte,
so erhält man:
det D0
=
det D
,
det B 0
=
det B
,
also die Beh.
(D8) folgt aus (D9) durch Induktion nach n : Für n = 1 gilt
det A
=
det(λ1 )
=
λ1
nach der Leibniz-Formel,
und wenn (D8) für n − 1 ∈ N richtig ist , folgt nach (D9) :


λ1
∗
|




..
λ
∗
1


.
| ∗ 



..
det  0
 = det 
 · det(λn )
.
λ
|
n−1


 − −

0
λn−1
− + −
0
| λn
=
λ1 · . . . · λn−1 · λn
.
2
5.4 Determinante eines Endomorphismus
Definition 5.4.1 : Sei V ein K−Vektorraum mit dimK V = n ,
n ∈ N , K ein Körper, und
F ∈ EndK V = HomK (V, V ) ,
191
also nach Definition 4.3.8 : F ein Endomorphismus von V . Sei A eine Basis
von V , dann ist
A
MAA (F ) ∈ M (n × n, K)
:=
nach Formel (4.4.12) definiert. Bezüglich einer anderen Basis B von V
haben wir
B := MBB (F ) ∈ M (n × n, K) ,
und nach der Formel (4.4.17) für die Koordinatentransformation haben wir
B
S · A · S −1
=
mit S = MAB ( idV ) ∈ GL(n, K) , also nach dem Determinanten - Multiplikationssatz 5.3.6 :
det B = det S · det A · det(S −1 )
= det S · det S −1 · det A = det(S · S −1 ) · det A
= det En · det A = det A,
die Determinante det MAA (F ) ist also unabhängig davon, welche Basis A
von V wir nehmen, und wir können
(5.4.2)
det F
:=
det MAA (F )
setzen, wobei es egal ist, welche Basis A von V wir wählen.
Folgerung 5.4.3 : Sei V ein n−dimensionaler K−Vektorraum, K ein
Körper, n ∈ N , dann sind für einen Endomorphismus F : V −→ V die
folgenden Eigenschaften gleichbedeutend :
(i) F ist ein Vektorraum-Automorphismus, d.h. F ist bijektiver
Endomorphismus.
(ii) det F 6= 0 .
Beweis : Sei A eine Basis von V , dann gilt:
F ist Automorphismus von V
⇐⇒ ∃ G ∈ End(V ) : G ◦ F = F ◦ G = idV
⇐⇒ ∃ G ∈ End(V ) : MAA (G) · MAA (F ) = MAA (F ) · MAA (G) = En
(∗)
⇐⇒
MAA (F ) ∈ GL(n, K)
(5.3.7)
⇐⇒
det MAA (F ) 6= 0
(5.4.2)
⇐⇒
det F 6= 0 .
Bei (∗) , “⇐= ” benutzen wir, dass
192
MAA : EndK (V ) −→ M (n × n, K)
ein Vektorraumisomorphismus ist, zu B := ( MAA (F ))−1 hat man also ein
G ∈ EndK (V ) mit
MAA (G) = B .
2
5.5 Aufgaben
(5.1) Sei K ein Körper, n ∈ N und a1 , . . . , an , b1 , . . . , bn ∈ K . Berechnen
Sie die Determinante D von


1 1 1 ...
1
 b 1 a1 a1 . . .
a1 


 b 1 b 2 a2 . . .
a2 


a)

 ,
b
3


 .. .. .. . .
.. 
 . . .
.
. 
b1 b2 b3 . . . bn an


a1 + b 1
b2
b3
...
bn

 b1
a2 + b 2
b3
...
bn



 b1
b
a
+
b
b
.
.
.
b
2
3
3
4
n


..
b)
..
 ,

.
b3
.




.
.
.
.
..
..
..
..


bn
b1
b2
b3
. . . bn−1 an + bn
c)
(1 − δjk )(j,k)∈n×n .
(5.2) Sei K ein Körper, 1 das Einselement von K und a, b ∈ M (n × 1, K) .
Zeigen Sie :
det(En + a ·t b) = 1 +t a · b .
(5.3) Sei K ein Körper, n ∈ N , char K 6= 2 und A ∈ M (n × n, K)
schiefsymmetrisch , d.h. A = −t A . Zeigen Sie:
a) Ist n ungerade, so ist det A = 0 .
b) Ist n gerade, so ist det A ein Quadrat in K . Zeigen Sie dazu,
dass man A für n > 2 durch elementare Zeilen- und Spaltenumformungen auf die Form


0
α

0 


 −α

0




∗
B
193
mit α ∈ K und einer schiefsymmetrischen Matrix B bringen
kann, und machen Sie Induktion.
(5.4) Sei K ein Körper, n ∈ N , A ∈ GL(n, K) und b ∈ M (n × 1, K) ein
Spaltenvektor. Dann hat das lineare Gleichungssystem
A·x = b
die eindeutig bestimmte Lösung
x = A−1 · b mit x = (xj )j∈n
und
xj = (det A)−1 · det Bj ,
wobei Bj die Matrix ist, die man erhält, wenn man aus A die j−te Spalte herausnimmt und sie durch den Spaltenvektor b ersetzt (Cramersche
Regel).
Achtung: Obwohl diese Regel elegant aussieht, sollte man sie nicht zum
Lösen linearer Gleichungssysteme benutzen: Man kann zeigen, dass der
Rechenaufwand dabei proportional zu n3 ist, bei dem in (4.6.10) beschriebenen Gaußschen Eliminationsverfahren aber nur proportional
zu n2 - abgesehen davon, dass (4.6.10) auch funktioniert, wenn das
System nicht eindeutig lösbar ist.
(5.5) Sei K ein Körper,

a
 −b
det 
 −c
−d
a, b, c, d ∈ K. Zeigen Sie:

b
c
d
a −d c 
 = (a2 + b2 + c2 + d2 )2
d
a −b 
−c b
a
.
(5.6) (Vandermondesche Determinante:) Sei K ein Körper, a1 , . . . , an ∈ K.
Zeigen Sie :


1 a1 a21 . . . an−1
1
 1 a2 a2 . . . an−1 
Y
2
2


(aj − ak ) .
det  ..
..  =
 .
. 
(k,j)∈n×n mit k<j
1 an a2n . . . an−1
n
(Tipp: Zum Beweis subtrahiere man nacheinander für k = n,
n−1, . . . , 3, 2 das a1 −fache der (k−1)−ten Spalte von der k−ten Spalte
und forme dann so um, dass man Induktion nach n machen kann.)
194
Empfehlenswerte Literatur
zur Linearen Algebra :
Gerd Fischer : Lineare Algebra, eine Einführung für Studienanfänger.
18.Auflage. Springer 2014.
Bertram Huppert, Wolfgang Willems : Lineare Algebra, 2., überarbeitete und erweiterte Auflage. Vieweg+Teubner 2010.
Max Koecher : Lineare Algebra und analytische Geometrie. 4.Auflage,
Springer Berlin 1997.
H.-J.Kowalsky, G.O.Michler : Lineare Algebra. 12., überarbeitete
Auflage. De Gruyter Lehrbuch, Berlin 2008.
M.Roczen und H.Wolter, W.Pohl, D.Popescu, R.Laza: Lineare
Algebra individuell. Online Ver. 0.62, 20.3.2010.
zur Analysis :
Konrad Königsberger: Analysis 1, 6.Auflage. Springer-Lehrbuch 2004.
Otto Forster : Analysis 1, 11., erweiterte Auflage. Springer Spektrum
2013.
Harro Heuser : Lehrbuch der Analysis, Teil 1. 15.Auflage. Vieweg+Teubner,
2003.
zur Algebra :
Siegfried Bosch : Algebra, 6.Auflage. Springer-Lehrbuch 2006.
Nathan Jacobson : Basic Algebra I, 2nd edition, Dover Publications 2009.
Chr.Kapfinger, K.Meyberg : Algebra, 3.Auflage.Springer Spektrum 2013.
zur elementaren Zahlentheorie :
Ivan Niven, Herbert S.Zuckerman, Hugh L.Montgomery :
An Introduction to the Theory of Numbers. 5th edition, Wiley 1991.
Harold M.Stark : An Introduction to Number Theory. New edition,
MIT Press 1978.
195
Verzeichnis der Definitionen
Abkürzungen: e. : einer, eines, v. : von
A
abelsche Gruppe, 34
Abbildung, 14
- auf, 16
- , lineare, 115
Addition, 55
Algebra über K, 161
Äquivalenzklasse, 12
Äquivalenzrelation, 12
äußere direkte Summe, 153
äußere Operation, 98
äußeres direktes Produkt, 152, 153
allgemeine lineare Gruppe, 126
alternierende Abbildung, 177
alternierende Gruppe, 176
aufgespannter Untervektorraum , 104
Anordnung
- in R, 87
- in Z, 10
Automorphismus
- von Gruppen, 47
- , innerer, 54
Aus A folgt B, 5
Aussage, 4
Austauschsatz, 112
B
Basis, 108
Basisergänzungssatz, 110
Basisisomorphismus, 116
Betrag e.komplexen Zahl, 92
bijektiv, 16
Bild, 15
Brüche, Körper der, 83
196
C
cartesisches Produkt, 10
Charakteristik, 69
Cramersche Regel, 194
D
Definitionsbereich, 15
Determinante, 177
- e.Endomorphismus, 191
-nmultiplikationssatz, 188
Diedergruppe, 53
Dimension, 114
Dimensionsformel für
lineare Abbildungen, 120
direktes Produkt, 152
Division mit Rest, 60
Dreiecksmatrix, echte obere, 170
duale Basis, 167
Dualraum, 117
Durchschnitt, 8
E
echte obere Dreiecksmatrix, 170
eineindeutig, 16
einfache Matrix, 144
Einheit, imaginäre, 90
Einheitengruppe e.Rings, 66
Einschränkung, 15
Einselement, 38,55
Einsetzen in Polynome, 75
Einsmatrix, 125
einstelliges Prädikat, 11
Einträge e.Matrix, 121
noch E
G
Element, 7
elementare Spaltenumformung, 139
elementare Zeilenumformung, 137
endlich erzeugt, 105
endliche Familie, 101
endliche Menge, 19
Endomorphismus v.Gruppen, 47
Entwicklungssatz v.Laplace, 187
Epimorphismus, Nebenklassen-, 48
Epimorphismus v. Gruppen, 47
erweiterte Matrix, 144
Erzeugendensystem, 105
- in beliebigen Vektorräumen, 108
erzeugte zyklische Untergruppe, 39
euklidischer Ring, 80
ganze Zahl, 8
Gaußsche Zahlenebene, 92
Gaußsches
Eliminationsverfahren, 147
geordnetes Paar, 10
Gerade, 4
gilt genau dann, wenn, 5
GL(n, K), 130
gleichbedeutend, 6
Gleichheit v. Mengen, 8
Gleichheitsrelation, 10
Gleichungsdarstellung
e.Geraden, 24
Gleichungssystem, lineares, 142
gleichwertig, 6
Grad e. Polynoms, 72
Gradfunktion, 79
Grassmann-Identität, 33
größtes Element, 71
Gruppe, 34
- , allgemeine lineare, 130
- , alternierende, 176
- , symmetrische, 41
Gruppentafel, 42
F
F, 15
faches, 38
Faktorgruppe, 43
Faktorring, 58
falsch, 4
Familie, 101
fast alle, 71
Fehlstände, 173
Fibonacci-Zahlen, 168
Folge, 71
für alle, 8
Fundamentalsatz
der Algebra, 94
Funkltion, 14
- swert, 15
H
Halbgruppe, 34
Hintereinanderausführung, 17
homogenes lineares
Gleichungssystem, 143
Homomorphiesatz
- für Gruppen, 51
- für Ringe, 59
- für Vektorräume, 118
Homomorphismus v. Gruppen , 47
Homomorphismus v. Ringen, 58
197
I
noch K
Ideal, 57
identische Abbildung, 16
imaginäre Einheit, 90
Imaginärteil, 91
impliziert, 5
Indexmenge, 101
Induktionsaxiom, 12
Induktionsbeweis, 12
inhomogenes lineares
Gleichungssystem, 143
innere direkte Summe, 154
innerer Automorphismus, 54
Inverses, 35
Isomorphie v.Gruppen, 50
Isomorphismus v.Gruppen, 47
komplexe Zahlen, 8,88
-ebene, 92
Konjugiert-Komplexes, 91
Kürzungsregeln, 35
L
Lagrange, Satz von, 39
Länge e.Vektors im Rn , 21
Länge e.Basis, 108
Laplacescher Entwicklungssatz, 187
leere Menge, 6
leere Summe, 14
Leibniz-Formel, 181
Leitkoeffizient, 74
linear abhängig, 106
J
linear unabhängig, 105
Jacobi-Identität, 33
- im Rn , 26
- in beliebigen Vektorräumen, 108
lineare Abbildung, 115, 177
K
lineares Gleichungssystem, 142
kanonische
Linearform, 117
n
- Basis v. K ,109
Linearkombination, 104
-r Nebenklassenepimorphismus, 48 - , nichttriviale, 106
-s Skalarprodukt, 21
Links-Vektorraum, 98
Kern
Linksnebenklasse, 39
- e.Gruppenhomomorphismus, 50
lösbares lineares
- e.linrearen Abbildung, 116
Gleichungssystem, 143
- e.Ringhomomorphismus, 59
Lösung, triviale, 143
Kleinsche Vierergruppe,46
Lösungsmenge, 143
Körper, 67
logisch gleichwertig, 6
- der Brüche, 83
- der komplexen Zahlen, 88
- der rationalen Funktionen, 87
kommutative Gruppe, 34
kommutativer Ring, 56
Komplement, 9
198
M
O
Mächtigkeit, 19
magisches Quadrat, 169
Matrix, 121
- e.linearen Abbildung, 127
- , einfache, 144
- , erweiterte, 144
- , m × n−, 123
- , quadratische, 122
- , schiefsymmetrische, 193
- , transponierte, 132
Matrizenprodukt, 123
max M , 71
Menge, 7
modulo, 43, 198
Monomorphismus, 47
Multiplikation, 554
oder, 4
Operation, äußere, 98
Ordnungsinduktion, 14
orthogonal im Rn , 22
P
Parallelogramm, 177
Parallelotop, 177
Parameterdarstellung
e.Geraden, 23
Permutation, 42
Polynom
- , normiertes, 74
-funktion, 70
-ring in e.Unbestimmten, 74
-ring in zwei Unbestimmten, 82
positive reelle Zahl, 87
Potenz, 36
Prädikat, 11
Primkörper, 157
Primpolynom, 81
Primzahl, 62
Produkt von Matrizen, 123
Produkt, äußeres direktes, 152
Produktzeichen, 94
Pythagoras, 22
N
n−faches, 38
n−tupel, 102
nach Definition gleich, 8
- - -bedeutend, 8
natürliche Zahlen, 8
- - mit 0, 7
Nebenklassenepimorphismus, 48
Negatives, 38
- in Ringen, 57
neutrales Element, 34
Q
nicht A, 5
-triviale Linearkombination, 106
quadratfreie ganze Zahl, 96
non A, 6
quadratische Matrix, 122
n
Norm e.Vektors im R , 21
Quaternionen, 165
Normalteiler, 41
-gruppe, 54
normierte lineare Abbildung
Quotienten
von M (n × n, K) in K, 177 -körper, 83
normiertes Polynom, 74
- -Vektorraum, 118
Nullelement, 38
199
R
T
Rang e.Matrix,136
rationale Funktionen, 87
rationale Zahlen, 8
Realteil, 91
reelle Zahlen, 8
rekursive Definition, 13
Relation, 10
Restriktion, 15
Richtung e.Geraden, 22
Ring, 55
- , euklidischer, 79
- , kommutativer, 56
- , nullteilerfreier, 56
Ringhomomorphismus, 58
Tautologie, 6
Teiler
- in R[X], 81
- in Z, 62
Teilfamilie, 101
Teilmenge, 8
Teilraum, 103
Transformationsmatrix, 132
transponierte Matrix, 132
Transposition, 172
triviale Lösung, 143
triviale Linearkombination, 106
triviale Untergruppe, 43
tupel, 102
S
U
Schiefkörper, 167
Umkehrfunktion, 16
schiefsymmetrische Matrix, 193
Unbekannte, 142
Schnittpunkt v.Geraden, 25
und, 4
n
senkrecht stehen im R , 22
unendlich
Signum e.Permutation, 173
-dimensionaler Vektorraum, 114
Skalar, 98
-e Menge, 19
n
-produkt, kanonisches im R , 21
Untergruppe, 38
Spaltenrang, 133
- , triviale, 43
Spaltenumformung, elementare, 139 Unterkörper, 90
Spaltenvektor e.Matrix, 121
Unterring, 57
span, 104
Untervektorraum, 103
Spat, 177
- , aufgespannter, 104
Urbild, 15
Standard-Basis v. K n , 109
streng monoton wachsend, 91
Summenzeichen, 13
surjektiv, 16
symmetrische Gruppe, 41
200
V
Z
Vandermondesche Determinante, 194 Zeilenstufenform, 140
Vektoren, 98
Zeilenrang, 133
3
Vektorprodukt im R , 28
Zeilenumformung, elementare, 137
Vektorraum, 98
Zeilenvektor e.Matrix, 121
- -Homomorphismus, 115
Zentrum, 162
Vereinigung, 8
zyklische Gruppe, 47
Verknüpfung, 34
- - mit n Elementen, 46
- - Z4 , 47
- - Zn , 46
W
zyklische Untergruppe, 39
wahr, 4
Zyklus, 45
Wahrheitstafel, 5
Wahrheitswert, 4
Wenn A gilt, dann gilt B, 5
Wertebereich, 15
wohldefiniert, 41
Wohlordnung, 14
Wurzelfunktion, 91
201
Herunterladen