Skript zur Vorlesung Lineare Algebra I

Werbung
Skript zur Vorlesung Lineare Algebra I
Joachim König
Sommersemester 2016
Achtung! Dieses Skript ersetzt nicht die Vorlesung! Es ist unvollständig und nicht
korrektur-gelesen; es kann (und wird) also Fehler enthalten!
Inhaltsverzeichnis
0 Grundlagen
3
0.1
Zur Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
0.2
Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1 Algebraische Strukturen
6
1.1
Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2
Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1
Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2
Die Körper Z/pZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Vektorräume und ihre Struktur
18
2.1
Der Begriff des Vektorraums . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2
Unterräume und Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3
2.2.1
Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2
Schnitte und Summen von Unterräumen . . . . . . . . . . . . . . . 22
2.2.3
Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1
Begriffe und zentrale Eigenschaften . . . . . . . . . . . . . . . . . . 26
2.3.2
Basis und Dimension von Unterräumen und Faktorräumen . . . . 31
3 Lineare Abbildungen
34
3.1
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2
Die Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1
INHALTSVERZEICHNIS
2
3.3
Existenz- und Eindeutigkeitsaussagen . . . . . . . . . . . . . . . . . . . . 38
3.4
Abbildungsräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5
Lineare Abbildungen und Faktorräume . . . . . . . . . . . . . . . . . . . . 41
4 Matrizen
43
4.1
Darstellungsmatrizen linearer Abbildungen . . . . . . . . . . . . . . . . . 43
4.2
Matrixmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3
Rang und Kern von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4
Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.5
Äquivalenz von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5 Lineare Gleichungssysteme
53
5.1
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2
Lösbarkeit und Struktur der Lösungsmenge . . . . . . . . . . . . . . . . . 54
5.3
Elementare Umformungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4
Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5
Bestimmung der Lösungsmenge linearer Gleichungssysteme . . . . . . . . 60
5.6
Die Transponierte einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . 63
5.7
Bestimmung der Inversen einer Matrix . . . . . . . . . . . . . . . . . . . . 64
6 Determinanten
65
6.1
Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.2
Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3
6.2.1
Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . 69
6.2.2
Determinanten von Endomorphismen . . . . . . . . . . . . . . . . 73
6.2.3
Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . 74
Exkurs: Multilinearformen und Tensorprodukte . . . . . . . . . . . . . . . 77
Kapitel 0
Grundlagen
0.1
Zur Notation
Die natürlichen Zahlen N verstehen wir als {1, 2, 3, ...}. Für die Menge {0, 1, 2, 3, ...}
schreiben wir N0 .
0.2
Relationen
Relationen sind ein grundlegendes Konzept für viele Bereiche der Mathematik. Insbesondere Äquivalenzrelationen werden uns im Laufe der Vorlesung noch oft begegnen.
Deshalb zunächst eine kurze Einführung.
Definition 0.1 (Relation). Seien A und B Mengen. Eine Relation zwischen A und B
ist eine Teilmenge R des kartesischen Produkts A × B := {(a, b) | a ∈ A, b ∈ B}. Falls
(a, b) ∈ R, dann schreiben wir a ∼R b oder auch nur a ∼ b. Ist A = B, dann spricht
man von einer Relation auf A.
Eine Relation R auf einer Menge A heißt reflexiv, falls stets a ∼R a gilt (für alle a ∈ A).
Sie heißt symmetrisch, falls aus a ∼R b stets b ∼R a folgt (für alle a, b ∈ A).
Sie heißt transitiv, falls aus a ∼R b und b ∼R c stets a ∼R c folgt (für alle a, b, c ∈ A).
Definition 0.2 (Äquivalenzrelation, Äquivalenzklasse). Eine reflexive, symmetrische
und transitive Relation R auf einer Menge A heißt Äquivalenzrelation.
Sei R eine Äquivalenzrelation auf A und sei x ∈ A. Die Menge [x] := {a ∈ A | x ∼R a}
heißt die Äquivalenzklasse von x.
Jedes Element y ∈ [x] heißt Repräsentant der Äquivalenzklasse [x].
Die Menge der Äquivalenzklassen der Äquivalenzrelation R auf A wird auch kurz als
A/R bezeichnet. Die Abbildung π : A 7→ A/R, definiert durch x 7→ [x], die jedem
Element seine Äquivalenzklasse zuordnet, heißt kanonische Projektion.
3
KAPITEL 0. GRUNDLAGEN
4
Satz 0.1. Ist R eine Äquivalenzrelation auf A, dann bilden die Äquivalenzklassen eine
Partition von A, d.h.
i)
S
x∈A [x]
= A und
ii) aus [x] 6= [y] folgt schon [x] ∩ [y] = ∅.
S
Beweis. Wegen der Reflexivität gilt x ∈ [x] für alle x ∈ A, also x ∈ a∈A [a] und folglich
S
S
A
⊆
[a].
Aber
sowieso
a∈A
a∈A [a] ⊆ A nach Definition der Äquivalenzklassen, also
S
a∈A [a] = A.
Seien nun x, y ∈ A so, dass [x] ∩ [y] 6= ∅. Wir müssen [x] = [y] zeigen. Da [x] ∩ [y] 6= ∅
existiert ein z ∈ A mit z ∈ [x] und z ∈ [y]. Sei nun a ∈ [x] beliebig, dann gelten x ∼ a,
x ∼ z und y ∼ z. Mit der Symmetrie und Transitivität der Relation folgt a ∼ x ∼ z ∼ y,
also y ∼ a, d.h. a ∈ [y]. Da das für alle a ∈ [x] gilt, folgt [x] ⊆ [y]. Genauso zeigt man
[y] ⊆ [x], also insgesamt Gleichheit.
Beispiele:
a) Jede Abbildung f : A → B ist eine Relation.
b) Durch die Vorschrift a ∼R b :⇔ a ≤ b (für a, b ∈ R) wird eine Relation auf R
definiert. Sie ist reflexiv und transitiv, aber nicht symmetrisch und deshalb keine
Äquivalenzrelation.
c) Sei n ∈ N. Durch die Vorschrift
a ∼R b :⇔ a − b ist durch n teilbar1
(für a, b ∈ Z) wird eine Äquivalenzrelation auf der Menge Z definiert.
Statt a ∼R b schreiben wir hier auch a ≡ b mod n (sprich: “a kongruent b modulo
n”). Die Äquivalenzklassen sind genau [0], [1],..., [n − 1]. Sie heißen auch die
Restklassen modulo n. Es gilt [a] = {..., a−n, a, a+n, a+2n, ...} = {a+nk|k ∈ Z}.
Dieses Beispiel wird auch in den folgenden Abschnitten wichtig bleiben.
d) Sind M, N zwei Mengen und f : M → N eine Abbildung, dann ist durch x ∼R
y :⇔ f (x) = f (y) (für x, y ∈ M ) eine Äquivalenzrelation auf M definiert. Die
Äquivalenzklassen sind gerade die Fasern f −1 (z) := {x ∈ M |f (x) = z} für z im
Bild von f .
Insbesondere ist f auf jeder Äquivalenzklasse konstant, und somit ist die Abbildung
f : M/R → N , [x] 7→ f (x), wohldefiniert. Es gilt gerade f = f ◦ π, mit der
kanonischen Projektion π.
Einen solchen Zusammenhang stellt man in der Mathematik oft durch ein kommutierendes Diagramm dar:
1
Hiermit meinen wir wiederum, dass ein k ∈ Z existiert mit a − b = kn
KAPITEL 0. GRUNDLAGEN
M
f
5
N
π
f
M/R
Abbildungen sind in solchen Diagrammen jeweils durch Pfeile repräsentiert. “Kommutierendes Diagramm” bedeutet hierbei, dass zwei Wege aus Pfeilen mit dem
selben Anfangs- und Zielort stets das gleiche Ergebnis liefern.
Kapitel 1
Algebraische Strukturen
Der zentrale Begriff der linearen Algebra ist der des Vektorraums. Um diesen allgemein zu definieren und damit zu arbeiten, brauchen wir zunächst einige Grundlagen
über Gruppen, Ringe und Körper, sowie einige wichtige Beispiele. Gruppen werden uns
außerdem später im Kapitel über Determinanten wieder begegnen, Ringe (im Kapitel
über Matrizen und) in der Linearen Algebra II im Zusammenhang mit Polynomen.
1.1
Gruppen
Definition 1.1 (Verknüpfung). Sei M eine nicht-leere Menge. Eine (zweistellige) Verknüpfung
auf M ist eine Abbildung ◦ : M × M → M .
Eine Verknüpfung heißt assoziativ, wenn (a ◦ b) ◦ c = a ◦ (b ◦ c) für alle a, b, c ∈ M gilt.
Sie heißt kommutativ, wenn a ◦ b = b ◦ a für alle a, b ∈ M gilt.
Definition 1.2 (Gruppe). Sei G eine nicht leere Menge und ◦ eine Verknüpfung auf G.
Das Paar (G, ◦) heißt Gruppe, wenn gelten:
G1) ◦ ist assoziativ.
G2) Es existiert ein neutrales Element, d.h. ein e ∈ G, so dass für alle g ∈ G gilt:
g ◦ e = e ◦ g = g.
G3) Zu jedem Element g ∈ G existiert ein Inverses, d.h. ein h ∈ G mit g ◦h = h◦g = e.
Ist die Verknüpfung ◦ zusätzlich kommutativ, dann heißt die Gruppe (G, ◦) abelsch.1
Beispiele:
1
Niels Henrik Abel (1802-1829)
6
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
7
a) R, Q und Z sind jeweils abelsche Gruppen bezüglich der Addition. (N, +) bzw.
(N0 , +) sind keine Gruppen, da im ersten Fall das Neutrale, im zweiten Fall die
Inversen fehlen.
b) R\{0} und Q\{0} sind abelsche Gruppen bezüglich der Multiplikation. (Z\{0}, ·)
ist keine Gruppe.
c) Ist M eine nicht-leere Menge, dann ist die Menge Sym(M ) := {f : M → M |
f bijektiv} mit der Hintereinanderausführung von Abbildungen als Verknüpfung
eine Gruppe, mit der identischen Abbildung id : M → M, x 7→ x∀x∈M , als Neutralem. Die Forderung “f bijektiv” ist nötig um ein Inverses (die Umkehrabbildung!) zu erhalten.
Sym(M ) heißt die symmetrische Gruppe auf M und ihre Elemente heißen Permutationen von M .
Ist M = {1, ..., n}, dann schreibt man auch Sn statt Sym(M ). Rein kombinatorisch
sieht man, dass Sn genau n! := 1 · 2 · ... · n Elemente hat.
Die symmetrische Gruppe Sym(M ) ist für |M | ≥ 3 nicht abelsch.
Direkt aus den Gruppenaxiomen folgt:
Korollar 1.1. Sei (G, ◦) eine Gruppe. Dann gelten:
a) Es gibt genau ein neutrales Element in G, und zu jedem g ∈ G existiert genau ein
Inverses.
b) Es gelten die Kürzungsregeln: Aus a ◦ x = b ◦ x folgt a = b, und aus x ◦ a = x ◦ b
folgt a = b.
c) Bezeichnet man mit g −1 das Inverse von g ∈ G, dann gilt (x ◦ y)−1 = y −1 ◦ x−1
für alle x, y ∈ G.2
Beweis: Zu a): Sind e und f zwei neutrale Elemente, dann gilt sowohl e ◦ f = e als auch
e ◦ f = f , also e = f .
Hat weiter g ∈ G zwei Inverse h1 , h2 , dann folgt h2 = h2 ◦e = h2 ◦(g ◦h1 ) = (h2 ◦g)◦h1 =
e ◦ h1 = h1 .
b),c): Übung.
Bemerkungen:
a) Falls keine Verwechslungsgefahr besteht, sagt man auch einfach ”G ist Gruppe”
(anstelle von ”(G, ◦) ist Gruppe”).
2
Diese wichtige Rechenregel wird im Englischen gelegentlich as “Shoes and Socks Property” bezeichnet: Beim Invertieren des Anziehvorgangs (auch als Ausziehen bekannt) sollte man nämlich sinnvollerweise die Reihenfolge vertauschen - erst die Schuhe, dann die Socken.
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
8
b) Oft bezeichnet man das Neutrale einer Gruppe mit 1, das Inverse des Elementes g
mit g −1 , das Produkt g ◦ ... ◦ g mit g n (n ∈ N) und dessen Inverses (g n )−1 als g −n .
| {z }
n Faktoren
Den Ausdruck g 0 definiert man als 1.
Man verifiziert dann schnell die Potenzrechenregeln (g n )m = g nm sowie g n · g m =
g n+m für alle g ∈ G und m, n ∈ Z.3
Klammern lässt man wegen des Assoziativgesetzes oft weg.
In abelschen Gruppen schreibt man manchmal + für das Verknüpfungssymbol
(natürlich nur, wenn es sinnvoll ist; z.B. ist R× := R \ {0} mit der Multiplikation
eine abelsche Gruppe, es wäre aber natürlich unsinnig, für die Multiplikation das
+-Zeichen zu verwenden!). In diesem Fall bezeichnet man das Neutrale als 0, das
Inverse von g als −g und das Element g + ... + g als ng.
| {z }
n−mal
In multiplikativ geschriebenen Gruppen lässt man das Verknüpfungszeichen auch
oft weg und schreibt einfach gh statt g · h.
c) Warnung: Die Definition einer Gruppe umfasst neben den Eigenschaften G1 bis
G3 noch die Nicht-Leerheit von G und die Tatsache, dass ◦ eine Verknüpfung
ist. Das wird oft vergessen, wenn in Übungsaufgaben verifiziert werden soll, dass
ein bestimmtes (G, ◦) eine Gruppe ist. Die Nicht-Leerheit ist dabei häufig offensichtlich, die Verknüpfungseigenschaft aber nicht immer: man muss zeigen, dass ◦
tatsächlich nach G abbildet, dass also g ◦ h ∈ G für alle g, h ∈ G!
Um die Struktur von Gruppen genauer untersuchen zu können, benötigt man das Konzept
der Untergruppe.
Definition 1.3 (Untergruppe). Eine nicht-leere Teilmenge U einer Gruppe (G, ◦) heißt
Untergruppe von G (und man schreibt U ≤ G), wenn gelten:
U1) Für alle u, v ∈ U ist u ◦ v ∈ U .
U2) Für alle u ∈ U ist u−1 ∈ U .
Bemerkung: Diese Definition ist äquivalent dazu, dass (U, ◦) selbst wieder eine Gruppe
ist. Die Eigenschaft U1 besagt nämlich gerade, dass die Einschränkung von ◦ auf
U wieder eine Verknüpfung ist, U2 liefert die Inversenexistenz, die Assoziativität der
Verknüpfung vererbt sich von G, und die Existenz des Neutralen in U erhält man wie
folgt:
Zunächst gibt es wegen U 6= ∅ ein u ∈ U . Mit U2 ist dann auch u−1 ∈ U , und somit
schließlich mit U1: 1 = u ◦ u−1 ∈ U .
Beispiele:
3
Dagegen gilt aber die Rechenregel g n · hn = (gh)n im Allgemeinen nur in abelschen Gruppen!
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
9
a) In jeder Gruppe ist die Menge {e}, die nur aus dem neutralen Element besteht,
eine Untergruppe.
b) Für jedes n ∈ N0 ist die Menge nZ := {nk|k ∈ Z} eine Untergruppe der additiven
Gruppe (Z, +).
c) Die positiven reellen Zahlen sind eine Untergruppe der multiplikativen Gruppe
(R \ {0}, ·).
Man rechnet direkt nach:
Lemma 1.2. Der Schnitt
wieder eine Untergruppe.
T
i∈I
Ui beliebig vieler Untergruppen Ui einer Gruppe G ist
Dagegen ist die Vereinigung zweier Untergruppen im Allgemeinen keine Untergruppe.
Dies führt auf den Begriff des Erzeugnisses.
Satz 1.3. Sei G eine Gruppe und sei M eine Teilmenge von M . Dann ist die Menge
hM i := {g1k1 · · · gnkn | n ∈ N0 ; g1 , ..., gn ∈ M ; k1 , ..., kn ∈ Z} eine Untergruppe von G, und
zwar die kleinste Untergruppe, die M enthält.4 Man nennt hM i das Erzeugnis von M .
Beweis: hM i ist nicht leer, da das leere Produkt (bestehend aus 0 Faktoren), welches
man grundsätzlich als 1 definiert, immer in hM i liegt (selbst dann, wenn M = ∅!). Weiter
ist das Produkt zweier Elemente aus hM i offensichtlich wieder von der in der Definition
von hM i geforderten Gestalt, und ebenso das Inverse eines Elements g1k1 · · · gnkn ∈ hM i,
wegen (g1k1 · · · gnkn )−1 = gn−kn · · · g1−k1 .
Weiter enthält hM i alle g ∈ M , also M ⊂ hM i. Umgekehrt muss jede Untergruppe
U , die M enthält, auf Grund der Abgeschlossenheit gegenüber Multiplikation und Inversenbildung auch alle g k (mit g ∈ M , k ∈ Z) enthalten, und damit auch alle endlichen
Produkte solcher Elemente, also hM i. Damit ist hM i die kleinste Untergruppe, die M
enthält.
Im Spezialfall, dass M = {g} einelementig ist, ist das Erzeugnis hgi := hM i also als
{g k |k ∈ Z} definiert. Gruppen, die das Erzeugnis eines einzelnen Elementes sind, nennt
man zyklische Gruppen. Man sieht schnell, dass zyklische Gruppen immer abelsch sind
(das folgt sofort aus den Potenzrechenregeln).
Für eine beliebige Gruppe G bezeichnet man die Mächtigkeit |G| von G auch als Ordnung von G. Die Ordnung |g| eines Elementes g ∈ G ist definiert als die Ordnung der
von g erzeugten zyklischen Gruppe.
Beispiele zyklischer Gruppen:
4
“Die kleinste” bedeutet hier, dass hM i in jeder M umfassenden Untergruppe enthalten ist. hM i ist
also der Schnitt aller M umfassenden Untergruppen, was ja wie eben bemerkt tatsächlich wieder eine
Untergruppe ist.
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
10
a) Die ganzen Zahlen (Z, +) sind eine unendliche zyklische Gruppe, erzeugt von 1 ∈ Z.
b) Für n ∈ N definiere auf der Menge {[k] := k + nZ | k ∈ {0, ..., n − 1}} der Restklassen modulo n eine Addition durch [k] + [m] := [k + m]. Da der Repräsentant
k der Restklasse [k] nicht eindeutig ist, muss man sich zunächst klarmachen, dass
diese Definition eindeutig ist!
Anschließend folgen die Assoziativität und Kommutativität der so definierten Addition direkt aus den entsprechenden Eigenschaften der Addition in Z; ebenso
offensichtlich ist [0] das Neutrale und [−m] das Inverse von [m]. Damit ist die
Menge der Restklassen modulo n eine Gruppe der Ordnung n, und zwar zyklisch,
denn [1] ist ein Erzeuger. Wir schreiben diese Gruppe als (Z/nZ, +) (in Worten:
“Z modulo nZ”).
Satz 1.4. Sei G eine Gruppe und sei g ∈ G mit endlicher Ordnung n ∈ N. Dann gelten:
a) hgi besteht genau aus den Elementen g i mit 0 ≤ i ≤ n − 1.
b) n ist die kleinste natürliche Zahl k mit g k = 1.
c) Für i, j ∈ Z ist g i = g j genau dann, wenn i − j durch n teilbar ist.
Insbesondere ist g k = 1 genau dann, wenn k durch n teilbar ist.
Beweis: Angenommen es gäbe i 6= j ∈ Z (o.E. i < j) vom Abstand kleiner als n mit
g i = g j . Dann wäre also g k = 1 für k := j − i(∈ {1, ..., n − 1}). Sei nun m ∈ Z beliebig.
Da es genau die Restklassen [0], [1], ..., [k − 1] modulo k gibt, lässt sich m in der Form
qk + r schreiben, mit q ∈ Z und r ∈ {0, ..., k − 1}. Dann ist g m = g qk+r = (g k )q · g r = g r .
Also hat hgi höchstens die k(< n) verschiedenen Elemente g r mit 0 ≤ r ≤ k − 1, im
Widerspruch zu Voraussetzung.
Also sind die n Elemente g 0 , ..., g n−1 paarweise verschieden. Da aber |hgi| = n, sind das
schon alle Elemente in hgi (also gilt a)).
Insbesondere muss g n mit einem dieser n Elemente identisch sein, und nach obigem
Argument bleibt nur g n = g 0 = 1. Das zeigt b).
Ist nun i − j durch n teilbar, d.h. i − j = an für ein a ∈ Z, dann ist sicher g i−j = g an =
(g n )a = 1a = 1. Ist umgekehrt i − j nicht durch n teilbar, dann ist i − j = qn + r für
ein 1 ≤ r ≤ n − 1. Wäre nun g i−j = 1, dann auch g i−j = (g n )q · g r = g r 6= 1 wegen
1 ≤ r ≤ n − 1. Das zeigt c).
Definition 1.4 (Nebenklassen). Seien (G, ·) eine Gruppe, U ≤ G eine Untergruppe und
g ∈ G. Dann heißt die Menge g · U := {g · u | u ∈ U } die Linksnebenklasse von U durch
g. Ebenso heißt U · g := {u · g | u ∈ U } die Rechtsnebenklasse von U durch g.
Beispiel:
Ist G = Z (natürlich mit Addition als Verknüpfung!) und U = nZ für ein n ∈ N,
dann sind die Nebenklassen (ob “Links-” oder “Rechts-” ist hier egal, da die Gruppe
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
11
ja kommutativ ist) genau die Mengen a + nZ, also genau die Restklassen [a] modulo n
(a = 0, ..., n − 1).
Man beachte, dass aus gU = hU im Allgemeinen nicht g = h folgt (man kann also
nicht einfach U ”kürzen”)! Vielmehr folgt U = g −1 · gU = g −1 hU , und daraus folgt
g −1 h ∈ U (denn natürlich g −1 h = g −1 h · 1 ∈ g −1 hU ). Auch die Umkehrung gilt, d.h.
falls g −1 h ∈ U , dann ist U = g −1 hU und somit gU = gg −1 hU = hU .
Tatsächlich sind Nebenklassen ein Spezialfall von Äquivalenzklassen; denn die durch
g ∼ h :⇔ g −1 h ∈ U auf G gegebene Relation ist
• reflexiv, da g −1 g = 1 ∈ U für alle g ∈ G,
• symmetrisch, da aus g −1 h ∈ U auch h−1 g = (g −1 h)−1 ∈ U folgt,
• transitiv, da aus g −1 h ∈ U und h−1 k ∈ U auch g −1 k = (g −1 h) · (h−1 k) ∈ U folgt,
und somit eine Äquivalenzrelation! Die Äquivalenzklasse [g] eines Elementes g bezüglich
dieser Relation ist genau [g] = {h ∈ G|g −1 h ∈ U } = {h ∈ G|h ∈ gU }, also genau die
Linksnebenklasse gU .
Die bisherigen Bemerkungen über Nebenklassen liefern schnell den folgenden wichtigen
Satz.
Satz 1.5 (Lagrange5 ). Sei U eine Untergruppe der endlichen Gruppe G. Dann ist |U |
ein Teiler von |G|.
Beweis: Sei g ∈ G beliebig, dann ist die Abbildung U → gU , definiert durch u 7→ gu
eine Bijektion von U auf gU (die Surjektivität ist klar, und mit der Kürzungsregel
(gu1 = gu2 ⇒ u1 = u2 ) folgt auch die Injektivität). Insbesondere sind alle Linksnebenklassen gleich groß (nämlich von der Mächtigkeit |U |). Da die Linksnebenklassen als
Äquivalenzklassen (siehe oben!) die Menge G partitionieren, folgt |G| = k · |U |, mit
k =Anzahl der Linksnebenklassen.6
Wählt man insbesondere im Satz von Lagrange U = hgi zyklisch (mit einem g ∈ G),
dann ergibt sich sofort:
Korollar 1.6. Die Ordnung eines Elements g einer endlichen Gruppe G ist stets ein
Teiler der Gruppenordnung.
Wir geben noch eine weitere Anwendung für Gruppen, deren Ordnung eine Primzahl
ist.
5
Joseph-Louis de Lagrange (1736-1813)
Das gleiche Argument funktioniert natürlich auch für Rechtsnebenklassen. Insbesondere ist die
Anzahl der Links- gleich der Anzahl der Rechtsnebenklassen von U . Diese Anzahl heißt der Index von
U in G, kurz [G : U ]. Es ist also gerade [G : U ] = |G|
.
|U |
6
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
12
Korollar 1.7. Jede Gruppe von Primzahlordnung ist zyklisch.
Beweis: Sei G eine Gruppe und |G| = p eine Primzahl. Sei g ∈ G\{1} nicht das neutrale
Element. Da 1, g ∈ hgi, ist die Ordnung von g sicher größer als 1. Andererseits ist sie
nach dem vorangegangenen Korollar ein Teiler von |G| = p. Da p Primzahl ist, bleibt
nur |hgi| = p, also ist G = hgi zyklisch.
1.2
Ringe
Definition 1.5 (Ring). Sei R eine nicht-leere Menge mit zwei Verknüpfungen + und ·.
Dann heißt (R, +, ·) ein Ring, falls gelten:
R1) (R, +) ist eine abelsche Gruppe.
R2) · ist assoziativ und es existiert ein neutrales Element 1.7
R3) Es gelten die Distributivgesetze (x + y) · z = xz + yz sowie x · (y + z) = xy + xz
für alle x, y, z ∈ R.
Falls zusätzlich die Multiplikation auf R kommutativ ist, bezeichnet man R als kommutativen Ring.
Beispiele:
a) Die ganzen Zahlen sind mit der üblichen Addition und Multiplikation ein (kommutativer) Ring.
b) Ist n ∈ N, dann wird die Menge der Nebenklassen [k] := k + nZ, k = 0, ..., n − 1,
mit der bereits definierten Addition
[k] + [m] := [k + m]
sowie der Multiplikation
[k] · [m] := [km]
zu einem kommutativen Ring. Wir bezeichnen ihn als den Restklassenring Z/nZ.
Für die Restklasse [k] = k + nZ ∈ Z/nZ schreibt man auch einfach k, wobei man
sich dann klar sein muss, dass damit nicht die ganze Zahl k ∈ Z gemeint ist!
c) Wichtige Beispiele nicht-kommutativer Ringe werden wir später kennenlernen,
siehe das Kapitel über Matrizen.
Lemma 1.8. Sei (R, +, ·) ein Ring. Dann gelten:
7
Das heißt, dass (R, ·) alle Gruppenaxiome bis auf die Inversenexistenz erfüllt. Eine solche Struktur
heißt auch Monoid.
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
13
a) Für alle r ∈ R gilt 0 · r = r · 0 = 0.
b) Ist |R| > 1, dann gilt 0 6= 1 in R.
c) Besitzt r ∈ R ein multiplikatives Inverses, dann ist rs 6= 0 für alle s ∈ R \ {0},
und ebenso sr 6= 0.
Beweis: Zu a): Es ist 0 · r = (0 + 0) · r = 0 · r + 0 · r. Addiert man auf beiden Seiten
das Negative (=das additive Inverse) von 0 · r, ergibt sich 0 = 0 · r. Analog zeigt man
r · 0 = 0.
Zu b): Aus 0 = 1 folgt für jedes r ∈ R: 0 = 0 · r = 1 · r = r, also R = {0}.
Zu c): Aus rs = 0 folgt durch Linksmultiplikation mit dem Inversen r−1 die Gleichung
s = r−1 rs = r−1 0 = 0.
Noch einige grundlegende Begriffe aus der Ringtheorie:
Definition 1.6 (Einheiten, Nullteiler). Sei R ein Ring. Ein Element x ∈ R\{0}, welches
ein multiplikatives Inverses besitzt, heißt Einheit.
Ein Element r ∈ R \ {0}, für das ein s ∈ R \ {0} existiert mit rs = 0 oder sr = 0, heißt
Nullteiler. R heißt nullteilerfrei, wenn es keine Nullteiler in R gibt.
Bemerkungen:
a) Es ist eine einfache Übungsaufgabe, nachzurechnen, dass die Menge der Einheiten
eines Ringes R eine multiplikative Gruppe bildet. Sie wird als Einheitengruppe
von R bezeichnet und mit R× abgekürzt.
b) Lemma 1.8c) besagt gerade, dass Einheiten nie zugleich Nullteiler sind.
c) Beispiele von Ringen mit Nullteilern liefern z.B. die Restklassenringe. So gilt etwa
in Z/4Z: [2] · [2] = [0].
Polynome
Wichtige Beispiele von Ringen sind Polynomringe über kommutativen Ringen. Wir
führen den Begriff des Polynoms zunächst in einer möglicherweise überraschenden, dafür
aber formal korrekten Weise ein:
Definition 1.7 (Polynome). Sei R ein kommutativer Ring. Ein Polynom über R ist
eine Folge8 (ai )i∈N0 = (a0 , a1 , a2 , ...), mit ai ∈ R, so dass nur endlich viele der ai von Null
verschieden sind. Der maximale Index i, so dass ai 6= 0 gilt, heißt Grad (geschrieben
deg(p)) des Polynoms p := (ai )i∈N0 .9
Die Menge aller Polynome über R bezeichnet man als R[X].
8
Dies wiedederum ist formal gesehen eine Abbildung f : N0 → R, i 7→ ai .
Für das Nullpolynom (0, 0, 0, ...) existiert überhaupt kein solches i. Man definiert den Grad des
Nullpolynoms deswegen als −∞.
9
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
14
Man rechnet dann völlig elementar (wenn auch etwas technisch) nach:
Satz 1.9 (Polynomring). Mit der Addition
(a0 , a1 , a2 , ...) + (b0 , b1 , b2 , ...) := (a0 + b0 , a1 + b1 , a2 + b2 , ...)
sowie der Multiplikation
(a0 , a1 , a2 , ...) · (b0 , b1 , b2 , ...) := (c0 , c1 , c2 , ...), mit ci := a0 · bi + a1 · bi−1 + ... + ai · b0
wird R[X] zu einem kommutativen Ring, mit Nullelement 0 := (0, 0, 0, ...) und Einselement 1 := (1, 0, 0, ....).
Die obige Definition bedarf einiger Erklärungen. Natürlich stellt man sich ein Polynom
nicht in der eben eingeführten Form vor. Wir definieren deshalb X als diejenige Folge
(ai )i∈N0 , die nur den Eintrag a1 = 1 und sonst lauter Nulleinträge hat, also X :=
(0, 1, 0, 0, ...). Dann sieht man schnell, dass mit der eben eingeführten Multiplikation
X n gerade das Element ist, das nur an der n-ten Stelle den Eintrag 1 und sonst lauter
0
Nulleinträge hat (für alle n ∈ N). Zusammen mit der Konvention
1 folgt also,
Pn X :=
dass (a0 , a1 , a2 , ...an , 0, 0, ...) ∈ R mit dem Element p(X) := i=0 ai · X i identisch ist,
und dass die oben eingeführte Addition und Multiplikation genau diejenigen sind, die
man für solche Ausdrücke p(X)
P aus der Schule kennt. Die ai bezeichnen wir als die
Koeffizienten des Polynoms ni=0 ai · X i .
Der Aufwand bei der Definition von Polynomen kommt daher, dass man zunächst
sauber erklären muss, was eigentlich mit X gemeint
P sein soll. Wir stellen uns also
in Zukunft ein Polynom als eine “formale Summe” ni=0 ai · X i vor (“formale Summe”
bedeutet hier, dass zwei Polynome nur dann gleich sind, wenn sie in allen Koeffizienten
übereinstimmen).
Bemerkung/Warnung: Es wäre naheliegend gewesen, Polynome einfach als Abbildungen p : R → R, R 3 x 7→ ai · xi , einzuführen, wie man es von (z.B. reellen) Polynomen
aus der Schule kennt. Über allgemeinen Ringen würde das aber zu Problemen führen:
Z.B. liefert über dem Ring R = Z/2Z das Polynom X 2 + X die Nullabbildung (denn
12 + 1 = 2 = 0 = 02 + 0); trotzdem ist dieses Polynom aber, als formale Summe gesehen,
nicht das Nullpolynom!
Lemma 1.10. Seien f, g ∈ R[X] Polynome über dem kommutativen Ring R. Dann
gelten:
i) deg(f + g) ≤ max deg(f ), deg(g).
ii) deg(f · g) ≤ deg(f ) + deg(g).
Ist R nullteilerfrei, dann gilt in ii) sogar Gleichheit, und insbesondere ist dann R[X]
auch nullteilerfrei.
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
15
Beweis: Seien ohne Einschränkung
f und g P
nicht das Nullpolynom. Setze m := deg(f ),
Pm
i
n := deg(g). Es ist f = i=0 ai X und g = nj=0 bj X j (mit geeigneten Koeffizienten ai
und bj ). Offensichtlich ist ak = bk = 0 für alle k > max{m, n}, und somit gilt a).
Weiter ist f · g = a0 b0 X 0 + (a1 b0 + a0 b1 )X 1 + ... + am bn X m+n , also gilt auch b).
Ist R nullteilerfrei, dann ist am bn 6= 0, also gilt in b) sogar Gleichheit, und insbesondere
ist f · g nicht das Nullpolynom.
1.3
Körper
Definition 1.8 (Körper). Ein kommutativer Ring K heiß Körper, falls |K| > 1 und
jedes x ∈ K \ {0} ein multiplikatives Inverses besitzt.
Bemerkung: Zusammen mit den Ringaxiomen (und der Aussage, dass die Menge der
multiplikativ invertierbaren Elemente eine Gruppe bildet) sieht man also, dass K (mit
den Verknüpfungen + und ·) genau dann ein Körper ist, wenn:
K1) (K, +) ist eine abelsche Gruppe.
K2) (K \ {0}, ·) ist eine abelsche Gruppe
K3) Das Distributivgesetz x(y + z) = xy + xz gilt für alle x, y, z ∈ K.
Beispiele: Die reellen Zahlen R und die rationalen Zahlen Q sind Körper. Weitere
wichtige Beispiele sind die komplexen Zahlen C und die Restklassenringe Z/pZ mit
einer Primzahl p. Siehe dazu die folgenden Abschnitte.
1.3.1
Die komplexen Zahlen
Satz 1.11. Die Menge R2 = {(a, b) | a, b ∈ R} wird durch die Definitionen
(a, b) + (c, d) := (a + b, c + d)
sowie
(a, b) · (c, d) := (ac − bd, ad + bc)
zu einem Körper. Wir bezeichnen diesen Körper als den Körper der komplexen Zahlen,
kurz C.
Das Einselement in C ist (1, 0). Die Menge aller Elemente (a, 0) ∈ C (mit a ∈ R) bildet
selbst einen Körper, den wir in natürlicher Weise mit R identifizieren können. Wir
schreiben deswegen das Element (a, 0) auch einfach als a.
Das Element (0, 1) ∈ C bezeichnen wir als i. Dann gilt i2 = −1, und für alle (a, b) ∈ C
ist (a, b) = a + ib. Man bezeichnet a ∈ R als den Realteil und b ∈ R als den Imaginärteil
der komplexen Zahl z := a + ib (Schreibweise a = <(z), b = =(z)).
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
16
Die merkwürdig erscheinende Definition der Multiplikation erklärt sich nachträglich
durch die Identität (a, b) = a + ib. Man hat (a + ib)(c + id) = ac + ibc + iad + i2 bd =
(ac − bd) + i(ad + bc).
Man beachte auch, dass die auf den ersten Blick natürlicher erscheinende Festlegung
(a, b) · (c, d) := (ac, bd) keinen Körper liefern würde: z.B. wäre dann (1, 0) · (0, 1) = (0, 0)
das Nullelement, und damit hätte (1, 0) nach Lemma 1.8c) kein multiplikatives Inverses!
Für z := a + ib ∈ C definiert man
z als z := a − ib und den
√ das Komplex-Konjugierte
+
2
2
komplexen Betrag |z| als |z| = a + b (∈ R0 ).
Folgende Rechenregeln prüft man dann sofort nach:
Lemma 1.12. Seien z, w ∈ C, dann gelten:
a) z + w = z + w sowie zw = z · w.
b) |z|2 = z · z und |zw| = |z| · |w|
c) z + z = 2<(z) und z − z = 2i · =(z).
Auch wenn komplexe Zahlen auf den ersten Blick weniger “natürlich” wirken als komplexe Zahlen, hat ihre Verwendung zahlreiche Vorteile. Das wird insbesondere im zweiten
Semester deutlich werden.
1.3.2
Die Körper Z/pZ
Satz 1.13. Der Restklassenring Z/nZ ist genau dann ein Körper, wenn n eine Primzahl
ist.
Beweis: Schreibe [k] für die Restklasse k + nZ.
Zunächst ist Z/1Z = {Z} einelementig, also nach Definition kein Körper. Ist weiter n
eine zusammengesetzte Zahl, also n = km mit zwei natürlichen Zahlen 1 < k, m < n,
dann gilt [k][m] = [km] = [0], aber sowohl [k] 6= [0] als auch [m] 6= [0]. Nach Lemma 1.8
c) kann Z/nZ dann kein Körper sein.
Sei nun n eine Primzahl. Angenommen, es gäbe ein nicht-invertierbares Element [k] ∈
Z/nZ \ {[0]} (mit k ∈ {1, ..., n − 1}). Da also unter den n Werten [a] · [k], mit a ∈
{0, ..., n − 1}, nicht der Wert [1] auftritt, müssen zwei dieser Werte zusammenfallen:
[a] · [k] = [b] · [k] für geeignete 0 ≤ a < b ≤ n − 1. Aber dann ist [b − a][k] = ([b] − [a])[k] =
[b][k] − [a][k] = [0], d.h. das Produkt aus b − a und k ist durch n teilbar. Da n Primzahl
ist, muss einer der Faktoren durch n teilbar sein; aber sowohl b − a als auch k lagen in
{1, ..., n − 1}; ein Widerspruch.
Bemerkungen:
KAPITEL 1. ALGEBRAISCHE STRUKTUREN
17
a) Die bekannten Körper Q, R und C sind ineinander enthalten: Q ⊂ R ⊂ C. Die
endlichen Körper Z/pZ sind aber nicht in C enthalten! Auch wenn die Elemente
von Z/pZ der Einfachheit halber oft als 0, 1, ..., p − 1 geschrieben werden, darf
man sie nicht einfach mit den genauso geschriebenen ganzen Zahlen identifizieren
(z.B. gelten in Z/pZ Identitäten wie 1 + (p − 1) = 0, in den ganzen Zahlen aber
natürlich nicht!). Sie bilden vielmehr ein eigenes “Universum”.
b) Es gibt auch endliche Körper, deren Mächtigkeit keine Primzahl ist, aber nach
obigem Satz sind diese dann nicht von der Form Z/nZ.
Kapitel 2
Vektorräume und ihre Struktur
2.1
Der Begriff des Vektorraums
Definition 2.1 (Vektorraum). Sei V eine nicht-leere Menge, + eine Verknüpfung auf
V , K ein Körper und · : K × V → V . Dann heißt (V, +, ·) ein K-Vektorraum, falls
gelten:
V1) (V, +) ist eine abelsche Gruppe.
V2) Die Abbildung · erfüllt (λµ) · v = λ · (µ · v) für alle λ, µ ∈ K und alle v ∈ V
(”gemischte Assoziativität”), sowie 1 · v = v für alle v ∈ V (”Normiertheit”).
V3) Es gelten (λ+µ)·v = λ·v+µ·v für alle λ, µ ∈ K, v ∈ V , sowie λ·(v+w) = λ·v+λ·w
für alle λ ∈ K, v, w ∈ V (”gemischte Distributivitäten”). 1
Die Elemente von V heißen Vektoren, die Elemente von K Skalare.
Bemerkungen:
• In der Definition eines Vektorraums wird nicht verwendet, dass man Elemente von
K \ {0} multiplikativ invertieren kann. Die Definition lässt sich also ohne Weiteres
verallgemeinern, indem man den Körper K durch einen beliebigen Ring R ersetzt.
Man sagt dann, V ist ein R-Modul. Wir beschränken uns in dieser Vorlesung aber
auf die Betrachtung von K-Moduln, also Vektorräumen.
• Man beachte, dass in der Definition eines Vektorraums nur eine Skalarmultiplikation definiert ist, nicht aber eine Multiplikation zwischen zwei Vektoren! Zwar gibt
1
Man beachte, dass hier zwei verschiedene Arten von + auftauchen, nämlich die Addition innerhalb
von K und die innerhalb von V . Wir bezeichnen beide mit dem selben Symbol. Das ist zwar eigentlich
eine Ungenauigkeit, aber in der Anwendung sehr praktikabel. Ebenso bezeichnen wir sowohl das additive
Neutrale des Körpers, als auch dasjenige des Vektorraums (d.h. den Nullvektor) mit 0.
18
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
19
es einige sehr spezielle Vektorräume, die gleichzeitig Ringe sind; in allgemeinen
Vektorräumen sind aber Ausdrücke der Form v · w, oder gar v −1 , nicht sinnvoll!
Lemma 2.1 (Rechenregeln). Sei V ein K-Vektorraum.
a) Für alle v ∈ V gilt 0 · v = 0 und für alle λ ∈ K gilt λ · 0 = 0.
b) Ist 0 6= v ∈ V und 0 6= λ ∈ K, dann ist λv 6= 0.
c) Für alle v ∈ V ist (−1) · v = −v.
Beweis: Zu a): Es ist 0 · v = (0 + 0) · v = 0 · v + 0 · v, also 0 = 0 · v. Analog zeigt man
den zweiten Teil.
Zu b): Wäre λv = 0, dann 0 = λ−1 ·0 = λ−1 (λv) = (λ−1 λ)v = 1·v = v, ein Widerspruch.
Zu c): Es gilt v + (−1) · v = (1 + (−1)) · v = 0 · v = 0, und somit ist (−1) · v das additive
Inverse von v.
Beispiele:
a) Sind L ein Körper und K ein Teilkörper von L, dann ist L in natürlicher Weise
ein K-Vektorraum; als Skalarmultiplikation λ · v (für λ ∈ K, v ∈ L) wählt man
einfach die normale Körpermultiplikation aus L.
b) Ist M eine nicht-leere Menge und K ein Körper, dann wird die Menge V :=
Abb(M, K) := {f : M → K} der Abbildungen von M nach K in natürlicher
Weise ein Vektorraum. Man muss hierzu definieren, was die Summe f + g zweier
Abbildungen sein soll, und tut dies durch (f + g)(x) := f (x) + g(x) (für f, g ∈ V ,
x ∈ M ). Beachte, dass das + auf der rechten Seite die Addition in K, also bereits
definiert, ist. Ebenso muss man eine Skalarmultiplikation definieren und tut dies
durch (λ · f )(x) = λ · f (x), für λ ∈ K, f ∈ V und x ∈ M . Nun lassen sich die
Vektorraumaxiome leicht nachrechnen.
b’) Die Vektorräume K n
Das vorige Beispiel ist sehr allgemein! Ein wichtiger Spezialfall ergibt sich, wenn
|M | =: n endlich ist. Ohne Einschränkung setzen wir dann M = {1, ..., n}. Eine
Abbildung f : M → K ist dann nichts anderes, als ein n-Tupel (x1 , ..., xk ) (mit
xi ∈ K), wobei der i-te Eintrag gerade das Bild f (i) bedeute. Die oben definierte
Addition funktioniert dann ”komponentenweise”, d.h. (x1 , ..., xn ) + (y1 , ..., yn ) =
(x1 + y1 , ..., xn + yn ), und analog für die Skalarmultiplikation: λ · (x1 , ..., xn ) =
(λx1 , ..., λxn ). Wir bezeichnen diesen Vektorraum als K n .
Sonderfälle wie R2 oder R3 sind bereits aus der Schule bekannt. Diese Vektorräume
sind durchaus wichtig und hilfreich fürs Verständnis. Es lohnt sich, bei kommenden
Definitionen und Sätzen immer wieder zu überprüfen, was diese in den geometrisch
anschaulichen Räumen R2 oder R3 bedeuten. Gleichzeitig sollte man sich aber klar
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
20
sein, dass es viele weitere Vektorräume gibt; Argumente mit der geometrischen
Anschauung sind also nicht geeignet, um Aussagen über allgemeine Vektorräume
zu zeigen!
b”) Folgenräume
Ein weiterer Spezialfall ergibt sich für M := N. Dann ist V = K N der Vektorraum der K-wertigen Folgen, d.h. den Abbildungen f : N → K. Wir schreiben
(xn )n∈N := (x1 , x2 , x3 , ...) mit xi ∈ K für die Folge f mit f (i) = xi (i ∈ N). Reelloder komplexwertige Folgen sind etwa in der Analysis besonders wichtig.
c) Polynomräume
Sei K ein Körper und K[X] der Polynomring über K. Dann ist (K[X], +) bereits
eine additive abelsche Gruppe. Definieren wir zusätzlich noch eine Skalarmultiplikation durch
n
n
X
X
k
λ·
ak X :=
(λak )X k ,
k=0
k=0
(für λ, a0 , ..., an ∈ K), dann wird K[X] damit zu einem K-Vektorraum.
Bemerkung: Ist K ein endlicher Körper, dann sieht man rein kombinatorisch, dass der
Vektorraum K n genau |K|n Elemente hat. Ist dagegen K unendlich, dann ist auch K n
unendlich.
2.2
2.2.1
Unterräume und Faktorräume
Unterräume
Definition 2.2 (Unterraum). Sei V ein K-Vektorraum und U ⊂ V eine nichtleere
Teilmenge. U heißt Unterraum von V , wenn gelten:
U1) λu ∈ U für alle λ ∈ K, u ∈ U , sowie
U2) u + v ∈ U für alle u, v ∈ U .
Lemma 2.2. Für eine nicht-leere Teilmenge U eines K-Vektorraums V sind äquivalent:
i) U ist Unterraum.
ii) U ist bzgl. der Addition und Skalarmultiplikation von V selbst wieder ein Vektorraum.
iii) Für alle λ, µ ∈ K und u, v ∈ U ist λu + µv ∈ U .
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
21
Beweis: i)⇒ii): Sei U Unterraum, u ∈ U . Mit λ = 0 in Def. 2.2 erhalten wir 0 ∈ U .
Außerdem ist U bezüglich Addition und auch unter additiver Inversenbildung (setze hierzu λ = −1) abgeschlossen. Damit ist (U, +) abelsche Gruppe (da Untergruppe von
(V, +)).
Weiter ist U auch unter Skalarmultiplikation abgeschlossen. Die übrigen Vektorraumaxiome vererben sich von V .
ii)⇒iii): Ist U selbst Vektorraum, dann ist U abgeschlossen unter Addition und Skalarmultiplikation, also ist |{z}
λu + µv ∈ U für alle u, v ∈ U , λ, µ ∈ K.
|{z}
∈U
∈U
iii)⇒i): Mit µ = 0 erhält man U1) aus Def. 2.2; mit λ = µ = 1 erhält man U2). Also ist
U Unterraum.
Beispiele:
• In jedem Vektorraum V ist der Nullraum {0} ein Unterraum.
λa
• Sei K ein Körper und seien a, b ∈ K, nicht beide gleich 0. Dann ist {
|λ∈
λb
K} ein Unterraum von K 2 . Man beachte den Spezialfall K = R: die Unterräume
der angegebenen Form sind genau die Ursprungsgeraden in der reellen Ebene!
Geraden, die nicht durch den Ursprung verlaufen, sind dagegen keine Unterräume,
da ihnen der Nullvektor fehlt.
• Im R-Vektorraum V = Abb(R, R) aller Abbildungen von R in sich selbst ist die
Menge aller stetigen Abbildungen ein Unterraum. Das liegt daran, dass Summen
und skalare Vielfache stetiger Funktionen wieder stetig sind (was aber nicht hier,
sondern in der Analysis bewiesen wird). Ebenso ist die Menge aller differenzierbaren Abbildungen ein Unterraum von V .
• Sei V der Vektorraum aller reellen Polynome und n ∈ N0 . Dann ist die Menge
aller Polynome vom Grad höchstens n ein Unterraum von V .
Definition 2.3 (Linearkombination).P
Seien v1 , ..., vn endlich viele Vektoren des KVektorraums V . Ein Element der Form ni=1 λi vi heißt Linearkombination über v1 , ..., vn .
Ist M ⊂ V eine beliebige
(evtl. auch unendliche) Teilmenge, dann bezeichnet man anaP
log jedes Element v∈S λv · v mit λv ∈ K und einer endlichen Teilmenge S von M als
Linearkombination über M .
Die Bedeutung des Begriffs der Linearkombination
sehen wir erstmals folgendermaßen:
P
Ist U ⊂ V Unterraum, dann gilt sogar ni=1 λi ui ∈ U für alle n ∈ N, λ1 , ..., λn ∈ K
und u1 , ..., un ∈ U . Das erhält man einfach durch sukzessive Anwendung der Unterraumeigenschaft aus Def. 2.2.
Unterräume sind also abgeschlossen unter der Bildung von Linearkombinationen. Damit
zeigt man die folgende Aussage (vergleiche die verwandte Aussage über Gruppen in Satz
1.3):
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
22
Satz 2.3. Sei V ein K-Vektorraum und M ⊂ V irgendeine Teilmenge. Dann ist die
Menge
n
X
hM i := {
λi mi | n ∈ N0 ; λ1 , ...λn ∈ K; m1 , ..., mn ∈ M }
i=1
aller Linearkombinationen über M gerade der kleinste Unterraum von V , der M enthält.
Man nennt hM i die lineare Hülle (oder das Erzeugnis) von M ; umgekehrt nennt man
M ein Erzeugendensystem des Unterraums U , falls hM i = U gilt.
Beweis: hM i ist nicht-leer (die als 0 definierte leere Summe ist immer enthalten) und
erfüllt die Unterraumeigenschaft aus Def. 2.2, denn wenn u, v ∈ M zwei Linearkombinationen über M und λ ∈ K sind, dann sind auch λu und u + v wieder eine Linearkombination über M . Also ist hM i ein Unterraum von V , der M enthält. Umgekehrt muss
nach obiger Bemerkung jeder M enthaltende Unterraum auch alle Linearkombinationen
über M , und damit ganz hM i enthalten.
Ein und den selben Vektorraum kann man auf sehr unterschiedliche, und vor allem auch
unterschiedlich effektive, Weisen erzeugen. Beispielsweise ist der Vektorraum R3 das
Erzeugnis der drei Vektoren (1, 0, 0), (0, 1, 0) und (0, 0, 1). Andererseits kann man ihn
natürlich auch als Erzeugnis unendlich vieler Vektoren schreiben, etwa R3 = h{(α, β, γ) |
α, β, γ ∈ R \ {0}}i. Die zweite Variante ist ganz klar unpraktischer, weil das Erzeugendensystem viel größer als nötig ist. Solche Überlegungen werden wir in Kürze noch
präzisieren.
2.2.2
Schnitte und Summen von Unterräumen
Um mehr über die Struktur der Unterräume eines Vektorraums herauszufinden, lohnt es
sich, Schnitte und Vereinigungen zweier Unterräume zu betrachten. Wie schon bei den
Untergruppen stellt man fest, das sich die Vereinigungsbildung (anders als der Schnitt)
nicht mit der Unterraumeigenschaft verträgt. Das führt auf den Begriff der Summe von
zwei (oder auch mehr) Unterräumen.
Satz 2.4 (Schnitt und Summe von Unterräumen). Seien U1 , U2 Unterräume des Vektorraums V , dann sind auch U1 ∩ U2 und U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }
Unterräume von V . Weiter ist U1 + U2 = hU1 ∪ U2 i, also der kleinste Unterraum, der
U1 und U2 enthält.
Beweis: Die Unterraumeigenschaft prüft man jeweils direkt nach. Zur Zusatzaussage:
Da U1 + U2 ein Unterraum ist, der U1 ∪ U2 enthält, enthält er auch alle Linearkombinationen dieser Menge, also ganz hU1 ∪U2 i. Andererseits ist jedes Element von U1 +U2 eine
(sogar sehr spezielle) Linearkombination über U1 ∪ U2 , also in hU1 ∪ U2 i enthalten.
Definition 2.4 (Direkte Summe (aus zwei Unterräumen), Komplement). Falls die Unterräume U1 und U2 von V sich trivial schneiden, also U1 ∩ U2 = {0}, dann sagt man,
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
23
dass U1 und U2 ihre direkte Summe bilden, und man schreibt auch U1 ⊕ U2 für U1 + U2 .
U2 heißt dann ein Komplement von U1 im Vektorraum W := U1 + U2 .
Beispiele:
• Seien U1 := { λ0 ∈ R2 | | λ ∈ R}(= he1 i), U2 := { µ0 ∈ R2 | | µ ∈ R}(= he2 i)
und U3 := {( µµ ) ∈ R2 | | µ ∈ R}(= he1 + e2 i). Dann ist R2 = U1 ⊕ U2 und ebenso
R2 = U1 ⊕ U3 . Daran sieht man schon, dass ein gegebener Unterraum U1 im
Allgemeinen kein eindeutiges Komplement besitzt.
λ
0
• Seien U1 := { µ ∈ R3 | | λ, µ ∈ R}(= he1 , e2 i) und U2 := { λ ∈ R3 | | λ, µ ∈
µ
0
R}(= he2 , e3 i). Dann ist R3 = U1 + U2 , die Summe ist jedoch nicht direkt.
• Definiere die Menge der geraden Polynome über K als
G := {
n
X
α2k · X 2k | n ∈ N0 , α0 , ..., α2n ∈ K}
k=0
und die Menge der ungeraden Polynome als
n
X
α2k+1 · X 2k+1 | n ∈ N0 , α1 , ..., α2n+1 ∈ K}.
U := {
k=0
Dann sind G und U Unterräume des Raums aller Polynome über K, und dieser
ist die direkte Summe aus G und U .
Das folgende Lemma liefert eine wichtige Charakterisierung für direkte Summen:
Lemma 2.5. Seien U1 und U2 Unterräume von V . Dann gilt V = U1 ⊕ U2 genau
dann, wenn für jedes v ∈ V genau ein u1 ∈ U1 und genau ein u2 ∈ U2 existieren mit
v = u1 + u2 .
Beweis: Die Existenz solcher u1 , u2 ist äquivalent dazu, dass V = U1 + U2 . Man nehme
nun an, es gäbe für ein v ∈ V zwei Darstellungen v = u1 + u2 = u01 + u02 (mit ui , u0i ∈ Ui ).
Dann ist u1 − u01 = u02 − u2 ∈ U1 ∩ U2 . Falls nun U1 ∩ U2 = {0}, also folgt u1 = u01
und u2 = u02 , also die Eindeutigkeit der Summendarstellung. Ist dagegen U1 ∩ U2 6= {0},
dann gibt es ein 0 6= u ∈ U1 ∩ U2 und es hat schon der Nullvektor zwei verschiedene
Darstellungen
0 = |{z}
0 + |{z}
0 = |{z}
u + −u .
|{z}
∈U1
∈U2
∈U1
∈U2
Bemerkung:
Bisher haben wir uns auf Schnitte und Summen von zwei Unterräumen beschränkt. Die
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
24
Begriffe lassen sich aber auch auf beliebig viele Unterräume Ui ⊂ V (mit irgendeiner
Indexmenge I) ausdehnen. FürTden Schnitt ergibt sich dabei nichts Neues: man sieht
völlig analog zu Satz 2.4, dass i∈I Ui wieder ein Unterraum ist.
Ebenso lässt sich die Definition der Summe von Unterräumen völlig analog auf endlich
2
viele
Pn Unterräume U1 , ..., Un verallgemeinern . Man erhält genauso die Aussage, dass
i=1 Ui := U1 + ... + Un der kleinste Unterraum ist, der alle Unterräume Ui enthält.
Bei der Definition der direkten Summe muss man aber aufpassen:
Definition 2.5 (Direkte Summe endlich vieler Unterräume). Seien U1 , ..., Un Unterräume
des
Ln Vektorraums V . Die Summe U1 + ... + Un heißt direkt (schreibe: U1 ⊕ ... ⊕ Un oder
i=1 Ui ), wenn für alle i = 1, ..., n gilt:
Ui ∩ (
n
X
Ui ) = {0}.
j=1
j6=i
Der Schnitt jeweils eines der Unterräume mit der gesamten restlichen Summe muss also
trivial sein! Würde man nur Ui ∩ Uj = {0} fordern (für alle 1 ≤ i 6= j ≤ n), erhielte man
nicht das Gewünschte (wie z.B. die Eindeutigkeit der Darstellung, analog zu Lemma
2.5).
2.2.3
Faktorräume
Ein weiterer wichtiger Begriff, der eng mit dem des Unterraums zusammenhängt, ist der
des affinen Unterraums.
Definition 2.6 (Affiner Unterraum). Sei V ein Vektorraum, U ⊂ V ein Unterraum und
v ∈ V . Dann bezeichnet man die Menge v + U := {v + u | u ∈ U } als affinen Unterraum.
Bemerkung:
• Achtung! Affine Unterräume sind im allgemeinen keine Unterräume! Insbesondere
folgt aus 0 ∈ v + U schon v = −u für ein u ∈ U , also v ∈ U !
• Vielmehr sind affine Unterräume gerade die Nebenklassen der additiven Untergruppe U von (V, +).
Entsprechend folgt aus v+U = w+U im Allgemeinen nicht v = w! Stattdessen gilt
v + U = w + U genau dann, wenn v − w ∈ U (vgl. die Bemerkung nach Definition
1.4).
Wir fixieren nun einen Unterraum U und betrachten die Menge aller affinen Unterräume
v + U (mit v ∈ V ). Geometrisch gesehen kann man diese als “Parallelverschiebungen” von U interpretieren. Wir werden nun sehen, dass wir diese affinen Unterräume
2
Sogar auf unendlich viele, wobei man dann fordern muss, dass ein festes Element der Summe immer
nur aus endlich vielen Summanden besteht (vgl. die Definition der Linearkombination).
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
25
wieder in natürlicher Weise als Vektoren eines neuen Vektorraums auffassen können des Faktorraums V /U .
Satz 2.6 (Faktorraum). Sei V ein Vektorraum und U ⊂ V ein Unterraum. Dann wird
die Menge V /U := {v + U | v ∈ V } auf natürliche Weise zu einem Vektorraum via
(v + U ) + (w + U ) := (v + w) + U
und
λ · (v + U ) := (λ · v) + U.
Man nennt V /U den Faktorraum von V über U .
Beweis: Zunächst ist die Wohldefiniertheit der oben definierten Verknüpfungen zu zeigen.
Seien dazu v1 , v2 , w1 , w2 ∈ V so, dass v1 + U = v2 + U und w1 + U = w2 + U . Nach
obiger Bemerkung liegen dann v1 − v2 und w1 − w2 in U . Damit liegt aber auch
(v1 + w1 ) − (v2 + w2 ) in U und es folgt (v1 + w1 ) + U = (v2 + w2 ) + U , womit die Addition
auf V /U wohldefiniert ist. Ebenso ist λv1 − λv2 ∈ U , also (λv1 ) + U = (λv2 ) + U , womit
auch die Skalarmultiplikation wohldefiniert ist. Die Vektorraumaxiome für V /U folgert
man nun sehr schnell aus denen für V (man beachte etwa, dass 0 + U (= U ) das additive
Neutrale in V /U ist).
Skizze: Faktorräume und Komplemente
W
v2
0
v1
U + v2
U
U + v1
Faktorräume und Komplemente haben durchaus etwas miteinander zu tun: Ist V =
U ⊕ W , dann ist die Abbildung W → V /U , definiert durch w 7→ w + U eine Bijektion3
3
Und sogar ein Isomorphismus, siehe das Kapitel über lineare Abbildungen.
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
26
(die Surjektivität folgt daraus, dass jedes v ∈ V in der Form v = u + w (u ∈ U ,
w ∈ W ) geschrieben werden kann, und u + w + U = w + U ; die Injektivität folgt, da
w1 +U = w2 +U schon w1 −w2 ∈ U ∩W = {0} erzwingt). Falls U ein Komplement besitzt
(was, wie wir bald sehen werden, in endlich-dimensionalen Vektorräumen immer der Fall
ist), kann man also ein solches Komplement in gewisser Weise mit V /U identifizieren.
Trotzdem hat die Betrachtung von Faktorräumen ihre Vorteile. Z.B. ist ein Komplement
im Allgemeinen nicht eindeutig. Der Unterraum U := {(x, 0) ∈ R2 |x ∈ R} (also die
x-Achse!) hat jede Menge Komplemente im Vektorraum R2 , nämlich jede von der xAchse verschiedene Ursprungsgerade! Dagegen ist der Faktorraum V /U etwas eindeutig
Definiertes (seine Elemente sind alle zur x-Achse parallelen Geraden).
2.3
2.3.1
Basis und Dimension
Begriffe und zentrale Eigenschaften
Wir kommen nun zu einem der zentralen Begriffe der linearen Algebra:
Definition 2.7 (Basis). Eine Teilmenge B ⊂ V eines Vektorraums V heißt Basis, wenn
hBi = V und hCi =
6 V für alle echten Teilmengen C von B. (D.h., B ist ein (bezüglich
Inklusion) minimales Erzeugendensystem von V ).
Sofort aus der Definition folgt:
Lemma 2.7. Jeder Vektorraum V , der sich von einer endlichen Menge erzeugen lässt,
besitzt eine Basis.
Definition 2.8 (Lineare Abhängigkeit bzw. Unabhängigkeit). Vektoren v1 , ..., vn eines
Vektorraums V heißen linear unabhängig, falls sich der Nullvektor nur auf “triviale
Weise” als Linearkombination über v1 , ..., vn schreiben lässt; falls also aus
0=
n
X
λi vi , mit λ1 , ..., λn ∈ K
i=1
bereits λ1 = ... = λn = 0 folgt. Anderenfalls heißen v1 , ..., vn linear abhängig.
Analog zur Definition von Linearkombination sind lineare Abhängigkeit bzw. Unabhängigkeit
auch für beliebige Mengen von Vektoren definiert.
So heißt eine Teilmenge M eines Vektorraums V linear unabhängig, falls aus
X
0=
λv · vmit einer endlichen Teilmenge S ⊂ M
v∈S
schon λv = 0 für alle v ∈ S folgt.
Einige einfache Folgerungen:
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
27
Lemma 2.8.
a) Die leere Menge ist linear unabhängig, und {0} ist die einzige einelementige Teilmenge eines Vektorraums, die linear abhängig ist.
b) Teilmengen linear unabhängiger Mengen sind linear unabhängig, und Obermengen
linear abhängiger Mengen sind linear abhängig.
Bemerkung:
In Definition 2.8 ergibt sich ein feiner Unterschied zwischen der Definition für Vektoren v1 , ..., vn und für Mengen. Ist nämlich im ersten Fall vi = vj = v für gewisse
i 6= j ∈ {1, .., n}, dann ist 0 = 1 · vi − 1 · vj eine nicht-triviale Darstellung der 0 als Linearkombination, also sind v1 , ..., vn linear abhängig. Die zugehörige Menge {v1 , ..., vn }
enthält dagegen jeden Vektor nur einmal, und ist damit nicht notwendigerweise linear
abhängig.
Das folgende Lemma ist nützlich um nach und nach größere linear unabhängige Mengen
zu finden.
Lemma 2.9. Sei M ⊂ V eine linear unabhängige Menge und v ∈ V , mit v ∈
/ M . Dann
ist M ∪ {v} genau dann linear unabhängig, wenn v ∈
/ hM i.
P
Beweis: IstP
v ∈ hM i, dann v = ni=1 αi vi für geeignete αi ∈ K, vi ∈ M . Dann ist aber
0 = 1 · v − ni=1 αi vi , also ist die Menge M ∪ {v} linear abhängig.
Sei nun M ∪ {v} wäre linear abhängig. Dann lässt sich der Nullvektor als nicht-triviale
Linearkombination über M ∪ {v} darstellen, und da ja M linear unabhängig ist, muss
in dieser Linearkombination
der Vektor v mit einem Vorfaktor λ 6= 0 vorkommen.
Also
Pn
1 Pn
0 = λv + i=1 αi vi (n ∈ N0 , αi ∈ K, vi ∈ M ). Aber dann ist v = − λ i=1 αi vi ∈
hM i.
Im Folgenden einige wichtige Charakterisierungen von Basen:
Lemma 2.10. Sei V Vektorraum und B ⊂ V . Dann sind äquivalent:
i) B ist Basis von V .
ii) B ist ein linear unabhängiges Erzeugendensystem von V .
iii) B ist eine (bezüglich Inklusion) maximale linear unabhängige Teilmenge von V .
iv) Jedes v ∈P
V besitzt eine (bis auf Reihenfolge der Summanden) eindeutige Darstellung v = ni=1 λi bi (mit einem n ∈ N0 , λi 6= 0 und paarweise verschiedenen bi ∈ B)
als Linearkombination über B.
Pn
Beweis: Sei zunächst B Basis von V . Angenommen
i=1 λi bi = 0 für ein n ∈ N
und λi ∈ P
K, bi ∈ B (i = 1, ..., n). Wäre hier ein λj von 0 verschieden, dann wäre
bj = − λ1j ni=1 λi bi , und somit bj ∈ hB \ {bj }i. Aber dann wäre B ⊂ hB \ {bj }i und
i6=j
somit hBi = hB \ {bj }i, im Widerspruch zur Minimalität von B. Das zeigt i)⇒ii).
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
28
Sei nun B linear unabhängiges Erzeugendensystem
von V . Wegen hBi = V hat jedes
Pn
v ∈ V \ B eine Darstellung
P der Form v = i=1 λi bi (mit n ∈ N und λi ∈ K, bi ∈ B).
Dann ist aber 0 = v − ni=1 λi bi eine lineare Abhängigkeit der Menge B ∪ {v}. Also ist
B maximal linear unabhängig. Das zeigt ii)⇒iii).
Nun sei B maximal linear unabhängig. LemmaP
2.9 zeigt, dass v ∈ hBi für alle v ∈ V gilt.
n
Insbesondere hat jedes
Pnv eine Darstellung v = i=1 λi bi als Linearkombination über B.
Angenommen v =
i=1 µi bi wäre eine weitere solche Darstellung für v (wir können
hier annehmen, dass beide Linearkombinationen über die selbe Teilmenge
P von B laufen,
indem wir gegebenfalls mit Vorfaktoren 0 auffüllen). Dann ist aber 0 = ni=1 (λi − µi )bi ,
und wegen der linearen Unabhängigkeit von B folgt λi = µi für alle i. Das zeigt iii)⇒iv).
Gelte schließlich iv). Dann ist B offensichtlich Erzeugendensystem von V . Wäre B
nicht
Pn minimal, dann gäbe es b ∈ B mit hB \ {b}i = V . Insbesondere wäre dann b =
i=1 λi bi mit geeigneten λi ∈ K und bi ∈ B \ {b}. Hier stehen aber links und rechts des
Gleichheitszeichens zwei verschiedene Darstellungen von b als Linearkombination über
B, im Widerspruch zur Voraussetzung. Also gilt iv)⇒i).
Man mache sich die Bedeutung der verschiedenen Charakterisierungen in obigem Lemma
klar. Z.B. besagt ii), dass jeder Vektor aus V als Linearkombination über B darstellbar
ist (Erzeugendeneigenschaft) und dass im Fall des Nullvektors diese Darstellung auch
eindeutig ist (lineare Unabhängigkeit!). Die Folgerung ii)⇒iv) liefert dann schon, dass
jeder Vektor aus V eine solche eindeutige Darstellung besitzt.
Wir konzentrieren uns im Folgenden auf endlich erzeugte Vektorräume. Unser Ziel ist
zu zeigen, dass hier alle Basen die gleiche Mächtigkeit haben.
Lemma 2.11 (Austauschlemma). Sei B = {v1 , ..., vn } eine Basis des Vektorraums V
und sei w ∈ V \ {0}. Dann existiert ein j ∈ {1, ..., n}, so dass auch B 0 := (B \ {vj }) ∪
{w} eine Basis ist. Man kann also einen geeigneten Vektor aus der Basis B gegen w
austauschen, ohne die Basis-Eigenschaft zu verlieren.
Beweis: Da
P B Basis ist, existiert eine Darstellung von w als Linearkombination über B,
also w = ni=1 λi vi . Da w 6= 0, existiert ein j ∈ {1, ..., n} mit λj 6= 0. Dann ist
n
X
1
vj = (w −
λi vi ) ∈ h(B \ {vj }) ∪ {w}i.
λj
|
{z
}
i=1
i6=j
=:B 0
Damit ist aber auch ganz V = h{v1 , ..., vn }i ∈ hB 0 i, also ist B 0 Erzeugendensystem von
V.
B 0 ist auch linear unabhängig, also Basis von V , denn:
P
Gäbe es eine lineare Abhängigkeit 0 = λ · w + ni=1 λi vi in B 0 , dann wäre sicher
i6=j
der Vorfaktor λ von w ungleich 0, denn ansonsten hätte man ja sogar eine lineare
Abhängigkeit innerhalb von B, im Widerspruch zur Basis-Eigenschaft. λ 6= 0 liefert
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
aber w = − λ1
Pn
i=1
29
λi vi , und damit ist w auf zwei verschiedene Weisen als Linearkom-
i6=j
bination über B darstellbar, nämlich einmal mit nicht-trivialem Vorfaktor bei vj (siehe
oben), und einmal ohne. Wegen Punkt iv) in Lemma 2.10 ist das ein Widerspruch dazu,
dass B Basis ist.
Bemerkung: Wir haben das Austauschlemma zunächst als reine Existenzaussage formuliert. Der Beweis liefert aber mehr: er zeigt, gegen welche Basisvektoren vi man den
Vektor
P w austauschen kann, nämlich gegen alle, für die in der (eindeutigen) Darstellung
w = ni=1 λi vi der Vorfaktor λi ungleich 0 ist!
Satz 2.12 (Austauschsatz von Steinitz4 ). Sei V ein endlich erzeugter Vektorraum, B :=
{v1 , ..., vn } eine Basis von V und {w1 , ..., wk } eine linear unabhängige Teilmenge von V .
Dann gelten:
a) k ≤ n.
b) Es gibt k paarweise verschiedene Indizes i1 , ..., ik ∈ {1, ..., n}, so dass die Menge
B 0 := (B \ {vi1 , ..., vik }) ∪ {w1 , ..., wk } wieder eine Basis von V ist.
Beweis: (Induktion über k.)
Für k = 0 ist nichts zu zeigen. Gelte die Behauptung nun für alle k − 1-elementigen
linear unabhängigen Teilmengen (k ∈ N fest). Es existieren also paarweise verschiedene
b := (B \{vi , ..., vi })∪{w1 , ..., wk−1 } wieder eine Basis
i1 , ..., ik−1 ∈ {1, ..., n}, so dass B
1
k−1
b den man
von V ist. Nach dem vorigen Lemma existiert ein Vektor v in der Menge B,
gegen wk austauschen kann, ohne die Basis-Eigenschaft zu verlieren. Wir sind fertig,
wenn wir zeigen können, dass v aus der Menge B \ {vi1 , ..., vik−1 } wählbar ist (dann ist
auch k ≤ n gezeigt, da sonst ja B \ {vi1 , ..., vik−1 } leer wäre).
b darstellen, und der
Der Vektor wk lässt sich als Linearkombination über der Basis B
b austauschen
Beweis des Austauschlemmas zeigt, dass wir wk gegen jeden Vektor aus B
können, der in dieser Darstellung einen Vorfaktor 6= 0 hat. Wären nur die Vorfaktoren
von w1 ,..., wk−1 ungleich 0, dann hätten wir eine lineare Abhängigkeit innerhalb der
Menge {w1 , ..., wk }, im Widerspruch zur Voraussetzung. Also enthält B \ {vi1 , ..., vik−1 }
wenigstens ein Element, dessen Vorfaktor in unserer Darstellung von wk ungleich 0 ist,
und gegen dieses lässt sich wk austauschen.
Aus dem Austauschsatz folgt sofort eines der zentralen Ergebnisse der linearen Algebra:
Satz 2.13. Sei V ein endlich erzeugter K-Vektorraum. Dann haben alle Basen von V
die gleiche Mächtigkeit n ∈ N0 .
Dieses n heißt die Dimension von V , kurz n = dimK (V ), bzw. oft auch nur n =
dim(V ).
4
Ernst Steinitz (1871-1928)
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
30
Beweis: Da V endlich erzeugt ist, existiert auch eine endliche Basis B := {v1 , ..., vn }.
Sei B 0 eine weitere (noch nicht als endlich vorausgesetzte) Basis und M ⊂ B 0 irgendeine
endliche Teilmenge. Dann ist M 0 linear unabhängig, und mit Satz 2.12a) folgt sofort
|M | ≤ |B| = n. Da das für alle endlichen Teilmengen von B 0 gilt, muss B 0 selbst endlich
sein, mit |B 0 | ≤ |B|. Aber genauso folgt |B| ≤ |B 0 |, also insgesamt Gleichheit.
Beispiele:
a) Im Vektorraum K n bilden die Elemente e1 := (1, 0, ..., 0), e2 := (0, 1, 0, ..., 0),...,
en := (0, ..., 0, 1) eine linear unabhängiges Erzeugendensystem, also eine Basis
(Nachrechnen!). Der K n hat also die Dimension n.
Wir bezeichnen die Basis {e1 , ..., en } als die Standardbasis des K n .
Die Standardbasis ist oft für praktische Berechnung im K n besonders nützlich.
Trotzdem sollte man sich im Klaren sein, dass es auch viele andere Basen des K n
gibt.
b) Der Nullraum {0} hat die Dimension 0, denn er wird von der leeren Menge erzeugt,
die damit auch eine Basis ist.
c) C hat als Vektorraum über R die Dimension 2, denn {1, i} ist eine Basis.
d) Der Vektorraum K[X] aller Polynome über K hat unendliche Dimension,denn die
Monome 1, X, X 2 , ... bilden eine Basis. Genauer gesagt ist die Dimension also
abzählbar unendlich.
Der Unterraum aller Polynome vom Grad höchstens n hat die Dimension n + 1,
denn die Monome 1, X, ..., X n bilden eine Basis.
e) Sei V = RN der Vektorraum aller reellen Folgen. Dann lässt sich V nicht von
endlich vielen, und noch nicht einmal von abzählbar unendlich vielen Elementen
erzeugen. Mit Hilfe des Auswahlaxioms der Mengenlehre lässt sich zwar zeigen,
dass jeder Vektorraum eine Basis besitzt, aber hier kann man keine Basis explizit
angeben.5
Bemerkung: Hat V eine unendliche Basis, dann muss jede Basis unendlich sein, und
wir schreiben auch dim(V ) = ∞. In Zukunft sprechen wir statt von endlich erzeugten
Vektorräumen nur noch von endlich-dimensionalen Vektorräumen.
Die folgenden beiden Korollare sind im Wesentlichen schon in Satz 2.12 enthalten, aber
ihre explizite Formulierung ist oft nützlich:
5
Es liegt nahe, die abzählbar vielen Elemente ei (i ∈ N), definiert durch e1 := (1, 0, 0, ...), e2 :=
(0, 1, 0, 0, ...) etc., als eine Basis des Folgenraums zu vermuten (in Analogie mit dem Beispiel K n ),
aber diese Intuition ist falsch! Z.B. lässt sich die Folge (1, 1, 1, ...) nicht als Linearkombination aus
diesen Elementen darstellen, denn eine Linearkombination muss ja immer aus endlich vielen Summanden
bestehen!
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
31
Korollar 2.14. In einem n-dimensionalen Vektorraum ist jede Menge der Mächtigkeit
> n linear abhängig. Insbesondere ist jede linear unabhängige Menge mit n Elementen
eine Basis.
Beweis: Der erste Teil ist nur eine Umformulierung von Satz 2.12a) (erweitert um den
Begriff der Dimension). Der zweite Teil folgt mit der Charakterisierung von Basen als
maximale linear unabhängige Teilmengen.
Korollar 2.15 (Basisergänzungssatz). Jede linear unabhängige Teilmenge M ⊂ V eines
endlich-dimensionalen Vektorraums V lässt sich zu einer Basis B ⊃ M von V ergänzen.
Beweis: M ist nach dem vorigen Korollar endlich (und sogar von der Mächtigkeit ≤
dim(V )). Also tut die in Satz 2.12b) konstruierte Basis B 0 das Gewünschte.
Wir geben noch eine weitere Interpretation der bisherigen Ergebnisse über Existenz
von Basen und Eindeutigkeit der Dimension. Sie stellt den Zusammenhang zu direkten
Summen her. Genauer gesagt liefert jede Basis eines endlich-dimensionalen Vektorraums
V eine Zerlegung von V als direkte Summe eindimensionaler Unterräume:
Satz 2.16 (Struktursatz). Jeder endlich-dimensionale Vektorraum V ist die direkte
Summe von eindimensionalen Unterräumen. Genauer gilt:
V =
n
M
hvi i,
i=1
mit einer beliebigen Basis {v1 , ..., vn } von V .
Pn
Beweis: Die Summeneigenschaft V =
i=1 hvi i folgt sofort aus der Tatsache, dass
{v1 , ..., vn } Erzeugendensystem ist. Ferner ist für alle i ∈ {1, ..., n}:
n
X
hvi i ∩
hvj i = hvi i ∩ h{v1 , ..., vn } \ {vi }i = {0}
j=1
j6=i
wegen der linearen Unabhängigkeit von {v1 , ..., vn }. Damit folgt die Behauptung.
2.3.2
Basis und Dimension von Unterräumen und Faktorräumen
Aus dem Basisergänzungssatz lassen sich einige wichtige Aussagen über Dimensionen
von Unterräumen und Faktorräumen gewinnen.
Lemma 2.17. Sei U ein Unterraum des endlich-dimensionalen Vektorraums V . Dann
gelten:
a) U ist endlich-dimensional und dim(U ) ≤ dim(V ).
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
32
b) Aus dim(U ) = dim(V ) folgt schon U = V .
Beweis: a) folgt direkt daraus, dass sich eine Basis von U zu einer von V ergänzen lässt.
Ist dim(U ) = dim(V ), dann kommen bei dieser Ergänzung keine neuen Vektoren hinzu,
also ist eine Basis von U schon eine von V . Das zeigt b).
Satz 2.18. Sei U ein Unterraum des n-dimensionalen Vektorraums V , sei B := {v1 , ..., vr }
eine Basis von U und sei B 0 := B ∪ {vr+1 , ..., vn } eine B enthaltende Basis von V (so
ein B 0 existiert nach dem Basisergänzungssatz!). Dann gelten:
a) W := h{vr+1 , ..., vn }i ist ein Komplement von U in V , also V = U ⊕ W . Weiter
ist {vr+1 , ..., vn } eine Basis von W , und insbesondere gilt dim(U ⊕ W ) = dim(U ) +
dim(W ).
b) {vr+1 + U, ..., vn + U } ist eine Basis des Faktorraums V /U , also insbesondere
dim(V /U ) = dim(V ) − dim(U ).
Beweis: Zu a): Wegen V = h{v1 , ..., vn }i ⊆ hU ∪ W i ist V = U + W . Die
Pr Summe ist
auchP
direkt, denn ist v ∈ UP∩ W , dannPexistieren Basisdarstellungen v = i=1 αi vi und
v = ni=r+1 βi vi , also 0 = ri=1 αi vi − nj=r+1 βj vj , und da {v1 , ..., vn } linear unabhängig
ist, müssen alle αi und βj gleich 0 sein, also v = 0.
Weiter ist {vr+1 , ..., vn } ein linear unabhängiges Erzeugendensystem von W , also Basis.
Damit folgt auch sofort die Dimensionsformel.
Zu b): Die Elemente vr+1 + U ,..., vn + U sind (paarweise
verschiedenPund) linear unPn
abhängig, denn eine Linearkombination
0 + U = i=r+1 αi (vi + U ) = ( ni=r+1 αi vi ) + U
Pn
würde bedeuten, dass i=r+1 αi vi ∈ U gilt. Aber sowieso ist diese Summe in W , also
auch in U ∩ W = {0}. Damit sind alle αi gleich 0.
Ferner ist {vP
r+1 + U, ..., vn + U } auch ein
P Erzeugendensystem von V /U , denn für beliebiges v = ni=1 αi vi ∈ V gilt v + U = ni=r+1 αi (vi + U ). Die Dimensionsformel folgt
wieder sofort.
Teil a) des vorangegangenen Satzes enthält neben der Aussage, dass jeder Unterraum
eines endlich-dimensionalen Vektorraums ein Komplement besitzt, auch eine Dimensionsformel für direkte Summen. Falls die Summe U + W zweier Unterräume nicht
direkt ist, summieren sich die Dimensionen dagegen nicht einfach auf. Stattdessen gilt
allgemein:
Satz 2.19 (Dimensionsformel für Unterräume). Sei V ein endlich-dimensionaler Vektorraum, U1 und U2 Unterräume von V , dann gilt dim(U1 ) + dim(U2 ) = dim(U1 + U2 ) +
dim(U1 ∩ U2 ).
Insbesondere gilt dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) dann und nur dann, wenn U1 und
U2 ihre direkte Summe bilden.
KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR
33
Beweis: Sei {u1 , ..., uk } eine Basis von U1 ∩U2 , die wir nach Basisergänzungssatz zu einer
Basis B := {u1 , ..., uk , uk+1 , ..., ur } von U1 und zu einer Basis C := {u1 , ..., uk , wk+1 , ..., ws }
von U2 fortsetzen können.
Offensichtlich ist B ∪ C = {v1 , ..., vk , uk+1 , ..., ur , w1 , ..., ws } ein Erzeugendensystem von
hU1 ∪ U2 i = U1 + U2 und hat Mächtigkeit dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ). Die Behauptung folgt also, sobald wir zeigen können, dass B ∪ C auch linear unabhängig (und
damit Basis von U1 + U2 ) ist.
Ps
Pr
Sei also 0 =
j=1 βj wj eine lineare Abhängigkeit. Da {u1 , ..., ur } noch
i=1 αi ui +
s
X
linear unabhängig ist, folgt βj 6= 0 für mindestens ein j. Aber dann ist 0 6= −
β j wj =
j=1
|
Pr
i=1 αi ui
{z
=:w
}
∈ U1 ∩ U2 = hu1 , ..., uk i. Dann ist aber C linear abhängig, ein Widerspruch.
Kapitel 3
Lineare Abbildungen
3.1
Grundlagen
Definition 3.1 (Lineare Abbildungen). Seien V und W K-Vektorräume. Eine lineare
Abbildung (oder ein Homomorphismus) zwischen V und W ist eine Abbildung ϕ : V →
W , die folgendes erfüllt:
ϕ(λv) = λϕ(v) für alle λ ∈ K, v ∈ V,
und
ϕ(v + w) = ϕ(v) + ϕ(w) für alle v, w ∈ V.
Ist ϕ zusätzlich injektiv/ surjektiv/ bijektiv, dann heißt ϕ ein Monomorphismus/ Epimorphismus/ Isomorphismus.
Falls ein Isomorphismus ϕ : V → W existiert, dann sagt man, V und W sind isomorph
- in Formel: V ∼
= W.
Eine lineare Abbildung ϕ : V → V heißt Endomorphismus, und ein bijektiver Endomorphismus heißt Automorphismus.
Bemerkung: Sofort aus der Definition folgt, dass eine lineare Abbildung ϕ : V → W
sogar
ϕ(
n
X
i=1
λ i vi ) =
n
X
λi ϕ(vi ) für alle n ∈ N; λ1 , ..., λn ∈ K; v1 , ..., vn ∈ V
i=1
erfüllt.
Definition 3.2 (Kern und Bild linearer Abbildungen). Sei ϕ : V → W linear.
Die Menge ker(ϕ) := {v ∈ V | ϕ(v) = 0} heißt der Kern der linearen Abbildung ϕ.
Die Menge im(ϕ) := ϕ(V ) = {ϕ(v) ∈ W | v ∈ V } heißt das Bild von V unter ϕ.
Beispiele:
34
KAPITEL 3. LINEARE ABBILDUNGEN
35
• Sei V der Vektorraum aller differenzierbaren Funktionen R → R und W der Vektorraum aller Funktionen R → R, dann ist die Abbildung ϕ : V → W definiert
durch ϕ(f ) := f 0 , linear.
• Sei V = C, aufgefasst als R-Vektorraum. Dann ist ϕ : C → R, ϕ(z) := <(z) linear.
• Sei V = RN der Vektorraum aller reellen Folgen (x1 , x2 , x3 , ...). Dann sind der
Links-Shift ϕl : V → V , definiert durch ϕl ((x1 , x2 , x3 , ...)) := (x2 , x3 , ...) und der
Rechts-Shift ϕr : V → V , definiert durch ϕr ((x1 , x2 , x3 , ...)) := (0, x1 , x2 , x3 , ...)
Endomorphismen von V . Man prüfe nach, dass ϕl surjektiv, aber nicht injektiv
und ϕr injektiv, aber nicht surjektiv ist.
Das ist deshalb interessant, weil wir für Endomorphismen von endlich-dimensionalen
Vektorräumen bald zeigen werden, dass Surjektivität und Injektivität äquivalent
zueinander sind!
• Wichtige weitere Beispiele folgen in den nächsten Abschnitten, z.B. dem Kapitel
über Matrizen.
Lemma 3.1. Die Verkettung zweier linearer Abbildungen ist wieder linear, und die
Verkettung von zweier Isomorphismen sowie die Umkehrabbildung eines Isomorphismus sind wieder Isomorphismen. Insbesondere ist Isomorphie von Vektorräumen eine
Äquivalenzrelation.
Beweis: Seien ϕ : V → W und ψ : W → Z lineare Abbildungen zwischen K-Vektorräumen
V , W bzw. Z. Seien λ, µ ∈ K und v1 , v2 ∈ V . Dann ist (ψ ◦ ϕ)(λv1 + µv2 ) =
ψ(ϕ(λv1 + µv2 )) = ψ(λϕ(v1 ) + µϕ(v2 )) = λψ(ϕ(v1 )) + µψ(ϕ(v2 )). Das zeigt die Linearität. Da zusätzlich auch die Verkettung zweier bijektiver Abbildungen auch wieder
bijektiv ist, folgt auch direkt die Aussage über Verkettung von Isomorphismen.
Sei schließlich ϕ : V → W ein Isomorphismus und ϕ−1 seine Umkehrabbildung. Seien
λ, µ ∈ K und w1 , w2 ∈ W . Wegen der Surjektivität von ϕ existieren v1 , v2 ∈ V mit
ϕ(vi ) = wi . Es folgt λϕ−1 (w1 ) + µϕ−1 (w2 ) = λv1 + µv2 = ϕ−1 (ϕ(λv1 + µv2 )) =
ϕ−1(λϕ(v1 ) + µϕ(v2 )) = ϕ−1 (λw1 + µw2 ). Das zeigt, dass ϕ−1 wieder linear ist, und
sowieso auch bijektiv als Umkehrabbildung einer Bijektion.
Lemma 3.2. Sei ϕ : V → W eine lineare Abbildung. Dann gelten:
a) ϕ(0V ) = 0W .
b) Bilder unter ϕ von Unterräumen von V sind stets Unterräume von W , und Urbilder von Unterräumen von W sind stets Unterräume von V .
Insbesondere ist ker(ϕ) ist ein Unterraum von V , und im(ϕ) ist ein Unterraum
von W .
c) ϕ ist injektiv genau dann, wenn ker(ϕ) = {0}.
KAPITEL 3. LINEARE ABBILDUNGEN
36
Beweis: a) folgt sofort aus ϕ(0V ) = ϕ(0V + 0V ) = ϕ(0V ) + ϕ(0V ).
Zu b): Sei U ein Unterraum von V und seien w1 , w2 ∈ ϕ(U ) und λ1 , λ2 ∈ K. Es
existieren u1 , u2 ∈ U mit w1 = ϕ(u1 ) und w2 = ϕ(u2 ). Dann ist
λ1 w1 + λ2 w2 = λ1 ϕ(u1 ) + λ2 ϕ(u2 ) = ϕ(λ1 u1 + λ2 u2 ) ∈ ϕ(U ).
Also ist ϕ(U ) ein Unterraum.
Sei nun U ein Unterraum von W . Das Urbild ϕ−1 (U ) ist nicht leer, denn 0 ∈ V ist
das Urbild von 0 ∈ U nach a). Seien v1 , v2 ∈ ϕ−1 (U ), dann existieren u1 , u2 ∈ U mit
u1 = ϕ(v1 ) und u2 = ϕ(v2 ). Für alle λ1 , λ2 ∈ K gilt dann
ϕ(λ1 v1 + λ2 v2 ) = λ1 ϕ(v1 ) + λ2 ϕ(v2 ) = λ1 u1 + λ2 u2 ∈ U,
also gilt λ1 v1 + λ2 v2 ∈ ϕ−1 (U ). Somit ist ϕ−1 (U ) ein Unterraum.
Die Aussagen über Kern und Bild folgen sofort daraus, dass ker(ϕ) per Definition das
Urbild des Nullraums und im(ϕ) das Bild von V ist.
Zu c): Ist ker(ϕ) ein von {0} verschiedener Unterraum, dann kann ϕ nicht injektiv sein.
Ist umgekehrt ker(ϕ) = {0} und ϕ(u) = ϕ(v) für u, v ∈ V , dann ist ϕ(u − v) = 0, also
u − v ∈ ker(ϕ) = {0}. Das zeigt, dass ϕ injektiv ist.
Nach Teil b) des vorigen Lemmas machen folgende Definitionen Sinn:
Definition 3.3 (Rang und Defekt). Sei ϕ : V → W eine lineare Abbildung zwischen
endlich-dimensionalen Vektorräumen V und W . Dann heißt def(ϕ) := dim(ker(ϕ)) der
Defekt von ϕ und rg(ϕ) := dim(im(ϕ)) der Rang von ϕ.
Eine erste einfache Beobachtung über den Rang:
Lemma 3.3. Sind V, W Vektorräume, E ⊂ V ein Erzeugendensystem von V und
ϕ : V → W linear, dann ist {ϕ(b) | b ∈ B} ein Erzeugendensystem von im(ϕ).
Falls insbesondere V, W endlich-dimensional sind, dann ist rg(ϕ) ≤ min{dim(V ), dim(W )}.
P
P
Beweis: Aus der Linearität folgt sofort ϕ( ni=1 αi vi ) = ni=1 αi ϕ(vi ), für beliebige vi ∈
E, αi ∈ K. Damit ist jeder Bildvektor aus im(ϕ) im Erzeugnis von C := {ϕ(v) | v ∈ E}
enthalten.
Im endlich-dimensionalen Fall wähle als E eine Basis von V . Dann hat C höchstens
dim(V ) Elemente, also folgt rg(ϕ) ≤ dim(V ); und rg(ϕ) ≤ dim(W ) gilt sowieso, da das
Bild ja in W enthalten ist.
Als Korollar erhält man ein oft nützliches Kriterium dafür, wann eine gegebene lineare
Abbildung die Nullabbildung ist.
Korollar 3.4. Sei ϕ : V → W eine lineare Abbildung, B eine Basis von V und ϕ(b) = 0
für alle b ∈ B. Dann folgt bereits ϕ ≡ 0.
KAPITEL 3. LINEARE ABBILDUNGEN
3.2
37
Die Dimensionsformel
Wir kommen nun zu einem der wichtigsten Sätze über lineare Abbildungen:
Satz 3.5 (Dimensionsformel für lineare Abbildungen ). Sei V ein endlich-dimensionaler
Vektorraum, ϕ : V → W eine lineare Abbildung. Dann gilt:
dim(V ) = def(ϕ) + rg(ϕ) (= dim(ker(ϕ)) + dim(im(ϕ))) .
Beweis: Sei {v1 , ..., vr } eine Basis von ker(ϕ). Nach Basisergänzungssatz können wir
diese zu einer Basis {v1 , ..., vn } von V ergänzen (0 ≤ r ≤ n). Der Unterraum U :=
hvr+1 , ..., vn i ist also ein Komplement von ker(ϕ) in V , mit Basis {vr+1 , ..., vn }. Wir
zeigen, dass die Vektoren ϕ(vr+1 ), ..., ϕ(vn ) eine Basis von im(ϕ) bilden. Damit folgt
sofort die Behauptung.
Pn
Pn
Pn
Zunächst folgt aus 0 =
i=r+1 λi ϕ(vi ) = ϕ( i=r+1 αi vi ) schon, dass
i=r+1 αi vi ∈
U ∩ ker(ϕ) = {0}. Das zeigt die lineare Unabhängigkeit.
Pn
Weiter
sei
w
∈
im(ϕ).
Dann
existieren
λ
,
...,
λ
∈
K
so,
dass
w
=
ϕ(
1
n
i=1 λi vi ) =
Pn
Pn
λ
ϕ(v
)
=
λ
ϕ(v
).
Das
zeigt,
dass
{ϕ(v
),
...,
ϕ(v
)}
Erzeugendeni
i
i
i
r+1
n
i=1
i=r+1
| {z }
=0 für i≤r
system von im(ϕ) ist, also folgt die Behauptung.
Als Korollar erhält man sofort:
Korollar 3.6. Sei ϕ : V → V ein Endomorphismus des endlich-dimensionalen Vektorraums V . Dann gilt:
ϕ ist injektiv ⇔ ϕ ist surjektiv ⇔ ϕ ist bijektiv.
Beweis: Nur die erste Äquivalenz ist zu zeigen, der Rest folgt aus der Definition “bijektiv = injektiv + surjektiv”.
Wir wissen schon, dass ϕ genau dann injektiv ist, wenn ker(ϕ) = {0}. Nach Dimensionsformel ist dies wiederum äquivalent dazu, dass dim(im(ϕ)) = dim(V ), was äquivalent zu
im(ϕ) = V , also zur Surjektivität ist.
Einige Abschätzungen von Rang und Defekt einer Hintereinanderausführung linearer
Abbildungen. Zunächst sagt folgender Satz, dass bei einer Verkettung mehrerer linearer
Abbildungen der Rang höchstens kleiner wird.
Satz 3.7. Seien V, W, Z endlich-dimensional und ϕ : V → W und ψ : W → Z linear.
Dann gelten:
a) rg(ψ ◦ ϕ) ≤ rg(ϕ) und def(ψ ◦ ϕ) ≥ def(ϕ). Falls ψ injektiv ist, gilt jeweils
Gleichheit.
KAPITEL 3. LINEARE ABBILDUNGEN
38
b) rg(ψ ◦ ϕ) ≤ rg(ψ), und falls ϕ surjektiv ist, gilt Gleichheit.
Beweis: a): Ist v ∈ ker(ϕ), dann auch ψ(ϕ(v)) = ψ(0) = 0, also v ∈ ker(ψ ◦ϕ). Das zeigt
die Defekt-Ungleichung, und die Rang-Ungleichung folgt sofort mit der Dimensionsformel
für lineare Abbildungen. Falls weiter ψ injektiv ist, dann folgt aus ψ(ϕ(v)) = 0 schon
ϕ(v) = 0, also ker(ψ ◦ ϕ) = ker(ϕ), und damit Gleichheit überall.
b): Die Rangungleichung folgt sofort aus
im(ψ ◦ ϕ) = im(ψ|im(ϕ) ) ⊂ im(ψ),
wobei ψ|im(ϕ) die Einschränkung von ψ auf den Unterraum im(ϕ) sei.
Ist ϕ zusätzlich surjektiv, dann ist im(ϕ) = V , und somit gilt oben Gleichheit.
Folgender Satz liefert eine Abschätzung in die umgekehrte Richtung für den Rang einer
Verkettung linearer Abbildungen:
Satz 3.8. Seien V, W, Z endlich-dimensional und ϕ : V → W und ψ : W → Z linear.
Dann gilt
rg(ψ ◦ ϕ) ≥ rg(ψ) + rg(ϕ) − dim(W ).
Beweis: Übung.
3.3
Existenz- und Eindeutigkeitsaussagen
Bisher haben wir einige spezielle Beispiele linearer Abbildungen kennen gelernt. Tatsächlich
gibt es zwischen zwei endlich-dimensionalen Vektorräumen eine Fülle linearer Abbildungen, wie der folgende Satz zeigt:
Satz 3.9 (Fortsetzungssatz). Seien V und W K-Vektorräume, dim(V ) =: n < ∞,
B := {v1 , ..., vn } eine Basis von V und w1 , ..., wn ∈ W beliebig. Dann gibt es genau eine
lineare Abbildung ϕ : V → W mit ϕ(vi ) = wi (für alle i = 1, ..., n), nämlich definiert
durch
n
n
X
X
ϕ:
λi vi 7→
λi wi (λ1 , ..., λn ∈ K).
i=1
i=1
Insbesondere sind zwei lineare Abbildungen ϕ, ψ : V → W bereits dann gleich, wenn ihre
Einschränkungen auf die Basis B gleich sind.
Beweis: Zunächst ist die angegebene P
Abbildung ϕ wohldefiniert, da jeder Vektor aus V
eine eindeutige Basisdarstellung vP= ni=1 λi vi bezüglich
P B hat.
Sie ist auch linear, denn für v = ni=1 λi vi und w = ni=1 µi vi sowie α, β ∈ K ist
n
n
n
n
X
X
X
X
ϕ(αv+βw) = ϕ( (αλi +βµi )vi ) =
(αλi +βµi )wi = α
λi wi +β
µi wi = αϕ(v)+βϕ(w).
i=1
i=1
i=1
i=1
KAPITEL 3. LINEARE ABBILDUNGEN
39
Eine
Pnweitere lineare
Pn Abbildung Φ
P:n V → W mit Φ(vi ) = wi gibt es nicht, denn wegen
Φ( i=1 λi vi ) = i=1 λi Φ(vi ) = i=1 λi wi ist die lineare Abbildung Φ durch die Bilder
der Basisvektoren vi schon komplett festgelegt.
Die Existenzaussage über lineare Abbildungen in Satz 3.9 hat starke Konsequenzen.
Insbesondere reicht im endlich-dimensionalen Fall allein die Angabe der Dimension (und
natürlich des Skalarenkörpers K), um den Vektorraum “bis auf Isomorphie” zu kennen.
Korollar 3.10. Zwei endlich-dimensionale K-Vektorräume V und W sind genau dann
isomorph, wenn dim(V ) = dim(W ). Insbesondere ist jeder n-dimensionale K-Vektorraum
isomorph zu K n .
Beweis: Ein Isomorphismus ϕ : V → W erfüllt immer ker(ϕ) = {0}, also dim(V ) =
dim(im(ϕ)) = dim(W ) nach Dimensionsformel. Sei umgekehrt dim(V ) = dim(W ) =: n,
und seien {v1 , ..., vn } Basis von V und {w1 , ..., wn } Basis von W . Dann existiert nach
Satz 3.9 eine lineare Abbildung ϕ : V → W mit ϕ(vi ) = wi (für alle i = 1, ..., n). Diese ist
surjektiv und damit folgt nach Dimensionsformel dim(ker(ϕ)) = dim(V ) − dim(W ) = 0,
also ist ϕ auch injektiv, also ein Isomorphismus.
Ein wichtiger Spezialfall eines solchen Isomorphismus zweier Vektorräume gleicher Dimension ist die Koordinatenabbildung von einem beliebigen n-dimensionalen K-Vektorraum
V in den Raum K n :
Korollar 3.11 (Koordinatenabbildung). Sei V ein n-dimensionaler K-Vektorraum
mit
P
n , definiert durch Φ ( n λ v ) :=
Basis
B
:=
{v
,
...,
v
}.
Dann
ist
Φ
:
V
→
K
1
n
B
B
i=1 i i
 
λ1
 .. 
 . , ein Isomorphismus.
λn
ΦB heißt Koordinatenabbildung bezüglich der Basis B.
Beweis: Für die Linearität setze in Satz 3.9 W := K n und wi := ei für i = 1, ..., n. Da
ΦB (B) = {e1 , ..., en } Basis des K n ist, folgt die Bijektivität.
Nachtrag zu Korollar 3.11: Damit die Koordinatenabbildung ΦB , so wie hier angegeben,
wirklich wohldefiniert ist, sollte man die Basis B mit einer festen Reihenfolge der Vektoren versehen. Man braucht also hier schon eine geordnete Basis B, siehe dazu auch
S.43.
3.4
Abbildungsräume
Die Menge aller linearen Abbildungen zwischen zwei gegebenen Vektorräumen hat selbst
wieder eine Vektorraumstruktur.
KAPITEL 3. LINEARE ABBILDUNGEN
40
Satz 3.12. Seien V und W K-Vektorräume, und bezeichne HomK (V, W ) die Menge der
linearen Abbildungen von V nach W . Dann ist HomK (V, W ) mit der elementweisen Addition und Skalarmultiplikation (d.h. ϕ+ψ wird definiert durch (ϕ+ψ)(v) := ϕ(v)+ψ(v)
und analog λ · ϕ durch (λ · ϕ)(v) := λ · ϕ(v)) ein Vektorraum.
Falls zusätzlich V = W , dann wird HomK (V, V ) =: EndK (V ) mit der Hintereinanderausführung von Abbildungen als Multiplikation zu einem Ring, dem Endomorphismenring von V . Dessen Einheitengruppe ist die Menge AutK (V ) aller Automorphismen von
V.
Beweis. Dass Hintereinanderausführung von linearen Abbildungen wieder linear ist, wissen wir schon. Ebenso macht man sich leicht klar, dass Summe und skalare Vielfache
von linearen Abbildungen wieder linear sind. Weiter sind die Nullabbildung als additives Neutrales und im zweiten Fall auch die Identität als multiplikatives Neutrales in der
jeweiligen Menge enthalten. Die übrigen Vektorraumaxiome rechnet man schnell nach
- sie folgen im Wesentlichen aus der komponentenweisen Definition von Addition und
Skalarmultiplikation (damit werden viele Eigenschaften auf die entsprechenden Eigenschaften in V zurückgeführt). Wir rechnen noch die Distributivität der Ring-Addition
und -multiplikation nach:
Seien dazu ϕ, ψ, θ ∈ EndK (V ), v ∈ V , dann ist (ϕ ◦ (ψ + θ))(v) = ϕ(ψ(v) + θ(v)) =
(ϕ ◦ ψ)(v) + (ϕ ◦ θ)(v) = (ϕ ◦ ψ + ϕ ◦ θ)(v), und in ähnlicher Weise folgt die umgekehrte
Distributivität.
Mit Hilfe von Satz 3.9 erhalten wir (für den Fall, dass V und W endlich-dimensional
sind) auch die Dimension des Vektorraumes HomK (V, W ):
Satz 3.13. Sind V und W zwei endlich-dimensionale K-Vektorräume der Dimensionen
n und m, dann ist dim(Hom(V, W )) = m · n.
Beweis: Seien {v1 , ..., vn } und {w1 , ..., wm } Basen von V bzw. von W . Nach Satz 3.9 gibt
es für jedes 1 ≤ i ≤ m und jedes 1 ≤ j ≤ n genau eine lineare Abbildung ϕi,j : V → W
mit
(
wi falls k = j
ϕi,j (vk ) :=
0 sonst.
Wir zeigen, dass die ϕi,j (mit 1 ≤ i ≤ m und 1 ≤ j ≤ n) eine Basis von Hom(V, W )
bilden.
P
Zunächst zur linearen Unabhängigkeit: Wir nehmen an, dass i,j αi,j ϕi,j = 0 die Nullabbildung (das ist der Nullvektor in Hom(V, W )!) ist. Dann gilt für alle k = 1, ..., n:
X
X
X
0=(
αi,j ϕi,j )(vk ) =
αi,j · ϕi,j (vk ) =
αi,k wi .
i,j
i,j
i
Da aber {w1 , ..., wm } Basis ist, folgt hieraus schon αi,k = 0 für alle i = 1, ..., m; und dies
wiederum für alle k = 1, ..., n. Das zeigt die lineare Unabhängigkeit.
KAPITEL 3. LINEARE ABBILDUNGEN
41
P
Nun zur Erzeugendeneigenschaft: Sei ϕ : V → W linear und sei ϕ(vj ) = m
i=1 αi,j wi die
eindeutige Darstellung
P von
Pn ϕ(vj ) bzgl. der Basis {w1 , ..., wm } von W (für j = 1, ..., n).
Dann gilt ϕ(v) = m
alle v P
∈ {v1 , ..., vn }, und damit
i=1
j=1 αi,j ϕi,j (v) zumindest für P
m
nach Satz 3.9 sogar schon für alle v ∈ V . Also ist ϕ = i=1 nj=1 αi,j ϕi,j ein Element
des Erzeugnisses der ϕi,j .
Ein wichtiger Spezialfall ergibt sich für W = K (als eindimensionaler K-Vektorraum
gesehen):
Definition 3.4 (Dualraum). Sei V ein K-Vektorraum. Der Vektorraum Hom(V, K)
heißt der Dualraum von V und wird auch mit V ? bezeichnet. Die Abbildungen aus V ?
heißen auch Linearformen.
Satz 3.13 zeigt also, dass im endlich-dimensionalen Fall dim(V ? ) = dim(V ) gilt.
3.5
Lineare Abbildungen und Faktorräume
Lineare Abbildungen und Faktorräume hängen in verschiedener Weise zusammen. Zunächst
gehört zu jedem Faktorraum eine besonders natürliche lineare Abbildung (die wir, natürlich
ohne die Eigenschaft der Linearität, auch schon aus dem Abschnitt über Äquivalenzrelationen
kennen):
Lemma 3.14 (Kanonischer Epimorphismus). Ist U ≤ V ein Unterraum, dann ist die
Abbildung π : V → V /U , definiert durch π(v) := v + U , linear und surjektiv. Ihr Kern
ist gerade U .
π heißt kanonischer Epimorphismus.
Damit können wir auch die Struktur der Faktorräume genauer mit denen des Ausgangsvektorraums V in Verbindung bringen:
Satz 3.15 (Korrespondenzsatz). Die Unterräume des Faktorraums V /U sind genau die
W/U , wobei W ein Unterraum von V mit W ⊃ U ist.
Beweis: Ist W ⊃ U ein Unterraum, dann ist W/U wieder ein Vektorraum (nach der
Konstruktion von Faktorräumen), und auch Teilmenge von V /U , also Unterraum.
c Unterraum von V /U , und W das Urbild von W
c unter der kanonischen
Sei umgekehrt W
Projektion π. Da diese linear ist, ist W ein Unterraum, und W enthält auch sicher
U = π −1 ({0V /U }).
Nun sei ϕ : V → W eine lineare Abbildung. Dann ist der Faktorraum V / ker(ϕ) besonders interessant, denn für v1 , v2 ∈ V gilt:
ϕ(v1 ) = ϕ(v2 ) ⇔ ϕ(v1 − v2 ) = 0 ⇔ v1 − v2 ∈ ker(ϕ) ⇔ v1 + ker(ϕ) = v2 + ker(ϕ).
KAPITEL 3. LINEARE ABBILDUNGEN
42
Die Abbildung ϕ ist also auf jedem affinen Unterraum v + ker(ϕ) (mit v ∈ V ) konstant!
ϕ “lebt” also in gewisser Weise auf dem Faktorraum V / ker(ϕ). Konkret meinen wir
damit, dass ϕ eine wohldefinierte Abbildung ϕ
b auf dem Faktorraum V / ker(ϕ), mit ϕ(x+
b
ker(ϕ)) := ϕ(x) induziert. (Vergleiche das allererste Kapitel über Äquivalenzrelationen!)
Mit ϕ ist offensichtlich auch ϕ
b linear.
V
π
ϕ
W
ϕ
b
V / ker(ϕ)
Das führt zu folgendem Satz:
Satz 3.16 (Homomorphiesatz). Sei ϕ : V → W eine lineare Abbildung. Dann gilt
V / ker(ϕ) ∼
= im(ϕ).
Beweis: Definiere ϕ
b : V / ker(ϕ) → im(ϕ) durch ϕ(v
b + ker(ϕ)) := ϕ(v). Diese Abbildung
ist wohldefiniert, denn für v + ker(ϕ) = w + ker(ϕ) ist v − w ∈ ker(ϕ), also ϕ(v) − ϕ(w) =
ϕ(v − w) = 0. Weiter ist sie ein Homomorphismus, wie man sofort nachrechnet, und
offensichtlich auch surjektiv. Schließlich ist ϕ
b auch injektiv, denn aus ϕ(v
b + ker(ϕ)) =
ϕ(w
b + ker(ϕ)) folgt ϕ(v) = ϕ(w), also v − w ∈ ker(ϕ) und somit v + ker(ϕ) = w +
ker(ϕ).
Bemerkung: Falls V endlich-dimensional ist, dann folgt die Aussage des Homomorphiesatzes aus der Dimensionsformel für lineare Abbildungen (die dazu führt, dass
V / ker(ϕ) und im(ϕ) die gleiche Dimension haben) sowie der Aussage, dass endlichdimensionale K-Vektorräume der selben Dimension stets isomorph sind. Andererseits
haben wir die Dimensionsformel nicht für den Beweis des Homomorphiesatzes benutzt.
Man mache sich klar, wie diese nochmals als Korollar aus dem Homomorphiesatz folgt!
Kapitel 4
Matrizen
4.1
Darstellungsmatrizen linearer Abbildungen
Da es im Folgenden auf die Reihenfolge der Basisvektoren ankommen wird, betrachten
wir von hier an geordnete Basen, also Tupel (v1 , ..., vn ) (mit vi ∈ V ) anstelle von Mengen
{v1 , ..., vn }.
Bemerkung: Im Folgenden werden auch geordnete Basen manchmal einfach nur als
“Basen” bezeichnet, wenn durch den Kontext klar ist, dass die Reihenfolge der Vektoren berücksichtigt werden soll. Wird insbesondere eine lineare Abbildung auf eine
geordnete Basis angewendet, dann versteht sich stillschweigend, dass auch die Bilder der
Basisvektoren wieder “mit Reihenfolge”, also als Tupel von Vektoren betrachtet werden.
Seien also V und W endlich-dimensional der Dimensionen n bzw. m, P
und (v1 , ..., vn )
bzw. (w1 , ..., wm ) geordnete Basen. Sei φ : V → W linear und ϕ(vj ) = m
i=1 αi,j wi die
eindeutige Basisdarstellung des Bildes ϕ(vj ) bezüglich der Basis C (j = 1, ..., n). Nach
Satz 3.9 legen die Bilder ϕ(vj ), j = 1, ..., n die lineare Abbildung ϕ schon vollständig
fest. Es genügt also die Kenntnis der Koordinaten αi,j (i = 1, ..., m, j = 1, ..., n), um ϕ
zu kennen. Das motiviert die folgende Definition:
Definition 4.1 (Matrix, Darstellungsmatrix). Seien m,
× n-Matrix über
 n ∈ N. Eine m 
a1,1 · · · a1,n

..  mit a ∈ K
..
einem Körper K ist ein rechteckiges Schema A :=  ...
i,j
.
. 
am,1 · · · am,n
(i = 1, ..., m, j = 1, ..., n). Eine m × n-Matrix hat also m Zeilen und n Spalten. Wenn
die Einträge von A nicht schon konkret benannt sind, bezeichnen wir den Eintrag in der
i-ten Zeile und j-ten Spalte auch mit A[i, j].
Die Menge aller m × n-Matrizen über K heißt K m×n .
Seien V und W endlich-dimensionale K-Vektorräume der Dimensionen n bzw. m, und
B := (v1 , ..., vn ) bzw. C := (w1 , ..., wm ) geordnete Basen. Sei φ : V → W linear
43
KAPITEL 4. MATRIZEN
44
P
und ϕ(vj ) = m
i=1 αi,j wi die eindeutige Basisdarstellung des Bildes ϕ(vj ) bezüglich der
Basis C (j = 1, ..., n). Dann nennt man die Matrix MB,C (ϕ) ∈ K m×n , definiert durch
MB,C (ϕ)[i, j] := αi,j , (i = 1, ...m; j = 1, ..., n) die Darstellungsmatrix von ϕ bezüglich
der Basen B und C. In der j-ten Spalte stehen also gerade die Koordinaten von ϕ(vj )
bezüglich der Basis C, diese Spalte (als Vektor im K m gesehen) ist also gleich ΦC (ϕ(vi )),
mit der Koordinatenabbildung ΦC .
Bemerkungen:
a) Satz 3.9 besagt, dass - für gegebene Basen B von W und V von W - die Abbildung
Hom(V, W ) → K m×n , ϕ 7→ MB,C (ϕ) eine Bijektion ist.
b) K m×n wird in natürlicher Weise zu einem K-Vektorraum, wenn wir die Addition
und die Skalarmultiplikation einfach komponentenweise definieren, d.h. A + B sei
definiert via (A + B)[i, j] := A[i, j] + B[i, j] und λ · A durch (λ · A)[i, j] := λ · A[i, j].
Sind α, β : V → W linear und λ, µ ∈ K, dann ist auch λα + µβ linear (siehe
Satz 3.12!). Sind Aα und Aβ die Darstellungsmatrizen von α und β (bezüglich der
festen Basen B von V und C von W !) dann sieht man mit der obigen Definition
sofort, dass λAα + µAβ die Darstellungsmatrix von λα + µβ ist.
Die Abbildung Hom(V, W ) → K m×n , α 7→ MB,C (α) ist also nicht nur bijektiv,
sondern sogar ein Isomorphismus von K-Vektorräumen.
Es ist dim(K m×n ) = m · n (vgl. auch Satz 3.13!), und die Menge {Ei,j ∈ K m×n |1 ≤
i ≤ m, 1 ≤ j ≤ n} - wobei Ei,j die Matrix ist, die nur an der Stelle [i, j] den Eintrag
1 und sonst lauter Nulleinträge hat - ist eine Basis von K m×n (die Standardbasis).
c) Die Isomorphie von Hom(V, W ) und K m×n bedeutet, dass man Fragestellungen
zu linearen Abbildungen endlich-dimensionaler Vektorräume und zu Matrizen oft
ineinander übersetzen kann. Trotzdem sollte man nicht vergessen, dass es auch
lineare Abbildungen auf unendlich-dimensionalen Vektorräumen gibt. Hier hat
man keine Matrizen zur Verfügung!
4.2
Matrixmultiplikation
Wir betrachten als nächstes, wie die Darstellungsmatrix einer Hintereinanderausführung
von linearen Abbildungen aussieht. Seien dazu V, W und Z Vektorräume der Dimensionen n, m bzw. `, mit fest gewählten geordneten Basen B = (v1 , ..., vn ), C = (w1 , ..., wm )
bzw. D P
= (z1 , ..., z` ). Seien β : V → W und P
α : W → Z linear, definiert durch
`
β(vj ) = m
β
w
(j
=
1,
...,
n)
sowie
α(w
)
=
k,j
k
k
k=1
i=1 αi,k zi (k = 1, ..., m).
Dann ist α ◦ β : V → Z linear mit
(α ◦ β)(vj ) = α(
m
X
k=1
βk,j wk ) =
m
X
k=1
βk,j · α(wk ) =
m X
`
X
k=1 i=1
βk,j αi,k zi =
` X
m
X
(
αi,k · βk,j )zi .
i=1 k=1
KAPITEL 4. MATRIZEN
45
Die Darstellungsmatrix von α◦β ist also aus K `×n und hat an der Stelle [i, j] den Eintrag
P
m
k=1 αi,k · βk,j stehen.
`×m und
Wir definieren nun einfach eine Multiplikation zwischen
Pmzwei Matrizen A ∈ K
m×n
`×n
B ∈K
durch A · B ∈ K
mit (A · B)[i, j] := k=1 A[i, k] · B[k, j] (i = 1, ..., `,
j = 1, ..., n). (Merkregel: An der Stelle [i, j] steht das Produkt aus i-ter Zeile der ersten
und j-ter Spalte der zweiten Matrix.)
Die obigen Beobachtungen liefern dann sofort:
Satz 4.1. Seien V, W, Z endlich-dimensionale Vektorräume mit Basen B, C bzw. D und
seien β : V → W und α : W → Z linear, mit Darstellungsmatrizen Aα := MC,D (α) und
Aβ := MB,C (β). Dann hat α ◦ β bezüglich der Basen B und D die Darstellungsmatrix
Aα · Aβ .
Die Matrizenmultiplikation ist also nur auf den ersten Blick etwas unintuitiv definiert.
In Wahrheit ist sie genau richtig definiert, um zu erreichen, dass die Darstellungsmatrix
eines “Produktes” (=Hintereinanderausführung) linearer Abbildungen das Produkt der
einzelnen Darstellungsmatrizen ist.
Bemerkung:
Die Matrizenmultiplikation hat einige Eigenschaften, die auf den ersten Blick überraschend
sein mögen (und die man jedenfalls von der Multiplikation etwa von reellen Zahlen nicht
gewohnt ist):
a) Man beachte zunächst, dass zwei beliebige Matrizen nicht unbedingt miteinander
multiplizierbar sind. Damit das Produkt A · B definiert ist, müssen die Formate
zusammenpassen, d.h. die Spaltenzahl von A muss gleich der Zeilenzahl von B
sein.
b) Matrizenmultiplikation ist i.Allg. nicht kommutativ (selbst wenn die Produkte AB
und BA beide definiert sind). Sei z.B. A = ( 01 00 ) und B = ( 00 01 ) (über einem
beliebigen Körper). Dann ist AB = ( 00 00 ) 6= ( 01 00 ) = BA.
Noch deutlicher wird es, wenn die Matrizen nicht quadratisch sind. Ist z.B. A ∈
K 3×2 und B ∈ K 2×3 , dann ist AB vom Format 3 × 3, aber BA vom Format 2 × 2!
c) Für Matrizen folgt aus AB = 0 nicht notwendigerweise A = 0 oder B = 0. Das
zeigt schon das Beispiel aus b)!
Einige weitere Anmerkungen zur Matrizenmultiplikation:
Lemma 4.2.
a) Matrizenmultiplikation ist assoziativ: (A · B) · C = A · (B · C) für
alle Matrizen A, B, C, deren Formate kompatibel sind.
b) Es gelten die Distributivgesetze A(B + C) = AB + AC und (A + B)C = AC + BC
(jeweils für Matrizen A, B, C von passenden Formaten).
KAPITEL 4. MATRIZEN
46
(
1, falls i = j
c) Sei En ∈ K n×n definiert durch En [i, j] :=
0, sonst.
Dann gilt A · En = En · A = A für alle A ∈ K n×n .
1
En heißt die (n × n-)Einheitsmatrix.
d) Eine quadratische Matrix A ∈ K n×n mit A[i, j] = 0 für alle 1 ≤ i 6= j ≤ n
heißt Diagonalmatrix . Sind a1 := A[1, 1],..., an := A[n, n] die Diagonaleinträge
einer Diagonalmatrix A, dann schreiben wir A auch platzsparend in der Form
A =: diag(a1 , ..., an ). Für das Produkt zweier Diagonalmatrizen gilt dann
diag(a1 , ..., an ) · diag(b1 , ..., bn ) = diag(a1 b1 , ..., an bn ).
Beweis: a) folgt sofort aus Satz 4.1 und der Tatsache, dass Hintereinanderausführung
von Abbildungen assoziativ ist.
b) rechnet man sofort anhand der Definitionen nach.
c) kann man entweder direkt nachrechnen; oder man beachte, dass En = MB,B (id) die
Darstellungsmatrix der Identität auf einem Vektorraum V bezüglich der Basis B (im
Bild- und im Urbildraum) ist. Damit folgt nämlich für A = MB,C (ϕ) sofort
A = MB,C (id ◦ ϕ) = MC,C (id) ◦ MB,C (ϕ) = En · A.
d) folgt wieder direkt aus der Definition der Matrizenmultiplikation.
Wir wissen bereits, dass K m×n ein Vektorraum, also insbesondere eine additive abelsche
Gruppe ist. Aus Teil a) bis c) von Lemma 4.2 folgt, dass im Fall m = n noch mehr gilt,
nämlich:
Korollar 4.3. Die Menge K n×n der quadratischen Matrizen vom Format n × n ist mit
Matrizenaddition und -multiplikation ein Ring.
Definition 4.2. Die Gruppe der (multiplikativ) invertierbaren Elemente des Ringes
K n×n heißt die allgemeine lineare Gruppe (“general linear group”) GLn (K). Invertierbare Matrizen aus K n×n heißen auch regulär, nicht-invertierbare auch singulär.
In Zukunft schreiben wir Elemente des Vektorraums K n oft als Spalten, identifizieren
also K n mit K n×1 . Dann gilt:
Satz 4.4. Sei A ∈ K m×n . dann ist die Abbildung ϕA : K n → K m , x 7→ A · x linear.
Ihre Darstellungsmatrix bezüglich der (geordneten) Standardbasen (e1 , ..., en ) von K n
(
1, falls i = j
, abhängig von i und j, kommt in der Linearen
0, sonst
Algebra recht häufig vor. Um sich die Schreibarbeit zu sparen, schreibt man für diesen Ausdruck auch
einfach δi,j . Man bezeichnet ihn auch als Kronecker-Delta.
1
Die Definition von Objekten als
KAPITEL 4. MATRIZEN
47
und (e01 , ..., e0m ) von K m ist gerade A.
Ferner ist jede lineare Abbildung K n → K m von der Form ϕA für eine geeignete Matrix
A ∈ K m×n .
Beweis: Es ist A(x + y) = Ax + Ay wegen Distributivität der Matrizenmultiplikation.
Außerdem ist A(λx) = λ · Ax für alle λ ∈ K. Also ist ϕA linear. Weiter rechnet
man sofort
(A · ej )[i, 1] = A[i, j] für alle 1 ≤ i ≤ m, 1 ≤ j ≤ n. Also
P nach, dass
0 . Damit ist A Darstellungsmatrix von ϕ bzgl. der Standardbasen.
A[i,
j]e
A · ej = m
A
i
i=1
Die letzte Aussage folgt sofort daraus, dass es zu jedem A genau eine lineare Abbildung
mit dieser Darstellungsmatrix (bzgl. fest vorgegebenen Basen) gibt.
Der folgende Satz verdeutlicht den Zusammenhang zwischen der Abbildung x 7→ A · x
zwischen den Koordinatenräumen K n , K m und einer beliebigen linearen Abbildung ϕ :
V → W mit Darstellungsmatrix A (bezüglich gegebener Basen von V und W ):
Satz 4.5. Sei ϕ : V → W linear und seien ΦB := V → K n und ΦC : W → K m die
Koordinatenabbildungen (bezüglich Basen B von V und C von W ). Sei A := MB,C (ϕ)
und sei ϕA : K n → K m definiert durch x 7→ Ax.
Dann ist ϕA ◦ ΦB = ΦC ◦ ϕ.
Hat insbesondere v ∈ V bezüglich B den Koordinatenvektor x ∈ K n , dann hat ϕ(v)
bezüglich C den Koordinatenvektor A · x(∈ K m ).
Beweis: Seien B =: (v1 , ..., vn ) und C =: (w1 , ..., wm ). Bezeichne mit (e1 , ..., en ) bzw.
(e01 , ..., e0m ) die Standardbasen von K n bzw. K m . Dann gilt:
(ϕA ◦ ΦB )(vj ) = Aej =
m
X
i=1
A[i, j]e0i
m
X
= ΦC (
A[i, j]wj ) = (ΦC ◦ ϕ)(vj ),
i=1
für alle j = 1, ..., n. Also stimmen die linearen Abbildungen ϕA ◦ ΦB und ΦC ◦ ϕ auf der
Basis B überein und sind somit schon identisch.
V
ϕ
ΦB
Kn
4.3
W
ΦC
ϕA
Km
Rang und Kern von Matrizen
Angesichts von Satz 4.4 definiert man den Kern ker(A) einer Matrix A ∈ K m×n als den
Kern (⊂ K n ) der linearen Abbildung x 7→ A · x, das Bild im(A) von A als das Bild
KAPITEL 4. MATRIZEN
48
(⊂ K m ) von x 7→ Ax, sowie den Rang rg(A) bzw. den Defekt def(A) als die Dimension
von im(A) bzw. von ker(A).
Die Analogie zwischen Matrizen und linearen Abbildungen führt dazu, dass wir die
Rangungleichungen für lineare Abbildungen nun auf Matrizen übertragen können:
Satz 4.6 (Rangungleichung für Matrizen). : Seien A ∈ K m×n , B ∈ K n×r , dann gilt
rg(AB) ≤ min{rg(A), rg(B)}.
Beweis: Folgt wegen der Definition der Matrixmultiplikation direkt aus Satz 3.7.
Speziell für die Multiplikation einer Matrix mit einer invertierbaren Matrix von passendem Format ergibt sich, dass der Rang gleich bleibt:
Satz 4.7. Sei A ∈ K m×n und seien P ∈ K m×m und Q ∈ K n×n invertierbare Matrizen.
Dann ist rg(P A) = rg(AQ) = rg(A).
Beweis: Die Rangungleichung liefert rg(A) = rg(P −1 P A) ≤ rg(P A) ≤ rg(A), also Gleichheit überall. Genauso für rg(AQ).
Weitere Aussagen, wie etwa die Dimensionsformel für lineare Abbildungen, übertragen
sich selbstverständlich ebenso auf Matrizen.
Direkt aus den Definitionen folgen auch:
Lemma 4.8. Sei A ∈ K m×n und ϕA : K n → K m , ϕA (x) := Ax. Dann gelten:
a) im(A) ist das Erzeugnis der Spaltenvektoren von A.
b) ϕA ist surjektiv genau dann, wenn die Spalten von A ein Erzeugendensystem von
K m bilden und injektiv genau dann, wenn sie linear unabhängig sind.
Beweis: Die Spaltenvektoren von A sind genau die ϕA (ej ), j = 1, ..., n. Deren Erzeugnis
ist gerade ϕA (K n ) = im(ϕA ). Daraus folgt auch sofort, dass die Surjektivität von ϕA
äquivalent dazu ist, dass dieses Erzeugnis ganz K m ist.
Ebenso ist Injektivität äquivalent zu ker A = {0}, was mit Dimensionsformel äquivalent
zu rg(A) = n ist. Das bedeutet aber genau, dass das Erzeugendensystem ϕA (e1 ), ..., ϕA (en )
von im(ϕA ) linear unabhängig ist.
Im Spezialfall quadratischer Matrizen ergibt sich:
Satz 4.9. Folgende Aussagen sind für A ∈ K n×n äquivalent:
i) A ist invertierbar.
ii) ϕA : K n → K n , x 7→ Ax ist ein Isomorphismus.
KAPITEL 4. MATRIZEN
49
iii) rg(A) = n (d.h. ϕA : x 7→ Ax ist surjektiv).
iv) ker(A) = {0} (d.h. ϕA : x 7→ Ax ist injektiv).
Beweis: Die Äquivalenz von ii) bis iv) folgt sofort aus Korollar 3.6.
ii)⇒ i): Ist ϕA : x 7→ Ax ein Isomorphismus dann ist auch die Umkehrabbildung ϕ−1
A
linear. Sei B deren Darstellungsmatrix bezüglich der Standardbasis (im Bild- und im
Urbild-Raum), dann ist AB die Darstellungsmatrix von ϕ ◦ ϕ−1
A = id bezüglich der
Standardbasis, also AB = En und ebenso BA = En . Also ist A invertierbar.
i)⇒ iv): Sei x ∈ ker(A), dann ist 0 = A−1 · 0 = A−1 Ax = En · x = x.
Da für Abbildungen Surjektivität gleichbedeutend mit der Existenz einer Rechtsinversen
(und Injektivität mit der Existenz einer Linksinversen) ist, besagen die Äquivalenzen des
vorangegangenen Satzes, dass für A ∈ K n×n bereits die Existenz einer Matrix B mit
AB = En (oder BA = En ) ausreicht, um die Invertierbarkeit von A zu zeigen. Die
Inverse ist dann automatisch dieses B.
Wir hatten zunächst Rang und Kern einer Matrix mit Hilfe einer konkreten linearen
Abbildung mit Darstellungsmatrix A (nämlich ϕ : A : x 7→ A · x) definiert. Der folgende
Satz zeigt, dass wir genauso gut jede andere lineare Abbildung mit Darstellungsmatrix
A hätten verwenden können.
Satz 4.10. Die lineare Abbildung ϕ : V → W habe bezüglich Basen B und C die
Darstellungsmatrix A ∈ K m×n . Dann gelten:
a) Es gilt rg(A) = rg(ϕ) und def(A) = def(ϕ).
b) Ist zusätzlich dim(V ) = dim(W ), dann ist ϕ genau dann ein Isomorphismus, wenn
A invertierbar ist.
Beweis: Zu a): Der Rang von A war definiert als der Rang von ϕA : K n → K m , x 7→ Ax.
−1
Da nach Satz 4.5 gilt ϕ = Φ−1
C ◦ ϕA ◦ ΦB , mit den Isomorphismen ΦC und ΦB , folgt
wegen Satz 3.7: rg(ϕ) = rg(ϕA ), also gilt die behauptete Ranggleichung. Die Aussage
über die Kerne folgt nun direkt aus der Dimensionsformel für lineare Abbildungen.
Zu b): Ist dim(V ) = dim(W ), dann ist ϕ genau dann Isomorphismus, wenn ker(ϕ) = {0},
was mit a) äquivalent zu ker(A) = {0} ist. Dies ist wiederum mit Satz 4.9 äquivalent
zur Invertierbarkeit von A.
Bemerkung: Man beachte den subtilen, aber entscheidenden Fortschritt von Satz 4.9 zu
Satz 4.10b): Im ersteren wird die Invertierbarkeit einer quadratischen Matrix A mit einer
ganz bestimmten linearen Abbildung (nämlich ϕ : x 7→ A · x) in Verbindung gebracht;
im letzteren dagegen ist ϕ irgendeine lineare Abbildung mit Darstellungsmatrix A.
KAPITEL 4. MATRIZEN
4.4
50
Basiswechsel
Die Darstellungsmatrix einer linearen Abbildung ist immer nur im Bezug auf fest gewählte
Basen im Urbild- und Bild-Raum definiert. Tatsächlich liefern verschiedene Wahlen von
Basen im Allgemeinen verschiedene Darstellungsmatrizen für ein und die selbe lineare
Abbildung ϕ : V → W . In Anwendungen ist es oft wichtig, aus der Darstellungsmatrix
MB,C (ϕ) bezüglich eines Basenpaares (B, C) die Darstellungsmatrix MB 0 ,C 0 (ϕ) bezüglich
eines anderen Basenpaares zu berechnen. Wegen ϕ = idW ◦ ϕ ◦ idV ist
MB 0 ,C 0 (ϕ) = MC,C 0 (idW ) · MB,C (ϕ) · MB 0 ,B (idV ).
Wir müssen also die Darstellungsmatrizen MB 0 ,B (id) der Identität bezüglich eines gegebenen Basenpaares ausrechnen. Man nennt so eine Matrix Basiswechselmatrix.
Basen
B0
V Re
V
ΦB 0
Kn
B
V
idV
ΦB
C0
C
W
ϕ
ΦC
Kn
Km
idW
W
ΦC 0
Km
Ein wichtiger Spezialfall ergibt sich für Endomorphismen ϕ : V → V . Hier ist es oft
sinnvoll, die Basis im Bild- und im Urbildraum gleich zu wählen, also B = C und
B 0 = C 0 . Wir erhalten dann
MB 0 ,B 0 (ϕ) = MB,B 0 (idV )·MB,B (ϕ)·MB 0 ,B (idV ) = T −1 ·MB,B (ϕ)·T, mit T := MB 0 ,B (idV ).
Die letzte Gleichung gilt wegen En = MB,B (idV ) = MB,B (idV ◦ idV ) = MB,B 0 (idV ) ·
MB 0 ,B (idV ).
Wie sehen die Basiswechselmatrizen MB 0 ,B (idV ) genau aus (für geordnete Basen B =
(v1 , ..., vn ) und B 0 = (v10 , ...vn0 ))? Nach Definition der Darstellungsmatrix stehen in der
j-ten Spalte gerade die Koordinaten von id(vj0 ) = vj0 bezüglich der
PnBasis B. Wir müssen
0
also die Koeffizienten der eindeutigen Basisdarstellung vj =
i=1 αi,j vi finden. Das
führt auf das Lösen eines linearen Gleichungssystems.
Natürlich sind Basiswechselmatrizen invertierbar (als Darstellungsmatrizen des Isomorphismus id, vgl. Satz 4.10).Umgekehrt ist auch jede invertierbare Matrix eine Basiswechselmatrix (Beweis: Übung).
4.5
Äquivalenz von Matrizen
Definition 4.3 (Äquivalenz). Zwei Matrizen A, B ∈ K m×n heißen äquivalent, wenn es
invertierbare Matrizen P ∈ GLm (K) und Q ∈ GLn (K) gibt mit B = P AQ.
KAPITEL 4. MATRIZEN
51
Man rechnet sofort nach:
Lemma 4.11. Äquivalenz von Matrizen ist eine Äquivalenzrelation auf K m×n .
Da invertierbare Matrizen nichts anderes als Basiswechselmatrizen sind, erhalten wir:
Satz 4.12. Zwei Matrizen A, B ∈ K m×n sind genau dann äquivalent, wenn es eine
lineare Abbildung ϕ gibt, die sowohl A als auch B als Darstellungsmatrizen (bezüglich
verschiedener Basen im Bild und im Urbildraum) besitzt.
Beweis: Sind A und B Darstellungsmatrizen der linearen Abbildung ϕ, dann ist nach
dem vorigen Abschnitt B = P AQ mit geeigneten Basiswechselmatrizen P ∈ K m×m ,
Q ∈ K n×n , und wie schon gesehen, sind diese Basiswechselmatrizen invertierbar.
Sei umgekehrt B = P AQ mit P ∈ GLm (K), Q ∈ GLn (K). Sei ϕ : K n → K m , x 7→ Ax.
Bekanntlich hat ϕ bzgl. der Standardbasen E des K n und E 0 des K m die Darstellungsmatrix A.
Nach Lemma 4.8b) und Satz 4.9 bilden die Spalten einer invertierbaren Matrix M ∈
GLn (K) eine Basis des K n . Sei also B die Basis des K n , die aus den Spalten von
Q besteht und C die Basis des K m , die aus den Spalten von P −1 besteht. Dann ist
Q = MB,E (id) und P = ME 0 ,C (Übung!), und somit ist B = P AQ = MB,C (ϕ) Darstellungsmatrix von ϕ.
Wir wollen untersuchen, woran man erkennen kann, ob zwei gegebene Matrizen äquivalent
sind. Die überraschende Antwort lautet, dass man nur den Rang der Matrizen zu kennen
braucht: Haben beide den gleichen Rang, so sind sie äquivalent, sonst nicht. Insbesondere gibt es genau min{m, n} + 1 Äquivalenzklassen (für jeden Rang von 0 bis zum
maximalen Rang genau eine).
Lemma 4.13. Jede lineare Abbildung ϕ : V → W zwischen endlich-dimensionalen
Er 0
, mit r ≥ 0.
Vektorräumen besitzt eine Darstellungsmatrix der Blockgestalt
0 0
Hierbei ist r = rg(ϕ).
Beweis: Sei n := dim(V ). Nach Dimensionsformel hat ker(ϕ) die Dimension n − r.
Wähle eine Basis B := {v1 , ..., vn } von V , welche eine Basis {vr+1 , ..., vn } von ker(ϕ)
enthält. Die Bilder der vi erzeugen den Raum im(ϕ); diese Bilder sind ϕ(v1 ), ..., ϕ(vr ), 0, ..., 0.
Da das Bild Dimension r hat, müssen die ersten r dieser Vektoren linear unabhängig
sein. Setze wi := ϕ(vi ) (für i = 1, ..., r) und ergänze die linear unabhängige Menge
{w1 , ..., wr } zu einer Basis C := {w1 , ..., wm } von W . Dann hat die Darstellungsmatrix
MB,C (ϕ) genau die geforderte Form.
Insbesondere
sehen wir, dass jede Matrix A äquivalent zu einer Matrix der Form M :=
Er 0
ist. Andererseits ist hierbei r eindeutig bestimmt, denn r ist gerade der Rang
0 0
KAPITEL 4. MATRIZEN
52
von M , und äquivalente Matrizen haben wegen Satz 4.7 den gleichen Rang! Wir erhalten
damit:
Satz 4.14. Zwei Matrizen A, B ∈ K m×n sind genau dann äquivalent, wenn sie den
gleichen Rang haben.
Beweis:
Sind die Ränge gleich, dann sind beide Matrizen äquivalent zur selben Matrix
Er 0
, und damit auch äquivalent zueinander. Sind die Ränge dagegen verschieden,
0 0
dann haben wir schon gesehen, dass die beiden Matrizen nicht äquivalent sein können.
Kapitel 5
Lineare Gleichungssysteme
5.1
Grundlagen
Definition 5.1 (Lineares Gleichungssystem). Sei K ein Körper, m, n ∈ N, ai,j ∈ K für
1 ≤ i ≤ m, 1 ≤ j ≤ n, und bi ∈ K für 1 ≤ i ≤ m. Ein n-Tupel von Gleichungen der
Form
a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1 ,
a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2 ,
···
am,1 x1 + am,2 x2 + ... + am,n xn = bm
mit Unbekannten x1 , ..., xn heißt ein lineares Gleichungssystem.
Ist b1 = ... = bm = 0, dann spricht man von einem homogenen linearen Gleichungssystem,
ansonsten von einem inhomogenen.
Die Definition der Matrixmultiplikation ermöglicht sofort eine kompakte Schreibweise
für lineare Gleichungssysteme.
 
x1


Definiert man nämlich A ∈ K m×n durch A[i, j] := ai,j und setzt x :=  ...  ∈ K n
xn

b1
 
sowie b :=  ...  ∈ K m , dann ist x genau dann eine Lösung des obigen linearen Glebm
ichungssystems, wenn Ax = b gilt.

Diese Matrixschreibweise eines linearen Gleichungssystems ist insbesondere auch für die
Berechnung von Lösungen deutlich praktischer als die Langschreibweise.
53
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
54
Lineare Gleichungssysteme sind uns schon in den vorigen Kapiteln mehrmals implizit
begegnet, z.B. bei folgenden Fragestellungen:
• Darstellung eines Vektors als Linearkombination über eine gegebenen Basis.
• Test auf lineare Unabhängigkeit.
• Bestimmung einer Basis des Schnittes zweier Unterräume.
• Bestimmung der Darstellungsmatrix einer linearen Abbildung bezüglich gegebener
Basen.
• Berechnung einer Basiswechselmatrix.
Bemerkungen:
a) Ein lineares Gleichungssystem Ax = b muss keine Lösung besitzen. Das sieht man
schon an dem trivialen 1 × 1-Beispiel 0 · x = 1. Andererseits kann es unendlich
viele Lösungen besitzen; z.B. ist jeder Vektor
der Form x = ( xx11 ) mit x1 ∈ R eine
−1
Lösung des reellen Gleichungssystems 21 −2
· x = ( 00 ).
b) Wie eigentlich immer in der linearen Algebra ist der Körper K nicht zu vernachlässigen: Z.B. hat das lineare Gleichungssystem
1 −1 · x = ( 0 )
1
1 1
1/2
über dem Körper K = R die Lösung x = 1/2 , über dem Körper Z/2Z(= {0, 1})
aber keine Lösung (beachte, dass dort 1 = −1 gilt).
c) Die Lösungsmenge eines homogenen LGS Ax = 0 ist gerade ker(A) (nach Definition!).
5.2
Lösbarkeit und Struktur der Lösungsmenge
Bevor wir untersuchen, wie man die Lösungsmenge eines allgemeinen linearen Gleichungssystems algorithmisch bestimmt, einige Bemerkungen über die Struktur der Lösungsmenge:
Satz 5.1. Sei A ∈ K m×n , b ∈ K m . Falls das lineare Gleichungssystem Ax = b
eine Lösung besitzt, dann ist die Lösungsmenge von der Form x0 +ker(A)(= {x0 +u |
u ∈ ker(A)}), wobei x0 ∈ K n irgendeine Lösung des Systems ist. Insbesondere ist die
Lösungsmenge also ein affiner Unterraum.
Beweis: Sei x1 eine Lösung. Dann ist A(x1 − x0 ) = Ax1 − Ax0 = b − b = 0. Also
x1 − x0 ∈ ker(A), was äquivalent zu x1 ∈ x0 + ker(A) ist.
Umgekehrt ist jedes Element der Form x0 + u, u ∈ ker(A), auch wirklich eine Lösung,
denn A(x0 + u) = Ax0 + Au = b + 0 = b.
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
55
Bemerkungen:
a) Ist K ein unendlicher Körper, dann folgt aus obigem Lemma sofort, dass ein lineares Gleichungssystem über K nur entweder keine, genau eine oder unendlich viele
Lösungen haben kann (denn die Mächtigkeit eines affinen Unterraums x0 + U ist
gleich der des zugehörigen Unterraums U , und bereits eindimensionale Unterräume
über einem unendlichen Körper sind unendlich).
b) Das homogene LGS Ax = 0 ist immer lösbar (die Lösungsmenge ist ja gerade
ker(A)), ein inhomogenes LGS dagegen nicht immer. Falls es aber lösbar ist, dann
hat es nach obigem Lemma genauso viele Lösungen, wie das zugehörige homogene
System.
Definition 5.2 (Erweiterte Koeffizientenmatrix). Sei A ∈ K m×n und b ∈ K m . Die erweiterte Koeffizientenmatrix des Gleichungssystems Ax = b ist die Matrix aus K m×(n+1) ,
die aus A durch Anhängen des Spaltenvektors b entsteht. Sie wird als (A|b) geschrieben.
Das folgende Kriterium ist, wie wir noch sehen werden, auch in der Praxis nützlich, um
zu entscheiden, ob ein lineares Gleichungssystem lösbar ist.
Satz 5.2. Seien A ∈ K m×n und b ∈ K m . Dann ist das LGS Ax = b genau dann lösbar,
wenn rg(A) = rg(A|b) gilt.
Ferner gilt im Falle der Lösbarkeit: Die Lösung ist genau dann eindeutig, wenn rg(A)(=
rg(A|b)) = n.
Beweis: Es gilt sowieso immer rg(A) ≤ rg(A|b), nach der Charakterisierung des Rangs
als Dimension des Erzeugnisses der Spalten. Also gilt rg(A) = rg(A|b) genau dann,
wenn b bereits im Erzeugnis der Spalten von A, also im Bild von x 7→ Ax, liegt. Aber
b ∈ {Ax|x ∈ K n } ist offensichtlich äquivalent dazu, dass Ax = b lösbar ist.
Im Falle der Lösbarkeit ist die Lösung nach dem vorigen Lemma genau dann eindeutig,
wenn ker(A) = {0} gilt, was nach Dimensionsformel äquivalent zu rg(A) = dim(K n ) = n
ist.
5.3
Elementare Umformungen
Wir versuchen nun systematisch, lineare Gleichungssysteme zu lösen. Dazu werden wir
nur die in der folgenden Definition beschriebenen Umformungen verwenden.
Definition 5.3 (Elementare Zeilen- und Spaltenumformungen). Sei A ∈ K m×n eine Matrix. Bezeichne ai := (A[i, 1], ..., A[i, n]) die i-te Zeile von A. Eine elementare Zeilenumformung ist eine Operation von einer der drei folgenden Formen:
Z1) Multiplikation einer Zeile mit einem Skalar λ 6= 0 (also Erzetzung der Zeile ai
durch λai ).
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
56
Z2) Addition eines beliebigen Vielfachen einer Zeile zu einer anderen Zeile (also Ersetzung der Zeile ai durch ai + λaj , mit λ ∈ K und i 6= j).
Z3) Vertauschung zweier Zeilen von A.
Analog definiert man elementare Spaltenumformungen.
Eine wichtige Erkenntnis ist, dass jede elementare Zeilen- oder Spaltenumformung durch
Multiplikation von A mit einer geeigneten invertierbaren Matrix ausgedrückt werden
kann.
Definition 5.4 (Elementarmatrizen). Seien λ ∈ K und seien 1 ≤ i, j ≤ n. Falls i = j,
dann sei zusätzlich λ 6= 0.
Eine Elementarmatrix ist eine quadratische Matrix Ei,j (λ) ∈ K n×n , die an der Stelle
[i, j] den Eintrag λ hat und an jeder anderen Stelle den gleichen Eintrag wie die Einheitsmatrix.
Satz 5.3.
a) Elementarmatrizen sind stets invertierbar und ihre Inversen sind wieder
Elementarmatrizen.
b) Jede elementare Zeilenumformung einer Matrix A ∈ K m×n kann durch Linksmultiplikation A 7→ P · A und jede elementare Spaltenumformung durch Rechtsmultiplikation A 7→ A · Q erreicht werden, mit geeigneten Produkten P und Q von
Elementarmatrizen (P ∈ GLm (K) bzw. Q ∈ GLn (K)).
c) Elementare Zeilen- und Spaltenumformungen ändern nicht den Rang einer Matrix.
Beweis: Zu a): Die Elementarmatrizen der Form Ei,i (λ) sind Diagonalmatrizen und
folglich invertierbar mit Inverser Ei,i (1/λ). Ist i 6= j, dann rechnet man nach, dass
Ei,j (λ) · Ei,j (−λ) = En (der einzige Eintrag des Produkts, der vom entsprechenden
Eintrag der Einheitsmatrix abweichen könnte, entsteht an der Stelle [i, j], also bei der
Multiplikation “i-te Zeile mal j-te Spalte”; er ist aber gleich 1 · (−λ) + λ · 1 = 0).
Zu b): Man rechne direkt nach, dass Linksmultiplikation von A mit Ei,i (λ) gerade
die Zeilenumformung Z1 ergibt und Linksmultiplikation mit Ei,j (λ) (i 6= j) gerade die
Zeilenumformung Z2. Analog für Spaltenumformungen und Rechtsmultiplikation. Die
Umformungen Z3 lassen sich als Verkettung von Umformungen der Typen Z1 und Z2 und damit nach eben Gezeigtem durch Linksmultiplikation mit Produkten von Elementarmatrizen - schreiben, nämlich wie folgt: Multipliziere zuerst die i-te Zeile ai mit −1,
und addiere dann zu ihr die j-te Zeile aj . Ziehe dann von der j-ten Zeile die neue i-te
Zeile (also aj − ai ) ab. Damit lautet die neue j-te Zeile ai . Addiere noch diese zur i-ten
Zeile (momentan aj − ai ); diese lautet dann aj . Damit folgt b).
Zu c): Folgt direkt aus a), b) und Satz 4.7.
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
5.4
57
Der Gauß-Algorithmus
Wir verwenden nun Zeilen- und Spaltenumformungen, um ein Gleichungssystem Ax = b
auf eine besonders einfache Form zu bringen, an der die Lösung sehr leicht abzulesen ist.
Dazu hilft zunächst folgende Bemerkung:
Lemma 5.4. Sei A ∈ K m×n und b ∈ K m . Wendet man elementare Zeilenumformungen
auf die erweiterte Koeffizientenmatrix (A|b) an, dann ändert sich die Lösungsmenge des
zugehörigen Gleichungssystems nicht.
Beweis: Es wurde bereits gezeigt, dass Zeilenumformungen der Linksmultiplikation mit
geeigneten invertierbaren Matrizen entsprechen. Elementare Zeilenumformungen überführen
also (A|b) nach (P A|P b), mit einer Matrix P ∈ GLm (K). Nun folgt aus Ax = b natürlich
auch (P A)x = P b, und genauso umgekehrt (man kann ja von links wieder mit P −1 multiplizieren). Also ist die Lösungsmenge von Ax = b die gleiche wie die von P Ax = P b.
Wir versuchen also, um ein Lineares Gleichungssystem zu lösen (oder auch um zunächst
die Lösbarkeit zu entscheiden), die erweiterte Matrix (A|b) mit Zeilenumformungen auf
eine möglichst einfache Form zu bringen. 1
Eine solche einfache Form ist die sogenannte Zeilenstufenform.
Definition 5.5 (Zeilenstufenform, reduzierte Zeilenstufenform). Eine Matrix A ∈ K m×n
ist in Zeilenstufenform, wenn es ein 0 ≤ r ≤ m so dass genau die Zeilen Nummer r + 1
bis m von A Nullzeilen sind, und für alle 1 ≤ i ≤ r folgendes gilt:
Ist ki der minimale Index mit A[i, ki ] 6= 0, dann gilt A[j, k] = 0 für alle i < j ≤ n und
alle 1 ≤ k ≤ ki . Die Elemente A[i, ki ] (1 ≤ i ≤ r) heißen Pivotelemente.
(Anschaulich gesprochen müssen also alle Elemente senkrecht unterhalb oder links unterhalb eines Pivotelements gleich Null sein.)
Falls alle Pivotelemente A[i, ki ] gleich 1 sind und alle Einträge A[l, ki ] mit l < i (also
alle Einträge senkrecht über den Pivotelementen) gleich 0 sind, sagt man, dass A in
reduzierter Zeilenstufenform ist.
Beispiel:
1 0 −1 2 00 2 1
00 0 3
00 0 0
ist in Zeilenstufenform,
1 2 0 0
0010
0001
ist in reduzierter Zeilenstufenform.
Der Rang einer Matrix A in Zeilenstufenform ist besonders leicht abzulesen.
Lemma 5.5. Sei A ∈ K m×n in Zeilenstufenform und b ∈ K m . Dann gelten:
a) Der Rang von A ist genau die Anzahl r der Nicht-Nullzeilen von A.
1
Bei Spaltenumformungen ist dagegen Vorsicht angebracht: Rechtsmultiplikation mit einer invertierbaren Matrix Q ∈ GLn (K) ändert sehr wohl die Lösungsmenge, denn aus Ax = b folgt nicht AQx = bQ!
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
58
b) Das LGS Ax = b ist genau dann lösbar, wenn br+1 = ... = bm = 0.
Beweis: A hat den Rang r, denn das Bild von A ist gerade das Erzeugnis der ersten r
Standardbasisvektoren e1 , ..., er von K m . Damit folgt a).
Genau für br+1 = ... = bm = 0 liegt b auch in diesem Bild, d.h. (A|b) hat den selben
Rang r. Damit folgt b) aus Satz 5.2.
Wir geben nun einen Algorithmus an, der eine beliebige Matrix durch elementare Zeilenumformungen in reduzierte Zeilenstufenform bringt.
Anschließend untersuchen wir, wie die Lösungsmenge eines linearen Gleichungssystems
Ax = b aussieht, bei dem die Matrix A in Zeilenstufenform ist.
Gauß-Algorithmus2
1.Schritt: Falls A die Nullmatrix ist, dann brich ab (diese ist schon in Zeilenstufenform).
Sonst:
2.Schritt: Es gibt ein j ∈ {1, ..., n} so, dass die j-te Spalte von A keine Nullspalte ist.
Wähle j minimal mit dieser Eigenschaft. Durch maximal eine Zeilenvertauschung können
wir erreichen, dass der erste Eintrag der j-ten Spalte ungleich 0 ist, also A[1, j] 6= 0.
3.Schritt: Als nächstes subtrahieren wir jeweils von der i-ten Zeile das A[i, j]/A[1, j]fache der ersten Zeile, für alle i = 2, ..., m. Dadurch werden alle Einträge A[i, j] zu 0
gemacht.
4.Schritt: Lasse von nun an die erste Zeile unverändert, und betrachte die Teilmatrix,
die aus der nun erhaltenen Matrix entsteht, wenn man die erste Zeile streicht. Beginne
mit dieser Matrix (statt mit A) wieder bei Schritt 1.
Beachte, dass dieser Algorithmus nach endlich vielen Durchläufen abbricht, da in jedem
neuen Durchlauf eine Matrix mit einer Zeile weniger als zuvor betrachtet wird. Weiter
wird in jedem Durchlauf nur eine bestimmte Spalte geändert, sagen wir die jk -te Spalte
im k-ten Durchlauf.
Da nach diesem Durchlauf in der Restmatrix, mit der weitergemacht wird, alle Spalten
bis einschließlich zur jk -ten Nullspalten sind, werden danach nur noch Spalten weiter
rechts bearbeitet. Es gilt also j1 < j2 < ... und insbesondere auch immer jk > k.
Satz 5.6. Der Gauß-Algorithmus überführt eine Matrix A (in endlich vielen Schritten)
in Zeilenstufenform.
Beweis: Wir behaupten, dass nach dem k-ten Durchlauf die Teilmatrix, die aus den
ersten jk Spalten besteht, in Zeilenstufenform ist (beim Abbruch des Algorithmus ist
dann also die ganze Matrix in Zeilenstufenform). Das sieht man induktiv. Wir können
2
Carl Friedrich Gauß (1777-1855)
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
59
dazu annehmen, dass die Teilmatrix der ersten jk−1 Spalten bereits in Zeilenstufenform
ist (für k−1 = 0 setze j0 := 0), d.h. die Pivotelemente der Zeilen 1 bis k−1 erfüllen bereits
die Bedingung aus Definition 5.5. Da diese Bedingung nur von Elementen maximal der
jk−1 -ten Spalte abhängt, wird daran nun auch nichts mehr geändert.
Ferner wird nun im k-ten Durchlauf in Zeile k ein Pivotelement ungleich 0 an der Stelle
[k, jk ] erzeugt. Alle Elemente links unterhalb dieses Elements sind bereits = 0 (denn so
wurde der Spaltenindex jk ja ausgewählt); die Elemente senkrecht unterhalb werden aber
nun durch Schritt 3 ebenfalls zu 0 gemacht. Damit ist auch für das Element an der Stelle
[k, jk ] die Pivotbedingung von Definition 5.5 erfüllt, d.h. die Matrix bis einschließlich zur
jk -ten Spalte ist nun in Zeilenstufenform. Das war zu zeigen.
Beispiel:
1
Wir führen den Gauß-Algorithmus einmal am Beispiel der Matrix A = 2
R3×4
0 −1 2
0 2 1
3 −2 1 1
∈
durch. Um Platz zu sparen führen wir Zeilenoperationen, die sich nicht gegenseitig
beeinflussen, jeweils in einem Schritt durch.






1 0 −1 2 z2 +−2z1 1 0 −1 2
1 0 −1 2
−−−−−→
z2 ↔z3 
2 0
2 1 z3 +−3z1 0 0
4 −3 −−
−−→ 0 −2 4 −5
−
−
−
−
−
→
3 −2 1 1
0 −2 4 −5
0 0
4 −3
Lemma 5.5 bedeutet, dass man mit dem Gauß-Algorithmus sehr effektiv den Rang einer
Matrix bestimmen kann, und auch die Frage der Lösbarkeit eines linearen Gleichungssystems entscheiden kann. Um nun ein LGS explizit zu lösen, bringen wir die Matrix A
weiter auf reduzierte Zeilenstufenform. Das geht mit folgender Erweiterung des GaußAlgorithmus:
Gauß-Jordan-Algorithmus3
1.Schritt: Bringe die Matrix A mit dem Gauß-Algorithmus in Zeilenstufenform. r sei
die Anzahl der Nicht-Nullzeilen.
2.Schritt:4 Für i = 1, ..., r: Tausche die Spalte, in der das Pivotelement der i-ten Zeile
steht, mit der i-ten Spalte.
Danach stehen die Pivotelemente also an den Stellen [1, 1], [2, 2],..., [r, r], und die Matrix
ist nach wie vor in Zeilenstufenform (denn die Pivotelemente wurden höchstens nach
links verschoben).
3.Schritt: Teile jede der ersten r Zeilen durch ihr Pivotelement. Nun ist die Matrix in
Zeilenstufenform mit Pivoteinträgen = 1 an den Stellen [1, 1],..., [r, r].
3
Wilhelm Jordan (1842-1899). Fälschlicherweise wird auch immer wieder der wesentlich bedeutendere
französische Mathematiker Camille Jordan (1838-1922), der uns im zweiten Semester noch begegnen
wird, mit diesem Algorithmus in Verbindung gebracht.
4
Dieser Schritt ist nicht nötig um reduzierte Zeilenstufenform zu erreichen. Man braucht ihn nur,
wenn man die besonders angenehm hinschreibbare Form aus Satz 5.7b) bekommen will. Insbesondere
ist dieser Schritt der einzige, der Spaltenvertauschungen benötigt. Reduzierte Zeilenstufenform erhält
man also auch alleine durch Zeilenumformungen.
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
60
4.Schritt: Der Reihe nach für j = r, ..., 2 (absteigend):
Für alle 1 ≤ i < j subtrahiere das A[i, j]-fache der j-ten Zeile von der i-ten Zeile. (Damit
werden alle Einträge oberhalb der Pivotelemente zu 0 gemacht, und die Zeilenstufenform
bleibt weiter erhalten.)
Beispiel:
Wir führen das oben begonnene Beispiel fort und bringen die Matrix
0 −1 2
0 −2 4 −5
0 0 4 −3
1
weiter
auf reduzierte Zeilenstufenform:






(−1/2)×z2
1 0 −1 2
1 0 −1
2
1 0 0 5/4
z1 +1z3
0 −2 4 −5 −−−−−−→ 0 1 −2 5/2  −−−−→ 0 1 0
1 
z2 +2z3
(1/4)×z3
−
−
−
−
→
0 0
4 −3 −−−−−→ 0 0 1 −3/4
0 0 1 −3/4
5.5
Bestimmung der Lösungsmenge linearer Gleichungssysteme
Wir fassen unsere bisherigen Ergebnisse kurz zusammen:
Satz 5.7. Sei A ∈ K m×n . Dann gelten:
a) A lässt sich durch elementare Zeilenumformungen in (reduzierte) Zeilenstufenform
bringen.
b) A lässt sich durch
sowie Spaltenvertauschungen in eine Matrix
Zeilenumformungen
E
∗
r
umwandeln.
der Form A0 =
0 0
c) A ∈ K m×n lässt sich durch
elementare
Zeilen- und Spaltenumformungen in eine
E
0
r
umwandeln. Dabei ist r der Rang von A.
Matrix der Form A0 =
0 0
Beweis: a) und b) folgen aus der bereits gezeigten Korrektheit des Gauß-Algorithmus
bzw. des Gauß-Jordan-Algorithmus.
Wir müssen nun nur noch die Matrix aus b) mit Spaltenumformungen in die Form aus
c) überführen. Das geht einfach folgendermaßen:
Subtrahiere der Reihe nach, für i = r, ..., 1 (absteigend), jeweils ein geeignetes Vielfaches
der i-ten Spalte von allen Spalten vom Index > r, um alle Einträge
A[i, j], j > r auf
Null zu bringen. Das überführt die Matrix in eine der Form E0r 00 .
Bemerkungen: Teil c) von Satz 5.7 ist eher theoretisch relevant. Er zeigt insbesondere,
dass jede Matrix durch Links- und Rechtsmultiplikation mit geeigneten invertierbaren
Matrizen auf eine besonders einfache Form gebracht werden kann. Das folgt in dieser
Form übrigens auch schon aus den Beobachtungen im Kapitel über Darstellungsmatrizen
(Basiswechsel!).
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
61
Fürs praktische Lösen von Gleichungssystemen sind dagegen a) und b) nützlicher. Man
beachte, dass Spaltentausch einer Umbenennung der Variablen x1 , ..., xn entspricht. Vertauscht man also die Spalten i und j einer Matrix und erhält für die umgeformte Matrix den Lösungsvektor (x1 , ..., xn ), dann hatte das ursprüngliche System die Lösung
j−ter Eintrag
(x1 , ...,
xj
|{z}
, ...,
z}|{
xi
, ..., xn ). Falls nacheinander mehrere Spaltenvertauschun-
i−ter Eintrag
gen angewendet wurden, muss man diese entsprechend im Lösungsvektor in umgekehrter
Reihenfolge rückgängig machen.
Wir bestimmen nun noch die Lösungsmenge eines linearen Gleichungssystems mit Matrix
in reduzierter Zeilenstufenform. Wir nehmen dabei der Einfachheit
halber an, dass die
Er ∗
Pivotelemente auf der Hauptdiagonalen stehen, also A =
, vgl. Satz 5.7b).5
0 0
Ferner nehmen wir an, dass das LGS Ax = b überhaupt lösbar ist, also br+1 = ... = bn =
0, siehe Lemma 5.5. In ausgeschriebener Form haben wir also das Gleichungssystem
n
X
x1 +
a1,j xj = b1
j=r+1
n
X
x2 +
a2,j xj = b2
j=r+1
...
n
X
xr +
ar,j xj = br .
j=r+1
Zunächst sieht man sehr leicht eine spezielle Lösung eines solchen Systems:
m×n in reduzierter Zeilenstufenform von der
Satz 5.8 (Spezielle Lösung). Sei A ∈ K
!
b1
Er ∗
..
, und sei b =
∈ K m . Das LGS Ax = b sei lösbar.
Gestalt A =
.
0 0
bm
v1 Dann ist der Vektor v := ... , mit vi = bi für alle i = 1, ..., r und vr+1 = ... = vn = 0,
eine Lösung.
vn
Um ausgehend von der speziellen Lösung die gesamte Lösungsmenge zu erhalten, müssen
wir den Kern von A bestimmen, also die Lösungsmenge von
x1 +
n
X
a1,j xj = 0
j=r+1
5
Natürlich lassen sich die folgenden Ergebnisse auch für den Fall beliebiger reduzierter Zeilenstufenform anpassen.
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
x2 +
n
X
62
a2,j xj = 0
j=r+1
...
xr +
n
X
ar,j xj = 0.
j=r+1
Auch das ist nicht mehr schwer:
m×n in reduzierter Zeilenstufenform
Satz 5.9 (Kern und allgemeine
Lösung). Sei A ∈ K
Er ∗
von der Gestalt A =
. Dann bilden die folgenden n − r Vektoren eine Basis
0 0
von ker(A):
(−A[1, r + 1], ..., −A[r, r + 1], 1, 0, ..., 0)t , ..., (−A[1, n], ..., −A[r, n], 0, ..., 0, 1)t .
Beweis: Dass diese Vektoren im Kern liegen, prüft man sofort nach. Ebenso ist die
lineare Unabhängigkeit klar. Da rg(A) = r, gilt dim(ker(A)) = n − r, also ist das
Erzeugnis der angegebenen Vektoren schon ganz ker(A).
Beispiel:
1 0 −1 2 1
Wir lösen das lineare Gleichungssystem 2 0 2 1 x = 0 (über dem Körper R).
0
|{z}
| 3 −2{z1 1 }
=:b
=:A
Dazu müssen wir (A|b) mit dem Gauß-Jordan-Algorithmus so in (A0 |b0 ) umformen, dass
A0 in reduzierter Zeilenstufenform ist. Für die Matrix A haben wir das in den vorigen
Abschnitten schon gemacht, und man sieht leicht, dass sich,
wenn man denVektor b
noch als letzte Spalte angehängt hätte, die Form (A0 |b0 ) =
1 0 0 5/4 | 1/2
0 1 0 1 | 1/2
0 0 1 −3/4 | −1/2
ergeben
würde.
Da nur Zeilenumformungen verwendet wurden, wissen wir, dass A0 x = b0 die gleiche
Lösungsmenge hat wie Ax = b (siehe Lemma 5.4).
!
Nun liefert Satz 5.8 die spezielle Lösung x0 :=
!
h
−5/4
−1
3/4
1
1/2
1/2
−1/2
0
, und Satz 5.9 liefert ker(A) =
i.
Die Gesamtlösung ist dann mit Satz 5.1 gleich x0 + ker(A) = {
1/2−5/4λ
1/2−λ
−1/2+3/4λ
λ
!
| λ ∈ R}
Bemerkung:
Beim Lösen von homogenen linearen Gleichungssystemen Ax = 0 muss man den Nullvektor nicht an die Matrix A anhängen, da Zeilenumformungen diesen sowieso unverändert
lassen.
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
63
Wir zeigen noch einige interessante theoretische Konsequenzen von Satz 5.7c).
Satz 5.10. Jede invertierbare quadratische Matrix ist ein Produkt von Elementarmatrizen. D.h., die Menge der n×n-Elementarmatrizen erzeugt die lineare Gruppe GLn (K).
Beweis: Ist A ∈ K n×n invertierbar, dann ist rg(A) = n. Satz 5.7 c) sagt aus, dass es
Produkte P und Q von n × n-Elementarmatrizen gibt, sodass P AQ = En . Es folgt
A = P −1 Q−1 , also ist A ein Produkt von Inversen von Elementarmatrizen. Da diese
Inversen wieder Elementarmatrizen sind, folgt die Behauptung.
5.6
Die Transponierte einer Matrix
Definition 5.6 (Transponierte Matrix). Ist A ∈ K m×n , dann nennt man die Matrix
At ∈ K n×m , definiert durch At [i, j] := A[j, i], die Transponierte von A.
Satz 5.7c) liefert:
Satz 5.11. Für A ∈ K m×n gilt stets rg(A) = rg(At ).
Da der Rang von At gerade die Dimension des Erzeugnisses der Zeilen von A (=Spalten
von At ) ist, wird die obige Aussage auch oft in der Form “Zeilenrang = Spaltenrang”
formuliert.
Bevor wir Satz 5.11 beweisen, brauchen wir noch einige (auch sonst nützliche) Aussagen
über die Transponierte einer Matrix:
Lemma 5.12.
a) Seien A ∈ K m×n , B ∈ K n×r . Dann gilt (AB)t = B t At .
b) Sei A ∈ GLn (K), dann ist auch At invertierbar und es gilt: (At )−1 = (A−1 )t .
Beweis: a) rechnet man sofort an der Definition des Matrixproduktes nach.
b): Nach a) ist En = Ent = (AA−1 )t = (A−1 )t At , also At invertierbar, mit der Inversen
(A−1 )t .
Beweis von Satz 5.11:Nach Satz
5.7c) existieren invertierbare Matrizen P ∈ GLm (K), Q ∈
Er 0
GLn (K) mit P AQ =
=: A0 . Also A = P −1 A0 Q−1 .
0 0
Offensichtlich ist rg(A0 ) = rg((A0 )t ) = r. Weiter wissen wir bereits, dass Multiplikation
mit invertierbaren Matrizen den Rang nicht ändert. Also folgt
5.12
rg(At ) = rg((Qt )−1 A0t (P t )−1 ) = rg(A0t ) = rg(A0 ) = rg(P −1 A0 Q−1 ) = rg(A).
KAPITEL 5. LINEARE GLEICHUNGSSYSTEME
5.7
64
Bestimmung der Inversen einer Matrix
In Anwendungen muss man oft mehrere Gleichungssysteme A · x1 = b1 ,..., A · xr = br
(xi ∈ K n , bi ∈ K m ) mit der gleichen Koeffizientenmatrix A ∈ K m×n lösen. Dazu muss
man den Gaußalgorithmus nicht r-mal in Folge anwenden, sondern nur einmal. Man
bilde eine Matrix B ∈ K m×r aus den Spalten b1 ,..., br und führe den Gaußalgorithmus
mit der erweiterten Matrix (A|B) - statt wie bisher (A|b) - durch.
Das ist nichts anderes, als die Matrixgleichung A · X = B zu lösen (mit Lösungen
X ∈ K n×r ), wobei jede Spalte von X eine Lösung eines linearen Gleichungssystems
A · xi = bi ist.
Ein typischer Fall einer solchen Matrixgleichung ergibt sich beim Invertieren einer gegebenen quadratischen Matrix A ∈ K n×n , denn hier soll gerade die Matrixgleichung A · X =
En gelöst werden.
Wir beginnen also mit der erweiterten Matrix (A|En ) und bringen nun A mit dem
Gauß-Jordan-Algorithmus (nur mit Zeilenumformungen!) auf reduzierte Zeilenstufenform. Falls die Matrix invertierbar ist, dann ist diese reduzierte Zeilenstufenform gerade
die Einheitsmatrix En (falls sie nicht invertierbar ist, dann erhält man eine Zeilenstufenform mit Nullzeilen; man kann also den Algorithmus durchführen, auch ohne vorher
über die Invertierbarkeit Bescheid zu wissen). Sei also (En |B) das Endergebnis des Algorithmus. Dann ist AX = En äquivalent zu En X = B. Also ist B = A−1 die gesuchte
Inverse.
Kapitel 6
Determinanten
Determinanten sind ein nützliches Hilfsmittel um gewisse Eigenschaften von quadratischen Matrizen bzw. von Endomorphismen zu untersuchen. Um sie sauber zu definieren,
brauchen wir zunächst noch einen Exkurs in die Gruppentheorie, genauer die Theorie
der Permutationen.
6.1
Permutationen
Wir erinnern noch einmal daran, dass eine bijektive Selbstabbildung σ : M → M einer
Menge M als eine Permutation von M bezeichnet wird. Die Menge aller Permutationen
von M bezeichnen wir mit Sym(M ), oder im Fall M = {1, ..., n} auch mit Sn . Mit Hintereinanderausführung von Abbildungen als Verknüpfung wird Sym(M ) eine Gruppe.
Rein kombinatorisch sieht man, dass die Gruppe Sn genau n! = 1 · 2 · · · n Elemente hat.
Wie kann man Permutationen σ ∈ Sn beschreiben? Natürlich unter anderem einfach
durch Angabe aller Bilder σ(1), ..., σ(n). Das ist aber oft nicht geeignet um daran Eigenschaften von σ direkt abzulesen. Wir wollen eine besonders praktische Notationsweise
für Permutationen aus Sn einführen, die sogenannte Zykelnotation. Um zu sehen, dass
diese wohldefiniert ist, brauchen wir ein Hilfsergebnis.
Lemma 6.1. Sei n ∈ N und σ ∈ Sn . Dann bilden die Mengen Sα := {α, σ(α), σ 2 (α), ...},
mit α ∈ {1, .., n}, eine Partition von {1, ..., n}. Weiter gilt: Ist d ∈ N minimal mit
σ d (α) = α, dann besteht Sα genau aus den d verschiedenen Elementen α, σ(α),...,
σ d−1 (α).
Beweis: Beachte zunächst, dass σ ∈ Sn wegen |Sn | < ∞ endliche Ordnung hat. Bezeichnet D diese Ordnung, dann ist σ D (α) = α (für alle α ∈ {1, ..., n}). Insbesondere existiert
für ein gegebenes α auch ein minimales d wie angegeben. Wir zeigen nun, dass durch
α ∼ β :⇔ ∃r∈N0 : σ r (α) = β eine Äquivalenzrelation auf {1, ..., n} gegeben ist. Damit
folgt der erste Teil der Behauptung, da die Sα gerade die zugehörigen Äquivalenzklassen
65
KAPITEL 6. DETERMINANTEN
66
sind. Die Reflexivität ist klar, auch die Transitivität folgt leicht, denn aus α ∼ β und
β ∼ γ folgt γ = σ r (β) = σ r (σ s (α)) = σ r+s (α) für geeignete r, s ∈ N0 , also α ∼ γ.
Schließlich ist die Relation auch symmetrisch, denn ist σ r (α) = β, dann gilt für jedes
Vielfache N der Ordnung von σ:
σ N −r (β) = σ N (σ −r (β)) = σ N (α) = α.
Wähle nur das Vielfache N hinreichend groß, so dass N − r ≥ 0, dann folgt β ∼ α.
Sei nun d ∈ N minimal mit σ d (α) = α, dann ist wegen σ k·d+j (α) = σ j (α) (für alle
k ∈ N, j = 0, ..., d − 1) schon Sα = {α, σ(α), ..., σ d−1 (α)}; und diese d Elemente sind
auch verschieden, denn aus σ i (α) = σ j (α) für 0 ≤ i < j ≤ d − 1 würde folgen
α = σ 0 (α) = σ j−i (α),
mit 0 < j − i < d - ein Widerspruch zur Definition von d.
Definition 6.1 ((Disjunkte) Zykelnotation, Zykellänge). Seien n ∈ N und σ ∈ Sn .
Wir schreiben die disjunkten Sα aus obigem Lemma in der Form (α σ(α)...σ d−1 (α))
hintereinander. Dies ist die (disjunkte) Zykelnotation für σ ∈ Sn . (α σ(α)...σ d−1 (α))
heißt ein Zykel. Die Anzahl d der Elemente eines Zykels heißt die Länge dieses Zykels.
Zykel der Länge 1 lässt man oft auch weg (es sei denn, es gibt nur solche Zykel, was bei
σ = id der Fall ist; hier sollte man wenigstens einen Zykel stehen lassen).
Beispiel:
Die Zykelnotation σ = (1, 4, 5)(2, 3) für σ ∈ S5 bedeutet, dass σ(1) = 4, σ(4) = 5,
σ(5) = 1 und ebenso σ(2) = 3, σ(3) = 2 gilt. Man kann also aus der Zykelnotation recht
bequem entnehmen, was die entsprechende Permutation mit den Zahlen 1, ..., n tut. Man
beachte, dass in der Zykelnotation die Reihenfolge der Zykel nicht eindeutig ist. Auch
ist das erste Element eines Zykels nicht eindeutig. Die Zykelschreibweise (2, 3)(4, 5, 1)
bezeichnet also genau dasselbe Element σ ∈ S5 .
Bemerkung:
Wir wissen schon (aus den Übungen), dass für n ≥ 3 die Gruppe Sn nicht abelsch ist.
Permutationen kommutieren also im Allgemeinen nicht. Allerdings gilt immerhin:
Lemma 6.2. Seien σ, τ ∈ Sn disjunkte Zykel.1 Dann gilt σ ◦ τ = τ ◦ σ.
Beweis: Sei α ∈ {1, ..., n}. Wir müssen zeigen (στ )(α) = (τ σ)(α).
• 1.Fall: τ (α) 6= α.
Da dann sowohl α als auch τ (α) im Zykel τ vorkommen, müssen beide von σ fixiert
werden. Also gilt
(στ )(α) = σ(τ (α)) = τ (α) = τ (σ(α)).
1
Das soll heißen, dass kein Element α ∈ {1, ..., n} sowohl im Zykel σ als auch im Zykel τ vorkommt.
KAPITEL 6. DETERMINANTEN
67
• 2.Fall: τ (α) = α. Ohne Einschränkung ist dann σ(α) 6= α (denn wenn sowohl τ
als auch σ den Punkt α fixieren, ist sowieso σ(τ (α)) = α = τ (σ(α))). Nun verläuft
der Beweis aus Symmetriegründen analog wie im 1.Fall.
Konsequenz:
Ist σ ∈ Sn in (disjunkter) Zykelnotation geschrieben - σ = σ1 · · · σr mit Zykeln σi ,
dann vertauschen alle σi untereinander. Damit kann man Potenzen von σ “zykelweise”
berechnen, d.h. σ k = σ1k · · · σrk .
Definition 6.2 (Transposition). Eine Transposition ist ein Element τ ∈ Sym(M ), das
genau zwei Elemente a 6= b ∈ M vertauscht (also τ (a) = b und τ (b) = a) und sonst alle
Elemente fixiert. In Zykelnotation ist also τ = (a, b).
Lemma 6.3. Jede Permutation σ ∈ Sn lässt sich als (endliches) Produkt von Transpositionen schreiben.
Beweis: Da jedes σ ein Produkt von Zykeln ist, genügt es zu zeigen, dass sich jeder Zykel
als Produkt von Transpositionen schreiben lässt. Durch Umbenennung der Elemente
können wir uns sogar auf den Zykel (1 2 . . . k) beschränken (k ≤ n). Für diesen zeigt
man sehr leicht mit Induktion, dass (1 2 . . . k) = (1 2)(2 3) · · · (k − 1 k).
Definition 6.3. Eine Permutation σ heißt gerade/ungerade, wenn sie sich als Produkt
einer geraden/ ungeraden Anzahl von Transpositionen schreiben lässt.
Die Bedeutung dieser Definition liegt in folgendem Lemma:
Lemma 6.4. Eine Permutation σ ∈ Sn kann nicht gleichzeitig gerade und ungerade
sein.
Beweis: Seien τ1 · · · τ2k = σ = ρ1 · · · ρ2m+1 zwei Darstellungen von σ als Produkt von
gerade vielen Transpositionen τi und als Produkt von ungerade vielen Transpositionen
−1
ρj . Dann ist id = σ · σ −1 = τ1 · · · τ2k · (ρ1 · · · ρ2m+1 )−1 = τ1 · · · τ2k · ρ−1
=
2m+1 · · · ρ1
τ1 · · · τ2k · ρ2m+1 · · · ρ1 .
Die letzte Gleichheit gilt, da jede Transposition ihr eigenes Inverses ist.
Also haben wir die Identität id als Produkt ungerade vieler Transpositionen geschrieben.
Wir zeigen nun durch Induktion, dass so etwas nicht möglich ist.
Zunächst kann sicher eine einzige Transposition nicht gleich id sein. Sei nun für ein
n ∈ N gezeigt, dass id kein Produkt aus 2n − 1 Transpositionen ist. Man nehme nun an,
dass id ein Produkt aus 2n + 1 Transpositionen ist: id = τ1 · · · τ2n+1 . Betrachte nun die
rechtesten beiden Transpositionen in diesem Produkt; die rechteste davon sei mit (a, b)
KAPITEL 6. DETERMINANTEN
68
bezeichnet. Wegen (a, b) = (b, a) gibt es nur folgende Möglichkeiten für das Produkt
dieser beiden (mit geeigneten von a und b verschiedenen Elementen c, d):
(a, b)(a, b) = id,
(a, c)(a, b) = (a, b)(b, c),
(b, c)(a, b) = (a, c)(b, c),
(c, d)(a, b) = (a, b)(c, d).
Falls die erste Möglichkeit vorliegt, ist das gesamte Produkt um die Länge 2 verkürzbar,
im Widerspruch zur Induktionsannahme. Die Gleichungen in den anderen Fällen zeigen
aber, dass das Produkt (ohne die Anzahl der Transpositionen zu ändern) so umgeformt
werden kann, dass das “rechteste” Auftreten von a um einen Zykel nach links verschoben
wird. Man iteriere dieses Verfahren. Entweder stoßen dabei irgendwann zwei gleiche
Transpositionen aufeinander und man erhält wie eben einen Widerspruch zur Induktionsannahme. Oder aber, das rechteste Auftreten von a kann bis in den “linkesten”
Zykel verschoben werden; das ist aber auch ein Widerspruch, denn dann wird a von
genau einer der Transpositionen bewegt, also sicher nicht vom Produkt fixiert - dieses
Produkt ist aber id.
Der Widerspruch zeigt, dass id auch kein Produkt von 2n + 1 Transpositionen sein
kann.
Das obige Lemma zeigt, dass folgende Definition sinnvoll ist:
Definition 6.4. Die Abbildung sgn : Sn → {±1}, definiert durch sgn(σ) := (−1)k ,
wobei σ als ein Produkt
( von k Transpositionen schreibbar sei, heißt Signumsfunktion.
1, falls σ gerade
Es gilt also sgn(σ) =
,
−1, falls σ ungerade
Folgende Eigenschaften des Signums folgen leicht:
Lemma 6.5.
a) Die Funktion sgn ist multiplikativ, d.h. für alle σ, τ ∈ Sn gilt sgn(στ ) =
sgn(σ) · sgn(τ ).
b) Für alle σ ∈ Sn ist sgn(σ) = sgn(σ −1 ).
c) Für n ≥ 2 gibt es genauso viele gerade wie ungerade Permutationen in Sn , also
jeweils n!/2.
d) Das Signum eines Zykels der Länge k (1 ≤ k ≤ n) ist (−1)k−1 .
Beweis: a) folgt direkt aus den Definitionen.
b) folgt aus a) wegen 1 = sgn(id) = sgn(σσ −1 ) = sgn(σ) · sgn(σ −1 ).
Zu c): Ist (a, b) ∈ Sn eine Transposition, dann ist durch σ 7→ (a, b) · σ (für σ gerade)
eine Bijektion von der Menge der geraden auf die Menge der ungeraden Permutationen
KAPITEL 6. DETERMINANTEN
69
definiert (τ 7→ (a, b)τ (für τ ungerade) ist die Umkehrabbildung).
Schließlich folgt d) sofort aus der Darstellbarkeit eines Zykels der Länge k als Produkt
von k − 1 Transpositionen, wie im Beweis von Lemma 6.3 gesehen.
Wir halten noch ein interessantes Ergebnis über gerade Permutationen in Sn fest:
Satz 6.6. Die Menge An der geraden Permutationen in Sn ist eine Untergruppe von
Sn . An heißt alternierende Gruppe.
Beweis: An ist selbstverständlich nicht leer (id ∈ An ), und für σ, τ ∈ An (also sgn(σ) =
sgn(τ ) = 1) ist auch sgn(στ ) = 1 wegen Multiplikativität des Signums. Also ist στ ∈ An .
Ebenso ist 1 = sgn(id) = sgn(σσ −1 ) = sgn(σ) · sgn(σ −1 ), also folgt σ −1 ∈ An .
6.2
Determinanten von Matrizen
6.2.1
Definition und Eigenschaften
Determinanten von Matrizen sind in verschiedenen Bereichen der linearen Algebra wichtig,
z.B. bei der Untersuchung von Endomorphismen. Wir definieren die Determinante
zunächst axiomatisch, weisen dann ihre Existenz und Eindeutigkeit nach, bevor wir
uns Gedanken über ihre genaue Bedeutung machen.
Aus notationstechnischen Gründen schreiben wir eine n × n-Matrix A im Folgenden oft
als A = (a1 , ..., an ). Damit ist gemeint, dass die ai die Spalten von A sind.
Definition 6.5 (Determinantenfunktion). Eine Abbildung det : K n×n → K heißt Determinantenfunktion (oder einfach Determinante), wenn gelten:
D1 det(En ) = 1. (Normiertheit)
D2 Falls zwei Spalten von A identisch sind, dann gilt det(A) = 0. (Alternierende
Eigenschaft)
D3 Für alle i = 1, .., n und alle λ, µ ∈ K gilt
det(a1 , ..., λai + µbi , ..., an ) = λ · det(a1 , ..., ai , ..., an ) + µ · det(a1 , ..., bi , ..., an )
(Multilinearität in den Spalten)
Warnung: Man beachte, dass Determinanten nur für quadratische Matrizen definiert
sind!
Aus der Definition ergeben sich sofort einige wichtige Eigenschaften von Determinanten:
Lemma 6.7. Sei det : K n×n → K eine Determinantenfunktion. Dann gelten:
KAPITEL 6. DETERMINANTEN
70
a) Sind a1 , ..., an die Spalten von A und ist σ ∈ Sn eine Permutation, dann ist
det(aσ(1) , ..., aσ(n) ) = sgn(σ) · det(A).
Insbesondere ändert Vertauschen zweier Spalten das Vorzeichen von det.
b) det(A) = 0, falls die Spalten von A linear abhängig sind (also falls rg(A) < n).
Beweis: Zu a): Wir zeigen zunächst den Spezialfall, dass σ = (i, j) eine Transposition
ist.
Wegen Eigenschaft D2 ist 0 = det(a1 , ..., ai + aj , ..., aj + ai , ..., an ). Wegen Eigenschaft
D3 ist dies aber auch gleich det(a1 , ..., ai +, ..., aj + ai , ..., an ) + det(a1 , ..., aj , ..., aj +
ai , ..., an ) = det(a1 , ..., ai , ..., ai , ..., an ) + det(a1 , ..., ai , ..., aj , ..., an )+det(a1 , ..., aj , ..., ai , ..., an )+
|
{z
}
=0
det(a1 , ..., aj , ..., aj , ..., an ). Damit folgt die Behauptung für σ = (i, j).
{z
}
|
=0
Ist nun σ eine beliebige Permutation, die als Produkt von k Transpositionen geschrieben
werden kann, dann folgt durch iteratives Anwenden:
det(aσ(1) , ..., aσ(n) ) = (−1)k · det(A),
und nach Definition des Signums ist (−1)k = sgn(σ).
Zu b): Sind die Spalten a1 ,P
..., an linear abhängig, dann ist eine davon eine Linearkombination der anderen: ai = nj=1 λj aj . Mit der Multilinearität folgt dann
j6=i
det(a1 , ..., an ) =
n
X
λj det(a1 , ...,
j=1
aj , ..., an ).
|{z}
i-te Stelle
j6=i
Da in jedem der Summanden zwei gleiche Spalten aj vorkommen, folgt mit D2, dass
det(a1 , ..., an ) = 0 gilt.
Satz 6.8 (Existenz und Eindeutigkeit der Determinante). Es existiert genau eine Determinantenfunktion auf K n×n , und zwar
X
det : K n×n → K, det(A) :=
sgn(σ) · A[σ(1), 1] · · · A[σ(n), n].
σ∈Sn
(Diese Darstellung der Determinante ist auch unter dem Namen “Leibniz-Formel” bekannt.2 )
Beweis: Zunächst zur Eindeutigkeit: Ist δ irgendeine Determinantenfunktion auf K n×n ,
und A ∈ K n×n , dann schreibe die Spalten a1 , ...,
Pann von A als Linearkombinationen
über der Standardbasis {e1 , ..., en }, d.h. aj =
i=1 A[i, j]ei . Es ist dann δ(A) =
2
Nach Gottfried Wilhelm Leibniz (1646-1716), Philosoph, Mathematiker und unfreiwilliger Namensgeber des gleichnamigen Kekses.
KAPITEL 6. DETERMINANTEN
71
P
P
δ( ni=1 A[i, 1]ei , ..., ni=1 A[i, n]ei ).
Wegen der Multilinearität kann man alle Summenzeichen und Skalaren ausklammern;es
bleiben (sehr viele) Terme der Form δ(ek1 , ..., ekn ), mit k1 , ..., kn ∈ {1, ..., n}. Für diese
Terme gibt es zwei Möglichkeiten:
Entweder zwei der k1 , ..., kn sind gleich, dann ist δ(ek1 , ..., ekn ) = 0. Oder die ki sind
paarweise verschieden, dann gibt es eine Permutation σ von {1, ..., n} mit σ(i) = ki für
alle i = 1, ..., n. Aber dann ist mit Lemma 6.7a): δ(ek1 , ..., ekn ) = sgn(σ) · δ(e1 , ..., en ) =
sgn(σ).
Das heißt, dass alle Terme, die in der Entwicklung von δ(A) vorkommen, schon durch die
Eigenschaften D1 bis D3 einer Determinantenfunktion eindeutig bestimmt sind. Also
gibt es höchstens eine Determinantenfunktion auf K n×n .
Wir zeigen nun noch, dass die angegebene Funktion det die Eigenschaften D1 bis D3
erfüllt. Zunächst ist für die Einheitsmatrix En [i, j] = 0 für alle i 6= j. Damit ist jeder
Summand sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] gleich 0, sobald σ ∈ Sn wenigstens eine der
Zahlen 1, ..., n bewegt. Damit bleibt nur der Summand für σ = id übrig, und es ist also
det(En ) = sgn(id) · En [1, 1] · · · En [n, n] = 1.
Die Multilinearität von det prüft man leicht nach. Man beachte dazu, dass jeder Summand aus jeder Spalte der Matrix genau einen Eintrag enthält. Multipliziert man also
eine Spalte mit einem Skalar λ, dann wird auch jeder Summand von det(A) mit λ multipliziert. Ferner gilt
X
det(a1 , ..., ai +bi , ..., an ) =
sgn(σ)·A[σ(1), 1] · · · (A[σ(i), i]+B[σ(i), i]) · · · A[σ(n), n] =
σ∈Sn
X
sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] +
X
sgn(σ) · A[σ(1), 1] · · · B[σ(i), i] · · · A[σ(n), n] =
σ∈Sn
σ∈Sn
= det(a1 , ..., ai , ..., an ) + det(a1 , ..., bi , ..., an ).
Schließlich ist det auch alternierend, denn:
Seien die Spalten ai und aj der Matrix A gleich (für feste 1 ≤ i < j ≤ n). Sei τ :=
(i, j) ∈ Sn . Dann sieht man, analog zum Beweis von Lemma 6.5c), dass die Abbildung
An 3 σ 7→ σ · τ die geraden Permutationen aus Sn bijektiv auf die ungeraden abbildet.
Damit ist
X
det(A) =
sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] =
σ∈Sn
X
A[σ(1), 1] · · · A[σ(n), n] −
σ∈An
=
n
X Y
σ∈An k=1
A[σ(k), k] −
X
A[στ (1), 1] · · · A[στ (n), n] =
σ∈An
X
σ∈An
(
n
Y
k=1
k∈{i,j}
/
A[σ(k), k]) ·
A[σ(j), i]
| {z }
=A[σ(j),j],
wegen der Vorauss. ai =aj
· A[σ(i), j] = 0.
| {z }
=A[σ(i),i]
KAPITEL 6. DETERMINANTEN
72
Anschaulich-geometrisch gesehen kann man sich die Determinante einer n × n-Matrix
als eine Art Volumen vorstellen. Genauer: Durch die lineare Abbildung K n → K n ,
x 7→ Ax, wird der Einheitswürfel (also der von der Standardbasis des K n aufgespannte
n-dimensionale Würfel) auf ein Parallelotop abgebildet (nämlich aufgespannt durch die
Spalten von A). Dessen Volumen ist die Determinante von A, wobei negatives Vorzeichen
möglich ist. Das Vorzeichen gibt die Orientierung an.
Satz 6.9 (Eigenschaften der Determinante). Seien A, B ∈ K n×n . Dann gelten:
a) det(A) = det(At ).
b) det(AB) = det(A) · det(B). (“Determinantenmultiplikationssatz”)
c) det(A) 6= 0 genau dann, wenn A invertierbar ist.
d) Falls A invertierbar ist, dann det(A−1 ) = det(A)−1 .
P
Q
Beweis: Zu a): Es ist det(At ) = σ∈Sn sgn(σ) ni=1 A[i, σ(i)]. Nun durchläuft mit i auch
j := σ(i) die Zahlen von 1 bis n, und es ist i = σ −1 (j). Weiter ist sgn(σ) = sgn(σ −1 ).
P
Qn
−1
−1 ganz S
−1
Es folgt det(At ) =
n
j=1 A[σ (j), j]. Da mit σ auch σ
σ∈Sn sgn(σ )
durchläuft, ist dies gerade = det(A).
Bevor wir b) beweisen, wollen wir sehen, wie c) und d) aus b) folgen. Dass det(A) = 0
für nicht-invertierbare A gilt, ist schon bekannt. Sei also A invertierbar. Dann ist aber
nach b): 1 = det(En ) = det(A · A−1 ) = det(A) · det(A−1 ).
Hieraus folgt sofort, dass det(A) 6= 0 (also c)) und dass det(A−1 ) das multiplikative
Inverse von det(A) in K ist (also d)).
Es bleibt noch b) zu zeigen.Seien dazu A, B ∈ K n×n . Wir können ohne Einschränkung
annehmen, dass sowohl A als auch B invertierbar sind, denn sonst ist auch AB nicht
invertierbar, und es folgt sofort 0 = det(AB) = det(A) · det(B).
Nach Korollar 5.10 ist jede invertierbare Matrix ein Produkt von Elementarmatrizen,
also A = E1 · · · Er und B = F1 · · · Fs mit Elementarmatrizen Ei und Fj . Im folgenden Hilfssatz zeigen wir, dass det(E · M ) = det(E) · det(M ) gilt für jede quadratische
Matrix M und jede Elementarmatrix E. Damit folgt dann sukzessive, dass det(AB) =
det(E1 ) · · · det(Fs ), und ebenso det(A) = det(E1 ) · · · det(Er ) und det(B) = det(F1 ) · · · det(Fs ),
also insgesamt det(AB) = det(A) · det(B).
Um den Beweis des Determinantenmultiplikationssatzes zu beenden, müssen wir noch
sehen, wie sich die Determinante unter elementaren Zeilen- (und Spalten-)Umformungen
verhält. Aus der Definition der Determinante und den Eigenschaften in Lemma 6.7 folgt
direkt:
• Die Umformung Z1 (Multiplikation einer Zeile mit λ) führt dazu, dass sich die
Determinante ebenfalls mit λ multipliziert.
KAPITEL 6. DETERMINANTEN
73
• Z2 ändert die Determinante gar nicht.
• Z3 (Zeilentausch) ändert nur das Vorzeichen der Determinante.
Der folgende Hilfssatz beendet den Beweis des Determinantenmultiplikationssatzes:
Lemma 6.10. Sei Ei,j (λ) ∈ GLn (K) eine Elementarmatrix. Dann ist
(
1, falls i 6= j
det(Ei,j (λ)) =
λ, falls i = j.
Insbesondere gilt det(Ei,j (λ) · M ) = det(Ei,j (λ)) · det(M ) für alle M ∈ K n×n .
Beweis: Sei zunächst i 6= j. In Spaltenschreibweise ist Ei,j (λ) = (e1 , ... ei , ..., λei + ej , ...en ),
|{z}
| {z }
(i)
(j)
und somit det(Ei,j (λ)) = det(e1 , ..., ei , ..., λei , ..., en ) + det(En ) = 0 + det(En ) = 1.
Ist dagegen i = j, dann ist Ei,j (λ) = (e1 , ..., λei , ..., en ) und somit det(Ei,j (λ)) =
λ · det(En ) = λ.
Die Folgerung ergibt sich sofort mit der vorangegangenen Bemerkung, denn Multiplikation einer Matrix M von links mit Ei,j (λ) entspricht bekanntlich einer elementaren
Zeilenumformung, und zwar vom Typ Z1 für i = j und vom Typ Z2 für i 6= j.
6.2.2
Determinanten von Endomorphismen
Bisher haben wir nur Determinanten von (quadratischen) Matrizen betrachtet. Hier
wollen wir nun diese Definition auf Endomorphismen übertragen, mit dem Hintergedanken,
dass jeder Endomorphismus ϕ eines endlich-dimensionalen Vektorraums V quadratische
Darstellungsmatrizen hat. Natürlich ist die Darstellungsmatrix im Allgemeinen nicht
eindeutig, sondern hängt von der Basis ab. Dennoch ist die Determinante aller Darstellungsmatrizen MB,B (ϕ) von ϕ (mit einer Basis B von V ) die selbe.3 Der Grund dafür
liegt im Determinantenmultiplikationssatz. Sind nämlich M1 := MB,B (ϕ) und M2 :=
MC,C (ϕ) zwei Darstellungsmatrizen von ϕ, dann ist M2 = T −1 M1 T mit der Basiswechselmatrix T = MC,B (id). Nach Satz 6.9 gilt aber det(M2 ) = det(T −1 )·det(M1 )·det(T ) =
det(T )−1 · det(M1 ) · det(T ) = det(M1 ) (wir können det(T ) kürzen, denn alle Determinanten sind ja Elemente des Körpers K, vertauschen also miteinander!). Das zeigt, dass
alle Darstellungsmatrizen MB,B (ϕ), mit einer Basis B von V , die selbe Determinante
haben. Folgende Definition ist also sinnvoll:
Definition 6.6. Sei ϕ : V → V ein Endomorphismus des endlich-dimensionalen Vektorraums V und M = MB,B (ϕ) eine Darstellungsmatrix von ϕ. Dann ist die Determinante
von ϕ definiert als det(ϕ) := det(M ).
3
Wir betrachten hier, wie bei Endomorphismen üblich, nur Darstellungsmatrizen bezüglich der selben
Basis ϕ im Urbild und im Bildraum (beides ist ja der Vektorraum V ).
KAPITEL 6. DETERMINANTEN
74
Sofort aus der Definition und den entsprechenden Eigenschaften von Determinanten von
Matrizen ergibt sich:
Korollar 6.11. Für Endomorphismen ϕ, ψ eines endlich-dimensionalen Vektorraums
V gelten:
a) det(ϕ) 6= 0 genau dann, wenn ϕ ein Automorphismus von V ist.
b) det(ϕ ◦ ψ) = det(ϕ) · det(ψ).
6.2.3
Berechnung von Determinanten
Die Berechnung von Determinanten direkt mit der Definition ist nur für die allerkleinsten
Beispiele praktikabel, denn es sind |Sn | = n! Summanden nötig um die Determinante
einer n × n-Matrix zu berechnen. Für den 2 × 2-Fall erhält man die Formel
det ac db = ad − bc
und für den 3 × 3-Fall die (auch als Regel von Sarrus bezeichnete) Formel
a b c
det d e f = aei + bf g + cdh − gec − hf a − idb.
g h i
Für größere Matrizen hilft zunächst folgende Beobachtung:
Satz 6.12. Sei A ∈ K n×n eine obere Dreiecksmatrix, d.h. A[i, j] = 0 für alle 1 ≤ j <
i ≤ n.4 Dann gilt
n
Y
det(A) =
A[i, i].
i=1
Beweis: Übung.
Weiter wissen wir schon, dass elementare Zeilenumformungen die Determinante nur sehr
kontrolliert ändern.
D.h. Determinanten lassen sich mit dem Gauß-Algorithmus berechnen. Dieser bringt
nämlich eine quadratische Matrix nur mit Umformungen vom Typ Z2 und Z3 auf Zeilenstufenform, was für quadratische Matrizen insbesondere obere Dreiecksgestalt bedeutet.
Satz 6.12 gibt an, wie die Determinante einer solchen oberen Dreiecksmatrix aussieht.
Dieses Ergebnis muss man also nur noch mit (−1)k , k die Anzahl der angewendeten
Zeilenvertauschungen, multiplizieren, um die Determinante der ursprünglichen Matrix
zu erhalten.
4
Anschaulich: Alle Einträge unterhalb der Hauptdiagonalen von A sind = 0.
KAPITEL 6. DETERMINANTEN
75
Für den Gaußalgorithmus sind bei einer n×n-Matrix maximal (n−1)+(n−2)+...+1 =
n(n−1)
Zeilenoperationen vom Typ Z2 nötig (und zusätzlich maximal n − 1 Zeilenver2
tauschungen), jede solche Operation erfordert O(n) einzelne Rechenschritte5 (Additionen
bzw. Multiplikationen zweier Skalare). Insgesamt lässt sich damit also die Determinante
in höchstens O(n3 ) Rechenschritten berechnen. Dagegen würde die Berechnung mit der
Definition n! Summanden, mit jeweils noch O(n) einzelnen Rechenschritten bei jedem
Summanden, erfordern, also Gesamtaufwand O((n + 1)!), was schon für relativ kleine n
katastrophal groß wird.
Für den Spezialfall von Blockdreiecksmatrizen lässt sich die Determinante sehr leicht auf
die Determinante kleinerer Matrizen zurückführen.
A B
Satz 6.13 (Determinante einer Blockdreiecksmatrix). Sei M =
∈ K (m+n)×(m+n)
0 C
eine obere Blockdreiecksmatrix,6 mit Blöcken A ∈ K n×n , B ∈ K n×m , C ∈ K m×m . Dann
gilt:
det(M ) = det(A) · det(C).
Beweis: In der Formel
det(M ) =
X
sgn(σ) · M [σ(1), 1] · · · M [σ(n + m), n + m]
σ∈Sn+m
liefern nur diejenigen σ einen Anteil ungleich 0, welche die Mengen {1, .., n} und {n +
1, ..., n + m} jeweils in sich abbilden (denn M [i, j] = 0 für alle i > n und j ≤ n).
Jedes solche σ lässt sich also in eindeutiger Weise als ρτ schreiben, mit ρ ∈ Sn , τ ∈
0 für Sym({n + 1, ..., n + m}),
Sym({n + 1, ..., n + m}). Schreibe aus Platzgründen Sm
und sortiere die Summe nun so, dass zunächst jeweils über alle σ summiert wird, die
eingeschränkt auf {1, ..., n} die gleiche Permutation ρ ∈ Sn liefern, dann ergibt sich
X X
det(M ) =
sgn(ρτ ) ·(M [ρ(1), 1] · · · M [ρ(n), n])·(M [τ (n+1), n+1] · · · M [τ (n+m), n+m])
| {z }
0
ρ∈Sn τ ∈Sm
=(
X
ρ∈Sn
=sgn(ρ)sgn(τ )
sgn(ρ)A[ρ(1), 1] · · · A[ρ(n), n])·(
X
sgn(τ )C[τ (1), 1] · · · C[τ (m), m]) = det(A)·det(C).
τ ∈Sm
Für Matrizen von sehr spezieller Gestalt, insbesondere solche mit vielen Nulleinträgen
ist auch folgender Satz zur Berechnung der Determinante nützlich:
Satz 6.14 (Entwicklungssatz von Laplace7 ). Sei A ∈ K n×n und sei Ai,j die ((n − 1) ×
(n − 1)-)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte hervorgeht.
Dann gelten:
5
Mit der Notation O(n) ist gemeint, dass sich die Anzahl maximal um einen konstanten Faktor c von
n unterscheidet (für n → ∞).
6
Selbstverständlich gilt die analoge Aussage für untere Blockdreiecksmatrizen
7
Pierre-Simon Laplace (1749-1827)
KAPITEL 6. DETERMINANTEN
76
a) Für festes j ∈ {1, ..., n} ist det(A) =
nach der j-ten Spalte)
Pn
· A[i, j] · det(Ai,j ). (Entwicklung
b) Für festes i ∈ {1, ..., n} ist det(A) =
nach der i-ten Zeile)
Pn
· A[i, j] · det(Ai,j ). (Entwicklung
i+j
i=1 (−1)
i+j
j=1 (−1)
Beweis: Es genügt a) zu zeigen. b) folgt dann sofort wegen det(A) = det(At ).
Sei j fest, und bezeichne für 1 ≤ i ≤ n mit Ai diejenige Matrix, die aus A entsteht, wenn
man die j-te Spalte durch den Standardbasisvektor ei ersetzt. Wegen der Linearität der
Determinante in der j-ten Spalte gilt
det(A) = A[1, j] det(A1 ) + ... + A[n, j] det(An ).
Wir müssen also nur zeigen, dass det(Ai ) = (−1)i+j det(Ai,j ) gilt (für alle i).
Permutiere nun, ausgehend von der Matrix Ai , Spalten mit der Permutation (1 2 ... j)
(soll heißen: die ehemalige j-te Spalte wird nun die erste Spalte, die ehemalige erste wird
die zweite, etc.) und danach
Zeilen
mit der Permutation (1 2 ... i). Das Ergebnis ist
1 ?
die Blockdreiecksmatrix
. Deren Determinante ist gleich det(Ai,j ), und da sie
0 Ai,j
durch (j − 1) + (i − 1) = i + j − 2 Zeilen- bzw. Spaltentranspositionen aus Ai entstand,
folgt die Behauptung wegen (−1)i+j = (−1)i+j−2 .
Das folgende Kriterium bringt die Inverse einer Matrix mit Determinanten in Zusammenhang. Es ist zur praktischen Berechnung der Inversen weniger geeignet, hat aber
manchmal theoretische Anwendungen:
Satz 6.15. Sei A ∈ K n×n . Definiere die Adjunkte à ∈ K n×n durch
Ã[i, j] := (−1)i+j det(Aj,i ),
mit den Streichungsmatrizen Aj,i wie in Satz 6.14 definiert.
Dann gilt A · Ã = Ã · A = det(A) · En .
Insbesondere ist im Fall der Invertierbarkeit von A:
1
A−1 =
· Ã.
det(A)
Beweis: Das Produkt à · A hat an der Stelle [i, k] den Eintrag
n
X
ãi,j aj,k .
j=1
Wie im Beweis von Satz 6.14 gesehen, ist ãi,j = (−1)i+j det(Aj,i ) = det(Aj ), wobei Aj
die Matrix ist, die entsteht, wenn man in A die i-te Spalte durch ej ersetzt. Das liefert
weiter
n
n
X
X
ãi,j aj,k =
aj,k · det(a1 , ..., ai−1 , ej , ai+1 , ..., an )
j=1
j=1
KAPITEL 6. DETERMINANTEN
77
= det(a1 , ..., ai−1 ,
n
X
aj,k ej , ai+1 , ..., an )
j=1
= det(a1 , ..., ai−1 , ak , ai+1 , ..., an ),
und wegen der Determinanteneigenschaft ist dieser Ausdruck = det(A) für i = k und
= 0 sonst.
Damit gilt à · A = det(A) · En . Das umgekehrte Produkt berechnet man analog.
Für 2 × 2-Matrizen erhält man damit eine einfache Formel für die Inverse:
Korollar 6.16. Sei A ∈ GL2 (K), A = ac db . Dann ist
A−1 =
1
ad − bc
d −b
−c a
.
Eine Anwendung von Satz 6.15 erhält man bei der Betrachtung von Matrizen über
Ringen, die nicht notwendigerweise Körper sind. Sei etwa R ⊂ K ein Teilring des Körpers
K und sei A ∈ Rn×n eine quadratische Matrix mit Einträgen in R. Da das Berechnen
der Determinante nur Ringoperationen (Addition und Multiplikation) erfordert ist auch
die Adjunkte über R definiert. Nach Satz 6.15 ist die Adjunkte einer invertierbaren
Matrix aber schon “fast” (bis auf einen konstanten Faktor) die Inverse. Ist nun noch
det(A) ∈ R eine Einheit von R, dann ist (A invertierbar und) A−1 auch Element von
Rn×n .
Ist also z.B. A eine quadratische Matrix mit Einträgen in Z und ist det(A) ∈ {−1, 1},
dann liefert der Satz, dass auch die Inverse wieder ganzzahlige Einträge hat.
6.3
Exkurs: Multilinearformen und Tensorprodukte
Wir haben bisher Multilinearität nur als eine Eigenschaft der Determinantenabbildung
kennengelernt. Tatsächlich ist diese Eigenschaft aber auch in allgemeinerem Kontext
wichtig:
Definition 6.7. Sei V ein n-dimensionaler K-Vektorraum und m ∈ N. Eine Multilinearform ist eine multilineare Abbildung Φ : V m → K, d.h.
Φ(v1 , ..., αvi + βwi , ...vn ) = αΦ(..., vi , ...) + βΦ(..., wi , ...).
Eine alternierende Multilinearform ist eine, die Φ(v1 , ..., vm ) = 0 erfüllt, sobald vi = vj
für zwei i 6= j ∈ {1, ..., m} gilt.
Definition 6.8 (Tensorprodukt von Vektorräumen). Seien V und W K-Vektorräume
mit Basen B bzw. B 0 . Setze B ⊗ B 0 := {(b, b0 ) P
| b ∈ B, b0 ∈ B 0 }, und definiere V ⊗ W als
die Menge der formalen Linearkombinationen v∈B⊗B 0 λv · v (mit λv ∈ K).
Dann ist V ⊗ W ein K-Vektorraum, genannt das Tensorprodukt aus V und W .
Für die Basisvektoren (b, b0 ) schreibt man auch b ⊗ b0 .
KAPITEL 6. DETERMINANTEN
78
Sofort aus der Definition ergibt sich
Lemma 6.17. Sind V und W endlich-dimensional, dann ist dim(V ⊗ W ) = dim(V ) ·
dim(W ).
Bemerkung: Setzt man (v + v 0 ) · w := v ⊕ w + v 0 ⊕ w, (αv) ⊕ w := (αv) ⊕ w, und
analog für Summen und skalare Vielfache im hinteren Argument, so sind in V ⊗ W auch
Audrücke der Form v ⊕ w definiert für beliebige Vektoren v ∈ V , w ∈ W (nicht nur für
Vektoren aus den vorgegebenen Basen). Trotzdem ist nicht jedes Element von V ⊕ W
von dieser Gestalt, sondern man muss nach wie vor auch Linearkombinationen solcher
Ausdrücke betrachten.
Insbesondere ist der Vektorraum V ⊗W nicht zu verwechseln mit der (formalen) direkten
Summe V + W := {(v, w) | v ∈ V, w ∈ W }. Letzteres ist zwar auch ein K-Vektorraum,
aber von der Dimension dim(V ) + dim(W )!
Beispiel:
Das Tensorprodukt K m ⊗ K n ist in natürlicher Weise isomorph zum Matrizenraum
K m×n . Konkret ist
m X
n
X
λi,j · (ei , ej ) 7→ A,
i=1 j=1
mit A[i, j] := λi,j ein Isomorphismus.
Iteratives Anwenden der Definition liefert auch r-fache Tensorprodukte V1 ⊗ ... ⊗ Vr .
Interessant ist insbesondere der Fall V1 = ...Vr =: V . Hier schreiben wir für das r-fache
Tensorprodukt auch V ⊗r .
Satz 6.18 (Fortsetzungssatz für Multilinearformen). Sei V ein n-dimensionaler KVektorraum mit Basis B = {v1 , ..., vn }, und sei m ∈ N. Seien λi1 ,...,im ∈ K gegeben für
i1 , ..., im ∈ {1, ..., n}.
Dann existiert genau eine Multilinearform Φ : V m → K mit Φ(vi1 , ..., vim ) = λi1 ,...,im
für alle (i1 , ..., im ) ∈ {1, ..., n}m .
Satz 6.19 (Raum der Multilinearformen). Sei m ∈ N. Die Menge der Multilinearformen Φ : V m → K bildet (mit punktweiser Addition und Skalarmultiplikation) einen
K-Vektorraum. Dieser Vektorraum ist auf natürliche Weise isomorph zum Raum der
Linearformen V ⊗m → K. Insbesondere ist Dimension dieses Raumes gleich nm .
Wie allgemeine Multilinearformen lassen sich auch alternierende Multilinearformen mit
Linearformen auf einem bestimmten Vektorraum identifizieren. Betrachte dazu das
Erzeugnis
U := hv1 ⊗ ... ⊗ vm ∈ V ⊗m | v1 , ..., vm ∈ V ; vi = vj für zwei Indizes i 6= ji.
Definiere V ∧m := V ⊗m /U als den zugehörigen Faktorraum. Dann kann man zeigen, dass
der Vektorraum aller alternierenden Multilinearformen V m → K in natürlicher Weise
isomorph zu Hom(V ∧m , K) ist.
KAPITEL 6. DETERMINANTEN
79
Sei im Folgenden m = n. Wie bei den Determinanten im K n×n kann man nun zeigen,
dass alternierende Multilinearformen immer existieren, und auch schon “fast” eindeutig
sind:
Satz 6.20. Sei V ein n-dimensionaler K-Vektorraum und sei λ ∈ K. Sei (v1 , ..., vn )
eine geordnete Basis von V . Dann existiert genau eine alternierende Multilinearform
Φλ : V n → K mit der Eigenschaft Φ(v1 , ..., vn ) = λ, nämlich definiert durch
n
n
X
X
X
Φ(
ai,1 vi , ...,
ai,n vi ) = λ ·
sgn(σ) · a1,σ(1) · · · an,σ(n) .
i=1
i=1
σ∈Sn
Insbesondere ist Φλ = λ · Φ1 .
Beweis: Der Beweis verläuft exakt analog zum Beweis von Satz
P 6.8: Mit Hilfe
P der Multilinearität und alternierenden Eigenschaft wird der Wert Φ( ni=1 ai,1 vi , ..., ni=1 ai,n vi )
auf den Wert Φ(v1 , ..., vn ) =: λ zurückgeführt. Durch diesen einen Wert ist also Φ schon
vollständig festgelegt.
Dass die angegebene Abbildung tatsächlich alternierend und multilinear ist, zeigt man
ebenfalls genau wie in Satz 6.8.
Hiermit ergibt sich ein alternativer Zugang zu Determinanten:
Sei V ein beliebiger n-dimensionaler K-Vektorraum, f : V → V ein Endomorphismus
und (v1 , ..., vn ) eine Basis von V . Sei Φ eine alternierende Multilinearform auf V , nicht
konstant ≡ 0 (nach dem vorangegangenen Satz ist also Φ(v1 , ..., vn ) 6= 0). Definiere dann
(v1 ),...,f (vn ))
det(f ) := Φ(fΦ(v
. Da sich alle alternierenden Multilinearformen jeweils nur um
1 ,...,vn )
einen konstanten Faktor voneinander unterscheiden, ist diese Definition unabhängig vom
konkret gewählten Φ. Ebenso ist sie unabhängig von der Wahl der Basis (v1 , ..., vn ).
Man kann nun zeigen, dass diese Definition von det(f ) exakt zum gleichen Ergebnis wie
unsere Definition der Determinante eines Endomorphismus führt.
Stichwortverzeichnis
Äquivalenzklasse, 3
Äquivalenzrelation, 3
Adjunkte, 76
Affiner Unterraum, 24
Basis, 26
-ergänzungssatz, 31
Determinante, 69
einer quadratischen Matrix, 69
eines Endomorphismus, 73
Dimension, 29
Dimensionsformel
für lineare Abbildungen, 37
für Unterräume, 32
Erzeugendensystem, 22
Faktorraum, 25
Gauß-Algorithmus, 57
Gruppe, 6
allgemeine lineare, 46
abelsche, 6
alternierende, 69
symmetrische, 7
zyklische, 9
Gruppenordnung, 9
Körper, 15
C, 15
Q, 15
R, 15
Z/pZ, 16
Komplement, 23
Lineare (Un)abhängigkeit, 26
Lineare Abbildung, 34
Bild, 34
Defekt, 36
Kern, 34
Rang, 36
Lineare Hülle, 22
Lineares Gleichungssystem, 53
homogenes, 53
inhomogenes, 53
Linearkombination, 21
Matrix, 43
Basiswechsel-, 50
Darstellungs-, 44
Diagonal-, 46
Einheits-, 46
Elementar-, 56
invertierbare, 46
Multilinearform, 77
alternierende, 77
Nebenklasse
Links-, 10
Rechts-, 10
Permutation, 7
Relation, 3
Restklassen, 4
Ring, 12
Signum, 68
Skalar, 18
Summe von Unterräumen, 22
direkte, 23
Untergruppe, 8
80
STICHWORTVERZEICHNIS
Unterraum, 20
Vektor, 18
Null-, 18
Vektorraum, 18
K n , 19
der Polynome, 20
Verknüpfung, 6
81
Herunterladen