Skript der Vorlesung Lineare Algebra I

Werbung
Lineare Algebra I
HP Butzmann
Vorlesung im HWS 09
Inhaltsverzeichnis
1 Mengen und Abbildungen
2
2 Körper
15
3 Vektorräume
40
4 Basis und Dimension
53
5 Lineare Abbildungen
67
6 Matrizen
80
7 Lineare Gleichungssysteme
100
8 Determinanten
116
9 Diagonalisierbarkeit
133
10 Euklidische Vektorräume
143
1
Kapitel 1
Mengen und Abbildungen
In diesem Abschnitt werde ich Ihnen das Material und die Werkzeuge - Mengen
und Aussagen - erklären, mit denen ich im Folgenden arbeiten will. Dabei gibt
es ein Problem: Stellen Sie sich vor, Sie wollen ein Haus bauen, müssen aber
vorher das Material und die Werkzeuge, also z.B. Steine, Mörtel, Säge, Hammer,
Schaufel..., herstellen. Dann sind Sie ziemlich lange damit beschäftigt, bevor Sie
sich ans Hausbauen machen können. Das ist nun hier ähnlich: Die mathematisch
präzisen Definitionen von Mengen und Aussagen sind sehr aufwendig und kosten
viel Zeit. Daher folge ich der üblichen Prozedur, Mengen nur intuitiv einzuführen
und Ihnen dann zu erklären, was man damit machen kann. Bei der Gelegenheit
werde ich dann die notwendigen Regeln der (Aussagen-)Logik vorführen. Sozusagen “learning by doing”.
Ich gehe davon aus, dass Sie alle die Begriffe “Menge” und “Abbildung” schon
gesehen haben und beginne daher ohne weitere Vorrede mit einer
“Definition” Eine Menge Menge ist eine Zusammenfassung von Objekten, welche die Elemente der Menge genannt werden, zu einem Ganzen.
Nun ist das eine Definition, die den üblichen Anforderungen, die Mathematiker
daran stellen, überhaupt nicht genügt, denn sie enthält ja ihrerseits gleich drei
unbekannte Begriffe, nämlich “Zusammenfassung”, “Objekt” und “Ganzes”, und
daher habe ich sie auch in Anführungszeichen gesetzt. Die Wahrheit ist, dass
eine mathematisch saubere Definiton einer Menge weit über den Rahmen dieser
Vorlesung hinausgeht. Daher ist es üblich, sich mit dieser Definiton zu begnügen,
die intuitiv erklären soll, was eine Menge ist, man spricht gelegentlich von “naiver
Mengenlehre”. Sie ist für die meisten “praktischen” Probleme ausreichend. Sie
haben vielleicht mal gehört, dass es Probleme gibt, wenn man “die Menge aller
Mengen” betrachtet. Denn diese Menge enthielte als Teilmenge die Menge aller
Mengen, die sich nicht selbst als Element enthalten. Und die Frage, ob diese neue
Menge sich nun selbst als Element enthält, führt bei jeder Antwort auf einen
Widerspruch (das Russelsche Paradoxon). Eine etwas weniger abstrakte Version
2
dieses Paradoxons ist die folgende: Wenn in einem Dorf ein Barbier genau die
Männer rasiert, die sich nicht selbst rasieren, rasiert er sich dann selbst? Auch
hier stellt man schnell fest, dass beide Antworten zu einem Widerspruch führen.
(Was kann man übrigens aus dieser Tatsache folgern?)
Bezeichnungsweise 1.1 Wenn ein Objekt x zu einer Menge M gehört, schreibt
man dafür x ∈ M , wenn x nicht zu M gehört, schreibt man dafür x ∈
/ M.
Beispiele 1.2
(i) Man kann Mengen dadurch beschreiben, dass man ihre Elemente explizit nebeneinder schreibt und dann das Ganze durch geschweifte Klammern einrahmt:
So wird z.B. die Menge, deren Elemente 1, 2, 3 und keine weiteren sind, mit
{1, 2, 3}
bezeichnet.
(ii) Die folgenden, häufig auftretenden Mengen werden eigentlich immer mit denselben Symbolen bezeichnet:
N
Z
Q
R
bezeichnet
bezeichnet
bezeichnet
bezeichnet
die
die
die
die
Menge
Menge
Menge
Menge
der
der
der
der
natürlichen Zahlen
ganzen Zahlen
rationalen Zahlen
reellen Zahlen
Es gibt keine einheitliche Vereinbarung, ob 0 eine natürliche Zahl ist. In dieser
Vorlesung ist sie es nicht, d.h. es gilt 0 ∈
/ N.
(iii) Es seien M eine Menge und e eine Eigenschaft, die die Elemente aus M
entweder haben oder nicht. Dann wird die Menge aller Elemente aus M , die die
Eigenschaft e besitzen, so bezeichnet:
{x ∈ M : x hat die Eigenschaft e}
oder auch so:
{x ∈ M | x hat die Eigenschaft e}
Es gilt z.B.:
{x ∈ N : x ≤ 4} = {1, 2, 3, 4} .
Definition 1.3 Eine Menge A heißt Teilmenge einer Menge M , in Zeichen:
A⊆M ,
wenn jedes Element von A auch Element von M ist.
Für A ⊆ M und A 6= M schreibt man auch A ⊂ M und sagt, dass A eine echte
Teilmenge von M ist.
3
Auch die Bezeichnungsweise für Teilmengen ist nicht einheitlich: Viele Mathematiker (in der Tat wohl die Mehrheit) schreiben “A ⊂ M ” für “A ⊆ M ”, lassen
also den Fall zu, dass A = M gilt. Das Argument für diese Schreibweise ist die
Tatsache, dass dies der Regelfall ist und daher eine besonders einfache Schreibweise verdient. (Mathematiker haben eine Tendenz zur Bequemlichkeit.) Ich meine
aber, solange man für reelle Zahlen “x ≤ y” schreibt, sollte man diese Analogie
für Mengen wahren. Aber das sind natürlich nur unwesentliche Details. Es ist an
der Zeit für ein erstes Resultat.
Lemma 1.4 Es seien K, L, M Mengen. Dann gelten:
(i) Aus K ⊆ L und L ⊆ M folgt K ⊆ M.
(ii) Aus M ⊆ L und L ⊆ M folgt L = M.
Beweis Die Beweise sind nicht schwierig, ich werde sie dennoch sehr ausführlich
führen, um Beweismethoden zu studieren:
(i) Der Klarheit wegen gliedere ich den Beweis in die “klassische Form”:
Voraussetzung Es gilt K ⊆ L und L ⊆ M .
Behauptung Es gilt K ⊆ M .
Beweis Es also nach 1.3 zu zeigen, dass jedes Element von K auch zu M gehört.
Da stellt sich die Frage, wie man das praktisch tun soll: Wenn K eine “kleine”
Menge ist, kann man vielleicht jedes Element aus K betrachten und nachschauen,
ob es auch zu M gehört. Aber was tut man, wenn M eine “große” Menge ist, also
z.B. K = N gilt? Nun da gibt es das folgende Verfahren:
Ich nehme an, es sei x ein beliebiges, aber fest gewähltes Element aus K.
“Beliebig” heißt, dass wir keine weiteren Eigenschaften von x unterstellen werden. “Fest” heißt, dass wir es im Laufe des Beweises nicht ändern werden. Wir
müssen dann zeigen, dass x auch zu M gehört. Also:
Es sei x ein beliebiges, aber fest gewähltes Element aus K. Dann gilt x ∈ L, da
K ⊆ L gilt. Daraus folgt x ∈ M , da L ⊆ M gilt. Da x ∈ K beliebig war, folgt
also x ∈ L für alle x ∈ K und daraus K ⊆ M .
(ii) Hier zeige ich das Prinzip des indirekten Beweises
Voraussetzung Es gilt M ⊆ L und L ⊆ M .
Behauptung Es gilt L = M .
Beweis (indirekt) Nun, es ist zu zeigen, dass L und M dieselben Elemente besitzen. Also nehme ich an, dass sei nicht so. Dann gibt es (zumindest) ein Element,
das zu L oder M aber nicht zu beiden Mengen gehört.
1. Fall: Es gibt ein x ∈ L für das x ∈
/ M gilt. Aus L ⊆ M folgt dann x ∈ M , also
x∈
/M
und
4
x∈M
und daraus ein Widerspruch.
2. Fall: Es gibt ein x ∈ M für das x ∈
/ L gilt. Aus M ⊆ L folgt dann x ∈ L, also
x∈
/L
und
x∈L
und daraus ein Widerspruch.
Daher führt die Annahme, dass nicht gilt L = M in jedem Fall zu einem Widerspruch, und ist daher falsch. Weil diese Annahme falsch ist, ist ihr Gegenteil
richtig und es folgt L = M .
Bemerkung 1.5 Der indirekte Beweis beruht auf zwei Prinzipien:
(1) Jede (mathematische) Aussage ist entweder richtig oder falsch.
(2) Aus einer richtigen Aussage kann man nur richtige Aussagen folgern.
Wenn man also aus einer Aussage A eine Aussage B folgern kann, die entweder
falsch ist oder A widerspricht, dann kann A nach (2) nicht richtig sein und ist
daher nach (1) falsch.
W A R N U N G Aus einer falschen Aussage kann man ohne weiteres
durch (richtige!) Folgerungen richtige Aussagen gewinnen:
Die Aussage 1 = −1 ist offenbar falsch, wenn man beide Seiten quadriert, erhält
man 12 = (−1)2 , also 1 = 1 und das ist offenbar eine richtige Aussage.
Also kann man eine Aussage nicht dadurch beweisen, dass man aus
ihr eine richtige Aussage folgert!!
(Sollte Ihnen das trotz dieser Warnung einmal passieren und der unbarmherzige Tutor die gesamte Aufgabe als falsch bewerten, trösten
Sie sich mit der Tatsache, dass dieser Fehler nahezu jedem Mathematikstudenten und jeder Mathematikstudentin schon einmal unterlaufen ist!)
Eines der wichtigen mathematischen Konstruktionsprinzipien besteht darin, aus
vorhandenen Objekten neue zu konstruieren. Ein erstes Beispiel dafür ist:
Definition 1.6 Es seien M und L Mengen. Dann heißt
M ∪ L = {x : x ∈ M oder x ∈ L}
die Vereinigung oder Vereinigungsmenge von M und L und
M ∩ L = {x : x ∈ M und x ∈ L}
heißt der Durchschnitt oder die Durchschnittsmenge von M und L.
5
Naturgemäß kommt es am Anfang immer wieder zu Verwechslungen zwischen
M ∪ L und M ∩ L. Vielleicht hilft es, wenn ich sage, dass “∪” eben nicht von
“u”, also “und” sondern von dem lateinischen “vel”, also “oder” kommt? Auch
sollte ich sagen, dass das Wort “oder” im mathematischen Zusammenhang kein
ausschließendes “oder” ist, also beide Möglichkeiten zulässt. Das ausschließende
oder wird in der Mathematik mit “entweder - oder” beschrieben.
Beispiel 1.7
{1, 2, 3} ∪ {2, 3, 4, 5} = {1, 2, 3, 4, 5}
{1, 2, 3} ∩ {2, 3, 4, 5} = {2, 3}
Neben Mengen sind Abbildungen zwischen Mengen die wichigsten Werkzeuge:
Definition 1.8 Es seien M und L Mengen. Eine Abbildung (oder Funktion) f
von M nach L ist eine Vorschrift, die jedem Element aus M genau ein Element
aus L zuordnet. Man schreibt dann f : M → L. Wenn x ∈ M gilt, bezeichet f (x)
das Element von L, das f dem Element x zuordnet. Man nennt f (x) das Bild
von x unter f .
Weiter nennt man M den Definitionsbereich von f und L den Wertevorrat
von f .
Ihnen ist vielleicht aufgefallen, dass auch die Definition einer Abbildung den bisher undefinierten Begriff “Zuordnung” enthält. Aber im Gegensatz zu den Begriffen in der Definition einer Menge ist dieser Begriff vergleichsweise einfach zu
erklären. Ich werde das auch demnächst tun, aber auch danach werden Sie eine
Zuordnung eher intuitiv als formal behandeln.
Beispiele 1.9 Man definiert eine Abbildung f von einer Menge M nach einer
Menge L, indem man die Zuordnungsvorschrift angibt. Dabei muss man aufpassen, dass jedem Element aus M genau ein Element aus L zugeordnet wird.
(i) Man definiere f : {1, 2, 3} −→ N durch
f (1) = 5 , f (2) = 27 , f (3) = 17 .
(ii) Man definiere f : N −→ N durch f (n) = n2 .
(iii)Man definiere g : Z −→ Z durch
g(z) =
17
z-1
falls z gerade ist
falls z ungerade ist
(iv) Man definiere h : N −→ Z durch:
Für alle n ∈ N sei h(n) die n.-te Stelle in der Dezimalbruchentwicklung von π.
6
(v) Es sei M eine Menge, dann definiere man
idM : M → M
durch
idM (x) = x
Man nennt idM die identische Abbildung.
Die folgenden Vorschriften sind keine Abbildungen:
(vi) f : N −→ N definiert durch f (n) = n2 .
√
(vii) f : R −→ R definiert durch f (x) = x.
√
(viii) f : {x ∈ R : x ≥ 0} −→ R definiert durch f (x) = ± x.
Es gibt drei Typen spezieller Abbildungen, die überall in der Mathematik, aber
auch besonders in der Linearen Algebra eine wichtige Rolle spielen:
Definition 1.10 Es seien M und L Mengen. Eine Abbildung
f : M → L heißt
(i)
(ii)
injektiv, wenn für alle x, y ∈ M aus x 6= y stets f (x) 6= f (y) folgt.
surjektiv, wenn es zu jedem y ∈ L ein x ∈ M gibt mit f (x) = y.
(iii) bijektiv, wenn f injektiv und surjektiv ist.
Bemerkung 1.11 Die Sprechweise “es gibt ein” steht in der Mathematik für “es
gibt mindestens ein”. Für “es gibt ein und nicht mehr als ein” sagt man “es gibt
genau ein”. Schließlich steht “es gibt höchstens ein” natürlich für “es gibt nicht
mehr als ein”, also “genau ein oder kein”.
f ist also injektiv, wenn verschiedene Elemente aus M verschiedene Bilder haben
und surjektiv, wenn jedes Element aus L Bild eines Elementes aus M ist. Also
ist f bijektiv, wenn jedes Element aus L Bild genau eines Elementes aus M ist.
Beispiele 1.12
(i) Die Abbildung f : {1, 2, 3} −→ N definiert durch
f (1) = 5 , f (2) = 22 , f (3) = 1
ist injektiv, nicht surjektiv und nicht bijektiv.
(ii) Die Abbildung g : Z −→ Z definiert durch
17
falls z gerade ist
g(z) =
z - 1 falls z ungerade ist
ist nicht injektiv, nicht surjektiv und nicht bijektiv.
7
Beweis
(i) a) Behauptung: f ist injektiv:
Beweis: Je zwei verschiedene Elemente aus {1, 2, 3} haben offenbar verschiedene
Bilder.
b) Behauptung: f ist nicht surjektiv:
Beweis: Es gibt kein Element x ∈ {1, 2, 3}, für das f (x) = 2 gilt.
c) Behauptung: f ist nicht bijektiv.
Beweis: f ist nicht bijektiv, weil f nicht surjektiv ist.
(ii) Behauptung: g ist nicht injektiv:
Beweis: Es gilt g(2) = 17 und g(4) = 17, also g(2) = g(4), aber 2 6= 4.
Behauptung: g ist nicht surjektiv:
Beweis: Ich zeige, dass es kein n ∈ Z gibt, für das g(n) = 5 gilt:
Angenommen, es gibt ein n ∈ Z, für das g(n) = 5 gilt, dann gibt es zwei Fälle:
1. Fall: n ist gerade, dann folgt g(n) = 17 6= 5, also ein Widerspruch.
2. Fall: n ist ungerade, dann folgt g(n) = n − 1 = 5 und daraus n = 6, also auch
ein Widerspruch.
Behauptung: g ist nicht bijektiv.
Beweis: g ist nicht surjektiv (alternativ: g ist nicht injektiv).
Wie der Name schon sagt, soll eine Abbildung Bilder erzeugen. Diese Vorstellung
liegt dem ersten Teil der folgenden Definition zu Grunde:
Definition 1.13 Es seien M, L Mengen und f : M → L eine Abbildung. Weiterhin seien A ⊆ M und B ⊆ L. Dann heißt
f (A) = {y ∈ L : es gibt ein x ∈ A so dass y = f (x) gilt }
die Bildmenge oder das Bild von A unter f und
f −1 (B) = {x ∈ M : f (x) ∈ B}
die Urbildmenge oder das Urbild von B unter f .
Offenbar gilt
f (A) = {f (x) : x ∈ A}
und dies entspricht viel mehr der Vorstellung des Bildes einer Menge als “Menge
aller Bilder”. Aber nach meiner Erfahrung ist diese Beschreibungsweise ziemlich
fehlerträchtig.
Es gehört zu den üblichen Vorurteilen junger Studierender, zu glauben, dass
f −1 (B) das Bild von B unter der Abbildung f −1 , also der Umkehrabbildung
8
ist, und daher auch nur definiert ist, wenn f bijektiv ist. Und es ist eine fast
unmögliche Aufgabe für Dozenten, diesem Irrtum vorzubeugen. f −1 (B) ist für
jede Abbildung definiert und unabhängig davon, ob f bijektiv ist (und nur
in diesem Fall ist die Umkehrabbildung f −1 überhaupt definiert). Ich versuche es
dieses Mal dadurch, dass ich f −1 (B) definiere, bevor ich die Umkehrabbildung
f −1 überhaupt eingeführt habe. In der überwiegenden Anzahl der Fälle wird in
der Linearen Algebra das Urbild von Mengen unter nicht-bijektiven Abbildungen
untersucht. (Sollten Sie die Erwähnung der Umkehrabbildung verwirren, legen
Sie diese Bemerkung bis zum Ende des Kapitels zur Seite und lesen Sie sie dann
noch einmal.)
Beispiel 1.14 Man definiere wieder g : Z −→ Z durch
17
falls z gerade ist
g(z) =
z - 1 falls z ungerade ist
Dann gelten:
(i) g(N) = {x ∈ N : x ist gerade} ∪ {0} ∪ {17}
(ii) g −1 (N) = {z ∈ Z : z ist gerade} ∪ {x ∈ N : x ≥ 2}
(iii) g −1 ({1, 3, 5, 7}) = ?
Klären wir zunächst einmal (iii). Sei x ∈ g −1 ({1, 3, 5, 7}), dann gilt g(x) ∈
{1, 3, 5, 7}. Wenn nun x ungerade ist, ist g(x) = x − 1 gerade, also gilt g(x) ∈
/
{1, 3, 5, 7}. Wenn andererseits x gerade ist gilt g(x) = 17 ∈
/ {1, 3, 5, 7}. Also gibt
es kein x so dass gilt g(x) ∈ {1, 3, 5, 7}. Was kann man da zu tun? Man kann das
in der Definiton natürlich verbieten. Aber es ist sicherlich ziemlich lästig, die Urbildmenge einer Menge B nur dann zu definieren, wenn es ein Element gibt, das
nach B abgebildet wird. Betrachten wir noch einmal die Definition: “Eine Menge
ist eine Zusammenfassung von Objekten, welche die Elemente der Menge genannt
werden, zu einem Ganzen”. Also ist es doch möglich, eine (besser: die) Menge zu
betrachten, die gar keine Elemente besitzt. Sicherlich haben Sie davon gehört, sie
heißt die leere Menge. Mir geht es hier nur darum, zu zeigen, dass dieser Begriff
in ziemlich natürlicher Weise entstanden ist und nicht irgendeine abstrakte Idee
eines Mathematikers, der den Begriff einer Menge in einer Richtung strapazieren
will, die fern jeder “Realität” liegt.
Definition 1.15 Die Menge, die keine Elemente enthält, heißt die leere Menge
und wird mit ∅ bezeichnet.
Also füge ich hinzu:
1.14(iii)
g −1 ({1, 3, 5, 7}) = ∅
und stelle fest, dass ich das durch die bisherige Diskussion auch bewiesen haben.
9
Beim Beweis von 1.14(i),(ii) muss die Gleichheit von zwei Mengen bewiesen werden. Nun besagt 1.4(ii), dass zwei Mengen L und M gleich sind, wenn M ⊆ L
und L ⊆ M gilt. Ich werde diese Aussage im Folgenden benutzen (und nach aller
Erfahrung sollten Sie das zu Beginn auch so tun!).
Beweis von 1.14. Ich gehe davon aus, dass die folgende Notation sich selbst erklärt:
(i) “⊆” Zur Vereinfachung der Schreibweise sei G die Menge aller geraden natürlichen Zahlen.
Es sei y ∈ g(N) beliebig, aber fest, dann gibt es ein x ∈ N so dass gilt g(x) = y.
1. Fall: x ist gerade, dann folgt g(x) = 17 ∈ G ∪ {0} ∪ {17}.
2. Fall: x ist ungerade, dann gilt g(x) = x − 1. Also ist g(x) gerade. Weiterhin
gilt x ≥ 1 und daher g(x) ≥ 0. Falls x ≥ 2 gilt, folgt g(x) = x − 1 ∈ N und daher
g(x) ∈ G. Andernfalls gilt x = 1 und damit g(x) = x − 1 = 0 ∈ {0}. Insgesamt
folgt y = g(x) ∈ G ∪ {0} und daher y = g(x) ∈ G ∪ {0} ∪ {17}.
“⊇” Es sei y ∈ G ∪ {0} ∪ {17} beliebig, aber fest. Dann gilt y ∈ G oder y = 0
oder y = 17.
Aus y ∈ G folgt, dass y+1 ∈ N ungerade ist und es folgt g(y+1) = (y+1)−1 = y,
also y ∈ g(N).
Aus y = 0 folgt 0 = g(1) ∈ g(N).
Aus y = 17 folgt 17 = g(2) ∈ g(N).
Die Behauptung folgt jetzt aus 1.4(ii).
(ii) “⊆” Es sei x ∈ g −1 (N) beliebig, aber fest, dann folgt g(x) ∈ N.
1. Fall: x ist gerade, dann folgt x ∈ {z ∈ Z : z ist gerade} und daher erst recht
x ∈ {z ∈ Z : z ist gerade} ∪ {n ∈ N : n ≥ 2}.
2. Fall x ist ungerade, dann folgt x − 1 = g(x) ∈ N und daher x − 1 ≥ 1, also
x ≥ 2.
“⊇” Es sei x ∈ {z ∈ Z : z ist gerade} ∪ {n ∈ N : n ≥ 2}.
1. Fall x ∈ Z ist gerade, dann folgt g(x) = 17 ∈ N und daher x ∈ g −1 (N).
2. Fall Es sei x ∈ N, x ≥ 2 beliebig. Falls x gerade ist, folgt wieder g(x) = 17 ∈ N
und daraus x ∈ g −1 (N). Falls x ungerade ist, folgt g(x) = x − 1 ∈ N und daher
x ∈ g −1 (N).
Die Behauptung folgt jetzt wieder aus 1.4(ii).
Es wird in der Mathematik immer dann besonders interessant, wenn mehrere Operationen zusammentreffen. In diesem Fall ist also die Frage, wie sich das Bild oder
Urbild von Mengen berechnet, die ihrerseits Vereinigungen oder Durchschnitte
von Mengen sind. Da ist die Lage ganz gut, mit einer Ausnahme:
10
Proposition 1.16 Es seien M, L Mengen, f : M → L eine Abbildung und
A, C ⊆ M sowie B, D ⊆ L. Dann gelten:
(i) f (A ∪ C) = f (A) ∪ f (C).
In der Regel gilt nicht die Gleichheit.
(ii) f (A ∩ C) ⊆ f (A) ∩ f (C)
(iii) f −1 (B ∪ D) = f −1 (B) ∪ f −1 (D)
(iv) f −1 (B ∩ D) = f −1 (B) ∩ f −1 (D)
Beweis Ich zeige (ii) und (iii).
(ii) Es sei y ∈ f (A ∩ C) beliebig, aber fest. Dann gibt es ein x ∈ A ∩ C so dass
gilt y = f (x). Es folgt x ∈ A und x ∈ C. Aus x ∈ A folgt y = f (x) ∈ f (A). Aus
x ∈ C folgt y = f (x) ∈ f (C). Insgesamt erhält man y ∈ f (A) und y ∈ f (C) und
daraus y ∈ f (A) ∩ f (C).
Um zu zeigen, dass im allgemeinen nicht die Gleichheit gilt, reicht es ein Beispiel
anzugeben, bei dem diese Gleichheit nicht gilt.
Man definiere f : {1, 2} → N durch f (1) = f (2) = 1 und setze A = {1} und
B = {2}. Dann gilt A ∩ B = ∅ und f (A) ∩ f (B) = {1} und daher f (A ∩ B) ⊂
f (A) ∩ f (B).
Sollten Sie dieses Beispiel für zu “künstlich” halten, definieren Sie g : Z → Z
durch g(x) = x2 und setzen
A = {−2, −1, 0, 1}
und
B = {−1, 0, 1, 2}
Dann gilt A ∩ B = {−1, 0, 1} und daher f (A ∩ B) = {0, 1}. Andererseits gilt
f (A) = f (B) = {0, 1, 4} und daher f (A ∩ B) ⊂ f (A) ∩ f (B).
(iii) Ich zeige wieder, dass f −1 (B ∪ D) ⊆ f −1 (B) ∪ f −1 (D) und f −1 (B ∪ D) ⊆
f −1 (B) ∪ f −1 (D) gelten:
“⊆”: Es sei x ∈ f −1 (B ∪ D) beliebig, aber fest. Dann gilt f (x) ∈ B ∪ D
und daher f (x) ∈ B oder f (x) ∈ D. Im ersten Fall gilt x ∈ f −1 (B) und
daher x ∈ f −1 (B) ∪ f −1 (D) und im zweiten Fall gilt x ∈ f −1 (D) und daher
x ∈ f −1 (B) ∪ f −1 (D). Also folgt in jedem Fall x ∈ f −1 (B) ∪ f −1 (D).
“⊇”: Es sei x ∈ f −1 (B)∪f −1 (D), dann gilt x ∈ f −1 (B) oder x ∈ f −1 (D). Es folgt
f (x) ∈ B oder f (x) ∈ D. Man erhält f (x) ∈ B ∪D und daraus x ∈ f −1 (B ∪D). Wie schon nach 1.11 festgestellt, ist eine Abbildung f : M → L genau dann
bijektiv, wenn es zu jedem y ∈ L genau ein x ∈ M so gibt, dass gilt f (x) = y.
Diese Beschreibungsweise erlaubt die Definition der Umkehrabbildung:
11
Definition 1.17 Es seien M und L Mengen und f : M → L eine bijektive
Abbildung. Dann definiere man eine Abbildung
f −1 : L −→ M
auf die folgende Weise: Es sei y ∈ L. Da f bijektiv ist, gibt es genau ein xy ∈ M
für das f (xy ) = y gilt. Dann setze man
f −1 (y) = xy
Beispiel 1.18 Man definiere
f : Z −→ Z
durch f (x) = x + 1. Dann ist f bijektiv. Sei nun y ∈ Z, dann gilt f (y − 1) = x,
also folgt xy = y − 1 und daher ist f −1 definiert durch f −1 (y) = y − 1.
Bemerkung 1.19 Es seien f : M → L eine bijektive Abbildung und B ⊆ L.
Dann ist f −1 (B) auf zweifache Weise definiert, nämlich als Urbild von B unter
f und als Bild von B unter f −1 . Man überlegt sich leicht, dass man in beiden
Fällen dieselbe Menge erhält.
Wichtig ist, dass g −1 (B) für jede Abbildung g : M → L definiert ist.
Definition 1.20 Es seien K, L, M Mengen und f : K → L und g : L → M
Abbildungen. Dann definiere man
g ◦ f : K −→ M
durch
g ◦ f (x) = g(f (x)) .
Man nennt g ◦ f Hintereinanderausführung oder Komposition von f und
g.
W A R N U N G Das Symbol g ◦ f suggeriert, dass zunächst die Abbildung g
und dann die Abbildung f ausgeführt wird. Das ist nicht der Fall, die Umkehrung
ist richtig.
Der Grund, warum man diese Schreibweise dennoch beibehält, ist (außer natürlich
der Erziehung junger Mathematiker(innen) zur Sorgfalt) der folgende: Stellen Sie
sich vor, man würde die “natürliche” Reihenfolge wählen, sagen wir, man definiere
f g durch f g(x) = g(f (x)), dann gälte für eine weitere Abbildung h : M → P :
(f g) h(x) = h(f g)(x)) = h(g(f (x))
Ein wenig verwirrend, finden Sie nicht auch?
12
Bemerkung 1.21 Wenn f : K → L und g : M → P Abbildungen sind, ist g ◦ f
nur dann definiert, wenn L = M gilt. Dann ist aber keineswegs klar, ob f ◦ g
definiert ist, denn dann muss ja P = K sein. Aber selbst, wenn g ◦ f und f ◦ g
definiert sind, gilt in der Regel
g ◦ f 6= f ◦ g .
Als einfaches Beispiel definiere man f, g : R → R durch
f (x) = x2
und
g(x) = 2x
Dann gilt für alle x ∈ R:
g ◦ f (x) = g(f (x)) = g(x2 ) = 2x2
und
f ◦ g(x) = f (g(x)) = f (2x) = (2x)2 = 4x2
und wegen
g ◦ f (1) = 2 6= 4 = f ◦ g(1)
folgt g ◦ f 6= f ◦ g.
Definition 1.22 Es seien M und L Mengen. Dann heißt
M × L = {(x, y) : x ∈ M , y ∈ L}
das kartesische Produkt von M und L. Die Elemente aus M × L heißen “geordnete Paare” und es gilt für alle (x, y) ∈ M × L und alle (u, v) ∈ M × L:
(x, y) = (u, v) ⇐⇒ x = u und y = v .
Allgemeiner seien n eine natürliche Zahl und M1 , . . . Mn Mengen. Dann heißt
M1 × · · · × Mn = {(x1 , . . . xn ) : x1 ∈ M1 , . . . , xn ∈ Mn }
das kartesische Produkt der Mengen M1 , . . . , Mn . Die Elemente aus
M1 × . . . × Mn heißen n-Tupel und es gilt für alle (x1 , . . . , xn ), (y1 , . . . , yn ) ∈
M1 × . . . × Mn :
(x1 , . . . , xn ) = (y1 , . . . yn ) ⇐⇒ xi = yi für alle i = 1, . . . n .
Gilt speziell M = M1 = · · · = Mn , dann schreibt man
M1 × · · · × Mn = M n .
Bekanntestes Beispiel ist wohl
R2 = R × R = {(x, y) : x, y ∈ R} .
13
Es ist denkbar, dass Sie in der Schule ein geordnetes Paar in der Form (x/y) oder
(x|y) geschrieben haben. Das ist aber gleichgültig, wichtig ist, dass Sie aus der
Schreibweise ersehen können, welches die “1. Komponente” und welches die “2.
Komponente” ist. So ist es auch denkbar, ein geordnetes Paar in der Form
x
y
zu schreiben. Dies werde ich später auch tun. Der Grund, warum man dies in
der Regel vermeidet, ist die Tatsache, dass diese Schreibweise sehr viel Platz
verbraucht: (x1 , . . . , xn ) braucht eine Zeile,


x1
 .. 
 . 
xn
einige mehr.
Es ist relativ lästig, Beweise immer mit den Formulierungen “und daraus folgt”
oder “das impliziert” oder “man erhält” zu führen, daher gibt es dafür eine Kurzschreibweise:
Bezeichnungsweise 1.23 Es seien A und B Aussagen. Dann schreibt man
A =⇒ B
und
B ⇐= A
wenn B aus A folgt. Man sagt dann auch, dass A hinreichend für B ist und
dass B notwendig für A ist.
Weiterhin schreibt man
A ⇐⇒ B
wenn B aus A folgt und A aus B folgt. Man sagt dann, dass A notwendig und hinreichend für B ist oder dass A äquivalent zu B ist oder: “ A gilt genau dann
(dann und nur dann), wenn B gilt”. Ich werde in der Regel die letzte Sprechweise
benutzen.
Beachten Sie unbedingt, dass die Aussage “A ⇐⇒ B” im Grunde zwei Aussagen
enthält, nämlich “A =⇒B” und “B =⇒ A”. Es ist ein typischer Anfänger(innen)fehler hier eine Richtung zu übersehen!
14
Kapitel 2
Körper
Eine der Stärken der Mathematik besteht darin, dass sie in scheinbar vollkommen
verschiedenen Bereichen identische Strukturen herausfiltert und durch das Studium dieser Strukturen Ergebnisse findet, die in diesen verschiedenen Bereichen
Gültigkeit haben. Dies hat den Vorteil der Ökonomie, man muss die Ergebnisse
nicht jedes Mal neu beweisen, aber der Nachteil ist, dass die betrachteten Strukturen ja durch Abstraktion von den konkreten Gegebenheiten entstehen und daher notwendigerweise “abstrakt” sind. Dies macht sie für den Anfänger und die
Anfängerin einigermaßen gewöhnungsbedürftig, aber es lohnt sich!
Die erste Struktur, die ich betrachten werde, ist die wohl einfachste algebraische
Struktur: Eine Operation auf einer Menge G ordnet je zwei Elementen aus G
ein weiteres zu. Es gibt davon jede Menge: Die Addition, Subtraktion, Multiplikation oder Division von (reellen) Zahlen, die Addition oder Multiplikation von
Abbildungen, die Hintereinanderausführung von Abbildungen, die Multiplikation
von Matrizen und viele mehr. Es hat sich herausgestellt, dass man von diesen
Operationen ein paar Eigenschaften verlangen muss, damit man vernünftig damit arbeiten kann. Nun ist eine Operation ja einfach eine Abbildung und damit
sind wir bei
Definition 2.1 Es seien G eine Menge und ◦ : G × G → G eine Abbildung. Das
Paar (G, ◦) heißt Gruppe, wenn gelten (dabei schreibt man x ◦ y = ◦(x, y)):
(G1) (x ◦ y) ◦ z = x ◦ (y ◦ z)
für alle x, y, z ∈ G
(G2) Es gibt ein Element e ∈ G so dass gilt
e◦x=x◦e=x
für alle x ∈ G
(G3) Zu jedem x ∈ G gibt es ein x0 ∈ G so dass gilt
x0 ◦ x = x ◦ x0 = e
Die Gruppe (G, ◦) heißt kommutativ oder Abelsch, wenn gilt
15
(G4) Es gilt
x◦y =y◦x
für alle x, y ∈ G
Zu (G1) - (G3) gibt es Namen: Man nennt (G1) das Assoziativgesetz, in (G2)
nennt man e ein neutrales Element und in (G3) nennt man x0 ein zu x inverses
Element. Schließlich nennt man ◦ (innere) Verknüpfung oder auch Operation.
Beispiele 2.2
(i) (Z, +) und (R, +) sind kommutative Gruppen.
(ii) (R, ·) ist keine Gruppe.
(iii) Es sei
R∗ = R \ {0} = {x ∈ R : x 6= 0}
dann ist (R∗ , ·) eine kommutative Gruppe.
(iv) Es sei G = {a} eine Menge mit einem Element. Man definiere ◦ : G×G → G
durch
a◦a=a
Dann ist (G, ◦) eine kommutative Gruppe.
(v) Gruppen kann man manchmal mit sogenannten Gruppentafeln definieren: Es
sei G = {a, b}, dann definiere man ◦ durch die folgende Tafel:
◦ a b
a a b
b b a
Dieses Schema ist so zu interpretieren: Um x◦y zu finden, sucht man das Element
in diesem Schema, das in der Zeile steht, die mit x beginnt und in der Spalte, die
mit y beginnt, steht. Also gilt in diesem Fall:
a ◦ a = a,
a ◦ b = b,
b ◦ a = b,
b◦b=a
(G, ◦) ist eine kommutative Gruppe.
(vi) Es seien M eine Menge und S(M ) die Menge aller bijektiven Abbildungen
von M nach M . Dann ist (S(M ), ◦) eine Gruppe, die nicht kommutativ ist, wenn
M mehr als zwei Elemente besitzt.
Beweis
(i) Ich zeige, dass (Z, +) eine kommutative Gruppe ist: Für alle x, y ∈ Z gilt
x + y ∈ Z also ist + : Z × Z → Z eine wohldefinierte Abbildung.
(G1) sollten Sie aus der Schule wissen.
(G2): Es gilt 0 + z = z + 0 = z für alle z ∈ Z also ist 0 ∈ Z ein neutrales Element.
16
(G3): Es sei z ∈ Z, dann gilt −z ∈ Z und wegen −z + z = z + (−z) = 0 ist −z
ein zu z inverses Element.
(G4) sollten Sie aus der Schule wissen.
(ii) Angenommen, (R, ·) ist eine Gruppe, dann besitzt sie ein neutrales Element
e ∈ R. Dann gilt e · x = x für alle x ∈ R und daher e = e · 1 = 1, also ist e = 1
das einzige neutrale Element in (R, ·). Nun gibt es aber kein x ∈ R so dass gilt
x · 0 = 1 und daher hat 0 kein inverses Element, also ist (G3) nicht erfüllt.
(iii) Für alle x, y ∈ R∗ gilt x, y 6= 0 und es folgt xy 6= 0, also xy ∈ R∗ und daher ist
· : R∗ ×R∗ → R∗ in der Tat eine Abbildung. Offenbar gilt das Assoziativgesetz und
1 ist ein neutrales Element. Schließlich gilt x 6= 0 für alle x ∈ R∗ und 1/x ∈ R∗
ist ein zu x inverses Element. Schließlich gilt offenbar (G4).
(iv) Hier ist wenig zu beweisen: Es gilt
(a ◦ a) ◦ a = a = a ◦ (a ◦ a)
also (G1). Ein neutrales Element ist a und das zu a inverse Element ist a. Schliellich gilt offenbar (G4).
(v) Hier ist a ein neutrales Element, das zu a inverse Element ist a und das
zu b inverse Element ist b. Den Nachweis von (G1) führt man am besten durch
Fallunterscheidungen.
(vi) Dieses Beispiel spielt in der Vorlesung keine so große Rolle, der Vollständigkeit
halber beweise ich es trotzdem:
Zunächst ist zu zeigen, dass ◦ eine Abbildung ist. Es seien also f, g ∈ S(M ), dann
sind f und g bijektive Abbildungen von M nach M . Nach Übungsaufgabe 4 ist
dann f ◦ g bijektiv, d.h. es gilt f ◦ g ∈ S(M ).
(G1) ist eine einfache Rechnung: Es seien f, g, h ∈ S(M ), dann gilt für alle x ∈ M :
(f ◦ g) ◦ h(x) = (f ◦ g)(h(x) = f (g(h(x)))
und
f ◦ (g ◦ h)(x) = f ((g ◦ h)(x)) = f (g(h(x)))
Also folgt für alle x ∈ M :
(f ◦ g) ◦ h(x) = f ◦ (g ◦ h)(x)
und daraus
(f ◦ g) ◦ h = f ◦ (g ◦ h)
also (G1).
(G2) : Ein neutrales Element in S(M ) ist idM . Offenbar ist idM bijektiv und es
gilt für alle f ∈ S(M ) und alle x ∈ M :
idM ◦ f (x) = idM (f (x)) = f (x)
17
und
f ◦ idM (x) = f (idM (x)) = f (x)
Es folgt idM ◦ f = f ◦ idM für alle f ∈ S(M ). Also ist idM ein neutrales Element.
(G3): Es seien f ∈ S(M ), dann kann man leicht zeigen, dass f −1 ∈ S(M ) gilt
und dass f −1 invers zu f ist.
Es bleibt zu zeigen, dass (S(M ), ◦) nicht kommutativ ist, wenn M wenigstens
drei Elemente besitzt. Seien also a, b, c ∈ M drei verschieden Elemente. Dann
definiere man f, g : M → M durch:

 b x=a
a x=b
f (x) =

x sonst
und

 c x=b
b x=c
g(x) =

x sonst
Also vertauscht f nur die Elemente a und b und g vertauscht nur die Elemente b
und c und daher sind f und g bijektiv, es gilt also f, g ∈ S(M ). Nun gilt:
f (g(b)) = f (c) = c
und
g(f (b)) = g(a) = a
und daher f ◦ g 6= g ◦ f .
Es ist nun an der Zeit für ein paar einfache Ergebnisse. Dabei ist zunächst festzustellen, dass die beiden folgenden Lemmata scheinbar offensichtlich sind. Bei
näherem Hinsehen stellt man fest, dass dies in der Tat nicht der Fall ist, da die
Hilfsmittel, die man zur Verfügung hat (nämlich zunächst nur die Definiton einer Gruppe) sehr mager sind. Beim Beweis von 2.3 habe ich jeden Schritt genau
begründet (und so sollen Sie es zunächst auch machen), beim nächsten Lemma
habe ich es mir etwas leichter gemacht (und damit Ihnen etwas schwerer).
Lemma 2.3 Es sei (G, ◦) eine Gruppe. Dann gelten:
(i) Es gibt genau ein neutrales Element.
(ii) Jedes x ∈ G besitzt genau ein inverses Element.
Beweis
(i) Es seien e und e0 neutrale Elemente, dann gilt
e0 ◦ e = e0
weil da e ein neutrales Element ist und
e0 ◦ e = e
weil e0 ein neutrales Element ist, und es folgt
e0 = e0 ◦ e = e
18
(ii) Es seien x ∈ G und x0 und x00 inverse Elemente von x, dann gilt:
x00 =
=
=
=
=
x00 ◦ e
x00 ◦ (x ◦ x0 )
(x00 ◦ x) ◦ x0
e ◦ x0
x0
(G2)
(G3)
(G1)
(G3)
(G1)
Wegen 2.3 nennt man ein neutrales Element das neutrale Element, und bezeichnet
es mit e. Ein zu x ∈ G inverses Element heißt das inverse Element und wird
mit x−1 bezeichnet. Das ist keine so schöne Bezeichnung, weil z.B. in (Z, +) ja
z −1 = −z gilt.
Lemma 2.4 Es seien (G, ◦) eine Gruppe und a, b ∈ G. Dann gelten:
(i) Aus a ◦ b = a folgt b = e.
(ii) Aus b ◦ a = a folgt b = e.
(iii) Aus a ◦ b = e folgt b = a−1 und a = b−1 .
(iv) Aus a ◦ b = a ◦ c folgt b = c.
(v) Aus b ◦ a = c ◦ a folgt b = c.
Beweis Ich überlasse es dieses Mal den Leser(inne)n, die passenden Argumente
hinzufügen:
(i) a ◦ b = a ⇒ a−1 ◦ (a ◦ b) = a−1 ◦ a = e ⇒ (a−1 ◦ a) ◦ b = e ⇒ e ◦ b = e ⇒ b = e
(ii) analog
(iii) a ◦ b = e ⇒ a−1 ◦ (a ◦ b) = a−1 ⇒ (a−1 ◦ a) ◦ b = a−1 ⇒ e ◦ b = a−1 ⇒ b = a−1
Analog der 2. Teil.
(iv) a ◦ b = a ◦ c ⇒ a−1 ◦ (a ◦ b) = a−1 ◦ (a ◦ c) ⇒ (a−1 ◦ a) ◦ b = (a−1 ◦ a) ◦ c
⇒e◦b=e◦c⇒e◦b=e◦c⇒b=c
(v) Analog
Bemerkung 2.5 Es sei (G, ◦) eine Gruppe. Dann besagt dass Assoziativgesetz,
dass für alle a, b, c ∈ G gilt
(a ◦ b) ◦ c = a ◦ (b ◦ c)
Es ist also gleichgültig, ob man zuerst die beiden ersten Elemente verknüpft und
das Ergebnis dann mit dem dritten verknüpft oder zuerst die beiden letzten Elemente verknüpft und das erste Element dann mit dem Ergebnis verknüpft. Nun
kommt es vor, dass man mehr als drei Elemente verknüpfen will: Es sei d ein
19
weiteres Element, dann kann man auf die folgenden Weisen klammern:
((a ◦ b) ◦ c) ◦ d,
a ◦ (b ◦ (c ◦ d)),
(a ◦ b) ◦ (c ◦ d),
(a ◦ (b ◦ c)) ◦ d,
a ◦ ((b ◦ c) ◦ d)
und diese Ausdrücke sind alle gleich: Man erhält
((a ◦ b) ◦ c) ◦ d = (a ◦ b) ◦ (c ◦ d) ,
wenn man das Assoziativgesetz auf a ◦ b, c, d anwendet,
(a ◦ b) ◦ (c ◦ d) = a ◦ (b ◦ (c ◦ d)) ,
wenn man das Assoziativgesetz auf a, b, c ◦ d anwendet,
a ◦ (b ◦ (c ◦ d)) = a ◦ ((b ◦ c) ◦ d) ,
wenn man das Assoziativgesetz auf b, c, d anwendet, und
a ◦ ((b ◦ c) ◦ d) = (a ◦ (b ◦ c)) ◦ d ,
wenn man das Assoziativgesetz auf a, b ◦ c, d anwendet.
Man kann sich überlegen (leider ist das, schon bei der Formulierung, ziemlich
mühselig), dass es bei der Berechnung der Komposition von mehreren Elementen
gleichgültig ist, wie man sie klammert. Daher setzt man für Elemente a1 , . . . , an ∈
G
a1 ◦ · · · ◦ an = (. . . ((a1 ◦ a2 ) ◦ a3 ) ◦ · · · ◦ an−1 ) ◦ an
und zur Berechnung dieses Ausdrucks kann man irgendeine Klammerung benutzen.
Aus 2.4 folgt, dass alle Elemente, die in einer Gruppentafel in einer Zeile neben
dem Strich stehen, verschieden sein müssen, denn die Verknüpfung eines Elementes mit verschiedenen Elementen ergibt verschiedene Elemente. Analog müssen
alle Elemente, die in einer Spalte unter dem Strich stehen, verschieden sein. Dies
erlaubt es, ziemlich einfach alle Gruppentafeln von Gruppen mit wenigen Elementen zu konstruieren:
Beispiel 2.6 Es sei zunächst (G, ◦) eine Gruppe mit 3 Elementen. Wie üblich
sei e das neutrale Element, dann gilt G = {e, a, b}. Die Gruppentafel hat dann
zunächst das Aussehen:
◦ e a b
e e a b
a a
b b
Nun steht in der dritten Zeile hinter dem Strich nacheinander a ◦ e, a ◦ a, a ◦ b.
Wenn nun x 6= y gilt, folgt a ◦ x 6= a ◦ y nach 2.4, also kann das Element in 3.
20
Zeile und 3. Spalte nicht a sein, kann also nur e oder b sein. Wenn es e ist, muss
in der letzen Spalte dieser Zeile b stehen, also gälte e ◦ b = a ◦ b was wiederum
2.4 widerspricht. Also erhält man:
◦
e
a
b
e a b
e a b
a b
b
und erhält nach demselben Prinzip die folgende Gruppentafel:
◦
e
a
b
e
e
a
b
a
a
b
e
b
b
e
a
Wir haben also bisher gezeigt: Wenn es eine Gruppe mit 3 Elementen gibt, ist
das ihre Gruppentafel. Um zu zeigen, dass diese Tafel wirklich die Gruppentafel
einer Menge mit den Elementen e, a, b ist, muss man die Gruppenaxiome nachrechnen. Dabei sind (G2) und (G3) einfach: Offenbar ist e ein neutrales Element,
e invers zu sich selbst, a invers zu b und b invers zu a. Offenbar gilt auch (G4),
problematischer ist (G1). Hier ist zu zeigen, dass gilt
(x ◦ y) ◦ z = x ◦ (y ◦ z)
für alle x, y, z ∈ G. Da kann man nur alle Kombinationen ausprobieren. Da es
für x, y, z je drei Möglichkeiten gibt, muss man 3 · 3 · 3 = 27 Fälle ausprovieren.
Das kann man mit ein bißchen Geschick reduzieren.
Es sei nun (G, ◦) eine Gruppe mit 4 Elementen und neutralem Element e. Dann
gilt also: G = {e, a, b, c} und man erhält zunächst:
◦
e
a
b
c
e a b c
e a b c
a
b
c
Nun kann nicht a ◦ a = a gelten, aber es kann a ◦ a = b, a ◦ a = c, oder a ◦ a = e
gelten. Alle Möglichkeiten existieren, ich nehme zuerst an, dass a ◦ a = b gilt:
◦
e
a
b
c
e a b c
e a b c
a b
b
c
21
Dann kann in der 3. Zeile nur noch e und c fehlen, da c aber in der 5. Spalte
steht, muss c in die 4. Spalte und dann bleibt nur noch e für die 5. Spalte übrig:
◦ e a b c
e e a b c
a a b c e
b b
c c
Analoges gilt natürlich für die 3. Spalte:
◦ e a b c
e e a b c
a a b c e
b b c
c c e
Dasselbe Argument wie im 1. Schritt zeigt, dass in der 4. Spalte erst e und dann
a stehen muss:
und der Rest ist klar:
◦
e
a
b
c
e
e
a
b
c
a
a
b
c
e
b
b
c
e
c
c
e
a
◦
e
a
b
c
e
e
a
b
c
a
a
b
c
e
b
b
c
e
a
c
c
e
a
b
Ähnlich geht man vor, wenn a ◦ a = c gilt. Anders ist die Lage, wenn a ◦ a = e
gilt:
◦ e a b c
e e a b c
a a e
b b
c c
Mit den üblichen Argumenten kann man die 3. Zeile und 3. Spalte füllen:
◦
e
a
b
c
e
e
a
b
c
a b c
a b c
e c b
c
b
22
In der 4. Zeile und 4. Spalte kann nun e oder a stehen. Sei zunächst b ◦ b = e:
◦
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b c
b c
c b
e
Dann kann man die Tafel sofort auffüllen:
◦
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b
b
c
e
a
c
c
b
a
◦
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b
b
c
e
a
c
c
b
a
e
und daraus
folgern. Wenn nun b ◦ b = a gilt, erhält man:
◦
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b c
b c
c b
a
e
e
a
b
c
a
a
e
c
b
b
b
c
a
e
und mit den denselben Argumenten:
◦
e
a
b
c
c
c
b
e
a
Es bleibt die Frage, wie man beweist, dass die drei Tafeln (und die 4., die ich nicht
ausgerechnet habe) Gruppentafeln sind. Nun, auch hier sind das neutrale Element
und die inversen Elemente kein Problem, das kann man einfach ablesen. Wie steht
es aber mit dem Assoziativgesetz? Es ist zu zeigen, dass für alle x, y, z ∈ G gilt
(x ◦ y) ◦ z = x ◦ (y ◦ z)
23
Da es für x, y, z jeweils 4 Möglichkeiten gibt, sind insgesamt 43 = 64 Fälle zu diskutieren. Das ist nun ziemlich aufwendig, und was macht man, wenn die Gruppe
17 Elemente besitzt? Nun, die Prozedur besteht darin, dass man sich überlegt, wie
man aus bekannten Gruppen neue bekommt, die die gewünschten Eigenschaften
haben (z.B. eine mit 17 Elementen). In der Tat sind alle angegebenen Tafeln
Gruppentafeln.
Ich komme nun zu der üblichen Frage: Wie kann man aus bekannten Gruppen
neue konstruieren. Da gibt es zunächst
Definition 2.7 Es sei (G, ◦) eine Gruppe. Eine Menge U ⊆ G heißt Untergruppe von (G, ◦), wenn U mit der eingeschränkten Komposition eine Gruppe
ist, wenn also gelten:
(U1) Für alle x, y ∈ U gilt x ◦ y ∈ U
(U2) e ∈ U
(U3) Für alle x ∈ U gilt x−1 ∈ U .
Beispiele 2.8
(i) Z ist eine Untergruppe von (R, +).
(ii) Für alle k ∈ N sei
kZ = {kz : z ∈ Z}
Dann ist kZ eine Untergruppe von (Z, +).
(iii) N und N0 = N ∪ {0} sind keine Untergruppen von (Z, +).
Proposition 2.9 Es sei (G, ◦) eine Gruppe. Eine Menge U ⊆ G ist genau dann
eine Untergruppe von G, wenn gelten:
(i) U 6= ∅
(ii) Für alle x, y ∈ U gilt x ◦ y −1 ∈ U .
Beweis Man beachte, dass die Aussage “genau dann, wenn” zwei Aussagen
enthält. Da dies das erste Mal in dieser Vorlesung der Fall ist, führe ich den
Beweis sehr präzise:
Voraussetzung U ist Untergruppe.
Behauptung Es gelten (i) und (ii).
Beweis Nach (U2) gilt e ∈ U und daher U 6= ∅, also (i).
Es seien x, y ∈ U , dann gilt y −1 ∈ U nach (U3) und daher x ◦ y −1 ∈ U nach (U2).
Es folgt (ii).
24
Voraussetzung Es gelten (i) und (ii).
Behauptung U ist Untergruppe.
Beweis
(U2): Nach (i) gibt es ein x ∈ U . Aus (ii) folgt dann e = x ◦ x−1 ∈ U .
(U3): Es sei x ∈ U . Da (U2) gilt, folgt e ∈ U und daher x−1 = e ◦ x−1 ∈ U nach
(ii).
(U1): Es gelte x, y ∈ U . Dann folgt x, y −1 ∈ U nach (U3) und daraus x◦(y −1 )−1 ∈
U nach (ii). Nach Übungsaufgabe 9a gilt aber (y −1 )−1 = y und es folgt x◦y ∈ U. Beispiel 2.10 Es seien (G1 , ◦) und (G2 , ◦) Gruppen. Man definiere
◦ : (G1 × G2 ) × (G1 × G2 ) −→ G1 × G2
durch
(x1 , y1 ) ◦ (x2 , y2 ) = (x1 ◦ x2 , y1 ◦ y2 )
Dann ist (G1 × G2 , ◦) eine Gruppe, die kommutativ ist, wenn (G1 , ◦) und (G2 , ◦)
kommutativ sind.
Man nennt (G1 × G2 , ◦) das Produkt von (G1 , ◦) und (G2 , ◦).
Beweis Man beachte, dass ich die Verknüpfung in allen Gruppen mit “◦” bezeichnet habe.
Offenbar gilt
(x1 ◦ x2 , y1 ◦ y2 ) ∈ G1 ◦ G2
für alle (x1 , y1 ), (x2 , y2 ) ∈ G1 × G2
und daher ist ◦ eine Verknüpfung auf G1 × G2 .
(G1): Für alle (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) ∈ G1 × G2 gilt:
((x1 , y1 ) ◦ (x2 , y2 )) ◦ (x3 , y3 ) = (x1 ◦ x2 , y1 ◦ y2 ) ◦ (x3 , y3 )
= ((x1 ◦ x2 ) ◦ x3 , (y1 ◦ y2 ) ◦ y3 )
= ((x1 ◦ (x2 ◦ x3 ), (y1 ◦ (y2 ◦ y3 )))
= (x1 , y1 ) ◦ (x2 ◦ x3 , y2 ◦ y3 )
= (x1 , y1 ) ◦ ((x2 , y2 ) ◦ (x3 , y3 ))
(G2) Es seien e1 bzw. e2 die neutralen Elemente in G1 bzw. G2 , dann folgt für
alle (x, y) ∈ G1 × G2 :
(x, y) ◦ (e1 , e2 ) = (x ◦ e1 , y ◦ e2 ) = (x, y) = (e1 ◦ x, e2 ◦ y) = (e1 , e2 ) ◦ (x, y)
also ist (e1 , e2 ) ein neutrales Element.
(G3) Es sei (x, y) ∈ G1 × G2 , dann gilt
(x−1 , y −1 )◦(x, y) = (x−1 ◦x, y −1 ◦y = (e1 , e2 ) = (x◦x−1 , y◦y −1 ) = (x, y)◦(x−1 , y −1 )
also ist (x−1 , y −1 ) invers zu (x, y).
25
Es seien G1 und G2 kommutativ, dann gilt für alle (x1 , y1 ), (x2 , y2 ) ∈ G1 × G2 :
(x1 , y1 ) ◦ (x2 ◦ y2 ) = (x1 ◦ x2 , y1 ◦ y2 ) = (x2 ◦ x1 , y2 ◦ y1 ) = (x2 , y2 ) ◦ (x1 , y1 ) 2.10 ist ein Spezialfall des Produkts von endlich vielen Gruppen, der Beweis der
folgenden Proposition erfolgt völlig analog:
Proposition 2.11 Es seien (G1 , ◦), . . . , (Gn , ◦) Gruppen. Man definiere
◦ : (G1 × · · · × Gn ) × (G1 × · · · × Gn ) −→ G1 × · · · × Gn
durch
(x1 , . . . , xn ) ◦ (y1 , . . . , yn ) = (x1 ◦ y1 , . . . , xn ◦ yn )
Dann ist (G1 × · · · × Gn , ◦) eine Gruppe, die kommutativ ist, wenn G1 , . . . , Gn
kommutativ sind.
Man nennt (G1 ×· · ·×Gn , ◦) die Produktgruppe. der Gruppen (G1 , ◦), . . . , (Gn , ◦)
Beispiel 2.12 Rn = R×· · ·×R ist zusammen mit der Operation + : Rn ×Rn −→
Rn definiert durch
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
eine kommutative Gruppe.
Bezeichnungsweisen 2.13
(i) Üblicherweise schreibt man für eine Gruppe (G, ◦) kurz G, wenn klar ist,
welche Komposition gemeint ist. So stehen Z, R, R∗ oder S(M ) für (Z, +), (R, +),
(R∗ , ·) bzw. (S(M ), ◦). (Zur Erinnerung: Nach 2.2(iii) bezeichnet R∗ = R \ {0}
die Menge aller reellen Zahlen, die von 0 verschieden sind.)
(ii) Üblicherweise bezeichnet man die Komposition in einer kommutativen Gruppe
mit “+”. Das neutrale Element wird dann mit 0 bezeichnet und das zu einem
Element x ∈ G inverse Element wird mit −x bezeichnet. Schließlich setzt man
für alle x, y ∈ G
x − y = x + (−y)
Man beachte, dass nach 2.9(ii) eine Teilmenge U einer kommutativen Gruppe G
genau dann eine Untergruppe ist, wenn (i) U 6= ∅ gilt und (ii) x − y ∈ U für alle
x, y ∈ U gilt.
Weiterhin schreibt sich Übungsaufgabe 9a) in der folgenden Weise: Es sei (G, +)
eine kommutative Gruppe. Dann gelten für alle x, y ∈ G:
−(x + y) = −y − x
und
26
− (−x) = x
Ich komme nun zu einer neuen Konstruktion, die im Gegensatz zu den bisherigen
beiden etwas aufwendiger ist, die Faktor- oder Quotientengruppen. Dazu braucht
man zunächt den Begriff der Äquivalenzrelation:
Definition 2.14 Es sei M eine Menge. Jede Teilmenge ρ ⊆ M × M heißt Relation auf M . Man schreibt in der Regel für x, y ∈ M :
xρy ⇐⇒ (x, y) ∈ ρ
Eine Relation ρ auf M heißt Äquivalenzrelation, wenn für alle x, y, z ∈ M
gelten:
(R) xρx
(S) aus xρy folgt yρx
(T) aus xρy und yρz folgt xρz
“Reflexivität”
“Symmetrie”
“Transitivität”
Für x ∈ M heißt
[x]ρ = {y ∈ M : yρx}
die Äquivalenzklasse von x und
M/ρ = {[x]ρ : x ∈ M }
heißt die Quotienten- oder Faktor-Menge von M nach ρ.
Falls die Äquivalenzrelation ρ klar ist, schreibt man oft [x] für [x]ρ .
Das ist nun wieder so etwas Ungewohntes: Die Elemente der Quotientenmenge
sind ihrerseits Mengen, nämlich die Äquivalenzklassen.
Bevor ich “mathematische” Beispiele von Äquivalenzrelationen angebe, hier ein
paar aus der “realen” Welt:
Beispiel 2.15 Auf der Menge M aller Studierenden in einem Hörsaal definiere
man Relationen ρ, σ und τ durch
xρy ⇐⇒ x und y sind in demselben Jahr geboren
xσy ⇐⇒ x und y wohnen in derselben Straße
xτ y ⇐⇒ x und y haben dieselbe Matrikelnummer
Dann sind ρ, σ und τ Äquivalenzrelationen. Für alle x ∈ M ist [x]ρ die Menge
aller Studierenden, die in demselben Jahr wie x geboren sind, [x]σ die Menge
aller Studierenden, die in derselben Straße wie x wohnen und [x]τ die Menge
aller Studierenden, die dieselbe Matrikelnummer wie x haben, also gilt vermutlich
[x]τ = {x}.
27
Äquivalenzrelationen sind kein ganz einfaches Objekt. Bevor ich weiter darüber
rede, zeige ich zunächst:
Lemma 2.16 Es seien X eine Menge und ρ eine Äquivalenzrelation auf X.
Dann gelten:
(i) x ∈ [x]ρ für alle x ∈ X.
(ii) Für alle x, y ∈ X gilt [x]ρ = [y]ρ oder [x]ρ ∩ [y]ρ = ∅.
Beweis Für alle x ∈ X setze man [x] = [x]ρ .
(i) Wegen (R) gilt xρx für alle x ∈ X und daher x ∈ [x].
(ii) Es seien x, y ∈ X und es gelte [x] ∩ [y] 6= ∅. Dann ist zu zeigen, dass [x] = [y]
gilt.
“⊆”: Es sei z ∈ [x], dann gilt zρx. Nach Voraussetzung gibt es ein w ∈ [x] ∩ [y].
Also gilt wρx und wρy. Aus (S) folgt dann xρw, also erhält man
zρx,
xρw,
wρy
Aus (T) folgt dann zρw und daraus zρy, also z ∈ [y].
“⊇”: Nach Voraussetzung gilt [y] ∩ [x] 6= ∅ und aus dem ersten Teil folgt dann
[y] ⊆ [x].
Nach 2.16 zerlegt eine Äquivalenzrelation eine Menge in disjunkte Teilmengen
und die Elemente aus M/ρ sind genau diese disjunkten Teilmengen. Man kann
übrigens zeigen, dass es zu einer Zerlegung von M genau eine Äquivalenzrelation
gibt, so dass die Äquivalenzklassen genau die Mengen der Zerlegung sind.
Bevor ich ein weiteres “mathematisches” Beispiel einer Äquivalenzrelation zeige,
beweise ich ein einfaches, aber oft nützliches Lemma:
Lemma 2.17 Es sei ρ eine Äquivalenzrelation auf einer Menge M und x, y ∈ M .
Dann sind äquivalent:
(i) xρy
(ii) x ∈ [y]
(iii) [x] ⊆ [y]
(vi) [x] = [y]
Beweis Es ist natürlich zu beweisen, dass je zwei dieser vier Aussagen äquivalent
sind, dass also “(i) ⇔ (ii)”, “(i) ⇔ (iii )”, “(i) ⇔ (iv)”, “(ii) ⇔ (iii)”, “(ii) ⇔
(iii)” und “(iii) ⇔ (iv)” gelten. Dazu reicht es natürlich aus, z.B. zu zeigen, dass
“(i) ⇔ (ii)”, “(ii) ⇔ (iii)” und “(iii) ⇔ (iv)” gelten. Aber auch das kann man
noch vereinfachen, indem man einen sogenannten Ringschluss durchführt: Man
28
beweist z.B. :
(i) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (i)
Es ist wohl klar, dass die anderen Implikationen daraus folgen.
(i) ⇒ (ii)”: Aus xρy folgt x ∈ [y] nach Definition von [y].
“(ii) ⇒ (iii)” Es sei z ∈ [x] beliebig, dann folgt zρx. Aus x ∈ [y] folgt xρy und
daraus zρy mit (T), also z ∈ [y].
“(iii) ⇒ (iv)”: Nach 2.16(i) gilt x ∈ [x] Wegen [x] ⊆ [y] folgt x ∈ [y] und daher
x ∈ [x] ∩ [y], also gilt [x] ∩ [y] 6= ∅ und daraus [x] = [y] mit 2.16(ii).
“(iv) ⇒ (i)”: Aus x ∈ [x] = [y] folgt xρy.
Proposition 2.18 Es seien G eine kommutative Gruppe und U ⊆ G eine Untergruppe. Dann wird durch
xρU y ⇔ y − x ∈ U
eine Äquivalenzrelation auf G definiert. Es gilt für alle x ∈ G:
[x] = x + U = {x + y : y ∈ U }
Man setzt
G/U = G/ρU
Beweis Man setze ρ = ρU .
(R): Für alle x ∈ G gilt x − x = 0 ∈ U nach (U1) und daher xρx.
(S): Es seien x, y ∈ G und es gelte xρy, dann folgt y − x ∈ U und daraus folgt
mit (U3), dass gilt −(x − y) = y − x ∈ U , also yρx. Die letzte Gleichung ist dabei
ÜA 9a).
(T) Es gelte xρy und yρz, dann folgt y − x ∈ U und z − y ∈ U und daraus mit
(U2):
z − x = (z − y) + (y − x) ∈ U
also xρz.
Es bleibt zu zeigen, dass [x] = x + U gilt:
“⊆”: Es sei y ∈ [x], dann folgt yρx und daraus xρy, also y − x ∈ U . Man erhält
y = x + (y − x) ∈ x + U .
“⊇”: Es sei y ∈ x+U , dann gibt es ein z ∈ U mit y = x+z. Es folgt y −x = z ∈ U
und daraus xρy, also yρx, d.h. y ∈ [x].
Beispiel 2.19 Es sei k ∈ N. Dann ist kZ = {kz : z ∈ Z} ⊆ Z nach 2.8(ii) eine
Untergruppe von Z. Die Äquivalenzklassen, also also die Elemente von Z/kZ sind
dann
[0], [1], . . . , [k − 1]
Also enthält Z/kZ genau k Elemente.
29
Beweis Man beachte dass [x] = x + kZ nach 2.18 für alle x ∈ Z gilt, so dass man
die Elemente aus Z/kZ auch in der Form
kZ, 1 + kZ, . . . , k − 1 + kZ
schreiben kann.
Zum eigentlichen Beweis brauche ich einige Eigenschaften der natürlichen Zahlen, die in der Analysis bewiesen werden. Ich nehme aber an, dass sie Ihnen alle
vertraut sind, so dass Sie dem Beweis folgen können:
Ich muss zeigen, dass alle Äquivalenzklassen vorkommen und keine zweimal vorhanden ist. Also nehme ich zunächst an, dass 0 ≤ i < j ≤ k − 1 gilt. Dann folgt
0 < j − i ≤ k − 1 < k und daraus j − i ∈
/ kZ. Also gilt [i] 6= [j].
Es sei nun [x] irgendeine Äquivalenzklasse, dann gilt [x] = x + kZ, also enthält [x]
natürliche Zahlen, es sei n die kleinste nicht-negative ganze in [x], dann gilt nρx
und daher [x] = [n] = n + kZ nach 2.17. Ich zeige, dass n ≤ k − 1 gilt: Angenommen, n ≥ k, dann gilt n > n − k ≥ 0 und wegen (n − k)ρn folgt [n − k] = [n] = [x]
und n ist nicht das kleinste Element in [x]. Widerspruch.
Beispiel 2.20 Es seien α ∈ R. Man definiere
U = {(x, y) ∈ R2 : y = αx} ⊆ R2
dann ist U eine Untergruppe von R2 In der Tat ist U die Menge aller Punkte
aus R2 die auf der Geraden mit der Gleichung y = αx liegen. Es seien nun
(x0 , y0 ) ∈ R2 und (x, y) ∈ R2 , dann gilt
(x, y) ∈ [(x0 , y0 )] ⇔ (x, y)ρU (x0 , y0 )
⇔ (x0 − x, y0 − y) = (x0 , y0 ) − (x, y) ∈ U
⇔ y0 − y = α(x0 − x) = αx0 − αx
⇔ y = αx + (y0 − αx0 )
y = αx + (y0 − αx0 )
(x0 , y0 )a
y
=
αx
Also sind die Äquivalanzklassen und damit Elemente von R2 /U gerade die Parallelen zu der Geraden mit der Gleichung y = αx.
30
Es seien G eine kommutative Gruppe und U ⊆ G eine Untergruppe. Dann ist
die Frage, ob man auf G/U eine Operation ⊕ so definieren kann, dass G/U eine
kommutative Gruppe wird. Die Idee ist ganz einfach: Die Elemente aus G/U
haben ja die Form [x] für ein x ∈ G, also ist es naheliegend,
[x] ⊕ [y] = [x + y]
zu versuchen: Um zwei Äquivalenzklassen zu addieren, wählt man aus jeder ein
Element, addiert die Elemente und betrachtet die Äquivalenzklasse der Summe.
Diese Definition hat ein Problem: Es kann ja ohne Weiteres vorkommen, dass
[x] = [x0 ] und [y] = [y 0 ] gilt. Dann haben wir zwei Möglichkeiten:
[x] ⊕ [y] = [x + y]
und
[x0 ] ⊕ [y 0 ] = [x0 + y 0 ]
Da die beiden linken Seiten ja gleich sind, geht das nur gut, wenn auch die rechten
Seiten gleich sind. Wenn wir also aus [x] bzw. [y] je ein neues Element x0 bzw. y 0
wählen, gilt natürlich in der Regel x + y 6= x0 + y 0 (und das macht auch nichts),
aber muss gelten [x + y] = [x0 + y 0 ]:
Lemma 2.21 Es seien G eine kommutative Gruppe und U eine Untergruppe von
G. Weiter seien x, x0 , y, y 0 ∈ G und es gelte [x] = [x0 ] und [y] = [y 0 ], dann folgt
[x + y] = [x0 + y 0 ].
Beweis Es gilt xρx0 und yρy 0 nach 2.17 und daraus folgt nach Definition x0 − x ∈
U sowie y 0 − y ∈ U und daher
(x0 + y 0 ) − (x + y) = x0 + y 0 − x − y = (x0 − x) + (y 0 − y) ∈ U
Dies ergibt (x + y)ρ(x0 + y 0 ) und 2.17 liefert dann [x + y] = [x0 + y 0 ].
Definition 2.22 Es seien G eine kommutative Gruppe und U eine Untergruppe.
Dann definiere man ⊕ : G/U × G/U → G/U durch
[x] ⊕ [y] = [x + y]
(Dann ist ⊕ nach 2.21 wohldefiniert.) G/U heißt die Quotientengruppe oder
Faktorgruppe von G nach U .
Lemma 2.23 Es seien G eine kommutative Gruppe und U eine Untergruppe.
Dann ist (G/U, ⊕) eine kommutative Gruppe.
31
Beweis
(G1) Für alle x, y, z ∈ G gilt
([x]+[y])+[z] = [x+y]+[z] = [(x+y)+z] = [x+(y+z)] = [x]+[y+z] = [x]+([y]+[z])
(G2) Fı̈r alle x ∈ G gilt
[x] + [0] = [x + 0] = [x] = [0 + x] = [0] + [x]
also ist [0] ein neutrales Element.
(G3) Es sei x ∈ G, dann gilt
[−x] + [x] = [−x + x] = [0] = [x + (−x)] = [x] + [−x]
also ist [−x] invers zu [x].
(G4) Für alle x, y ∈ G gilt:
[x] + [y] = [x + y] = [y + x] = [y] + [x]
Damit ist die Konstruktion der Quotientengruppe beendet. Beachten Sie, dass die
Beweise sehr kurz sind, die Schwierigkeit besteht also fast ausschließlich darin, sich
daran zu gewöhnen, dass man eine Menge betrachtet, deren Elemente ihrerseits
Mengen sind und dass man diese Mengen dann sogar noch addieren kann.
Beispiel 2.24 Es sei k ∈ N. Nach 2.19 besteht Z/kZ aus den k verschiedenen
Elementen
{[0], [1], . . . , [k − 1]}
Also ist (Z/kZ, ⊕) eine kommutative Gruppe mit k Elementen.
Wie addiert man nun zwei Elemente aus Z/kZ? Nun, es seien 0 ≤ r, s ≤ k − 1
dann gilt
[r] ⊕ [s] = [r + s]
Falls r + s ≤ k − 1 gilt, ist nichts mehr zu tun, was passiert, wenn r + s ≥ k gilt?
Es gilt immer noch [r] + [s] = [r + s], aber r + s taucht nicht in der obigen Liste
auf. Dass kann man aber schnell lösen: Falls r +s ≥ k gilt, gilt 0ler +s−k ≤ k −1
und aus r + s − (r + s − k) = k ∈ kZ folgt [r + s − k] = [r + s]. Man erhält also
[r + s] = [r + s − k]
Beispiel 2.25 Wie sieht die Gruppentafel von Z/4Z aus: Es gilt
Z/4Z = {[0], [1], [2], [3]}
und weiterhin
[1] ⊕ [1] = [2], [1] ⊕ [2] = [3]
32
sowie
[1] ⊕ [3] = [1 + 3] = [4] = [4 − 4] = [0]
Analog löst man die anderen Rechnungen und erhält die folgende Gruppentafel:
⊕
[0]
[1]
[2]
[3]
[0]
[0]
[1]
[2]
[3]
[1]
[1]
[2]
[3]
[0]
[2]
[2]
[3]
[0]
[1]
[3]
[3]
[0]
[1]
[2]
Die Gruppentafel aus 2.25 erhält man, wenn man in der Tafel auf Seite 22 Mitte
e, a, b, c durch [0], [1], [2], [3] ersetzt. Also entsteht die eine Tafel aus der anderen
durch Umbennung. Und man überlegt sich leicht, dass die eine eine Gruppentafel
ist, wenn die andere eine ist. Also haben wir das Problem gelöst, eine Gruppe
mit 17 Elementen zu finden: Z/17Z. Es bleibt noch die Frage, wie man die vorletzte Tafel realisiert, aber das ist im Wesentlichen Z/2Z × Z/2Z, wie Sie in einer
Übungsaufgabe zeigen sollen.
Ich komme nun zu dem wichtigsten Begriff dieses Kapitels:
Definition 2.26 Es sei K eine Menge. Das Tripel (K, +, ·) heißt Körper, wenn
+ : K × K → K und · : K × K → K Kompositionen sind, so dass gelten:
für alle x, y, z ∈ K
(A1)
(x + y) + z = x + (y + z)
(A2)
es gibt ein Element aus K, genannt 0 so dass gilt:
0+x=x+0=x
für alle x ∈ K
(A3)
zu jedem Element x ∈ K gibt es ein Element aus K,
genannt −x, so dass gilt: −x + x = x + (−x) = 0
(A4)
x+y =y+x
für alle x, y ∈ K
(M1) (x · y) · z = x · (y · z)
für alle x, y, z ∈ K
(M2)
es gibt ein Element aus K, genannt 1, mit 1 6= 0 so dass gilt:
1·x=x·1=x
für alle x ∈ K
(M3)
zu jedem Element x ∈ K , x 6= 0 gibt es ein Element aus K,
genannt x−1 , so dass gilt: x−1 · x = x · x−1 = 1
(M4) x · y = y · x
(D)
Es gilt x · (y + z) = x · y + x · z
für alle x, y ∈ K
für alle x, y, z ∈ K
Dabei vereinbart man wie üblich, dass “Punktrechnung vor Strichrechnung” geht.
(D) heißt das Distributivgesetz. Man nennt + bzw. · auch in einem beliebigen
Körper Addition bzw. Multiplikation.
33
Bemerkung 2.27 Es sei (K, +, ·) ein Körper, dann besagen (A1) - (A4), dass
(K, +) eine kommutative Gruppe ist.
Es ist nun so, dass das Axiomensystem eines Körpers (bewusst) kurz gehalten
ist. Das hat den Vorteil, dass es vergleichsweise einfach ist, nachzurechnen, dass
ein “Kandidat” ein Körper ist. Andererseits gibt es zahllose Kleinigkeiten, an
die man sich in R gewöhnt hat, die man nun nachrechnen muss. Ich bin nicht
sicher, ob ich alle von mir benutzten Ergebnisse auch vorher beweisen werde,
gehe aber davon aus, dass die wichtigsten jetzt folgen und dass die unbewiesenen
auf ähnliche Weise bewiesen werden können.
Lemma 2.28 Es sei K ein Körper, dann gelten für alle x, y ∈ K:
(i) 0 · x = x · 0 = 0
(ii) (−1) · x = −x
(iii) (−x) · y = x · (−y) = −(x · y)
(iv) Aus x · y = 0 folgt x = 0 oder y = 0.
Beweis
(i) Es gilt:
0 · x = (0 + 0) · x
= 0·x+0·x
nach (A2)
nach (D)
und es folgt 0 · x = 0 nach 2.4(i), da (K, +) nach 2.27 eine kommutative Gruppe
ist.
(ii) Es gilt
x + (−1) · x =
=
=
=
1 · x + (−1) · x
(1 + (−1)) · x
0·x
0
nach(M 1)
nach(D)
nach(A2)
nach(i)
und es folgt (−1) · x = −x nach 2.4(iii).
Aus (M2) und (D) folgt mit (i):
(iii) Ich zeige eine Gleichung: Es gilt
(−x) · y + (x · y) = (−x + x) · y
= 0·y
= 0
nach (D)
nach (A3)
nach (i)
und aus 2.4(iii) folgt (−x) · y = −(x · y).
(iv) Es gelte x · y 6= 0. Falls x = 0 gilt, ist man fertig. Falls x 6= 0 gilt, folgt
x−1 · (x · y) = x−1 · 0 = 0
nach (i) und daraus
34
0 = (x−1 · x) · y = 1 · y = y
nach (M1), (M3) und (M2). Also gilt in jedem Fall x = 0 oder y = 0.
Proposition 2.29 Es seien (K, +, ·) ein Körper und K ∗ = K \ {0}. Dann ist
(K ∗ , ·) eine kommutative Gruppe.
Beweis Der wesentliche Teil des Beweises ist die Tatsache, dass für alle x, y ∈ K ∗
in der Tat x · y ∈ K ∗ gilt, aber das folgt aus 2.28(iv). (G1) - (G4) folgen dann
direkt aus (M1) - (M4).
An dieser Stelle will ich darauf hinweisen, dass 2.29 nicht ganz präzise definiert ist:
Was soll das heißen, dass (K ∗ , ·) eine kommutative Gruppe ist: Immerhin ist doch
· eine Abbildung von K ×K nach K und “Gruppe” heißt, dass · eine Komposition
auf K ∗ , also eine Abbildung von K ∗ × K ∗ → K ∗ ist, was es offenbar nicht ist.
Also hätte diese Bedingung präziser heißen müssen: Es gilt x · y ∈ K ∗ für alle
x, y ∈ K ∗ und wenn man : K ∗ ×K ∗ → K ∗ durch xy = x·y definiert, ist (K ∗ , )
eine kommutative Gruppe. Ich gehe mal davon aus, dass diese Formulierung nicht
unbedingt zur Klarheit beigetragen hätte, und habe daher diese leicht zweifelhafte
Formulierung gewählt.
Beispiele 2.30
(i) (Q, +, ·) und (R, +, ·) sind Körper.
(ii) Nach (M2) hat jeder Körper wenigstens zwei Elemente. Die Frage ist, ob es
einen Körper mit genau zwei Elementen gibt. Also nehme ich zunächst einmal
an, es sei (K, +, ·) ein Körper mit genau zwei Elementen, dann gilt K = {0, 1}.
Da (K, +) eine Gruppe mit zwei Elementen ist, erhält man als Gruppentafel:
+ 0 1
0 0 1
1 1 0
Aber die Tafel für die Multiplikation erhält man ohne Mühe aus der Tatsache,
dass nach 2.28(iv) ja stets 0 · x = x · 0 = 0 für alle x gilt. Also erhält man:
· 0 1
0 0 0
1 0 1
Wenn nun umgekehrt K = {0, 1} eine Menge ist, dann ist K mit den obigen
Operationen ein Körper. Der Beweis ist nicht schwer, da aber (K, +, ·) ein Spezialfall von 2.36 ist, halte ich den Beweis kurz:
35
Offenbar gelten (A1) - (A4), d.h. (K, +) ist eine kommutative Gruppe. (M2),
(M3) und (M4) sind offenbar erfüllt, also bleiben nur noch (M1) und (D). Zum
Beweis von (M1) muss man zeigen, dass für alle x, y, z ∈ K gilt:
(x · y) · z = x · (y · z)
Wegen 0 · v = v · 0 = 0 für alle v ∈ K gilt diese Gleichung für x = 0 oder y = 0
oder z = 0, aber für x = y = z = 1 gilt sie offenbar.
Zum Beweis von (D) muss man zeigen, dass für alle x, y, z ∈ K gelten
x · (y + z) = x · y + x · z
Wegen 0 · v = v · 0 = 0 und v + 0 = 0 + v für alle v ∈ K gilt diese Gleichung für
x = 0 oder y = 0 oder z = 0. Aber im Fall x = y = z = 1 erhält man
1 · (1 + 1) = 1 · 0 = 0
und
1·1+1·1=1+1=0
Bezeichnungsweisen 2.31
(i) In der Regel verwendet man für einen Körper kurz das Symbol K, in diesem
Fall bezeichnet man die Addition bzw. die Multiplikation immer mit + und · .
Die neutralen Elemente sind dann 0 und 1, die inversen −x und x−1 .
(ii) Es sei K ein Körper. Dann unterdrückt man oft wie in R das Zeichen für die
Multiplikation. Man schreibt also
xy = x · y
für alle x, y ∈ K.
Ich komme nun zur Konstruktion endlicher Körper: Es ist ja sehr einfach auf
Z/kZ eine Addition einzuführen: [x] ⊕ [y] = [x + y], wobei man darauf achten
musste, dass die rechte Seite sich nicht ändert, wenn man x bzw. y durch ein
anderes Element derselben Klasse ersetzt. In analoger Weise kann man auf Z/kZ
eine Multiplikation einführen. Diese Definition wird wieder mit einem Lemma
eingeleitet:
Lemma 2.32 Es seien k ∈ N, ρ = ρkZ und x, x0 , y, y 0 ∈ Z so dass gilt [x] = [x0 ]
und [y] = [y 0 ], wobei die Äquivalenzklassen bezüglich ρ gebildet werden. Dann folgt
[xy] = [x0 y 0 ].
Beweis Nach 2.17 gilt xρx0 und yρy 0 , also x0 − x ∈ kZ und y 0 − y ∈ kZ. Daher
gibt es r, s ∈ Z so dass gilt x0 − x = kr und y 0 − y = ks. Es folgt
x0 y 0 − xy = (x0 − x)y 0 + x(y 0 − y) = kry 0 + xks = k(ry 0 + xs) ∈ kZ
und daraus, noch einmal mit 2.17, [x0 y 0 ] = [xy].
36
Definition 2.33 Es sei k ∈ N, dann definiere man
: Z/kZ × Z/kZ −→ Z/kZ
durch
[x] [y] = [xy]
Wegen 2.32 ist wohldefiniert.
Beispiel 2.34 In (Z/4Z, ⊕, ) gilt z.B.
[0] · [x] = [0 · x] = [0]
für alle x ∈ Z
[1] · [x] = [1 · x] = [x]
für alle x ∈ Z
und
oder
[2] [3] = [2 · 3] = [6] = [2], [3] [3] = [3 · 3] = [9] = [1]
Die anderen Produkte rechnet man analog aus und erhält die folgende Verknüpfungstafel:
[0]
[1]
[2]
[3]
[0]
[0]
[0]
[0]
[0]
[1]
[0]
[1]
[2]
[3]
[2]
[0]
[2]
[0]
[2]
[3]
[0]
[3]
[2]
[1]
Die Frage ist nun natürlich, ob (Z/kZ, ⊕, ) ein Körper ist. Wie schon bewiesen, ist (Z/kZ, ⊕) eine kommutative Gruppe. Ebenso wie im Beweis von 2.23
zeigt man, dass assoziativ, kommutativ ist und ein neutrales Element besitzt. Schließlich ist das Distributivgesetz erfüllt. Der einzige kritische Punkt ist
(M3). Dass dies nicht immer erfüllt ist, sieht man z.B. in Z/4Z: Offenbar gibt
es zu [2] kein inverses Element bezüglich . Es gilt aber auch [2] 6= [0] und
[2] [2] = [4] = [0]. Dies widerspricht aber 2.28(iv), also ist Z/4Z kein Körper.
Dieses Beispiel kann man leicht verallgemeinern:
Beispiel 2.35 Es sei k keine Primzahl, dann gibt es Zahlen 0 < a, b < k so dass
gilt ab = k. Es folgt [a] 6= [0] und [b] 6= [0] aber
[a] [b] = [ab] = [k] = [0]
Also ist (Z/kZ, ⊕, ) kein Körper.
Proposition 2.36 Es sei p eine Primzahl. Dann ist (Z/pZ, ⊕, ) ein Körper.
37
Beweis Nach 2.8(ii) und 2.23 ist (Z/pZ), ⊕) eine kommutative Gruppe. Wie
schon bemerkt, zeigt man ohne Mühe, dass (M1), (M2), (M4) und (D) gelten. Ich
zeige exemplarisch (D): Es seien x, y, z ∈ Z, dann gilt:
[x]([y]⊕[z]) = [x][y+z] = [x(y+z)] = [xy+xz] = [xy]⊕[xz] = [x][y]⊕[x][z]
Beim Beweis von (M3) werde ich zwei Eigenschaften der natürlichen Zahlen benutzen, die in der Analysis bewiesen werden. Sei also [x] ∈ Z/pZ, [x] 6= [0], dann
muss man zeigen, dass es ein zu [x] inverses Element [x0 ] gibt.
Propädeutik Wenn x0 existiert, gilt [1] = [x0 ][x] = [x0 x] und daher 1−x0 x ∈ pZ,
also gibt es ein a ∈ Z so dass gilt 1 − x0 x = ap und daher ap + x0 x = 1. Also muss
man zeigen, dass es a, b ∈ Z so gibt, dass gilt
ap + bx = 1
Fortsetzung des Beweises
Es sei
M = {ap + bx : a, b ∈ Z} ∩ N
dann gilt p = 1 · p + 0 · x ∈ M , also ist M eine nicht-leere Menge natürlicher
Zahlen, besitzt also ein Minimum d. Ich behaupte, dass d ein Teiler von p ist,
dass es also ein k ∈ N so gibt, dass gilt kd = p. Man wähle ein k ∈ N ∪ {0} so
dass gilt kd ≤ p < (k + 1)d. Dann folgt
0 ≤ p − kd < d
und ich zeige, dass p − kd = 0 gilt. Angenommen, dass ist falsch, dann gilt
p − kd ∈ N. Wegen d ∈ M gibt es a, b ∈ Z so dass gilt d = ap + bx und es folgt
p − kd = p − k(ap + bx) = (1 − ka)p − kbx ∈ M
im Widerspruch zu p − kd < d. Also gilt p = kd und k ∈ N.
Da p eine Primzahl ist, folgt d = 1 oder d = p. Nach 2.19 gibt es ein y ∈
{0, . . . , p − 1} so dass gilt [y] = [x]. Wegen [x] 6= 0 gilt y 6= 0 und wegen [y] = [x]
gilt y − x ∈ pZ, also gibt es ein n ∈ Z so dass gilt y − x = pn. Es folgt y =
np + x ∈ M und daher d ≤ y < p. Man erhält d = 1 und daraus 1 ∈ M . Es folgt
[1] = [ap + bx] = [ap] ⊕ [bn] = [a] [0] ⊕ [b] [x] = [0] + [b] [x] = [b] [x]
Also ist [b] invers zu [x].
Beispiel 2.37 In (Z/5Z, ⊕, ) gilt
[2] [3] = [6] = [1]
und
[4] [4] = [16] = [1]
also gilt
[2]−1 = [3],
[3]−1 = 2,
38
[4]−1 = [4]
Um [x]−1 in einem Z/pZ zu berechnen, wenn p sehr groß ist (also z.B. 200 Stellen
besitzt), sucht man a, b ∈ Z so dass gilt ap + bx = 1, dieses kann man mit dem
sogenannten Euklidischen Algorithmus lösen.
Es gibt einige wichtige Abschwächungen des Begriffs eines Körpers: So heißt
(K, +, ·) ein Ring, wenn (A1) - (A4), (M1) und (D) erfüllt sind. Der Ring heißt
kommutativ, wenn (M4) erfüllt ist und man sagt, er hat ein Einselement, wenn
(M2) erfüllt ist. Kommutative Ringe mit Einselement spielen in der Algebra
eine wichtige Rolle.
39
Kapitel 3
Vektorräume
Vektoren wurden “erfunden” um physikalische Grössen zu beschreiben, die nicht
nur einen Betrag, sondern auch eine Richtung haben. Wenn zwei Kräfte K1 und
K2 an einem Punkt P angreifen erhält man die resultierende Kraft K bekanntlich
aus dem folgenden Parallelogramm:
:
3
K2 K :
K1
P
Wenn man nun ein Koordinatensystem mit P als Ursprung einzieht, erhält man
das folgende Diagramm:
40
:
3
K2 :
K1
K
(0, 0)
Was bleibt nun, wenn wir von den konkreten “Vektoren” absehen? Nun offenbar
eine Komposition auf R2 : Zwei Elemente aus dem R2 werden “addiert”, indem
man die obige Konstruktion durchführt. Eine einfache Rechnung zeigt, dass man
diese geometrische Konstruktion auf einfache Weise analytisch durchführen kann:
Wenn K1 = (x1 , y1 ) und K2 = (x2 , y2 ) gilt, dann gilt
K = (x1 + x2 , y1 + y2 )
Das ist nun nichts Neues, die Komposition auf R2 , die man auf diese Weise erhält,
macht R2 zu einer kommutativen Gruppe. Aber man kann Kräfte ja auch erhöhen
oder reduzieren, z.B. verdoppen oder halbieren. Auf diese Weise erhält man neue
Kräfte, die man wieder geometrisch beschreiben kann:
K2
:
2K1
1
:
2 K2
K1
(0, 0)
Der “Vektor” 2K1 hat dieselbe Richtung wie K1 und ist doppelt so lang, der
“Vektor” 21 K2 ist halb so lang wie K2 und hat dieselbe Richtung.
Wie sieht nun die analytische Darstellung aus? Nun, wenn wieder K1 = (x1 , y1 )
41
gilt, dann gilt 2K1 = (2x1 , 2y1 ) und 21 K2 = ( 12 x2 , 12 y2 ). Allgemeiner erhält man für
α > 0 den “Vektor” αK1 indem man den Vektor mit derselben Richtung und der
α-fache Länge betrachtet. Und die analytische Darstellung ist αK1 = (αx1 , αy1 ).
Was also bleibt hier, wenn man von den Vektoren abstrahiert? Nun man kann
Elemente des R2 mit einer reellen Zahl multiplizieren. Und das ist nun etwas
ganz Neues. Also haben wir eine kommutative Gruppe, deren Elemente man mit
reellen Zahlen “multiplizieren” kann. Da stellt sich wie üblich die Frage, wie sich
die beiden Operationen “Summe” und “Multiplikation mit einer reellen Zahl”
vertragen. Das gibt keine große Überraschung. Überraschender ist es wahrscheinlich, dass auch die reellen Zahlen nicht besonders wichtig sind und durch einen
beliebigen Körper ersetzt werden können. Man erhält dann endlich die
Definition 3.1 Es sei (K, +, ·) ein Körper. Das Tripel (V, ⊕, ) heißt
K-Vektorraum oder Vektorraum über K, wenn gelten:
(i) (V, ⊕) ist eine kommutative Gruppe.
(ii) : K × V → V ist eine Abbildung so dass gelten:
(Man schreibt α x = (α, x) und vereinbart wie üblich, dass “Punkt vor
Strich” gilt.)
(V1) α (β v) = (α · β) v
für alle α, β ∈ K und alle v ∈ V
(V2) α (v ⊕ w) = α v ⊕ α w
(α + β) v = α v ⊕ β v
für alle α ∈ K und alle v, w ∈ V
für alle α, β ∈ K und alle v ∈ V
(V3) 1 v = v
für alle v ∈ V
Beispiele 3.2
(i) Man definiere
⊕ : R2 × R2 −→ R2
durch
(x1 , x2 ) ⊕ (y1 , y2 ) = (x1 + y1 , x2 + y2 )
und
: R × R2 −→ R2
durch
α (x1 , x2 ) = (αx1 , αx2 ) .
Dann ist (R2 , ⊕, ) ein R-Vektorraum. (In der Tat habe ich die Addition in R2
früher schon mit “+” bezeichnet, dazu komme ich auch gleich zurück.)
42
(ii) Allgemeiner seien K ein Körper und n ∈ N. Man definiere
⊕ : K n × K n −→ K n
durch
(x1 , . . . , xn ) ⊕ (y1 , . . . yn ) = (x1 + y1 , . . . xn + yn )
und
: K × K n −→ K n
durch
α (x1 , . . . xn ) = (α · x1 , . . . α · xn )
dann wird K n mit diesen Operationen ein K-Vektorraum.
Dieser Vektorraum ist der mit Abstand wichtigste in dieser Vorlesung.
(iii) Es seien M eine Menge und RM die Menge aller Abbildungen von M nach
R. Für alle f, g ∈ RM und alle α ∈ R definiere man
f ⊕ g : M −→ R
durch f ⊕ g(x) = f (x) + g(x) für alle x ∈ M und
α f : M −→ R
durch α f (x) = αf (x) für alle x ∈ M . Dann ist (RM , ⊕, ) ein R-Vektorraum.
Beweis
(i) Es seien α, β ∈ R und v = (x1 , x2 ) ∈ R2 , w = (y1 , y2 ) ∈ R2 .
(V1) Es gilt
α (β v) = α (β (x1 , x2 ))
= α (βx1 , βx2 )
= (α(βx1 ), α(βx2 ))
= ((αβ)x1 , (αβ)x2 )
= (αβ) (x1 , x2 )
= (αβ) v
Hier habe ich der Klarheit der Argumentation wegen in der dritten und vierten
Zeile “überflüssige” Klammern gesetzt. Man braucht also das Assoziativgesetz
der Multiplikation in R.
(V2) Es gilt
α (v ⊕ w) = α ((x1 , x2 ) ⊕ (y1 , y2 ))
= α (x1 + y1 , x2 + y2 )
= (α(x1 + y1 ), α(x2 + y2 ))
= (αx1 + αy1 , αx2 + αy2 )
= (αx1 , αx2 ) ⊕ (αy1 , αy2 )
= α (x1 , x2 ) ⊕ α (y1 , y2 )
= αv⊕αw
43
(α + β) v = (α + β) (x1 , x2 )
und
= = ((α + β)x1 , (α + β)x2 )
= (αx1 + βx1 , αx2 + βx2 )
= (αx1 , αx2 ) ⊕ (βx1 , βx2 )
= α (x1 , x2 ) ⊕ β (x1 , x2 )
= αv⊕βv
(V3) Es gilt
1 v = 1 (x1 , x2 ) = (1 · x1 , 1 · x2 ) = (x1 , x2 ) = v
(ii) beweist man durch geeignete Modifikation des Beweises von (i).
(iii) Hier beweise ich exemplarisch (V1). Also seien α, β ∈ R und f ∈ RM . Dann
ist zu zeigen, dass gilt:
α (β f ) = (αβ) f
und dies ist äquivalent dazu, dass gilt
(α (β f ))(x) = ((αβ) f )(x)
für alle x ∈ M
(Hier habe ich der Klarheit wegen einige eigentlich überflüssige Klammern eingefügt.)
Also sei x ∈ M , dann gilt
(α (β f ))(x) = α((β f )(x)) = α(βf (x)) = (αβ)f (x) = ((αβ) f )(x) Wie die Beispiele zeigen, haben Elemente von Vektorräumen mit Vektoren, wie
wir sie uns vorstellen, oft nicht mehr viel zu tun. Dennoch behält man diesen
Begriff gerne bei. Wenn also (V, ⊕, ) ein K-Vektorraum ist, nennt man die Elemente aus V wieder Vektoren und die Elemente aus K heißen auch Skalare.
Es ist Zeit für ein einfaches Ergebnis:
Lemma 3.3 Es seien (K, +, ·) ein Körper und (V, ⊕, ) ein K-Vektorraum.
Dann gelten für alle α ∈ K und alle v ∈ V :
(i) α v = 0V
⇐⇒ α = 0K oder v = 0V ,
dabei seien 0V das neutrale Element in (V, ⊕) und 0K das neutrale Element
in (K, +).
(ii) (−1) v = −v
Beweis (i) “⇐”: Es gilt
0K v = (0K + 0K ) v = 0K v ⊕ 0K v
nach (V2) und daher 0 v = 0V nach 2.4(i).
44
sowie
α 0V = α (0V ⊕ 0V ) = α 0V ⊕ α 0V
und daher α 0V = 0, wieder nach (V2) und 2.4(i).
“⇒” Es gelte α v = 0V . Falls α = 0K gilt, sind wir fertig. Also gelte α 6= 0K .
Dann folgt nach dem Bewiesenen:
α−1 (α v) = α−1 0V = 0V
Andererseits gilt nach (V1) und (V3):
α−1 (α v) = (α−1 · α) v = 1 v = v
und es folgt v = 0V .
(ii) Wie üblich zeige ich, dass (−1) v ⊕ v = 0V gilt, denn aus 2.4(iii) folgt dann
(−1) v = −v. Es gilt aber
(−1) v ⊕ v = (−1) v ⊕ 1 v
= (−1 + 1) v
nach (V3)
nach (V2)
= 0K v
= 0V
nach (i)
Bezeichnungsweise 3.4 Es seien (K, +, ·) ein Körper und (V, , ⊕) ein KVektorraum. Dann ist es üblich, in der Notation nicht zwischen der Addition in
K und der Addition in V zu unterscheiden, man nennt beide +. Ebenso unterscheidet man in der Notation nicht zwischen der Multiplikation in K und der
Multiplikation von Körperelementen mit Elementen aus V und läßt den Punkt
dann auch gleich noch weg, also setzt man
v+w =v⊕w
für alle v, w ∈ V
und
αv = α v
für alle α ∈ K und alle v ∈ V .
Auch das neutrale Element in K und V wird in der Regel mit demselben Zeichen,
nämlich 0 bezeichnet. Schließlich schreibt man oft V für (V, ⊕, ).
Um dieses “notationelle Chaos” etwas abzumildern werde ich die Elemente aus
K in der Regel mit kleinen griechischen Buchstaben und die Elemente aus V mit
kleinen lateinischen Buchstaben bezeichnen.
Ebenso wie für Gruppen kann man Untervektorräume, Produkte von Vektorräumen und Quotientenvektorräume definieren. Ich beginne wieder mit dem einfachsten Objekt:
45
Definition 3.5 Es seien K Körper und V ein K-Vektorraum. Eine Menge U ⊆
V heißt Untervektorraum (UVR) von V , wenn U mit den eingeschränkten
Operationen zu einem Vektorraum wird, wenn also gelten:
(UV1) U ist Untergruppe von V .
(UV2) Für alle α ∈ K und alle x ∈ U gilt αx ∈ U .
Man sieht unmittelbar, dass jeder Untervektorraum ein Vektorraum ist, denn
(V1), (V2) und (V3) sind in U erst recht erfüllt.
Ebenso wie für Untergruppen (2.9) kann man ein einfaches Kriterium dafür angeben, dass eine Teilmenge ein Untervektorraum ist:
Proposition 3.6 Es seien K ein Körper und V ein K-Vektorraum. Eine Menge
U ⊆ V ist genau dann ein Untervektorraum von V , wenn gelten:
(U1) U 6= ∅
(U2) Es gilt v + w ∈ U für alle v, w ∈ U .
(U3) Es gilt αv ∈ U für alle α ∈ K und alle v ∈ U .
Beweis Offenbar genügt jeder Untervektorraum diesen Bedingungen. Die Umkehrung folgt mit 2.9 aus der Tatsache, dass nach 3.3 für alle w ∈ U gilt −w =
(−1)w ∈ U und daher
v − w = v + (−1)w ∈ U
für alle v, w ∈ U
Beispiele 3.7
(i)
U = {(x, 0) : x ∈ R}
ist ein Untervektorraum von R2 , geometrisch kann man U als die x-Achse beschreiben.
(ii) Es seien a, b ∈ R. Dann ist
W = {(x, y) ∈ R2 : ax + by = 0}
ein Untervektorraum von R2 . Geometrisch gilt W = R2 , wenn a = b = 0 gilt,
andernfalls ist W eine Gerade durch den Nullpunkt.
(iii) Es seien K ein Körper und V ein K-Vektorraum. Dann sind V und {0}
Untervektorräume von V .
(iv) Es seien M eine Menge und x0 ∈ M . Dann ist
I(x0 ) = {f ∈ RM : f (x0 ) = 0}
ein Untervektorraum von RM .
(v) M = {(x, 1) : x ∈ R}
und
L = {(x, 0) : x ∈ R} ∪ {(0, y) : y ∈ R}
sind keine Untervektorräume von R2 .
46
Beweis
(ii) Wegen (0, 0) ∈ W gilt W 6= ∅. Es seien (x1 , x2 ), (y1 , y2 ) ∈ W und α ∈ R.
Dann gelten (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) und α(x1 , x2 ) = (αx1 , αx2 ) und
daher
a(x1 + y1 ) + b(x2 + y2 ) = ax1 + ay1 + bx2 + by2 = ax1 + bx2 + ay1 + by2 = 0
sowie
aαx1 + bαx2 = α(ax1 + bx2 ) = 0
und daher (x1 , x2 ) + (y1 , y2 ) ∈ W sowie α(x1 , x2 ) ∈ W . Nach 3.6 ist W ein
Untervektorraum.
(i) folgt aus (ii), wenn man a = 0 und b = 1 setzt.
(iii) ist klar.
(iv) ist einfach.
(v) Es gilt (0, 0) ∈
/ M , also ist M keine Untergruppe und daher kein Untervektorraum. Wegen (1, 0), (0, 1) ∈ L aber (1, 0) + (0, 1) = (1, 1) ∈
/ L ist L kein
Untervektorraum.
Lemma 3.8 Es seien K ein Körper, V ein K-Vektorraum und U1 , U2 ⊆ V Untervektorräume. Dann gelten:
(i) U1 ∩ U2 ist ein Untervektorraum von V .
(ii) U1 ∪ U2 ist genau dann ein Untervektorraum von V , wenn U1 ⊆ U2 oder
U2 ⊆ U1 gilt.
(iii) Man definiere
U1 + U2 = {v ∈ V : es gibt v1 ∈ U1 , v2 ∈ U2 mit v = v1 + v2 }
= {v1 + v2 : v1 ∈ U1 , v2 ∈ U2 }
Dann ist U1 + U2 ein Untervektorraum von V .
Beweis
(i) Am einfachsten benutzt man 3.6, und das ist eine einfache Rechnung.
(ii) Wenn U1 ⊆ U2 gilt, ist U1 ∪U2 = U2 ein Untervektorraum, analog ist U1 ∪U2 =
U1 ein Untervektorraum, wenn U2 ⊆ U1 gilt.
Nehmen wir an, dass U1 ∪ U2 ein Untervektorraum ist und dass U1 6⊆ U2 und
U2 6⊆ U1 gilt. Dann gibt es v1 ∈ U1 , v1 ∈
/ U2 und v2 ∈ U2 , v2 ∈
/ U1 . Es folgt
v1 , v2 ∈ U1 ∪ U2 und daher v1 + v2 ∈ U1 ∪ U2 . Falls nun v1 + v2 ∈ U1 gilt, erhält
man
v2 = (v1 + v2 ) − v1 ∈ U1
47
im Widerspruch zur Konstruktion. Analog führt auch die Annahme, dass v1 +v2 ∈
U2 gilt, zum Widerspruch. Also ist U1 ∪ U2 kein Untervektorraum.
(iii) Ich benutze wieder 3.6:
Wegen 0 = 0 + 0 ∈ U1 + U2 gilt U 6= ∅ und daher (U1). Also seien v, w ∈ U1 + U2
und α ∈ K, dann gibt es v1 , w1 ∈ U1 und v2 , w2 ∈ U2 so dass gilt v = v1 + v2 und
w = w1 + w2 und es folgt
v + w = v1 + v2 + w1 + w2 = (v1 + w1 ) + (v2 + w2 ) ∈ U1 + U2
also (U2) sowie
αv = α(v1 + v2 ) = αv1 + αv2 ∈ U1 + U2
und damit (U3).
Lemma 3.9 Es seien K ein Körper sowie V und W K-Vektorräume. Man definiere · : K × (V × W ) −→ V × W durch
α(v, w) = (αv, αw)
Dann ist V × W ein K-Vektorraum. (V × W trägt dabei die in 2.11 definierte
Addition.) Man nennt V × W den Produktvektorraum.
Beweis Hier sind (V1) - (V3) nachzurechnen, und das ist einfach, wenn man z.B.
R2 in 3.2(i) durch V × W ersetzt.
Proposition 3.10 Es seien K ein Körper, V ein K-Vektorraum und U ⊆ V ein
Untervektorraum. Man definiere
· : K × V /U −→ V /U
durch
α[v] = [αv]
Dann ist · wohldefiniert und V /U mit diesen Kompositionen ein K-Vektorraum.
Er heißt Quotientenvektorraum. (V /U trägt dabei die in 2.22 definierte Addition.)
Beweis Nach 2.23 ist V /U eine kommutative Gruppe. Ich zeige zunächst, dass
“·” wohldefiniert ist:
Es seien v, w ∈ V und es gelte [v] = [w]. Dann folgt v − w ∈ U und daraus
αv − αw = α(v − w) ∈ U und daraus [αv] = [αw].
Die Eigenschaften (V1), (V2) und (V3) folgen unmittelbar: z.B. (V1): Es seien
α, β ∈ K und v ∈ V , dann gilt:
α(β[v]) = α[βv] = [α(βv)] = [(αβ)v] = (αβ)[v]
48
Definition 3.11 Es seien V ein K-Vektorraum und M ⊆ V eine nicht-leere
Teilmenge. Dann heißt
L(M ) = {v ∈ V : es gibt α1 , . . . , αn ∈ K und v1 , . . . , vn ∈ M
mit v = α1 v1 + · · · + αn vn }
die lineare Hülle von M oder der von M erzeugte Untervektorraum.
Man setzt noch
L(∅) = {0} .
Bemerkung 3.12 Es seien V ein K-Vektorraum und v ∈ V . Wenn man v in
der Form
v = α1 v1 + · · · + αn vn
mit v1 , . . . , vn ∈ V und α1 , . . . , αn ∈ K darstellen kann, nennt man v auch Linearkombination von v1 , . . . , vn .
L(M ) besteht dann aus der Menge aller Linearkombinationen von (endlich vielen)
Elementen aus M .
Beispiele 3.13 In (i) - (iii) sei V = R2 .
(i) L({(1, 0), (0, 1)}) = R2 .
(ii) L({(1, 0), (1, 1)}) = R2 .
(iii) L({(1, 0), (2, 0)}) = {(x, 0) : x ∈ R}.
(iv) Es seien K ein Körper und n ∈ N. Für i ∈ {1, . . . , n} sei
ei = (0, . . . , 0, 1, 0, . . . 0) ∈ K n ,
wobei die 1 an der i.-ten Stelle steht. Dann gilt
L({e1 , . . . , en }) = K n .
Beweis (i) Offenbar ist nur “⊇” zu zeigen: Also sei (x1 , x2 ) ∈ R2 , dann folgt
(x1 , x2 ) = x1 (1, 0) + x2 (0, 1) ∈ L({(1, 0), (0, 1)})
(ii) Auch hier ist nur “⊇” zu zeigen: Es sei (x1 , x2 ) ∈ R2 , dann gilt
(x1 , x2 ) = (x1 − x2 )(1, 0) + x2 (1, 1) ∈ L({(1, 0), (1, 1)})
(iii) Man setze M = {(1, 0), (2, 0)} und U = {(x, 0) : x ∈ R}.
“⊆”: Es seien v1 , . . . , vn ∈ M und α1 , . . . , αn ∈ R. Dann gibt es x1 , . . . , xn ∈ R so
dass gilt vi = (xi , 0) für i = 1, . . . , n und es folgt
α1 v1 + · · · + αn vn = α1 (x1 , 0) + · · · + αn (xn , 0) = (α1 x1 + · · · + αn xn , 0) ∈ U
49
“⊇”: Es sei v ∈ U , dann gibt es ein x ∈ R so dass gilt v = (x, 0) und es folgt
v = x(1, 0) ∈ L(M )
(iv) Es sei (x1 , . . . , xn ) ∈ K n , dann gilt
(x1 , . . . , xn ) = x1 e1 + · · · xn en ∈ L({e1 , . . . , en })
Proposition 3.14 Es seien K ein Körper, V ein K-Vektorraum und M, A ⊆ V .
Dann gelten:
(i) M ⊆ L(M )
(ii) L(M ) ist ein Untervektorraum von V .
(iii) Es gilt M = L(M ) genau dann, wenn M ein Untervektorraum von V ist.
(iv) Aus M ⊆ A folgt L(M ) ⊆ L(A).
Beweis Offenbar gelten die Behauptungen, wenn M = ∅ gilt. Also sei im Folgenden M 6= ∅.
(i) Für alle v ∈ M gilt v = 1 · v ∈ L(M ).
(ii) Ich zeige die Bedingungen von 3.6: Es sei v ∈ M , dann gilt v = 1 · v ∈ L(M )
und daher L(M ) 6= ∅.
Es seien v, w ∈ L(M ), dann gibt es Vektoren v1 , . . . , vn , w1 , . . . , wk ∈ M und
α1 , . . . , αn , β1 , . . . , βk so dass gelten:
v = α1 v 1 + · · · + αn v n ,
und
w = β1 w1 + · · · βk wk
und es folgt
v + w = α1 v1 + · · · + αn vn + β1 w1 + · · · βk wk ∈ L(M )
(Beachten Sie, dass in der Definition von L(M ) nicht verlangt wurde, dass die
v1 , . . . , vn verschieden sind!)
Weiter sei α ∈ K, dann gilt
αv = α(α1 v1 + · · · + αn vn ) = (αα1 )v1 + · · · + (ααn )vn ∈ L(M )
(iii) Wenn M = L(M ) gilt, ist M ein Untervektorraum, da L(M ) nach (i) ein
Untervektorraum ist. Umkehrt sei M ein Untervektorraum, dann ist zu zeigen,
dass M = L(M ) gilt. “⊆” folgt aus (i). Also bleibt noch “⊇” zu zeigen: Es
sei v ∈ L(M ), dann gibt es v1 , . . . , vn ∈ M und α1 , . . . , αn ∈ K so dass gilt
v = α1 v1 + · · · + αn vn ∈ M .
(iv) Das ist klar.
50
Definition 3.15 Es seien K ein Körper und V ein K-Vektorraum. Eine Menge
M ⊆ V heißt Erzeugendensystem (EZS) von V , wenn L(M ) = V gilt.
Beispiel 3.16 Nach Beispiel 3.13 gilt:
(i) {(1, 0), (0, 1)} und {(1, 0), (1, 1)} sind EZSe von R2 .
(ii) {(1, 0), (2, 0)} ist kein EZS von R2 , aber ein EZS von {(x, 0) : x ∈ R}.
i(ii) {e1 , . . . , en } ist ein EZS von K n .
Es seien V ein K-Vektorraum, M ⊆ V eine nicht-leere Menge und v ∈ L(M ).
Dann gibt es nach Definition α1 , . . . , αn ∈ K und v1 , . . . , vn ∈ M so dass gilt v =
α1 v1 + · · · + αn vn . Man kann also v als Linearkombination von n Vektoren aus M
darstellen. Dabei ist nicht vorausgesetzt, dass die vi paarweise verschieden sind.
Gelegentlich ist es aber notwendig, eine Darstellung mit paarweise verschiedenen
vi zu betrachten. Wie beweist man deren Existenz? Nun, ich zeige zunächst einmal
anschaulich, wie das geht, den formalen Beweis verschiebe ich auf 3.17. Nehmen
wir an, es gilt v1 = v2 . Dann erhält man
v = a1 v1 + α2 v1 + α3 v3 + · · · + αn vn = (α1 + α2 )v1 + α3 v3 + · · · + αn vn
Also hat die neue Darstellung nur noch n − 1 Summanden. Sollten in dieser Darstellung immer noch zwei Vektoren gleich sein, kann man mit derselben Methode
eine Darstellung aus n − 2 Summanden konstruieren. Da es nur n Summanden
gibt, muss diese Prozedur nach endlich vielen Schritten mit einer Darstellung aus
paarweise verschiedenen Vektoren abbrechen.
Die Frage ist nun, wie man diese Beweisidee präzisiert. Das kann man durch
vollständige Induktion beweisen, dabei kann man die obige Idee direkt einssetzen. Ich zeige eine andere Version, die die Tatsache benutzt, dass jede nicht-leere
Teilmenge der natürlichen Zahlen ein kleinstes Element besitzt.
Lemma 3.17 Es seien K ein Körper, V ein K-Vektorraum und M ⊆ V eine
nicht-leere Teilmenge. Dann gibt es zu jedem v ∈ L(M ) Elemente β1 , . . . , βk aus
K und paarweise verschiedene Vektoren w1 , . . . , wk aus M so dass gilt:
v = β1 w1 + · · · + βk wk
Beweis Es sei A die Menge aller natürlichen Zahlen so dass es Vektoren v1 , . . . vn
aus M so gibt, dass v Linearkombination von v1 , . . . , vn ist. Da v ∈ L(M ) gilt,
ist A nicht-leer, sei k ihr kleinstes Element. Dann gibt es β1 , . . . , βk aus K und
w1 , . . . , wk aus M so dass gilt
v = β1 w1 + · · · + βk wk
51
Ich behaupte, dass w1 , . . . , wk paarweise verschieden sind. Annahme, das ist nicht
der Fall, dann gibt es i < j so dass gilt wi = wj . Es folgt
v = β1 w1 + · · · + βi−1 wi−1 + βi wi + βi+1 wi+1 + · · · +
+βj−1 wj−1 + βj wj + βj+1 wj+1 + · · · + βk wk
= β1 w1 + · · · + βi−1 wi−1 + (βi + βj )wi + βi+1 wi+1 + · · · +
+βj−1 wj−1 + βj+1 wj+1 + · · · + βk wk
Da die letzte Summe k − 1 Summanden enthält, gilt k − 1 ∈ A im Widerspruch
dazu, dass k das kleinste Element von A ist. Also ist die Annahme falsch und die
wi sind paarweise verschieden.
52
Kapitel 4
Basis und Dimension
In diesem Kapitel sei K ein Körper.
Dieses Kapitel beginnt mit einem der zentralen Begriffe der Linearen Algebra,
der linearen Unabhängigkeit. Diese ist nicht ganz einfach, aber bei Weitem nicht
so schwer wie der zentrale Begriff (oder einer der zentralen Begriffe) der Analysis,
Konvergenz: Zur Vorbereitung nehmen wir an, ein Vektor v eines K-Vektorraums
V sei Linearkombination der Vektoren v1 , . . . , vn . Dann gibt es α1 , . . . , αn in K
so dass gilt
v = α1 v1 + · · · + αn vn
Die Frage ist nun, ob diese Darstellung eindeutig ist. Also nehmen wir an, es gibt
eine weitere Darstellung
v = β1 v1 + · · · + βn vn
Wenn die Darstellungen verschieden sind, gibt es ein i so dass gilt αi 6= βi .
Nehmen wir der Einfachheit halber an, es gilt i = 1, d.h. α1 6= β1 , dann folgt:
0 = v − v = (α1 − β1 )v1 + · · · + (αn − βn )vn
Also haben wir 0 als Linearkombination von v1 , . . . vn dargestellt. Nun, dass dies
möglich ist, ist nicht überraschend, denn es gilt natürlich
0 = 0 · v1 + · · · + 0 · vn
Der Punkt daran ist, dass in der ersten Darstellung eben nicht alle Koeffizienten
gleich Null sind: Wegen α1 6= β1 gilt α1 − β1 6= 0. Und diese Beobachtung ist
entscheidend:
Definition 4.1 Es sei V ein K-Vektorraum. Die Vektoren v1 , . . . , vn aus V heißen
linear abhängig, wenn es Elemente α1 , . . . , αn aus K gibt, die nicht alle gleich
0 sind, so dass gilt
α1 v1 + · · · + αn vn = 0
53
linear unabhängig, wenn für alle α1 , . . . αn aus K aus
α1 v1 + · · · + αn vn = 0
stets folgt, dass gilt:
α1 = · · · = αn = 0
Bemerkung 4.2 Offenbar sind die Vektoren v1 , . . . , vn genau dann linear abhängig,
wenn sie nicht linear unabhängig sind.
Es gilt stets 0 · v1 + · · · + 0 · vn = 0, diese Linearkombination nennt man auch
trivial. Also sind v1 , . . . , vn genau dann linear abhängig, wenn man 0 als nichttriviale Linearkombination von v1 , . . . , vn darstellen kann, und die Vektoren sind
genau dann linear unabhängig, wenn man 0 nur als triviale Linearkombination
von v1 , . . . , vn darstellen kann.
Beispiele 4.3
(i) Die Vektoren (1, 0), (2, 0) in R2 sind linear abhängig.
(ii) Die Vektoren (1, 0), (1, 1) in R2 sind linear unabhängig.
(iii) Die Vektoren (1, 0, 1), (1, 1, 0), (3, 1, 3) in R3 sind linear unabhängig.
(iv) Die Vektoren e1 , . . . , en in K n sind linear unabhängig.
Es sei V ein K-Vektorraum. Dann gelten weiterhin:
(v) Ein Vektor v ∈ V ist genau dann linear unabhängig, wenn v 6= 0 gilt.
(vi) Die Vektoren v1 , . . . , vn in V sind linear abhängig, wenn vi = 0 für ein i gilt.
(vii) Die Vektoren v1 , . . . , vn in V sind linear abhängig, wenn zwei der Vektoren
gleich sind.
Beweis
(i) Es gilt
2(1, 0) + (−1)(2, 0) = 2(1, 0) − 1 · (2, 0) = (0, 0)
und das ist eine nicht-triviale Darstellung der 0.
(ii) Ich betrachte eine Darstellung der 0:
α(1, 0) + β(1, 1) = (0, 0)
Die Vektoren sind genau dann linear abhängig, wenn man α und β so wählen
kann, dass nicht beide = 0 sind, andernfalls sind sie linear unabhängig. Aus
dieser Darstellung folgt:
(α + β, β) = (0, 0)
und daraus α + β = β = 0, also α = β = 0.
Also kann man 0 nicht als nicht-triviale Linearkombination von (1, 0), (1, 1) darstellen und die Vektoren sind daher linear unabhängig.
54
(iii) Das wird in der Großen Übung bewiesen.
(iv) Es gelte
α1 e1 + · · · + αn en = (0, . . . , 0)
dann folgt
(α1 , . . . , αn ) = (0, . . . , 0)
und daraus α1 = · · · = αn = 0.
(v) Es gelte v 6= 0 und αv = 0, dann folgt α = 0 nach 3.3. Also ist v linear
unabhängig, wenn v 6= 0 gilt.
Andererseits gilt für v = 0:
0=1·0=1·v
und das ist eine Darstellung der 0 als nicht-triviale Linearkombination. Also ist
v in diesem Fall linear abhängig.
(vi) Es gelte vi = 0, dann folgt:
0 · v1 + · · · + 0 · vi−1 + 1 · vi + 0 · vi+1 + · · · + 0 · vn = 0
und das ist eine Darstellung der 0 als nicht-triviale Linearkombination von v1 , . . . , vn .
(vii) Es gelte vi = vj für i < j, dann gilt:
0 · v1 + · · · + βi−1 vi−1 + 1 · vi + 0 · vi+1 + · · · +
+0 · vj−1 + (−1)vj + 0 · vj+1 + · · · + 0 · vn = 0
Formal ist der Beweis der linearen Abhängigkeit etwas einfacher als der für die
lineare Unabhängigkeit: Man muss einfach zeigen, dass es eine Darstellung der
0 als nicht-triviale Linearkombination gibt. Allerdings stellt sich bei näherer Betrachtung heraus, dass auch das nur zwei Seiten derselben Medaille sind, denn so
eine Linearkombination muss man ja finden.
Es ist nun ohne Mühe möglich, die lineare Unabhängigkeit bzw. Abhängigkeit
beliebiger Mengen zu definieren:
Definition 4.4 Es sei V ein K-Vektorraum. Eine Menge M ⊆ V heißt linear
unabhängig, wenn je endlich viele paarweise verschiedenen Vektoren v1 , . . . , vn
aus M linear unabhängig sind. Die Menge heißt linear abhängig, wenn sie nicht
linear unabhängig ist, wenn es also endlich viele paarweise verschiedene Vektoren
v1 , . . . , vn aus M gibt, die linear abhängig sind.
Die folgende Bemerkung kann man ohne Mühe beweisen:
55
Bemerkung 4.5 Es sei V ein K-Vektorraum.
(i) Jede Teilmenge einer linear unabhängigen Menge ist linear unabhängig, jede
Obermenge einer linear abhängigen Menge ist linear abhängig.
(ii) ∅ ist linear unabhängig. Es gelte 0 ∈ M ⊆ V , dann ist M linear abhängig.
Die Kraft der linearen Unabhängigkeit ergibt sich aus:
Proposition 4.6 Es seien V ein K-Vektorraum und v1 , . . . vn linear unabhängige
Vektoren in V . Dann gibt es zu jedem v ∈ L({v1 , . . . , vn }) eindeutig bestimmte
α1 , . . . , αn ∈ K, so dass gilt
v = α1 v1 + · · · + αn vn .
Beweis Die Existenz einer Darstellung folgt unmittelbar aus der Definition der
linearen Hülle. Also gelte
α1 v1 + · · · αn vn = v = β1 v1 + · · · + βn vn
dann folgt
(α1 − β1 )v1 + · · · + (αn − βn )vn = 0
Da v1 , . . . , vn linear unabhängig sind, folgt daraus
α1 − β1 = · · · = αn − βn = 0
also α1 = β1 , . . . , αn = βn .
Definition 4.7 Es sei V ein K-Vektorraum. Eine Menge B ⊆ V heißt Basis
von V , wenn gelten:
(B1)
B ist ein Erzeugendensystem von V
(B2)
B ist linear unabhängig.
Beispiele 4.8
(i) {(1, 0), (0, 1)} ist eine Basis von R2
(ii) {(1, 0), (1, 1)} ist eine Basis von R2
(iii) {e1 , . . . , en } ⊆ K n ist eine Basis von K n . Sie heißt die kanonische Basis
oder Standardbasis von K n .
Beweis (ii) und (iii) folgen direkt aus 3.16 und 4.3, (i) ist ein Spezialfall von (iii).
56
Proposition 4.9 Es seien V ein K-Vektorraum und B = {v1 , . . . vn } ⊆ V . Dann
sind äquivalent:
(i) B ist eine Basis von V .
(ii) Zu jedem v ∈ V gibt es eindeutig bestimmte Skalare α1 , . . . , αn aus K so dass
gilt:
v = α1 v1 + · · · + αn vn .
Beweis “(i) ⇒ (ii)”: Da B ein EZS von V ist, kann man jeden Vektor aus V so
darstellen. Die Eindeutigkeit folgt aus 4.6.
“(ii) ⇒ (i)”: Da man jeden Vektor aus V als Linearkombination von Elementen
aus B darstellen kann, ist B ein EZS. Um zu zeigen, dass B linear unabhängig
ist, nehme ich an, es gelte
α1 v1 + · · · + αn vn = 0
Offenbar gilt aber auch
0 · v1 + · · · + 0 · vn = 0
und da die Darstellung eindeutig ist, folgt α1 = · · · = αn = 0, also ist B linear
unabhängig.
Die Frage ist nun, wie man Basen eines Vektoraums findet. Dazu gibt die folgende
Proposition einen starken Hinweis, vorher beweise ich aber ein Lemma, das sich
bei ihrem Beweis als sehr nützlich erweist.
Lemma 4.10 Es sei V ein K-Vektorraum.
(i) Es sei n ≥ 2. Die Vektoren v1 , . . . , vn in V sind genau dann linear abhängig,
wenn es ein i ∈ {1, . . . , n} und Elemente α1 , . . . , αi−1 , αi+1 , . . . αn aus K so gibt,
dass gilt
vi = α1 v1 + · · · + αi−1 vi−1 + αi+1 vi+1 + · · · + αn vn
wenn also einer von ihnen als Linearkombination der anderen darstellbar ist.
(ii) Eine Menge M ⊆ V ist genau dann linear abhängig, wenn es ein v ∈ M so
gibt, dass gilt v ∈ L(M \ {v}).
Beweis
(i) Wenn die Vektoren v1 , . . . , vn linear abhängig sind, gibt es Elemente β1 , . . . , βn
aus K, die nicht alle 0 sind so dass gilt
β1 v1 + · · · + βn vn = 0
Es gelte βi 6= 0, dann folgt
vi = −
βi−1
βi+1
βn
β1
v1 − · · · −
vi−1 −
vi+1 − · · · − vn
βi
βi
βi
βi
57
Umgekehrt gelte
vi = α1 v1 + · · · + αi−1 vi−1 + αi+1 vi+1 + · · · + αn vn
dann folgt
α1 v1 + · · · + αi−1 vi−1 + (−1) · vi + αi+1 vi+1 + · · · + αn vn = 0
und das ist eine nicht-triviale Linearkombination, da −1 6= 0 gilt.
(ii) Es sei M ⊆ V linear abhängig, dann gibt es paarweise verschiedene Vektoren
v1 , . . . , vn in M , die linear abhängig sind. Falls n = 1 gilt, folgt v1 = 0 nach 4.3
und daraus v1 = 0 ∈ L(∅) ⊆ L(M \ {v1 }). Falls n ≥ 2 gilt, gibt es nach (i) ein
i ∈ {1, . . . , n} und Elemente α1 , . . . , αi−1 , αi+1 , . . . αn aus K so gibt, dass gilt
vi = α1 v1 + · · · + αi−1 vi−1 + αi+1 vi+1 + · · · + αn vn
Es folgt vi ∈ L({v1 , . . . , vi−1 , vi+1 , . . . vn }) ⊆ L(M \ {vi }).
Umgekehrt gebe es ein v ∈ M so dass gilt v ∈ L(M \ {v}). Nach 3.17 gibt
es dann paarweise verschiedene Elemente v1 , . . . vn aus M \ {v}) und Elemente
α1 , . . . , ∈ K so dass gilt
v = α1 v1 + · · · + αn vn
Dann sind v, v1 , . . . , vn paarweise verschiedene Vektoren aus M , die nach (i) linear abhängig sind. Also ist M linear abhängig.
Man beachte, dass die Aussage aus 4.10(i) für n = 1 nicht richtig ist: Wenn
v1 linear abhängig ist, kann man es nicht als Linearkombination der anderen
schreiben, denn es gibt keine anderen!
Proposition 4.11 Es seien V ein K-Vektorraum und B ⊆ V . Dann sind äquivalent:
(i) B ist eine Basis von V .
(ii) B ist ein minimales Erzeugendensystem von V, d.h. es gibt kein Erzeugendensystem B0 von V mit B0 ⊂ B.
(iii) B ist eine maximale linear unabhängige Menge, d.h. es gibt keine linear
unabhängige Menge B0 ⊆ V mit B ⊂ B0 .
Beweis Man beachte, dass in dieser Vorlesung das Zeichen “⊂” für “echte Teilmenge” steht, also die Gleichheit nicht zuläßt.
Leider gibt es keinen schönen Ringbeweis, ich zeige, dass gilt:
(i) ⇐⇒ (ii)
und
58
(i) ⇐⇒ (iii)
“(i) ⇒ (ii)” Da B als Basis ein EZS ist, muss noch gezeigt werden, dass B
ein minimales EZS ist. Angenommen, es gibt ein EZS B0 ⊂ B. Man wähle ein
v ∈ B, v ∈
/ B0 . Dann gilt B0 ⊆ B \ {v} und daher v ∈ L(B0 ) ⊆ L(B \ {v}). Also
ist B nach 4.10(ii) linear abhängig. Widerspruch.
“(ii) ⇒ (i)”: Es ist zu zeigen, dass B linear unabhängig ist: Angenommen, das ist
nicht der Fall, dann gibt es nach 4.10(ii) ein v ∈ B so dass gilt v ∈ L(B \ {v}).
Sei B0 = B \ {v}), dann zeige ich, dass B0 ein EZS ist. Wegen v ∈ L(B0 ) gilt
B ⊆ L(B0 ). Da L(B0 ) ein Untervektorraum ist, folgt V = L(B) ⊆ L(B0 ), d.h.
L(B0 ) = V , also ist B0 ein EZS, das echt in B enthalten ist. Widerspruch.
“(i) ⇒ (iii)”: Es sei B0 ⊃ B, dann wähle man ein v ∈ B0 , v ∈
/ B. Da B eine Basis
von V ist, gilt v ∈ L(B) ⊆ L(B0 \ {v}). Also ist B0 nach 4.10(ii) linear abhängig.
Also ist B eine maximale linear unabhängige Menge.
“(iii) ⇒ (i)”: Es ist zu zeigen, dass B ein EZS ist. Sei also v ∈ V . Falls v ∈ B gilt,
folgt v ∈ L(B). Falls aber v ∈
/ B gilt, folgt B ⊂ B ∪ {v} = B0 und nach Annahme
ist B0 nicht linear unabhängig, also linear abhängig. Daher gibt es endliche viele,
paarweise verschiedene linear abhängige Vektoren in B0 . Da B linear unabhängig
ist, muss v einer von ihnen sein. Also gibt es v1 , . . . , vn ∈ B und α, α1 , . . . , αn ∈ K
nicht alle = 0, so dass gilt
αv + α1 v1 + · · · + αn vn = 0
Falls α = 0 gilt, folgt
α1 v1 + · · · + αn vn = 0
und daraus α1 = · · · = αn = 0, da die Vektoren v1 , . . . , vn linear unabhängig sind,
im Widerspruch zur Wahl von α, α1 , . . . , αn . Man erhält α 6= 0 und es folgt
v=
1
(α1 v1 + · · · + αn vn ) ∈ L(B)
α
4.11 gibt eine Idee, wie man eine Basis eines Vektorraums V finden kann: Man
wähle ein EZS M1 von V . Wenn dieses minimal ist, ist M1 eine Basis. Andernfalls
gibt es ein EZS M2 ⊂ M1 . Wenn dieses keine Basis ist, gibt es ein EZS M3 ⊂ M2 .
Leider ist es nun so, dass dieses Verfahren nicht immer abbricht. In einem äußerst
wichtigen Spezialfall ist das aber so:
Definition 4.12 Ein K-Vektorraum V heißt endlich-dimensional, wenn er
ein endliches Erzeugendensystem besitzt.
Beispiele 4.13
(i) K n ist endlich-dimensional.
(ii) Es sei M eine Menge. Dann ist RM genau dann endlich-dimensional, wenn
M endlich ist.
59
Beweis
(i) {e1 , . . . , en } ist eine Basis, also ein EZS von K n .
(ii) Ist eine Übungsaufgabe.
Satz 4.14 Jeder endlich-dimensionale K-Vektorraum V besitzt eine endliche Basis. In der Tat gilt: Jedes endliche Erzeugendensystem von V enthält eine Basis
von V .
Beweis Es sei M0 ein endliches EZS von V . Man setze
A = {k ∈ N ∪ {0} : es gibt ein EZS B ⊆ M0 von V mit k Elementen}
Dann gilt A 6= ∅ nach Voraussetzung. Also besitzt A ein kleinstes Element n. Sei
B ⊆ M ein EZS mit n Elementen, dann ist B offenbar ein minimales EZS und
nach 4.11 eine Basis von V .
Wie 3.7 zeigt, besitzt ein K-Vektorraum in der Regel mehrere Basen. Aber alle
Basen eines endlich-dimensionalen K-Vektorraumes haben gleichviele Elemente
und zwei Vektorräume mit Basen aus gleichvielen Elementen sind strukturell sehr
ähnlich (sie sind “isomorph”).
Der Beweis dieser Tatsachen ist aber etwas aufwendiger und soll im folgenden
geführt werden. Das Schlüsselresultat dazu ist die folgende
Proposition 4.15 (Austauschlemma) Es seien V ein K-Vektorraum, {v1 , . . . vn }
eine Basis von V und es gelte für ein w ∈ V :
w = β1 v1 + · · · + βn vn
mit β1 , . . . βn ∈ K. Weiterhin gelte βk 6= 0 für ein k ∈ {1, . . . n}. Dann ist
B0 = {v1 , . . . , vk−1 , w, vk+1 , . . . vn }
eine Basis von V . (D.h. man kann vk in der Basis gegen w austauschen.)
Beweis Indem man die Vektoren v1 , . . . , vn umnummeriert, kann man annehmen,
dass k = n, also βn 6= 0 gilt.
Beweis von (B1): Es ist zu zeigen, dass B0 ein EZS ist:
Aus
w = β1 v1 + · · · + βn vn
folgt:
vn =
β1
βn−1
1
w − v1 − · · · −
vn−1 ∈ L(B0 )
βn
βn
βn
Man erhält B ⊆ L(B0 ) und daraus V = L(B) ⊆ L(B0 ), also V = L(B0 ).
60
Beweis von (B2): Es ist zu zeigen, dass B0 linear unabhängig ist:
Es gelte
α1 v1 + · · · + αn−1 vn−1 + αw = 0
Dann folgt:
α1 v1 + · · · + αn−1 vn−1 + αβ1 v1 + · · · + αβn vn = 0
und daraus:
(α1 + αβ1 )v1 + · · · + (αn−1 + αβn−1 )vn−1 + αβn vn = 0
Da B linear unabhängig ist, folgt:
α1 + αβ1 = · · · = αn−1 + αβn−1 = αβn = 0
Aus αβn = 0 und βn 6= 0 folgt α = 0 und daraus
α1 = · · · = αn−1 = 0
Der Beweis des nachfolgenden Satzes benutzt das Prinzip der vollständigen Induktion, das in der Analysis bewiesen wird. Der Vollständigkeit halber formuliere
ich es:
Prinzip der vollständigen Induktion Für alle n ∈ N sei A(n) eine Aussage.
Es gelte:
• A(1) ist richtig.
• Für alle n ∈ N gilt: Wenn A(n) richtig ist, ist auch A(n+1) richtig.
Dann ist A(n) für alle n ∈ N richtig.
Satz 4.16 (Austauschsatz von Steinitz) Es seien V ein K-Vektorraum, B =
{v1 , . . . vn } eine Basis von V und w1 , . . . wk linear unabhängige Vektoren in V .
Dann gilt k ≤ n.
Wenn k = n gilt, ist {w1 , . . . , wk } ein Basis von V . Wenn k < n gilt, gibt es
Vektoren uk+1 , . . . un aus B so dass {w1 , . . . , wk , uk+1 , . . . un } eine Basis von V
ist. (Man erhält also eine Basis von V , indem man k “geeignete” Vektoren aus
B durch w1 , . . . wk ersetzt.)
Beweis Der Beweis erfolgt durch vollständige Induktion nach k.
Induktionsanfang Es gelte k = 1, dann gibt es α1 , . . . , αn aus K so dass gilt
w1 = α1 v1 + · · · + αn vn
61
Da {w1 } linear unabhängig ist, gilt w1 6= 0 und daher αr 6= 0 für ein r. Die
Behauptung folgt jetzt aus dem Austauschlemma (4.15).
Induktionsannahme Die Behauptung gelte für ein festes k.
Induktionsschritt Es seien w1 , . . . , wk+1 linear unabhängige Vektoren in V .
Dann sind w1 , . . . , wk linear unabhängige Vektoren und aus der Induktionsannahme folgt:
Es gilt k ≤ n. Wenn k = n gilt, ist {w1 , . . . , wk } eine Basis von V und wenn
k < n gilt, kann man k Vektoren aus B durch w1 , . . . , wk ersetzen.
Nehmen wir zunächst an, dass k = n gilt, dann ist {w1 , . . . , wk } eine Basis,
die echt in der linear unabhängigen Menge {w1 , . . . , wk+1 } enthalten ist. Also ist
{w1 , . . . , wk } keine maximale linear unabhängige Menge im Widerspruch zu 4.11.
Also gilt k < n und daher k + 1 ≤ n. Nach Induktionsannahme gibt es Vektoren
uk+1 , . . . , un aus B so dass
B0 = {w1 , . . . , wk , uk+1 , . . . , un }
eine Basis von V ist. Daher gibt es β1 , . . . , βn so dass gilt
wk+1 = β1 w1 + · · · + βk wk + βk+1 uk+1 + · · · + βn un
Angenommen, βk+1 = . . . = βn = 0, dann erhält man
wk+1 = β1 w1 + · · · + βk wk
Nach 4.10(i) sind dann w1 , . . . , wk+1 linear abhängig, Widerspruch. Also gilt βr 6=
0 für ein r > k und nach dem Austauschlemma ist
{w1 , . . . , wk , wk+1 , uk+1 , . . . , ur−1 , ur+1 , . . . , un }
eine Basis von V . (Man kann also ur gegen wk+1 austauschen.) Wenn nun n = k+1
gilt, folgt B0 = {w1 , . . . , wk+1 } und daher ist {w1 , . . . , wk+1 } eine Basis von V . Satz 4.17 Es sei V ein endlich-dimensionaler K-Vektorraum. Dann besitzt V
eine endliche Basis. Alle Basen von V sind endlich und haben gleichviele Elemente.
Beweis Die Behauptung gilt offenbar für V = {0}, denn ∅ ist die einzige linear
unabhängige Teilmenge von V und gleichzeitig eine Basis. Also gelte V 6= {0}.
Nach 4.14 besitzt V eine endliche Basis B0 = {v1 , . . . , vn }. Sei B eine weitere
Basis, dann ist B linear unabhängig und nach dem Austauschsatz von Steinitz
(4.16) hat B höchstens n Elemente, es gelte B = {w1 , . . . , wk }, dann folgt also
k ≤ n. Da B0 linear unabhängig und B eine Basis ist, folgt, nochmal aus dem
Austauschsatz, dass n ≤ k gilt.
4.17 ist eine der fundamentalen Eigenschaften endlich-dimensionaler Vektorräume,
die eine Reihe äußerst wichtiger Konsequenzen hat:
62
Definition 4.18 Es sei V ein endlich-dimensionaler K-Vektorraum. (Dann besitzt V eine endliche Basis.) Die Anzahl der Elemente einer beliebigen Basis heißt
die Dimension von V und wird mit
dim V
oder genauer
dimK V
bezeichnet. Wenn dim V = n gilt, sagt man auch, V sei ein n-dimensionaler
Vektorraum. Gelegentlich schreibt man dim V = ∞ und sagt, die Dimension von
V sei unendlich, wenn V nicht endlich-dimensional ist.
Beispiel 4.19 dim K n = n.
Beweis Nach 4.8(iii) ist {e1 , . . . , en } eine Basis von K n .
Proposition 4.20 Es seien V ein n-dimensionaler K-Vektorraum. Dann gelten:
(i) Jede linear unabhängige Teilmenge von V enthält höchstens n Elemente und
ist in einer Basis enthalten.
(ii) Jedes EZS von V enthält wenigstens n Elemente und enthält eine Basis.
Beweis (i) Das folgt direkt aus 4.16.
(ii) Man beachte, dass nach 4.14 jedes endliche EZS eine Basis enthält. Seien also M ⊆ V ein EZS und B = {v1 , . . . , vn } eine Basis von V . Für alle
i ∈ {1, . . . , n} gibt es dann eine endliche Menge Mi ⊆ M so dass gilt vi ∈ L(Mi ).
Sei M0 = M1 ∪ . . . ∪ Mn ⊆ M , dann ist M0 endlich und es gilt B ⊆ L(M0 ), also
V = L(B) ⊆ L(M0 ). Daher ist M0 ein endliches EZS und enthält daher nach 4.14
eine Basis.
4.20 besagt zum Beispiel, dass jede Teilmenge von K n mit mehr als n Elementen
linear abhängig ist und dass eine Teilmenge von K n , die weniger als n Elemente
enthält, kein Erzeugendensystem ist.
Satz 4.21 Es seien V ein endlich-dimensionaler K-Vektorraum mit dim V =
n und B = {v1 , . . . , vn } ⊆ V eine n-elementige Teilmenge von V . Dann sind
äquivalent:
(i) B ist Basis von V .
(ii) B ist linear unabhängig.
(iii) B ist EZS von V .
Beweis Der Beweis folgt unmittelbar aus 4.20: Offenbar gelten “(i) ⇒ (ii)” und
“(i) ⇒ (iii)”. Wenn aber B linear unabhängig ist, enthält B nach 4.20 eine Basis
B0 . Wegen dim V = n enthält aber B0 ebenfalls n Elemente und es folgt B = B0 .
Wenn B andererseits ein EZS ist, enthält es nach 4.20 eine Basis B1 , die wiederum
n Elemente enthält. Also gilt B = B1 .
63
Beispiel 4.22 Jede n-elementige, linear unabhängige Teilmenge von K n ist eine
Basis von K n . Jedes n-elementige EZS von K n ist eine Basis von K n .
Proposition 4.23 Es seien V ein endlich-dimensionaler K-Vektorraum und U ⊆
V ein Untervektorraum. Dann ist U endlich-dimensional und es gilt dim U ≤
dim V .
Es gilt U = V genau dann, wenn dim U = dim V gilt.
Beweis Jede linear unabhängige Teilmenge von U ist eine linear unabhängige
Teilmenge von V und besitzt daher nach 4.21 höchstens dim V Elemente. Man
wähle ein maximales k so dass U eine linear unabhängige Menge M = {v1 , . . . , vk }
mit k Elementen enthält. Dann ist M eine maximale linear unabhängige Teilmenge von U und daher nach 4.11 eine Basis von U . Nach 4.20 gilt dim U = k ≤
dim V .
Offenbar gilt dim U = dim V , wenn U = V gilt. Wenn aber dim U = dim V = n
gilt, sei B eine Basis von U . Dann enthält B aber n Elemente und nach 4.21 ist
B eine Basis von V . Es folgt U = L(B) = V .
Proposition 4.24 Es seien V ein endlich-dimensionaler K-Vektorraum und U, W ⊆
V Untervektorräume. Dann gilt:
dim(U + W ) = dim U + dim W − dim(U ∩ W ) .
Beweis Man wähle eine Basis B0 = {v1 , . . . , vk } von U ∩ W . Dann ist B0 eine
linear unabhängige Teilmenge von U und eine linear unabhängige Teilmenge von
W . Nach 4.20 gibt es Basen BU ⊇ B0 und BW ⊇ B0 von U bzw. W . Es gelte BU =
{v1 , . . . , vk , uk+1 , . . . , ur } und BW = {v1 , . . . , vk , wk+1 , . . . , ws }. Ich behaupte, dass
B = {v1 , . . . , vk , uk+1 , . . . , ur , wk+1 , . . . ws }
eine Basis von U + W ist:
“EZS”: Wegen L(B) ⊇ L(BU ) = U und L(B) ⊇ L(BW ) = W gilt U ∪ W ⊆ L(B)
und daher U + W ⊆ L(B) und daher L(B) = U + W . Also ist B ein EZS von
U + W.
“Lineare Unabhängigkeit”: Es seien α1 , . . . , αk , βk+1 , . . . , βr , γk+1 , . . . , γs Elemente
aus K und es gelte:
α1 v1 + · · · + αk vk + βk+1 uk+1 + · · · + βr ur + γk+1 wk+1 + · · · + γs ws = 0
Dann folgt
α1 v1 + · · · + αk vk + βk+1 uk+1 + · · · + βr ur = −γk+1 wk+1 − · · · − γs ws ∈ U ∩ W
64
(Die linke Seite gehört offenbar zu U und die rechte zu W .) Also gibt es eindeutig
bestimmte δ1 , . . . , δk so dass gilt
−γk+1 wk+1 − · · · − γs ws = δ1 v1 + · · · + δk vk
Es folgt
δ1 v1 + · · · + δk vk + γk+1 wk+1 + · · · + γs ws = 0
Da aber BW eine Basis von W ist, ist diese Menge linear unabhängig, also folgt
δ1 = · · · = δk = γk+1 = · · · = γs = 0
und man erhält
α1 v1 + · · · + αk vk + βk+1 uk+1 + · · · + βr ur = 0
Da BU eine Basis von W ist, folgt daraus
α1 = · · · = αk = βk+1 = · · · = βr = 0
Also gilt
dim(U + W ) = r + s − k = dim U + dim W − dim(U ∩ W )
Proposition 4.25 Es seien V ein endlich-dimensionaler K-Vektorraum und U ⊆
V ein Untervektorraum. Dann ist V /U endlichdimensional und es gilt
dim V /U = dim V − dim U
Beweis Nach 4.23 ist U endlichdimensional, besitzt also nach 4.17 eine endliche
Basis B0 = {v1 , . . . , vk }. Dann ist B0 eine linear unabhängige Teilmenge von
V und nach 4.20 es gibt eine Basis B von V , in der B0 enthalten ist. Es gelte
B = {v1 , . . . , vn }. Ich behaupte, dass
{[vk+1 ], . . . , [vn ]}
eine Basis von V /U ist:
“EZS”: Es sei v ∈ V , dann gibt es Elemente α1 , . . . , αn so dass gilt v = α1 v1 +
. . . + αn vn . Es folgt
[v] = [α1 v1 + . . . , αn vn ] = α1 [v1 ] + · · · + αn [vn ] = αk+1 [vk+1 ] + · · · + αn [vn ]
da v1 , . . . , vk Elemente von U sind.
“Lineare Unabhängigkeit”: Es gelte
αk+1 [vk+1 ] + · · · + αn [vn ] = [0]
65
dann folgt
[αk+1 vk+1 + . . . + αn vn ] = [0]
und daraus αk+1 vk+1 + . . . + αn vn ∈ U . Also gibt es α1 , . . . , αk aus K so dass gilt
αk+1 vk+1 + . . . + αn vn = α1 v1 + . . . + αk vk
Es folgt
−α1 v1 − · · · − αk vk + αk+1 vk+1 + . . . + αn vn = 0
und daraus α1 = · · · = αn = 0, da B eine Basis ist.
66
Kapitel 5
Lineare Abbildungen
Auch in diesem Kapitel sei K ein Körper.
Wenn man in der Mathematik Strukturen auf Mengen betrachtet, betrachtet man
immer auch die Abbildungen, die diese Strukturen “respektieren”. Abbildungen
dieses Typs nennt man oft Homomorphismen, also betrachtet man Gruppenhomomorphismen, Ringhomomorphismen und eben auch Vektorraumhomomorphismen:
Definition 5.1 Es seien V und W K-Vektorraäume. Eine Abbildung ϕ : V →
W heißt linear (genauer: K-linear) oder K-Vektorraumhomomorphismus,
wenn für alle u, v ∈ V und alle α ∈ K gelten:
(L1) ϕ(u + v) = ϕ(u) + ϕ(v)
(L2) ϕ(αv) = αϕ(v)
Die Menge aller linearen Abbildungen von V nach W wird mit L(V, W ) bezeichnet.
Ich denke, es ist klar, dass man anstelle des ziemlich länglichen Begriffs “KVektorraumhomomorphismus” lieber den kurzen Begriff “linear” benutzt.
Die Bedingung (L1) besagt, dass ϕ ein Gruppenhomomorphismus (vgl. Übungsaufgabe 9) ist, aber ich werde im Folgenden keine Ergebnisse der Übungsaufgaben
benutzen.
Beispiele 5.2
(i) Die Abbildung ϕ : R2 −→ R2 definiert durch
ϕ(x1 , x2 ) = (2x1 , x1 − 3x2 )
ist linear.
67
(ii) Die Abbildung ϕ : R2 −→ R definiert durch
ϕ(x1 , x2 ) = x1 x2
ist nicht linear.
(iii) Es seien a, b, c, d ∈ R. Dann ist die Abbildung ϕ : R2 −→ R2 definiert durch
ϕ(x1 , x2 ) = (ax1 + bx2 , cx1 + dx2 )
linear.
(iv) Es sei i ∈ {1, . . . n}. Dann ist die Abbildung
pi : Rn −→ R
definiert durch
pi (x1 , . . . xn ) = xi
linear. Sie heißt die i.-te Projektion.
(v) Es sei V und W K-Vektorräume. Dann ist die “Nullabbildung” 0 : V −→ W
definiert durch
0(v) = 0 für alle v ∈ V
linear.
(vi) Es seien V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Dann ist
die Abbildung
πU : V → V /U
definiert durch
πU (v) = [v]
linear.
(vii) Es seien M eine Menge und x0 ∈ M . Dann ist die Abbildung
xb0 : RM −→ R
definiert durch
xb0 (f ) = f (x0 )
linear.
Beweis Die Beweise sind alle einfache Rechenaufgaben, ich zeige (ii) und (iii):
(ii) Es gilt ϕ((1, 0) + (0, 1)) = ϕ(1, 1) = 1, aber ϕ(1, 0) + ϕ(0, 1) = 0 + 0 = 0 und
daher
ϕ((1, 0) + (0, 1)) 6= ϕ(1, 0) + ϕ(0, 1)
und daher ist (L1) verletzt.
68
(iii) Es seien (x1 , x2 ), (y1 , y2 ) ∈ R2 und α, β ∈ R, dann gilt:
ϕ((x1 , x2 ) + (y1 , y2 )) = ϕ(x1 + y1 , x2 + y2 )
= (a(x1 + y1 ) + b(x2 + y2 ), c(x1 + y1 ) + d(x2 + y2 ))
= (ax1 + ay1 + bx2 + by2 , cx1 + cy1 + dx2 + dy2 )
und daher
ϕ(x1 , x2 ) + ϕ(y1 , y2 ) = (ax1 + bx2 , cx1 + dx2 ) + (ay1 + by2 , cy1 + dy2 )
= (ax1 + bx2 + ay1 + by2 , cx1 + dx2 + cy1 + dy2 )
= ϕ((x1 , x2 ) + (y1 , y2 ))
also gilt (L1). Weiterhin gilt:
ϕ(α(x1 , x2 )) = ϕ(αx1 , αx2 )
= (aαx1 + bαx2 , cαx1 + dαx2 )
= α(ax1 + bx2 , cx1 + dx2 )
= αϕ(x1 , x2 )
und daher (L2).
Es wird sich herausstellen, dass alle linearen Abbildungen von R2 nach R2 die
in 5.2 gegebene Form haben, daher habe ich dieses Beispiel so ausführlich gerechnet. Ich beginne nun, wie immer, mit einigen einfachen Eigenschafen linearer
Abbildungen:
Lemma 5.3 Es seien V und W K-Vektorräume und ϕ : V → W eine lineare
Abbildung. Dann gelten:
(i) ϕ(0) = 0.
(ii) ϕ(−v) = −ϕ(v) für alle v ∈ V .
Beweis Dies folgt auch aus Übungsaufgabe (9), ich führe daher einen strukturell
anderen Beweis, in dem ich 3.3 benutze:
(i) Es gilt
ϕ(0) = ϕ(0 · 0) = 0 · ϕ(0) = 0
(ii) Es gilt
ϕ(−v) = ϕ((−1)v) = (−1)ϕ(v) = −ϕ(v)
und daher ϕ(−v) = −ϕ(v).
69
Proposition 5.4 Es seien V und W K-Vektorräume, ϕ : V → W eine lineare
Abbildung und U ⊆ V sowie Y ⊆ W Untervektorräume. Dann ist ϕ(U ) ein
Untervektorraum von W und ϕ−1 (Y ) ist ein Untervektorraum von V .
Beweis Ich beweise wieder die Eigenschaften aus 3.6:
Behauptung ϕ(U ) ist ein Untervektorraum von W .
Beweis
(U1): Es gilt ϕ(0) ∈ ϕ(U ).
(U2) Es gelte w1 , w2 ∈ ϕ(U ), dann gibt es u1 , u2 ∈ U so dass gilt w1 = ϕ(u1 ) und
w2 = ϕ(u2 ) und es folgt mit (L1):
w1 + w2 = ϕ(u1 ) + ϕ(u2 ) = ϕ(u1 + u2 ) ∈ ϕ(U )
(U3) Es seien α ∈ K und w ∈ ϕ(U ), dann gibt es ein u ∈ U so dass gilt w = ϕ(u)
und aus (L2) folgt:
αw = αϕ(u) = ϕ(αu) ∈ ϕ(U )
Behauptung ϕ−1 (Y ) ist ein Untervektorraum von V :
Beweis
(U1) Nach 5.3 gilt 0 ∈ ϕ−1 (Y ), denn ϕ(0) = 0 ∈ Y .
(U2) Es seien u, v ∈ ϕ−1 (Y ), dann folgt ϕ(u) ∈ Y und ϕ(v) ∈ Y und daraus mit
(L1):
ϕ(u + v) = ϕ(u) + ϕ(v) ∈ Y
also u + v ∈ ϕ−1 (Y ).
(U3) Es seien α ∈ K und v ∈ ϕ−1 (Y ), dann folgt mit (L2):
ϕ(αv) = αϕ(v) ∈ Y
und daher αv ∈ ϕ−1 (Y ).
Jeder Vektorraum hat zwei “triviale” Untervektorräume, den Raum selbst und
{0}. Damit gibt es zu einer linearen Abbildung vier spezielle Unterräume, nämlich
die beiden Bilder und die beiden Urbilder. Wenn aber ϕ : V → W eine lineare
Abbildung ist, gilt ϕ({0}) = {0} und ϕ−1 (W ) = V , also sind diese beiden Untervektorräume wieder trivial. Die beiden anderen aber sind von großem Interesse:
Definition 5.5 Es seien V und W K-Vektorräume und ϕ : V → W eine lineare
Abbildung.
(i) Der Untervektorraum
ker ϕ = ϕ−1 ({0}) = {v ∈ V : ϕ(v) = 0}
heißt der Kern von ϕ.
70
(ii) Wenn ϕ(V ) endlich-dimensional ist, heißt
rg ϕ = dim ϕ(V )
der Rang von ϕ.
Beispiele 5.6
(i) Man definiere ϕ : R2 → R2 durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 )
dann ist ϕ nach 5.2 linear und es gilt:
(x1 , x2 ) ∈ ker ϕ ⇐⇒ ϕ(x1 , x2 ) = 0
x1 + x2 = 0 (1)
⇐⇒
x1 − x2 = 0 (2)
Wenn man (1) und (2) addiert, erhält man 2x1 = 0 und daraus x1 = 0 und aus
(2) folgt dann sofort x2 = 0. Also gilt ker ϕ ⊆ {(0, 0)} und da “⊇” in jedem Fall
gilt, folgt ker ϕ = {(0, 0)}.
Zur Berechnung von ϕ(R2 ) sei (y1 , y2 ) ∈ ϕ(R2 ) und es gebe (x1 , x2 ) ∈ R2 so dass
gilt (y1 , y2 ) = ϕ(x1 , x2 ). Dann folgt
(y1 , y2 ) = ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 )
und daraus
y 1 = x1 + x2
y 2 = x1 − x2
Durch Addition bzw. Subtraktion dieser beiden Gleichungen erhält man
y1 + y2 = 2x1
und
y1 − y2 = 2x2
also
1
1
(x1 , x2 ) = ( (y1 + y2 ), (y1 − y2 ))
2
2
Wenn also (y1 , y2 ) ein Urbild besitzt, ist es das eben ausgerechnete. In der Tat
gilt für alle (y1 .y2 ) ∈ R2 :
1
1
1
1
1
1
ϕ( (y1 +y2 ), (y1 −y2 )) = ( (y1 +y2 )+ (y1 −y2 ), (y1 +y2 )− (y1 −y2 )) = (y1 , y2 )
2
2
2
2
2
2
Dies zeigt, dass ϕ surjektiv ist, dass also gilt ϕ(R2 ) = R2 und daher
rg ϕ = dim ϕ(R2 ) = dim R2 = 2
71
(ii) Man definiere ϕ : R2 → R2 durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 + x2 )
dann ist ϕ wieder nach 5.2 linear und es gilt:
(x1 , x2 ) ∈ ker ϕ ⇔ x1 + x2 = 0 ⇔ x2 = −x1
Also gilt
ker ϕ = {(x1 , −x1 ) : x1 ∈ R}
Andererseits gilt, wie man leicht sieht, (y1 , y2 ) ∈ ϕ(R2 ) genau dann, wenn gilt
y1 = y2 und daher
ϕ(R2 ) = {(y, y) : y ∈ R}
und {(1, 1)} ist eine Basis von ϕ(R2 ), also gilt
rg ϕ = dim ϕ(R2 ) = dim{(y, y) : y ∈ R} = 1
Proposition 5.7 Es seien V und W K-Vektorräume und ϕ : V → W eine
lineare Abbildung. Dann gelten:
(i) ϕ ist genau dann injektiv, wenn ker ϕ = {0} gilt.
(ii) Wenn W endlich-dimensional ist, ist ϕ genau dann surjektiv, wenn rg(ϕ) =
dim W gilt.
Beweis
(i) Voraussetzung: ϕ ist injektiv.
Behauptung: ker ϕ = {0}
Beweis: Da ker ϕ ein Untervektorraum ist, gilt “⊇”. Also sei v ∈ ker ϕ, dann folgt
ϕ(v) = 0 = ϕ(0)
und daraus v = 0.
Voraussetzung: ker ϕ = {0}
Behauptung: ϕ ist injektiv.
Beweis: Es seien u, v ∈ V und es gelte u 6= v. Dann folgt u − v 6= 0 und daher
u−v ∈
/ ker ϕ. Man erhält
ϕ(u) − ϕ(v) = ϕ(u − v) 6= 0
und daraus ϕ(u) 6= ϕ(v).
(ii) Das folgt direkt aus 4.23.
72
Beispiel 5.8 Die Abbildung
ϕ : R2 −→ R2
definiert durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 )
ist injektiv.
Beweis Nach 5.6(i) gilt ker ϕ = {(0, 0)}.
Satz 5.9 (Rangsatz) Es seien V und W K-Vektorräume, V endlich-dimensional,
und ϕ : V → W eine lineare Abbildung. Dann ist ϕ(V ) endlich-dimensional und
es gilt:
dim V = dim ker ϕ + rg(ϕ)
Beweis Nach 4.23 ist ker ϕ endlich-dimensional, es sei B0 = {v1 , . . . , vk } eine
Basis von ker ϕ. Dann gibt es nach 4.20 eine Basis B von V , die B0 enthält.
Es gelte B = {v1 , . . . , vk , vk+1 , . . . , vn }. Dann reicht es zu zeigen, dass B1 =
{ϕ(vk+1 ), . . . , ϕ(vn )} eine Basis von ϕ(V ) ist:
“EZS”: Es sei w ∈ ϕ(V ), dann gibt es ein v ∈ V so dass gilt w = ϕ(v). Da B eine
Basis von V ist, gibt es α1 , . . . , αn aus K so dass gilt
v = α1 v1 + . . . + αn vn
Es folgt
w = ϕ(v) = ϕ(α1 v1 + . . . + αn vn )
= α1 ϕ(v1 ) + · · · + αn ϕ(vn )
= αk+1 ϕ(vk+1 ) + · · · + αn ϕ(vn ) ∈ L(B1 )
“Lineare Unabhängigkeit”: Es seien αk+1 , . . . , αn aus K und es gelte
αk+1 ϕ(vk+1 ) + · · · + αn ϕ(vn ) = 0
Dann folgt
ϕ(αk+1 vk+1 + · · · + αn vn ) = αk+1 ϕ(vk+1 ) + · · · + αn ϕ(vn ) = 0
und daraus αk+1 vk+1 + · · · + αn vn ∈ ker(ϕ). Da B0 eine Basis von ker ϕ ist, gibt
es α1 , . . . , αk in K so dass gilt
αk+1 vk+1 + · · · + αn vn = α1 v1 + · · · + αk vk
es folgt
−α1 v1 − · · · − αk vk + αk+1 vk+1 + · · · + αn vn = 0
73
und daraus
−α1 = · · · = −ak = αk+1 = · · · = αn = 0
da B eine Basis von V ist.
Dieser Beweis ähnelt sehr stark dem von 4.25. Das ist kein Zufall, in der Tat kann
man den Rangsatz mit Hilfe von 4.25 beweisen, wenn man den Homomorphiesatz
zur Verfügung hat. Da der Rangsatz von überragender Bedeutung ist, habe ich
einen vergleichsweise einfachen Beweis ausgesucht, der keine weiteren Ergebnisse
heranzieht.
Beispiel 5.10
(i) Man definiere ϕ : R2 −→ R2 wie in 5.6 durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 )
Dann gilt ker ϕ = {(0, 0)} nach 5.6(i). Also folgt aus dem Rangsatz (5.9):
rg ϕ = dim R2 − dim ker ϕ = 2 − 0 = 2 = dim R2
und nach 5.7 ist ϕ surjektiv, also bijektiv.
(ii) Man definiere ϕ : R2 → R2 wie in 5.6 durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 + x2 )
dann gilt nach 5.6(ii)
ker ϕ = {(x, −x) : x1 ∈ R}
und daher
ker ϕ = {x(1, −1) : x ∈ R} = L{(1, −1)}
Also ist {(1, −1)} eine Basis von ker ϕ und es folgt dim ker ϕ = 1. Aus dem
Rangsatz folgt dann:
dim ϕ(R2 ) = rg ϕ = dim R2 − dim ker ϕ = 2 − 1 = 1
Also ist ϕ nicht surjektiv. Weiter gilt ϕ(1, 0) = (1, 1). Da dim ϕ(R2 ) = 1 gilt, ist
{(1, 1)} eine Basis von ϕ(R2 ) und daher gilt
ϕ(R2 ) = L({(1, 1)}) = {α(1, 1) : α ∈ R} = {(α, α) : α ∈ R}
Lemma 5.11 Es seien V und W K-Vektorräume und ϕ : V → W linear. Dann
gelten:
(i) Wenn M ein EZS von V ist, ist ϕ(M ) ein EZS von ϕ(V ).
(ii) Wenn M ⊆ V linear unabhängig ist und ϕ injektiv ist, ist ϕ(M ) linear
unabhängig.
74
Beweis
(i) Es sei w ∈ ϕ(V ), dann gibt es ein v ∈ V so dass gilt w = ϕ(v). Da M ein EZS
von V ist, gibt es v1 , . . . , vn aus M und α1 , . . . , αn aus K so dass gilt
v = α1 v1 + · · · + αn vn
Es folgt
w = ϕ(v) = ϕ(α1 v1 + · · · + αn vn ) = α1 ϕ(v1 ) + · · · + αn ϕ(vn ) ∈ L(ϕ(M ))
(ii) Es seien w1 , . . . , wn paarweise verschiedene Elemente aus ϕ(M ) und α1 , . . . , αn
Elemente aus K. Es gelte
α1 w 1 + · · · + αn w n = 0
Dann gibt es v1 , . . . , vn aus M so dass gilt ϕ(vi ) = wi für i = 1, . . . , n. Offenbar
sind v1 , . . . , vn paarweise verschieden und es gilt:
0 = α1 w1 + · · · + αn wn = α1 ϕ(v1 ) + · · · + αn ϕ(vn ) = ϕ(α1 v1 + · · · + αn vn )
Da ϕ injektiv ist, folgt
α1 v1 + · · · + αn vn = 0
und daraus α1 = · · · = αn = 0.
Definition 5.12 Es seien V und W K-Vektorräume. Eine lineare Abbildung ϕ :
V → W heißt Isomorphismus (genauer K-Vektorraumisomorphismus), wenn
ϕ bijektiv ist.
V und W heißen isomorph, wenn es einen Isomorphismus ϕ : V → W gibt.
Beispiele 5.13
(i) Die Abbildung ϕ : R2 −→ R2 definiert durch
ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 )
ist ein Isomorphismus.
(ii) Es sei V ein K-Vektorraum. Dann ist die identische Abbildung idV : V → V
ein Isomorphismus.
Beweis (i) folgt aus 5.10, (ii) ist trivial.
Proposition 5.14 Es seien V und W K-Vektorräume und ϕ : V → W ein Isomorphismus. Dann gelten:
(i) ϕ−1 ist linear.
(ii) V ist genau dann endlich-dimensional, wenn W endlich-dimensional ist.
Wenn dies der Fall ist, gilt dim V = dim W . Also haben isomorphe Vektorräume
dieselbe Dimension.
75
Beweis
(i) (L1): Für alle v, w ∈ W gilt:
ϕ(ϕ−1 (v) + ϕ−1 (w)) = ϕ(ϕ−1 (v)) + ϕ(ϕ−1 (w)) = v + w
und daher
ϕ−1 (v + w) = ϕ−1 (ϕ(ϕ−1 (v) + ϕ−1 (w))) = ϕ−1 (v) + ϕ−1 (w))
(L2): Für alle α ∈ K und w ∈ W gilt:
ϕ(αϕ−1 (w)) = αϕ(ϕ−1 (w)) = αw
und daher
ϕ−1 (αw) = ϕ−1 (ϕ(αϕ−1 w))) = αϕ−1 (w)
(ii) Es sei B eine Basis von V , dann ist ϕ(B) nach 5.11 eine Basis von W = ϕ(V ).
Satz 5.15 Es seien V und W endlich-dimensionale K-Vektorräume mit derselben Dimension und ϕ : V → W ein lineare Abbildung. Dann sind äquivalent:
(i) ϕ ist ein Isomorphismus.
(ii) ϕ ist injektiv.
(iii) ϕ ist surjektiv.
Beweis Dies ist eine unmittelbare Konsequenz aus dem Rangsatz: Es gilt
dim W = dim V = dim ker ϕ + rg(ϕ)
und daraus folgt mit 5.7:
ϕ ist injektiv
⇐⇒ ker(ϕ) = {0}
⇐⇒ dim ker ϕ = 0
⇐⇒ rg(ϕ) = dim W
⇐⇒ ϕ ist surjektiv
Also sind (ii) und (iii) äquivalent, woraus die Behauptung unmittelbar folgt. Satz 5.16 (Konstruktion linearer Abbildungen) Es seien V und W K-Vektorräume,
B = {v1 , . . . vn } eine Basis von V und f : B → W eine Abbildung. Dann gibt es
genau eine lineare Abbildung ϕ : V −→ W so dass gilt
ϕ(vi ) = f (vi )
für alle i = 1, . . . n .
76
Beweis
Eindeutigkeit Ich nehme an, dass es eine lineare Abbildung ϕ mit den geforderten Eigenschaften gibt. Sei v ∈ V beliebig. Nach 4.6 gibt es dann eindeutig
bestimmte α1 , . . . , αn aus K so dass gilt
v = α1 v1 + · · · + αn vn
Dann folgt:
ϕ(v) = ϕ(α1 v1 + · · · + αn vn )
= α1 ϕ(v1 ) + · · · + αn ϕ(vn )
= α1 f (v1 ) + · · · + αn f (vn )
Also kann es höchstens eine lineare Abbildung mit den geforderten Eigenschaften
geben. Aber der bisherige Beweis zeigt auch, wie man ϕ definieren muss, um die
Existenz zu beweisen:
Existenz Zu jedem v ∈ V gibt es dann eindeutig bestimmte α1 , . . . , αn aus K so
dass gilt
v = α1 v1 + · · · + αn vn
und man definiere
ϕ(v) = α1 f (v1 ) + · · · + αn f (vn )
Es ist zu zeigen, dass diese Abbildung linear ist:
“(L1)”: Seien also v, w ∈ V , dann gibt es eindeutig bestimmte α1 , . . . , αn , β1 , . . . , βn
aus K so dass gelten:
v = α1 v1 + · · · + αn vn
und
w = β1 v1 + · · · + βn vn
ϕ(v) = α1 f (v1 ) + · · · + αn f (vn )
und
ϕ(w) = β1 f (v1 ) + · · · + βn f (vn )
Es folgt:
und daraus
ϕ(v) + ϕ(w) = (α1 + β1 )f (v1 ) + · · · + (αn + βn )f (vn )
Andererseits gilt
v + w = (α1 + β1 )v1 + · · · + (αn + βn )vn
und daraus folgt
ϕ(v + w) = (α1 + β1 )f (v1 ) + · · · + (αn + βn )f (vn ) = ϕ(v) + ϕ(w)
(L2) beweist man analog.
77
Beispiel 5.17 B = {(1, 0), (1, 1)} ist eine Basis von R2 . Also gibt es genau eine
lineare Abbildung ϕ : R2 → R2 für die gilt:
ϕ(1, 0) = (5, 3)
und ϕ(1, 1) = (3, 3) .
Beweis Der Beweis von 5.16 ist konstruktiv, d.h. er gibt eine Anleitung, wie man
ϕ konstruieren muss:
Es sei (x1 , x2 ) ∈ R2 , dann gilt
(x1 , x2 ) = (x1 − x2 )(1, 0) + x2 (1, 1)
Also ist ϕ : R2 → R2 definiert durch
ϕ(x1 , x2 ) = (x1 − x2 )(5, 3) + x2 (3, 3) = (5x1 − 2x2 , 3x1 )
die (eindeutig bestimmte) gesuchte lineare Abbildung.
Satz 5.18 Es seien V und W n-dimensionale K-Vektorräume. Dann sind V und
W isomorph. Insbesondere ist V isomorph zu K n .
Beweis Es seien B = (v1 , . . . , vn ) eine Basis von V und C = {w1 , . . . , wn } eine
Basis von W . Man definiere f : B → W durch f (vi ) = wi für i = 1, . . . , n. Nach
5.16 gibt es eine lineare Abbildung ϕ : V → W so dass gilt ϕ(vi ) = wi für alle
i. Da ϕ(B) = f (B) = C eine Basis von W ist, ist ϕ surjektiv und nach 5.15 ein
Isomorphismus.
Bemerkung 5.19 Es ist einfach, einen Isomorphismus ϕ : K n → V explizit
anzugeben: Man ersetze in 5.18, die Basis B durch die Standardbasis {e1 , . . . , en }
und C durch B. Dann erhält man den Isomorphismus ϕ : K n → V ,der gegeben
ist durch
ϕ(x1 , . . . , xn ) = x1 v1 + · · · + xn vn
Der Rückgriff auf 5.16 erspart einem nachzurechnen, dass ϕ linear ist (was allerdings auch nicht so schwer ist.)
5.18 ist einer der wichtigsten Sätze der Linearen Algebra. Er besagt, dass es
möglich ist, die algebraischen Eigenschaften eines endlich-dimensionalen Vektorraums dadurch zu studieren, dass man einen geeigneten K n studiert.
Definition 5.20 Es seien V und W K-Vektorräume und ϕ, ψ : V → W lineare
Abbildungen sowie α ∈ K. Dann definiere man
ϕ + ψ : V −→ W
durch
(ϕ + ψ)(v) = ϕ(v) + ψ(v)
78
und
αϕ : V −→ W
durch
(αϕ)(v) = αϕ(v)
Lemma 5.21 Es seien V und W K-Vektorräume und ϕ, ψ : V → W lineare Abbildungen sowie α ∈ K. Dann sind ϕ + ψ und αϕ linear und mit diesen
Operationen wird L(V, W ) zu einem K-Vektorraum.
Beweis Klar.
Lemma 5.22 Es seien U, V und W K-Vektorräume und ϕ : U → V sowie
ψ : V → W lineare Abbildungen. Dann ist ψ ◦ ϕ : U → W linear.
Beweis Ich zeige (L1): Für alle u, v ∈ U gilt:
ψ ◦ ϕ(u + v) = ψ(ϕ(u + v))
= ψ(ϕ(u) + ϕ(v))
= ψ(ϕ(u)) + ψ(ϕ(v))
= ψ ◦ ϕ(u) + ψ ◦ ϕ(v)
79
Kapitel 6
Matrizen
Es sei ϕ : K n → K k eine lineare Abbildung. Für alle j ∈ {1, . . . , n} gelte:
ϕ(ej ) = (a1,j , . . . , ak,j ) ,
dann folgt für alle v = (x1 , . . . , xn ) ∈ K n :
ϕ(v) = ϕ(x1 , . . . , xn )
= ϕ(x1 e1 + · · · + xn en )
= x1 ϕ(e1 ) + · · · + xn ϕ(en )
= x1 (a1,1 , . . . , ak,1 ) + · · · + xn (a1,n , . . . , ak,n )
= (a1,1 x1 + · · · + a1,n xn , . . . , ak,1 x1 + · · · + ak,n xn )
Also kann man alle Bilder unter ϕ berechnen, wenn man die k × n Zahlen ai,j für
i = 1, . . . , k, j = 1, . . . , n kennt. Es ist üblich, diese Zahlen in einer bestimmten
Art aufzuschreiben:
Definition 6.1 Es sei K ein Körper. Ein

a1,1 a1,2
 a2,1 a2,2

A =  ..
..
 .
.
ak,1 an,2
Schema der Form

· · · a1,n
· · · a2,n 

..
.. 
.
. 
· · · ak,n
mit k, n ∈ N und ai,j ∈ K für alle i ∈ {1, . . . , k} , j ∈ {1, . . . , n} heißt k × n
Matrix über K.
Die Menge aller k × n-Matrizen über K wird mit M (k, n, K) oder auch kurz
M (k, n) bezeichnet.
Für i ∈ {1, . . . , k} heißt
(ai,1 , . . . , ai,n )
die i.-te Zeile oder der i.-te Zeilenvektor von A.
80
Für j ∈ {1, . . . , n} heißt


a1,j
 ..

 .

ak,j
die j.-te Spalte oder der j.-te Spaltenvektor von A.
Manchmal schreibt man
A = (ai,j ) 1 ≤ i ≤ k
1≤j ≤n
und oft
A = (ai,j )
Definition 6.2 Es seien

a1,1 a1,2 · · ·
 a2,1 a2,2 · · ·

A =  ..
..
..
 .
.
.
ak,1 ak,2 · · ·
a1,n
a2,n
..
.






und


B=

ak,n
b1,1 b1,2 · · ·
b2,1 b2,2 · · ·
..
..
..
.
.
.
bk,1 bk,2 · · ·
zwei k × n-Matrizen und α ∈ K. Dann definiert man:

(i)
(ii)
(iii)
a1,1 + b1,1 a1,2 + b1,2 · · ·
 a2,1 + b1,2 a2,2 + b2,2 · · ·

A+B =
..
..
..

.
.
.
ak,1 + bk,1 ak,2 + bk,2 · · ·


αa1,1 αa1,2 · · · αa1,n
 αa2,1 αa2,2 · · · αa2,n 


αA =  ..
..
..
.. 
 .
.
.
. 
αak,1 αak,2 · · · αak,n


a1,1 a2,1 · · · ak,1
 a1,2 a2,2 · · · ak,2 


At =  ..
..
..
.. 
 .
.
.
. 
a1,n a2,n · · · ak,n
a1,n + b1,n
a2,n + b2,k
..
.





ak,n + bk,n
At heißt die zu A transponierte Matrix.
Beispiel 6.3 Es seien
3 −1 4
A=
2 0 3
und
81
B=
6 1 3
2 1 0
b1,n
b2,n
..
.
bk,n





zwei reelle 2 × 3 Matrizen, dann gelten:
9 0 7
A+B =
4 1 3
und
2A =
sowie
6 −2 8
4 0 6


3 2
At =  −1 0 
4 3
Proposition 6.4 Es seien k, n natürliche Zahlen. Dann ist M (k, n) zusammen
mit den in 6.3 definierten Addition und Multiplikation mit Elementen aus K ein
K-Vektorraum.
Beweis Einfach.
Definition 6.5 Es sei ϕ : K n → K k eine lineare Abbildung. Für alle j ∈
{1, . . . n} sei
ϕ(ej ) = (a1,j , . . . ak,j ) ,
dann heißt



[ϕ] = 

a1,1 a1,2 · · ·
a2,1 a2,2 · · ·
..
..
..
.
.
.
ak,1 ak,2 · · ·
a1,n
a2,n
..
.





ak,n
die darstellende Matrix von ϕ.
Es sei ϕ : K n → K k eine lineare Abbildung. Dann sind ϕ(e1 )t , . . . ϕ(en )t die
Spaltenvektoren von [ϕ]. Also ist bis auf einige Klammern (ϕ(e1 )t , . . . ϕ(en )t ) die
darstellende Matrix von ϕ. Anders gesagt, man erhält die darstellende Matrix,
indem man die Bilder der Einheitsvektoren transponiert und nebeneinander stellt.
Bemerkung 6.6 Es seien ϕ : K n → K k eine lineare Abbildung und es gelte
[ϕ] = (ai,j ). Dann gilt für alle v = (x1 , . . . , xn ) ∈ K n :
ϕ(v) = x1 ϕ(e1 ) + · · · + xn ϕ(en )
= x1 (a1,1 , . . . , ai,1 , . . . , ak,1 ) + · · · + xn (a1,n , . . . , ai,n , . . . , ak,n )
= (a1,1 x1 + · · · + a1,n xn , . . . , ai,1 x1 + · · · + ai,n xn , . . . , ak,1 x1 + · · · + ak,n xn )
Also erhält man die i-te Komponente von ϕ(v), indem man die Komponenten des
i-ten Zeilenvektors von [ϕ] mit den entsprechenden Komponenten von v multipliziert und dann die Produkte addiert.
82
Beispiel 6.7 Man definiere
ϕ : R3 −→ R2
durch
ϕ(x1 , x2 , x3 ) = (3x1 − x2 + 4x3 , 2x1 + 3x3 )
dann gilt
ϕ(e1 ) = (3, 2)
ϕ(e2 ) = (−1, 0)
ϕ(e3 ) = (4, 3)
und daher:
[ϕ] =
3 −1 4
2 0 3
Testen wir noch 6.6: Für alle v = (x1 , x2 , x3 ) ∈ Rn gilt:
ϕ(v) = (3x1 + (−1)x2 + 4x3 , 2x1 + 0 · x2 + 3x3 ) = (3x1 − x2 + 4x3 , 2x1 + 3x3 )
Lemma 6.8 Es seien ϕ, ψ : K n → K r lineare Abbildungen und α ∈ R. Dann
gelten:
(i) [ϕ + ψ] = [ϕ] + [ψ]
(ii) [αϕ] = α[ϕ].
Beweis von (i): Für alle i gilt
(ϕ + ψ)(ei ) = ϕ(ei ) + ψ(ei )
Also erhält man den i-ten Spaltenvektor von [ϕ + ψ], indem man die i-ten Spaltenvektoren von [ϕ] und [ψ] addiert.
Also ist die darstellende Matrix einer Summe linearere Abbildungen die Summe
der darstellenden Matrizen und Analoges gilt für die Multiplikation einer linearen
Abbildung mit einem Skalar. Im Folgenden soll die Frage studiert werden, wie
man die darstellende Matrix einer Komposition von linearen Abbildungen erhält:
Bemerkung 6.9 Es seien ϕ : K n → K k und ψ : K k → K s
Es gelte



a1,1 a1,2 · · · a1,n
b1,1
 b2,1
 a2,1 a2,2 · · · a2,n 



[ϕ] =  ..
und
[ψ] =  ..
..
..
.. 
 .
 .
.
.
. 
ak,1 ak,2 · · · ak,n
bs,1
83
lineare Abbildungen.
b1,2 · · ·
b2,2 · · ·
..
..
.
.
bs,2 · · ·
b1,k
b2,k
..
.
bs,k





Dann gilt für alle j ∈ {1, . . . n}:
ψ ◦ ϕ(ej ) = ψ(ϕ(ej )) = ψ(a1,j , . . . ak,j )
= (b1,1 a1,j + · · · + b1,k ak,j , . . . , bs,1 a1,j + · · · + bs,k ak,j )
Also gilt für die j.-te Spalte von [ψ ◦ ϕ]:

b1,1 a1,j + · · · + b1,k ak,j
..

.


b
a
+
·
·
· + bi,k ak,j
 i,1 1,j

.
..

bs,1 a1,j + · · · + bs,k ak,j







Und damit gilt für das Element in der i-ten Zeile und j-ten Spalte von [ψ ◦ ϕ]:
bi,1 a1,j + · · · + bi,k ak,j
Man erhält also das Element in der i.-ten Zeile und j.-ten Spalte von [ψ ◦ ϕ] indem man die i.-te Zeile von [ψ] komponentenweise mit der j.-ten Spalte von [ϕ]
multipliziert und die Produkte addiert. Um nun dafür zu sorgen, dass die darstellende Matrix der Hintereinanderausführung linearer Abbildungen gerade das
Produkt der darstellenden Matrizen ist, ist die folgenden Definition notwendig:
Definition 6.10 Es seien B = (bi,j ) ∈ M (s, k, K) und A = (ai,j ) ∈ M (k, n, K),
dann definiert man das Matrizenprodukt BA ∈ M (s, n, K) durch BA = (ci,j ),
dabei sei für alle i, j
ci,j = bi,1 a1,j + · · · + bi,k ak,j .
Man beachte, dass man nicht beliebige Matrizen miteinander multiplizieren kann,
wie man ja auch nicht beliebige lineare Abbildungen hintereinander ausführen
kann: Damit das Produkt von zwei Matrizen definiert ist, muss die Anzahl der
Spalten der ersten Matrix gleich der Anzahl der Zeilen der zweiten Matrix sein.
Das Matrizenprodukt hat dann so viele Zeilen wie die erste und so vielen Spalten
wie die zweite Matrix:
n
k
s
k
n
A
B
=
84
s
BA
Beispiel 6.11 Es gilt
1 2 3
4 5 6


1 2 0 1
4
4
9
6
 0 1 3 1 =
10 13 21 15
1 0 1 1
Proposition 6.12 Es seien ϕ ∈ L(K n , K k ) und ψ ∈ L(K k , K s ), dann gilt
[ψ ◦ ϕ] = [ψ][ϕ] .
Beweis Das war gerade der Inhalt von 6.9.
Es gilt offenbar K n = M (1, n, K), d.h. die Elemente aus K n sind spezielle Matrizen. Seien nun ϕ ∈ L(K n , K k ), [ϕ] = (ai,j ) und v = (x1 , . . . xn ) ∈ K n , dann
erhält man nach 6.6 die i-te Komponente von ϕ(v), indem man die Komponenten des i-ten Zeilenvektors von [ϕ] mit den entsprechenden Komponenten von v
multipliziert und dann die Produkte addiert. d.h. es gilt:
ϕ(v) = (a1,1 x1 + · · · + a1,n xn , . . . , ai,1 x1 + · · · + ai,n xn , . . . , a1,1 x1 + · · · + a1,n xn )
Andererseits gilt:

a1,1 a1,2 · · ·


.
..
..

x1
.
.
 ..

 
[ϕ]  ...  =  ai,1 ai,2 · · ·
 .
..
..
 ..
xn
.
.
ak,1 ak,2 · · ·

a1,n
..  
. 

ai,n  
.. 
. 
ak,n

a1,1 x1 + · · · + a1,n xn

..


.


 

a
x
+
·
·
·
+
a
x
=
  i,1 1
i,n n 


..


.
ak,1 x1 + · · · + ak,n xn

x1
..
.
xn
Also folgt:
ϕ(v) = ([ϕ]v t )t
Die zweifache Transposition ist nun ziemlich lästig, deswegen schließe ich mich
(nicht ganz ohne Bedenken) der üblichen Konvention an, von jetzt ab die Elemente des K n als Spaltenvektoren darzustellen:
Im Folgenden werden die Elemente des K n als Spaltenvektoren, d.h.
als n × 1-Matrizen aufgefasst.
In dieser Schreibweise erhält man:
Bemerkung 6.13 Es sei ϕ : K n → K k eine lineare Abbildung. Dann sind die
Spaltenvektoren von [ϕ] gerade die Bilder der Einheitsvektoren.
Damit ergibt die bisherige Diskussion:
85
Proposition 6.14 Es sei ϕ : K n → K k eine lineare Abbildung. Dann gilt für
alle v ∈ K n :
ϕ(v) = [ϕ]v
Beispiel 6.15 Man definiere wie in 6.7, aber in neuer Notation ϕ : R3 −→ R2
durch


x1
3x1 − x2 + 4x3


ϕ x2
=
2x1 + 3x3
xn
Dann gilt
[ϕ] =
und daher
3 −1 4
2 0 3


x1
3 −1 4 
ϕ  x2  =
2 0 3
x3
3x1 − x2 + 4x3
=
2x1 + 3x3


x1
x2 
x3
Lemma 6.16 Es seien A, C ∈ M (n, k, K) und B ∈ M (k, r, K), dann gelten:
(i) (At )t = A .
(ii) (A + C)t = At + C t .
(iii) (AB)t = B t At
Beweis (i) und (ii) sind einfach, ich zeige (iii):
Es gelte A = (ai,j ) und B = (bi,j ) sowie (AB)t = (ci,j ) und B t At = (di,j ). Dann
gilt
AB = (ai,1 b1,j + · · · + ai,k bk,j )i,j
und daher für alle j, i:
cj,i = ai,1 b1,j + · · · + ai,k bk,j
Andererseits gelte At = (ati,j ) und B t = (bti,j ), dann folgt für alle i, j:
dj,i = btj,1 at1,i + · · · + btj,k atk,i
und wegen ati,j = aj,i und bti,j = bj,i erhält man für alle j, i:
dj,i = b1,j ai,1 + · · · + bk,j ai,k = cj,i
86
In 6.14 wurde gezeigt, wie man das Bild eines Elementes unter einer linearen
Abbildung ϕ mit Hilfe der darstellenden Matrix berechnen kann. Setzt man nun
A = [ϕ], dann gilt für alle v:
ϕ(v) = Av
Nun kann man die rechte Seite ja in der Tat für alle Matrizen A berechnen, und
dies gibt Anlass zu der
Definition 6.17 Es sei A ∈ M (k, n, K). Dann definiere man
ϕA : K n −→ K k
durch
ϕA (v) = Av .
Beispiel 6.18 Es seien


1 2 0 1
A =  0 1 3 1  ∈ M (3, 4, R)
1 0 1 1
dann gilt ϕA ∈ L(R4 , R3 ) und




 x1
x1
1 2 0 1 
 x2 
x2



0 1 3 1 
ϕA 
=


x3
x3
1 0 1 1
x4
x4



x
+
2x
+
x
1
2
4

 =  x2 + 3x3 + x4 

x1 + x3 + x4
Proposition 6.19 Es sei A ∈ M (n, k, K). Dann ist ϕA linear und es gilt
[ϕA ] = A .
Beweis Der Beweis der Linearität von ϕA ist einfach, ich zeige den zweiten Teil
der Behauptung:
Es sei A = (ai,j ), dann gilt für alle j:




ϕA (ej ) = Aej = 

a1,1 a1,2 · · ·
a2,1 a2,2 · · ·
..
..
..
.
.
.
ak,1 ak,2 · · ·
dabei steht die 1 in der j-ten Zeile. Es folgt
87
a1,n
a2,n
..
.
ak,n
0
 ..
 .

 1

 0
 .
 ..
0












a1,j


ϕA (ej ) = Aej =  ... 
ak,j
und daraus die Behauptung.
Korollar 6.20 Es seien A ∈ M (r, k, K) und B ∈ M (k, n, K), dann gilt
[ϕA ◦ ϕB ] = AB
Beweis Aus 6.12 und 6.19 folgt:
[ϕA ◦ ϕB ] = [ϕA ][ϕB ] = AB
Beispiel 6.21 Es seien
A=
1 2 3
4 5 6

und

1 2 0 1
B= 0 1 3 1  ,
1 0 1 1
dann gilt ϕA ∈ L(R3 , R2 ) und ϕB ∈ L(R4 , R3 ) und nach 6.11:
[ϕA ◦ ϕB ] = AB =
1 2 3
4 5 6


1 2 0 1
4
4
9
6
 0 1 3 1 =
10 13 21 15
1 0 1 1


x1
 x2 
4

Es folgt für alle v = 
 x3  ∈ R :
x4


x
1
 x2 
4 4 9 6


ϕA ◦ ϕB (v) =
10 13 21 15  x3 
x4
=
4x1 + 4x2 + 9x3 + 6x4
10x1 + 13x2 + 21x3 + 15x4
Satz 6.22 Die Abbildung
[ · ] : L(K n , K k ) −→ M (k, n, K) ,
die jedem ϕ ∈ L(K n , K k ) die Matrix [ϕA ] zuordnet, ist ein Isomorphismus. Die
inverse Abbildung ist gegeben durch
A 7→ ϕA
88
Beweis Nach 6.8 gilt für alle ϕ, ψ ∈ L(K n , K k ):
[ϕ + ψ] = [ϕ] + [ψ]
und
[αϕ] = α[ϕ]
also ist [ · ] in der Tat linear. Um zu zeigen, dass [ · ] injektiv ist, muss man zeigen,
dass ker[ · ] = {0} gilt. Also sei ϕ ∈ ker[ · ], dann gilt [ϕ] = 0 und aus 6.14 folgt
für alle v ∈ K n :
ϕ(v) = [ϕ]v = 0 · v = 0
und daher ϕ = 0. Zum Beweis der Surjektivität sei A ∈ M (k, n, K), dann gilt
[ϕA ] = A nach 6.19 und daher ist [ · ] surjektiv. Weiterhin gilt [ · ]−1 (A) = ϕA . Ich komme nun zu einigen matrizentheoretischen Ergebnissen. Die bisherigen Ergebnisse erlauben vergleichsweise einfache Beweise der folgenden Resultate:
Proposition 6.23 Es seien A, B ∈ M (k, n, K) , C ∈ M (n, r, K) , D ∈ M (r, s, K)
und F ∈ M (s, k, K). Dann gelten:
(i) (A + B)C = AC + BC
(ii) F (A + B) = F A + F B
(iii) (AC)D = A(CD)
Beweis Alle Beweise kann man durch direktes Nachrechnen führen. Aber man
kann sie auch durch geschickte Anwendung der bisherigen Resultate führen, ich
zeige exemplarisch (iii): Eine leichte Rechnung zeigt, dass gilt
(ϕA ◦ ϕC ) ◦ ϕD = ϕA ◦ (ϕC ◦ ϕD )
Es folgt:
[(ϕA ◦ ϕC ) ◦ ϕD ] = [ϕA ◦ (ϕC ◦ ϕD )]
=⇒ [(ϕA ◦ ϕC )][ϕD ] = [ϕA ][ϕC ◦ ϕD ]
=⇒ [(ϕA ][ϕC )])[ϕD ] = [ϕA ]([ϕC ][ϕD ])
=⇒ (AC)D = A(CD)
Definition 6.24 Es sei n ∈ N, dann heißt

1 0 0 ...
 0 1 0 ...


In =  ... ... . . . ...

 0 0 ... 1
0 0 ... 0
die Einheitsmatrix.
89
0
0
..
.






0 
1
Lemma 6.25 Für alle A ∈ M (n, n, K) gilt:
In A = AIn = A
Weiterhin gelten:
[idK n ] = In
und
ϕIn = idK n
Beweis Alle drei Aussagen folgen unmittelbar aus den Definitionen.
Proposition 6.26 Es seien A ∈ M (r, k, K) und B ∈ M (k, n, k). Dann gilt
ϕA ◦ ϕB = ϕAB
Beweis Es gilt nach 6.20 und 6.19:
[ϕA ◦ ϕB ] = AB = [ϕAB ]
Aus 6.22 folgt dann die Behauptung.
6.22 besagt insbesondere, dass die Abbildung
[ · ] : L(K n , K n ) −→ M (n, n, K)
ein Isomorphismus ist. Nach 6.25 geht dabei die identische Abbildung in die Einheitsmatrix über. Die Frage ist nun, welche Matrizen den Isomorphismen entsprechen. Die Antwort ist relativ einfach:
Definition 6.27 Eine Matrix A ∈ M (n, n, K) heißt regulär (oder invertierbar), wenn es eine Matrix B ∈ M (n, n, K) so gibt, dass gelten:
AB = BA = In
Lemma 6.28 Es sei A ∈ M (n, n, K) regulär. Dann gibt es genau eine Matrix
B ∈ M (n, n, K) für die gilt
AB = BA = In .
Beweis Es seien B und C Matrizen so dass gelten
AB = BA = In = CA = AC
dann folgt
C = CIn = C(AB) = (CA)B = In B = B
90
Definition 6.29 Es sei A ∈ M (n, n, K) regulär. Dann bezeichnet A−1 die einzige
Matrix, für die gilt:
A−1 A = AA−1 = In .
A−1 heißt die zu A inverse Matrix.
Beispiel 6.30 Es seien a, b, c, d ∈ K , ad − bc 6= 0. Dann ist
a b
A=
c d
regulär und es gilt:
A
−1
1
=
ad − bc
d −b
−c a
.
Beweis Es gilt
1
1
d −b
a b
ad − bc
0
=
= I2
c d
0
−cb + ad
ad − bc −c a
ad − bc
und analog zeigt man, dass gilt
1
d −b
a b
= I2
c d
ad − bc −c a
Proposition 6.31
(i) Eine lineare Abbildung ϕ : K n → K n ist ϕ genau dann ein Isomorphismus,
wenn A = [ϕ] regulär ist. Wenn ϕ ein Isomorphismus ist, gilt ϕ−1 = ϕA−1 .
(ii) Eine Matrix A ∈ M (n, n, K) ist genau dann regulär, wenn ϕA ein Isomorphismus ist.
Man kann also die inverse Abbildung eines Isomorphismus berechnen, indem man
die darstellende Matrix invertiert und die “zugehörige” lineare Abbildung berechnet.
Beweis
(i) Es sei ϕ ein Isomorphismus, dann setze man B = [ϕ−1 ]. Dann gilt nach 6.12
und 6.25
AB = [ϕ][ϕ−1 ] = [ϕ ◦ ϕ−1 ] = [idK n ] = In
und analog
BA = [ϕ−1 ][ϕ] = [ϕ−1 ◦ ϕ] = [idK n ] = In
Also ist A regulär und es gilt A−1 = [ϕ−1 ]. Es folgt mit 6.19:
[ϕA−1 ] = A−1 = [ϕ−1 ]
und daraus ϕ−1 = ϕA−1 mit 6.22 .
91
Umgekehrt sei A regulär, dann folgt aus 6.26 und 6.25:
ϕA ◦ ϕA−1 = ϕAA−1 = ϕIn = idK n
und analog
ϕA−1 ◦ ϕA = ϕA−1 A = ϕIn = idK n
Eine leichte Rechnung (oder Übungsaufgabe 8) zeigt jetzt, dass ϕA bijektiv, also
ein Isomorphismus ist. Nun gilt aber [ϕA ] = A = [ϕ] und daher ϕ = ϕA .
(ii) Man setze ϕ = ϕA , dann gilt [ϕ] = [ϕA ] = A und nach (i) ist ϕA genau dann
ein Isomorphismus, wenn A regulär ist.
Es sei B = {v1 , . . . , vn } Basis eines Vektorraums V . Dann gibt es nach 4.9 zu
jedem v ∈ V eindeutig bestimmte Skalare x1 , . . . , xn aus K so dass gilt v =
x1 v1 + · · · + xn vn . Bei dieser Formulierung hat man implizit bei den Vektoren aus
B eine Reihenfolge unterstellt, denn es gilt ja auch B = {v2 , v1 , . . . , vn } aber in
der Regel gilt nicht v = x1 v2 + x2 v2 + · · · + xn vn . Um diese Mehrdeutigkeit zu
vermeiden, sollen die Vektoren aus einer Basis im Folgenden eine feste Reihenfolge
haben. Die einfachste Methode, dies zu erreichen, besteht darin, sie als Tupel zu
schreiben:
Definition 6.32 Es sei V ein K-Vektorraum. Ein n-Tupel (v1 , . . . vn ) ∈ V n heißt
geordnete Basis von V , wenn {v1 , . . . vn } eine Basis von V ist.
Beispiel 6.33 En = (e1 , . . . en ) ∈ (K n )n heißt die geordnete Standardbasis
des K n .
Wenn nun B = (v1 , . . . , vn ) eine geordnete Basis von V ist, gibt es zu jedem v ∈ V
genau ein (x1 , . . . , xn )t ∈ K n so dass gilt v = x1 v1 + · · · + xn vn . Man nennt dann
(x1 , . . . , xn )t den Koordinatenvektor von v bezüglich B:
Definition 6.34 Es seien B = (v1 , . . . vn ) eine geordnete 
Basis 
eines K-Vektorx1
 .. 
raumes V und v ∈ V . Das eindeutig bestimmte Element  .  ∈ K n für das
xn
gilt
v = x1 v1 + · · · + xn vn
heißt der Koordinatenvektor von v bezüglich B und wird mit [v]B bezeichnet.
Beispiele 6.35


x1


(i) Es sei v =  ...  ∈ K n , dann gilt
xn
v = x1 e1 + · · · + xn en
und daher [v]En = v.
92
Also ist die übliche Darstellung der Elemente des K n in dieser Sprechweise gerade
die Koordinatendarstellung bezüglich En .
1
1
(ii) Es sei B =
,
, dann ist B eine geordnete Basis von R2 und
0
1
es gilt
x1
x1 − x2
=
für alle (x1 , x2 ) ∈ R2
x2
x
2
B
Ich möchte an dieser Stelle hervorheben, dass die Standardbasis aus Sicht der Linearen Algebra keine Bevorzugung verdient, denn natürlich ist B = ((1, 0), (1, 1))
eine geordnete Basis des R2 , die völlig gleichwertig mit E2 ist.
Satz 6.36 Es sei B = (v1 , . . . vn ) eine geordnete Basis eines K-Vektorraumes V .
Dann ist die Abbildung
[ · ]B : V −→ K n
ein Isomorphismus. Die inverse Abbildung ist gegeben durch
ρB : K n −→ V
definiert durch


x1


ρB  ...  = x1 v1 + · · · + xn vn
xn
Speziell gilt für alle v ∈ V und u ∈ K n :
ρB ([v]B ) = v
und
[ρB (u)]B = u
Beweis Nach 5.19 is ρB ein Isomorphismus, also reicht es nach 5.14 zu zeigen,
dass [ · ] = ρ−1
B gilt. Ich zeige zunächst die beiden Gleichungen:


x1


Seien v ∈ V und [v]B =  ... , dann gilt v = x1 v1 + · · · + xn vn und daher
xn


x1


ρB ([v]B ) = ρB  ...  = x1 v1 + · · · + xn vn = v
xn


x1
 .. 
Andererseits sei u =  .  ∈ K n , dann gilt ρB (u) = x1 v1 + · · · + xn vn und
x

n
x1
 .. 
daher [ρB (u)]B =  .  .
xn
93
Es folgt
[ · ]B ◦ ρB = idK n
ρB ◦ [ · ]B = idV
und
und daraus [ · ]B = ρ−1
B .
6.22 gibt eine genaue Beschreibung aller linearen Abbildungen vom K n in den K k
mit Hilfe von Matrizen. Um nun so eine Beschreibung aller linearen Abbildungen
zwischen zwei beliebigen endlich-dimensionalen Vektorräumen V und W zu erhalten, geht man so vor: Es seien ϕ : V → W linear und B bzw. C geordnete Basen
von V bzw. W , dann ist ψ = [ · ]C ◦ ϕ ◦ ρB : K n −→ K k eine lineare Abbildung.
Um die Lage zu veranschaulichen, betrachtet man das folgende “kommutative
Diagramm”:
Kn
ρB
/
ϕ
ψ
Kk o
V
[ · ]C
W
Definition 6.37 Es seien V und W endlich-dimensionale K-Vektorräume, B
eine geordnete Basis von V und C eine geordnete Basis von W . Weiterhin sei
ϕ : V → W eine lineare Abbildung. Man setze ψ = [ · ]C ◦ ϕ ◦ ρB . Dann heißt
[ϕ]B,C = [ψ]
die darstellende Matrix von ϕ bezüglich B und C. Wenn ϕ : V → V linear
ist, setzt man
[ϕ]B = [ϕ]B,B
Darstellende Matrizen bezüglich beliebiger geordneter Basen besitzen keine großen
Sympathien bei Studierenden, die sich erst seit kurzer Zeit mit Linearer Algebra
beschäftigen. Da hilft es wenig, darauf hinzuweisen, dass sie ein wichtiges Hilfsmittel beim Studium linearer Abbildungen sind (das Problem der Diagonalisierung,
das in einem späteren Kapitel behandelt wird, gehört dazu). Aber die Idee ist
vergleichsweise einfach: Die geordneten Basen B und C vermitteln Isomorphismen einerseits zwischen V und K n und andererseits zwischen W und K k . Also
geht eine lineare Abbildung von V nach W unter diesen Isomorphismen in eine
lineare Abbildung von K n in K k über. Und die darstellende Matrix der linearen
Abbildung von V nach W ist eben die der ”neuen” linearen Abbildung von K n
nach K k .
Das folgende Ergebnis beschreibt den Nutzen, den die darstellende Matrix einer
linearen Abbildung hat: Wenn ϕ : K n → K k eine lineare Abbildung ist, hat doch
[ϕ] die folgende Eigenschaft: Wenn man [ϕ] mit einem Vektor v ∈ K n multipliziert, erhält man ϕ(v). Wenn man nun bedenkt, dass v bzw. ϕ(v) gerade die
Koordinatendarstellungen von v bezüglich En bzw. von ϕ(v) bezüglich Ek sind,
94
kann man das doch so formulieren: Man erhält die Koordinatendarstellung von
ϕ(v) bezüglich der Standardbasis, indem man [ϕ] mit der Koordinatendarstellung von v bezüglich der Standardbasis multipliziert. Und wenn man in dieser
Formulierung die Standardbasen durch beliebige geordnete Basen ersetzt, erhält
man genau die Beschreibung einer darstellenden Matrix bezüglich beliebiger geordneter Basen:
Proposition 6.38 Es seien V und W endlich-dimensionale K-Vektorräume,
B = (v1 , . . . , vn ) eine geordnete Basis von V und C eine geordnete Basis von
W . Weiterhin sei ϕ : V → W eine lineare Abbildung. Dann gelten:
(i) Die Spaltenvektoren von [ϕ]B,C sind [ϕ(v1 )]C , . . . , [ϕ(vn )]C .
(ii) [ϕ(v)]C = [ϕ]B,C [v]B
für alle v ∈ V .
Beweis
(i) Nach 6.42 sind die Spaltenvektoren von [ϕ]B,C = [ψ] gerade ψ(e1 ), . . . , ψ(en ).
Nun gilt aber ρB (ej ) = vj und daher
ψ(ej ) = [ϕ(ρB (ej ))]C = [ϕ(vj )]C
Ich betrachte noch einmal das “kommutative Diagramm”
Kn
ρB
V
ϕ
ψ
Kk o
/
[ · ]C
W
(ii) Für alle v ∈ V gilt nach 6.14:
ψ([v]B ) = [ψ][v]B = [ϕ]B,C [v]B
sowie
ψ([v]B ) = [ · ]C ◦ ϕ ◦ ρB ([v]B ) = [ϕ(ρB ([v]B )]C = [ϕ(v)]C
nach 6.36.
Ich will an dieser Stelle noch kurz erklären, warum ich in 6.38 nicht einfach
[ϕ]B,C = ([ϕ(v1 )]C , . . . , [ϕ(vn )]C )
schreibe: Wenn


a1,j


[ϕ(vj )]C =  ... 
ak,j
95
gilt, folgt




a1,1
a1,n




([ϕ(v1 )]C , . . . , [ϕ(vn )]C ) =  ...  , . . . ,  ... 
ak,1
ak,n
und da stehen einfach zu viele Klammern rum. Das ist kleinlich, ich gebe es zu,
aber ich bemühe mich ja in der gesamten Vorlesung, die Studierenden dazu zu
erziehen, kleinlich zu sein, so dass ich an dieser Stelle nicht davon abweichen
wollte. Aber natürlich ist diese “Darstellung” von [ϕ]B,C als Arbeitsgrundlage
ausgezeichnet.
Andererseits ist Form ja dazu da, Dinge verständlicher zu machen. Also ist
die Frage, ob die Formulierung “Es sei A eine Matrix mit den Spaltenvektoren a1 , . . . , an ” wirklich einfacher zu verstehen ist als die Formulierung “Es sei
A = (a1 , . . . , an )”, ich glaube, das Gegenteil ist der Fall, selbst wenn man in Betracht zieht, dass die letzte Formulierung eben nicht ganz exakt ist, so dass ein
kleiner Transformationsprozeß notwendig ist, bei dem einige Klammern entfernt
werden müssen. Also steht im Folgenden immer die Formulierung
“Es sei A = (a1 , . . . , an )”
für
“Es sei A eine Matrix mit den Spaltenvektoren a1 , . . . , an ” .
Und in dieser Formulierung gilt dann eben doch
[ϕ]B,C = ([ϕ(v1 )]C , . . . , [ϕ(vn )]C )
Beispiele 6.39
(i) Es sei ϕ : K n → K k linear. Dann gilt
[ϕ]En ,Ek = [ϕ]
(ii) Man definiere
ϕ : R2 −→ R2
durch
x1
x1 + x2
ϕ
=
x2
2x2
1
1
Dann ist ϕ linear. Es sei B =
= (v1 , v2 ), dann ist B eine
0
1 x1
geordnete Basis. Nach 6.35(ii) gilt für alle
∈ R2 :
x2
x1
x1 − x 2
[
] =(
.
x2 B
x2
96
Es folgt:
ϕ(e1 ) = ϕ(v1 ) = ϕ
ϕ(e2 ) = ϕ
ϕ(v2 ) = ϕ
0
1
1
1
1
0
=
=
=
1
2
2
2
1
0
⇒ [ϕ(e1 )]B = [ϕ(v1 )]B =
−1
2
0
2
1 1
0 2
⇒ [ϕ(e2 )]B =
⇒ [ϕ(v2 )]B =
1
0
Damit erhält man:
[ϕ]E2 = [ϕ]E2 ,E2 = [ϕ] = (ϕ(e1 ), ϕ(e2 )) =
[ϕ]E2 ,B = ([ϕ(e1 )]B , [ϕ(e2 )]B ) =
1 −1
0 2
[ϕ]B,E2 = ([ϕ(v1 )]E2 , [ϕ(v2 )]E2 ) = (ϕ(v1 ), ϕ(v2 )) =
[ϕ]B = [ϕ]B,B = ([ϕ(v1 )]B , [ϕ(v2 )]B ) =
1 0
0 2
1 2
0 2
Also gilt z.B.:
0
0
0
1 −1
0
−1
[ϕ
] = [ϕ]E2 ,B [
] = [ϕ]E2 ,B
=
=
1 B
1 E2
1
0 2
1
2
oder
[ϕ
0
1
]B = [ϕ]B [
also
ϕ
0
1
0
1
1 0
−1
−1
]B =
=
0 2
1
2
= (−1)
1
0
+2
1
1
=
1
2
Proposition 6.40 Es seien V und W endlich-dimensionale K-Vektorräume und
B bzw. C geordnete Basen von V bzw. W . Dann ist die Abbildung
[ · ]B,C : L(V, W ) −→ M (k, n, K)
ein Isomorphismus.
Beweis Man setze B = (v1 , . . . , vn ). Nach 6.38 gilt:
[ϕ]B,C = ([ϕ(v1 )]C , . . . , [ϕ(vn )]C )
97
woraus unmittelbar die Linearität von [ · ]B,C folgt: Für alle ϕ, ψ ∈ L(V, W ) gilt
z.B.:
[ϕ + ψ]B,C = ([(ϕ + ψ)(v1 )]C , . . . , [(ϕ + ψ)(vn )]C )
= ([ϕ(v1 ) + ψ(v1 )]C , . . . , [ϕ(vn ) + ψ(vn )]C )
= ([ϕ(v1 )]C + [ψ(v1 )]C , . . . , [ϕ(vn )]C + ψ(vn )]C )
= ([ϕ(v1 )]C , . . . , [ϕ(vn )]C ) + ([ψ(v1 )]C , . . . , [ψ(vn )]C )
= [ϕ]B,C + [ψ]B,C
Zum Beweis der Injektivität reicht es nach 5.7(i) zu zeigen, dass ker[ · ] = {0}
gilt. Also gelte [ϕ]B,C = 0, dann folgt aus 6.38(ii) für alle v ∈ V :
[ϕ(v)]C = [ϕ]B,C [v]B = 0 · [v]B = 0
und daraus ϕ = 0.
Zum Beweis der Surjektivität sei A = (a1 , . . . , an ) ∈ M (n, k, K), dann definiere
man f : B → W durch [f (vj )]C = aj . Nach 5.16 gibt es genau eine lineare
Abbildung ϕ : V → W so dass gilt ϕ(vj ) = f (vj ) für alle j und es folgt
[ϕ]B,C = ([ϕ(v1 )]C , . . . [ϕ(vn )]C ) = ([f (v1 )]C , . . . [f (vn )]C ) = (a1 , . . . , an ) = A
Proposition 6.41 Es seien V, W, Z drei K-Vektorräume mit geordneten Basen
B, Cbzw.D. Weiter seien ϕ : V → W und ψ : W → Z lineare Abbildungen. Dann
gilt:
[ψ ◦ ϕ]B,D = [ψ]C,D [ϕ]B,C
Beweis Es sei B = (v1 , . . . , vn ). Nach 6.38(i) ist der j-te Spaltenvektor von
[ψ ◦ ϕ]B,D gerade [ψ ◦ ϕ(vj )]D . Nun gilt aber nach 6.38(ii)
[ψ(ϕ(vj ))]D = [ψ]C,D [ϕ(vj )]C = [ψ]C,D [ϕ]B,C [vj ]B = [ψ]C,D [ϕ]B,C ej
und auf der rechten Seite steht gerade der j-te Spaltenvektor von [ψ]C,D [ϕ]B,C .
Gelegentlich ist man daran interessiert, wie man von der darstellenden Matrix
bezüglich einer geordneten Basis zu der bezüglich einer anderen kommt. Hier
hilft 6.41:
Korollar 6.42 Es seien V ein endlich-dimensionaler K-Vektorraum und B sowie C = (w1 , . . . wn ) geordnete Basen von V . Weiterhin sei ϕ : V → V eine
lineare Abbildung. Dann gibt es eine reguläre Matrix T so dass gilt
[ϕ]C = T −1 [ϕ]B T
98
In der Tat kann man
T = ([w1 ]B , . . . , [wn ]B )
setzen.
Beweis Es gilt
ϕ = idV ◦ ϕ ◦ idV
und daraus folgt mit 6.41:
[ϕ]C = [id]B,C [ϕ]B [id]C,B
Nun gilt
[id]B,C [id]C,B = [id]C = In
und analog [id]C,B [id]B,C = In also ist T = [id]C,B regulär und es gilt T −1 =
[id]B,C . Die Darstellung von T = [id]C,B folgt dann aus 6.38.
99
Kapitel 7
Lineare Gleichungssysteme
Auch in diesem Kapitel sei K ein Körper.
Bemerkung 7.1 Es
 seien
A = (ai,j ) eine k × n Matrix mit den Spaltenvektoren
x1


a1 , . . . , an und v =  ...  ∈ K n . Dann gilt:
xn


 

x1
x1 a1,1 + · · · + xn a1,n
a1,1 · · · a1,n


..   ..  = 
..
Av =  ...

.  .  
.
ak,1 · · · ak,n
xn
x1 ak,1 + · · · + xn ak,n




a1,1
a1,n




= x1  ...  + · · · + xn  ...  = x1 a1 + · · · + xn an
ak,1
ak,n
In diesem Kapitel sollen Methoden entwickelt werden, wie man Probleme, die
in den vorherigen Kapiteln aufgetaucht sind, praktisch lösen kann. Nehmen wir
z.B. an, es seien a1 , . . . , an Vektoren in K k und b ∈ L({a1 , . . . , an }). Dann gibt es
Elemente x1 , . . . , xn aus K so dass gilt
b = x 1 a1 + · · · + x n an
Es seien A = (a1 , . . . , an ) und v = (x1 , . . . , xn )t , dann ist das 7.1 äquivalent zu
Av = b oder in ausgeschriebener Form:
a1,1 x1 + · · · + a1,n xn
a2,1 x1 + · · · + a2,n xn
..
.
= b1
= b2
..
.
ak,1 x1 + · · · + ak,n xn = bk
100
“Gleichungssysteme” dieser Art sind aus der Schule natürlich bekannt, allerdings
ist hier nicht klar, was die xi sind. Um formale Komplikationen zu vermeiden,
definiere ich:
Definition 7.2 Es seien A ∈ M (k, n, K) und b ∈ K k . Der formale Ausdruck
AX = b
heißt lineares Gleichungssystem (LGS).
Man nennt A die Koeffizientenmatrix und b die rechte Seite des LGSs.
Ein Vektor v ∈ K n heißt Lösung des LGS, wenn gilt:
Av = b
Ich setze
L(A, b) = {v ∈ K n : Av = b}
also ist L(A, b) die Menge aller Lösungen des LGS AX = b.
Das LGS heißt homogen, wenn b = 0 gilt und sonst inhomogen.
Bemerkung 7.3
(i) Es seien A = (a1 , . . . , an ) und b ∈ K k , dann gilt für alle v ∈ K n :
v = (x1 , . . . xn )t löst das LGS AX = b ⇔ b = x1 a1 + . . . + xn an
wenn also die rechte Seite die “zugehörige” Linearkombination der Spaltenvektoren von A ist.
(ii) Es seien ϕ ∈ L(K n , K k ). Dann gilt für b ∈ K k und v ∈ K n :
ϕ(v) = b
⇐⇒ [ϕ]v = b
⇐⇒ v löst das LGS [ϕ]X = b
Also kann man die Frage, ob ein Vektor im Kern oder im Bild einer linearen
Abbildung liegt, beantworten, indem man ein lineares Gleichungssystem löst.
Das im folgenden entwickelte Gaußsche Verfahren zur Lösung eines LGS AX = b
oder
a1,1 x1 + · · · + a1,n xn
a2,1 x1 + · · · + a2,n xn
..
.
= b1
= b2
..
.
ak,1 x1 + · · · + ak,n xn = bk
101
ist die technische Verbesserung des naheliegenden “Eliminationsverfahrens”: Man
“berechnet” aus der 1. Zeile x1 , setzt es in die 2.-te bis k.-te Zeile ein, “berechnet”
dann x2 aus der neuen 2. Zeile, setzt es ein ... . Um sicherzustellen, dass man bei
den einzelnen Schritten keine Lösungen verliert oder hinzugewinnt, ist ein wenig
Aufwand nötig.
Definition 7.4 (“Elementare Zeilen- und Spaltenoperationen”) Es seien A ∈
M (k, n, K) und 1 ≤ i, j ≤ k, 1 ≤ r, s ≤ n sowie λ ∈ K. Dann bezeichne
σi,j,λ (A)
die Matrix, die man erhält, indem man
in A zur i.-ten Zeile das λ-fache der j.-ten Zeile addiert
und alle anderen Zeilen unverändert läßt
πi,j (A)
die Matrix, die man erhält, indem man
in A die i.-te und j.-te Zeile vertauscht
und alle anderen Zeilen unverändert läßt
π r,s (A)
die Matrix, die man erhält, indem man
in A die r.-te und s.-te Spalte vertauscht
und alle anderen Spalten unverändert läßt.
Man nennt σi,j,λ für i 6= j und πi,j elementare Zeilenoperationen sowie π i,j
elementare Spaltenoperation.
Beispiel 7.5 Es sei


2
0 1 4
A =  1 −1 0 2  ,
4
2 1 0
dann gelten:


6 −4 1 12
σ1,2,4 (A) =  1 −1 0 2 
4
2 1 0


2
0 1 4
2 1 0 
π2,3 (A) =  4
1 −1 0 2


2 1
0 4
π 2,3 (A) =  1 0 −1 2 
4 1
2 0
102
Satz 7.6 Es sei A ∈ M (k, n, K) und A 6= 0. Dann gibt es ein r und elementare
Zeilen- und Spaltenoperationen τ1 , . . . τs sowie ã1,1 , . . . ãr,r 6= 0 so dass gilt:


ã1,1 · · · · · · ã1,r ã1,r+1 · · · ã1,n
..
..
.. 

...
.
.
. 
 0
 .
..
..
.. 
.. ..
 ..
.
.
.
.
. 



τs (· · · (τ1 (A)) · · · ) = 
0
·
·
·
0
ã
ã
·
·
·
ã
r,r
r,r+1
r,n 

 0 ··· ··· 0
0
···
0 


 .

.
.
.
..
..
.. 
 ..
0 ··· ··· 0
0
···
0
Man nennt eine Matrix in dieser Form auch (Gaußsche) Normalform.
Den Beweis von 7.6 führt man durch das sogenannte Gaußsche Verfahren. Das
ist einfacher praktisch vorzuführen als aufzuschreiben. Also zeige ich zunächst ein
Beispiel:
Beispiel 7.7 Es sei

1
 1
A=
 1
0
dann

1
 1

 1
0
1
1
0
1

1
1
1 −1 
 ∈ M (4, 4, R) ,
1
0 
0
1
erhält man durch die angegebenen Operationen:





1 1
1
1 1 1
1
1
1 1
1
 0 0 0 −2  σ3,1,−1  0
π2,3
1 1 −1 
0 0 −2 
2,1,−1
 σ−→

 −→ 
 −→





0 1
0
1 0 1
0
0 −1 0 −1
1 0
1
0 1 0
1
0
1 0
1





1
1 1
1
1
1 1
1
1
1
1 1
 0 −1 0 −1  σ4,2,1  0 −1 0 −1  π3,4  0 −1 −1 0

 −→ 
 −→ 
 0
 0
 0
0 0 −2 
0 0 −2 
0 −2 0
0
1 0
1
0
0 0
0
0
0
0 0




Zum Beweis von 7.6 beweise ich ein Lemma, das den wesentlichen Schritt des
Verfahrens darstellt:
103
Lemma 7.8 Es sei






A=





a1,1 · · · · · · a1,r
..
...
.
0
..
.. ..
.
.
.
0
0
..
.
··· 0
··· ···
0
···
···
a1,r+1
..
.
···
···
ar,r ar,r+1 · · ·
0 ar+1,r+1 · · ·
..
..
.
.
0
ak,r+1 · · ·

a1,n
.. 
. 



ar,n 

ar+1,n 

.. 
. 
ak,n
mit ai,i 6= 0 für 1 ≤ i ≤ r. (Dabei ist der Fall r = 0 ausdrücklich zugelassen.)
Dann gilt ai,j = 0 für alle i, j ≥ r + 1 (und dann hat A Normalform) oder es gibt
elementare Zeilen- und Spaltenoperationen τ1 , . . . , τp so dass gilt:








τp (· · · (τ1 (A)) · · · ) = 






a1,1 · · · · · · a1,r a1,r+1
···
..
..
..
.
0
.
.
..
..
..
.. ..
.
.
.
.
.
0 · · · 0 ar,r ar,r+1
···
0 · · · · · · 0 ãr+1,r+1 ãr+1,r+2
...
0 ··· ··· 0
0
..
..
..
..
.
.
.
.
0 ··· ··· 0
0
ãk,r+2
···
a1,n
..
.
..
.
· · · ar,n
· · · ãr+1,n
..
.
..
..
.
.
· · · ãk,n















mit ãr+1,r+1 6= 0.
Beweis Ich nehme an, es gilt ai,j 6= 0 für ein i ≥ r + 1, j ≥ r + 1.
a
i,r+1
und τi = σi,r+1,λi , dann hat
1. Fall Es gilt ãr+1,r+1 6= 0. Man setze λi = − ar+1,r+1
τk (. . . (τr+1 (A)) · · · )
die geforderte Form.
2. Fall Es gilt ãr+1,r+1 = 0, aber es gibt ein i > r + 1 mit ãi,r+1 6= 0. Dann hat
πi,r+1 (A) die Form aus dem 1. Fall.
3. Fall Es gilt ãi,r+1 = 0 für alle i ≥ r + 1. Nach Annahme gibt es i, j ≥ r + 1 so
dass gilt ãi,j 6= 0. Es gilt dann j > r + 1 und π r+1,j (A) hat die Form aus dem 2.
Fall.
Der Beweis von 7.6 geht nun ganz schnell:
Beweis von 7.6 Man wende 7.8 nacheinander auf r = 0, 1, . . . an, bis man die
geforderte Form erhält.
104
Lemma 7.9 Es seien 1 ≤ i, j ≤ k , i 6= j , 1 ≤ r, s ≤ n sowie λ ∈ K. Dann
sind die Abbildungen
σi,j,λ , πi,j , , π r,s : M (k, n, K) −→ M (k, n, K)
Isomorphismen. Weiter gelten:
(i) σi,j,−λ ◦ σi,j,λ = id
(ii) πi,j ◦ πi,j = id
(iii) π i,j ◦ π i,j = id
Beweis Das ist alles trivial.
Proposition 7.10 Es seien A ∈ M (k, n, K) und b ∈ K k sowie 1 ≤ i, j ≤ k ,
1 ≤ r, s ≤ n und λ ∈ K. Dann gelten:
(i) Das LGS AX = b hat dieselbe Lösungsmenge wie das LGS σi,j,λ (A)X =
σi,j,λ (b).
(ii) Die LGSe AX = b und πi,j (A)X = πi,j (b) haben dieselbe Lösungsmenge.
(iii) Ein Vektor v ∈ K n ist genau dann Lösung des LGSs AX = b, wenn πr,s (v)
Lösung des LGSs π r,s (A)X = b ist.
Beweis Es seien A = (a1 , . . . , an ) und b = (b1 , . . . , bk )t .
(i) Man setze σ = σi,j,λ , dann gilt offenbar σ(A) = (σ(a1 ), . . . , σ(an )). Nach 7.3
löst v = (x1 , . . . , xn )t ∈ K n genau dann das LGS AX = b, wenn gilt
b = x 1 a1 + · · · + x n an
Da σ ein Isomorphismus ist, ist dies genau dann der Fall, wenn gilt
σ(b) = x1 σ(a1 ) + · · · + xn σ(an )
und dies ist genau dann der Fall, wenn v das LGS σ(A)X = σ(B) löst.
(ii) Sei π = πi,j . Ein Vektor v = (x1 , . . . , xn )t löst genau dann das LGS AX = b,
wenn gilt b = x1 a1 + · · · + xn an und dies ist genau dann der Fall, wenn gilt
π(b) = x1 π(a1 ) + · · · + xn π(an )
Nun gilt offenbar π(A) = (π(a1 ), . . . , π(an )) und daher löst v genau dann das
LGS AX = b, wenn v das LGS π(A)X = π(b) löst.
(c) Sei π = π r,s . Um Schreibarbeit zu sparen, nehme ich an, dass r = 1 und
s = 2 gilt. Dann folgt π(A) = (a2 , a1 , a3 , . . . , an ). Also löst v genau dann das LGS
105
AX = b, wenn gilt x1 a1 + · · · + xn an = b und dies ist genau dann der Fall, wenn
gilt
x 2 a2 + x 1 a1 + x 3 a3 + · · · + x n an = b
und dies ist genau dann der Fall, wenn π(v) = (x2 , x1 , x3 , . . . , xn )t das LGS
π(A)X = b löst.
Bemerkung 7.11 Es sei A
gelte:

α1,1

 0
 .
 ..

A=
 0
 0

 .
 ..
0
∈ M (k, n, K) eine Matrix in Normalform, d.h. es
· · · · · · a1,r a1,r+1 · · · a1,n
..
..
..
..
.
.
.
.
..
..
..
... ...
.
.
.
· · · 0 ar,r ar,r+1 · · · ar,n
··· ··· ···
···
···
0
..
.
···
···
···
···
···












0
mit a1,1 , . . . ar,r 6= 0 sowie b = (b1 , . . . , bk ) ∈ K k . Dann gelten:
Das LGS AX = b ist genau dann lösbar, wenn br+1 = · · · = bn = 0 gilt.
Wenn das LGS AX = b lösbar ist, erhält man alle Lösungen auf die folgende
Weise:
Man wählt xr+1 , . . . xn ∈ K beliebig und berechnet dann xr , . . . x1 sukzessiv aus
der r.-ten, (r-1).-ten, . . . 1. Gleichung. Formal definiert man xr , . . . x1 induktiv
durch:
1
(br − ar,r+1 xr+1 − · · · − ar,n xn )
xr =
ar,r
Und wenn xr , . . . xs+1 definiert sind, setzt man:
xs =
1
(bs − as,s+1 xs+1 − · · · − as,n xn )
as,s
Bei der praktischen Durchführung der Lösung des LGSs AX = B schreibt man
das LGS zunächst in der folgenden, leicht verstehbaren Form:


x1 · · · · · · xn
 a1,1 · · · · · · a1,n b1 


 ..
.. 
..
 .
. 
.
ak,1 · · · · · · ak,n bn
Man nennt diese Matrix die erweiterte Koffizientenmatrix . Nach 7.10(i)
verändert man die Lösungsmenge nicht, wenn man auf die erweiterte Matrix eine
106
elementare Zeilenoperation anwendet. Wenn man zwei Spalten vertauscht, die
nicht die rechte Seite sind, muss man bei den Lösungsvektoren die entsprechenden
Komponenten vertauschen. Ich zeige die Prozedur an einem Beispiel, ich denke,
dass dann klar ist, wie das geht:
Beispiel 7.12 Vorgegeben sei das LGS
x1 + x2 + x3 + x4
x1 + x2 + x3 − x4
x1 + x3
x2 + x4
=
=
=
=
4
2
2
2
dann schreibt man dies in einer erweiterten Koeffizientenmatrix so:


x1 x2 x3 x4
 1 1 1
1 4 


 1 1 1 −1 2 


 1 0 1
0 2 
0 1 0
1 2
Nun ist die Koeffizientenmatrix die aus Beispiel ex gauss, so dass man zur Lösung
dieses Gleichungssystems die dortigen elementaren Zeilen- und Spaltenoperationen benutzen kann, die dortigen Matrizen also nur erweitern muss. Der Gauß
Algorithmus liefert dann:




x1 x2 x3 x4
x 1 x 2 x3 x4
 1 1 1

1 4 
1
4 
 σ2,1,−1  1 1 1
 3,1,−1

 1 1 1 −1 2  −→  0 0 0 −2 −2  σ−→




 1 0 1
 1 0 1
0 2 
0
2 
0 1 0
1 2
0 1 0
1
2




x1 x2 x3 x4
x1 x2 x3 x4
 1

1 1
1
4 
1 1
1
4 
 π2,3  1
 4,2,1
σ3,1,−1 
 −→  0 −1 0 −1 −2  σ−→
−→ 
0
0
0
−2
−2




 0
 0 −1 0 −1 −2 
0 0 −2 −2 
2
2
0
1 0
1
0
1 0
1




x1 x2 x3 x4
x1 x2 x4 x3
 1

1 1
1
4 
1
1 1
4 
 π3,4  1

σ4,2,1 



−→  0 −1 0 −1 −2  −→  0 −1 −1 0 −2 

 0
 0
0 0 −2 −2 
0 −2 0 −2 
0
0 0
0
0
0
0
0 0
0
Man beachte, dass ich bei der Vertauschung der 3. und 4. Spalte im letzen Schritt
auch die Variablen getauscht habe, da eine Vertauschung von Spalten bei den
107
Lösungsvektoren eine Vertauschung der entsprechenen Komponenten nach sich
zieht.
Weil das Element in der letzten Zeile und letzten Spalte der erweiterten Koeffizientenmatrix Null ist, ist das LGS lösbar.
Man wähle x3 ∈ R beliebig, dann erhält man, indem man das LGS von der 3.
Zeile sukkzessiv nach oben gehend löst:
−2x4 = −2
⇒ x4 = 1
−x2 − x4 = −2
⇒ x2 = 2 − x4 = 2 − 1 = 1
x1 + x2 + x4 + x3 = 4 ⇒ x1 = 4 − x2 − x4 − x3 = 4 − 1 − 1 − x3 = 2 − x 3
Daher gilt für die Lösungsmenge L des LGS:



2 − x3







1


:x ∈R
L= 
x3  3






1
Das Gauß-Verfahren erlaubt es, neben der Lösung linearer Gleichungssysteme
eine wichtige Maßzahl einer Matrix zu bestimmen, den Rang.
Definition 7.13 Es sei


ct1


A = (a1 , . . . , an ) =  ...  ∈ M (k, n, K)
ctk
Dann heißt
srg A = dim L({a1 , . . . , an })
der Spaltenrang von A und
zrg A = dim L({c1 , . . . , ck })
der Zeilenrang von A.
Es gelte srg A = r. Dann gibt es unter den Spaltenvektoren höchstens r linear
unabhängige. Da aber jedes EZS nach 4.14 eine Basis enthält, gibt es unter den
Spaltenvekoren r linear unabhängige. Mit anderen Worten, der Zeilenrang bzw.
der Spaltenrang einer Matrix ist die maximale Anzahl linear unabhängiger Zeilenbzw. Spaltenvektoren.
108
Beispiel 7.14 Es sei A eine Matrix in Gaußscher

a1,1 · · · · · · a1,r a1,r+1
..
..

...
.
.
 0
 .
.
..
.
.
 ..
.. ..
..
.

A=
0
·
·
·
0
a
a
r,r
r,r+1

 0 ··· ··· 0
0

 .
.
..
..
 ..
.
0 ··· ··· 0
0
Normalform, d.h. es gelte

· · · a1,n
.. 
. 
.. 
. 

· · · ar,n 

···
0 

.. 
. 
···
0
mit ai,i 6= 0 für 1 ≤ i ≤ r. Dann gilt srg A = zrg A = r.
Beweis Es sei

ct1


A = (a1 , . . . , an ) =  ... 
ctk

Spaltenrang: Nach 7.3(i) und 7.11 gilt:
b ∈ L({a1 , . . . , an }) ⇔ das LGS AX = b ist lösbar ⇔ br+1 = · · · = bk = 0
Also gilt












L({a1 , . . . , an }) = 













b1



.. 


., 




br 
 : b1 . . . , br ∈ K
0 




.. 



.


0
und dieser Untervektorraum hat offenbar die Dimension r, d.h. es gilt srg A = r.
Zeilenrang: Es seien c1 , . . . , ck die Zeilenvektoren von A. Dann gilt






a1,1
0
0
 a1,2 
 a2,2 
 0 
 . 
 . 
 . 
 . 
 . 
 . 
 . 
 . 
 . 






 a

 a

 0 
c1 =  1,r−1  , c2 =  2.r−1  , . . . , cr = 

 a1,r 
 a2,r 
 ar,r 






 a1,r+1 
 a2,r+1 
 ar,r+1 
 . 
 . 
 . 
 .. 
 .. 
 .. 
a1,n
a2,n
ar,n
und cr+1 = · · · = ck = 0. Offenbar gilt zrg A ≤ r, so dass es reicht zu zeigen, dass
c1 , . . . , cr linear unabhängig sind. Also gelte
α1 c1 + · · · + αr cr = 0
109
Dann folgt insbesondere:
α1 a1,1
α1 a1,2 + α2 a2.2
..
.
=
=
..
.
0
0
..
.
α1 a1,r + α2 a2,r + · · · + αr ar,r = 0
und daraus nacheinander
α1 = 0, α2 = 0, . . . , αr = 0
Also gilt zrg A = r.
Ich werde zeigen, dass der Zeilen- und Spaltenrang einer Matrix gleich sind. Da
man beide nicht unmittelbar ablesen kann, ist es nützlich, sich zu überlegen, dass
beide sich nicht ändern, wenn man auf eine Matrix eine elementare Zeilen- oder
Spaltenoperation anwendet.
Lemma 7.15 Es sei A ∈ M (k, n, K). Wenn man auf A eine elementare Zeilenoder Spaltenoperation anwendet, ändern sich der Zeilen- und Spaltenrang nicht.
Beweis Es sei


ct1


A = (a1 , . . . , an ) =  ... 
ctk
Ich betrachte zunächst den Zeilenrang: Sei σ = σi,j,λ . Die Zeilenvektoren der
Matrix σ(A) sind c1 , . . . , ci−1 , ci + λcj , ci+1 , · · · , ck . Nun gilt aber
L({c1 , . . . , ci−1 , ci + λcj , ci+1 , . . . , ck }) = L({c1 , . . . , ck })
und daraus folgt die Behauptung.
Offensichtlich gilt zrg πi,j (A) = zrg A, denn es werden ja nur zwei Zeilen vertauscht.
Weiterhin gilt:

 

π r,s (ct1 )
πr,s (c1 )t

 

..
..
π r,s (A) = 
=

.
.
r,s t
t
π (ck )
πr,s (ck )
Da die Abbildung
K n −→ K n
v 7→ πr,s (v)
ein Isomorphismus ist, gilt dim L({c1 , . . . , ck }) = dim L({πr,s (c1 ), . . . , πr,s (ck )}).
Es folgt zrg π r,s (A) = zrg A.
Ich komme nun zum Spaltenrang: Offenbar ändert sich der Spaltenrang nicht,
110
wenn man zwei Spalten von A vertauscht. Den Fall der Vertauschung zweier Zeilen
beweist man wie den Fall der Vertauschung zweier Spalten beim Zeilenrang. Also
bleibt zu zeigen, dass gilt
srg σi,j,λ (A) = srg A
Man setze σ = σi,j,λ , dann gilt
σ(A) = (σ(a1 ), . . . , σ(an ))
und da die Abbildung
Kr → Kr
a 7→ σ(a)
ein Isomorphismus ist, folgt
srg σ(A) = dim L({σ(a1 ), . . . , σ(an )}) = dim L({a1 , . . . , an }) = srg A
Nach 7.6 kann man jede Matrix durch elementare Zeilen- und Spaltenoperationen
in eine Matrix in Gaußscher Normalform überführen, nach 7.15 ändern sich dabei
Zeilen- und Spaltenrang nicht. Man erhält:
Satz 7.16 Es sei A ∈ M (k, n, K). Dann gilt
zrg A = srg A
Beweis Nach 7.6 kann man jede Matrix durch elementare Zeilen- und Spaltenoperationen in eine Matrix in Gaußscher Normalform à überführen, d.h. es gilt


ã1,1 · · · · · · ã1,r ã1,r+1 · · · ã1,n
..
..
.. 

..
.
 0
.
.
. 
 .

.
.
.
.
.
 ..
..
..
..
..
.. 



à = 
0
·
·
·
0
ã
ã
·
·
·
ã

r,r
r,r+1
r,n 
 0 ··· ··· 0
0
···
0 


 .
..
..
.. 
 ..
.
.
. 
0 ··· ··· 0
0
···
0
mit ã1,1 , . . . ãr,r 6= 0. Nach 7.15 gilt zrg à = zrg A und srg à = srg A und nach
7.14 gilt zrg à = srg à = r.
7.16 ist ein eigentlich unerwartetes Resultat, denn man würde wohl nicht vermuten, dass die maximale Anzahl linear unabhängiger Zeilenvektoren einer Matrix
von der maximalen Anzahl linear unabhängiger Spaltenvektoren abhängt.
111
Definition 7.17 Es sei A ∈ M (k, n, K). Dann heißt
rg A = zrg A = srg A
der Rang von A.
Proposition 7.18 Es sei A ∈ M (k, n, K). Wenn man auf A eine elementare
Zeilen- oder Spaltenoperation anwendet, ändert sich der Rang von A nicht.
Das folgende Ergebnis ist eine direkte Folgerung aus 7.14. Ich formuliere es hier
als Korollar, weil ich eine Formulierung geben will, in der der Rang explizit vorkommt.
Korollar 7.19 (zu 7.14) Es sei A eine Matrix in
es gelte

a1,1 · · · · · · a1,r a1,r+1
..
..

..
.
.
.
 0
 .
.
..
.
.
 ..
..
.. ..
.

A=
 0 · · · 0 ar,r ar,r+1
 0 ··· ··· 0
0

 .
.
..
..
 ..
.
0 ··· ··· 0
0
Gaußscher Normalform, d.h.
···
···
···
a1,n
..
.
..
.
ar,n
0
..
.
···












0
mit ai,i 6= 0 für 1 ≤ i ≤ r. Dann gilt rg A = r.
7.18 und 7.19 erlauben es, den Rang einer Matrix zu berechnen: Man muss
sie durch elementare Zeilen- und Spaltenumformungen in Gaußsche Normalform
bringen.
Beispiel 7.20 Nach 7.7 kann man

1 1
 1 1
A=
 1 0
0 1
die Matrix

1
1
1 −1 
 ∈ M (4, 4, R)
1
0 
0
1
durch elementare Zeilen- und Spaltenoperationen überführen in die Matrix:


1
1
1 1
 0 −1 −1 0 


 0
0 −2 0 
0
0
0 0
Also gilt rg A = 3.
112
Bekanntlich gibt es einen engen Zusammenhang zwischen linearen Abbildungen
und Matrizen. Dieser macht es möglich, Rangaussagen über Matrizen zu übertragen auf Rangaussagen für lineare Abbildungen.
Proposition 7.21
(i) Es seien V und W endlich-dimensionale K-Vektorräume mit geordneten Basen
B und C sowie ϕ : V → W linear. Dann gilt
rg ϕ = rg[ϕ]B,C
(ii) Es sei ϕ : K n → K k eine lineare Abbildung, dann gilt:
rg ϕ = rg[ϕ]
(iii) Es sei A ∈ M (k, n, K), dann gilt
rg ϕA = rg A
Beweis
(i) Es gelte B = (v1 , . . . , vn ) und dim W = k. Nach 5.11 ist {ϕ(v1 ), . . . , ϕ(vn )}
ein EZS von ϕ(V ) und daher gilt
rg ϕ = dim ϕ(V ) = dim L({ϕ(v1 ), . . . , ϕ(vn )})
Da die Abbildung [ · ]C : W → Kk nach 6.36 ein Isomorphismus ist, gilt weiterhin
dim L({ϕ(v1 ), . . . , ϕ(vn )}) = dim L({[ϕ(v1 )]C , . . . , [ϕ(vn ]C })
= rg([ϕ(v1 )]C , . . . , [ϕ(vn ]C )
= rg[ϕ]B,C
wobei die letzte Gleichheit aus 6.38 folgt.
(ii) Man setze V = K n , W = K k , B = En und C = Ek und wende (i) an.
(iii) Nach 6.19 gilt [A] = [ϕA ] und die Behauptung folgt aus (ii).
Proposition 7.22 Es sei A ∈ M (k, n, K) und b ∈ K k . Dann gelten:
(i) L(A, 0) ist ein Untervektorraum von K n der Dimension n − rg A.
(ii) Es sei v0 eine Lösung des LGS AX = b. Dann gilt
L(A, b) = v0 + L(A, 0) = {v0 + v : v ∈ L(A, 0)}
Beweis
(i) Nach 7.3 gilt
v ∈ L(A, 0) ⇐⇒ Av = 0 ⇔ ϕA (v) = 0 ⇐⇒ v ∈ ker ϕA
113
Also gilt L(A, 0) = ker ϕA und L(A, 0) ist ein Untervektorraum. Aus dem Rangsatz (5.9) und 7.21 folgt dann:
dim L(A, 0) = dim ker ϕA = n − rg ϕA = n − rg A
(ii)“⊆”: Es gelte v ∈ L(A, b), dann folgt Av = b und daraus A(v − v0 ) = Av −
Av0 = b − b = 0, also v − v0 ∈ L(A, 0), dies ergibt
v = v0 + (v − v0 ) ∈ v0 + L(A, 0)
“⊇”: Es gelte v ∈ L(A, 0), dann folgt
A(v0 + v) = Av0 + Av = Av0 = b
und daher v0 + v ∈ L(A, b).
7.22 ist ein Beispiel eines häufig vorkommenden, sehr wichtigen mathematischen
Prinzips: Man erhält alle Lösungen eines LGSs, in dem man zu einer (speziellen)
Lösung alle Lösungen des zugehörigen homogenen LGSs addiert.
Von besonderem Interesse sind quadratische lineare Gleichungssysteme, also solche, in denen die Koeffizientenmatrix aus M (n, n, K) stammt, und damit quadratische Matrizen. Für diese gibt es eine lange Liste äquivalenter Aussagen:
Satz 7.23 Es sei A ∈ M (n, n, K). Dann sind äquivalent:
(i) A ist regulär.
(ii) rg A = n.
(iii) Die Zeilenvektoren von A sind linear unabhängig.
(iv) Die Spaltenvektoren von A sind linear unabhängig.
(v) Das LGS AX = b ist für alle b ∈ K k lösbar.
(vi) Das LGS AX = b ist für alle b ∈ K k eindeutig lösbar.
(vii) Das LGS AX = 0 hat nur die triviale Lösung v = 0.
Beweis Es gelten:
(i)
⇐⇒
ϕA ist Isomorphismus
6.31(ii)
(ii)
⇐⇒
rg ϕA = rg A = n ⇐⇒ ϕA ist surjektiv
7.21(iii), 5.7(ii)
(iii) ⇐⇒
rg A = zrg A = n
⇐⇒
rg A = srg A = n
(iv)
114
Für alle v ∈ K n gilt:
v löst AX = b ⇔ Av = b ⇔ ϕA (v) = b
Also folgt:
(v)
⇐⇒
ϕA ist surjektiv
(vi)
⇐⇒
ϕA ist bijektiv
(vii) ⇐⇒
ϕA ist injektiv
Die nicht-trivialen Behauptungen folgen jetzt aus 5.15.
115
Kapitel 8
Determinanten
Auch in diesem Kapitel sei K ein Körper.
In diesem Kapitel werde ich eine Maßzahl für quadratische (also n × n-Matrizen)
studieren, deren praktischer Nutzen stark nachgelassen hat, da ihre Berechnung
numerisch sehr aufwendig ist. Aber für viele Existenz- und auch Stetigkeitsaussagen ist sie dennoch immer noch sehr wichtig: Die Determinante einer Matrix.
Definition 8.1 Eine Abbildung
det : M (n, n, K) −→ K
heißt Determinante, wenn gelten:
(D1) det ist multilinear in den Zeilen, d.h. für alle c1 , . . . cn ∈ K n und alle i ∈
{1, . . . n} ist die Abbildung
K n −→ K
 t 
c1
 .. 
 . 
 t 
 ci−1 


v 7→ det  v t 
 t 
 ci+1 
 . 
 .. 
ctn
linear.
(D2) Es gilt det(A) = 0 wenn zwei Zeilen von A gleich sind.
(D3) det(In ) = 1
116
Beispiele 8.2
(i) Die Abbildung
det : M (2, 2, K) −→ K
definiert durch
det
a1,1 a1,2
a2,1 a2,2
= a1,1 a2,2 − a1,2 a2,1
ist eine Determinante.
(ii) Es seien det : M (n, n, K) → K eine

δ1

D=
0
Determinante und es sei

0

...

δn
eine “Diagonalmatrix”, dann gilt
det(D) = δ1 · · · · · δn
Beweis
(i) det ist linear in den Zeilen: Sei (a2,1 a2,2 )t ∈ K 2 fest, dann ist die Abbildung
x1 x2
x1
= a2,2 x1 − a2,1 x2
7→ det
a2,1 a2,2
x2
linear, analog ist für festes (a1,1 , a1,2 )t ∈ K 2 die Abbildung
x1
a1,1 a1,2
7→ det
= a1,1 x2 − a1,2 x1
x2
x1 x2
linear.
Offenbar gilt det A = 0, wenn die beiden Zeilen gleich sind, und det I2 = 1.
(ii) Es gilt

δ1

det D = det 
0

0
...
δn

1
 0 δ2 0


 = δ1 det 
.

0 ..





δn




= δ1 δ2 det 



1
1
0






δ3
0
..
.
δn
..
.
= δ1 · · · δn det In = δ1 · · · δn
117
Bei der Einführung der Determinante wäre es offenbar nützlich, wenn die Vektoren des K n wieder “Zeilenvektoren” wären, denn dann würde man die vielen
Transpositionen sparen. Aber aus offensichtlichen Gründen möchte ich an dieser Stelle nicht noch einmal wechseln, zumal in diesem Kapitel auch die Theorie
linearer Gleichungssysteme benutzt wird, bei der die Elemente des K n als Spaltenvektoren betrachtet wurden. Um die Transposition dennoch zu vermeiden, kann
man “Zeilenvektoren” als Elemente des M (1, n, K) darstellen, und das werde ich
im Folgenden auch meistens tun. (D1) besagt dann:
Bemerkung 8.3 Eine Abbildung det :
(D1), ist also multilinear, wenn für alle
und λ ∈ K gelten:



c1
 .. 

 . 




 ci−1 




det  v + w  = det 



 ci+1 

 . 

 .. 

cn
M (n, n, K) → K genügt genau dann
i und alle c1 , . . . , cn , v, w ∈ M (1, n, K)


c1
.. 

. 



ci−1 



v  + det 


ci+1 



.. 

.
cn

c1
.. 
. 

ci−1 

w 

ci+1 
.. 
. 
cn
und



c1
 .. 

 . 




 ci−1 




det  λv  = λ det 



 ci+1 

 . 

 .. 

cn

c1
.. 
. 

ci−1 

v 

ci+1 
.. 
. 
cn
Es wird sich herausstellen, dass es nur eine Determinante gibt. Bei der Berechnung
einer (also dann “der”) Determinante einer Matrix sind Zeilenoperationen äußerst
nützlich:
Proposition 8.4 Es seien det : M (n, n, K) → K eine Determinante, i, j ∈
{1, . . . n} , i 6= j und λ ∈ K. Dann gelten:
(i) det σi,j,λ (A) = det A.
(ii) det πi,j (A) = − det A.
118
Beweis Es gelte


c1


A =  ... 
cn
mit c1 , . . . , cn ∈ M (1, n, K). Dann folgt:



c1
..



.






 ci−1 




det σi,j,λ (A) = det  ci + λcj  = det 



 ci+1 




.



..
cn


c1
.. 

. 



ci−1 



ci  + λ det 


ci+1 



.. 

.
cn

c1
.. 
. 

ci−1 

cj 

ci+1 
.. 
. 
cn
Nun gilt aber


c1
 .. 
 . 


 ci−1 


det  cj  = 0


 ci+1 
 . 
 .. 
cn
weil in der letzten Matrix zweimal der Zeilenvektor cj enthalten ist und es folgt (i).








c1
c1
c1
c1
..
..
 .. 



 .. 

 . 



 . 

.
.








 ci 
 ci + cj 
 ci + cj 
 cj 
 .  σi,j,1 
 σj,i,−1 
 σi,j,1  . 
..
..
 ..  −→ 
 −→ 
 −→  .. 
.
.








 c 
 c
 −c 

 −c 
 j 





j
i
i 
 . 



 . 

..
..
 .. 



 .. 

.
.
cn
cn
cn
cn
Und aus dem ersten Teil und der Multilinearität folgt:




c1
c1
 .. 
 .. 
 . 
 . 




 cj 
 cj 
 . 
 . 



det A = det 
 ..  = − det  ..  = − det πi,j (A)
 −c 
 c 

 i 
i 
 . 
 . 
.
 . 
 .. 
cn
cn
119
Beispiel 8.5 Es seien det : M (2, 2, K) → K eine Determinante und
a1,1 a1,2
A=
∈ M (2, 2, K)
a2,1 a2,2
Dann gilt
a1,1 a1,2
a1,1 0
0 a1,2
det A = det
= det
+ det
=
a2,1 a2,2
a2,1 a2,2
a2,1 a2,2
a1,1 0
a1,1 0
0 a1,2
0 a1,2
= det
+ det
+ det
+ det
a2,1 0
0 a2,2
a2,1 0
0 a2,2
Nun gilt
det
a1,1 0
a2,1 0
= a1,1 det
1 0
a2,1 0
0 a1,2
0 a2,2
+ a1,1 a2,1 det
1 0
1 0
=0
nach (D2) und analog
det
=0
Weiterhin gilt nach 8.2(ii):
det
a1,1 0
0 a2,2
= a1,1 a2,2
Und schließlich nach 8.4(ii):
0 a1,2
a2,1 0
det
= − det
= −a1,2 a2,1
a2,1 0
0 a1,2
Also folgt
det
a1,1 a1,2
a2,1 a2,2
= a1,1 a2,2 − a1,2 a2,1
Daher ist die in 8.2(i) definierte Determinante die einzige auf M (2, 2, K).
Proposition 8.6 Es seien det : M (n, n, K) → K eine Determinante, dann gilt
det(A) = 0, wenn A nicht regulär ist.
Beweis Es sei A nicht regulär, dann sind
abhängig. Es gelte

c1
 ..
A= .
cn
mit c1 , . . . , cn ∈ M (1, n, K).
120
nach 7.23 die Zeilenvektoren linear



Da die Vertauschung von zwei Zeilenvektoren von A nur eine Änderung des Vorzeichens bedingt, kann man annehmen, dass cn von c1 , . . . , cn−1 linear abhängig
ist, es gelte cn = α1 c1 + · · · + αn−1 cn−1 . Dann ist letzte Zeile der Matrix
σn,n−1,−αn−1 (· · · (σn,1,−α1 (A)) · · · )
die Nullzeile. Da det linear ist, wenn man die ersten n − 1 Zeilen festhält, folgt
det(A) = 0.
Beispiel 8.7 Es seien det : M (n, n, K) → K eine Determinante, und


a1,1 ∗


...
A=

0
an,n
eine “obere Dreiecksmatrix”. Dann gilt
det(A) = a1,1 · · · · · an,n
Dabei besagt der ∗, dass dort beliebige Elemente stehen können.
Beweis Es gelte zunächst a1,1 · · · · ·an,n = 0, dann gilt ai,i = 0 für ein i, man wähle
r so dass gilt ai 6= 0 für alle i ≤ r und ar+1,r+1 = 0. Weiterhin sei A = (a1 , . . . , an ).
Dann hat das LGS (a1 , . . . , ar )X = ar+1 die Form:


a1,1 · · · · · · a1,r a1,r+1
..
.. 

..
.
.
. 
 0
 .
.. 
.
.
.
 ..
..
..
..
. 



 0 ··· 0 a
r,r ar,r+1 

 0 ··· ··· 0
0 


 .
..
.. 
 ..
.
. 
0
0 ··· ··· 0
Nach 7.11 ist das LGS lösbar. Es folgt ar+1 ∈ L({a1 , . . . , ar }) mit 7.3, also sind
die Spaltenvektoren von A linear abhängig. Daher ist A nach 7.23 nicht regulär
und aus 8.6 folgt
det A = 0 = a1,1 · · · · · an,n = 0
Umgekehrt gelte a1,1 · · · · · an,n 6= 0, dann folgt

1

det A = a1,1 · · · an,n 
0
121
ai,i 6= 0 für alle i. Es folgt

∗

..

.
1
Wie man sich leicht überlegt, kann man die Matrix


1 ∗


..
D=

.
0
1
durch elementare Zeilenoperationen der Form σi,j,λ überführen in die Matrix In .
Es folgt
det A = a1,1 · · · an,n det D = a1,1 · · · an,n det In = a1,1 · · · an,n
Beispiel 8.8 Es sei det : M (3, 3, R) → R eine Determinante, dann gilt:


1 0
1
det  2 1 −1  = 2
−1 0
1
Beweis Es sei A die vorgelegte Matrix. Dann gilt


1 0
1
σ3,1,1 (σ2,1,−2 (A))) =  0 1 −3 
0 0
2
und daher
det(A) = det(σ3,1,1 (σ2,1,−2 (A)))) = 2
Lemma 8.9 Es sei A ∈ M (n, n, K) eine reguläre Matrix. Dann kann man A
durch elementare Zeilenoperationen überführen in eine obere Dreiecksmatrix, also
eine Matrix der Form


a1,1 ∗


..
à = 

.
0
an,n
mit a1,1 , . . . , an,n 6= 0.
Beweis Offenbar reicht es zu zeigen, dass beim Beweis von 7.8
eintreten kann. Also sei

a1,1 · · · · · · a1,r a1,r+1 · · ·
..
..

...
 0
.
.
 .
..
..
 ..
.
.
···

A = (a1 , . . . , an ) = 
 0 · · · 0 ar,r ar,r+1 · · ·
 0 ··· ··· 0 a

r+1,r+1 · · ·
 .
.
..
.
.
 .
.
.
0 ··· ··· 0
an,r+1 · · ·
der 3. Fall nicht

a1,n
.. 
. 



ar,n 

ar+1,n 

.. 
. 
an,n
mit ai,i 6= 0 für 1 ≤ i ≤ r. (Dabei ist der Fall r = 0 ausdrücklich zugelassen.)
122
Nach dem Beweis von 7.8 muss man zeigen, dass der 3. Fall nicht eintreten kann,
d.h. man muss zeigen, dass es ein i ≥ r + 1 so gibt, dass gilt ai,r+1 6= 0. Angenommen, das ist nicht der Fall, dann gilt ai,r+1 = 0 für alle i ≥ r + 1 und man
erhält:


a1,1 · · · · · · a1,r a1,r+1
···
· · · a1,n

..
..
.. 
 0 ...
.
.
. 
 .
.
.
.. 
.
.
 .

..
..
..
..
. 
 .


···
· · · ar,n 
 0 · · · 0 ar,r ar,r+1
A=

0
ar+1,r+2 · · · ar+1,n 
 0 ··· ··· 0

.. 
...
 0 ··· ··· 0
0
. 


 ..
..
..
..
.. 
.
.
 .
.
.
.
.
. 
0 ··· ··· 0
0
ak,r+2 · · · ak,n
Dann ist das LGS A(a1 , . . . , ar )X = ar+1 lösbar, d.h. es folgt ar+1 ∈ L({a1 , . . . , ar }),
also sind die Spaltenvektoren von A linear abhängig und A daher nicht regulär.
Man erhält einen Widerspruch, also gibt es ein i ≥ r + 1 mit ai,r+1 6= 0.
Proposition 8.10 Für alle n ∈ N gibt es höchstens eine Determinante det :
M (n, n, K) → K.
f : M (n, n, K) Determinanten und A ∈ M (n, n, K). Falls
Beweis Es seien det, det
f
A nicht regulär ist, gilt det(A) = 0 = det(A)
nach 8.6. Falls A regulär ist, gibt es
nach 8.9 elementare Zeilenoperationen τ1 , . . . , τs so dass gilt


d1 ∗


..
τs (· · · (τ2 (τ1 (A))) · · · ) = 
=D
.
0
dn
f
Dann gilt aber det(D) = det(D)
= d1 · · · dn nach 8.7. Die Behauptung folgt dann
aus 8.4.
Definition 8.11 Es seien A ∈ M (n, n, K) und 1 ≤ i, j ≤ n dann bezeichne Ai,j
die Matrix aus M (n − 1, n − 1, K), die man erhält, wenn man in A die i-te Zeile
und j-te Zeile streicht.
Definition 8.12 Man definiere induktiv für alle n ∈ N eine Abbildung det :
M (n, n, K) → K auf die folgende Weise:
(I) det : M (1, 1, K) −→ K definiere man durch det((a)) = a .
(II) det : M (n − 1, n − 1, K) −→ K sei definiert.
123
(III) Man definiere
det : M (n, n, K) −→ K
durch
det(A) =
n
X
(−1)i+1 ai,1 det(Ai,1 )
i=1
dabei sei A = (ai,j ).
Beispiele 8.13
(i) Für alle A =
a1,1 a1,2
a2,1 a2,2
∈ M (2, 2, K) gilt:
det(A) = (−1)1+1 a1,1 det(A1,1 ) + (−1)1+2 a2,1 det(A2,1 )
= a1,1 det((a2,2 )) − a2,1 det((a1,2 ))
= a1,1 a2,2 − a1,2 a2,1

a1,1 a1,2 a1,3
(ii) Es sei A =  a2,1 a2,2 a2,3  ∈ M (3, 3, K), dann gilt:
a3,1 a3,2 a3,3
a2,2 a2,3
a1,2 a1,3
det(A) = a1,1 det
− a2,1 det
a3,2 a3,3
a3,2 a3,3
a1,2 a1,3
+a3,1 det
a2,2 a2,3

= a1,1 (a2,2 a3,3 − a2,3 a3,2 ) − a2,1 (a1,2 a3,3 − a1,3 a3,2 )
+a3,1 (a1,2 a2,3 − a1,3 a2,2 )
= a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2
−(a1,3 a2,2 a3,1 + a1.1 a2,3 a3,2 + a1,2 a2,1 a3,3 )
Diese Determinante kann man nach der Regel von Sarrus veranschaulichen:
a1,1
a1,2
a1,3
a1,1
a1,2
EE
EE
EE
y
EE
EE y y
EE y y
y
EE
E
E
y EEE
y EEE
y
EE
"
"
"
|y
|y
|y
a2,1
a2,2
a2,3
a2,1
a2,2
EE
EE
EE
y
y
y
E
E
E
EEy
EEy
EE
y
EE
y
y EEE
y EEE
E"
|y
"
"
|y
|y
a3,1
a3,2
a3,3
a3,1
a3,2
Man multipliziere die Zahlen entlang der durchgezogenen Linien, addiere sie und
ziehe davon die Summe der Produkte entlang der gestrichelten Linien ab.
Es gibt keine entsprechende Regel für größere Matrizen!!
124
Satz 8.14 Für alle n ∈ N ist det : M (n, n, K) → K eine Determinante.
Korollar 8.15 Für alle n ∈ N gibt es genau eine Determinante det : M (n, n, K) →
K. Man nennt sie daher die Determinante.
Beweis 8.10 und 8.14.
Beweis von 8.14
Der Beweis erfolgt natürlich durch vollständige Induktion nach n, der Fall n = 1
ist trivial, also nehme ich an, die Behauptung gelte für n − 1, dann muss ich
zeigen, dass det : M (n, n, K) → K eine Determinante ist:
Es seien


c1


A =  ... 
cn
mit c1 , . . . , cn ∈ M (1, n, K) und 1 ≤ r ≤ n.
(D1) Es muss gezeigt werden, dass die Abbildung


c1
 .. 
 . 


 cr−1 


v 7→ det  v 


 cr+1 
 . 
 .. 
cn
linear ist. Für alle v = (x1 , . . . , xn ) ∈ M (1, n, K) setze man v 0 = (x2 , . . . , xn ) ∈
M (1, n − 1, K). Dann gilt
 0 
 0 
c1
c1
.
. 





 .. 
 .. 
c1
 0 
 0

 ci−1 
 cr−1 
 .. 
 0 
 0 
 . 
 ci+1 
 v 




 0

 cr−1  X
.
 ..  X
 cr+1 


i+1
i+1
+

det  v  =
(−1) ai,1 det 
(−1) ai,1 det 
 c0

 ... 






i>r
 cr+1  i<r
 r−1


0 
0
 . 
 v 
 ci−1 
 .. 
 c0

 c0 
 r+1 
 i+1 


 . 
cn
 ... 
 .. 
c0n
c0n
125

c01
 .. 
 . 
 0

 cr−1 
r+1
+(−1) x1 det  0

 cr+1 
 . 
 .. 
c0n

Die erste Zeile ist nach Induktionsannahme linear in v 0 und daher in v, die letzte
Zeile ist offenbar linear in v.
(D2) Es seien 1 ≤ r < s ≤ n und es gelte cr = cs , dann muss gezeigt werden,
dass det A = 0 gilt. Es gilt
P
(−1)i+1 ai,1 det Ai,1
P
i+1
ai,1 det Ai,1 + (−1)r+1 ar,1 det Ar,1 + (−1)s+1 as,1 det As,1
=
i6=r,s (−1)
det A =
Nun ist der erste Summand nach Induktionsannahme = 0, da alle Matrizen die
gleichen Zeilen c0r und c0s enthalten. Weiterhin gilt:
 0 
 0 
c1
c1
 .. 
 .. 
 . 
 . 

 0

 0
 cr−1 
 cr−1 
 0 

 0
 cr 
 cr+1 

 0
 . 
 cr+1 
 .. 


und
As,1 = 
Ar,1 = 
 ... 

 c0


 s−1 

 c0
 c0 
 s−1 
 s 

 c0

 c0
 s+1 
 s+1 
 . 
 . 
 .. 
 .. 
c0n
c0n
und man erhält As,1 aus Ar,1 indem man c0s nacheinander mit c0s−1 , c0s−2 , . . . , c0r+1
vertauscht:
As,1 = πr+2,r+1 (. . . (πs−1,s−2 (πs,s−1 (Ar,1 ))) . . .)
Nun gilt r + 1 = s − (s − (r + 1)), also sind insgesamt s − (r + 1) = s − r − 1 Zeilenvertauschungen ausgeführt worden und daher gilt det As,1 = (−1)s−r−1 det Ar,1
und daher
(−1)s+1 det As,1 = (−1)s+1 (−1)s−r−1 det Ar,1
= (−1)2s−r det Ar,1
= (−1)r det Ar,1
= −(−1)r+1 det Ar,1
126
also
(−1)r+1 ar,1 det Ar,1 + (−1)s+1 as,1 det As,1 = 0
(D3) Offenbar gilt
det(In ) = det((In )1,1 ) = det(In−1 ) = 1
Satz 8.16 Es sei A ∈ M (n, n, K). Dann gilt det A 6= 0 genau dann, wenn A
regulär ist.
Beweis Nach 8.6 gilt det A = 0, wenn A nicht regulär ist. Sei also A regulär,
dann kann man A nach 8.9 durch elementare Zeilenoperationen überführen in
eine Matrix der Form


a1,1 ∗


..
à = 

.
0
an,n
mit a1,1 , . . . , an,n 6= 0. Nach 8.7 gilt det à = a1,1 · · · an,n 6= 0 und aus 8.4 folgt
det A = ± det à 6= 0.
Lemma 8.17 Es seien A, B ∈ M (n, n, K). Dann ist AB genau dann regulär,
wenn A und B regulär sind.
Beweis Angenommen, AB ist regulär, dann ist ϕAB nach 6.31 ein Isomorphismus.
Nach 6.26 gilt aber ϕAB = ϕA ◦ ϕB . Dann ist ϕA surjektiv und ϕB injektiv. Nach
5.15 sind dann ϕA und ϕB Isomorphismen und nach 6.31 sind A und B regulär.
Umgekehrt seien A und B regulär, dann sind ϕA und ϕB Isomorphismen und
daher auch ϕAB = ϕA ◦ ϕB . Also ist AB regulär.
Satz 8.18 (Determinantenproduktsatz) Es seien A, B ∈ M (n, n, K). Dann gilt
det(AB) = det(A) det(B)
Beweis Wenn B nicht regulär ist, ist AB nach 8.17 nicht regulär und es folgt
aus 8.16
det(A) det(B) = 0 = det(AB)
Also sei B regulär. Dann definiere man ∆ : M (n, n, K) → K durch
∆(A) =
1
det(AB)
det(B)
Ich behaupte, dass ∆ eine Determinante ist:
(D1) Wenn c1 , . . . , cn die Zeilenvektoren von A sind, sind c1 B, · · · , cn B die Zeilenvektoren von AB und daraus folgt leicht, dass ∆ multilinear ist.
127
(D2) und (D3) sind trivial.
Nach 8.15 gilt dann aber ∆ = det und es folgt für alle A ∈ M (n, n, K):
det(A) = ∆(A) =
1
det(AB)
det(B)
und daraus die Behauptung.
Korollar 8.19 Es sei A ∈ M (n, n, K) regulär. Dann ist A−1 regulär und es gilt
det(A−1 ) =
1
det(A)
Beweis Aus A−1 A = In folgt mit dem Determinantenproduktsatz:
1 = det(In ) = det(A−1 A) = det(A−1 ) det A
und daraus die Behauptung mit 8.16.
Bemerkung 8.20 Es seien A ∈ M (n, n, K) und τ eine elementare Zeilenoperation. Dann gelten:
(i) τ (A) = τ (In )A
(ii) det(τ (In )) = det(τ (In )t ) 6= 0
Beweis Das sind beides einfache Rechnungen.
Lemma 8.21 Es sei A ∈ M (n, n, K) eine reguläre Matrix. Dann kann man A
durch elementare Zeilenoperationen überführen in eine obere Diagonalmatrix, also
eine Matrix der Form


â1,1 0


..
 = 

.
0
ân,n
Beweis Nach 8.9 kann man A durch elementare Zeilenoperationen überführen in
eine Matrix der Form


a1,1 ∗


...
à = 

0
an,n
Dann kann man aber à durch elementare Zeilenoperationen auf Diagonalform
bringen: Setzt man für alle i
τi = σi−1,i,−ai−1,i /ai,i ◦ . . . ◦ σ1,i,−a1,i /ai,i
dann kann man  = τn (. . . (τ2 (A)) . . .) wählen.
128
Satz 8.22 Es sei A ∈ M (n, n, K). Dann gilt
det(At ) = det(A)
Beweis Wenn A nicht regulär ist sind nach 7.23 die Zeilenvektoren von A linear
abhängig. Also sind die Spaltenvektoren von At linear abhängig und, wieder nach
7.23, ist auch At nicht regulär und beide Determinanten sind = 0.
Also sei A regulär. Nach 8.21 gibt es elementare Zeilenoperationen τ1 , . . . , τs so
dass D = τs (· · · (τ1 (A)) · · · ) eine Diagonalmatrix ist, d.h. D hat die Form


a1,1 0


..


.
0
an,n
Nach 8.20 gilt dann
D = τs (In ) · · · τ1 (In )A
und es folgt
det D = det(τs (In ) · · · τ1 (In )A) = det τs (In ) · · · det τ1 (In ) det(A)
Andererseits gilt nach 6.16:
Dt = At τ1 (In )t · · · τs (In )t
und wegen Dt = D folgt aus dem Determinantenproduktsatz (8.18) und 8.20:
det(D) = det(Dt ) = det(At τ1 (In )t · · · τs (In )t )
= det(At ) det(τ1 (In )t ) · · · det(τs (In )t )
= det(At ) det(τ1 (In )) · · · det(τs (In ))
= det(At ) det(τs (In )) · · · det(τ1 (In ))
Nach 8.20 gilt det(τi (In )) 6= 0 für alle i und es folgt die Behauptung.
8.22 ist wieder ein ziemlich überraschendes Ergebnis: Warum sollte sich die Determinante nicht ändern, wenn man eine Matrix transponiert? Aus diesem Ergebnis
folgt übrigens auch, dass die Determinante spalten-multilinear ist, obgleich in der
Definition nur die Zeilen-Multilinearität gefordert worden ist.
Korollar 8.23 Es seien A ∈ M (n, n, K) und 1 ≤ i, j ≤ n, dann gilt
det(π i,j (A)) = − det(A)
also wechselt die Determinante auch das Vorzeichen, wenn man zwei Spalten
vertauscht.
129
Beweis Es gilt
π i,j (A) = (πi,j (At ))t
und daher nach 8.22 und 8.4:
det(π i,j (A)) = det((πi,j (At ))t ) = det(πi,j (At )) = − det(At ) = − det(A)
Die bisherigen Ergebnisse erlauben es, die Berechnung einer Determinante nicht
nur in der in 8.12 angegebenen sehr speziellen Weise zu berechnen:
Satz 8.24 (Laplacescher Entwicklungssatz) Es seien A = (ai,j ) ∈ M (n, n, K)
und 1 ≤ r, s ≤ n. Dann gelten:
P
(i) det(A) = ni=1 (−1)i+s ai,s det(Ai,s )
P
(ii) det(A) = nj=1 (−1)r+j ar,j det(Ar,j )
Man nennt (i) Entwicklung der Determinante nach der s-ten Spalte und
(ii) Entwicklung nach der r-ten Zeile.
Beweis
(i) Es seien a1 , . . . , an die Spaltenvektoren von A und 1 ≤ s ≤ n. Man setze
 = (âi,j ) = (as , a1 , . . . , as−1 , as+1 , . . . , an )
Dann gilt
 = π 2,1 (π 3,2 · · · π s−1,s−2 (π s,s−1 (A))) · · · )
und daher det(Â) = (−1)s−1 det(A) nach 8.23. Weiterhin gelten für alle i:
Âi,1 = Ai,s
und
âi,1 = ai,s
Man erhält:
det(A) = (−1)s−1 det(Â) = (−1)s−1
Pn
i+1
âi,1
i=1 (−1)
det(Âi,1 )
P
= (−1)s−1 ni=1 (−1)i+1 ai,s det(Ai,s )
Pn
i+s
=
ai,s det(Ai,s )
i=1 (−1)
(ii) Es sei  = (âi,j ) = At , dann gilt für alle i:
Âi,j = Atj,i
und
130
âi,j = aj,i
Man erhält durch Entwicklung nach der r-ten Spalte:
Pn
i+r
det(A) = det(At ) = det(Â) =
âi,r det(Âi,r )
i=1 (−1)
Pn
i+r
=
ar,i det(Atr,i )
i=1 (−1)
Pn
i+r
=
ar,i det(Ar,i )
i=1 (−1)
Es seien V ein endlich-dimensionaler k-Vektorraum, ϕ : V → V lineare Abbildungen und B, C geordnete Basen von V . Dann gibt es nach 6.42 eine reguläre
Matrix T so dass gilt
[ϕ]C = T −1 [ϕ]B T
Matrizen mit dieser Eigenschaft heißen ähnlich:
Definition 8.25 Eine Matrix A ∈ M (n, n, K) heißt ähnlich zu einer Matrix
F ∈ M (n, n, K), wenn es eine reguläre Matrix T so gibt, dass gilt:
F = T −1 AT
Bemerkung 8.26 Ähnlichkeit von Matrizen ist eine Äquivalenzrelation. Man
sagt daher, zwei Matrizen A und F seien ähnlich (zueinander).
Beispiel 8.27 Es seien B und C geordnete Basen eines endlich-dimensionalen
K-Vektorraums V und ϕ : V → V linear. Dann sind [ϕ]B und [ϕ]C nach 6.42
ähnliche Matrizen.
Proposition 8.28
(i) Es seien A und F ähnliche Matrizen. Dann folgt det(A) = det(F ).
(ii) Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ : V → V eine lineare Abbildung und B sowie C geordnete Basen von V . Dann gilt det([ϕ]B ) =
det([ϕ]C ).
Beweis
(i) Nach Voraussetzung gibt es eine reguläre Matrix T so dass gilt F = T −1 AT
und es folgt aus dem Determinantenproduktsatz (8.18) und 8.19:
det(F ) = det(T −1 AT ) = det(T −1 ) det(A) det(T ) =
1
det(A) det(T ) = det(A)
det(T )
(ii) folgt direkt aus (i) und 8.27.
Definition 8.29 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V linear. Dann heißt
det(ϕ) = det([ϕ]B )
wobei B eine beliebige geordnete Basis von V ist, die Determinante von ϕ.
Man beachte, dass det[ϕ]B nach 8.28(ii) nicht von der Wahl von B abhängt!
131
Beispiele 8.30 (vgl. 6.39)
(i) Man definiere ϕ : R2 −→ R2 durch
x1
x1 + x 2
ϕ
=
x2
2x2
Dann gilt
[ϕ] =
1 1
0 2
und daher
Andererseits sei B =
det(ϕ) = det([ϕ]) = 2
1
1
,
, dann ist B eine geordnete Basis des R2
0
1
und nach 6.39 gilt:
[ϕ]B =
1 0
0 2
Also folgt auch
det(ϕ) = det([ϕ]B ) = 2
(ii) Es sei A ∈ M (n, n, K), dann gilt [ϕA ] = A und daher
det ϕA = det A
Proposition 8.31 Es sei V ein endlich-dimensionaler K-Vektorraum. Eine lineare Abbildung ϕ : V → V ist genau dann ein Isomorphismus, wenn gilt
det(ϕ) 6= 0.
Beweis Es sei B eine geordnete Basis von V . Dann gilt rg ϕ = rg[ϕ]B nach 7.21.
Also erhält man:
det ϕ 6= 0 ⇔ det[ϕ]B 6= 0
Definition von det ϕ
⇔ [ϕ]B ist regulär
8.16
⇔ rg ϕ = rg[ϕ]B = n
7.23
⇔ ϕ ist surjektiv
5.7
⇔ ϕ ist Isomorphismus 5.15
Man beachte, dass der Fall V = K n direkt aus 8.16 und 6.31 folgt: Nach 8.16 ist
ϕ genau dann ein Isomorphismus, wenn [ϕ] regulär ist, nach 8.16 ist [ϕ] genau
dann regulär, wenn det ϕ = det[ϕ] 6= 0 gilt. Allerdings muss man dann etwas
mehr arbeiten, um den allgemeinen Fall zu beweisen.
132
Kapitel 9
Diagonalisierbarkeit
Falls nicht anders gesagt, bezeichnet V in diesem Kapitel einen
endlich-dimensionalen K-Vektorraum.
Definition 9.1 Eine Abbildung ϕ : V → V heißt diagonalisierbar, wenn es
eine geordnete Basis B von V so gibt, dass [ϕ]B eine Diagonalmatrix ist, d.h. es
gibt λ1 , . . . λn ∈ K mit


λ1
0


..
[ϕ]B = 

.
0
λn
Bemerkung 9.2 Es sei B = (v1 , . . . vn ), dann gilt nach 6.39:
[ϕ]B = ([ϕ(v1 )]B , . . . , [ϕ(vn )]B )
Also gilt

λ1
0
...

[ϕ]B = 
0



λn
genau dann, wenn für alle i = 1, . . . n gilt [ϕ(vi )]B = λi ei , wenn also gilt
ϕ(vi ) = λi vi
für alle 1 ≤ i ≤ n
Wenn man also eine geordnete Basis sucht, bezüglich derer die darstellende Matrix
eine Diagonalmatrix ist, muss man Vektoren suchen, die dieser letzten Bedingung
genügen. Solche Vektoren sind and vielen Stellen der Mathematik wichtig und
haben einen speziellen Namen:
Definition 9.3 Es seien V ein K-Vektorraum und ϕ : V → V eine lineare
Abbildung. Ein Element λ ∈ K heißt Eigenwert von ϕ, wenn es ein v ∈ V, v 6= 0
so gibt, dass gilt:
ϕ(v) = λv
Man nennt dann v Eigenvektor von ϕ zum Eigenwert λ.
133
Man beachte, dass für einen Eigenvektor v definitionsgemäß immer v 6= 0 gilt.
Wegen ϕ(λ · 0) = ϕ(0) = λ · 0 wäre sonst jedes Element λ ∈ K ein Eigenwert.
Bemerkung 9.4
(i) Eine lineare Abbildung ϕ : V → V ist genau dann diagonalisierbar, wenn V
eine Basis aus Eigenvektoren von ϕ besitzt.
(ii) Es seien v ∈ V und λ ∈ K, dann gilt:
ϕ(v) = λv ⇔ ϕ(v) − λ id(v) = (ϕ − λ id)v = 0
Also ist λ genau dann ein Eigenwert von ϕ : V → V , wenn die Abbildung ϕ − λ id
nicht injektiv ist, wenn sie also kein Isomorphismus ist. Und das ist nach 8.31
genau dann der Fall, wenn gilt det(ϕ − λ id) = 0.
Definition 9.5 Es seien V ein endlich-dimensionaler K-Vektorraum und ϕ :
V → V linear. Dann heißt die Abbildung
Pϕ : K −→ K
definiert durch
Pϕ (λ) = det(ϕ − λ id)
die charakteristische Abbildung.
Bemerkung 9.6 Ein Element λ ∈ K ist genau dann ein Eigenwert von ϕ, wenn
Pϕ (λ) = 0 gilt.
Also muss man bei der Suche nach Eigenwerten einer linearen Abbildung die Nullstellen der charakteristischen Abbildung suchen. Dieses ist selbst im Fall K = R
oder K = C ein sehr schwieriges Problem. Man kann zeigen, dass die charakteristische Abbildung ein Polynom (genauer: eine Polynomabbildung) vom Grad
dim V ist. Und für Polynome vom Grad ≥ 5 gibt es keine explizite Formel für die
Nullstellen, man wird sie im Regelfall also nur approximativ bestimmen können.
Aber das ist ein Problem der Analysis, auf das ich hier nicht eingehen werde. Um
dennoch Beispiele für die Theorie zu finden, werden die Eigenwerte im Folgenden
immer sehr einfach sein.
Beispiel 9.7 Man setze


3 1 1
A= 2 4 2 
1 1 3
und definiere ϕ : R3 −→ R3 durch ϕ = ϕA . Dann gilt für alle λ ∈ R:
Pϕ (λ) = det(ϕ − λ id) = det[ϕ − λ id] = det([ϕ] − λI3 ) = det(A − λI3 )


3−λ
1
1
4−λ
2 
= det  2
1
1
3−λ
134
Also folgt:
Pϕ (λ) = (3 − λ)(4 − λ)(3 − λ) + 2 + 2 − (4 − λ + 2(3 − λ) + 2(3 − λ))
= (9 − 6λ + λ2 )(4 − λ) + 4 − (4 − λ + 6 − 2λ + 6 − 2λ)
= 36 − 24λ + 4λ2 − 9λ + 6λ2 + −λ3 + 4 − 16 + 5λ
= −λ3 + 10λ2 − 28λ + 24
Offenbar ist λ1 = 2 eine Nullstelle von Pλ und man kann eine “Polynomdivision”
durchführen:
(−λ3 + 10λ2 − 28λ + 24) : (λ − 2) = −λ2 + 8λ − 12
−λ3 + 2λ2
+ 8λ2 − 28λ
8λ2 − 16λ
− 12λ + 24
− 12λ + 24
0
Also gilt
Pϕ (λ) = −(λ − 2)(λ2 − 8λ + 12)
und die Nullstellen λ2 , λ3 des 2. Faktors sind:
√
λ2,3 = 4 ± 16 − 12 = 4 ± 2
also λ2 = 6 , λ3 = 2.
Damit sind λ1 = 2 und λ2 = 6 die Eigenwerte von ϕ.
Es seien ϕ : V → V linear und λ ∈ K ein Eigenwert von ϕ. Dann gilt für einen
Vektor v 6= 0:
v ist Eigenvektor von ϕ zum Eigenwert λ ⇐⇒
ϕ(v) = λv
⇐⇒
ϕ(v) − λv = 0
⇐⇒
(ϕ − λ id)v = 0
⇐⇒
v ∈ ker(ϕ − λ id)
Also besteht ker(ϕ − λ id) aus allen Eigenvektoren von ϕ zum Eigenwert λ und
dem Nullvektor. Diese Beobachtung ermöglicht es, alle Eigenvektoren zu einem
Eigenwert zu berechnen.
Definition 9.8 Es seien ϕ : V → V linear und λ ∈ K ein Eigenwert von ϕ.
Dann heißt
Eϕ,λ = {v ∈ V : ϕ(v) = λv} = ker(ϕ − λ id)
der Eigenraum von ϕ zum Eigenwert λ. Er besteht aus dem Nullvektor und
allen Eigenvektoren von ϕ zum Eigenwert λ.
135
Um eine Basis aus Eigenvektoren zu bekommen, ist die folgende Prozedur naheliegend: Man suche zu jedem Eigenraum eine Basis und betrachte dann die
Vereinigung dieser Basen. Dies ist ein Kandidat für eine Basis aus Eigenvektoren
des Vektorraums. Dabei erhebt sich sofort die Frage, ob die Vereinigung dieser
Basen wieder linear unabhängig ist. Das ist in der Tat der Fall und der Inhalt der
beiden nächsten Ergebnisse:
Proposition 9.9 Es seien ϕ : V → V eine lineare Abbildung. Weiterhin seien
v1 , . . . vk Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . λk von ϕ.
Dann sind v1 , . . . , vk linear unabhängig.
Beweis Der Beweis erfolgt durch vollständige Induktion nach k:
(I) k = 1: Da ein Eigenvektor vom Nullvektor verschieden ist, gilt die Behauptung
für k = 1.
(II) Die Behauptung gelte für k − 1.
(III) Es seien v1 , . . . vk Eigenvektoren zu paarweise verschiedenen Eigenwerten
λ1 , . . . λk und es gelte
α1 v1 + · · · + αk vk = 0
Dann folgt
0 = ϕ(0) = ϕ(α1 v1 + · · · + αk vk )
= α1 ϕ(v1 ) + · · · + αk ϕ(vk )
= α1 λ1 v1 + · · · + αk−1 λk−1 vk−1 + αk λk vk
Andererseits gilt:
α1 λk v1 + · · · + αk−1 λk vk−1 + αk λk vk = 0
Subtraktion dieser beiden Gleichungen ergibt:
α1 (λ1 − λk )v1 + · · · + αk−1 (λk−1 − λk )vk−1 = 0
Nach Induktionsannahme sind v1 , . . . , vk−1 linear unabhängig und es folgt
α1 (λ1 − λk ) = · · · = αk−1 (λk−1 − λk ) = 0
Da alle λi paarweise verschieden sind, folgt α1 = · · · = αk−1 = 0 und daraus
αk = 0 und v1 , . . . , vk sind linear unabhängig.
Korollar 9.10 Es seien ϕ : V → V eine lineare Abbildung und λ1 , . . . λk paarweise verschiedenen Eigenwerte von ϕ. Weiterhin seien Mi ⊆ Eϕ,λi für alle i eine
linear unabhängige Menge. Dann sind die Mengen (Mi ) paarweise disjunkt und
M = M1 ∪ . . . ∪ Mk ist linear unabhängig.
136
Beweis Es sei
Mi = {vi,j : j = 1, . . . , ri }
und es gelte
(α1,1 v1,1 + · · · + α1,r1 v1,r1 ) + · · · + (αk,1 vk,1 + · · · + αk,rk vk,rk ) = 0
Setzt man für alle i
wi = αi,1 vi,1 + · · · + αi,ri vi,ri ∈ Eϕ,λi
dann gilt
w1 + · · · + wk = 0
Nach 9.9 sind Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhängig, also kann kein wi ein Eigenvektor sein. Es folgt wi = 0 für alle i und aus
der linearen Unabhängigkeit der Mi folgt, dass alle Koeffizienten gleich 0 sind. Satz 9.11 Es seien ϕ : V → V eine lineare Abbildung und λ1 , . . . λk die (paarweise verschiedenen) Eigenwerte von V . Dann ist ϕ genau dann diagonalisierbar,
wenn gilt:
dim Eϕ,λ1 + · · · + dim Eϕ,λk = dim V
Genauer gilt: Wenn ϕ diagonalisierbar und Bi für i = 1, . . . k eine Basis von
Eϕ,λi ist, ist B1 ∪ . . . ∪ Bk eine Basis von V , die aus Eigenvektoren von ϕ besteht.
Beweis In diesem Beweis bezeichne |M | die Anzahl der Elemente einer endlichen
Menge M .
Ich nehme an, es gelte
dim Eϕ,λ1 + · · · + dim Eϕ,λk = dim V
und für alle i sei Bi eine Basis von ker(ϕ − λi id). Man setze B = B1 ∪ . . . ∪ Bk .
Dann sind die Bi nach 9.9 paarweise disjunkt, also folgt
|B| = |B1 | + · · · + |Bk | = dim Eϕ,λ1 + · · · + dim Eϕ,λk = dim V
Da B nach 9.10 linear unabhängig ist, ist B nach 4.21 eine Basis von V .
Umgekehrt seien ϕ diagonalisierbar und B eine Basis aus Eigenvektoren von ϕ.
Für alle i setze man Bi = B ∩ Eϕ,λi Dann sind B1 , . . . , Bk paarweise disjunkt und
es gilt B = B1 ∪ . . . ∪ Bk . Ich zeige, dass Bi für alle i eine Basis von Eϕ,λi ist:
Für alle i sei B̃i ⊇ Bi eine Basis von Eϕ,λi . Nach dem ersten Teil sind die Mengen
B̃1 , . . . , B̃k paarweise disjunkt und B̃ = B̃1 ∪ . . . ∪ B̃k ist eine Basis von V . Man
erhält:
dim V = |B| = |B1 | + · · · + |Bk | ≤ |B̃1 | + · · · + |B̃k | = |B̃| = dim V
137
und daraus
|B1 | + · · · + |Bk | = |B̃1 | + · · · + |B̃k |
Wegen |Bi | ≤ |B̃i | für alle i folgt daraus |Bi | = |B̃i |. Dies impliziert Bi = B̃i und
daher ist Bi für alle i eine Basis von Eϕ,λi . Man erhält:
dim Eϕ,λ1 + · · · + dim Eϕ,λk = |B1 | + · · · + |Bk | = |B| = dim V
Beispiel 9.12 (vgl. 9.7) Man definiere wieder ϕ : R3 −→ R3 durch


3 1 1
[ϕ] =  2 4 2 
1 1 3
dann hat ϕ nach 9.7 die Eigenwerte λ1 = 2 und λ2 = 6.
Sei λ ein Eigenwert von ϕ. Es gilt v ∈ Eϕ,λ genau dann, wenn gilt (ϕ − λ id)v = 0
und dies ist nach 7.3 genau dann der Fall, wenn v das LGS [ϕ − λ id]X = 0 löst.
Nun gilt
[ϕ − λ id] = [ϕ] − λ[id] = [ϕ] − λI3
und daher ist Eϕ,λ der Lösungsraum des LGS
([ϕ] − λI3 )X = 0
λ1 = 2: Es gilt:

 

3−2
1
1
1 1 1
4−2
2 = 2 2 2 
[ϕ] − 2I3 =  2
1
1
3−2
1 1 1
und damit ist zu lösen:




1 1 1 0
1 1 1 0
 2 2 2 0  −→  0 0 0 0 
1 1 1 0
0 0 0 0
Es folgt
Eϕ,2



 −x2 − x3

 : x2 , x3 ∈ R}
x2
= 


x3
und dim Eϕ,2 = 2. Weiterhin ist

 

−1 
 −1
B2 =  1  ,  0 


0
1
eine Basis von Eϕ,2 .
138
Zur Berechnung von Eϕ,6 muß man lösen:






−3
1
1 0
1
1 −3 0
1
1 −3 0
 2 −2
2 0  −→  2 −2
2 0  −→  0 −4
8 0  −→
1
1 −3 0
−3
1
1 0
0
4 −8 0


1
1 −3 0
8 0 
−→  0 −4
0
0
0 0
Es folgt dim Eϕ,6 = 1 und
 
 1 
B2 =  2 


1
ist eine Basis von Eϕ,6 Wegen
dim Eϕ,2 + dim Eϕ,6 = 2 + 1 = 3 = dim R3
ist ϕ diagonalisierbar. Weiterhin ist

 
  
−1
1 
 −1





1
0
,
, 2 
B = B1 ∪ B2 =


0
1
1
eine geordnete Basis aus Eigenvektoren von ϕ und es gilt


2 0 0
[ϕ]B =  0 2 0 
0 0 6
Zur Erinnerung: Wenn ϕ : V → V eine lineare Abbildung und B = (v1 , . . . , vn )
eine geordete Basis von V ist, gilt
[ϕ]B = ([ϕ(v1 )]B , . . . , [ϕ(vn )]B )
d.h. die Spaltenvektoren von [ϕ]B sind die Koordinatenvektoren von ϕ(vi )
bezüglich B. Dies gilt selbst dann, wenn V = K n gilt, wenn also die Matrix
(ϕ(v1 ), . . . , ϕ(vn )) eine n × n-Matrix mit Koeffizienten in K ist. (Häufig sind
die Elemente eines Vektorraums keine n-Tupel, V könnte zum Beispiel ein ndimensionaler Untervektorraum des K n+1 sein, um nicht von Schafen oder Rindern zu reden.) Wenn übrigens V = K n gilt, folgt
(ϕ(v1 ), . . . , ϕ(vn )) = [ϕ]B,En
139
Proposition 9.13 Es seien V ein n-dimensionaler K-Vektorraum und ϕ : V →
V eine lineare Abbildung, die n paarweise verschiedene Eigenwerte besitzt. Dann
ist ϕ diagonalisierbar.
Beweis Es seien λ1 , . . . , λn paarweise verschiede Eigenwerte von ϕ. Für alle i sei
vi ein Eigenvektor von ϕ zum Eigenwert λi . Dann ist B = {v1 , . . . , vn } nach 9.9
linear unabhängig und enthält n Elemente. Daher ist B eine Basis aus Eigenvektoren von ϕ. Die Behauptung folgt dann aus 9.4.
Bekanntlich gibt es eine enge Verwandtschaft zwischen linearen Abbildungen
und Matrizen. Insbesondere ist M (n, n, K) isomorph zu L(K n , K n ). Also ist es
möglich, den Begriff der Diagonalisierbarbeit einer Matrix einzuführen, indem
man ihn auf die entsprechende lineare Abbildung abschiebt. Das ergibt keine so
schöne Definition für Matrizen, da man hier den Begriff einer linearen Abbildung
vermeiden möchte. Aber eine matrizentechnische Definiton der Diagonalisierbarkein lässt sich ohne Mühe finden:
Definition 9.14 Eine Matrix A ∈ M (n, n, K) heißt diagonalisierbar, wenn
sie zu einer Diagonalmatrix ähnlich ist, wenn es also eine reguläre Matrix T so
gibt, dass T −1 AT eine Diagonalmatrix ist.
Proposition 9.15 Eine Matrix A ∈ M (n, n, K) ist genau dann diagonalisierbar,
wenn ϕA diagonalisierbar ist.
Beweis Wenn ϕA diagonalisierbar ist, gibt es eine geordnete Basis B von K n so
dass D = [ϕA ]B eine Diagonalmatrix ist. Nach 8.28(ii) ist dann aber D ähnlich
zu A = [ϕA ].
Umgekehrt sei A diagonalisierbar, dann gibt es eine Matrix T = (v1 , . . . , vn ) so
dass D = T −1 AT eine Diagonalmatrix ist. Es gelte


λ1 0


...
D=

0
λn
Es folgt T D = AT und daraus:
(Av1 , . . . , Avn ) = AT = T D = (λ1 v1 , . . . , λn vn )
und man erhält:
ϕA (vi ) = Avi = λi vi
Also sind alle vi Eigenvektoren. Da T regulär ist, sind die Spaltenvektoren linear
unabhängig, also ist {v1 , . . . , vn } eine Basis aus Eigenvektoren.
140
Definition 9.16 Es sei A ∈ M (n, n, K).
(i) Ein Element λ ∈ K heißt Eigenwert von A, wenn es ein v ∈ K n , v 6= 0 so
gibt, dass gilt Av = λv. Man nennt v dann Eigenvektor von A zum Eigenwert
λ.
(ii) PA : K −→ K definiert durch
PA (λ) = det(A − λIn )
heißt die charakteristische Abbildung von A.
(iii) Wenn λ ein Eigenwert von A ist, heißt
EA,λ = {v ∈ K n : Av = λv}
der Eigenraum von A zum Eigenwert λ.
Proposition 9.17 Es sei A ∈ M (n, n, K), dann gelten:
(i) PA = PϕA
(ii) Die Eigenwerte von A sind genau die Eigenwerte von ϕA . Wenn λ ein Eigenwert von A ist, ist ein Vektor v ∈ K n genau dann ein Eigenvektor von A, wenn
er ein Eigenvektor von ϕA ist. Weiterhin gilt EA,λ = EϕA ,λ .
(iii) λ ∈ K ist genau dann ein Eigenwert von A, wenn gilt PA (λ) = 0.
(iv) A ist genau dann diagonalisierbar, wenn es eine Basis des K n aus Eigenvektoren von A gibt.
(v) A ist genau dann diagonalisierbar, wenn für die paarweise verschiedenen Eigenwerte λ1 , . . . , λk von A gilt:
dim EA,λ1 + · · · + dim EA,λk = n
Beweis
(i) Für alle λ ∈ K gilt
PϕA (λ) = det(ϕA − λ id) = det[ϕA − λ id] = det(A − λ In ) = PA (λ)
(ii) Es gilt
ϕA (v) = λv ⇔ Av = λv
(iii) folgt aus (ii), 9.6 und (i).
(iv) folgt aus 9.15, 9.4(i) und (ii).
(v) folgt aus 9.15, (ii) und 9.11.
141
Korollar 9.18 Es sei A ∈ M (n, n, K) eine diagonalisierbare Matrix. Dann gelten:
(i) Es seien λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von A und für alle
i sei Bi eine Basis von EA,λi . Dann ist B = B1 ∪ . . . ∪ Bk eine Basis von K n aus
Eigenvektoren von A.
(ii) Es sei {v1 , . . . , vn } eine Basis aus Eigenvektoren von A. Man setze T =
(v1 , . . . , vn ). Dann ist T −1 AT eine Diagonalmatrix.
Beweis
(i) Folgt aus 9.15, 9.11 und (ii).
(ii) folgt aus 6.42, aber auch ein direkter Beweis ist einfach zu führen:
Es gelte Avi = µi vi , dann ist T = (v1 , . . . , vn ) nach 7.23 regulär. Man setze noch


µ1
0


..
D = (µ1 e1 , . . . , µn en ) = 

.
0
µn
Dann gilt:
AT = (Av1 , . . . , Avn ) = (µ1 v1 , . . . , µn vn ) = T D
und daher T −1 AT = D.
142
Kapitel 10
Euklidische Vektorräume
Definition 10.1 Es sei V ein R-Vektorraum. Eine Abbildung
< ·, · > : V × V −→ R
heißt Skalarprodukt auf V , wenn gelten:
(S1) < ·, · > ist 2-linear (man sagt bilinear), d.h. für alle v ∈ V sind die
Abbildungen < ·, v > und < v, · > linear. Explizit gilt also für alle u, v, w ∈
V und alle α ∈ R:
(i) < u + v, w > = < u, w > + < v, w >
(ii) < αu, v > = α < u, v >
(iii) < u, v + w > = < u, v > + < u, w >
(iv) < u, αv > = α < u, v >
(S2) < ·, · > ist symmetrisch, d.h. für alle u, v ∈ V gilt:
< u, v > = < v, u >
(S3) < ·, · > ist positiv definit, d.h. für alle v ∈ V gelten:
< v, v > ≥ 0
und
< v, v >= 0 ⇔ v = 0
Dabei habe ich wie üblich < u, v > für < (u, v) > geschrieben.
Wenn < ·, · > ein Skalarprodukt auf V ist, heißt (V, < ·, · >) oder kurz V euklidischer Vektorraum.
143
Beispiele 10.2 Die folgenden Abbildungen sind Skalarprodukte:
(i) < ·, · > : Rn × Rn −→ R definiert durch

 

x1
y1

 

<  ...  ,  ...  > = x1 y1 + · · · + xn yn
xn
yn
Dieses Skalarprodukt heißt das euklidische oder kanonische Skalarprodukt.
Falls nicht anders gesagt, trägt Rn im folgenden immer dieses Skalarprodukt.
Man beachte, dass für alle v, w ∈ Rn gilt
< v, w > = v t w
eine Formel die gelegentlich beim Rechnen nützlich ist.
(ii) β : R2 × R2 −→ R definiert durch
x1
y1
β
,
= 4x1 y1 + x1 y2 + x2 y1 + x2 y2
x2
y2
Beweis (S1) und (S2) sind in beiden Fällen einfach, also zeige ich noch (S3):
(i) Es sei v = (x1 , . . . , xn )t ∈ K n , dann gilt
< v, v > = x21 + · · · + x2n ≥ 0
und < v, v > = 0 ist äquivalent zu x1 = · · · = xn = 0, also v = 0.
(ii) Es sei v = (x1 , x2 )t ∈ R2 ,dann gilt:
β(v, v) = 4x21 + 2x1 x2 + x22 = (x1 + x2 )2 + 3x21 ≥ 0
Offenbar gilt β(0, 0) = 0 und aus β(v, v) = 0 folgt (x1 + x2 )2 = 3x22 = 0 und
daraus x2 = 0 und daraus x1 = 0, also v = 0.
Definition 10.3 Es sei V ein euklidischer Vektorraum und v ∈ V . Dann heißt
√
kvk = < v, v >
die Norm (oder Länge, gelegentlich auch Betrag) von v.
Man beachte, dass nach (S3) für alle v ∈ V gilt < v, v > ≥ 0, so dass die Norm
wohldefiniert ist.
Beispiel 10.4 Für alle v = (x1 , . . . , xn )t ∈ Rn gilt:
q
√
kvk = < v, v > = x21 + · · · + x2n
Diese Norm heißt auch die euklidische Norm.
144
Man kann sich überlegen, dass für alle u, v ∈ Rn gilt:
< u, v > = kuk kvk cos(α)
wobei α der Winkel zwischen den beiden Vektoren ist. Dies macht das folgende
Ergebnis plausibel:
Satz 10.5 (Cauchy-Schwarz’sche Ungleichung) Es sei V ein euklidischer Vektorraum. Dann gilt für alle u, v ∈ V :
| < u, v > | ≤ kuk kvk
Beweis Die Behauptung ist offenbar richtig, wenn v = 0 gilt, denn da die Abbildung
v 7→< u, v >
für festes u linear ist, gilt < u, 0 > = 0. Also gelte v 6= 0.
Für alle α ∈ R gilt:
0 ≤ < u + αv, u + αv > = < u + αv, u > +α < u + αv, v >
= < u, u > +α < v, u > +α < u, v > +α2 < v, v >
= < u, u > +2α < u, v > +α2 < v, v >
= kuk2 + 2α < u, v > +α2 kvk2
√
Wegen v 6= 0 gilt < v, v > 6= 0 und daher kvk = < v, v > 6= 0. Man setze
α = − <u,v>
, dann folgt:
kvk2
0 ≤ kuk2 − 2
< u, v >2
< u, v >
<
u,
v
>
+
kvk2
kvk2
und daraus
< u, v >2 ≤ kuk2 kvk2
woraus die Behauptung unmittelbar folgt.
Trotz ihres einfachen Beweises ist die Cauchy-Schwarzsche Ungleichung ein machtvolles Hilfsmittel.
Korollar 10.6 Es sei V ein euklidischer Vektorraum. Dann gelten für alle u, v ∈
V und alle α ∈ K:
(i) kvk ≥ 0
und
kvk = 0 ⇔ v = 0
(ii) kαvk = |α| kvk
(iii) ku + vk ≤ kuk + kvk .
Eine Abbildung, die diesen drei Bedingungen genügt, heißt Norm. Man nennt
(iii) die Dreiecksungleichung.
145
Beweis
(i) Definitionsgemäß gilt kvk ≥ 0 für alle v ∈ V . Weiterhin gilt nach (S3):
kvk = 0 ⇔< v, v > = kvk2 = 0 ⇔ v = 0
(ii) Es gilt
kαvk =
√
< αv, αv > =
p
√
α2 < v, v > = |α| < v, v > = |α| kvk
(iii) Nach der Cauchy-Schwarz’schen Ungleichung gilt:
ku + vk2 = < u + v, u + v > = < u, u > +2 < u, v > + < v, v >
= kuk2 + 2 < u, v > +kvk2
≤ kuk2 + 2kuk kvk + kvk2
= (kuk + kvk)2
woraus die Behauptung unmittelbar folgt.
Ich komme nun zu einem der (wenn nicht dem) zentralen Begriffe der Theorie
euklidischer Vektorräume:
Definition 10.7 Es sei V ein euklidischer Vektorraum.
(i) Zwei Vektoren u, v ∈ V heißen orthogonal zueinander, wenn < u, v > = 0
gilt.
(ii) Eine Menge M ⊆ V heißt Orthogonalsystem (OGS), wenn 0 ∈
/ M gilt und
die Vektoren aus M paarweise orthogonal zueinander sind.
Wie schon bemerkt, gilt für alle u, v ∈ R2
< u, v > = kuk kvk cos α
wobei α der Winkel zwischen u und v ist. Also gilt < u, v >= 0 genau dann,
wenn cos α = 0 gilt, wenn also α ein rechter Winkel ist. Und dies ist die übliche
Definition von Orthogonalität in R2 .
Beispiele 10.8
(i) En = {e1 , . . . en } ist ein OGS in Rn .
(ii) {(1, 1)t , (1, −1)t } ist ein OGS in R2 .
Proposition 10.9 Es seien V ein euklidischer Raum und M ⊆ V ein OGS.
Dann ist M linear unabhängig.
146
Beweis Es seien v1 , . . . , vn paarweise verschiedene Elemente in M und es gelte
α1 v1 + · · · + αn vn = 0
Dann folgt für alle i:
0 = < 0, vi > = < α1 v1 + · · · + αn vn , vi >
= α1 < v1 , vi > + · · · + αi < vi , vi > + · · · + αn < vn , vi >
= αi < vi , vi >
und daraus αi = 0, da wegen vi 6= 0 auch < vi , vi > 6= 0 gilt.
Lemma 10.10 Es seien M ein EZS eines euklidischen Vektorraums V , w ∈ V
und es gelte < w, v > = 0 für alle v ∈ M , d.h. w sei orthogonal zu allen Vektoren
aus M . Dann gilt w = 0.
Beweis Nach Voraussetzung gibt es v1 , . . . , vk ∈ M und α1 , . . . , αk ∈ R so dass
gilt
w = α1 v1 + · · · + αk vk
Es folgt für alle 1 ≤ i ≤ k:
< w, w > = α1 < v1 , w > + · · · + αn < vn , w >= 0
und daraus w = 0.
In der Linearen Algebra ist man besonders interessiert an Basen. Da Orthogonalsysteme linear unabhängig sind, liegt es nahe, Basen zu betrachten, die Orthogonalsysteme sind. Es stellt sich heraus, dass es nützlich ist, noch eine weitere eher
technische Eigenschaft zu fordern:
Definition 10.11 Es sei V ein euklidischer Vektorraum.
(i) Ein Vektor v ∈ V heißt normiert, wenn kvk = 1 gilt.
(iii) Eine Menge M ⊆ V heißt Orthonormalsystem (ONS), wenn M ein OGS
ist und alle Vektoren aus M normiert sind.
(iii) Eine Menge B ⊆ V heißt Orthonormalbasis (ONB) von V , wenn B ein
ONS und eine Basis von V ist.
Also ist eine Basis {v1 , . . . , vn } von V genau dann eine ONB, wenn gilt
0 i 6= j
< vi , vj > =
1 i=j
147
Beispiele 10.12
(i) En = {e1 , . . . en } ist eine ONB von Rn .
(
!
!)
1
1
√
(ii) B =
2
√1
2
√
,
2
− √12
ist eine ONB von R2 .
Satz 10.13 Es seien V ein euklidischer Vektorraum und B = (v1 , . . . vn ) eine
geordnete ONB von V . Dann gelten für alle v, w ∈ V :
(i) v = < v, v1 > v1 + · · · + < v, vn > vn


< v, v1 >


..
(ii) [v]B = 

.
< v, vn >
(iii) < v, w > = < [v]B , [w]B >= [v]tB [w]B
(iv) kvk = k[v]B k
Beweis
(i) Es sei
w = v − (< v, v1 > v1 + · · · + < v, vn > vn ) = v− < v, v1 > v1 − · · · − < v, vn > vn
dann gilt für alle i:
< w, vi > = < v, vi > − < v, v1 >< v1 , vi > − · · · − < v, vn >< vn , vi >
= < v, vi > − < v, vi >< vi , vi >
= < v, vi > − < v, vi > = 0
Nach 10.10 folgt w = 0 und daraus die Behauptung.
(ii) folgt direkt aus (i).
P
P
(iii) Aus v = ni=1 < v, vi > vi und w = nj=1 < w, vj > vj folgt
P
< v, w > =
i,j < < v, vi > vi , < w, vj > vj >
P
=
i,j < v, vi >< w, vj >< vi , vj >
Pn
=
i=1 < v, vi >< w, vi >

 

< v, v1 >
< w, v1 >

 

..
..
= <
,
>
.
.
< v, vn >
< w, vn >
= < [v]B , [w]B >
(iv) Nach (iii) gilt:
kvk =
√
< v, v > =
p
[v]B , [v]B = k[v]B k
148
10.13 ist eine der fundamentalen Eigenschaften von Orthonormalbasen: Die im
Allgemeinen mühselige Berechnung von Koordinatenvektoren geht hier ganz schnell,
man muss nur n Skalarprodukte ausrechnen.
Beispiele 10.14
(i) Für alle v = (x1 , . . . , xn )t ∈ Rn gilt < v, ei >= xi und daher
v =< v, e1 > e1 + · · · + < v, en > en = x1 e1 + · · · + xn en
!
!!
1
1
√
2
√1
2
(ii) Es sei B = (v1 , v2 ) =
√
2
√
− 12
,
dann ist B eine ONB von R2
und es gilt für alle v = (x1 , x2 ) ∈ R2 :
1
1
< v, v1 >= √ x1 + √ x2
2
2
und
1
1
< v, v2 >= √ x1 − √ x2
2
2
und daher
v = < v, v1 > v1 + < v, v2 > v2
!
1
√
= ( √12 x1 +
√1
2
x2 )(
2
√1
2
+ ( √12 x1 −
√1
2
x2 )
√1
2
− √12
!
Satz 10.15 Es sei V ein endlich-dimensionaler euklidischer Vektorraum. Dann
besitzt V eine ONB.
Zusatz Es sei B = {v1 , . . . , vn } eine Basis von V , dann gibt es eine ONB
{w1 , . . . , wn } von V so dass für alle k ∈ {1, . . . , n} gilt
L({w1 , . . . , wk }) = L({v1 , . . . , vk })
Beweis Ich konstruiere w1 , . . . wn durch vollständige Induktion:
(I) k = 1: Man setze w1 =
1
v.
kv1 k 1
(II) w1 , . . . , wk−1 seien so konstruiert so dass gilt L({v1 , . . . , vi }) = L({w1 , . . . , wi })
für alle i ≤ k − 1.
(III) Man setze
w = α1 w1 + · · · + αk−1 wk−1 + vk
Dann gilt für alle i < k:
< w, wi >= αi + < vk , wi >
149
Setzt man also αi = − < vk , wi > für alle i < k, dann gilt < w, wi >= 0 für diese
i. Da vk ∈
/ L({v1 , . . . , vk−1 }) = L({w1 , . . . , wk−1 }) gilt, folgt w 6= 0 und man kann
wk =
1
w
kwk
setzen. Offenbar gilt L({v1 , . . . , vk }) = L({w1 , . . . , wk }).
Das Verfahren, das in 10.15 angewandt wird, heißt Schmidtsches Orthonormierungsverfahren.
Beispiel 10.16 Offenbar ist
B = {v1 , v2 } =
1
1
1
,
0
eine Basis von R2 . Das Schmidtsche Orthomormierungsverfahren liefert dann
(dabei übernehme ich die Bezeichnungen von 10.15):
!
√1
1
1
1
1
1
2
v1 =
w1 =
=√
=
1
1
1
√
kv1 k
k(1, 1)k
2
2
Weiterhin gilt
!
1
α1 = − < v2 , w1 > = − <
,
0
√1
2
√1
2
!
1
> = −√
2
− 21
!
1
und daher
1
w = α1 w1 + v2 = − √
2
√1
2
1
√
2
!
1
+
!
=
0
+
− 21
0
Wegen
r
kwk =
1 1
+ =
4 4
erhält man
1
2
− 12
√
1
w2 =
w= 2
kwk
Also ist
(
√1
2
√1
2
!
,
r
1
1
=√
2
2
!
√1
2
− √12
=
√1
2
− √12
!
!)
eine ONB des R2 . Diese ONB ist das Beispiel aus 10.12(ii).
150
!
=
1
2
− 12
!
Definition 10.17 Es seien V ein euklidischer Vektorraum und M ⊆ V . Dann
heißt
M ⊥ := {v ∈ V : < w, v > = 0 für alle w ∈ M }
das orthogonale Komplement von M in V .
Beispiele 10.18 Es gelten
(i) {e1 , . . . , ek }⊥ = L({ek+1 , . . . , en }).
⊥ 1
x1
1
x1
x1
(ii)
=
:<
,
>= 0 =
: x1 + x2 = 0
1
x2
1
x2
x2
(iii) Es sei V ein euklischer Vektorraum. Dann gelten
{0}⊥ = V
und
V ⊥ = {0}
Lemma 10.19 Es seien V ein euklidischer Vektorraum und M, N ⊆ V . Dann
gelten:
(i) M ⊥ ist ein Untervektorraum von V .
(ii) Aus M ⊆ N folgt M ⊥ ⊇ N ⊥ .
(iii) L(M )⊥ = M ⊥ .
Beweis (i) und (ii) sind trivial. Aus M ⊆ L(M ) und (ii) folgt M ⊥ ⊇ L(M )⊥ .
Seien also v ∈ M ⊥ und w ∈ L(M ), dann gibt es w1 , . . . , wk ∈ M und α1 , . . . , αk ∈
R so dass gilt w = α1 w1 + · · · + αk wk . Man erhält
< w, v > = < α1 w1 + · · · + αk wk , v > = α1 < w1 , v > + · · · + αk < wk , v >= 0
Proposition 10.20 Es seien V ein endlich-dimensionaler euklidischer Raum
und M ⊆ V ein Untervektorraum. Dann gelten
V = M + M⊥
und
M ∩ M ⊥ = {0}
Man sagt, V sei die direkte Summe von M und M ⊥ und schreibt V = M ⊕ M ⊥ .
Weiterhin gilt dim V = dim M + dim M ⊥ .
Beweis Offenbar gilt M ∩ M ⊥ = {0}: Es sei v ∈ M ∩ M ⊥ , dann gilt < v, v > = 0
und es folgt v = 0.
Nun sei BM = {v1 , . . . , vk } eine Basis von M , dann kann man BM ergänzen
zu einer Basis {v1 , . . . , vn } von V . Nach dem Zusatz in 10.15 gibt es eine ONB
{w1 , . . . , wn } von V so dass gilt L({w1 , . . . , wk }) = L({v1 , . . . , vk }) = M . Dann
151
ist {w1 , . . . , wk } eine ONB von M und {wk+1 , . . . , wn } ist eine linear unabhängige
Teilmenge von M ⊥ und es folgt dim M ⊥ ≥ n − k. Nach 4.24 gilt nun
dim V ≥ dim(M + M ⊥ ) = dim M + dim M ⊥ − dim(M ∩ M ⊥ )
= dim M + dim M ⊥
≥ k + (n − k) = n = dim V
Es folgt dim V = dim(M + M ⊥ ) = dim M + dim M ⊥ und daraus V = M + M ⊥
nach 4.23.
Definition 10.21
(i) Es sei V ein euklidischer Vektorraum. Eine lineare Abbildung ϕ : V −→ V
heißt selbstadjungiert, wenn gilt:
< ϕ(v), w > = < v, ϕ(w) >
für alle v, w ∈ V
(ii) Eine Matrix A ∈ M (n, n, K) heißt symmetrisch, wenn gilt At = A.
Proposition 10.22 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und B eine geordnete ONB von V . Eine lineare Abbildung ϕ : V → V ist
genau dann selbstadjungiert, wenn [ϕ]B symmetrisch ist.
Beweis Da dieses Ergebnis außerordentlich wichtig ist, zeige ich zunächst den
Spezialfall V = Rn und B = En :
Für alle v, w ∈ Rn gilt:
< ϕ(v), w > = < [ϕ]v, w > = ([ϕ]v)t w = v t [ϕ]t w
und
< v, ϕ(w) > = < v, [ϕ]w > = v t [ϕ]w
Wenn nun [ϕ] symmetrisch ist, folgt direkt, dass ϕ selbstadjungiert ist. Wenn ϕ
umgekehrt selbstadjungiert ist, folgt
v t [ϕ]t w = v t [ϕ]w
für alle v, w ∈ Rn
und insbesondere
eti [ϕ]t ej = eti [ϕ]ej
für alle 1 ≤ i, j ≤ n
Es gelte [ϕ] = (ai,j ), dann erhält man
ai,j = eti [ϕ]ej = eti [ϕ]t ej = aj,i
Also ist [ϕ] symmetrisch.
152
Der allgemeine Fall folgt nun mit Hilfe von 10.13(iii) und 6.38:
Für alle v, w ∈ V gilt:
< ϕ(v), w > = < [ϕ(v)]B , [w]B > = < [ϕ]B [v]B ), [w]B >
= ([ϕ]B [v]B )t [w]B = [v]tB [ϕ]tB [w]B
und analog:
< v, ϕ(w) > = < [v]B , [ϕ(w)]B > = < [v]B , [ϕ]B [w]B > = [v]tB [ϕ]B [w]B
Die Behauptung folgt jetzt wie im Spezialfall.
Korollar 10.23 Eine Matrix A ∈ M (n, n, R) ist genau dann symmetrisch, wenn
ϕA selbstadjungiert ist.
Beweis Klar wegen [ϕA ] = A.
Proposition 10.24 Es seien V ein euklidischer Vektorraum und ϕ : V −→ V
eine selbstadjungierte lineare Abbildung. Weiter sei M ⊆ V eine Menge, für die
gilt ϕ(M ) ⊆ M . Dann gilt ϕ(M ⊥ ) ⊆ M ⊥ . Weiter ist die Abbildung
ϕ0 : M ⊥ −→ M ⊥
definiert durch
ϕ0 (v) = ϕ(v)
für alle v ∈ M ⊥
selbstadjungiert.
Beweis Es sei v ∈ M ⊥ , dann gilt für alle w ∈ M :
< ϕ(v), w > = < v, ϕ(w) > = 0
da ϕ(w) ∈ M , und daher ϕ(v) ∈ M ⊥ . Also gilt ϕ(M ⊥ ) ⊆ M ⊥ . Daher ist ϕ0
wohldefiniert und offenbar selbstadjungiert.
Das letzte und wichtigste Resultat dieses Kapitels besagt, dass man jede lineare, selbstadjungierte Abbildung diagonalisieren kann. Zum Beweis muss man
zunächst einmal zeigen, dass jede lineare, selbstadjungierte Abbildung eines endlichdimensionalen euklidischen Vektorraums einen Eigenwert besitzt. Dafür gibt es
zwei Standardbeweise, die beide erheblich über den Rahmen dieser Vorlesung
hinausgehen. Der Beweis, den ich führen werde, benutzt den “Fundamentalsatz
der Algebra”, der besagt, dass jedes nicht-konstante Polynom mit komplexen
Koeffizienten eine komplexe Nullstelle besitzt.
Proposition 10.25 Es sein A ∈ M (n, n, R) eine symmetrische Matrix. Dann
hat A einen Eigenwert.
153
Beweis Man definiere p : C → C durch P (λ) = det(A − λIn ). Nach Übungsaufgabe 44 ist P ein Polynom (genauer gesagt, eine Polynomabbildung) vom Grad n.
Nach dem Fundamentalsatz der Algebra besitzt P eine Nullstelle µ ∈ C. Dann gilt
P (µ) = det(A − µIn ) = 0, also gibt es einen Vektor v = (z1 , . . . , zn )t ∈ Cn , v 6= 0
so dass gilt Av = µv. Sei v = (z1 , . . . , zn )t , dann folgt:
v t Av = µv t v
Da v t Av eine komplexe Zahl ist, ist sie identisch mit ihrer Transponierten, also
folgt:
v t Av = (v t Av)t = v t At v = v t Av = v t Av = v t Av
Man erhält v t Av = v t Av und daher ist v t Av reell. wegen v 6= 0 ist
v t v = z1 z1 + · · · + zn zn zn = |z1 |2 + · · · + |zn |2
eine positive reelle Zahl. Man erhält
µ=
v t Av
∈R
vtv
Proposition 10.26 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine selbstadjungierte lineare Abbildung. Dann besitzt ϕ
einen Eigenwert.
Beweis Es sei B eine geordnete ONB von V . Nach 10.22 ist A = [ϕ]B symmetrisch und besitzt nach 10.25 einen Eigenwert λ. Es folgt
Pϕ (λ) = det(ϕ − λid) = det[ϕ − λid]B = det([ϕ]B − λIn ) = PA (λ) = 0
Also ist λ ein Eigenwert von ϕ.
Proposition 10.27 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine selbstadjungierte lineare Abbildung. Dann ist ϕ diagonalisierbar. In der Tat gibt es eine geordnete Orthonormalbasis B von V , so dass
[ϕ]B eine Diagonalmatrix ist. .
Beweis Beweis erfolgt durch vollständige Induktion nach n = dim V .
(I) Es seien n = 1 und v ∈ V, v 6= 0. Dann ist {v} eine Basis von V , also gibt es
1
ein λ ∈ R so dass gilt ϕ(v) = λv. Man setze B = { kvk
v}, dann gilt [ϕ]B = (λ1 ).
(II) Die Behauptung gelte für n − 1.
(III) Es sei dim V = n. Nach 10.26 besitzt ϕ einen Eigenwert λ1 , sei v0 ein
zugehöriger Eigenvektor. Man setze M = L({v0 }), dann zeige ich, dass gilt
154
ϕ(M ) ⊆ M : Es sei v ∈ M , dann gibt es ein α ∈ R so dass gilt v = αv0 und
es folgt
ϕ(v) = ϕ(αv0 ) = αϕ(v0 ) = αλ1 v0 ∈ M
Nach 10.24 ist die Abbildung ϕ0 : M ⊥ → M ⊥ definiert durch ϕ0 (v) = v wohldefiniert und selbstadjungiert. Nach 10.20 gilt dim M ⊥ = dim V − dim M = n − 1.
Nach (II) ist ϕ0 diagonalisierbar, also besitzt M ⊥ eine ONB {v2 , . . . , vn } aus Eigenvektoren von ϕ0 , also aus Eigenvektoren von ϕ. Sei v1 = kv10 k v0 . Dann ist
B = {v1 , . . . , vn } als ONS linear unabhängig und daher eine Basis von V , die aus
Eigenvektoren von ϕ besteht.
Satz 10.28 Jede symmetrische Matrix A ∈ M (n, n, R) ist diagonalisierbar, also
zu einer Diagonalmatrix ähnlich.
Genauer gilt: Es gibt eine reguläre Matrix T ∈ M (n, n, R) mit T −1 = T t so
dass T t AT = T −1 AT eine Diagonalmatrix ist. (Reguläre Matrizen T mit der
Eigenschaft T −1 = T t heißen orthogonal.)
Beweis Da A symmetrisch ist, ist ϕA nach 10.23 selbstadjungiert und daher
nach 10.27 diagonalisierbar. (Übrigens ist dann A nach 9.15 diagonalisierbar,
aber die Behauptung geht ja weiter.) Also gibt es eine ONB {v1 , . . . , vn } von V
aus Eigenvektoren von ϕA , und daher gibt es λ1 , . . . , λn ∈ K so dass gilt
Avi = ϕA (vi ) = λi vi
für alle i
Setzt man nun T = (v1 , . . . , vn ) und bezeichnet mit D die Diagonalmatrix mit
den Diagonalelementen λ1 , . . . , λn , dann erhält man
AT = (Av1 , . . . , Avn ) = (λ1 v1 , . . . , λn vn ) = T D
Da die Spaltenvektoren von T linear unabhängig sind, ist T regulär und es folgt
T −1 AT = D. Weiterhin gilt


v1t


T t T =  ...  (v1 , . . . , vn ) = (vit vj ) = In
vnt
und es folgt T t = T −1
Für die Berechnung einer geordneten ONB bezüglich derer eine selbstadjungierte
lineare Abbildung eine Diagonalmatrix ist, ist die folgende Proposition wichtig:
Proposition 10.29 Es seien V eine endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine selbstadjungierte lineare Abbildung. Dann sind Eigenvektoren zu verschiedenen Eigenwerden orthogonal.
155
Beweis Es seien λ, µ verschiedene Eigenwerte von ϕ mit zugehörigen Eigenvektoren v, w. dann gilt ϕ(v) = λv und ϕ(w) = µw und man erhält:
(λ − µ) < v, w > = λ < v, w > −µ < v, w >
= < λv, w > − < v, µw >
= < ϕ(v), w > − < v, f (w) >
= < ϕ(v), w > − < ϕ(v), w >
= 0
Wegen λ 6= µ folgt < v, w > = 0.
Bemerkung 10.30 Es seien V ein endlich-dimensionaler euklidischer Vektorraum und ϕ : V → V eine selbstadjungierte, lineare Abbildung. Weiterhin seien
λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von ϕ und für alle i sei Bi
eine ONB von Eϕ,λi . Dann ist B1 ∪ . . . ∪ Bk eine ONB aus Eigenvektoren.
Beweis Das folgt direkt aus 9.11 und 10.29.
156
Nachtrag zu Kapitel 8
Es gibt eine kompaktere Methode, die Determinante zu konstruieren. Der Vorteil
dieser Prozedur ist die Tatsache, dass es möglich ist, für die Determinante einer
Matrix eine geschlossene Formel anzugeben. Dies macht es leicht, z.B. Fragen der
Stetigkeit oder Differenzierbarkeit zu diskutieren.
Definition 8.32 Es sei n ∈ N. Jede bijektive Abbildung
π : {1, . . . , n} → {1, . . . , n}
heißt Permutation von n Elementen. Die Menge aller Permutationen von n
Elementen wird mit Sn bezeichent.
Proposition 8.33 Für alle n ∈ N ist Sn eine Gruppe, die n! Elemente enthält
und genau dann kommutativ ist, wenn n ≤ 2 gilt.
Bezeichnungsweise 8.34 Es sei π ∈ Sn eine Permutation. Dann schreibe ich
im Folgenden:
1
2
...
n
π=
π(1) π(2) . . . π(n)
Definition 8.35 Eine Permutation τ ∈ Sn heißt Transposition, wenn es i, j ∈
{1, . . . , n}, i 6= j so gibt, dass gelten:

 j k=i
i k=j
τ (k) =

k k 6= i, j
Man schreibt dann auch τ = (i, j).
Proposition 8.36 Es sei n ≥ 2, dann ist jede Permutation π ∈ Sn darstellbar
als Hintereinanderausführung von Transpositionen.
Beweis durch vollständige Induktion:
(I) n = 2: Dann gilt S2 = {id, (1, 2)} und id = (1, 2) ◦ (1, 2), es folgt die Behauptung.
157
(II) Die Behauptung gelte für n − 1.
(III) Es sei π ∈ Sn .
1. Fall π(n) = n. Dann ist π 0 : {1, . . . , n − 1} → {1, . . . , n − 1} definiert durch
π 0 (i) = π(i) für alle i eine Permutation von n − 1 Elementen. Nach Induktionsanahme gibt es Transpositionen τ1 , . . . , τr so dass gilt
π 0 = τr ◦ · · · ◦ τ1
Offenbar gilt dann aber auch
π = τr ◦ · · · ◦ τ1
2. Fall Es gilt π(n) 6= n, sei π(i) = n. Dann gilt
π ◦ (i, n)(n) = π((i, n)(n)) = π(i) = n
Also gibt es nach dem 1. Fall Transpositionen τ1 , . . . , τr so dass gilt
π ◦ (i, n) = τr ◦ · · · ◦ τ1
Es folgt
π = (π ◦ (i, n)) ◦ (i, n) = τr ◦ · · · ◦ τ1 ◦ (i, n)
Beispiel 8.37 Es gilt
1 2 3 4 5
1 2
=
5 4 1 2 3
5 4
1 2
=
3 4
1 2
=
3 4
1 2
=
3 2
1 2
=
3 2
1 2
=
1 2
3 4 5
1 2 3
3 4 5
1 2 5
3 4 5
1 2 5
3 4 5
1 4 5
3 4 5
1 4 5
3 4 5
3 4 5
◦ (1, 5) ◦ (1, 5)
◦ (1, 5)
◦ (2, 4) ◦ (2, 4) ◦ (1, 5)
◦ (2, 4) ◦ (1, 5)
◦ (1, 3) ◦ (1, 3) ◦ (2, 4) ◦ (1, 5)
◦ (1, 3) ◦ (2, 4) ◦ (1, 5)
= (1, 3) ◦ (2, 4) ◦ (1, 5)
158
Eine wichtige Eigenschaft von Permutationen ist die Tatsache, dass man jeder ein
“Vorzeichen” oder, genauer gesagt, eine der Zahlen 1 oder −1 zuordnen kann. Man
nennt diese Zahl das Signum der Permutation. Wichtig daran ist, dass das Signum
multiplikativ ist, d.h. das Signum der Hintereinanderausführung von Permutationen ist das Produkt der Signen. Es gibt mehrere Möglichkeiten der Definition des
Signums. Die von mir gewählte ist nicht die “natürliche” (wenn es denn so eine
gibt), aber sie liefert die geforderten Eigenschaften sehr schnell (das liegt natürlich
daran, dass die Theorien der darstellenden Matrizen und der Determinanten sehr
gut entwickelt sind).
Definition 8.38 Es sei π ∈ Sn . Dann heißt
sgn π = det(eπ(1) , eπ(2) , . . . , eπ(n) )
das Signum der Permutation.
Beispiele 8.39
(i) Es sei
π=
1 2 3 4 5
5 4 1 2 3
dann gilt
sgn π = det(eπ(1) , eπ(2) , eπ(3) , eπ(4) , eπ(5) ) = det(e5 , e4 , e1 , e2 , e3 )
und nach Laplace:

0 0 1 0 0

 0 0 0


det(e5 , e4 , e1 , e2 , e3 ) = det  0 0 0

 0 1 0

1 0 0

0 1 0 0

 0 0 1 0
= det 
 0 0 0 1

1 0 0 0


0 1 0

1 0 


 0 0 1

0 1  = (−1)5+1 det 
 0 0 0



0 0 
1 0 0
0 0


1 0 0





 = (−1)4+1 det  0 1 0  = −1




0 0 1
Also gilt sgn π = −1.
(ii) Es sei τ = (i, j) eine Transposition, dann gilt
sgn τ = det(eτ (1) , . . . , eτ (n) ) = det π i,j (In ) = −1
159
0


0 

1 

0
Proposition 8.40 Es seien π, ρ ∈ Sn . Dann gilt
sgn(π ◦ ρ) = (sgn π)(sgn ρ)
Beweis Man definiere lineare Abbildungen ϕ, ψ : K n → K n durch
[ϕ] = (eπ(1) , eπ(2) , . . . , eπ(n) )
und
[ψ] = (eρ(1) , eρ(2) , . . . , eρ(n) )
Dann gilt sgn π = det[ϕ] = det ϕ und sgn ρ = det[ψ] = det(ψ) und weiterhin für
alle i:
ϕ ◦ ψ(ei ) = ϕ(ψ(ei )) = ϕ(eρ(i) ) = eπ(ρ(i)) = eπ◦ρ(i)
und daher
[ϕ ◦ ψ] = ([ϕ ◦ ψ(e1 )], . . . , [ϕ ◦ ψ(en )]) = (eπ◦ρ(1) , . . . , eπ◦ρ(n) )
Man erhält:
sgn(π ◦ ρ) = det[ϕ ◦ ψ] = det(ϕ ◦ ψ) = (det ϕ)(det ψ) = (sgn π)(sgn ρ)
nach dem Determinantenproduktsatz.
Korollar 8.41 Es sei π ∈ Sn , dann gilt sgn π ∈ {1, −1}.
Beweis 8.36, 8.40 und 8.39.
Die bisherigen Ergebnisse geben eine Möglichkeit zur Interpretation des Signums
einer Permutation: Nach 8.36 gibt es zu jeder Permutation π ∈ Sn Transpositionen τ1 , . . . , τr so dass gilt π = τr ◦ · · · ◦ τ1 . Nun ist r zwar nicht durch π bestimmt,
aber π bestimmt, ob es eine gerade oder ungerade Anzahl von Transpositonen
ist: denn wenn π = σs ◦ · · · ◦ σ1 gilt folgt aus 8.40
(−1)r = sgn π = (−1)s
Also beschreibt sgn π, ob man zur Darstellung von π eine gerade oder ungerade
Anzahl von Transpositionen braucht.
Lemma 8.42 Es sei σ ∈ Sn , dann ist die Abbildung Tσ : Sn → Sn definiert
durch Tσ (π) = π ◦ σ eine bijektive Abbildung.
Beweis Die Umkehrabbildung ist Tσ−1 .
Satz 8.43 Es sei A = (ai,j ) ∈ M (n, n, K). Dann gilt
X
det(A) =
sgn πa1,π(1) · · · an,π(n)
π∈Sn
160
Beweis Nach 8.15 (in der Tat nach 8.10) reicht es zu zeigen, dass die Abbildung
∆ : M (n, n, K) → K definiert durch
X
∆(A) =
sgn(π)a1,π(1) · · · an,π(n)
π∈Sn
eine Determinante ist.
(D1): Es seien a1 , . . . , an ∈ M (1, n, K) die Zeilenvektoren von A. Dann gilt für
alle v = (x1 , . . . , xn ) ∈ M (1, n, K):


a1
 .. 
 . 


 ai−1 


 v  X
∆
sgn(π)a1,π(1) · · · ai−1,π(i−1) xπ(i) ai+1,π(i+1) · · · an,π(n)
=



 π∈Sn
 ai+1 
 . 
 .. 
an
und das ist offenbar eine lineare Abbildung.
(D2) Es gelte ai = aj für i < j, dann ist zu zeigen, dass ∆(A) = 0 gilt. Um die
Schreibarbeit zu vereinfachen, nehme ich an, dass i = 1 und j = 2 gilt. Man setze
τ = (1, 2) ∈ Sn . Nach 8.42 gilt
P
∆(A) =
π∈Sn (sgn π ◦ τ )a1,π◦τ (1) · · · an,π◦τ (n)
P
=
π∈Sn (sgn π)(sgn τ )a1,π(2) a2,π(1) a3,π(3) · · · an,π(n)
P
= − π∈Sn (sgn π)a2π(2) a1,π(1) a3,π(3) · · · an,π(n)
= −∆(A)
Es folgt ∆(A) = 0.
(D3) Es sei In = (δi,j ), dann gilt δ1,π(1) · · · δn,π(n) 6= 0 genau dann, wenn π(i) = i
für alle i gilt, d.h. π = id und man erhält
X
∆(In ) =
sgn(π)δ1,π(1) · · · δn,π(n) = δ1,1 · · · δn,n = 1
π∈Sn
Bemerkung 8.44 Für alle 1 ≤ i, j ≤ n sei fi,j : R → R eine stetige oder
differenzierbare Abbildung. Dann ist die Abbildung F : R → R definiert durch
F (t) = det(fi,j (t))i,j
stetig bzw. differenzierbar.
Insbesondere gilt: Wenn (fi,j (t0 ))i,j für ein t0 ∈ R regulär ist, gibt es ein ε > 0 so
dass (fi,j (t))i,j für alle t ∈ (t0 − ε, t0 + ε) regulär ist.
161
Beweis Für alle t ∈ R gilt
F (t) =
X
sgn(π)f1,π(1) (t) · · · fn,π(n) (t)
π∈Sn
und das ist offenbar eine stetige bzw. differenzierbare Abbildung. Schließlich ist
(fi,j (t)i,j ) genau dann regulär, wenn F (t) 6= 0 gilt. Wenn also (fi,j (t0 )i,j ) regulär
ist, gilt F (t0 ) 6= 0 und nach einem Ergebnis der Analysis gibt es dann ein ε > 0 so
dass gilt F (t) 6= 0 für alle t ∈ (t0 −ε, t0 +ε). Also ist (fi,j (t)i,j ) für diese t regulär. Der schnelle Beweis von 8.43 ist darauf zurückzuführen, dass ich bei der Definition und der Herleitung der Eigenschaften des Signums einer Permutation die
Eigenschaften der Determinante zur Verfügung hatte. Natürlich ist es möglich,
das Signum einer Permutation zu definieren, ohne die Determinantentheorie zur
Vergügung zu haben. In diesem Fall kann dann 8.43 zur Definition der Determinante dienen (und das wird auch oft so gemacht). Für eine alternative Definition
der Determinante kann man die folgenden Tatsachen benutzen:
Es sei π ∈ Sn eine Permutation, dann gelten:
Q
• sgn π = i<j π(j)−π(i)
j−i
• Es sei kπ die Anzahl der Elemente der Menge {(i, j) : i < j, π(i) > π(j)},
dann gilt sgn π = (−1)kπ
• Es gelte π = τκ ◦ · · · ◦ τ1 , dann gilt sgn π = (−1)k .
Jede dieser Aussagen kann zur Definition des Signums einer Permutation gemacht
werden (und wird es auch). Da aber Sn genau n! Elemente besitzt und n! für große
n sehr schnell sehr groß wird, ist aber die Formel aus 8.43 nicht geeignet, praktisch die Determinante einer größeren Matrix zu berechnen.
Bitte beachten Sie den nach den Korrekturen
anhängenden Fragebogen!
162
Korrekturen
Wie in der Vorlesung angekündigt, habe ich nach 2.26 eine Bemerkung eingefügt.
Dies hat den Vorteil, dass man den Beweis von 2.28(i), (ii) einfacher führen kann,
und das habe ich auch getan. Das nachfolgende Lemma erhält dann die Nummer
2.28.
Se., Ze.
Fehler
Korrektur
Datum
19, 5
e◦x
e ◦ x0
30.09.09
24, -3
(U1)
(U2)
30.09.09
25, 12
(x1 ◦ y1 , x2 ◦ y2 )
(x1 ◦ x2 , y1 ◦ y2 )
30.09.09
25, 14
von G1 und G2
von (G1 , ◦) und (G2 , ◦)
30.09.09
25, 19
(x1 ◦ y1 , x2 ◦ y2 )
(x1 ◦ x2 , y1 ◦ y2 )
30.09.09
25, 19
(x1 , x2 ), (y1 , y2
(x1 , y1 ), (x2 , y2 )
30.09.09
25, 19
G1 ◦ G2
G1 × G2
30.09.09
25, 21
(x1 , y1 ), x2 , y2 )
(x1 , y1 ), (x2 , y2 )
30.09.09
25, -3
(G1 , G2 )
G1 × G2
30.09.09
30, 1
kN
kZ
06.10.09
30, 1
x∈N
x∈Z
06.10.09
37, 6
Z/4Z, ⊕, )
(Z/4Z, ⊕, )
06.10.09
37, -6
(M4)
(M3)
06.10.09
27, -6
xσy
xτ y
08.10.09
46, 12
(i)
(U1)
08.10.09
46, 13
(ii)
(U2)
08.10.09
46, 14
(iii)
(U3)
08.10.09
10, 17
(y+1) - y
(y+1) - 1
12.10.09
26, -5
6= ∅
U 6= ∅
12.10.09
30, 13
KZ
kZ
12.10.09
163
Se., Ze.
Fehler
Korrektur
Datum
30,21
[(x0 , y0 ]
[(x0 , y0 )]
12.10.09
33, -5
x, y ∈ K ∗
x, y ∈ K
12.10.09
50, 13
b1
β1
12.10.09
55, -8
Unabhänigkeit
Unabhängigkeit
12.10.09
56, 2
unabhänig
unabhängig
12.10.09
37, 11
[4] [4] = [4 · 4] = [16] = [1]
[3] [3] = [3 · 3] = [9] = [1]
19.10.09
51, 13
Bewei
Beweis
26.10.09
70, -13
(L3)
(L2)
26.10.09
63, 4
dim(V )
dim V
26.10.09
63,4
dimK (V )
dimK V
26.10.09
63, 6
dim(V )
dim V
26.10.09
64, 18
dim(U )
dim U
26.10.09
64, 18
dim(V )
dim V
26.10.09
70, -2
ker(ϕ)
ker ϕ
26.10.09
71, 2
rg(ϕ)
rg ϕ
26.10.09
71,8
ker(ϕ)
ker ϕ
26.10.09
71, -1
rg(ϕ)
rg ϕ
26.10.09
72, 11
rg(ϕ)
rg ϕ
26.10.09
Mathematisch spielt es natürlich keine Rolle, ob man dim V oder dim(V ), ker ϕ
oder ker(ϕ) sowie rg ϕ oder rg(ϕ) schreibt, in allen drei Fällen ist klar, was gemeint ist, aber die “Mischform” im Manuskript hat mir nicht gefallen.
15, -1
x0 ◦ x = x0 ◦ x = e
x 0 ◦ x = x ◦ x0 = e
84
Hier habe ich ein Diagramm eingefügt.
04.11.09
82, -8
Kk
Kk
10.11.09
93, 11
[·]
[ · ]B
10.11.09
63, 9
Hier habe ich einen Beweis von 4.19 eingefügt.
16.11.09
112
Ich habe 7.19 und 7.20 gegenüber der Vorlesung vertauscht.
17.11.09
111-114
Ich schreibe wieder rg A, srg A und zrg A anstelle
von rg(A), srg(A) und zrg(A)
164
03.11.09
17.11.09

100, 7



a1,1
a1,n




x1  ...  + xn  ... 
ak,1
ak,n



a1,1
a1,n




x1  ...  + · · · + xn  ... 
ak,1
ak,n
20.11.09
100, 7
x 1 a1 + · · · x n + an
x 1 a1 + · · · + x n an
20.11.09
101, 11/12
Hier habe ich dreimal B durch b ersetzt.
20.11.09
122, -5
Hier habe ich “ a1,1 , . . . , an,n 6= 0” eingefügt und die Anmerkung
gestrichen.
23.11.09
122, -6
A
Ã
24.11.09
144, 7
< v, w > = vwt
< v, w > = v t w
24.11.09
38, 4
= [x] · [y] ⊕ [x] · [xz]
= [x] · [y] ⊕ [x] · [z]
07.01.10
119, 4
im letzten Vektor ist λ weggefallen
18.01.10
119, -3
im zweiten Vektor wurde −ci durch cj ersetzt
18.01.10
121, 12
ai = 0
ai,i = 0
18.01.10
123, 6
(M,n-1,n-1,K)
M (n − 1, n − 1, K)
18.01.10
124, -3, -2
59,-4
neue Formulierung
1
1
B=(
,
0
1
x1 + 2x2 + 3x3
4x1 + 5x2 + 6x3
(−1)4+4 det( ) = 1
59, -3
102, 15
132, 8
86, 11

18.01.10
1
1
,
0
1
3x1 − x2 + 4x3
2x1 + 3x3
4+1
(−1) det( ) = −1
20.01.10
sgn π = 1
sgn π = −1
20.01.10
i.-te und j.-te Spalte
r.-te und s.-te Spalte
25.01.10
165
18.01.10
18.01.10
Fragebogen zu den Zusatzbemerkungen zu den Übungsaufgaben
Studiengang:
B.Sc. Wirtschaftsmathematik 2
B.Sc. Wirtschaftsinformatik
2
Lehramt Mathematik
2
Bitte beantworten Sie die folgenden Fragen wie bei der Evaluation mit der Bedeutung
1: trifft voll zu
2-4 : teils-teils
5: trifft garnicht zu
1
2
3
4
5
Ich habe die Zusatzbemerkungen gelesen.
2
2
2
2
2
Ich habe die Zusatzbemerkungen verstanden.
2
2
2
2
2
Die Zusatzbemerkungen haben mir beim Verständnis
des Stoffes der Vorlesung geholfen.
2
2
2
2
2
Die Zusatzbemerkungen haben mich zu einer weitergehenden Beschäftigung mit dem Stoff angeregt.
2
2
2
2
2
Bemerkungen und Anregungen:
Bitte werfen Sie den ausgefüllten Fragebogen in das Fach von Herrn
Kurbel, das sich bei den Fächern für die Übungsaufgaben befindet!
Ich gehe davon aus, dass die Zeit zur Beantwortung dieser Fragen nur einen
Bruchteil der Zeit ausmacht, die notwendig war, um diese Zusatzbemerkungen zu
erstellen. Ich würde mich über einen großen Rücklauf freuen!
H.-P. Butzmann
Herunterladen