Lineare Algebra

Werbung
W ESTF ÄLISCHE W ILHELMS -U NIVERSIT ÄT M ÜNSTER
I NSTITUT F ÜR M ATHEMATISCHE L OGIK UND
G RUNDLAGENFORSCHUNG
Lineare Algebra
Vorlesung von
Wolfram Pohlers
Wintersemester 1997/98
Sommersemester 1998
Typeset by Wolfram Pohlers
2
Vorwort
Das vorliegende Skript ist eine Mitschrift der Vorlesung, die ich im Wintersemester
1997/98 und Sommersemester 1998 an der Westfälischen Wilhelms-Universität gehalten habe. Ein Teil der Mitschrift – etwa bis Kapitel 4 – beruht auf Aufzeichnungen der von mir vorgetragenen Definitionen und Sätze, die mir Herr stud. math.
P ETER H ORN bereits in geTEXter Form überlassen hat. Allerdings habe ich diesen Text so weit verändert und ergänzt, daß alle eventuellen Ungenauigkeiten zu
meinen Lasten gehen. Die Niederschrift des übrigen Textes erfolgte vorlesungsbegleitend.
Mein ganz besonderer Dank gebührt den Studierenden Frau M AIKE WALTHER,
Herrn H ENRIK B UCHHOLZ , Herrn K EVIN B UCHIN und Herrn H ENDRIK K L ÄVER,
die den vorliegenden Text Korrektur gelesen und einen Großteil der Korrekturen
auch eigenhändig eingearbeitet haben.
Ich hoffe, daß dieses Skript sich als hilfreich für die Prüfungsvorbereitungen erweisen wird.
Im Januar 1999
Wolfram Pohlers
i
ii
INHALTSVERZEICHNIS
Inhaltsverzeichnis
0
1
Vorbemerkungen
0.1 Etwas Aussagenlogik .
0.2 Etwas Quantorenlogik
0.3 Etwas Mengenlehre . .
0.4 Relationen . . . . . . .
0.5 Funktionen . . . . . .
0.6 Natürliche Zahlen . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Vektorräume
1.1 Gruppen, Ringe und Körper . . . . . . . . . . . . . . . . . . . .
1.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ein kleiner Exkurs ins Unendliche . . . . . . . . . . . . . . . . .
1.3 Einige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
1.3.1 Der Vektorraum
1.3.2 Der Vektorraum der Abbildungen von einer Menge in einen
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.4 Produkte und Summen von Vektorräumen . . . . . . . . .
19
19
25
31
38
38
Lineare Abbildungen
2.1 Homomorphismen . . . . . . . . . . . . . . . . .
2.2 Kanonische Faktorisierung von Homomorphismen
2.3 Lineare Abbildungen . . . . . . . . . . . . . . . .
2.4 Direkte Summen von Unterräumen . . . . . . . . .
2.5 Der Vektorraum Hom
. . . . . . . . . . . .
.
.
.
.
.
45
45
47
53
57
61
Matrizen
3.1 Basisdarstellung linearer Abbildungen . . . . . . . . . . . . . . .
3.2 Der duale Raum und die transponierte Matrix . . . . . . . . . . .
3.3 Basistransformationen . . . . . . . . . . . . . . . . . . . . . . .
65
65
72
81
2
3
1
1
3
4
8
11
14
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
41
42
iii
INHALTSVERZEICHNIS
3.4
3.5
3.6
Der Rang linearer Abbildungen und der Rang einer Matrix . . . .
Elementare Umformungen . . . . . . . . . . . . . . . . . . . . .
Lineare Gleichungssysteme und affine Räume . . . . . . . . . . .
4 Determinanten
4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . .
4.3 Die Determinante eines Endomorphismus und einer Matrix
4.4 Die inverse Matrix und die Cramersche Regel . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
88
98
113
113
116
119
126
5 Normalformdarstellungen von Endomorphismen
5.1 Teilbarkeit in Ringen . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Euklidische Ringe . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Der Polynomring
. . . . . . . . . . . . . . . . . . . . . . .
5.4 Eigenwerte und Eigenvektoren von Endomorphismen . . . . . . .
5.5 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7 Die Minimalzerlegung eines algebraischen Elements . . . . . . .
5.8 Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
131
131
135
138
142
145
149
153
6 Euklidische und unitäre Vektorräume
6.1 Bilinearformen . . . . . . . . . . . . .
6.2 Positiv definite Bilinearformen . . . . .
6.3 Euklidische Vektorräume . . . . . . . .
6.4 Isometrien euklidischer Räume . . . . .
6.5 Sesquilinearformen . . . . . . . . . . .
6.6 Unitäre Vektorräume . . . . . . . . . .
6.7 Komplexifizierung reeller Vektorräume
6.8 Isometrien unitärer Räume . . . . . . .
6.9 Normale Endomorphismen . . . . . . .
6.10 Unitäre und orthogonale Abbildungen .
6.11 Selbstadjungierte Endomorphismen . .
171
171
177
180
187
192
199
200
202
203
209
213
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
159
0. Vorbemerkungen, Notationen,
Konventionen
0.1
Etwas Aussagenlogik
Beispiele von Aussagen
Die Sonne scheint.
Es regnet.
Ich spanne den Schirm auf.
Eine Aussage besteht also aus einem (oder mehreren) Objekten, die Sonne, Es, ich,
der Schirm und Prädikaten, die auf die Objekte angewendet werden. Die Sonne
scheint; es regnet, ich spanne den Schirm auf.
Mehrere Aussagen lassen sich zu einer neuen Aussage verknüpfen. Z.B.:
Die Sonne scheint und es ist warm.
Die Sonne scheint oder es regnet.
Wenn es regnet, dann spanne ich den Schirm auf.
Durch Negation lassen sich Aussagen in ihr Gegenteil umformen. Dies ist bei
wenn. . . dann Aussagen nicht immer ganz einfach. So erhalten wir beispielsweise als Negation der Aussage
Wenn es regnet, dann spanne ich den Schirm auf
die Aussage
Es regnet und ich spanne den Schirm nicht auf.
Um den umgangssprachlichen Begriffen wie und, oder, wenn . . . dann und nicht eine präzise mathematische Bedeutung zu geben, führen wir aussagenlogische Junktoren ein. Aussagen sind dadurch gekennzeichnet, daß sie wahr oder falsch sein
1
0. Vorbemerkungen
können. Die Verknüpfung von Aussagen ist also dadurch festgelegt, daß wir vereinbaren, welcher Wahrheitswert der verknüpften Aussage in Abhängigkeit der
Wahrheitswerte der zu verknüpfenden Aussagen zukommen soll. Eine -stellige
aussagenlogische Operation ist also eine Funktion, die Wahrheitswerten
einen Wahrheitswert zuordnet. Wir kommen mit den folgenden - und –stelligen
aussagenlogischen Operationen aus. (Mit Mitteln der Mathematischen Logik läßt
sich zeigen, daß jede aussagenlogische Operation schon aus den folgenden aufgebaut werden kann.)
0.1.1 Definition Die aussagenlogischen Operationen (Junktoren)
oder nicht und wenn-dann und
genau dann wenn werden durch die folgenden Wahrheitstafeln definiert:
w
f
f
w
w
f
w
w
f
f
f
f
w
f
w
w
w
f
w
f
w
f
w
w
w
f
f
w
w
f
w
w
f
f
f
w
Dabei sind die Wahrheitstafeln so zu lesen, daß in der Spalte unter dem Junktor
dessen erstes Argument und in der Zeile neben dem Junktor dessen zweites Argument steht. Der Wahrheitswert der verknüpften Aussage steht dann im Schnittpunkt
von Zeile und Spalte.
Legen wir die Wahrheitstafeln zugrunde, so erhalten wir durch einfaches Nachrechnen die folgenden
0.1.2 Rechenregeln für Aussagenlogische Operationen
(i)
(ii)
(iii)
(iv)
(v)
2
! "
! ! 0.2. Etwas Quantorenlogik
(vi)
(vii)
(viii)
(xi)
(x)
(xi)
(xii)
(xiii)
" "
(xiv)
0.2
Etwas Quantorenlogik
Neben reinen Aussagen wie “die Sonne scheint” spielen auch quantifizierte Aussagen eine Rolle, wie z.B. “alle Studenten sind fleißig” oder “es gibt Studenten,
die fleißig sind”, die etwas über alle Studenten aussagen oder die Existenz (von
fleißigen Studenten) behaupten. Solche Aussagen nennt man quantifizierte Aussagen. Die Theorie, die solche Aussagen untersucht, ist die Quantorenlogik (oder
Prädikatenlogik, wie sie häufiger genannt wird). Man kommt für die üblichen mathematischen Anwendungen mit den beiden folgenden Quantoren aus.
(für Alle)
(Es gibt)
Als Beispiel wollen wir
eine Formel angeben, die die Stetigkeit einer reellen Funk
tion in einem Punkte ausdrückt.
Oft steht man vor dem Problem, quantifizierte Aussagen negieren zu müssen. Schon
das obige Beispiel der Stetigkeit zeigt, daß dies im allgemeinen nicht einfach ist.
Folgt man der inhaltlichen
Bedeutung der Aussage “ Es gilt nicht, daß für alle
die Aussage
zutrifft”, so
kommt man zu dem Schluß, daß es dann zumindest
ein geben
muß,
für
das
nicht
zutrifft.
Ebenso
wird
die
Aussage
“für
alle
gilt ” falsch, wenn es ein mit gibt. Damit erhält man die folgenden
“Rechenregeln” für die Negation quantifizierter Aussagen (die sich im Rahmen
3
0. Vorbemerkungen
der Mathematischen Logik genauer begründen lassen, ohne daß wir dies hier tun
wollen).
Wenden wir dies aufdas
Beispiel der Stetigkeit an, so erhalten wir, daß eine Funktion in einem Punkt nicht stetig ist, wenn gilt:
Um zu zeigen, müssen wir nachweisen, daß für ein beliebiges Element gilt.
zu zeigen, genügt es, ein Objekt mit zu finden. Man kann
Um
jedoch auch zeigen, indem wir annehmen und daraus etwas
Falsches schließen. Damit haben wir
und mit 0.1.2 (xi) folgt , was und damit
bedeutet.
0.3
Etwas Mengenlehre
Alle in der Mathematik betrachteten Objekte lassen sich als Mengen auffassen. Dabei verstehen wir eine Menge naiv als eine Zusammenfassung von Objekten zu einem Oberbegriff. Diese Objekte bezeichnen wir dann als die Elemente der Menge,
die durch den Oberbegriff repräsentiert wird. Es mag einem zunächst merkwürdig
vorkommen, daß sich sogar natürliche Zahlen als Mengen darstellen lassen, obwohl wir uns gar nicht so recht vorstellen können, was wohl die Elemente einer
natürlichen Zahl sein sollen. Wir wollen uns daher kurz klarmachen, daß dies
tatsächlich geht. Es sei das Symbol für die leere Menge, d.h. die Menge, die
keine weiteren Elemente hat. Dann setzen wir
4
0.3. Etwas Mengenlehre
usw. . . .
und erhalten so alle natürlichen Zahlen als Mengen. Es ist ein Ergebnis der Mengenlehre, daß sich tatsächlich alle in der Mathematik betrachteten Objekte als Mengen darstellen lassen. Daher hat sich die Sprache der Mengenlehre als eine in der
Mathematik üblicherweise gebrauchte Sprache eingebürgert. Dies zwingt uns, uns
hier kurz mit einigen Grundbegriffen der Mengenlehre auseinanderzusetzen. Dabei wollen wir nicht definieren, was eine Menge ist (das wäre ein viel zu schwieriges Unterfangen, bis heute können wir nicht genau sagen, was eigentlich Mengen
sind). Wir wollen uns daher nur mit den Beziehungen auseinandersetzen, in denen
Mengen untereinander stehen können.
Die wesentlichste Beziehung der Mengenlehre ist
die ausdrücken soll, daß die Menge ein Element von ist. Die Klasse aller Mengen (die selbst keine Menge sein kann) bezeichnen wir als das mathematische Universum , in dem alle mathematischen Objekte zu finden sind.
bedeutet daher “ ist eine Menge” und damit ein mathemaDie Notation
tisch vernünftiges Objekt. Zusammenfassungen von Mengen, von denen wir noch
nicht so genau wissen, ob sie mathematisch vernünftige Objekte, also Mengen,
sind, bezeichnen wir vorsichtshalber zunächst als Klassen. Insbesondere sind alle
Mengen auch Klassen. Obwohl wir Klassen nicht als die eigentlichen Objekte unseres Interesses betrachten, wollen wir einige ihrer grundlegenden Eigenschaften
charakterisieren. So wollen wir zwei Klassen und als gleich betrachten, wenn
sie die gleiche Extension haben, d.h. die gleichen Elemente besitzen. In Formelschreibweise bedeutet dies:
(Extensionalität)
.
Beachte, daß alles, was für Klassen definiert wird, auch für Mengen gilt, die ja
selbst alle auch Klassen sind. So sind zwei Mengen gleich, wenn sie als Klassen
gleich sind, d.h. die gleichen Elemente besitzen.
Wir sagen, daß
eine Teilklasse von oder eine Oberklasse von
ist, wenn
jedes Element von auch ein Element von ist. Wissen wir, daß und Mengen sind, so sprechen wir auch von Teil– und Obermengen. In Formelschreibweise
Wir definieren
und nennen
eine echte Teilklasse (Teilmenge) von
.
5
0. Vorbemerkungen
0.3.1 Lemma
genau dann, wenn Beweis:
Nach 0.1.2 gilt
gilt. Daraus erhalten wir
Um Klassen bilden zu können, müssen wir ihre Objekte beschreiben können. Dazu benötigen wir eine Sprache. Wir wollen diese Sprache hier nicht exakt festlegen (das wäre für diese Vorlesung übertrieben pingelig), sondern unsere übliche
Umgangssprache, angereichert um die bereits bekannten mathematischen Symbole benutzen. Wir drücken durch die Schreibweise aus, daß dem Objekt die
(die in unserer Sprache beschrieben
ist)
zukommt. Haben wir so
Eigenschaft eine Eigenschaft,
so
bilden
wir
den
Ausdruck
und sprechen von der
Klasse der mit der Eigenschaft . Eine Menge ist genau dann ein Element
dieser Klasse, wenn es die Eigenschaft hat. In Formeln ausgedrückt schreiben
wir dies als
Insbesondere definieren wir die leere Klasse durch
Wir wollen nun einige Prinzipien angeben, wie wir Mengen (also Elemente des
Universums ) bilden können. Wir beginnen mit
(Leere Menge)
.
Haben wir bereits eine Menge , so wollen wir
aus dieser die Elemente
aussondern können, denen die Eigenschaft zukommt. Wir fordern daher
(Aussonderungsaxiom)
.
Wir werden es in dieser Vorlesung nie mit echten Klassen zu tun haben, d.h. mit
Klassen, die keine Mengen sind. Da es darüber hinaus oft klar oder unerheblich ist,
aus welcher
Menge ausgesondert wird, schreiben wir einfach salopp
, falls
anstatt
festgelegt ist.
Als Beispiel wollen wir endlich viele Objekte zu einer Klasse
zusammenfassen. Dies läßt sich beschreiben durch:
6
0.3. Etwas Mengenlehre
oder kürzer durch
für ein mit .
Natürlich wollen wir wieder als Menge haben, wenn Dann gilt
Das erreichen wir durch die folgende Vereinbarung
(Paarmengenaxiom)
Mengen sind.
.
Um weitere Mengenbildungen zu beschreiben, führen wir zunächst die folgenden
Operationen auf Klassen ein.
Klassenoperationen
Für zwei Klassen
und
sei:
(Durchschnitt zweier Klassen)
(Klassendifferenz)
Allgemeiner definieren wir für eine Klasse (Vereinigung zweier Klassen)
– eine solche Klasse nennt
man auch eine Mengenfamilie mit Indexmenge – die Klassen
(Vereinigung)
und
(Durchschnitt)
.
Wir fordern nun, daß die Vereinigung über eine Mengenfamilie, deren Indexmenge
eine Menge ist, ebenfalls wieder eine Menge ist. Dies wird formuliert im
(Vereinigungsmengenaxiom)
Man beachte, daß man jede Menge
als eine Mengenfamilie
fassen kann. Daher schreibt man oft kurz
und
anstatt
Das Vereinigungsmengenaxiom vereinfacht sich dann zu
bzw.
.
auf
.
7
0. Vorbemerkungen
Eine weiteres Axiom zur Mengenbildung ist das
(Potenzmengenaxiom)
Pow
.
Dabei nennt man Pow
die Potenzmenge (powerset) von . Das sind die wesentlichen Mengenbildungsoperationen, mit denen wir in dieser Vorlesung auskommen werden. Zu erwähnen ist noch, daß wir die Existenz einer unendlichen
Menge aus den bisher eingeführten Axiomen nicht folgern können. Daher fordert
man im Unendlichkeitsaxiom die Existenz einer unendlichen Menge. Bezeichnen
wir mit die Menge der natürlichen Zahlen, so genügt es zu fordern:
(Unendlichkeitsaxiom)
.
Wir geben das folgende Lemma ohne weiteren Beweis an. Die Beweise werden
in der Vorlesung über Mengenlehre geführt. Hier können wir die Aussagen des
Lemmas einfach als Grundtatsachen über Mengen voraussetzen.
0.3.2 Lemma Es gelten
und (i)
(ii)
Eine häufige Anfängerunsicherheit resultiert aus der extensionalen Gleichheit von
Mengen. So sollte man beachten, daß
und
(1)
(2)
gilt.
0.4
Relationen
Will man die Reihenfolge der Elemente in einer Menge respektiert wissen, so muß
man geordnetet Paare einführen. In der Sprache der Mengenlehre läßt sich das
geordnete Paar definieren.
0.4.1 Definition Wir definieren
8
0.4. Relationen
und nennen
das geordnete Paar von
0.4.2 Lemma
und .
und Beweis: Wir zeigen zunächst die einfache Richtung “ ” Aus erhalten wir zunächst und und damit auch
.
Die Gegenrichtung “ ” ist deutlich aufwendiger zu zeigen. Hier beginnen wir mit
für . Wegen
(i)
(ii)
folgt aus (i) und (ii)
Aus der Voraussetzung erhalten wir aus (iii)
(iii)
und wir haben
Damit folgt und
(iv)
, was
(v)
(vi)
nach sich zieht. Nun haben wir zwei Fälle zu unterscheiden:
. Dann ist nach (vi) 1. Fall: und damit .
. Dann ist nach (v) und mit Extensionalität
2.Fall: .
folgt 0.4.3 Definition Seien
und nennen
und
Mengen, dann definieren wir
!
das kartesische Produkt von
und
.
9
0. Vorbemerkungen
Wegen
Pow Pow
erhalten wir
Mit Lemma 0.3.2 erhalten wir daher
Pow Pow
.
(3)
0.4.4 Definition Eine Menge
heißt eine Relation zwischen und
. Wir sagen, daß und in Relation stehen, wenn ist.
Im allgemeinen notieren wir dies in der “Infixnotation”, d.h. wir schreiben
statt . Ist , also
, so sprechen wir von einer
Relation auf .
0.4.5 Definition Sei eine Relation auf . Wir nennen
symmetrisch
;
antisymmetrisch ;
;
reflexiv
;
antireflexiv
;
transitiv
linear oder
konnex
.
reflexiv, antisymmetrisch und transitiv ist;
strikte Halbordnung, wenn
antireflexiv und transitiv ist;
eine lineare Halbordnung ist;
strikte Ordnung, wenn
eine lineare strikte Halbordnung ist;
Äquivalenzrelation, wenn
reflexiv, symmetrisch und transitiv ist.
0.4.6 Beispiele Für folgende, von der Schule her bekannten Relationen ,
auf der Menge der natürlichen Zahlen gilt:
heißt eine
Halbordnung, wenn
Ordnung, wenn
Die Relation
,
ist lineare strikte Ordnung,
ist lineare Ordnung,
ist Äquivalenzrelation.
Als Beispiel einer vielleicht weniger bekannten Äquivalenzrelation führen wir die
Kongruenzrelation “modulo ” auf der Menge der ganzen Zahlen wie folgt ein:
10
0.5. Funktionen
mod
Die Relation
der ganzen Zahlen.
wobei für die Aussage steht, daß die ganze Zahl die Differenz
teilt. Man rechnet leicht nach, daß dies eine Äquivalenzrelation definiert.
definiert dann eine Halbordnung auf der Menge Ein weiteres Beipiel für eine Halbordnung ist die Teilmengenbeziehung auf der
Potenzmenge Pow
einer Menge .
, d.h.
eine Relation zwischen
und , so sei
und
(gesprochen als “ konvers”) eine Relation zwischen
. Wir nennen die zu konverse Relation.
0.4.7
Definition Ist
0.4.8 Definition Wir führen die folgenden Bezeichnungen und Redeweisen ein. Es
eine Relation. Dann definieren wir
sei
dom
Wir nennen dom
;
rng
Wir nennen rng
feld
0.5
.
rng
0.4.9 Definition Sind
Wir nennen den Nachbereich (englisch range) von
heißt das Feld der Relation
den Definitionsbereich, den Vorbereich oder den Domain von
dom
.
und
Relationen, so sei
die Komposition der Relationen und .
Funktionen
0.5.1 Definition Eine Relation
Eine rechtseindeutige Relation und Ziel .
heißt rechtseindeutig, wenn gilt:
heißt eine partielle Funktion mit Quelle
11
0. Vorbemerkungen
, daß F eine partielle Funktion mit Quelle und
Wir notieren durch Ziel ist.
und ist
.
Ist dom , so gibt es genau ein Element mit
Dieses bezeichnen wir mit , also
. Die Menge dom heißt
der Definitionsbereich von . Es ist
dom mit dom
Üblicherweise betrachten wir Funktionen . Solche
. Anstelle von
Funktionen nennt man auch total und schreibt sie als totalen Funktionen sprechen wir auch von Abbildungen.
Die Menge Im rng heißt das Bild von der Funktion . Es gilt
Im dom Oft schreibt man Funktionen in der Form
0.5.2 Definition Eine (totale) Funktion surjektiv
bijektiv
dom ;
injektiv
heißt
Durch Kontraposition der Definition der Injektivität erhalten wir für Schreibweisen
Für sei
Wir nennen weise ist Für
sei
(4)
das Bild der Menge unter
der Abbildung . Mit dieser Schreib
surjektiv, wenn ist.
12
und
!
Die Menge heißt die Urbildmenge von ist injektiv und surjektiv.
injektiv
.
0.5. Funktionen
0.5.3 Lemma
Ist injektiv, so ist eine partielle Funktion
mit dom Im . Ist bijektiv,
so ist eine (totale)
bezeichnet wird und die zu inverse
bijektive Funktion, die üblicherweise mit Funktion genannt wird. Diese Bezeichnung ist von der Schreibweise wohl
zu unterscheiden.
Beweis: Wir haben für die erste Behauptung zu zeigen, daß auf Im definiert
und rechtseindeutig
ist. Aus der Injektivität
von f folgt sofort
die Rechtseindeutig
. Damit ist keit von . Zu Im
gibt
es
ein
mit
und somit
dom . Damit ist Im dom . Ist Im ,
, d.h.
so folgt
und damit auch
. Damit
dom , und wir haben auch
Im gezeigt.
Ist darüber
ist aber dom hinaus auch noch surjektiv, so ist dom Im und somit total.
0.5.4 Lemma
Sind eine Funktion.
und
Funktionen, so ist auch
Beweis: Nach Definition 0.4.9 ist . Nachdem und Funktionen
sind, ist durch und durch eindeutig bestimmt.
Damit
ist aber durch eindeutig bestimmt und es folgt . Somit ist rechtseindeutig und damit eine Funktion.
0.5.5 Lemma Ist (Identität auf ), so gilt bijektiv und bezeichne
id id und id .
Beweis: Nach Lemma 0.5.3 und Lemma 0.5.4 sind sowohl als auch Funktionen.
Für
erhalten wir und . Damit
und damit ist id . Ganz analog zeigt man ist
id .
0.5.6 Lemma Ist id , so ist .
bijektiv, und ist Beweis: Wir haben zu zeigen, daß indirekt und nehmen dazu
derart, daß für alle an. Wegen der Injektivität von folgt daraus absurd ist.
gilt. Dies tun wir
(i)
, was
13
0. Vorbemerkungen
0.5.7 Lemma Sind auch bijektiv, und es gilt
und bijektive
Funktionen, so ist
.
Beweis:
Wir zeigen zunächst, daß injektiv ist. Seien dazu mit
. Dann folgt wegen der Injektivität von zunächst und wegen
der Injektivität von dann auch .
und
Um die Surjektivität von zu erhalten, beginnen wir mit einem finden wegen der Surjektivität von dazu ein
mit . Wegen der
Surjektivität von erhalten
wir
ein
mit
.
Setzen
wir
dies zusam
, und wir haben ein Urbild von unter
men, so folgt gefunden.
Zum Schluß
berechnen
wir
und erhalten mit Lemma 0.5.6 .
0.6
Natürliche Zahlen
Eine wesentliche Rolle in mathematischen Betrachtungen kommt der Menge der
natürlichen Zahlen zu. Wir wollen daher einige Grundtatsachen über diese Menge
zusammenstellen. Alle hier aufgelisteten Tatsachen lassen sich im Rahmen einer
Mengenlehre mit Unendlichkeitsaxiom folgern. Wir wollen darauf hier aber nicht
näher eingehen, sondern diese Tatsachen als Grundeigenschaften natürlicher Zahlen ansehen.
Natürliche Zahlen werden über den Prozeß des Zählens eingeführt. Eine Menge zu
zählen, heißt ihre Elemente zu ordnen. Eine Element kommt vor dem Element
wenn vor gezählt wurde. Umgekehrt können die Elemente einer geordneten
Menge ihrer Ordnung nach gezählt werden. Allerdings eignet sich nicht jede Ordnung zum Zählen. So muß, damit wir weiterzählen können, die Ordung gewährleisten, daß jede verbleibende Restmenge von noch nicht gezählten Elementen ein
kleinstes Element besitzt. Mit diesem Element können wir dann weiterzählen. Ordnungen mit dieser Eigenschaft heißen Wohlordnungen, die wir im folgenden formal
korrekt einführen wollen.
0.6.1 Definition Eine strikte lineare Ordnung
Wohlordnung von , wenn gilt:
feld
d.h. wenn jede nicht leere Teilmenge des Feldes von
Element besitzt.
14
auf einer Menge
heißt eine
ein bezüglich
,
kleinstes
0.6. Natürliche Zahlen
Wir wollen hier die –Relation auf den natürlichen Zahlen als bekannt voraussetzen. Es ist die Ordnung, die sich durch den Zählprozess ergibt. (Im Rahmen einer
Mengenlehre würde sich die Ordnung durch die -Beziehung ergeben.) Wir wollen
die folgende Vereinbarung treffen.
0.6.2 Vereinbarung Die Menge der natürlichen Zahlen
durch ihre kanonische Ordnung wohlgeordnet.
wird
0.6.3 Eigenschaften natürlicher Zahlen Ohne weitere Begründung halten wir
die folgenden Eigenschaften natürlicher Zahlen fest:
;
Jedes
Ist
besitzt einen Nachfolger
;
, so ist
mit
und
;
, so ist oder der Nachfolger einer natürlichen Zahl, d.h.
.
Ist
0.6.4 Vollständige Induktion Gilt
so folgt
Das Prinzip der vollständigen Induktion besagt also, daß wir, um
zu
die Induktionsbehauptung
zeigen, aus der Induktionsvoraussetzung folgern müssen.
Beweis: Wir zeigen die Behauptung indirekt und nehmen
an. Dann ist
und hat, da (i)
(ii)
eine Wohlordnung ist, ein kleinstes Element . Damit gilt aber
, d.h. . Nach Voraussetzung folgt daraus aber
im Widerspruch zu .
15
0. Vorbemerkungen
Äquivalent und vielleicht auch vertrauter ist eine Umformulierung der vollständigen Induktion, wie wir sie im folgenden angeben:
0.6.5 Vollständige Induktion Gilt der Induktionsanfang
und der Indukti
, so erhalten wir bereits
onsschritt
.
Beweis: Wir gehen wieder indirekt vor und nehmen an. Dann gibt es wieder
ein
kleinstes
mit
.
Wegen
der Vor
und damit ist
mit nach aussetzung ist
und . Wegen haben wir aber und schließen nach Voraussetzung
, d.h. , was absurd ist.
daraus auf Man wird sich als Anfänger Gedanken darüber machen, wo denn in der ersten Fassung (0.6.4) der Induktionsanfang geblieben ist. Sehen
Sie genauer hin, so werden
Sie bemerken, daß die Formel aus logischen Gründen wahr
also auch für wird. Um die Implikation zur Verfügung zu haben, muß man haben. Dies ist der Induktionsbeginn.
0.6.6 Definition durch Rekursion Sind die Abbildungen gegeben, so ist die durch die Rekursionsvorschrift
definierte Funktion und
(5)
eindeutig bestimmt.
Beweis: Vorbemerkung: Die durch die obige Rekursionsvorschrift definierte Funktion ist wieder eine Menge, d.h. ein mathematisch sinnvolles Objekt. Im Rahmen
einer Mengenlehre läßt sich die Existenz von auch beweisen. Wir wollen hier auf
einen solchen Beweis verzichten, denn wir “sehen die Funktion” ja als sinnvolles
Objekt. Allerdings werden wir nachweisen, daß es nur eine Funktion geben kann,
die den obigen Rekursionsgleichungen gehorcht.
Sie also eine weitere Funktion, die die Rekursionsgleichungen (5) erfüllt. Wir
zeigen
(i)
durch vollständige Induktion. Für den Induktionsbeginn hat man zunächst
(ii)
und für den Induktionsschritt haben wir die Induktionsvoraussetzung
16
(iii)
0.6. Natürliche Zahlen
woraus sich, da und beide die Rekursionsgleichungen (5) erfüllen,
(iv)
ergibt. Mit vollständiger Induktion erhalten wir daraus aber (i).
Als Beispiel für eine Anwendung der Definition durch Rekursion wollen wir tupel für alle natürlichen Zahlen definieren.
0.6.7 Definition Wir beginnen die Rekursion bei , d.h. wir setzen und definieren
und
in 0.6.6
wobei wir von der in Definition 0.4.1 definierten Funktion ausgehen, die zwei Mengen , das geordnete Paar
zuordnet.
0.6.8 Lemma
Beweis: Wir führen Induktion nach . Für
wir von der Induktionsvoraussetzung
aus so erhalten wir mit 0.4.2
ist die Behauptung klar. Gehen
(i)
wobei wir bei der letzten Äquivalenz die Induktionsvoraussetzung eingesetzt ha
ben.
Als Anwendung der -tupel wollen wir -fache kartesische Produkte einführen.
0.6.9 Kartesisches Produkt Sind Mengen, so definieren wir
Ebenso definieren wir
17
0. Vorbemerkungen
und nennen 18
"
das –fache kartesische Produkt von . Es ist dann
fach
1. Vektorräume
1.1
Gruppen, Ringe und Körper
1.1.1 Definition Sei und eine Abbildung. Wir schreiben
anstatt und nennen eine Verknüpfung auf .
heißt eine Halbgruppe, wenn die Verknüpfung die folgende
Das Paar Identität erfüllt.
Wir sprechen dann von einer assoziativen Verknüpfung.
, so
nicht von der
eine Halbgruppe und sind 1.1.2 Bemerkung Ist hängt wegen der Assoziativität von der Wert des Produkts Beklammerung ab. Wir definieren daher
und erhalten
und
gilt. Analog heißt gilt. Wir nennen und
1.1.3 Definition Sei in , wenn
eine Halbgruppe. Ein (1.1)
heißt linksneutral
rechtsneutral in , wenn
neutral, wenn sowohl links- als auch rechtsneutral ist.
1.1.4 Satz Eine Halbgruppe besitzt höchstens ein neutrales Element.
Beweis: Sind neutral, so folgt sofort .
19
1. Vektorräume
eine Halbgruppe und 1.1.5 Definition Sei ein linksneutrales
Element in . Gilt für
, so heißt ein Linksinverses von
. Analog heißt
ein Rechtsinverses für
, wenn für ein
gilt.
rechtsneutrales 1.1.6 Definition Eine Gruppe ist ein Paar , wobei eine Verknüpfung
auf ist, die den folgenden Bedingungen genügt:
(G1)
ist eine Halbgruppe.
(G2)
Es gibt ein linksneutrales Element (G3)
Zu jedem
.
existiert ein Linksinverses bzgl. .
In Formelschreibweise lauten (G2) und (G3)
(i)
1.1.7 Satz Ist
eine Gruppe mit linksneutralem Element , so gelten:
Jedes linksinverse Element bezüglich ist auch rechtsinvers bzgl. .
(ii) ist das eindeutig bestimmte neutrale Element in .
(iii) Das linksinverse Element jedes
bestimmt.
(iii) Sei
und
. Wir wählen
so, daß .
mit . Dann gilt
. Nach 1.1.4 ist dann eindeutig
Beweis: (i) Seien
mit gilt. Dann ist . Nach (i) gibt es ein
(ii) Sei
ist eindeutig bestimmt.
. Dann folgt
Mit bezeichnen wir das nach 1.1.7 eindeutig
bestimmte neutrale Element einer
Gruppe , zu
sei
das eindeutig bestimmte Inverse. Ist aus
dem Zusammenhang klar, um welche Gruppe es sich handelt, so schreiben wir im
allgemeinen anstatt . Anstelle von schreiben wir in Zukunft oft kurz .
dann eine Gruppe, wenn die
ist genau
für alle
eine Lösung in haben.
und Beweis:
Ist
eine
Gruppe,
so
ist
eine Lösung von
eine Lösung von .
1.1.8 Satz Ein Halbgruppe
Gleichungen und 20
1.1. Gruppen, Ringe und Körper
Für die Gegenrichtung gehen wir davon aus, daß eine Halbgruppe ist und die o.a.
Gleichungen in lösbar sind. Dann ist und wir wählen daher ein
und suchen eine Lösung der Gleichung
. Sei diese . Zu jedem
gibt es dann eine Lösung von , d.h. ein
mit
. Damit folgt
. Also ist linksneutral. Da wir die Gleichung für alle
lösen können, hat jedes
bezüglich ein linksinverses Element. Somit
ist eine Gruppe.
1.1.9 Definition Sei
Untergruppe von , wenn
eine Gruppe und eine Gruppe ist, d.h. wenn
. Wir nennen
eine
gilt und alle Gruppenaxiome erfüllt sind.
ist genau
gilt.
Beweis: Ist eine Untergruppe und sind , so ist auch und
. Dann
damit auch . Gelte nun umgekehrt und
folgt insbesondere
für damit auch .
Wegen erhalten
folgt und für wir demnach und schließlich . Damit ist
abgeschlossen unter der Verknüpfung , enthält das neutrale Element und mit
jedem Element auch sein inverses. Also ist eine Gruppe und somit eine
1.1.10 Satz Sei eine Gruppe. Eine nicht-leere Menge dann eine eine Untergruppe von , wenn
Untergruppe von .
1.1.11 Definition Ist
eine Gruppe und gilt
so heißt kommutativ oder abelsch. Oft werden abelsche Gruppen additiv
ge
schrieben, d.h. wir schreiben statt , statt und
statt
. Anstelle
von
schreibt man
.
1.1.12 Beispiele (i) Wir sehen leicht, daß die Menge der natürlichen Zahlen
zusammen mit der Addition ein Halbgruppe bilden. Wegen
für alle
ist
eine Halbgruppe mit neutralen Element . Jedoch ist
keine Gruppe, da wir zu einem
kein mit
finden können.
(ii) Wollen wir
zu einer Gruppe machen, so müssen wir zu jedem
sein Inverses
hinzunehmen. Dies ergibt die Menge 21
1. Vektorräume
der ganzen Zahlen, die mit der Addition eine abelsche Gruppe bildet. Die Motivation
zur Einführung ganzer Zahlen liegt natürlich darin, Gleichungen der Form
lösen zu können.
(iii) Die Menge der ganzen Zahlen zusammen mit der Multiplikation bildet
wieder eine Halbgruppe mit neutralem Element . Diese läßt sich nicht so leicht zu
einer Gruppe machen, da sich für keine inverses Element definieren läßt.
Den
noch läßt sich durch Hinzunahme der Lösungen der Gleichungen für
zu der Menge der rationalen Zahlen erweitern, deren von verschiedenen
Elemente zusammen mit der Multiplikation eine Gruppe bilden.
(iv) Ein Ihnen vielleicht weniger vertrautes Beispiel einer Gruppe erhalten wir,
wenn
wir
Permutationen betrachten. Dazu bezeichne
die -elementige Men
, die wir als paradigmatisch für eine beliebige -elementige Menge
ge betrachten wollen. Sei nun
bijektiv (1.2)
heißt eine Permutation der Zahlen . Wir beobachten, daß
eine Gruppe bildet, wobei wie im Abschnitt 0.5 die Komposition von
Abbildungen bedeutet. Zunächst folgt aus Lemma 0.5.4, daß mit auch
gilt. Aus Lemma 0.5.5
folgt, daß id ein neutrales
Element für die
Komposition ist und zu jedem
ein inverses Element
existiert. Man
nennt
die symmetrische Gruppe. Überzeugen Sie sich, daß diese Gruppe nicht
kommutativ ist.
Ein
1.1.13 Definition Seien ,
fungen auf . Das Tripel gungen erfüllt sind:
(R2)
(R3)
es gelten die Distributivgesetze
und Verknüp heißt ein Ring, wenn die folgenden Bedin
ist eine additive abelsche Gruppe,
ist eine Halbgruppe,
(R1)
Hat ein neutrales Element, so heißt ein Ring mit . Nach Satz 1.1.4 hat ein
Ring höchstens eine .
Gilt
, so heißt kommutativ.
1.1.14 Einige Rechenregeln für Ringe
(o)
22
1.1. Gruppen, Ringe und Körper
(i)
(ii)
(iii)
und ist nach
. Also ist . Analog erhält man
und damit .
. Also ist . Analog gilt
(ii)
und
.
damit
.
(iii) Beweis: (o) Wegen
Satz 1.1.7 (iii).
(i)
ein Ring. Ein Element
1.1.15 Definition Sei heißt linker
Nullteiler in , wenn ist und es ein
gibt mit und .
Analog heißt
rechter Nullteiler in , wenn ist und es ein
gibt
mit und .
Ein Ring ohne Nullteiler heißt nullteilerfrei.
Ein nullteilerfreier Ring mit 1 heißt Integritätsring.
1.1.16 Lemma Ist und
folgt
sein. Damit folgt aber
teiler hat, muß
folgt analog.
nullteilerfrei, so gelten die Kürzungsregeln
Beweis: Aus und . Da und keine Null
. Die zweite Kürzungsregel
ein Ring. Ist
ein
1.1.17 Definition Sei , so heißt
Unterring oder Teilring von , wenn
ein Ring ist, d.h. wenn gilt
ist eine Untergruppe von und
.
1.1.18 Beispiele (i) Die Menge ist mit den Verknüpfungen und ein Ring.
Der Ring ist nullteilerfrei und besitzt eine , damit ist ein Integritätsring.
23
1. Vektorräume
(ii) Eine weiteres Beispiel ist die endliche Menge Verknüpfungen durch die Verknüpfungstafeln
0
1
2
3
0
0
1
2
3
1
1
2
3
0
2
2
3
0
1
3
3
0
1
2
1
2
3
1
1
2
3
2
2
3
1
, dessen
3
3
1
2
gegeben sind. Man rechnet leicht nach, daß es sich mit den angebenen Verknüpfun , indem man in den ganzen Zahgen um einen Ring handelt. Man erhält len
“modulo 4” rechnet. Das heißt, man addiert und multipliziert die Elemente in
als ob sie ganze Zahlen wären, teilt dann durch und behält nur den
Rest. Dies ergibt dann immer eine Zahl zwischen und .
Beachte, daß aber Nullteiler besitzt.
wegen (iii) Das obige Beispiel läßt sich verallgemeinern zu !
indem man “modulo ” rechnet, d.h. die Elemente von
wie ganze
Zahlen addiert und multipliziert, durch teilt und nur den Rest behält. Versuchen
Sie einmal, sich davon zu überzeugen, daß dieser Ring genau dann ein Integritätsring wird, wenn eine Primzahl oder ist.
(K1)
(K2)
ist ein Ring,
1.1.20 Folgerungen (i)
heißt ein (Schief-) Körper, wenn gilt
1.1.19 Definition Ein Ring
bildet zusammen mit eine Gruppe.
Jeder Körper hat mindestens zwei Elemente.
(ii) Jede Gleichung der Form
(iii) Jede Gleichung der Form eindeutig lösbar.
ist in einem Körper eindeutig lösbar.
und ist für
in einem Körper
(iv) Jeder Körper ist ein Integritätsring.
Einen Schiefkörper mit kommutativer multiplikativer Gruppe heißt ein kommutativer Körper. Oft spricht man nur von Körpern und meint damit kommutative Körper
im Gegensatz zu Schiefkörpern.
Im folgenden betrachten wir nur noch Körper, d.h. Schiefkörper mit kommutativer multiplikativer Gruppe.
24
1.2. Vektorräume
1.2
Vektorräume
Sei im Folgenden stets ein kommutativer Körper. Die Elemente von
nen wir durch kleine griechische Buchstaben , , , . . . .
1.2.1 Definition Eine Menge
Vektorraum –, wenn gilt:
heißt Vektorraum über dem Körper
(V1)
Es gibt eine Verknüpfung
abelsche Gruppe ist.
(V2)
Es gibt eine Abbildung genden Eigenschaften:
(V21)
(V23)
(V22)
(V24) Die Elemente von
so, daß
bezeich-
– oder
-
eine additive
(skalare Multiplikation) mit fol-
.
.
.
.
heißen Vektoren. Anstatt
schreiben wir oft kurz
.
1.2.2 Folgerung Sei ein -Vektorraum. Es gilt
genau dann, wenn oder ist, wobei
das neutrale Element (Nullelement) der additiven
abelschen Gruppe
und
das Nullelement des Körpers bedeuten.
Beweis: Wir zeigen zuerst die Richtung
Wir
erhalten
Analog ist
und
. Damit
ist
.
somit
Zum
für . Dann folgt sei
Beweis der
Gegenrichtung
. Also ist nach (V24).
1.2.3 Einige Rechenregeln
(i)
(ii)
Ist eine Abbildung, so definieren wir für rekursiv
25
1. Vektorräume
Dann gelten:
(iii)
(iv)
(v)
(1.3)
.
Beweis: (i)
ist
.
. Damit
(ii)
. Also ist
.
(iii) Wir führen Induktion nach . Den Induktionsbeginn liefert . Dann
erhalten wir . Für den Induktionsschritt haben wir die Induktionsvoraussetzung . Damit erhalten
wir
Analog zeigt man (iv).
(v) Auch hier führen wir Induktion nach . Für erhalten wir . Der Induk tionsschritt ergibt sich aus .
1.2.4 Definition Sei ein -Vektorraum. Eine Teilmenge
heißt ein Teilraum ( oder Untervektorraum) von , wenn
(U1)
(U2)
mit
gilt.
1.2.5 Satz Sei
ein -Vektorraum. Dann ist
Teilraum von , wenn mit den Operationen von
26
genau dann ein
ein Vektorraum ist.
1.2. Vektorräume
Sei ein Teilraum von . Dann ist und für . Dann ist auch
und somit nach Satz 1.1.10
Untergruppe der abelschen Gruppe. Da mit und auch
Beweis:
folgt
eine
ist,
, wo sie ja nach Vorausset-
übertragen sich die übrigen Vektorraum-Axiome von
zung gelten, auf .
Ist ein Vektorraum, so ist , da zumindest
gelten muß. Darüber
hinaus muß als Vektorraum gegenüber Addition und skalarer Multiplikation ab
geschlossen sein.
-Vektorraum und
eine Familie von Teilräumen
wieder ein Teilraum von .
1.2.6 Satz Sei ein
von . Dann ist
. Da jedes der zumindest die enthalten
. Gilt ist
und so erhalten wir
. Damit
und, da alle
Teilräume sind, sowie
. Damit ist
als auch
und ist ein Teilraum.
Beweis: Sei
muß, folgt
1.2.7 Definition Sei
ein
-Vektorraum und
. Dann definieren wir
ist Teilraum von
Wir nennen
das Erzeugnis oder den Span von
oder auch den von
gespannten Raum. Die Menge
heißt ein Erzeugendensystem für
.
auf-
Nach Satz 1.2.6 ist
ein Teilraum von . Als Beispiele erhalten wir den Nullvektorraum, dessen einziger Vektor der Nullvektor ist als
und für
(Null-Vektorraum)
den von einem einzigen Vektor aufgespannten
Raum. Anstelle von
schreiben wir in Zukunft einfach
. Wir wollen dieses Beispiel im folgenden Satz noch vertiefen.
1.2.8 Satz Sei
ein
-Vektorraum und
, dann gilt
27
1. Vektorräume
Man nennt
einen Ausdruck der Form eine Linearkombination der Vek toren
. Der Span von
ist damit die Menge aller Linearkombinationen
von Vektoren in M.
Beweis: Sei
d.h. ist die Menge aller Linearkombinationen von Vektoren aus . Zunächst
ist klar, daß die Summe zweier Linearkombinationen von Vektoren aus
wieder
eine Linearkombinationen von Vektoren aus
ist. Damit ist
gegenüber der
auch
Addition abgeschlossen. Offensichtlich ist für . Damit ist ein Teilraum von . Wegen gilt natürlich
auch
für alle
. Damit ist
. Um auch die umgekehrte Inklusion
zu erhalten, müssen wir zeigen, daß jeder Teilraum von , der
umfaßt, auch
umfaßt. Sei also
und
ein Teilraum von . Wählen wir
, so gilt
mit
und
. Wegen
erhalten wir dann aber
sofort , da
als Teilraum gegenüber skalarer Multiplikation
und Addition abgeschlossen ist.
1.2.9 Definition Ein -Vektorraum heißt endlich erzeugt, wenn es eine endliche
Teilmenge
mit
gibt.
erzeugt und gilt 1.2.10 Satz Ist endlich
endliche Teilmenge
mit .
für
, so gibt es eine
. Dann gibt es zu jedem
für ein
Beweis: Sei
. Dann erhalten
und Vektoren mit
wir
als eine endliche Teilmenge von
und für jedes
folgt nach Satz 1.2.8
Damit ist .
1.2.11 Definition Sei ein -Vektorraum. Eine Teilmenge
abhängig genau
dann,
wenn
es
eine
endliche
Teilmenge
Elemente gibt mit
28
heißt linear
und
1.2. Vektorräume
Anderenfalls heißt linear unabhängig.
D.h.
wenn für jede endliche Teilmenge
von Elementen aus gilt:
ist genau dann linear unabhängig,
und für alle Tupel Der Begriff der linearen Unabhängigkeit ist der zentrale Begriff der linearen Al gebra. Ist nun eine endliche Menge linear abhängiger
Vektoren eines
Vektorraumes , so bedeutet das, daß sich aus als nicht triviale Ligibt, die nicht alle
nearkombination darstellen läßt, d.h. daß es verschwinden und doch
gilt. Sind
jedoch linear un
folgt
abhängig, so läßt sich die nur trivial darstellen, d.h. aus .
1.2.12 Bemerkung Ist
1.2.13 Satz Ist
äquivalent:
(i)
mit
, so ist
-Vektorraum und ein
linear abhängig wegen
für mit
, so sind
sind linear abhängig,
ist eine Linearkombination der übrigen, d.h. der
,
wird bereits durch viele Elemente erzeugt.
(iii)
Beweis: (i) (ii): Sind linear
abhängig,
so
gibt
es
ein
.
mit und und ein
. Also . Für gilt dann (ii) (iii): Sei .
(iii) (i): Ohne die Allgemeinheit einzuschränken,
dürfen wir annehmen. Dann ist und damit . Da ist, folgt daraus, daß linear abhängig sind.
(ii) eines der Vektoren in
1.2.14 Korollar Jeder endlich erzeugte
abhängiges Erzeugendensystem.
-Vektorraum
besitzt ein linear un-
29
1. Vektorräume
ErzeuBeweis: Wir führen den Beweis durch Induktion nach . Sei gendensystem von . Für ist , und wir sind fertig, da die leere Menge
linear unabhängig ist. Ist , so folgt die Behauptung aus der Tatsache, daß
immer
linear
unabhängig
ist.
Sei
also
ein einzelner
Vektor
. Sind
linear unabhängig, so sind wir fertig. Anderenfalls können wir nach
Satz 1.2.13 (iii)
einen der Vektoren
im Erzeugendensystems weglassen und er halten so
. Nach Induktionsvoraussetzung enthält
ein linear unabhängiges Erzeugendensystem und wir sind fertig.
1.2.15 Definition Ein linear unabhängiges Erzeugendensystem Vektorraum heißt eine Basis von .
für einen
-
1.2.16 Satz Ist ein –Vektorraum und eine Basis von
so läßt sich jedes
eindeutig (bis auf Umnummerierung) als Linearkombivon verschiedene
nation von Elementen aus darstellen.
Beweis: Da ein
Erzeugendensystem von ist, finden
wir zu
mit und Körperelemente
Vektoren
mit .
Um die Eindeutigkeit der Darstellung zu zeigen, nehmen
wir
an,
daß
auch
und
mit
gelte. Sei nun . Nach geeigneter Umnummerierung erhalten wir dann
und
Damit folgt linear unabhängige Menge ist, folgern wir daraus
und
.
für für . Da eine
und damit
Wir wollen eine Menge von Vektoren maximal
linear unabhängig nennen,
für jedes
linear
wenn linear unabhängig ist, aber die Menge abhängig ist.
Analog nennen wir eine Menge
ein minimales Erzeugendensystem, wenn
ist, aber
für jedes
gilt.
1.2.17 Satz Für einen
–Vektorraum
und sind äquivalent:
(i)
ist eine Basis von
(ii)
ist eine maximale linear unabhängige Menge.
(iii)
ist ein minimales Erzeugendensystem.
30
.
1.2. Vektorräume
, so folgt (ii): Ist
und
und damit
. Also ist linear abhängig. Damit ist eine maximal
linear unabhängige Menge.
(ii) (iii): Sei maximal linear unabhängig. Dann gibt es zu
Körperelemente
sowie
und
mit . Damit ist . Damit ist jedes
eine
Linearkombination von Elementen in und ist ein Erzeugendensystem. Wäre
so, daß nicht minimal, so fänden wir ein
noch immer ein Erzeu
gensystem wäre. Insbesondere wäre dann mit
. Das
steht aber im Widerspruch zur linearen Unabhängigkeit von .
(iii) (i): Nehmen wir an, daß noch keine Basis ist, so muß linear abhängig
sein. Dann gibt es , die
und verschwin nicht alle
. Ist
, so folgt
und damit
den mit Beweis: (i) . Dies steht aber im Widerspruch zur Minimalität von gendensystem.
als Erzeu-
Unser Ziel wird es nun sein, den folgenden Satz zu beweisen.
1.2.18 Satz Jeder
-Vektorraum
mit
besitzt eine Basis.
Die Schwierigkeit im Beweis dieses Satzes liegt darin, daß es nicht endlich erzeugte Vektorräume gibt. Für endlich erzeugte Vektorräume ist Satz 1.2.18 eine
sofortige Folgerung aus Korollar 1.2.14. Man kann ihn im Vereine mit Satz 1.2.10
sogar in der folgenden Art verschärfen.
1.2.19 Satz Jeder endlich erzeugte Vektorraum, der nicht der Nullraum ist, besitzt
eine endliche Basis.
Im Falle von unendlich erzeugten Vektorräumen wird sich der Beweis schwieriger gestalten, da wir etwas mehr über die zugrunde liegende Mengenlehre wissen
müssen. Wem dies für den Anfang zu schwierig erscheint, sollte den folgenden
Abschnitt überschlagen und im Beweis von Satz 1.2.20 den “Limesfall” einfach
auslassen.
Ein kleiner Exkurs ins Unendliche
Wir haben die natürlichen Zahlen als eine durch die kanonische Ordnung wohlgeordnete
Menge eingeführt. Man abstrahiert nun von der zugrunde liegenden Menge und betrachtet
nur den Typus der Ordnung (Mathematisch exakt ist der Ordnungstypus die Äquivalenzklasse von Ordnungen, wobei zwei Ordnungen äquivalent heißen, wenn sie sich ordnungstreu und bijektiv aufeinander abbilden lassen.). Die Ordnungstypen von Wohlordnungen
bezeichnet man als Ordinalzahlen. Endliche Mengen lassen sich bis auf Äquivalenz nur
31
1. Vektorräume
auf eine Art ordnen. Den Ordnungstypus einer -elementigen Menge identifiziert man
mit der natürlichen Zahl . Natürliche Zahlen lassen sich also als endliche Ordinalzahlen
auffassen. Den Ordnungstypus der Ordnung aller natürlichen Zahlen in ihrer kanonischen
Ordnung
bezeichnet man als . Dies ist der einfachste unendliche Ordnungstypus. Für unendliche
Mengen gilt nun aber nicht mehr, daß sie sich bis auf Äquivalenz nur auf eine Art ordnen
lassen. So erhalten wir eine neue Ordnung, wenn wir !
"
#
setzen. Dann haben wir eine Ordnung
%$ &'
(1.4)
die sich offensichtlich nicht mehr bijektiv ordnungstreu auf eine Menge vom Ordnungs
typus abbilden läßt, da sie ein größtes Element, nämlich , besitzt, was bei nicht der
%$
Fall ist. Andererseits sind aber der Ordnungstypus von
und
offensicht%$(&
lich gleich. Damit ist der Ordnungstypus von
offenbar größer als , da er einen
Ordnungstypus als ein echtes Anfangsstück enthält. Anschaulich kann man sich das so
vorstellen, daß man eine Menge vom Ordnungstypus fertiggezählt hat und dann um eines
weiter zählt. Es handelt sich also um eine Fortsetzung des Zählprozesses in das Unendliche. Die in (1.4) gezeigte Ordnung ist offensichtlich wieder eine Wohlordnung. Da sie um
genau ein Element über hinauszählt, sagen wir, daß sie den Ordnungstypus *) hat. Wir
$%+(&'
können den Prozeß fortsetzen, indem wir eine Wohlordnung
vom Ordnungs$
&'/0
3)4- ,
1
typus ,) , eine Wohlordnung - -.) vom
Ordnungstypus
eine Wohlordnung 2
'&$' /&+5
vom
Ordnungstypus
6)7 angeben, in der alle geraden
Zahlen vor den ungeraden kommen und so fort.
Was man aus diesen Beispielen lernen sollte ist die Tatsache, daß drei Arten unendlicher
Ordinalzahlen auftreten können:
8
Die Ordinalzahl als der Ordnungstypus der leeren Menge, die der natürlichen Zahl
entspricht;
8
32
Ordinalzahlen die einen Ordnungstypus repräsentieren, der ein größtes Element be
sitzt, wie z.B. jede endliche Ordinalzahl, die Ordinalzahlen 3)
, 3)9- , . . . ; diese
Ordinalzahlen heißen Nachfolgerzahlen, da zwischen ihrem Vorgänger, den man als
Ordnungstypus der Ordnung erhält, in der man das größte Element einfach fortläßt,
und der Ordinalzahl selbst keine weiteren Ordinalzahlen liegen.
1.2. Vektorräume
8
Ordinalzahlen, die einen Ordnungstypus repräsentieren, der kein größtes Element besitzt, wie z.b. , ) , etc. Diese Ordinalzahlen nennt man Limeszahlen. Hat man
nämlich eine Limeszahl und eine Ordinalzahl kleiner als , d.h. der Ordnungstypus ist äquivalent zu einem echten Anfangsstück einer durch repräsentierten
Ordnung, so ist der Nachfolger )
von noch immer äquivalent zu einem echten
Anfangsstück der durch repräsentierten Ordnung und damit kleiner als .
Die Klasse On der Ordinalzahlen erweist sich selbst als wohlgeordnet. Damit folgt das
Prinzip der Induktion über Ordinalzahlen genauso, wie wir es für natürliche Zahlen gefolgert haben. Wir erhalten also in Verallgemeinerung von 0.6.4:
Gilt On (
(( so folgt On (1.5)
Wollen wir 0.6.5 verallgemeinern, so habe wir die drei Typen von Ordinalzahlen zu beachten.
Gilt der Induktionsanfang der Induktionsschritt On )
und der Limesschritt so folgt On für Limeszahlen (1.6)
Ebenso lassen sich Funktionen rekursiv über Ordinalzahlen definieren. Wir erhalten die
folgende Verallgemeinerung von 0.6.6
Definition durch transfinite Rekursion
Sind die Abbildungen 1!#"
$ On %&"'%
1(!#" gegeben, so ist die durch die Rekursionsvorschrift
+* und
* On ) / * $ ) * +* ) * -,/.021 ) * für Limeszahlen
) 12!#" eindeutig bestimmt.
definierte Funktion On % )
* +
Natürlich muß hierbei sicher gestellt sein, daß , .0(1 immer wieder ein Element von
)
)
"
ist. Man kann die Rekursion wie in 0.6.6 statt bei auch bei jeder beliebigen Ordinalzahl
beginnen lassen.
Die Annahme, die wir über unsere Mengenwelt nun machen, ist der
Wohlordnungssatz
Jede Menge 354
läßt sich wohlordnen.
Der Ordnungstyp der kürzesten Wohlordnung, die sich auf einer Menge definieren läßt,
heißt die Kardinalzahl der Menge und wird im allgemeinen mit 6 6 bezeichnet. Man
kann daher die Forderung des Wohlordnungssatzes auf die Form “Jede Menge besitzt eine
Kardinalzahl” bringen.
Der Wohlordnungssatz mag einem zunächst merkwürdig anmuten. Eine Wohlordnung der
Menge der reellen Zahlen kann man sich beispielsweise kaum vorstellen. Vor dem Hintergrund der übrigen Annahmen über unser Mengenuniversum ist der Wohlordnungssatz
jedoch äquivalent zu einem anderen Prinzip, dem Auswahlaxiom, welches besagt:
33
1. Vektorräume
Auswahlaxiom
Zu jeder Indexmenge und Familie )
Mengen gibt es eine Auswahlfunktion 1(!
, so daß
) 0
von nicht leeren
gilt.
Das Auswahlaxiom besagt also, daß sich aus jedem Mitglied einer Familie nicht leerer
Mengen in uniformer Weise ein Element auswählen läßt. Das klingt schon viel plausibler als der Wohlordnungssatz und ist auch ein in der Mathematik allgemein akzeptiertes
Prinzip. Auf der anderen Seite leuchtet es ein, daß sich das Auswahlaxiom aus dem Wohlordnungssatz folgern läßt. Wir ordnen die Vereinigung der Mengen und wählen dann
aus jedem Familienmitglied das kleinste Element aus. Auf der anderen Seite ist es auch
möglich, mit Hilfe des Auswahlaxioms jede nicht leere Menge zu zählen. Wir fangen
einfach mit einem beliebigen Element an, zählen und entfernen dies aus und setzten
diese Prozedur mit Hilfe einer Auswahlfunktion auf der Potenzmenge von so lange
fort, bis wir zur leeren Menge gelangen.
Algebraikern ist der Begriffsapparat, der mit der Einführung von Ordinalzahlen verbunden
ist, in der Regel viel zu aufwendig. (Obwohl dieses Gebiet für sich gesehen äußerst faszinierend ist. David Hilbert hat die Einführung der transfiniten Zahlen als eine der größten
Leistungen der Mathematik bezeichnet.) Daher machen sie sich oft eine weitere Tatsache,
das Lemma von Zorn, zu Nutze, die ihrerseits zum Auswahlaxiom und damit auch zum
Wohlordnungssatz äquivalent ist. Um das Lemma zu formulieren, erinnern wir uns an den
Begriff der Halbordnung. Das ist eine reflexive, antisymmetrische und transitive Relation,
die nicht unbedingt linear sein muß, d.h. zwei Elemente des Feldes der Relation müssen
nicht unbedingt vergleichbar sein. Haben wir eine Teilmenge
feld . in der je zwei
*
* * *
6
, so
Elemente vergleichbar sind, d.h. gilt
nennen wir eine Kette in . Ein Element feld * ist eine obere Schranke für eine
Kette , wenn - gilt. Wir nennen ein Element feld . maximal,
wenn immer schon nach sich zieht.
Ist Lemma von Zorn
eine Halbordnung, in der jede Kette eine obere Schranke besitzt, so hat maximale Elemente.
Die Äquivalenz von Zornschen Lemma und Auswahlaxiom plausibel zu machen, ist nicht
ganz so einfach, und deshalb will ich hier auch nicht weiter darauf eingehen. Dies ist die
Angelegenheit einer Vorlesung über Mengenlehre. Wir wollen daher hier unseren Exkurs
ins Unendliche beenden.
1.2.20 Satz Sei
ein -Vektorraum und ein Erzeugendensystem für . Zu
jeder linear unabhängigen Menge gibt es eine Teilmenge mit
und ist eine Basis von .
. (Wer
Beweis: Sei . Dann können wir schreiben als den Exkurs in das Unendliche nicht mitgemacht hat, soll hier als endlich annehmen. Dann ist eine natürliche Zahl und er kann den Limesfall übergehen, da
34
1.2. Vektorräume
unterhalb natürlicher Zahlen keine Limeszahlen liegen. Der Beweis bleibt aber unter der Voraussetzung, daß ein endliches Erzeugendensystem ist, völlig korrekt.)
Durch Rekursion nach definieren wir uns Mengen
.
falls diese Menge linear unabhängig ist
sonst
für Limeszahlen
und setzen
Dann zeigen wir durch Induktion nach , daß alle Mengen
linear unabhängig
gilt dies nach Voraussetzung. Für
sind. Für
gilt dies nach Kon struktion, und haben wir schließlich für eine
Limeszahl und
nehmen wir an, so gibt es ein mit . Nach
Induktionsvoraussetzung
ist aber
linear unabhängig und damit erhalten wir
. Wir behaupten nun weiter, daß die Menge
maximal linear
und alle
linear unabhängig sind, erhalten
unabhängig ist. Da
wir wie im vorherigen Limesfall, daß auch
linear unabhängig ist. Sei nun
und
. Dann gibt es ein mit . Damit ist
. Nach
Konstruktion von muß daher
linear abhängig sein. Dann gibt es
aber Vektoren und Körperelemente und so,
daß ist, aber nicht alle und gleichzeitig sind. Damit ist
eine Linearkombination von Elementen in
. Für
gilt dies tri
vialerweise. Für ein beliebiges
finden wir, da ein Erzeugendensystem ist,
Vektoren mit .
und Körperelemente eine Linearkombination von
Wir haben aber gerade gesehen, daß jedes der
Elementen in
ist. Dann ist aber auch eine Linearkombination von Elementen
in , und
ist auch ein Erzeugendensystem. Damit ist
eine Basis. Setzen
wir , so ist , und
, und der Satz ist
bewiesen.
Wir wollen, einfach weil man es in der Literatur oft so findet, den Satz nochmals mit Hilfe des Lemma von Zorn beweisen. Dazu betrachten wir die Menge
ist linear unabhängig
. Diese Menge wird durch
die Mengeninklusion halbgeordnet. Sei nun
eine Kette in dieser
Halbordnung. Jedes
hat die Gestalt und damit hat
die
Gestalt . Wie im vorherigen Beweis folgt, daß als Vereinigung linear
unabhängiger Mengen selbst linear unabhängig ist. Damit hat jede Kette in
35
1. Vektorräume
eine obere Schranke und besitzt nach dem Lemma von Zorn maximale Elemente.
Sei
ein solches maximales Element. Wegen
ist dann
linear un
, so folgt aus der Maximalität von , daß
abhängig.
Ist
oder
linear abhängig ist. In beiden Fällen läßt sich als Linearkombination von
darstellen. Da ein Erzeugendensystem war, gilt Elementen in
mit für jedes
Da sich jedes
als Linearkombination
von Elementen in
darstellen läßt, erhalten wir auch als Linearkombination
von Elementen aus . Damit ist
auch ein Erzeugendensystem und somit eine
Basis, und wir setzen wie im vorherigen Beweis .
Beide Beweise unterscheiden sich nur in der Konstruktion der Menge . Die sich
daran anschließende Argumentation ist im wesentlichen identisch. Die Konstruktion der Menge
ist im ersten Beweis durchsichtiger (beim Zornschen Lemma
fällt sie vom Himmel), und der Vorteil des ersten Beweises durch transfinite Rekursion liegt auch darin, daß sich der endlich erzeugte Fall einfach durch Weglassen
des Limesfalles ergibt. Der Beweis über das Zornsche Lemma hat seinerseits den
Vorteil, daß er neben dem Zornschen Lemma keinen zusätzlichen Begriffsapparat
benötigt.
Wie bereits gesagt werden in dieser Vorlesung endlich erzeugte Vektorräume die
Hauptrolle spielen. Für diese Vektorräume erhalten wir Satz 1.2.20 ohne den Exkurs ins Unendliche.
1.2.21 Korollar Jeder Vektorraum besitzt eine Basis.
Beweis: Jeder Vektorraum besitzt ein Erzeugendensystem, z.B. selbst. Da die
leere Menge linear unabhängig ist, können wir in Satz 1.2.20 setzen und
erhalten so die Behauptung.
1.2.22 Satz Ist
ein -Vektorraum und sind und Basen von
einer der folgenden Fälle:
(i)
, so gilt
und ,
(ii)
und sind beide unendlich,
(iii)
ist endlich erzeugt und .
. Ist nicht endlich erzeugt, so kann
keine endliche BaBeweis: Sei
sis
besitzen.
Sei
daher
endlich
erzeugt
und
und Basen. Dann ist die Menge linear unabhängig
und nach Satz 1.2.17 keine Basis. Nach Satz 1.2.20 finden wir eine Menge mit so, daß eine Basis ist. Damit ist insbesondere .
36
1.2. Vektorräume
. Diese Menge ist wieder linear unNun definieren wir abhängig und kein Erzeugendensystem. Nach Satz 1.2.20 finden wir eine Menge
so, daß und eine Basis ist. Wir iterieren nun dieses
Verfahren und erhalten nach –vielen Schritten eine Basis ,
. Vertauso daß alle paarweise verschieden sind. Also ist schen wir die Rollen von und , so erhalten wir mit dem gleichen Verfahren
.
Diese Stelle erscheint mir geeignet zu sein, einmal zu präzisieren, wie das obige
Argument “Wir iterieren nun dies Verfahren. . . ” zu verstehen ist. Dahinter steckt
eine Definition durch Rekursion und ein Beweis durch Induktion. Zunächst defi
nieren wir durch Rekursion Mengen und derart, daß
gilt. Wir setzen eine Basis bilden und . Als Induktionvoraussetzung gehen wir davon aus, daß und
definiert sind und die geforderten Eigenschaften besitzen. Dann ist die Men
linear unabhängig und, da sie eine echte Teilmenge der Basis
ge ist, nach Satz 1.2.17 keine Basis. Da ein Erzeugendensystem ist,
, so daß gibt es nach Satz 1.2.20 eine Menge eine Basis
ist. Damit sind und für
und ,
definiert, es ist eine Basis und alle sind
paarweise verschieden.
Wann immer Konstruktionen durch “Iteration” fortgesetzt werden, sind diese analog wie im obigen Beispiel zu präzisieren.
1.2.23 Definition (Dimension eines Vektorraumes)
Wir definieren dessen Dimension durch
(ii)
Sei
ein
-Vektorraum.
ist;
nicht endlich erzeugt ist;
eine Basis von ist.
1.2.24 Satz Ist ein -Vektorraum und sind Vektoren, so sind äquivalent:
falls
falls
falls Ist es klar oder unerheblich, um welchen Grundkörper
ben wir kurz
statt
.
(i)
es sich handelt, so schrei-
linear unabhängige
.
ist eine Basis.
Beweis: (i) (ii): Ist eine Basis von , so gibt es nach Satz 1.2.20
eine Men ge , so daß eine Basis von und 37
1. Vektorräume
genau Elemente
schon eine Basis.
.
ist. Nach Satz 1.2.22 müssen dann aber und besitzen, woraus sich ergibt, und daher ist eine Basis, so ist
(ii) (i): Ist 1.2.25 Satz Sei
gen:
ein endlich erzeugter Vektorraum. Dann gelten folgende Aussa-
linear unabhängig, so ist .
(ii) Wird von erzeugt, so ist .
linear unabhängig, so lassen sie sich nach Satz 1.2.20
Beweis: (i): Sind
mit ergänzen.
zu einer Basis
Also ist
.
nach Satz 1.2.10 ein minima(ii): Ist , so enthält
les Erzeugendensystem. Also ist
.
Sind (i)
1.2.26 Bemerkung Man beachte, daß die Kontraposition der Aussage (i) in Satz
1.2.25 besagt, daß für je viele Vektoren stets linear abhängig sind.
1.2.27 Satz Ist
, so gelten:
(i)
(ii)
ein endlich dimensionaler Vektorraum und
ein Teilraum von
.
.
Beweis: (i): Ist eine Basis von , so ist eine in linear unabhängige Men
ge. Damit ist
.
(ii): : Ist eine Basis von , so ist linear unabhängig in . Aber ist auch
maximal linear unabhängig in , da jede Erweiterung von mehr als
viele Elemente enthalten müßte, was nach Bemerkung 1.2.26 unmöglich
.
ist. Damit ist eine Basis von und wir erhalten Die Gegenrichtung gilt offensichtlich.
Einige Beispiele
1.3.1
Der Vektorraum
38
1.3
Sei
ein Körper. Wir definieren
für (1.7)
1.3. Einige Beispiele
und nennen
die Menge der -tupel über . Wir wollen Verknüpfungen auf
dem
so definieren, daß
mit diesen Verknüpfungen zu einem Vektorraum
wird. Wir beginnen mit der Addition und setzen
(1.8)
Man nennt diese Art der Definition, die sich in jeder Komponente des -tupels auf
Addition im Grundkörper bezieht, auch eine komponentenweise oder punktweise
wird also komponentenweise festgesetzt. Ebenso
Definition. Die Addition im
definieren wir die skalare Multiplikation punkt- (oder komponenten)weise durch
(1.9)
Die Tatsache, daß eine Gruppe ist, überträgt sich dank der komponenten . Man rechnet dies leicht nach. Das neuweise Definition unmittelbar auf trale Element
ist das -tupel, das aus lauter Nullen besteht. Das inverse Element
ergibt sich sofort als . Die Axiome (V21)–(V24)
zu rechnet man ebenfalls sofort nach. Damit ist
ein Vektorraum. Dies ist natürlich
auch für richtig. Jeder Körper kann also als Vektorraum über sich selbst
aufgefaßt werden.
Setzen wir
, so erhalten wir die bekannten Vektorräume
, die Gera
de, , die euklidische Ebene, und , den euklidischen Raum. Diese mag man
sich als anschauliche Beispiele für Vektorräume vor Augen halten. Dabei soll man
sich aber stets bewußt sein, daß diese Vektorräume noch viel zusätzliche Struktur
tragen (z.B. rechtwinkelige Koordinatensysteme), die wir im bisher eingeführten
allgemeinen Fall noch nicht zur Verfügung haben.
Kehren wir daher wieder zum allgemeinen Fall eines beliebigen Körpers zurück.
Eine nützliche Notationshilfe ist das von Kronecker eingeführte Symbol
falls falls (1.10)
.
Mit Hilfe dieses Kroneckersymbols definieren wir die Vektoren
(1.11)
Die Komponenten des Vektors sind daher alle bis auf die -te Stelle, an der eine
steht. Das Superskript lassen wir im allgemeinen weg, da es sich im Regelfall
aus dem Zusammenhang
ergibt. Gilt nun , so erhalten wir
für . Da
jeder Körper nullteilerfrei ist, folgt daraus .
Damit sind
linear unabhängig. Anderenfalls gilt für
stets . Damit ist auch ein Erzeugendensystem und somit eine Basis. Also haben wir
39
1. Vektorräume
1.3.1 Satz Die Menge
der -tupel über einen Körper bilden mit der komponentenweisen Addition und skalaren
Multiplikation einen Vektorraum der Dimen ist eine Basis des
sion . Die Menge
. Sie heißt dessen
kanonische Basis.
1.3.2
Der Vektorraum der Abbildungen von einer Menge in einen
Körper
Ein -tupel
läßt sich auch als eine Abbildung der Menge
auffassen, die gegeben ist durch . Die nahelie
gende Verallgemeinerung ist, nun die Menge aller Abbildungen einer Menge
einen Körper zu betrachten. Sei also
in
(1.12)
Wir definieren auf Abb eine Addition und skalare Multiplikation durch
" (1.13)
Abb
Die Definition (1.13) ist so zu verstehen, daß zwei Abbildungen und zu einer
neuen Abbildung verknüpft werden, die wie in (1.13) definiert ist. Da und Elemente von sind, ist durch die Addition im Körper wohldefiniert. Ebenso werden
und die in (1.13) definierte Abbildung
eine additive
abel zugeordnet. Man rechnet wieder sofort nach, daß
sche Gruppe bildet, deren neutrales Element durch die Nullabbildung
für alle gegeben ist. Das inverse Element einer Abbildung erhalten wir
.
als durch die Festsetzung
Wir erhalten einen Unterraum von
Abb
für fast alle
(1.14)
Dabei bedeutet “für fast alle
”, daß dies für alle
bis auf endlich
viele Ausnahmen gilt. Wir wollen uns als erstes davon überzeugen,
daß Abb
auch tatsächlich ein Unterraum ist. Sind und in Abb
, so gibt es endliche
Mengen
und
. Dann gilt
mit , d.h. aber für fast alle
, denn
endlich. Ebenso erhalten wir, daß mit mit und ist auch Abb
und
auch Abb
ist.
Ist
bereits eine endliche Menge, so sind Abb
und Abb
offen
bar identisch.
Ist
,
so
ist,
wie
bereits
eingangs
erwähnt,
Abb
kann Abb
, denn für
Abb
mit dem
-tupel identifiziert werden.
40
1.3. Einige Beispiele
Bei unendlichem
liegt die Situation jedoch völlig anders. Definieren wir ein
verallgemeinertes Kroneckersymbol durch
falls sonst,
so sehen wir, daß die Menge linear unabhängig ist.
in Abb
Aus erhalten wir nämlich und damit
für . Andererseits ist nicht zu sehen, daß die Funktionen für
auch ein Erzeugendensystem
bilden.
Betrachten
wir
jedoch
den
Raum
Abb
,
auch ein Erzeugendensystem. Ist nämlich so ist die Menge
Abb
,
so
finden
wir
eine
endliche Teilmenge , so daß
gilt. Dann erhalten wir offenbar für alle
und somit für beliebiges
, d.h. es
. Somit erhalten wir
ist 1.3.2 Satz Die Menge der Funktionen Abb
. Damit ist
Abb
, so ist Abb
Abb
1.3.3
Polynome
.
bilden eine Basis des Raumes
. Ist
eine endliche Menge mit
Wählen wir im vorherigen Beispiel als die Menge der natürlichen Zahlen, so
erhalten wir den Vektorraum der Polynome mit Koeffizienten in . Wir definieren
Abb
(1.15)
Wie
wir im Abschnitt 1.3.2 gesehen
haben, ist die Menge der Kroneckersymbole
.
Zu
jedem von der Nullabbildung verschiedenen
eine Basis des
gibt es dann ein kleinstes
derart, daß für alle gilt. Wir nennen den Grad von und notieren ihn mit . Als Konvention set zen wir , wobei 0 die
Nullabbildung ist. Jedes Element ist
daher durch das Tupel mit vollständig charakterisiert.
Damit bietet sich die folgende Schreibweise an. Wir schreiben
"
wobei einfach als ein Symbol – eine Unbestimmte – zu lesen ist. So erklärt sich
auch die Notation
. Diese Schreibweise hat den Vorteil, daß wir unsere übli
chen
Rechenregeln
“formal”
anwenden können. So ist
z.B. für !
und die Summe mit
und . Die eigentlichen
41
1. Vektorräume
Vorteile
dieser Schreibweise ergeben
sich dann, wenn man eine Multiplikation auf
definieren
und somit
zu einem Ring machen will. Hier definiert man
und für und sieht
sofort, daß man dieses
Produkt erhält,
wenn man und formal
ausmultipliziert und dann nach
spielt in der Algebra eine wichtige
Potenzen von ordnet. Der Polynomring
Rolle und wird uns auch in dieser Vorlesung noch mehrfach begegnen.
1.3.4
Produkte und Summen von Vektorräumen
eine Familie von Vektorräumen über einem Grundkörper
Ist
definieren wir
und für fast alle
, so
(1.16)
(1.17)
das Produkt der Vektorräume
und das KoproMan nennt dukt oder die direkte Summe der Vektorräume . Warum man von einer Summe
spricht, wird uns in Abschnitt 2.4 klarwerden.
Die Addition und skalare Multiplikation in beiden Räumen wird wieder punktweise definiert, d.h. durch
und
Da und bei im Vektorraum liegen, ist dies wohldefiniert.
Ist die Indexmenge endlich, z.B. , so schreiben wir anstatt anstatt und . (Hierbei ist aber zu bemerken,
daß endliche Produkte und endliche Summen sich nicht unterscheiden.)
und für wählen.
Spezialfälle erhalten wir, wenn wir Dann erhalten wir den Vektorraum der -tupel von Vektoren aus . Untersu
42
1.3. Einige Beispiele
chungen über Basen und Dimension von und stellen, bis uns mehr Hilfsmittel zur Verfügung stehen.
wollen wir zurück-
43
1. Vektorräume
44
2. Lineare Abbildungen
2.1
Homomorphismen (am Beispiel von Gruppen)
Wir haben bereits bemerkt, daß Abbildungen zwischen Mengen eine wichtige Rolle in mathematischen Untersuchungen spielen. Tragen die Mengen darüber hinaus
noch eine Struktur (handelt es sich also beispielsweise um Gruppen, Ringe, Körper,
Vektorräume, . . . ), so sind die Abbildungen von besonderem Interesse, die diese
Struktur respektieren. Solche Abbildungen nennt man Homomorphismen. Wir wollen den Begriff des Homomorphismus und einige seiner wichtigsten Eigenschaften
am Beispiel der Struktur von Gruppen studieren.
2.1.1 Definition
Es seien und
Gruppen. Eine Funktion
heißt ein Homomorphismus der Gruppen, wenn gilt:
Für einen Homomorphismus definieren wir
Kern wobei das neutrale Element der Gruppe
den Kern des Homomorphismus .
2.1.2 Folgerungen Sei gelten:
(i)
.
bedeutet. Wir nennen Kern ein Homomorphismus der Gruppen. Dann
(ii)
(iii)
Kern ist eine Untergruppe von .
(iv)
Im ist eine Untergruppe von
(v)
ist injektiv .
Kern .
.
45
2. Lineare Abbildungen
. Damit ist " . Also
.
ist
Für Kern gilt Beweis: (i): Es ist (ii):
(iii): . Also ist
Kern , der damit nach Satz 1.1.10 eine
Untergruppe von ist.
(iv): Sind
es
mit und
. Damit
Im , so gibt
. Damit ist erhalten wir
ein Urbild von
. Damit ist
Im , und Im ist nach Satz 1.1.10 eine
Untergruppe von .
(v): : Ist injektiv und Kern , so
folgt wegen sofort . D.h. Kern Kern folgt aus (iii), denn
, aber jede Untergruppe muß
das
neutrale
Element
enthalten.
und : Ist
, so erhalten wir Kern und damit
durch Multiplikation mit
, woraus sofort von rechts folgt.
2.1.3 Lemma Sind auch und
ein Homomorphismus.
Beweis: Es ist
Homomorphismen, so ist
2.1.4
Ist ein bijektiver Homomorphismus, so
Lemma
ebenfalls ein bijektiver Homomorphismus.
Beweis: Seien
. Da surjektiv ist finden
wir
und . Damit folgt .
Ein surjektiver Homomorphismus heißt ein Epimorphismus.
Ein injektiver Homomorphismus heißt ein Monomorphismus.
Ein bijektiver Homomorphismus heißt ein Isomorphismus.
Ein Homomorphismus mit
Bezeichnungen
heißt ein Endomorphismus.
Ein bijektiver Endomorphismus heißt ein Automorphismus.
46
ist
2.2. Kanonische Faktorisierung von Homomorphismen
2.1.5 Definition Zwei Gruppen heißen isomorph, wenn es einen Isomorphismus
zwischen den Gruppen gibt.
Die Isomorphie der Gruppen und wird mit notiert.
2.1.6 Lemma Die Isomorphie von Gruppen ist eine Äquivalenzrelation auf der
Menge aller Gruppen.
Beweis: Es gilt vermöge der Identität, die offensichtlich ein Isomorphismus der Gruppen ist. Damit ist die Relation reflexiv. Gilt vermöge des
Isomorphismus , so ist nach Lemma 2.1.4 ebenfalls
ein Isomorphismus der Gruppen, und wir haben
. Damit ist als symme
und
der Isomorphistrisch nachgewiesen.
Gilt
schließlich
vermöge
men und , so ist nach Lemma 2.1.3
ein Homomorphismus der Gruppen und nach Lemma 0.5.7 auch bijektiv. Damit ist
vermöge , und wir haben auch als transitiv nachgewiesen.
2.2
Kanonische Faktorisierung von Homomorphismen und
der Homomorphiesatz
2.2.1 Lemma Ist ein Homomorphismus der Gruppen und ,
so ist die Relation
Beweis: Wegen ist
symmetrisch und wegen transitiv.
reflexiv, wegen !
2.2.2 Lemma Die Äquivalenzklassen
tion von .
eine Äquivalenzrelation auf .
!
auch
bilden eine Parti-
von Teilmengen von eine ParBeweis: Wir nennen eine Familie
tition von , wenn gilt und die Vereinigung
disjunkt ist, d.h. wenn
gilt. Wir haben demnach zu zei
ist und aus schon folgt. Nach
gen, daß . Ist umgekehrt
Definition der
Äquivalenzklassen
ist
, so
folgt
. Damit haben wir auch . Nehmen wir
an, so gibt es ein , d.h. es gilt .
und damit . Die Kontraposition dieser Aussage ist
Also folgt
, und wir sind fertig.
aber gerade 2.2.3 Lemma Es gilt
Kern Kern .
47
2. Lineare Abbildungen
, so gilt . Die Gleichung hat in
Beweis:
Ist
eine Lösung und wir erhalten . Es folgt
und damit
Kern .
Kern . Also ist Kern , so ist Ist
für ein
Kern , und es folgt . Also gilt
und damit
.
2.2.4 Lemma Die Menge Kern Kern wird mit der Ver
Kern Kern eine Gruppe. Diese Gruppe
knüpfung Kern heißt die Faktor- oder Quotientengruppe von modulo dem Kern von .
Beweis: Zunächst haben wir zu zeigen, daß die im Lemma
definierte Verknüpfung
Kern Kern ist. Man
tatsächlich eine Abbildung Kern sagt, daß wir die Wohldefiniertheit der Verknüpfung zeigen müssen. Nachzuprüfen
ist nur die Rechtseindeutigkeit. Seien also Kern Kern und Kern Kern . Wir haben
Kern Kern nachzuprüfen. Mit Lemma 2.2.3
erhalten wir aber
Kern Kern . Damit ist
Kern und die
Kern Gegenrichtung erhalten wir aus Symmetriegründen in völlig analoger Weise. Nun
Kern ! Kern überzeugen wir uns davon, daß Kern Kern ist und haben
Kern damit
ein
linksneutrales
Element.
Wegen
Kern Kern ! Kern besitzt jedes Element Kern das
Kern als inverses Element. Damit ist Kern eine Gruppe.
Element
2.2.5 Lemma Die Abbildung die definiert ist durch
Kern Kern , ist ein Epimorphismus der Gruppen mit Kern Kern .
Man nennt
den kanonischen Epimorphismus von auf Kern .
Beweis: Wegen Kern Kern Kern Kern , so gibt es ein
liegt ein Homomorphismus vor. Ist
mit
Kern .
Damit
ist
ein
Urbild
von
unter
.
Da
dies
für
Kern gilt, ist
beliebige
surjektiv.
Ist
Kern , so ist Kern Kern . Also ist , d.h.
. Damit ist Kern Kern . Ist umgekehrt
Kern , so
Kern .
ist und damit
Kern Kern , d.h.
Somit ist Kern Kern .
2.2.6 Lemma Die Abbildung Kern , die definiert ist durch
Kern ist ein Monomorphismus der Gruppen.
Man nennt die kanonische Einbettung von Kern in .
48
2.2. Kanonische Faktorisierung von Homomorphismen
Beweis: Zunächst wollen wir betonen, daß die Abbildung wegen Kern Kern Kern wohldefiniert
Kern "
(d.h. rechtseindeutig) ist. Aber da wir
ja überall Äquivalenzen
stehen haben, ist sie
folgt . Damit ist injektiv.
ebenso linkseindeutig, d.h. aus Kern Kern Kern Wegen Kern Kern ist auch ein Homomorphismus der Gruppen. 2.2.7 Homomorphiesatz für Gruppen Ist ein Homomorphismus
der Gruppen, so ist Kern eine Gruppe, und es gibt einen surjektiven Ho Kern und einen injektiven Homomorphismus
momorphismus Kern derart, daß das folgende Diagramm kommutiert.
Kern D.h. es gilt Insbesondere ist Kern Im .
Beweis: Nach den Lemmata
2.2.5 und 2.2.6 erhalten wir sowohl den kanonischen
Epimorphismus
als auch die kanonische Einbettung
Kern Kern . Für
erhalten wir Kern , und wir haben die Kommutativität des Diagramms gezeigt.
Im , so ist für ein
, und es folgt
Ist
Kern Kern . Damit ist der Monomorphismus
Im surjektiv und
folglich ein Isomorphismus.
Wir wollen die Situation, die zum Homomorphiesatz geführt hat, nochmals von
einem anderen Standpunkt aus betrachten. Als erstes haben wir eingesehen, daß
Kern eine Untergruppe der Gruppe ist. Dann haben wir eine Äquivalenzrelation eingeführt.
Nun gilt Kern . Die erste Frage, die wir uns
von durch die Definition
hier stellen können,
ist, ob für jede Untergruppe
eine Äquivalenzrelation definiert wird. Dies wollen wir im
folgenden Lemma untersuchen.
2.2.8 Lemma Ist
mod
eine Untergruppe einer Gruppe , so definiert die Relation
49
2. Lineare Abbildungen
eine Äquivalenzrelation auf . Für deren Äquivalenzklassen
mod
gilt
Man nennt die linke Nebenklasse von bzgl. . Die Nebenklassen bilden eine
und Partition von , d.h. es gilt Beweis:
Wegen
reflexiv. Aus
mod
folgt
ist mod
und daraus
, d.h.
mod . Damit ist
mod
symmetrisch.
erhalten wir
wegen
mod
Die Transitivität
mod
mod .
Ist so folgt mod
und daher
. Damit ist aber , so gibt
, und es ist
. Damit ist
. Ist umgekehrt
es ein
mit . Dann folgt aber
und damit
mod , d.h.
. Damit haben wir
gezeigt. Die Tatsache,
daß die Nebenklassen eine Partition von bilden, wollen wir etwas allgemeiner
nachweisen. Wir zeigen:
Hilfssatz Ist
eine Menge und
Äquivalenzklassen
eine Äquivalenzrelation auf
eine Partition von .
, so bilden die
Es ist klar, daß dann die letzte noch offenen Behauptung des Lemma 2.2.8 dann
aus dem Hilfssatz folgt.
Beweis des Hilfssatzes: Wir haben zu zeigen, daß
und
(i)
(ii)
für alle
ist die Inklusion in (i) klar. Umgekehrt
gilt. Wegen
gilt aber wegen der Reflexivität von immer
womit
auch
folgt. Damit ist (i) gezeigt. Ist nun
so gibt es ein
, und
damit folgt
, was wegen der Transitivität von auch
nach sich zieht. Wir behaupten nun
50
(iii)
2.2. Kanonische Faktorisierung von Homomorphismen
(iv)
Aus
(iii)
und (iv) folgt dann die Behauptung. Um (iv)
zu zeigen, nehmen wir
, d.h.
an. Dann haben wir
woraus
mit
der Symmetrie und daraus
mit der Transitivität
von folgt. Also ist
. Völlig symmetrisch erhalten wir auch
, und alles ist gezeigt.
Die Tatsache, daß die Nebenklassen bezüglich einer Untergruppe eine Partition der
Gruppe bilden, gibt die Motivation zur folgenden Definition.
2.2.9 Definition Die Ordnung einer endlichen Gruppe ist die Anzahl ihrer Elemente.
Der Index einer Untergruppe in einer endlichen Gruppe ist die Anzahl der
Nebenklassen bezüglich .
Der Index wird notiert durch . D.h. es gilt
, die nur aus dem neutralen
Betrachten wir die triviale Untergruppe Element besteht, so erhalten wir die Nebenklassen . Damit ist
, und es folgt
(2.1)
Allgemein erhalten wir
2.2.10 Satz Ist
eine endliche Gruppe und
eine Untergruppe von , so ist
. D.h. die Ordnung einer Untergruppe ist stets ein Teiler
der Ordnung der Gruppe.
mit
Beweis: Die Abbildung
jektiv und wegen
folgt . Nun ist wegen Lemma
2.2.8
.
offensichtlich sur istauch
injektiv. Damit
Wir haben nun gesehen, daß jede Untergruppe einer Gruppe eine Äquivalenz
relation
mod
auf und damit auch eine Partition von in viele
Nebenklassen erzeugt. Die nächste Frage, die sich daran anschließt, ist, ob sich
auf der Menge der Nebenklassen wieder eine Gruppenstruktur definieren läßt. Ist
Kern für einen Gruppenhomomorphismus , so wissen wir bereits, daß
dies möglich ist. Entscheidend für die Wohldefiniertheit der damals eingeführten
Verknüpfung auf den Nebenklassen war, daß die durch den Homomorphismus induzierte Äquivalenzrelation mit der Gruppenverknüpfung auf verträglich
51
2. Lineare Abbildungen
und auch
war, d.h. daß aus
folgte. Das ist im allgemeinen für die durch eine Untergruppe erzeugte Äquivalenzrelation mod
nicht richtig. Um
und
mod aus
mod
mod zu
,
d.h.
,
aus
und
folgern,
müßten
wir
für jedes
und ,
folgern. Hinreichend dafür ist es,
mit
zu haben. Nun gilt
und wegen
mod
ist, wie (iv) im Beweis des Hilfsatzes gezeigt hat,
. Hinreichend für die Verträglichkeit der Äquivalenzrelation
mod
mit der Gruppenverknüpfung ist daher, daß gilt. Dies
für alle
ist der Hintergrund für die folgende Definition.
2.2.11 Definition Eine Untergruppe einer Gruppe heißt ein Normalteiler von
gilt.
, falls
für alle
Warnung Die Aussage
bedeutet nicht, daß
für
gilt, sondern
und
Bemerkung Ist eine abelsche, d.h. kommutative, Gruppe, so ist jede Untergruppe von bereits ein Normalteiler.
2.2.12 Satz Ist ein Normalteiler von , so ist mit der
Verknüpfung eine Gruppe. Man nennt die Faktoroder Quotientengruppe von nach dem Normalteiler .
Die Abbildung
, die definiert
ist
durch
, ist ein
Epimorphismus der Gruppen mit Kern
. Sie heißt der kanonische Epimor. Für endliche Gruppen gilt phismus von auf .
Beweis: Wir haben in unseren Vorbetrachtungen bereits festgestellt, daß die Eigen
schaft, Normalteiler zu sein, hinreicht, um
mod
mod
mod
zu erhalten, d.h. aus und folgt
. Das bedeutet aber, daß die Verknüpfung
wohldefiniert
ist.
Offensichtlich
ist
ein
linksneutrales
Element
und
invers zu . Damit ist mit dieser
Verknüpfung
eine Gruppe. We
gen
ist ein
Homomorphismus. Zu ist
ein Urbild unter . Damit
ist
surjektiv und aus
folgt , d.h. Kern
.
stets
. Damit ist Kern .
Umgekehrt ist für
52
2.3. Lineare Abbildungen
2.2.13 Satz Eine Untergruppe
ist genau dann ein Normalteiler, wenn
der Kern eines Gruppenhomomorphismus ist.
Beweis: Ist
ein Normalteiler, so folgt nach Satz 2.2.12, daß
Kern des ka
nonischen Epimorphismus ist.
Ist
ein
Homomorphismus,
so
gilt
Kern genau dann, wenn für ein
Kern ist. Die Gleichung ist in lösbar und es gilt , woraus
"
folgt. Also ist
Kern und damit
Kern . Damit haben wir
Kern Kern und völlig analog ergibt sich auch Kern Kern .
Wir wollen diesen Abschnitt mit der Bemerkung beschließen, daß die hier gemachten Untersuchungen keinesfalls auf Gruppen und deren Homomorphismen
beschränkt sind, sondern für beliebige algebraische Strukturen gelten. In dieser
Vorlesung werden wir jedoch vorwiegend Gruppen und Vektorräume betrachten.
2.3
Lineare Abbildungen
-Vektorräume, so nennen wir eine Abbildung
2.3.1 Definition
Sind und
linear oder einen Vektorraumhomomorphismus, wenn ein Homomorphismus der additiven abelschen Gruppen ist und für alle
und
auch gilt.
Berücksichtigen wir die Tatsache, daß wir nun additiv notierte abelsche Gruppen
vorliegen haben, so erhalten wir die anschließenden Folgerungen in ähnlicher Weise wie die Folgerungen 2.1.2.
2.3.2 Folgerungen Ist ;
(i)
(iv)
Kern Im (v)
(ii)
(iii)
linear, so gelten:
;
ist ein Unterraum von ist ein Unterraum von W;
ist injektiv Kern .
;
Beweis: Die Behauptungen (i), (ii) und (v) folgen nach 2.1.2 sofort aus der Tatsache, daß ein Homomorphismus der abelschen Gruppen ist. Um (iii) zu zeigen,
beachten wir zuerst, daß nach 2.1.2 Kern eine Untergruppe der abelschen Gruppe
von ist. Ist
und
Kern , so folgt ,
d.h. daß Kern gegenüber skalarer Multiplikation abgeschlossen ist. Damit ist
53
2. Lineare Abbildungen
Kern ein Unterraum von . Ähnlich erhalten wir (iv). Zunächst ist Im eine Untergruppe
der abelschen
Gruppe von . Für
und
Im folgt
aber für ein
, und wir erhalten
, woraus
Im folgt.
2.3.3 Lemma Sind falls linear.
Beweis: Nach Lemma 2.1.3 ist ,
2.3.4 Lemma Ist linear, so ist eben-
ein Homomorphismus der Gruppen. Wegen
ist dann
aber auch linear.
linear und bijektiv, so ist linear.
ein Homomorphismus
Beweis: Nach Lemma 2.1.4 ist der abelschen
Gruppen.
Durch
Nachrechnen
erhalten
wir
, wobei das Urbild von unter
linear.
war. Damit ist 2.3.5 Lemma Ist linear, so gelten:
Im ;
linear abhängig linear abhängig;
(ii)
(iii)
linear unabhängig linear unabhängig.
es mit Beweis:
(i): ,Istd.h. , so gibt
.
Die Aussagen (ii) und (iii) sind wechselseitig
Es genügt
Kontrapositionen.
daher,
"
eine
zu
beweisen.
Wir
zeigen
(iii).
Aus
folgt
und wegen der linearen Unabhängigkeit von dar .
aus (i)
Beweis: Ist .
eine Basis von , so ist nach Lem
Im ma 2.3.5 (i) ein Erzeugendensystem von Im . Damit ist
.
2.3.6 Satz Ist 2.3.7 Korollar Gilt
54
linear, so ist
Im , so ist
.
2.3. Lineare Abbildungen
ein Isomorphismus, so gilt nach Satz 2.3.6
. Da nach Satz 2.3.4 auch ein Isomorphismus
ist, folgt gleichermaßen
.
Beweis: Ist 2.3.8 Lemma Ist linear, so sind äquivalent:
ist injektiv.
(i)
(ii)
linear unabhängig linear unabhängig.
Beweis: (i) (ii): Ist linear, so folgt nach Lemma 2.3.5 (iii) aus
der linearen Unabhängigkeit
von
auch die lineare Unabhängig keit von
. Sind
linear unabhängig und gilt ,
. Ist nun injektiv,
, d.h. Kern
so erhalten wir so folgt daraus
und somit . Damit sind
linear unabhängig.
eine Basis des Unterraums Kern . Für
Kern
(ii) (i): Sei erhalten wir , woraus wir
wegen der linearen Unabhängigkeit von erhalten. Damit
ist und somit Kern . D.h. ist injektiv.
2.3.9 Satz Sind und
-Vektorräume mit
eine lineare Abbildung, so sind äquivalent:
(i)
ist injektiv;
(ii)
ist surjektiv;
(iii)
ist bijektiv.
und
Beweis: Es
Beginnen wir mit (i) (ii):
genügt natürlich (i) (ii) zu beweisen.
Sei injektiv. Nach Satz 2.3.6 folgt
Im und nach
Im . Damit ist
Im . Da
Lemma 2.3.8
Im ein Unterraum von
ist, folgt nach Satz 1.2.27 (ii) Im , und ist
surjektiv.
(ii) (i): Ist eine Basis von , so
ist
Im , da surjektiv ist. Damit sind aber linear unabhängig. Nach
Lemma 2.3.8 folgt daraus die Injektivität von .
2.3.10 Satz
Ist
, so ist die Menge
ein Teilraum eines -Vektorraumes
mit den Verknüpfungen
55
2. Lineare Abbildungen
und ein Vektorraum. Man nennt
den Quotientenraum
von in .
Der kanonische Epimorphismus
, der definiert ist durch
, ist linear mit Kern
.
Beweis: Zunächst ist als Teilraum eine Untergruppe der abelschen Gruppe von
. Damit ist ein Normalteiler, und
wird nach Satz 2.2.12 mit der oben
definierten Verknüpfung eine Gruppe. Es bleibt also zu zeigen, daß die skalare
Multiplikation wohldefiniert ist und die Axiome in (V2)
erfüllt. Wir beginnen mit
der Wohldefiniertheit.
Sei
dazu
und
. Dann gibt es
ein
mit . Wegen
ist für ein
,
und wir erhalten , da
ist. Damit ist
, und die umgekehrte Inklusion folgt
analog. Die skalare Multiplikation ist also wohldefiniert. Nun ist
. Damit gilt (V21).
Weiter erhalten wir , womit (V22) erfüllt ist. Nun berechnen
wir
und haben damit (V23) nachgewiesen. Schließlich erhalten wir auch (V24) wegen
.
Wir wissen bereits nach
Satz
2.2.12,
daß
ein Epimorphismus der
Gruppen mit Kern ist. Wegen
ist aber auch linear, und alles ist bewiesen.
2.3.11 Homomorphiesatz
für Vektorräume Sind ,
beides -Vektorräu
me
und
ist
eine
lineare
Abbildung,
so
gibt
es
einen
Epimorphismus
und einen Monomorphismus derart, daß das folgende Diagramm
kommutiert, d.h. daß Kern gilt. Insbesondere ist dann
Kern .
Beweis: Nach dem Homomorphiesatz für Gruppen (Satz 2.2.7) wissen wir bereits,
daß die Aussage des Satzes für die den Vektorräumen zugrunde liegenden
Grup
pen korrekt ist. Es bleibt daher nur zu zeigen, daß die Abbildungen und auch
linear sind. Für den kanonischen Epimorphismus haben wir das in Satz 2.3.10 bereits eingesehen. Wir müssen uns also nur noch davon überzeugen, daß sich die
56
2.4. Direkte Summen von Unterräumen
kanonische Einbettung Kern linear ist. Dazu berechnen wir
Kern Kern Kern .
Damit ist linear, und alle Behauptungen folgen aus Satz 2.2.7.
2.4
Direkte Summen von Unterräumen
2.4.1 Definition Sei
definieren
und nennen -Vektorraum und ein
die Summe der Unterräume
2.4.2 Satz Sind von und es gilt Teilräume
von
Unterräume von . Wir
.
, so ist .
wieder ein Teilraum
Beweis:
Es genügt natürlich zu zeigen, da
per definitionem ein Teilraum ist. Gilt
für , so
ist . Damit haben wir . Ist umgekehrt
, wobei wir ggf.
, so gibt es und
mit zulassen. Da alle Unterräume sind,
ist mit auch . Setzen wir
, so erhalten wir .
Wir erinnern an die Definition von in (1.17).
2.4.3 Satz Die Abbildung
ist ein Epimorphismus der Vektorräume. Wir nennen die Summe der Unterräume
direkt, wenn ein Isomorphismus ist. Direkte Summen von Unterräumen notieren
oder .
wir als Beweis: Zunächst ist klar, daß die Abbildung surjektiv
ist. Wir haben
daher
nur die Linearität nachzuprüfen. Es ist
und . Damit ist linear.
57
2. Lineare Abbildungen
2.4.4 Satz Seien Teilräume von . Die Abbildung ist genau dann ein Isomorphismus, wenn gilt:
Insbesondere gilt
.
Beweis: Wegen seiner Surjektivität ist genau dann bijektiv, wenn es injektiv ist.
für ein
aus und
Dazu gehen wir von
wählen
und somit
Kern . Dann gilt aber
d.h. Kern . Also ist
. Dann ist
und damit
Kern .
aus und betrachten für und damit für
und damit
. Ist
,
und ist injektiv.
Beachte Gilt
Damit ist nicht injektiv.
Hier gehen wir von
, so hat jedes eine Darstellung eine weitere Darstellung, so folgt wegen
, d.h. für schon der Injektivität
von . Die Darstellung als Summe ist bei direkten Summen von Unterräumen
also eindeutig.
2.4.5 Satz Sei ein -Vektorraum und ein Teilraum von . Dann gibt es einen
Teilraum
von mit .
heißt das Komplement von in .
Beweis: Sei eine Basis von . Nach Satz 1.2.20 finden wir eine Menge ,
eine Basis von
so daß und ist. Wir definieren
, so gibt es endliche Mengen
. Ist
und
mit
. Es bleibt als nur
noch die Direktheit der Sum
me nachzuweisen.
Ist
,
mit
, so erhalten wir wieder
mit endlichen Mengen und
.
Wegen der linearen Unabhängigkeit der Menge folgt daraus
für
alle
und
für alle
. Also ist und
58
2.4. Direkte Summen von Unterräumen
, d.h. Kern ist injektiv.
2.4.6 Satz Ist
ein
-Vektorraum mit
, so ist
, und
.
Bemerkung Satz 2.4.6 besagt insbesondere, daß K-Vektorräume gleicher (endlicher) Dimension isomorph sind. Es gilt sogar, daß zwei endlich dimensionale
K-Vektorräume genau dann isomorph sind, wenn sie die gleiche Dimension haben.
Beweis: Wir wollen uns als erstes die Bemerkung klar machen. Sind zwei Vektorräume isomorph, so haben sie nach Korollar 2.3.7 gleiche Dimension. Haben
umgekehrt zwei Vektorräume und
die gleiche endliche Dimension , so gilt
und damit .
Nun zum Beweis des Satzes. Wir wählen eine Basis und defi
von bezüglich der Basis
nieren die Koordinatendarstellung
durch
(2.2)
Wir behaupten, daß
ein Isomorphismus der Vektorräume ist. Da eine Basis
nach Satz 1.2.16 eine eindeutige Darstellung in der Form
ist, hat jedes
. Damit ist
auf ganz wohldefiniert. Man rechnet nun leicht
nach, daß
linear ist. Zu jedem ist
ein
surjektiv.
Gilt
,
so
folgt
Urbild. Damit
ist
und damit . Damit ist Kern
und somit
auch injektiv.
2.4.7 Satz Für endlich dimensionale Vektorräume
.
und
gilt
Beweis: Ist
und
, so folgt nach Satz 2.4.6
. Seien und Basen von bzw. und und und
Koordinatendarstellungen bzgl. und . Für die
und definieren wir
Die Abbildung
59
2. Lineare Abbildungen
definiert dann, wie man leicht nachrechnet,
einen Isomorphismus der Vektorräume.
Damit ist
.
2.4.8 Satz Sind
endlich dimensionale Vektorräume, so gilt
Beweis: Der Beweis folgt durch Induktion nach
2.4.9 Satz Sind
gilt:
für endlich dimensionale Teilräume eines Vektorraumes
aus Satz 2.4.7.
, so
Beweis: Die Abbildung ist surjektiv. Nach Korollar 2.3.7
und Satz 2.3.9 ist genau dann injektiv, wenn
ist.
2.4.10 Satz Sind
, so gilt
und
Beweis: Da
Teilräume und
ist
schon
und
Satz 2.4.4
ein Teilraum von
2.4.11 Satz Sei
Beweis: Da
Vektoren
ein Vektorraum. Ist
und
ist, erhalten wir nach Satz 2.4.5
und
. Damit
. Für folgt wegen
und damit . Aus
folgt in analoger Weise . Damit ist nach
, und wir erhalten
mit
endlich dimensionale Teilräume eines Vektorraumes
.
.
, so ist
.
ist, gibt es zu jedem
eindeutig bestimmte
und
mit
.
Wir
definieren
eine Abbildung
durch . Man rechnet mühelos nach, daß dann eine
lineare Abbildung mit Kern und Im ist. Nach dem Homomorphie
satz für Vektorräume folgt
Kern Im .
2.4.12 Satz Ist Kern 60
Im .
eine lineare Abbildung, so gilt
2.5. Der Vektorraum Hom
Beweis: Da Kern ein Teilraum von
ist, erhalten wir nach Satz 2.4.5 einen
Teilraum
mit Kern . Nach Satz 2.4.11 gilt dann
Kern Im . Damit folgt
Kern Im .
2.5
Der Vektorraum Hom
2.5.1 Definition Es seien
Hom
und
beides
-Vektorräume. Wir definieren
ist linear Ist es klar oder unerheblich, um welchen Körper
Hom
statt Hom
.
2.5.2 Satz Die Menge Hom und
zu einem
es sich handelt, schreiben wir
wird mit den Verknüpfungen
-Vektorraum.
Beweis: Durch Nachrechnen erhalten wir aus der Definition von Hom
und
Hom
Hom
(i)
! erhalten wir
(ii)
, so ist
erhalten:
und Hom
! Hom ist Halbgruppe durch Definieren wir Wegen (iii)
Hom
, und wir
ist ein neutrales Element bezüglich
(iv)
Ebenso folgt
Wegen ist invers zu "
(v)
folgt
61
2. Lineare Abbildungen
Hom ist abelsch (vi)
Schließlich rechnen wir die folgenden Eigenschaften mühelos nach:
und
(vii)
(viii)
und
Mit (i) – (ix) haben wir Hom
(ix)
Hom Hom 2.5.3 Satz Gilt (i)
und
(ii)
als Vektorraum nachgewiesen.
und Hom
, so folgt
.
Beweis: Die Behauptung (i) folgt aus Lemma 2.3.3. Die Behauptung (ii) rechnet
man einfach nach.
2.5.4 Satz Der Vektorraum Hom
der Endomorphismen ist mit der Komposition von Abbildungen ein Ring mit Einselement.
Beweis: Aus Satz 2.5.3 erhalten wir sofort, daß Hom
ein Ring ist. Die Iden
tität auf ist natürlich linear und liefert das Einselement des Ringes.
2.5.5 Definition Man nennt End
ring von V.
Hom
den Endomorphismen-
2.5.6 Satz Die Menge GL
ist linear und bijektiv bildet mit der Komposition eine Gruppe. Sie heißt die allgemeine lineare Gruppe
von (General Linear Group). In der Regel lassen wir das Subskript weg und
. Es ist GL
End
.
schreiben kurz GL
Beweis: Die Identität auf ist linear und bijektiv. Damit besitzt
GL
ein neu
trales Element. Für GL
ist nach Lemma 2.3.4 ebenfalls linear und
bijektiv. Damit hat jedes Element in GL
ein Inverses.
2.5.7 Bemerkung End
62
ist ein Ring mit 1, der nicht nullteilerfrei ist.
2.5. Der Vektorraum Hom
Beweis:
Sei
.
Dann
sind
die
Abbildungen
mit und mit beide linear und nicht
die
"
Nullabbildung. Es gilt aber für alle .
, d.h., und sind Nullteiler.
Damit ist 63
2. Lineare Abbildungen
64
3. Matrizen
3.1
Basisdarstellung linearer Abbildungen
3.1.1 Beobachtung
Es seien und endlich dimensionale
-Vektorräume und
eine Basis für sowie eine Basis für . Ist
Hom
und
, so gilt
Damit ist die Abbildung durch die Werte Umgekehrt definiert jede Abbildung die Festsetzung
für für mit
Nun ist und somit
eindeutig bestimmt.
eine lineare Abbildung durch
. Da
Basis von
ist, gibt es
Damit ist durch die Körperelemente
3.1.2 Definition Eine eindeutig bestimmt.
Matrix über einem Körper
ist ein Schema der Form
65
3. Matrizen
..
.
..
..
.
.
mit
d.h. es ist
. Die Menge der -tupel für Die
Vektoren
..
.
für Matrizen über
ist eine bezeichnen wir mit
-Matrix über
,
heißen die Zeilen der Matrix, die
heißen die Spalten der Matrix. Die Elemente
für die Hauptdiagonale, die Elemente für Nebendiagonale der Matrix.
bilden
die
Bemerkung Die Schreibweise von Matrizen als rechteckige Schemata hat lediglich (sehr gute) pragmatische Gründe. Man kann eine -Matrix
..
.
..
.
als ein -tupel
von -tupeln
aus
auffassen.
also als Vektor
Dies ist der Hintergrund des folgenden Satzes.
3.1.3 Satz Mit den Verknüpfungen
und
wird der
zu einem Vektorraum.
Beweis:
Die eben
eingeführten Verknüpfungen sind genau die Verknüpfungen des
. Wir wissen aber schon, daß
ein Vektorraum ist. Im wesentlichen ist die -Matrizen-Schreibweise nur eine bequemere Schreibweise
für den Vektorraum
.
66
3.1. Basisdarstellung linearer Abbildungen
..
..
.
.
Das Nullelement im
bezeichnen wir durch
..
.
Das Inverse (bzgl. der Addition) zu
ist
. Wir wollen in Zukunft immer
vom Negativen eines Elementes einer additiven abelschen Gruppe sprechen, wenn
wir das Inverse bezüglich der Addition meinen. Das erspart Verwirrungen, da wir
auf den Matrizen auch eine multiplikative Struktur einführen werden.
3.1.4 Lemma Ist ein Vektorraum der Dimension , so wird die Abbildung id
dargestellt.
Hom
bezüglich jeder Basis von durch die Matrix Die Matrix
..
.
..
..
.
.
heißt Einheitsmatrix und wird mit
bezeichnet. Oft ist aus dem Zusammenhang klar, welches gemeint ist. Dann schreiben wir kurz .
.
Beweis: Es ist id
Notationen
Anstatt
toren über
Statt
über
.
schreiben wir
.
schreiben wir
..
.
und nennen
und nennen
den Vektorraum der Spaltenvek-
den Vektorraum der Zeilenvektoren
3.1.5
Satz
Seien
und
-Vektorräume
und
Basen von bzw. . Wir definieren eine Abbildung
Hom sowie durch
67
3. Matrizen
falls
für alle gilt.
Die Matrix
heißt die Matrixdarstellung von bezüglich der Basen und
ist ein Isomorphismus der Vektorräume.
. Die Abbildung
Beweis: Wir haben bereits in 3.1.1 beobachtet, daß die Matrix für al
le Hom
definiert ist. Umgekehrt erzeugt jede Matrix
, die sich,
vermöge eine Abbildung fortsetzen
wie in 3.1.1 bemerkt, zu einer linearen
Abbildung und ist eine surjektive Abbildung. Wir
läßt. Dann gilt
haben ihre Linearität nachzurechnen. Dazu beobachten wir, daß mit
und
gilt
und damit
"
3.1.6 Korollar Sind
nen und , so gilt:
Hom
und
und
Hom endlich dimensionale Vektorräume der Dimensio-
68
3.1.7 Beobachtung Seien , und Vektorräume, Hom , eine Basis
von , ne Basis von und eine Basis von .
und , so ist
Ist
. Analog erhalten wir .
. Damit ist die Nullabbil-
und damit
Ist
, so folgt für dung, d.h. Kern
, und
ist injektiv.
,
ei-
Hom
3.1. Basisdarstellung linearer Abbildungen
Die eben gemachte Beobachtung ist die Motivation für die folgende Definition des
Produktes von Matrizen.
3.1.8 Definition (Matrixmultiplikation) Sei
und . Wir definieren
und nennen
,
mit
das Produkt der Matrizen
und
.
Aus der Definition der Matrixmultiplikation und Beobachtung 3.1.7 erhalten wir
sofort den folgenden Satz.
und 3.1.9 Satz Es seien , und
-Vektorräume mit
und
. Sind , und Basen von ,
und Hom
, so gilt
,
,
Hom
Warnung Das Ergebnis des Satzes 3.1.9 wird oft als unschön empfunden, da
Hom
die Abbildung
kein Homomorphismus der Ringe,
sondern ein sogenannter Antihomomorphismus wird. D.h. es gilt
anstatt . Will man dies ver
meiden, so muß man definieren für und
. Die so erhaltene Matrix ist dann
für und die transponierte (s.u.) der von uns eingeführten Matrix. Wir haben uns hier für
diese etwas einfachere Definition entschlossen und nehmen dafür die Unschönheit
in Kauf. Die meisten Lehrbücher gehen jedoch den anderen Weg. Für die Entwicklung der Theorie ist die Definition der darstellenden Matrix jedoch nicht entscheidend.
Beachte
Wenn Sie
zwei Matrizen und multiplizieren wollen, so muß
und
sein, d.h. die Länge der Zeilen von muß mit der Länge
der Spalten von übereinstimmen.
Ein Spezialfall der Matrixmultiplikation ist die Multiplikation eines
Zeilenvektors
, die das Körperelement
mit einem Spaltenvektor
..
.
69
3. Matrizen
ergibt. Dem einen oder anderen mag dieses Produkt als “Skalarprodukt” oder “inneres Produkt” zweier Vektoren von der Schule her bekannt sein. Schreiben wir
die Matrizen als Matrix
..
.
von Zeilenvektoren
und
als Matrix von Spaltenvektoren , so erhalten wir . Die Merkregel Zeile mal Spalte ist hier oft sehr nützlich.
Man kann eine Matrix auch in “Kästchen” unterteilen. Schreiben wir beispielsweise
mit ,
,
, , , so erhalten wir
, ,
,
und
wie man leicht nachrechnet. Auch hier gilt das Prinzip “Zeile mal Spalte”.
3.1.10 Bemerkung Für Matrizen gelten folgende Rechenregeln:
(ii)
(iii) (iv) (i)
für
für für ,
für
,
, ,
, .
,
70
für ein
. Wegen
.
.
und Damit erhalten wir und . Damit ist die Aussage (i) bewiesen.
für ein Hom . Dann ist Sei
.
Beweis: Nach der Wahl
geeigneter Basen erhalten wir
Hom
,
für ein Hom
haben wir
, (i)
3.1. Basisdarstellung linearer Abbildungen
ist. Die Aussage (iii) zeigt man völlig analog.
für ein Hom Sei nun
. Damit ist dann auch (iv) bewiesen.
Womit (ii) bewiesen
. Dann folgt
3.1.11 Satz Die quadratischen Matrizen des
bilden mit der Matrixaddition und der Matrixmultiplikation einen Ring mit der Einheitsmatrix als Einsele
ment. Ist
ein Vektorraum
mit
und eine Basis von , so ist
End
ein Antiisomorphismus der Ringe, d.h. es gilt
.
in Satz 3.1.5
Beweis: Die Ringaxiome wurden in 3.1.10 nachgerechnet. Da
als Vektorraumisomorphimus nachgewiesen wurde, ist diese Abbildung bijektiv.
Daß ein Antihomomorphismus vorliegt, folgt aus Satz 3.1.9. Wir werden im nächsten Abschnitt sehen, daß dieser Antiisomorphismus sich mühelos zu einem Iso
morphismus ergänzen läßt.
3.1.12 Bemerkung Ein -Vektorraum , auf dem noch zusätzlich
eine Verknüpfung definiert ist, heißt eine Algebra. Der
bildet mit
der Matrixmultiplikation die Algebra der quadratischen Matrizen. Ebenso bilden
die Endomorphismen eines Vektorraumes mit der Komposition von Abbildungen
eine Algebra.
3.1.13 Definition
Eine
heißt invertierbar, wenn es eine Matrix
Matrix gibt, mit .
Die Menge der invertierbaren Matrizen des
bezeichnen wir mit GL
,
d.h.
3.1.14 Satz Die Menge GL bildet mit der Matrixmultiplikation eine Gruppe. Sie heißt die allgemeine lineare Gruppe.
Für eine Basis eines -Vektorraums
GL .
der Dimension gilt GL , so gibt es Beweis: Ist GL und , und
, und wir sehen, daß
es gilt
GL ist. Ist umgekehrt GL , so sind die Abbildungen
und
(vgl. den
Beweis des Satzes 3.1.5) in End und es folgt
id und damit GL
71
3. Matrizen
GL
GL
. Damit ist GL eine Gruppe und und eine Gruppe, da
GL
ein Antiisomorphismus ist.
Wir wollen den Abschnitt damit beschließen, eine kanonische Basis des
anzugeben. Dazu definieren wir die Matrizen
(3.1)
Das bedeutet, daß die -Matrix ist, die genau im Schnittpunkt der -ten
Zeile und -ten Spalte eine und sonst lauter Nullen stehen hat. Wenn und
aus dem Zusammenhang ersichtlich sind, lassen wir die oberen Indizes weg und
schreiben kurz .
3.1.15 Satz Die
Menge
Basis des
.
Beweis: Offensichtlich ist
3.2
.
genau die kanonische Basis des
Der duale Raum und die transponierte Matrix
ist eine
3.2.1 Definition Für sei
mit
für
;
.
heißt die zu
transponierte Matrix. Sie entsteht durch Spiegelung an der
Hauptdiagonalen.
Um die geometrische Bedeutung der transponierten Matrix genauer zu studieren,
führen wir den Begriff des dualen Raumes ein.
3.2.2 Definition Sei
Man nennt
den zu
ein -Vektorraum. Wir definieren
dualen Raum.
Hom
.
In der obigen Definition wird der Körper als ein eindimensionaler Vektorraum
über sich selbst aufgefaßt. Eine lineare Abbildung von einem Vektorraum
in
dessen Grundkörper bezeichnet man auch als eine Linearform. Der duale Raum
ist also die Menge der Linearformen von in .
Beweis: Wegen
3.2.3 Satz Ist
.
Hom , so ist
aus der Bemerkung zu Satz 2.4.6.
folgt dies
Der Isomorphismus, der sich auf Grund von Satz 3.2.3 ergibt, ist allerdings kein
sehr natürlicher. Wir erhalten ihn nach Wahl von Basen für
und für
72
3.2. Der duale Raum und die transponierte Matrix
, wobei die Basen und nichts miteinander zu tun
als Komposition
haben müssen.
Ein Vektorraum und sein dualer Raum sind jedoch viel enger miteinander verknüpft. Das wollen wir im folgenden herausarbeiten.
3.2.4 Satz Ist so ist die Menge .
eine Basis von
und setzen wir
linear unabhängig, und es gilt
Beweis: Es folgt nach 3.1.1, daß durch die Festsetzung
eine Linearform mit
definiert wird. Gilt nun , so erhalten wir . Also ist , und ist linear unabhängig.
für
.
. Dann gilt für mindeBeweis: Sei eine Basis von und stens ein . Damit erhalten wir aber 3.2.5 Korollar Ist
und
, so gibt es ein
mit
.
3.2.6 Lemma Ist
und gibt es eine Basis von
Isomorphismus.
,
, so daß eine lineare Abbildung
eine Basis von
ist, so ist ein
als LinearkombinatiBeweis:
Die Abbildung ist surjektiv, da sich jedes
on mit
darstellen läßt. Ist , so folgt wegen der linearen Unabhängigkeit von
schon und damit . Damit
ist Kern und ist injektiv.
eine
3.2.7 Satz Ist ein endlich
dimensionaler Vektorraum und eine Basis von
Basis von , so ist und die Abbildung
ein Isomorphismus der Vektorräume. Man nennt die zu duale Basis.
73
3. Matrizen
Beweis: Wir wissen nach Satz 3.2.4, daß linear unabhängig sind. Zu
zeigen bleibt daher, daß sie auch ein Erzeugendensystem bilden. Ist
, so
zeigen wir, daß ist. Dies ist aber wegen
für
sofort
klar.
Da
die
die Basis auf die Basis abbildet und und
die
Abbildung
gleiche Dimension haben, folgt nach Lemma 3.2.6, daß ein Isomorphismus ist.
Man sollte im vorherigen Beweis beachten, daß er nur für endlich dimensionale Vektorräume funktioniert. Ist nämlich unendlich dimensional,
so wissen wir
eine endliche Teilmenge zwar, daß für jedes
mit existiert und erhalten für ein
daraus
, d.h.
, aber die Menge
läßt sich nicht uniform angeben, sondern hängt von der Darstellung
von durch Basisvektoren ab. So ist die Abbildung für unendlich dimensionale
Vektorräume zwar injektiv, aber im allgemeinen nicht surjektiv.
Beweis: Aus der Definition von folgt die Kommutativität des folgenden Dia
3.2.8 Satz Ist Hom
und
, so ist die Abbildung ,
in Hom
die definiert ist durch . Wir nennen die zu duale Abbildung. Sind und
endlich dimensional und sind und Basen von
.
und , so gilt
gramms.
Hom . Wegen ist linear. und endlich
und Sind nun
dimensional mit Basen für und , so folgt .
. Wir behaupten, daß dann
Sei
und für (i)
Damit ist gilt. Zunächst erhalten wir nämlich
74
(ii)
3.2. Der duale Raum und die transponierte Matrix
und dann auch
3.2.9 Satz Die Abbildung Hom
ein Monomorphismus der Vektorräume. Sind
ein Isomorphismus.
(iii)
Aus (ii) und (iii) folgt aber sofort (i).
Hom
mit ist
und
endlich dimensional, so ist
Beweis: Sei Hom
. Nach Satz 3.2.8 gilt . Um die Linearität nachzuweisen, berechnen wir (vgl. den Beweis von Satz 3.1.10) , woraus
folgt. Damit ist linear.
Sei Kern . Nehmen wir an, so gibt es ein
mit und nach Korollar 3.2.5 damit ein
mit . Damit ist und folglich auch , was unserer Annahme
Kern
widerspricht. Damit ist injektiv.
Ist nun
und
, so gilt
Hom
Hom
und nach Satz 2.3.9 ist
dann bereits ein Isomorphismus.
End . Damit
3.2.10 Satz Für Hom
,
Hom
ist ist die Abbildung End End ein Antimonomorphismus
der Ringe.
Insbesondere gilt dann
für Matrizen und . Nach Wahl einer
Basis für einen Vektorraum der Dimension ist die Abbildung
ein Isomorphismus der Algebren.
Beweis: Die erste Behauptung des Satzes entnehmen wir direkt dem folgenden
Diagramm
sofort, daß ein Anti endlich dimensional,
Da nach Satz 3.2.9 injektiv ist, folgt wegen monomorphismus der Endomorphismenringe vorliegt. Ist
so ist ein Antiisomorphismus.
75
3. Matrizen
Hom , Hom für
für
, und , so erhalten wir .
Wir haben das folgende kommutative Diagramm
End End und Ist
und geeigneten Basen , und
Im Zusammenhang mit Satz 3.1.9 haben wir schon bemerkt, daß die Abbildung
End
ein Antihomomorphismus der Ringe ist. Nach Satz
3.1.5 ist sie ein Isomorphismus der Vektorräume. Da auch ein Isomorphismus
der Vektorräume und ein Antihomomorphismus der Ringe ist und die Komposition zweier Antihomomorphismen einen Homomorphismus ergibt, erhalten wir
als einen Isomorphismus sowohl der Vektorräume als auch der Ringe
und damit als einen Isomorphismus der Algebren. Nun gilt aber
, d.h.
.
Bemerkung Satz 3.2.8 ist der Grund, weswegen man üblicherweise die darstelHom
bezüglich zweier Basen lende Matrix eines Homomorphismus (in unserer Notation) definiert. Man erhält
und von bzw.
als
die Abbildung darstellende Matrix von dann direkt als einen Isomorphismus der Algebren.
Sieht man sich Satz 3.2.9 nochmal genauer an, so bemerkt man, daß der Isomorund Hom
einfacher anzugeben ist, als
phismus zwischen Hom
der zwischen und
,
zu
dessen
Definition
wir
eine
Basis benötigen. Der Ho
ist dagegen unabhängig von der Wahl einer Basis. Man
momorphismus sagt daher, daß Hom
und Hom
kanonisch isomorph sind.
Zwischen
und dem dualen Raum
sind solche kanonische Isomorphismen
nicht bekannt. Anders ist die Situation, wenn wir zum dualen des dualen Raumes, d.h. zu
übergehen. Dort erhalten wir im endlich dimensionalen Fall einen
kanonischen Isomorphismus.
3.2.11 Satz Die Abbildung
, mit
für
definiert einen kanonischen, d.h. basisunabhängigen, Monomor phismus von in
. Ist
, so ist ein kanonischer Isomorphismus.
Beweis: Wegen
ist
Hom
.
76
3.2. Der duale Raum und die transponierte Matrix
, d.h. ,
und wir haben die Abbildung als linear erkannt.
für alle . Für gibt es
Ist Kern , so gilt
mit . Damit folgt und die
aber nach Korollar 3.2.5 ein Abbildung ist injektiv.
Ist endlich dimensional, so folgt
und nach Satz 2.3.9
ist dann ein Isomorphismus.
die kanonische Einbettung von Man nennt die Abbildung . Es hat sich als ungemein nützlich erwiesen, die Urbilder und Bilder kanoin nischer Einbettung zu identifizieren, d.h. als gleiche Objekte zu betrachten. Daher
und die mit ihm kanonisch
werden wir im folgenden sehr oft
einen Vektor
als die gleichen Objekte betrachten. Auf
assoziierte Abbildung
auffassen. Ist endlich dimensional,
diese Weise läßt sich als Teilraum von in der Regel als die gleichen Räume. Die Nützlichkeit
so betrachten wir und Weiter erhalten wir
dieser Betrachtungsweise soll im folgenden klarer werden. Eine erste Anwendung
bringt bereits der folgende Satz.
Beweis: Für beliebiges wir ,erhalten
d.h. .
, so erhalten wir Ist und damit
Bemerkung Wir wollen einmal studieren, wie die Aussage des Satzes 3.2.12 mit
aussieht. Die Aussage wird
der Identifikation von und
3.2.12 Satz Sind und
endlich-dimensionale Vektorräume, so gilt für alle Hom
. Ist eine Basis von und eine Basis von
.
, so folgt
dann zu
d.h. "
(3.2)
Es folgt aus (3.2), daß die Abbildung , zweimal angewandt,
die Identität ergibt.
und
Solche Abbildungen nennt man involutorisch. Da , was im Einklang zur Identifikation
folgt auch
steht.
Identifizieren wir für endlich dimensionale Vektorräume und
, so sind auch
die Räume End und End
ihrer Endomorphismen gleich und die Abbildung End
End
ist somit ein involutorischer Antiautomorphismus
der Ringe.
77
3. Matrizen
In Satz 3.2.7 haben wir einen basisabhängigen Isomorphismus von auf
definiert. Um zu studieren, ob auch dieser Isomorphismus unter der Identifikation
involutorisch wird,
studieren wir zunächst dessen Wirkung auf die Ele . Wir erhalten
mente der Basis denn es gilt , d.h. . Aus (3.3) folgt jedoch sofort
(3.3)
erfüllt die Definitionsgleichung
(3.4)
Es folgt sofort aus der Definition des Transponierens von Matrizen, daß die Transposition eine involutorische Operation auf Matrizen ist (zweimal spiegeln an der
Hauptdiagonalen).
We
Mit Hilfe von (3.3) erhalten wir diese
Tatsache auf anderem
gilt nämlich
ge. Für .
3.2.13 Definition Zwei Vektoren
und
heißen orthogonal oder
senkrecht, wenn
ist. Geschrieben wird dies als
.
. Wir nennen
definieren wir
Für
das orthogonale Komplement von .
Aus Definition 3.2.13 folgt
wobei wir in der letzten Inklusion wieder von der Identifikation Gebrauch
gemacht haben.
Man sollte beachten, daß die Relation des “senkrecht Stehens” bislang nicht sym
und
ist bislang nur
aber nicht
metrisch
definiert ist. Für
definiert, d.h.
. Betrachten wir aber wieder die Identifikation
, so können wir als
, d.h. durch
definiert
betrachten. Dann gilt
. Wir haben nun zu untersuchen, wie
sich die orthogonalen Komplemente bezüglich dieser unterschiedlichen Definition
verhalten. Dazu führen wir für
die folgende Notation ein
(3.5)
d.h.
ist das orthogonale Komplement bezüglich der eben in Erwägung gezogenen Relation
.
78
3.2. Der duale Raum und die transponierte Matrix
3.2.14 Lemma Für
.
ist
. Ist
, so ist
folgt
, d.h.
für alle
. Wegen , wobei
folgt dann sofort
wir die Identifikation
benutzt haben. Ist endlich dimensional, so ist
surjektiv, und jedes Element
hat die Gestalt für ein von . Damit folgt für
alle
und damit auch .
Beweis: Aus
3.2.15 Lemma Für
Beweis: Für
ist
gilt
von .
gilt
Für .
und wir haben 3.2.16 Satz Für (i)
und
(ii) Kern Hom
Im Im Kern ein Teilraum von
. Es gilt !
für alle für alle
. Also ist
. Damit folgt
für alle
.
. Damit folgt
ein Teilraum
gelten
.
Beweis: Wir erhalten (i) wegen
Kern Im Im Kern Im Ähnlich erhalten wir (ii) wegen
Im 79
3. Matrizen
und
3.2.17 Satz Ist
und
.
ein Teilraum von
, so gilt
Beweis: Ist ein Teilraum von , so erhalten wir ein Komplement
mit und und wählen eine Basis mit , so daß eine Basis von und eine Basis von
ist.
Schon
im Beweis von Satz 2.4.11 haben wir gesehen, daß die Abbildung
linear ist. Dann ist aber auch die Abbildung
als Komposition linearer Abbildungen linear mit Kern gilt damit
Im und
Im , so ist
Ist nun Wegen folgt dann
Im . Nach Satz 2.4.12
und
(i)
.
und damit
(ii)
, so finden wir und , so
Ist
ist. Wegen für folgt daß
für . Damit ist und
somit
Im , und wir erhalten
Im Wegen
und
erhalten wir
(iii)
Aus (i),(ii) und (iii) folgt dann
(iv)
(v)
(vi)
(vii)
Nach Lemma 3.2.15 haben wir
. Dann ist bereits ein Teilraum von
, und zusammen mit (vii) folgt nach Satz
.
1.2.27 80
3.3. Basistransformationen
3.3
Basistransformationen
kann in zweifacher Weise als eine
. Die Matrix 3.3.1 Definition Sei
Abbildung aufgefaßt werden
Wir erinnern an die in Satz 1.3.1 eingeführte kanonische Basis des Vektorraums
. In (1.11) definierten wir
das -tupel, das aus lauter Nullen besteht bis auf die Komponente ,
Damit ist
notierten wir als
an der eine steht. Die kanonische Basis des
Dual dazu definieren wir
. Damit ist die kanonische Basis des
als die kanonische Basis des
als die folgende Menge von Zeilenvektoren
und die des
gegeben
als die folgende Menge von Spaltenvektoren
.. .. .
.
... ... (3.6)
Wenn aus dem Zusammenhang klar ist, zu welchem Raum die kanonischen Basisvektoren gehören, lassen wir den oberen Index weg.
3.3.2 Lemma
Für die darstellenden Matrizen der Abbildungen
und .
. Dann
!
folgt
, und damit
.
folgt
Beweis: Sei
und
gilt
!
81
3. Matrizen
Sei
..
.
und , d.h.
. Wegen
erhalten wir nach Satz 1.2.16
für .
3.3.3 Beobachtung Für
ist
und damit
Hom
, und für
ist
Hom
.
Identifizieren wir mit der Abbildung , so sehen wir, daß der
der zu
duale
als den dualen Raum von
, wenn wir
Raum ist. Umgekehrt erhalten wir
und identifizieren. Damit sind die Räume
und
paarweise zueinander dual.
Um die zu
duale Basis zu finden, berechnen wir
. Damit
,
ist
die zu
duale Basis. Ebenso erhalten wir wegen
die zu
duale Basis ist.
daß
Den nach Satz 3.2.7 durch die dualen Basen
und
erzeugten Isomorphismus
zwischen den dualen Räumen erhalten wir für
als
und für
als .
Damit sehen wir, daß der Übergang zum transponierten Vektor ein Dualisierungsprozeß ist. Das entspricht der in Satz 3.2.8 festgestellten Tatsache, daß die duale
Abbildung durch die transponierte Matrix dargestellt wird.
3.3.4 Beobachtung
Ist
, so ist
. Für die duale Abbil-
gilt dann
dung
nach Satz 3.2.8. Damit
ist
, d.h.
Abbildung.
Ebenso
ist die zu duale
und da
erhalten wir
mit
. Die Abbildungen und sind also wechselseitig dual.
Darüber hinaus beobachten wir, daß die folgenden Diagramme kommutativ sind:
Die Identifikation für
und für
läßt sich noch weiter
begründen.
Ist
,
so
folgt
, d.h.
. Für
erhalten wir analog
und damit
. Die
, Identifikationen
und sind also die gleichen.
82
3.3. Basistransformationen
3.3.5 Definition Sei ein -Vektorraum mit
eine Basis von . Wir definieren (vgl.(2.2))
und
und ..
.
und nennen die Abbildungen
und
die Koordinatendarstellungen bezüglich
und
nennen wir die Koordinatenvektoren
der Basis . Die Vektoren
von bezüglich der Basis . Offensichtlich gilt
und
.
Die Koordinatendarstellungen von Vektoren entsprechen der Basisdarstellungen
von Abbildungen. Wie beide zusammenhängen, klärt der folgende Satz und dessen
Folgerung.
3.3.6 Satz Die Koordinatendarstellungen
de Diagramm kommutiert:
und
sind bijektiv, und das folgen-
Beweis: Gilt
für , so folgt und da
mit . Damit ist
injektiv und wegen
damit auch bijektiv.
Die analoge Aussage ergibt sich auch für
. Zum Nachweis der Kommutativität
des Diagrammes
beginnen
wir
mit
dem
unteren
Rechteck.
Seien
und Basen von bzw. . Für
mit und
erhalten wir
83
3. Matrizen
Für das obere Rechteck erhalten wir
mit für ..
.
..
.
..
.
3.3.7 Folgerung Ist züglich zweier Basen und
d.h.
. Also folgt
und und
linear und die Basisdarstellung
von be von bzw. , so gilt
, d.h.
, d.h.
.
3.3.8 Lemma Sind und endlich dimensionale
-Vektorräume,
sen von bzw. und gilt
(bzw.
.
Der Beweis der Folgerung ergibt sich sofort aus Satz 3.3.6 und der Definition der
und .
Abbildungen
und Ba), so ist
Beweis: Nach Satz 3.3.6 und Voraussetzung gilt
! und damit nach
. Wegen der
von
folgt daraus
Bijektivität
. Analog zeigt man dann die zweite Behauptung. Lemma 3.3.2 3.3.9
Definition Sei ein
und Wir definieren
oder Übergangsmatrix von Nach der Definition von
3.3.10 Satz Es gelten
(i)
und
84
nach .
Beachte
-Vektorraum
mit
, seien Basen von . Dann gilt .
und
nennen
die
Transformationsmatrix
haben wir
id .
3.3. Basistransformationen
(ii)
Beweis:
.
Es ist
. Dann folgt
, und
. Damit ist
.
..
.
.
(i): Sei
3.3.11 Korollar
(ii):
.
GL
Beweis: Die Abbildungen
und
sind beide bijektiv. Nach Satz 3.3.10 gilt
bijektiv . Da dann
. Nach Lemma 0.5.7 ist dann
deren darstellende Matrix bezüglich der kanonischen Basis des
ist, folgt nach
Satz 3.1.14
GL
.
3.3.12 Bemerkung Ist
eine Basis von
.
mit
,
, so definiert
GL
Beweis: Es genügt zu zeigen, daß die Vektoren
sind. Zunächst haben wir
und eine Basis linear unabhängig
(i)
denn es ist . Sei nun . Dann folgt
.
Damit folgt
, d.h. . Mit (i) erhalten wir
für damit , d.h. , und ist linear
GL
unabhängig.
3.3.13 Satz (Transformationssatz) Es seien
und
endlich-dimensionale
Vektorräume, und Basen von
sowie und Basen von
und Hom
. Dann kommutiert das folgende Diagramm
-
85
3. Matrizen
und damit auch
D.h. es gilt
Beweis: Die Kommutativität der beiden inneren Trapeze haben wir bereits in Satz 3.3.6
gezeigt. Um auch die Kommutativität des äußeren Rechtecks zu zeigen, haben wir
die folgenden Gleichungen zur Verfügung
(i)
(ii)
und
Damit erhalten wir
(iii)
(iv)
wobei wir uns noch davon zu überzeugen haben, daß
(v)
gilt. Aus der dritten Zeile von (iv) folgt die Kommutativität des äußeren Rechtecks
des Diagramms. Aus der letzten Zeile von (iv)
folgt
und daher !
. Der
86
guten Form halber wollen wir auch (v) nachrechnen. Es ist . Damit ist id und folglich .
3.4. Der Rang linearer Abbildungen und der Rang einer Matrix
3.4
Der Rang linearer Abbildungen und der Rang einer
Matrix
. Dann
definieren
wir
Rang
Im
Rang . Wir nennen Rang den Rang der
den Rang der Matrix .
3.4.2 Satz Sei Hom mit
. Dann gilt Rang Rang . Insbesondere ist dann Rang Rang .
Beweis: Für Hom haben wir nach Satz 2.4.12 und Satz 3.2.16
Kern Im (i)
Im Im 3.4.1 Definition
Hom
Sei Für
sei Rang
linearen Abbildung und Rang
und nach Satz 3.2.17 auch
Im Im (ii)
Aus (i) und (ii) folgt dann
Im Im folgt
Für und Rang Rang (iii)
(iv)
Aus (iv) folgt also, daß das Diagramm
(3.7)
Rang
kommutiert.
Damit folgt Rang
denn und sind nach Satz 3.3.4 dual.
3.4.3 Satz Ist bzw.
, so gilt Rang
Rang
bezüglich zweier beliebiger Basen Rang .
Beweis: Nach Satz 3.3.13 gilt
Rang
und Rang
des
(i)
87
,
3. Matrizen
Nun ist Diagramm
und
id
id
und
Da die Abbildungen
damit auch Rang Rang .
3.4.4 Korollar Ist
gilt Rang
Rang
, und damit kommutiert das folgende
beide bijektiv sind, folgt Im sind
und
.
GL
und
Im
und
, so
GL
Beweis: Nach Bemerkung 3.3.12 können wir
und als Transformationsmatrizen auffassen. Damit stellen und
die gleiche Abbildung bezüglich
verschiedener Basen dar. Die Behauptung folgt daher aus Satz 3.4.3.
3.4.5 Satz Sei Rang Hom
ist.
. Die Abbildung ist genau dann injektiv, wenn
Kern Im ist Kern genau dann der
Im Rang ist.
ist genau dann invertierbar, wenn Rang 3.4.6 Korollar Eine Matrix Beweis: Wegen
Nullraum, wenn
ist.
Beweis: Nach Satz 3.1.14 ist
GL
genau dann, wenn bijektiv ist.
Nach Satz 2.3.9 ist aber die Abbildung genau dann bijektiv, wenn sie injektiv
ist. Nach Satz 3.4.5 ist dies genau dann der Fall, wenn Rang
ist.
3.5
Elementare Umformungen
mit und von Rang 3.5.1 Normalformensatz Sei Hom
. Dann gibt es Basen von
ist.
88
mit , so daß
und
3.5. Elementare Umformungen
Beweis: Nach Satz 2.4.5 erhalten wir einen Unterraum
von , so daß
Kern ist. Wegen
Kern !
Im ! eine
erhalten wir eine Basis von , so daß eine
Basis
von
Kern
ist.
Wir
behaupten,
daß
Basis von und
eine Basis von Im ist. Dazu genügt es zu zeigen, daß
dann linear unabhängig ist. Sei also die Menge
. Dann ist Kern
und
daher
.
folgt daher Wegen der linearen Unabhängigkeit
von
eine Basis von Im , die wir zu einer Basis . Damit
ist
. Damit
von
für ergänzen. D.h. wir haben erhalten wir für
für für ,
folgt. Damit hat die behaupfür woraus
für tete Gestalt.
3.5.2 Definition Die elementaren Basistransformationen sind:
(I)
Addieren eines Basisvektors zu einem anderen,
(II)
Multiplikation eines Basisvektors mit
,
.
3.5.3 Lemma Gehen und
aus einer Basis durch eine elementare Basistransformation des
Typs
(I) bzw. (II) hervor, so sind und wieder Basen, und es
gelten für und
Beweis: Seien ,
für für und
und
und
für für mit
,
wobei ist. Um einzusehen, daß wieder Basen sind, genügt es,
die lineare Unabhängigkeit von und zu zeigen. Ist , so folgt 89
3. Matrizen
für
auch
. Ist
und
Um die Transformationsmatrix
für
Daraus folgt zunächst
Wegen ist
, und für und folgt
. Damit ist
zu berechnen, setzen wir
Um
impliziert das letztere
, so folgt
für
und . Wegen . Für , .
ist
und jeder Körper nullteilerfrei ist,
Basen.
zu erhalten, berechnen wir
und . Da erhalten wir auch
. Damit sind und
. Wegen
.
ist schließlich
. Wegen
.
.
3.5.4 Bemerkung
Es
folgt
aus
Korollar
3.3.11,
daß
die
Matrizen
beide umkehrbar sind, und man rechnet sofort nach, daß für
und
deren Inversen und gilt. und der Gestalt
nennen wir
Die Matrizen der Gestalt
Daraus folgt
Damit ist
für
oder
ist
Elementarmatrizen.
Um die Wirkung der Multiplikation von Elementarmatrizen zu studieren, stellen
wir einige Rechnungen an.
3.5.5 Lemma Schreiben wir die Matrix
, so gilt .
mit
Dual erhalten wir für mit
90
in der Form
..
.
auch
..
.
.
3.5. Elementare Umformungen
Beweis: Es ist
Beweis
der dualen Behauptung ergibt sich durch Transposition. Es ist
.
..
.
Für
..
.
Analog folgt
und damit
..
.
..
.
..
.
..
.
..
.
und
als Matrix von Zeilenvektoren,
so erhalten wir
..
.
.
..
.
Beweis: Schreiben wir
..
.
, so folgt
gilt dual
.
und
3.5.6 Lemma Schreiben wir
. Der
..
.
..
.
..
.
..
.
.
..
.
.
3.5.7 Definition Die elementaren Zeilen- und Spaltenumformungen einer –Matrix sind:
(Z I )
Addition einer Zeile zu einer anderen (d.h. die Multiplikation mit der Ele mentarmatrix
von links.)
(S I )
Addition einer Spalte zu einer anderen (d.h. die Multiplikation mit der Ele mentarmatrix
von rechts.)
91
3. Matrizen
(Z II )
Multiplikation
einer Zeile mit
von links.)
(S II )
Multiplikation
einer Spalte mit
von rechts.)
,
,
(d.h. die Multiplikation mit
(d.h. die Multiplikation mit
Durch sukzessives Ausführen elementarer Zeilen- bzw. Spaltenumformungen erhalten wir Umformungen der folgenden Typen:
(Z III ) Addition des Vielfachen einer Zeile zu einer anderen.
(S III ) Addition des Vielfachen einer Spalte zu einer anderen.
(Z IV ) Vertauschen zweier Zeilen.
.. . . .
ZI
.
..
.
..
.
III
Z
..
.
..
.
..
.
..
.
ZI
..
.
..
.
..
. ..
.
..
.
..
.
..
.
..
.
Z II
.. . . .
.
..
.
..
.
..
.
(S IV ) Vertauschen zweier Spalten.
Addition einer Linearkombination von ( ren.
(Z V )
..
.
..
.
.
92
Z II
Z II
..
.
.. .
Z III
Z III
) Zeilen zu einer ande..
.
..
.
..
.
(S V )
.. ..
.
..
.
Addition einer Linearkombination von ( anderen.
..
.
..
.
) Spalten zu einer
3.5. Elementare Umformungen
Beachte Elementare Zeilenumformungen entsprechen der Multiplikation mit einem Produkt von Elementarmatrizen von links, elementare Spaltenumformungen
der Multiplikation mit einem Produkt von Elementarmatrizen von rechts. Aus Z III
bzw. S III folgt, daß auch die zu einer Elementarmatrix inverse Matrix ein Produkt
von Elementarmatrizen ist.
3.5.8 Satz Ist Hom
und eine Basis von , die aus durch ele aus
durch
mentare Basistransformationen entsteht, so entsteht
elementare Zeilenumformungen.
aus durch elementare Spaltenumformungen, wenn
Dual entsteht
aus einer Basis von
durch elementare Basistransformationen hervorgeht.
. Die Inversen der
!
Beweis: Nach Satz 3.3.13 ist
Transformationsmatrizen elementarer Basistransformationen sind aber genau die
Elementarmatrizen, und Multiplikation mit Produkten von Elementarmatrizen von
links entspricht elementaren Zeilenumformungen. Analog ist
, und
ist als Inverses einer Elementarmatrix ein Produkt von Elementarmatrizen. Multiplikation mit Produkten von Elementarmatrizen von rechts ent
spricht aber elementaren Spaltenumformungen.
3.5.9 Satz Ist Rang
, so ist die maximale Anzahl linear unabhängiger
Zeilenvektoren – der Zeilenrang – von . Ebenso ist die
maximale Anzahl linear
unabhängiger Spaltenvektoren – der Spaltenrang – von .
Beweis: Für
..
.
ist
Im Rang .
. Wegen
Damit ist Im
sind da
her höchstens
Zeilenvektoren
linear
unabhängig.
Nach
Satz
3.4.2
ist aber auch
Rang
, und die zweite Behauptung folgt durch Übergang zur transponierten
Matrix.
3.5.10 Bemerkung Aus Satz 3.5.9 folgt, daß eine Matrix genausoviele linear unabhängige Zeilen- wie Spaltenvektoren enthält. Der Zeilenrang einer Matrix ist
also stets gleich ihrem Spaltenrang.
3.5.11 Lemma Ist
mit Rang
von Elementarmatrizen derart, daß mit .
, dann gibt es Produkte
mit
und
und
93
3. Matrizen
Beweis: Die elementaren Spaltenumformungen entsprechen genau der Multiplikation mit einem Produkt von Elementarmatrizen
elementare Spal von rechts. Durch
tenumformungen
vom
Typ
S
IV bringen wir in die Form
,
linear unabhängig sind und jedes für
eine
wobei ist. Dann bringen wir mit elementaren SpalteLinearkombination von numformungen vom Typ S V die zum Verschwinden. Durch Übergang
zur transponierten Matrix folgt aus der ersten Behauptung auch sofort die zweite.
3.5.12 Satz Zu jeder Matrix
und
mit Rang
von Elementarmatrizen, so daß
Beweis: Mit Lemma 3.5.11 können wir
gibt es Produkte ist.
durch
elementare Spalten- und Zeile
mit
numformungen auf die Gestalt bringen. Sei . Dann
sind nicht alle
und Rang
. Durch Vertauschen von
Spalten (S IV ) erreichen wir
und durch
S II
. Durch Zeilenumfor wir für . Durch Spaltenumformungen
mungen Z III erhalten
S III erhalten wir für . Damit haben wir durch elementare
Zeilen- und Spaltenumformungen auf die Gestalt wobei Verfahren auf
gebracht,
ist. Nun wenden wir das gleiche
mit Rang
an und erhalten durch Iteration die gewünschte Gestalt.
Eine Anwendung von Satz 3.5.12) ist die explizite Berechnung von Basen des Kernes
. Wir berechnen zunächst
und des ) Bildes einer Abbildung
Hom (
. Ist Rang
und
eine Basis
des Kernes,
) & & ) so daß
( ( eine Basis des
und
)
& ) (
eine Basis des
ist, so ist nach dem Normalformensatz (Satz 3.5.1) eine Basis des Bildes, und es gilt
) . Nach Satz 3.5.12 gibt es um-
und , so daß "
! !# ist. Nun gilt aber nach
$ &% $ ! ! % . (Hierbei haben wir benutzt, daß
Satz 3.3.13 auch
12
% $ ' (%*) + ist.) Also können wir % $ setzen. Kennen wir -,.0/ ..
kehrbare Matrizen
)
)
.
5
&
5
76 :8 9 5 84; 8
3
3 / /
, so ist mit
. Damit sind
) & ) % ( Basis des Kernes und
Basis des Bildes. Es geht also nur darum, zu berechnen. Wegen /43
94
3
3
/
/43 /
(
/ eine
% / eine
/
/ <!
/
erhalten wir
3.5. Elementare Umformungen
aber dadurch, daß wir die gleichen Zeilenumformungen auf die Einheitsmatrix
anwenden, die wir anzuwenden haben, um auf Normalform zu transformieren. Diese
Transformation liefert uns gleichzeitig den Rang von , so daß wir alle wesentlichen Daten dann von ablesen können.
In der eben skizzierten Anwendung waren nur die Zeilenumformungen von Interesse. Wir werden sehen, daß dies auch in anderen Situationen der Fall ist. Daher
wollen wir uns Zeilentransformationen genauer ansehen.
3.5.13 Definition Eine Matrix
..
.
ist in Zeilenstufenform, wenn sie die Gestalt
..
.
..
.
..
.
..
.
unhat, wobei die eingerahmten Elemente
in der Stufenlinie gleich , die Elemente unterhalb der Stufenlinie 0 und die übrigen Elemente beliebig sind. Die Elemente in den Kästchen heißen Pivots oder Angelpunkte der Matrix
in Zeilenstufenform.
Beachte Da bei der
Matrix in Zeilenstufenform die ersten
Zeilen linear unabhängig sind, hat den Zeilenrang und damit gilt Rang .
3.5.14 Satz Zu jeder
gibt es ein Produkt
Matrix
trizen, so daß in Zeilenstufenform ist.
von Elementarma-
Beweis: Die Zeilenstufenform wird durch das Gaußsche Eliminationsverfahren
gefunden, das wie folgt abläuft:
Erster Schritt: Man bestimme als den Index der ersten Spalte von , die
nicht nur aus Nullen besteht. Mit Z IV bringt man ein von verschiedenes Element
dieser Spalte in die erste Zeile. Dieses ist schon .
Zweiter Schritt: Durch Umformungen vom Typ Z III macht man die Ele
mente unterhalb von
zu .
95
3. Matrizen
Iteration: Jetzt haben wir eine Matrix der Gestalt
und wenden
den ersten
Schritt auf die unten rechts
stehende Rest
und zweiten
an. Alles, was außerhalb von
steht, bleibt dabei
matrix
unverändert. Dies wiederholen wir so lange, bis die verbleibende Restmatrix
die Nullmatrix ist.
Da wir im Gaußschen Eliminationsverfahren
nur Zeilenumformungen vornehmen,
erhalten wir die Zeilenstufenform als , wobei ein Produkt von Elementar
matrizen ist.
Zur Erläuterung des Gaußschen Eliminationsverfahren wollen wir ein Beispiel
rechnen.
Ausgangsmatrix
Zweiter Schritt: Nach Z III : 96
Erster Schritt: Nach Z IV : Erster Schritt’: Nach Z IV : 3.5. Elementare Umformungen
Zweiter Schritt’: Nach Z III : und 3.5.15 Korollar Jede Matrix
,
GL
und Rang
und , " , Also ist .
ist Produkt von Elementarmatrizen.
Beweis: Ist
GL
, so ist nach Korollar 3.4.6 Rang . Nach Satz 3.5.12
gibt es Produkte
und
ist.
von Elementarmatrizen, so daß Damit
ist
.
Wie
wir
nach
Definition
3.5.7
bemerkt
haben,
ist
aber
wieder ein Produkt von Elementarmatrizen.
3.5.16 Korollar Ist
GL
, so kann bereits allein durch elementare
Zeilen- oder Spaltenumformungen in die Einheitsmatrix überführt werden.
Beweis: Sei mit Elementarmatrizen
. Dann
gilt wieder ein Produkt
. Nun ist aber von Elementarmatrizen. Die Multiplikation mit Produkten von Elementarmatrizen
von links entspricht aber elementaren Zeilenumformungen. Die zweite Behauptung
folgt durch Übergang zur transponierten Matrix.
3.5.17 Satz Sei
GL
. Man erhält , indem man dieselben Zeilenund Spaltenumformungen, die in überführen, an vornimmt.
Beweis: Nach
3.5.16 gibt es Elementarmatrizen
Korollar
Dann ist
.
mit
.
97
3. Matrizen
3.6
Lineare Gleichungssysteme und affine Räume
3.6.1 Definition Sei
ein Körper. Ein System von mit
.
und
Setzen wir
..
.
..
.
..
.
(3.8)
heißt ein lineares Gleichungssystem mit
,
..
.
und
schreiben als
Gleichungen
..
.
Unbekannten
, so läßt sich (3.8)
(3.9)
Wir untersuchen die folgenden Fragen:
(A)
Unter welchen Bedingungen ist (3.9) lösbar, d.h. wann gibt es ein
mit ?
(B)
(C)
Unter welchen Bedingungen
ist (3.9) eindeutig lösbar, d.h. wann gibt es
genau ein
mit ?
Unter welchen Bedingungen an
?
jedes
(D)
ist (3.9) universell lösbar, d.h. lösbar für
Wie lassen sich die Lösungen von (3.9) beschreiben?
als Abbildung auf, so hilft uns die bislang
Fassen wir (3.9) in der Form
entwickelte Theorie linearer Abbildungen bei der Beantwortung dieser Fragestellungen.
. Das Gleichungssystem 3.6.2 Beobachtung Sei
,
ist genau dann
lösbar,
wenn
Im
ist.
Damit
ist
universell lösbar,
ist, d.h. wenn Rang
wenn Im
ist.
Diese Beobachtung läßt sich in zwei Sätze fassen.
3.6.3 Satz Das Gleichungssystem dann universell lösbar, wenn Rang
für
und
ist genau
ist.
Beweis: Wie wir bereits beobachtet
haben, ist das Gleichungssystem
genau dann
universell lösbar, wenn Rang ist. Da
ist Im
.
98
3.6. Lineare Gleichungssysteme und affine Räume
3.6.4 Satz Das Gleichungssystem
für
dann lösbar, wenn Rang
ist, wobei
Rang
Hinzufügen der Spalte aus entsteht. Man nennt
des Gleichungssystems.
ist
genau
durch
die geränderte Matrix
und
ist genau
3.6.5 Satz Das Gleichungssystem für , und dann eindeutig lösbar, wenn Rang Rang ist.
Beweis: : Ist Rang
Rang , so ist
das Gleichungssystem
nach Satz
Rang , so ist
Kern
3.6.4 nicht
Rang
lösbar. Ist
Rang . Nach Satz 3.6.4
gibt
es
ein
mit
.
Da
Kern
Kern mit . Dann folgt ist,
gibt
es
ein
und
Beweis: Wie wir bereits beobachtet haben, ist das Gleichungssystem genau dann
lösbar, wenn
Im
ist. Für ist aber
Im
.
genau dann, wenn
Nun ist
ist. Wegen Rang
folgt daraus die Behauptung.
. Das Gleichungssystem hat daher mindestens zwei
Lösungen.
: Ist Rang
Rang
nach Satz 3.6.4
, so ist das Gleichungssystem
lösbar. Aus
Kern
Rang
erhalten wir Kern
. Da
mit ist injektiv, und besitzt genau ein Urbild.
3.6.6 Satz Das Gleichungssystem für dann eindeutig und universell lösbar, wenn Rang
GL
) ist. Die Lösung ist dann durch , ist genau
(und damit
gegeben.
Beweis: Das Gleichungssystem
ist genau dann universell und eindeutig
lösbar,
wenn
bijektiv
ist.
Nach
Satz
3.1.14
ist dies genau dann der Fall, wenn
invertierbar
ist. Nach Korollar 3.4.6 ist dies äquivalent dazu,
daß Rang Rang ist. Durch Multiplikation des Gleichungssystems mit
von links erhalten wir die Lösung .
Damit haben wir die Fragen (A)–(C) beantwortet und wollen nun die Struktur der
Lösungsmenge studieren.
und , , so erhalten wir die Lösungs Kern .
Beweis: Sei .
: Wir haben bereits im Beweis zu Satz 3.6.5 gesehen, daß dann für Kern
3.6.7 Satz Ist
menge durch
auch
eine Lösung des Gleichungssystems ist. Also gilt
Kern
.
99
3. Matrizen
:
Für
Inklusion
die umgekehrte
nehmen wir und damit
Kern .
an. Dann gilt Kern . Damit ist
Affine Räume und lineare Mannigfaltigkeiten
Um die Lösungsmengen linearer Gleichungssysteme genauer studieren zu können,
führen wir affine Räume und lineare Mannigfaltigkeiten ein.
,
3.6.8 Definition Sei
ein -Vektorraum
und
eine
Surjektion. Anstelle von schreiben wir aus Gründen, die gleich näher
erläutert werden sollen.
Das Tripel
heißt ein affiner Raum, wenn die folgenden Axiome erfüllt
sind
,
(A1) (A2) ,
(A3) .
Wir nennen die Menge der Punkte des affinen Raumes, ist
die Strecke,
die und verbindet. Man nennt den Differenzenraum des affinen
Raumes .
In einem affinen Raum gelten weiterhin
(A4)
,
denn es es ist nach (A2) denn es gilt nach (A2) (A3) folgt.
(A5)
,
, woraus , woraus folgt.
und daraus nach
bestimm
Es folgt aus (A1) und (A5), daß es zu und
einen eindeutig
ten Punkt gibt mit . Wir schreiben , d.h. .
Man sagt: “ entsteht durch Abtragen des Vektors vom Punkte aus.”
(A6)
, d.h.
wir
denn setzen
(A7)
100
,
, so erhalten wir
.
,
3.6. Lineare Gleichungssysteme und affine Räume
denn nach (A2) kommutiert das folgende Diagramm:
3.6.9 Satz Ist
ein
das Tripel
Differenzenraum U.
-Vektorraum,
mit
ein Teilraum von
und
, so ist
ein affiner Raum mit
Beweis: Für
ist
. Damit ist surjektiv.
Wir prüfen nun die einzelnen Axiome nach.
(A1) Aus und
folgt
. D.h. wir können setzen.
Sei
, (A2)
und . Dann ist .
(A3) Aus
damit auch
erhalten wir folgt.
, woraus und
Es folgt aus Satz 3.6.9,
daß sich jeder Vektorraum als affiner Raum
mit
auffassen läßt. Der Begriff des affinen Raumes ist also der
als affinen Raum dargestellt.
allgemeinere. In Abbildung 3.1 haben wir den
Wir wollen nun zeigen, daß sich jeder affine Raum bis auf Isomorphie als ein
“um einen Vektor parallel verschobener” Vektorraum darstellen läßt. Dazu müssen wir den Begriff der Isomorphie auf affine Räume ausweiten.
Seien dazu und zwei affine Räume mit gleichem
Differenzenraum . Eine Bijektion heißt ein Isomorphismus der
affinen Räume, wenn gilt:
: Sei
Beweis:
gilt.
und
. Also ist (3.10)
ist genau dann ein Isomorphismus der
, wenn
d.h.
Bemerkung Eine Bijektion affinen Räume
und
(3.11)
. Dann gilt für
"
.
bereits
101
3. Matrizen
Y
y
v,u
v
u
0
x
X
Abbildung
3.1: Der
als affiner Raum. Die Punkte des Raumes sind die Vektoren
, die wir hier als Endpunkte der “Zeiger” dargestellt haben. Die
Strecken sind die Verbindungen dieser Endpunkte.
Seien :
und
. Dann ist . Damit folgt und damit .
3.6.10
Lemma Ist ein Isomorphismus der affinen Räume
und
und ist
, so ist durch das Bild von bereits
definiert für
eindeutig
und
die Abbildung
bestimmt. Umgekehrt
,
einen Isomorphismus der affinen Räume.
ein Isomorphismus der affinen Räume. Zu mit "
, und es folgt " .
Isomorphismus mit ein weiterer
, so folgt "
. Damit ist .
und gegeben. Wir definieren . Ist
Seien nun
, so sei . Nach (A1) finden wir ein mit " , und es
für , so
. Damit ist surjektiv.
Gilt ist Beweis: Sei finden wir ein
Ist .
ist
" . Es folgt daraus nach (A5) . Also
injektiv.
folgt mit
und
ist auch
Schließlich
Damit ist ein Isomorphismus.
102
"
3.6. Lineare Gleichungssysteme und affine Räume
3.6.11
Satz Ist
ein affiner Raum mit Differenzenraum , so ist mit
. Insbesondere sind affine Räume mit gleichem Differenzenraum
isomorph.
Beweis: Sei Abbildung . Wähle . Dann ist nach Lemma 3.6.10 die
mit ein Isomorphismus.
3.6.12 Definition Sei ein -Vektorraum und
eine lineare Mannigfaltigkeit in , wenn gilt
Zu einer linearen Mannigfaltigkeit
, . Wir nennen
definieren wir den Differenzenraum
eine lineare Mannigfaltigkeit in , so ist , und ein Teilraum von .
und damit auch . Sei . Dann
Beweis: Da ist darstellen als . Ist umgekehrt
läßt sich jedes
, so gibt es mit . Da folgt
. Es bleibt zu zeigen,
daraus
daß ein Teilraum
von ist. Ist und
, so finden wir mit ! , denn wegen ist .
Damit haben wir gezeigt, daß unter skalarer Multiplikation abgeschlossen ist.
3.6.13 Lemma Ist
für jedes
Etwas schwieriger gestaltet sich der Nachweis der Abgeschlossenheit gegenüber
der Addition. Hier müssen wir uns den Grundkörper genauer ansehen. Unter der
Charakteristik eines Körpers versteht man die Anzahl der en, die man benötigt
um darzustellen, d.h.
Char
wobei als Abkürzung falls es so ein
sonst,
gibt
steht. Ohne daß wir hier näher darauf einge-
fach
hen wollen, sei ohne Beweis bemerkt, daß die Charakteristik eines Körpers immer
eine Primzahl oder ist. (So ist z.B. Char
). Alles, was wir hier benötigen,
ist die Tatsache, daß ein Körper einer Charakteristik mehr als zwei Elemente
besitzt. Das folgt daraus, daß ein Körper immer mindestens zwei Elemente besit
zen muß, und , die neutralen Elemente der additiven und der multiplikativen
Gruppe. Wären dies die einzigen, so müßte bezüglich der Addition zu sich selbst
103
3. Matrizen
invers sein, d.h. es müßte gelten, was im Widerspruch zu Char stünde.
Wir nehmen nun an, daß der Grundkörper des Vektorraumes eine Charakteristik
, das von und verschieden
ist, und
besitzt. Wir wählen nun ein sowohl
als auch . Wegen
erhalten für
erhalten
wir
und
.
Damit
folgt
und somit
.
folgt aus
Ist Char , so ist und
und wegen
auch und damit wieder
.
3.6.14 Satz Die linearen Mannigfaltigkeiten von sind genau die affinen Räume
der Gestalt
, wobei
und ein Unterraum von ist.
Beweis: Wir haben in Lemma 3.6.13 gesehen, daß sich jede lineare Mannigfaltig
keit
auf in der Form
darstellen läßt, wobei
und
ein linearer Teilraum von
ist. Nach Satz 3.6.9 ist
mit
ein affiner Raum.
Ist
umgekehrt
für ein
und einen Teilraum
und sind
, so erhalten wir für mit Damit ist
eine lineare Mannigfaltigkeit.
Ein Beispiel
Als Beispiele für lineare Mannigfaltigkeiten wollen wir Geraden einführen. Wir
definieren
Definition
Sei
ein Vektorraum und , so heißt die Menge
die Gerade durch u und v.
Zuerst wollen wir
uns davon überzeugen, daß eine lineare Mannigfaltigkeit
, so hat jedes die Gestalt ist. Sind .
Sind mit , so folgt mit .
Andererseits können wir einsehen, daß eine lineare Mannigfaltigkeit
mit zwei
Punkten
auch immer die Gerade durch diese
Punkte
enthält.
Sind
nämlich
, so folgt , da
und ist
.
104
3.6. Lineare Gleichungssysteme und affine Räume
Y
y
u-v
v
G u,v
u
0
x
X
Abbildung
3.2: Eine Gerade im . Ein Vergleich mit Abbildung 3.1 zeigt, daß der
als affiner Raum aufgefaßt alle Geraden enthält.
Die Sätze 3.6.7 und 3.6.14 liefern uns nun den Zusammenhang zwischen linearen Gleichungssystemen und linearen Mannigfaltigkeiten. Fassen wir beide zusammen, so erhalten wir den folgenden Satz.
, so ist die Lösungsmenge des Gleichungs3.6.15 Satz
und
Ist
systems eine lineare Mannigfaltigkeit im
der Gestalt
Kern
,
wobei eine partikuläre Lösung ist, d.h. es gilt .
3.6.16 Bemerkung Wir wollen diesen Abschnitt mit einigen Bemerkungen zum
praktischen Lösen linearer Gleichungssysteme abschließen. Dabei werden wir uns
jedoch auf grundsätzliche Verfahren beschränken. Wirklich effiziente Verfahren,
die auch mit großen Gleichungssystemen zu Rande kommen, werden Sie in der
numerischen Mathematik kennenlernen.
Nach Satz 3.6.7 hat jede Lösung der Gleichung , so sie existiert, die Gestalt
mit , d.h. ist partikuläre Lösung und
Kern . Um
ein
Kern
zu
erhalten,
müssen
wir
das
Gleichungssystem
, d.h.
lösen. Das Gleichungssystem wird als das zum Gleichungssystem gehörende homogene Gleichungssystem bezeichnet. Das homogene
105
3. Matrizen
Gleichungssystem hat also die Form:
..
.
..
.
..
.
..
.
und damit Nun ist
Rang
Kern . Also
ist
Kern
. Um eine Basis von Kern zu erhalten, müssen wir
linear unabhängige Vektoren finden,
die das homogene Gleichungsdaher
gefunden, erhalten wir die
system lösen. Haben wir so eine Basis allgemeine Lösung in der Form
(3.12)
wobei alle Körperelemente durchlaufen und eine partikuläre Lösung ist.
Um einen Algorithmus zur Lösung von Gleichungssystemen zu erhalten, erinnern
wir uns an die Elementaroperationen.
Nach Satz 3.5.14 gibt es ein Produkt von
Elementarmatrizen, so daß Zeilenstufenform hat. Das Gleichungssystem lautet dann
(3.13)
woraus folgt, daß jede Lösung des Gleichungssystems (3.13) auch
eine Lösung
des ursprünglichen Gleichungssystems ist. In der Matrix
, die sich laut
Satz 3.5.14
aus durch das Gaußsche Eliminationsverfahren ergibt,
sind die Zeilen
alle . Daher müssen die Komponenten des Vektors
alle verschwinden. Den Vektor erhält man am besten, indem man das
Gaußsche Eliminationsverfahren auf die geränderte Matrix
anwendet. Der
-ten Spalte ist dann . Das Gleichungssystem
Vektor in der
hat
nun die folgende Gestalt
..
.
..
.
..
.
(3.14)
beliebige Elemente
Wir wählen für die Komponenten
mit und setzen diese in die letzte Zeile von (3.14) ein und lösen diese nach
auf. Dies liefert einen Wert , und wir setzen die gewählten Werte und
in die vorletzte Zeile von (3.14) ein und bekommen so einen Wert für .
Dieses Verfahren setzen wir fort und erhalten nach -vielen Schritten einen Vektor
106
3.6. Lineare Gleichungssysteme und affine Räume
, der eine partikuläre Lösung des Gleichungssystems (3.14) und da-
mit auch des ursprünglichen Gleichungssystems ist. Eine Lösung des homogenen
Gleichungssystems
..
.
..
.
.. (3.15)
.
erhalten wir durch das gleiche Verfahren. Da wir
viele Komponenten des
Lösungsvektors frei wählen können, erreichen wir, beispielsweise
indem wir die
kanonischen Basisvektoren des
auswählen, daß wir
linear unabhängige Lösungen erhalten und können damit die allgemeine Lösung des Gleichungssystems darstellen. Zur weiteren Erläuterung des Verfahrens wollen wir ein einfaches
Beispiel rechnen.
Wir betrachten das Gleichungssystem
die sich zunächst auf
(3.16)
(3.17)
(3.18)
und dann auf die Form
Die geränderte Matrix lautet dann
(3.19)
bringen läßt. Dies ist bereits die Zeilenstufenform. Die geränderte Matrix sowie die
Koeffizientenmatrix haben den Rang . Damit ist das Gleichungssystem lösbar.
Lösen wir die unterste Zeile nach
auf, so erhalten wir
Nun wählen wir
(3.20)
und erhalten aus (3.20)
. Damit ergibt sich
107
3. Matrizen
aus der mittleren Zeile von (3.19)
und damit . Schließlich erhalten wir aus der ersten Zeile von (3.19)
Damit haben wir eine partikuläre Lösung .
Um die allgemeine Lösung zu erhalten, lösen wir das homogene Gleichungssystem
(3.21)
Wir beginnen wieder mit der letzten Zeile von (3.21) und haben
zu lösen. Wir setzen
und
mittleren Zeile von (3.21) folgt
woraus sich und erhalten daraus
. Aus der
d.h.
(3.23)
. Aus der ersten Zeile von (3.21) erhalten wir
Damit ist (3.22)
d.h.
(3.24)
ergibt. Damit haben wir einen Lösungsvektor .
Nun ist
Kern
, und wir haben eine weitere
linear
unabhängige
Lösung
von
(3.21)
zu
finden.
Dazu
setzen
wir
in
(3.22)
und
wir dies in (3.23) ein, so erhalten wir . Dann ergibt sich . Setzen
. Dies in (3.24) eingesetzt ergibt
. Damit erhalten wir einen weiteren
108
3.6. Lineare Gleichungssysteme und affine Räume
Lösungsvektor , der offensichtlich von linear unabhängig ist. Damit
ergibt sich die Lösungsmenge des Gleichungssystems (3.16)
Ist die Koeffizientenmatrix
des Gleichungssystems invertierbar, so läßt
sich nach Korollar 3.5.16 schon durch Zeilenumformungen allein in die Einheitsmatrix überführen. Die Zeilenstufenform von ist also bereits die Einheitsmatrix.
Die Umformung der geränderten Matrix liefert also eine Matrix der Form
..
..
.
.
..
.
..
.
(3.25)
Wir können nun den eindeutig bestimmten Lösungsvektor aus (3.25) ablesen.
Läßt es sich im allgemeinen Falle einer Matrix
Umformung der geränderten Matrix eine Matrix der Gestalt
.
..
..
.
..
.
..
.
..
.
..
.
erreichen, daß die
direkt
(3.26)
..
.
ergibt, so können wir sofort die allgemeine Lösung aus (3.26) ablesen. Setzen wir
nämlich
109
3. Matrizen
..
.
..
.
mit der in der -ten Zeile,
..
.
so folgt
..
.
, d.h. die Vektoren ..
.
spannen Kern auf. Wir sehen aber auch, daß eine partikuläre Lösung ist. Bezeichnen wir nämlich das Produkt von Elementarmatrizen, das den Zeilenumformungen entspricht, die auf die Gestalt gebracht
. Damit
haben, mit , so folgt und damit erhalten wir die Lösungsmenge als
.
Leider läßt sich im allgemeinen Fall die Form in (3.26) nicht durch Zeilenumformungen allein
erreichen. Was sich aber erreichen läßt, ist eine Transformation der
Form
, die die Gestalt in (3.26) bewirkt. Dabei folgt aus Satz 3.5.14,
daß das Produkt von Elementarmatrizen nur Spaltenvertauschungen bewirken
muß. Durch Spaltenvertauschungen der Zeilenstufenmatrix können wir nämlich erreichen, daß alle Pivots in der Hauptdiagonalen stehen. Aus dieser Form erreichen
wir aber die Gestalt in (3.26) durch Zeilenumformungen allein. Das Gleichungssy
stem wird damit umgeformt zu
(3.27)
Die Lösungen des Gleichungssystems
(3.28)
lassen sich
wie eben beschrieben aus der Matrix ablesen. Dann gilt aber
und damit . D.h. die Spaltenvertauschungen in werden
110
3.6. Lineare Gleichungssysteme und affine Räume
zu Zeilenvertauschungen in und Zeilenvertauschungen in bedeuten nur Umbenennung der Unbekannten. Wir erhalten also die Lösungen , wenn
wir in den
abgelesenen Lösungen die Komponenten entsprechend den in vorgenommenen Spaltenvertauschungen vertauschen. Auch dies wollen wir an einem Beispiel
klarmachen.
Sei
und
Wir wollen das Gleichungssystem
lösen. Die geränderte Matrix ist dann
Durch Gaußelimination erhalten wir die Zeilenstufenform
Wir vertauschen nun die te und die te Spalte und erhalten
Durch Zeilenumformungen erreichen wir die Diagonalgestalt
Wir lesen nun die Lösungsmenge aus dieser Matrix ab, wobei wir beachten, daß
111
3. Matrizen
wir die te und te Komponente der Lösungsvektoren vertauschen müssen, da wir
ja die te und te Spalte zum Erreichen der Diagonalgestalt vertauschen mußten.
Damit erhalten wir die Lösungsmenge als
112
4. Determinanten
4.1
Permutationen
. Eine Bijektion
4.1.1 Definition Sei
heißt ei ne Permutation der Zahlen . Die Hintereinanderausführung von Permutationen bezeichnen wir als Produkt der Permutationen. Wir notieren dies auch als
Produkt . Wir definieren
ist bijektiv
4.1.2 Lemma Die Menge
bildet mit der Komposition von Abbildungen eine
Gruppe. Man nennt sie die symmetrische Gruppe.
Zum Beweis vergleiche man die Beispiele in 1.1.12.
4.1.3 Definition Ein Element
heißt eine Transposition, wenn
len vertauscht und die übrigen unverändert läßt, d.h. wenn es und für alle gilt
für für sonst.
zwei Zahgibt mit
Es ist aus der Definition sofort klar, daß id , d.h.
ist das Inverse einer Transposition wieder eine Transposition.
4.1.4 Satz Jede Permutation
vieler Transpositionen darstellen.
ist. Insbesondere
läßt sich als ein Produkt endlich
Beweis: Wir wollen vorausschicken, daß nach Definition 4.1.3 die Identität nicht
als Transposition betrachtet wird. Für
definieren wir
falls dies existiert
sonst.
113
4. Determinanten
Wir zeigen nun durch Induktion nach
Transpositionen gibt, mit
, daß es ein Produkt von
id
(i)
Ist , so ist
id und es ist id für jede Transposition .
und
Sei nun
und
die
Transposition,
die
vertauscht. Dann ist
und
für . Damit
ist . Nach Induktionsvoraussetzung gibt es daher ein Produkt id . Damit ist (i) gezeigt. Aus (i) folgt aber
(ii)
und dies ist die Behauptung, da die Inversen von Transpositionen wieder Transpo
sitionen sind.
4.1.6 Lemma Ist
4.1.5 Definition Für
definieren wir dessen Signatur
eine Transposition, so ist
.
Beweis: Vertauscht die Zahlen und , wobei wir ohne Einschränkung der Allgemeinheit annehmen dürfen, so erhalten wir
114
4.1. Permutationen
Beweis: Es ist
4.1.7 Lemma Für
gilt
.
, da wir im ersten Produkt, wann immer
ist, den Faktor 4.1.8 Satz Die Abbildung
pen.
durch ersetzen können.
ist ein Homomorphismus der Grup-
Beweis: Es folgt aus Lemma 4.1.7, daß
respektiert. Aus Satz 4.1.4
Multiplikation
die
.
und Lemma 4.1.6 erhalten wir
4.1.9 Korollar Ist
und
gilt
und
für Transposi
tionen und , so ist mod , d.h. entweder sind und beide gerade
oder beide ungerade.
Beweis: Aus
Also ist mod .
folgt mit Satz 4.1.8
.
Kern
. Damit ist 4.1.10 Definition Es sei eine Untergruppe der . Man nennt die alternierende Gruppe. Sie besteht aus
denjenigen Permutationen, die sich durch ein gerade Anzahl von Transpositionen
darstellen lassen. Daher nennt man die Elemente
der auch gerade Permutationen. Analog nennt man Permutationen mit
ungerade Permutationen.
Nach dem Homomorphiesatz für Gruppen gilt
Damit
ist
(4.1)
und nach Lemma 2.2.8 gilt für jede ungerade Permutation
(4.2)
Insbesondere gilt (4.2) für Transpositionen.
115
4. Determinanten
4.2
Determinantenfunktionen
Vorbemerkung Im folgenden setzen wir immer voraus, daß der Grundkörper
eine Charakteristik hat.
4.2.1 Definition Sei
ein -Vektorraum der Dimension . Eine Abbildung
heißt eine Determinantenfunktion auf , wenn gilt
(Det 1)
ist multilinear, d.h. linear in jedem Argument,
(Det 2)
ist alternierend, d.h.
Ist
nicht die Nullabbildung, so heißt
4.2.2 Folgerungen (i) Gilt .
(ii) Für mit .
nicht trivial.
für .
gilt
, so ist
die und vertauscht.
Dann erhalten wir
die Transposition,
. Zusammen mit
Char folgt daraus
. (Man beachte, daß in einem Körper
ist. Die Voraussetzung Char geht also
der Charakteristik immer wirklich ein. Will man darauf verzichten und Determinantenfunktionen auch für
Vektorräume über Körpern mit einer Charakteristik erklären, so muß man einen
anderen Weg wählen. Eine Möglichkeit besteht darin, die Eigenschaft (Det 2) durch
die Forderung zu ersetzen, daß eine Determinatenfunktion auf linear abhängigen
-tupeln verschwinden soll.) (ii): Es
ist nach
(i)
.
Beweis: (i):
Sei
4.2.3 Lemma Sind für jede Determinantenfunktion
linear abhängige Vektoren, so gilt
.
Allge linear abhängig, so gilt ohne Einschränkung der
. Also ist nach Folgerung 4.2.2 (i) .
Beweis: Sind meinheit Wir wollen nun umgekehrt die
Wirkung einer Determinantenfunktion auf linear
unabhängige Vektoren studieren. Ist
trivial, so ist natürlich
116
4.2. Determinantenfunktionen
. Wir wollen
daher annehmen, daß
nicht trivial ist. We gen bilden eine Basis von . Für ein beliebiges -tupel
mit gilt dann
(4.3)
Nach Folgerung 4.2.2 liefern nur solche Summanden in (4.3) einen Beitrag, für die
die paarweise verschieden sind. Dies ist genau dann der Fall, wenn die
paarweise verschieden und damit eine Permutation der Zahlen sind. Damit erhalten wir aus (4.3)
(4.4)
. Damit
Da wir als
nicht trivial vorausgesetzt haben, gibt es ein Tupel
mit
. Aus (4.4) folgt dann aber auch
haben wir den folgenden Satz bewiesen.
4.2.4 Satz Ist eine nicht triviale Determinantenfunktion, so gilt
genau dann, wenn linear abhängig sind.
4.2.5 Definition Ist für , so gilt nach (4.4)
eine Basis von
und ist
(4.5)
Wir definieren
(4.6)
4.2.6 Satz Ist eine Basis des -dimensionalen
-Vektorraums
. Insbesondere
, so ist
eine Determinantenfunktion mit
ist
nicht trivial.
117
4. Determinanten
Beweis:
Wir zeigen als erstes, daß
. Dann ist
multilinear ist. Sei
und
Aus der definierenden Gleichung (4.6) liest man sofort ab, daß
ist. Damit ist
im -ten Argument linear und, da wir beliebig gewählt haben,
in jedem Argument linear.
Nun zeigen wir, daß
alternierend ist. Offenbar genügt es dazu zu zeigen, daß
für eine Transposition
(i)
gilt. Bei der folgenden Rechnung werden wir auf Gleichung (4.2) zurückgreifen,
der zufolge sich die
in die alternierende Gruppe und disjunkt zerlegen
läßt. Wegen
erhalten wir
wobei wir gesetzt haben. Setzen wir im ersten Summanden ist , und wir können (iii) folgendermaßen fortsetzen
(ii)
(iii)
, so
(iv)
im ersten Summanden von (iv), so durchläuft alle Elemente
Setzen wir von . Damit können wir (iv) wie folgt fortsetzen
118
4.3. Die Determinante eines Endomorphismus und einer Matrix
denn alle Summanden mit
und
(v)
4.3
erhalten
von . Nach (4.5) erhalten wir
(i)
Da wir
als nicht trivial vorausgesetzt
haben, folgt
Satz 4.2.6. Wir setzen
und
ten wir aus (i)und (ii)
Mit id verschwinden.
Beweis: Wir wählen eine Basis dann
Determinantenfunktionen auf einem -dimensionalen
nicht trivial, so gibt es ein mit
4.2.7 Satz Sind und
-Vektorraum und ist
ist. Wegen
Es bleibt zu zeigen, daß
wir
(ii)
nach
. Dann
erhal
(iii)
folgt die Behauptung.
Die Determinante eines Endomorphismus und einer
Matrix
4.3.1 Definition Sei ein -dimensionaler -Vektorraum und
viale Determinatenfunktion auf . Für einen Endomorphismus nieren wir
eine
nicht tridefi-
119
4. Determinanten
4.3.2 Lemma Die Funktion
ist eine Determinantenfunktion.
Beweis: Aus der Linearität von und der
Multilinearität von folgt
sofort die
. Wegen
Multilinearität von
ist
auch alternierend.
-Vektorraum. Zu jedem 4.3.3 Lemma Sei ein -dimensionaler
gibt es ein mit
End
(4.7)
und alle -tupel
für alle nicht trivialen Determinantenfunktionen
.
Beweis: Zu jeder nicht trivialen Determinantenfunktion gibt es nach Lemma 4.3.2
und Satz 4.2.7 ein mit
Wir haben zu zeigen, daß nicht von der Wahl von abhängt. Sei daher
eine weitere nicht triviale Determinantenfunktion. Dann gilt
und nach Satz 4.2.7 auch
Aus (ii) und (iv) folgt aber
4.3.4 Definition Zu End
stimmte Körperelement mit
(iii)
sei
(iv)
das nach Lemma 4.3.3 eindeutig be-
für jede nicht triviale Determinantenfunktion
Determinante des Endomorphismus .
120
.
(ii)
Damit folgt
(i)
auf
. Wir nennen
(4.8)
die
4.3. Die Determinante eines Endomorphismus und einer Matrix
eine
Basis des
.
4.3.5 Lemma Ist End
, so ist
-Vektorraumes
Beachte Mit Lemma 4.3.5 haben wir die Möglichkeit
bekannt ist. Wegen (i)
id (ii)
(4.9)
(iv)
Beweis: (i): Wegen
(ii): Es ist
,
End
. Dann gel-
,
ist bijektiv.
id ist diese Aussage klar.
Nach (4.8) folgt
.
-Vektorraum und dimensionaler
,
(iii)
ein
zu berechnen, wenn
Es folgt aus Lemma 4.3.5, daß (4.9) nicht von der Wahl der Basis abhängt.
4.3.6 Satz Sei
ten:
folgt dann
und Beweis: Mit Gleichung (4.8) und Satz 4.2.6 erhalten wir
.
(iii): Durch Nachrechnen erhalten wir
. Damit ist
(iv):
: Ist bijektiv, so gibt es ein
End mit id und damit
nach (i) und (iii)
. Damit
ist
.
eine Basis von . Dann ist : Sei
und . Nach Satz 4.2.6 ist nicht trivial und damit folgt
121
4. Determinanten
. Also ist Rang nach Satz 4.2.4 die lineare Unabhängigkeit von , und nach den Sätzen 3.4.5 und 2.3.9 ist damit bijektiv.
4.3.7 Satz Die Abbildung
GL
Gruppen. Insbesondere ist
Beweis: Nach Satz 4.3.6 (iv) ist
morphismus.
GL
.
4.3.9 Satz Ist
und nach (iii) ein Homo-
. Man nennt
so ist
(4.10)
Beweis: Wegen
ist ein Homomorphismus der
4.3.8 Definition Für
definieren
wir
die Determinante der Matrix .
folgt dies sofort aus (4.9).
4.3.10 Lemma Sind und Vektorräume endlicher
Dimension und für jeden Endomorphismus
ein Isomorphismus, so ist
End
.
Beweis: Ist
eine Determinatenfunktion
auf
, so definiert die Abbildung
eine Determinantenfunktion auf , die
nicht trivial ist, wenn nicht trivial ist. Damit folgt für End
und damit
.
Beweis: Es gilt .
4.3.11 Satz Ist ein endlich dimensionaler -Vektorraum und ist für jeden Endomorphismus von , so gilt
eine Basis
End
.
. Mit Lemma 4.3.10 folgt daraus
Wir hätten die Aussage von Satz 4.3.11 auch aus (4.9) und (4.10) folgern können.
122
4.3. Die Determinante eines Endomorphismus und einer Matrix
-Vektorraum und 4.3.12 Satz Sei
ein endlich dimensionaler
Dann gilt
.
End
.
Beweis: Nach Satz 3.2.12 ist . Damit ist und
ein Isomorphismus. Mit Lemma 4.3.10 folgt dann die Behaup
tung.
Beweis: Sei
4.3.13 Satz Für
.
. Nach (4.10) ist dann
denn
mit durchläuft auch
.
gilt
alle Elemente von
, und offensichtlich ist 4.3.14 Korollar Ist ein endlich dimensionaler Vektorraum und ist
.
Beweis: Nach Satz 3.2.8 gilt für eine Basis von stets
Nach Satz 4.3.11 und Satz 4.3.13 gilt daher
.
bzw.
Beweis: Ist
..
.
, so
und
, die de-
mit für , sind nicht triviale Determinantenfunktionen.
für 4.3.15 Satz Die Funktionen
finiert sind durch
End
, so ist . Nach Satz 4.3.9 gilt dann
. Nach Satz 4.2.6 ist aber
eine nicht triviale Determinatenfunktion.
4.3.16 Folgerungen
(i)
.
123
.
4. Determinanten
(ii)
.
ist .
Für gilt GL .
Für Für GL ist
.
gilt , wenn Rang ist.
Für Entsteht aus durch das Vertauschen zweier Spalten bzw. Zei len, so gilt
.
, indem man das Vielfache einer Spalte (bzw. einer
Entsteht aus Zeile)
zu einer anderen Spalte (bzw. Zeile) hinzuaddiert, so ist
.
Für
(iii)
(iv)
(v)
(vi)
(vii)
(viii)
und
ist
Beweis: Die Behauptungen in (i)–(iv) folgen sofort aus Satz 4.3.6 (i) – (iv). Die
ist
Behauptung (v) ergibt sich aus Satz 4.3.7 und der Tatsache, daß
(vgl. den Beweis zu Satz 3.3.13). Die Behauptung (vi) ergibt sich aus der Tatsa
che, daß
eine Determinantenfunktion
ist (Satz 4.3.15), Lemma 4.2.3 und der
Tatsache, daß für Rang
nach Satz 3.5.9 die Zeilen- und Spaltenvekto
ren in linear abhängig sein müssen. Die Aussagen (vii) und (viii) folgen sofort
aus Satz 4.3.15 und den Eigenschaften von Determinantenfunktionen (vgl. Folge
rung 4.2.2 (ii) für (viii)).
4.3.17 Einige Rechenregeln für Determinanten
(i)
sind.
, wobei und
quadratische Matrizen
und , so erhalten
als nicht triviale Determinantenfunk und
bzw.
sind
tionen auf
. Ebenso
Determinantenfunktionen auf und .
Beweis: Schreiben
wir
wir
und
Nach Satz 4.2.7 gilt dann
und
124
(i)
(ii)
4.3. Die Determinante eines Endomorphismus und einer Matrix
Aus (i) und (ii) folgt
Wählen wir in (iii) speziell
Wählen wir
aus (v).
(ii)
(iii)
, so erhalten wir
(iv)
Damit erhalten wir
(v)
, und wir erhalten die Behauptung
.. .
..
.
..
.
in (v), so folgt
..
.
..
.
..
.
Beweis: Wir bezeichnen die Matrix mit
. Durch Addition von geeigneten Vielfachen der ersten Spalte läßt sich die Matrix auf die Form
..
.
..
.
..
..
.
..
.
.
..
.
..
.
..
.
bringen, wobei
die gleiche Gestalt wie hat. Nach
Folgerung
4.3.16 (viii) ist
.
, und nach Folgerung 4.3.17 (i) ist
durch Induktion nach .
Damit erhalten wir
(iii)
Beweis: Ist
GL
auch in der Matrix
wir GL
, so sind die Spalten in an, so folgt
. Damit ist
linear abhängig und damit
. Nehmen
125
4. Determinanten
wobei wir im letzten Schritt (i) und (ii) benutzt haben.
4.4
Die inverse Matrix und die Cramersche Regel
4.4.1 Definition Für
sei
die Matrix, die aus entsteht, wenn man
die -te Zeile und die -te Spalte durch Nullen ersetzt und das Element
setzt, d.h.
Das Körperelement
heißt der Cofaktor oder das algebraische
Komplement der Matrix bezüglich . (Man beachte die Vertauschung der Indizes und in der Definition von
.)die Matrix, die aus durch Streichen der -ten
Schließlich sei
Zeile und -ten Spalte entsteht.
4.4.2 Lemma Es ist
.
-faches Vertauschen von Zeilen bringt man die -te Zeile von
Beweis:
Durch in die erste Zeile. Dann bringt man durch
-faches Vertauschen von Spalten,
die -te Spalte in die erste Spalte und erhält so die Matrix
Da die Determinante bei jeder Vertauschung ihr Vorzeichen wechselt folgt mit
4.3.17 (i)
als Matrix von Spaltenvekto , so ist
Beweis: Man erhält die Matrix
aus
durch
Subtraktion
des
-fachen der -ten Spalte von den Spalten
für
. Wegen 4.3.16 (viii) gilt dann .
4.4.3 Lemma Schreiben
wir die Matrix
ren mit für 4.4.4 Definition Die Matrix die Komplementärmatrix von .
4.4.5 Lemma Es ist
126
.
heißt die zu
konjungierte Matrix oder
4.4. Die inverse Matrix und die Cramersche Regel
Beweis:
Sei
und damit
Also
, d.h. . Dann gilt
.
.
denn
. Dann ist
Beweis: Sei
gilt
.
4.4.6 Satz Für
für
(i)
Aus (i) erhalten wir sofort
(ii)
und aus (ii) mit Lemma 4.4.5
4.4.7 Satz (Entwicklungssatz für Determinanten) Für
und
(iii)
gilt
(4.11)
(4.12)
127
4. Determinanten
Man nennt (4.11) die Entwicklung der Determinante nach der -ten Spalte und
(4.12) die Entwicklung nach der -ten Zeile.
in Gleichung (i) des Beweises von Satz 4.4.6, so erhal-
Beweis: Setzen wir ten wir
(i)
Aus (i) und Lemma 4.4.2 erhalten wir die erste Behauptung. Aus Gleichung (iii)
des Beweises von Satz 4.4.6 folgt
Setzen wir erste.
(ii)
in (ii), so erhalten wir die zweite Behauptung analog wie die
Beachte Da
liefert Satz 4.4.7 ein rekursives Verfahren zur
Berechnung von Determinanten (das jedoch nicht sehr effizient ist).
Eine unmittelbare Folgerung aus Satz 4.4.6 ist ein (wieder nur mäßig effizientes)
Berechnungsverfahren für die inverse Matrix.
4.4.8 Satz Ist
GL
, so gilt .
Wenden wir diese Verfahren auf lineare Gleichungssysteme an, so erhalten wir die
GL
und
4.4.9 Cramersche Regel Ist
erhalten wir die Lösung des Gleichungssystems Beweis: Die Lösung des Gleichungssystems ist
128
, so
mit
als 4.4. Die inverse Matrix und die Cramersche Regel
4.4.10 Bemerkung Einprägsamer
läßt sich
die Cramersche Regel folgendermaßen
formulieren. Sei
des Gleichungssystems
..
.
..
.
..
.
..
.
so erhalten wir die
“eingesetzte Matrix”
Vektor
..
.
GL
..
.
die Koeffizientenmatrix
, indem wir die -te Spalte durch den
ersetzen, d.h.
..
.
..
.
..
.
..
.
..
.
Dann gilt nach der Cramerschen Regel
129
4. Determinanten
130
5. Normalformdarstellungen von
Endomorphismen
Im Normalformensatz (Satz 3.5.1) haben wir gesehen, daß sich jeder Homomorphismus Hom
bezüglich geeignet gewählter Basen durch eine Matrix in Diagonalgestalt darstellen läßt. Für Endomorphismen ist diese Fragestellung
deutlich schwieriger zu beantworten. Natürlich können wir den Normalformensatz
auf End
anwenden, aber dann erhalten wir zwei verschiede Hom
ne Basen von , bezüglich derer wir darzustellen haben. Unser Ziel sollte es aber
sein, eine Basis zu finden. In diesem Kapitel wollen wir studieren, unter welchen
Bedingungen dies möglich sein wird und wie die Normalformdarstellungen aussehen können. Dazu benötigen wir allerdings noch einige algebraische Hilfsmittel,
die wir zunächst bereitstellen wollen.
5.1
Teilbarkeit in Ringen
5.1.1 Definition Es sei ein Ring mit Einselement (vgl. Definition 1.1.13). Ein
heißt invertierbar oder eine Einheit in , wenn es ein
mit
Element
gibt.
5.1.2 Folgerung (i) Ist
invertierbar,
so ist dessen inverses Element ein
.
deutig bestimmt. Wir bezeichnen es mit
. Es gilt insbesondere beide
invertierbar, so ist auch invertierbar, und es gilt
(ii) Sind
.
(iii) Ist
invertierbar, so ist auch
invertierbar, und es gilt
.
Nehmen
wir und
an, so erhalten
wir
.
. Offensichtlich ist und damit (ii) Dies folgt durch Nachrechnen.
(iii) Dies ist klar.
Beweis: (i)
131
5. Normalformdarstellungen von Endomorphismen
Es folgt unmittelbar aus 5.1.2, daß die invertierbaren Elemente eines Ringes eine
Gruppe bilden. Dies wollen wir in einem Satz festhalten.
5.1.3 Satz Sei ein Ring mit . Die Menge
bildet mit der Multiplikation des Ringes eine Gruppe.
ist invertierbar 5.1.4 Beispiel Wir wissen aus Satz 2.5.4, daß die Menge End
der Endomorphismen eines Vektorraumes einen Ring bildet. Die Menge der invertierbaren
Elemente ist offensichtlich die Gruppe GL
, d.h. wir haben End
GL
.
ein kommutativer Ring mit . Eine Menge
5.1.5 Definition Sei
Ideal, wenn gilt:
(I.1)
(I.2)
Für
.
ist eine Untergruppe der additiven abelschen Gruppe von
und ist
Beachte Überzeugen Sie sich davon, daß jedes Ideal von
ist. Umgekehrt muß nicht jeder Teilring auch ein Ideal sein.
heißt ein
.
ein Teilring von
5.1.6 Bemerkung Verzichtet man auf die Voraussetzung der Kommutativität,
so hat man in der naheliegenden Weise linke, rechte
und beidseitige Ideale zu de
finieren, indem man
,
und
fordert.
ein kommutativer Ring mit und sind 5.1.7 Lemma Ist
die Menge
, so ist
Beweis: Offensichtlich
ist
und ein Ideal in . Sie heißt das durch erzeugte Ideal. Wann immer der
Zusammenhang es erlaubt, lassen wir den unteren Index weg.
.
5.1.8 Definition Ein Ideal
mit !
, womit ein Ideal vorliegt.
heißt ein Hauptideal, wenn es ein
gibt
5.1.9 Beispiele Ist ein kommutativer Ring, so haben wir das Nullideal als ein (triviales) Hauptideal.
Ebenso
ist
ein
Hauptideal.
Für
eine
Einheit
und damit für . Damit
ist auch gilt
für jede Einheit
.
132
5.1. Teilbarkeit in Ringen
Wir erinnern an die Definition eines Nullteilers (Definition 1.1.15). Dort haben wir
auch den Begriff des Integritätsring eingeführt. Wir wollen diesen jetzt noch etwas
enger fassen und sagen, daß ein Integritätsbereich ein kommutativer, nullteilerfreier Ring mit ist.
5.1.10 Definition Es sei ein Integritätsbereich. Ein Element
heißt Teiler
eines Elements
, wenn es ein gibt mit . In Formelschreibweise
bedeutet dies
um auszudrücken, daß kein Teiler von ist.
Wir schreiben
gelten:
5.1.11 Folgerungen Für einen Integritätsbereich
(i)
(ii)
(iii)
(iv)
(v)
(vi)
(vii)
.
.
.
.
für alle
.
.
.
Beweis: Die Behauptung (i) ist klar. Wir zeigen (ii) durch die Rechnung durch die Rechnung
für
und (iii)
, welche impliziert. Die Behauptung (iv) ist klar. Bei (v) zeigen wir zunächst : Aus und und damit , d.h. folgt für . Die Gegenrichtung ist
wegen und trivial.
Für (vi) zeigen wir zunächst : Sei
und . Dann ist . Für die Gegendazu
und damit für ein richtung erhalten wir .
D.h. . Die Eigenschaft (vii) folgt nun unmittelbar wegen
.
5.1.12 Satz Die Relation
valenzrelation auf . Gilt
, so heißen und
in
definiert eine Äquiassoziiert.
133
5. Normalformdarstellungen von Endomorphismen
eine Gruppe ist, erhalten
wegen . Aus
wir
erhalten wir und damit
. Schließlich folgt aus
und auch , d.h.
.
mit Beweis: Da
mit Beachte Nach dem Hilfsatz im Beweis von Lemma 2.2.8 bilden die Äquivalenzklassen von eine Partition von .
Aus 5.1.11 (v) erhalten wir
5.1.13 Definition Ein Integritätsbereich
Ideal von schon ein Hauptideal ist.
(5.1)
heißt ein Hauptidealring, wenn jedes
gemeinsamer Teiler , wenn für
gilt. Gilt, so heißt für jedeneingemeinsamen
, so
Teiler von teilerfremd oder relativ prim.
heißen Sind 5.1.14 Satz Sei
ein Hauptidealring. Dann sind äquivalent:
sind teilerfremd.
.
(i)
(ii)
(iii)
.
(ii): Da ein Hauptidealring ist, gibt es ein Element
mit
. Wegen
folgt für . Damit
ist ein gemeinsamer Teiler von
und,
da
diese
teilerfremd
sind,
somit
. Nach 5.1.9 folgt .
gibt es mit .
(ii) (iii): Da (iii) (i): Gilt für , so folgt nach 5.1.11 (iii) für alle und damit . Also ist .
Beweis:
(i) 5.1.15 Satz Ist
bereits
ein Hauptidealring und sind
.
teilerfremd, so folgt aus
Beweis: Da und teilerfremd sind, gibt es nach Satz 5.1.14 Elemente mit . Damit ist , und wegen folgt
nach Satz 5.1.11 (iii) .
Wir nennen
ein Primelement, wenn
gilt, d.h. wenn jeder Teiler von entweder eine Einheit oder mit
134
(5.2)
assoziiert ist.
5.2. Euklidische Ringe
5.1.16 Satz Es sei
ten:
(i)
Für
(ii)
Aus
ein Hauptidealring und ein Primelement von
gilt entweder
folgt
oder und
.
oder
. Dann gel-
sind teilerfremd.
Beweis: (i): Sind und nicht teilerfremd, so gibt es ein mit und . Dann ist aber , und wegen erhalten wir damit auch .
(ii): Nach (i) gilt: oder und sind teilerfremd. In diesem Falle folgt aber
aus nach Satz 5.1.15 .
5.1.17 Korollar Zwei Primelemente in einem Hauptidealring sind entweder teilerfremd oder assoziiert.
Beweis: Sind und Primelemente, die nicht teilerfremd sind, so folgt nach Satz
5.1.16 und . Nach (5.1) folgt daraus
.
5.1.18 Bemerkung
Wir erhalten aus Satz
5.1.15, daß für paarweise teilerfremde
Elemente mit
auch für gilt. Aus und aus wegen der Teilerfremdheit von und
folgt nämlich dann , d.h. . Nun erhalten wir in analoger Weise
.
und durch Iteration schließlich 5.2
Euklidische Ringe
Das Beispiel für einen Integritätsbereich
ist , der Ring der ganzen Zahlen. In . Ein Ideal in ist beispielsweise die Menge
gibt es nur zwei Einheiten
. Wir werden in Kürze sehen, daß ein Hauptidealring
ist. Damit haben alle Ideale die Gestalt . Der Ring hat aber noch zusätzliche
Eigenschaften. Eine davon ist die Division mit Rest, die den euklidischen Algorithmus zum Auffinden des größten gemeinsamem Teilers zweier Zahlen ermöglicht.
Wie Sie sich erinnern, besagt die Division mit Rest, daß zu zwei gegebenen Zahlen
und eine Zahl so existiert, daß der Rest
kleiner als der Teiler wird. Da
wir auf beliebigen Ringen im allgemeinen keine “kleiner” Relation haben, müssen
wir uns anderweitig behelfen. Dies ist der Hintergrund der folgenden Definition.
5.2.1 Definition Es sei ein Integritätsbereich. Eine Abbildung
eine euklidische Norm, wenn sie den folgenden Bedingungen genügt:
(EN.0)
heißt
.
135
5. Normalformdarstellungen von Endomorphismen
.
.
(EN.1)
(EN.2)
(EN.3)
.
Ein Integritätsbereich, auf dem sich eine euklidische Norm definieren läßt, heißt
ein euklidischer Ring.
5.2.2 Folgerung Ist
, so gelten:
,
denn aus folgt .
(ii)
,
denn aus
folgt und und daraus und .
Damit gilt negativ und
und, da und beide nicht
die einzigen Einheiten in sind, schließlich .
,
(iii)
denn nach (EN.2) ist und damit .
,
(iv)
impliziert und damit nach (iii). Da folgt
denn . Ist umgekehrt , so finden
wir nach (EN.3) ein mit
.
. Dann ist und damit , d.h.
,
(v)
folgt mit . Also
mit denn aus ist .
(i)
ein euklidischer Ring mit euklidischer Norm
5.2.3 Satz Jeder euklidische Ring ist ein Hauptidealring.
ein Ideal.
Da das Nullideal ein
Beweis: Sei ein euklidischer Ring und
Hauptideal
ist, dürfen wir annehmen.
Sei und
so gewählt, daß
ist. Wegen folgt
. Zu jedem
gibt es nach (EN.3) ein mit
. Da
folgt daraus , d.h.
. Damit ist
und die entgegengesetz
te Inklusion folgt sofort wegen
.
136
5.2. Euklidische Ringe
5.2.4 Satz Ist ein euklidischer Ring, so läßt sich jedes von 0 verschiedene bis auf Assoziiertheit eindeutig als Produkt von Primelementen darstellen.
Ringe, deren Elemente sich bis auf Assoziiertheit eindeutig als Primzahlprodukte
darstellen lassen, heißen faktoriell. Jeder euklidische Ring ist somit faktoriell.
Beweis: Wir haben zwei Dinge zu zeigen:
Zu und
Ist
gibt es Primelemente für Primelemente und
für eine Permutation
und mit (i)
so ist
(ii)
. Wegen Beginnen wir mit (i). Wir führen Induktion nach
und 5.2.2
. Ist bereits ein Primelement, so wählen wir . Anderenfalls
(iv) ist
und
gibt es
mit . Dann ist nach 5.2.2 (v)
. Nach Induktionsvoraussetzung sind und als Primzahlprodukte
darstellbar. Damit ist aber auch ein Primzahlprodukt.
Nun zeigen wir (ii). Da euklidisch ist, ist ein Hauptidealring. Aus folgt nach Satz 5.1.16 für ein . Wir setzen nach Korollar 5.1.17 und und erhalten . Nun
erhalten wir für ein . Wir setzen und durch Iteration schließlich und
erhalten .
5.2.5 Satz Der Ring
ein Hauptidealring.
,
für
der ganzen Zahlen ist euklidisch und damit faktoriell und
Beweis: Man prüft sofort nach, daß die Abbildung
Norm definiert.
eine euklidische
5.2.6 Bemerkung In der Algebra-Vorlesung wird gezeigt werden, daß bereits
jeder Hauptidealring faktoriell ist. Das ist jedoch deutlich aufwendiger zu zeigen
und wird in dieser Vorlesung nicht gebraucht.
137
5. Normalformdarstellungen von Endomorphismen
5.3
Der Polynomring
Wir erinnern an den Abschnitt 1.3.3, in dem wir den Vektorraum Abb
der Polynome über einem Körper eingeführt haben. Wir hatten
für für definiert und den Grad von genannt. Für das zusätzliche Zeichen
vereinbaren wir die folgenden Rechenregeln:
läßt sich in der Form Jedes Polynom vom Grad
mit
einer Unbestimmten schreiben, was den Vorteil hat, daß man mit diesen formalen
Summen wie gewohnt rechnen kann. Dies kommt insbesondere zum Tragen, wenn
wir das Produkt zweier Polynome
(5.3)
einführen, denn dieses Produkt erhält man, wenn man die Ausdrücke und formal miteinander multipliziert und nach Potenzen von ordnet. Offensichtlich hat man dann
(5.4)
Man rechnet sofort nach, daß die in (5.3) definierte Multiplikation assoziativ und
ein Ring. Wir
kommutativ ist und den Distributivgesetzen gehorcht. Damit ist
nennen ihn den Ring der Polynome mit Koeffizienten in oder kurz den Polynomring über .
Für jedes
läßt sich eine Abbildung
für sonst
erklären, die fast überall verschwindet und somit ein Polynom ist. Offensichtlich ist
dann . Die Abbildung
ist offensichtlich injektiv. Wir können
daher
als Teilmenge von
auffassen, indem
wir und
identifizieren.
Dies wird noch deutlicher, wenn wir
notieren.
5.3.1 Definition Jedes Polynom 138
definiert eine Abbildung
, die wir ebenfalls mit bezeichnen wollen.
5.3. Der Polynomring
Dies sollte nicht zu Verwirrungen mit der Abbildung unterschiedliche Argumente haben. Gilt für ein
Nullstelle oder Wurzel von in .
führen, da beide
, so heißt eine
5.3.2 Bemerkung Fassen wir
vermöge der Einbettung von
in
als Polynom auf, so gilt
für alle
. Daher bezeichnet man
die
auch als konstante Polynome. Offenbar sind die konstanten Polynome
genau die Polynome vom Grad .
5.3.3 Lemma Ist mit Polynom Beweis: Wir erhalten und
ist
eine Wurzel von in
. Insbesondere ist , so gibt
es ein
.
, und wir setzen . Damit
. ist
5.3.4 Satz Ist , und sind alle Wurzeln von
in , so
gibt es ein Polynom , das keine Wurzeln in
hat, und mit
und es ist .
(5.5)
Beweis: Wir führen Induktion nach . Besitzt keine Wurzeln in , so sei
und . Besitzt eine Wurzel , so gilt nach Lemma 5.3.3 und .
Nach
Induktionsvoraussetzung
ist
dann
, wobei
und
alle Wurzeln
von in sind
keine
,
Wurzel
in
besitzt.
Dann
ist
und für ein
sind alle Wurzeln von in . Ist , so ist
, und der Exponent erhöht sich um . Anderenfalls ist
kommt als neuer Faktor
hinzu. Schließlich erhalten wir
, und .
Wir werden in Kürze
ein faktorieller
Ring ist und jedes Po
feststellen, daß
lynom der Form
ein Primelement in
ist. Damit sind die in (5.5)
eindeutig bestimmt. Die Zahl heißt dann die Vielfachheit der Wurzel in .
Ist in (5.5) ein konstantes Polynom, so sagen wir, daß über in Linearfakto
ren zerfällt. Ein Körper , über dem jedes Polynom in Linearfaktoren
zerfällt, heißt algebraisch abgeschlossen. In der Vorlesung über Algebra wird gezeigt, daß jeder Körper einen algebraisch abgeschlossenen Oberkörper besitzt. Ein
Beispiel für einen algebraisch abgeschlossenen Körper ist der Körper der komplexen Zahlen.
139
5. Normalformdarstellungen von Endomorphismen
5.3.5 Korollar Ist , und , so besitzt über höchstens
viele Wurzeln, wobei jede Wurzel in ihrer Vielfachheit gezählt wird. Zerfällt über , so hat genau Wurzeln in .
Beweis: Nach Satz 5.3.4 ist die Anzahl der Wurzeln von in in ihrer Vielfach
. Damit ist diese Anzahl kleiner als heit gezählt und gleich genau dann, wenn ist, d.h. wenn in Linearfaktoren
zerfällt.
5.3.6 Lemma Es ist
.
Beweis: Es folgt aus Definition (5.3), daß das 1-Element in
ist. Aus erhalten wir wegen (5.4) und daher .
Damit sind und konstant und somit in . Da ein Körper ist, folgt aus auch und . Also ist . Die umgekehrte Inklusion gilt aber
wegen
für
trivialerweise.
5.3.7 Satz Der Ring
über einem Körper
und Ring mit ein kommutativer
, wenn und ist.
. Ebenso erhalten
und haben damit die
Eigenschaften (EN.0) – (EN.2) einer euklidischen Norm für nachgeprüft. Es
ein Polynom so finden können, daß
bleibt zu zeigen, daß wir zu ist. Seien also und gegeben. Ist , so setzen
wir und sind fertig. Daher nehmen wir und mit
und an. Sei . Dann ist . Gilt auch , so setzen wir und sind fertig.
Anderenfalls
ist mit
und wir setzen ist euklidisch.
Beweis: Bis jetzt haben wir eingesehen, daß
ist. Aus (5.3) erhalten wir aber auch sofort Wir definieren nun
falls sonst.
Dann gilt wir . Dann ist
. Ist , so
und setzen . Anderenfalls setzen wir das Verfahren fort, definieren usf. Da
die Grade der
Polynome
wir schließlich ein strikt abnehmen, erhalten
mit . Wir setzen
und sind fertig.
haben
wir 140
5.3. Der Polynomring
5.3.8 Satz Der Polynomring
und faktoriell.
über einem Körper
ist ein Hauptidealring
Beweis: Dies folgt mit den Sätzen 5.2.3 und 5.2.4 aus Satz 5.3.7.
5.3.9 Lemma Ein Polynom ist. Jedes Polynom Beweis: Ist
miert.
vom Grad
heißt normiert, wenn
ist zu einem normierten Polynom assoziiert.
, so gilt nach Lemma 5.3.6: und
ist nor-
5.3.10 Lemma Zwei normierte Polynome sind genau dann assoziiert, wenn sie
gleich sind.
Beweis: Sei
Dann gibt es nach Lemma 5.3.6 ein
und damit . Damit folgt
. Die Gegenrichtung ist klar.
mit
für ist
. Dann
.
und damit
5.3.11 Satz Ist
ein Ideal, das nicht das Nullideal ist, so gibt es ein
.
eindeutig bestimmtes normiertes Polynom mit Beweis: Da
ein Hauptidealring und ist, gibt es ein normiertes Poly
. Gilt für ein weiteres normiertes Polynom, so
nom mit folgt
nach (5.1). Nach Lemma 5.3.10 folgt damit .
5.3.12 Definition Die Primelemente in
nennt man irreduzible Polynome. Der
Name rührt daher, daß sich ein irreduzibles Polynom nicht als Produkt von Polynomen kleinerer Grade darstellen läßt. Ist nämlich ein Primelement und ,
so folgt oder
und
und damit entweder oder .
damit 5.3.13 Satz Ist .
irreduzibel, so ist Beweis: Dies folgt sofort aus Satz 5.3.3.
oder hat keine Wurzel in
141
5. Normalformdarstellungen von Endomorphismen
5.3.14 Satz Zu
jedem Polynom gibt es eindeutig
bestimmte irreduzible normierte
Polynome
, natürliche Zahlen größer als und ein
mit
.
Beweis: Da
euklidisch
und damit faktoriell ist, erhalten wir für Primelemente
, die bis auf Assoziiertheit eindeutig bestimmt sind.
Normieren wir diese Polynome, so erhalten wir mit Lemma 5.3.10 die Behauptung.
5.3.15 Bemerkung Jedes Polynom vom Grad ist offensichtlich irreduzibel.
Damit erhalten wir, daß die Darstellung in (5.5) tatsächlich eindeutig ist. Insbe
sondere ist die Vielfachheit einer Wurzel eines Polynoms in wohl
bezeichnen, wobei wir
definiert. Wir wollen sie in dieser Vorlesung mit
im Regelfall den unteren Index
weglassen. Ist
, so gilt nämlich
für alle Oberkörper
von .
Ist ein algebraisch abgeschlossener Körper, so sind die irreduziblen Polynome
genau die Polynome vom Grad 1. Damit sind beispielsweise alle Polynome eines
mit reellen (oder auch komplexen) Koeffizienten über
Grades
reduzibel.
irreduzible
Polynome
des
Grades
Über gibt es jedoch
, z. B.
. Über ist
irreduzibel (obwohl alle Polynome mit Graden größer
sogar das Polynom
als über reduzibel sind).
5.4
Eigenwerte und Eigenvektoren von Endomorphismen
5.4.1 Definition Sei ein Vektorraum über einem Körper . Ein Element
heißt ein Eigenwert eines Endomorphismus End
, wenn es einen Vektor
. Der Vektor heißt dann ein Eigenvektor von in gibt mit zum Eigenwert .
5.4.2 Lemma Sei
Eig ein Unterraum von
Beweis: Klar wegen -Vektorraum,
und End . Dann gilt
Kern id . Somit ist Eig . Er heißt der Eigenraum zum Eigenwert von .
ein
id .
5.4.3 Lemma Sei ein -Vektorraum und End . Ein Element
ist
genau dann ein Eigenwert von , wenn die Abbildung id nicht injektiv ist.
142
5.4. Eigenwerte und Eigenvektoren von Endomorphismen
Beweis:
Nach Definition 5.4.1 ist genau dann ein Eigenwert, wenn Eig Lemma 5.4.2 ist dies aber genau dann
der Fall, wenn der Kern von
ist. Nach
id nicht der Nullraum ist, d.h. wenn id nicht injektiv ist.
5.4.4 Satz Sei
ein endlich dimensionaler Vektorraum über
ist
genau
dann
ein Eigenwert eines Endomorphismus id
ist.
. Ein Element
End
, wenn
Beweis:
Nach Lemma 5.4.3 ist genau dann ein Eigenwert von End
,wenn
endlich dimensional ist, nicht bijektiv
id nicht injektiv und damit, da
ist. Nach Satz 4.3.6 ist dies aber genau dann der Fall, wenn
id ist.
Um einen Eigenwert für einen Endomorphismus zu berechnen, muß man nach
Satz 5.4.4 also die Gleichung
id
(5.6)
für eine Unbestimmte lösen. Man nennt daher (5.6) die charakteristische Gleichung des Endomorphismus . Welche Form diese Gleichung hat, wollen wir näher
untersuchen.
5.4.5 Satz Ist ein -dimensionaler Vektorraum über einem Körper , so sind
die Lösungen der charakteristischen
Gleichung eines Endomorphismus die Wur zeln eines Polynoms in
vom Grad .
Beweis: Wählen wir eine Basis id
von , so gilt nach Lemma 4.3.5
id id (i)
Um die
rechte Seite in (i) darstellen zu können, definieren wir für eine Menge
Wegen der Multilinearität von
id
folgt dann
id
mit
falls
sonst.
(ii)
Setzen wir
143
(iii)
5. Normalformdarstellungen von Endomorphismen
(iv)
so erhalten wir nach Lemma 4.3.5
(v)
nach Satz 4.2.6
und
(vi)
(vii)
als die Spur des Endomorphismus (siehe Bemerkung
Man bezeichnet
5.4.6). Zusammenfassend erhalten wir
id
(viii)
Man nennt das Polynom in (viii) das charakteristische Polynom des Endomorphismus . Wir wollen es mit bezeichnen. Ein Element
ist genau
dann Eigenwert eines Endomorphismus , wenn es Wurzel des charakteristischen
Polynoms ist.
5.4.6 Anmerkung Ist
eine Determinantenfunktion und ein Endomorphismus, so ist die Abbildung
wieder eine Determinantenfunktion. Daher erhalten wir nach Satz 4.2.7 für eine
nichttriviale Determinantenfunktion ein
mit
Ähnlich wie bei der Definition der Determinante eines Endomorphimus zeigt man,
daß unabhängig von der Wahl von ist, und definiert
144
(5.7)
5.5. Diagonalisierung
Man nennt die Spur des Endomorphismus . Es ist leicht zu sehen, daß
End
linear ist und mit etwas mehr Mühe, daß gilt. Aus (5.7) und Satz 4.2.6 folgt, daß für eine Basis ist. Für
(5.8)
erhalten wir aus (5.8)
(5.9)
Man definiert daher die Spur einer
der Hauptdiagonalen.
-Matrix als die Summe der Elemente in
Als Folgerung aus den Sätzen 5.4.5 und 5.3.4 erhalten wir
5.4.7 Korollar Ist ein Endomorphismus eines dimensionalen Vektorraumes
, so besitzt höchstens Eigenwerte.
das charakteristische Polynom in
Zerfällt
, wobei Linearfaktoren, so ist alle verschiedenen Eigenwerte von sind. Der Exponent heißt dann
die alge
braische Vielfachheit
des Eigenwertes . Weiter ist dann
und
.
5.5
Diagonalisierung
5.5.1 Anmerkung Gehen wir nun davon aus, daß wir eine Basis von Eigenvektoren eines Endomorphismus vorliegen haben, wobei ein Eigenvektor zum Eigenwert ist, so erhalten wir für die Matrixdarstellung von "
und damit
(5.10)
..
.
..
.
..
.
..
.
..
.
..
.
(5.11)
In der Darstellung in (5.11) haben wir gleiche Eigenwerte in ihrer algebraischen
Vielfachheit gezählt, d.h. wir fordern nicht, daß alle verschieden sind.
145
5. Normalformdarstellungen von Endomorphismen
Unser Ziel einer Normalformdarstellung eines Endomorphismus ist nach (5.11)
also erreicht, wenn wir eine Basis aus Eigenvektoren des Endomorphismus finden
können. Es geht also nun darum zu untersuchen, unter welchen Bedingungen dies
gelingt.
Eigenvektoren eines Endomorphismus , deren zu5.5.2 Lemma Sind gehörige Eigenwerte paarweise verschieden sind, so ist die Menge linear unabhängig.
Beweis: Sei id
. Allgemein gilt
id
(i)
Durch sukzessive Anwendung von (i) erhalten wir
(ii)
Da wegen der Verschiedenheit der Eigenwerte keiner der Faktoren
schwindet, folgt aus (ii) . Da wir dies für beliebiges .
ten, folgt ver-
erhal-
Nach Lemma 5.5.2 haben wir uns also nur noch um die Eigenvektoren zum gleichen Eigenwert zu kümmern. Zerfällt das charakteristische Polynom eines Endomorphismus und sind alle Eigenwerte verschieden, so erhalten wir Eigenvektoren zu verschiedenen Eigenwerten, die nach Lemma 5.5.2 dann bereits eine Basis
bilden. Bezüglich dieser Basis läßt sich , wie in (5.11) angegeben, durch eine
Diagonalmatrix darstellen.
5.5.3 Lemma Sind morphismus , so gilt
Eig
Eig
paarweise verschiedene Eigenwerte eines Endo-
Beweis: Sei
Eig für Lemma 5.5.2 alle
. Dann sind nach
von verschiedenen Vektoren
linear
unabhängig.
Aus
folgt daher
, denn wären einige der
für von verschieden, erhielten
wir eine nicht triviale Darstellung der aus linear unabhängigen Vektoren, was
unmöglich ist. Damit ist die Summe direkt.
146
5.5. Diagonalisierung
5.5.4 Satz Ist
ein endlich dimensionaler Vektorraum und ist
eines Endomorphismus End
, so gilt
ein Eigenwert
Eig (5.12)
Man nennt
Eig die geometrische Vielfachheit des Eigenwerts .
Beweis: Es sei eine Basis von Eig . Ergänzen wir schon
zu einer Basis von , erhalten wir für
(i)
für und damit
..
..
.
..
.
..
und daher
. Somit ist
id .
..
.
Aus (iv) folgt aber
.
..
.
..
.
(ii)
..
.
..
.
..
.
Aus Satz 4.3.11 und 4.3.17 (iii) folgt nun
..
.
..
.
..
.
..
.
.
..
.
..
.
(iii)
(iv)
5.5.5 Satz Es sei ein endlich dimensionaler Vektorraum über einem Körper
und End
. Dann sind äquivalent:
(i)
Es gibt eine Basis , bezüglich der die Matrix
Diagonalgestalt hat.
(ii) Das charakteristische Polynom zerfällt über in Linearfaktoren,
und es gilt
Eig für jeden Eigenwert
von .
Eig , wobei (iii) Es ist Eigenwerte von sind.
alle paarweise verschiedenen
147
5. Normalformdarstellungen von Endomorphismen
Trifft eine der Eigenschaften auf End
zu, so nennen wir diagonalisierbar
. Dann
Beweis: (i) (ii): Seien die Diagonalelemente in
gilt , d.h. jedes ist ein Eigenwert. Damit hat nach
für Satz 5.4.5 -Wurzeln und zerfällt daher nach Satz 5.3.4 in Linearfak die paarweise verschiedenen Eigenwerte von . Für
toren. Seien
nun definieren wir
Wir behaupten, daß dann
gilt. Ist nämlich
Eig
Eig
(i)
, so gilt , so gilt
für Aus (iii) erhalten wir aber
, d.h. für , und wir erhalten Aus (ii) folgt
Eig
. Nun ist
. Ist umgekehrt
und damit . Damit ist
Eig
und damit
(ii)
(iii)
. Also ist
.
für
(iv)
ist, impliziert (iv) schon
Da nach Lemma 5.5.4 für .
die paarweise verschiedenen Eigenwerte von .
(ii) (iii): Seien Sei
, und es ist
Eig
). Dann gilt
Eig Eig . Damit ist
.
die Basen von Eig (iii) (i): Sind Eig , so ist
eine Basis von aus Eigenvektoren von . Wie wir in 5.5.1
Diagonalgestalt.
gesehen haben, hat dann
Wir wollen noch untersuchen, wann und unter welchen Bedingungen sich zwei
Endomorphismen bezüglich einer Basis simultan durch eine Diagonalmatrix darstellen lassen.
als auch 5.5.6 Satz Sind End
und sind
matrizen, so sind und vertauschbar, d.h. es gilt .
148
Diagonal-
5.6. Algebren
Beweis: Es folgt aus
der Definition der Matrixmultiplikation, daß
Diagonalmatrizen und gilt. Demnach erhalten wir
für
5.5.7 Satz Seien End
eine Basis , so daß sowohl
diagonalisierbar und vertauschbar. Dann gibt es
Diagonalmatrizen sind.
als auch
Eig
. Nun ist jeder der Eigenräume
Beweis: Nach Satz 5.5.5 gilt , denn für
gilt
Eig invariant unter , d.h. es gilt und damit . Um den Satz
zu beweisen, genügt es nach Satz 5.5.5 daher, jeden der Eigenräume
von in
zu zerlegen. Sei daher
eine direkte Summe
von
Eigenräumen
von
Eig
Eig
. Zu erhalten
wir
wegen
Vektoren
Eig mit
. Dann folgt aber und
wegen
der
Eindeutigkeit
der
Summendarstellung
damit , d.h.
. Also ist
und, da paarweise
verschiedene Eigenwerte von sind, nach Lemma 5.5.3 schon
.
Man überlegt sich leicht, daß sich die eben gemachten Überlegungen sofort auf die
simultane Darstellung endlicher Mengen von Endomorphismen übertragen lassen.
Hier hat man paarweise Vertauschbarkeit zu fordern. Für unendliche Mengen wird
die Beweisführung verwickelter.
5.6
Algebren
5.6.1 Definition
Es sei
ein Körper. Eine Menge , und wenn die folgenden Bedingungen erfüllt sind:
(A.1) Mit den Verknüpfungen Menge ein -Vektorraum.
(A.2) Für
und
gilt
und
mit den Verknüpfungen
heißt eine Algebra,
und
ist die
(5.13)
149
5. Normalformdarstellungen von Endomorphismen
Gilt
für alle
, so heißt die Algebra assoziativ.
Bemerkung Es gibt durchaus nicht assoziative Algebren, die in der Mathematik
eine
wichtige Rolle spielen. So spricht man von einer Lie–Algebra, wenn
und
ist. Der Vektorraum
zusammen mit dem
sogenannten Vektorprodukt
ist eine Lie–Algebra.
ein
Jede assoziative Algebra ist mit den Verknüpfungen und mit und ein Ring ist, und (i) von BemerRing. Aus der Tatsache, daß End
kung 3.1.10 folgt, daß End eine assoziative Algebra ist. Für einen -dimensiosind
und End
als Algebren isomorph (s.u). Daher
nalen Vektorraum
ist auch
eine Algebra.
Ebenso überzeugt man sich sofort, daß der Polynomring
eine assoziative Algebra über ist.
das
des Vektorraumes, so erhalten wir wieder
Ist
Nullelement
und analog für alle
.
5.6.2 Definition Unter der Dimension einer Algebra über einem Körper verstehen wir die Dimension des Vektorraumes über .
Wir sagen, daß eine Algebra mit 1-Element ist, wenn es ein Element mit gibt. Wegen ist das 1-Element einer
Algebra eindeutig bestimmt.
Sind und zwei Algebren, so nennen wir einen Homomorphismus der Algebren, wenn ein Homomorphismus der Vektorräume ist und gilt.
für alle
Das Bild und der Kern eines Homomorphismus ist wie bei Vektorräumen
erklärt.
der AlMan überzeugt sich sofort, daß für einen Homomorphismus gebren Im eine Teilalgebra von und Kern eine Teilalgebra von ist.
5.6.3 Definition Wie in einem Ring definieren wir für eine assoziative
Algebra mit
1-Element und
die Potenzen von rekursiv durch
und
. Den durch die Potenzen eines Elementes
aufgespannten Vektorraum
bezeichnen wir mit
. Es ist also
5.6.4 Lemma Sei eine assoziative Algebra über
150
(5.14)
und
. Die Abbildung
5.6. Algebren
(5.15)
ist ein Homomorphismus der Algebren. Man nennt sie den Einsetzungshomomor
phismus. Insbesondere ist Im
und damit
eine Teilalgebra von .
ein Ideal in
.
Weiter ist Kern
Beweis: Man rechnet sofort nach, daß linear ist und gilt.
Damit
ist
ein
Homomorphismus
der
Algebren.
nach Definition des Einsetzungshomomorphismus. Ist
Wir haben Im
Kern
und ,
so
ist
, d.h. Kern
und Kern
gel
ten für alle . Damit liegt ein Ideal vor.
5.6.5 Lemma Sei eine assoziative Algebra mit 1. Ist für
homomorphismus nicht injektiv, so gelten:
(i)
Kern
ist ein vom Nullideal verschiedenes Ideal in
der Einsetzungs.
(ii) Es gibt ein eindeutig bestimmtes normiertes Polynom
mit
Man nennt
Kern
das Minimalpolynom
von .
(iii) Jedes Polynom (iv)
mit .
wird von
geteilt.
Beweis: Nach Lemma 5.6.4 ist Kern
ein Ideal in
. Da nicht injektiv ist,
ist es nicht das Nullideal. Nach Satz 5.3.11 gibt es daher ein eindeutig bestimmtes,
, das Kern
erzeugt. Gilt so ist normiertes Polynom
Kern
. Daraus folgt
. Es bleibt also nur
zu zeigen. Ist
, so folgt
(i)
(ii)
Aus
(ii)
folgt
aber,
daß
sich
jede
Potenz
mit darstellen läßt. Damit ist
als Linearkombination von
(iii)
151
5. Normalformdarstellungen von Endomorphismen
linear abhängig sind, so erhalten wir
Nehmen
wir an,
daß Damit ist
verschwinden.
, wobei nicht alle , ,
woraus
folgt.
Wegen
und
(5.4)
ist
dies
unmöglich.
linear unabhängig und es folgt
Also sind (iv)
Aus (iii) und (iv) erhalten wir aber
.
Fassen wir diese Ergebnisse zusammen, so erhalten wir den folgenden Satz.
5.6.6 Satz Es sei eine assoziative Algebra mit 1 über einem Körper
Element
liegt dann einer der beiden Fälle vor:
(i)
Der Einsetzungshomomorphismus
der Algebren. Dann ist
ist linear unabhängig. In diesem Falle heißt
. Für ein
ist ein Isomorphismus
und die Menge
transzendent über .
(ii) Die Algebra
hat endliche Dimension über . In diesem Fall sind
linear abhängig,
und es gibt ein eindeutig bestimmtes, normiertes
Polynom
vom Grad mit
. In diesem
Fall heißt
und
das Minimalpolynom
algebraisch über
von .
5.6.7 Korollar Ist eine endlich dimensionale Algebra über einem Körper
ist jedes Element
algebraisch über .
5.6.8 Satz Sei eine assoziative Algebra mit 1 über einem Körper
algebraisches Element
sind dann äquivalent:
(i)
(ii)
(iii)
(iv)
, d.h.
. Für ein
ist eine Einheit in .
, d.h.
ist eine Einheit von
.
ist keine Wurzel des Minimalpolynoms von .
ist kein Nullteiler von
Beweis: (i) .
(ii): Wir definieren die Menge
Man rechnet sofort nach, daß
ren eine Abbildung
152
, so
(i)
eine
Teilalgebra von durch
ist,
und wir definie. Durch Nachrech-
5.7. Die Minimalzerlegung eines algebraischen Elements
nen verifizieren wir, daß ein Homomorphismus der Vektorräume
ist. Nach De
finition ist surjektiv. Wir erhalten die Elemente in
als Bilder
des Einset
zungshomomorphismus
angewandt
auf
Polynome
der
Form
. Ist daher
, so folgt auch
. Da
. Da
ein Teilraum
mit ist injektiv, und es folgt
und folglich
von
ist,
folgt
demnach
.
Damit
ist
. Damit ist eine Einheit in
.
(ii) (iii): Ist eine
von
, so ist für ein Einheit
. Sei . Dann ist und damit das
Minimalpolynom
von ein Teiler von . Wegen folgt
.
dann aber
(iii) (iv): Da genau
dann eine Wurzel des Minimalpolynoms ist, wenn
ein Teiler von
ist und nach Voraussetzung
keine Wurzel
des Mi
nimalpolynoms
von ist, sind
und teilerfremd in
. Sei mit
.
Dann
ist
und
daher
ein Tei
ler von . Nach Satz 5.1.15 folgt daher
. Damit folgt aber
.
(iv) (i):
Da
kein
Nullteiler
in
ist, ist die Multiplikation von links
injektiv und nach Satz 2.3.9 auch bijektiv. Damit
existiert ein Urbild
der
,
d.h.,
es gibt ein
mit
. Also ist eine
auch schon in .
Einheit in
und da
5.6.9 Korollar Ist ein assoziative
Algebra
mit über einem Körper
für jede Einheit
.
schon
, so gilt
, so folgt nach Satz 5.6.8 . Also ist auch
und damit
. Die Gegenrichtung erhal ten wir in analoger Weise, wenn wir von ausgehen.
Beweis: Ist 5.7
Die Minimalzerlegung eines algebraischen Elements
5.7.1 Lemma Ein Element
wenn es ein
gibt mit
.
einer assoziativen
Algebra . Ist
heißt nilpotent,
, so ist
Beweis: Es ist
und
ein normiertes Polynom.
Es genügt daher zu zei
gen, daß das Minimalpolynom
von
den Grad
haben muß. Nach Lemma
5.6.5
genügt es dazu,
zu zeigen. Wir behaupten, daß 153
5. Normalformdarstellungen von Endomorphismen
linear unabhängig sind. Ist nämlich
, so
erhalten wir durch Multi
plikation mit zunächst
. Durch Multipli
und somit
kation mit
folgt daraus und durch Iteration schließlich
.
5.7.2 Satz Ist eine assoziative und kommutative Algebra über einem Körper
so ist die Menge der nilpotenten Elemente von ein Ideal in .
Beweis: Sind
und
nilpotent in , so gibt es sowie
mit
. Dann folgt
5.7.3 Definition Sei eine assoziative Algebra mit 1 über einem Körper
Element
heißt split über , wenn
(i)
algebraisch über
. Ein
ist
und
(ii) das Minimalpolynom
Hat das Minimalpolynom von
einfaches Element von .
,
von
über
in Linearfaktoren zerfällt.
nur einfache Wurzeln, so nennen wir
ein halb-
Gilt
für ein von verschiedenes Element der Algebra , so nennen wir
idempotent.
einer assoziativen Algebra mit 1
Endlich viele idempotente Elemente heißen ein vollständiges Orthogonalsystem wenn gilt:
(i)
(ii)
.
für
.
ein vollständiges Orthogonalsystem, so ist die Menge
Ist denn aus erhalten wir durch Mul linear unabhängig,
tiplikation mit für sofort
.
Beachte
5.7.4 Satz (Minimalzerlegung eines algebraischen Elements) Sei eine assozia tive Algebra mit 1 über einem Körper . Ist
split über und sind 154
5.7. Die Minimalzerlegung eines algebraischen Elements
die verschiedenen Wurzeln des
Minimalpolynoms
von , so gibt es ein vollständi-
ges Orthogonalsystem
und ein nilpotentes Element
mit
(5.16)
Das Element
ist genau dann halbeinfach, wenn der nilpotente Anteil
verschwindet. Für halbeinfaches gilt
Beweis: Da
(5.17)
für jedes Polynom split über
Setzen wir
und
.
ist, gilt für das Minimalpolynom von
(i)
(ii)
(iii)
so erhalten wir sofort
für
für
(iv)
(v)
und
und
sind teilerfremd für
(vi)
sind paarweise verschieden. Da
denn die Körperelemente Hauptidealring
ist,
erhalten
wir
aus
(vi)
nach
Satz
5.1.14
Elemente
mit
ein
(vii)
Sei nun
155
5. Normalformdarstellungen von Endomorphismen
und
(viii)
(ix)
Wir
zeigen, daß ein vollständiges Orthogonalsystem bilden und
wollen
nilpotent ist.
,
Nach (vii) gilt und aus (iv) folgt daher
(x)
Damit ist
und somit
für (xi)
für
Aus (v) folgt
und damit
für
für
(xii)
(xiii)
für , denn für nach Konstruktion und
nach (vii). Da die paarweise
teilerfremd sind, erhalten
wir nach Bemerkung 5.1.18 wegen
(xiv)
Setzen wir Aus (xiv) folgt nun , so erhalten wir
und damit
(xv)
ein vollständiges Orthogonalsystem
Aus (xi), (xiii) und (xv) folgt, daß bilden.
nilpotent ist, untersuchen wir das Polynom
Um nachzuweisen,
daß .
Wegen
für
und
folgt, daß für
ist.
Also
ist
jedes
eine
Wurzel
von
.
Damit
ist
durch
folgt damit
für teilbar, und für 156
5.7. Die Minimalzerlegung eines algebraischen Elements
Für
und
(xvi)
erhalten wir daher
(xvii)
(xviii)
Es bleibt also nur noch die Aussage
über die halbeinfachen Elemente zu zeigen. Ist
halbeinfach, so hat
nur einfache Wurzeln. Damit ist und damit
nach (xvii) schon , d.h. der nilpotente Anteil verschwindet. Ist umgekehrt
, so erhalten wir aus (xviii), (xiii) und (xi)
für (xix)
Aus (xix) folgt aber für jedes wegen "
(xx)
in (xx), so ist und
und,da beide Polynome normiert
. Damit
nur einfache Wurhat
Wählen wir . Damit haben
wir
sind, schließlich zeln, d.h. ist halbeinfach.
Die Zerlegung
mit für ein vollständiges
Orthogonal
system
und ein nilpotentes
nennt man die Minimal
zerlegung von . Dabei heißt der halbeinfache Anteil und der nilpotente Anteil
des Elementes . Man beachte, daß die Algebra
als homomorphes Bild der
kommutativ ist. Da und beide in
liegen, gilt
kommutativen Algebra
. Das heißt und sind vertauschbar. Ebenso sind und und und
vertauschbar.
Aus der Tatsache, daß die Koeffizienten des halbeinfachen Anteils genau die Wurzeln des Minimalpolynoms sind, und Satz 5.6.8 erhalten wir den folgenden Satz.
157
5. Normalformdarstellungen von Endomorphismen
mit der Minimalzerlegung
5.7.5 Satz Ein Element
genau dann invertierbar, wenn alle ungleich Null sind.
158
ist
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
5.8
Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
Wir wollen nun die abstrakt gewonnenen Ergebnisse des Abschnittes 5.7 auf die
Algebra der Endomorphismen anwenden. Wir haben bereits eingesehen, daß End
für einen -dimensionalen -Vektorraum eine assoziative Algebra mit der Diüber
ist. Wir wollen, um Verwechslungen mit Polynomen zu vermension
meiden, im folgenden die Elemente von End
mit großen lateinischen Buchstaben bezeichnen.
5.8.1 Satz Ist ein endlich dimensionaler -Vektorraum und End
, so
stimmen die in liegenden Wurzeln des Minimalpolynoms von mit den Eigenwerten von überein.
Beweis: Sei ein Eigenwert von und ein Eigenvektor zum Eigenwert . Dann
gilt .
und damit für jedes Polynom Insbesondere erhalten wir
und damit
.
Ist eine Wurzel des Minimalpolynoms, so gilt
.
Damit folgt
(i)
Da aus schon
folgen müßte, was aber wegen
unmöglich ist, haben wir . Damit gibt es
ein
mit , und wir erhalten aus (i) .
id
Damit ist
ein Eigenwert von .
5.8.2 Korollar Die Wurzeln des Minimalpolynoms und des charakteristischen Polynoms eines Endomorphismus stimmen bis auf Vielfachheiten überein. Insbesondere ist ein Endomorphismus genau dann split über dem Grundkörper, wenn alle
Wurzeln des charakteristischen Polynoms im Grundkörper liegen.
Ist nun End
ein Endomorphismus, dessen Eigenwerte alle im Grundkörper von
liegen, so ist split über , und nach Satz 5.7.4 erhalten wir eine
Minimalzerlegung von in der Form
"
(5.18)
alle verschiedenen Eigenwerte von sind, ein vollwobei ständiges Orthogonalsystem bilden und
nilpotent ist. Weiter wissen wir, daß
159
5. Normalformdarstellungen von Endomorphismen
liegen und daher insbesondere vertauschbar sind. Unser
alle und in
nächstes Ziel muß daher darin bestehen zu klären, welche geometrische Bedeutung
vollständige Orthogonalsysteme und nilpotente Endomorphismen haben.
5.8.3 Lemma Sind und
ist, so haben und Eigenwerte.
Beweis: Sei
vertauschbare Endomorphismen, wobei nilpotent
die (möglicherweise bis auf Vielfachheiten) gleichen
ein Eigenwert von id
. Für einen Eigenvektor
und damit
zu
gilt dann
(i)
Es ist
für eine natürliche Zahl . Aus der
Vertauschbarkeit
von
und folgt aber sofort auch die Vertauschbarkeit von
id
mit allen Potenzen von . Damit erhalten wir aus (i)
id und erhalten damit als einen Eigenvektor zum Eigenwert id
(ii)
von . Somit
auch
ein
Eigenwert
von
.
Setzen
wir
ist jeder Eigenwert
von
und
, so bleibt
nilpotent und und
vertauschbar. Damit ist, wie
wir gerade gezeigt haben, jeder Eigenwert von auch ein Eigenwert
von .
5.8.4 Satz Ist ein endlich dimensionaler -Vektorraum und ein vollständiges Orthogonalsystem in End
, so ist
End
mit
. Somit
Beweis: Wegen erhalten wir . Also ist Für erhalten wir für ein
. Dann ist für folgt , und die Summe ist direkt.
Wir haben jedoch auch eine Art Umkehrung von Satz 5.8.4.
für einen endlich dimensionalen Vektorraum
5.8.5 Satz Gilt , so bilden die Projektionen mit ein
vollständiges Orthogonalsystem in End
.
Beweis: Nach Definition gilt . Für
und damit 160
id .
ist
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
Fassen wir die Sätze 5.8.4 und 5.8.5 zusammen, so erhalten wir den folgenden
Satz.
5.8.6 Satz Es sei ein endlich dimensionaler Vektorraum. Zwischen der Zerlegung von in direkte Summen von Teilräumen und den vollständigen Orthogonalsystemen in End
besteht eine bijektive Zuordnung.
Wir müssen uns nun näher mit den nilpotenten Elementen befassen. Für einen EnEnd
und
definieren wir
domorphismus und
(5.19)
(5.20)
In beiden Fällen handelt es sich um partielle Funktionen, die nicht für jedes Paar
bzw. für jedes definiert sein müssen.
5.8.7 Lemma Sei
ein endlich dimensionaler Vektorraum und End
.
Gibt es ein von Null verschiedenes
, so daß definiert ist, so ist
ein
Teilraum
der
Dimension
von und
ist eine Basis von . Man nennt dann einen bezüglich
zyklischen Unterraum von .
Beweis: Da
!
ein Erzeugendensystem ist, genügt
es zu zeigen, daß
linear unabhängig
. Dann
sind. Sei dazu . Aus erhalten wir zunächst .
folgt
und damit Damit folgt
. Durch Iteration erhalten wir somit
5.8.8 Lemma Ist ein
End
zyklischer Unterraum von
bezüglich
für alle
.
, so gilt Beweis: Sei
so gewählt,
daß
von bilden. Für .
und folgt dann .
mit
eine
Basis
Das folgende Korollar ist eine unmittelbare Folgerung aus Lemma 5.8.8.
5.8.9 Korollar Ist ein zyklischer Raum bezüglich , so ist sem Falle heißt der Endomorphismus nilzyklisch.
nilpotent. In die-
161
5. Normalformdarstellungen von Endomorphismen
5.8.10 Satz Es sei ein endlich dimensionaler
-Vektorraum und nilpotent. Dann gibt es Teilräume
von mit
End
Jeder Raum ist
zyklisch bezüglich und -invariant, d.h. es gilt .
für (ii) (i)
Beweis: Ist , so wählen
wir eine Basis von und setzen und
für . Sei also . Wir beweisen den Satz durch
Induktion nach .
, so ist selbst zyklisch bezüglich und -invariant.
Ist
. Dann
und Sei also
gibt es ein
mit ein
bezüglich
zyklischer
, und nach Lemma 5.8.7 ist
. Da Teilraum der Dimension eine Basis von bilden, ist
auch -abgeschlossen. Ist nun , so sind wir fertig. Anderenfalls erhalten
wegen
wir
Die Zuordnung
(i)
(ii)
ist wohldefiniert. Ist nämlich
, so ist für ein
und
wir erhalten , denn wegen der -Abgeschlossenheit von
ist . Damit
, und aus der Definition von folgt,
haben wir eine Abbildung daß das Diagramm
Damit ist nilpotent auf
162
(iii)
, und wir erhalten nach Induktionsvoraussetzung
wobei jeder der Räume
zyklisch bezüglich wir , so erhalten wir aus (i)
kommutiert. Weiter ist
(iv)
und -abgeschlossen ist. Setzen
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
(v)
Da jeder der Räume
ist, gibt es ein
, so daß
zyklisch bezüglich
und eine Basis von
ist.
Da
der ka
eine Surjektion ist, finden wir zu jedem ein Urbild
nonische Epimorphismus
. Bei der Wahl von haben wir einige Freiheit. Wir wollen so wählen,
daß
(vi)
ist. Um einzusehen, daß dies geht, benötigen wir die folgende Aussage
(vii)
Bevor wir (vii) beweisen, überlegen wir
daß (vi) mit (vii) zu bewerkstelligen
uns,
ist
für jedes Urbild
von .
ist. Wegen
Ist , so sind wir fertig.
Anderenfalls
ist
und
nach
mit . Wegen
ist dann
(vii)
finden wir ein
.
Nun zum Beweis von (vii).
Da
ist
. Damit
erhalten wir . Da
Da die linear unabhängig sind, folgt
daraus
mit ist . Setzen wir nun
und
, so ist und
.
Sei nun
(viii)
Dann enthält nach (v) genau Vektoren.
Wir
zeigen, daß eine
linear un-
abhängige Menge ist. Sei dazu Dann ist
. Aus (iv) folgt,
der Summan
daß jeder
den in
verschwindet
und,
da
linear
unabhängig sind, daß
für und verschwinden.
alle
. Also ist
Damit ist auch und damit auch
linear unabhängig und damit eine Basis von . Setzen wir nun
so ist jeder der Räume
Basis von ist, folgt
(ix)
-abgeschlossen und zyklisch bezüglich . Da eine
163
5. Normalformdarstellungen von Endomorphismen
und der Satz ist bewiesen.
endlich
Ist nun ein nilzyklischer Endomorphismus eines
dimensionalen
-Vek
torraumes und ist eine zyklische
, daß
Basis von , so erhalten wir aus und damit
..
.
..
.
..
.
..
..
.
..
.
.
..
.
..
.
..
.
..
.
(5.21)
ist. Wir nennen daher Matrizen, die die in (5.21) dargestellte Gestalt haben, nilzyklisch.
Ist nun End
ein nilpotenter Endomorphismus und zerlegen wir
gemäß Satz 5.8.10, so ist , d.h. die Abbildung ,
nilzyklisch auf jedem der . Stellen wir bezüglich der im Beweis des Satzes
konstruierten Basis dar, so erhalten wir als Korollar zu Satz 5.8.10:
5.8.11 Korollar Ist
ein endlich dimensionaler Vektorraum und nilpotent, so gibt es eine Basis mit
..
.
..
.
..
.
..
.
..
.
..
.
End
, nilzyklisch sind.
nilpotent, wenn die dazugehörige Abbildung
Wir nennen eine Matrix
ist. Das ist äquivalent zu der Forderung, daß es ein mit
nilpotent
zu der in Satzgibt5.8.10
. Da der Übergang von der kanonischen Basis des
konstruierten Basis durch eine Transformationsmatrix aus GL beschrieben
wobei alle Matrizen
,
wird, können wir Korollar 5.8.11 wie folgt umformulieren.
5.8.12 Satz Ist
Matrix
GL
164
eine nilpotente Matrix, so gibt es eine umkehrbare
, so daß
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
..
.
..
.
..
.
ist, wobei alle Matrizen
Ist nun
"
..
.
..
.
..
.
nilzyklisch sind.
(5.22)
die Minimalzerlegung eines Endomorphismus Dann folgt aber
denn zu
id
für
mit
mit
gibt es ein
und
und damit
, so ist nach Satz 5.8.4
(5.23)
für
.
..
.
..
.
..
.
(5.24)
(5.25)
(5.26)
und jede Basis von .
für Ist nun ein halbeinfacher Endomorphismus, so folgt aus (5.26), daß lisierbar ist. Sei umgekehrt diagonalisierbar und
, und damit ist " und für Als Folgerung von (5.24) erhalten wir mit
End
..
.
..
.
diagona-
..
.
(5.27)
die verschiedenen Eigenwerte von und
wobei die dazugehörigen
Dimensionen der Eigenräume sind. Bezeichnen
mit die
die aus der
durch
und alle
wir
Matrix,
Matrix in (5.27) entsteht, indem man
übrigen
Kästchen durch Nullmatrizen ersetzt, so rechnet man leicht nach, daß die Endomorphismen
165
5. Normalformdarstellungen von Endomorphismen
ein Orthogonalsystem bilden und
ist. Nach Satz 5.7.4 ist dann halbeinfach. Damit haben wir den folgenden Satz.
5.8.13 Satz Sei
ein endlich dimensionaler Vektorraum über einem Körper
und End
ein Endomorphismus, der split über ist mit Minimalzerlegung
. Dann sind äquivalent:
(1) ist diagonalisierbar.
(2) ist halbeinfach, d.h. das Minimalpolynom von besitzt nur einfache Wurzeln.
(3) Der nilpotente Anteil in der Minimalzerlegung von verschwindet.
(4) Der Vektorraum
(5) Es gilt Eig
(6) Es ist
besitzt eine Basis aus Eigenvektoren von .
Eig für .
.
Beweis: Wir haben uns gerade überlegt, daß (1) und (3) äquivalent sind. Die Äquivalenz von (2) und (3) ist in Satz 5.7.4 gezeigt worden. Die Äquivalenz von (1)
zu (4) folgt aus Satz 5.5.5. Wir zeigen die Äquivalenz von (5) zu (1). Gilt (5), so
erhalten wir mit Satz 5.8.4, daß die direkte Summe der Eigenräume von zu
dessen verschiedenen Eigenwerten ist. Nach Satz 5.5.5 ist dann diagonalisierbar.
Ist umgekehrt diagonalisierbar, so ist nach (3) . Wir zeigen
Eig
(i)
Für
gilt nach (5.24). Damit
haben wir die Inklusion von rechts nach links in (i). Nach Satz 5.8.4 ist
. Für
Eig
erhalten wir
Damit ist
.
. Also haben wir
für (ii)
und folglich
Kehren wir zum allgemeinen
Fall zurück. Da die Endomorphismen und
liegen, sind sie vertauschbar. Als Konsequenz davon sind alle
von (5.22) in
Teilräume
in (5.23) -invariant. Aus
erhalten wir nämlich wieder 166
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
für ein
und damit
. Da
die nilpotenten
Endomorphismen nach Satz 5.7.2 in der kommutativen Teilalgebra
ein Ideal bilden, sind die Endomorphismen
(5.28)
wieder nilpotent. Weiter gilt
und
denn für
für
"
(5.31)
..
.
(5.30)
(5.29)
gilt.
Wählen wir nun Basen von , und wir erhalten
! . Damit folgt für
für verschwindet, jeder Teilraum
somit
ist
, daß auf
-invariant ist und nach (5.22)
..
.
..
.
..
.
..
.
von
, so ist eine Basis
(5.32)
mit
, wobei die
nilpotente Matrizen sind.
Da die Endomorphismen
nilpotent sind, können wir jeden der Teilräume
gemäß Satz 5.8.10 in eine direkte Summe von Unterräumen
mit
zerlegen, und bezüglich der zyklischen Basen dieser Zerlegung
erhalten wir nach Korollar 5.8.11 eine Darstellung
..
.
..
.
..
.
..
.
..
.
..
.
(5.33)
in der die
alle nilzyklische Matrizen (vgl. (5.21)) sind. Beachten wir noch
die Tatsache, daß nach Korollar 5.8.2 ein Endomorphismus genau dann split über
ist, wenn alle seine verschiedenen Eigenwerte in
liegen, so haben wir den
167
5. Normalformdarstellungen von Endomorphismen
folgenden Satz bewiesen.
5.8.14 Satz (Jordansche Normalform eines Endomorphismus) Sei ein endlich
dimensionaler Vektorraum über einem Körper
und ein Endomorphismus von
alle in liegen. Dann gibt es eine
, dessen verschiedene Eigenwerte Basis von derart, daß
ist, wobei
..
.
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
..
.
und alle
nilzyklische Matrizen sind.
5.8.15
Korollar (Jordansche Normalform einer quadratischen Matrix) Ist
eine quadratische Matrix, deren charakteristisches Polynom über in Linearfaktoren zerfällt, so gibt es eine invertierbare Matrix
GL
mit
wobei
und alle
168
..
.
..
.
..
..
.
..
.
..
.
..
.
.
..
.
..
.
..
.
..
.
nilzyklische Matrizen sind.
5.8. Die Algebra der Endomorphismen eines endlich dimensionalen Vektorraumes
Beweis: Wir wenden Satz 5.8.14 auf den Endomorphismus an. Da die Wurzeln
des Minimalpolynoms mit denen des charakteristischen Polynoms
(bis auf Viel
fachheiten) übereinstimmen, ist split über . Dann hat bezüglich der nach
Satz 5.8.13 existierenden Basis die behauptete Darstellung. Definieren wir
, so folgt die Behauptung mit Satz 3.3.13. als die Transformationsmatrix
5.8.16 Korollar Hat End
bzw.
die in Satz 5.8.14
oder Korol
lar 5.8.15 dargestellte
Jordan-Normalform,
so
ist
bzw. .
Beweis: Kürzen wir mit die Jordan-Normalform ab, so gilt bzw. . Nach 4.3.17 (ii) erhalten wir daraus die
Behauptung.
Für ein halbeinfaches End
erhalten wir nach Satz 5.7.4 , da die Eigenwerte alle Wurzeln des charakteristischen Polynoms sind. Wir wollen dies auf Endomorphismen verallgemeinern, die
split sind.
5.8.17 Satz (Hamilton–Cayley) Ist ein endlich dimensionaler Vektorraum über
End
in
einem Körper und liegen alle Eigenwerte des Endomorphismus , so gilt . Insbesondere teilt das Minimalpolynom von stets
dessen charakteristisches Polynom.
Beweis: Nach Korollar 5.8.16
gilt . Damit ist nach
id
id (5.31) .
mit
Für
erhalten wir .
Also
ist
mit
(5.24) und (5.30)
id
.
invariant unter
ist, folgt
und
wegen
Da
id
id
. Damit ist
schließlich
Kern id und folglich Kern ,
id id d.h. . Aus Lemma 5.6.5 (iii) folgt nun, daß von
geteilt wird.
In der Sprache der Matrizen lautet der Satz von Hamilton–Cayley wie folgt.
5.8.18 Satz Ist
eine quadratische Matrix deren Eigenwerte alle in
liegen, so gilt . Insbesondere
ist das Minimalpolynom von ein
Teiler des charakteristischen Polynoms von .
169
5. Normalformdarstellungen von Endomorphismen
170
6. Euklidische und unitäre Vektorräume
6.1
Bilinearformen
6.1.1 Definition Seien und Vektorräume
über einem gemeinsamen Grundkör
per . Eine Abbildung heißt eine Bilinearform, wenn in beiden Argumenten linear ist, d.h. wenn
und
gelten. Wir definieren den linken und rechten Bilinearkern einer Bilinearform als
die Mengen
Bkern und
Bkern 6.1.2 Lemma Ist Teilraum von und Bkern eine Bilinearform, so ist Bkern ein Teilraum von .
ein
Beweis: Klar.
der Linear
, so notieren wir
6.1.3 Lemma Seien und
-Vektorräume. Die Menge BL
formen auf
bildet mit den Verknüpfungen und
einen -Vektorraum. Ist BL
als BL
.
Beweis: Klar durch Nachrechnen.
171
6. Euklidische und unitäre Vektorräume
6.1.4 Definition Eine Bilinearform heißt
symmetrisch, wenn
und
alternierend oder antisymmetrisch , wenn
gilt.
Für symmetrische und alternierende Bilinearformen stimmen die rechten und linken Bilinearkerne überein. Wir notieren beide daher als
Bkern Ein symmetrische oder alternierende Bilinearform heißt nicht ausgeartet, wenn
Bkern ist. Wenn wir von einer nicht ausgearteten Bilinearform sprechen, antizipieren wir immer, daß entweder symmetrisch oder alternierend ist.
6.1.5 Bemerkung Ist erhalten wir eine Abbildung , und wegen ist die Abbildung
torräume und .
eine Bilinearform
und , so
durch . Dann ist
ein Homomorphismus der Vek-
6.1.6 Satz
Ist eine nicht ausgeartete Bilinearform auf , so ist die Abbildung
ein Monomorphismus der Vektorräume. Ist endlich dimensional, so ist ein Isomorphismus.
Beweis: Es gilt
Damit ist
Kern Bkern Bkern und damit injektiv. Ist
Ist nicht ausgeartet, so ist Bkern endlich, so ist
, und nach Satz 2.3.9 ist somit bijektiv.
(6.1)
6.1.7 Satz Sei ein endlich dimensionaler -Vektorraum, eine nicht ausgeartete Bilinearform auf und End
. Dann gibt es einen Endomorphismus
End
mit für alle
.
172
6.1. Bilinearformen
Beweis: Definieren wir
, so ist
linear, d.h.
.
Nach Satz 6.1.6 gibt es daher ein eindeutig
bestimmtes
mit . Wir
definieren , d.h. . Damit folgt
und, da End
.
bijektiv ist, damit . Also ist Man nennt den Endomorphismus den bezüglich zu adjungierten Endomorphismus. Gilt , so nennt man bezüglich selbstadjungiert.
6.1.8 Bemerkung Die adjungierte und die duale Abbildung sind eng mitein
ander verknüpft.
Wir
erhalten
nämlich
, d.h. und damit
(6.2)
, so folgt und wegen der
, d.h. .
Bijektivität von daher 6.1.9 Satz Sei ein endlich dimensionaler -Vektorraum
und eine nicht ausgeartete Bilinearform auf . Die Abbildung End End ist dann ein
Gilt Isomorphismus der Vektorräume und ein involutorischer Antiisomorphismus der
Ringe.
Beweis: Wir zeigen zunächst, daß
und damit , d.h.
ist linear. Nun gilt
Bkern eine lineare Abbildung ist. Wir erhalten
Da nicht ausgeartet ist, folgt für alle
und damit . Damit ist injektiv und als Endomorphismus des endlich dimensionalen Vektorraumes End
damit auch bijektiv. Es bleibt nur noch zu zeigen, daß ein involutorischer Antihomomorphismus der Ringe vorliegt. Dies rechnen wir einfach nach.
173
6. Euklidische und unitäre Vektorräume
Zunächst ist . Also folgt und es liegt ein Antihomomorphismus vor. Aus der
Symmetrie von erhalten wir weiter für alle
,
. Da nicht ausgeartet ist, folgt und ist involutorisch. Ist alternierend, so führen wir die gleiche
d.h. Rechnung durch, wobei wir beim Vertauschen der Argumente jedes Mal das Vorzeichen zu wechseln haben. Da wir die Argumente genau zweimal vertauschen,
ändert dies am Ergebnis der Rechnung nichts.
6.1.10 Satz Sei ein endlich dimensionaler Vektorraum und eine nicht
ausgearEnd
tete Bilinearform auf . Dann gibt es einen Isomorphismus BL
für alle
mit
BL
,
d.h.
daß
sich
jede
Bilinearform
für ein auf in der Form
End
darstellen läßt.
eine Funktion,
so bezeichnen wir mit Beweis: Ist die Funktion, die sich aus ergibt, wenn wir nur das Argument
BL als
variabel betrachten
und
die
übrigen
konstant
lassen.
Für
und
ist dann eine Linearform. Nach Satz 6.1.6 gibt es daher ein . Wir rechnen nach, daß die Abbildung
mit linear
ist. Es ist . Nun definie und damit ren wir . Damit ist End , und es gilt daß
ein
Homomorphismus
ist.
Dazu
be . Wir haben nachzuprüfen,
rechnen wir .
und damit ein Homomorphismus,
Also ist "
gilt. Ist , so
für den ist und damit für alle
. Das bedeutet aber, daß ist. Also ist Kern und injektiv. Umgekehrt gilt
BL und für jedes End . Damit ist auch surjektiv, und wir haben einen Isomorphismus der Vektorräume vorliegen.
6.1.11 Lemma Ist eine nicht ausgeartete, symmertische Bilinearform und bezeichnet BL
End
den in Satz 6.1.10 definierten Isomorphismus, so
ist
(i)
und
174
die Bilinearform
adjungiert ist
genau dann symmetrisch, wenn bezüglich selbst-
6.1. Bilinearformen
Kern GL ist.
(ii) Bkern
und damit ist
genau dann nicht ausgeartet, wenn
symmetrisch, so folgt und damit , d.h. . Ist umgekehrt ,
ist selbstadjungiert
bezüglich
selbstadjungiert
bezüglich
so folgt
, und ist symmetrisch.
(ii): Da als nicht ausgeartet vorausgesetzt ist, gilt
Beweis: (i): Ist
Bkern Kern Also ist Bkern Kern , und der Rest ist klar.
6.1.12 Definition Für eine Bilinearform BL und eine Basis Bkern
definieren wir die Matrixdarstellung von bezüglich durch
. Dann ist die Abbildung
6.1.13 Satz Sei
-Vektorraum mit
ein
BL ein Isomorphismus der Vektorräume. Für gilt
(6.3)
Beweis: Zunächst berechnen wir
Damit liegt ein Homomorphismus vor. Für erhalten wir
und ..
.
..
.
Damit haben wir (6.3) gezeigt. Ist
, so erhalten wir mit (6.3) aber auch
für alle
und damit . Also ist
injektiv und, da
175
6. Euklidische und unitäre Vektorräume
nach Satz 6.1.10
bijektiv.
BL End ist, auch
6.1.14 Korollar Eine Bilinearform ist genau dann symmetrisch, wenn
ist. Eine symmetrische Bilinearform ist genau dann nicht ausgeartet,
wenn
invertierbar ist.
Beweis: Die erste Behauptung erhalten wir direkt
aus (6.3). Für die zweite Be
ist.
hauptung lesen wir aus (6.3) ab, daß Bkern Damit ist genau dann nicht ausgeartet, wenn Kern
ist, und
invertierbar
bijektiv und damit
dies ist genau dann der Fall, wenn
ist.
Wir nennen Matrizen
, für die gilt, symmetrisch.
6.1.15 Satz Sei ein endlich dimensionaler -Vektorraum und eine nicht aus
geartete
Bilinearform auf . Ist eine Basis von und die dazu duale Basis von , so gilt
(6.4)
Beweis:
erhalten wir aus Sei
sofort . Dann
!
und damit
.
Kombinieren wir (6.2) und das Diagramm in Satz 3.3.6, so erhalten wir die Kommutativität des Diagramms in Abbildung 6.1. Diesem Diagramm entnehmen wir
nun sofort
Daraus erhalten wir zusammen mit Satz 6.1.15
Wir haben also den folgenden Satz bewiesen.
6.1.16 Satz Sei ein endlich dimensionaler Vektorraum und eine nicht ausgeartete Bilinearform auf . Dann gilt
für jeden Endomorphismus 176
End .
6.2. Positiv definite Bilinearformen
Abbildung 6.1: Zusammenhang zwischen adjungierter und dualer Abbildung
Zum Ende dieses Abschnittes untersuchen wir noch das Transformationsverhalten
der darstellenden Matrix einer nicht ausgearteten Bilinearform bei Basiswechsel.
6.1.17 Satz Es sei ein endlich dimensionaler Vektorraum und eine nicht aus
geartete Bilinearform auf . Sind und Basen von , so gilt
.
für jede Basis . Damit erhalten wir
(i)
id !
id !
id .
Es ist
Beweis: Nach (6.4) ist
mit dem Transformationssatz (Satz 3.3.13)
Setzen wir dies in (i) ein, so folgt die Behauptung.
6.2
Positiv definite Bilinearformen
6.2.1 Definition Sei ein Vektorraum über dem Körper der reellen Zahlen. Wir
nennen in Zukunft solche
Räume reelle Vektorräume . Eine symmetrische Biline
heißt
arform gilt,
positiv semi-definit, wenn positiv definit, wenn
gilt,
177
6. Euklidische und unitäre Vektorräume
negativ definit, wenn
indefinit, wenn
gilt,
gilt.
Die Abbildung
heißt die von der symmetrischen Bilinearform induzierte quadratische Form.
6.2.2 Satz Sei ein reeller Vektorraum. Jede positiv definite Bilinearform auf
ist nicht ausgeartet.
Beweis: Ist positiv definit und
Bkern , so folgt
und damit insbesondere
. Daraus ergibt sich aber
, d.h. ist nicht ausgeartet.
Bkern , und es ist
6.2.3 Satz Es sei ein reeller Vektorraum und eine positiv semi-definite Bilinearform auf . Dann gilt die Cauchy-Schwarzsche Ungleichung
(6.5)
Für positiv definite Bilinearformen steht in Gleichung (6.5) genau dann das
Gleichheitszeichen, wenn und linear abhängig sind.
Beweis: Für
erhalten wir
(i)
für
Ist , so wählen wir und erhalten möglich ist. Ist , was nur für , so wählen wir
und teilen Ungleichung (i) durch . Das ergibt
(ii)
Nun wählen wir in (ii) und erhalten
(iii)
d.h. .
Sind
und
linear
abhängig,
so
ist
für
ein
,
und
es
folgt
. Sind und linear unabhängig und ist positiv
definit, so steht für in (i) das -Zeichen. Dann ist aber auch ,
womit folgt, daß auch in (iii) das -Zeichen steht. Damit folgt aber .
alle
178
6.2. Positiv definite Bilinearformen
6.2.4 Definition Sei ein reeller Vektorraum. Eine Abbildung heißt
eine Normfunktion oder kurz eine Norm auf , wenn sie den folgenden Bedingungen genügt:
(No.0) ,
(No.1)
(No.2)
(No.3)
,
,
.
Ein reeller Vektorraum, auf dem sich eine Norm definieren läßt, heißt eine normierter Raum.
In normierten Räumen lassen sich Längen messen. Um dies genauer zu erläutern,
benötigen wir den Begriff eines metrischen Raumes.
6.2.5 Definition Sei
die die Bedingungen
(D.0)
(D.1)
(D.2)
(D.3)
eine nicht leere Menge. Eine Abbildung
,
,
,
,
erfüllt, heißt eine Metrik oder Abstandsfunktion auf . Das Paar
heißt ein
metrischer Raum. Die Bedingung (D.3) nennt man die Dreiecksungleichung der
Metrik.
6.2.6 Satz Ist ein normierter Raum, so definiert die Abbildung
mit
eine Metrik auf .
Beweis: Dies folgt durch einfaches Nachrechnen.
6.2.7 Satz Ist ein reeller Vektorraum und eine positiv definite Bilinearform
auf , so definiert eine Norm auf . Insbesondere trägt
dann eine Metrik.
Beweis: Die Eigenschaften (No.0) - (No.2) rechnet man einfach nach. Um (No.3)
zu erhalten, folgern wir aus der Cauchy-Schwarzschen Ungleichung (6.5)
(6.6)
179
6. Euklidische und unitäre Vektorräume
Damit berechnen wir
(i)
, und aus (i) folgt
6.2.8 Beispiele 1. Sei
. Für
definieren wir
.
Offensichtlich
definiert
dies
eine
Bilinearform.
Für
und
erhalten wir dann
. Insbesondere ist . Daraus ersehen wir, daß positiv definit ist. Man nennt das
kanonische
. Skalarprodukt auf . Offensichtlich erhalten wir alle die Form
Es folgt aus (6.3), daß die symmetrischen Bilinearformen auf
. mit einer symmetrischen Matrix haben. Hier erhalten wir
poIst die von der symmetrischen Matrix induzierte Bilinearform sitiv definit, so nennen wir die Matrix positiv definit. Wegen folgt, daß die Diagonalelemente einer positiv definiten Matrix
für
stets positiv sind.
2. Es seien
,
und ist stetig
Man prüft mühelos nach, daß ein reeller Vektorraum ist. Nun definieren
wir eine Bilinearform auf durch . Es folgt aus
den Rechenregeln für Integrale, daß eine symmetrische Bilinearform
Ist
vorliegt.
, so finden wir wegen der Stetigkeit von ein , ein
und ein
, so daß für alle
gilt. Damit erhalten wir
. Die Bilinearform ist somit
positiv definit. Diese Bilinearform
spielt in der Funktionalanalysis eine Rolle.
6.3
Euklidische Vektorräume
6.3.1 Definition Ein Paar
(EVR.1)
heißt ein euklidischer Vektorraum, wenn gilt:
ist ein reeller Vektorraum.
(EVR.2) Die Abbildung ist eine positiv definite Bilinearform.
Man nennt das Skalarprodukt des euklidischen Raumes.
6.3.2 Definition Ist
180
ein euklidischer Vektorraum, so ist
6.3. Euklidische Vektorräume
eine Norm auf . Man nennt die Länge des Vektors in
heißt normiert, wenn ist. Wegen von Null verschiedene Vektor in normieren.
Nach Satz 6.2.6 definiert
läßt sich jeder
eine Metrik auf .
, so heißen die Vektoren und orthogonal in
Gilt . Ein Vektor
.
6.3.3 Winkelmessung In euklidischen Räumen haben wir nach Definition 6.3.2
den Begriff der Orthogonalität. Wir können also das “Senkrecht Stehen” zweier Vektoren beschreiben. Einen ähnlichen Begriff haben wir in Definition 3.2.13
schon zwischen den Vektoren eines beliebigen Vektorraums und den Vektoren
des dualen Raumes
eingeführt. Da für endlich dimensionale Vektorräume
und
isomorph sind, können wir nach Wahl einer Basis von den Begriff
des “Senkrecht Stehens” bezüglich einer Basis durch
definieren, wobei der in Satz 3.2.7 eingeführte Isomorphismus ist. Daß dies
eng mit der in euklidischen Räumen eingeführten Orthogonalität verknüpft ist,
folgt aus Satz 6.1.6. Allerdings können wir in euklidischen Räumen die Winkelmessung
verfeinern.
Aus der Ungleichung von Cauchy-Schwarz erhalten wir
und daher
Wir nennen
gilt dann
(6.7)
und eingeschlossenen Winkel. Nach Definition
den von
und wir definieren
ein euklidischer Raum und
6.3.4 Satz Sei
und eingeschlossenen Winkel gelten dann
(2)
(3)
,
,
(1)
(6.8)
. Für den von
,
181
6. Euklidische und unitäre Vektorräume
und sind genau dann orthogonal, wenn
(4)
(5) und sind genau dann linear abhängig, wenn
ist,
(6) ist,
oder
.
Die Aussage (6) in Satz 6.3.4 ist als Cosinus-Satz bekannt. Stehen und senkrecht, so erhalten wir den Satz des Pythagoras.
Beweis: Die Behauptungen (1) und (3) folgen sofort aus der Definition von , die
Behauptungen
erhal (2) und (4) aus den Eigenschaften des Cosinus. Aus Satz 6.2.3
ten wir für linear abhängige Vektoren und . Also ist , d.h.
oder
.
Um (6) zu zeigen,
berechnen
wir
nach (6.8).
6.3.5 Definition Ist
und nennen
, so definieren wir
das orthogonale Komplement von
in
.
6.3.6 Lemma Für einen endlich dimensionalen
. euklidischen Vektorraum
und eine Teilmenge
gilt Beweis: Wir haben
6.3.7 Satz Ist ein endlich dimensionaler euklidischer Vektorraum und
und .
Teilraum von , so gilt
Beweis: Nach Satz 3.2.17 gilt
Vektorräume und Teilräume
. Da erhalten wir aus Lemma 6.3.6
und
, so folgt und damit . Damit ist
wegen
182
ein
für endlich dimensionale
ein Isomorphismus
ist,
. Ist
für
und
schließlich .
6.3. Euklidische Vektorräume
ein endlich
dimensionaler euklidischer Vektorraum und
, so gilt .
. Wegen gilt GleichBeweis: Wir haben 6.3.8 Korollar Ist
ein Teilraum von
heit.
In Abschnitt 3.6 haben wir die Gerade als Beispiel
einer linearen Mannigfaltigkeit
mit eingeführt. Eine Gerade hatte die Form , d.h.
die Geraden sind gerade die affinen Teilräume der Dimension . Ist ,
ist, eine
so nennen wir einen affinen Teilraum von , dessen Dimension
Hyperebene in . Die Hyperebenen in sind also genau die affinen Teilräume der
Gestalt
mit
(6.9)
-dimensionalen Teilräume von
Die Hyperebenen durch sind dann genau die
. Ist
eine Hyperebene in , so ist
nun ein euklidischer Vektorraum und
und damit für einen Vektor
. Dies
nach Satz 6.3.7
läßt sich folgendermaßen verallgemeinern.
6.3.9 Lemma Ist ein euklidischer Vektorraum, so gibt es zu jeder Hyperebene in einen normierten Vektor und ein
mit
die Hessesche Normalform der Hyperebene
Man nennt
(6.10)
.
. Dann gibt
Beweis: (vgl. Abbildung 6.2) Sei mit es ein
mit
, und damit ist . Ohne Einschränkung der
Allgemeinheit
dürfen
wir
annehmen. Dann gilt
.
, so definieren wir
Ist eine Hyperebene in und
(6.11)
und nennen den Abstand des Vektors von der Hyperebene .
die Hessesche Normalform
6.3.10 Satz Ist ein euklidischer Raum und
.
der Hyperebene , so gilt für
Beweis: (vgl. Abbildung
6.3) Wir fällen das “Lot” von auf . Dies ergibt
einen Vektor
. Wegen
ist
. Weiter ist
und daher für
183
6. Euklidische und unitäre Vektorräume
! schon
Damit
ist stets her folgt für
! . Es gilt Abbildung 6.2: Hessesche Normalform im
.
, und wir
erhalten
. Da
.
6.3.11 Definition Sei ein euklidischer Vektorraum und Unter räume von . Wir sagen, daß die orthogonale Summe der Vektorräume ist, wenn gelten
(OS.1)
(OS.2)
Wir notieren mit
terräume .
, daß ist.
6.3.12 Lemma Aus ,
für 184
folgt
die orthogonale Summe der Un-
.
6.3. Euklidische Vektorräume
Abbildung 6.3: Zum Beweis von Satz 6.3.10
Beweis: Ist
erhalten wir sofort und
und damit
mit
für , so
.
Es ist eine einfache Beobachtung, daß für einen Unterraum eines euklidischen
der Raum
Vektorraumes
wieder ein euklidischer Raum ist.
Dies benötigen wir zum Beweis des folgenden Satzes.
6.3.13 Satz Ist ein endlich dimensionaler euklidischer Vektorraum, so gibt
es eine Basis von mit , d.h. ist die
orthogonale Summe von Geraden. Eine derartige Basis heißt eine Orthogonalbasis.
Für
ist nichts zu beweisen.
Beweis: Wir führen Induktion nach
.
Ist
, so wählen wir
mit und betrachten
Da
und wieder ein euklidischer Raum
ist, er von
halten wir nach Induktionsvoraussetzung eine Orthogonalbasis
eine Basis von ,
. Wegen ist dann und wegen
gilt für . Damit ist
eine Orthogonalbasis von .
und
. Dann ist
6.3.14 Definition Sei ein euklidischer Vektorraum. Wir nennen eine Basis
eine Orthonormalbasis von
, wenn für alle
gilt.
185
6. Euklidische und unitäre Vektorräume
6.3.15 Satz Jeder euklidische Vektorraum besitzt eine Orthonormalbasis.
. Für
Beweis: Nach Satz 6.3.13
besitzt eine Orthogonalbasis
daher . Definieren wir
, so ist eine Orthonormalbasis.
gilt
6.3.16 Das Schmidtsche Orthonormalisierungsverfahren Oft steht man vor
dem Problem, eine Basis eines euklidischen Vektorraumes in eine Orthonormalbasis zu überführen. Dazu gibt es einen Algorithmus, den wir im folgenden beschreiben wollen.
Sei also eine Basis gegeben. Wir definieren eine Folge , so
daß gilt:
und
und für
(6.12)
(6.13)
bilden eine Basis.
(6.14)
Wir setzen
und
Nun zeigen wir (6.13) und (6.14) durch Induktion nach . Für erhalten
. Im Induktionsschritt
wir und nehmen
wir (6.13) für an. Für erhalten wir für , da nach Induktionsvoraussetzung
eine Basis. Dagilt. Nach Induktionsvoraussetzung
bilden
mit sind insbesondere linear unabhängig
und somit ,
. Damit ist (6.13)
und wir erhalten linear unabhängig, und da eine Libewiesen. Insbesondere sind
eine
nearkombination der und ist, bilden Basis. Für folgt aus (6.13), daß eine Orthonormalbasis bilden.
Als Korollar zu Satz 6.3.15 erhalten wir eine Charakterisierung positiv definiter
Matrizen.
6.3.17 Korollar Eine Matrix
eine invertierbare Matrix
GL
186
ist genau dann positiv definit, wenn es
gibt mit .
6.4. Isometrien euklidischer Räume
Beweis: : Ist positiv definit, so definiert eine positiv definite Bilinearform auf
. Nach Satz 6.3.15 gibt es eine
Orthonormalbasis von
folgt aus Satz
. Für . Dann gilt
6.1.17 GL
, so folgt : Ist
mit
Wie wir in Beispiel 6.2.8 gesehen haben, ist das kanonische
Skalarprodukt
auf
positiv definit. Damit ist genau dann, wenn
ist. Da
GL
ist, ist dies genau dann der Fall, wenn . Also
ist positiv definit.
6.4
Isometrien euklidischer Räume
6.4.1 Definition
Es seien und
zwei euklidische Räume. Eine Abbil
dung heißt eine Isometrie von
in
, wenn
gilt.
6.4.2 Satz Ist torräume.
eine Isometrie, so ist ein Monomorphismus der Vek
erhalten
. Wir
. Da positiv definit ist,
. Analog
, d.h.
. Damit
,
folgt , so ist und damit . Damit
ist, folgt Beweis:
Da eine Isometrie
ist linear. Ist folgt daraus erhalten
wir
und ist injektiv, und wir haben einen Monomorphismus der Vektorräume.
ein euklidischer Raum. Wir setzen
ist Isometrie von in 6.4.4 Lemma Sei ein euklidischer Raum. Die Menge ist dann eine
Untergruppe der GL . Man nennt sie die allgemeine orthogonale Gruppe von
.
6.4.3 Definition Sei
187
6. Euklidische und unitäre Vektorräume
und damit
. Es folgt aus Satz
Beweis: Zunächst ist id
6.4.2, daß
GL
ist. Für ist . Weiter folgt . Damit ist und damit .
6.4.5 Satz Sei ein euklidischer Raum. Ein Endomorphismus
End
ist genau dann eine Isometrie von in sich, wenn gilt, d.h. wir
haben
Beweis: Ist eine Isometrie, so gilt . Daraus folgt, da nicht ausgeartet ist, " id . Also ist . Ist umgekehrt
, so folgt , und ist eine Isome-
End
trie.
6.4.6 Korollar Ist .
so gilt
eine Isometrie des euklidischen Raumes
,
, und nach Lemma 4.3.10
Beweis: Nach Bemerkung 6.1.8 ist . Zusammen
und Korollar 4.3.14 erhalten wir daraus
mit Satz 6.4.5 ergibt dies
" , woraus die Behauptung
sofort folgt.
6.4.7 Spiegelungen Sei ein endlich dimensionaler euklidischer Raum und
eine Hyperebene in durch den Nullvektor. Dann gibt es einen normierten Vektor
mit
und zu jedem Vektor
ein eindeutig bestimmtes
und
mit . Die Abbildung
heißt Spiegelung an der Hyperebene
.
ein euklidischer Raum und 6.4.8 Bemerkung
Ist
gelung an
die Form
Beweis: Sei
188
, so hat die Spie-
die Normierung von . Für
für ein (eindeutig bestimmtes)
gilt dann
. Damit gilt für das
6.4. Isometrien euklidischer Räume
Abbildung 6.4: Spiegelung an einer Hyperebene
Spiegelbild
ist dies die Behauptung.
. Wegen 6.4.9 Satz Jede Spiegelung ist eine Isometrie.
Beweis: Seien und die Spiegelung an der Hyperebene
normierten Vektor . Dann ist und mit
und wir erhalten .
6.4.10 Lemma Ist
eine Spiegelung, so gilt
für
einen
,
.
189
6. Euklidische und unitäre Vektorräume
Beweis: Sei die Spiegelung an der Hyperebene durch . Dann ist
für einen normierten
Vektor
, und wir erhalten eine Basis eine Basis von ist. Dann gilt nach Lemma 4.3.5
von , so daß
.
6.4.11 Bemerkung Man bezeichnet Isometrien eines euklidischen Raumes auch
eigentlich, wenn
als Drehungen oder Rotationen. Dabei heißt eine Rotation
ist. Anderenfalls heißt sie uneigentlich. Ist ein Eigenwert einer Rota tion , so muß für einen Eigenvektor schon und damit
gelten.
Beweis: Sei ist für . Dann
auch
und damit .
6.4.12 Lemma Die eigentlichen Drehungen eines euklidischen Vektorraumes bilden eine Untergruppe der allgemeinen orthogonalen Gruppe
. Man
nennt sie die spezielle orthogonale Gruppe und bezeichnet sie mit
.
6.4.13 Satz Sei ein -dimensionaler euklidischer Vektorraum. Dann ist jede
von der Identität verschiedene Isometrie von in sich ein Produkt von höchstens
- vielen Spiegelungen.
Beweis: Als erstes haben wir uns zu überlegen, daß sich jede Spiegelung eines
Teilraumes von zu einer Spiegelung auf fortsetzen läßt. Sei dazu ein Teil
raum von und
Hyperebene durch in . Dann wird das Komplement
von in eine
aufgespannt. Eine Spie durch einen Vektor
gelung an
in hat dann die Form
mit
. Nun
betrachten wir
in . Dies ist eine Hyperebene durch in . Die
Abbildung
für
definiert eine Spiegelung an
in , die die Spiegelung in fortsetzt. Wir bemerken noch, daß die Fortsetzung
der Spiegelung auf
die Identität ist.
Wir beweisen den Satz nun durch Induktion nach . Ist
, so hat jeder
Endomorphismus von die Gestalt id und wegen Korollar 6.4.6 muß für eine
Isometrie sein. Damit sind id und id die einzigen Isometrien auf , und
wir haben nichts zu beweisen.
Sei nun
und eine Isometrie von in sich. Gibt es einen Vektor
. Für mit
und , so betrachten wir die Hyperebene
gilt , d.h. . Nach Induktions auf mit voraussetzung gibt es Spiegelungen
und 190
6.4. Isometrien euklidischer Räume
. Nach unserer Vorbemerkung läßt sich aber jede Spiegelung zu einer Spiegelung
wir erhalten "
auf
. Wir haben also
so fortsetzen, daß
auf
ist. Damit ist
, und
sind Spiegelungen
(i)
gezeigt.
id ein
Erfüllt die Isometrie die Voraussetzung
.esDiewegen
des Satzes, so gibt
mit . Sei nun und
Spiegelung
an
bezeichnen wir mit
. Dann ist
und damit
Es ist
womit und
orthogonal sind und daher (ii)
(iii)
ist. Damit gilt
(iv)
und aus (ii) und (iv) folgt
. Aus (i) folgt nun, daß
ein Produkt
von höchstens
vielen Spiegelungen ist. Wegen
id folgt
"
für (v)
, und wir sehen, daß das Produkt von höchstens
Spiegelungen ist.
6.4.14 Bemerkung Betrachten wir eine Rotation bezüglich des kanonischen
Skalarprodukts auf dem , so erhalten wir nach Satz 6.1.16
denn die darstellende Matrix des
kanonischen Skalarproduktes ist die Einheitsmatrix. Damit ist nach Satz 6.4.5 genau
dann
eine Rotation bezüglich des kanonischen Skalarproduktes im , wenn
ist. Daher definiert man
(6.15)
und nennt
die allgemeine orthogonale Gruppe. Die Matrizen der orthogonalen Gruppe heißen orthogonale Matrizen. Die Menge
(6.16)
191
6. Euklidische und unitäre Vektorräume
ist eine Untergruppe der
. Sie heißt die spezielle orthogonale Gruppe. Man
prüft leicht nach, daß für einen -dimensionalen euklidischen Raum
und
eine Orthonormalbasis von
und
gelten.
(6.17)
(6.18)
6.4.15 Satz Eine Matrix
ist genau dann orthogonal, wenn sowohl ihre
Zeilen als auch ihre Spalten eine Orthonormalbasis des
mit dem kanonischen
Skalarprodukt bilden.
Beweis: Sei
für für
basis bilden.
6.5
..
.
mit
. Dann gilt genau dann, wenn
gilt. Dies ist aber genau
dann der Fall, wenn
gilt, d.h. wenn eine Orthonormal
Sesquilinearformen
Im folgenden werden wir gezwungen sein, auch Vektorräume über dem Körper
der komplexen Zahlen zu betrachten. Obwohl wir die komplexen Zahlen hier
voraussetzen wollen, sind einige Vorbemerkungen angebracht.
hat in keine Wurzel, da Quadra6.5.1 Komplexe Zahlen Das Polynom
te reeller Zahlen niemals negativ sind. Man “adjungiert” daher eine Wurzel dieses
und betrachtet den EinsetzungsPolynoms, die üblicherweise
mit bezeichnet wird
homomorphismus
. Dann ist
eine kommutative -Algebra der
Dimension , denn das Minimalpolynom von ist
. Insbesondere ist
ein kommutativer Ring, in dem jedes Element die Gestalt
mit
hat. Nun beobachtet
man weiter, daß
und damit
besteht nur aus Einheiten und ist
gilt. D.h.
daher ein Körper, den man mit bezeichnet. Die Elemente von heißen kom
plexe Zahlen. Jede komplexe Zahl hat die Gestalt mit
,
wobei und eindeutig bestimmt sind. Man nennt
den Realteil und
den Imaginärteil der komplexen Zahl . Die Abbildung
192
6.5. Sesquilinearformen
,
die
durch
definiert ist, heißt Konjugation, die
Zahl
die konjungiert Komplexe von
. Man prüft sofort nach, daß die
Konjugation ein involutorischer Automorphismus
von
ist.
erhalten wir eine Abbildung
Wegen
ist, für die und rechnen leicht nach, daß dies eine Normfunktion auf
gilt.
Eine wichtige Eigenschaft der komplexen Zahlen wird im folgenden Satz ausgedrückt, den wir ohne Beweis zitieren.
Fundamentalsatz der Algebra Der Körper der komplexen Zahlen ist algebrazerfällt über in Linearfaktoren.
isch abgeschlossen, d.h. jedes Polynom 6.5.2 Bemerkung
Man rechnet sofort nach, daß die Abbildung
ein injektiver Homomorphismus der Ringe ist. Daher ist die Menge
als Ring isomorph zu
wir dies mit
mit
sind. Wegen
ist der Drehwinkel der Drehung
. Wegen
, und die Drehungen haben die Form , und es folgt aus Satz 6.4.5, daß die Elemente
Drehungen des
und
und somit ein Körper. Wir erhalten
(6.19)
ist dann
. Übersetzen
zurück in die komplexen Zahlen und beachten wir, daß 193
6. Euklidische und unitäre Vektorräume
für
der Form
gilt, so können wir jede komplexe Zahl
in
(6.20)
oder, unter Verwendung der Exponentialfunktion, als
(6.21)
darstellen. Dabei heißt der Betrag und das Argument der komplexen Zahl .
Betrachten wir die
mit
, d.h. fassen
Bijektion
wir als den
auf, so ersehen
ist.
wir aus (6.19), daß
und
wieder in die komplexen Zahlen zurück,
Übersetzen wir dies mit
so sehen wir, daß sich die Multiplikation mit komplexen Zahlen vom Betrag als
Drehung auffassen läßt, wobei der Drehwinkel durch das Argument der Zahl gege-
dargestellt wird, entsprechen
ben ist. Multiplikationen mit , das durch daher Drehungen um und Multiplikationen mit Drehungen um .
6.5.3 Definition Seien und Vektorräume über dem Körper der komplexen
Zahlen. Eine Abbildung heißt semilinear (d.h. halblinear) , wenn
und für alle
und
gilt.
Eine Abbildung fach lineare Form), wenn
wenn gelten.
heißt eine Sesquilinearform
(eine eineinhalb
semilinear ist, d.h.
linear und und linear ist, bereits
Eine Abbildung heißt hermitesch, wenn
gilt.
Man beachte, daß jede hermitesche Form , für die
sesquilinear ist.
Wir übertragen nun die für Bilinearformen in Abschnitt 6.1 und 6.2 eingeführten
Begriffe und Sätze auf hermitesche Sesquilinearformen. Die Beweise übertragen
sich in der Regel mühelos.
Zunächst definieren wir den Sesquilinearkern einer hermiteschen Sesquilinearform
in Analogie zum Bilinearkern als
Bkern und nennen eine hermitesche Sesquilinearform nicht ausgeartet, wenn Bkern ist.
Ist eine hermitesche Sesquilinearform, so definiert
194
6.5. Sesquilinearformen
eine Linearform, und damit erhalten wir eine semilineare Abbildung
und
Bkern Kern mit
Für nicht ausgeartetes ist daher eine injektive semilineare Abbildung von
in
und demnach eine semilineare Bijektion für endlich dimensionale .
Ist ein endlich dimensionaler
Vektorraum, End
ein Endomorphismus
und
, so ist
,
und
es
gibt
daher
ein
eindeutig bestimmtes
mit
. Die Abbildung
ist
wieder linear und heißt die zu adjungierte Abbildung . Es gilt also
(6.22)
und
Weiter erhalten wir " (6.23)
und damit
(6.24)
ein
Wie im Falle von Bilinearformen prüft man nach, daß die Abbildung involutorischer Antiisomorphismus des Endomorphismenringes ist. Allerdings ist
sie kein Homomorphismus der Algebren, sondern wegen nur semilinear.
Ein Unterschied zur Situation symmetrischer Bilinearformen ergibt sich auch bei
der Matrixdarstellung von hermiteschen Sesquilinearformen. Wir definieren wie
im Falle der Bilinearformen für eine Sesquilinearform auf einem endlich dimen sionalen -Vektorraum mit Basis (6.25)
, so sei die konjungiert komplexe Matrix zu
Ist
. (Um typographisch von der Abbildung
zu unterscheiden, ist die Überstrei chung fetter gesetzt). Ist eine Basis von und
, so erhalten wir und damit Damit erhalten wir für eine hermitesche Sesquilinearform 195
6. Euklidische und unitäre Vektorräume
(6.26)
Um das Diagramm 6.1 zu modifizieren, führen wir die konjungierte Koordinaten darstellung bezüglich einer Basis durch
ein. Dann modifiziert das Diagramm 6.1 zum Diagramm in Abbildung 6.5. Um
Abbildung 6.5: Zusammenhang zwischen adjungierter und dualer Abbildung
bezüglich einer hermiteschen Sesquilinearform
, woraus sich rechte Trapez kommutativ. Weiter gilt
für ergibt. Damit sind das linke und
, womit auch die Kom-
die Kommutativität des Diagramms zu zeigen, berechnen wir mutativität des oberen Trapezes gezeigt ist.
Aus dem Diagramm 6.5 ergibt sich die Transformationsformel
woraus sich durch Übergang zum konjugiert komplexen
196
(6.27)
6.5. Sesquilinearformen
ergibt.
Sind und zwei Basen eines endlich dimensionalen komplexen Raumes, so
kommutiert das Diagramm in Abbildung 6.6. Die beiden Trapeze haben wir gerade nachgerechnet, die Kommutativität des rechten Dreiecks wurde schon früher
gezeigt (Satz 3.3.13), und die Kommutativität des linken Dreiecks rechnet man
mühelos nach.
Abbildung 6.6: Basistransformation der Matrix einer hermiteschen Sesquilinearform
Aus dem Diagramm in Abbildung 6.6 erhalten wir die Basistransformationsformel
(6.28)
6.5.4 Lemma Sei ein -Vektorraum und
eine Sesquilinearform auf . Die
von induzierte quadratische Form
ist genau dann reellwertig, wenn
hermitesch ist.
Beweis: Ist eine hermitesche Sesquilinearform auf , so ist wegen stets
. Für die Gegenrichtung berechnen wir
und
aus (i) und (ii) erhalten wir
(i)
(ii)
(iii)
Ist
reellwertig, so sind beide Klammern reell. Vertauschen wir und in (iii),
so verändert sich
der der Realteil
von
Für die Summe
der Imaginärteile
(iii) nicht.
ergibt sich
197
6. Euklidische und unitäre Vektorräume
woraus sich . Damit erhalten wir ergibt. Somit ist hermitesch.
6.5.5 Definition Sei
heißt
,
ein Vektorraum über . Eine hermitesche Sesquilinearform
positiv semi-definit, wenn negativ definit, wenn indefinit, wenn positiv definit, wenn
gilt,
gilt,
gilt,
gilt.
Analog wie für positiv definite Bilinearformen erhalten wir den folgenden Satz.
ein komplexer Vektorraum (d.h. ein Vektorraum über dem
6.5.6 Satz Es sei
Grundkörper ) und eine positiv semi-definite Sesquilinearform auf . Dann
gilt die Cauchy-Schwarzsche Ungleichung
(6.29)
Für positiv definite Sesquilinearformen steht in Gleichung (6.29) genau dann das
Gleichheitszeichen, wenn und linear abhängig sind.
Beweis: Der Beweis ist eine leichte Modifikation des Beweises von Satz 6.2.3. Für
erhalten wir
(i)
, so wählen wir und erhalten
Ist für alle
, was nur für möglich ist. Ist , so wählen wir
und teilen Unglei
chung (i) durch . Das ergibt
(ii)
in (ii) und erhalten
Nun wählen wir (iii)
und damit . d.h. Sind
, und es folgt und linear abhängig, so ist für ein . Sind und linear unabhängig und ist positiv
198
6.6. Unitäre Vektorräume
definit, so steht für in (i) das -Zeichen. Dann ist aber auch womit folgt, daß auch in (iii) das -Zeichen steht. Damit folgt aber .
6.5.7 Satz Ist ein komplexer Vektorraum und eine hermitesche positiv definite
eine Norm und
Sesquilinearform auf , so definiert eine Metrik auf .
Die Beweise erfolgen wörtlich wie die der Sätze 6.2.6 und 6.2.7.
6.6
Unitäre Vektorräume
, wobei ein komplexer Vektorraum und eine
6.6.1 Definition Ein Paar
positiv definite hermitesche Sesquilinearform auf ist, heißt ein unitärer Raum.
Wir übernehmen die für euklidische Räume getroffenen Redeweisen und Definitionen sinngemäß für unitäre Räume. So nennen wir die positiv definite Sesquilinearform das Skalarprodukt des unitären Raumes und bezeichnen die von dem
Skalarprodukt induzierte Norm mit . Zwei Vektoren
heißen orthogonal
ist. Wir übertragen die Definition des orthogooder senkrecht, wenn nalen Komplements einer Teilmenge
Die Definitionen, Lemmata, Sätze und Korollare 6.3.6 - 6.3.16 übertragen sich
mühelos auf unitäre Räume.
Auf dem
erhalten wir das kanonische Skalarprodukt durch
Die darstellende Matrix des kanonischen Skalarproduktes bezüglich der kanonischen Basis ist die Einheitsmatrix. Die kanonische Basis bildet
eine Orthonormalbasis bezüglich des kanonischen Skalarproduktes. Ist
und gilt ,
so definiert
eine hermitesche Sesquilinearform. Wir nennen
positiv definit, wenn
und die von erzeugte hermitesche Sesquilinearform positiv definit ist.
In Analogie zu Korollar 6.3.17 erhalten wir mit dem gleichen Beweis aus (6.28),
daß genau dann eine positiv definite Matrix ist, wenn es ein
GL
gibt
mit .
199
6. Euklidische und unitäre Vektorräume
6.7
Komplexifizierung reeller Vektorräume
Wir wollen einen reellen Vektorraum in natürlicher Weise zu einem
komplexen
Vektorraum machen. Die Idee dazu besteht darin, aus Vektoren den
zu bilden und die skalare Multiplikation durch for“komplexen” Vektor
festzusetzen. Die
males “Ausrechnen”
Elemente des komplexifizierten
Raumes müssen somit als Paare
aufgefaßt werden, wobei den Realteil und den Imaginärteil repräsentiert. Dies
ist der Hintergrund der folgenden Definition.
6.7.1 Lemma Sei ein reeller Vektorraum. Die Menge
wird
mit der punkt
weisen Addition und der Multiplikation
ein -Vektorraum, den wir mit bezeichnen wollen. Der Vektorraum heißt die
Komplexifizierung von .
mit der punktweisen AdditiBeweis: Wir haben bereits früher gesehen, daß
on eine additive abelsche Gruppe bildet. Die Axiome für die skalare Multiplikation
rechnet man einfach nach.
6.7.2 Lemma Die Abbildung
(1)
(2)
(3)
mit
ist injektiv, und es gelten
,
,
.
Beweis: Offensichtlich ist injektiv. Die Behauptung (2) ist klar, und die erste Gleichung in (3) rechnet man anhand der Definition der skalaren Multiplikation sofort
, woraus sich die zweite Gleichung
nach. Dann ist insbesondere
in (3) und (1) sofort ergeben.
6.7.3
Satz Ist
ein reeller Vektorraum und eine Basis von , so ist .
eine Basis von . Insbesondere ist
, so ist nach
Lemma 6.7.2
Beweis: Ist
Basis von ist gibt es ein ,
und
mit . Dann folgt mit Lemma 6.7.2
, und wir haben densystem nachgewiesen. Gilt
mit Lemma 6.7.2
200
. Da eine
und
als Erzeugen
, so folgt mit
, woraus
6.7. Komplexifizierung reeller Vektorräume
sich und folglich auch ergeben. Damit ist eine linear unabhängige Menge und somit eine Basis.
Damit haben wir nachgewiesen, daß sich unsere Ausgangsidee verwirklichen
läßt.
Durch die Abbildung wird in eingebettet, und wir können daher
und
.
identifizieren. Nach Lemma 6.7.2 hat dann jedes
die Gestalt 6.7.4 Lemma Sind und
reelle Vektorräume und Hom
und defi
nieren wir durch , d.h. , so ist Hom
. Die Abbildung Hom
Hom
mit
ist ein Homomorphismus der Ringe und -linear, d.h. es gilt für
.
.
Ist eine Basis von und eine Basis von , so folgt
Beweis: Klar durch Nachrechnen.
6.7.5 Korollar Für End
.
Beweis: Wegen
6.7.4. Nun gilt aber . Insbesondere ist dann
ein euklidischer Raum und definieren wir für ist
6.7.6 Lemma
Ist
gilt
Aussage aus Lemma
erhalten wir die erste
, so
ein unitärer Raum.
Beweis: Klar durch Nachrechnen.
6.7.7 Satz Ist
.
, woraus sich ergibt.
Beweis: Es ist ein euklidischer Vektorraum und End
, so gilt 201
6. Euklidische und unitäre Vektorräume
6.8
Isometrien unitärer Räume
6.8.1 Definition Eine lineare Abbildung zwischen zwei unitären Räumen, die das
Skalarprodukt respektiert, heißt eine Isometrie.
Mit dem gleichen Beweis wie in Satz 6.4.2 erhalten wir, daß jede Isometrie unitärer
Räume schon ein Monomorphismus der Vektorräume und damit im endlich dimensionalen Fall bereits ein Isomorphismus der Vektorräume ist.
6.8.2 Satz Sei ein endlich dimensionaler unitärer Raum. Ist eine Isometrie von in sich, so nennen wir eine unitäre Abbildung. Ein Endo morphismus End
ist genau dann unitär, wenn ist.
Die Menge
End
ist mit der Komposition von Abbildungen eine Gruppe. Sie heißt die allgemeine
unitäre Gruppe von Für gilt .
Die Menge
. Sie heißt die spezielle unitäre Gruppe von .
ist eine Untergruppe der
Die Beweise erfolgen wie im euklidischen Fall.
6.8.3 Satz Ist
End
eine Isometrie von
ein euklidischer Raum und , so ist dessen komplexe Fortsetzung eine Isometrie von
.
Beweis: Wir haben nach Satz 6.8.2 nur nachzuprüfen, daß ergibt sich aber aus den Lemmata 6.7.4 und 6.7.7 wegen ist. Das
.
Ist
ein euklidischer oder unitärer Vektorraum, so läßt sich für jeden Endomorphismus End
eine Norm
(6.30)
definieren. Für diese Norm erhalten wir
(6.31)
Die Isometrien sind dann genau die Endomorphismen mit Norm , d.h. wir haben
202
6.9. Normale Endomorphismen
für euklidische bzw.
End
(6.32)
End
(6.33)
für unitäre Räume. Die Normen von Endomorphismen spielen in der Funktionalanalysis und in der numerischen Mathematik eine wichtige Rolle.
mit dem kanoniBetrachten wir wieder den Spezialfall des unitären Raumes
schen Skalarprodukt, so ist dessen darstellende Matrix
bezüglich
der kanonischen
Basis die Einheitsmatrix. Aus (6.27) folgt daher, daß genau dann unitär ist, wenn
ist. Daher definiert man
und nennt die allgemeine unitäre Gruppe. Ebenso setzt man
die spezielle unitäre Gruppe. Die Matrizen in und nennt
heißen
unitäre Matrizen. In Analogie zu Satz 6.4.15 erhalten wir
6.8.4 Satz Eine Matrix ist genau dann unitär, wenn ihre Spalten- bzw. Zeilenvektoren eine Orthonormalbasis des
bezüglich des kanonischen Skalarproduktes
bilden.
6.9
Normale Endomorphismen
Vorbemerkung Unitäre und euklidische Räume haben sehr viele gemeinsame
Eigenschaften. Zur Vereinfachung der Notation bedeute daher im euklidischen
Falle den Körper und im unitären Falle den Körper .
6.9.1 Definition Sei ein euklidischer oder unitärer Vektorraum. Ein Endomorphismus End
heißt normal, wenn er mit seiner adjungierten ver gilt.
tauschbar ist, d.h. wenn 6.9.2 Lemma Ist ein normaler
Endomorphismus, so sind alle Elemente von
mit den Elementen in vertauschbar.
und
, so erhalten wir Beweis: Ist .
203
6. Euklidische und unitäre Vektorräume
und gilt , so folgt
erhalten wir Beweis:
Für
. Das ist nur möglich, wenn ist. Da wir beliebig
gewählt haben, folgt für .
6.9.3 Lemma Sind .
End
ein euklidischer oder unitärer Vektorraum und ein norma6.9.4 Satz Ist
ler Endomorphismus von . Dann enthält keine von verschiedenen nilpotenten Elemente.
Beweis: Wir zeigen zunächst, daß ein nilpotenter Endomorphismus, für den
ist.
Ist
und
nilpotent,
so
gibt
es
ein
,
so
daß
,
gilt, bereits
aber und damit nach Lemma
ist. Dann folgt 6.9.3 . Widerspruch.
Für gilt aber , und ist wegen der Vertauschbar
keit von
und
nilpotent,
wenn
dies
ist.
Damit
ist
, woraus sich
für alle
und damit ergibt.
Zusammen mit Satz 5.7.4 erhalten wir die folgende Aussage.
6.9.5 Korollar Jeder splitte normale Endomorphismus eines euklidischen und jeder normale Endomorphismus eines unitären Vektorraumes ist halbeinfach und
damit diagonalisierbar.
6.9.6 Lemma Sei ein -Vektorraum und ein halbeinfacher Endomorphismus
von mit Minimalzerlegung . Gilt dann für
, und es gibt eine
ein vollständiges
Orthogonalsystem , so ist mit und .
Permutation
Beweis: Sei und sowohl als auch
ein vollständiges Orthogonalsystem. Dann gilt, wie im Beweis von
Satz 5.7.4 gezeigt,
für jedes Polynom erhalten wir 204
für
. Wählen wir in (i) für (i)
, so
und damit
(ii)
6.9. Normale Endomorphismen
Demnach gibt es für
für
(iii)
mit
Da idempotent
ist, folgt aus (iii) damit . Also gilt
und und
(iv)
Aus Symmetriegründen erhalten wir auch
für
Da nun sowohl als auch für
und
folgt
für und mit es gibt eine Permutation
folgt.
(v)
linear unabhängig sind (vgl. 5.7.3),
für . Also ist . Damit ist , und
, woraus dann auch
6.9.7 Lemma Ist ein endlich dimensionaler unitärer
. oder euklidischer Raum,
so gilt Im und Kern Kern Im Kern Beweis: Mit
Lemma 6.3.6 erhalten
wir Im Im damit Kern und
Im Kern Kern .
Kern Im . Ähnlich folgt Im 6.9.8 Lemma Sei
ein endlich dimensionaler unitärer oder euklidischer VekEnd
gilt dann Kern torraum. Für jeden normalen Endomorphismus Kern und Im Im . Insbesondere ist dann Kern Im .
Beweis: Es gilt
Kern Mit Lemma 6.9.7 folgt dann Im Wegen
Kern Kern Kern Im .
205
6. Euklidische und unitäre Vektorräume
Kern Kern Kern Kern Im Im ist alles bewiesen.
6.9.9 Lemma Ist ein euklidischer oder unitärer Vektorraum und End
ein normaler Endomorphismus, so ist Eig Eig für jeden Eigenwert
von .
Beweis:
Wir betrachten den Endomorphismus id , und wir erhalten
Eig
Damit ist id id id
id
id id id . Dann gilt
normal, und mit Lemma 6.9.8 folgt
Kern Kern
Eig
6.9.10 Satz Sei ein endlich dimensionaler euklidischer oder unitärer Vektorraum und End
split über (im unitären Fall ist dies immer erfüllt).
Der Endomorphismus ist genau dann normal, wenn es eine Orthonormalbasis
von Eigenvektoren von gibt.
erhalBeweis: : Sei eine Basis von aus Eigenvektoren von . Für
und damit . Also
ten wir folgt . Damit sind und
auf allen Basisvektoren und damit auf ganz vertauschbar.
Ist normal, so ist nach Satz 6.9.4 halbeinfach. Ist die
mit
Minimalzerlegung, so gilt nach Satz 5.8.4
Wir behaupten, daß sogar
(i)
und
für . Da sind nach
und vertauschbar. Dann folgt , denn wegen ist
Kern und
nach Lemma 6.9.8 ist Kern Kern . Damit ist (i) gezeigt. Nach Satz 5.8.13
gilt. Sei dazu
Lemma 6.9.2 206
6.9. Normale Endomorphismen
. Die Räume
gilt nun Eig
sind wieder euklidisch bzw. unitär
und besitzen daher Orthonormalbasen . Dann ist aber ! eine
Orthonormalbasis von , die aus Eigenvektoren von besteht.
Zusammen mit Satz 5.8.13 erhalten wir als Korollar des Satzes 6.9.10
6.9.11 Korollar Jeder splitte normale Automorphismus ist diagonalisierbar.
6.9.12 Bemerkung
mit
Wir betrachten nun den
dem kanonischen Skalarprodukt. Für
ist der Endomorphismus genau dann normal, wenn
ist, und dies ist genau dann der Fall, wenn
ist. Daher nennen wir eine Matrix
normal, wenn
ist. Da algebraisch abgeschlossen ist, ist jede normale Matrix split über . Damit existiert nach Satz 6.9.10 eine Orthonormalbasis von Eigenvektoren. Damit
eine Diagonalmatrix, deren Hauptdiagonale alle Eigenwerist
te in ihrer Vielfachheit gezählt enthält. Da das kanonische Skalarprodukt sowohl
bezüglich der kanonischen
Basis als auch der Basis durch die Einheitsmatrix
aus (6.28) und die Matrix ist unitär.
dargestellt wird, folgt
Damit haben wir den folgenden Satz gezeigt.
6.9.13 Satz Ist
mit
wobei ..
.
eine normale Matrix, so gibt es eine unitäre Matrix
..
.
..
.
..
.
..
.
..
.
alle Eigenwerte von
in ihrer Vielfachheit gezählt sind.
6.9.14 Bemerkung Um eine normale Matrix
auf Diagonalgestalt zu
transformieren, muß man nicht zuerst deren Minimalzerlegung kennen. Man weiß
ja aus Satz 6.9.13, daß eine Orthonormalbasis aus Eigenvektoren existiert. Diese
läßt sich finden, indem man zunächst die Wurzeln des charakteristischen Polynoms
bestimmt, d.h. die Gleichung
zusammen mit deren
löst. Dies liefert alle verschiedenen Eigenwerte algebraischen Vielfachheiten. Nun bestimmt man die Eigenvektoren durch Lösen
der Gleichungssysteme
207
6. Euklidische und unitäre Vektorräume
Die Eigenvektoren zu einem Eigenwert
orthonormalisiert
man nach Schmidt
zu einer Orthonormalbasis
von Eig
. Dadurch erhalten wir eine
von , und für
Orthonormalbasis ..
.
gilt
..
.
und daher
..
.
mit
..
.
..
.
..
.
..
.
..
.
.
..
Die Matrix
..
..
.
..
.
ist unitär, da ihre Zeilenvektoren eine Orthonormalba-
sis bilden, und wir erhalten
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
Damit haben wir ein Verfahren zur Berechnung der unitären Transformationsmatrix einer normalen Matrix. Der schwierigste Punkt dabei ist die Berechnung der
Eigenwerte, da das charakteristische Polynom den Grad hat. Hier müssen in der
Regel Methoden der numerischen Mathematik in Anspruch genommen werden.
208
6.10. Unitäre und orthogonale Abbildungen
6.10
Unitäre und orthogonale Abbildungen
Wir erinnern daran, daß wir die Isometrien euklidischer Räume als orthogonale
und die Isometrien unitärer Räume als unitäre Abbildungen bezeichnen. Wir wollen in diesem Abschnitt einige Eigenschaften unitärer und orthogonaler Automorphismen genauer studieren.
6.10.1 Satz Sei ein euklidischer oder unitärer Raum. Sind und zwei
orthogonal
Orthonormalbasen von , so ist die Transformationsmatrix
bzw. unitär.
Beweis: Sind und Orthonormalbasen, so ist
Satz 6.1.17 oder (6.28) folgt daher Damit ist
bzw.
bzw.
. Nach
.
6.10.2 Satz Jeder unitäre und orthogonale Automorphismus ist normal.
Beweis:
Ist ein orthogonaler
oder unitärer Automorphismus, so gilt id .
6.10.3 Satz Ist ein orthogonaler oder unitärer
Automorphismus und ein Eigenwert von , so ist . Damit sind und die einzigen möglichen reellen
Eigenwerte.
Beweis: Ist orthogonal oder unitär, so ist eine Isometrie, und für einen Eigen
vektor zum Eigenwert erhalten wir . Damit
ist .
6.10.4 Satz Jeder unitäre Automorphismus ist halbeinfach. Damit ist diagonalisierbar. Ist die Minimalzerlegung von , so ist jeder der
Endomorphismen selbstadjungiert, d.h. es gilt Beweis: Da bar. Sei insbesondere
normal ist, ist nach Korollar 6.9.11 diagonalisier
,
die Minimalzerlegung. Nach Satz 6.10.3 ist
und wir erhalten
id Damit ist
. Da ebenfalls ein vollständiges Orthogonalsystem bilden, folgt aus der in Lemma 6.9.6
gezeigten Eindeutigkeit der Darstellung für .
Wir erinnern an die orthogonale und unitäre Gruppe
bzw.
.
209
6. Euklidische und unitäre Vektorräume
6.10.5 Satz Sei ein euklidischer bzw. unitärer Vektorraum. Eine Matrix ist
genau dann unitär oder orthogonal, wenn sie die darstellende Matrix eines orthogonalen bzw. unitären Automorphismus bezüglich einer Orthonormalbasis von
ist. D.h. wir haben für eine Orthonormalbasis von
bzw.
folgt nach (6.27) bzw. nach Satz
6.1.16
Damit ist
im euklidischen und
im unitären Fall. Ist umgekehrt , so erhalten wir für sofort bzw. und damit
Damit
ist bzw. , und wir haben auch die umgekehrte Inklusion
Beweis: Für bzw. gezeigt.
6.10.6 Satz Ist
mit
wobei ..
.
..
.
..
.
eine unitäre Matrix, so gibt es eine unitäre Matrix
..
.
..
.
..
.
alle Eigenwerte von
in ihrer Vielfachheit gezählt sind.
Wir wollen nun Normaldarstellungen orthogonaler Automorphismen studieren. Die
Schwierigkeit, auf die wir hier unmittelbar stoßen, ist, daß die Endomorphismen
euklidischer Räume nicht notwendigerweise split über sind. Hier müssen wir die
Theorie der Komplexifizierung des Abschnitts 6.7 zu Hilfe nehmen.
6.10.7 Satz Sei
morphismus von
210
ein euklidischer Vektorraum und ein orthogonaler Auto . Dann gibt es es eine Orthonormalbasis von , so daß
6.10. Unitäre und orthogonale Abbildungen
..
.
..
.
..
..
.
.
..
.
..
..
.
..
..
.
.
..
.
.
, die Anzahl der Eigenwerte und mit
die Anzahl der Eigenwerte
alle komplexen
für die Zahlen Eigenwerte von in ihrer Vielfachheit gezählt durchlaufen.
wobei
Beweis: Wir setzen den Automorphismus komplex zu fort. Nach Satz 6.8.3
ist dann unitär. Die charakteristischen Polynome von
und stimmen nach
Korollar 6.7.5 überein und sind daher Polynome in
. Dann zerfällt über in die Linearfaktoren
Insbesondere ist mit
jedem Eigenwert auch dessen konjungiert
Komplexe ein Ei die verschiedenen reellen und die verschiegenwert. Sind denen komplexen Eigenwerte von , so ist
"
(i)
die Minimalzerlegung von . (Hier ist zu bemerken, daß für 6.10.3
ist und damit
ist). Dann erhalten wir
mit Zu jedem ist
wegen Satz
für
Eig
und damit
. Zu
(ii)
.
sei . Dann erhalten wir auch
(iii)
Definieren wir nämlich für einen Endomorphismus End
dessen Konjugati
on durch , so gilt für die Fortsetzung eines reellen Endomorphismus
. Für
folgt daher und damit
Eig
. Umgekehrt erhalten wir für
, daß
!
211
6. Euklidische und unitäre Vektorräume
Damit erhalten wir
und damit
Eig
, d.h.
ist.
(iv)
für ein geeignetes . Nun wählen wir Orthonormalbasen
der Räume
und ,
von
mit
die zusammen eine Orthonormalbasis
ergeben. Wir wollen zu einer “reellen” Basis trans von konjungierten Eigenformieren. Dazu betrachten wir eines der Paare
ergibt sich vektoren.
Für
, woraus und
erhalten wir
. Damit ist . Zusammen mit
(v) zeigt dies, daß orthonormale Vektoren sind. Wegen
(vi)
(v)
folgen.
Aus ergibt sich als Transformationsmatrix
Ist
der Eigenwert zu
, so ist
(vii)
und definieren wir
sowie
(viii)
und wir erhalten
212
Weiter erhalten wir
(ix)
(x)
6.11. Selbstadjungierte Endomorphismen
und für eine Orthonormalbasis von
..
.
..
.
..
Mit Lemma 6.7.4 folgt
..
.
..
.
..
..
.
.
..
.
ist .
..
.
.
..
und mit
6.11
und dies war die Behauptung.
Selbstadjungierte Endomorphismen
6.11.1 Definition Es sei ein euklidischer oder unitärer Vektorraum. Ein Endomorphismus End
heißt selbstadjungiert, , wenn ist. (Wir haben
diese Terminologie schon
vorher
benutzt).
Eine Matrix
heißt symmetrisch, wenn ist.
Eine Matrix
heißt hermitesch, wenn
ist.
6.11.2 Lemma Sei
ein euklidischer oder unitärer Vektorraum und eine
Orthonormalbasis von
. Ein Endomorphismus GL
ist genau dann
symmetrisch
selbstadjungiert in , wenn seine darstellende Matrix
bzw. hermitesch ist.
folgt dies
Beweis: Wegen
unmittelbar. Im euklidischen Falle entfällt der Übergang zum konjungiert komple
xen.
6.11.3 Satz Jeder selbstadjungierte Endomorphismus eines unitären oder euklidischen Vektorraumes ist normal.
Beweis: Dies ist klar wegen " .
213
6. Euklidische und unitäre Vektorräume
6.11.4 Satz Ist ein selbstadjungierter Endomorphismus eines euklidischen oder
unitären Vektorraumes, so besitzt nur reelle Eigenwerte. Insbesondere ist jeder
selbstadjungierte Endomorphismus eines euklidischen Raumes split über .
Beweis: Im euklidischen Fall setzen wir zu fort. Dann ist split über . Da normal ist, besitzt nach Satz 6.9.10 eine Orthonormalbasis aus Eigenvektoren.
. Da eine
Dann gilt nach (6.27)
Diagonalmatrix mit den Eigenwerten von in der Hauptdiagonalen ist, folgt und damit
für jeden Eigenwert von . Die gleiche Argumentation gilt
auch im unitären Fall. Im euklidischen Fall folgt nun, daß schon split über
ist.
6.11.5
Satz (Hauptachsentransformation einer symmetrischen Matrix) Ist
eine symmetrische Matrix, so gibt es eine orthogonale Matrix
daß
wobei ..
.
..
.
..
.
..
.
..
.
..
.
alle Eigenwerte von
, so
in ihrer Vielfachheit gezählt sind.
Beweis: Wir betrachten mit dem kanonischen Skalarprodukt. Der durch induzierte Endomorphismus ist dann selbstadjungiert und nach Satz 6.11.4 damit
split über . Aus Satz 6.9.10
erhalten wir die
Existenz einer Orthonormalbasis die verlangte Diagonalgestalt, und
aus Eigenvektoren von . Dann hat
ist nach Satz 6.10.1 orthogonal.
die Transformationsmatrix
6.11.6 Satz (Hauptachsentransformation
symmetrischer Bilinearformen) Es sei
. Dann gibt
eine symmetrische Bilinearform und es eine Orthonormalbasis von
derart, daß
..
.
..
.
..
.
..
.
..
.
..
.
ist, wobei alle Eigenwerte von in ihrer Vielfachheit
gezählt sind.
und
Sind die Eigenwerte so geordnet, daß
,
sind, so gibt es eine Orthogonalbasis , so daß
214
..
.
..
.
6.11. Selbstadjungierte Endomorphismen
..
.
.
..
.
ist.
. .
..
.
..
.
..
.
..
.
.. .
..
.
Beweis: Die Matrix ist symmetrisch, da eine symmetrische Bilinearform ist.
Wenden wir Satz 6.11.5 auf an, so transformiert sich die kanonische Basis zu
, bezüglich der
die geforderte Diagonalgestalt
einer Orthonormalbasis
, so definieren wir
hat. Ist Dann ist für
für sonst.
eine Orthogonalbasis, und es gilt , womit
die behauptete Gestalt erhält.
6.11.7 Bemerkung Die Tatsache, daß eine reelle symmetrische Matrix nur
reelle Eigenwerte hat, ist zunächst erstaunlich und hat “analytische” Gründe. Wir
arbeiten im
mit dem kanonischen Skalarprodukt und betrachten die quadratische Form
Diese definiert eine stetige Funktion
. Die -Sphäre
ist kompakt, und daher gibt es ein
. Wir
mit behaupten,
daß
ein
Eigenvektor
von
ist.
Dazu
betrachten
wir
den
Raum
. Gilt für alle , so ist
und damit ein Eigenvektor.
Sei also . Wir können normieren, so
annehmen dürfen.
wir daß
und
Nun wählen wir ein
und setzen
Da
und senkrecht aufeinander stehen, folgt
und damit
, und wir erhalten
215
6. Euklidische und unitäre Vektorräume
woraus sich nach Division durch
ergibt. Sind
und nicht orthogonal, so dürfen wir, indem wir gegebenfalls durch ersetzen,
annehmen.
Setzen wir nun und damit ,
. Also waren
und orthogonal und
so ergibt sich der Widerspruch
ist ein Eigenvektor. Wegen
folgt für den dazugehörigen Eigenwert
schon
. Damit ist
der Eigenwert zum
Eigenvektor . Das Verfahren läßt sich nun iterieren,
indem
man
die quadratische
Form betrachtet, diese nimmt auf der
-Sphäre wieder ihr Maximum
an einem Eigenvektor an, und ein reeller Eigenwert läßt sich wie eben berechnen.
So erhält man letztendlich, daß alle Eigenwerte reell sind. Dies liefert auch ein
Verfahren zur numerischen Berechnung von Eigenwerten und Eigenvektoren.
6.11.8 Bemerkung Der Name Hauptachsentransformation erklärt sich aus der
zugeordvorherigen Bemerkung. Durch die einer symmetrischen
Bilinearform
im euklinete quadratische Form
wird eine Kurve erklärt. Im
kann dies ein Ellipse oder Hyperbel, im
ein
dischen Raum
Ellipsoid oder Hyperboloid sein. Ist ein Vektor in , der Eigenvektor zum Eigenwert der darstellenden
von bezüglich der kanonischen Basis
ist, so gilt
Matrix
für
Eig
und
damit
und damit . Die Eigenvektoren der Matrix, welche die quadra-
tische Form bezüglich der kanonischen Basis darstellt, zeigen dann, wie in 6.11.7
gezeigt, in die Richtung der Hauptachsen
der quadratischen Kurven.
Wir wollen dies an einem Beispiel im
klarmachen. Sei eine
Bilinearform mit darstellender Matrix
ist dann
Das charakteristische Polynom von
Daraus errechnen sich die Eigenwerte
. Für erhalten wir zu
und
und die dazugehörigen normierten Eigenvektoren
216
und
6.11. Selbstadjungierte Endomorphismen
und
Die zu gehörende quadratische Form
Kurve
definiert eine quadratische
, so erhalten wir
Ist die Orthonormalbasis aus Eigenvektoren, so erhalten wir
. Ist und damit für
(6.34)
Die gemischten Glieder sind also verschwunden. Um diese Tatsache anschaulich
und
darzustellen, nehmen wir und an und setzen . Dann erhält (6.34) die Form
Im Falle von ist die Kurve eine Ellipse und im Falle von eine Hyperbel,
deren Hauptachsen und sind. Die Hauptachsentransformation bewirkt
also eine Drehung des Koordinatensystems in Richtung der Hauptachsen.
217
Index
Symbole
, 2
, 22
, 22
, 24
, 26
, 2
, 2
, 2
, 2
, 3
, 3
, 5
, 27
,5
, 5
,6
mod
, 11
, 27
, 32
, 33
, 37
, 38, 37
, 11
Pow
, 11
, 11
dom
, 11
rng
, 11
feld , 11
, 11
, 12
, 12
dom , 12
Im , 12
, 12
, 12
, 13
, 13
id , 13
, 21
, 22
, 39
, 39
, 40
Abb , 40
, 40
, 40
, 40
Abb , 40
, 41
, 41
, 41
, 42
, 42
, 42
Kern , 45
218
, 42
, 42
INDEX
, 47
, 47
, 47
Kern , 47
Kern , 48
, 48
, 49
mod , 49
, 50
, 51
, 52
, 55
Hom
, 61
Hom
, 61
End
, 62
, 62
GL
GL
, 62
, 66
, 81
, 81
, 81
, 81 , 83
, 83
, 84
Rang , 87
Rang
, 87
, 69
, 70
, 72
, 72
, 72
, 72
, 72
, 68
, 68
, 78
, 68
, 67
, 67
, 67
, 100
, 100
Char , 103
, 113
,
113
, 114
, 117
, 120
, 122
,
123
, 126
, 126
, 126
, 126
, 131
, 132
, 132
, 133
, 138
, 142
Eig , 142
, 144
, 150
, 151
Bkern , 171
Bkern , 171
, 172
Bkern
, 174
, 175
, 66
, 66
,, 66
, 6766
, 81
, 78 , 73
, 74
219
INDEX
, 178
, 179
, 179
, 179
, 180
,
180
, 181
, 183
, 183
, 187
, 190
, 191
, 191
, 192
, 192
, 192
, 192
Bkern
, 194
, 195
, 200
, 201
, 202
, 203
, 203
, 203
220
, 184
Stichworte
elementare, 89
Betrag
einer komplexen Zahl, 194
Beweis durch Iteration, 37
bijektiv, 12
Bild
einer Funktion, 12
einer Menge unter einer Funktion, 12
Bilinearform, 171
alternierende, 172
antisymmetrische, 172
negativ definite, 178
nicht ausgeartete, 172
positiv definite, 177
positiv semi-definite, 177
symmetrische, 172
Bilinearkern, 171
-Vektorraum, 25
Übergangsmatrix, 84
Äquivalenzrelation, 10
Abbildung, 12
duale, 74
involutorische, 77
lineare, 53
semilineare, 194
unitäre, 202
Abstandsfunktion, 179
affiner Raum, 100
Algebra, 71, 149
assoziative, 150
der quadratischen Matrizen, 71
algebraisch über , 152
allgemeine orthogonale Gruppe, 191
allgemeine unitäre Gruppe, 202, 203
alternierend, 116
Angelpunkte, 95
Antihomomorphismus, 69
Antiisomorphismus, 71
Argument
einer komplexen Zahl, 194
assoziiert, 133
aufgespannter Raum, 27
Aussagen, 1
aussagenlogische Operation, 2
aussagenlogischen Operationen, 2
Aussonderungsaxiom, 6
Auswahlaxiom, 34
Auswahlfunktion, 34
Automorphismus, 46
Cauchy-Schwarzsche Ungleichung, 178,
198
Cayley
Satz von Hamilton–C., 169
Charakteristik
eines Körpers, 103
charakteristische Gleichung, 143
charakteristische Polynom, 144
Cofaktor, 126
Cosinus-Satz, 182
Definitionsbereich, 11, 12
Determinante
einer Matrix, 122
eines Endomorphismus, 120
Determinantenfunktion, 116
nicht triviale, 116
diagonalisierbar, 148
Differenzenraum
Basis, 30
duale, 73
kanonische, 40
Basistransformation
221
INDEX
eines affinen Raumes, 100
Dimension
einer Algebra, 150
eines Vektorraumes, 37
Domain, 11
Drehung
eigentliche, 190
uneigentliche, 190
Drehungen, 190
Dreiecksungleichung, 179
duale Abbildung, 74
dualer Raum, 72
Durchschnitt, 7
zweier Klassen/Mengen, 7
Eigenraum, 142
Eigenvektor, 142
Eigenwert, 142
Einbettung
kanonische, 48
kanonische von in
, 77
Einheit, 131
Einheitsmatrix, 67
Einsetzungshomomorphismus, 151
Element
invertierbares, 131
Elementarmatrizen, 90
endlich erzeugt, 28
Endomorphismenring, 62
Endomorphismus, 46
adjungierter, 173
diagonalisierbarer, 148
nilzyklischer, 161
selbstadjungierter, 173, 213
unitärer, 202
vertauschbarer, 148
Entwicklung
einer Determinante, 128
Epimorphismus, 46
kanonischer, 48, 52
222
Erzeugendensystem, 27
minimales, 30
Erzeugnis, 27
Extensionalität, 5
für fast alle, 40
Faktorgruppe, 48, 52
Feld, 11
Funktion, 12
inverse, 13
partielle, 11
totale, 12
Gaußsches Eliminationsverfahren, 95
Gerade, 104, 183
Gleichungssystem
homogenes, 105
lineares, 98
Grad
eines Polynoms, 41, 138
Gruppe, 20
abelsche, 21
allgemeine lineare, 62, 71
allgemeine orthogonale, 187, 191
allgemeine unitäre, 202, 203
alternierende, 115
kommutative, 21
spezielle orthogonale, 190, 192
spezielle unitäre, 202, 203
symmetrische, 22, 113
halbeinfacher Anteil, 157
halbeinfaches Element, 154
Halbgruppe, 19
Halbordnung, 10
strikte, 10
Hamilton
Satz von H.–Cayley, 169
Hauptachsentransformation, 214
Hauptdiagonale, 66
Hauptideal, 132
INDEX
Hauptidealring, 134
hermitesch, 194
hermitesche Form, 194
Hessesche Normalform, 183
Homomorphiesatz
für Gruppen, 49
für Vektorräume, 56
Homomorphismus, 45
der Vektorräume, 53
von Algebren, 150
von Gruppen, 45
Hyperebene, 183
Ideal, 132
beidseitiges, 132
erzeugtes, 132
linkes, 132
rechtes, 132
idempotent, 154
Identität, 13
Imaginärteil, 192
Index
einer Untergruppe, 51
Indexmenge, 7
Induktionsanfang, 16, 33
Induktionsbehauptung, 15
Induktionsschritt, 16, 33
Induktionsvoraussetzung, 15
Infixnotation, 10
injektiv, 12
Integritätsbereich, 133
Integritätsring, 23
invertierbar, 131
Isometrie, 187
isomorph, 47
Isomorphismus, 46
affiner Räume, 101
kanonischer, 76
Junktoren, 2
Kästchenschreibweise
von Matrizen, 70
Körper, 24
algebraisch abgeschlossener, 139
kommutativer, 24
kanonisch isomorph, 76
kanonische Skalarprodukt, 180, 199
Kardinalzahl, 33
Kern
eines Homomorphismus, 45
Kette
in einer Halbordnung, 34
Klassen, 5
Klassendifferenz, 7
Komplement
algebraisches, 126
eines Teilraumes, 58
orthogonales, 78, 182, 199
Komplementärmatrix, 126
komplexe Zahlen, 192
Komplexifizierung, 200
komponentenweise Definition, 39
Komposition, 11
Konjugation, 193
konjungiert Komplexe, 193
Koordinatendarstellung, 59, 83
konjungierte, 196
Koordinatenvektoren, 83
Koprodukt
von Vektorräumen, 42
Kroneckersymbol, 39
verallgemeinertes, 41
Körper, 24
Länge
eines Vektors, 181
Leere Menge, 6
Lemma von Zorn, 34
Limesschritt, 33
Limeszahlen, 33
223
INDEX
linear abhängig, 28
linear unabhängig, 29
lineare Abbildung, 53
lineare Mannigfaltigkeit, 103
lineares Gleichungssystem , 98
Linearform, 72
Linearkombination, 28
linksinverses Element, 20
linksneutrales Element, 19
Matrix, 65
geränderte, 99
hermitesche, 213
invertierbare, 71
konjungierte, 126
nilzyklische, 164
normale, 207
orthogonale, 191
positiv definite, 180
symmetrische, 176, 213
transponierte, 72
unitäre, 203
Matrixdarstellung
einer Bilinearform, 175
eines Homomorphismus, 68
Matrixmultiplikation, 69
maximal linear unabhängig, 30
maximales Element, 34
Mengenfamilie, 7
Metrik, 179
metrischer Raum, 179
Minimalpolynom, 151, 152
Minimalzerlegung, 157
Monomorphismus, 46
multilinear, 116
Nachbereich, 11
Nachfolgerzahlen, 32
Nebendiagonale, 66
Nebenklasse
224
linke, 50
negatives Element, 67
neutrales Element, 19
nilpotent, 153
nilpotenter Anteil, 157
nilzyklisch, 161
Norm, 179
eines Endomorphismus, 202
euklidische, 135
Normalform
Jordansche, 168
Normalteiler, 52
Normfunktion, 179
normierter Raum, 179
normierter Vektor, 181
Nullideal, 132
Nullmatrix, 67
Nullstelle, 139
Nullteiler
linker, 23
rechter, 23
Ordinalzahlen, 31
Ordnung, 10
einer Gruppe, 51
strikte, 10
Ordnungen
äquivalente, 31
Ordnungstypus, 31
orthogonal, 78, 181, 199
Orthogonalbasis, 185
orthogonale Matrizen, 191
orthogonale Summe, 184
Orthogonalsystem
vollständiges,, 154
Orthonormalbasis, 185
Paar
geordnetes, 9
Paarmenge, 7
INDEX
Partition, 47
Permutation, 22, 113
gerade, 115
ungerade, 115
Pivots, 95
Polynom
charakteristisches, 144
irreduzibles, 141
konstantes, 139
Polynome, 41
Polynomring, 138
Potenzmenge, 8
Potenzmengenaxiom, 8
Primelement, 134
Produkt
inneres zweier Vektoren, 70
kartesisches, 17
von Matrizen, 69
von Vektorräumen, 42
Punkte
eines affinen Raumes, 100
punktweise Definition, 39
quadratische Form, 178, 197
Quelle
einer Funktion, 12
Quotientengruppe, 48, 52
Quotientenraum, 56
Rang
einer linearen Abbildung, 87
einer Matrix, 87
range, 11
Raum
affiner, 100
metrischer, 179
Realteil, 192
rechtsinverses Element, 20
rechtsneutrales Element, 19
Rekursion, 16
transfinite, 33
Rekursionsvorschrift, 16, 33
Relation, 10
antireflexive, 10
antisymmetrische, 10
konnexe, 10
konverse, 11
lineare, 10
rechtseindeutige, 11
reflexive, 10
symmetrische, 10
transitive, 10
relativ prim, 134
Ring, 22
der Polynome, 42
euklidischer, 136
faktorieller, 137
kommutativer, 22
mit , 22
nullteilerfreier, 23
Rotation
eigentliche, 190
uneigentliche, 190
Rotationen, 190
Satz des Pythagoras, 182
Schiefkörper, 24
Schranke
obere für eine Kette, 34
selbstadjungiert, 173
semilinear, 194
senkrecht, 78, 199
Sesquilinearform, 194
indefinite, 198
negativ definite, 198
nicht ausgeartete, 194
positiv definite, 198
positiv semi-definite, 198
Sesquilinearkern, 194
Signatur
225
INDEX
einer Permutation, 114
Skalarprodukt, 180, 199
kanonisches, 180
kanonisches auf , 199
von Vektoren, 70
Spalte
einer Matrix, 66
Spaltenrang, 93
Spaltenumformungen
elementare, 91
Spaltenvektoren, 67
Span, 27
spezielle orthogonale Gruppe, 190, 192
spezielle unitäre Gruppe, 202, 203
Spiegelung
an einer Hyperebene, 188
split über , 154
Spur, 144
einer Matrix, 145
eines Endomorphismus, 145
Strecke
ine einem affinen Raum, 100
Stufenlinie, 95
Summe
direkte von Vektorräumen, 42
orthogonale, 184
von Unterräumen, 57
direkte, 57
surjektiv, 12
Teiler, 133
gemeinsamer, 134
teilerfremd, 134
Teilklasse, 5
Teilmenge, 5
Teilraum, 26
invarianter, 162
Teilring, 23
Transformationsmatrix, 84
Transformationssatz, 85
226
Transposition, 113
transzendent über ., 152
Unbekannte, 98
Unbestimmte, 41
Unbestimmten, 138
Unendlichkeitsaxiom, 8
unitärer Raum, 199
Universum
mathematisches, 5
Untergruppe, 21
Unterraum
zyklischer, 161
Unterring, 23
Untervektorraum, 26
Vektorprodukt, 150
Vektorraum, 25
endlich erzeugt, 28
euklidischer, 180
komplexer, 198
normierter, 179
reeller, 177
unitärer, 199
Vereinigung, 7
zweier Klassen/Mengen, 7
Vereinigungsmengenaxiom, 7
Verknüpfung, 19
assoziative, 19
vertauschbar, 148, 157
Verträglichkeit
einer Äquivalenzrelation, 52
Vielfachheit
algebraische, 145
einer Wurzel, 139
geometrische, 147
vollständiges Orthogonalsystem, 154
Vollständige Induktion, 15, 16
Vorbereich, 11
Winkel, 181
INDEX
Wohldefiniertheit
einer Abbildung, 48
Wohlordnung, 14
Wohlordnungssatz, 33
Wurzel
eines Polynoms, 139
Zahlen
ganze, 22
natürliche, 14, 21, 32
rationale, 22
Zeile
einer Matrix, 66
Zeilenrang, 93
Zeilenstufenform, 95
Zeilenumformungen
elementare, 91
Zeilenvektoren, 67
Ziel
einer Funktion, 12
227
Zugehörige Unterlagen
Herunterladen