Lineare Algebra I und II - Mathematisches Institut

Werbung
Lineare Algebra I und II
Prof. Dr. Jürgen Stückrad
Mathematisches Institut der Universität Leipzig
Wintersemester 2011/2012 und Sommersemester 2012
letzte Änderung: 13. Juni 2012
Inhaltsverzeichnis
Einleitung
1
1 Lineare Gleichungssysteme
1.1 Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . .
1.2 Gaußscher Algorithmus . . . . . . . . . . . . . . . . . . . . . . . .
3
5
11
2 Matrizen
2.1 Gruppen, Ringe, Körper . . . . .
2.2 Matrizen . . . . . . . . . . . . . .
2.2.1 Grundlegende Definitionen
2.2.2 Matrizenringe . . . . . . .
2.3 Spezielle Matrizen . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
27
27
28
37
3 Vektorräume, Moduln, Ideale
3.1 Operationen auf Mengen . . . .
3.2 Moduln . . . . . . . . . . . . .
3.3 Erzeugendensysteme und Basen
3.4 Vektorräume . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
47
58
66
4 Lineare Abbildungen
4.1 Grundbegriffe . . . . . . .
4.2 Koordinaten . . . . . . . .
4.3 Fundamentalsatz . . . . .
4.4 Matrizendarstellungen . .
4.5 Multilineare Abbildungen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
83
92
95
101
112
5 Endomorphismen
5.1 Nullstellen . . . . . . . . . . . . . . .
5.2 Determinanten . . . . . . . . . . . .
5.3 Eigenwerte . . . . . . . . . . . . . . .
5.4 Klassifizierung von Endomorphismen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
119
119
123
130
137
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A Mengen und Logik
.
.
.
.
.
.
.
.
.
.
145
i
ii
INHALTSVERZEICHNIS
A.1 Allgemeine Bemerkungen . . . . . . . . . . .
A.2 Mengen . . . . . . . . . . . . . . . . . . . .
A.3 Aussagen . . . . . . . . . . . . . . . . . . .
A.3.1 Aussagenlogik . . . . . . . . . . . . .
A.3.2 Prädikatenlogik . . . . . . . . . . . .
A.4 Relationen . . . . . . . . . . . . . . . . . . .
A.4.1 Definitionen, Beispiele . . . . . . . .
A.4.2 Ordnungs- und Äquivalenzrelationen
A.4.3 Äquivalenzklassen, Partitionen . . . .
A.5 Abbildungen . . . . . . . . . . . . . . . . . .
A.6 Kardinalzahlen . . . . . . . . . . . . . . . .
A.6.1 Endliche und abzählbare Mengen . .
A.6.2 Endliche Kardinalzahlen . . . . . . .
B Polynome
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
146
149
149
152
155
155
155
157
158
163
164
167
175
Einleitung
Schlägt man in älteren Lexika nach, so wird Algebra meist erklärt als Lehre
von den Gleichungen und ihren Lösungen. Dementsprechend wäre lineare Algebra dann die Lehre von den linearen Gleichungen. Historisch gesehen ist das
auch gar nicht so abwegig, denn fragt man nach der Bedeutung des Wortes ”Algebra”, so stößt man auf den berühnmten arabischen Gelehrten Al-Chwarizmi (Abu
Dscha’far Muhammad ibn Musa al-Chwarizmi), der um 780 in der Nähe des Aralsees geboren wurde und nach 835 vermutlich in Bagdad starb. Er verbrachte den
größten Teil seines Lebens in Bagdad und hatte dort zwischen 813 und 835 seine Hauptschaffenszeit als Universalgelehrter (d. h. als Mathematiker, Astronom,
Geograph). In seinem um 820 erschienenen ersten Werk ”Kitab al-Dscham’wal-tafriq bi-hisab al-Hind”, das nur noch in lateinischer Übersetzung aus dem 12.
Jahrhundert mit dem Titel ”Liber Algorithmi de numero Indorum” überliefert ist,
ging es um das Rechnen mit Dezimalzahlen (von ihm ”indische Zahlen” genannt)
und es wurde die Ziffer Null in das arabische Zahlsystem eingeführt (arabisch:
”sifr”). Aus der Verballhornung seines Namens in der lateinischen Übersetzung
(”Algorithmi” statt ”Al-Chwarizmi”) entstand übrigens der Begriff ”Algorithmus”.
In seinem Hauptwerk ”Kitab al-muchtasar fi hisab al-dschabr wa-l-muqabala”, auf
deutsch ”Buch über das Rechnen durch Ergänzen und Ausgleich”, das um 830 erschien, behandelt er systematisch Lösungsstrategien für lineare und quadratische
Gleichungen, wozu er wohl erstmals auch geometrischen Darstellungen verwendete. Dieses Buch stellte über Jahrhunderte ein Standardwerk zu dieser Thematik
dar und wurde vielfach - auch in Auszügen - ins Lateinische übersetzt. Dabei entstand auch der Begriff ”Algebra” aus der Latinisierung des Wortes ”al-dschabr”
im ursprünglichen Titel.
In diesem Sinn gehört die Mathematik und insbesondere die Algebra zu den
ältesten Wissenschaften überhaupt, denn es sind Keilschriftentexte aus dem Sumerischen Reich überliefert, die belegen, dass man sich schon vor mehr als 4500
Jahren mit Gleichungen und Strategien zum Auffinden ihrer Lösungen beschäftigt
hat.
Heute geht es in der Algebra um das Studium mathematischer Strukturen, das
sind - grob gesagt - Mengen, auf den zusätzliche Operationen und ggf. Relationen
1
2
EINLEITUNG
erklärt sind, und um die Beziehungen zwischen solchen Strukuren. Die Algebra
war und ist der Vorreiter dieser Denkweise, die mittlerweile weite Teile der Mathematik, der Informatik und der Naturwissenschaften beherrscht.
Nach heutigem Verständnis erhebt sich das Gebäude der modernen Mathematik
auf drei fundamentalen Säulen: Der formalen Logik, den formalen Sprachen und
der Mengenlehre, wobei die beiden erstgenannten derzeit wohl eher der (theoretischen) Informatik zuzuordnen sind. Wir werden uns mit diesen grundlegenden
Dingen zunächst nur am Rande beschäftigen und statt dessen versuchen, die der
modernen Mathematik zugrunde liegende axiomatsche Herangehensweise anhand
konkreter Fragestellungen der linearen Algebra und später der Algebra zu studieren und zu trainieren. Zu einigen mengentheoretischen und logischen Grundlagen
wird im Anhang A des Skriptes eingegangen und im weiteren Verlauf jeweils
verwiesen.
Zu Beginn dieser Vorlesung wollen wir uns - wie gesagt - kurz mit mengentheoretischen und logischen Grundlagen der Mathematik beschäftigen. Danach geht es
um die Untersuchung linearer Gleichungssysteme mit beliebiger (aber endlicher)
Anzahl von Unbestimmten und Gleichungen. Es ist klar, daß man zur Behandlung solcher Systeme Zahlbereiche benötigt, in welchen Addition einschließlich
Subtraktion und Multiplikation ausführbar sind und hierfür die ”üblichen” Regeln gelten. Solche Bereiche werden als Ringe bezeichnet. Z. B. bildet die Menge
Z der ganzen Zahlen einen Ring. Bei genauerer Betrachtung stellt sich heraus,
daß zur vollständigen Lösung auch noch die Division (außer durch 0) ausführbar
sein muß. Derartige Zahlbereiche werden dann Körper genannt. Beispiele hierfür
sind die rationalen Zahlen Q und die reellen Zahlen R.
Der Einführung und ersten Untersuchung solcher Strukturen wie Ringe, Körper,
Gruppen usw. werden uns zu Beginn des zweiten Kapitels beschäftigen. Die Koeffizienten der in diesem Kurs behandelten linearen Gleichungssysteme stammen i.
a. aus einem derartigen Körper K. Dabei werden wir spezielle Probleme wie etwa
die Frage nach der Positiviät der Komponenten in den Lösungstupeln (falls sie
überhaupt sinnvoll ist) außer acht lassen. Im dritten Kapitel werden dann die für
die lineare Algebra typischen Strukturen, die Vektorrüme oder allgemeiner Moduln, betrachtet und untersucht. Danach werden wir im vierten Kapitel strukturerhaltende Abbildungen zwischen derartigen algebraischen Strukturen behandeln
und dann in den folgenden Kapiteln im Rahmen der Vorlesung ”Lineare Algebra
II” wichtige Anwendungen studieren.
Kapitel 1
Lineare Gleichungssysteme
In der Schule werden häufig Konstruktionsaufgaben behandelt, bei denen es um
(meist ebene) geometrische Figuren geht. Dabei werden z. B. Fragen nach der
gegenseitigen Lage, den gemeinsamen Schnittpunkten usw. solcher Figuren diskutiert oder es geht um Aussagen über Flächen- bzw. Längenverhältnisse von
Teilfiguren oder -strecken. Beispiele sind:
• Man konstruiere die Innenwinkelhalbierenden eines gegebenen Dreiecks und
zeige, daß sie sich in genau einem Punkt schneiden und daß dieser Punkt
der Mittelpunkt des Inkreises des gegebenen Dreiecks ist.
• Man konstruiere die Seitenhalbierenden eines gegebenen Dreiecks und zeige, daß sie sich in einem Punkt schneiden und daß dieser Punkt jede der
Seitenhalbierenden im Verhältnis 2 : 1 teilt.
Man lernt dabei, daß es zur Lösung derartiger Probleme oft hilfreich ist, ein
(rechtwinkliges) Koordinatensystem einzuführen und damit die geometrische Fragestellung in eine oder mehrere Gleichungen zu ”übersetzen”, deren Lösung(en)
dann die gesuchten Schnittpunktkoordinaten, Verhältniszahlen usw. liefern. Das
geometrische Problem ist also in ein algebraisches überführt worden, für dessen
Lösung man dann ggf. analytische Methoden heranzieht.
Umgekehrt kann man natürlich versuchen, vorgelegte analytische oder algebraische Problemstellungen auf diese Weise geometrisch zu interpretieren und so zu
lösen (daher die Bezeichnungen ”analytische” oder ”algebraische” Geometrie).
Dabei stößt man in der Mathematik, den Natur-, Ingenieur- und Wirtschaftswissenschaften häufig auf Probleme, bei denen die entsprechenden algebraischen
Modelle ”linear” sind, d. h. die Unbestimmten, die die jeweiligen System-, Steueroder sonstigen Größen repräsentieren, kommen in den auftretenden Gleichungen
höchstens linear vor, d. h. Produkte mehrerer Unbestimmter treten nicht auf.
3
4
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Als Beispiel hierfür mag die folgende einfache Problemstellung dienen: Hat z. B.
ein Händler Waren W1 , . . . , Wn zu Stückpreisen p1 , . . . , pn vorrätig und kauft ein
Kunde davon Stückzahlen w1 , . . . , wn , so berechnet sich der zu entrichtende Preis
p wie folgt
p = p1 w 1 + . . . + pn w n
(∗)
Hat umgekehrt ein Kunde nur ein bestimmtes Budget p zur Verfügung, so kann
man nach den Warenkörben fragen, die er dafür erwerben könnte. Mathematisch
bedeutet das, in obiger Gleichung (∗) w1 , . . . , wn als Unbestimmte aufzufassen
und alle Warenkörbe zu ermitteln, die den Preis p liefern. Ein Warenkorb ist
dann ein geordnetes n-Tupel (x1 , . . . , xn ), wobei xi für i = 1, . . . , n die Anzahl
der Ware Wi bezeichnet, die jeweils erworben werden kann. Entsprechend nennt
man (∗) lineare Gleichnug mit Koeffizienten p, p1 , . . . , pn in den Unbestimmten
w1 , . . . , wn . Ein geordnetes n-Tupel (x1 , . . . , xn ) ganzer oder allgemeiner reeller
Zahlen, das (∗) erfüllt, heißt Lösung von (∗).
Die in (∗) auftretenden Größen können aber auch ganz andere Bedeutungen haben. Z. B. könnten die W1 , . . . , Wn Transportmittel mit Kapazitäten w1 , . . . , wn
sein und p1 , . . . , pn sind Anzahlen von Einsätzen. Dann ist p die dabei insgesamt
transportierte Menge. Ist umgekehrt eine bestimmte Menge p zu transportieren,
so kann man mit (∗) eine entsprechende Auslastungsstrategie ermitteln, wobei
dann allerdings die p1 , . . . , pn als Unbestimmte zu betrachten wären. Sind dabei
unterschiedliche Güter zu transportieren, so ergeben sich mehrere Gleichungen
des Typs (∗). Man spricht dann von einem linearen Gleichnugssystem in den
Unbestimmten p1 , . . . , pn .
Es erhebt sich hierbei zunächst einmal die Frage, aus welchen Zahlbereichen die
Komponenten unserer Lösungstupel stammen. Sind die Koeffizienten - wie in
obigem Beispiel - rationale oder allgemeiner reelle Zahlen, so kann man auch nur
Lösungstupel mit rationalen oder reellen Komponenten erwarten. Handelt es sich
bei den gesuchten Größen wie oben um Mengenangaben, so sind i. a. nur solche
Lösungstupel sinnvoll, deren Komponenten nicht negativ sind. Beschreiben sie
Anzahlen, so würden nur ganzzahlige Lösungstupel in Frage kommen usw.
Es stellt sich z. B. heraus, daß etwa die Bestimmung aller ganzzahligen Lösungstupel bei einem linearen Gleichungssystem mit ganzzahligen Koeffizienten einen
wesentlich höheren Aufwand erfordert als die Bestimmung aller rationalzahligen
Lösungstupel.
In diesem Kapitel der Vorlesung werden wir uns mit derartigen linearen Gleichungssystemen beschäftigen, wobei es - wie gesagt - erst einmal um die Bestimmung ihrer Lösungsmengen geht. Hierzu werden wir geeignete Verfahren behandeln, mit deren Hilfe wir auch die Struktur dieser Lösungsmengen genauer
beschreiben können.
1.1. GRUNDLEGENDE DEFINITIONEN
1.1
5
Grundlegende Definitionen
Gegeben sei eine Gleichung
a1 X 1 + a2 X 2 + . . . + an X n = b
(1.1)
mit (zunächst) reellen Zahlen a1 , a2 , . . . , an , b und Unbestimmten X1 , X2 , . . . , Xn .
Eine solche Gleichung heißt lineare Gleichung, die a1 , . . . , an heißen Koeffizienten
und b konstantes Glied oder konstanter Term oder auch nur Konstante von (1.1).
Die Gleichung 1.1 heißt homogen, wenn b = 0
Gesucht wird die Menge
L := {(x1 , . . . , xn ) ∈ Rn | a1 x1 + . . . + an xn = b} ⊆ Rn .
Sie heißt Lösungsmenge von (1.1), ihre Elemente heißen Lösungen von (1.1).
(Rn := {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R} ist die Menge der geordneten n-Tupel
reeller Zahlen, s. Anhang A, Abschnitt A.2.)
Bemerkungen 1.1.
1. L ändert sich nicht, wenn man 1.1 mit einer von 0
verschiedenen reellen Zahl multipliziert, d. h. wenn man statt 1.1 die Gleichung
(αa1 )X1 + (αa2 )X2 + . . . + (αan )Xn = αb
mit α ∈ R \ {0} betrachtet.
2. Man erkennt sofort, dass
• L=∅
⇔
a1 = . . . = an = 0, b 6= 0 und
• L = Rn
⇔
a1 = . . . = an = b = 0.
In allen anderen Fällen gilt somit ∅ ⊂ L ⊂ Rn . L kann relativ einfach
ermittelt werden, wie wir an einem Beispiel verdeutlichen wollen.
Beispiel 1.2. Man bestimme die Lösungsmenge der Gleichung
2X1 − 6X2 − 5X3 = 3
(1.2)
Lösung: Es ist hier n = 3, a1 = 2, a2 = −6, a3 = −5 und b = 3. Werden zwei der
drei Unbestimmten beliebig gewählt, so kann die dritte dann berechnet werden.
Wenn wir z. B. X2 = t1 , X3 = t2 mit beliebigen t1 , t2 ∈ R setzen, so erhalten wir
X1 = 23 + 3t1 + 25 t2 und somit gilt
L = {( 32 + 3t1 + 52 t2 , t1 , t2 ) | t1 , t2 ∈ R}
= {( 23 , 0, 0) + t1 (3, 1, 0) + t2 ( 25 , 0, 1) | t1 , t2 ∈ R}.
Diese Darstellungen von L (insbesondere die letzte) werden als Parameterdarstellungen von L mit Parametern t1 und t2 bezeichnet.
6
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Bemerkungen 1.3.
1. Eine solche Parameterdarstellung ist i. a. nicht eindeutig (z. B. hätten wir X1 und X2 beliebig wählen können, um dann X3
zu bestimmen). Allerdings scheint die Anzahl der frei wählbaren Parameter
eindeutig bestimmt zu sein.
2. Die lineare Gleichung
2X1 − 6X2 − 5X3 = 0
heißt zu (1.2) gehörige homogene Gleichung. Ihre Lösungsmenge L0 hat die
Gestalt
L0 = {t1 (3, 1, 0) + t2 ( 52 , 0, 1) | t1 , t2 ∈ R}.
Sie kann sofort aus L bestimmt werden, indem in einer Parameterdarstel
lung von L der ”konstante Term” in unserem Fall ( 32 , 0, 0) weggelassen
wird. Darauf werden wir später nochmal genauer eingehen.
3. In unserem Beispiel stammen Koeffizienten und konstanter Term von 1.2
aus Q (sogar aus Z). Daher könnte man auch nach den Lösungen aus Q3
fragen. Man erkennt sofort, daß man diese erhält, wenn t1 , t2 beliebig aus
Q gewählt werden. (Die Frage nach den ganzzahligen Lösungen ist i. a. viel
schwieriger zu beantworten und soll hier auch nicht weiter verfolgt werden.
In unserem Beispiel wäre t1 als beliebige ganze und t2 als beliebige ungerade
ganze Zahl zu wählen.)
Wir kommen nun zum allgemeinen Fall. Hier sind mehrere lineare Gleichungen in
Unbestimmten X1 , . . . , Xn vorgelegt und es wird die Menge ihrer gemeinsamen
Lösungen gesucht. Man spricht dann von einem linearen Gleichungssystem in n
Unbestimmten.
Definition 1.4. Vorgelegt sei das lineare Gleichungssystem
a11 X1
a21 X1
..
.
+ a12 X2
+ a22 X2
..
.
+ . . . + a1n Xn
+ . . . + a2n Xn
..
.
= b1
= b2
..
.
(1.3)
am1 X1 + am2 X2 + . . . + amn Xn = bm
bestehend aus m linearen Gleichungen in n Unbestimmten X1 , . . . , Xn (m ≥ 0,
n ≥ 1) mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Termen
b1 , . . . , bm aus R. Es heißt homogen, wenn b1 = . . . = bm = 0.
(a) Die Menge
L := {(x1 , . . . , xn ) ∈ Rn | ai1 x1 +. . .+ain xn = bi für alle i = 1, . . . , m} ⊆ Rn
heißt Lösungsmenge von 1.3, ihre Elemente heißen Lösungen von 1.3. Wenn
L = ∅, so sagen wir, 1.3 sei unlösbar.
1.1. GRUNDLEGENDE DEFINITIONEN
7
(b) Zwei lineare Gleichungssysteme in jeweils n Unbestimmten heißen äquivalent,
wenn sie die gleiche Lösungsmenge besitzen.
(c) Das System
a11 X1
a21 X1
..
.
+ a12 X2
+ a22 X2
..
.
+ . . . + a1n Xn
+ . . . + a2n Xn
..
.
= 0
= 0
..
.
am1 X1 + am2 X2 + . . . + amn Xn = 0
heißt zu 1.3 gehöriges homogenes System. Es ist stets lösbar, denn (0, . . . , 0)
ist eine Lösung. Diese nennt man triviale Lösung (manchmal auch Nullösung).
Bemerkungen 1.5.
1. Mit Gleichungen kann man ”rechnen”. Man kann eine
Gleichung mit einer reellen Zahl multiplizieren (s. Bemerkung 1.1.1) oder
Gleichungen addieren. Z. B. ist die Summe der beiden Gleichungen
a1 X1 + . . . + an Xn = b und
a01 X1 + . . . + a0n Xn = b0
(a1 , . . . , an , a01 , . . . , a0n , b, b0 ∈ R) die Gleichung
(a1 + a01 )X1 + . . . + (an + a0n )Xn = b + b0 .
Beides kann man auch kombinieren, d. h. man kann ein Vielfaches einer
Gleichung zu einer anderen addieren usw.
2. Aus 1.3 entsteht ein äquivalentes System, wenn man für beliebige i, j ∈
{1, . . . , m} mit i 6= j
• ein Vielfaches der i-ten Gleichung zur j-ten Gleichung addiert oder
• die i-te Gleichungen mit der j-ten Gleichung vertauscht.
Unser Ziel ist es nun, ein vorgelegtes lineares Gleichungssystem in ein ”leicht
lösbares” äquivalentes System zu überführen, wobei folgende Umformungen zugelassen werden:
(I) Addition eines Vielfachen einer Gleichung zu einer anderen
(II) Vertauschen von Gleichungen
(III) Vertauschen der Reihenfolge der Unbestimmten.
Nach Bemerkung 1.5.2 ist klar, dass durch diese Umformungen das gegebene
System in ein äquivalentes überführt wird. Wie diese Umformungen eingesetzt
werden, soll an den folgenden Beispielen verdeutlicht werden. Dabei ist klar, daß
durch diese Umformungen die Lösungsmenge nicht verändert wird.
8
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Beispiele 1.6. (1) Man bestimme die Lösungsmenge des linearen Gleichungssystems
X1 − 3X2 + X3
2X1 + X2 − X3
3X1 − X2 − X3
= 1
= 3
= 3
X1 − 3X2 + X3
7X2 − 3X3
8X2 − 4X3
= 1
= 1
= 0
X1 − 3X2 +
7X2 −
X3
3X3
− 47 X3
Ziel der ersten Umformung: Koeffizient von X1
ab der zweiten Gleichung wird Null. Dazu:
(−2)(1.Gl.) + (2.Gl.)
(−3)(1.Gl.)
+
(3.Gl.)
Ziel der zweiten Umformung: Koeffizient von
X2 ab der dritten Gleichung wird Null. Dazu:
(− 87 )(2.Gl.) + (3.Gl.)
= 1
= 1
= − 87
Dieses System, das - wie gesagt - die gleiche Lösungsmenge wie unser ursprüngliches System besitzt, hat nun aber eine wesentlich einfachere Gestalt
(man spricht von einer ”Dreiecksgestalt”) und kann Schritt für Schritt ”von
unten nach oben” gelöst werden. Konkret geht man nun wie folgt vor:
Aus der letzten Gleichung − 74 X3 = − 87 ergibt sich X3 = 2. Dies setzt man in
die ersten beiden Gleichungen ein und erhält das folgende System (welches
wiederum Dreiecksgestalt besitzt)
X1 − 3X2
7X2
= −1
= 7
Hieraus ergibt sich nun analog wie vorher X2 = 1 und schließlich entsteht
nach Einsetzen in die erste Gleichung das System
X1 = 2
Die Lösungsmenge ist also
L = {(2, 1, 2)} ⊂ R3 .
(2) Man bestimme die Lösungsmenge des linearen Gleichungssystems
2X1
3X1
−2X2 + X3
2
X + X3
−
3 2
+
4X2 − X3
= −2
= 1
= 13
2
Ziel der ersten Umformung: Koeffizient
von X1 in der ersten Gleichung wird
6= 0. Dazu: Vertauschen von erster und
zweiter Gleichung
Das nun entstandene System lautet
2X1 −
3X1
2
X
3 2
−2X2
+
4X2
Es entsteht
+ X3
+ X3
− X3
= 1
= −2
= 13
2
Ziel der zweiten Umformung: Koeffiz
ient von X1 ab der zweiten Gleichung
wird Null. Dazu:
(− 32 )(1.Gl.) + (3.Gl)
1.1. GRUNDLEGENDE DEFINITIONEN
2
X
3 2
2X1 −
+
+
−
−2X2
5X2
X3
X3
5
X
2 3
= 1
= −2
= 5
9
Ziel der dritten Umformung: Koeffizient von X2 ab der dritten Gleichung
wird Null. Dazu:
( 52 )(2.Gl.) + (3.Gl)
und wir erhalten (Gleichungen der Gestalt 0 = 0 werden nicht weiter betrachtet)
2X1 −
2
X
3 2
+ X3
−2X2 + X3
= 1
= −2
Eine weitere Vereinfachung ist nun nicht mehr möglich, das System hat ”Trapezgestalt”. X3 kann frei gewählt werden: Wir setzen X3 = t1 mit einem frei
wählbaren t1 ∈ R (t1 wird Parameter genannt) und erhalten
2
X
3 2
2X1 −
= 1 − t1
= −2 − t1
−2X2
Dieses System hat Dreiecksgestalt und wird wie in (1) von unten nach oben
gelöst: Aus der zweiten Gleichung ergibt sich X2 = 1 + t21 . Dies wird in die
vorhergehenden Gleichungen eingesetzt (also hier in die erste Gleichung) und
wir erhalten
2X1 =
5
3
−
2t1
3
Dies liefert schließlich X1 =
5
6
−
t1
3
und die Lösungsmenge ist
L = {( 56 − t31 , 1 + t21 , t1 ) | t1 ∈ R}
= {( 65 , 1, 0) + t1 (− 31 , 12 , 1) | t1 ∈ R} ⊂ R3
(3) Man bestimme die Lösungsmenge des linearen Gleichungssystems
−X1
3X1
−2X1
X1
+ 2X2
− 6X2
+ 4X2
− 2X2
− 2X3
+ X3
+ X3
− 3X3
+
X4
− 2X4
−
X4
= 1
= −1
= −4
= 1
Ziel der ersten Umformung: Koeffizient von X1 ab der zweiten Gleichung wird Null. Dazu:
3(1.Gl.) + (2.Gl.)
(−2)(1.Gl.)
+
(3.Gl.)
(1.Gl.)
+
(4.Gl.)
und es entsteht das System
−X1
+
2X2
−
2X3
−5X3
5X3
−5X3
+ X4
+ X4
− 3X4
+ X4
= 1
= 2
= −6
= 2
Die Koeffizienten von X2 ab der
zweiten Gleichung sind alle Null.
Ziel der zweiten Umformung: An
der Stelle (2, 2) einen von Null verschiedenen Koeffizienten erzeugen.
Dazu Vertauschen von X2 und X3
So erhalten wir folgendes System
−X1
−
2X3
−5X3
5X3
−5X3
+
2X2
+ X4
+ X4
− 3X4
+ X4
= 1
= 2
= −6
= 2
Ziel der dritten Umformung: Die
Koeffizienten von X3 ab der dritten Gleichung werden Null. Dazu
(2.Gl.) + (3.Gl.)
(−1)(2.Gl.)
+
(4.Gl.)
10
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Das entstehende System hat die Gestalt
−X1
−
2X3
−5X3
+
2X2
+
+
−
X4
X4
2X4
= 1
= 2
= −4
Die Koeffizienten von X2 ab der
dritten Gleichung sind alle Null.
Ziel der vierten Umformung: An
der Stelle (3, 3) einen von Null verschiedenen Koeffizienten erzeugen.
Dazu Vertauschen von X2 und X4
Wir erhalten dann
−X1
−
2X3
−5X3
+
+
X4
X4
−2X4
+
2X2
= 1
= 2
= −4
Eine weitere Vereinfachung ist nun nicht mehr möglich, denn das System hat
wiederum ”Trapezgestalt”. X2 kann frei gewählt werden: Wir setzen X2 = t1
mit einem Parameter t1 ∈ R und erhalten
−X1
−
2X3
−5X3
+
+
X4
X4
−2X4
= 1 − 2t1
= 2
= −4
Jetzt haben wir Dreiecksgestalt erreicht und können nun die Lösungsmenge
analog wie in (1) (oder (2)) bestimmen. Wir erhalten dabei zunächst X4 = 2,
sodann entsteht nach Einsetzen von X4 = 2 das System
−X1
−
2X3
−5X3
= −1 − 2t1
= 0
aus dem man nun X3 = 0 und schließlich
−X1 = −1 − 2t1 ,
d. h. X1 = 1 + 2t1 erhält. Die Lösungsmenge ist also
L = {(1, 0, 0, 2) + t1 (2, 1, 0, 0) | t1 ∈ R} ⊂ R4 .
Wir bemerken, daß es zweckmäßiger gewesen wäre, bei der zweiten Umformung X2 gleich mit X3 und mit X4 zu vertauschen, X2 also an die letzte
Stelle zu setzen.
(4) Man bestimme die Lösungsmenge des linearen Gleichungssystems
X1
2X1
2X2 − 3X3 + X4
− 3X2
+ 2X4
− 9X3 + 7X4
= −5
= 1
= 0
Die einzelnen Umformung werden wir jetzt nicht mehr gesondert beschreiben,
da sie unmittelbar zu erkennen sind. Dabei erhalten wir im einzelnen
X1 − 3X2
+ 2X4
2X2 − 3X3 + X4
2X1
− 9X3 + 7X4
= 1
= −5
= 0
1.2. GAUßSCHER ALGORITHMUS
11
sodann
X1 − 3X2
+ 2X4
2X2 − 3X3 + X4
6X2 − 9X3 + 3X4
= 1
= −5
= −2
und schließlich
X1 − 3X2
+ 2X4 = 1
2X2 − 3X3 + X4 = −5
0 = 13
Nun ist Trapezgestalt erreicht und man erkennt sofort, daß L = ∅, denn die
letzte der drei Gleichnungen ist unlösbar (s. Bemerkung 1.1.2.
Beobachtungen:
1. In den ersten drei Beispielen besteht die Lösungsmenge L jeweils aus einem ”konstanten Teil” (nämlich (2, 1, 2), ( 56 , 1, 0) bzw. (1, 0, 0, 2)) und einem ”parameterabhängigen Teil” (nämlich 0, t1 (− 31 , 12 , 1) bzw. t1 (2, 1, 0, 0)).
Letzterer bildet stets die Lösungsmenge des jeweils zugehörigen homogenen
Systems, wie man sofort erkennt.
2. Bei Anwendung der Umformungen vom Typ I, II bzw. III werden nur die
Koeffizienten und die Absolutglieder beeinflußt. Es reicht daher, nur diese
zu betrachten. Bei Anwendung von Umformungen vom Typ III muß man
sich dann jedoch die durchgeführten Vertauschungen merken, um sie abschließend wieder rückgängig machen zu können.
1.2
Gaußscher Algorithmus zur Lösung linearer
Gleichungssysteme
Vorgelegt sei wiederum das lineare Gleichungssystem (1.3)
a11 X1
a21 X1
..
.
+ a12 X2
+ a22 X2
..
.
+ . . . + a1n Xn
+ . . . + a2n Xn
..
.
= b1
= b2
..
.
am1 X1 + am2 X2 + . . . + amn Xn = bm
bestehend aus m ≥ 0 linearen Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn
mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Gliedern b1 , . . . , bm .
In Verallgemeinerung der vorangegangenen Beispiele 1.6 kommt man auf folgendes Verfahren zur Bestimmung eines zu (1.3) äquivalenten linearen Gleichungssystems, das ”einfach” zu lösen ist. Dieses Verfahren heißt Gaußscher Algorithmus
und sieht wie folgt aus:
12
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
ρ := 0
Solange es i, j ∈ N gibt mit ρ < i ≤ m, ρ < j ≤ n und aij 6= 0, führe
aus:
(a) Erreiche durch Anwendung von II und/oder III, daß aρ+1,ρ+1 6= 0
ai,ρ+1
(b) Addiere für i = ρ+2, . . . , m das − aρ+1,ρ+1 -fache der (ρ+1)-ten
Gleichung zur i-ten Gleichung
(c) Ersetze ρ durch ρ + 1
Bemerkungen 1.7.
1. Die im Gaußschen Algorithmus auftauchende Zahl ρ
stellt lediglich einen Steuerparameter (Schrittzähler) dar. Neben anderen
Kriterien kann der Algorithmus mit Hilfe von ρ beendet werden (z. B. wenn
ρ den Wert m oder n erreicht hat).
2. Wie bei Algorithmen üblich, überschreiben wir die alten Werte von ρ, aij
und bi bei Neuberechnung ohne Bezeichnungsänderung.
Wir fassen zusammen:
Theorem 1.8 (Analyse des Gaußschen Algorithmus). (1) Der Gaußsche Algorithmus bricht nach höchstens min{m, n} Schritten (d. h. Durchläufen der
”Solange”-Schleife) ab. Dabei ist die Anzahl der Schritte gleich dem Wert,
den ρ nach Abbruch hat. Diesen Wert bezeichnen wir mit r. r hängt nicht ab
von b1 , . . . , bm .
(2) Es gilt 0 ≤ r ≤ min{m, n}.
r = 0 bedeutet, daß entweder gar keine Gleichung vorliegt (d. h. es gilt m = 0)
oder daß alle Koeffizienten von 1.3 gleich Null sind. In letzterem Fall hat 1.3
die Gestalt
0 = b1
0 = b2
..
..
.
.
0 = bm
und es gilt somit im Fall r = 0
L=
Rn
∅
falls b1 = . . . = bm = 0
falls bi =
6 0 für ein i, 1 ≤ i ≤ m
(3) Sei r ≥ 1. Da r ≤ min{m, n}, hat (1.3) nach Abbruch des Gaußschen Algo-
1.2. GAUßSCHER ALGORITHMUS
13
rithmus die Gestalt
a011 X10 + a012 X20 + . . . + a01r Xr0 + . . . + a01n Xn0 =
a022 X20 + . . . + a02r Xr0 + . . . + a02n Xn0 =
..
..
..
.
.
.
a0rr Xr0 + . . . + a0rn Xn0 =
0 =
..
.
b01
b02
..
.
b0r
b0r+1
..
.
(1.4)
0 = b0m
mit a011 , . . . , a0rr 6= 0 und wobei (X10 , . . . , Xn0 ) aus (X1 , . . . , Xn ) durch Vertauschen der Reihenfolge hervorgeht. Man nennt sie Trapezgestalt. Wenn r = n
(dann ist wegen r ≤ min{m, n} notwendigerweise m ≥ n !), so sagt man,
das System habe Dreiecksgestalt. Ist (1.3) homogen, so auch (1.4).
(4) Für die Lösungsmenge L0 eines linearen Gleichungssystems vom Typ (1.4)
gilt:
(a) L0 = ∅
⇐⇒
es gibt ein i ∈ N mit r < i ≤ m und b0i 6= 0 (nur
möglich, wenn r < m).
(b) Sei L0 6= ∅, d. h. b0r+1 = . . . = b0m = 0. Dann kann L0 wie folgt ermittelt
werden:
0
0
= t1 , . . . , Xn0 = tn−r
, . . . , Xn0 beliebig, d. h. setze Xr+1
• Wähle Xr+1
mit beliebigen t1 , . . . , tn−r ∈ R.
• Setze diese Werte in das System ein. Dann entsteht mit
b00i := b0i − a0i,r+1 t1 − . . . − a0i,n tn−r , i = 1, . . . , r ,
das Gleichungssystem
a011 X10 + a012 X20 + . . . + a01r Xr0 = b001
a022 X20 + . . . + a02r Xr0 = b002
..
..
..
.
.
.
0
0
arr Xr = b00r
Es hat Diagonalgestalt und kann ”von unten nach oben” iterativ wie
folgt gelöst werden (s. Beispiel 1.6(1)):
• Bestimme Xr0 aus der r-ten Gleichung (möglich, da a0rr 6= 0). Falls
00
r > 1, setze diesen Wert x0r := ab0r in die ersten r − 1 Gleichungen
rr
für Xr0 ein und bringe für i = 1, . . . r − 1 den Wert a0i,r x0r auf die
rechte Seite der i-ten Gleichung. Es entsteht ein Gleichungssystem
in Diagonalgestalt bestehend aus r − 1 Gleichungen.
14
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
0
, . . . , X10 . Dabei ist klar, daß die
• So fortfahrend ermittle man Xr−1
entsprechenden Werte x0r , x0r−1 , . . . , x01 von t1 , . . . , tn−r abhängen.Nun
gilt
L0 = {(x01 , . . . , x0r , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R} .
(5) Mit den Bezeichnungen aus (4) sei wieder L0 6= ∅. L0 hat folgende Struktur:
Für i = 1, . . . , r gibt es αi,1 , . . . , αi,n−r , γi ∈ R, so daß
x0i
= γi +
n−r
X
αi,j tj ,
j=1
wobei die αi,1 , . . . , αi,n−r nur von ap,q , 1 ≤ p ≤ m, 1 ≤ q ≤ n, abhängen und
γ1 = . . . = γr = 0 gilt, falls (1.3) homogen ist (d. h. falls b1 = . . . = bm = 0).
Setzen wir für i = 1, . . . , r und j = 1, . . . , n − r
si :=
n−r
X
αi,j tj ,
j=1
a0j := (α1,j , . . . , αr,j , 0, . . . , 0,
c0 := (γ1 , . . . , γr , 0, . . . , 0),
(r+j)−te Stelle
1
, 0, . . . , 0) sowie
so gilt
L0 = {(γ1 + s1 , . . . , γr + sr , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R}
= {c0 + t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R}
Diese Darstellungen, insbesondere die letzte, heißen Parameterdarstellungen
von L0 mit Parametern t1 , . . . , tn−r . Dabei gilt
• c0 ∈ L0
• L00 := {t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R} ist Lösungsmenge des zu
(1.4) gehörenden homogenen Systems.
(6) L kann aus L0 gewonnen werden, indem die Komponenten der Elemente
von L0 entsprechend den im Verlauf des Gaußschen Algorithmus ggf. vorgenommenen Unbestimmtenvertauschungen rückgetauscht werden. Entstehen
auf diese Weise aus den n-Tupeln a01 , . . . , a0n−r , c0 die n-Tupel a1 , . . . , an−r , c,
so gilt
L = {c + t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} und
L0 = {t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} ,
wenn L0 die Lösungsmenge des zu (1.3) gehörenden homogenen Systems ist.
1.2. GAUßSCHER ALGORITHMUS
15
Ziel des Gaußschen Algorithmus ist also, ein vorgelegtes lineares Gleichungssystem (1.3) mit Hilfe der Umformungsregeln I - III auf Trapezgestalt (1.4) zu bringen. Es ist dann gesichert, daß bis auf die durch Umformungen vom Typ III
bewirkten Vertauschungen der Unbestimmten, also bis auf eine entsprechende
Vertauschung der Reihenfolge der Eintragungen in den geordneten n-Tupeln, die
Lösungsmengen von (1.3) und von (1.4) übereinstimmen.
Insbesondere stellt sich heraus, daß eine enge Beziehung zwischen der Lösungsmenge eines linearen Gleichungssystems und der Lösungsmenge des zugehörigen
homogenen Systems besteht. Dies kann man ganz allgemein wie folgt formulieren:
Lemma 1.9. Sei L 6= ∅ Lösungsmenge eines linearen Gleichungssystems in n ≥ 1
Unbestimmten. Dann gilt für c ∈ L:
L = {c + a | a ∈ L0 },
wenn L0 die Lösungsmenge des zugehörigen homogenen Systems ist.
Beweis. Wir nehmen an, das System habe die Gestalt (1.3). Sei c =: (γ1 , . . . , γn )
mit γ1 , . . . , γn ∈ R.
Für a ∈ L0 , a =: (α1 , . . . , αn ) mit α1 , . . . , αn ∈ R gilt c+a = (γ1 +α1 , . . . , γn +αn )
und wir erhalten für i = 1, . . . , m:
n
X
aij (γj + αj ) =
j=1
n
X
aij γj +
j=1
n
X
aij αj = bi + 0 = bi ,
j=1
d. h. c + a ∈ L. Somit folgt {c + a | a ∈ L0 } ⊆ L.
Sei umgekehrt d ∈ L, d =: (δ1 , . . . , δn ) mit δ1 , . . . , δn ∈ R. Mit a0 := d − c gilt
a0 = (δ1 − γ1 , . . . , δn − γn ) und wir erhalten für i = 1, . . . , m:
n
X
aij (δj − γj ) =
j=1
n
X
aij δj −
j=1
n
X
aij γj = bi − bi = 0,
j=1
d. h. a0 = d − c ∈ L0 . Somit folgt d = c + a0 ∈ {c + a | a ∈ L0 }, also L ⊆
{c + a | a ∈ L0 },
Bemerkung 1.10. Häufig verwendet man die Schreibweise
c + L0 := {c + a | a ∈ L0 }.
Damit lautet das Resultat von Lemma 1.9
L = c + L0 .
Dies formuliert man dann oft wie folgt:
”Allgemeine Lösung eines linearen Gleichungssystems = spezielle Lösung dieses
Systems + allgemeine Lösung des zugehörigen homogenen Systems”.
16
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Probleme:
(A) Ist die vom Gaußschen Algorithmus produzierte Zahl r (s. Theorem 1.8(1))
und damit die Anzahl der frei wählbaren Parameter in der Lösungsmenge
L (falls diese nicht leer ist, s. Theorem 1.8(4b)) eindeutig durch das lineare Gleichungssystem (1.3) bestimmt oder kann sie von der Auswahl der
Algorithmusschritte abhängen?
(B) Welche geometrische Struktur hat L, d. h. welche Teilmengen des Rn sind
Lösungsmengen von linearen Gleichungssystemen in n Unbestimmten?
Bemerkungen 1.11.
1. Wenn L 6= ∅, so ist L bereits eindeutig festgelegt
durch die Angabe von n − r + 1 Elementen des Rn . Mit den Bezeichnungen
aus Theorem 1.8(6) sind dies c, a1 , . . . , an−r .
2. Zur Ermittlung von L ist es völlig ausreichend, wenn die Koeffizienten und
konstanten Terme von 1.3 aus einem Zahlbereich stammen, in welchem die
folgenden Operationen uneingeschränkt ausführbar sind
• Addition und Subtraktion
• Multiplikation
• Division außer durch 0
und die ”üblichen” Regeln hierfür gelten. Ist K ein solcher Zahlbereich (etwa
K = Q, K = R oder auch K = C, jedoch nicht K = Z), so liegen auch alle
Koeffizienten von (1.4) in K. Damit liegt L0 und folglich L in K n , vorausgesetzt, die Parameter t1 , . . . , tn−r werden aus K gewählt. Auf jeden Fall
liegen die in 1. erwähnten Tupel c, a1 , . . . , an−r in K n . Derartige Strukturen
werden wir im nächsten Kapitel definieren und erste Eigenschaften hiervon
untersuchen.
3. Ändert man Punkt (b) im Gaußschen Algorithmus wie folgt ab
(b)1 Multipliziere die (ρ + 1)-te Gleichung mit a−1
ρ+1,ρ+1
(b)2 Addiere für i = 1, . . . , m, i 6= ρ + 1, das (−ai,ρ+1 )-fache der (ρ + 1)-ten
Gleichung zur i-ten Gleichung,
indem man noch die Umformungsregel
(II)’ Multiplikation einer Gleichung mit einer von 0 verschiedenen Zahl
hinzufügt, die die Lösungsmenge auch nicht verändert, so kann man erreichen, daß das Gleichungssystem nach Abbruch dieser Version des Gauß-
1.2. GAUßSCHER ALGORITHMUS
17
schen Algorithmus folgende Gestalt hat
X10
X20
...
Xr0
0
+a01,r+1 Xr+1
+ . . . + a01n Xn0
0
0
+a2,r+1 Xr+1 + . . . + a02n Xn0
..
..
.
.
0
0
0
0
+ar,r+1 Xr+1 + . . . + arn Xn
0
..
.
= b01
= b02
..
.
= b0r
= b0r+1
..
.
0 = b0m
Der Vorteil ist, daß L0 und damit L hieraus unmittelbar abgelesen werden
können. Diese Version des Gaußschen Algorithmus wird als modifizierter
Gaußscher Algorithmus bezeichnet.
18
KAPITEL 1. LINEARE GLEICHUNGSSYSTEME
Kapitel 2
Matrizen
Im Mittelpunkt dieses Kapitel stehen Matrizen, wobei wir insbesondere strukturelle Eigenschaften untersuchen wollen. Daher wenden wir uns zunächst den
grundlegenden algebraischen Strukturen zu.
Als erste Anwendung werden wir erkennen, dass die Verwendung von Matrizen
wesentliche begriffliche Vereinfachungen beim Studium linearer Gleichungssysteme mit sich bringt. Darüber hinaus werden wir damit in Kapitel 3 Gestalt und
Eigenschaften von Lösungsmengen linearer Gleichungssysteme vollständig aufklären können, so daß dieser Problemkreis dann erschöpfend abgehandelt sein
wird.
2.1
Gruppen, Ringe, Körper - die algebraischen
Grundlagen
Bisher sind uns schon verschiedentlich Mengen begegnet, auf denen ”Operationen”
mit ganz speziellen Eigenschaften erklärt waren.
Beispiele 2.1.
1. R mit der Addition, Schreibweise (R; +). Es gelten dabei
(u. a.) folgende Regeln:
(a) (a + b) + c = a + (b + c)
(b) a + 0 = 0 + a = a
für alle a, b, c ∈ R
für alle a ∈ R
(c) a + (−a) = (−a) + a = 0 für alle a ∈ R
(d) a + b = b + a
für alle a, b ∈ R
Ersetzt man + durch ·, 0 durch 1 und −x für x ∈ R jeweils durch x1 = x−1 ,
so kann man entsprechend (R \ {0}; ·) betrachten. Auch hierfür gelten die
19
20
KAPITEL 2. MATRIZEN
(a) - (d) entsprechenden Regeln. Außerdem haben wir für alle a, b, c ∈ R
(e) (a + b) · c = a · c + b · c und c · (a + b) = c · a + c · b.
2. Sei X eine Menge. Auf der Potenzmenge P (X) von X (s. Abschnitt A.2)
betrachten wir die durch
A ∗ B := (A ∪ B) \ (A ∩ B) für all A, B ∈ P (X)
definierte Operation ∗ (die sogenannte symmetrische Differenz, s. Übungsaufgabe 8) sowie die Operation ∩ (Durchschnitt).
Setzt man hierbei 0 := ∅ und −A := A für A ∈ P (X), so gelten (a) - (d)
aus 1. entsprechend für ∗, s. Übungsaufgabe 8. Für ∩ gelten (a), (b) und
(d) aus 1., wenn man 0 := X setzt. Außerdem gilt Regel (e) aus 1., wenn
man + durch ∗ und · durch ∩ ersetzt, wie man schnell bestätigt.
3. Sei X eine Menge. Wir betrachten die Menge Abb (X, X) aller Abbildungen
von X nach X mit der Hintereinanderschaltung ◦ von Abbildungen als
Operation, kurz (Abb (X, X), ◦), s. Abschnitt A.5. (Statt g ◦ f werden wir
oft kurz gf schreiben.) Es gilt:
(a) (hg)f = h(gf )
für alle f, g, h ∈ Abb (X, X)
(b) f idX = idX f = f
für alle f ∈ Abb (X, X).
Sei S(X) := {f | f ∈ Abb (X, X), f bijektiv}. Dann gilt idX ∈ S(X) und
zusätzlich zu (a) und (b) haben wir
(c) Für alle f ∈ S(X) gibt es ein f 0 ∈ S(X) mit f f 0 = f 0 f = idX .
Bemerkung: S(X) heißt symmetrische Gruppe von X.
4. Sind auf einer Menge X mehrere Operationen ∗, ◦, ... gegeben, so schreibt
man in naheliegender Weise (X; ∗, ◦, ...).
Dies können wir wie folgt verallgemeinern:
Definition 2.2. Sei X eine Menge, X 6= ∅, und n ∈ N. Eine n-stellige Operation
auf X ist eine Abbildung X n → X, wobei nullstellige Operationen verstanden
werden als Auswahl eines Elementes aus X.
Bemerkungen 2.3.
1. Einstellige Operationen auf X sind genau die Abbildungen von X nach X. Z. B. ist durch n 7→ −n, n ∈ Z, eine einstellige
Operation auf Z gegeben. Eine zweistellige Operation auf X ist eine Abbildung X × X → X.
2. Ist • eine zweistellige Operation auf einer Menge X 6= ∅, so schreibt man
statt •(x1 , x2 ) mit x1 , x2 ∈ X, in der Regel x1 • x2 und nennt • das
Operationszeichen. Häufig verwendete Operationszeichen sind +, ·, ◦, •.
2.1. GRUPPEN, RINGE, KÖRPER
21
Definition 2.4 (Halbgruppen, Monoide). (a) Eine Halbgruppe ist eine nicht leere Menge H zusammen mit einer zweistelligen Operation • auf H, so daß
(a • b) • c = a • (b • c) für alle a, b, c ∈ H
(Assoziativgesetz)
Hierfür schreibt man (H; •).
(b) Eine Halbgruppe (H; •) heißt kommutativ, wenn
a • b = b • a für alle a, b ∈ H
(Kommutativgesetz)
(c) Ein Element e einer Halbgruppe (H; •) heißt
- linksneutrales (rechtsneutrales) Element von (H; •), wenn
e • a = a (a • e = a) für alle a ∈ H.
- neutrales Element von (H; •), wenn e links- und rechtsneutral ist.
(d) Ein Monoid ist eine Halbgruppe (M ; •), welche ein neutrales Element besitzt.
Lemma 2.5. (1) Besitzt eine Halbgruppe ein linksneutrales Element e0 und ein
rechtsneutrales Element e00 , so gilt e0 = e00 , d. h. eine Halbgruppe besitzt höchstens ein neutrales Element.
(2) Ein Monoid besitzt genau ein neutrales Element.
Beweis. Es gilt e0 = e0 •e00 = e00 , wenn • die Operation der Halbgruppe bezeichnet,
Definition 2.6 (invertierbare Elemente). Sei (M ; •) ein Monoid mit neutralem
Element e und sei m ∈ M .
(a) Ein Element m0 ∈ M heißt Linksinverses (Rechtsinverses) von m, wenn
m0 • m = e (m • m0 = e).
m0 heißt Inverses von m, wenn m0 Links- und Rechtsinverses von m ist.
(b) m heißt invertierbar, wenn m ein Inverses in M besitzt.
(c) Die Menge der invertierbaren Elemente von (M ; •) wird mit (M ; •)∗ oder
kurz mit M ∗ bezeichnet.
Lemma 2.7. Sei (M ; •) ein Monoid mit neutralem Element e.
(1) Besitzt ein Element m ∈ M ein Linksinverses m0 und ein Rechtsinverses m00 ,
so gilt m0 = m00 , d. h. m ist invertierbar.
22
KAPITEL 2. MATRIZEN
(2) Jedes invertierbare Element m von M besitzt genau ein Inverses. Dieses wird
häufig mit m−1 bezeichnet.
(3) e ∈ M ∗ und es gilt e−1 = e.
(4) Wenn m, n ∈ M ∗ , so folgt m • n ∈ M ∗ und es gilt (m • n)−1 = n−1 • m−1 .
(5) Wenn m ∈ M ∗ , so folgt m−1 ∈ M ∗ und es gilt (m−1 )−1 = m.
Beweis. (1) Sei m ∈ M und seien m0 ∈ M Linksinverses von m und m00 ∈ M
Rechtsinverses von m. Dann gilt
m0 = m0 • e = m0 • (m • m00 ) = (m0 • m) • m00 = e • m00 = m00 .
(2) folgt aus (1).
(3) ist klar, da e • e = e.
(4) Sei p := n−1 • m−1 . Dann gilt
(m • n) • p = m • (n • n−1 ) • m−1 = m • e • m−1 = m • m−1 = e und
p • (m • n) = n−1 • (m−1 • m) • m = n−1 • e • n = n−1 • n = e,
d. h. m • n ∈ M ∗ und (m • n)−1 = p = n−1 • m−1 .
(5) ist ebenfalls klar, da m−1 • m = m • m−1 = e,
Definition 2.8 (Gruppen). (a) Eine Gruppe ist ein Monoid, in welchem jedes
Element invertierbar ist.
(b) Kommutative Gruppen werden zu Ehren des norwegischen Mathematikers
Niels Henrik Abel (1802 - 1829) als abelsche Gruppen bezeichnet. In abelschen Gruppen wird oft das Operationszeichen + verwendet und das Inverse
eines Elementes x mit −x bezeichnet (statt mit x−1 ). Das neutrale Element
einer abelschen Gruppe G bezeichnet man dann mit 0G oder nur mit 0.
Bemerkungen, Beispiele 2.9. Nachfolgend einige Beispiele für
1. Halbgruppen:
• (N+ ; +)
• ({x ∈ R | 0 < x < 1}; ·).
2. Monoide:
• (N; ), wenn definiert ist durch a b := ab + a + b für alle a, b ∈ N,
s. auch Übungsaufgabe 21.
• (P (X); ∩), X Menge, s. Beispiel 2.1.2.
2.1. GRUPPEN, RINGE, KÖRPER
23
• (Abb (X, X); ◦), X Menge.
3. Gruppen:
• (Z; +)
• (P (X); ∗), X Menge, s. Beispiel 2.1.2.
• (S(X); ◦), X Menge, wobei offenbar S(X) = Abb (X, X)∗
• (L; +), wenn L ⊆ Rn Lösungsmenge eines linearen homogenen Gleichungssystems in n Unbestimmten ist, s. Übungsaufgabe 10.
• (M ; •)∗ für ein Monoid (M ; •) mit der Einschränkung von • auf (M ; •)∗
(s. Lemma 2.7(4), (5)). (Nach Definition 2.13 unten bildet (M ; •)∗
damit eine Untergruppe des Monoids (M ; •) und wird daher in der
Form (M ∗ ; •) oder nur M ∗ aufgeschrieben, s. auch Bemerkung 2.14.1.)
4. In einer kommutativen Halbgruppe sind die Eigenschaften, ”linksneutral”,
”rechtsneutral” und ”neutral”, äquivalent. Entsprechend sind in einem kommutativen Monoid die Eigenschaften ”linksinvers”, ”rechtsinvers” und ”invers” äquivalent.
Definition 2.10 (Ringe, Schiefkörper, Körper). (a) Ein Ring ist eine Menge R
mit zwei zweistelligen Operationen + (Addition) und · (Multiplikation), so
daß
• (R; +) abelsche Gruppe,
• (R; ·) Halbgruppe ist und für alle r, s, t ∈ R gilt
•
(r + s) · t = r · t + s · t
r · (s + t) = r · s + r · t
(Distributivgesetze)
Das neutrale Element von (R; +) heißt Nullelement (von R) und wird mit
0R oder nur mit 0 bezeichnet. Für r ∈ R bezeichnet man mit −r ∈ R das
bezüglich 00 +00 Inverse von r.
(b) Ein Ring (R; +, ·), bei welchem (R; ·) ein Monoid ist, heißt Ring mit Einselement. In diesem Fall nennt man das neutrale Element von (R; ·) Einselement
(von R) und bezeichnet es mit 1R oder nur mit 1. Ist r ∈ R invertierbar
bezüglich ·, so bezeichnet man das bezüglich · Inverse von r mit r−1 oder
auch mit 1r .
(c) Ein Ring (R; +, ·) heißt kommutativ, wenn (R; ·) kommutativ ist.
(d) Ein Schiefkörper (Körper) ist ein Ring (K; +, ·), bei welchem (K; ·)∗ = K \
{0K } nach Lemma 2.7(4), (5) ist dies eine (abelsche) Gruppe .
24
KAPITEL 2. MATRIZEN
Bemerkungen 2.11.
a, b ∈ G:
1. Ist (G; +) eine abelsche Gruppe, so setzt man für
a − b := a + (−b),
wenn −b das Inverse von b in G bezeichnet. Wir bemerken, daß für alle
a, b, c ∈ G gilt:
a − (b − c) = (a − b) + c.
Ist (R; +, ·) ein Ring so gilt für alle r, s, t ∈ R außerdem:
r · (s − t) = r · s − r · t,
(r − s) · t = r · t − s · t
2. Sei (R; +, ·) ein Ring. Dann gilt für r ∈ R wegen r − r = 0R :
r · 0R = r · (r − r) = r · r − r · r = 0R
und entsprechend 0R · r = 0R .
3. Ist (R; +, ·) Ring mit Einselement, so bezeichnet man in Anlehnung an
Definition 2.6(c) mit R∗ die Menge der bezüglich · invertierbaren Elemente
von R. Die Elemente von R∗ heißen Einheiten von R. Offensichtlich ist 1R
Einheit von R, d. h. R∗ 6= ∅. Nach Bemerkung 2.9.3. bildet (R∗ ; ·) eine
Gruppe.
4. Häufig ergeben sich Operationen auf einer Menge aus dem Kontext. Dann
werden wir sagen ”sei G eine Gruppe” oder ”sei R ein Ring” und verzichten
auf die explizite Angabe der Operationszeichen.
5. Lineare Gleichungssysteme können natürlich auch untersucht werden, wenn
ihre Koeffizienten aus einem beliebigen Ring stammen. Die Definitionen und
Ergebnisse aus Kapitel 1 bleiben aber auf jeden Fall alle gültig, wenn wir
voraussetzen, daß die Koeffizienten aus einem beliebigen Körper K stammen. Dann sind die Lösungsmengen Teilmengen von K n , wenn n die Anzahl der Unbestimmmten ist und die evtl. auftretenden Parameter aus K
gewählt werden. (In Kapitel 1 hatten wir vorausgesetzt, daß K = R.)
Beispiele 2.12.
1. Aus der Schule sind neben den Körpern Q und R der Ring
Z der ganzen Zahlen und der Ring R[X] der Polynome in einer Unbestimmten X mit reellen Koeffizienten bekannt. All diese Ringe sind kommutativ.
2. Sei X eine Menge. Dann ist (P (X); ∗, ∩) ein kommutativer Ring mit Einselement, s. Beispiel 2.1.2 und Übungsaufgabe 8.
3. Sei (R, +) eine abelsche Gruppe mit neutralem Element 0. Durch
r · s := 0 für alle r, s ∈ R
2.1. GRUPPEN, RINGE, KÖRPER
25
wird (R, +, ·) zu einem kommutativen Ring. Man sagt, die Multiplikation
in R sei trivial.
Damit ist die triviale abelsche Gruppe {0} auch ein Ring (kommutativ und
sogar mit Einselement). Er wird Nullring genannt.
4. Sei R ein Ring mit Einselement. Wenn 1R = 0R , so folgt für beliebiges
r ∈ R:
r = r · 1R = r · 0R = 0R ,
d. h. R ist der Nullring. Daher werden wir in der Regel voraussetzten, daß
1R 6= 0R . Wir bemerken, daß dies bei Schiefkörpern und damit bei Körpern
definitionsgemäß der Fall ist.
Definition 2.13 (Unterstrukturen). Sei A eine Halbgruppe (ein Monoid, eine
Gruppe, ein Ring, ein Schiefkörper, ein Körper).
Eine Teilmenge B von A heißt Unterhalbgruppe (Untermonoid, Untergruppe,
Unterring, Teilschiefkörper, Teilkörper) von A, wenn B mit den in A vorliegenden Operationen selbst eine Halbgruppe (ein Monoid, eine Gruppe, ein Ring,
ein Schiefkörper, ein Körper) ist.
Bemerkungen 2.14. Sei (A; •) eine Halbgruppe und B ⊆ A.
1. Damit B Unterstruktur von (A; •) ist, muß auf jeden Fall gelten
B 6= ∅ und b1 • b2 ∈ B für alle b1 , b2 ∈ B.
Man sagt in diesem Fall auch, B sei abgeschlossen bezüglich •. Damit liefert
aber die Einschränkung •0 von • auf B × B ⊆ A × A sogar eine Abbildung
B × B → B, also eine zweistellige Operation auf B. Der Einfachheit halber
bezeichnet man sie meist wieder mit •.
2. Ist B nicht leer und abgeschlossen bezüglich •, so gilt das Assoziativgesetz
automatisch in B, d. h. (B, •) ist dann auf jeden Fall Unterhalbgruppe
von A. Gleiches gilt für das Kommutativgesetz und die Distributivgesetze,
vorausgesetzt, sie gelten in A. Man sagt, diese Eigenschaften vererben sich
auf B.
3. Besitzt A ein neutrales Element e bezüglich •, so besagt Definition 2.13,
daß e auch neutrales Element von B sein muß, wenn B Untermonoid von
A ist. Dazu reicht es zu fordern, daß e ∈ B. Wir bemerken, daß dies sich
nicht aus den anderen Axiomen ergibt, wie folgendes Beispiel zeigt:
Sei A = {a, b} mit a 6= b. • sei wie folgt erklärt:
a • a = a, a • b = b • a = b, b • b = b.
26
KAPITEL 2. MATRIZEN
Man bestätigt sofort, daß (A; •) ein kommutatives Monoid mit neutralem
Element a ist. B := {b} ⊂ A ist abgeschlossen bezüglich • und (B; •) ist
selbst Monoid (sogar eine Gruppe), jedoch mit neutralem Element b. (Damit
ist (B; •) kein Untermonoid von (A; •), sondern lediglich Unterhalbgruppe).
4. Ist (A; •) eine Gruppe, so muß die Existenz von Inversen für B gefordert
werden, wenn B Untergruppe von A sein soll. Auch hier reicht es zu fordern,
daß für b ∈ B das in A vorhandene Inverse b0 von b bereits in B liegt.
5. Man kann in Verallgemeinerung von Definition 2.13 auch Untergruppen von
Monoiden oder Teilkörper von Ringen mit Einselement usw. betrachten.
Hingegen sind Begriffsbildungen wie ”Untermonoid einer Halbgruppe” o.
ä. eher unüblich. Beispielsweise ist für ein Monoid M die Menge M ∗ der
invertierbaren Elemente von M Untergruppe von M , s. Bemerkung 2.9.4.
Lemma 2.15 (Untergruppenkriterium). Sei G eine Gruppe und H ⊆ G.
H ist Untergruppe von G genau dann, wenn H 6= ∅ und wenn für alle g, h ∈ H
gilt gh0 ∈ H, wenn h0 das Inverse von h in G bezeichnet.
Beweis. Ist H Untergruppe von G, so gilt definitionsgemäß H 6= ∅. Sind g, h ∈ H,
so folgt g, h0 ∈ H und somit gh0 ∈ H.
Umgekehrt gelte H 6= ∅ und gh0 ∈ H für alle g, h ∈ H. Weiter sei e das neutrale
Element von G. Wähle x ∈ H. Dann folgt e = xx0 ∈ H. Ist h ∈ H, so erhalten
wir damit h0 = eh0 ∈ H. Seien nun g, h ∈ H. Dann haben wir g, h0 ∈ H und
somit gh = g(h0 )0 ∈ H, d. h. H ist abgeschlossen und damit Gruppe,
Folgerung 2.16 (Unterringkriterium). (1) Sei R ein Ring und sei S ⊆ R.
S ist Unterring von R genau dann, wenn S 6= ∅ und wenn r − s, rs ∈ S
für alle r, s ∈ S. Betrachtet man Ringe mit Einselement, so ist zusätzlich zu
fordern, daß 1R ∈ S (womit dann die Bedingung S 6= ∅ automatisch erfüllt
wäre).
(2) Sei K ein Schiefkörper und sei L ⊆ K.
L ist Teilschiefkörper von K genau dann, wenn ]L ≥ 2 und wenn für alle
x, y ∈ L mit y 6= 0K gilt x − y, xy −1 ∈ L.
√
Beispiel 2.17. Sei L := {a + b 2 | a, b ∈ Q} ⊆ R.
√
√
Seien x, y ∈ L, y 6= 0. Wir schreiben
x = a + b 2, y = c + d 2 mit a, b, c, d ∈ Q
√
und erhalten mit ȳ := c − d 2 (6= 0):
√
x − y = (a − c) + (b − d) 2 ∈ L sowie
ac − 2bd −ad + bc √
xy −1 = xȳ(y ȳ)−1 = 2
+ 2
2∈L
c − 2d2
c − 2d2
2.2. MATRIZEN
27
(man beachte, daß c2 − 2d2 = y ȳ 6= 0).
√
Damit ist L ein Teilkörper von R, Bezeichnung L = Q[ 2].
2.2
2.2.1
Matrizen
Grundlegende Definitionen
Sei X eine nicht leere Menge. Wir erinnern daran, dass für n ∈ N+ mit X n die
Menge der geordneten n-Tupel mit Einträgen aus X bezeichnet wird, s. Abschnitt
A.2. Ein solches Tupel wird in der Form (x1 , . . . , xn ) aufgeschrieben.
Natürlich
 
x1
 .. 
n
könnte man die Elemente von X auch in der Form  . , also als Spaltenxn
tupel
Wir verwenden hierfür jedoch die (platzsparendere) Schreibwei notieren.

x1
 .. 
se  .  =: (x1 , . . . , xn )T und nennen dieses Spaltentupel Transpositum von
xn
(x1 , . . . , xn ).
Sei nun m ∈ N+ und seien (x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) ∈ X n . Dann haben
wir


(x11 , . . . , x1n )
T 

..
(x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) = 
.
.
(xm1 , . . . , xmn )
Vereinfachend schreibt man hierfür


x11 . . . x1n

..  .
A :=  ...
. 
xm1 . . . xmn
(2.1)
Definition 2.18. Ein Schema der Gestalt 2.1 nennt man (m, n)-Matrix oder
Matrix vom Format (oder auch vom Typ) (m, n) mit Einträgen aus X.
(a) Für i ∈ {1, . . . , m} und j ∈ {1, . . . , n} heißt xij Eintrag von A an der Stelle
(i, j).


x1,j


(b) Die (xi1 , . . . , xin ), i = 1, . . . , m, heißen Zeilen von A und die  ...  =
xm,j
28
KAPITEL 2. MATRIZEN
(x1,j , . . . , xm,j )T , j = 1, . . . , n, heißen Spalten von A. Dementsprechend nennt
man m auch die Zeilen(an)zahl und n die Spalten(an)zahl von A.


x11 . . . xm1

..  heißt Transpositum oder Transponier(c) Die (n, m)-Matrix  ...
. 
x1n . . . xnm
te von A und wird mit AT bezeichnet.
(d) Die Menge der (m, n)-Matrizen mit Einträgen aus X wird mit X m,n bezeichnet. Falls m = n, so spricht man von quadratischen Matrizen. Eine (1, 1)Matrix (x) wird mit x identifiziert, so daß X 1,1 = X.
Bemerkungen 2.19.
1. Für m = 1 entstehen dann wieder Zeilen-n-Tupel
und für n = 1 Spalten-m-Tupel. Damit setzt man X 1,n = X n .
2. Ist A ∈ X m,n mit Einträgen xij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, so schreibt man
mitunter
A = ((xi,j ))1≤i≤m
1≤j≤n
3. Die Stellen (1, 1), . . . , (n, n) einer quadratischen (n, n)-Matrix nennt man
Hauptdiagonale dieser Matrix. Entsprechend nennt man die Stellen (1, n),
(2, n − 1), . . . , (n, 1) Nebendiagonale dieser Matrix.
4. Sei m = m1 + m2 und n = n1 + n2 mit m1 , m2 , n1 , n2 ∈ N+ . Weiter seien
B11 ∈ X m1 ,n1 , B12 ∈ X m1 ,n2 , B21 ∈ X m2 ,n1 und B22 ∈ X m2 ,n2 . Durch
Zusammenfügen entsteht die (m, n)-Matrix
B11 B12
∈ X m,n ,
A :=
B21 B22
wobei die inneren Klammern weggelassen werden. Eine solche Matrix nennt
man Blockmatrix.
5. Das Transpositum AT einer Matrix A entsteht aus A durch Vertauschen
von Zeilen und Spalten.
Offenbar gilt (AT )T = A.
2.2.2
Matrizenringe
In diesem Abschnitt bezeichne R durchweg einen Ring.
Definition
2.20. Seienm, n, p, 
q ∈ N+ und A ∈Rm,n , B ∈ Rp,q . Wir schreiben

a11 . . . a1n
b11 . . . b1q
 ..


.
.. .
.. , B =:  ...
A =:  .
. 
am1 . . . amn
bp1 . . . bpq
2.2. MATRIZEN
29
(1) Wenn p = m und q = n, so ist die Summe
definiert durch

a11 + b11 . . . a1n + b1n

..
..
A + B := 
.
.
am1 + bm1 . . . amn + bmn
A + B ∈ Rm,n von A und B


.
Achtung: A + B kann nur gebildet werden, wenn A und B gleiches Format
haben.
(2) Sei r ∈ R. Die Matrizen rA, Ar ∈ Rm,n sind definiert durch




ra11 . . . ra1n
a11 r . . . a1n r

..  , Ar :=  ..
..  .
rA :=  ...
 .
. 
. 
ram1 . . . ramn
am1 r . . . amn r
(3) Wenn p = n, so ist das Produkt A · B ∈ Rm,p von A und B definiert durch


c11 . . . c1q

..  ,
A · B :=  ...
. 
cm1 . . . cmq
wobei cij := ai1 b1j + . . . + ain bnj =
Pn
l=1
ail blj , i = 1, . . . , m, j = 1, . . . , p.
Achtung: A · B (oder kurz AB) kann nur gebildet werden, wenn n (=Spaltenzahl von A) = p (= Zeilenzahl von B). Diese Bedingung nennt man Verkettungsbedingung und sagt, A und B seien verkettet.
Bemerkungen, Beispiele 2.21.
1. Wenn mit obigen Bezeichnungen gilt
m = 1, n = p und q = 1, d. h. A = (a1 , . . . , an ), B = (b1 , . . . , bn )T , so
haben wir A · B = a1 b1 + . . . + an bn .
Wir bemerken, daß hierfür A · B = B T · AT gilt, wenn R kommutativ ist.
2. Sind nun wiederum mit obigen Bezeichnungen m, q beliebig, aber n = p,
und sind a1 , . . . , am die Zeilen von A, bT1 , . . . , bTq die Spalten von B, so gilt
damit
A · B = ((ai · bTj ))1≤i≤m .
1≤j≤n
Ist R kommutativ, so ergibt sich hieraus und aus 1. sofort, daß
(A · B)T = B T · AT .
30
KAPITEL 2. MATRIZEN
3. Diejenige (m, n)-Matrix, deren Einträge sämtlich gleich 0R sind, nennt man
(m, n)-Nullmatrix. Sie wird mit 0m,n oder, wenn Verwechslungen ausgeschlossen sind, kurz nur mit 0 bezeichnet. Offensichtlich gilt 0m,n · B = 0m,q
und C · 0m,n = 0p,n für alle B ∈ Rn,q und alle C ∈ Rp,m .
Mitunter ist es nützlich, hier den Fall m = 0 oder n = 0 zuzulassen: Dann
versteht man unter 0m,n jeweils die leere Matrix.
4. Seien m, n, p, q beliebig und A ∈ Rm,n , B ∈ Rp,q . A · B und B · A können
genau dann gebildet werden, wenn die Verkettungsbedingungen n = p und
q = m erfüllt sind, d. h. wenn B eine (n, m)-Matrix ist. Dann ist A · B eine
(m, m)- und B · A eine (n, n)-Matrix. Wenn also m 6= n, so gilt auf jeden
Fall A · B 6= B · A. Die Frage, ob A · B = B · A gilt, ist also nur dann
sinnvoll, wenn A und B quadratische Matrizen gleichen Formats sind.
5. Sei n ∈ N+ und A, B ∈ Rn,n . Ist die Multiplikation in R nicht trivial, so
gilt für n ≥ 2 i. a. nicht A· B = B · A.Seien hierzu
r, s ∈ R mit rs 6= 0R .
01,m
s
0m,1 0m,m
, B :=
erhalten wir
Mit m := n − 1 und A :=
r
01,m
0m,m 0m,1
nämlich
0m,m 0m,1
sr 01,m
A·B =
und B · A =
,
01,m rs
0m,1 0m,m
also A · B 6= B · A.
6. Sei n ∈ N+ . Matrizen der Gestalt


r1 0R . . . 0R
 0R r2 . . . 0R 


n,n
Diagn (r1 , . . . , rn ) :=  ..
.. . .
..  ∈ R
 .
. . 
.
0R 0R . . . rn
mit r1 , r2 , . . . , rn ∈ R heißen (n, n)-Diagonalmatrizen.
Besitzt R ein Einselement, so heißt
En := Diagn (1R , . . . , 1R )
(n, n)-Einheitsmatrix (manchmal auch nur Einheitsmatrix). Offenbar gilt
Em · A = A = A · En für alle A ∈ Rm,n .
Für m, n ∈ N+ , k ∈ N mit k ≤ min{m, n} und r1 , . . . , rk ∈ R sei
Diagk (r1 , . . . , rk ) 0k,n−k
Diagm,n;k (r1 , . . . , rk ) :=
∈ Rm,n .
0m−k,k
0m−k,n−k
Solche Matrizen nennt man verallgemeinerte Diagonalmatrizen.
2.2. MATRIZEN
31
Besitzt R ein Einselement, so setzen wir
Em,n;k := Diagm,n;k (1R , . . . , 1R ).
Wir bemerken, daß Em,n;0 = 0m,n und Diagm,n (r, . . . , r) = rEm,n;k (r ∈ R).
| {z }
k−mal
+
7. R besitze ein Einselement. Für m, n, i, j ∈ N mit i ≤ m und j ≤ n sei
i,j
Em,n
∈ Rm,n diejenige Matrix, deren Einträge außer an Stelle (i, j) überall
i,j
schreiben
0R sind und die an der Stelle (i, j) den Eintrag 1R hat. Statt En,n
i,j
wir kurz En .
Wir bemerken, daß es für jede Matrix A ∈ Rm,n eindeutig bestimmte apq ∈
R (p = 1, . . . , m, q = 1, . . . , n) gibt mit
P
p,q
A = 1≤p≤m apq Em,n
.
1≤q≤n
Offensichtlich sind die apq , p = 1, . . . , m, q = 1, . . . , n, die Einträge von A.
Lemma 2.22. Seien m, n, p ∈ N+ . Dann gilt:
(1) Rm,n bildet mit der Matrizenaddition
eine 
abelsche Gruppe mit Nullelement

r11 . . . r1n
 ..
..  ∈ Rm,n :
0m,n . Dabei gilt für A =:  .
. 
rm1 . . . rmn


−r11 . . . −r1n

..  .
−A =  ...
. 
−rm1 . . . −rmn
(2) Für alle r, s ∈ R und alle A, B ∈ Rm,n gilt
(a) rA = Diagm (r, . . . , r) · A, Ar = A · Diagn (r, . . . , r)
(b) (r + s)A = rA + sA
(c) r(A + B) = rA + rB
(d) r(A · B) = (rA) · B
(e) (rs)A = r(sA)
(f ) 1R A = A
(g) (A + B)T = AT + B T
(h) (rA)T = rAT .
(3) Ist R kommutativ, so gilt für alle r ∈ R und alle A ∈ Rm,n , B ∈ Rn,p
32
KAPITEL 2. MATRIZEN
(a) r(A · B) = (rA) · B = A · (rB) sowie
(b) (A · B)T = B T · AT .
Die behaupteten Eigenschaften ergeben sich sofort aus den entsprechenden Eigenschaften für R bzw. aus den jeweiligen Definitionen.
Lemma 2.23. Seien m, n, p, q ∈ N+ .
(1) Für alle A, A1 , A2 ∈ Rm,n und alle B, B1 , B2 ∈ Rn,p gilt
A · (B1 + B2 ) = A · B1 + A · B2
und (A1 + A2 ) · B = A1 · B + A2 · B.
(2) Für alle A ∈ Rm,n , B ∈ Rn,p und C ∈ Rp,q gilt
(A · B) · C = A · (B · C).
Beweis. (1) ergibt sich sofort aus der Gültigkeit der Distributivgesetze in R.
(2) Sei i ∈ {1, . . . , m} und j ∈ {1, . . . , q}. Dann ist (a · B) · cT der Eintrag von
(A · B) · C an der Stelle (i, j) und a · (B · cT ) der Eintrag von A · (B · C)
an der Stelle (i, j), wenn a die i-te Zeile von A und cT die j-te Spalte von
C ist. Daher dürfen wir o. B. d. A. annehmen, daß m = q = 1. Sei also
A =: (a1 , . . . , an ) und C =: (c1 , . . . , cp )T sowie B =: ((bkl ))1≤k≤n . Dann gilt
1≤l≤p
A·B =
n
X
ak bk1 , . . . ,
k=1
B·C =
p
X
b1l cl , . . . ,
p
n
X
X
l=1
=
ak bkp
,
k=1
l=1
(A · B) · C =
n
X
!
p
X
bnl cl
l=1
!
ak bkl
cl =
k=1
p
n X
X
ak bkl cl =
k=1 l=1
n
X
k=1
T
und somit
p
n
X
X
ak bkl cl
l=1 k=1
p
ak
X
bkl cl
l=1
= A · (B · C) ,
Folgerung 2.24. Sei n ∈ N+ . Dann gilt
(1) Rn,n bildet mit der Matrizenaddition und -multiplikation einen Ring. Besitzt
R ein Einselement, so auch Rn,n (nämlich die Einheitsmatrix En über R).
(2) Sei R kommutativ mit Einselement. Wenn A ∈ Rn,n Einheit in Rn,n ist (d.
h. A ∈ (Rn,n )∗ ), so ist auch AT Einheit in Rn,n und es gilt
(AT )−1 = (A−1 )T .
2.2. MATRIZEN
33
Dies ergibt sich sofort aus Lemma 2.22(1), Lemma 2.23 und Lemma 2.22(3).
Definition 2.25 (invertierbare Matrizen). Sei R Ring mit Einselement und sei
n ∈ N+ . Eine Matrix A ∈ Rn,n heißt invertierbar, wenn A Einheit in Rn,n ist (d.
h. wenn es eine Matrix B ∈ Rn,n gibt mit A · B = B · A = En ).
Die Menge der invertierbaren Matrizen aus Rn,n (also (Rn,n )∗ ) bildet mit der
Matrizenmultiplikation eine Untergruppe von (Rn,n , ·), s. Bemerkung 2.9.3. Man
nennt sie n-te allgemeine lineare Gruppe über R und bezeichnet sie mit GlR (n).
Mit Hilfe von Matrizen lassen sich lineare Gleichungssysteme wesentlich einfacher
darstellen. Hierzu betrachten wir wieder das lineare Gleichungssystem (1.3):
a11 X1
a21 X1
..
.
+ a12 X2
+ a22 X2
..
.
+ . . . + a1n Xn
+ . . . + a2n Xn
..
.
= b1
= b2
..
.
am1 X1 + am2 X2 + . . . + amn Xn = bm
bestehend aus m ≥ 1 Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn mit Koeffizienten aus einem Körper K. Die Matrix


a11 . . . a1n

.. 
A :=  ...
. 
am1 . . . amn
heißt Koeffizientenmatrix von (1.3) und die Matrix


a11 . . . a1n b1
 a21 . . . a2n b2 


B :=  ..
..
.. 
 .
.
. 
am1 . . . amn bm
erweiterte Koeffizientenmatrix von (1.3). Mitunter schreibt man B = (A , bT ),
wenn b := (b1 , . . . , bm ).
Setzen wir X := (X1 , . . . , Xn ), so können wir (1.3) in der Form
A · XT = bT
schreiben (Matrizenschreibweise linearer Gleichungssysteme). Als erstes Ergebnis
haben wir
Satz 2.26. Vorgelegt sei ein lineares Gleichungssystem (1.3) mit Koeffizienten
aus einem Körper K und m ≤ n. L ⊆ K n bezeichne seine Lösungsmenge. Dann
gilt
]L = 1
⇐⇒
m = n und A ist invertierbar,
34
KAPITEL 2. MATRIZEN
wenn A die Koeffizientenmatrix von (1.3) ist. In diesem Fall haben wir
L = {b · (A−1 )T },
wobei wieder b := (b1 , . . . , bm ).
Beweis. Sei ] L = 1. Dann ist (1.3) lösbar und nach dem Gaußschen Algorithmus
sind n − r Unbestimmte frei wählbar, wenn r die vom Algorithmus produzierte
Zahl ist. Somit gilt n = r ≤ min{m, n} ≤ m ≤ n, also m = n = r. Damit führt
der Gaußsche Algorithmus (1.3) in Dreiecksgestalt über. Dies ist dann natürlich
auch der Fall, wenn b durch ein beliebiges anderes n-Tupel ersetzt wird. Wenn wir
i−te Stelle
für i = 1, . . . , n setzen eni := (0K , . . . , 0K , 1K , 0K , . . . , 0K ) ∈ K n , so ist daher
das System A · XT = eTni lösbar. Sei xi eine Lösung hiervon. Dann gilt A · A0 = En ,
wenn A0 := (xT1 , . . . xTn ) ∈ K n,n .
Hieraus folgt nun A · A0 · A = En · A = A = A · En und wir erhalten A · (A0 ·
A − En ) = 0. Die Spalten von A0 · A − En sind also Lösungen des zu (1.3)
gehörenden homogenen Gleichungssystems, das nach Lemma 1.9 nur die triviale
Lösung besitzt. Daher gilt A0 · A − En = 0, d. h. A0 · A = En , und damit ist A
invertierbar.
Sei nun m = n und A sei invertierbar. Dann gilt mit x := b · (A−1 )T :
A · xT = A · ((A−1 )T )T · bT = A · A−1 · bT = En · bT = bT ,
d. h. x ∈ L. Ist y ∈ L, so folgt
yT = En · yT = A−1 · A · yT = A−1 · bT = xT ,
also y = x und somit ] L = 1,
Folgerung 2.27. Sei n ∈ N+ und A ∈ K n,n , wobei K ein Körper ist. Die
folgenden Bedingungen sind äquivalent:
(i) A ist invertierbar
(ii) Es gibt ein A0 ∈ K n,n mit A · A0 = En
(iii) Es gibt ein A00 ∈ K n,n mit A00 · A = En
Sind diese äquivalenten Bedingungen erfüllt, so gilt für die nach (ii) bzw. (iii)
existierenden Matrizen A0 bzw. A00 : A0 = A00 = A−1 .
Beweis. Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich unmittelbar aus
der Definition.
(iii) ⇒ (i): Sei x Lösung des linearen homogenen Gleichungssystems A · XT = 0.
Dann folgt xT = En · xT = A00 · A · xT = 0, also x = 0. Nach Satz 2.26 ist A damit
invertierbar.
2.2. MATRIZEN
35
(ii) ⇒ (i): Aus A · A0 = En ergibt sich (A0 )T · AT = (A · A0 )T = (En )T = En , s.
Lemma 2.22(3b). Nach dem soeben Gezeigten ist damit AT invertierbar und die
Behauptung ergibt sich aus Folgerung 2.24(2),
Bemerkung 2.28. Die Aussage von Folgerung 2.27 bleibt richtg, wenn K ein beliebiger kommutativer Ring ist. Der Beweis erfordert allerdings spezielle ringtheoretische Methoden.
Ist eine Matrix A ∈ K n,n vorgelegt, wobei K ein Körper ist, so kann die Frage
nach der Existenz einer Inversen somit auf die Frage nach der Existenz einer
Matrix A0 mit A · A0 = En reduziert werden. Die i-te Spalte von A0 , i = 1, . . . , n,
ist Lösung des linearen Gleichungssystems A · XT = eTni , wobei eni wie im Beweis
von Satz 2.26 erklärt ist. Damit ist A genau dann invertierbar, wenn die linearen
Gleichnungssysteme
A · XT = eTni
für i = 1, . . . , n lösbar sind. Ist das der Fall und ist xi Lösung von A · XT = eTni ,
i = 1, . . . , n, so ist A−1 = (xT1 , . . . , xTn ).
Bemerkung 2.29. Der Gaußsche Algorithmus kann auf Matrizen aus K m,n ,
K ein Körper, angewandt werden, wenn man die Umformungen I, II und III
entsprechend interpretiert:
(I) Vertauschen zweier Zeilen
(II) Addition eines Vielfachen einer Zeile zu einer anderen
(III) Vertauschen zweier Spalten
Dadurch kann eine (m, n)-Matrix A in eine (m, n)-Matrix A0 überführt werden,
die Trapezgestalt besitzt, d. h. es gibt ein r ∈ N mit r ≤ min{m, n}, so daß
A0 = ((a0ij ))1≤i≤m , wobei
1≤j≤n
a0ij = 0 für alle i, j mit j = 1, . . . , n und i > min{r, j} sowie
a0ii 6= 0 für alle i = 1 . . . , r.
Ist nun ein lineares Gleichungssystem
A · XT = bT
in n Unbestimmten mit Koeffizienten aus einem Körper K bestehend aus m
Gleichungen gegeben, so reicht es, zur Vereinfachung des Systems den Gaußschen
Algorithmus auf die erweiterte Koeffizientenmatrix B = (A , bT ) anzuwenden,
wobei allerdings die letzte Spalte (also bT ) nicht in die Spaltenvertauschungen
36
KAPITEL 2. MATRIZEN
(also Umformungen vom Typ III) einbezogen werden darf. Dann entsteht eine
(m, n + 1)-Matrix der Gestalt
B̃ = Ã , b̃ T ,
wobei à Trapezgestalt hat. Dies stellt z. B. eine wesentliche Vereinfachung dar,
wenn mehrere lineare Gleichungssysteme mit jeweils gleicher Koeffizientenmatrix
vorgelegt sind. Wenn diese etwa die Gestalt
A · XT = bTk , k = 1, . . . p,
haben, so wendet man den Gaußschen Algorithmus auf die (m, n + p)-Matrix
B := (A , bT1 , . . . , bTp )
an, wobei die letzten p Spalten (also bT1 , . . . , bTp ) nicht in die Spaltenvertauschungen (also Umformungen vom Typ III) einbezogen werden dürfen. Wenn daraus
die Matrix
B̃ = (Ã , b̃T1 , . . . , b̃Tp )
entsteht, wobei à Trapezgestalt hat, so erhält man die zu den jeweiligen Ausgangssystemen äquivalenten Gleichnungssysteme
à · XT = b̃k T , k = 1, . . . p.
Zur Erläuterung diskutieren wir das folgende Beispiel
1 −2
Beispiel 2.30. Gegeben sei die Matrix A =
∈ Q2,2 . Man prüfe, ob
2 −3
A invertierbar ist und berechne ggf. ihre Inverse.
Lösung: Wie wir oben gesehen haben, ist zu prüfen, ob die linearen Gleichungssysteme
A · XT = (1, 0)T
und A · XT = (0, 1)T
lösbar sind. Hierzu wenden wir den Gaußschen Algorithmus auf
1 −2 1 0
2 −3 0 1
an und erhalten
1 −2
1 0
0
1 −2 1
Die beiden linearen Gleichungssysteme
à · XT = (1, −2)T
und à · XT = (0, 1)T ,
2.3. SPEZIELLE MATRIZEN
37
1 −2
wobei à =
, sind lösbar und damit ist A invertierbar. Da (−3, −2)
0
1
bzw. (2, 1) jeweils Lösungen des ersten bzw. zweiten Systems sind, erhalten wir
−3 2
−1
A =
−2 1
Wir bemerken, dass man bei Anwendung des modifizierten Gaußschen Algorithmus die Inverse - vorausgesetzt sie existiert - unmittelbar ablesen kann. Ist nämlich
B := (A , eT1 , . . . , eTn ) = (A , En )
und entsteht hieraus durch Anwendung des modifizierten Gaußschen Algorithmus
die Matrix B̃, so ist A genau dann invertierbar, wenn B̃ die Gestalt
B̃ = (En , A0 )
mit einer (n, n)-Matrix A0 hat. In diesem Fall gilt dann A−1 = A0 .
2.3
Spezielle Matrizen
In diesem Abschnitt sei R ein Ring mit Einselement. m, n seien positive ganze
Zahlen.
Zu den Umformungsregeln I, II und III für Matrizen (s. Bemerkung 2.29) fügen
wir hier noch die weitere Regel
(IV) Addition eines Vielfachen einer Spalte zu einer anderen
hinzu. Wir zeigen zunächst, dass diese Umformungen durch Multiplikation mit
geeigneten invertierbaren Matrizen realisiert werden können. Hierzu definieren
wir:
Definition 2.31.
Mnk (r)
(a) Für k ∈ {1, . . . , n} und r ∈ R setzen wir
:= En + (r −
1R )Enk,k
k−te
Stelle
= Diagn (1R , . . . , 1R , r , 1R , . . . , 1R ).
Sei nun n ≥ 2 und i, j seien natürliche Zahlen mit 1 ≤ i, j ≤ n und i 6= j.
(b) Mit Vni,j ∈ Rn,n bezeichnen wir diejenige (n, n)-Matrix, deren Einträge an
den Stellen (k, k) mit k ∈ {1, . . . , n} \ {i, j} sowie (i, j) und (j, i) jeweils
1R und ansonsten 0R sind.
38
KAPITEL 2. MATRIZEN
n,n
i,j
.
(c) Für r ∈ R setzen wir Ai,j
n (r) := En + rEn ∈ R
Die in (a) definierten Matrizen heißen Multiplikationsmatrizen, die in (b) Vertauschungsmatrizen und die (c) Additionsmatrizen.
Eine Matrix aus Rn,n heißt Elementarmatrix, wenn sie entweder Additionsmatrix oder Multiplikationsmatrix der Gestalt Mnk (−1R ) mit k ∈ {1, . . . , n} ist. Die
Menge aller endlichen Produkte von Elementarmatrizen aus Rn,n bezeichnen wir
mit ER (n).
Lemma 2.32. Sei A ∈ Rm,n .
k
(r) (Mnk (r)) mit
(a) Multiplikation von A mit einer Multiplikationsmatrix Mm
k ∈ {1, . . . , m} (k ∈ {1, . . . , n}) und r ∈ R von links (rechts) bewirkt die
Multiplikation der k-ten Zeile (Spalte) von A mit r von links (rechts).
(a) Multiplikation von A mit einer Vertauschungsmatrix Vmi,j (Vni,j ) mit i, j ∈
{1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, von links (rechts) bewirkt die Vertauschung der i-ten und j-ten Zeile (Spalte) von A.
i,j
(b) Multiplikation von A mit einer Additionsmatrix Ai,j
m (r) (An (r)) mit i, j ∈
{1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, und r ∈ R von links (rects) bewirkt die
Addition des links- (rechts-)r-fachen der j-ten Zeile von A zur i-ten Zeile von
A (i-ten Spalte von A zur j-ten Spalte von A).
Der Beweis liegt auf der Hand, so dass wir darauf verzichten.
Elementarmatrizen haben allerdings wichtige strukturelle Eigenschaften, die wir
nun untersuchen wollen.
Lemma 2.33. Sei n ≥ 2.
(a) Für alle k ∈ {1, . . . , n} und alle r, s ∈ R gilt
Mnk (r) · Mnk (s) = Mnk (rs) .
Insbesondere ist Mnk (r) genau dann invertierbar, wenn r ∈ R∗ . In diesem Fall
gilt Mnk (r)−1 = Mnk (r−1 ).
(b) Für alle i, j ∈ {1, . . . , n}, i 6= j, und alle r, s ∈ R gilt
i,j
i,j
Ai,j
n (r) · An (s) = An (r + s) .
i,j
−1
Insbesondere ist Ai,j
= Ai,j
n (r) invertierbar mit An (r)
n (−r).
T
j,i
Außerdem gilt Ai,j
n (r) = An (r).
(c) Für alle i, j ∈ {1, . . . , n}, i 6= j, gilt
(Vni,j )2 = En .
Insbesondere ist Vni,j invertierbar mit (Vni,j )−1 = Vni,j = (Vni,j )T .
2.3. SPEZIELLE MATRIZEN
39
(d) ER (n) ist Untergruppe von GlR (n) mit Vni,j ∈ ER (n) für alle i, j ∈ {1, . . . , n},
i 6= j.
Ist R kommutativ, so gilt außerdem P T ∈ ER (n) für alle P ∈ ER (n).
Beweis. Seien i, j, k ∈ {1, . . . , n} mit i 6= j. Dann gilt für r, s ∈ R
Mnk (r) · Mnk (s) = Mnk (rs) ,
i,j 2
i,j
i,j
i,j
i,j
i,j
Ai,j
n (r) · An (s) = (En + rEn ) · (En + sEn ) = En + rEn + sEn + rs (En )
| {z }
=0
= En + (r +
s)Eni,j
=
Ai,j
n (r
+ s) .
Schließlich ist klar, dass (Vni,j )2 = En und (Vni,j )T = Vni,j .
(a) Wenn r ∈ R∗ , so gilt Mnk (r) · Mnk (r−1 ) = En = Mnk (r−1 ) · Mnk (r), d. h. Mnk (r)
ist invertierbar mit Mnk (r−1 ) als inverser Matrix.
Sei nun umgekehrt Mnk (r) invertierbar. Dann gibt es ein A ∈ Rn,n mit
Mnk (r) · A = A · Mnk (r) = En . Hieraus folgt ra = ar = 1R , wenn a der
Eintrag von A an der Stelle (k, k) ist, d. h. r ∈ R∗ .
(b) ist klar, da Ai,j
n (0R ) = En .
i,j
j
i,j
i,j
(d) Wegen Vni,j = Aj,i
n (1R ) · An (−1R ) · An (1R ) · Mn (−1R ) liegt Vn in ER (n).
Insbesondere ist damit ER (n) nicht leer.
Seien nun A, B ∈ ER (n). Dann gibt es Elementarmatrizen A1 , . . . , As und
B1 , . . . Bt in Rn,n mit A = A1 ·. . .·As und B = B1 ·. . .·Bt . Nach (a), (b) und
Lemma 2.7(c) ist B invertierbar und es gilt B −1 = Bt−1 ·. . .·B1−1 . Wiederum
nach (a) und (b) sind B1−1 , . . . , Bt−1 Elementarmatrizen und daher folgt
A · B −1 ∈ ER (n). Somit ist ER (n) Untergruppe von GlR (n) nach Lemma
2.15.
Sei nun R kommutativ und sei A ∈ ER (n). Dann gibt es Elementarmatrizen
A1 , . . . , As ∈ Rn,n mit A = A1 ·. . .·As und es folgt AT = ATs ·. . .·AT1 ∈ ER (n)
nach (b) und (c),
Folgerung 2.34. Sei K ein Körper
(1) Für jede Matrix A ∈ K m,n gibt es Matrizen P ∈ GlK (m) und Q ∈ EK (n)
sowie ein r ∈ N mit r ≤ min{m, n}, so dass
P · A · Q = Em,n;r .
(2) Für jede Matrix A ∈ K m,n gibt es Matrizen U ∈ EK (m) und V ∈ EK (n)
sowie ein r ∈ N mit r ≤ min{m, n} und a1 , . . . , ar ∈ K ∗ , so dass
U · A · V = Diagm,n (a1 , . . . , ar ).
40
KAPITEL 2. MATRIZEN
Beweis. (2) ergibt sich mit Lemma 2.32 sofort durch Anwendung des Gaußschen Algorithmus auf A und AT .
(1) Multipliziert man die nach (2) entstehende Matrix U ·A·V = Diagm,n (a1 , . . .
Q
k
. . . , ar ) von links mit M := rk=1 Mm
(a−1
k ) ∈ GlK (m), so ergibt sich die
Aussage mit P := M · U und Q := V ,
Definition 2.35. Seien m, n ∈ N+ .
(a) ER (n) heißt n-te elementare Gruppe über R.
(b) Matrizen A, B ∈ Rm,n heißen äquivalent, kurz A ∼ B, wenn es Matrizen
P ∈ GlR (m) und Q ∈ GlR (n) gibt mit B = P · A · Q.
(c) Matrizen A, B ∈ Rn,n heißen ähnlich, wenn B = P · A · P −1 mit einer Matrix
P ∈ GlR (n).
Lemma 2.36. Äquivalenz bzw. Ähnlichkeit sind Äquivalenzrelationen auf Rm,n
bzw. auf Rn,n . Ähnliche Matrizen sind äquivalent.
Beweis.
Reflexivität:
Sei A ∈ Rn,n (A ∈ Rm,n ). Dann gilt A = P · A · P −1 mit P = En
(A = P · A · Q mit P = Em , Q = En ), also sind A, A ähnlich
(äquivalent).
Symmetrie:
Seien A, B ∈ Rn,n ähnlich (A, B ∈ Rm,n äquivalent), d. h. B =
P · A · P −1 mit P ∈ GlR (n) (B = P · A · Q mit P ∈ GlR (m),
Q ∈ GlR (n)). Dann folgt A = P −1 · B · P = P −1 · B · (P −1 )−1
(A = P −1 · B · Q−1 ), also sind B, A ähnlich (äquivalent).
Transitivität:
Seien A, B ∈ Rn,n , B, C ∈ Rn,n jeweils ähnlich (A, B ∈ Rm,n ,
B, C ∈ Rm,n jeweils äquivalent), d. h. B = P · A · P −1 , C =
P̃ · B · P̃ −1 mit P, P̃ ∈ GlR (n) (B = P · A · Q, C = P̃ · B · Q̃ mit
P, P̃ ∈ GlR (m), Q, Q̃ ∈ GlR (n)). Dann folgt C = (P̃ · P ) · A ·
(P −1 · P̃ −1 ) = (P̃ · P ) · A · (P̃ · P )−1 (C = (P̃ · P ) · A · (Q · Q̃)),
also sind A, C ähnlich (äquivalent),
Satz und Definition 2.37 (Rang einer Matrix). Sei K ein Körper und sei
s := min{m, n}.
(1) Es gibt genau s+1 paarweise verschiedene Äquivalenzklassen bzgl. ∼ in K m,n .
Dies sind die durch Em,n;k für k = 0, 1, . . . , s repräsentierten Klassen.
(2) Für jede Matrix A ∈ K m,n gibt es ein eindeutig bestimmtes r ∈ {0, . . . , s}
mit A ∼ Em,n;r , d. h. für geeignete P ∈ GlK (M ), Q ∈ GlK (n) gilt P AQ =
Em,n;r . Diese Zahl r heißt K-Rang von A oder auch nur Rang von A und
wird mit rangK A oder, wenn Verwechslungen ausgeschlossen sind, mit rangA
bezeichnet.
2.3. SPEZIELLE MATRIZEN
41
(3) Für Matrizen A, B ∈ K m,n gilt A ∼ B genau dann, wenn rang A = rang B.
(4) Für A ∈ K m,n gilt rang A = rang (P · A · Q) für alle P ∈ GlK (m) und alle
Q ∈ GlK (n).
(5) Für alle A ∈ K m,n gilt rang A = rang AT .
(6) Für A ∈ K n,n gilt A ∈ GlK (n) genau dann, wenn rang A = n.
Beweis. (1) Nach Folgerung 2.34(1) gibt es für jede Matrix A ∈ K m,n ein r ∈
{0, . . . , s} mit A ∼ Em,n;r . Daher ist nur noch zu zeigen, dass Em,n;k 6∼ Em,n;l
für alle k, l ∈ {0, . . . , s} mit k 6= l.
Seien k, l ∈ {0, . . . , s} und P ∈ GlK (m), Q ∈ GlK (n), so dass Em,n;l =
P · Em,n;k· Q. O. B. d. A. gelte k ≤ l. Sei A := P −1 · Em,n;l . Da A = Em,n;k · Q,
B O
gilt A =
mit B ∈ K k,l und Nullmatrizen jeweils passenden Formats.
O O
U W
Wir schreiben entsprechend P =
mit U ∈ K k,k , V ∈ K m−k,k , W ∈
V W0
K k,m−k , W 0 ∈ K m−k,m−k . Weiter sei B = (C D) mit C ∈ K k,k , D ∈ K k,l−k .
Dann gilt
U ·B O
U ·C U ·D O
Em,n;l = P · A =
=
,
V ·B O
V ·C V ·D O
El−k
also folgt U · C = Ek , U · D = O, V · C = O und V · D =
(V · D 6= O,
O
wenn k < l). Wegen U · C = Ek gilt auch C · U = Ek nach Folgerung 2.27
und wir erhalten V · D = V · (C · U ) · D = (V · C) · (U · D) = O, also k = l.
(2) ist nach (1) klar.
(3) Seien A, B ∈ K m,n . Dann gilt A ∼ Em,n;r , B ∼ Em,n,ρ mit r := rang A,
ρ := rang B nach (1) und wir erhalten
A ∼ B ⇐⇒ Em,n;r ∼ Em,n;ρ ⇐⇒ r = ρ
wiederum nach (1).
(4) ergibt sich unmittelbar aus (3).
(5) Sei r := rang A. Dann gibt es P ∈ GlK (m) und Q ∈ GlK (n) mit P · A · Q =
T
Em,n;r . Hieraus folgt QT · AT · P T = Em,n;r
= En,m;r und wegen QT ∈ GlK (n),
P T ∈ GlK (m) (s. Folgerung 2.24(2)) ergibt sich rang AT = r nach (2).
(6) Wenn rang A = n, also A ∼ En,n;n = En , so gibt es P, Q ∈ GlK (n) mit
A = P · En · Q = P · Q ∈ GlK (n). Wenn umgekehrt A ∈ GlK (n), so folgt
P · A · Q = En = En,n;n mit P := A−1 ∈ GlK (n) und Q := En ∈ GlK (n), also
rang A = n,
42
KAPITEL 2. MATRIZEN
Später (s. Satz 3.44 im Zusammenhang mit Definition 3.38) werden wir eine
andere und elegantere Variante zur Rangdefinition kennenlernen. Mit der hier
vorgestellte Definition haben wir jedoch eine Möglichkeit an der Hand, den Rang
einer Matrix effektiv zu berechnen. Wie wir nämlich jetzt abschließend sehen
werden, kann der Rang mit Hilfe des Gaußschen Algorithmus bestimmt werden.
Genauer ist der Rang die Zahl r, die vom Algorithmus (u. a.) produziert wird.
Damit ist auch Problem (A) in Kapitel 1 positiv gelöst: r hängt nicht ab von der
Auswahl der Algorithmusschritte, sondern nur von der vorgelegten Matrix (in
diesem Fall der Koeffizientenmatrix des gegebenen linearen Gleichungssystems).
Lemma 2.38. Sei A ∈ K m,n , wobei K ein Körper ist. Wenn durch Anwendung
des Gaußschen Algorithmus auf A eine Matrix A0 ∈ K m,n entsteht (die dann
Trapezgestalt hat), so ist rang A = rang A0 die Anzahl der vom Nulltupel verschiedenen Zeilen von A0 .
Beweis. Da A0 = P · A · Q mit geeigneten Matrizen P ∈ GlK (m), Q ∈ GlK (n),
gilt rang A = rang A0 nach Satz 2.37(4), so dass wir annehmen können, dass A
bereits Trapezgestalt hat. Bezeichnen wir mit aij , i = 1, . . . , m, j = 1, . . . , n,
die Einträge von A, so gilt daher aij = 0R für alle i, j ∈ N mit 1 ≤ j ≤ n
und min{r, j} < i ≤ m sowie aii 6= 0R für alle i = 1, . . . , r, wenn r die Anzahl
der vom Nulltupel verschiedenen Zeilen von A ist. Wenden wir den Gaußschen
Algorithmus auf AT an, so kommen hierbei nur Umformungen vom Typ II vor
und es entsteht die Martix B := Diagm,n (a11 , . . . , arr )T . Somit gibt es eine Matrix
0
Q0 ∈ GlK (n) mit A · Q
Qr = B kund−1wir haben daher rang A = rang B nach Satz
2.37(4). Wenn M := k=1 Mm (akk ) ∈ GlK (m), so gilt M · B = Em,n;r und wir
erhalten rangA = rang B = rang M · B = r wiederum nach Satz 2.37(4),
B
Folgerung 2.39. Sei A wie in Lemma 2.38. Wenn A die Gestalt A =
mit
O
B ∈ K p,n , p ∈ {0, . . . , m}, oder A = (B O) mit B ∈ K m,q , q ∈ {0, . . . , n}, und
Nullmatrizen jeweils passenden Formats hat, so gilt rang A = rang B
Beweis. Wegen rang A = rang AT (s. Satz 2.37(4)) reicht es, den ersten Fall zu
betrachten. Dann ergibt sich die Behauptung aber sofort aus Lemma 2.38, da in
dieser Situation bei Anwendung des Gaußschen Algorithmus auf A die letzten
m − p Zeilen von A, die alle gleich dem Nulltupel sind, unverändert bleiben,


−1 4
2
0
1  und
Beispiel 2.40. Man bestimme den Rang r von A :=  2 −2 0
−1 −2 −2 −1
berechne P ∈ GlQ (3) und Q ∈ GlQ (4), so dass P · A · Q = E3,4;r .
2.3. SPEZIELLE MATRIZEN
43


−1 4 2 0
Lösung: Der Gaußsche Algorithmus überführt A in A0 :=  0 6 4 1. Damit
0 0 0 0
gilt r = 2. Außerdem haben wir


1 0 0
2,1
3,1
2 1 0 · A.
A0 = A3,2
3 (1) · A3 (−1) · A3 (2) · A =
1 1 1


1 −4 −2 0
1
2
Sei M := M31 (−1)·M32 ( 61 ) = Diag(−1, 16 , 1). Dann gilt M ·A0 = 0 1
3
6
0 0
0 0
und wir erhalten


1 4 23 − 23
2
1

1,3
2,3
2,4
0 0 1 − 3 − 6 
2
1
E3,4;2 = M ·A0 ·A1,2
(4)·A
(2)·A
(−
)·A
(−
)
=
M
·A
·
.
4
4
4
4
3
6
0 0 1
0 
0 0 0
1
Damit folgt




1
1 0 0 0
−1 0 0

0 1 0 0 = E3,4;2 =  2 1 0 · A · 0
3
6
0
1 1 1
0 0 0 0
0


4 23 − 23
1 − 32 − 16 
.
0 1
0 
0 0
1
44
KAPITEL 2. MATRIZEN
Kapitel 3
Vektorräume, Moduln, Ideale
Die Untersuchung von Moduln bzw. Vektorräumen und strukturerhaltenden Abbildungen zwischen ihnen (den sogenannten linearen Abbildungen) steht im Mittelpunkt der modernen linearen Algebra. Im weiteren Verlauf werden wir uns
diesen Fragen eingehend widmen und vielfältige weitere Anwendungen u. a. in
der Geometrie studieren.
3.1
Operationen auf Mengen
Definition 3.1. Sei (H; •) eine Halbgruppe und X eine nicht leere Menge.
(a) Man sagt, H operiert von links auf X, wenn es eine Abbildung ϕ : H × X →
X gibt mit
ϕ(g • h, x) = ϕ(g, ϕ(h, x)) für alle g, h ∈ H, x ∈ X.
Statt ϕ(h, x) schreibt man meist hx, manchmal auch h(x). Dann lautet obige
Bedingung:
(g • h)x = g(hx) für alle g, h ∈ H, x ∈ X.
Ist (H; •) Monoid mit neutralem Element e, so fordert man zusätzlich
ex = x für alle x ∈ X.
(b) H operiere von links auf X. Für x ∈ X und H 0 ⊆ H sei
H 0 x := {hx | h ∈ H 0 } ⊆ X.
H 0 x heißt Bahn oder Orbit von x bezüglich H 0 . Eine Teilmenge Y von X
heißt Bahn oder Orbit bezüglich H 0 , wenn Y = H 0 x für ein x ∈ X.
45
46
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
(c) H operiere von links auf X. Man sagt, daß H einfach auf X operiert, wenn
für alle g, h ∈ H mit g 6= h und alle x ∈ X gilt gx 6= hx.
(d) H operiere von links auf X. Man sagt, daß H transitiv auf X operiert, wenn
es ein x ∈ X gibt mit Hx = X.
Bemerkungen, Beispiele 3.2.
1. Sei (H; •) Halbgruppe und X nicht leere
Menge. Dann ist eine Operation von H von rechts auf X definiert als eine
Abbildung X × H → X, so daß die entsprechenden Eigenschaften gelten
(d. h. x(g • h) = (xg)h für alle g, h ∈ H, x ∈ X und, wenn (H; •) Monoid
mit neutralem Element e ist, xe = x für alle x ∈ X).
Ist H kommutativ und operiert H von links auf einer Menge X 6= ∅, so
ist durch xh := hx für alle h ∈ H, x ∈ X eine Operation von H auf X
von rechts erklärt (und umgekehrt), wie man schnell bestätigt, so daß man
in diesem Fall nur von einer Operation von H auf X spricht. In diesen
Fällen werden wir die Operationen in der Regel als Operationen von links
schreiben.
2. Sei G ein Monoid. Die entsprechende zweistellige Operation auf G ist gleichzeitig Links- und Rechts-Operation von G auf sich selbst.
3. Sei G eine Gruppe, die auf einer Menge X 6= ∅ (von links) operiert. Dann
bilden die Bahnen bezüglich G eine Partition von X, denn zunächst gilt
x ∈ Gx für alle x ∈ X, d. h. die Bahnen sind nicht leer und ihre Vereinigung
ist X. Wenn Gx ∩ Gy 6= ∅ für x, y ∈ X, so gibt es g, h ∈ G mit gx = hy. Sei
x0 ∈ Gx, sagen wir, x0 = g 0 x mit g 0 ∈ G. Dann gilt x0 = g 0 x = g 0 g −1 gx =
g 0 g −1 hy ∈ Gy und wir erhalten Gx ⊆ Gy. Umgekehrt gilt natürlich auch
Gy ⊆ Gx, also folgt Gx = Gy.
Wenn G transitiv auf X operiert, so gilt damit Gx = X für jedes x ∈ X.
4. Ein Monoid (G; •) operiere von links auf einer Menge X 6= ∅. Für jedes
g ∈ G ist durch x 7→ gx für alle x ∈ X eine Abbildung λg : X → X
gegeben. Man nennt sie Linkstranslation mit g. Für alle g, h ∈ G und alle
x ∈ X gilt
λg•h (x) = (g • h)x = g(hx) = λg (λh (x)) = (λg ◦ λh )(x) sowie
λe (x) = ex = x ,
wenn e das neutrale Element von (G; •) ist, d. h. wir haben
λg•h = λg ◦ λh
und λe = idX .
3.2. MODULN
3.2
47
Moduln
Definition 3.3 (Moduln, Vektorräume). (a) Sei R ein Ring. Ein Links-R-Modul ist eine abelsche Gruppe (M ; +M ), auf der die multiplikative Halbgruppe
(R; ·) von R von links operiert, so daß zusätzlich folgendes gilt:
• r(u +M v) = ru +M rv für alle r ∈ R, u, v ∈ M und
• (r +R s)u = ru +M su für alle r, s ∈ R, u ∈ M .
(b) Entsprechend sind Rechts-R-Moduln erklärt.
(c) Ist R kommutativ, so spricht man lediglich von R-Moduln, siehe Bemerkung
3.2.1.
(d) Sei K ein Körper. K-Moduln werden als K-Vektorräume bezeichnet.
Bemerkungen 3.4. Mit den Bezeichnungen von Definition 3.3 haben wir:
1. Besitzt R ein Einselement und ist M ein Links-R-Modul, so gilt definitionsgemäß 1R m = m für alle m ∈ M .
2. Die unterschiedliche Bezeichnug der Operationszeichen (+R , +M ) unterbleibt in Zukunft, da Verwechslungen i. a. ausgeschlossen sind.
3. Sei R ein Ring (ein Körper). Ein Links-R-Modul (bzw. ein R-Vektorraum)
ist laut Definition eine abelsche Gruppe (M ; +) zusammen mit einer Abbildung R × M → M , wobei man das Bild von (r, u) ∈ R × M in M mit
ru bezeichnet, so daß gilt:
• r(u + v) = ru + rv für alle r ∈ R, u, v ∈ M
• (r + s)u = ru + su für alle r, s ∈ R, u ∈ M
• (r · s)u = r(su) für alle r, s ∈ R, u ∈ M
• 1R u = u für alle u ∈ M , falls R ein Einselement besitzt.
Lemma 3.5 (Rechenregeln für Moduln). Sei R ein Ring und M ein Links-RModul. Dann gilt:
(1) 0R u = 0M für alle u ∈ M
(2) r0M = 0M für alle r ∈ R
(3) (−r)u = −(ru) = r(−u) für alle r ∈ R, u ∈ M
(4) r(u − v) = ru − rv für alle r ∈ R, u, v ∈ M
(5) (r − s)u = ru − su für alle r, s ∈ R, u ∈ M
(6) Ist R Schiefkörper und gilt ru = 0M für r ∈ R, u ∈ M , so folgt r = 0R oder
u = 0M .
48
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Beweis. (1) 0M = 0R u − 0R u = (0R + 0R )u − 0R u = 0R u + 0R u − 0R u = 0R u
(2) 0M = r0M − r0M = r(0M + 0M ) − r0M = r0M + r0M − r0M = r0M
(3) ru+(−r)u = (r+(−r))u = 0R u = 0M , ru+r(−u) = r(u+(−u)) = r0M = 0M ,
also folgt (−r)u = −(ru) = r(−u)
(4) r(u − v) = r(u + (−v)) = ru + r(−v) = ru + (−rv) = ru − rv
(5) (r − s)u = (r + (−s))u = ru + (−s)u = ru + (−su) = ru − su
(6) Wenn r 6= 0R , so folgt u = 1R u = r−1 ru = r−1 0M = 0M ,
Bemerkungen, Beispiele 3.6.
1. Sei M eine abelsche Gruppe. Es kann vorkommen, daß M Links-R-Modul und Rechts-S-Modul für Ringe R, S ist.
Man sagt dann, M sei ein (R, S)-Bimodul.
2. Sei R ein Ring. Die Multiplikation in R definiert, wie man sofort sieht, eine
Operation von R von links und von rechts auf sich selbst (s. Bemerkung
3.2.5). Damit ist R ein Links-R- und ein Rechts-R-Modul, also ein (R, R)Bimodul.
Insbesondere ist jeder Körper K damit ein K-Vektorraum.
3. Sei R ein Ring und {0} die triviale Gruppe (mit neutralem Element 0 als
einzigem Element). Sie ist abelsch und wird meist einfach mit 0 bezeichnet.
Durch r0 := 0 bzw. 0r := 0 für alle r ∈ R ist eine Operation von R auf 0
von links und von rechts erklärt, bezüglich derer 0 sowohl ein Links- also
auch ein Rechts-R-Modul ist. Er heißt Nullmodul.
4. Sei (M ; +) eine abelsche Gruppe. Für n ∈ Z und u ∈ M setzen wir (s.
Übungsaufgabe 31)


u
+
.
.
.
+
u
falls
n
>
0




 | {z }

n−mal
nu :=
∈ M.
0M falls n = 0 





−((−n)u) falls n < 0
Nach der Bemnerkung zu Übungsaufgabe 31 ist M damit ein Z-Modul.
Folglich ist jede abelsche Gruppe ein Z-Modul, d. h. ”Z-Modul” und ”abelsche Gruppe” sind Synonyma.
5. Sei R ein Ring und seien m, n ∈ N+ . Die Regeln für das Rechnen mit Matrizen liefern, daß die Menge Rm,n der (m, n)-Matrizen mit Eintragungen aus
R mit der Matrizenaddition als Operation nicht nur eine abelsche Gruppe
bilden (s. Lemma 2.22(1)), sondern auch
• einen Links-R-Modul (s. Lemma 2.22(2)). Die entsprechend formulierten Regeln liefern natürlich auch, daß Rm,n ein Rechts-R-Modul ist.
3.2. MODULN
49
• einen Links-Rm,m -Modul (s. Lemma 2.23) und entsprechend einen
Rechts-Rn,n -Modul. Damit ist Rm,n ein (Rm,m , Rn,n )-Bimodul.
Ist K ein Körper, so bildet K m,n einen K-Vektorraum. Insbesondere ist
damit K n ein K-Vektorraum.
6. Für n ∈ N ∪ {∞} sei CnR (I) die Menge der auf einem Intervall I ⊆ R definierten n-mal stetig differenzierbaren Funktionen. Mit der üblichen (punktweisen) Addition von Funktionen und der Multiplikation von Funktionen
mit Skalaren ist CnR (I) ein R-Vektorraum.
Mit der (punktweisen) Addition von Funktionen und der (punktweisen)
Multipliktion von Funktionen ist CnR (I) überdies ein kommutativer Ring mit
Einselement. Identifiziert man die reellen Zahlen mit den entsprechenden
konstanten Funktionen, so ist R Unterring von CnR (I). Mehr noch, wir haben
eine Kette von Ringen (m ∈ N beliebig)
m
0
R ⊂ C∞
R (I) ⊂ CR (I) ⊂ . . . ⊂ CR (I).
Hier heißt ⊂, daß nicht nur eine (echte) Teilmenge, sondern sogar eine
(echte) Unterstruktur vorliegt.
7. Viel allgemeiner als soeben dargestellt gilt:
Sei R ein Ring und I eine Menge. Auf der Menge
RI := Abb (I, R)
definieren wir für f, g ∈ RI Abbildungen f + g, f · g : I → R durch
(f + g)(x) := f (x) + g(x) für alle x ∈ I
(f · g)(x) := f (x) · g(x) für alle x ∈ I
Man bestätigt sofort, daß RI damit ein Ring ist. Er ist kommutativ, wenn
R es ist, und besitzt ein Einselement, wenn R ein solches besitzt. Diese
zweistelligen Operationen + und · auf RI werden punktweise Addition bzw.
Multiplikation genannt. Definiert man für f ∈ RI und r ∈ R Abbildungen
rf, f r : I → R durch
(rf )(x) := r(f (x)) bzw. (f r)(x) := (f (x))r
für alle x ∈ I ,
so wird RI damit zu einem Links-R-Modul bzw. zu einem Rechts-R-Modul,
also zu einem (R, R)-Bimodul.
Ist K ein Körper, so ist K I damit einerseits ein kommutativer Ring mit
Einselement und gleichzeitig ein K-Vektorraum. Außerdem gilt für f, g ∈
K I und α ∈ K:
α(f · g) = (αf ) · g = f · (αg).
50
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
8. Sei A ein kommutativer und R ein beliebiger Ring, der - als abelsche Gruppe
(R; +) - gleichzeitig A-Modul ist. Wenn
a(s · t) = (as) · t = s · (at) für alle a ∈ A, s, t ∈ R,
so nennt man R eine A-Algebra.
Z. B. ist K I eine K-Algebra, wenn K ein Körper und I eine Menge ist, und
nach 4. ist jeder Ring eine Z-Algebra, wie man sofort bestätigt.
Definition 3.7 (Untermoduln). Sei R ein Ring und M ein Links-R-Modul.
(a) Ein Links-R-Untermodul von M ist eine Untergruppe (N ; +) von (M ; +), die
mit der vorliegenden Operation von R auf M ebenfalls ein Links-R-Modul ist.
(b) Entsprechend sind Rechts-R-Untermoduln von M und (R, S)-Biuntermoduln
von M erklärt, wenn M ein Rechts-R-Modul bzw. ein (R, S)-Bimodul ist, S
weiterer Ring.
(c) Ist R kommutativ, so spricht man von R-Untermoduln von M . Ist K Körper, so nennt man K-Untermoduln von K-Vektorräumen entsprechend KUntervektorräume.
(d) Links-(Rechts-)R-Untermoduln von R heißen Linksideale (Rechtsideale) von
R, (R, R)-Biuntermoduln von R heißen zweiseitige Ideale von R. Ist R kommutativ, so spricht man lediglich von Idealen von R.
Lemma 3.8 (Untermodulkriterium). Sei R ein Ring und M ein Links-R-Modul.
Für eine Teilmenge U von M sind die folgenden Bedingungen äquivalent:
(i) U ist Links-R-Untermodul von M
(ii) U 6= ∅ und für alle r ∈ R und alle u, v ∈ U gilt u − v, ru ∈ U .
Besitzt R ein Einselement, so sind (i) und (ii) zusätzlich äquivalent zu
(iii) U 6= ∅ und für alle r, s ∈ R und alle u, v ∈ U gilt ru + sv ∈ U
(iv) U 6= ∅ und für alle n ∈ N, alle r1 , . . . , rn ∈ R und alle u1 , . . . , un ∈ U gilt
r1 u1 + . . . + rn un ∈ U .
Beweis. Die Implikation (i) =⇒ (ii) ergibt sich sofort aus dem Untergruppenkriterium (Lemma 2.15) und der Definition, denn aus dem Untergruppenkriterium
folgt U 6= ∅ und u − v ∈ U für alle u, v ∈ U . Aus r ∈ R und u ∈ U ergibt sich
schließlich ru ∈ U .
(ii) =⇒ (i): Aus dem Untergruppenkriterium folgt zunächst, daß (U ; +) Untergruppe von (M ; +) ist. Wegen ru ∈ U für alle r ∈ R, u ∈ U , operiert R von links
auf U und diese Operation ist (trivialerweise) gegeben durch Einschränkung der
Operation von R auf M . Da die entsprechenden Beziehungen (s. Definition 3.3(a))
3.2. MODULN
51
in M gelten, gelten sie erst recht in U und damit ist U Links-R-Untermodul von
M.
Nehmen wir nun an, daß R ein Einselement 1R besitzt.
(i) =⇒ (vi): Aus r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U folgt r1 u1 , . . . , rn un ∈ U und
somit r1 u1 + . . . + rn un ∈ U .
Die Implikation (iv) ⇒ (iii) ist trivial (setze n = 2) und die Implikation (iii) =⇒
(ii) ist unter Beachtung der Rechenregeln 1 und 3 für Moduln klar (s. Lemma
3.5, setze zunächst r = 1R , s = −1R und dann s = 0R ),
Bemerkungen, Beispiele 3.9.
1. Der Nullmodul (s. Bemerkung 3.6.3) ist
Untermodul jedes Links-, Rechts- bzw. Bimoduls. Der Nulluntermodul eines
Ringes R wird auch als Nullideal von R bezeichnet.
2. Jeder Links-R-Modul M besitzt die trivialen Links-Untermoduln 0 und M .
3. Sei R ein Ring und I eine Menge. Für f ∈ RI sei
suppf := {x | x ∈ I, f (x) 6= 0R } ⊆ I
(Träger oder Support von f ).
Wir setzen
R(I) := {f | f ∈ RI , suppf endlich}.
R(I) ist sowohl Links- als auch Rechts-R-Untermodul von RI und für endliches I gilt R[I) = RI .
4. Sei m ∈ Z. Die Menge Zm := {nm | n ∈ Z} ⊆ Z ist Ideal von Z. Offenbar
gilt Zm = Z(−m), Z0 = 0 (Nullideal) und Z1 = Z. Nach Übungsaufgabe 22
hat jedes Ideal von Z die Gestalt Zm für ein eindeutig bestimmtes m ∈ N.
5. Unter Verwendung der Bezeichnungen von Lemma 3.8 nennt man einen
Ausdruck der Form
r1 u1 + . . . + rn un
mit r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U
eine Links-Linearkombination der u1 , . . . , un (mit Koeffizienten aus R).
Für eine Teilmenge X von M sei RX die Menge aller Links-Linearkombinationen jeweils endlich vieler Elemente aus X, d. h.
RX := {r1 x1 + . . . + rn xn | n ∈ N, x1 , . . . , xn ∈ X, r1 , . . . , rn ∈ R}.
Damit besagt Lemma 3.8 zum einen, daß ein Links-R-Untermodul U von M
mit jeder Teilmenge X auch alle Links-Linearkombinationen jeweils endlich
vieler Elemente von X enthält, d. h. RX ⊆ U . Da U natürlich auch abelsche
52
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Untergruppe von M und somit Z-Untermodul des Z-Moduls M ist, gilt auch
X ⊆ ZX ⊆ U für jede Teilmenge X von U , d. h. wir haben
X ⊆ RX + ZX ⊆ U .
Aus Lemma 3.8 folgt weiter, daß RX + ZX für jede Teilmenge X von M
bereits ein Links-R-Untermodul von M ist. Damit ist RX + ZX der bzgl.
⊆ kleinste Links-R-Untermodul von M , der X enthält.
Besitzt R ein Einselement, so gilt natürlich ZX ⊆ RX, so daß RX für jede
Teilmenge X von M ein Links-R-Untermodul von M ist. Er ist dann der
bzgl. ⊆ kleinste Links-R-Untermodul von M , der X enthält.
Entsprechendes gilt für Rechts-R-Moduln bzw. (R, S)-Bimoduln, S weiterer
Ring.
6. Sind U, V Links-R-Untermoduln eines Links-R-Moduls M , so ist U ∪ V genau dann Links-R-Untermodul von M , wenn U ⊆ V oder V ⊆ U , d. h.
Vereinigungen von Untermoduln sind i. a. keine Untermoduln (im Unterschied zu Durchschnitten und Summen, s. Folgerung 3.10).
In Verallgemeinerung
S hiervon gilt: Ist K eine Kette von Links-R-Untermoduln von M , so ist U ∈K U ebenfalls Links-R-Untermodul von M . (Kette
heißt ”bzgl. ⊆ vollständig geordnete Teilmenge”, d. h. für alle U, V ∈ K gilt
entweder U ⊆ V oder V ⊆ U , s. Definition A.13(b).)
Seien U1 , U2 Links-R-Untermoduln eines Links-R-Moduls M . Wir setzen
U1 + U2 := {u1 + u2 | u1 ∈ U, u2 ∈ U2 }.
Dies läßt sich leicht verallgemeinern: Sei I eine Menge und Uι , ι ∈ I, eine Familie
von Links-R-Untermoduln von M . Dann setzen wir
(
)
X
X
Uι :=
uι | uι ∈ Uι für alle ι ∈ I und uι = 0 für fast alle ι ∈ I .
ι∈I
ι∈I
Folgerung 3.10 (aus Lemma 3.8). Sei M ein Links-R-Modul, I eine Menge und
Uι , ι ∈ I, eine Familie von Links-R-Untermoduln von M . Dann sind
\
X
Uι und
Uι
ι∈I
ι∈I
T
S
P
Linksuntermoduln von M mit ι∈I Uι ⊆ Uλ ⊆ ι∈I Uι ⊆ ι∈I Uι für alle λ ∈ I.
P
S
Dabei ist ι∈I Uι der bzgl. ⊆ kleinste Links-R-Untermodul von M , der ι∈I Uι
enthält.
3.2. MODULN
53
Definition 3.11. Seien R ein Ring, M ein Links-R-Modul und X Teilmenge
von M . Ein Links-R-Untermodul U von M heißt maximal (in Bezug auf X),
wenn (U ∩ X = ∅), U 6= M und für alle Links-R-Untermoduln V von M mit
(V ∩ X = ∅,) U ⊆ V und V 6= M gilt V = U .
Entsprechend sind maximale Rechts- bzw. Bimoduln (in Bezug auf eine Teilmenge
X) eines gegebenen Rechts- bzw. Bimoduls sowie maximale Links-, Rechts- bzw.
zweiseitige Ideale von R (in Bezug auf eine Teilmenge X von R) definiert.
Lemma 3.12. Sei R ein Ring und M ein Links-R-Modul (Rechts-R-Modul,
(R, S)-Bimodul mit einem weiteren Ring S).
(1) Für jede Teilmenge X von M mit X 6= ∅ und 0M 6∈ X besitzt M einen in
Bezug auf X maximalen Links-R-Untermodul (Rechts-R-Untermodul, (R, S)Biuntermodul).
(2) Hat R ein Einselement 1R 6= 0R , so besitzt R maximale Linksideale (Rechtsideale, zweiseitige Ideale).
Beweis. (1) Sei U die Menge aller Links-R-Untermoduln U von M mit U ∩X = ∅.
Wegen 0M 6∈ X gilt 0 ∈ U, d.Sh. U =
6 ∅. Sei K ⊆ U Kette (bzgl. ”⊆”). Da
U ∩ X = ∅ für alle U ∈ K, gilt U ∈K U ∈ U und nach dem Zornschen Lemma
(s. Bemerkung A.16.2) besitzt U maximale Elemente. Sei U0 ein solches.
Wegen X 6= ∅ und U0 ∩ X = ∅ gilt U0 6= M .
Entsprechend verfährt man für Rechts- bzw. Bimoduln, so daß (1) gezeigt
ist.
(2) folgt aus (1), da ein Linksideal (Rechtsideal, zweiseitiges Ideal) von R genau
dann maximal ist, wenn es maximal in Bezug auf {1R } ist,
Wir kommen nun zu einem wichtigen Konstruktionsprinzip für Moduln, den sogenannten Restklassenmoduln. Dazu greifen wir wesentlich auf die Ausführungen
in Anhang A, Abschnitt A.4.3 zurück.
Definition 3.13. Sei (M ; +) eine abelsche Gruppe und (U ; +) Untergruppe von
M . Wir definieren eine Relation ≡U auf M , indem wir für alle m, m0 ∈ M setzen
:
m ≡U m0 ⇐⇒ m − m0 ∈ U.
≡U heißt Kongruenz modulo (oder auch bzgl.) U auf M .
Hierfür gilt nun:
Lemma 3.14. Sei R ein Ring und U Links-R-Untermodul eines Links-R-Moduls
M.
(1) ≡U ist Äquivalenzrelation auf M .
54
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
(2) Für alle m, m0 , n, n0 ∈ M und alle r ∈ R gilt:
Wenn m ≡U m0 und n ≡U n0 , so folgt m + n ≡U m0 + n0 und rm ≡U rm0 .
(3) Ist I zweiseitiges Ideal von R und gilt r ≡I r0 und s ≡I s0 für r, r0 , s, s0 ∈ R,
so folgt rs ≡I r0 s0 .
(4) Sei K Äquivalenzklasse von M bzgl. ≡U . Dann gilt für alle m ∈ K
K = m + U := {m + u | u ∈ U } .
Beweis. (1) Seien m, m0 , n, n0 , p ∈ M und r ∈ R. Dann gilt:
• m ≡U m, da m − m = 0M ∈ U .
• Aus m ≡U n, d. h. m − n ∈ U , folgt n − m = −(m − n) ∈ U , also
n ≡U m.
• Aus m ≡U n und n ≡U p, d. h. m − n, n − p ∈ U , folgt m − p =
m − n + n − p ∈ U , also m ≡U p.
Damit ist ≡U Äquivalenzrelation.
(2) Wenn für m, m0 , n, n0 ∈ M gilt m ≡U m0 und n ≡U n0 , d. h. m−m0 , n−n0 ∈ U ,
so folgt m+n−(m0 +n0 ) = m−m0 +n−n0 ∈ U und rm−rm0 = r(m−m0 ) ∈ U ,
also m + n ≡U m0 + n0 und rm ≡U rm0 .
(3) Aus r ≡I r0 und s ≡I s0 , d. h. r − r0 , s − s0 ∈ I, folgt rs − r0 s0 = r(s − s0 ) +
(r − r0 )s0 ∈ I, also rs ≡I r0 s0 .
(4) Sei K ∈ M/U und sei m ∈ K. Da für alle m0 ∈ K gilt m0 − m ∈ U , folgt
m0 ∈ {m + u | u ∈ U } = m + U , d. h. wir haben K ⊆ m + U . Ist umgekehrt
m0 ∈ m + U , sagen wir, m0 = m + u mit u ∈ U , so folgt m0 − m = u ∈ U ,
d. h. m0 ≡U m. Somit gilt aber m0 ∈ K und wir haben daher m + U ⊆ K,
zusammengenommen also K = m + U ,
Definition 3.15. Sei R ein Ring und U Links-R-Untermodul eines Links-RModuls M .
Die Menge der Äquivalenzklassen bezüglich ≡U bezeichnen wir mit M/U (sprich:
M modulo (oder nach) U ), d. h. M/U = {m + U | m ∈ M }.
Die Elemente von M/U heißen Restklassen von M modulo (oder nach) U . Ein
Element einer solchen Klasse wird Repräsentant dieser Klasse genannt. (Ist m
ein Repräsentant einer Restklasse K von M modulo U , so gilt K = m + U , s.
Lemma 3.14(4).)
Damit haben wir:
3.2. MODULN
55
Lemma 3.16. Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M
und I zweiseitiges Ideal von R.
(1) Sind m, m0 , n, n0 ∈ M mit m + U = m0 + U , n + U = n0 + U und ist r ∈ R,
so folgt m + n + U = m0 + n0 + U und rm + U = rm0 + U .
(2) Sind r, r0 , s, s0 ∈ R mit r + I = r0 + I, s + I = s0 + I, so folgt rs + I = r0 s0 + I.
(3) Durch
(m + U ) + (n + U ) := (m + n) + U (m, n ∈ M ) und
r(m + U ) := (rm) + U (m ∈ M, r ∈ R)
sind eine zweistellige Operation auf M/U und eine Operation von R auf
M/U erklärt, bezüglich derer M/U ein Links-R-Modul ist. Sein Nullelement
ist 0M + U = U (d. h. 0M/U = U ) und es gilt −(m + U ) = −m + U für alle
m ∈ M.
(4) Durch
(r + I) · (s + I) := rs + I
(r, s ∈ R)
ist eine zweistellige Operation auf R/I definiert. Damit ist (R/I; +, ·) ein
Ring. Er ist kommutativ, wenn R kommutativ ist und besitzt ein Einselement,
wenn R eines besitzt (nämlich 1R/I = 1R + I).
Bemerkung 3.17. Man sagt, die in Lemma 3.16(3),(4) eingeführten Operationen auf M/U , von R auf M/U bzw. auf R/I seien repräsentantenweise definiert.
Hieraus ergibt sich sofort, daß Assioziatvität, Distributivität (einschließlich der
entsprechenden Eigenschaften für Moduln) und ggf. Kommutativität gelten.
Beweis. (1) ergibt sich sofort aus Lemma 3.14(1),(2) und (4), da demnach m +
U = m0 + U , n + U = n0 + U genau dann gilt, wenn m ≡U m0 , n ≡U n0 .
(2) ergibt sich entsprechend aus Lemma 3.14(3).
(3) Seien K, L ∈ M/U . Wir wählen m ∈ K, n ∈ L mit K = m+U , L = n+U . Da
dann m+n+U, rm+U ∈ M/U nach (1) unabhängig von der Wahl von m ∈ K
und n ∈ L sind, sind K + L := m + n + U sowie rK := rm + U eindeutig
durch K und L sowie K und r festgelegt (repräsentantenunabhängig oder
wohldefiniert, wie man sagt). Nach obiger Bemerkung 3.17 ist ”+” damit
assoziative und kommutative Operation auf M/U und R operiert von links
auf M/U . Da für alle m ∈ M gilt
(m + U ) + U = (m + U ) + (0M + U ) = m + U und
(m + U ) + (−m + U ) = m − m + U = U ,
ist U neutrales Element von (M/U ; +) und für alle m ∈ M ist m + U invertierbar in (M/U ; +) mit −(m + U ) = −m + U , so daß (M/U ; +) eine
56
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
abelsche Gruppe ist. Damit ist M/U aber auch bereits ein Links-R-Modul,
denn besitzt R ein Einselement, so gilt 1R (m + U ) = 1R m + U = m + U .
(4) Nach (2) ist ”·” wohldefiniert und damit bildet (R/I; +, ·) nach Bemerkung
3.17 einen Ring, welcher kommutativ ist, wenn R es ist. Besitzt R ein Einselement, so ist 1R + I Einselement von R/I,
Beispiel 3.18. Sei R = M = Z. Die Untermoduln von Z sind die Ideale von
Z und jedes Ideal I von Z hat nach Übungsaufgabe 22 die Gestalt Zm für ein
eindeutig bestimmtes m ∈ N.
Für a, b ∈ Z gilt offensichtlich
a ≡I b ⇐⇒ a − b ∈ I ⇐⇒ m | a − b ⇐⇒ a ≡ b mod m.
Die Restklassen modulo I sind dann die Mengen
a + I = {a + nm | n ∈ Z} ⊆ Z,
mit a ∈ Z. Für m = 0, also I = 0 (Nullidelal), erhalten wir daher als Restklassen
die Mengen {a}, a ∈ Z, also die einelementigen Teilmengen von Z.
Sei m ≥ 1 und sei a ∈ Z. Wir dividieren a mit Rest durch Z (s. Übungsaufgabe
3), d. h. wir bestimmen q, r ∈ Z mit 0 ≤ r < m und a = qm + r. Da somit
a − r = qm ∈ I, gilt a ≡I r und somit a + I = r + I, d. h. die Restklassen modulo
I sind die Mengem I, 1 + I, . . . , m − 1 + I.
Identifizieren wir im Fall m = 0 die einelementige Menge {a} ⊂ Z mit a ∈ Z und
im Fall m ≥ 1 für r = 0, . . . , m − 1 die Restklasse r + I ⊆ Z mit r ∈ Z, so gilt
mit den Bezeichnungen von Übungsaufgabe W6 Z/Zm = Lm .
Man bestätigt sofort, daß damit die Ringstruktur von Lm (s. Übungsaufgabe W6)
mit der in Lemma 3.16(4) gegebenen Ringstruktur von Z/Zm übereinstimmt.
Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M und I zweiseitiges Ideal von R. Wir wollen nun abschließend die Links-R-Untermoduln von
M/U bzw. die Ideale von R/I bestimmen.
Sei hierzu V ein Links-R-Untermoduln von M mit U ⊆ V . Dann haben wir
V /U = {v + U | v ∈ V } ⊆ {m + U | m ∈ M } = M/U und nach dem Untermodulkriterium (s. Lemma 3.8) ist klar, daß V /U Links-R-Untermodul von M/U
ist. Mit diesen Bezeichnungen haben wir sogar:
Satz 3.19. (1) Durch V 7→ V /U , V Links-R-Untermodul von M mit U ⊆ V , ist
eine inklusionserhaltende bijektive Abbildung
Φ : {V | V Links-R-Untermodul von M mit U ⊆ V } →
→ {V | V Links-R-Untermodul von M/U }
3.2. MODULN
57
gegeben.
(2) Durch J 7→ J/I, J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J, ist
eine inklusionserhaltende bijektive Abbildung
Ψ : {J | J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J} →
→ {J | J Links- (Rechts-, zweiseitiges) Ideal von R/I}
gegeben.
Beweis. (1) Wie wir oben bereits gesehen haben, ist V /U = Φ(V ) Links-RUntermodul von M/U für jeden Links-R-Untermodul V von M mit U ⊆ V .
Wir zeigen zunächst:
Seien V, W Links-R-Untermoduln von M mit U ⊆ V, W . Dann gilt V /U ⊆
W/U genau dann, wenn V ⊆ W .
Begründung. Wenn V ⊆ W , so folgt mit dem oben Gezeigten, daß V /U ⊆
W/U . Gelte nun umgekehrt V /U ⊆ W/U . Dann gibt es für jedes v ∈ V ein
w ∈ W mit v + U = w + U . Da v = v + 0M ∈ v + U = w + U , gibt es
somit für jedes v ∈ V ein w ∈ W und ein u ∈ U mit v = w + u, d. h. es gilt
v = u + w ∈ U + W = W und damit folgt V ⊆ W wie behauptet.
Hieraus folgt zum einen, daß Φ inklusionserhaltend ist. Zum anderen ergibt
sich die Injektivität von Φ: Wenn für Links-R-Untermoduln V, W von M mit
U ⊆ V, W gilt Φ(V ) = Φ(W ), also V /U = W/U , so folgt V = W .
Damit ist nur noch die Surjektivität von Φ zu zeigen. Sei hierzu V ein LinksR-Untermodul von M/U . Wir setzen V := {m ∈ M | m + U ∈ V}. Dann
gilt zunächst definitionsgemäß {v + U | v ∈ V } = V. Wegen U = 0M/U ∈ V
folgt u + U = U ∈ V für alle u ∈ U , also U ⊆ V und insbesondere V 6=
∅. Seien nun v, v 0 ∈ V und sei r ∈ R. Da somit v + U, v 0 + U ∈ V, gilt
v − v 0 + U = (v + U ) − (v 0 + U ) ∈ V und rv + U = r(v + U ) ∈ V, also
v − v 0 , rv ∈ V . Nach dem Untermodulkriterium (s. Lemma 3.8) ist V damit
ein Links-R-Untermodul von M und es gilt V = V /U = Φ(V ), d. h. Φ ist
surjektiv.
(2) folgt unmittelbar aus (1), da die Links- (Rechts-, zweiseitigen) Ideale von R
genau die Links-R-Untermoduln (Rechts-R-Untermoduln, (R, R)-Biuntermoduln) von R sind,
Als wichtige Anwendung geben wir das folgende Resultat:
Lemma 3.20. Sei R ein kommutativer Ring mit Einselement 1R 6= 0R .
(1) R ist Körper genau dann, wenn 0 und R die einzigen Ideale von R sind.
(2) Ein Ideal I von R ist maximal genau dann, wenn R/I ein Körper ist.
58
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Beweis. (1) Sei R ein Körper und sei J Ideal von R. Wenn J 6= 0, so wähle
x ∈ J \ {0R }. Da 1R = x−1 x ∈ J, gilt J = R.
Seien umgekehrt 0 und R die einzigen Ideale von R und sei x ∈ R, x 6= 0R .
Da Rx 6= 0, gilt Rx = R und folglich gibt es ein y ∈ R mit xy = yx = 1R .
Somit gilt x ∈ R∗ , d. h. R ist ein Körper.
(2) Nach Lemma 3.19(2) ist I maximal genau dann, wenn I/I = 0 und R/I die
einzigen Ideale von R/I sind. Die Behauptung folgt damit aus (1),
3.3
Erzeugendensysteme und Basen
Mit Bemerkung 3.9.5 können wir definieren
Definition 3.21. Sei R ein Ring und M ein Links-R-Modul.
(a) Sei X ⊆ M . Der Durchschnitt U (X) aller Links-R-Untermoduln V von
M mit X ⊆ V ist ein Links-R-Untermodul von M . U (X) ist der bezüglich ⊆ kleinste Links-R-Untermodul von M , der X enthält und heißt von X
erzeugter Links-R-Untermodul von M . Es gilt
U (X) = RX + ZX.
Ist R Ring mit Einselement, so haben wir sogar
U (X) = RX.
(b) Eine Teilmenge X von M heißt Erzeugendensystem von M , wenn M =
U (X).
(c) M heißt endlich erzeugt, wenn M = U (X) für eine endliche Teilmenge X ⊆
M.
(d) Ist M endlich erzeugt, so heißt die Zahl
µR (M ) := min{n | n ∈ N, n = ]X, M = U (X)}
minimale Erzeugendenzahl von M .
(e) M heißt zyklisch, wenn M = U (x) für ein x ∈ M (statt U ({x}) schreiben
wir kurz U (x)), d. h. wenn µR (M ) ≤ 1.
Bemerkungen 3.22. Sei R ein Ring, M ein Links-R-Modul und X, Y ⊆ M .
1. Es gilt U (X∪Y ) = U (X)+U (Y ), denn wegen U (X), U (Y ) ⊆ U (X∪Y ) folgt
U (X) + U (Y ) ⊆ U (X ∪ Y ) und X ∪ Y ⊆ U (X) + U (Y ) liefert U (X ∪ Y ) ⊆
U (X) + U (Y ).
3.3. ERZEUGENDENSYSTEME UND BASEN
59
2. Ist E Erzeugendensystem von M und gilt E = X ∪ Y , so ist Ȳ := {y +
U (X) | y ∈ Y } ⊆ M/U (X) Erzeugendensystem von M/U (X), wenn U (X)
wieder den von X erzeugten Links-R-Untermodul von M bezeichnet.
Für jedes m ∈ M gibt es nämlich x1 , . . . , xn ∈ X, y1 , . . . , ym ∈ Y , r1 , . . . , rn ,
s1 , . . . , sm ∈ R ∪ Z mit m = r1 x1 + . . . + rn xn + s1 y1 + . . . + sm ym . Dann
folgt aber wegen x1 , . . . , xn ∈ X ⊆ U , also x̄1 , . . . , x̄n = 0M/U :
m̄ = r1 x̄1 + . . . + rn x̄n + s1 ȳ1 + . . . + sm ȳm
= s1 ȳ1 + . . . + sm ȳm
∈ RȲ + ZȲ ,
wenn wir für m ∈ M setzen m̄ := m + U (X). Somit gilt M/U (X) ⊆
RȲ + ZȲ und damit natürlich M/U (X) = RȲ + ZȲ , d. h. Ȳ ist in der Tat
Erzeugendensystem von M/U (X).
Wir kommen nun zu einem zentralen Begriff der Mathematik, der linearen Abhängigkeit bzw. linearen Unabhängigkeit. Zur Erläuterung betrachten wir die folgende
Situation.
Seien a, b1 , b2 ∈ R2 gegeben durch a = (1, 2), b1 = (2, 4) und b2 = (3, −1).
Zwischen den Vektorpaaren a, b1 und a, b2 besteht ein wesentlicher Unterschied:
Im Gegensatz zu b2 ist b1 ist Vielfaches von a. Genauer gesagt gilt b1 = 2a oder,
anders geschrieben
(−2)a + b1 = 0 (= (0, 0)).
Zwischen a und b2 besteht jedoch keine derartige Beziehung, wie man sofort
nachrechnet. Das hat weitreichende Konsequenzen: Während man jedes Element
(x, y) ∈ R2 als Linearkombination von a und b2 darstellen kann, ist das bei
Verwendung von a und b1 nicht möglich. Wir sagen, a, b1 sind linear abhängig,
während a, b2 linear unabhängig genannt werden. Dies wollen wir nun verallgemeinern.
Hierzu werden wir generell folgendes voraussetzen: Alle nun betrachteten Ringe besitzen ein vom Nullelement verschiedenes Einselement.
Definition 3.23. Sei R ein Ring und M ein Links-R-Modul.
(a) m1 , . . . , mp ∈ M heißen linear abhängig über R, wenn es r1 , . . . , rp ∈ R gibt,
die nicht alle gleich 0R sind, so daß r1 m1 + . . . + rp mp = 0M .
Ist das nicht der Fall, d. h. folgt aus r1 m1 +. . .+rp mp = 0M mit r1 , . . . , rp ∈ R
stets r1 = . . . = rp = 0R , so heißen m1 , . . . , mp linear unabhängig über R.
(b) Eine Teilmenge X von M heißt linear abhängig über R, wenn es paarweise
verschiedene x1 , . . . , xp ∈ X gibt, die linear abhängig über R sind.
60
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Ansonsten, d. h. wenn je endlich viele paarweise verschiedene Elemente von
X linear unabhängig über R sind, heißt X linear unabhängig über R.
(c) M heißt frei über R oder freier R-Modul, wenn M ein über R linear unabhängiges Erzeugendensystem besitzt.
(d) Ist M frei über R, so heißt ein über R linear unabhängiges Erzeugendensystem
von M R-Basis (manchmal auch freie R-Basis) von M .
Der Zusatz ”über R” oder ”R-” wird weggelassen, wenn sich aus dem Kontext
ergibt, welcher Ring zugrunde liegt.
Bemerkungen, Beispiele 3.24. Sei R ein Ring und M ein Links-R-Modul.
1. Sei X Teilmenge von M . Ist X linear unabhängig, so ist auch jede Teilmenge
von X linear unabhängig. Enthält X eine linear abhängige Teilmenge, so
ist auch X linear abhängig.
Die leere Menge ist stets linear unabhängig. Damit ist der Nullmodul frei,
denn er wird von der leeren Menge erzeugt.
2. Wenn
• für m1 , . . . , mp ∈ M gilt mi = mj für 1 ≤ i < j ≤ p, so sind m1 , . . . , mp
linear abhängig, da dann r1 m1 + . . . + rp mp = 0M mit


falls
l=i 
 1R
−1R
falls
l=j
, l = 1, . . . , p
rl :=


0R
sonst
d. h. 1R mi + (−1R ) mj = 0M und 1R 6= 0R .
• 0M ∈ X für X ⊆ M , so ist X linear abhängig, denn 1R 0M = 0M und
1R 6= 0R .
Sind also m1 , . . . , mp ∈ M linear unabhängig, so sind sie paarweise verschieden und von 0M verschieden.
3. Ob m1 , . . . , mp ∈ M linear abhängig oder linear unabhägig sind, hängt
nicht ab von der Reihenfolge der m1 , . . . , mp .
4. Sei R = K ein Körper und M = K m mit m ∈ N+ . Weiter seien a1 , . . . , an ∈
K m mit n ∈ N+ gegeben. Um zu überprüfen, ob a1 , . . . , an linear abhängig
(bzw. linear unabhängig) sind, kann man wie folgt vorgehen: Sei A ∈ K m,n
diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn .
Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das
homogene lineare Gleichungssystem AXT = 0 eine nichttriviale Lösung
besitzt (nur die triviale Lösung besitzt), denn für α1 , . . . , αn ∈ K gilt
A(α1 , . . . , αn )T = 0 genau dann, wenn α1 a1 +. . .+αn an = 0. Da zur Bestimmung der Lösungsmenge von AXT = 0 nach Lemma 2.38 genau n − rang A
3.3. ERZEUGENDENSYSTEME UND BASEN
61
Unbestimmte frei gewählt werden können, ist dies äquivalent zu rang A < n
(rang A = n).
5. {1R } ist Basis von R als Links- und als Rechts-R-Modul. Damit ist R freier
zyklischer Modul über sich selbst. Allgemeiner haben wir:
Lemma 3.25. Sei R ein Ring und n ∈ N. Dann ist Rn frei und zwar sowohl als
Links- als auch als Rechts-R-Modul.
Ist n ≥ 1, so ist {en1 , . . . , enn } Basis von Rn , wenn en1 := (1R , 0R , 0R , . . . , 0R ),
en2 := (0R , 1R , 0R , . . . , 0R ), . . . , enn := (0R , . . . , 0R , 1R ).
Beweis. Für n = 0 ist Rn der Nullmodul und dieser ist frei. Für n > 0 wird
Rn als Links- und auch als Rechts-R-Modul erzeugt von {en1 , . . . , enn }, denn für
(x1 , . . . , xn ) ∈ Rn gilt (x1 , . . . , xn ) = x1 en1 + . . . + xn enn ∈ R{en1 , . . . , enn } und
(x1 , . . . , xn ) = en1 x1 +. . .+enn xn ∈ {en1 , . . . , enn }R. Andererseits sind en1 , . . . , enn
linear unabhänig, denn aus x1 en1 + . . . + xn enn = 0 bzw. en1 x1 + . . . + enn xn = 0
folgt (trivialerweise) x1 = . . . = xn = 0. Damit ist {en1 , . . . , enn } Basis von Rn als
Links- und als Rechts-R-Modul,
Bemerkung 3.26. Für n ∈ N+ nennt man die Basis {en1 , . . . , enn } des Rn oft
kanonische Basis von Rn .
Satz 3.27. Sei R ein Ring. Dann gilt:
(1) Eine Teilmenge X eines Links-R-Moduls M ist Basis von M genau dann,
wenn es für jedes m ∈ M eindeutig bestimmte Elemente rm,x ∈ R, x ∈ X,
gibt, so daß
• rm,x = 0R für fast alle x ∈ X und
P
• m = x∈X rm,x x,
d. h. P
für jedes m ∈ M gibt es ein eindeutig bestimmtes ρm ∈ R(X) mit
m = x∈X ρm (x)x, s. Beispiel 3.9.3.
(2) Jede Basis X eines freien Links-R-Moduls M ist maximale linear unabhängige Teilmenge von M (d. h. X ∪ {y} ist linear abhängig für alle y ∈ M \ X)
und minimales Erzeugendensystem von M (d. h. für alle x ∈ X ist X \ {x}
kein Erzeugendensystem von M ).
(3) Sei R ein Körper und V ein R-Vektorraum. Für eine Teilmenge X von V
sind äquivalent:
(i) X ist Basis von V
(ii) X ist maximale linear unabhängige Teilmenge von V
(iii) X ist minimales Erzeugendensystem von V .
62
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Beweis. (1) Sei X Basis von M . Da X insbesondere Erzeugendensystem von M
ist, gibt es für jedes m ∈ M Elemente x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R
mit m = r1 x1 + . . . + rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp
paarweise verschieden sind. Wir setzen nun für alle x ∈ X
ri falls x = xi für ein i, 1 ≤ i ≤ p
rm,x :=
0R falls x 6∈ {x1 , . . . xp }
P
Dann gilt offensichtlich m = x∈X rm,x x und wir müssen nur noch die Eindeutigkeit der Darstellung nachweisen.
P
P
0
Sei hierzu m ∈ M und seien m = x∈X rm,x x sowie m = x∈X rm,x
x Darstellungen von m mit den geforderten Eigenschaften. Sei Y := {x | x ∈
0
6= 0R }. Y ist endliche Teilmenge von X, sagen wir,
X, rm,x 6= 0R oder rm,x
Y = {x1 , . . . , xp } mit p := ]Y ∈ N und paarweise verschiedenen x1 , . . . , xp .
0
. Dann gilt
Für jedes i = 1, . . . p sei ri := rm,xi − rm,x
i
r1 x1 + . . . + rp xp =
X
x∈X
rm,x x −
X
0
rm,x
x = m − m = 0M .
x∈X
Da X linear unabhängig ist, folgt hieraus r1 = . . . = rp = 0R , d. h. wir haben
0
0
rm,x − rm,x
= 0R für alle x ∈ Y und damit rm,x = rm,x
für alle x ∈ X.
Wir bemerken, daß damit für jedes m ∈ M P
durch x 7→ rm,x
P, x ∈ X, ein
(X)
Element ρm ∈ R
definiert ist und daß m = x∈X rm,x x = x∈X ρm (x)x.
Sei nun X keine Basis von M . Dann ist X entweder kein Erzeugendensystem von M oder X ist linear abhängig. Im ersten Fall ist klar, daß nicht
für alle m ∈ M Elemente rm,x , x ∈ X, mit den geforderten Eigenschaften
existieren. Im zweiten Fall gibt es für m = 0M neben der trivialen Darstellung als Linearkombination von Elementen aus X mindestens eine weitere,
so daß die geforderte Eindeutigkeit nicht gegeben ist (”trivial” heißt, daß alle
Koeffizienten gleich 0R sind).
(2) Sei y ∈ M \ X. Da X Basis und somit Erzeugendensystem von M ist, gibt es
x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R mit y = r1 x1 + . . . rp xp . O. B. d. A. dürfen
wir wieder annehmen, daß x1 , . . . , xp paarweise verschieden sind. Dann sind
wegen y 6∈ X auch y, x1 , . . . , xp paarweise verschieden und wir haben
(−1R )y + r1 x1 + . . . + rp xp = 0M ,
d. h. y, x1 , . . . , xp sind linear abhängig und damit ist X ∪{y} linear abhängig.
Sei x ∈ X. Angenommen, Y := X \ {x} ist auch noch Erzeugendensystem
von M . Dann gibt es x1 , . . . , xp ∈ X \ {x} und r1 , . . . , rp ∈ R mit x =
r1 x1 + . . . rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp paarweise
3.3. ERZEUGENDENSYSTEME UND BASEN
63
verschieden sind. Dann sind auch x, x1 , . . . , xp paarweise verschieden und wir
haben
(−1R )x + r1 x1 + . . . + rp xp = 0M
im Widerspruch zur linearen Unabhängigkeit von X. Damit ist X minimales
Erzeugendensystem von M .
(3) Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich aus (2).
(ii) ⇒ (i): Es ist zu zeigen, daß X Erzeugendensystem von V ist. Sei hierzu
W := RX der von X erzeugte Untervektorraum von V und sei v ∈ V .
Wir müssen zeigen, daß v ∈ W . Dies ist sicher richtig, wenn v ∈ X. Sei also
v 6∈ X. Dann ist X ∪ {v} linear abhängig, d. h. es gibt paarweise verschiedene
x0 , . . . , xp ∈ X ∪ {v} und r0 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß
r0 x0 + r1 x1 + . . . + rp xp = 0V .
Da X linear unabhängig ist, muß gelten v ∈ {x0 , . . . , xp }. O. B. d. A. sei
v = x0 . Wenn r0 = 0R , so hätten wir r1 x1 + . . . + rp xp = 0V im Widerspruch
zur linearen Unabhängigkeit von X. Damit ist r0 6= 0R und wir erhalten mit
ri0 := −r0−1 ri ∈ R, i = 1, . . . , p :
v = r10 x1 + . . . + rp0 xp ∈ W.
(iii) ⇒ (i): Es ist lediglich die lineare Unabhängigkeit von X zu zeigen. Angenommen, X wäre nicht linear unabhängig. Dann gibt es paarweise verschiedene x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß
r1 x1 + . . . + rp xp = 0V . O. B. d. A. gelte r1 6= 0R . Wie im Beweis der Implikation (ii) ⇒ (i) folgt dann, daß x1 ∈ R{x2 , . . . , xp } ⊆ RY mit Y := X \ {x1 }.
Dann gilt aber V = RX = RY + Rx1 = RY , denn wegen x1 ∈ RY folgt
Rx1 ⊆ RY . Damit wäre aber Y bereits Erzeugendensystem von V im Widerspruch zur Minimalität von X. Somit ist X linear unabhängig, also Basis
von V ,
Die Äquivalenz (i) ⇔ (ii) in Satz 3.27(3) kann wie folgt verschärft werden:
Folgerung 3.28. Sei K ein Körper und V ein K-Vektorraum.
Eine Teilmenge X eines Erzeugendensystems E von V ist Basis von V genau
dann, wenn X maximale linear unabhängige Teilmenge von E ist.
Beweis. Ist X Basis von V mit X ⊆ E, so ist X maximale linear unabhägige
Teilmenge von V nach Satz 3.27(3), also erst recht maximale linear unabhägige
Teilmenge von E.
64
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Ist umgekehrt X maximale linear unabhägige Teilmenge von E, so sei W := KX
der von X erzeugte Untervektorraum von V . Angenommen, E 6⊆ W , d. h. es gibt
ein v ∈ E mit v 6∈ W . Völlig analog wie im Beweis von Satz 3.27(3), (ii) ⇒ (i)
führt dies zu einem Widerspruch. Damit gilt E ⊆ W und folglich V = KE ⊆
W ⊆ V , also V = W , d. h. X ist Erzeugendensystem und damit Basis von V ,
Lemma 3.29. Sei R ein Ring, M ein Links-R-Modul und X ein Erzeugendensystem von M . Dann gilt:
(1) Ist X unendlich, so enthält jedes Erzeugendensystem von M ein Erzeugendensystem Z von M mit ]Z ≤ ]X.
(2) Ist X endlich, so enthält jedes Erzeugendensystem von M ein endliches Erzeugendensystem von M .
Beweis. Sei Y weiteres Erzeugendensystem von M . Zu jedem x S
∈ X gibt es eine
endliche Teilmenge E(x) 6= ∅ von Y mit x ∈ RE(x). Sei Z := x∈X E(x) ⊆ Y .
Da dann x ∈ RE(x) ⊆ RZ für alle x ∈ X, folgt X ⊆ RZ, somit M = RX ⊆
RZ ⊆ RY = M , also RZ = M . Ist X endlich, so ist auch Z endlich nach Satz
A.32(1). Ist X unendlich, so gilt ]Z ≤ ]X nach Satz A.33(2),
Theorem 3.30. Sei R ein Ring und M ein freier Links-R-Modul. Dann gilt:
(1) Sind X, Y Basen von M und ist X unendlich, so folgt ]Y = ]X.
(2) Ist R kommutativ, so haben alle Basen von M die gleiche Kardinalzahl.
Beweis. (1) Nach Lemma 3.29(1) enthält Y ein Erzeugendensystem Z von M
mit #Z ≤ #X. Nach Satz 3.27(2) gilt Y = Z und damit ]Y ≤ ]X. Wäre Y
endlich, so enthielte X nach Lemma 3.29(2) ein endliches Erzeugendensystem
Z 0 von M , Widerspruch, denn aus Satz 3.27(2) würde folgen X = Z 0 . Daher
ist Y unendlich und wir erhalten analog wie eben ]X ≤ ]Y . Nach dem Satz
von Schröder-Bernstein folgt hieraus ]Y = ]X.
(2) Mit (1) ist der Beweis nur noch für den Fall zu erbringen, daß M eine endliche
Basis besitzt. Dann sind alle Basen von M endlich nach (1). Insbesondere ist
M ein endlich erzeugter R-Modul, d. h. wir haben µR (M ) < ∞. Im Hinblick
auf Folgerung 3.32 zeigen wir allgemeiner:
Sei X Basis von M , sagen wir, X = {x1 , . . . , xm } mit m = ]X. Dann gilt
m = µR (M ).
Sei hierzu Y Erzeugendensystem von M mit ]Y = µR (M ), sagen wir Y =
{y1 , . . . , yn }, n := µR (M ). Da auch X Erzeugendensystem von P
M ist, gilt
m ≥ n und für i = 1, . . . , m gibt es ri1 , . . . , rin ∈ R mit xi = nj=1 rij yj .
Entsprechend gibt es für j = 1, . . . , n Elemente sj1 , . . . , sjm ∈ R mit yj =
3.3. ERZEUGENDENSYSTEME UND BASEN
65
Pn
sjk xk . Durch Einsetzen in die vorhergehende Gleichung erhalten wir für
i = 1, . . . , m
k=1
xi =
n X
m
X
rij sjk xk =
j=1 k=1
m
n
X
X
k=1
rij sjk xk .
j=1
Wegen der linearen Unabhängigkeit von X folgt hieraus für i, k = 1, . . . , m
n
X
1R wenn i = k
rij sjk =
,
0R wenn i 6= k
j=1



r11 . . . r1n
s11 . . . s1m

..  und B :=  ..
.. .
d. h. A · B = Em , wenn A :=  ...
 .
. 
. 
rm1 . . . rmn
sn1 . . . snm
Om,m−n ∈ Rm,m und
Dann gilt aberauch à · B̃ = Em , wenn à := A B
B·A
On,m−n
m,m
.
B̃ :=
∈ R . Wir bemerken, daß B̃ · Ã =
Om−n,n Om−n,m−n
Om−n,m

Sei nun m ein maximales Ideal von R (s. Lemma 3.12). Mit A bzw. B bezeichnen wir diejenigen Matrizen in (R/m)m,m , die aus à bzw. B̃ entstehen,
wenn man die jeweiligen Eintragungen durch ihre Restklassen modulo m ersetzt. Dann gilt ebenfalls A · B = Em und, da R/m nach Lemma 3.20(2) ein
Körper ist, ergibt sich aus Folgerung 2.27, daß B · A = Em . Dies ist aber
unmöglich, wenn m > n (da dann die letzten m − n Zeilen und Spalten von
B · A Nulltupel wären). Somit gilt m = n wie behauptet,
Damit können wir definieren:
Definition 3.31. (a) Sei R ein kommutativer Ring und F ein freier R-Modul.
Die Kardinalzahl einer (und damit jeder, s. Theorem 3.30(2)) Basis von F
wird als R-Rang oder, falls Verwechslungen ausgeschlossen sind, auch nur als
Rang von F bezeichnet, Schreibweise rangR F oder rang F .
(b) Ist K ein Körper und V ein K-Vektorraum, so wird der K-Rang von V oft
auch als K-Dimension oder nur Dimension von V bezeichnet, kurz dimK V
oder dim V .
Folgerung 3.32 (aus Theorem 3.30). Sei R ein kommutativer Ring. Dann gilt
(1) rangR F = µR (F ) für jeden endlich erzeugten freien R-Modul F .
(2) Für jedes n ∈ N ist Rn endlich erzeugter freier R-Modul mit rang Rn = n.
Dies ergibt sich unmittelbar aus dem Beweis von Theorem 3.30(2) sowie aus
Lemma 3.25.
66
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
3.4
Vektorräume
Wir wenden uns nun der genaueren Untersuchung von Vektorräumen zu.
Lemma 3.33. Sei K ein Körper und V ein K-Vektorraum. Ferner sei E ein
Erzeugendensystem von V und Y linear unabhängige Teilmenge von E. Dann
gibt eine linear unabhängige Menge Z ⊆ E \ Y , so daß folgendes gilt:
(1) Y ∪ Z ist Basis von V .
(2) Ist U := KY der von Y erzeugte Untervektorraum von V , so ist
Z̄ := {z + U | z ∈ Z} ⊆ V /U
Basis von V /U .
(3) Die durch z 7→ z + U gegebene Abbildung f : Z → Z̄ ist Bijektion und damit
gilt ]Z̄ = ]Z.
Beweis. Sei
U := {X | Y ⊆ X ⊆ E, X linear unabhängig}.
Wegen Y ∈ U ist U nicht leere undSbezüglich ⊆ teilweise geordnete Menge. Sei
K eine Kette in U und sei X 0 := X∈K X. Sicherlich gilt Y ⊆ X 0 ⊆ E. Seien
nun x1 , . . . xn paarweise verschiedene Elemente aus X 0S(n ∈ N+ ). Dann gibt es
X1 , . . . , Xn ∈ K mit xi ∈ Xi , i = 1, . . . , n. Sei X := ni=1 Xi . Da K Kette ist,
gilt X ∈ K und damit sind x1 , . . . , xn wegen x1 , . . . , xn ∈ X linear unabhängig.
Somit ist X 0 linear unabhängig, d. h. X 0 ∈ U. Nach Lemma A.17 besitzt U
damit maximale Elemente. Sei X0 ein solches. Da X0 somit eine maximale linear
unabhängige Teilmenge von E ist, ist X0 Basis von V nach Folgerung 3.28.
Setzen wir Z := X0 \ Y , so ist (1) gezeigt. Wir zeigen nun (2) und (3).
Für m ∈ M sei m̄ := m + U . Seien z1 , . . . , zn paarweise verschiedene Elemente
aus Z. Angenommen, für r1 , . . . , rn ∈ K gilt r1 z̄1 + . . . + rn z̄n = 0V /U . Dann folgt
r1 z1 + . . . + rn zn ∈ U , d. h. es gibt y1 , . . . , ym ∈ Y und s1 , . . . , sm ∈ K mit r1 z1 +
. . .+rn zn = s1 y1 +. . .+sm ym . O. B. d. A. dürfen wir voraussetzen, daß y1 , . . . , ym
paarweise verschieden sind. Wegen Z ⊂ E\Y sind dann auch z1 , . . . , zn , y1 , . . . , ym
paarweise verschieden und aus r1 z1 + . . . + rn zn − s1 y1 − . . . − sm ym = 0V folgt
wegen der linearen Unabhängigkeit von Y ∪Z insbesondere r1 = . . . = rn = 0K , d.
h. z̄1 , . . . , z̄n sind linear unabhängig. Da somit z̄1 , . . . , z̄n insbesondere paarweise
verschieden sind, ist f injektiv und mithin bijektiv. (Es ist klar, daß f surjektiv
ist.) Außerdem ist Z̄ linear unabhängig. Da Y ∪ Z Erzeugendensystem von V ist,
ist Z̄ Erzeugendensystem von V /U (s. Bemerkung 3.22.2) und damit Basis von
V /U ,
3.4. VEKTORRÄUME
67
Folgerung 3.34. Sei K ein Körper. Jedes Erzeugendensystem eines K-Vektorraumes V enthält eine Basis von V . Insbesondere besitzt jeder K-Vektorraum
eine Basis (ist also ein freier K-Modul) und je zwei Basen ein und desselben
K-Vektorraumes haben die gleiche Mächtigkeit.
Folgerung 3.35 (Basisergänzungssatz). Sei K ein Körper und V ein K-Vektorraum. Ist Y ⊂ V linear unabhängig, so gibt es eine linear unabhängige Menge
Z ⊂ V \ Y , so daß Y ∪ Z Basis von V ist. Ist dabei E ein Erzeugendensystem
von V mit Y ⊆ E, so kann Z ⊆ E \ Y gewählt werden.
Folgerung 3.36 (Steinitzscher Austauschsatz). Sei K ein Körper und V ein
K-Vektorraum. Sind B, C Basen von V , so gibt es zu jeder Teilmenge X von B
eine Teilmenge Y von C mit ]X = ]Y , so daß (B \ X) ∪ Y wieder Basis von V
ist.
Beweis. (B \ X) ∪ C ist (trivialerweise) Erzeugendensystem von V , das die linear
unabhängige Menge B \ X enthält. Nach Lemma 3.33(1) gibt es eine linear unabhängige Menge Y ⊆ ((B \ X) ∪ C) \ (B \ X) = C \ (B \ X), so daß (B \ X) ∪ Y
Basis von V ist. Da natürlich auch (B \ X) ∪ X = B Basis von V ist, sind
X̄ := {x + U | x ∈ X} und Ȳ := {y + U | y ∈ Y } nach Lemma 3.33(2) Basen von
V /U , wenn U := K(B \ X) der von B \ X erzeugte Untervektorraum von V ist.
Nach Theorem 3.30(2) und Lemma 3.33(3) gilt daher ]X = ]X̄ = ]Ȳ = ]Y ,
Wir wollen nun den Rangbegriff allgemeiner für beliebige Teilmengen eines Vektorraumes einführen. Hierzu zeigen wir zunächst:
Lemma 3.37. Sei K ein Körper, V ein K-Vektorraum und X Teilmenge von
V . Weiter sei U := KX der von X erzeugte Untervektorraum von V . Dann gilt:
(1) Es gibt eine Basis Y von U mit Y ⊆ X.
(2) Eine Teilmenge Y von X ist Basis von U genau dann, wenn Y maximale
linear unabhängige Teilmenge von X ist.
(3) Ist Y linear unabhängige Teilmenge von X, so gibt es eine maximale linear
unabhängige Teilmenge von Z von X mit Y ⊆ Z. Insbesondere enthält X
maximale linear unabhängige Teilmengen.
(4) Je zwei maximale linear unabhängige Teilmengen von X sind gleichmächtig.
Beweis. Laut Konstruktion ist X Erzeugendensystem von U .
(1) Nach Folgerung 3.34 enthält X somit eine Basis von U .
(2) ergibt sich damit unmittelbar aus Folgerung 3.28.
(3) Nach Folgerung 3.35 gibt es Basis Z von U mit Y ⊆ Z ⊆ X und nach (2) ist
Z maximale linear unabhängige Teilmenge von X.
68
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
(4) Da nach (2) maximale linear unabhängige Teilmengen von X Basen von U
sind, sind je zwei maximale linear unabhängige Teilmengen von X gleichmächtig nach Theorem 3.30(2),
Für X = V liefert Lemma 3.37 bekannte Aussagen über Basen in Vektorräumen,
denn maximale linear unabhängige Teilmengen von V sind Basen von V , s. Satz
3.27(3). Definitionsgemäß ist somit rangK V die Kardinalzahl einer (und damit
jeder) maximalen linear unabhängigen Teilmenge von V . Diese Beobachtung stellt
den Zusammenhang von Definition 3.31 zu der folgenden allgemeineren Definition
her.
Definition 3.38. Sei K ein Körper und V ein K-Vektorraum.
Ist X Teilmenge von V , so bezeichnet man die Kardinalzahl einer (und damit
jeder, s. Lemma 3.37(4)) maximalen linear unabhängigen Teilmenge von X als
K-Rang von X oder, falls Verwechslungen ausgeschlossen sind, auch nur als Rang
von X, Schreibweise rangK X oder rang X.
Bemerkungen, Beispiele 3.39.
1. Sei V ein K-Vektorraum und X Erzeugendensystem von V . Nach Lemma 3.37(3) enthält X eine maximale linear
unabhängige Teilmenge Y , die nach Lemma 3.37(2) Basis von V ist. Daher
gilt
rang V = ] Y = rang X ≤ ] X .
2. Folgerung 3.34 ist nicht richtig, wenn K kein Körper ist: Sei hierzu K =
V := Z. Z ist freier Z-Modul (s. Bemerkung 3.24.5) und {2, 3} ist Erzeugendensystem von Z, denn für n ∈ Z gilt n = 2 · (−n) + 3 · n ∈ {2, 3}Z.
{2, 3} ist aber keine Basis von Z, da (−3) · 2 + 2 · 3 = 0. {2, 3} enthält auch
keine Basis und nicht einmal ein Erzeugendensystem von Z, da weder {2}
noch {3} Erzeugendensystem von Z ist.
Damit ist {2, 3} sogar minimales Erzeugendensystem von Z, d. h. auch
Satz 3.27(3) ist nicht richtig, wenn K kein Körper ist. Es läßt sich sogar
leicht zeigen, daß es für jedes µ ∈ N+ minimale Erzeugendensysteme von Z
bestehend aus µ Elementen gibt.
3. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit n :=
rang V . Dann sind n + 1 Elemente von V stets linear abhängig. Dies ergibt
sich sofort aus dem Basisergänzungssatz (Folgerung 3.35).
Das ist übrigens auch richtig, wenn K lediglich ein kommutativer Ring ist.
Dann gilt sogar: Ist M ein beliebiger endlich erzeugter K-Modul. Dann sind
je n + 1 Elemente von M linear abhängig, wenn n := µK (M ). Der Beweis
hierfür ist jedoch mit den jetzt zur Verfügung stehenden Mitteln nicht zu
erbringen.
3.4. VEKTORRÄUME
69
4. Statt ”endlich erzeugter Vektorraum” sagt man mitunter auch noch ”endlichdimensionaler Vektorraum”.
Lemma 3.40. Sei K ein Körper, V ein K-Vektorraum, U Untervektorraum von
V und X, Y Teilmengen von V mit Y ⊆ X.
(1) Es gilt rang Y ≤ rang X mit Gleichheit, wenn X ⊆ KY .
(2) Wenn rang X < ∞, so sind die folgenden Bedingungen äquivalent
(i) rang Y = rang X
(ii) X ⊆ KY
(iii) KY = KX.
(3) Es gilt rang U ≤ rang V .
(4) Ist V endlich erzeugt, so auch U und es gilt rang U = rang V genau dann,
wenn U = V .
Beweis. (1) Da jede maximale linear unabhängige Teilmenge von Y (s. Lemma
3.37(3)) linear unabhängige Teilmenge von X ist, gilt rangY ≤ rangX. Wenn
X ⊆ KY , so folgt hieraus (s. Bemerkung 3.39.1)
rang Y ≤ rang X ≤ rang KY = rang Y,
also rang Y = rang X nach dem Satz von Schröder-Bernstein.
(2) (i) ⇒ (iii): Wenn rangY = rangX < ∞, so ist jede maximale linear unabhängige Teilmenge Y 0 von Y bereits maximale linear unabhängige Teilmenge von
X, denn sonst hätten wir (s. Folgerung A.31(1)) rang X > #Y 0 = rang Y =
rang X, Widerspruch. Nach Lemma 3.37(2) ist Y 0 daher nicht nur Basis von
KY , sondern auch von KX, so daß KX = KY 0 = KY .
(iii) ⇒ (ii): Aus KX = KY folgt X ⊆ KX = KY .
(ii) ⇒ (i) ergibt sich aus (1).
(3) folgt aus (1).
(4) Ist X endliches Erzeugendensystem von V , so gilt mit (3) und Bemerkung
3.39.1 zunächst rang U ≤ rang V = rang X ≤ #X < ∞, d. h. auch U ist
endlich erzeugt.
Wenn U = V , so ist klar, dass rang U = rangV . Wenn umgekehrt rang U =
rang V , so wählen wir eine Basis B von U . Nach Folgerung 3.35 kann B zu
einer Basis C von V ergänzt werden. Da nun #B = rang U = rang V = #C
und rangV < ∞, sind B, C endlich und es folgt B = C (s. Folgerung A.31(1)),
d. h. U = KB = KC = V ,
70
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Satz 3.41 (Rang- oder Dimensionsformeln). Sei K ein Körper, V ein endlich
erzeugter K-Vektorraum und U, U 0 K-Untervektorräume von V . Dann gilt:
(1) rang U + rang V /U = rang V
(2) rang (U ∩ U 0 ) + rang (U + U 0 ) = rang U + rang U 0 .
Beweis. Nach Lemma 3.40(4) sind mit V auch U , U 0 , U ∩ U 0 und U + U 0 endlich
erzeugt.
(1) In Lemma 3.33 setzen wir E = V und wählen für Y eine Basis von U . Mit
den Bezeichnungen von Lemma 3.33 gilt dann
rang U + rang V /U =
=
=
=
]Y + ]Z̄ (Lemma 3.33(2))
]Y + ]Z (Lemma 3.33(3))
](Y ∪ Z) (Satz A.32(1b))
rang V
(2) Sei A Basis von U ∩ U 0 . Nach Folgerung 3.35 können wir A durch linear
unabhängige Mengen Z ⊆ U \ A bzw. Z 0 ⊆ U 0 \ A zu einer Basis B := A ∪ Z
von U bzw. B 0 := A ∪ Z 0 von U 0 ergänzen. Dann gilt rang U = ]B bzw.
rang U 0 = ]B 0 = ]A + ]Z 0 (s. Satz A.32(1b)), also folgt
rang U + rang U 0 = ]B + (]A + ]Z 0 ) = ]A + (]B + ]Z 0 ).
Wir bemerken, daß U + U 0 = KB + KB 0 = KA + KZ + KA + KZ 0 =
K(A ∪ Z ∪ Z 0 ) = K(B ∪ Z 0 ), d. h. B ∪ Z 0 ist Erzeugendensystem von U + U 0 .
Seien b1 , . . . , br paarweise verschiedene Elemente aus B und z10 , . . . , zs0 paarweise verschiedene Elemente aus Z 0 . Angenommen, es gilt β1 b1 + . . . + βr br +
γ1 z10 + . . . + γs zs0 = 0V mit β1 , . . . , βr , γ1 , . . . , γs ∈ K. Dann folgt z 0 :=
γ1 z10 + . . . + γs zs0 ∈ U 0 und andererseits z 0 = −(β1 b1 + . . . + βr br ) ∈ KB = U ,
also z 0 ∈ U ∩ U 0 = KA. Daher gibt es a1 . . . , at ∈ A und α1 , . . . , αt ∈ K
mit z 0 = α1 a1 + . . . αt at . O. B. d. A. dürfen wir voraussetzen, daß a1 . . . , at
paarweise verschieden sind. Da A ∩ Z 0 = ∅, sind auch a1 . . . , at , z10 , . . . , zs0
paarweise verschieden. Wegen (−α1 )a1 + . . . + (−αt )at + γ1 z10 + . . . + γs zs0 =
−(α1 a1 +. . .+αt at )+z 0 = 0V und der linearen Unabhängigkeit von B 0 = A∪Z 0
folgt hieraus γ1 = . . . = γs = 0K . Dies liefert aber β1 b1 + . . . + βr br = 0V
und wegen der linearen Unabhängigkeit von B ergibt sich hieraus schließlich
β1 = . . . = βr = 0K . Damit sind b1 , . . . , br , z10 , . . . , zs0 linear unabhängig und
damit paarweise verschieden, d. h. es gilt B ∩ Z 0 = ∅ und B ∪ Z 0 ist linear
unabhängig und somit Basis von U + U 0 . Damit haben wir (s. Satz A.32(1b))
rang (U + U 0 ) = ](B ∪ Z 0 ) = ]B + ]Z 0 , zusammen also
rang U + rang U 0 = ]A + (]B + ]Z 0 ) = rang (U ∩ U 0 ) + rang (U + U 0 ),
3.4. VEKTORRÄUME
71
Alternativer Beweis: Sei V := (U + U 0 )/(U ∩ U 0 ), U := U/(U ∩ U 0 ) und U0 := U 0 /(U ∩ U 0 ).
Dann gilt U + U0 = V, U ∩ U0 = (U ∩ U 0 )/(U ∩ U 0 ) = 0 und nach (1)
rang (U ∩ U 0 ) + rang (U + U 0 ) − rang U − rang U 0 = rang V − rang U − rang U0 .
O. B. d. A. dürfen wir daher annehmen, dass U + U 0 = V , U ∩ U 0 = 0 und haben zu zeigen,
daß rang V = rang U + rang U 0 . Sei B := {b1 , . . . , bm }, m := rang U , Basis von U und C :=
{c1 , . . . , cn }, n := rangU 0 , Basis von U 0 . Angenommen β1 b1 +. . . βm bm +γ1 c1 +. . .+γn cn = 0
mit β1 , . . . , βm , γ1 , . . . , γn ∈ K. Da somit β1 b1 +. . . βm bm = −(γ1 c1 +. . .+γn cn ) ∈ U ∩U 0 =
0, folgt β1 = · · · = βm = γ1 = · · · = γn = 0K , d. h. b1 , . . . , bm , c1 , . . . , cn sind linear
unabhängig, insbesondere folgt B ∩ C = ∅. Wegen V = U + U 0 = KB + KC = K(B ∪ C)
ist B ∪ C linear unabhängiges Erzeugendensystem, also Basis von V , und wir erhalten
rang V = #(B ∪ C) = #B + #C = rang U + rang U 0
Folgerung 3.42. Sei K ein Körper und seien X, Y endliche Teilmengen eines
K-Vektorraumes V . Dann gilt
rang (X ∪ Y ) ≤ rangX + rang Y ≤ rang X + ] Y.
Beweis. Nach Lemma 3.40(1), Bemerkung 3.22.1 und Satz 3.41(2) gilt
rang (X ∪ Y ) = rang K(X ∪ Y ) = rang (KX + KY ) ≤ rang KX + rang KY
= rang X + rang Y ≤ rang X + ] Y,
Satz 3.43. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit
d := rangV . Für Elemente v1 , . . . , vd ∈ V sind die folgenden Aussagen äquivalent:
(i) {v1 , . . . , vd } ist Basis von V
(ii) v1 , . . . , vd sind linear unabhängig
(iii) v1 , . . . , vd erzeugen V .
Beweis. Die Implikationen (i) =⇒ (ii) und (i) =⇒ (iii) sind klar.
(ii) =⇒ (i): Sei B := {v1 , . . . , vd }. B ist linear unabhängig und ]B = d (s.
Bemerkung 3.24.2). Nach Folgerung 3.35 kann B zu einer Basis C von V ergänzt
werden. Da somit B ⊆ C und ]B = d = rang V = ]C, folgt B = C, s. Folgerung
A.31(1) (C ist endlich).
(iii) =⇒ (i): Nach Folgerung 3.34(2) enthält {v1 , . . . , vd } eine Basis C von V und
daher gilt
]C = rang V = d ≥ ]{v1 , . . . , vd } ≥ ]C,
d. h. wir haben ]C = ]{v1 , . . . , vd } und somit {v1 , . . . , vd } = C (s. Folgerung
A.31(1)),
72
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Sei K ein Körper und seien a1 , . . . , an ∈ K m , m, n ∈ N. Wie geht man vor,
wenn man überprüfen will, ob a1 , . . . , an linear abhängig (bzw. linear unabhängig) sind oder wenn man sogar den Rang von {a1 , . . . , an } bestimmen möchte?
O. B. d. A. nehmen wir dabei an, daß m, n > 0, denn wenn m = 0, so ist K m der
Nullvektorraum und wenn n = 0, so ist {a1 , . . . , an } leer, also linear unabhängig
(s. Bemerkung 3.24.1). Eine erste Antwort liefert Bemerkung 3.24.4: Sei hierzu
A ∈ K m,n diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn .
Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das homogene lineare Gleichungssystem A · XT = 0 eine nichttriviale Lösung besitzt (nur
die triviale Lösung besitzt) und dies wiederum ist äquivalent zu rang A < n
(rang A = n).
Damit kann die lineare Abhängigkeit bzw. Unabhängigkeit von a1 , . . . , an z. B.
durch Anwendung des Gaußschen Algorithmus auf A überprüft werden.
Auf diese Weise kann man aber sogar rang {a1 , . . . , an } bestimmen, wie Satz
3.44 zeigen wird. Damit ist auch die Brücke zur Rangdefinition von Matrizen
geschlagen, s. Satz und Definition 2.37.
Satz 3.44. Sei K ein Körper und seien a1 , . . . , an ∈ K m , wobei m, n ∈ N+ .
Weiter sei A := (aT1 , . . . , aTn ) ∈ K m,n . Dann gilt:
rang A = rang {a1 , . . . , an } = rang {b1 , . . . , bm },
wenn b1 , . . . , bm die Zeilen von A sind.
Beweis. Sei S(A) := K{a, . . . an } ⊆ K m der von den Spalten von A erzeugte K-Untervektorraum des K m (mitunter als Spaltenraum von A bezeichnet)
und Z(A) := K{b1 , . . . , bm } ⊆ K n der von den Zeilen von A erzeugte KUntervektorraum des K n (Zeilenraum von A). Wir zeigen zunächst:
(a) S(A) = Z(AT ) und Z(A) = S(AT ).
(b) Für B ∈ K n,p und C ∈ K q,m (p, q ∈ N+ ) gilt
S(A · B) ⊆ S(A) mit Gleichheit, wenn B ∈ GlK (n) und
Z(C · A) ⊆ Z(A) mit Gleichheit, wenn C ∈ GlK (m) .
(c) Für P ∈ GlK (n) gilt S(P ) = Z(P ) = K n .
Begründung:
(a) ergibt sich sofort aus der Definition. Damit können wir uns bei den folgenden
Aussagen z. B. auf die Spaltenräume beschränken.
(b) die erste Aussage ist klar, da die Spalten von A · B Linearkombinationen der
Spalten von A sind.
3.4. VEKTORRÄUME
73
Sei nun B ∈ GlK (n). Dann gilt S(A) = S(A · B · B −1 ) ⊆ S(A · B), also
S(A · B) = S(A).
(c) Wegen P −1 ∈ GlK (n) gilt nach (b) S(P ) = S(P · P −1 ) = S(En ) = K n ,
Nach Bemerkung 3.39.1 ist zu zeigen, daß rang S(A) = rang Z(A) = rang A.
Da nach Satz und Definition 2.37(5) gilt rang A = rang AT , reicht es nach (a),
rang S(A) = rang A nachzuweisen. Sei r := rang A. Dann gibt es P ∈ GlK (m),
Q ∈ GlK (n) mit P · A · Q = Em,n;r (s. Satz und Definition 2.37(2)) und wir
erhalten mit (c) und Bemerkung 3.39.1
rang S(A) = rang S(A · Q) = rang S(P −1 Em,n;r ) = rang {c1 , . . . , cr } = r ,
wenn P −1 =: (cT1 , . . . , cTm ) (man beachte, daß c1 , . . . , cm nach (c) und Satz 3.43
linear unabhängig sind und daß P −1 · Em,n;r = (cT1 , . . . , cTr , 0T , . . . , 0T ),
Folgerung 3.45. Sei K ein Körper und seien A, K m,n , B ∈ K n,p , wobei m, n, p ∈
N+ . Dann gilt
rangK A · B ≤ min{rangK A, rangK B} .
Beweis. Aus dem Beweis von Satz 3.44 ergibt sich zusammen mit Lemma 3.40(3)
rang A · B = rang S(A · B) ≤ rang S(A) = rang A
und damit (s. auch Satz 2.37(5))
rang A · B = rang (A · B)T = rang B T · AT ≤ rang B T = rang B ,
zusammengenommen also rangK A · B ≤ min{rangK A, rangK B},
Folgerung 3.46. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N+ . A werde durch den Gaußschen Algorithmus in ein Matrix A0 ∈ K m,n in Trapezgestalt
überführt. Dann sind insbesondere diejenigen Zeilen (Spalten) von A linear unabhängig, die bei den dabei erfolgten Zeilenvertauschungen (Spaltenvertauschungen)
in die ersten r Zeilen (Spalten) von A0 übergehen, wobei r := rang A = rang A0
(s. Lemma 2.38).
Beweis. Seien a1 , . . . , ak ∈ K n . Vertauscht man die Einträge dieser Tupel auf ein
und dieselbe Weise, so ändert sich r := rang {a1 , . . . , ak } dadurch nicht, denn
nach Satz 3.44 gilt r = rang C, wenn C := (aT1 , . . . , aTk ) ∈ K k,n , und der Rang
von C ändert sich ebenfalls nach Satz 3.44 nicht, wenn man die Zeilen von C
vertauscht.
Angenommen, beim Gaußschen Algorithmus sind keine Zeilenvertauschungen erforderlich. Ist Vi für i ∈ {1, . . . , m} der von den ersten i Zeilen von A und Vi0
74
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
der von den ersten i Zeilen von A0 erzeugte K-Untervektorraum von K n , so gilt
mit obiger Überlegung dann Vi = Vi0 , womit die Aussage hinsichtlich der Zeilen
von A in diesem Fall gezeigt ist. Nehmen wir nun an, daß Zeilenvertauschungen
erforderlich sind. Da für i, j, k, l ∈ {1, . . . , m} mit l < i < j, l < k und α ∈ K gilt
Vmij

ij
kl

Am (α) · Vm
ij
· Akl
Ajl
m (α) =
m (α) · Vm

 il
Am (α) · Vmij
wenn k 6∈ {i, j}
wenn k = i
wenn k = j ,
kann man die notwendigen Zeilenvertauschungen zu Beginn ausführen, so daß die
Aussage hinsichtlich der Zeilen von A auf obigen Spezialfall zurückgeführt und
damit gezeigt ist.
Wir zeigen nun die Aussage hinsichtlich der Spalten von A. Es ist zunächst klar,
daß die ersten r Spalten von A0 linear unabhängig sind. Weiter gilt A0 = P · A · Q,
wobei P ∈ GlK (m) Produkt von Adddtions- und Vertauschungsmatrizen und Q ∈
GlK (n) Produkt von Vertauschungsmatrizen ist. Somit folgt A = P −1 · A0 · Q−1 .
Da P −1 invertierbar ist, sind die ersten r Spalten von P −1 A0 ebenfalls linear
unabhängig, denn aus (P −1 · A0 ) · xT = O mit x := (α1 , . . . , αr , 0K , . . . , 0K ) ∈ K n
folgt A0 · xT = O und damit α1 = . . . = αr = 0K . Folglich sind diejenigen Spalten
von A linear unabhängig, die gemäß der Multiplikation mit Q−1 aus den ersten r
Spalten von P −1 · A0 hervorgehen, also durch den Gaußschen Algorithmus in die
ersten r Spalten von A0 überführt werden,
Bemerkung 3.47. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N. Nach
Satz 3.44 ist der Rang von A gleich der Maximalzahl linear unabhängiger Zeilen von A und ebenso gleich der Maximalzahl linear unabhängiger Spalten von
A. Mitunter bezeichnet man die beiden letztgenannten Zahlen als Zeilen- bzw.
Spaltenrang von A. Diese beiden Zahlen stimmen also überein und sind gleich
dem Rang von A.
Mitunter beweist man die Übereinstimmung von Zeilen- und Spaltenrang einer
Matrix unabhängig von den Überlegungen in Abschnitt 2.3 und definiert den
Rang einer Matrix dann als ihren Zeilen- bzw. Spaltenrang.
Seien a1 , . . . , an ∈ K m (K ein Körper, m, n ∈ N+ ) gegeben und sei U der von
{a1 , . . . , an } erzeugte Untervektorraum von K m . Dann können wir z. B. die folgenden Fragestellungen behandeln:
Problem 1:
(a) Man berechne rang U = rang {a1 , . . . , an }.
(b) Man bestimme eine Basis B ⊆ {a1 , . . . , an } von U .
3.4. VEKTORRÄUME
75
Lösung: Beide Fragen können simultan behandelt werden. Man betrachte hierzu
diejenige Matrix A ∈ K n,m , deren Zeilen a1 , . . . , an sind (bzw. diejenige Matrix
A ∈ K m,n , deren Spalten aT1 , . . . , aTn sind) und wende darauf den Gaußschen
Algorithmus an. Entsteht hieraus die Matrix A0 , so gilt nach Folgerung 3.46:
rang {a1 , . . . , an } = rang A
= rang A0
= Anzahl der von O verschiedenen Zeilen von A0 .
Eine Basis B ⊆ {a1 , . . . , an } von U erhält man, wenn man diejenigen Zeilen
(Spalten) von A nimmt, die beim Gaußschen Algorithmus in die ersten r := rangA
Zeilen (Spalten) von A0 überführt wurden.
Problem 2: Seien b1 , . . . , bp ∈ K m .
(a) Man überprüfe, ob b1 , . . . , bp linear unabhängig sind.
(b) Man entscheide, ob b1 , . . . , bp ∈ U .
(c) Falls b1 , . . . , bp ∈ U linear unabhängig sind, so bestimme man eine Teilmenge
C der in Problem 1(b) gefundenen Basis B von U , so daß {b1 , . . . , bp } ∪
C wieder Basis von U ist. (Dies ist nach dem Steinitzschen Austauschsatz
möglich, s. Folgerung 3.36.)
Lösung:
(a) kann wie Problem 1(a) behandelt werden, da b1 , . . . , bp genau dann linear
unabhängig sind, wenn rang {b1 , . . . , bp } = p.
(b) Sei B ∈ K p,m diejenige Matrix, deren Zeilen b1 , . . . , bp sind (bzw. diejenige
Matrix B ∈ K m,p , deren Spalten bT1 , . . . , bTp sind). Dann gilt b1 , . . . , bp ∈
B
U genau dann, wenn rang
= rang A (bzw. rang (B A) = rang A).
A
Begründung: Es gilt b1 , . . . , bp ∈ U genau dann, wenn U = V , wobei V der von
{b1 , . . . , bp , a1 , . . . , an } erzeugte Untervektorraum von K m ist. Wegen U ⊆ V
gilt aber nach Lemma 3.40 U = V genau dann, wenn rang U = rang V und
dies ist nach Problem 1(a) äquivalent zur Ranggleichheit der beiden Matrizen,
2
(c) Indem wir ggf. überflüssige Element weglassen, können wir o. B. d. A. annehmen, daß B = {a1 , . . . , an } und damit rang A = n, s. Problem
1(a).
Mit den
B
Bezeichnungen aus (b) betrachten wir nun die Matrix C :=
∈ K p+n,m .
A
Hierauf wenden wir den Gaußschen Algorithmus an, ohne allerdings die letzten n Zeilen von C (also a1 , . . . , an ) bei evtl. erforderlichen Zeilenvertauschungen während der ersten p Algorithmusschritte einzubeziehen. Hierbei entsteht
76
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE

B0

aus C eine Matrix C 0 der Gestalt C 0 = Ok,p A0 , wobei B 0 ∈ K p,m und
On−k,m
0
k,m−p
A ∈K
jeweils Trapezgestalt haben mit k := rang A0 ≤ n (man beachte,
daß wegen b1 , . . . , bp ∈ U und der linearen Unabhängigkeit von b1 , . . . , bp gilt
p ≤ rang U = rang A = n).
Dann ist {b1 , . . . , bp } ∪ C Basis von U , wenn C z. B. aus denjenigen der
a1 , . . . , an besteht, die bei den evtl. erforderlichen Zeilenvertauschungen bei
Anwendung des Gaußschen Algorithmus auf C in die (p + 1)-te bis r-te Zeile
von C 0 übergehen.
Begründung: B 0 ist wegen der Einschränkung bei den Zeilenvertauschungen
diejenige Matrix, die aus B durch Anwendung des Gaußschen Algorithmus
nur auf B entsteht. Da b1 , . . . , bp linear unabhängig sind, gilt nach Folgerung
3.46 rang B 0 = rang B = p und da {b1 , . . . , bp } ∪ B Erzeugendensystem von
U ist, gilt rang C 0 = rang C = n wiederum nach Folgerung 3.46. Weil C 0
Trapezgestalt hat, hat C 0 somit die beschriebene Gestalt. Wiederum wegen
der Einschränkung bei den Zeilenvertauschungen werden bei Anwendung des
Gaußschen Algorithmus auf C bei evtl. erforderlichen Vertauschungen die
letzten n Zeilen nur untereinander vertauscht. Daher ergibt sich die Behauptung aus Problem 1(b),
2
Wir bemerken abschließend, daß die in Problem 2 behandelten Fragen auch simultan beantwortet werden können, wenn man die Matrix C (s. Lösung von
Problem 2(c)) unter Berücksichtigung der Vorgehensweise in Problem 1 geeignet
behandelt.
Zur Verdeutlichung dieser Problematik betrachten wir nun die folgenden Beispiele.
Beispiele 3.48.
1. Bildet B := {(1, −1, 1), (2, 1, −1), (1, 3, 0)} Basis von Q3 ?
Lösung:
1(a) wenden wir den Gaußschen
 Gemäß Problem

 Algorithmus
 auf
1 −1 1
1 −1 1
A := 2 1 −1 an und erhalten die Matrix A0 = 0 3 −3.
1 3
0
0 0
3
Daher gilt rang {(1, −1, 1), (2, 1, −1), (1, 3, 0)} = rang A = rang A0 = 3 nach
Folgerung 3.46 und somit sind (1, −1, 1), (2, 1, −1), (1, 3, 0) linear unabhängig. B bildet damit nach Satz 3.43 eine Basis von Q3 .
2. Seien a1 := (−1, 3, 2, 4), a2 := (0, 1, 0, −2), a3 := (2, −2, 0, −1) und a4 :=
(1, 2, 2, 1) sowie b1 := (1, 0, 2, 5) und b2 := (0, 3, 4, 9) Elemente aus Q4 .
U := Q{a1 , a2 , a3 , a4 } bezeichne den von {a1 , a2 , a3 , a4 } erzeugten Untervektorraum von Q4 .
3.4. VEKTORRÄUME
77
(a) Man bestimme eine Basis B ⊆ {a1 , a2 , a3 , a4 } von U .
(b) Man zeige, daß b1 , b2 ∈ U linear unabhängig sind und ergänze {b1 , b2 }
durch geeignete Elemente aus B zu einer Basis von U .
Lösung:
(a) Gemäß Problem 1 betrachten wir die Matrix


−1 3 2 4
0
1 0 −2

A := 
 2 −2 0 −1 .
1
2 2 1
Sie wird durch den Gaußschen Algorithmus überführt in


−1 3 2 4
 0 1 0 −2

A0 := 
 0 0 4 15  .
0 0 0 0
Damit gilt rang U = 3 und, da bei der Anwendung des Gaußschen
Algorithmus keine Zeilenvertauschungen erforderlich waren, ist B :=
{a1 , a2 , a3 } Basis von U .
(b) Gemäß Problem 2(c) betrachten wir nun die Matrix


1
0 2 5
0
3 4 9



C := 
−1 3 2 4  .
0
1 0 −2
2 −2 0 −1
Hierauf wenden wir den Gaußschen Algorithmus an, ohne jedoch die
letzten drei Zeilen in evtl. erforderliche Vertauschungen bei Behandlung
der ersten beiden Zeilen einzubeziehen. Dann entsteht die Matrix


1 0 2
5
0 3 4
9


0
4

C := 
0 0 − 3 −5 .
0 0 0
0
0 0 0
0
Da die ersten zwei Zeilen dieser Matrix linear unabhängig sind, ist
klar, daß auch b1 , b2 linear unabhängig sind (Problem 2(a)) und wegen rang C = rang C 0 = 3 = rang A gilt b1 , b2 ∈ U (Problem 2(b)). Da
bei Anwendung des Gaußschen Algorithmus auf C die 3. und 5. Zeile
vertauscht wurden, bildet {b1 , b2 , a2 } (jedoch nicht {b1 , b2 , a1 } !) Basis
von U (s. Problem 2(c)).
78
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Mit Hilfe von Lemma 3.40 und Folgerung 3.42 wollen wir nützliche Abschätzungen
für den Rang eines Produktes zweier Matrizen herleiten.
Lemma 3.49. Sei K ein Körper, und seien m, n, p ∈ N+ sowie A ∈ K m,n ,
B ∈ K n,p . Dann gilt
rangK A + rangK B − n ≤ rangK A · B ≤ min{rangK A, rangK B}.
Beweis. Aus Folgerung 3.45 ergibt sich bereits rang A · B ≤ min{rang A, rang B}.
Seien P ∈ GlK (m) und Q ∈ GlK (n). Setzen wir A0 := P ·A·Q und B 0 := Q−1 ·B, so
gilt rangA0 = rangA, rangB 0 = rangB sowie rangA0 ·B 0 = rangP ·A·B = rangA·B,
s. Satz 2.37(4). Daher können wir zum Nachweis der zweiten Ungleichung A durch
A0 und B durch B 0 ersetzen. Wir wählennun P und Q so, daß A0 = Em,n;r mit
B 00
, wenn B 00 ∈ K r,p die aus den ersten r
r := rang A. Dann gilt A0 · B 0 =
Om−r,p
Zeilen von B 0 bestehende Matrix ist.
Nach Satz 3.44 gilt dann
rang A0 · B 0 = rang B 00 ≥ rang B 0 − (n − r) = rang A0 + rang B 0 − n,
Am Ende dieses Kapitels wollen uns nochmals der Behandlung linearer Gleichungssysteme zuwenden. Insbesondere erhalten wir mit den nun zur Verfügung
stehenden Mitteln ein Lösbarkeitskriterium und können im Falle der Lösbarkeit
genauere Aussagen über die Struktur der Lösungsmenge treffen.
Satz und Definition 3.50 (Lösbarkeitskriterium für lineare Gleichungssysteme). Sei K ein Körper und seien m, n ∈ N, n ≥ 1. Vorgelegt sei ein lineares
Gleichungssystem
A · XT = bT
mit Koeffizientenmatrix A ∈ K m,n und erweiterter Koeffizientenmatrix B :=
(A bT ) ∈ K m,n+1 . Mit L bezeichnen wir seine Lösungsmenge und mit L0 die
Lösungsmenge des zugehörigen homogenen Systems A · XT = 0 (L, L0 ⊆ K n ).
Dann gilt
(1) Das System ist lösbar (d. h. es gilt L 6= ∅) genau dann, wenn rang A = rangB
(”Rang der Koeffizientenmatrix = Rang der erweiterten Koeffizientenmatrix”).
(2) L0 ist Untervektorraum von K n mit rang L0 = n − rang A.
(3) Das System sei lösbar und c ∈ L sei eine Lösung. Dann gilt
L = c + L0 .
3.4. VEKTORRÄUME
79
Die Anzahl der frei wählbaren Parameter, die zur Darstellung von L (und L0 )
erforderlich sind, ist gleich n−rangA (= rangL0 ). Diese Zahl heißt Rang, oft
auch - wie bei Vektorräumen - Dimension von L, kurz rangK L oder rang L.
Es gilt also rang L = n − rang A.
Bemerkung 3.51. Im Falle der Lösbarkeit ist L ein Element von K n /L0 . L
kann gedeutet werden als die ”um c verschobene” Lösungsmenge des zughörigen
homogenen Systems.
Beweis. (1) Wir verwenden die Bezeichnungen und Ergebnisse aus dem Beweis
von Satz 3.44.
Da S(A) ⊆ S(B) = S(A) + Kb, gilt rang S(A) ≤ rang S(B) ≤ 1 + rang S(A)
(s. Folgerung 3.42), d. h. wir haben rang A ≤ rang B ≤ 1 + rang A.
Ist das System lösbar und ist c ∈ L, so gilt b ∈ S(bT ) = S(A · cT ) ⊆ S(A), d.
h. wir haben S(A) = S(B) und damit rang A = rang B.
Gelte nun umgekehrt rang A = rang B. Dann folgt rang S(A) = rang S(B),
und somit S(A) = S(B) nach Lemma 3.40(4). Folglich gilt aber b ∈ S(A), d.
h. es gibt c ∈ K n mit bT = A · cT . Damit ist aber c Lösung des Systems.
(2) Nach Übungsaufgabe 10 ist L0 K-Untervektorraum von K n (s. Lemma 3.8).
Sei {c1 , . . . , cs } Basis von L0 mit s := rang L0 . Wir setzen C := (cT1 , . . . , cTs ) ∈
K n,s . Dann gilt A · C = O und aus Lemma 3.49 folgt rang A + rang C − n ≤
rang A · C = 0, also rang L0 = rang C ≤ n − rangA.
Wir wählen nun P ∈GlK (m),
Q ∈ GlK (n) mit P ·A·Q = Em,n;r , r := rang A,
Or,n−r
und setzen D := Q ·
. Dann gilt rang D = rang Z(D) = rang K n−r =
En−r
n − r und wir haben
Or,n−r
−1
−1
−1
A · D = P · Em,n;r · Q · D = P · Em,n;r ·
= O.
En−r
Da somit S(D) ⊆ L0 , gilt rang L0 ≥ rang S(D) = rang D = n − r, also
rang L0 = n − r.
(3) folgt nun aus Lemma 2.38 und Lemma 1.9,
Sei n ∈ N+ . Wir kommen nun abschließend zur Charakterisierung der Lösungsmengen homogener linearer Gleichungssysteme in n Unbestimmten. Zusammen
mit der Bemerkung 3.51 haben wir damit eine Charakterisierung der Lösungsmengen beliebiger linearer Gleichungssysteme in n Unbestimmten gefunden. Dies
löst Problem (B) aus Abschnitt 1.2.
Satz 3.52. Sei K ein Körper und sei n ∈ N+ . Dann gilt:
80
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
(1) Eine Teilmenge L0 ⊆ K n ist Lösungsmenge eines homogenen linearen Gleichungssystems in n Unbestimmten mit Koeffizienten aus K genau dann, wenn
L0 Untervektorraum von K n ist.
(2) Eine Teilmenge L ⊆ K n ist Lösungsmenge eines linearen Gleichungssystems
in n Unbestimmten mit Koeffizienten aus K genau dann, wenn L = ∅ oder
L = c + V mit c ∈ K n und einem Untervektorraum V von K n .
Beweis. Sei L (L0 ) ⊆ K n Lösungsmenge eines linearen (homogenen) Gleichungssystems in n Unbestimmten mit Koeffizienten aus K. Nach Satz 3.50(2,3) ist L0
Untervektorraum von K n und, falls L 6= ∅, L = c + V mit c ∈ K n und einem
Untervektorraum V von K n .
n
Sei nun L0 Untervektorraum
 von
 K und sei {c1 , . . . , cm } Erzeugendensystem
c1
 .. 
von L0 . Wir setzen C :=  .  ∈ K m,n . L00 sei Lösungsmenge des linearen
cm
homogenen Gleichungssystems C · XT = 0 in n Unbestimmten. Dann gilt nach
Satz und Definition 3.50(2) mit r := rang L00
r = n − rang C = n − rang L0 .
 
a1


Sei nun {a1 , . . . , ar } Basis von L00 und A :=  ...  ∈ K r,n . Wegen C · aTi = 0, i =
ar
T
1, . . . , r, haben wir C ·A = 0 und folglich A·C T = (CAT )T = 0, d. h. c1 , . . . , cm ∈
L000 , wenn L000 die Lösungsmenge des linearen homogenen Gleichungssystems A ·
XT = 0 in n Unbestimmten bezeichnet. Daher gilt L0 ⊆ L000 . Weil
rang L000 = n − rang A = n − r = n − (n − rang L0 ) = rang L0
(s. Satz 3.50(2)), folgt L0 = L000 nach Lemma 3.40(4) und damit ist (1) gezeigt.
Sicher ist ∅ Lösungsmenge eines (unlösbaren) linearen Gleichungssystems in n
Unbestimmten (z. B. 0 = 1). Sei also L = c + V , wobei c ∈ K n und V Untervektorraum von K n ist. V sei Lösungsmenge des linearen homogenen Gleichungssystems A · XT = 0 in n Unbestimmten, wobei A ∈ K m,n (s. (1)). Wir setzen
b := cAT . Dann ist L Lösungsmenge des linearen Gleichungssystems A · XT = bT ,
wie man sofort bestätigt,
Beispiel 3.53. Sei V der von (−2, 1, 0, 1), (−2, 0, 1, 0) und (0, 1, −1, 1) erzeugte
Untervektorraum des R4 . Welches lineare homogene Gleichungssystem hat V als
Lösungsmenge?
3.4. VEKTORRÄUME
81
Lösung: Nach der Vorgehensweise im Beweis von Satz 3.52(1) müssen wir zunächst
Gleichungssystems C · XT = 0 bedie Lösungsmenge L00 des
 linearen homogenen

−2 1 0 1
stimmen, wobei C := −2 0 1 0. Anwendung des Gaußschen Algorith0  1 −1 1

−2 1 0 1
mus führt C über in C 0 :=  0 −1 1 −1, so daß
0
0 0 0
L00 = {t1 ( 21 , 1, 1, 0) + t2 (0, −1, 0, 1) | t1 , t2 ∈ R}
= R{( 12 , 1, 1, 0), (0, −1, 0, 1)}.
Damit ist V Lösungsmenge des linearen homogenen Gleichungssystems
1
1
1
0
2
· XT = 0, d. h. von
0 −1 0 1
1
X
2 1
+ X2 + X3
= 0
− X2
+ X4 = 0.
82
KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE
Kapitel 4
Lineare Abbildungen
Alle Ringe mögen ein vom Nullelement verschiedenes Einselement besitzten.
Bis jetzt haben wir (algebraische) Strukturen untersucht. In diesem Abschnitt
beginnen wir nun, solche Strukturen miteinander zu ”vergleichen”, d. h. wir betrachten Abbildungen zwischen ihnen, die die jeweilige Struktur ”respektieren”.
Dabei wird es zunächst im wesentlichen um Moduln bzw. spezieller um Vektorräume gehen.
4.1
Grundbegriffe
Definition 4.1. (a) Seien (H; ◦), (H 0 ; •) Halbgruppen (Monoide mit neutralen
Elementen e bzw. e0 ). Eine Abbildung f : H → H 0 heißt (Monoid-)Homomorphismus, wenn für alle a, b ∈ H gilt
f (a ◦ b) = f (a) • f (b)
(und f (e) = e0 ).
(b) Seien R, R0 Ringe. Eine Abbildung f : R → R0 heißt Ringhomomorphismus,
wenn f Homomorphismus in Bezug auf die jeweiligen additiven abelschen
Gruppen sowie Monoidhomomorphismus in Bezug auf die jeweiligen multiplikativen Monoide ist, d. h. wenn für alle a, b ∈ R gilt
f (a + b) = f (a) + f (b), f (a · b) = f (a) · f (b) und f (1R ) = 1R0 .
(c) Injektive (Monoid-, Ring-)Homomorphismen heißen Monomorphismen, surjektive Epimorphismen und bijektive Isomorphismen (ggf. mit dem Zusatz
”Monoid-” bzw. ”Ring-”).
83
84
KAPITEL 4. LINEARE ABBILDUNGEN
Bemerkungen 4.2.
1. Seien H, H 0 Halbgruppen (Monoide, Ringe) mit H ⊆
H 0 . Genau dann ist H Unterhalbgruppe (Untermonoid, Unterring) von H 0 ,
wenn die Einbettung H ⊆ H 0 (Monoid-, Ring-)Homomorphismus ist.
2. Sei H eine Halbgruppe bzw. ein Monoid. Die Potenzgesetze besagen (s.
Übungsaufgabe I 31(a)), dass für jedes a ∈ H die durch n 7→ an für alle
n ∈ N+ bzw. n ∈ N gegebene Abbildung
N+ → H
bzw. N → H
Homomorphismen sind (wobei die N+ bzw. N zugrunde liegende Operation
die Addition sei).
3. Seien M, M 0 Monoide. Fassen wir M.M 0 lediglich als Halbgruppen auf, so
ist nicht jeder Homomorphismus f : M → M 0 automatisch ein Monoidhomomorphismus. Ein einfaches Beispiel hierfür liefert Bemerkung 2.14.3:
Mit den dortigen Bezeichnungen setzte man M = A, M 0 = B und wähle
für f die Einnbettung B ⊆ A.
Daher hat man zwischen ”Homomorphismen” und ”Monoidhomomorphismen” zu unterscheiden. Sind jedoch Verwechslungen ausgeschlossen. so lässt
man bei Monoidhomomorphismen den Zusatz ”Monoid” in der Regel weg,
s. auch Bemerkung 4.4.
4. Ein Ringhomomorphismus respektiert definitionsgemäß die Einselemente.
Aus dem nachfolgenden Lemma 4.3 ergibt sich, daß er dann auch die Nullelemente sowie die Inversenbildung bzgl. der Addition und - falls ausführbar
- bzgl. der Multiplikation respektiert, s. Bemerkung 4.4.
Lemma 4.3. Seien M, M 0 Monoide.
(1) Sei f : M → M 0 Monoidhomomorphismus. Für alle a ∈ M ∗ gilt dann f (a) ∈
M 0 ∗ , genauer f (a−1 ) = f (a)−1 . Damit induziert f durch Einschränkung einen
Homomorphismus
∗
f∗ : M∗ → M0 ,
den man der Einfachheit halber meist auch nur mit f bezeichnet.
(2) Ist M 0 eine Gruppe, so ist jeder Homomorphismus M → M 0 bereits Monoidhomomorphismus. Insbesondere ist jeder Homomorphismus zwischen Gruppen ein Monoidhomomorphismus.
Beweis. Seien e bzw. e0 die neutralen Elemente von M bzw. M 0 .
(1) Sei a ∈ M ∗ . Da f (a)f (a−1 ) = f (aa−1 ) = f (e) = e0 und f (a−1 )f (a) =
f (a−1 a) = f (e) = e0 , gilt f (a) ∈ H 0 ∗ und f (a)−1 = f (a−1 ). Der Rest ist
wieder klar.
4.1. GRUNDBEGRIFFE
85
(2) Für jeden Homomorphismus f : M → M 0 gilt
e0 = f (e)f (e)−1 = f (ee)f (e)−1 = f (e)f (e)f (e)−1 = f (e) ,
Bemerkung 4.4. Die Aussagen von Lemma 4.3 besagen insbesondere, dass
jeder Homomorphismus zwischen Gruppen bereits die neutralen Elemente und
die Inversenbildungen respektiert, also ein ”Gruppenhomomorphismus” ist. Daher reicht es in diesen Fällen, nur von ”Homomorphismen” zu sprechen. Vorsicht
ist - wie gesagt - lediglich geboten, wenn es dabei um Monoide geht, die keine
Gruppen sind, s. auch Bemerkung 4.2.3.
Lemma 4.5. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f : H →
H 0 (Monoid-, Ring-) Homomorphismus. Dann gilt
(1) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U
von H ist
f (U ) := {f (a) | a ∈ U }
Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 .
(2) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U 0
von H 0 mit U 0 ∩ Bild f 6= ∅ ist
f −1 (U 0 ) := {a ∈ H | f (a) ∈ U 0 }
Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, wobei die
Bedingung ” U 0 ∩ Bild f 6= ∅ ” im Monoid- oder Ringfall stets erfüllt ist.
(3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von
H und U 0 von H 0 mit f (U ) ⊆ U 0 induziert f durch Einschränkung einen
(Monoid-, Ring-)Homomorphismus f 0 : U → U 0 .
(4) Mit den Bezeichnungen von (3) gilt:
Ist f Monomorphismus, so auch f 0 . Wenn U 0 = f (U ), so ist f 0 Epimorphismus.
(5) Ist f (Monoid-, Ring-)Isomorphismus, so ist auch f −1 (Monoid-, Ring-)Isomorphismus.
Beweis. (1) Sicher gilt f (U ) 6= ∅ und e0 = f (e) ∈ f (U ), wenn H, H 0 Monoide
mit neutralen Elementen e bzw. e0 sind und f Monoidhomomorphismus ist.
Seien a0 , b0 ∈ f (U ). Wir wählen a, b ∈ U mit a0 = f (a), b0 = f (b) und erhalten
a0 b0 = f (a)f (b) = f (ab) ∈ f (U ). Nach Bemerkung 2.14.2, 3 ist f (U ) damit
Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist mit Lemma 4.3 und
Bemerkung 2.14.4 klar.
86
KAPITEL 4. LINEARE ABBILDUNGEN
(2) Wegen U 0 ∩ Bild f 6= ∅ gilt f −1 (U 0 ) 6= ∅. Sind H, H 0 Monoide mit neutralen
Elementen e, e0 und ist f Monoidhomomorphismus, so gilt f (e) = e0 ∈ U 0 ∩
Bild f , also U 0 ∩ Bild f 6= ∅ und e ∈ f −1 (U 0 ). Seien nun a, b ∈ f −1 (U 0 ). Da
f (ab) = f (a)f (b) ∈ U 0 , gilt ab ∈ f −1 (U 0 ) und nach Bemerkung 2.14 ist f (U )
damit Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist wiederum nach
Lemma 4.3 klar.
(3) ist mit (1) bzw. (2) klar.
(4) ergibt sich aus einfachen mengentheoretischen Überlegungen.
(5) Seien a0 , b0 ∈ H 0 . Wegen f (f −1 (a0 )f −1 (b0 )) = f (f −1 (a0 ))f (f −1 (b0 ))) = a0 b0 ,
folgt f −1 (a0 )f −1 (b0 ) = f −1 (a0 b0 ). Sind H, H 0 Monoide mit neutralen Elementen e bzw. e0 und ist f Monoidisomorphismus, so gilt f −1 (e0 ) = e, denn
f (e) = e0 . Der Rest ist damit klar,
Folgerung 4.6. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f :
M → M 0 (Monoid-, Ring-) Homomorphismus. Dann gilt
(1) Durch U 7→ f (U ), U Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, ist eine inklusionserhaltende Abbildung Φ von der Menge der
Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H in die
Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von
H 0 gegeben.
(2) Durch U 0 7→ f −1 (U 0 ), U 0 Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 mit U 0 ∩ Bildf 6= ∅, ist eine inklusionserhaltende Abbildung
Φ0 von der Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H 0 , die mit Bild f einen nicht leeren Durchschnitt haben, in
die Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe)
von H gegeben.
(3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von
H gilt
U ⊆ f −1 (f (U )) .
(4) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U 0
von H 0 gilt
f (f −1 (U 0 )) = U 0 ∩ Bild f .
Beweis. (1) und (2) ergeben sich mit einfachen mengentheoretischen Überlegungen unmittelbar aus Lemma 4.5 (1) und (2). (3) und (4) sind elementare mengentheoretische Aussagen,
4.1. GRUNDBEGRIFFE
87
Definition 4.7. Sei R ein Ring und seien M, N Links-R-Moduln. Eine Abbildung
f :M →N
heißt R-linear oder R-Homomorphismus, wenn für alle m, m0 ∈ M und alle r ∈ R
gilt
(i) f (m + m0 ) = f (m) + f (m0 ) und
(ii) f (rm) = rf (m).
Sind Verwechslungen ausgeschlossen, so spricht man nur von linearen Abbildungen bzw. von Homomorphismen.
(a) Injektive (surjektive, bijektive) R-Homomorphismen heißen R-Monomorphismen (R-Epimorphismen, R-Isomorphismen), wobei der Zusatz ”R-” ggf. weggelassen werden kann, s. oben.
(b) Mit HomR (M, N ) bezeichnet man die Menge aller R-Homomorphismen von
M nach N .
Bemerkungen, Beispiele 4.8.
1. Ist K ein Körper und sind V, W K-Vektorräume, so wird statt des Begriffes ”K-Homomorphismus” häufiger die Bezeichnung ”K-lineare Abbildung” oder manchmal auch ”K-linearer Operator” verwendet.
2. Mit den Bezeichnungen von Definition 4.7 besagt (i), daß ein R-Homomorphismus f : M → N ein Homomorphismus der unterliegenden abelschen
Gruppen ist. Damit gilt insbesondere f (0M ) = 0N und f (−m) = −f (m)
für alle m ∈ M .
3. Wie man sofort sieht, sind (i) und (ii) aus Definition 4.7 äquivalent zu
f (rm + r0 m0 ) = rf (m) + r0 f (m0 ) für alle m, m0 ∈ M, r, r0 ∈ R.
Induktiv über n ∈ N+ folgt hieraus, daß
f (r1 m1 + . . . + rn mn ) = r1 f (m1 ) + . . . + rn f (mn )
für alle m1 , . . . , mn ∈ M, r1 , . . . , rn ∈ R, d. h. eine R-lineare Abbildung
führt eine Linkslinearkombination von Elementen aus M in die entsprechende Linkslinearkombination der jeweiligen Bildelemente über.
4. Sei R ein Ring. Die Aussagen der Lemmata 4.5 und 4.3 sowie von Folgerung 4.6 gelten ganz analog für R-Homomorphismen zwischen Links- bzw.
Rechts-R-Moduln.
5. Sei R ein Ring. Für Links-R-Moduln M, N ist die durch m 7→ 0N für
alle m ∈ M gegebene Abbildung offensichtlich ein R-Homomorphismus. Er
heißt Nullhomomorphismus oder Nullabbildung und wird meist kurz mit 0
bezeichnet. Damit gilt übrigens HomR (M, N ) 6= ∅.
88
KAPITEL 4. LINEARE ABBILDUNGEN
6. Die Hintereinanderschaltung von R-Homomorphismen ist wieder R-Homomorphismus.
7. Sei A eine abelsche Gruppe und X eine Menge. Dann ist Abb(X, A) mit der
punktweisen Addition wieder eine abelsche Gruppe. (Für f, g ∈ Abb (X, A)
ist f + g ∈ Abb (X, A) definiert durch (f + g)(x) := f (x) + g(x) für alle
x ∈ X, s. auch Bemerkung 3.6.7.)
Ist nun R ein Ring und sind M, N Links-R-Moduln, so ist HomR (M, N )
Untergruppe von Abb (M, N ), wie man sofort bestätigt, und demnach selbst
eine abelsche Gruppe (”Homomorphismen können addiert werden”). Hierfür
gilt:
(f1 + f2 ) ◦ g = f1 ◦ g + f2 ◦ g und f ◦ (g1 + g2 ) = f ◦ g1 + f ◦ g2 ,
wenn f, f1 , f2 ∈ HomR (N, P ), g, g1 , g2 ∈ HomR (M, N ) für Links-R-Moduln
M, N, P .
Ist R kommutativ, so ist für r ∈ R und f ∈ HomR (M, N ) durch (rf )(m) :=
rf (m) (= f (rm)) für alle m ∈ M ein R-Homomorphismus rf : M →
N erklärt. Dadurch ist eine Operation von R auf HomR (M, N ) definiert.
Man sieht sofort, daß HomR (M, N ) damit selbst ein R-Modul ist und daß
(rf ) ◦ g = r(f ◦ g) = f ◦ (rf ).
8. Sei R ein Ring und M ein Links-R-Modul. Mit der punktweisen Addition
und der Hintereinanderschaltung als Multiplikation ist HomR (M, M ) nach
7. ein Ring, s. auch Definition 4.12 unten.
9. Sei R ein kommutativer Ring und M ein R-Modul. Für jedes r ∈ R ist
die durch m 7→ rm für alle m ∈ M definierte Abbildung hr : M → M ein
R-Homomorphismus und heißt Homothetie oder Streckung (von M ) mit r.
h
r
r
Statt M −→
M schreiben wir meist kurz M −→ M .
Dabei ist h1R = idM und h0R = 0. Außerdem gilt hr+s = hr + hs und
hrs = hr ◦ hs , r, s ∈ R, wie man sofort bestätigt. Damit haben wir:
Die Abbildung h : R → HomR (M, M ), die für alle r ∈ R durch h(r) := hr
definiert ist, ist ein Ringhomomorphismus.
10. Für k ∈ N ∪ {∞} sei CkR (I) der R-Vektorraum der auf dem Intervall I ⊆ R
k-mal stetig differenzierbaren Funktionen (s. Beispiel 3.6.6). Für k > 0
definieren wir
D : CkR (I) → CRk−1 (I)
durch D(f ) := f 0 (Ableitung von f ) für alle f ∈ CkR (I). Da (f +g)0 = f 0 +g 0
und (αf )0 = αf 0 für alle f, g ∈ CkR (I) und alle α ∈ R, ist D eine R-lineare
Abbildung. (Für k = ∞ sei k − 1 := ∞.)
4.1. GRUNDBEGRIFFE
89
11. Sei R ein Ring, M ein Links-R-Modul und U ein Links-R-Untermodul von
M . Durch m 7→ m + U ∈ M/U , m ∈ M , ist ein R-Epimorphismus π : M →
M/U erklärt. Er wird als kanonischer Homomorphismus (Epimorphismus)
bezeichnet, s. auch Satz 4.22(1).
Definition 4.9. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei
f : M → N ein R-Homomorphismus. Wir setzen
(a) Kern f := {m | m ∈ M, f (m) = 0N } ⊆ M
(b) Bild f := {f (m) | m ∈ M } = f (M ) ⊆ N
(c) Kokern f := N/Bild f
(Kern von f )
(Bild von f )
(Kokern von f ).
Lemma 4.10. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f :
M → N ein R-Homomorphismus. Dann gilt:
(1) Kern f ist Links-R-Untermodul von M , Bild f ist Links-R-Untermodul von
N und durch m 7→ f (m), m ∈ M , ist ein R-Epimorphismus f 0 : M → Bild f
gegeben mit f = ι ◦ f 0 , wenn ι die Einbettung Bild f ⊆ N bezeichnet.
(2) (Injektivitätskriterium)
f ist Monomorphismus genau dann, wenn Kern f = 0.
(3) (Surjektivitätskriterium)
f ist Epimorphismus genau dann, wenn Kokern f = 0.
Beweis. (1) ergibt sich wegen Kern f = f −1 (0) aus Lemma 4.5(1)-(3) zusammen
mit Bemerkung 4.8.4.
(2) Sei f Monomorphismus und sei m ∈ Kern f . Da dann f (m) = 0N = f (0M ),
folgt m = 0M und damit Kern f = 0.
Es gelte nun Kern f = 0. Wenn für m, m0 ∈ M gilt f (m) = f (m0 ), so folgt
f (m − m0 ) = f (m) − f (m0 ) = 0N , d. h. m − m0 ∈ Kern f = 0. Wir haben
also m − m0 = 0M , d. h. m = m0 , und damit ist f Monomorphismus.
(3) f Epimorphismus ⇐⇒ Bild f = N ⇐⇒ Kokern f = N/Bild f = 0,
Wir werden nun u. a. Ergebnisse aus Folgerung 4.6 verschärfen. Dies wird für
zahlreiche Anwendungen von zentraler Bedeutung sein.
Lemma 4.11. Sei R ein Ring und seien M, M 0 Links-R-Moduln. Ferner sei
f : M → M 0 ein R-Homomorphismus. Dann gilt für alle Links-R-Untermoduln
U von M und alle Links-R-Untermoduln U 0 von M 0
f −1 (f (U )) = U + Kern f und
f (f −1 (U 0 )) = U 0 ∩ Bild f .
90
KAPITEL 4. LINEARE ABBILDUNGEN
Damit induzieren die Abbildungen Φ bzw. Φ0 aus Folgerung 4.6(1) bzw. (2) zueinander inverse bijektive Abbildungen zwischen der Menge der Links-R-Untermoduln von M , die Kern f enthalten, und der Menge Links-R-Untermoduln von
Bild f .
Beweis. Nach Folgerung 4.6 ist nur noch zu zeigen, daß für alle Links-R-Untermoduln U von M gilt f −1 (f (U )) = U + Kern f .
Sei also U ein Links-R-Untermodul von M . Es ist klar, daß U + Kern f ⊆
f −1 (f (U )). Sei m ∈ f −1 (f (U )). Dann gilt f (m) ∈ f (U ) und folglich gibt es
ein u ∈ U mit f (m) = f (u), also f (m − u) = 0N . Somit gilt m − u ∈ Kern f , d.
h. m ∈ U + Kern f . Wir haben daher f −1 (f (U )) ⊆ U + Kern f , also f −1 (f (U )) =
U + Kern f ,
Definition 4.12. Sei R ein Ring.
(a) Links-R-Moduln M, N heißen R-isomorph, kurz M ∼
= N , wenn es einen RIsomorphismus f : M → N gibt.
(b) Sei M ein Links-R-Modul. R-Homomorphismen von M in sich heißen REndomorphismen von M , bijektive R-Endomorphismen von M werden RAutomorphismen von M genannt.
(c) Wir setzen
EndR (M ) := HomR (M, M ) sowie
AutR (M ) := {f ∈ EndR (M ) | f bijektiv}
Bemerkungen 4.13.
1. Mit punktweiser Addition und Hintereinanderschaltung als Multiplikation bildet EndR (M ) nach Bemerkung 4.8.8 einen Ring
mit Einselement idM . Man nennt ihn Endomorphismenring von M . Ist R
kommutativ, so ist EndR (M ) nach Bemerkung 4.8.7 sogar eine R-Algebra
(s. Bemerkung 3.6.8).
2. Nach Lemma 4.5(5) gilt AutR (M ) = EndR (M )∗ . Nach Bemerkung 2.11.2
bildet AutR (M ) daher mit der Hintereinanderschaltung eine Gruppe, die
Automorphismengruppe von M .
3. In Definition 2.25 hatten wir für n ∈ N+ die n-te allgemeine lineare Gruppe
GlR (n) über R eingeführt. In Bemerkung 4.39.3 werden wir sehen, daß
GlR (n) ∼
= AutR (Rn ). Daher verwendet man für die Automorphismengruppe
von M auch die Bezeichnung GlR (M ) und nennt sie dann entsprechend
allgemeine lineare Gruppe von M .
Im folgenden Lemma wollen wir u. a. untersuchen, wann die Bilder linear unabhängiger Elemente unter einem Homomorphismus wieder linear unabhängig
sind.
4.1. GRUNDBEGRIFFE
91
Lemma 4.14. Sei R ein Ring und seien M, N Links-R-Moduln. f : M → N sei
ein R-Homomorphismus. Ferner seien m1 , . . . , mp ∈ M und E ⊆ M . Dann gilt:
(1) Wenn f (m1 ), . . . , f (mp ) ∈ N linear unabhängig sind, so sind auch m1 , . . . , mp
linear unabhängig.
(2) Wenn f Monomorphismus ist, so sind f (m1 ), . . . , f (mp ) ∈ N genau dann
linear (un)abhängig, wenn m1 , . . . , mp ∈ M linear (un)abhängig sind.
(3) Ist f ein Epimorphismus und ist E Erzeugendensystem von M , so ist f (E)
Erzeugendensystem von N .
Beweis. (1) Wenn für r1 , . . . , rp ∈ R gilt r1 m1 + . . . + rp mp = 0M , so folgt (s.
Bemerkung 4.8.3) r1 f (m1 )+. . .+rp f (mp ) = f (r1 m1 +. . .+rp mp ) = f (0M ) =
0N und damit r1 = . . . = rp = 0R , d. h. m1 , . . . , mp sind linear unabhängig.
(2) Nach (1) reicht es zu zeigen, daß für injektives f aus der linearen Unabhängigkeit von m1 , . . . , mp die lineare Unabhängigkeit von f (m1 ), . . . , f (mp )
folgt.
Seien also m1 , . . . , mp linear unabhängig und gelte r1 f (m1 ) + . . . + rp f (mp ) =
0N , wobei r1 , . . . , rp ∈ R. Dann folgt f (r1 m1 + . . . + rp mp ) = r1 f (m1 ) + . . . +
rp f (mp ) = 0N = f (0M ), also r1 m1 + . . . + rp mp = 0M wegen der Injektivität
von f . Da m1 , . . . , mp linear unabhängig sind, erhalten wir hieraus r1 = . . . =
rp = 0R , d. h. f (m1 ), . . . , f (mp ) sind linear unabhängig.
(3) Nach Bemerkung 4.8.3 gilt f (RE) = Rf (E) und wegen der Surjektivität von
f folgt damit N = f (M ) = f (RE) = Rf (E),
Folgerung 4.15. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei
f : M → N ein R-Monomorphismus und X Teilmenge von M .
(1) X ist linear unabhängig genau dann, wenn f (X) linear unabhängig ist.
(2) Sei M frei und sei f Isomorphismus. Dann ist auch N frei. Ist dabei X Basis
von M , so ist f (X) Basis von N . Ist R kommutativ oder X unendlich, so
gilt rangR M = rangR N .
Folgerung 4.16. Sei K ein Körper und seien V, W K-Vektorräume. Ferner sei
f : V → W ein K-Monomorphismus. Dann gilt rangK X = rangK f (X) für jede
Teilmenge X von V .
Beweis. Indem wir V durch KX und W durch Kf (X) = f (KX) ersetzen, dürfen
wir o. B. d. A. annehmen, daß f surjektiv und damit bijektiv, also ein Isomorphismus ist. Die Behauptung ergibt sich dann aber aus Folgereung 4.15(2),
92
4.2
KAPITEL 4. LINEARE ABBILDUNGEN
Koordinaten
Sei R ein Ring, F ein freier Links-R-Modul und f ∈ F . Ist B Basis von F , so
gibt es nach Satz 3.27(1) für jedes b ∈ BP
ein eindeutig bestimmtes rf,b ∈ R, so
daß rf,b = 0R für fast alle b ∈ B und f = b∈B rf,b b.
Sei f ∈ F . Durch b 7→ rf,b , b ∈ B, ist damit eine Abbildung κf : B → R gegeben
mit κf (b) = 0R für fast alle b ∈ B, d. h.
κf ∈ R(B) = {ϕ | ϕ : B → R, ϕ(b) = 0R für fast alle b ∈ B} ,
s. Bemerkung 3.9.3.
P
Ist umgekehrt ϕ ∈ R(B) und setzen wir kϕ := b∈B ϕ(b)b ∈ F , so gilt
P
für alle f ∈ F und
kκf =
b∈B κf (b)b = f
κkϕ = ϕ für alle ϕ ∈ R(B) ,
denn für b ∈ B gilt κfϕ (b) = ϕ(b). Damit sind durch f 7→ κf , f ∈ F , und ϕ 7→ kϕ ,
ϕ ∈ R(B) , zueinander inverse Abbildungen
κ : F → R(B)
und k : R(B) → F
gegeben. Insbesondere ist κ bijektiv.
Definition 4.17. Sei R ein Ring und F ein freier Links-R-Modul. B sei Basis
von F .
(a) Für f ∈ F heißt das oben beschriebene Element κf ∈ R(B) Koordinatenvektor
(manchmal auch Darstellungsvektor) von f bezüglich B.
(b) Die oben definierte bijektive Abbildung κ : F → R(B) , die jedem Element f ∈
F seinen Koordinatenvektor κf ∈ R(B) zuordnet, heißt Koordinatenabbildung
bezüglich B. Um diese Abhängigkeit von B auszudrücken, schreibt man auch
κB statt nur κ und entsprechend für f ∈ F κB,f statt κf .
Lemma 4.18. Sei R ein Ring und F ein freier Links-R-Modul. Für jede Basis
B von F ist die Koordinatenabbildung κB : F → R(B) ein R-Isomorphismus.
Beweis. Sei B Basis von F . Nach Lemma 4.5(4) und Bemerkung 4.8.4 reicht es zu
zeigen, daß die zu κB inverse Abbildung kB : R(B) → F ein R-Homomorphismus
ist. Seien hierzu ϕ, ϕ1 , ϕ2 ∈ R(B) und r ∈ R. Dann gilt
X
X
kB (ϕ1 + ϕ2 ) =
(ϕ1 + ϕ2 )(b)b =
(ϕ1 (b) + ϕ2 (b))b
b∈B
=
X
b∈B
kB (rϕ) =
X
b∈B
b∈B
ϕ1 (b)b +
X
ϕ2 (b)b = kB (ϕ1 ) + kB (ϕ2 ) und
b∈B
(rϕ)(b)b =
X
b∈B
rϕ(b)b = r
X
b∈B
ϕ(b)b = rkB (ϕ),
4.2. KOORDINATEN
93
Bemerkung 4.19. Sei wieder R ein Ring und F ein freier Links-R-Modul. Wenn
F eine endliche Basis besitzt, so ergibt sich eine Besonderheit:
Sei B := {b1 , . . . bn } eine Basis von F mit n := #B. Durch
ϕ 7→ (ϕ(b1 ), . . . , ϕ(bn )) ∈ Rn , ϕ ∈ R(B) ,
ist eine bijektive Abbildung R(B) → Rn gegeben, die - wie man sofort bestätigt
- ebenfalls ein R-Isomorphismus ist. Dieser hängt natürlich von der gewählten
Reihenfolge der b1 , . . . , bn ab. Fixieren wir eine solche Reihenfolge, d. h. betrachten wir statt B = {b1 , . . . bn } das geordnete n-Tupel B := (b1 , . . . bn ), so spricht
man von einer geordneten Basis B. Diese gibt dann Anlaß zu einem eindeutig
bestimmten Isomorphismus πB : RB (= R(B) ) → Rn , der wie oben definiert ist.
Dementsprechend betrachtet man in diesen Fällen statt der Koordinatenabbildung κB : F → RB die Hintereinanderschaltung κB : F → Rn von κB mit
obigem Isomorphismus πB , d. h. für f ∈ F gilt dann
κB (f ) = (r1 , . . . , rn ),
Pn
wenn f =
i=1 ri bi mit (eindeutig bestimmten) r1 , . . . , rn ∈ R. Das n-Tupel
(r1 , . . . , rn ) heißt dann entsprechend Koordinatenvektor von f bezüglich der geordneten Basis B, Schreibweise (r1 , . . . , rn ) =: fB .
Beispiel 4.20. Man zeige, daß {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von
C3 ist und bestimme den Koordinatenvektor von b := (1, 1 + i, 0) bezüglich der
geordneten Basis B := ((1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)) des C3 .
Lösung: Basistest und Darstellung eines Vektors als Linearkombination gegebener
Vektoren sind Fragestellungen, die allgemein für K-Untervektorräume des K n
(K Körper, n ∈ N) mit einem gemeinsamen Ansatz gelöst werden können, s.
hierzu auch die Lösung von Problem 2 in Kapitel 3. Wir wollen dies an unserem
Beispiel verdeutlichen. Seien hierzu b1 := (1 + i, i, −1), b2 := (0, 2i, 1 − i) und
b3 := (1, −1, i) sowie A := (bT1 , bT2 , bT3 ) ∈ C3,3 . Dann gilt
b = α1 b1 + α2 b2 + α3 b3 mit α1 , α2 , α3 ∈ C ⇐⇒ (α1 , α2 , α3 ) ist Lösung von
AXT = bT , X := (X1 , X2 , X3 ).
Sei nun B die erweiterte Koeffizientenmatrix dieses Systems, d. h.


1+i
0
1
1
2i −1 1 + i .
B = (A , b) =  i
−1 1 − i i
0
Anwendung des modifizierten Gaußschen Algorithmus hierauf führt B über in


1 0 0 −i
B 0 := (E3 , b0T ) = 0 1 0 1  ,
0 0 1 i
94
KAPITEL 4. LINEARE ABBILDUNGEN
wobei b0 := (−i, 1, i). Damit gilt zum einen rang A = 3, d. h. wegen rang C3 = 3
ist {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von C3 (s. Satz 3.43), und zum
anderen ist (−i, 1, i) Lösung von AXT = bT . Wir erhalten also
(1, 1 + i, 0) = −ib1 + b2 + ib3 = −i(1 + i, i, −1) + (0, 2i, 1 − i) + i(1, −1, i)
oder, bei Verwendung unserer obigen Bezeichnung,
(1, 1 + i, 0)B = (−i, 1, i).
Wir bemerken, daß
 


−i
1
 1  = A−1 1 + i ,
i
0
d. h.
(bB )T = A−1 bT ,
und letzteres gilt dann natürlich für alle b ∈ C3 .
Dies läßt sich wie folgt verallgemeinern:
Satz 4.21. Sei K ein Körper und V ein K-Vektorraum. b1 , . . . , bn ∈ V seien
linear unabhängige Elemente. Mit U bezeichnen wir den von b1 , . . . , bn erzeugten
K-Untervektorraum von V . (Dann ist {b1 , . . . , bn } Basis von U .)
Seien weiter a1 , . . . , am ∈ U . Für i = 1, . . . , m sei (αi,1 , . . . , αi,n ) ∈ K n Koordinatenvektor von ai bezüglich der geordneten Basis B := (b1 , . . . , bn ) von U .


α11 . . . α1n

.. . Dann gilt
Wir setzen A :=  ...
. 
αm1 . . . αmn
rang {a1 , . . . , am } = rang A.
Beweis. Definitionsgemäß ist B := {b1 , . . . , bn } Basis von U .
Für i = 1, . . . , m sei ai := (αi,1 , . . . , αi,n ). Dann gilt (s. Satz 3.44):
rang A = rang {a1 , . . . , am }.
Da {a1 , . . . , am } = κB ({a1 , . . . , am }), ergibt sich die Behauptung daher aus Folgerung 4.16,
4.3. FUNDAMENTALSATZ
4.3
95
Fundamentalsatz der linearen Algebra
Unser nächstes Ziel ist, eine Klassifikation aller K-Vektorräume zu erreichen,
wenn K ein fester Körper ist. Dabei heißt ”Klassifikation”, einem K-Vektorraum
gewisse Daten so zuzuordnen, daß er dadurch bis auf K-Isomorphie eindeutig
bestimmt ist. Es ist klar, daß diese Daten invariant gegenüber K-Isomorphismen
sein müssen, d. h. solche Daten müssen für isomorphe K-Vektorräume übereinstimmen. Man nennt sie daher auch Invarianten eines K-Vektorraumes.
Wir werden dieses Problem etwas allgemeiner lösen, indem wir statt dessen freie
Moduln über einem kommutativen Ring R betrachten. Es wird sich herausstellen, daß zur Klassifikation von freien R-Moduln (und damit natürlich auch von
Vektorräumen über einem Körper) eine einzige Invariante ausreicht: der Rang, s.
Definition 3.31. Wir bemerken, daß der Rang tatsächlich eine Invariante ist, da
nach Folgerung 4.15(2) isomorphe freie R-Moduln den gleichen Rang haben.
Satz 4.22 (Homomorphiesatz für Moduln). Sei R ein Ring.
(1) Sei M ein Links-R-Modul und U ein Links-R-Untermodul von M . Der durch
π(m) := m + U für alle m ∈ M definierte kanonische Epimorphismus π :
M → M/U (s. Bemerkung 4.8.11) hat folgende Eigenschaft:
Für jeden Links-R-Modul N und jeden R-Homomorphismus f : M → N mit
U ⊆ Kern f gibt es genau einen R-Homomorphismus g : M/U → N mit
f = g ◦ π.
(2) Seien M, N Links-R-Moduln und sei f : M → N ein R-Homomorphismus.
Es gibt einen R-Isomorphismus ϕ : M/Kernf → Bildf mit f = ι◦ϕ◦π, wenn
π : M → M/Kern f den kanonischen Epimorphismus und ι die Einbettung
Bild f ⊆ N bezeichnen. ϕ ist durch diese Eigenschaft eindeutig festgelegt.
Beweis. (1) Sei f : M → N ein R-Homomorphismus in einen weiteren Links-RModul N mit U ⊆ Kern f .
Seien m, m0 ∈ M mit m + U = m0 + U , d. h. m − m0 ∈ U . Wegen U ⊆ Kern f
gilt somit m − m0 ∈ Kern f und es folgt f (m) − f (m0 ) = f (m − m0 ) = 0N , d.
h. f (m) = f (m0 ). Daher ist durch m + U 7→ f (m), m ∈ M , eine Abbildung
g : M/U → N definiert. Offensichtlich gilt hierfür f = g ◦ π und damit ist g
nach Übungsaufgabe 9 ein R-Homomorphismus, der zudem durch f = g ◦ π
eindeutig bestimmt ist.
(2) Nach (1) gibt es einen eindeutig bestimmten R-Homomorphismus g :
M/Kern f → N mit f = g ◦ π. Sei m ∈ M , so daß m + Kern f ∈ Kern g.
Dann gilt 0N = g(m + Kern f ) = f (m), d. h. m ∈ Kern f und somit
m + Kern f = Kern f = 0M/Kern f . Wir haben also Kern g = 0 und Lem-
96
KAPITEL 4. LINEARE ABBILDUNGEN
ma 4.10(2) liefert, daß g injektiv, also Monomorphismus ist. Weiter gilt
Bild g = {g(m + Kern f ) | m ∈ M } = {f (m) | m ∈ M } = Bild f.
Wir setzen (s. Lemma 4.10) ϕ := g 0 . Weil g injektiv ist, ist auch g 0 = ϕ injektiv
und damit bijektiv, also Isomorphismus. Da g = ι◦g 0 , gilt f = ι◦ϕ◦π. Wegen
der Eindeutigkeit von g und der Injektivität von ι ist auch ϕ eindeutig durch
f bestimmt (s. die Modul-Variante von Übungsaufgabe 4),
Satz und Definition 4.23 (Prinzip der linearen Fortsetzung). Sei R ein Ring
und seien F, N Links-R-Moduln, wobei F frei ist. Ferner sei B Basis von F .
Dann gilt:
Zu jeder Abbildung ϕ : B → N gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ϕ.
f heißt (R-)lineare Fortsetzung von ϕ.
Beweis. 1. Existenz von f :
Sei κ : F → R(B) die Koordinatenabbildung bezüglich B, s. Definition 4.17(b).
Der Übersichtlichkeit halber schreiben wir für x ∈ F statt κ(x) einfach wieder κx
und setzen
X
κx (b)ϕ(b) ∈ N.
f (x) :=
b∈B
Da für x, y ∈ F , r, s ∈ R gilt (man beachte, daß κ ein R-Homomorphismus ist)
f (rx + sy) =
X
κrx+sy (b)ϕ(b) =
(rκx + sκy )(b)ϕ(b)
b∈B
b∈B
=
X
X
(rκx (b) + sκy (b))ϕ(b)
b∈B
= r
X
κx (b)ϕ(b) + s
b∈B
X
κx (b)ϕ(b)
b∈B
= rf (x) + sf (y),
ist f ein R-Homomorphismus. Da weiter für c ∈ B gilt
X
f (c) =
κc (b)ϕ(b) = 1R ϕ(c) = ϕ(c),
b∈B
haben wir auch f |B = ϕ.
2. Eindeutigkeit von f :
4.3. FUNDAMENTALSATZ
97
Sei
P g : F → N ein R-Homomorphismus mit g|B = ϕ und sei x ∈ F . Da x =
b∈B κx (b)b, erhalten wir
!
g(x) = g
X
b∈B
κx (b)b
=
X
κx (b)g(b) =
b∈B
X
κx (b)ϕ(b) = f (x),
b∈B
d. h. g = f ,
Bemerkungen 4.24. R ein Ring und seien F, N Links-R-Moduln, wobei F frei
ist.
1. Nach dem Prinzip der linearen Fortsetzung ist ein R-Homomorphismus
f : F → N umkehrbar eindeutig durch die Werte festgelegt, die f auf
einer Basis B von F annimmt. Diese Werte können umgekehrt beliebig
vorgegeben werden, d. h. es gilt HomR (F, N ) ∼
= Abb (B, N ) = N B .
Sind f, g : F → N R-Homomorphismen und gilt f (b) = g(b) für alle b ∈ B,
so folgt daher f = g.
2. Wenn es einen R-Isomorphismus f : F → N gibt, so ist nach Folgerung
4.15(2) auch N frei. Ist B Basis von F , so ist die Koordinatenabbildung
κB : F → R(B) ein R-Isomorphismus. Damit ist R(B) frei und {κB (b) | b ∈
B} ist Basis von R(B) , s. wiederum Folgerung 3.6 (2). Nun gilt aber für
b, c ∈ B:
1R wenn c = b
(κB (b))(c) = κb (c) =
0R wenn c 6= b
Dies läßt sich nun wie folgt verallgemeinern:
Lemma 4.25. Sei R ein Ring und X eine Menge. Für x ∈ X sei ϕx : X → R
definiert durch
1R wenn y = x
ϕx (y) :=
, y∈X
0R wenn y 6= x
Wir setzen X := {ϕx | x ∈ X}. Dann gilt
(1) X ⊆ R(X)
(2) R(X) ist frei als Links- und Rechts-R-Modul und X ist jeweils Basis von R(X) .
Man nennt diese Basis kanonische Basis von R(X) .
(3) Ist R kommutativ oder X unendlich, so gilt rangR R(X) = #X.
Beweis. Es ist klar, daß ϕx ∈ R(X) für alle x ∈ X, d. h. es gilt X ⊆ R(X) .
98
KAPITEL 4. LINEARE ABBILDUNGEN
Sei ϕ ∈ R(X) . Dann gilt für y ∈ X
P
P
ϕ(y) = ϕ(y)1R = x∈X ϕ(x)ϕx (y) =
x∈X ϕ(x)ϕx (y) und
P
P
ϕ(y) = 1R ϕ(y) = x∈X ϕx (y)ϕ(x) =
ϕ
ϕ(x)
(y),
x
x∈X
P
P
d. h. wir haben ϕ = x∈X ϕ(x)ϕx ∈ RX und ϕ = x∈X ϕx ϕ(x) ∈ X R . Somit
ist X Erzeugendensystem von R(X) als Links-R-Modul und als Rechts-R-Modul.
Seien nun x1 , . . . , xn paarweise verschiedene Elemente aus X und nehmen wir an,
daß r1 ϕx1 + . . . + rn ϕxn = 0R(X) für r1 , . . . , rn ∈ R. Dann gilt für j = 1, . . . , n
P
P
rj = rj 1R = ni=1 ri ϕxi (xj ) = ( ni=1 ri ϕxi ) (xj ) = 0R(X) (xj ) = 0R ,
d. h. ϕx1 , . . . , ϕxn sind linear unabhängig. Damit ist X linear unabhängige Menge,
also Basis von R(X) als Links-R-Modul. Entsprechend ergibt sich, daß X Basis
von R(X) auch als Rechts-R-Modul ist wie behauptet.
Wir bemerken, daß mit x1 , . . . , xn auch ϕx1 , . . . , ϕxn paarweise verschieden sind
und daß damit durch x 7→ ϕx , x ∈ X, eine bijektive Abbildung ψX : X → X
gegeben ist. Ist R kommutativ oder X und damit X unendlich, so gilt daher
rangR R(X) = #X = #X, s. Definition 3.31,
Bemerkungen 4.26.
1. Seien X, R wie in Lemma 4.25. Identifiziert man die
Elemente von X ⊆ R(X) vermöge der Bijektion ψX : X → X mit den
entsprechenden Elementen von X, so kann man o. B. d. A. X ⊆ R(X)
annehmen. Daher nennt man R(X) auch den von X erzeugten freien Linksbzw. Rechts-R-Modul.
2. Sei X endlich, sagen wir, X = {x1 , . . . , xn }. Dann gilt (s. Bemerkung 4.19)
R(X) ∼
= Rn , wobei dieser Isomorphismus von einer Reihenfolge der Elemente von X abhängt. Fixieren wir etwa die Reihenfolge (x1 , . . . , xn ) und
bezeichnenen den entsprechenden Isomorphismus R(X) ∼
= Rn mit π, so gilt
für i = 1, . . . , n
π(xi ) = (ϕxi (x1 ), . . . , ϕxi (xn )) = (0R , . . . , 0R ,
1R , 0R , . . . , 0R ) = en,i ,
|{z}
i−te Stelle
d. h. wir haben π(X) = {en,1 , . . . , en,n }.
Folgerung 4.27 (aus Satz 4.23). Sei R ein Ring und seien F, N Links-R-Moduln,
wobei F frei ist. Sei B Basis von F und C Teilmenge von N .
Zu jeder Abbildung ψ : B → C gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ψ. Hierfür gilt:
(1) f ist Monomorphismus genau dann, wenn ψ injektiv und ψ(B) ⊆ C linear
unabhängig ist.
4.3. FUNDAMENTALSATZ
99
(2) f ist Epimorphismus genau dann, wenn ψ(B) Erzeugendensystem von N ist.
Beweis. (1) Ist f Monomorphismus, so ist f injektiv und daher ist ψ wegen
ψ = f |B ebenfalls injektiv. Da ψ(B) = f (B), ist ψ(B) nach Lemma 4.14(2)
linear unabhängig.
Sei nun umgekehrt ψ injektiv und ψ(B) linear unabhängig. Wenn f (m) = 0N
für m ∈ F , so schreiben wir m = r1 b1 + . . . + rn bn mit r1 , . . . , rn ∈ R
und paarweise verschiedenen b1 , . . . , bn ∈ B. Da dann auch ψ(b1 ), . . . , ψ(bn )
paarweise verschieden und linear unabhängig sind und da
r1 ψ(b1 ) + . . . + rn ψ(bn ) = r1 f (b1 ) + . . . + rn f (bn )
= f (r1 b1 + . . . + rn bn = f (m)
= 0N ,
folgt r1 = . . . = rn = 0R und damit m = 0F . Nach dem Injektivitätskriterium
(s. Lemma 4.10(2)) ist f ein Monomorphismus.
(2) Wegen F = RB und ψ(B) = f (B) haben wir f (F ) = f (RB) = Rf (B) =
Rψ(B) und damit gilt
f Epimorphismus ⇐⇒ f (F ) = N ⇐⇒ Rψ(B) = N
⇐⇒ ψ(B) Erzeugendensystem von N,
Folgerung 4.28 (aus Satz 4.23). Sei R ein Ring und seien X, Y Mengen.
Wenn #X = #Y , so gilt R(X) ∼
= R(Y ) . Die Umkehrung ist richtig, wenn R
kommutativ oder X unendlich ist.
Beweis. Nach Bemerkung 4.26 ist X Basis von R(X) und Y Basis von R(Y ) .
Wegen #X = #Y gibt es eine bijektive Abbildung X → Y . Diese setzen wir
zu einem R-Homomorphismus f : R(X) → R(Y ) fort. Nach Folgerung 4.27 ist f
Isomorphismus.
Ist R kommutativ oder ist X unendlich, so ergibt sich die Umkehrung der Aussage
aus Folgerung 4.15(2) in Zusammenhang mit Lemma 4.25(3),
Folgerung 4.29 (aus Satz 4.23). Sei R ein Ring und M ein (endlich erzeugter)
Links-R-Modul. Dann gibt es einen (endlich erzeugten) freien Links-R-Modul F
und einen R-Epimorphismus F → M .
Beweis. Sei X (endliches) Erzeugendensystem von M . O. B. d. A. gelte X ⊆ R(X)
(s. Bemerkung 4.26.1). Weiter sei ϕX : X → M die Einbettung X ⊆ M . Da X
nach Lemma 4.25(2) Basis von R(X) (als Links-R-Modul) ist, besitzt ϕX nach
100
KAPITEL 4. LINEARE ABBILDUNGEN
Satz 4.23 eine Fortsetzung f : R(X) → M mit f |X = ϕX . Da somit f (X) =
ϕX (X) = X, ist f Epimorphismus nach Folgerung 4.27(2),
Theorem 4.30 (Fundamentalsatz der linearen Algebra). Sei R ein kommutativer
Ring.
(1) Sei V ein freier R-Modul und sei B Basis von V . Dann gilt V ∼
= R(B) .
(2) Freie R-Moduln V, W sind isomorph genau dann, wenn rangR V = rangR W .
(3) Für jede Kardinalzahl λ gibt es bis auf Isomorphie genau einen freien RModul vom Rang λ.
Beweis. (1) Dies ergibt sich sofort aus Lemma 4.18 mit der Koordinatenabbildung κB : V → R(B) .
(2) Wenn V ∼
= W , so gilt rangR V = rangR W nach Folgerung 4.15(2). Sei also
umgekehrt rangR V = rangR W . Wir wählen Basen B von V und C von W .
Da #B = rang V = rang W = #C, haben wir R(B) ∼
= R(C) nach Folgerung
4.28. Nach (1) erhalten wir dann Isomorphismen
−1
κC
κB
V −→
R(B) ∼
= R(C) −→ W.
(3) Sei nun λ eine Kardinalzahl und sei X Menge mit #X = λ. Nach Lemma
4.25(3) gilt dann rangR R(X) = #X = λ,
Folgerung 4.31. Sei R ein kommutativer Ring.
Bis auf Isomorphie sind die R-Moduln Rn , n = 0, 1, . . ., die einzigen endlich
erzeugten freien R-Moduln. Dabei gilt Rm ∼
6= Rn für alle m, n ∈ N mit m 6= n.
Folgerung 4.32. Sei K ein Körper. K-Vektorräume V, W sind isomorph genau dann, wenn rangK V = rangK W . Für jede Kardinalzahl λ gibt es bis auf
Isomorphie genau einen K-Vektorraum vom Rang λ.
Satz 4.33 (Rangformel). Sei K ein Körper und sei f : V → W eine K-lineare
Abbildung, wobei V, W K-Vektorräume sind. Dann gilt
rangK V = rangK Kern f + rangK Bild f.
Beweis. Sei zunächst rang V < ∞, d. h. V ist endlich erzeugt. Dann ergibt sich
aus Satz 3.41(1) zusammen mit Satz 4.22(2):
rang V = rang Kern f + rang V /Kern f = rang Kern f + rang Bild f.
Sei nun rang V = ∞, d. h. V ist nicht endlich erzeugt. Wenn auch Kern f nicht
endlich erzeugt ist, so sind wir fertig. Nehmen wir also an, Kern f sei endlich
4.4. MATRIZENDARSTELLUNGEN
101
erzeugt. Sei B Basis von Kern f . Wir ergänzen B durch eine linear unabhängige
Menge Z ⊂ V \ B zu einer Basis B ∪ Z von V (s. Folgerung 3.35). Nach Lemma
3.33(2) ist Z̄ := {z + Kern f | z ∈ Z} Basis von V /Kern f . Da rang V = ∞ und
rangKernf < ∞, ist Z unendlich. Nach Lemma 3.33(3) ist Z̄ ebenfalls unendlich,
d. h. rang Bild f = ∞ und wir sind fertig,
4.4
Matrizendarstellungen linearer Abbildungen
Obwohl einige der nachfolgenden Resultate auch allgemeiner gelten, wollen wir
uns hier auf die Untersuchung endlich erzeugter freier Moduln über kommutativen
Ringen beschränken.
Wenn nicht ausdrücklich anders gesagt, sind in diesem Abschnitt alle betrachteten
Ringe kommutativ und alle Moduln sind endlich erzeugt.
Sei nun R ein Ring und seien V, W freie R-Moduln mit m := rangR V und
n := rangR W . Ferner seien geordnete Basen B := (b1 , . . . , bm ) von V und
C := (c1 , . . . , cn ) von W vorgelegt. Ein Ergebnis der nachfolgenden Überlegungen
ist, daß HomR (V, W ) ein freier R-Modul mit rangR HomR (V, W ) = m · n ist. Dazu
werden wir aus den vorgelegten geordneten Basen von V und W eine geeignete geordnete Basis von HomR (V, W ) konstruieren und damit für R-Homomorphismen
f : V → W (also für Elemente von HomR (V, W )) Koordinatendarstellungen
bzgl. dieser Basis zu bestimmen. Dabei stellt es sich heraus, dass es zweckmäßig ist, das Konzept der geordneten Basis in diesem Kontext so zu modifizieren,
daß diese Koordinatendarstellungen nicht in Form von m · n-Tupeln, sondern von
(m, n)-Matrizen erfolgen.
Sei f : V → W ein R-Homomorphismus.
Problem 1: Für v ∈ V berechne man f (v).
Nach Satz 4.23 ist f bereits umkehrbar eindeutig festgelegt durch die Angabe
von f (b1 ), . . . , f (bm ) ∈ W . Die Lösung ergibt sich daher aus dem folgenden Satz:
n
Satz 4.34. Für i = 1, . . . , m sei mit obigen Bezeichnungen bi :=
i )C ∈ R
f (bn,m
T
T
Koordinatenvektor von f (bi ) bzgl. C. Weiter sei A := b1 , . . . , bm ∈ R .
T
Für alle v ∈ V gilt dann f (v)TC = AvB
und A ist durch diese Eigenschaft eindeutig
bestimmt.
Beweis. Sei vB =: (α1 , . . . , αm ) und bi =: (βi1 , . . . , βin ), i = 1, . . . , m. Für j =
102
KAPITEL 4. LINEARE ABBILDUNGEN
1, . . . , n gilt dann mit γj := α1 β1j + . . . + αm βmj :
f (v) = f (α1 b1 + . . . + αm bm ) = α1 f (b1 ) + . . . + αm f (bm )
= α1 (β11 c1 + . . . + β1n cn ) + . . . + αm (βm1 c1 + . . . + βmn cn )
= γ1 c1 + . . . + γn cn ,
T
Damit folgt f (v)TC = (γ1 , . . . , γn )T = AvB
.
T
mit einer Matrix à ∈ Rn,m , so gilt für alle
Wenn für alle v ∈ V gilt f (v)TC = ÃvB
i = 1, . . . , m wegen (bi )B = eni (s. Lemma 3.25):
bTi = f (bi )TC = Ã(bi )TB = ÃeTni , d. h. die i-te Spalte von à stimmt mit der i-ten
Spalte von A überein und damit gilt à = A,
Definition 4.35. Seien R, V, W, B, C, f wie soeben beschrieben. Die Matrix
A := f (b1 )TC , . . . , f (bm )TC ∈ Rn,m
heißt Koordinatenmatrix, manchmal auch Darstellungsmatrix, von f bzgl. der
geordneten Basen B und C, Schreibweise:
A = fB,C .
Ist f Endomorphismus von V , so schreiben wir statt fB,B kurz fB und nennen
diese Matrix Koordinatenmatrix von f bzgl. der geordneten Basis B. (Dennoch
kann man natürlich auch die Koordinatenmatrix eines Endomorphismus von V
bzgl. verschiedener geordneter Basen von V betrachten, s. hierzu auch Definition
4.46)
Beispiel 4.36. Seien b1 := (−4, −1, 2), b2 := (1, 0, −1), b3 := (0, 2, 3) Elemente
des Q3 und c1 := (−1, 1), c2 := (2, −1), c3 := (1, 0) Elemente des Q2 . Wir setzen
B := {b1 , b2 , b3 } und C := {c1 , c2 , c3 }. Weiter sei ψ : B → C die durch bi 7→ ci ,
i = 1, 2, 3, gegebene Abbildung.
(a) Man zeige, daß B Basis von Q3 und {c1 , c2 } Basis von Q2 ist.
(b) Sei f : Q3 → Q2 die durch f |B = ψ eindeutig bestimmte Q-lineare Abbildung
(s. Folgerung 4.27). Man berechne die Koordinatenmatrix von f bezüglich
der geordneten Basen B := (b1 , b2 , b3 ) des Q3 bzw. E := (e21 , e22 ) des Q2
sowie die Koordinatenmatrix von f bezüglich B und der geordneten Basis
C := (c1 , c2 ) des Q2 .
(c) Man berechne f (1, 1, −1).
(d) Man bestimme Bild f und Kern f .
Lösung:
4.4. MATRIZENDARSTELLUNGEN
103
(a) Nach Folgerung 3.32(2) gilt rangQ3 = 3 und nach
 Satz 3.44 ist daher B Basis
−4 −1 2
3

0 −1 = 3.
des Q genau dann, wenn rang 1
0
2
3
Anwendung des Gaußschen Algorithmus liefert






−4 −1 2
1 0 −1
1 0 −1
1
0 −1 ; 0 −1 −2 ; 0 −1 −2,
0
2
3
0 2
3
0 0 −1




−4 −1 2
1 0 −1
0 −1 = rang 0 −1 −2 = 3 und damit ist
d. h. es gilt rang  1
0
2
3
0 0 −1
B Basis des Q3 .
−1 1
−1 1
Analog ergibt sich rang
= rang
= 2 und damit ist
2 −1
0 1
{c1 , c2 } Basis des Q2 .
(b) Laut Definition gilt
(f (b1 )TE , f (b2 )TE , f (b3 )TE = cT1 , cT2 , cT3
−1 2 1
=
sowie
1 −1 0
= f (b1 )TC , b2 )TC , f (b3 )TC = (c1 )TC , (c2 )TC , (c3 )TC
1 0 1
=
,
0 1 1
fB,E =
fB,C
da c1 = 1c1 + 0c2 , c2 = 0c1 + 1c2 und c3 = 1c1 + 1c2 .
(c) Da mit A := fB,E gilt
f (1, 1, −1)T = f (1, 1, −1)TE = A(1, 1, −1)TB ,
benötigen wir das Tripel (α, β, γ) := (1, 1, −1)B . Wegen αb1 + βb2 + γb3 =
(1, 1, −1) ist (α, β, γ) Lösung des linearen Gleichungssystems
mit erweiterter
Koeffizientenmatrix bT1 , bT2 , bT3 , (1, 1, −1)T . Anwendung des modifizierten
Gaußschen Algorithmus auf diese Matrix liefert




−4 1 0 1
−1 0
2 1
 −1 0 2 1  ;  0 −1 7 1  ;
2 −1 3 −1
0
1 −8 −3




−1 0
2 1
1 0 0 3
;  0 −1 7 1  ;  0 1 0 13  .
0
0 −1 −2
0 0 1 2
104
KAPITEL 4. LINEARE ABBILDUNGEN
Hieraus folgt (α, β, γ) = (3, 13, 2) und somit erhalten wir
f (1, 1, −1)T = A(3, 13, 2)T = (25, −10)T , d. h. f (1, 1, −1) = (25, −10).
(d) Da ψ(B) = C und da C eine Basis von Q2 enthält (s. (a)) und somit Erzeugendensystem des Q2 ist, ist f Epimorphismus nach Folgerung 4.27(2).
Folglich gilt Bild f = Q2 .
Sei v ∈ Kernf und sei a := vB . Dann gilt AaT = f (v)T = 0, d. h. a ist Lösung
des homogenen linearen Gleichungssystems AXT = 0. Ist umgekehrt a ∈ Q3
Lösung von AXT = 0, so ist a Koordinatenvektor eines Elementes aus Kern f
bzgl. der geordneten Basis B von Q3 . Die Lösungsmenge von AXT = 0 ist
{(−1, −1, 1)t | t ∈ Q}, so daß
Kern f = {−tb1 − tb2 + tb3 | t ∈ Q} = {t(3, 3, 2) | t ∈ Q} = Q(3, 3, 2).
Lemma 4.37. Sei R ein Ring und seien U, V, W freie R-Moduln mit geordneten
Basen B, C, D. Weiter seien f, f 0 : U → V R-Homomorphismen mit Koordinatenmatrizen A, A0 bezüglich B und C und g : V → W R-Homomorphismus mit
Koordinatenmatrix à bezüglich C und D. Dann gilt
(1) A + A0 ist Koordinatenmatrix von f + f 0 bezüglich B und C, d. h.
0
(f + f 0 )B,C = fB,C + fB,C
.
(2) Ã · A ist Koordinatenmatrix von g ◦ f bezüglich B und D, d. h.
(g ◦ f )B,D = gC,D · fB,C .
(3) Die Koordinatenmatrix von idU bezüglich B ist die Einheitsmatrix, d. h.
(idU )B = En , wenn n := rangR U .
(4) Für α ∈ R ist αA Koordinatenmatrix von αf bezüglich B und C, d. h.
(αf )B,C = αfB,C .
Beweis. Für alle u ∈ U gilt
(f + f 0 )(u)TC =
=
=
=
(g ◦ f )(u)TD =
=
=
T
idU (u)B =
(αf )(u)TC =
=
=
κC ((f + f 0 )(u))T = κC (f (u) + f 0 (u))T
κC (f (u))T + κC (f 0 (u))T = f (u)TC + f 0 (u)TC
AuTB + A0 uTB
(A + A0 )uTB ,
κD ((g ◦ f )(u))T = (κD (g(f (u)))T = g(f (u))TD
Ã(f (u)C )T = Ã(AuTB )
(ÃA)uTB ,
κB ((idU (u))T = κB (u)T = uTB = En uTB und
κC ((αf )(u))T = κC (αf (u))T = α(κC (f (u))T )
α(f (u)TC ) = α(AuTB )
(αA)uTB .
4.4. MATRIZENDARSTELLUNGEN
105
Damit folgt die Behauptung aus der Eindeutigkeitsaussage von Satz 4.34,
Satz 4.38. Sei R ein Ring und seien V, W freie R-Moduln mit geordneten Basen
B, C. Wir setzen m := rangR V , n := rangR W . Dann gilt
(1) Die Abbildung
cB,C : HomR (V, W ) → Rn,m ,
die jedem R-Homomorphismus f : V → W seine Koordinatenmatrix fB,C
bezüglich B und C zuordnet, ist ein R-Isomorphismus.
(2) Die Abbildung cB := cB,B : EndR (V ) → Rm,m ist ein Ringisomorphismus
(sogar ein R-Algebra-Isomorphismus).
Beweis. Aus Lemma 4.37(1) und (4) ergibt sich unmittelbar, daß cB,C R-Homomorphismus ist. Nach Lemma 4.37(2) und (3) ist cB damit ein R-Algebra-Homomorphismus, so daß nur noch die Bijektivität von cB,C zu zeigen ist.
Für A ∈ Rn,m definieren wir eine Abbildung ψA : V → W , indem wir für v ∈ V ,
v = β1 b1 + . . . + βm bm (d. h. (β1 , . . . , βm ) = vB ), setzen
ψA (v) := γ1 c1 + . . . + γn cn ,
T
wenn (γ1 , . . . , γn )T := A(β1 , . . . , βm )T = AvB
= A(κB (v))T . Da κB R-Homomorphismus ist, ist somit auch ψA R-Homomorphismus.
Durch A 7→ ψA , A ∈ Rn,m , ist eine Abbildung ψB,C : Rn,m → HomR (V, W )
gegeben, für die gilt ψB,C ◦ cB,C = idHomR (V,W ) und cB,C ◦ ψB,C = idRn,m . Damit
ist aber cB,C bijektiv (und es gilt c−1
B,C = ψB,C ),
Bemerkungen 4.39.
1. Ist R nicht kommutativ, so bleiben die Aussagen
(1) und (3) aus Lemma 4.37 gültig. Aussage (4) aus Lemma 4.37 ist gegenstandslos, da αf für nicht kommutatives R i. a. kein R-Homomorphismus
ist. Damit ist cB,C in Satz 4.38(1) lediglich ein Isomorphismus abelscher
Gruppen.
Für Rechts-R-Moduln sind auch Lemma 4.37(2) und der erste Teil von Aussage (2) aus Satz 4.38 richtig. Für Links-R-Moduln müßte die Aussage von
Satz 4.34 mit den dortigen Bezeichnungen lauten f (v)C = vB AT . Lemma
4.37(2) und Satz 4.38(2) sind dann nicht mehr richtig.
2. Lemma 4.37(2) besagt, daß die Abbildungen cB,C mit der Hintereinanderschaltung verträglich sind, wenn man ”Hintereinanderschaltung” bei Matrizen als Multiplikation interpretiert.
106
KAPITEL 4. LINEARE ABBILDUNGEN
3. Sei R ein Ring und V ein freier R-Modul vom Rang n mit geordneter
Basis B. Der Ringisomorphismus cB : EndR (V ) → Rn,n induziert einen
Gruppenisomorphismus
c∗B : GlR (V ) → GlR (n).
Folgerung 4.40. Sei R ein Ring und seien V, W freie R-Moduln. Dann ist
HomR (V, W ) ebenfalls freier R-Modul und es gilt
rangR HomR (V, W ) = rangR V · rangR W.
Beweis. Sei m := rangR V und n := rangR W . Für i, j ∈ N, 1 ≤ i ≤ n, 1 ≤ j ≤
ij
∈ Rn,m diejenige (n, m)-Matrix, bei welcher an der Stelle (i, j) 1R
m sei En,m
und ansonsten 0R steht (s. Bemerkung 2.21.7). Nach Bemerkung 2.21.7 und Satz
ij
3.27(1) bildet {En,m
| 1 ≤ i ≤ n, 1 ≤ j ≤ m} eine Basis von Rn,m . Damit ist
Rn,m freier R-Modul und wegen HomR (V, W ) ∼
= Rn,m ist auch HomR (V, W ) frei
(s. Folgerung 4.15(2)) und es gilt
ij
rangR HomR (V, W ) = rangR Rn,m = #{En,m
| 1 ≤ i ≤ n, 1 ≤ j ≤ m} = m · n,
Satz 4.38 erlaubt es, Untersuchungen über Homomorphismen zwischen endlich
erzeugten freien Moduln auf Fragen zurückzuführen, die mit Hilfe des Matrizenkalküls behandelt werden können. Für den Fall von Vektorräumen läßt sich dieser
Zusammenhang etwas genauer beschreiben. Zunächst definieren wir
Definition 4.41. Sei K ein Körper und seien V, W K-Vektorräume. Ist f : V →
W K-lineare Abbildung, so setzen wir
rangK f := rangK Bild f.
Bemerkungen 4.42.
1. In Definition 4.41 müssen V und W nicht notwendig
endlich erzeugt sein.
2. Definition 4.41 ist für beliebige (kommutative) Ringe i. a. nicht sinnvoll,
selbst wenn vorausgesetzt wird, daß V, W freie Moduln sind, da ein Untermodul eines freien Moduls (in diesem Fall Bild f ) dann i. a. nicht frei
ist.
Lemma 4.43. Mit den Bezeichnungen von Definition 4.41 sei A Koordinatenmatrix von f bzgl. geordneter Basen B von V und C von W . Dann gilt
rangK f = rangK A.
4.4. MATRIZENDARSTELLUNGEN
107
Beweis. Da κC Isomorphismus ist, gilt Bild f ∼
= κC (Bild f ). κC (Bild f ) wird aber
T
von den Zeilen von A erzeugt (s. die Definition von A) und daher folgt rangK f =
rangK Bild f = rangK κC (Bild f ) = rangK A,
In Verallgemeinerung von Folgerung 2.27 haben wir
Satz 4.44. Sei K ein Körper und seien V, W K-Vektorräume mit rangK V =
rangK W < ∞. Für f ∈ HomK (V, W ) sind die folgenden Bedingungen äquivalent
(i) f ist Isomorphismus
(ii) f ist Monomorphismus
(iii) f ist Epimorphismus
(iv) Es gibt ein g ∈ HomK (W, V ) mit g ◦ f = idV
(v) Es gibt ein g ∈ HomK (W, V ) mit f ◦ g = idW
(vi) rangK f = rangK W .
Beweis. Die Implikationen (i) ⇒ (iv) ⇒ (ii) und (i) ⇒ (v) ⇒ (iii) ⇒ (vi) sind
klar. Die Implikation (ii) ⇒ (vi) ergibt sich aus Lemma 4.10(2) und Satz 4.33.
Es gelte nun (vi). Aus Satz 4.33 folgt rang Kern f = rang V − rang Bild f =
rang W − rang f = 0, also Kern f = 0, und Lemma 4.10(2) liefert die Injektivität
von f . Wegen Bild f ⊆ W und rang W = rang f = rang Bild f folgt Bild f = W ,
also die Surjektivität von f , aus Lemma 3.40(4). Damit ist f bijektiv, d. h. die
Implikation (vi) ⇒ (i) ist gezeigt,
Folgerung 4.45. Seien K ein Körper und V ein endlich erzeugter K-Vektorraum. Für f ∈ EndK (V ) sind die folgenden Bedingungen äquivalent
(i) f ∈ GlK (V ), d. h. f ist Automorphismus von V
(ii) f ist Monomorphismus
(iii) f ist Epimorphismus
(iv) Es gibt ein g ∈ EndK (V ) mit g ◦ f = idV
(v) Es gibt ein g ∈ EndK (V ) mit f ◦ g = idV
(vi) rangK f = rangK V .
Abschließend wollen wir die folgenden Probleme diskutieren und in diesem Zusammenhang einige Beispiele betrachten.
Problem 2: Seien V, W freie R-Moduln, die jeweils mit geordneten Basen B, B0
bzw. C, C0 ausgerüstet sind.
108
KAPITEL 4. LINEARE ABBILDUNGEN
Welche Beziehung besteht zwischen den Koordinatenmatrizen fB,C und fB0 ,C0
eines R-Homomorphismus f : V → W bzgl. B und C bzw. bzgl. B0 und C0 ?
Es stellt sich heraus, daß dieses Problem in engem Zusammenhang steht mit
Problem 3: Sei V ein freier R-Modul mit geordneten Basen B und B0 und sei
v ∈V.
Welche Beziehung besteht zwischen den Koordinatenvektoren vB von v bzgl. B
und vB0 von v bzgl. B0 ?
Zur Lösung definieren wir zunächst:
Definition 4.46. Sei R ein Ring und V ein freier R-Modul. B und B0 seien
geordnete Basen von V . Die Koordinatenmatrix von idV bzgl. B und B0 heißt
Transformationsmatrix von Koordinaten bzgl. B in Koordinaten bzgl. B0 . Wir
bezeichnen sie mit tB,B0 . (Dann gilt also tB,B0 = (idV )B,B0 .)
Bemerkung 4.47. Wenn mit diesen Bezeichnungen B = (b1 , . . . , bn ), B0 =
(b01 , . . . , b0n ), wobei n := rang V , so schreiben wir für i = 1, . . . , n
bi = αi1 b01 + . . . + αin b0n mit αi1 , . . . , αin ∈ R,
d. h. (αi1 , . . . , αin ) = (bi )B0 . Dann gilt


α11 . . . αn1

..  .
tB,B0 =  ...
. 
α1n . . . αnn
Damit können wir nun Problem 2 und 3 lösen. Dies soll mit dem nachfolgenden
Satz 4.48 geschehen.
Satz 4.48. Sei R ein Ring und seien V, W freie R-Moduln. B, B0 , B00 seien
geordnete Basen von V und C, C0 geordnete Basen von W .
(1) Es gilt
tB,B00 = tB0 ,B00 · tB,B0 .
Insbesondere ist tB,B0 invertierbar mit
t−1
B,B0 = tB0 ,B .
(2) Für alle v ∈ V gilt
T
T
vB
0 = tB,B0 vB .
4.4. MATRIZENDARSTELLUNGEN
109
(3) Ist f : V → W R-Homomorphismus, so gilt
−1
fB0 ,C0 = tC,C0 · fB,C · tB,B
0
= tC,C0 · fB,C · tB0 ,B .
(4) Ist f ein R-Endomorphismus von V , so gilt
fB0 = tB,B0 · fB · t−1
B,B0 = tB,B0 · fB · tB0 ,B .
Beweis. (1) Nach Lemma 4.37(2), (3) gilt mit n := rang V
tB0 ,B00 ·tB,B0 = (idV )B0 ,B00 ·(idV )B,B0 = (idV ◦idV )B,B00 = (idV )B,B00 = tB,B00 .
Setzt man hier B00 := B, so folgt
tB0 ,B · tB,B0 = tB,B = (idV )B = En .
Vertauscht man nun B mit B0 , so folgt schließlich
tB,B0 · tB0 ,B = En .
(2) Nach Satz 4.34 gilt
T
T
T
tB,B0 vB
= (idV )B,B0 vB
= (idV (v))TB0 = vB
0.
(3) Nach (1) und nach Lemma 4.37(2) gilt
tC,C0 · fB,C · t−1
B,B0 = tC,C0 · fB,C · tB0 ,B
= (idW )C,C0 · fB,C · (idV )B0 ,B = (idW ◦ f ◦ idV )B0 ,C0
= fB0 ,C0 .
(4) folgt unmittelbar aus (3),
Bemerkungen 4.49.
1. Sei R ein Ring und seien m, n ∈ N+ . Nach Satz
4.48(3) und (4) haben wir mit den dortigen Bezeichnungen:
Die Koordinatenmatrizen fB,C und fB0 ,C0 von f bzgl. geordneter Basen
B, B0 von V und C, C0 von W sind äquivalent. Ist f Endomorphismus von
V , so sind die Koordinatenmatrizen fB und fB0 von f bzgl. B und B0
ähnlich, s. hierzu Definition 2.35.
2. Seien K ein Körper, n ∈ N+ und b1 , . . . , bn , b01 , . . . , b0n ∈ K n . Wir
setzen
0
0
0
T
T
B := (b1 , . . . , bn ), B := (b1 , . . . , bn ) sowie A := b1 , . . . , bn ∈ K n,n ,
A0 := b01 T , . . . , b0n T ∈ K n,n .
110
KAPITEL 4. LINEARE ABBILDUNGEN
Sind B := {b1 , . . . , bn } und B 0 := {b01 , . . . , b0n } Basen von K n , so überführt
der modifizierte Gaußsche Algorithmus (A0 | A) in (En | tB,B0 ), wie man
sofort mit Bemerkung 4.47 erkennt, so dass die Transformationsmatrix tB,B0
auf diese Weise berechnet werden kann.
Etwas allgemeiner reicht es hierzu zu wissen, daß B Basis von K n ist. Überführt dann der modifizierte Gaußsche Algorithmus die Matrix (A0 | A) in
eine Matrix der Gestalt (En | A00 ), so ist auch B 0 Basis von K n und es gilt
tB,B0 = A00 .
Beispiele 4.50. Für n ∈ N+ sei En die geordnete kanonische Basis des Rn , d. h.
En = (en1 , . . . , enn ).
1. Sei E := E3 und B := (b1 , b2 , b3 ) mit b1 := (−1, 2, 0), b2 := (0, −1, −1) und
b3 := (1, 0, 3).
Man zeige, daß {b1 , b2 , b3 } Basis des R3 ist und bestimme die Transformationsmatrix tE,B von E nach B. Ferner ermittle man den Koordinatenvektor
von (−1, 1, −1) bzgl. B.


−1 0 1
Lösung: Sei A :=  2 −1 0. Nach Bemerkung 4.49.2 reicht es, den
0 −1 3
modifizierten Gaußschen Algorithmus auf (A | E3 ) anzuwenden. Da dieser




−1 0 1 1 0 0
1 0 −1 −1 0 0
(A | E3 ) =  2 −1 0 0 1 0  ;  0 −1 2 2 1 0 
0 −1 3 0 0 1
0 −1 3 0 0 1




1 0 −1 −1 0 0
1 0 0 −3 −1 1
;  0 1 −2 −2 −1 0  ;  0 1 0 −6 −3 2 
0 0 1 −2 −1 1
0 0 1 −2 −1 1
liefert, ist {b1 , b2 , b3 } in der Tat Basis von R3 und es gilt


−3 −1 1
tE,B = −6 −3 2 .
−2 −1 1
   
−1
1



Da somit tE,B 1
= 1, gilt schließlich (−1, 1, −1)B = (1, 1, 0).
−1
0
2. Vorgelegt seien die Vektoren b01 := (−2, −1, 1, 0), b02 := (−1, 1, 3, 1), b03 :=
(0, −2, −3, −1) und b04 := (3, 0, −1, 1) des R4 .
(a) Man zeige, daß {b01 , b02 , b03 , b04 } Basis des R4 ist.
(b) Sei f : R4 → R3 die durch f (b01 ) := (1, −1, 0), f (b02 ) := (−1, 2, 1),
f (b03 ) := (0, −1, 1) und f (b04 ) := (1, 1, 1) eindeutig festgelegte R-lineare
4.4. MATRIZENDARSTELLUNGEN
111
Abbildung (s. Satz 4.23). Man bestimme rangf und gebe die Koordinatenmatrizen fB0 ,E3 von f bzgl. B0 := (b01 , b2 ,0 b03 , b04 ) und E3 sowie fE4 ,E3
von f bzgl. E4 und E3 an.

−2 −1
−1 1
Lösung: (a) Sei A := 
1
3
0
1
Basis von R4 ist . Wir wenden
auf (A | E4 ) an und erhalten

0
3
−2 0 
 = tB0 ,E4 , wenn {b01 , b02 , b03 , b04 }
−3 −1
−1 1
den modifizierten Gaußschen Algorithmus

−2 −1 0
3 1 0 0 0
 −1 1 −2 0 0 1 0 0 

(A | E4 ) = 
 1
3 −3 −1 0 0 1 0 
0
1 −1 1 0 0 0 1


1 3 −3 −1 0 0 1 0
 0 5 −6 1 1 0 2 0 

; 
 0 4 −5 −1 0 1 1 0 
0 1 −1 1 0 0 0 1


1 3 −3 −1 0 0 1
0
 0 1 −1 1 0 0 0
1 

; 
0 0 1
4 −1 0 −2 5 
0 0 −1 −5 0 1 1 −4


1 3 −3 −1 0
0
1
0
 0 1 −1 1 0
0
0
1 

; 
0 0 1
4 −1 0 −2 5 
0 0 0
1 1 −1 1 −1


1 0 0 0 4 −4 5 −7
 0 1 0 0 −6 5 −7 11 

; 
 0 0 1 0 −5 4 −6 9  .
0 0 0 1 1 −1 1 −1

Nach Bemerkung
4.49.2

4 −4 5
−6 5 −7
tE4 ,B0 = 
−5 4 −6
1 −1 1
ist 
damit {b01 , b02 , b03 , b04 } Basis von R4 und es gilt
−7
11 
 = A−1 .
9
−1

(b) Laut Definition gilt B 0 := fB0 ,E3

1 −1 0 1
= −1 2 −1 1. Aus Satz
0
1
1 1
112
KAPITEL 4. LINEARE ABBILDUNGEN
4.48(3) folgt dann

B := fE4 ,E3 = tE3 ,E3 · fB0 ,E3 · tE4 ,B0 = B 0 · A−1
Nach Lemma 4.43(3) gilt rang f = rang
Gaußschen Algorithmus auf B 0 liefert



1 −1 0 1
1
0



−1 2 −1 1 ; 0
B =
0
1
1 1
0


1 −1 0
1

0 1 −1 2  ,
;
0 0
2 −1

11 8 13
27
19  .
= −10 9 14
−10 8 −12 −19
B 0 = rang B. Anwendung des

−1 0 1
1 −1 2
1
1 1
d. h. wir haben rang f = 3. (Damit gilt übrigens Bild f = R3 , d. h. f ist
Epimorphismus.)
4.5
Multilineare Abbildungen
Sei X eine Menge. Die Menge S(X) der bijektiven Abbildungen X → X bildet
mit der Hintereinanderschaltung als Verknüpfung eine Gruppe, die symmetrische
Gruppe von X, s. Beispiel 2.1.3 und 2.9.3. Ihre Elemente nennt man auch Permutationen (der Elemente) von X.
Für n ∈ N setzen wir Sn := S({1, . . . , n}) und nennen diese Gruppe n-te symmetrische Gruppe. Sie besitzt genau n! Elemente, s. Übungsaufgabe 14(b).
Definition 4.51. Sei n ∈ N+ und σ ∈ Sn .
Ein geordnetes Paar (i, j) ∈ N × N mit 1 ≤ i < j ≤ n heißt Fehlstellung von σ,
wenn σ(j) < σ(i).
Mit z(σ) bezeichnen wir die Anzahl der Fehlstellungen von σ und setzen
sign σ := (−1)z(σ) ∈ {−1, 1} (Signum von σ).
σ heißt gerade Permutation, wenn sign σ = 1, ansonsten heißt σ ungerade Permutation.
Bemerkung 4.52. Offenbar gilt für σ ∈ Sn :
sign σ =
σ(j) − σ(i)
.
j−i
1≤i<j≤n
Y
4.5. MULTILINEARE ABBILDUNGEN
113
Lemma 4.53. Für alle σ, τ ∈ Sn gilt
sign (στ ) = sign σ · sign τ,
d. h. die durch σ 7→ sign σ für alle σ ∈ Sn gegebene Abbildung
sign : Sn → ({−1, 1}, ·)
ist ein Homomorphismus (für n ≥ 2 sogar ein Epimorphismus).
Beweis.
sign (στ ) =
(στ )(j) − (στ )(i)
j−i
1≤i<j≤n
Y
=
Y τ (j) − τ (i)
σ(τ (j)) − σ(τ (i))
·
τ (j) − τ (i)
j−i
1≤i<j≤n
1≤i<j≤n
=
Y τ (j) − τ (i)
σ(v) − σ(u)
·
v−u
j−i
1≤i<j≤n
1≤u<v≤n
Y
Y
= sign σ · sign τ,
Folgerung 4.54. Die Menge An := {σ | σ ∈ Sn , sign σ = 1} ⊆ Sn der geraden Permutationen von {1, . . . , n} ist ein Normalteiler der Sn . Sie heißt n-te
alternierende Gruppe.
Beweis. Dies ergibt sich aus Übungsaufgabe 5(c), da An = Kern sign ,
Sei nun R ein kommutativer Ring.
Definition 4.55. (a) Seien M1 , . . . , Mp , N R-Moduln, wobei p ∈ N. Eine Abbildung
f : M1 × . . . × Mp → N
heißt p-fach R-linear (kurz: R-p-linear) oder allgemeiner R-multilinear, wenn
f komponentenweise R-linear (also ein R-Homomorphismus) ist, d. h. wenn
für alle i = 1, . . . , p gilt:
114
KAPITEL 4. LINEARE ABBILDUNGEN
Seien m1 ∈ M1 , . . . , mi−1 ∈ Mi−1 , mi+1 ∈ Mi+1 , . . . , mp ∈ Mp . Dann gilt für
alle m, m0 ∈ Mi und alle r ∈ R
f (m1 , . . . , mi−1 , m + m0 , mi+1 , . . . , mp ) =
= f (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ) +
+f (m1 , . . . , mi−1 , m0 , mi+1 , . . . , mp ) und
f (m1 , . . . , mi−1 , rm, mi+1 , . . . , mp ) =
= rf (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ).
f heißt R-p-Linearform, wenn N = R.
Die Menge der R-p-linearen Abbildungen f : M1 × . . . × Mp → N wird mit
MultR (M1 , . . . , Mp ; N ) bezeichnet. Falls M1 = . . . = Mp =: M , so setzt man
MultR (M1 , . . . , Mp ; N ) =: MultpR (M ; N ).
Für p = 2 nennt man die Elemente von MultR (M1 , M2 ; N ) R-bilineare Abbildungen bzw., wenn N = R, R-Bilinearformen.
(b) Seien M, N R-Moduln und sei p ∈ N+ . f ∈ MultpR (M ; N ) heißt
• symmetrisch, wenn f (mπ(1) , . . . , mπ(p) ) = f (m1 , . . . , mp ) für alle m1 , . . .
. . . , mp ∈ M und alle π ∈ Sp
• alternierend, wenn f (m1 , . . . , mp ) = 0N für alle m1 , . . . , mp ∈ M , für
die es i, j ∈ N mit 1 ≤ i < j ≤ p und mi = mj gibt.
Die Menge der symmetrischen bzw. alternierenden R-p-linearen Abbildungen
von M p nach N wird mit SympR (M ; N ) bzw. AltpR (M ; N ) bezeichnet.
Bemerkungen, Beispiele 4.56. Unter Verwendung der Bezeichnungen aus Definition 4.55 haben wir:
1. Analog wie bei Homomorphismen ist klar, daß MultR (M1 , . . . , Mr ; N ) mit
der punktweisen Addition und der üblichen Operation von R auf Abb (M1 ×
. . . × Mp , N ) ein R-Untermodul von Abb (M1 × . . . × Mp , N ) ist, also insbesondere selbst R-Modul ist.
2. SympR (M ; N ) und AltpR (M ; N ) sind R-Untermoduln von MultpR (M ; N ).
3. M1 × . . . × Mp ist mit komponentenweiser Addition und mit komponentenweiser Multiplikation mit Elementen aus R ein R-Modul, den man mit
M1 ⊕ . . . ⊕ Mp bezeichnet, s. Übungsaufgabe 2. Jedoch sind für p ≥ 2 Rp-lineare Abbildungen M1 ⊕ . . . ⊕ Mp → N i. a. nicht R-linear, also keine
R-Homomorphismen.
4. Für p = 0 gilt M1 × . . . × Mp = 0, so daß MultR (M1 , . . . , Mp ; N ) = 0 und
somit Sym0R (M ; N ) = Alt0R (M ; N ) = Mult0R (M ; N ) = HomR (0, N ) = 0.
Für p = 1 gilt Sym1R (M ; N ) = Alt1R (M ; N ) = Mult1R (M ; N ) = HomR (M, N ).
4.5. MULTILINEARE ABBILDUNGEN
115
5. Sei f ∈ MultR (M1 , . . . , Mp ; N ). Sind m1 ∈ M1 , . . . , mp ∈ Mp und gilt
mi = 0Mi für ein i ∈ N, 1 ≤ i ≤ p, so folgt f (m1 , . . . , mp ) = 0N .
6. Sei f ∈ AltpR (M ; N ). Sind m1 , . . . , mp ∈ M sowie i, j ∈ N mit 1 ≤ i < j ≤ p,
so folgt
f (m1 . . . , mi−1 , mj , mi+1 , . . . , mj−1 , mi , mj+1 , . . . , mp ) =
= −f (m1 . . . , mi−1 , mi , mi+1 , . . . , mj−1 , mj , mj+1 , . . . , mp ),
d. h. eine Vertauschung zweier Argumente an verschiedenen Stellen bewirkt
einen Vorzeichenwechsel des Wertes.
Dies ergibt sich sofort aus der Definition, da
f (. . . , mj , . . . , mi , . . .) + f (. . . , mi , . . . , mj , . . .) =
= f (. . . , mi , . . . , mi , . . .) +f (. . . , mj , . . . , mi , . . .)
{z
}
|
=0
+f (. . . , mi , . . . , mj , . . .) + f (. . . , mj , . . . , mj , . . .)
|
{z
}
=0
= f (. . . , mi + mj , . . . , mi , . . .) + f (. . . , mi + mj , . . . , mj , . . .)
= f (. . . , mi + mj , . . . , mi + mj , . . .)
= 0N .
7. Allgemeiner haben wir: Sei f ∈ AltpR (M ; N ). Dann gilt für π ∈ Sp und
m1 , . . . , mp ∈ M :
f (mπ(1) , . . . , mπ(p) ) = (sign π)f (m1 , . . . , mp ).
8. (a) Sei M = N . Die durch (m1 , . . . , mp ) 7→ m1 +. . .+mp (m1 , . . . , mp ∈ M )
gegebene Abbildung M p → M ist R-linear (d. h. ein R-Homomorphismus), aber für p ≥ 2 und M 6= 0 nicht R-p-linear.
(b) Sei M = N = R und p ≥ 2. Die durch (r1 , . . . , rp ) 7→ r1 · . . . · rp
(r1 , . . . , rp ∈ R) gegebene Abbildung Rp → R ist R-p-linear, aber
nicht R-linear. Sie ist symmetrisch, jedoch nicht alternierend.
9. Sei M = Rn mit n ∈ N, N = R und p = 2. Die durch
(r1 , . . . , rn ), (s1 , . . . , sn ) 7→ r1 s1 + . . . + rn sn
gegebene Abbildung Rn × Rn → R ist eine symmetrische R-Bilinearform.
Lemma 4.57. Seien M1 , . . . , Mp freie R-Moduln mit Basen B1 , . . . , Bp und sei
N ein beliebiger R-Modul. Dann ist jedes f ∈ MultR (M1 , . . . , Mp ; N ) umkehrbar
eindeutig festgelegt durch die Werte, die f auf B1 × . . . × Bp annimmt.
116
KAPITEL 4. LINEARE ABBILDUNGEN
Genauer gilt für m1 ∈ M1 , . . . , mp ∈ Mp
X
f (m1 , . . . , mp ) =
κB1 ,m1 (b1 ) · . . . · κBp ,mp (bp ) · f (b1 , . . . , bp ).
(b1 ,...,bp )∈B1 ×...×Bp
Damit folgt insbesondere MultR (M1 , . . . , Mp ; N ) ∼
= N B1 ×...×Bp .
Beweis. Zunächst ergibt sich obige Gleichung für f ∈ MultR (M1 , . . . , Mp ; N )
unmittelbar aus der Definition R-multilinearer Abbildungen.
Ist umgekehrt eine Abbildung B1 × . . . × Bp → N gegeben, so liefert obige Formel eine Abbildung M1 × . . . × Mp → N , deren R-Multilinearität sich aus der
R-Linearität der auftretenden Koordinatenabbildungen κB1 ,m1 = κB1 (m1 ), . . .
. . . , κBp ,mp = κBp (mp ) (in Bezug auf m1 , . . . , mp ) zusammen mit Bemerkung
4.56.8(b) ergibt. Die Eindeutigkeit ist dann klar,
Folgerung 4.58. Seien M, N R-Moduln, wobei M frei sei. B sei Basis von M .
Wir rüsten B mit einer vollständigen Ordnung ≤ aus und setzen für p ∈ N+
Up := {(b1 , . . . , bp ) ∈ B p | b1 ≤ . . . ≤ bp } sowie
Up+ := {(b1 , . . . , bp ) ∈ B p | b1 < . . . < bp }.
Für (b1 , . . . , bp ) ∈ Up sei X(b1 , . . . , bp ) die Menge aller (c1 , . . . , cp ) ∈ B p , so daß
{c1 , . . . , cp } = {b1 , . . . , bp } und die Häufigkeit, mit welcher jedes Element von
{c1 , . . . , cp } in (c1 , . . . , cp ) und in (b1 , . . . , bp ) auftritt, übereinstimmt. Dann gilt:
(1) Jedes f ∈ SympR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte,
die f auf Up annimmt. Genauer gilt
f (m1 , . . . , mp ) =

X

=
(b1 ,...,bp )∈Up

X
κB,m1 (c1 ) · . . . · κB,mp (cp ) f (b1 , . . . , bp ).
(c1 ,...,cp )∈X(b1 ,...,bp )
Damit folgt insbesondere SympR (M ; N ) ∼
= N Up .
(2) Jedes f ∈ AltpR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte,
die f auf Up+ annimmt. Genauer gilt
f (m1 , . . . , mp ) =


X
X

=
(sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ) f (b1 , . . . , bp ).
(b1 ,...,bp )∈Up+
π∈Sp
+
Damit folgt insbesondere AltpR (M ; N ) ∼
= N Up .
4.5. MULTILINEARE ABBILDUNGEN
117
Beweis. Ist f ∈ SympR (M ; N ) bzw. f ∈ AltpR (M ; N ) gegeben, so ergeben sich
die Gleichungen in (1) bzw. (2) aus Lemma 4.57 zusammen mit den jeweiligen
Definitionen.
Ist umgekehrt eine Abbildung Up → N bzw. Up+ → N gegeben, so liefern die
Formeln in (1) bzw. (2) nach Lemma 4.57, Bemerkung 4.56.8 und den Definitionen
jeweils eindeutig bestimmte R-multilineare Abbildungen M1 × . . . × Mp → N .
(1) ist dann klar, weil für alle (b1 , . . . , bp ) ∈ Up und alle σ ∈ Sp gilt
X
κB,mσ(1) (c1 ) · . . . · κB,mσ(p) (cp ) =
(c1 ,...,cp )∈X(b1 ,...,bp )
X
=
κB,m1 (cσ−1 (1) ) · . . . · κB,mp (cσ−1 (p) )
(c1 ,...,cp )∈X(b1 ,...,bp )
X
=
κB,m1 (c1 ) · . . . · κB,mp (cp ).
(c1 ,...,cp )∈X(b1 ,...,bp )
(2) Für alle (b1 , . . . , bp ) ∈ Up+ und alle σ ∈ Sp gilt mit Lemma 4.53
X
(sign π) κB,mσ(1) (bπ(1) ) · . . . · κB,mσ(p) (bπ(p) ) =
π∈Sp
=
X
sign (πσ −1 )sign σ κB,m1 (b(πσ−1 )(1) ) · . . . · κB,mp (b(πσ−1 )(p) )
π∈Sp
= (sign σ)
X
(sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ),
π∈Sp
Folgerung 4.59. Seien M1 , . . . , Mp , M, N freie R-Moduln, wobei M1 , . . . , Mp , M
endlich erzeugt seien. Dann gilt:
(1) MultR (M1 , . . . , Mp ; N ) ist freier R-Modul mit
rangR MultR (M1 , . . . , Mp ; N ) = rangR M1 · . . . · rangR Mp · rangR N.
(2) SympR (M ; N ) und AltpR (M ; N ) sind für alle p ∈ N freie R-Moduln mit
rangR M + p − 1
p
rangR SymR (M ; N ) =
· rangR N und
p
rangR M
p
· rangR N.
rangR AltR (M ; N ) =
p
Beweis. Dies ergibt sich aus Folgerung 4.58 zusammen mit Übungsaufgabe 21,
118
KAPITEL 4. LINEARE ABBILDUNGEN
Satz 4.60. Sei R ein Ring und seien M, N R-Moduln. Wenn M endlich erzeugt
ist, so gilt AltpR (M ; N ) = 0 für alle p > µR (M ).
Beweis. Wir setzen µ := µR (M ). Sei {e1 , . . . , eµ } ein Erzeugendensystem von M .
+
Sei weiter
i = 1, . . . , p schreiben wir
Pµ p ∈ N und seien m1 , . . . , mp ∈ M . Für
mi = j=1 rij ej mit ri1 , . . . , riµ ∈ R. Sei f ∈ MultpR (M ; N ). Dann gilt wegen der
p-Linearität von f
f (m1 , . . . , mp ) =
µ
X
r1j1 · . . . · rpjp f (ej1 , . . . , ejp ).
(∗p )
j1 ,...,jp =1
Wenn f ∈ AltpR (M ; N ) und p > µ, so gibt es für alle j1 , . . . , jp ∈ {1, . . . , µ}
u, v ∈ N mit 1 ≤ u < v ≤ p und ju = jv . Damit gilt f (ej1 , . . . , ejp ) = 0 und mit
(∗p ) erhalten wir f (m1 , . . . , mp ) = 0,
Kapitel 5
Endomorphismen endlich erzeugter
Vektorräume
Ziel der nachfolgenden Untersuchungen ist es, zu einem gegebenen endlich erzeugten K-Vektorraum (K ein Körper) und einem K-Endomorphismus f von V
eine Basis von V so zu finden, daß die Koordinatenmatrix von f bzgl. dieser Basis
(s. Definition 4.35) eine ”möglichst einfache” Gestalt hat. Wir bemerken, daß die
so entstehenden Matrizen quadratisch sind und es wird sich herausstellen, daß
man eine Basis von V so wählen kann, daß unter bestimmten Voraussetzungen,
die an den Körper zu stellen sind, die Koordinatenmatrix bei geeigneter Basiswahl Dreiecksgestalt, mitunter sogar Diagonalgestalt hat. Schließlich werden wir
verschiedene Anwendungen studieren.
Die weitergehende Aufgabe, auf diese Weise eine Klassifikation der Endomorphismen eines endlich erzeugten K-Vektorraums zu erreichen, kann mit den derzeit
zur Verfügung stehenden Mitteln nur teilweise gelöst werden.
Wir beginnen wieder mit etwas ”Algebra”. Alle betrachteten Ringe besitzen ein
vom Nullelement verschiedenes Einselement.
5.1
Nullstellen von Polynomen
Sei R ein Ring, X eine Unbestimmte und f ∈ R[X], s. Anhang B. Wenn f 6= 0,
so schreiben wir f = rn X n + rn−1 X n−1 + . . . + r0 mit r0 , . . . , rn ∈ R und rn 6= 0R .
Dann gilt n = grad f und rn = lk f (Leitkoeffizient von f , s. Definition B.5(b)).
Wenn f = 0, so setzen wir lk f = 0R .
Satz und Definition 5.1 (Division mit Rest). Sei R ein Ring und X eine
Unbestimmte. Weiter sei f ∈ R[X] ein vom Nullploynom verschiedenes Polynom
119
120
KAPITEL 5. ENDOMORPHISMEN
mit lk f ∈ R∗ . Dann gilt:
Für jedes g ∈ R[X] gibt es eindeutig bestimmte q, r ∈ R[X] mit
g = qf + r
und grad r < grad f.
r heißt Rest der Division von g durch f und q heißt partieller Quotient dieser
Division.
Beweis.
1. Existenz von q und r:
Wir definieren δ(f, g) := grad g − grad f ∈ Z ∪ {−∞}. Wenn δ(f, g) < 0,
also grad g < grad f , so setzen wir q := 0 und r := g.
Wir benutzen nun Induktion nach ∆(f, g) := max{0, 1 + δ(f, g)}. Wenn
∆(f, g) = 0, so folgt gradg < gradf und wir sind fertig. Sei also ∆(f, g) > 0,
d. h. δ(f, g) ≥ 0. Insbesondere gilt daher g 6= 0 und wir können setzen
g 0 := g − (lk g)(lk f )−1 f X δ(f,g) .
= grad g (s. Lemma B.8(2)) und
Da einerseits grad (lk g)(lk f )−1 f X δ(f,g)
andererseits lk (lk g)(lk f )−1 f X δ(f,g) = lk g, gilt grad g 0 < grad g (s. Lemma B.8(1)) und somit ∆(f, g 0 ) < ∆(f, g). Nach Induktionsvoraussetzung
gibt es daher q 0 , r ∈ R[X] mit grad r < grad f und g 0 = q 0 f + r. Mit
q := q 0 + (lk g)(lk f )−1 X δ(f,g) folgt dann aber g = qf + r.
2. Eindeutigkeit von q und r:
Angenommen, es gibt q̃, r̃ ∈ R[X] mit g = q̃f + r̃ und grad r̃ < grad f .
Dann folgt (q − q̃)f − (r̃ − r) = g − g = 0R[X] , also gilt (q − q̃)f = r̃ − r.
Lemma B.8(2) und (1) liefert dann
grad (q − q̃) + grad f = grad (q − q̃)f = grad (r̃ − r)
≤ max{grad r̃, grad r}
< grad f.
Daher folgt grad (q − q̃) < 0, d. h. q − q̃ = 0. Wir haben also q̃ = q und
somit r̃ = r,
Sei R ein kommutativer Ring und sei S eine R-Algebra. s ∈ S heißt Nullstelle
von f ∈ R[X], wenn f (s) = 0S , d. h. wenn f ∈ Kern s , s : R[X] → S Einsetzungshomomorphismus mit s, s. Übungsaufgabe 26.
Damit haben wir:
Folgerung 5.2. Sei R ein kommutativer Ring und f ∈ R[X], X Unbestimmte,
ein vom Nullpolynom verschiedenes Polynom.
5.1. NULLSTELLEN
121
(1) Wenn x ∈ R Nullstelle von f ist, so gibt es ein h ∈ R[X] mit grad h =
grad f − 1 und f = (X − x)h.
(2) Für jedes x ∈ R gibt eindeutig bestimmte i ∈ N und g ∈ R[X] mit
f = (X − x)i g
und g(x) 6= 0R .
Beweis. (1) Wir dividieren f mit Rest durch X − x ∈ R[X] und erhalten
f = (X − x)h + r
mit h, r ∈ R[X], grad r < grad (X − x) = 1.
Da 0R = f (x) = (x − x)h(x) + r(x) = r(x) = r (man beachte, daß r wegen
grad r ≤ 0 konstantes Polynom ist), folgt f = (X − x)h. Nach Lemma B.8(2)
gilt grad f = 1 + grad h.
(2) Die Existenz von i und g ergibt sich mittels Induktion nach grad f aus (1),
wobei i = 0 und g = f , falls f (x) 6= 0R .
Angenommen f = (X − x)i g = (X − x)j g̃ mit i, j ∈ N und g, g̃ ∈ R[X]. O.
B. d. A. gelte i ≤ j. Dann folgt (X − x)i (g − (X − x)j−i g̃) = f − f = 0. Nach
Lemma B.8(3) folgt hieraus g − (X − x)j−i g̃ = 0. Wäre j > i, so hätten wir
g(x) = 0R , Widerspruch. Somit gilt j = i und damit g̃ = g,
Dies gibt Anlaß zu folgender Definition:
Definition 5.3. Sei R ein kommutativer Ring, X eine Unbestimmte und f ∈
R[X], f 6= 0. Für x ∈ R heißt die Zahl i ∈ N mit f = (X − x)i g, wobei g ∈ R[X],
g(x) 6= 0R , (s. Folgerung 5.2(2)) x-Ordnung von f, kurz ordx f .
Ist x Nullstelle von f , so wird ordx f auch als Vielfachheit oder Multiplizität von
x (in Bezug auf f ) bezeichnet.
Bemerkungen 5.4. Mit den Bezeichnungen von Definition 5.3 haben wir
1. Es gilt 0 ≤ ordx f ≤ grad f .
2. x ist Nullstelle von f genau dann, wenn ordx f > 0.
3. Ist R Integritätsring, so besitzt jedes vom Nullpolynom verschiedene Polynom f ∈ R[X] höchstens grad f paarweise verschiedene Nullstellen in R,
vgl. hierzu Übungsaufgabe 30. f besitzt demzufolge auch in jedem Erweiterungsring S von R höchstens grad f paarweise verschiedene Nullstellen,
vorausgesetzt, S ist ebenfalls Integritätsring.
Ist S kein Integritätsring, so ist dies i. a. falsch, wie das folgende Beispiel
zeigt.
122
KAPITEL 5. ENDOMORPHISMEN
Beispiel 5.5. Sei R := Z, S := Z[T ]/2T Z[T ], T Unbestimmte, und t := T +
2T Z[T ] ∈ S. Wie man sofort bestätigt, ist durch n 7→ n + 2T Z[T ], n ∈ Z,
ein injektiver Ringhomomorphismus Z → S gegeben. Indem wir n ∈ Z mit
n + 2T Z[T ] ∈ S identifizieren, können wir daher Z als Unterring von S auffassen,
d. h. S ist Erweiterungsring von Z. Sei X Unbestimmte. Das Polynom 2X ∈
Z[X] ⊆ S[X] hat in Z (nur) die Nullstelle 0. Jedoch ist die Menge der Nullstellen
von 2X in S gleich {st | s ∈ S}, d. h. 2X hat in S sogar unendlich viele Nullstellen.
Ohne Beweis geben wir nun
Theorem 5.6 (Fundamentalsatz der Algebra, Gauß 1799). Jedes nichtkonstante
Polynom aus C[X] besitzt eine Nullstelle in C.
Definition 5.7. Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nichtkonstante Polynom aus K[X] in K eine Nullstelle besitzt.
Bemerkung 5.8. Man kann zeigen (s. Kurs ”Algebra I”), daß jeder Körper Teilkörper eines algebraisch abgeschlossen Körpers ist.
Folgerung 5.9. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X],
f 6= 0. Wenn grad f =: n, so gibt es x1 , . . . , xn ∈ K mit
f = c(X − x1 ) · . . . · (X − xn ),
wobei c := lk f,
d. h. jedes nichtkonstante Polynom aus K[X] zerfällt in K[X] vollständig in
Linearfaktoren.
Man kann zeigen, daß diese Zerlegung eindeutig ist, s. auch Folgerung 5.10 unten. Die generelle Frage ist, inwieweit Zerlegungen eines Polynoms in unzerlegbare
Faktoren - auch allgemeinerer Art - eindeutig sind, wobei wir natürlich zu präzisieren hätten, was wir unter ”eindeutig” verstehen wollen. (Z. B. würde man die
Zerlegungen 1X = (−1)(−X) sicherlich nicht als ”verschieden” ansehen wollen.)
Genaueres hierzu kann man im Kurs ”Algebra I” unter den Stichworten ”Teilbarkeitslehre” und ”faktorielle Ringe” hören.
Die Aussage von Folgerung 5.9 kann mit den Bezeichnungen aus Definition 5.3
auch so formuliert werden:
Folgerung 5.10. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X]
ein vom Nullpolynom verschiedenes Polynom. Dann gilt
f = lk f ·
Y
x∈K
(X − x)ordx f .
5.2. DETERMINANTEN
5.2
123
Determinanten
Alle betrachteten Ringe sind kommutativ und besitzen ein vom Nullelement verschiedenes Einselement. Wir erinnern an folgende Bezeichnung: Sei R ein Ring
und sei n ∈ N+ . Für r1 , . . . , rn ∈ R sei diag(r1 , . . . , rn ) diejenige Diagonalmatrix
aus Rn,n , deren Diagonalelemente r1 , . . . , rn sind (in dieser Reihenfolge).
Definition
5.11(Determinanten). Sei R ein Ring und sei n ∈ N+ . Für A :=

r11 . . . r1n
 ..
..  ∈ Rn,n heißt
 .
. 
rn1 . . . rnn
X
(sign π)r1π(1) · . . . · rnπ(n) ∈ R
π∈Sn
Determinante von A, kurz det A oder manchmal auch |A|.
Bemerkung 5.12. Nach Folgerung 4.59(2) ist AltnR (Rn ; R) freier R-Modul mit
rangR AltnR (Rn ; R) = 1. Damit gilt AltnR (Rn ; R) ∼
= R. Wiederum nach Folgerung
n
n
4.58(2) gibt es genau ein ∆ ∈ AltR (R ; R) mit
∆(en,1 , . . . , en,n ) = 1
und nach Übungsaufgabe 29 ist dieses Element Basiselement von AltnR (Rn ; R).
Sei A ∈ Rn,n . Sind a1 , . . . , an die Zeilen von A (in dieser Reihenfolge von oben
nach unten numeriert), so liefert Folgerung 4.58(2)
∆(a1 , . . . , an ) = det A.
Determinanten von Matrizen aus Rn,n sind somit (spezielle) alternierende R-nlineare Abbildungen (Rn )n → R, wenn man - wie soeben beschrieben - Rn,n mit
(Rn )n identifiziert.
Lemma 5.13 (Rechenregeln für Determinanten). Sei R ein Ring und sei n ∈ N+ .
Ferner sei A ∈ Rn,n .
(1) det A = det AT .
(2) Besteht für i ∈ N, 1 ≤ i ≤ n, die i-te Zeile (Spalte) von A nur aus Nullen,
so gilt det A = 0.
(3) Stimmen für i, j ∈ N, 1 ≤ i < j ≤ n, die i-te Zeile (Spalte) und die j-te Zeile
(Spalte) von A überein, so gilt det A = 0.
(4) Ist A0 ∈ Rn,n diejenige Matrix, die aus A durch Vertauschen der Zeilen (Spalten) von A gemäß π ∈ Sn entsteht, so gilt det A0 = (sign π) det A.
124
KAPITEL 5. ENDOMORPHISMEN
(5) Ist A Diagonalmatrix, sagen wir A = diag(r1 , . . . , rn ) mit r1 , . . . , rn ∈ R, so
gilt det A = r1 · . . . · rn . Insbesondere haben wir det En = 1R .
(6) Sei i ∈ N mit 1 ≤ i ≤ n und seien A0 , A00 ∈ Rn,n Matrizen, die sich von A
nur in den Einträgen der i-ten Zeile (Spalte) unterscheiden. Dann gilt:
(a) Wenn die i-te Zeile (Spalte) von A Summe der i-ten Zeile (Spalte) von
A0 und der i-ten Zeile (Spalte) von A00 ist, so haben wir
det A = det A0 + det A00 .
(b) Wenn die i-te Zeile (Spalte) von A das r-fache der i-ten Zeile (Spalte)
von A0 ist, wobei r ∈ R, so haben wir
det A = r det A0 .
Insbesondere ergibt sich hieraus
det(rA) = rn det A .
(c) Wenn A aus A0 durch Addition des r-fachen der j-ten Zeile (Spalte)
von A0 zur i-ten Zeile (Spalte) von A0 entsteht, wobei r ∈ R und j ∈
{1, . . . , n} \ {i}, so haben wir
det A = det A0 .
(7) Sei n ≥ 2 und seien i, j ∈ {1, . . . , n} Besteht die i-te Zeile (j-te Spalte) von
A außer an der Stelle (i, j) nur aus Nullen, so gilt
det A = (−1)i+j rij det Ã,
wenn rij der Eintrag von A an der Stelle (i, j) ist und à ∈ Rn−1,n−1 diejenige
Matrix bezeichnet, die aus A durch Streichen der i-ten Zeile und der j-ten
Spalte entsteht.


r11 . . . r1n

.. . Dann haben wir
Beweis. Sei A =:  ...
. 
rn1 . . . rnn
(1) Wegen sign π = sign π −1 (π ∈ Sn ) gilt
X
det A =
(sign π)r1π(1) · . . . · rnπ(n)
π∈Sn
=
X
(sign π −1 )rπ−1 (1)1 · . . . · rπ−1 (n)n
π∈Sn
=
X
(sign σ)rσ(1)1 · . . . · rσ(n)n
σ∈Sn
= det AT ,
5.2. DETERMINANTEN
125
denn durchläuft π die Sn , so durchläuft π −1 ebenfalls die Sn .
Damit können wir uns zum Beweis der folgenden Aussagen auf die die Zeilen
betreffenden Varianten beschränken. Hierzu deuten wir Determinanten gemäß
Bemerkung 5.12 stillschweigend als alternierenden Abbildungen.
(2) ergibt sich aus Bemerkung 4.56.5.
(3) ist unmittelbare Konsequenz aus der Definition alternierender Abbildungen.
(4) ergibt sich aus Bemerkung 4.56.7.
(5) det diag(r1 , . . . , rn ) = ∆(r1 en,1 , . . . , rn en,n ) = r1 · . . . · rn ∆(en,1 , . . . , en,n ) =
r1 · . . . · rn .
(6) (a) und (b) sind wiederum unmittelbare Konsequenz aus der Definition multilinearer Abbildungen und (c) folgt hieraus mit (3).
(7) Nach (4) dürfen wir o. B. d. A. annehmen, daß i = j = n. Dann gilt aber
X
(sign π)r1π(1) · . . . · rnπ(n)
det A =
π∈Sn
X
= rnn
(sign π)r1π(1) · . . . · rn−1π(n−1)
π∈Sn
π(n)=n
X
= rnn
(sign π 0 )r1π0 (1) · . . . · rn−1π0 (n−1)
π 0 ∈Sn−1
= rnn det Ã,
Beispiele 5.14.
1. Sei R ein Ring.
(a) n = 1. Da S1 = {id}, gilt (trivialerweise) für r ∈ R:
det(r) = r
(b) n = 2. Da S2 =
1 2
id,
, gilt für r1,1 , r1,2 , r2,1 , r2,2 ∈ R:
2 1
r1,1 r1,2
det
= r1,1 r2,2 − r1,2 r2,1
r2,1 r2,2
Merkregel:
Produkt der Elemente auf der Hauptdiagonale minus Produkt der Elemente auf der Nebendiagonale
126
KAPITEL 5. ENDOMORPHISMEN
1 2 3
1 2 3
1 2 3
1 2 3
(c) n = 3. Da S3 = id,
,
,
,
,
3 2 1
1 3 2
2 3 1
3 1 2
1 2 3
, gilt für r1,1 , r1,2 , r1,3 , r2,1 , r2,2 , r2,3 , r3,1 , r3,2 , r3,3 ∈ R:
2 1 3


r1,1 r1,2 r1,3
det  r2,1 r2,2 r2,3  = r1,1 r2,2 r3,3 + r1,2 r2,3 r3,1 + r1,3 r2,1 r3,2
r3,1 r3,2 r3,3
−r1,3 r2,2 r3,1 − r1,1 r2,3 r3,2 − r1,2 r2,1 r3,3
Merkregel (Sarrussche Regel):
Durch
Wiederholung der ersten
beiden Spalten entsteht die Matrix


r1,1 r1,2 r1,3 r1,1 r1,2
 r2,1 r2,2 r2,3 r2,1 r2,2 . Hier addiert man die Produkte der Eler3,1 r3,2 r3,3 r3,1 r3,2
mente entlang der drei ”Hauptdiagonalen” und subtrahiert hiervon die
Produkte der Elemente entlang der drei ”Nebendiagonalen” (Sarrussche
Regel).
Achtung: Dies funktioniert nur für n = 3 !


2 −1 3
10
 0 5 −1 −22 

2. Man berechne det 
 6 −2 4 −1 .
0 1 17 90
Hier müßte man 4! = 24 Produkte berechnen. Wegen der auftretenden
Nullen sind davon nur 12 von Null verschieden, jedoch sind unter diesen
betragsmäßig recht große Zahlen. Daher empfiehlt es sich, analog wie beim
Gaußschen Algorithmus vorzugehen: Nach Rechenregel 6 (c) ändert die Determinante ihren Wert nicht, wenn man ein Vielfaches einer Zeile oder Spalte zu einer anderen addiert. Daher kann man versuchen, in einer Zeile oder
Spalte möglichst viele Nullen zu ”erzeugen” und dann Regel (7) anzuwenden. In unserem Fall kann man das (−3)-fache der ersten zur dritten Zeile
addieren. Dann entsteht




2 −1 3
10
2 −1 3
10
 0 5 −1 −22 


 = det  0 5 −1 −22 
det 
 0 1 −5 −31 
 6 −2 4 −1 
0 1 17 90
0 1 17 90


5 −1 −22
= 2 · det  1 −5 −31  .
1 17 90
Auf die hier auftretende Determinante könnte man nun die Sarrussche Regel anwenden. Aber auch dabei entstehen noch betragsmäßig recht große
Zahlen. Stattdessen könnte man das (−5)-fache der zweiten zur ersten Zei-
5.2. DETERMINANTEN
le und dann das
entsteht

5
2 · det  1
1
127
(−1)-fache der dritten zur zweiten Zeile addieren. Dann



−1 −22
0 24
133
−5 −31  = 2 · det  0 −22 −121 
17 90
1 17
90
24
133
= 2 · 1 · det
−22 −121
= 2 · (24 · (−121) − 133 · (−22))
= 44.
24
133
Zur Berechnung von det
kann man aber auch die zweite
−22 −121
zur ersten Zeile addieren (mit dem Ziel, dort betragsmäßig kleine Zahlen zu
”erzeugen”) und dann gemäß Rechenregel 6 (b) aus der ersten Zeile 2 und
aus der zweiten Zeile −11 ausklammern. Dann würde entstehen
24
133
1 6
2 · det
= 2 · 2 · (−11) · det
−22 −121
2 11
= (−44) · (1 · 11 − 6 · 2)
= 44.
Später werden wir sehen, wie diese Vorgehensweise verallgemeinert werden
kann, s. Satz 5.17.
+
T
T
Folgerung 5.15.
 Sei
 R ein Ring und sei n ∈ N . Weiter sei A = (a1 , . . . , an ) ∈
a1
 .. 
n,n
R bzw. A :=  .  ∈ Rn,n mit a1 , . . . , an ∈ Rn .
an
Wenn es r1 , . . . , rn ∈ R gibt, die nicht alle Nullteiler in R sind, so daß r1 a1 +
. . . + rn an = 0, so gilt det A = 0R .
Beweis. O. B. d. A. sei r1 Nichtnullteiler in R (s. Lemma 5.13(4)). Wiederum
nach Lemma 5.13(6b), (6c) und (2) gilt dann
r1 det A = det(r1 aT1 + r2 aT2 + . . . + rn aTn , aT2 , . . . , aTn ) = 0R ,
also det A = 0R ,
Für das nächste Resultat verwenden wir (mit Verweis auf den Kurs ”Algebra I”),
daß es für jeden Integritätsring R einen Körper K mit folgenden Eigeschaften
gibt:
• R ist Unterring von K und
128
KAPITEL 5. ENDOMORPHISMEN
• für jedes α ∈ K gibt es ein r ∈ R \ {0R } mit rα ∈ R.
Folgerung 5.16. Sei R ein Integritätsring und sei A ∈ Rn,n , wobei n ∈ N+ .
(1) Dann gilt det A = 0R genau dann, wenn die Zeilen (Spalten) von A linear
abhängig sind.
(2) Ist R ein Körper, so gilt det A = 0R genau dann, wenn rangR A < n.
Beweis. Es ist klar, daß (2) aus (1) folgt, so daß wir nur (1) zeigen.
Sind die Zeilen (Spalten) von A linear abhängig, so folgt det A = 0R nach Folgerung 5.15. Gelte nun umgekehrt det A = 0R . Wir wählen einen Körper K mit
den oben genannten Eigenschaften und fassen A als Element von K n,n auf. Anwendung des modifizierten Gaußschen Algorithmus auf A und sodann auf das
Transpositum der sich dabei ergebenden Matrix liefert eine Diagonalsmatrix A0 .
Nach Lemma 5.13(4), (6c) gilt det A0 = ± det A = 0K . Da det A0 das Produkt
der Hauptdiagonaleinträge von A0 ist, gilt rangK A = rangK A0 < n und damit
gibt es α1 , . . . , αn ∈ K, nicht alle gleich 0K , so daß α1 a1 + . . . + αn an = 0, wenn
a1 , . . . , an ∈ Rn die Zeilen von A sind. Nun wählen wir ein r ∈ R \ {0R } mit
ri := rαi ∈ R für alle i = 1, . . . , n. Dann folgt r1 a1 + . . . + rn an = 0, d. h. die
Zeilen von A sind linear abhängig (über R). Entsprechendes gilt für die Spalten
von A,
Folgerung 5.17 (Laplacescher Entwicklungssatz). Sei R ein Ring und sei A ∈
(q)
Rn,n , wobei n ∈ N+ , n ≥ 2. Für p, q ∈ {1, . . . , n} sei Ap ∈ Rn−1,n−1 diejenige
Matrix, die aus A durch Streichen von p-ter Zeile und q-ter Spalte entsteht.


r11 . . . r1n

.. . Für i, j ∈ {1, . . . , n} gilt dann:
Wir schreiben A =:  ...
. 
rn1 . . . rnn
(k)
(Entwicklung von A nach i-ter Zeile)
(j)
(Entwicklung von A nach j-ter Spalte)
(1) det A =
Pn
det Ai
(2) det A =
Pn
det Ak
i+k
rik
k=1 (−1)
k+j
rkj
k=1 (−1)
Beweis. Nach Lemma 5.13(1) reicht es, (1) zu zeigen. Für k = 1, . . . , n sei Ak ∈
Rn,n diejenige Matrix, die in allen Zeilen außer der i-ten mit A übereinstimmt
und deren i-te Zeile rik eni ist. Dann gilt nach Lemma 5.13(6a), (7)
det A =
n
X
k=1
det Ak =
n
X
k=1
(k)
(−1)i+k rik det Ai ,
5.2. DETERMINANTEN
129
Satz 5.18 (Multiplikationssatz für Determinanten). Sei R ein Ring und seien
A, B ∈ Rn,n , wobei n ∈ N+ . Dann gilt
det(AB) = det A · det B,
d. h. durch A 7→ det A, A ∈ Rn,n , ist ein surjektiver Monoidhomomorphismus
det : (Rn,n , ·) → (R, ·)
gegeben. Dieser induziert einen Gruppenepimorphismus
det : GlR (n) → R∗ .
Insbesondere gilt damit det A−1 = (det A)−1 für alle A ∈ GlR (n).
Beweis. Sei f : Rn → Rn der durch f (x) := xB für alle x ∈ Rn definierte RHomomorphismus. Nach Übungsaufgabe 31(b) gilt dann ∆ ◦ f n ∈ AltR (Rn ; R),
wenn ∆ ∈ AltR (Rn ; R) wie in Bemerkung 5.12 definiert ist. Wiederum nach
Bemerkung 5.12 gibt es ein ρ ∈ R mit ∆ ◦ f n = ρ · ∆. Seien a1 , . . . , an die
Zeilen von A. Da dann a1 B, . . . , an B die Zeilen von AB sind, gilt det(AB) =
∆(a1 B, . . . , an B) = (∆ ◦ f n )(a1 , . . . , an ) = ρ∆(a1 , . . . , an ) = ρ · det A = det A · ρ.
Setzen wir hier A = En , so folgt det B = det(En B) = ρ · det En = ρ.
Wegen det En = 1R ist det somit ein Monoidhomomorphismus, der nach Lemma
4.3 einen Homomorphismus GlR (n) → R∗ induziert. Die Surjektivität ist jeweils
klar, da für jedes r ∈ R gilt r = det diag(r, 1R , . . . , 1R ). Der Rest ergibt sich aus
Lemma 4.3,
Definition 5.19 (Adjunktenmatrix). Sei R ein Ring und sei A ∈ Rn,n , wobei
n ∈ N, n ≥ 2. Dann heßt
(−1)1+1 det A1

..
:= 
.
(1)
...
(−1)n+1 det An
(1)
...

Aad

(n) T
(−1)1+n det A1

..

.
(n)
n+n
(−1)
det An
zu A adjungierte Matrix oder auch Adjunkte von A. (Der Eintrag von Aad an der
(i)
Stelle (i, j) ist also (−1)i+j det Aj , i, j = 1, . . . , n.)
Satz 5.20. Sei R ein Ring und sei A ∈ Rn,n , wobei n ∈ N, n ≥ 2. Dann gilt:
(1) A · Aad = Aad · A = det A · En .
(2) A ist invertierbar genau dann, wenn det A ∈ R∗ .
(3) Ist A invertierbar, so folgt A−1 = (det A)−1 · Aad .
130
KAPITEL 5. ENDOMORPHISMEN


r11 . . . r1n

..  und b Eintrag von A · Aad an der Stelle
Beweis. (1) Sei A =:  ...
ij
. 
rn1 . . . rnn
(i, j), wobei i, j ∈ {1, . . . , n}. Weiter sei Bij ∈ Rn,n diejenige Matrix, die aus
A entsteht, wenn die j-te Zeile von A durch die i-te Zeile von A ersetzt wird.
Dann gilt mit Folgerung 5.17(1) und Lemma 5.13(3)
(
n
X
0R
i 6= j
(k)
bij =
rik (−1)j+k det Aj = det Bij =
det A i = j
k=1
d. h. A · Aad = det A · En . Hieraus folgt mit Lemma 5.13(1)
T
T
Aad · A = ((AT )T )ad · (AT )T = (AT )ad · (AT )T = AT · (AT )ad
T
= det AT · En = det A · En .
(2) und (3) Sei A invertierbar. Dann gilt det A ∈ R∗ nach Folgerung 5.18.
Sei umgekehrt det A ∈ R∗ . Mit A0 := (det A)−1 ·Aad gilt dann A·A0 = A0 ·A =
En nach (1), d. h. A ist invertierbar und es gilt A−1 = (det A)−1 · Aad ,
5.3
Eigenwerte
Wir wollen uns nun der Untersuchung von Endomorphismen endlich erzeugter
K-Vektorräume (K ein Körper) zuwenden. Wir beginnen mit folgendem
Problem: Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und f ∈
EndK V . Gibt es eine geordnete Basis B0 von V derart, daß die Koordinatenmatrix
A0 von f bzgl. B0 (s. Definition 4.35) möglichst ”einfach” ist, genauer, kann man
B0 so wählen, daß mit n := rangK V gilt
A0 = Diag(λ1 , . . . , λn ) oder wenigstens


λ1
∗


..
A0 = 

.
0
λn
mit geeigneten λ1 , . . . , λn ∈ K ?
Im ersten Fall heißt f diagonalisierbar und im zweiten trigonalisierbar.
Offensichtlich gilt: f ist diagonalisierbar genau dann, wenn es eine geordnete Basis
(b01 , . . . , b0n ) von V und λ1 , . . . , λn ∈ K gibt mit
f (b0i ) = λi b0i , i = 1, . . . , n.
5.3. EIGENWERTE
131
In Matrizenschreibweise heißt dies (s. Satz 4.48): Sei A ∈ K n,n . Gibt es eine
invertierbare Matrix T ∈ GlK (n) mit
T AT −1 = Diag(λ1 , . . . , λn ) oder wenigstens


λ1
∗


..
T AT −1 = 

.
0
λn
mit geeigneten λ1 , . . . , λn ∈ K ?
Entsprechend nennt man A im ersten Fall diagonalisierbar und im zweiten trigonalisierbar.
Hierzu definieren wir:
Definition 5.21. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndR V .
(a) v ∈ V heißt Eigenvektor von f , wenn v 6= 0V und wenn es ein λ ∈ K gibt
mit f (v) = λv. (Dieses λ ist wegen v 6= 0V eindeutig durch v bestimmt.)
(b) λ ∈ K heißt Eigenwert von f , wenn es ein v ∈ V , v 6= 0V , gibt mit f (v) = λv.
Jedes v ∈ V , v =
6 0V , mit f (v) = λv für ein λ ∈ K heißt Eigenvektor von f
zum Eigenwert λ.
(c) Für λ ∈ K setzen wir
VK (λ, f ) := {v | v ∈ V, f (v) = λv} ⊆ V.
Ist λ Eigenwert von f , so heißt VK (λ, f ) Eigenraum von f zum Eigenwert λ
(von f ).
Bemerkungen 5.22. Mit den Bezeichnungen von Definition 5.21 haben wir:
1. Sei λ ∈ K. Dann gilt für v ∈ V :
f (v) = λv ⇐⇒ (f − λ · idV )(v) = 0V ⇐⇒ v ∈ Kern (f − λ · idV )
und damit ist VK (λ, f ) K-Untervektorraum von V . Offenbar ist λ Eigenwert
von f genau dann, wenn VK (λ, f ) 6= 0.
2. Um Definition 5.21 formulieren zu können, reicht es, wenn K ein kommutativer Ring und V ein R-Modul ist. Hierfür bleibt auch die Aussage in 1.
richtig, d. h. VK (λ, f ) ist dann ein K-Untermodul von V . Gleiches gilt auch
für Definition 5.23, Definition 5.27(a) und Lemma 5.25.
Da aber die meisten der nachfolgenden Aussagen nur gelten, wenn K Körper
und V endlich erzeugt ist, beschränken wir uns hier generell auf diesen Fall.
132
KAPITEL 5. ENDOMORPHISMEN
3. Sei n := rangK V < ∞ und sei v ∈ V \ {0V } Eigenvektor von f zum
Eigenwert λ ∈ K. Wir ergänzen {v} zu einer geordneten Basis (v, b2 , . . . , bn )
von V . Dann hat die Koordinatenmatrix A0 von f bzgl. (v, b2 , . . . , bn ) die
Gestalt


λ  0K 


A0 =  .. B 
 . 
0K mit einer geeigneten (n, n − 1)-Matrix B ∈ K n,n−1 .
4. f ist diagonalisierbar genau dann, wenn V eine Basis besitzt, die nur aus
Eigenvektoren von f besteht.
5. Sei B := (b1 , . . . , bn ), n := rangK V , geordnete Basis von V . A ∈ K n,n sei
Koordinatenmatrix von f bzgl. B. Für λ ∈ K ist dann A − λEn Koordinatenmatrix von f − λ · idV bzgl. B (s. Lemma 4.37) und somit gilt für
v ∈V:
T
(f − λ · idV )(v) = 0V ⇐⇒ (A − λ · En )vB
= 0.
Daher ist v Eigenvektor von f zum Eigenwert λ genau dann, wenn vB
nichttriviale Lösung des linearen homogenen Gleichungssystems
(A − λ · En )XT = 0,
X := (X1 , . . . Xn ),
ist. Der Eigenraum VK (λ, f ) ist damit gegeben durch die Lösungsmenge L
dieses Systems, genauer,
o
nP
n
x
b
(x
,
.
.
.
,
x
)
∈
L
.
VK (λ, f ) =
1
n
i=1 i i Damit ist aber auch klar, welche λ ∈ K Eigenwerte von f sind. Es gilt
nämlich (s. Satz 3.50(2) und Satz 5.16(2)):
λ∈K
⇐⇒
⇐⇒
⇐⇒
ist Eigenwert von f ⇐⇒
(A − λ · En )XT = 0 besitzt nichttriviale Lösungen
rangK (A − λ · En ) < n
det(A − λ · En ) = 0K
Definition 5.23. Sei K ein Körper und X eine Unbestimmte. Weiter sei n ∈ N+
und A ∈ K n,n .
(a) Das Polynom
χA := det(A − XEn ) ∈ K[X]
heißt charakteristisches Polynom von A.
5.3. EIGENWERTE
133
(b) Die Nullstellen von χA (in K) heißen Eigenwerte von A (in K).
(c) Ist λ ∈ K Eigenwert von A, so heißt die Lösungsmenge L ⊆ K n des homogenen linearen Gleichungssystems
(A − λEn )XT = 0,
X := (X1 , . . . , Xn ),
Eigenraum von A zum Eigenwert λ (von A). Er wird mit VK (λ, A) bezeichnet.
Die von 0V verschiedenen Elemente von VK (λ, A) heißen Eigenvektoren von
A zum Eigenwert λ.
Bemerkung 5.24. Selbstverständlich kann man auch Nullstellen λ von χA betrachten, die nicht in K, sondern in einem Erweiterungskörper L von K liegen,
s. Beispiel 5.29(b) unten. In diesem Fall faßt man A (stillschweigend) als Element von Ln,n auf und betrachtet den Eigenraum VL (λ, A), der dann natürlich
Untervektorraum von Ln ist. Dann muß man aber auch für diejenigen Eigenwerte µ von A, die in K liegen, den zugehörigen Eigenraum in Ln betrachten, also
VL (µ, A) statt VK (µ, A). Im Hinblick auf Definition 5.27 ist zu erwähnen, daß
rangK VK (µ, A) = rangL VL (µ, A).
Lemma 5.25. Sei K ein Körper und sei A ∈ K n,n , wobei n ∈ N+ . Dann gilt
grad χA = n.
Wenn wir für i ∈ {0, 1, . . . , n} mit ai (A) ∈ K den Koeffizienten von X n−i in χA
bezeichnen, so haben wir weiter
(1) a0 (A) = lk χA = (−1K )n ,
(2) a1 (A) = (−1)n−1 spur A und
(3) an (A) = det A.


a11 . . . a1n

.. . Aus der Determinantendefinition folgt
Beweis. Sei A =:  ...
. 
an1 . . . ann
χA = (a11 − X) · . . . · (ann − X) + (Polynome vom Grad ≤ n − 2)
= (−1)n X n + (−1)n−1 (a11 + . . . + ann )X n−1
+ (Polynome vom Grad ≤ n − 2)
und hieraus ergibt sich grad χA = n sowie (1) und (2). Weiter gilt an (A) =
χA (0K ) = det A,
134
KAPITEL 5. ENDOMORPHISMEN
Alle von nun betrachteten Vektorräume sind - wenn nicht ausdrücklich anders
gesagt - endlich erzeugt.
Lemma 5.26. Sei K ein Körper und V ein K-Vektorraum mit n := rangK V .
B, B0 seien geordnete Basen von V . Weiter sei f ∈ EndK V . A ∈ K n,n sei
Koordinatenmatrix von f bzgl. B und A0 ∈ K n,n sei Koordinatenmatrix von f
bzgl. B0 . Dann gilt:
(1) χA = χA0 .
(2) λ ∈ K ist Eigenwert von f genau dann, wenn χA (λ) = 0K , d. h. wenn λ
Eigenwert von A ist.
Beweis. (1) Nach Satz 4.48 gibt es eine Matrix T ∈ GlK (n) mit A0 = T AT −1 .
Hieraus folgt T (A − XEn )T −1 = T AT −1 − XT En T −1 = A0 − XEn und wir
erhalten mit Folgerung 5.18
χA0 = det(A0 − XEn ) = det T det(A − XEn ) det T −1 = det A χA (det A)−1
= χA .
(2) ist unmittelbare Konsequenz aus den Überlegungen in Bemerkung 5.22.5,
Damit definieren wir:
Definition 5.27. Sei V ein K-Vektorraum und f ∈ EndK V .
(a) Wir setzen
χf := χA
und ai (f ) := ai (A), i = 0, . . . , n sowie
spur f := spur A und
det f := det A,
wenn A Koordinatenmatrix von f bzgl. einer geordneten Basis von V ist. χf
heißt charakteristisches Polynom von f und entsprechend nennt man spur f
bzw. det f Spur bzw. Determinante von f .
(b) Sei λ ∈ K Eigenwert von f . Dann heißt
• ordλ (χf ) (s. Definition 5.3) algebraische Vielfachheit des Eigenwertes λ
von f und
• rangK V (λ, f ) geometrische Vielfachheit des Eigenwertes λ von f .
(c) Wie in (b) sind algebraische und geometrische Vielfachheit eines Eigenwertes
einer quadratischen Matrix mit Einträgen aus K erklärt.
5.3. EIGENWERTE
135
Bemerkung 5.28. Mit diesen Bezeichnungen ist die durch f 7→ det f gegebene Abbildung det : EndK V → K ein surjektiver Homomorphismus der jeweils unterliegenden multiplikativen Monoide, der einen Gruppenepimorphismus
det : GlK (V ) → K ∗ induziert, (s. Satz 5.18) und die durch f 7→ spur f gegebene
Abbildung spur : EndK V → K ist K-linear (s. Übungsaufgabe 32(a)).
Beispiele 5.29. Man bestimme die Eigenwerte und die jeweils zugehörigen Eigenräume der Matrizen
1
1
(a) A :=
∈ Q2,2 und
−6 −4


0 −1 5 0
 1
0 0 0 
 ∈ Q4,4 .
(b) A := 
 0
0 1 1 
0
0 0 1
Lösung:
(a) 1. Ermittlung der Eigenwerte von A:
χA = X 2 − (spur A)X + det A = X 2 + 3X + 2 = (X + 1)(X + 2) (s. Lemma
5.25). Die Eigenwerte von A sind also λ1 = −1 und λ2 = −2
2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten:
VQ (−1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems
(A + E2 )XT = 0,
X := (X1 , X2 ), d. h. von
2X1 + X2 = 0
−6X1 − 3X2 = 0
Damit gilt VQ (−1, A) = {t(−1, 2) | t ∈ Q} = Q(−1, 2).
VQ (−2, A) ist Lösungsmenge des linearen homogenen Gleichungssystems
(A + 2E2 )XT = 0,
d. h. von
3X1 + X2 = 0
−6X1 − 2X2 = 0
Damit gilt VQ (−2, A) = {t(−1, 3) | t ∈ Q} = Q(−1, 3). Wir bemerken,
daß die Basisvektoren (−1, 2) von VQ (−1, A) und (−1, 3) von VQ (−2, A)
linear unabhängig sind.
(b) 1. Ermittlung der Eigenwerte von A:
136
KAPITEL 5. ENDOMORPHISMEN
Nach Übungsaufgabe 33 gilt
χA = det(A − XE4 )
1 1
0 −1
= det
− XE2 · det
− XE2
1 0
0 1
= (X 2 + 1)(X − 1)2
und damit hat A über Q lediglich den Eigenwert λ1 = 1. Dieser hat die
algebraische Vielfachheit 2. Fassen wir A als Matrix über C auf, so kommen
die Eigenwerte λ2,3 = ±i hinzu, beide mit der algebraischen Vielfachheit
1.
2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten:
VQ (1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems
(A − E2 )XT = 0,
X := (X1 , X2 , X3 , X4 ), d. h. von
−X1 − X2 + 5X3
X1 − X2
X4
= 0
= 0
= 0
Damit gilt VQ (1, A) = {t(5, 5, 2, 0) | t ∈ Q} = Q(5, 5, 2, 0) und VC (1, A) =
{t(5, 5, 2, 0) | t ∈ C} = C(5, 5, 2, 0).
VC (±i, A) ist Lösungsmenge des linearen homogenen Gleichungssystems
(A ∓ iE2 )XT = 0,
d. h. von
∓iX1 − X2 +
X1 ∓ iX2
5X3
(1 ∓ i)X3 +
X4
(1 ∓ i)X4
=
=
=
=
0
0
0
0
Damit gilt VC (±i, A) = {t(±i, 1, 0, 0) | t ∈ C} = C(±i, 1, 0, 0). Wir bemerken wie in Beispiel (a), daß (5, 5, 2, 0), (i, 1, 0, 0), (−i, 1, 0, 0) linear unabhängige Vektoren sind.
Satz 5.30. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Dann gilt
für jeden Eigenwert λ ∈ K von f :
1 ≤ rangK VK (λ, f ) ≤ ordλ (χf ).
Beweis. Sei m := rangK VK (λ, f ). Wegen rangK VK (λ, f ) 6= 0 gilt m ≥ 1. Sei
{b1 , . . . , bm } Basis von VK (λ, f ). Wir ergänzen {b1 , . . . , bm } zu einer Basis {b1 , . . .
. . . , bn }, n := rangK V , von V . Bzgl. der geordneten Basis (b1 , . . . , bn ) von V hat
f die Koordinatenmatrix
λEm ∗
A :=
0
A0
5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN
137
mit A0 ∈ K n−m,n−m , s. Bemerkung 5.22.3. Dann gilt mit Übungsaufgabe 33:
χf = χA = det(A − XEn )
= det (λ − X)Em · det(A0 − XEn−m )
= (−1)m (X − λ)m χA0
und hieraus folgt m ≤ ordλ (χA ) = ordλ (χf ),
5.4
Klassifizierung von Endomorphismen endlich
erzeugter Vektorräume I
Satz 5.31. Seien K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Weiter
sei Λ ⊆ K eine Menge von Eigenwerten von f . Dann gilt:
(1) VK (λ, f ) ∩ VK (µ, f ) = 0 für alle λ, µ ∈ Λ mit λ 6= µ.
(2) Ist Xλ ⊂ VK (λ, f ) für jedes λ ∈ Λ eine linear
S unabhängige Menge, so sind
die Xλ , λ ∈ Λ, paarweise disjunkt und X := λ∈Λ Xλ ist linear unabhängige
Teilmenge von V .
Beweis. (1) Seien λ, µ ∈ Λ, λ 6= µ. Wenn v ∈ VK (λ, f ) ∩ VK (µ, f ), so folgt
(λ − µ)v = λv − µv = f (v) − f (v) = 0V ,
also v = 0V (da λ 6= µ).
(2) Die erste Aussage von ergibt sich sofort aus (1). Zum Nachweis der zweiten
Aussage dürfen wir o. B. d. A. annehmen, daß Λ endlich ist, sagen wir Λ =
{λ1 , . . . , λm } mit paarweise verschiedenen λ1 , . . . , λm ∈ K. Hierzu benutzen
wir nun Induktion nach m, wobei für m = 1 nichts zu zeigen ist. Sei also m >
1. Wir vereinbaren, daß wir für x ∈ X mit λx den zu x gehörenden Eigenwert
bezeichnen
(d. h. λx = λi , wenn x ∈ Xλi , i ∈ {1, . . . , m}). Schließlich setzen
Sm−1
wir Y := i=1 Xλi . Angenommen, wir haben
X
x∈X
αx x = 0V ,
138
KAPITEL 5. ENDOMORPHISMEN
wobei αx ∈ K für alle x ∈ X und αx = 0K für fast alle x ∈ X. Dann folgt
X
X
X
X
αy (λm − λy )y =
αx (λm − λx )x = λm
αx x −
α x λx x
y∈Y
x∈X
= −
X
x∈X
αx f (x) = −f
x∈X
x∈X
| {z }
=0V
!
X
αx x = −f (0V )
x∈X
= 0V ,
also haben wir nach Induktionsvoraussetzung αy (λm − λy ) = 0K für alle
y ∈ Y . Wegen
sich hieraus αy = 0K für alle
P λm 6= λy für alle y ∈ Y ergibt
P
y ∈ Y . Da x∈X αx x = 0V folgt hieraus x∈Xλm αx x = 0V , also αx = 0K für
alle x ∈ Xλm , denn laut Voraussetzung ist Xλm linear unabhängige Menge.
Zusammengenommen haben wir αx = 0K für alle x ∈ X, d. h. X ist linear
unabhängige Menge,
Sei nun K ein Körper. Wenn nicht ausdrücklich anders gesagt, sind alle KVektorräume endlich erzeugt.
Folgerung 5.32. Sei V ein K-Vektorraum und f ∈ EndK V . Wenn χf in K[X]
vollständig in Linearfaktoren zerfällt und wenn ordλ (χf ) = 1 für jeden Eigenwert
λ von f , d. h. wenn χf genau n := rangK V paarweise verschiedene Nullstellen
λ1 , . . . , λn ∈ K besitzt, so besitzt V eine Basis B, die nur aus Eigenvektoren von
f besteht.
Wenn B =: {x1 , . . . , xn }, wobei xi Eigenvektor von λi ist, i = 1 . . . , n, so ist
Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B :=
(x1 , . . . , xn ) von V , d. h. ist f diagonalisierbar.
Beweis. Zu jedem λi , i = 1, . . . , n, wählen wir einen Eigenvektor xi ∈ V . Nach
Satz 5.31 sind x1 , . . . , xn paarweise verschieden und B := {x1 , . . . , xn } ist linear
unabhängig, also Basis von V , s. Satz 3.43. Definitionsgemäß ist Diag(λ1 , . . . , λn )
Koordinatenmatrix von f bzgl. der geordneten Basis B := (x1 , . . . , xn ),
Wir können nun zeigen
Theorem 5.33. Sei f ein K-Endomorphismus eines K-Vektorraums V . Dann
gilt:
(1) Folgende Aussagen sind äquivalent:
(i) f ist trigonalisierbar
(ii) χf zerfällt in K[X] vollständig in Linearfaktoren.
(2) Folgende Aussagen sind äquivalent:
5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN
139
(i) f ist diagonalisierbar
(ii) χf zerfällt in K[X] vollständig in Linearfaktoren und für alle Eigenwerte λ von f gilt rangK VK (λ, f ) = ordλ (χf ).
Beweis. Sei n := rangK V (< ∞).

∗
λ1

Nehmen wir zunächst an, daß f trigonalisierbar ist. A := 
..
.


 ∈
0
λn
K
sei Koordinatenmatrix von f bzgl. einer geeigneten geordneten Basis B =
(b1 , . . . , bn ) von V . Nach Übungsaufgabe 33 gilt dann
n,n
χf = χA = (−1)n (X − λ1 ) · . . . · (X − λn ),
d. h. χf zerfällt in K[X] vollständig in Linearfaktoren.
Ist f sogar diagonalisierbar und gilt A = Diag(λ1 , . . . , λn ) bzgl. B, so besteht B
nur aus Eigenvektoren von f , genauer, bi ist Eigenvektor zum zum Eigenwert λi ,
i = 1, . . . , n. Sei i ∈ {1, . . . , n} und nehmen wir o. B. d. A. an, daß λ := λi =
. . . = λi+m−1 mit m := ordλi (χf ). Da rangK VK (λ, f ) ≤ m (s. Satz 5.30) und da
bi , . . . bi+m−1 linear unabhängige Vektoren aus VK (λ, f ) sind, muß sogar gelten
rangK VK (λ, f ) = m. Daher haben wir im Falle der Diagonalisierbarkeit von f
rangK VK (λ, f ) = ordλ (χf ) für alle Eigenwerte λ von f
und die Implikationen (i) =⇒ (ii) in (1) und (2) sind gezeigt.
χf zerfalle nun in K[X] vollständig in Linearfaktoren. Dann können wir schreiben
(s. Lemma 5.25 zusammen mit Definition 5.27)
χf = (−1)n (X − λ1 )m1 · . . . · (X − λp )mp
mit paarweise verschieden λ1 , . . . , λp ∈ K und m1 , . . . , mp ∈ N+ . λ1 , . . . , λp sind
somit die Nullstellen von χf und folglich die Eigenwerte von f und es gilt
mi = ordλi (χf ) > 0, i = 1, . . . , p, sowie m1 + . . . + mp = n.
Wenn rangK VK (λi , f ) = mi für alle i = 1, . . . , p, so wählen wir eine Basis Xi von
VK (λi , f ), i = 1, . . . , p. Nach Satz 5.31(2) ist dann X := X1 ∪ . . . ∪ Xp ⊂ V linear
unabhängige Menge und es gilt ]X = ]X1 + . . . + ]Xp = m1 + . . . + mp = n. Somit
ist X Basis von V (s. Satz 3.43) bestehend aus Eigenvektoren von f , d. h. f ist
diagonalisierbar (s. Bemerkung 5.22.4), und (2) ist gezeigt.
Um schließlich noch die Implikation (ii) =⇒ (i) von (1) zu zeigen, benutzen wir
Induktion nach n, wobei für n = 1 nichts zu zeigen ist. Sei also n ≥ 2 und sei
140
KAPITEL 5. ENDOMORPHISMEN
v1 ∈ V Eigenvektor zum Eigenwert λ1 . Wir ergänzen v1 zu einer geordneten Basis
B0 := (v1 , b2 , . . . , bn ) von V . Bzgl. B0 hat f die Koordinatenmatrix
λ1 β2 . . . βn
0
A :=
0
B0
mit β2 , . . . , βn ∈ K und B 0 ∈ K n−1,n−1 , s. Bemerkung 5.22.3.
Sei nun W := K{b2 , . . . , bn } der von {b2 , . . . , bn } erzeugte K-Untervektorraum
von V und g ∈ EndK W mit g(b2 ,...,bn ) = B 0 (s. Satz 4.38(2)). Für j = 2, . . . , n gilt
dann f (bj ) = βj v1 + g(bj ) und mit Übungsaufgabe 33 haben wir
χf = χA0 = −(X − λ1 )χB 0 = −(X − λ1 )χg .
Da K[X] Integritätsring ist (s. Folgerung B.10), folgt hieraus, daß
χg = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp ,
d. h. auch χg zerfällt in K[X] vollständig in Linearfaktoren. Da rangK W = n − 1,
gibt es nach Induktionsvoraussetzung eine geordnete Basis (v2 , . . . , vn ) von W ,
bzgl.derer die Koordinatenmatrix
von g eine obere Dreiecksmatrix ist, sagen

µ2
∗


...
wir 
. Nun ist B := (v1 , . . . , vn ) geordnete Basis von V . Da
0
µn
für j = 2, . . . , n gilt f (vj ) = βj0 v1 + g(vj ) mit geeigneten β20 , . . . , βn0 ∈ K, hat


µ1
∗


..
die Koordinatenmatrix A von f bzgl. B die Gestalt A = 
 mit
.
0
µn
µ1 := λ1 , d. h. f ist trigonalisierbar,
Folgerung 5.34. Ist ein Endomorphismus f eines K-Vektorraumes V trigonalisierbar und ist B geordnete Basis von V bzgl. derer die Koordinatenmatrix A von
f eine obere Dreiecksmatrix ist, so sind die Einträge auf der Hauptdiagonale von
A genau die Eigenwerte von f (mit den jeweiligen algebraischen Vielfachheiten).
Beweis. Aus dem Beweis der Implikation (ii) =⇒ (i) der Aussage (1) von Satz
5.33 ergibt sich mit den dortigen Bezeichnungen
(−1)n (X − λ1 )m1 · . . . · (X − λp )mp = χf = χA = (−1)n (X − µ1 ) · . . . · (X − µn ).
Damit folgt etwa durch Einsetzen zunächst {µ1 , . . . , µn } = {λ1 , . . . , λp }. Die entsprechenden Nullstellenordnugen stimmen dann aber wegen ihrer Eindeutigkeit
(s. Folgerung 5.2(2) zusammen mit Definition 5.3) auch überein,
5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN
141
Bemerkung 5.35. Für Matrizen aus K n,n , n ∈ N+ , gelten natürlich die Analoga
der Aussagen aus Satz 5.33 und Folgerung 5.34. Dies werden wir in Zukunft stets
stillschweigend voraussetzen.
Folgerung 5.36. Sei K ein Körper und B ∈ K n,n , wobei n ∈ N, n ≥ 2. Es gelte
χB = (−1)n (X−λ1 )m1 ·. . .·(X−λp )mp mit paarweise verschiedenen λ1 , . . . , λp ∈ K
und m1 , . . . , mp ∈ N+ .
(1) Man bestimmt eine Matrix T ∈ GlK (n), so daß T · B · T −1 obere Dreiecksmatrix ist, wie folgt:
i. Man wählt einen Eigenvektor v1 von B zum Eigenwert λ1 , ergänzt {v1 } zu
einer geordneten Basis (v1 , b2 , . . . , bn ) von K n und setzt S := v1T , bT2 , . . .
−1
S ist Transformationsmatrix von Koordinaten bzgl. der ka. . . , bTn
nonischen Basis En von K n in Koordinaten bzgl. (v1 , b2 , . . . , bn ) .
λ1 ∗
0
−1
0
ii. Sei A := S · B · S . Dann gilt A =
mit B 0 ∈ K n−1,n−1 und
0 B0
χB 0 = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp .
iii. Man bestimmt eine Matrix T 0 ∈ GlK (n − 1), so daß T 0 · B 0 · (T 0 )−1 obere
Dreiecksmatrix ist.
1K 0
iv. Mit T̃ :=
und T := T̃ · S ist A := T · B · T −1 = T̃ · A0 · T̃ −1
0 T0
obere Dreiecksmatrix.
(2) Ist B diagonalisierbar, so bestimmt man eine Matrix T ∈ GlK (n), so daß
T · B · T −1 Diagonalgestalt hat wie folgt:
Für i = 1, . . . , p berechne man eine geordnete Basis (vi1 , . . . , vimi ) des Eigen−1
T
T
T
T
. Dann
,
.
.
.
,
v
,
.
.
.
,
v
, . . . , v1m
raumes VK (λi , B) und setze T := v11
pm
p1
p
1
gilt
T · B · T −1 = Diag λ1 , . . . , λ1 , . . . , λp , . . . , λp .
| {z }
| {z }
m1 −mal

mp −mal

2 −1 1
Beispiel 5.37. Sei B :=  −1 2 −1  ∈ Q3,3 . Man prüfe, ob B diagonali2
2
3
sierbar oder trigonalisierbar ist und - falls ja - gebe man eine Matrix T ∈ GlQ (3)
an, so daß T BT −1 Diagonal- bzw. Dreiecksgestalt hat.


2−X
−1
1
2−X
−1  = −(X − 1)(X − 3)2 und
Lösung: Es gilt χB = det  −1
2
2
3−X
damit ist B auf jeden Fall trigonalisierbar. Die Eigenwerte von B sind λ1 = 1
und λ2 = 3 (letzterer mit Vielfachheit 2).
142
KAPITEL 5. ENDOMORPHISMEN
Berechnung von VQ (1, B):
VQ (1, B) ist Lösungsmenge des homogenen Gleichungssystems
X 1 − X2 + X3 = 0
−X1 + X2 − X3 = 0
2X1 + 2X2 + 2X3 = 0
Anwendung des Gaußschen Algorithmus führt es über in
X1 −
X2 + X3 = 0
4X2
= 0
und damit gilt VQ (1, B) = Q(1, 0, −1).
Berechnung von VQ (3, B):
VQ (3, B) ist Lösungsmenge des homogenen Gleichungssystems
−X1 − X2 + X3 = 0
−X1 − X2 − X3 = 0
2X1 + 2X2
= 0
Anwendung des Gaußschen Algorithmus führt es über in
−X1 − X2 +
X3 = 0
−2X3 = 0
und damit gilt VQ (3, B) = Q(1, −1, 0). Da rangQ VQ (3, B) = 1 < 2 = ord3 χB ist
B nach Satz 5.33(2) nicht diagonalisierbar.
Berechnung einer Matrix T ∈ GlQ (3), so daß T BT −1 Dreiecksgestalt hat:
i. Setze v1 := (1, 0, −1) und ergänze {v1 } zu einer
 geordneten
 Basis (v1 , b2 , b3 )
1 0 0
von Q3 , z. B. zu (v1 , e3,2 , e3,3 ) (da mit C :=  0 1 0 gilt rang C = 3).
−1 0 1


1 0 0
Setze S := C −1 = 0 1 0.
1 0 1


1 −1 1
2 −1
0
−1
−1
0


ii. Sei A := S · B · S = C · B · C = 0 2 −1 und B :=
.
1 4
0 1
4
Dann gilt χB 0 = (X − 3)2 .
0
0
iii. VQ (3, B 0 ) = Q(−1,
1). Mit
v2 := (−1, 1) ist (v2 , e2,2 ) geordnete Basis
−1 0
−1
(da mit D :=
gilt rang D = 2). Mit T 0 := D−1 =
1 1
1
3 1
dann T 0 · B 0 · (T 0 )−1 =
.
0 3
2
von
Q
0
gilt
1
5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN
143

 
 

1 0 0
1 0 0
1 0 0
iv. Mit T := T̃ · S = 0 −1 0 · 0 1 0 = 0 −1 0 gilt:
0 1 1
1 0 1
1 1 1

A = T · B · T −1

1 2 1
= 0 3 1 .
0 0 3
Wir sind nun in der Lage, eine vorläufige Klassifizierung von K-Endomorphismen
eines endlich erzeugten K-Vektorraumes zu geben. ”Vorläufig” soll dabei heißen,
daß wir im Moment nur diagonalisierbare Endomorphismen endlich erzeugter
K-Vektorräume klassifizieren können. Für eine vollständige Klassifizierung benötigt man Methoden und Hilfsmittel, die derzeit noch nicht zur Verfügung stehen (Jordansche Normalform). ”Klassifizierung” bedeutet, daß wir jedem Endomorphismus gewisse Daten zuordnen, die diesen bis auf Ähnlichkeit eindeutig
festlegen, wobei ”Ähnlichkeit” von Endomorphismen in Anlehnung an Definition
2.35(b) wie folgt definiert ist:
Definition 5.38. Sei K ein Körper. Endomorphismen f, g ∈ EndK V eines (nicht
notwendig endlich erzeugten) K-Vektorraumes V heißen ähnlich, wenn es einen
Automorphismus h ∈ GlK (V ) von V gibt mit g = h ◦ f ◦ h−1 .
Wie bei Matrizen ist klar, daß die Ähnlichkeit von K-Endomorphismen eines
K-Vektorraumes V eine Äquivalenzrelation auf EndK V ist, s. Lemma 2.36.
Satz 5.39. Sei V ein K-Vektorraum und seien f, g ∈ EndK V diagonalisierbare
Endomorphismen von V . Dann sind die folgenden Eigenschaften äquivalent:
(i) f und g sind ähnlich
(ii) die Eigenwerte von f und g stimmen überein (d. h. sind λ1 , . . . , λn die Eigenwerte von f und µ1 , . . . , µn die Eigenwerte von g, n := rangK V , so gibt
es eine Permutation π ∈ Sn mit µi = λπ(i) , i = 1, . . . , n)
(iii) χf = χg .
Beweis. Sei A bzw. A0 die Koordinatenmatrix von f bzw. g bzgl. einer geordneten Basis B von V . Da f, g diagonalisierbar sind, sind A bzw. A0 ähnlich zu
Diagonalmatrizen D bzw. D0 , deren Diagonaleinträge nach Folgerung 5.34 genau
die Eigenwerte von f bzw. g mit den jeweiligen algebraischen Vielfachheiten sind.
(i) ⇒ (iii): Sei h ∈ GlK (V ) mit g = h ◦ f ◦ h−1 und sei C ∈ GlK (n) Koordinatenmatrix von h bzgl. B. Da dann A0 = CAC −1 (s. Satz 4.38(2)), folgt wegen
144
KAPITEL 5. ENDOMORPHISMEN
det C det C −1 = det En = 1K (s. Definition 5.27 und Folgerung 5.18):
χf =
=
=
=
χA = det(A − XEn ) = det C det(A − XEn ) det C −1
det C(A − XEn )C −1 = det CAC −1 − XCC −1
det(A0 − XEn ) = χA0
χg .
(iii) ⇒ (ii) ist klar, da die Eigenwerte eines Endomorphismus genau die Nullstellen
seines charakteristischen Polynoms sind.
(ii) ⇒ (i): Nach Übungsaufgabe 40(b) sind D und D0 ähnlich. Somit sind A und
A0 ähnlich, d. h. es gibt ein C ∈ GlK (n) mit A0 = CAC −1 . Sei h ∈ GlK (V ) der
durch hB = C eindeutig bestimmte K-Automorphismus (s. Satz 4.38(2)). Dann
gilt g = h ◦ f ◦ h−1 wiederum nach Satz 4.38(2), d. h. f und g sind ähnlich,
Anhang A
Mengentheoretische und logische
Grundlagen
A.1
Allgemeine Bemerkungen
Grundlegende Objekte der Mathematik sind Mengen. Sie bestehen aus Elementen. Dabei muß für ein gegebenes Element x und eine Menge X entweder x
Element von X sein, kurz x ∈ X, oder x ist nicht Element von X, kurz x 6∈ X.
Eine Menge kann durch explizite Angabe ihrer Elemente angegeben werden, wie
z. B. X = {1, 2, 3} oder durch Eigenschaften, die ihre Elemente haben sollen, z.
B. N+ := {n ∈ N | n > 0}. (N : Menge der natürlichen Zahlen, N = {0, 1, 2, . . .}).
Hinsichtlich der grundlegenden Definitionen und Eigenschaften der Zahlbereiche
wie natürliche Zahlen (N), ganze Zahlen (Z), rationale Zahlen (Q), reelle Zahlen
(R) und komplexe Zahlen (C) verweisen wir auf den Kurs ”Analysis I”.
Weiterhin werden Aussagen verwendet, die im Unterschied zur Umgangssprache
nach strengen Regeln aufgebaut sind. Eine mathematische Aussage ist demnach
ein im Zusammenhang mit einer mathematischen Theorie formuliertes sinnvolles sprachliches Konstrukt, das entweder wahr oder falsch ist. Was dabei z. B.
”sinnvoll” heißt, wird im Rahmen der formalen Logik durch eine entsprechende
Axiomatik geklärt, die wir hier jedoch nicht behandeln wollen.
Die exakte Definition (Axiomatik) von Mengen und die Untersuchung ihrer Eigenschaften, auf die wir hier ebenfalls nicht eingehen wollen, ist Gegenstand der
Mengenlehre. Sie bildet zusammen mit der formalen Logik und den formalen
Sprachen die drei Grundsäulen der Mathematik (s. Einleitung).
Beispiele A.1.
1. Mengen dürfen nicht beliebig gebildet werden
Sei X eine Menge. Man erwartet intuitiv, daß X 6∈ X. Sei also X die Menge
145
146
ANHANG A. MENGEN UND LOGIK
aller Mengen, die sich nicht selbst als Element enthalten, d. h.
X = {X | X Menge, X 6∈ X}.
Nun sieht man sofort, daß weder X ∈ X noch X 6∈ X gilt, d. h. obiges
Prinzip ist verletzt.
In der Tat verbietet die Axiomatik der Mengenlehre diese Bildung. Ebenso
ist die Bildung der ”Menge aller Mengen” nicht zulässig. Dennoch ist es
oft nötig, Gesamtheiten von Mengen zu betrachten. Wenn man nicht sicher
ist, ob es sich dabei um eine Menge handelt oder nicht, so spricht man in
solchen Fällen häufig von einer ”Klasse”. In diesem Sinne kann man von der
”Klasse aller Mengen” reden.
2. Bei der Verwendung der ”Umgangssprache” in der Mathematik ist Vorsicht
geboten
Natürliche Zahlen kann man mit Sätzen der deutschen Sprache beschreiben. Da nur endlich viele Buchstaben und Satzzeichen (einschließlich Leerzeichen) existieren, kann man nur endlich viele Sätze der deutschen Sprache
bilden, die aus maximal 200 Zeichen bestehen. Wir bilden nun den Satz:
Betrachte die kleinste natürliche Zahl, die sich nicht mit einem
Satz der deutschen Sprache beschreiben läßt, der aus maximal
zweihundert Zeichen besteht.
Dieser Satz besteht aus weniger als 200 Zeichen und damit hätten wir gerade eine Zahl betrachtet, die es gar nicht geben darf! Dies ist aber nur
ein scheinbarer Widerspruch, denn die Axiomatik der Arithmetik (PeanoAxiome) gestattet die Bildung einer derartigen ”Zeichenkette” gar nicht.
Anders gesagt: Aus Sicht der Arithmetik ist diese Zeichenkette inhaltsleer,
wie etwa auch ”Sechs ist eine trockene Zahl”, und damit kann sie auch keinen
Widerspruch darstellen.
Wir wenden uns nun zunächst den Mengen zu.
A.2
Mengen
Seien X, Y Mengen. Wir sagen, daß X Teilmenge von Y ist, kurz X ⊆ Y , wenn
für alle x ∈ X gilt x ∈ Y .
Äquivalente Bezeichnung: Y ist Obermenge von X, kurz Y ⊇ X.
Ist X Teilmenge von Y und gilt X 6= Y , so bezeichnen wir dies mit X ⊂ Y (oder
Y ⊃ X) und sagen, X sei echte Teilmenge von Y .
A.2. MENGEN
147
Die leere Menge enthält keine Elemente. Sie wird mit ∅ bezeichnet und ist gekennzeichnet durch die Eigenschaft ∅ ⊆ A für alle Mengen A.
Jede Menge X enthält die Teilmengen ∅ und X selbst.
Seien X, Y Mengen. Folgende Mengen können gebildet werden
X ∪ Y := {z | z ∈ X oder z ∈ Y }
Vereinigung von X und Y
X ∩ Y := {z | z ∈ X und z ∈ Y }
X \ Y := {z | z ∈ X und z 6∈ Y }
X × Y := {(x, y) | x ∈ X, y ∈ Y }
Durchschnitt von X und Y
Differenz von X und Y
Produkt von X und Y
Für eine Menge A kann die Menge P (A) := {X | X ⊆ A} aller Teilmengen von
A gebildet werden. Sie heißt Potenzmenge von A. Beispielsweise ist P (∅) = {∅}
(dies ist nicht die leere Menge!) und P ({x}) = {∅, {x}}.
Für X ∈ P (A) sei X := A \ X ∈ P (A). X heißt Komplement von X (bzgl. A).
Hierfür gelten ein ganze Reihe von Regeln, von denen hier nur einige genannt
werden sollen.
Satz A.2. Für alle Mengen X, Y, Z gilt
(1) Assoziativität
(X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z) und
(X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z)
(2) Distributivität
(X ∪ Y ) ∩ Z = (X ∩ Z) ∪ (Y ∩ Z) und
(X ∩ Y ) ∪ Z = (X ∪ Z) ∩ (Y ∪ Z)
(3) Kommutativität
X ∪Y
X ∩Y
= Y ∪ X und
= Y ∩X
Nehmen wir nun an, daß X, Y ∈ P (A) mit einer weiteren Menge A. Dann gilt
(4)
X=X
(5) de Morgansche Gesetze
X ∪Y
X ∩Y
= X ∩ Y und
= X ∪Y
148
ANHANG A. MENGEN UND LOGIK
Auf den Beweis verzichten wir, da er sich sofort aus den Definitionen und Satz
A.5 ergibt.
Vereinigungen und Durchschnitte können auch von ”beliebig vielen” Mengen gebildet werden: Sei X eine Menge von Mengen. Dann können die Mengen
[
X := {z | z ∈ X für ein X ∈ X } (Vereinigung der X ∈ X )
X∈X
\
X := {z | z ∈ X für alle X ∈ X } (Durchschnitt der X ∈ X )
X∈X
gebildet werden. Hierfür gelten entsprechende Regeln wie oben.
Sind X1 , . . . , Xn Mengen, so kann auch das Produkt X1 ×. . .×Xn gebildet werden:
X1 × . . . × Xn := {(x1 , . . . , xn ) | xi ∈ Xi , 1 ≤ i ≤ n},
Bezeichnung:
Qn
i=1
Xi .
Für X1 = . . . = Xn =: X schreibt man
X
. . × X} =: X n .
| × .{z
n−mal
Diese Menge wird auch als Menge der geordneten n-Tupel (mit Einträgen aus X)
bezeichnet.
Bemerkung A.3. Häufig beschreibt man Mengen von Mengen mit Hilfe von
Indexmengen, d. h. man hat eine Menge I (die Indexmenge) und für jedes ι ∈
I (also für jeden Index ι aus I) eine Menge Xι . Dann wäre X = {Xι | ι ∈
I} zwar eine Menge von Mengen, der Vorteil der Indexschreibweise ist jedoch,
daß Wiederholungen noch ”erkennbar” sind. Wenn nämlich Xι = Xλ =: X für
verschiedene Indizes ι, λ ∈ I, so erscheint X in X nur einmal, was mitunter
zu begrifflichen Schwierigkeiten führen kann. Um diese Problematik an einem
Beispiel zu verdeutlichen, setzen wir I = Z und setzen für alle i ∈ Z:
Xi := {n | n ∈ Z, n ist durch i teilbar}.
Dann gilt z. B. X0 = {0}, X1 = Z = X−1 , X2 = {. . . , −4, −2,
Q 0, 2, 4, . . .} = X−2
usw. Wenn X := {Xi | − 1 ≤ i ≤ 1}, so ist offensichtlich X∈X X = {0} × Z.
Q
Q
Q
Hingegen gilt 1i=−1 Xi = Z×{0}×Z, d. h. X∈X X ist von 1i=−1 Xi verschieden.
Indizierte Mengen werden oft Mengenfamilien (über der gegebenen Indexmenge)
genannt und mit (Xι )ι∈I oder auch nur Xι , ι ∈ I, bezeichnet.
A.3. AUSSAGEN
A.3
149
Aussagen
A.3.1
Aussagenlogik
Wie bereits einleitend festgestellt wurde, ist eine mathematische Aussage ein nach
bestimmten Regeln aufgebautes (sprachliches) Konstrukt. Genauer geht man wie
folgt vor:
Zunächst definiert man (logische) Ausdrücke.
Hierzu gibt man eine nicht leere Menge A, deren Elemente Aussagenvariable
genannt werden, und weitere Symbole
¬
∧
∨
⇒
⇔
(Negation),
(und),
(oder),
(Implikation),
(Äquivalenz),
die als logische Operatoren bezeichnet werden, sowie die beiden Klammersymbole
”(”, ”)” vor. Dann legt man fest:
(i) Jede Aussagenvarible ist ein Ausdruck.
(ii) Sind A, B Ausdrücke, so auch ¬ A, (A ∧ B), (A ∨ B), (A ⇒ B), (A ⇔ B).
(iii) Eine Zeichenreihe in den Aussagenvariablen, den logischen Operatoren und
den Klammersymbolen ist ganau dann Ausdruck, wenn er es auf Grund von
(i) und (ii) ist.
Für p, q, r, s ∈ A sind beispielsweise ¬p, ((p ⇒ q) ∨ r), ((p ∧ q) ⇔ (r ∨ s))
Ausdrücke. Keine Ausdrücke sind z. B. (⇒ p), ((r∧) ∨ s) oder (p ¬ q).
Wir bemerken, daß man bei Ausdrücken Klammern einsparen kann, wenn man
vereinbart, daß die Bindung der Symbole ¬, ∧, ∨, ⇒, ⇔ von links nach rechts gesehen schwächer wird. Dies bezeichnet man auch als Klammerkonvention. Damit
kann man z. B. vereinfachend schreiben (¬p)∨q =: ¬p∨q oder (p∧q)∨q =: p∧q∨q.
Aussagen können ”wahr” oder ”falsch” sein. Genauer faßt man diese beiden Begriffe wie folgt: Man definiert eine Menge W := {w, f } mit w 6= f (w soll ”wahr”
und f ”falsch” suggerieren) und erklärt mittels der Symbole ¬, ∧, ∨, ⇒, ⇔ Wahrheitsfuntionen, indem man setzt
¬w := f,
¬f := w
und x ∧ y, x ∨ y, x ⇒ y, x ⇔ y ∈ W für x, y ∈ W entsprechend nachfolgender
150
ANHANG A. MENGEN UND LOGIK
Tabelle definiert
x
w
w
f
f
y x∧y x∨y x⇒y x⇔y
w
w
w
w
w
f
f
w
f
f
w
f
w
w
f
f
f
w
w
f
Damit kann man nun jedem logischen Ausdruck Wahrheitwerte in W zuordenen, indem man zunächst jeder Aussagenvariablen einen der Werte w oder
f (beliebig) zuordnet und sodann den entsprechenden Wahrheitwert v(A) eines
Ausdrucks A obigem iterativen Aufbau folgend definiert durch (B, C Ausdrücke)
v(¬B)
v(B ∧ C)
v(B ∨ C)
v(B ⇒ C)
v(B ⇔ C)
:=
:=
:=
:=
:=
¬v(B),
v(B) ∧ v(C),
v(B) ∨ v(C),
v(B) ⇒ v(C),
v(B) ⇔ v(C).
Beispielsweise gilt
(
f
v((p ⇒ q) ∨ q) = (v(p) ⇒ v(q)) ∨ v(q) =
w
wenn v(p) = w, v(q) = f
sonst.
Zur Darstellung der Wahrheitsfunktion v benutzt man oft auch eine sogenannte
Wahrheitstabelle, d. h. eine Wertetabelle für v. In diesem Fall würde sie wie folgt
aussehen:
p
w
w
f
f
q (p ⇒ q) ∨ q
w
w
f
f
w
w
f
w
Es ist klar, daß der Wahrheitswert v(A) eines logischen Ausdrucks A nur von
den Wahrheitswerten der in A vorkommenden Aussagenvariablen abhängt. Eine
Zuordnung von Wahrheitswerten zu den in A vorkommenden Aussagenvariablen
nennt man auch Belegung von A (mit Wahrheitswerten).
Definition A.4. (a) Ein logischer Ausdruck A heißt Tautologie, wenn v(A) = w
bei jeder Belegung der in A vorkommenden Aussagenvariablen.
(b) Zwei logische Ausdrücke A, B heißen äquivalent, kurz A ∼
= B, wenn v(A) =
v(B) für jede Belegung der in A oder B vorkommenden Aussagenvariablen.
A.3. AUSSAGEN
151
Beispiele für Tautologien sind p ⇒ p ∨ q, p ∧ q ⇒ p, (p ⇔ q) ⇒ (p ⇒ q), wie man
sofort mit Hilfe der jeweiligen Wahrheitstabellen erkennt.
Ersetzt man in einer Tautologie die darin vorkommenden Aussagenvariablen jeweils durch logische Ausdrücke, so entsteht wieder eine Tautologie. Will man bei
einem logischen Ausdruck A überprüfen, ob es sich um eine Tautologie handelt
(oder nicht), so kann man daher Teilausdrücke von A durch nicht in A vorkommende Aussagenvariable ersetzen. Offenbar ist A genau dann eine Tautologie,
wenn der so entstehende Ausdruck B Tautologie ist.
Tautologien bilden die logische Grundlage der Mathematik: Beweise bestehen auf
der fortgesetzten Anwendung von Tautologien. Einige der wichtigsten stellen wir
nachfolgend zusammen:
Satz A.5. Folgende Ausdrücke sind Tautologien (p, q, r Aussagenvariable):
(1)
(p ∨ q) ∨ r
(p ∧ q) ∧ r
⇐⇒
⇐⇒
p ∨ (q ∨ r)
p ∧ (q ∧ r)
(Assoziativgesetze)
(2)
(p ∨ q) ∧ r
(p ∧ q) ∨ r
⇐⇒
⇐⇒
(p ∧ r) ∨ (q ∧ r)
(p ∨ r) ∧ (q ∨ r)
(Distributivgesetze)
(3)
p∨q
p∧q
(4)
¬¬ p ⇐⇒ p
(5)
(p ⇒ q) ⇐⇒ (¬ q ⇒ ¬ p)
(6)
¬(p ∨ q)
¬(p ∧ q)
(7)
(p ⇒ q) ∧ p ⇒ q
⇐⇒
⇐⇒
q∨p
q∧p
⇐⇒
⇐⇒
(Kommutativgesetze)
(Negation der Negation)
¬p ∧ ¬q
¬p ∨ ¬q
(Kontraposition der Implikation)
(de Morgansche Regeln)
(modus ponens oder Abtrennungsregel)
Auf den Beweis verzichten wir, da er auf einer etwas aufwendigen aber einfachen
Auswertung der jeweilgen Wahrheitstabellen beruht. Regel (7) wurde übrigens
bereits im antiken Griechenland diskutiert (Theophrast von Eresos, 372 - 287
v.Chr.)
Schließlich sei bemerkt, daß der hier eingeschlagene Weg zum Aufbau der Aussagenenlogik (ebenso wie der zum Aufbau der Prädikatenlogik ertser Stufe im
nächsten Abschnitt) schon allein deshalb problematisch ist, weil hierzu selbst
Aussagen verwendet werden. Diese Schwierigkeiten kann man vermeiden, wenn
man den axiomatischen Aufbau mit Axiomen und Ableitungsregeln verwendet.
Hierzu sei allerdings auf die Literatur verwiesen, z. B. G. Asser, Einführung in
die mathematische Logik I, II. Mit Hilfe dieser Axiomatik gelingt es z. B. auch,
einen Überblick über alle möglichen Tautologien zu gewinnen.
152
ANHANG A. MENGEN UND LOGIK
A.3.2
Prädikatenlogik
Ganz allgemein gesagt geht es hier um Eigenschaften von Elementen einer bestimmten nicht leeren Menge, die oft als Individualbereich bezeichnet wird, und
um Relationen zwischen diesen Elementen. Nimmt man als Individualbereich z.
B. die ganzen Zahlen Z, so wären z. B.
(a) x ist gerade,
(b) x ist Primzahl,
(c) x teilt y,
(d) x + y = z
Eigenschaften ganzer Zahlen bzw. Relationen zwischen ihnen. Bei (a) und (b)
spricht man von einstelligen und bei (c) bzw. (d) von zwei- bzw. dreistelligen Prädikaten. Setzt man für x, y, z jeweils konkrete ganze Zahlen ein, so stellt jedes
dieser Prädikate eine wahre oder falsche Aussage dar. n-stellige Prädikate definieren in diesem Fall also Teilmengen von Zn derjenigen geordneten n-Tupel
ganzer Zahlen, die nach Einsetzen jeweils eine wahre Aussage liefern (in unseren
Fällen ist n = 1, 2 oder 3). Konkret handelt es sich in den einzelnen Fällen um
die folgenden Mengen
(a) G := {2a | a ∈ Z} ⊂ Z,
(b) P ⊂ Z, die Menge der Primzahlen,
(c) T := {(a, ab) | a, b ∈ Z} ⊂ Z2 ,
(d) S := {(a, b, a + b) | a, b ∈ Z} ⊂ Z3 .
Seien nun B, X nicht leere Mengen mit B∩X = ∅. B nennen wir Individualbereich
(oben war B = Z) und die Elemente von X Individualvariable (oben war X =
{x}, X = {x, y} bzw. X = {x, y, z}). Zur Darstellung der Eigenschaften der
Elemente von B bzw. der Relationen zwischen ihnen verwendet man weiterhin
Teilmengen von B n , n ∈ N+ (oben sind dies G, P, T, S). Man bildet dann zunächst
Ausdrücke der Gestalt
Ry1 . . . yn
mit n ∈ N+ , R ⊆ B n und y1 , . . . , yn ∈ B ∪X. Wir nennen sie Elementarausdrücke
(der Prädikatenlogik). Elementarausdrücke Rx1 . . . xn mit x1 , . . . , xn ∈ X heißen
n-stellige Prädikate.
Ist := Ry1 . . . yn ein Elementarausdruck und ist x eine darin vorkommende Individualvariable, so kann man x durch ein beliegiges Element b ∈ B ersetzen. Man
sagt, der so gebildete Elementarausdruck 0 entstehe aus durch Belegung von
x mit b. Insbesondere kann man alle in vorkommenden Individualvariablen
A.3. AUSSAGEN
153
durch Elemente aus B belegen. Dann entsteht ein Elementarausdruck der Gestalt Rb1 . . . bn mit (b1 , . . . , bn ) ∈ B n . Einem solchen Elementarausdruck kann
sodann man einen Wahrheitswert zuweisen:
(
w wenn (b1 , . . . , bn ) ∈ R
v(Rb1 , . . . , bn ) :=
f sonst
In unserem obigen Beispiel (d) gilt z. B. v(S111) = f , v(S123) = w usw.
Wir kommen nun zu den Ausdrücken der Prädikatenlogik erster Stufe. Hierzu
betrachten wir Zeichenketten, in denen außer den Elementen von B ∪ X, Teilmengen von B n , n ∈ N+ , und den logischen Operatoren ¬, ∧, ∨, ⇒, ⇔ noch die
weiteren Symbole ∀ und ∃ vorkommen. Sei Z eine derartige Zeichenkette und
x ∈ X eine in Z vorkommende Individualvariable. Man sage, x kommt in Z
vollfrei vor, wenn keine der Zeichenketten ∀x und ∃x in Z vorkommt. Ansonsten
sagt man, x sei in Z gebunden.
Wir können nun die Ausdrücke der Prädikatenlogik erster Stufe bilden,
wobei man ähnlich vorgeht wie im Fall der Aussagenlogik:
(i) Jeder Elementarausdruck ist ein Ausdruck.
(ii) Ist A Ausdruck, in welchem die Individualvariable x vollfrei vorkommt, so
sind ∀xA, ∃xA Ausdrücke.
(iii) Ist A Ausdruck, so auch ¬ A.
(iv) Sind A, B Ausdrücke, so daß die in A und B gemeinsam auftretenden Individualvariablen jeweils vollfrei vorkommen, so sind auch (A ∧ B), (A ∨ B),
(A ⇒ B), (A ⇔ B) Ausdrücke.
(v) Eine Zeichenreihe der oben beschriebenen Art ist genau dann Ausdruck,
wenn er es auf Grund (i) - (iv) ist.
Bemerkungen A.6.
1. Die Operatoren ∀ und ∃ nennt man Quantoren, genauer heißt ∀ Allquantor und ∃ Existenzquantor.
2. Die Bedingung in (iv) hinsichtlich der gemeinsam auftretenden Individualvariablen hat folgenden Hintergrund: Ohne diese Bedingung wäre z. B.
((∃xRx) ∧ Sx) mit Teilmengen R, S von B ein Ausdruck. Dann dürfte aber
∀x((∃xRx) ∧ Sx) nach (ii) nicht gebildet werden, was aber eigentlich nicht
einzusehen ist, da die Individualvariable x im Teilausdruck ∃xRx gebunden
ist und daher nicht mehr ”stören” kann. Diese Schwierigkeit kann man jedoch umgehen, indem man ∃xRx durch den logisch äquivalenten Ausdruck
∃yRy mit einer weiteren Individualvariablen y (s. Bemerkung A.8.2 unten)
ersetzt und dann statt dessen ∀x((∃yRy) ∧ Sx) bildet.
154
ANHANG A. MENGEN UND LOGIK
3. Analog wie in der Aussagenlogik kann man auch hier Klammern einsparen,
indem man zusätzlich fordert, daß die Quantoren ∀ und ∃ stärker binden
als die logischen Operatoren ∧, ∨, ⇒, ⇔, jedoch schwächer als ¬.
Sei A ein Ausdruck. Jede in A vollfrei vorkommende Individualvariable kann mit
einem beliebigen Element aus B belegt werden. Sind alle Individualvariablen eines
Ausdrucks A gebunden, so kann man A wie folgt einen eindeutig bestimmten
Wahrheitswert v(A) ∈ W := {w, f } zuweisen. Hierzu legen wir die iterative
Definition der Ausdrücke der Prädikatenlogik erster Stufe zugrunde:
Wenn A Elementarausdruck ist, so ist gilt A = Rb1 . . . bn mit n ∈ N+ und
(b1 , . . . , bn ) ∈ B n und wir definiern v(A) wie oben angegeben.
Wenn A Ausdruck gemäß (ii) oder (iii) ist, so definieren wir v(A) wie in der
Aussagenlogik mittels der Wahrheitswerte der in A vorkommenden Teilausdrücke.
Sei nun A Ausdruck gemäß (iv). Dann gilt A = ∀xB oder A = ∃xB mit einem
Ausdruck B, in dem genau eine Individualvariable x vollfrei vorkommt. Für b ∈ B
bezeichnen wir mit B(b) denjenigen Ausdruck, der aus B durch die Belegung von
x durch b entsteht. Wir setzen dann
C := {b ∈ B | v(B(b)) = w}
und definieren
(
w
v(∀xB) :=
f
wenn C = B
sonst
(
w
und v(∃xB) :=
f
wenn C 6= ∅
sonst.
Definition A.7. (a) Ein Ausdruck A heißt Tautologie, wenn bei jeder Belegung
der in A vollfrei vorkommenden Individualvariablen mit Elementen aus B
ein Ausdruck mit Wahrheitswert w entsteht.
(b) Zwei Ausdrücke A, B heißen logisch äquivalent, kurz A ∼
= B, wenn A und B
nach jeder Belegung der in A, B vorkommenden vollfreien Individualvariablen
mit Elementen aus B den gleichen Wahrheitswert haben.
Bemerkungen A.8.
1. Bei der Überprüfung der logischen Äquivalenz zweier
Ausdrücke sind in beiden Ausdrücken jeweils vollfrei vorkommende Individualvariable stets mit dem gleichen Wert zu belegen.
2. Sind A, B Ausdrücke, wobei B aus A entsteht, indem eine in A gebunden
auftretende Individualvariable x durch eine ansonsten nicht in A auftretende Individualvariable y ersetzt wird, so sind A und B logisch äquivalent.
A.4. RELATIONEN
A.4
A.4.1
155
Relationen
Definitionen, Beispiele
Definition A.9. Sei X eine Menge. Eine n-stellige Relation auf X ist eine Teilmenge R von X n .
Besonders wichtig ist dabei der Fall n = 2. Eine zweistellige Relation oder kurz
nur eine Relation auf X ist somit eine Teilmenge R von X ×X. Statt (x1 , x2 ) ∈ R
(x1 , x2 ∈ X) schreibt man häufig x1 R x2 und sagt ”x1 und x2 stehen in der
Relation R”.
Beispiele A.10.
1. Die Teilmenge ∆X := {(x, x) | x ∈ X} von X 2 heißt
Diagonale von X. Da für (x1 , x2 ) ∈ X 2 genau dann (x1 , x2 ) ∈ ∆X gilt,
wenn x1 = x2 , beschreibt ∆X die übliche Gleichheitsrelation (auf X).
2. A := X 2 heißt Allrelation (auf X).
3. Sei M die Menge aller Menschen und V := {(x, y) | x, y ∈ M, x ist
mit y verheiratet}.
Definition A.11. Eine Relation R auf einer Menge X heißt
• reflexiv, wenn x R x für alle x ∈ X (d. h. ∆X ⊆ R)
• symmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 folgt x2 R x1 (d. h.
aus (x1 , x2 ) ∈ R folgt (x2 , x1 ) ∈ R)
• antisymmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 und x2 R x1
folgt x1 = x2 (d. h. aus (x1 , x2 ), (x2 , x1 ) ∈ R folgt x1 = x2 )
• transitiv, wenn für alle x1 , x2 , x3 ∈ X gilt: Aus x1 R x2 und x2 R x3 folgt
x1 R x3 (d. h. aus (x1 , x2 ), (x2 , x3 ) ∈ R folgt (x1 , x3 ) ∈ R).
A.4.2
Ordnungs- und Äquivalenzrelationen
Wir definieren nun die folgenden wichtigen Relationen
Definition A.12. Eine Relation heißt
(a) Ordnungsrelation, wenn sie reflexiv, antisymmetrisch und transitiv ist.
(b) Äquivalenzrelation, wenn sie reflexiv, symmetrisch und transitiv ist.
Ordnungsrelationen werden oft mit ≤, usw. bezeichnet. Ist ≤ Ordnungsrelation
auf einer Menge X, so schreibt man für x1 ≤ x2 und x1 6= x2 kurz x1 < x2
(x1 , x2 ∈ X). Mitunter ist es auch nützlich, neben ≤ (bzw. , . . .) noch das
156
ANHANG A. MENGEN UND LOGIK
Symbol ≥ (bzw. , . . .) zu verwenden, wobei x1 ≥ x2 genau dann gilt, wenn
x2 ≤ x1 (bzw. x1 x2 genau dann, wenn x2 x1 usw.).
Definition A.13. Eine Menge X mit einer Ordnungsrelation ≤ wird auch als
teilweise geordnete Menge bezeichnet, Schreibweise (X, ≤). Sei (X, ≤) teilweise
geordnete Menge.
(a) ≤ heißt vollständig (oder auch total), wenn für alle x1 , x2 ∈ X gilt x1 ≤ x2
oder x2 ≤ x1 .
(b) Eine bzgl. ≤ vollständig geordnete Teilmenge von X heißt Kette von X (bzgl.
≤).
(c) Ist ≤ vollständig und besitzt jede nicht leere Teilmenge von X bzgl. ≤ ein
kleinstes Element, so heißt ≤ Wohlordnung (auf X).
Beispiele A.14.
lation.
1. Die Gleichheitsrelation ist Ordnungs- und Äquivalenzre-
2. Ist R Äquivalenzrelation (Ordnungsrelation) auf einer Menge X, so ist
R|Y := Y 2 ∩ R für jede Teilmenge Y von X Äquivalenzrelation (Ordnungsrelation) auf Y . Mann nennt sie die durch R auf Y induzierte Relation.
3. Die übliche Ordnung ≤ auf den Mengen N, Z, Q und R ist jeweils eine
vollständige Ordnungsrelation. Sie ist Wohlordnung auf N, jedoch nicht auf
Z (und damit auch nicht auf Q und R).
4. Sei X eine Menge. Die Teilmengenrelation ⊆ ist eine Ordnungsrelation auf
der Potenzmenge P (X) von X. Nach 2. induziert sie eine Ordnungsrelation
auf jeder Teilmenge von P (X).
5. Die Teilbarkeitsrelation | auf der Menge N der natürlichen Zahlen ist eine
def
nicht vollständige Ordnungsrelation. (Für a, b ∈ N gilt a|b ⇐⇒ ac = b für
ein c ∈ N.)
6. Sei n ∈ Z. Die Kongruenz ≡ n modulo n ist Äquivalenzrelation auf Z. (Für
def
a, b ∈ Z gilt a ≡ n b ⇐⇒ n|a − b.)
7. Das Wohlordnungsaxiom oder Wohlordnungspostulat besagt, daß jede Menge wohlgeordnet werden kann, d. h. daß auf jeder Menge eine Wohlordnung
existiert. Es gehört zu den grundlegenden Axiomen der Mengenlehre, s.
Bemerkung A.16.3.
Definition A.15. Sei (X, ≤) eine teilweise geordnete Menge.
(a) Ein Element x ∈ X heißt maximal (minimal), wenn für alle y ∈ X aus x ≤ y
(x ≥ y) folgt y = x.
(b) Ein Element x ∈ X heißt obere (untere) Schranke einer Teilmenge Y von X,
wenn y ≤ x (y ≥ x) für alle y ∈ Y .
A.4. RELATIONEN
157
(c) Ein Element x ∈ X heißt obere (untere) Grenze einer Teilmenge Y von X,
wenn x kleinste (größte) obere (untere) Schranke von Y ist.
√
Bemerkungen, Beispiele A.16.
1. Die Menge {y ∈ Q | y < 2} besitzt
in Q zwar obere Schranken (nämlich alle positiven rationalen Zahlen q mit
q 2 > 2), aber keine obere Grenze.
2. Das Lemma von Zorn besagt, daß eine nicht leere teilweise geordnete Menge X maximale Elemente besitzt, wenn jede Kette von X (s. Definition
A.13(b)) eine obere Schranke in X hat. Das Zornsche Lemma zählt ebenso
wie das Wohlordnungsaxiom (s. Definition A.14.7) und das Auswahlaxiom
(s. Bemerkung A.21.2) zu den grundlegenden Axiomen der Mengenlehre.
3. Man kann zeigen, daß Wohlordnungsaxiom, Zornsches Lemma und Auswahlaxiom äquivalente Aussagen sind. Keine dieser Aussagen kann aber
aus den übrigen mengentheoretischen Axiomen abgeleitet werden.
Das folgende Lemma ist oft hilfreich, wenn die Existenz maximaler Elemente in
einer teilweise geordneten Menge nachgewiesen werden muß.
Lemma
S A.17. Sei X nicht leere Teilmenge der Potenzmenge einer Menge X .
Wenn K∈K K ∈ X für jede Kette K in X, so besitzt X bzgl. ⊆ maximale Elemente.
S
Beweis. Dies ergibt sich sofort aus dem Zornschen Lemma, da K∈K K ∈ X für
eine Kette K in X ⊆ P (X ) obere Schranke (sogar obere Grenze) in P (X ) und
damit in X ist,
A.4.3
Äquivalenzklassen, Partitionen
Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Für jedes x ∈ X sei
Kx := {y | y ∈ X, y ∼ x} ⊆ X. Dann gilt für x, y ∈ X
x ∈ Kx
Kx = Ky genau dann, wenn x ∼ y
Kx ∩ Ky = ∅ falls x 6∼ y.
und
Die Äquivalenzrelation ∼ liefert somit eine Menge K := {Kx | x ∈ X} nicht
leerer Teilmengen von X mit folgenden Eigenschaften
[
K=X
(A.1)
K∈K
K ∩ K 0 = ∅ für alle K, K 0 ∈ K mit K 6= K 0 .
(A.2)
K wird mit meist X/ ∼ bezeichnet, Sprechweise ”X modulo ∼” oder auch ”X
nach ∼”. Die Elemente von K werden Äquivalenzklassen bzgl. ∼ genannt.
158
ANHANG A. MENGEN UND LOGIK
Allgemein heißt eine Menge K nicht leerer Teilmengen von X, die (A.1) und (A.2)
erfüllt, Partition (manchmal auch Klasseneinteilung) von X. Eine Äquivalenzrelation auf X führt also zu einer Partition von X. Umgekehrt gibt jede Partition
K von X Anlaß zu einer Äquivalenzrelation ∼ auf X, indem man für x, y ∈ X
setzt:
x∼y
genau dann, wenn es ein K ∈ K gibt mit x, y ∈ K.
Äquivalenzrelationen auf X und Partitionen von X entsprechen sich also umkehrbar eindeutig.
A.5
Abbildungen
Seien X, Y Mengen. Eine Teilmenge F von X × Y heißt
• Funktion von X nach Y , wenn es für alle x ∈ X höchstens ein y ∈ Y gibt
mit (x, y) ∈ F
• Abbildung von X nach Y , wenn es für alle x ∈ X genau ein y ∈ Y gibt mit
(x, y) ∈ F .
Eine Abbildung ist also eine spezielle Funktion. Ist F Funktion von X nach Y ,
so heißen die Mengen
D(F ) := {x | x ∈ X und es gibt ein y ∈ Y mit (x, y) ∈ F } ⊆ X bzw.
W (F ) := {y | y ∈ Y und es gibt ein x ∈ X mit (x, y) ∈ F } ⊆ Y
Definitionsbereich bzw. Wertebereich von F . X bzw. Y selbst heißen Quelle bzw.
Ziel von F . Offenbar ist F eine Abbildung genau dann, wenn D(F ) = X.
Wir werden es hier in der Regel mit Abbildungen zu tun haben (im Unterschied
zur Analysis). Sei also F ⊆ X × Y eine Abbildung und sei x ∈ X. Laut DefiF
nition gibt es genau ein y ∈ Y mit (x, y) ∈ F . Man schreibt x 7→ y (oder auch
nur x 7→ y) bzw. y = F (x), wodurch eine ”Zuordnungsvorschrift” gegeben ist.
Um von der ursprünglich gegeben Menge F zu unterscheiden, wählt man hierfür
in der Regel ein anderes Symbol, etwa f . Dementsprechend werden Abbildungen
f
meist durch f : X → Y bzw. X → Y und y = f (x), wenn (x, y) ∈ F , bezeichnet. Die ursprünglich gegebene Menge F ⊆ X × Y heißt dann Graph von
f . Der Zusammenhang zwischen F und f wird durch F = {(x, f (x)) | x ∈ X}
beschrieben.
Beispiele A.18.
1. Sei X := R und F := {(x, x2 ) | x ∈ R} ⊂ R × R. Dies
ist offensichtlich eine Abbildung von R nach R, die üblicherweise in der
Form ”f (x) = x2 für alle x ∈ R ” aufgeschrieben wird. Ihr Graph (also
A.5. ABBILDUNGEN
159
F ) kann in der mit einem kartesischen Koordinatensystem ausgestatteten
reellen Ebene als Parabel dargestellt werden.
2. Sei X eine nicht leere Menge. Die Diagonale ∆X ⊆ X × X (s. Beispiel
A.10.1) ist auch eine Abbildung. Die entsprechende Zuordnungsvorschrift
X → X wird mit idX bezeichnet und heißt identische Abbildung (von X).
Offensichtlich gilt idX (x) = x für alle x ∈ X.
3. Sei X eine Menge und Y nicht leere Teilmenge von X. Da jedes Element
von Y auch Element von X ist, ist durch y 7→ y ∈ X für alle y ∈ Y eine
Abbildung ι : Y → X gegeben (mit ι(y) = y für alle y ∈ Y ). ι wird als
Einbettung (von Y in X) bezeichnet. Der Graph von ι ist ∆Y , aufgefaßt
allerdings als Teilmenge von X × Y (⊇ Y × Y ). Im Fall Y = X ist ι die
identische Abbildung.
4. Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Durch x 7→ Kx
für alle x ∈ X (Kx ist diejenige Klasse bzgl. ∼, die x enthält, s. Abschnitt
A.4.3) ist eine Abbildung p : X → X/ ∼ definiert. Sie wird (natürliche)
Projektion von X auf X/ ∼ genannt.
Im folgenden führen wir eine Reihe wichtiger Begriffe ein, ohne dazu eigenständige
Definitionen zu formulieren.
Für Mengen X, Y sei Abb (X, Y ), ältere Bezeichnung Y X , die Menge aller Abbildungen von X nach Y . (Dies ist in der Tat eine Menge, da unter Verwendung
der ursprünglichen Definition gilt Abb (X, Y ) ⊆ P (X × Y ).
Da ∅ × Y = ∅, ist Abb (∅, Y ) ⊆ P (∅) = {∅}. Wegen ∅ ⊆ Y , deuten wir dies in
Anlehnung an Beispiel A.18.3 oben als Einbettung ι : ∅ → Y , d. h. wir haben
damit für jede Menge Y : Abb (∅, Y ) 6= ∅, genauer, Abb (∅, Y ) = {ι}. Hingegen
setzt man Abb (X, ∅) = ∅ für jede Menge X 6= ∅.
Sind X, Y, Z Mengen und sind f : X → Y und g : Y → Z Abbildungen, so ist
durch ϕ(x) := g(f (x)) für alle x ∈ X offensichtlich eine Abbildung ϕ : X → Z
definiert. Sie heißt Hintereinanderschaltung (oder manchmal Verkettung) von f
und g, Schreibweise: ϕ = g ◦ f oder auch nur ϕ = gf . Hierfür gilt Assoziativität
(s. auch Abschnitt A.2):
Ist U weitere Menge und ist h : Z → U Abbildung, so haben wir
(h ◦ g) ◦ f = h ◦ (g ◦ f ) oder kurz (hg)f = h(gf ),
wie man sofort bestätigt. Außerdem gilt für eine beliebige Abbildung f : X → Y :
idY ◦ f = f ◦ idX = f.
Laut Definition kann die Hintereinanderschaltung zweier Abbildungen f und g
nur gebildet werden, wenn das Ziel von f mit der Quelle von g übereinstimmt.
160
ANHANG A. MENGEN UND LOGIK
Dies werden wir immer stillschweigend voraussetzen, wenn wir von Hintereinanderschaltungen von Abbildungen sprechen.
Seien X, Y Mengen und sei f : X → Y eine Abbildung.
Für jede Teilmenge U von X ist dann f (U ) := {f (x) | x ∈ U } Teilmenge von
Y . Man nennt sie Bild von U (unter f ). Insbesondere nennt man das Bild von X
unter f , also die Teilmenge f (X) von Y , Bild von f , kurz Bild f .
Ist U Teilmenge von X, so ist durch u 7→ f (u), u ∈ U , eine Abbildung U → Y
definiert. Sie heißt Einschränkung von f auf U und wird mit f |U bezeichnet.
Damit gilt z. B. f (U ) = Bild f |U .
Natürlich kann man auch das Ziel einschränken. Sei U Teilmenge von X. Für jede
Teilmenge V von Y mit f (U ) ⊆ V ist durch u 7→ f (u), u ∈ U , eine Abbildung
U → V gegeben, die man mitunter mit f |VU bezeichnet.
Eine Abbildung f : X → Y (X, Y Mengen) heißt
• injektiv, falls für alle x1 , x2 ∈ X gilt: Aus f (x1 ) = f (x2 ) folgt x1 = x2
• surjektiv, falls es für alle y ∈ Y ein x ∈ X gibt mit f (x) = y
• bijektiv, falls f injektiv und surjektiv ist.
Es ist klar, daß die Hintereinanderschaltung injektiver (surjektiver, bijektiver)
Abbildungen wieder injektiv (surjektiv, bijektiv) ist. Offensichtlich ist die identische Abbildung einer Menge bijektiv. Außerdem bestätigt man sofort, daß folgendes gilt:
Ist die Hintereinanderschaltung gf zweier Abbildungen f, g injektiv (surjektiv),
so ist f injektiv (g surjektiv).
f (U )
Sei f : X → Y eine Abbildung (X, Y Mengen). Es ist klar, daß f |U : U → f (U )
für jede Teilmenge U von X surjektiv ist. Insbesondere induziert f damit eine
surjektive Abbildung f |f (X) : X → f (X), die man der Einfachheit halber meist
wieder mit f bezeichnet. Ist f injektiv, so ist f |U für jede Teilmenge U von X
injektiv und wir haben durch die soeben beschriebene Einschränkung des Zieles
von fU eine Bijektion U → f (U ), insbesondere also eine Bijektion X → f (X).
Satz und Definition A.19. Seien X, Y Mengen und sei f : X → Y eine
Abbildung.
f ist bijektiv genau dann, wenn es eine Abbildung g : Y → X gibt mit g ◦ f = idX
und f ◦ g = idY .
Ist f bijektiv, so ist diese Abbildung g eindeutig durch f bestimmt und heißt zu f
inverse Abbildung. Bezeichnung: g = f −1 .
A.5. ABBILDUNGEN
161
Beweis. Nehmen wir an, daß es eine Abbildung g : Y → X gibt mit g ◦ f = idX
und f ◦ g = idY . Da idX und idY bijektiv sind, folgt aus f ◦ g = idY , daß f
injektiv ist, und aus g ◦ f = idX , daß f surjektiv ist (s. die Vorbemerkung zu
dieser Aussage). Damit ist f aber bijektiv.
Sei nun f bijektiv. Bezeichnen wir mit F den Graph von f , so gibt es laut
Definition für alle y ∈ Y genau ein x ∈ X mit (x, y) ∈ F . Damit ist aber
G := {(y, x) | x ∈ X, y ∈ Y, (x, y) ∈ F } ⊆ Y × X eine Abbildung (von Y nach
X). Bezeichnen wir die entsprechende Zuordnungsvorschrift mit g, so gilt - wie
man sofort bestätigt - g ◦ f = idX und f ◦ g = idY .
Angenommen, es gibt eine weitere Abbildung g 0 : Y → X mit g 0 ◦ f = idX (und
f ◦ g 0 = idY ). Dann folgt
g 0 = g 0 ◦ idY = g 0 ◦ (f ◦ g) = (g 0 ◦ f ) ◦ g = idX ◦ g = g,
Seien X, Y, V, W Mengen und seien f : X → Y und g : V → W Abbildungen.
Wir definieren eine Abbildung h : X × V → Y × W durch
h((x, v)) := (f (x), g(v)) für alle x ∈ X, v ∈ V.
h nennt man entsprechend Produkt von f und g und schreibt dafür h =: f × g.
Es ist klar, daß f × g genau dann injektiv (surjektiv, bijektiv) ist, wenn f und g
injektiv (surjektiv, bijektiv) sind.
Seien X, Y Mengen und sei f : X → Y eine Abbildung. Für eine Teilmenge U
von Y setzt man
f −1 (U ) := {x ∈ X | f (x) ∈ U } ⊆ X
Urbild von U (unter f ).
Für y ∈ Y schreibt man kurz f −1 (y) := f −1 ({y}) und nennt diese Menge
Faser von f über y. Es ist klar, daß für y ∈ Y gilt f −1 (y) 6= ∅ genau dann,
wenn y ∈ Bild f . Außerdem überzeugt man sich schnell davon, daß durch
def
x1 ∼ x2 ⇐⇒ f (x1 ) = f (x2 ),
x1 , x2 ∈ X,
eine Äquivalenzrelation auf X gegeben ist, deren Klassen genau die nicht leeren
Fasern von f sind.
Mit Hilfe von Abbildungen lassen sich auch Produkte von beliebig vielen Mengen
definieren:
Definition A.20. Sei (Xι )ι∈I eine (über der Indexmenge I indizierte) Mengenfamilie. Dann heißt
Y
[
Xι := f : I →
Xι | f (ι) ∈ Xι für alle ι ∈ I
ι∈I
ι∈I
162
ANHANG A. MENGEN UND LOGIK
Produkt der Xι , ι ∈ I. Die Elemente von
tionen auf (Xι )ι∈I bezeichnet.
Q
ι∈I
Xι werden auch als Auswahlfunk-
Bemerkungen A.21. Mit den Bezeichnungen von Definition A.20 haben wir
Q
1. ι∈I S
Xι ist leer, wenn I 6= ∅ undQXι = ∅ für ein ι ∈ I. (Ist I = ∅, so setzt
man ι∈I Xι = ∅ und damit ist ι∈I Xι einelementige Menge.)
2. Wenn I 6= ∅ und Xι 6= ∅ für alle ι ∈ I, so besagt das sogenannte Auswahlaxiom oder Auswahlpostulat, das zu den grundlegenden Axiomen
der MenQ
genlehre zählt, daß es Auswahlfunktionen gibt, d. h. daß ι∈I Xι 6= ∅, s.
hierzu auch Bemerkung A.16.3.
Q
3. Wenn I = {1, . . . , n} mit n ∈ N, so kann man f ∈ ι∈I Xι mit seiner
”Wertetabelle”, also mit (f (1), . . . , f (n)) ∈ X1 × . . . × Xn identifizieren.
Damit hat man dann
n
Y
Xi :=
i=1
Y
Xι = X1 × . . . × Xn .
ι∈{1,...,n}
4. Zur Definition von Produkten kann man natürlich auch von einer Menge
X von Mengen ausgehen (statt von einer indizierten Mengenfamilie). Die
entsprechende Definition lautet dann
Y
[
X := f : X →
X | f (X) ∈ X für alle X ∈ X .
X∈X
X∈X
Entsprechend werden die Elemente von
X bezeichnet.
Q
X∈X
X als Auswahlfunktionen auf
Definition A.22. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Ein
Schnitt von f ist eine Abbildung g : Y → X mit f g = idY .
Lemma A.23. Für Mengen X, Y gilt
(1) Eine Abbildung f : X → Y besitzt genau dann einen Schnitt, wenn f surjektiv
ist.
(2) Sei Y =
6 ∅. Eine Abbildung g : Y → X ist Schnitt einer Abbildung X → Y
genau dann, wenn g injektiv ist.
Beweis. Besitzt eine Abbildung f : X → Y einen Schnitt g : Y → X oder ist
eine Abbildung g : Y → X Schnitt einer Abbildung f : X → Y , so gilt f g = idY
und damit ist f surjektiv und g injektiv.
Sei nun eine surjektive Abbildung f : X → Y gegeben. Wenn X = ∅, so folgt
Y = ∅ und f ist trivialerweise Schnitt Q
von sich selbst. Sei also X 6= ∅. Dann ist
auch Y nicht leer und somit gilt P := y∈Y f −1 (y) 6= ∅, denn da f surjektiv ist,
A.6. KARDINALZAHLEN
163
ist keine Faser von f leer. Sei g ∈ P . Da für alle y ∈ Y gilt g(y) ∈ f −1 (y) und
somit (f g)(y) = f (g(y)) = y, folgt f g = idY . Jedes Element von P ist daher ein
Schnitt von f ; insbesondere besitzt f einen Schnitt.
Sei nun Y 6= ∅ und g : Y → X injektive Abbildung. Dann sind die Fasern
von g leer oder einelementig. Wir wählen y0 ∈ Y und definieren eine Abbildung
f : X → Y , indem wir für alle x ∈ X setzen
(
y
f (x) :=
y0
falls g −1 (x) = {y}
falls g −1 (x) = ∅.
Laut Konstruktion von f ist klar, daß f g = idY , d. h. g ist Schnitt von f ,
A.6
Kardinalzahlen
Definition A.24. Zwei Mengen X und Y heißen gleichmächtig, wenn es eine
Bijektion X → Y gibt.
Man bestätigt sofort, daß damit eine Äquivalenzrelation ∼
= auf der Klasse aller
∼
Mengen gegeben ist. Eine Äquivalenzklasse bzgl. = besteht somit aus einer Klasse
von Mengen, die paarweise gleichmächtig sind.
Definition A.25. (a) Eine Äquivalenzklasse bzgl. der Gleichmächtigkeitsrelation ∼
= auf der Klasse aller Mengen heißt Kardinalzahl.
(b) Sei X eine Menge. Diejenige Äquivalenzklasse bzgl. ∼
= (also diejeniige Kardinalzahl), welche X enthält, heißt Kardinalzahl von X, Bezeichnung: ] X oder
mitunter auch |X|.
(c) Für Kardinalzahlen κ, κ0 setzt man κ ≤ κ0 , wenn es Mengen X, X 0 mit ] X =
κ, ] X 0 = κ0 und eine injektive Abbildung X → X 0 gibt.
Ohne Beweis geben wir das folgende Resultat, welches zeigt, daß ≤ eine Ordnungsrelation auf der Klasse der Kardinalzahlen ist.
Satz A.26 (Schröder-Bernstein). Für Kardinalzahlen κ, λ, µ gilt
• κ≤κ
• Aus κ ≤ λ und λ ≤ κ folgt κ = λ
• Aus κ ≤ λ und λ ≤ µ folgt κ ≤ µ.
164
ANHANG A. MENGEN UND LOGIK
A.6.1
Endliche und abzählbare Mengen
Definition A.27. (a) Eine Menge X heißt endlich, wenn folgendes gilt:
Ist Y Teilmenge von X und gibt es eine surjektive Abbildung Y → X, so folgt
schon Y = X.
Nicht endliche Mengen werden unendliche Mengen genannt.
(b) Eine Menge X heißt abzählbar, wenn es eine bijektive Abbildung N → X gibt,
d. h. wenn X und N gleichmächtig sind.
(c) Mengen, die endlich oder abzählbar sind, werden als höchstens abzählbar bezeichnet.
(d) Mengen, die nicht endlich und nicht abzählbar sind, heißen überabzählbar.
Sind X, Y gleichmächtige Mengen, so ist offensichtlich X endlich (abzählbar,
überabzählbar) genau dann, wenn Y endlich (abzählbar, überabzählbar) ist.
Wir bemerken, daß für eine endliche Menge X gilt: Ist f : X → X surjektiv, so
ist f schon bijektiv. Wenn nämlich f (x) = f (y) für x, y ∈ X, x 6= y, so wäre
f |Y : Y → X für Y := X \ {y} ebenfalls surjektiv. Wegen Y ⊂ X hätten wir
aber einen Widerspruch. Damit ist f injektiv und somit bijektiv.
Wir bemerken ferner, daß die Menge N der natürlichen Zahlen nicht endlich ist,
denn durch
i 7→ i − 1,
i ∈ N+ ,
ist eine surjektive Abbildung N+ → N gegeben (obwohl N+ ⊂ N). Damit sind
abzählbare Mengen nicht endlich. Hingegen ist z. B. die leere Menge ∅ endlich,
da sie keine echten Teilmengen enthält.
Lemma A.28. Teilmengen endlicher Mengen sind endlich.
Beweis. Sei X endliche Menge und Y ⊆ X. Weiter sei Z ⊆ Y und f : Z → Y
surjektive Abbildung. Wir setzen Z 0 := Z ∪ (X \ Y ) ⊆ X und definieren durch
f (z 0 ) falls z 0 ∈ Z
0
g(z ) :=
für alle z 0 ∈ Z 0
z0
falls z 0 6∈ Z
eine Abbildung g : Z 0 → X. Wie man sofort sieht, ist g ebenfalls surjektiv. Nach
Voraussetzung gilt daher Z 0 = X und folglich Z = Z 0 ∩ Y = X ∩ Y = Y ,
Satz A.29. Für eine natürliche Zahl n ∈ N sei Λn := {1, 2, . . . , n} ⊂ N (Λ0 = ∅).
Dann gilt:
(1) Für jedes n ∈ N ist Λn endliche Menge.
A.6. KARDINALZAHLEN
165
(2) Für jede endliche Menge X gibt es eine eindeutig bestimmte natürliche Zahl
n und eine Bijektion X → Λn .
(3) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent:
(i) X ist höchstens abzählbar
(ii) Es gibt eine injektive Abblildung X → N
(iii) Es gibt eine surjektive Abbildung N → X.
(4) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent:
(i) X ist unendlich
(ii) Es gibt eine injektive Abblildung N → X
(iii) Es gibt eine surjektive Abbildung X → N.
Beweis. Sei X 6= ∅ eine (wohlgeordnete) Menge. Für alle n ∈ N definieren wir
induktiv über n Abbildungen fn : Λn → X mit fn+1 |Λn = fn und Elemente
xn ∈ X wie folgt:
Für n = 0 sei f0 die Einbettung ∅ ⊆ X der leeren Menge ∅ = Λ0 in X und x0 sei
ein beliebiges Element von X (x0 := min X).
Sind fn : Λn → X und xn ∈ X für n ≥ 0 schon definiert, so sei zunächst fn+1
erklärt durch
fn (i) falls i ≤ n
fn+1 (i) :=
für alle i ∈ Λn+1 .
xn
falls i = n + 1.
Wenn fn+1 (Λn+1 ) = X, so setzen wir xn+1 := xn . Wenn fn+1 (Λn+1 ) 6= X, so wäh
len wir xn+1 ∈ X \ fn+1 (Λn+1 ) beliebig setzen wir xn+1 := min(X \ fn+1 (Λn+1 ) .
Laut Konstruktion ist klar, daß für alle n ∈ N gilt:
• fn+1 (Λn+1 ) = {x0 , . . . , xn }
• x > xn für alle x ∈ X \ fn+1 (Λn+1 ), falls X wohlgeordnet ist
• fn+1 |Λn = fn
• xn 6∈ fn (Λn ), falls fn nicht surjektiv ist.
Damit ist fn+1 injektiv genau dann, wenn fn injektiv ist und fn (Λn ) ⊂ X (d. h.
wenn fn injektiv aber nicht surjektiv ist).
Nun definieren wir nun eine Abbildung f : N+ → X, indem wir für alle i ∈ N+
setzen
f (i) := fi (i).
166
ANHANG A. MENGEN UND LOGIK
Es ist klar, daß f |Λn = fn für alle n ∈ N. Wie man sofort bestätigt, sind daher
die folgenden Aussagen äquivalent:
(i) f ist injektiv
(ii) fn ist injektiv für alle n ∈ N
(iii) fn ist nicht bijektiv für alle n ∈ N.
(1) Wir benutzen vollständige Induktion nach n. Für n = 0 gilt Λ0 = ∅ und diese
Menge ist endlich (s. o.).
Angenommen, die Aussage ist für n ≥ 0 richtig. Sei Y Teilmenge von Λn+1
und sei ϕ : Y → Λn+1 eine surjektive Abbildung. Wir setzen
Z := {y | y ∈ Y, ϕ(y) 6= n + 1} ⊆ Y .
Da ϕ surjektiv ist, gilt sogar Z ⊂ Y . Wir definieren nun ψ : Z → Λn durch
ψ(z) := ϕ(z) für alle z ∈ Z (d. h. ψ = ϕ|ΛZn ). Da ϕ surjektiv ist, ist auch ψ
surjektiv, wie man sofort aus der Definition von Z erkennt.
Wenn n + 1 6∈ Z, so ist Z ⊆ Λn und damit gilt nach Induktionsvoraussetzung
Z = Λn und folglich Λn+1 \ Y ⊂ Λn+1 \ Z = Λn+1 \ Λn = {n + 1}. Dies ist
nur möglich, wenn Λn+1 \ Y = ∅, d. h. Y = Λn+1 .
Nehmen wir nun an, daß n+1 ∈ Z. Wegen Z ⊂ Y gibt es ein i ∈ Y mit i 6∈ Z.
Wir setzen Z 0 := (Z \ {n + 1}) ∪ {i} ⊆ Λn und definieren eine Abbildung
ψ 0 : Z 0 → Λn , indem wir für alle z 0 ∈ Z 0 setzen
ψ(z 0 )
wenn z 0 ∈ Z
0 0
ψ (z ) :=
ψ(n + 1) wenn z 0 = i
Da ψ surjektiv ist, ist ψ 0 ebenfalls surjektiv und damit gilt nach Induktionsvoraussetung Z 0 = Λn . Völlig analog wie im vorangehenden Fall folgt nun
auch hier Y = Λn+1 und damit ist (1) bewiesen.
(2) Sei nun X eine endliche Menge. Wenn X = ∅, so ist nichts mehr zu zeigen.
Sei also X 6= ∅. Wir betrachten die eingangs konstruierten Abbildungen fn :
Λn → X, n = 0, 1, 2, . . . , sowie f : N+ → X. Wäre f injektiv, so würde f
eine Bijektion N+ → f (N+ ) induzieren. Da N+ nicht endlich ist, wäre dann
auch f (N+ ) nicht endlich im Widerspruch zu f (N+ ) ⊆ X, s. Lemma A.28.
Daher ist f nicht injektiv. Weil f0 trivialerweise injektiv ist, gibt es somit
ein n ∈ N derart, daß fn injektiv und fn+1 nicht injektiv ist. Wie wir oben
gesehen haben, bedeutet das aber, daß fn surjektiv und damit bijektiv ist.
Folglich ist fn−1 : X → Λn Bijektion.
Angenommen, es gibt m, n ∈ N und Bijektionen g : X → Λm und h : X →
Λn . O. B. d. A. gelte m ≤ n. Dann ist Λm ⊆ Λn und wir haben eine Bijektion
A.6. KARDINALZAHLEN
167
hg −1 : Λm → Λn . Nach (1) gilt daher Λm = Λn und somit m = n. Dies zeigt
die behauptete Eindeutigkeit von n.
(3) (i) ⇒ (iii): Wenn X abzählbar ist, so gibt es definitionsgemäß eine Bijektion
N → X und wir sind fertig. Wenn X endlich ist, so dürfen wir nach (2) o. B.
d. A. annehmen, daß X = Λn für ein n ∈ N. Wir definieren nun τ : N → Λn
durch
i + 1 falls i < n
τ (i) :=
für alle i ∈ N.
n
falls i ≥ n
Es ist klar, daß τ surjektiv ist.
(iii) ⇒ (ii): Sei τ : N → X surjektive Abbildung und sei σ : X → N Schnitt
von τ (s. Lemma A.23). Dann ist σ injektiv.
(ii) ⇒ (i): Wir dürfen o. B. d. A. annehmen, daß X ⊆ N und daß X unendlich
ist. Dann ist die eingangs definierte Abbildung f : N+ → X injektiv, da fn
nach (1) und (2) für kein n ∈ N bijektiv sein kann. Außerdem ist X als
Teilmenge von N wohlgeordnet.
Wäre f nicht surjektiv, so würde für x ∈ X \ f (N+ ) auf Grund der Definition
von f im wohlgeordneten Fall y < x für alle y ∈ f (N+ ) gelten, d. h. wir hätten
f (N+ ) ⊆ {0, 1, . . . , n − 1} ∼
= Λn (vermöge i 7→ i + 1, i = 0, 1, . . . , n − 1). Nach
Lemma A.28 wäre dann f (N+ ) endlich, Widerspruch. Damit ist f surjektiv,
mithin bijektiv, d. h. X ist abzählbar.
(4) (i) ⇒ (ii): Wir betrachten wieder die eingangs definierte Abbildung f : N+ →
X. Da fn nach (1) und (2) für kein n ∈ N bijektiv ist, ist f injektiv.
(ii) ⇒ (iii): Sei ι : N → X injektive Abbildung und sei π : X → N so gewählt,
daß ι ein Schnitt π ist (s. Lemma A.23). Dann ist π surjektiv.
(iii) ⇒ (i): Sei π : X → N surjektive Abbildung und sei ι : N → X Schnitt
von π (s. Lemma A.23). Dann ist ι injektiv, so daß o. B. d. A. N ⊆ X. Nach
Lemma A.28 ist X unendlich (da N unendlich ist),
A.6.2
Endliche Kardinalzahlen
Definition A.30. (a) Eine Kardinalzahl κ heißt endlich, wenn es eine endliche
Menge X gibt mit ]X = κ (d. h. X ∈ κ).
(b) Eine endliche Kardinalzahl κ wird mit der nach Satz A.29(2) eindeutig bestimmten natürlichen Zahl n identifiziert, für die ]Λn = κ gilt, d. h. man
setzt ]X = n für jede zu Λn gleichmächtige Menge X.
(c) Die Kardinalzahl der abzählbaren Mengen (= ] N) wird mit ℵ0 bezeichnet (ℵ:
erster Buchstabe des hebräischen Alphabets, sprich: aleph).
168
ANHANG A. MENGEN UND LOGIK
Wie wir bereits festgestellt haben, ist jede Teilmenge einer endlichen Menge wieder endlich. Wir haben nun aber sogar
Folgerung A.31 (aus Satz A.29). (1) Sei X eine endliche Menge. Dann gilt
] Y ≤ ] X für jede Teilmenge Y von X und ] Y < ] X für jede echte Teilmenge Y von X.
(2) Jede Teilmenge einer abzählbaren Menge ist höchstens abzählbar.
Beweis. (2) ergibt sich aus Satz A.29(3).
Um (1) zu zeigen, setzen wir n := ] X und m := ] Y . Nach Satz A.29 (2) haben
wir Bijektionen f : X → Λn und g : Y → Λm . Wenn m ≥ n, so wählen wir einen
Schnitt h : Λm → Λn der Einbettung ι : Λn → Λm (vgl. Lemma A.23). Da dann
hι = idΛn , sind h und folglich f −1 hg : Y → X surjektiv. Es gilt also Y = X und
somit m = n,
Satz A.32. Seien X, Y Mengen.
(1) Ist X endlich, so sind X ∩ Y und X \ Y ebenfalls endlich und es gilt
(a) ] (X ∩ Y ) + ] (X \ Y ) = ] X.
Ist auch Y endlich, so sind X ∪ Y und X × Y endlich und es gilt
(b) ] (X ∪ Y ) + ] (X ∩ Y ) = ] X + ] Y
(c) ] (X × Y ) = ] X · ] Y
(2) Ist X abzählbar, so gilt
(a) X ∩ Y und X \ Y sind höchstens abzählbar.
(b) Ist Y endlich, so ist X \ Y abzählbar.
(c) Ist Y höchstens abzählbar, so sind X ∪Y und, falls Y nicht leer ist, X ×Y
abzählbar.
(3) Ist X endlich, so ist P (X) endlich und es gilt
] P (X) = 2] X .
(4) Es gibt keine surjektive Abbildung X → P (X). Ist X abzählbar, so ist damit
P (X) überabzählbar.
Beweis. (1) X ∩ Y und X \ Y sind als Teilmengen von X endlich.
Sei zunächst auch Y endlich. Wir setzen m := ] X und n := ] Y . Dann gibt
es Bijektionen f : X → Λm und g : Y → Λn und somit ist f × g : X × Y →
Λm × Λn ebenfalls Bijektion (vgl. Abschnitt A.5). Zum Nachweis von (c)
A.6. KARDINALZAHLEN
169
reicht es daher zu zeigen, daß es eine Bijektion h : Λm × Λn → Λm·n gibt. Da
Z × ∅ = ∅ × Z = ∅ für jede Menge Z, dürfen wir dazu o. B. d. A. annehmen,
daß m, n ≥ 1. Wir definieren nun eine Abbildung h : Λm × Λn → Λm·n , indem
wir für alle (i, j) ∈ Λm × Λn (d. h. 1 ≤ i ≤ m, 1 ≤ j ≤ n) setzen
h((i, j)) := n · (i − 1) + j.
Eine einfache Rechnung zeigt, daß h bijektiv ist und damit ist (c) gezeigt.
Wenn zusätzlich X ∩ Y = ∅, so definieren wir eine Abbildung ϕ : X ∪ Y →
Λm+n , indem wir für z ∈ X ∪ Y setzen
f (z)
wenn z ∈ X
ϕ(z) :=
m + g(z) wenn z ∈ Y
Man bestätigt sofort, daß ϕ eine Bijektion ist. Damit ist X ∪ Y endlich und
(b) ist in diesem Fall gezeigt.
Sei nun Y beliebig. Da (X ∩Y )∩(X \Y ) = ∅, folgt aus dem soeben Gezeigten
wegen X = (X ∩ Y ) ∪ (X \ Y ) :
] (X ∩ Y ) + ] (X \ Y ) = ] ((X ∩ Y ) ∪ (X \ Y )) = ] X
und damit ist (a) gezeigt.
Sei nun Y wieder endlich und X ∩Y beliebig. Wegen X ∪Y = X ∪(Y \(X ∩Y ))
und X ∩ (Y \ (X ∩ Y )) = ∅ ist nach dem oben Gezeigten X ∪ Y endlich und
wir erhalten unter Verwendung von (a):
] (X ∪ Y ) + ] (X ∩ Y ) =
=
=
=
] (X ∪ (Y \ (X ∩ Y ))) + ] (X ∩ Y )
] X + ] (Y \ (X ∩ Y )) + ] (X ∩ Y )
] X + ] Y − ] (X ∩ Y ) + ] (X ∩ Y )
] X + ] Y.
(2) X ∩Y und X \Y sind als Teilmengen von X nach Folgerung A.31(2) höchstens
abzählbar.
Sei Y endlich. Wäre X \Y endlich, so wäre X = (X \Y )∪Y nach (1) ebenfalls
endlich, Widerspruch, und damit ist X \ Y in diesem Fall abzählbar.
Sei nun Y höchstens abzählbar. Falls Y 6= ∅ gibt es nach Satz A.29(3) eine
surjektive Abbildung g : N → Y . Da X abzählbar ist, haben wir eine bijektive
Abbildung f : N → X. f × g : N × N → X × Y ist dann surjektiv (vgl.
Abschnitt A.5) Wir zeigen nun, daß N × N abzählbar ist. Hierzu definieren
wir eine Abbildung f : N × N → N durch f ((i, j)) := 21 (i + j)(i + j + 1) + i
für alle (i, j) ∈ N × N (d. h. i, j ∈ N). Es ist leicht nachzurechnen, daß
f bijektiv ist und damit ist N × N abzählbar. Nach Satz A.29(3) ist daher
170
ANHANG A. MENGEN UND LOGIK
X × Y höchstens abzählbar. Sei y ∈ Y . Durch x 7→ (x, y), x ∈ X, ist eine
Abbildung X → X × {y} gegeben, die offensichtlich bijektiv ist. Damit ist
X × {y} insbesondere nicht endlich und wegen X × {y} ⊆ X × Y ist damit
auch X × Y nicht endlich und folglich abzählbar.
Wenn Y = ∅, so ist X ∪ Y = X sicherlich abzählbar. Sei also Y 6= ∅. Da
X abzählbar und somit nicht endlich ist, gibt es eine echte Teilmenge X0
von X und eine surjektive Abbildung f : X0 → X. Nun definieren wir eine
Abbildung g : X × Y → X ∪ Y durch
f (x) falls x ∈ X0
g((x, y)) :=
für alle (x, y) ∈ X × Y.
y falls x 6∈ X0
Es ist klar, daß g surjektiv ist und somit ist X∪Y nach Satz A.29(3) höchstens
abzählbar. Da X ⊆ X ∪ Y ist X ∪ Y nicht endlich und damit abzählbar.
(3) Sei m := ] X. Wir benutzen vollständige Induktion nach m, wobei für m = 0
gilt X = ∅ und folglich P (X) = {∅}, so daß in diesem Fall nichts mehr zu
zeigen ist. Wenn m = 1, also X = {x} für x ∈ X, so gilt P (X) = {∅, {x}}
und dies ist offensichtlich eine endliche Menge mit ] P (X) = 2 = 21 . Sei also
m ≥ 2. Wir wählen x ∈ X und setzen Y := X\{x}. Dann gilt ] Y = m−1 und
nach Induktionsvoraussetzung ist P (Y ) endliche Menge mit ] P (Y ) = 2m−1 .
Wir definieren nun eine Abbildung ρ : P (Y ) × {∅, {x}} → P (X) durch
| {z }
=P ({x})
ρ((A, B)) := A∪B für alle (A, B) ∈ P (Y )×{∅, {x}} (d. h. A ⊆ Y , B ⊆ {x}).
Es ist klar, daß ρ eine Bijektion ist und damit folgt die Behauptung aus (1c).
(4) Angenommen, es gibt eine surjektive Abbildung f : X → P (X). Sei Y :=
{x ∈ X | x 6∈ f (x)}. Wegen der Surjektivität von f gibt es ein y ∈ X mit
f (y) = Y . Wäre y ∈ Y , so würde folgen y 6∈ f (y) = Y , Widerspruch. Also gilt
y 6∈ Y und damit y ∈ f (y) = Y , was ebenfalls einen Widerspruch darstellt.
Damit war die Annahme falsch und die erste Aussage ist gezeigt.
Zum Nachweis der zweiten Aussage sei X abzählbare Menge und ϕ : X → N
eine Bijektion. Angenommen, P (X) ist höchstens abzählbar. Dann gibt es
nach Satz A.29 (3) eine surjektive Abbildung f : N → P (X) und damit ist
f ϕ : X → P (X) ebenfalls surjektiv, was aber nach dem soeben Gezeigten
unmöglich ist,
Für unendliche Mengen gibt es demgegenüber Besonderheiten, von denen einige
der Vollständigkeit halber in dem folgenden Satz zusammenfaßt werden sollen.
Satz A.33. Sei X eine unendliche und Y 6= ∅ eine höchstens abzählbare Menge.
Weiter seien Y0 , Y1 , . . . Mengen mit ] Yi ≤ ] X für alle i ∈ N. Ferner sei für jedes
x ∈ X eine höchstens abzählbare Menge Zx gegeben. Dann gilt
A.6. KARDINALZAHLEN
(1) ]
S
(2) ]
S
i≥0
171
Yi ≤ ] X.
x∈X
Zx ≤ ] X.
(3) ] (X × Y ) = ] X.
Beweis. Für alle i ∈ N und alle x ∈ X wählen wir injektive Abbildungen
S µi : Yi →
X und νx : Zx → N. Außerdem
S definieren wir eine Abbildung Φ : x∈X Zx →
P (X), indemQwir für alle z ∈ x∈X Zx setzen Φ(z) := {x ∈ X | S
z ∈ Zx } =
6 ∅, und
wählen πS∈ z∈Z Φ(z). Damit definieren wir Abbildungen
S µ : i≥0 Yi → X × N
und
S ν : x∈X Zx → X × N, indem wir für alle y ∈ i≥0 Yi bzw. für alle z ∈
x∈X Zx setzen
• µ(y) := (µi (y), i), wenn i := min{n ∈ N | y ∈ Yn } und
• ν(z) := (π(z), νπ(z) (z)).
Man bestätigt sofort, daß µ, ν injektiv sind, so daß nur (3) bewiesen werden muß.
Wir bemerken, daß bei Vorliegen nur endlich vieler Mengen
Y0 , . . . , Yn mit den
Sn
entsprechenden Eigenschaften eine injektive Abbildung i=0 Yi → X × {0, . . . , n}
existiert.
Wir zeigen zunächst: Ist Y endlich, so gilt ] (X ∪ Y ) = ] X.
Mittels Induktion nach ] Y können wir uns hierzu auf den Fall ] Y = 1, d. h.
Y = {y} beschränken. Wenn y ∈ X, so sind wir fertig. Sei also y 6∈ X. Da X
unendlich ist, gibt es laut Definition eine echte Teilmenge X 0 ⊂ X von X und
eine Bijektion ψ : X → X 0 . Wir wählen nun x ∈ X \ X 0 und definieren eine
Abbildung ϕ : X ∪ Y → X, indem wir für alle z ∈ X ∪ Y setzen
(
ψ(z) wenn z ∈ X
ϕ(z) :=
x
wenn z = y.
Man bestätigt sofort, daß ϕ injektiv ist. Da X ⊆ X ∪Y , ergibt sich ] (X ∪Y ) = ] X
aus dem Satz von Schröder-Bernstein, s. Satz A.26.
Sei nun Y beliebig. Wir setzen
U := {(U, ϕ) | U ⊆ X, ϕ : U × Y → U Bijektion}
Nach Satz A.29(4) enthält X eine abzählbare Teilmenge U und nach Satz A.32(2c)
ist U × Y abzählbar, d. h. es gibt eine Bijektion ϕ : U × Y → U . Da somit
(U, ϕ) ∈ U, gilt U 6= ∅.
Für (U, ϕ), (V, ψ) ∈ U gelte (U, ϕ) (V, ψ), wenn U ⊆ V und ϕ = ψ|U ×Y . Man
bestätigt sofort, daß Ordnungsrelation auf U ist und daß jede Kette in U ein
Supremum in U besitzt. Nach dem Zornschen Lemma besitzt U damit maximale
Elemente. Sei (U0 , ϕ0 ) ein solches.
172
ANHANG A. MENGEN UND LOGIK
Wäre X \ U0 unendlich, so gäbe es wiederum nach Satz A.29(4) eine abzählbare
Teilmenge Z ⊆ X \ U0 und eine bijektive Abbildung ψ : Z × Y → Z (s. oben).
Dann wäre aber die durch
(
ϕ0 (x) wenn x ∈ U0
(x, y) 7→
, (x, y) ∈ (U0 ∪ Z) × Y
ψ(x) wenn x ∈ Z
definierte Abbildung ϕ : (U0 ∪ Z) × Y → U0 ∪ Z bijektiv, Widerspruch.
Damit ist X \ U0 endlich. Ist auch Y endlich, so ist (X \ U0 ) × Y endlich nach
Satz A.32(1c) und wir erhalten mit dem bereits Gezeigten
] (X × Y ) = ] ((U0 × Y ) ∪ ((X \ U0 ) × Y )) = ] (U0 × Y ) = ] U0 = ]X.
Sei nun Y abzählbar. Nach dem gerade Gezeigten ist dann Y1 := (X \ U0 ) × Y
leer oder abzählbar. Nach den Konstruktionen zu Beginn dieses Beweises haben
wir mit Y0 := U0 × Y einen Monomorphismus µ : X × Y = Y0 ∪ Y1 → X × {0, 1}
und daher gilt
] (X × Y ) ≤ ] (X × {0, 1}) = ]X
nach dem bereits Gezeigten. Sei y0 ∈ Y . Durch x 7→ (x, y0 ), x ∈ X, ist eine
injektive Abbildung X → X × Y gegeben, so daß ] X ≤ ] (X × Y ). Aus dem Satz
von Schröder-Bernstein (s. Satz A.26) folgt nun die Behauptung,
Beispiele A.34. (a) Z und Q sind abzählbar.
(b) R ist überabzählbar.
Begründung.
(a) Setzen wir −N := {−n | n ∈ N} ⊆ Z, so ist durch n 7→ −n, n ∈ N, eine
Bijektion N → −N gegeben und damit ist −N abzählbar. Nach Satz A.32(2c)
ist daher Z = N ∪ −N abzählbar.
Für q ∈ Q \ {0} gibt es eindeutig bestimmte teilerfremde Zahlen nq ∈ Z \ {0}
und zq ∈ N+ mit q = nzqq . Setzen wir n0 := 0 und z0 := 1, so ist durch
q 7→ (nq , zq ), q ∈ Q, eine injektive Abbildung Q → Z × N gegeben. Nach Satz
A.32(2c) und Folgerung A.31(2) ist daher Q höchstens abzählbar. Wegen
N ⊂ Q ist Q nicht endlich und damit abzählbar.
(b) Angenommen, R wäre höchstens abzählbar. Dann gäbe es nach Satz A.29(3)
eine surjektive Abbildung f : N → R. Für jedes n ∈ N schreiben wir die
Dezimaldarstellung von f (n) wir folgt auf
f (n) = an , zn1 zn2 . . .
mit an ∈ Z, zni ∈ {0, . . . , 9} für alle i ∈ N+ .
A.6. KARDINALZAHLEN
173
Sei dann
(
1 falls zii 6= 1
ρ := 0, u1 u2 . . . ∈ R mit ui :=
, i = 1, 2, . . .
2 sonst
Man bestätigt sofort, daß sich f (m) und ρ für jedes m ∈ N in der m-ten
Nachkommastelle unterscheiden, d. h. es gilt f (m) 6= ρ für alle m ∈ N im
Widerspruch zur Surjektivität von f ,
Bemerkung A.35. Man kann zeigen, daß es unter allen Kardinalzahlen, die echt
größer sind als ℵ0 , eine kleinste gibt. Diese bezeichnet man mit ℵ1 . Aus Beispiel
A.34(b) ergibt sich ]R ≥ ℵ1 .
Die sogenannte Kontinuumshypothese (Kontinuum: ältere Bezeichnung für die
Menge der reellen Zahlen) besagt, daß hierbei Gleichheit gelten sollte. 1940 zeigte
Gödel jedoch, daß die Kontinuumshypothese unabhängig ist von den übrigen
mengentheoretischen Axiomen, also nicht aus diesen abgeleitet (bewiesen) werden
kann. 1963 zeigte Cohen, daß dies auch für das Negat der Kontinuumshypothese
gilt. Ist also die Mengentheorie ohne Kontinuumshypothese bzw. ihrem Negat
widerspruchsfrei, so ist sie sowohl mit Kontinuumshypothese als auch mit dem
Negat der Kontinuumshypothese widerspruchsfrei.
174
ANHANG A. MENGEN UND LOGIK
Anhang B
Polynome
Sei R ein Ring. Indem wir Abbildungen N → R mit ihren Wertetabellen identifizieren, haben wir (s. Bemerkung 3.9.3)
RN = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R} und
R(N) = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R, ri = 0R für fast alle i ∈ N}.
RN ist Links- und Rechts-R-Modul, R(N) ist Links- und Rechts-R-Untermodul von
RN und beide sind mit der komponentenweisen Addition insbesondere abelsche
Gruppen. Wir definieren nun eine Multiplikation in RN und in R(N) , die sich von
der in Bemerkung 3.6.7 eingeführten Multiplikation unterscheidet.
Definition B.1 (Cauchyprodukt). Sei R ein Ring. Für (r0 , r1 , . . . ), (s0 , s1 , . . . )
∈ RN setzen wir
n−te Stelle
z }| {
P
(r0 , r1 , . . . ) · (s0 , s1 , . . . ) := (r0 s0 , r1 s0 + r0 s1 , . . . , ni=0 rn−i si , . . . ) ∈ RN .
Wir bemerken, daß damit für (r0 , r1 , . . . ) ∈ RN und s ∈ R gilt:
s(r0 , r1 , r2 , . . . ) = (sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . ) · (r0 , r1 , r2 , . . . ) und
(r0 , r1 , r2 , . . . )s = (r0 s, r1 s, r2 s, . . . ) = (r0 , r1 , r2 , . . . ) · (s, 0R , 0R , . . . ).
Wir haben nun
Lemma B.2. Sei R ein Ring. Dann gilt:
(1) RN ist mit der komponentenweisen Addition und dem Cauchyprodukt ein Ring
mit Einselement (1R , 0R , . . . ) und R(N) ist Unterring von RN . Ist R kommutativ, so sind RN und R(N) kommutative R-Algebren (s. Bemerkung 3.6.8)
(2) Durch r 7→ (r, 0R , 0R , . . . ), r ∈ R, ist ein injektiver Ringhomomorphismus
R → R(N) definiert, vermöge dessen wir R als Unterring von R(N) und so175
176
ANHANG B. POLYNOME
mit von RN auffassen, d. h. für jedes r ∈ R wird das Element der Gestalt
(r, 0R , 0R , . . . ) aus RN mit r identifiziert.
(3) Z(RN ) = Z(R)N und Z(R(N) ) = Z(R)(N) (zur Definition von Z(R) s. Übungsaufgabe I43).
i−te
i
Stelle
(0R , . . . , 0R , 1R , 0R , . . . )
(4) Mit X := (0R , 1R , 0R , 0R , . . . ) gilt X =
∈ Z(R(N) )
für alle i ∈ N und mit der in (2) beschriebenen Identifizierung haben wir
damit
R(N) = {r0 + r1 X + r2 X 2 + . . . | r0 , r1 , . . . ∈ R, ri = 0R für fast alle i ∈ N}
= R[X] .
Beweis. (1) Es ist klar, daß das Cauchyprodukt von Elementen aus R(N) wieder
in R(N) liegt und daß (1R , 0R , . . . ) ∈ R(N) ⊂ RN neutrales Element bzgl. des
Cauchyproduktes ist.
Seien nun f := (r0 , r1 , . . . ), g := (s0 , s1 , . . . ), h := (t0 , t1 , . . . ) Elemente aus
RN . Bezeichnen wir für n ∈ N mit un ∈ R die n-te Komponente von (f g)h
und mit vn ∈ R die n-te Komponente von (f + g)h , so gilt
un =
n
n−i
X
X
i=0
j=0
k
n X
n−i
n
X
X
X
sk−l tl
rn−k
rn−i−j sj ti =
rn−i−j sj ti =
i=0 j=0
k=0
l=0
und dies ist die n-te Komponente von f (gh), d. h. wir haben (f g)h = f (gh).
Weiter gilt
n
n
n
n
X
X
X
X
vn =
(rn−i + sn−i )ti =
(rn−i ti + sn−i ti ) =
rn−i ti +
sn−i ti
i=0
i=0
i=0
i=0
und dies ist die n-te Komponente von f h + gh, d. h. wir haben (f + g)h =
f h + gh und entsprechend f (g + h) = f g + f h.
Ist R kommutativ, so sind RN und R(N) nach (3) kommutativ. Da RN und R(N)
R-Moduln sind, folgt die R-Algebra-Struktur aus obigen Vorüberlegungen.
(2) ergibt sich sofort aus der Definition des Cauchyproduktes, wonach für r, s ∈ R
gilt (r, 0R , 0R , . . . ) · (s, 0R , 0R , . . . ) = (rs, 0R , 0R , . . . ).
(3) Sei (r0 , r1 , r2 , . . . ) ∈ Z(RN ) (∈ Z(R(N) )). Für alle s ∈ R gilt dann (s. oben)
(sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . )(r0 , r1 , r2 , . . . )
= (r0 , r1 , r2 , . . . )(s, 0R , 0R , . . . )
= (r0 s, r1 s, r2 s, . . . ),
177
also sri = ri s und damit ri ∈ Z(R) für alle i ∈ N. Folglich gilt (r0 , r1 , . . . ) ∈
Z(R)N (∈ Z(R)(N) ) und dies liefert Z(RN ) ⊆ Z(R)N (Z(R(N) ) ⊆ Z(R)(N) ).
Die jeweils umgekehrte Inklusion ergibt sich unmittelbar aus der Definition
des Cauchyproduktes.
(4) folgt mittels Induktion nach i,
Definition B.3. Sei R ein Ring.
(a) R(N) heißt mit der in Lemma B.2 beschrieben Ringstruktur Polynomring
in einer Unbestimmten mit Koeffizienten aus R. Seine Elemente nennt man
Polynome (in einer Unbestimmten). Das Polynom X := (0R , 1R , 0R , 0R , . . . )
heißt Unbestimmte.
Faßt man R als Unterring von R(N) auf, so gilt R(N) = R[X] (sprich ”R
adjungiert X”), so daß man kurz vom Polynomring in X über R spricht und
seine Elemente in der Form r0 + r1 X + r2 X 2 + . . . mit r0 , r1 , r2 , . . . ∈ R,
ri = 0R für fast alle i ∈ N, aufschreibt. r0 , r1 , . . . heißen Koeffizienten von
r0 + r1 X + r2 X 2 + . . . ∈ R[X]. Dabei können Summanden der Form 0R X i
(i ∈ N) fortgelassen werden.
(b) In Analogie zu (a) schreibt man die Elemente von RN in der Form r0 + r1 X +
r2 X 2 +. . . auf und nennt sie demzufolge formale Potenzreihen in einer Unbestimmten. Entsprechend nennt man RN formalen Potenzreihenring in einer
Unbestimmten mit Koeffizienten aus R (oder kurz: in X über R) und bezeichnet ihn mit R[[X]].
(c) Für f ∈ R[[X]], f = r0 + r1 X + r2 X 2 + . . ., setzen wir
supp f := {i ∈ N | ri 6= 0R } (Support oder Träger von f ).
Bemerkungen B.4.
1. Die in Definition B.3 (a) bzw. (b) anstelle der Tupelschreibweise eingeführte Schreibweise der Elemente von R[X] bzw. von
R[[X]] hat den Vorteil, daß die Multiplikation durch distributives Ausmultiplizieren der Faktoren bewerkstelligt werden kann, z. B.
(1R −X)(1R +X +X 2 +. . .) = 1R +X +X 2 +. . .−X −X 2 −X 3 −. . . = 1R .
2. Für f ∈ R[[X]] gilt f = 0 genau dann, wenn supp f = ∅ und f ∈ R[X]
genau dann, wenn supp f endlich ist.
3. Die Unbestimmte kann natürlich auch anders bezeichnet werden. Man sagt
dann z. B.: ”Sei R[Y ] Polynomring (oder R[[Y ]] formaler Potenzreihenring),
wobei R ein Ring und Y eine Unbestiimmte ist”.
4. Nach Lemma B.2(2) ist R Unterring von R[X]. Die Elemente von R nennt
man daher auch konstante Polynome.
178
ANHANG B. POLYNOME
5. Das Nullelement von R[X], also dasjenige Polynom, dessen Koeffizienten
sämtlich gleich 0R sind, wird Nullpolynom genannt und meist kurz mit 0
bezeichnet. Es stimmt mit dem konstanten Polynom 0R überein.
6. Sind X, Y Unbestimmte, so kann man entsprechend den Polynomring bzw.
den formalen Potenzreihenring R[X][Y ] bzw. R[[X]][[Y ]] definieren. Da Y ∈
Z(R[X]) = Z(R)[X] und entsprechend Y ∈ Z(R[[X]]) = Z(R)[[X]], kommt
es auf die Reihenfolge der Unbestimmten dabei nicht an, d. h. wir können
schreiben R[X, Y ] := R[X][Y ] und entsprechend R[[X, Y ]] := R[[X]][[Y ]].
7. Damit kann man induktiv über n ∈ N den Polynomring und den formalen
Potenzreihenring in n Unbestimmten über R definieren. Da auch hier die
Unbestimmten jeweils zentrale Elemente sind, kommt es dabei auf deren
Reihenfolge nicht an.
Sind A, B jeweils endliche Mengen von Unbestimmten, so sind R[A] und
R[B] Unterringe von R[A ∪ B].
Ist nun X eine beliebige Menge von Unbestimmten, so kann man daher den
Polynomring R[X ] in X über R definieren durch
S
R[X ] :=
R[A] .
A⊆X
A endlich
Entsprechend ist der formale Potenzreihenring R[[X ]] erklärt.
Definition B.5 (Grad eines Polynoms). Sei R ein Ring und X eine Unbestimmte. Für f ∈ R[X] setzen wir
(
max supp f f 6= 0
(a) grad f :=
(Grad von f ).
−∞
f =0
(b) Wenn f 6= 0 und f = r0 +r1 X +. . .+rd X d mit d := gradf und r0 , . . . , rd ∈ R,
so heißt rd Leitkoeffizient von f , kurz lk f . Für f = 0 setzen wir lk 0 := 0R .
Bevor wir erste Aussagen formulieren, vereinbaren wir, daß die übliche Ordnungsrelation und die übliche Addition in Z wie folgt auf Z ∪ {−∞} (und damit auf
N ∪ {−∞}) erweitert wird:
−∞ ≤ x und − ∞ + x = x + (−∞) = −∞ für alle x ∈ Z ∪ {−∞}.
Der Vollständigkeit halber wiederholen wir eine Definition aus Übungsaufgabe
W4:
Definition B.6 (Nullteiler). Sei R ein Ring.
(a) Ein Element r ∈ R heißt linker (rechter) Nullteiler in R, wenn es ein t ∈ R
gibt mit t 6= 0R und rt = 0R (tr = 0R ). r heißt Nullteiler in R, wenn r linker
oder rechter Nullteiler in R ist.
179
(b) Ein Element r ∈ R heißt Nichtnullteiler in R, wenn r kein Nullteiler in R
ist.
(c) Man sagt, R sei nullteilerfrei, wenn R außer 0R keine Nullteiler besitzt. Ein
Integritätsring ist ein kommutativer nullteilerfreier Ring.
Bemerkungen B.7.
1. Jede Einheit eines Ringes R ist Nichtnullteiler in R.
2. Ein Ring R ist nullteilerfrei genau dann, wenn für alle x, y ∈ R \ {0R } gilt
xy 6= 0R (oder aus xy = 0R folgt, daß x = 0R oder y = 0R ).
3. Jeder Unterring eines nullteilerfreien Ringes ist wieder nullteilerfrei.
4. Z ist Integritätsring.
5. Jeder Unterring eines Körpers ist ein Integritätsring. Man kann zeigen, daß
auch die Umkehrung hiervon gilt, d. h. jeder Integritätsring ist Unterring
eines Körpers.
Lemma B.8. Sei R ein Ring und X eine Unbestimmte. Dann haben wir für
f, g ∈ R[X]:
(1) grad (f + g) ≤ max{grad f, grad g}.
Dabei gilt grad (f + g) < max{grad f, grad g} genau dann, wenn grad f =
grad g ≥ 0 und lk f + lk g = 0R .
(2) grad f g ≤ grad f + grad g.
Dabei gilt grad f g < grad f + grad g genau dann, wenn f, g 6= 0 und
(lk f )(lk g) = 0R .
(3) Wenn lk f Nichtnullteiler in R ist, so ist f Nichtnullteiler in R[X].
Beweis. (3) folgt aus (2).
(1) und (2) sind klar, wenn f = 0 oder g = 0. Gelte also f 6= 0, g 6= 0. Sei
f =: r0 + r1 X + . . . + rm X m , m := grad f ≥ 0 und g =: s0 + s1 X + . . . + sn X n ,
n := grad g ≥ 0. Dann gilt lk f = rm 6= 0R und lk g = sn 6= 0R . Wir setzen
f + g =: u0 + u1 X + . . . und f g =: v0 + v1 X + . . ..
(1) Da up = rp + sp für alle p ∈ N, gilt up = 0R für alle p > max{m, n}, d.
h. grad (f + g) ≤ max{m, n}. Wenn m = n ≥ 0 und lk f + lk g = 0R , so
folgt um = 0R , also gilt grad (f + g) < m = max{m, n}. Wenn umgekehrt
grad (f + g) < max{m, n}, so gilt rm + sm = um = 0R oder rn + sn = un = 0R .
Wegen rm 6= 0R und sn 6= 0R ist dies aber nur möglich, wenn m = n und
rm + sm = 0R .
Pp
(2) Da vp =
i=0 rp−i si , gilt vp = 0R für alle p > m + n, d. h. wir haben
grad f g ≤ m + n. Da vm+n = rm sn , gilt grad f g < m + n genau dann, wenn
rm sn = 0R ,
180
ANHANG B. POLYNOME
Definition B.9. Sei R ein Ring und X eine Unbestimmte. Man sagt, in R[X]
gelte der Gradsatz, wenn
grad f g = grad f + grad g
für alle f, g ∈ R[X].
Folgerung B.10. Sei R ein Ring und X eine Unbestimmte. Dann sind die folgenden Aussagen äquivalent:
(i) In R[X] gilt der Gradsatz
(ii) R ist nullteilerfrei
(iii) R[X] ist nullteilerfrei
Beweis. (i) =⇒ (iii): Seien f, g ∈ R[X] \ {0}. Da grad f g = grad f + grad g ≥
0 + 0 = 0 > −∞, gilt f g 6= 0, d. h. R[X] ist nulltiterfrei.
(iii) =⇒ (ii) ist trivial, da R Unterring von R[X] ist.
(ii) =⇒ (i) ergibt sich sofort aus Lemma B.8(2),
Herunterladen