1 Lineare Gleichungssysteme

Werbung
1
Lineare Gleichungssysteme
1.1
Ein Beispiel: Netzwerkanalyse
Wir betrachten das folgende Modell eines elektrischen Schaltkreises.1 Die durchgezogenen Linien sind Leitungen. Die Kreise stehen für Spannungsquellen, die
Kästchen für Widerstände.
I1
R1
U q1
?
I3
R3
I2 R 2
?
U
? q2
Figure 1:
Die Buchstaben auf den Widerständen (R1 , R2 , R3 ) stehen für den Wert des
entsprechenden Widerstandes, gemessen in Ohm. Für uns (d.h. vom mathematischen Standpunkt aus) sind R1 , R2 , R3 einfach fest vorgegebene positive reelle
Zahlen.
Die Buchstaben neben den Spannungsquellen (Uq1 , Uq2 ) stehen für den Wert
der angelegten Spannung, gemessen in Volt. Allerdings sind Uq1 und Uq2 nicht
notwendigerweise positiv, oder – anders ausgedrückt – diese Werte haben ein
Vorzeichen. Damit wir das Vorzeichen richtig deuten können, ist neben der
Spannungsquelle zusätzlich ein Pfeil eingezeichnet, der die Ausrichtung der anliegenden Spannung anzeigt. Handelt es sich bei der Spannungsquelle z.B. um
eine Batterie, so würde man den Wert Uqi als positiv annehmen und den Pfeil
vom Plus- zum Minuspol ausrichten. Rein mathematisch betrachtet sind Uq1
und Uq2 einfach beliebige (aber fest vorgegebene) reelle Zahlen.
Schliesslich bezeichnen die Buchstaben I1 , I2 , I3 die Stärke des durch den
entsprechend nummerierten Widerstand fliessenden Stroms, gemessen in Ampere. Hierbei ist zu beachten, dass Stromstärke, genau wie Spannung, eine
vorzeichenbehaftete Grösse ist. Das Vorzeichen bestimmt die Richtung des
Stromflusses, und zwar folgendermassen. Ist Ii positiv, so fliesst der Strom in
die Richtung des im Bild 1.1 neben dem Widerstand Ri eingezeichneten Pfeiles.
Ist Ii dagegen negativ, so fliesst der Strom in die entgegengesetzte Richtung.
Problem 1.1.1 Man bestimme die Stromstärken I1 , I2 , I3 (in Abhängigkeit
von Ri und Uqj ).
1 Quelle:
Wikipedia, Stichwort Netzwerkanalyse (Elektrotechnik)
1
Wir werden sehen, dass dieses Problem auf ein lineares Gleichungssystem
hinausläuft. Um dieses Gleichungssystem aufstellen zu können, benötigt man
drei fundamentale Gesetze der Elektrotechnik. Das erste Gesetz lautet:
Das Ohmsche Gesetz: Fliesst durch einen Widerstand R der Strom I, und bezeichnet U den Spannungsabfall zwischen den beiden Enden des Widerstandes,
so gilt
U = R · I.
Man beachte wieder, dass Stromstärke genauso wie Spannungsabfall vorzeichenbehaftete Grössen sind, oder physikalisch gesprochen eine Richtung haben.
Da wir den Widerstand R als positiv annehmen, sind die Vorzeichen von U und
I gleich, d.h. der Spannungsabfall erfolgt in der Richtung des Stromflusses.
Das Ohmsche Gesetz ist ein typisches Beispiel für eine lineare Abhängigkeit
zwischen zwei physikalischen Grössen. Legt man an ein ektronisches Schaltelement eine (variable) Spannung U an und misst den resultierenden Strom I, so
ist der Quotient U/I unabhängig von U . Somit ist die Grösse R := U/I eine
Konstante des Schaltelementes, die man suggestiv Widerstand nennt.
Zurück zu unserem Schaltkreis in Bild 1.1. Es sei Ui der am Widerstand Ri
auftretende Spannungsabfall. Nach dem Ohmschen Gesetz gilt dann
U1 = R 1 · I1 ,
U2 = R 2 · I2 ,
U3 = R 3 · I3 .
(1)
Die nächste Grundregel bezeichnet man auch als das 1. Kirchhoffsche Gesetz.
Die Maschenregel: Die Summe der Spannungsgewinne entlang eines geschlossenen Weges ist gleich Null. Dabei heben sich Spannungsgewinne und -verluste
gegenseitig auf.
Unser Schaltkreis hat offenbar zwei Maschen, d.h. nichttriviale geschlossene
Wege, die in Bild 1.1 durch das Symbol gekennzeichnet sind. Durchläuft man
diese Wege im Uhrzeigersinn und rechnet die erfahrenen Spannungsgewinne bzw.
-verluste auf, so führt uns die Maschenregel auf die beiden Gleichungen
U1 + U2 − Uq1 = 0,
−U2 − U3 + Uq2 = 0.
(2)
Die dritte Grundregel ist das 2. Kirchhoffsche Gesetz, auch genannt
Die Knotenregel: Die Summe der in einem Teilbereich des Netzwerkes zufliessenden Ströme ist gleich Null. Dabei heben sich zu- und abfliessende Ströme
gegenseitig auf.
Unser Schaltkreis hat zwei Knoten, d.h. Kreuzungspunkte von Leitungen.
Wir betrachten zunächst den oberen Knoten und wenden auf ihn die Knotenregel an. Gemäß dem folgenden Schema
2
I1
-
I3
I2 ?
erhalten wir die Gleichung
I1 − I2 + I3 = 0.
(3)
Offenbar liefert der zweite Knoten die äquivalente Gleichung−I1 + I2 − I3 = 0,
die wir nicht extra aufführen brauchen.2
Wir können jetzt die Gleichungen (1), (2) und (3) zu folgendem Gleichungssystem zusammenfassen.
R 1 I1
I1
+ R 2 I2
R 2 I2
−
I2
+ R 3 I3
+
I3
= U q1
= U q2
= 0.
(4)
Wir haben das Problem 1.1.1 auf das Lösen des Gleichungssystems (4)
zurückgeführt. Dies ist nun ein rein mathematisches Problem. Die Erfahrung
mit der physikalischen Wirklichkeit sagt uns, dass (4) eine eindeutige Lösung
haben sollte. Und tatsächlich kann man sich durch eine etwas längliche Rechnung oder durch Benutzen eines Computeralgebrasystems (wie z.B. Maple) davon
überzeugen, dass das Gleichungssystem (4) die eindeutige Lösung
(R2 + R3 )Uq1 − R2 Uq2
,
R1 R2 + R 1 R3 + R 2 R3
R 3 U q1 + R 1 U q2
I2 =
,
R1 R2 + R 1 R3 + R 2 R3
−R2 Uq1 + (R1 + R2 )Uq2
.
I3 =
R1 R2 + R 1 R3 + R 2 R3
I1 =
(5)
besitzt.
Das Gleichungssystem (4) ist ein Beispiel für ein lineares Gleichungssystem mit drei Gleichungen und drei Unbestimmten I1 , I2 , I3 . Wir werden sehr
bald lernen, wie man entscheiden kann, ob ein lineares Gleichungssystem eine
Lösung besitzt, ob diese Lösung eindeutig ist, und wie man sämtliche Lösungen
berechnen kann. Insbesondere kann man im vorliegenden Fall mit rein mathematischen Methoden zeigen, dass (4) eine eindeutige Lösung besitzt, die durch
(5) beschrieben wird.
1. Beobachtung: Das Rechnen von Hand ist meistens unpraktikabel.
Selbst bei einem so simplen Schaltkreis wie im Bild 1.1 ist die Lösung des
auftretenden Gleichungssystems schon so kompliziert, dass die Berechnung derselben von Hand sehr mühsam ist (probieren Sie es aus!). Schon in diesem einfachen Fall ist uns ein Computeralgebrasystem wie Maple haushoch überlegen.
2 Allgemein gilt, dass in einem Netzwerk mit k Knoten von den k resultierenden Gleichungen
immer eine überflüssig ist, aber die restlichen k − 1 Gleichungen voneinander unabhängig sind.
3
In der Praxis treten leicht Schaltkreise mit tausenden Schaltelementen auf. Es
versteht sich von selbst, dass hier ohne Einsatz eines Rechners gar nichts läuft.
Was können wir daraus lernen? Für das Lösen von Übungsaufgaben und das
erfolgreiche Bestehen der Klausuren ist ein gewisses Maß an Rechenfertigkeit
unerlässlich, und sie werden ausreichend Gelegenheit haben, dies zu trainieren.
Diese Rechentechnik ist aber allenfalls ein Nebenprodukt; das eigentliche Lernziel der Vorlesung ist etwas ganz anderes.
2. Beobachtung: Die Lösung des linearen Gleichungssystems (4) ist selbst
eines.
Wie ist das gemeint? Nun, wir können die Gleichungen (5) auch so schreiben:
R2
R2 + R 3
· U q1 +
· U q2
R1 R2 + R 1 R3 + R 2 R3
R1 R2 + R 1 R3 + R 2 R3
R3
R1
· U q1 +
· U q2
R1 R2 + R 1 R3 + R 2 R3
R1 R2 + R 1 R3 + R 2 R3
R1 + R 2
−R2
· U q1 +
· U q2
R1 R2 + R 1 R3 + R 2 R3
R1 R2 + R 1 R3 + R 2 R3
= I1
= I2
= I3 .
In dieser Form können wir (5) als lineares Gleichungssystem in den Unbekannten
Uq1 , Uq2 auffassen, wenn wir Werte für I1 , I2 , I3 vorgeben. Das macht auch
physikalisch Sinn: wenn man z.B. die durch die Widerstände Ri fliessenden
Ströme Ii gemessen hat, kann man anhand von (5) die an den beiden Spannungsquellen anliegenden Spannungen Uqj bestimmen.
Dies ist tatsächlich eine Verallgemeinerung von etwas, das wir schon anhand
des Ohmschen Gesetzes beobachtet haben, nämlich die lineare Abhängigkeit
zwischen zwei Grössen. Dazu ist es zweckmässig, die drei Grössen I1 , I2 , I3 zu
einer zusammenzufassen, und zwar als Spaltenvektor:
 
I1
I := I2  .
I3
Mit den Spannungsquellen Uq1 und Uq2 wollen wir es ähnlich machen. Ein Blick
auf das Gleichungssystem (4) sagt uns, dass wir drei Einträge brauchen, wobei
der letzte Null sein muss:
 
U q1
U := Uq2  .
0
Ausserdem schreiben wir die Koeffizienten auf der linken Seite von (4) in ein
rechteckiges Zahlenschema, Matrix genannt:


R1 R2 0
A :=  0 R2 R3 
1 −1 1
Mit diesen Bezeichnungen können wir nun das Gleichungssystem (4) in der Form
A·I =U
4
(6)
schreiben. Das Produkt A · I ist per definitionem der Spaltenvektor, dessen
Einträge die Ausdrücke auf der linken Seite von (4) bilden.
Die Vorteile dieser neuen Schreibweise sind offensichtlich: sie ist kürzer und
sie sieht formal genauso aus wie das Ohmsche Gesetz, U = R · I. Wie wir später
sehen werden lässt sich jede lineare Abhängigkeit zwischen zwei (vektorwertigen)
Grössen als eine Gleichung der Form (6) schreiben.
Wenn wir umgekehrt den Vektor I in Abhängigkeit des Vektors U betrachten
wollen, so ist es naheliegend, die Matrix A ‘auf die andere Seite zu bringen’, d.h.
wir möchten die Umformung
A·I =U
?
⇒
I = A−1 · U
durchführen. Ist das erlaubt bzw. führt so eine Umformung zu einem korrekten Ergebnis? Was bedeutet überhaupt A−1 ? Die Antwort werden wir bald
kennenlernen.
3. Beobachtung: Überlagerungen von Lösungen
1.2
Ringe und Körper
Wir setzen die folgenden Zahlbereiche als bekannt voraus.
• Die natürlichen Zahlen N = {1, 2, 3, . . .} (bzw. N0 = {0, 1, 2, 3, . . .}).
• Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .}.
• Die rationalen Zahlen Q = { ab | a, b ∈ Z, b 6= 0}.
• Die reellen Zahlen R (siehe Vorlesung Analysis I).
Es handelt sich jeweils um eine Menge mit zwei Verknüpfungen, die Addition
und die Multiplikation.
Wir wollen nun den Begriff eines Zahlbereiches formalisieren.
Definition 1.2.1 Sei G eine (nichtleere) Menge.
(i) Eine Verknüpfung auf G ist eine Abbildung ∗ : G×G → G.3 Schreibweise:
a ∗ b := ∗(a, b),
für a, b ∈ G.
(ii) Eine Verknüpfung ∗ : G × G → G heißt assoziativ, wenn für alle a, b, c ∈ G
gilt:
(a ∗ b) ∗ c = a ∗ (b ∗ c).
(iii) Eine Verknüpfung ∗ : G×G → G heißt kommutativ, wenn für alle a, b ∈ G
gilt:
a ∗ b = b ∗ a.
3 G × G bezeichnet das kartesische Produkt von G mit sich selbst, also die Menge aller
(geordneten) Paare (a, b) mit a, b ∈ G.
5
Beispiel 1.2.2 Die Addition + und die Multiplikation · auf der Menge der
natürlichen Zahlen sind beide sowohl assoziativ als auch kommutativ. Dasselbe
gilt für G = Z, Q oder R.
Beispiel 1.2.3 Sei G = R die Menge der reellen Zahlen. Wir definieren eine
Verknüpfung ∗ auf R durch die Vorschrift
a ∗ b :=
a+b
,
2
a, b ∈ R.
Offensichtlich ist ∗ kommutativ (weil + kommutativ ist). Aber ∗ ist nicht assoziativ: es gilt
(a ∗ b) ∗ c = a/4 + b/4 + c/2,
a ∗ (b ∗ c) = a/2 + b/4 + c/4.
Z.B. erhalten wir für a := 1, b := 0, c := 0 die Ungleichheit
(1 ∗ 0) ∗ 0 = 1/4 6= 1/2 = 1 ∗ (0 ∗ 0).
Beispiel 1.2.4 Sei X eine nichtleere Menge. Wir definieren G := Abb(X, X)
als die Menge aller Abbildungen f : X → X. Auf G definieren wir die
Verknüpfung ◦ : G × G → G durch die Vorschrift
(f ◦ g)(a) := f (g(a)),
a ∈ X.
Dann ist ◦ nicht kommutativ, wenn X mindestens drei verschiedene Elemente
enthält. Ist z.B. X = {1, 2, 3} und setzen wir


 1 7→ 3
 1 7→ 1
2 7→ 1 ,
2 7→ 1 ,
g :=
f :=


3 7→ 1
3 7→ 2
so erhält man

 1 7→ 2
2 7→ 1 ,
f ◦g =

3 7→ 1

 1 7→ 3
2 7→ 3 .
g◦f =

3 7→ 1
Man sieht dass f ◦ g 6= g ◦ f (weil z.B. f ◦ g(1) 6= g ◦ f (1)).
Andererseit ist ◦ assoziativ. Um das zu zeigen, wählen wir beliebige Elemente f, g, h ∈ G and a ∈ X und formen ein bischen um:
((f ◦ g) ◦ h)(a) = (f ◦ g)(h(a)) = f (g(h(a)))
= f ((g ◦ h)(a)) = (f ◦ (g ◦ h))(a).
Kurz gesagt: für alle a ∈ G gilt ((f ◦ g) ◦ h)(a) = (f ◦ (g ◦ h))(a). Das bedeutet
aber, dass die beiden Abbildungen (f ◦ g) ◦ h und f ◦ (g ◦ h) identisch sind4 . Da
f, g, h beliebige Elemente von G waren, haben wir gezeigt, dass ◦ assoziativ ist.
4 Sind X, Y Mengen und f, g : X → Y Abbildungen, so gilt f = g genau dann, wenn
f (a) = g(a) für alle a ∈ X gilt.
6
Definition 1.2.5 Sei G eine Menge und ∗ : G × G → G eine Verknüpfung.
(i) Ein neutrales Element (bzgl. ∗) ist ein Element e ∈ G mit der Eigenschaft,
dass für alle a ∈ G gilt:
a ∗ e = e ∗ a = a.
(ii) Sei e ein neutrales Element zu ∗ und sei a ∈ G. Ein inverses Element zu
a (bezüglich e) ist ein Element b ∈ G mit der Eigenschaft
a ∗ b = b ∗ a = e.
Proposition 1.2.6 Sei ∗ : G × G → G eine Verknüpfung.
(i) Es existiert höchstens ein neutrales Element bzgl. ∗. Insbesondere dürfen
wir (im Fall der Existenz) von dem neutralen Element reden und können
wir uns den Hinweis ‘bzgl. e’ beim Benennen eines inversen Elementes
sparen.
(ii) Angenommen, die Verknüpfung ∗ ist assoziativ und besitzt ein neutrales
Element e. Dann besitzt jedes Element a ∈ G genau ein inverses Element.
Beweis: Sind e, e0 zwei neutrale Elemente, so gilt zum einen
e · e0 = e
(weil e0 neutrales Element ist)
e · e0 = e0
(weil e neutrales Element ist).
zum anderen
0
Es folgt e = e . Damit ist (i) bewiesen.
Nun zum Beweis von (ii). Sei a ∈ G beliebig, und seien b, c ∈ G zwei inverse
Elemente zu a. Dann folgern wir:
b=b∗e
= b ∗ (a ∗ c)
(e ist neutrales Element)
(c ist Inverses von a)
= (b ∗ a) ∗ c
=e∗c
(∗ ist assoziativ)
(b ist Inverses von a)
=c
(e ist neutrales Element).
Insbesondere gilt b = c, und (ii) ist ebenfalls bewiesen.
2
Beispiel 1.2.7 Sei G := Z und ∗ = +. Die Null ist offensichtlich ein neutrales
Element zu +. Für a ∈ Z ist das Negative −a ∈ Z ein inverses Element zu a.
Beispiel 1.2.8 Sei G := Q und ∗ = · . Die Eins ist offensichtlich ein neutrales
Element zu · . Für eine rationale Zahl ab ∈ Q ungleich 0 ist ab ∈ Q ein inverses
Element. Die Null besitzt kein inverses Element bzgl. der Multiplikation, da
a
0 · = 0 6= 1
b
gilt, für alle
a
b
∈ Q.
7
Definition 1.2.9 Ein Ring ist eine Menge, zusammen mit zwei Verknüpfungen
+ : R × R → R,
(die Addition)
und
· : R × R → R,
(die Multiplikation),
die folgende Axiome erfüllen.
(i) Die Addition ist assoziativ und kommutativ.
(ii) Die Addition besitzt ein neutrales Element 0R , genannt das Nullelement.
(iii) Jedes Element a ∈ R besitzt ein (eindeutiges) inverses Element −a bzgl.
der Addition, genannt das Negative von a.
(iv) Die Multiplikation ist assoziativ.
(v) Es gelten die Distributivgesetze:
a · (b + c) = a · b + a · c,
(a + b) · c = a · c + b · c,
für alle a, b, c ∈ R.
Ein Ring (R, +, · ) heißt kommutativ, wenn auch die Multiplikation kommutativ
ist.
Ein neutrales Element der Multiplikation (wenn es existiert) heißt das Einselement, und wird 1R geschrieben.
Beispiel 1.2.10 (i) Die Mengen Z, Q und R, versehen mit der üblichen Addition und Multiplikation, sind kommutative Ringe mit einem Einselement.
(ii) Die Menge der natürlichen Zahlen N, versehen mit der üblichen Addition
und Multiplikation, erfüllt die Bedingungen (i), (iv) und (v). Die Bedingungen (ii) und (iii) sind beide nicht erfüllt, also ist (N, +, · ) kein
Ring.
Bemerkung 1.2.11 Sei (R, +, · ) ein Ring. Um uns Schreibarbeit zu sparen,
werden wir stillschweigend folgende Annahmen treffen bzw. folgende Schreibweisen benutzen.
(i) Wir nehmen grundsätzlich an, dass R ein Einselement 1R besitzt. Zwar
kommen in der Mathematik auch Ringe vor ohne Einselement, aber nicht
in dieser Vorlesung.
(ii) Wir schreiben meistens einfach 0 und 1 anstelle von 0R und 1R . Aber
natürlich nur, wenn aus dem Kontext klar hervorgeht, in welchem Ring
die Elemente 0 und 1 leben.
8
(iii) Wir nehmen immer an, dass 0 6= 1 gilt. Denn aus der Gleichheit 0 = 1
würde sofort folgen, dass der Ring nur aus dem Nullelement besteht (also
R = {0}), und das ist eher langweilig.
(iv) Wir benutzen u.a. die folgenden abkürzenden Schreibweisen (die man vom
Rechnen mit ‘normalen Zahlen’ gewohnt ist):
a+b+c
abc
statt
statt
(a + b) + c,
(a · b) · c,
ab + c
a−b
statt
statt
(a · b) + c,
a + (−b),
an
statt
a
. . · a}, für n ∈ N
| · .{z
n mal
usw. Die letzte Zeile legt uns auch die Schreibweise
n · a := a + . . . + a
| {z }
n mal
für a ∈ R und n ∈ N nahe. Hierbei muss man aber darauf achten, dass n
kein Element von R ist und es sich bei dem Ausdruck n · a nicht um die
Multiplikation von zwei Elementen aus R handelt.
Proposition 1.2.12 Sei (R, +, · ) ein Ring und a, b, c ∈ R drei beliebige Elemente.
(i) Aus der Gleichung
a+b=a+c
(7)
folgt die Gleichung b = c.
(ii) Es gelten folgende Regeln:
0 · a = a · 0 = 0,
−(−a) = a,
(−1) · a = a · (−1) = −a,
(−a) · (−b) = a · b.
(8)
(9)
(10)
(11)
Beweis: Teil (i) der Proposition folgt aus der folgenden Kette von Umformungen:
b = (−a + a) + b = −a + (a + b) = −a + (a + c)
= (−a + a) + c = 0 + c = c.
Alternativ kann man das Argument auch so formulieren: man addiert zu beiden
Seiten der Gleichung (7) das Negative von a. Nach Kürzen ergibt sich die
Gleichung b = c.
9
Zum Beweis von (8) überlegt man sich zuerst, dass
0 · a = (0 + 0) · a = 0 · a + 0 · a,
für ein beliebiges Element a ∈ R. Wendet man auf diese Gleichheit die unter
(i) bewiesene Aussage an, so erhält man 0 · a = 0. Die Gleichung a · 0 = 0 zeigt
man auf analoge Weise, womit (8) bewiesen wäre.
Nach Definition ist −a das inverse Element zu a (bzgl. der Addition), d.h.
es gilt
a + (−a) = 0.
Man kann diese Gleichung aber auch lesen als: a ist das inverse Element zu
−a, d.h. a = −(−a), womit (9) bewiesen wäre. Man beachte, dass wir in
diesem Argument die Eindeutigkeit des inversen Elementes benutzt haben, vergl.
Proposition 1.2.6.
Zum Beweis von (10) führt man zuerst die folgenden Umformungen durch:
a + (−1) · a = 1 · a + (−1) · a = (1 + (−1)) · a = 0 · a = 0.
(Im letzten Schritt haben wir (8) benutzt!) Die obige Gleichheit zeigt, dass
(−1) · a das inverse Element von a bzgl. der Addition ist, also (−1) · a = −a
gilt. Die Gleichung a · (−1) = −a zeigt man wieder auf analoge Weise.
Der Beweis von (11) sei dem Leser als Übungsaufgabe überlassen.
2
Die Proposition 1.2.12 zeigt, dass in einem allgemeinen Ring viele uns von
den ganzen Zahlen vertraute Rechenregeln ebenfalls gelten, aber einer ausführlichen Begründung bedürfen. Es gibt aber auch ein paar Überraschungen. Z.B.
ist die im Ring der ganzen Zahlen geltende Ungleichung −1 6= 1 in vielen Ringen
falsch!
Unser eigentliches Ziel ist ja das Studium von linearen Gleichungssytemen.
Es ist möglich und durchaus sinnvoll, lineare Gleichungssysteme über sehr allgemeinen Ringen zu betrachten. Zu grosse Allgemeinheit führt hier aber schnell
zu Komplikationen. Deshalb werden wir uns in dieser Vorlesung meistens auf
einen bestimmten Typ von Ringen beschränken, die Körper.
Zur Illustration der Probleme betrachten wir den einfachsten Typ von linearen Gleichungssystemen: eine Gleichung in einer Unbekannten x:
a · x = b.
Hierbei sind a, b beliebige Elemente eines kommutativen Rings R. Falls a = 0
ist, so hat diese Gleichung entweder keine Lösung (im Fall b 6= 0) oder jedes
Element x ∈ R ist eine Lösung (im Fall b = 0). Man darf also getrost a 6= 0
annehmen.
Definition 1.2.13 Sei (R, +, · ) ein kommutativer Ring.
(i) Ein Element a ∈ R heißt Einheit, wenn a ein multiplikatives Inverses
besitzt (welches wir dann mit a−1 bezeichnen).
10
(ii) Ein Element a ∈ R heißt Nullteiler, wenn es ein Element b ∈ R, b 6= 0,
gibt mit
ab = 0.
Der Ring R heißt nullteilerfrei wenn 0 der einzige Nullteiler ist.
Bemerkung 1.2.14 Der Begriff Nullteiler ist etwas irreführend. Haben wir
allgemeiner zwei Elemente a, b ∈ R, so sagen wir dass a ein Teiler von b ist,
wenn die Gleichung
a·x=b
eine Lösung x ∈ R besitzt. Setzt man in diese Definition b = 0 ein, so folgt
sofort, dass jedes Element a ∈ R ein Teiler von 0 ist (denn obige Gleichung hat
ja die Lösung x = 0). Man nennt ein Element a aber nur dann einen Nullteiler,
wenn es eine Lösung x 6= 0 gibt.
Beispiel 1.2.15 Der Ring der ganzen Zahlen Z ist nullteilerfrei. Die Menge
der Einheiten von Z besteht nur aus den zwei Elementen 1, −1.
Proposition 1.2.16 Sei R ein kommutativer Ring, a, b ∈ R und a 6= 0.
(i) Ist R nullteilerfrei, so besitzt die Gleichung
a·x=b
(12)
höchstens eine Lösung x ∈ R.
(ii) Wenn a ein (multiplikatives) Inverses a−1 besitzt, so hat die Gleichung
(12) genau eine Lösung x ∈ R, nämlich x := a−1 b.
Beweis: Angenommen, der Ring R ist nullteilerfrei, und die Gleichung (12)
habe die Lösungen x = x1 und x = x2 ∈ R. Dann gilt
0 = b − b = a · x1 − a · x2 = a · (x1 − x2 ).
Wegen der Annahme a 6= 0 bedeutet dies aber, dass x1 − x2 ein Nullteiler ist.
Da R als nullteilerfrei angenommen wurde, folgt x1 = x2 . Es gibt also höchstens
eine Lösung von (12), und (i) ist bewiesen.
Zum Beweis von (ii) nehmen wir an, dass a ein Inverses a−1 besitzt. Ist
dann x ∈ R eine Lösung der Gleichung ax = b, so folgt
x = a−1 ax = a−1 b.
Dies legt den Wert der Lösung also eindeutig fest. Umgekehrt ist der Wert
x := a−1 b natürlich eine Lösung der Gleichung. Wir haben also die Existenz
und die Eindeutigkeit der Lösung gezeigt.
2
Definition 1.2.17 Ein Körper ist ein kommutativer Ring (K, +, · ) mit einem
Einselement 1 6= 0 und folgender Eigenschaft: jedes Element a 6= 0 ist eine
Einheit.
11
Beispiel 1.2.18 Die rationalen Zahlen Q und die reellen Zahlen R bilden einen
Körper. Der Ring Z ist kein Körper.
Bemerkung 1.2.19 Ein Körper K ist automatisch nullteilerfrei. Denn wenn
wir Elemente a, b ∈ R haben mit a 6= 0 und ab = 0, so folgt wie im Beweis von
Proposition 1.2.16 (ii) die Gleichung
b = a−1 · 0 = 0.
Zum Abschluss wollen wir noch zeigen, dass man einen nullteilerfreien kommutativen Ring R auf einfache Weise in einen Körper K einbetten kann. Diese
Konstruktion ist völlig analog (genauer: eine Verallgemeinerung von) dem Übergang von den ganzen Zahlen Z zu den rationalen Zahlen Q.
Sei also R ein nullteilerfreier und kommutativer Ring mit einem Einselement
1 6= 0. Das Beispiel der rationalen Zahlen legt uns nahe, den Körper K als die
Menge der Brüche über dem Ring R zu definieren,
K := {
a
| a, b ∈ R, b 6= 0 }.
b
(13)
Die Addition und Multiplikation definiert man ebenfalls so, wie man es von den
rationalen Zahlen gewohnt ist:
ad + bc
a c
+ :=
,
b
d
bd
a c
ac
· := .
b d
bd
(14)
Man beachte, dass aus b 6= 0 und d 6= 0 die Ungleichheit bd 6= 0 folgt, weil wir
annehmen, dass der Ring R nullteilerfrei ist. Jetzt muss man noch zeigen, dass
man mit solchen Brüchen so rechnen kann, wie man es gewohnt ist.
Die obige ‘Definition’ ist vom mathematischen Standpunkt aus sehr unbefriedigend, da man nicht präzise formuliert hat, was ein ‘Bruch’ eigentlich ist.
Für eine wirklich wasserdichte Definition benötigt man das folgende Konzept.
Definition 1.2.20 Sei M ein nichtleere Menge.
(i) Eine Relation auf M ist eine Teilmenge ∼ von M × M . Für a, b ∈ M
definieren wir
a ∼ b :⇔ (a, b) ∈∼ .
(ii) Eine Relation ∼ auf M heißt Äquivalenzrelation, wenn für alle a, b, c ∈ M
gilt:
a∼a
a∼b ⇒ b∼a
a ∼ b, b ∼ c ⇒ a ∼ c
(Reflexivität)
(Symmetrie)
(Transitivität).
Sind diese Bedingungen erfüllt, so sprechen wir die Beziehung ‘a ∼ b’ aus
als: a ist äquivalent zu b (bzgl. der Relation ∼).
12
(iii) Sei ∼ eine Äquivalenzrelation auf M . Eine nichtleere Teilmenge A ⊂ M
heißt Äquivalenzklasse (bzgl. ∼), wenn es ein Element a ∈ M gibt so, dass
A genau die Elemente von M enthält, die äquivalent zu a sind, d.h.
A = { b ∈ M | a ∼ b }.
In diesem Fall schreiben wir A = [a]∼ und nennen a einen Repräsentanten
der Äquivalenzklasse A. (Beachte: die Reflexivität impliziert a ∈ [a]∼ !)
Wir bezeichnen mit M/∼ die Menge aller Äquivalenzklassen (bzgl. ∼).
Der entscheidende Punkt ist:
Bemerkung 1.2.21 Sei M eine nichtleere Menge und ∼ eine Äquivalenzrelation auf M . Dann liegt jedes Element von M in genau einer Äquivalenzklasse
(bzgl. ∼). Für zwei Elemente a, b ∈ M gilt:
a ∼ b ⇔ [a]∼ = [b]∼ .
Beim Übergang von der Menge M zur Menge M/ ∼ geht also die Relation ∼
in die Relation = über.
Nun zurück zu unserer ursprünglichen Situation. Wir haben einen kommutativen und nullteilerfreien Ring R. Wir setzen
M := { (a, b) | a, b ∈ R, b 6= 0 }
und definieren die Relation ∼ auf M durch
(a, b) ∼ (c, d) :⇔ ad = bc.
Lemma 1.2.22 Die Relation ∼ ist eine Äquivalenzrelation.
Beweis: Reflexivität und Symmetrie sind klar. Um die Transitivität nachzuweisen, nehmen wir uns drei Elemente (a, b), (c, d), (e, f ) ∈ M her. Wir nehmen
an, dass (a, b) ∼ (c, d) und (c, d) ∼ (e, f ) gelten, was gleichbedeutend ist mit
ad = bc,
cf = de.
(15)
Der Trick ist nun, beide Seiten der erste Gleichungen mit f zu multiplizieren
und dann mithilfe der zweiten Gleichung umzuformen. Wir erhalten:
adf = bcf = bde,
woraus wir die Gleichung
d(af − be) = 0
schliessen. Aber R ist nach Voraussetzung ein nullteilerfreier Ring. Aus d 6= 0
folgt deshalb af = be, oder (a, b) ∼ (e, f ). Damit ist das Lemma bewiesen. 2
Jetzt können wir eine formale Definition des Körpers K wagen. Wir definieren
K := M/∼
13
als die Menge der Äquivalenzklassen bzgl. der Relation ∼. Für ein Element
(a, b) ∈ M schreiben wir die zugehörige Äquivalenzklasse als
a
:= [(a, b)]∼ ∈ K.
b
Ein Bruch ab ist also die Menge der Paare (a0 , b0 ) ∈ M mit ab0 = a0 b, und K ist
die Menge aller Brüche ab (wobei b 6= 0). Damit haben wir (13) präzise definiert.
Die Addition und die Multiplikation auf K sollen wie in (14) definiert sein.
Hier stossen wir auf das nächste Problem, die Wohldefiniertheit. Seien also
α, β ∈ K zwei Elemente aus K. Nach Definition von K gibt es Elemente
a, b, c, d ∈ R, b, d 6= 0, so dass α = ab , β = dc . Nach (14) möchten wir definieren:
α + β :=
ad + bc
,
bd
αβ :=
ac
.
bd
(16)
Auf der rechten Seite steht jeweils ein wohldefiniertes Element aus K (weil
bd 6= 0 ist). Es ist aber auf den ersten Blick nicht klar, dass diese Elemente
unabhängig von der Wahl der Darstellung α = ab , β = dc sind. Damit unsere
Definition von α+β und αβ überhaupt Sinn macht, müssen wir zuerst folgendes
zeigen:
Lemma 1.2.23 Gegeben (a, b), (a0 , b0 ), (c, d), (c0 , d0 ) ∈ M mit
a
a0
= 0
b
b
c
c0
= 0.
d
d
und
Dann gilt
a 0 d 0 + b 0 c0
ad + bc
=
,
bd
b0 d 0
ac
a 0 c0
= 0 0.
bd
bd
(17)
Beweis: Nach Vorausetzung gelten die Gleichungen
ab0 = ba0 ,
cd0 = dc0 .
(18)
Durch Umformen erhalten wir
(ad + bc)b0 d0 = adb0 d0 + bcb0 d0
= (ab0 )dd0 + (cd0 )bb0
0
0
0
= (ba )dd + (dc )bb
0 0
0
0 0
= (a d + b c )bd.
(umsortieren)
(benutze (18))
(umsortieren)
Die resultierende Gleichung besagt gerade dass
ad + bc
a 0 d 0 + b 0 c0
=
.
bd
b0 d 0
Die erste Gleichung in (17) ist damit bewiesen. Die zweite Gleichung zeigt man
durch eine ähnliche Rechnung.
2
Mit dem Beweis des Lemmas ist gezeigt, dass durch (16) auf der Menge K
zwei Verknüpfungen, + und · , definiert sind.
14
Satz 1.2.24 Die oben definierte Menge K, zusammen mit den Verknüpfungen
+ und · , bildet einen Körper.
Wir nennen K den Quotientenkörper von R.
Beweis: Zunächst einmal ist zu zeigen, dass (K, +, · ) ein kommutativer
Ring mit Einselement ist. Es sind also insbesondere die Eigenschaften (i) bis (v)
der Definition 1.2.5 nachzuprüfen, plus die Kommutativität und die Existenz der
Eins. Das ist etwas mühselig, aber nicht schwierig, und sei dem Leser überlassen.
Wir weisen nur darauf hin, dass das Nullelement von K der Bruch 0K := 10 und
das Einselement der Bruch 1K := 11 ist.
Zeigen wir, dass K sogar ein Körper ist. Dazu sei α = ab ∈ K ein beliebiges
Element. Dann gilt α 6= 0 genau dann, wenn a 6= 0. In diesem Fall ist α−1 := ab
ein Inverses zu α, wegen
αα−1 =
ab
1
a b
· =
= = 1K .
b a
ab
1
Jedes von Null verschiedene Element von K ist demnach eine Einheit, also ist
K ein Körper.
2
Bemerkung 1.2.25 Die Abbildung
R → K,
a 7→
a
1
ist injektiv (aus a1 = 1b folgt a = b). Es ist üblich und nützlich, den Ring R
mit dem Bild obiger Abbildung zu identifizieren und somit als Teilmenge von
K aufzufassen. Mit anderen Worten: wir unterscheiden nicht zwischen dem
Element a ∈ R und dem Element a1 ∈ K.
Diese Konvention ist mit der Definition der Addition und der Multiplikation
auf K verträglich, wegen
a b
a+b
+ =
,
1 1
1
a b
ab
· = .
1 1
1
Mit anderen Worten: fassen wir R als Teilmenge des Körpers K auf, so ist die
Einschränkung der auf K definierten Addition und Multiplikation auf die Teilmenge R die übliche Addition und Multiplikation des Ringes R. Diese Aussage
formuliert man auch so: R ist ein Unterring von K.
1.3
Das Eliminationsverfahren von Gauss
Sei K ein Körper. Ein lineares Gleichungssystem über K ist von der Form
a1,1 x1
..
.
+
am,1 x1
+
...
...
+
a1,n xn
..
.
+ am,n xn
15
=
b1
..
.
= bm .
(19)
Hierbei sind ai,j , bi Elemente von K und xj die Unbestimmten. Die Lösungsmenge
des Gleichungssystems (19) ist die Menge
Lös((19)) := {(x1 , . . . , xn ) | xj ∈ K, (19) ist erfüllt }.
Ein Gleichungssystem zu lösen bedeutet für uns, die Lösungsmenge zu bestimmen. Das kann auch bedeuten, die Nichtexistenz von Lösungen zu beweisen.
Das Eliminationsverfahren von Gauss liefert einen Algorithmus zum Lösen eines
beliebigen linearen Gleichungssystems.
Zunächst führen wir eine praktische Schreibweise für das Gleichungssystem
(19) ein. Die Koeffizienten ai,j schreiben wir in ein rechteckiges Schema, eine
Matrix:


a1,1 . . . a1,n

..  .
A :=  ...
. 
am,1
. . . am,n
Die Menge aller solcher (m, n)-Matrizen bezeichnen wir mit Mm,n (K).
Die Einträge bi und die Unbestimmten xj schreiben wir als Spaltenvektoren:
 
 
b1
x1
 .. 
 .. 
n
b :=  .  ∈ K m .
x :=  .  ∈ K ,
bm
xn
Man beachte, dass die Anzahl der Einträge im allgemeinen verschieden ist: b hat
m Einträge (die Anzahl der Zeilen von (19)) und x hat n Einträge (die Anzahl
der Unbestimmten).
Wir erklären das Produkt der Matrix A mit dem Spaltenvektor x durch die
Formel


a1,1 x1 + . . . + a1,n xn

..  ∈ K m .
A · x :=  ...
. 
am,1 x1
+
...
+ am,n xn
Hierbei ist es entscheidend, dass der Vektor x genau soviel Einträge hat wie die
Matrix A Spalten hat (nämlich n). Das Ergebnis ist ein Spaltenvektor mit m
Einträgen.
Mit dieser Vorbereitung können wir das lineare Gleichungssystem (19) jetzt
in die kompaktere, aber äquivalente Form
A·x =b
bringen. Die Lösungsmenge schreiben wir als
Lös(A, b) := { x ∈ K n | A · x = b }.
Wir nennen A die Koeffizientenmatrix des Gleichungssystems; hängt man an
A noch den Vektor b als letzte Spalte an, so spricht man von der erweiterten
16
Koeffizientenmatrix:

a1,1
 ..
à = (A, b) :=  .
am,1
...
a1,n
..
.
. . . am,n

b1
..  .
. 
bm
In ihr ist die gesamte Information über das Gleichungssystem enthalten.
Das Prinzip des Gaussschen Eliminationsverfahrens besteht darin, das Gleichungssystems durch wiederholtes Anwenden von sogenannten Zeilenoperationen so weit zu vereinfachen, bis man die Lösungsmenge leicht angeben kann.
Definition 1.3.1 Sei A = (ai,j ) ∈ Mm,n (K) eine (m, n)-Matrix mit Einträgen
in einem Körper K. Eine elementare Zeilenoperation, angewendet auf A, liefert
eine Matrix A0 = (a0i,j ) ∈ Mm,n (K) und ist vom Typ (I), (II) oder (III), wie
folgt:
(I) A0 geht aus A hervor durch Multiplikation der i-ten Zeile mit einem Element λ 6= 0 von K, d.h.
(
λai,l , falls k = i,
0
ak,l :=
ak,l , falls k 6= i.
Hierbei sind i, k ∈ {1, . . . , m}, l ∈ {1, . . . , n}.
(II) A0 geht aus A hervor durch Addition des λ-fachen der iten Zeile auf die
jte Zeile, d.h.
(
aj,l + λai,l , für k = j,
0
ak,l :=
ak,l ,
für k 6= j.
Hierbei sind 1 ≤ i, j ≤ m verschiedene Indizes und λ ist ein beliebiges
Element von K.
(III) A0 geht aus A hervor durch Vertauschen der iten mit der jten Zeile,


aj,l , für k = i,
a0k,l := ai,l , für k = j,


ak,l , sonst.
Lemma 1.3.2 Sei A · x = b ein lineares Gleichungssystem über einem Körper
K, mit erweiterter Koeffizientenmatrix (A, b). Sei (A0 , b0 ) das Ergebnis einer
elementaren Zeilenoperation, angewendet auf (A, b). Dann haben die beiden
Gleichungssysteme A · x = b und A0 · x = b0 dieselbe Lösungsmenge:
Lös(A, b) = Lös(A0 , b0 ).
17
Beweis: Wir zeigen das Lemma exemplarisch für eine elementare Zeilenumformung vom Typ (II). Die anderen beiden Fälle sind einfacher und dem Leser
überlassen.
Schreibe A = (ak,l ) und b = (bk ). Es seien 1 ≤ i 6= j ≤ m und λ ∈ K.
Es sei ausserdem (A0 , b0 ) das Ergebnis der Zeilenoperation vom Typ (II) mit
Parameter i, j, λ, angewendet auf die erweiterte Koeffizientenmatrix (A, b).
Sei x = (xl ) ∈ Lös(A, b) eine Lösung von A · x = b, d.h. es gelten die
Gleichungen
a1,1 x1 + . . . + a1,n xn = b1
..
..
..
(20)
.
.
.
am,1 x1
+
...
+ am,n xn
= bm .
Multiplizieren wir die ite Gleichung von (20) mit λ und addieren wir diese zur
jten Gleichung, so folgt, nach einer einfachen Umformung:
(aj,1 + λai,1 )x1 + . . . + (aj,n + λai,n )xn = bj + λbi .
(21)
Ersetzen wir in (20) die jte Zeile durch die Gleichung (21), so erhalten wir, in
Matrixschreibweise und nach Definition von (A0 , b0 ), die Gleichung
A0 · x = b 0 .
Wir haben also gezeigt: aus A · x = b folgt A0 · x = b0 . Anders ausgedrückt:
Lös(A, b) ⊂ Lös(A0 , b0 ).
Nun überlegt man sich folgendes: wendet man auf (A0 , b0 ) eine Zeilenumformung vom Typ (II) mit Parameter (i, j, −λ), so erhält man die ursprüngliche
erweiterte Koeffizientenmatrix (A, b). Mit dem soeben ausgeführten Argument
folgt dann
Lös(A0 , b0 ) ⊂ Lös(A, b),
und insgesamt Lös(A, b) = Lös(A0 , b0 ).
2
Definition 1.3.3 Eine (m, n)-Matrix A = (ai,j ) über einem Körper K ist in
Zeilenstufenform, wenn sie folgende Form hat:


•


•


..


.
,

• 6= 0.
A = 

•




∗
0
Etwas genauer: es gibt eine ganze Zahl r mit 0 ≤ r ≤ m und r ganze Zahlen
j1 < j2 < . . . < jr , so dass gilt:
ai,1 = . . . = ai,ji −1 = 0,
ai,ji 6= 0
ai,1 = . . . = ai,n = 0,
für i = 1, . . . , r,
für i = r + 1, . . . , m.
18
Die von Null verschiedenen Einträge a1,j1 , . . . , ar,jr heißen die Angelpunkte von
A. Die Zahl r heißt der Zeilenrang von A.
Die Matrix A ist in normalisierter Zeilenstufenform, wenn, zusätzlich zu den
oben aufgeführten Bedingen, gilt:
a1,ji = . . . , ai−1,ji = 0,
ai,ji = 1,
für i = 1, . . . , r.
Das entsprechende Bild sieht also in etwa so aus:

1
0

1

..

.
A = 



0
0
..
.
0
1




.



Man beachte, dass die Fälle r = 0 und r = m ausdrücklich zugelassen sind: im
ersten Fall ist A = 0, d.h. alle Einträge von A sind Null.
Ein weiterer interessanter Grenzfall tritt ein für m = n = r. Ist dann A in
normalisierter Zeilenstufenform, so gilt


1
0


..
A = En := 
.
.
0
1
Die Matrix En heißt die Einheitsmatrix vom Rang n.
Lemma 1.3.4 Sei A ∈ Mm,n (K) eine (m, n)-Matrix über einem Körper K.
Dann lässt sich A durch eine Folge von elementaren Zeilenumformungen in eine
Matrix A0 ∈ Mm,n (K) in normalisierter Zeilenstufenform umformen.
Beweis: Zum Beweis werden wir einen konkreten Algorithmus angeben, der
eine gegebene Matrix A = (ai,j ) schrittweise auf normalisierte Zeilenstufenform
bringt. Dabei werden wir die Namen A für die Matrix und ai,j für ihre Einträge
immer beibehalten, auch wenn sich letztere durch die laufenden Umformungen
geändert haben.
Ist A = 0, so ist A bereits in normalisierter Zeilenstufenform, und wir sind
fertig. Andernfalls gibt es mindesten einen Eintrag ai,j 6= 0. Setze
j1 := min{ j | es gibt ein i mit ai,j 6= 0 }
und wähle ein i1 mit ai1 ,j1 6= 0. Jetzt führen wir die folgenden Umformungen
aus:
• Falls i1 6= 1, vertausche die erste mit der i1 ten Zeile. Wir dürfen danach
annehmen, dass i1 = 1. Unser erster Angelpunkt ist der Eintrag a1,j1 6= 0.
• Multipliziere die erste Zeile von A mit a−1
1,j1 . Danach gilt a1,j1 = 1.
19
• Addiere das −ai,j1 fache der ersten Zeile zur iten Zeile, für i = 2, . . . , m.
Dadurch verschwinden die Einträge unterhalb des Angelpunktes a1,j1 = 1.
Die Matrix A hat nun die Form

0 ···
 ..
.
A=
.
 ..
0 ···

∗


,


0 1 ∗ ···
..
. 0
.. ..
. .
B
0 0
wobei B eine gewisse (m − 1, n − j1 )-Matrix ist. Nun könnte es sein, dass
m = 1 oder j1 = n. In beiden Fällen ist die Matrix B leer und A ist bereits in
normalisierter Zeilenstufenform.
Wenn aber m > 1 und j1 < n gilt, so wenden wir das im letzten Abschnitt
beschriebene Verfahren auf die Matrix B an. Dabei führen wir aber die anfallenden Zeilenumformungen nicht einfach nur auf B aus, sondern auf die ganze
Matrix A. Hat man mit dieser Vorgehensweise Erfolg, so hat die Matrix A
anschliessend die Form


0 ··· 0 1 ∗ ··· ··· ∗
.. 
 ..
.
0 0
∗
.


 ..

.. ..
.
. .
1 ∗
,
A=
.

.. ..
 ..
. .
0 0


.
.. ..
..
.. 
 ..
. .
.
.
0 ···
0 0 ···
0
0
d.h. sie ist in Zeilenstufenform, und die Angelpunkte haben alle den Wert 1.
Vom algorithmischen Standpunkt aus haben wir eine Prozedur beschrieben,
die sich u.U. selbst aufruft (ein sogenannter rekursiver Aufruf). Das ist erlaubt,
aber wir müssen uns klarmachen, dass obiges Verfahren nach endlich vielen
Schritten abbricht. Um das einzusehen, betrachtet man die Anzahl m der Zeilen
der Matrix, auf die man die Prozedur anwendet. Die Prozedur ruft nur dann
sich selbst auf, wenn m > 1, und in diesem Fall ist die Eingabe ein Matrix mit
m − 1 Zeilen. Daraus folgt, dass die Tiefe der rekursiven Aufrufe höchstens m
beträgt und das Verfahren tatsächlich nach endlich vielen Schritten abbricht.
Wir haben nun die Matrix A auf Zeilenstufenform gebracht und dafür gesorgt,
dass die Werte der Angelpunkte alle gleich 1 sind. Es ist nun klar, wie man durch
weitere elementare Zeilenumformungen vom Typ (II) erreichen kann, dass alle
Einträge oberhalb der Angelpunkte verschwinden.
2
Satz 1.3.5 Sei K ein Körper, m, n ∈ N, A ∈ Mm,n (K) und b ∈ K m . Wir
betrachten das lineare Gleichungssystem
A · x = b,
mit x ∈ K n . Dann können zwei verschiedene Fälle auftreten:
20
(i) Es gibt keine Lösung, d.h. Lös(A, b) = ∅.
(ii) Es gibt eine ganze Zahl s, 0 ≤ s ≤ n, und paarweise verschiedene ganze
Zahlen k1 , . . . , ks , 1 ≤ k1 < · · · < ks ≤ n, mit folgender Eigenschaft. Für
jedes s-Tupel (t1 , . . . , ts ) ∈ K s gibt es genau eine Lösung x = (x1 , . . . , xn ) ∈
K n der Gleichung A · x = b mit
xk 1 = t 1 , . . . , x k s = t s .
Insbesondere erhalten wir eine Bijektion
∼
φ : K s → Lös(A, b),
(t1 , . . . , ts ) 7→ x = (x1 , . . . , xn ).
Im Fall (ii) des Satzes nennen wir die Unbestimmten xk1 , . . . , xkn−r die freien
Variablen und die übrigen Unbestimmten die gebundenen Variablen. Die Bijektion φ heißt Parametrisierung der Lösungsmenge, die Elemente ti heißen
Parameter.
Beweis: Nach Lemma 1.3.4 können wir die erweiterte Koeffizientenmatrix
(A, b) durch eine Folge von Zeilenumformungen zu einer Koeffizientenmatrix
(A0 , b0 ) umformen, so dass A0 in normalisierter Zeilenstufenform ist. Nach
Lemma 1.3.2 gilt ausserdem
Lös(A, b) = Lös(A0 , b0 ).
Nun sei r der Zeilenrang von A0 und seien j1 < . . . < jr die Spaltenindizes der
Angelpunkte von A0 . Setze s := n − r und sortiere die s Elemente der Menge
{1, . . . , n}\{j1 , . . . , jr } in aufsteigender Reihenfolge: k1 < . . . < ks . Stellen wir
jetzt das lineare Gleichungssystem A0 ·x = b0 auf und bringen die Unbestimmten
xk1 , . . . , xks auf die rechte Seite, so erhalten wir ein Gleichungssystem der Form
xj1 = b01 − a01,k1 xk1 − . . . − a01,ks xks
..
..
.
.
xjr = b0r − a0r,k1 xk1 − . . . − a0r,ks xks
0 = b0r+1
..
..
.
.
0 = b0m .
Es können nun zwei verschiedene Fälle auftreten: entweder sind die Einträge
b0r+1 , . . . , b0m alle gleich Null, oder einer dieser Einträge ist ungleich Null. Wenn
letzteres zutrifft, so ist mindestens eine der obigen Gleichungen unerfüllbar, und
dann ist die Lösungsmenge leer:
Lös(A, b) = Lös(A0 , b0 ) = ∅.
Dies entspricht dem Fall (i) des Satzes. Andernfalls gilt b0r+1 = . . . , b0m = 0 und
die letzten m − r Gleichungen sind automatisch erfüllt und können weggelassen
21
werden. In diesem Fall ist es klar, dass man für die Unbestimmten xk1 , . . . , xks
beliebige Werte aus dem Körper K vorgeben kann, und dass dann mit dieser
Vorgabe eine eindeutige Lösung des Gleichungssystems existiert. Die Aussage
im Fall (ii) des Satzes sagt genau das.
2
Bemerkung 1.3.6 Man beachte, dass die Unterteilung in freie und gebundene
Variablen nicht nur von dem Gleichungssystem A · x = b, sondern vor allem von
den vorgenommenen Zeilenumformungen abhängt. Da es viele Möglichkeiten
gibt, eine Matrix auf Zeilenstufenform zu bringen, gibt es im allgemeinen auch
viele Möglichkeiten für die Wahl der freien Variablen.
Wir werden im zweiten Kapitel zeigen, dass zumindest die Anzahl s der
freien Variablen (bzw. der Parameter ti ) eindeutig durch das Gleichungssystem
bestimmt ist: sie entspricht der Dimension des Lösungsraumes.
Die Aussage von Satz 1.3.5 lässt sich noch verschärfen, wenn b = 0 gilt.
Definition 1.3.7 Ein homogenes lineares Gleichungssystem ist ein Gleichungssystem der Form
A · x = 0,
mit A ∈ Mm,n (K). Hierbei bezeichnet 0 den Nullvektor von K m , d.h. 0 :=
(0, . . . , 0) ∈ K m .
Offensichtlich hat ein homogenes lineares Gleichungssystem immer mindestens eine Lösung, nämlich den Nullvektor 0 := (0, . . . , 0) ∈ K n . Der Fall (i)
in Satz 1.3.5 tritt also nicht auf. Eine Lösung x ∈ Lös(A, 0), x 6= 0, heißt
nichttriviale Lösung.
Satz 1.3.8 Sei A ∈ Mm,n (K). Wenn m < n gilt, dann hat das homogene
Gleichungssystem
A·x =0
mindestens eine nichttriviale Lösung, x 6= 0. Ausserdem gilt für die Anzahl s
der freien Parameter (Bezeichnung wie in Satz 1.3.5):
s ≥ n − m > 0.
Beweis: Wie im Beweis von Satz 1.3.5 formen wir die erweiterte Koeffizientenmatrix (A, 0) so zu einer Matrix (A0 , b0 ), dass A0 in normalisierter Zeilenstufenform ist. (Man macht sich leicht klar, dass dann b0 = 0 gilt. Mit anderen Worten: ein homogenes Gleichungssystem bleibt unter Zeilenumformungen homogen.)
Sei r der Zeilenrang von A0 . Man beachte, dass r ≤ m und r ≤ n. Wie im
Beweis von Satz 1.3.5 ist dann s := n − r die Anzahl der freien Parameter der
Lösungsmenge. Wegen r ≤ m gilt dann
s ≥ n − m.
22
Gilt zusätzlich m < n, so folgt s > 0, und es gibt mindestens eine freie Variable
xk1 . Nach Satz 1.3.5 existiert dann eine Lösung x = (x1 , . . . , xn ) ∈ Lös(A, 0)
mit xk1 = 1 6= 0. Insbesondere gilt x 6= 0.
2
1.4
Analytische Geometrie
Als analytische Geometrie bezeichnet man heute meistens den Teil der linearen Algebra, der sich mit der Geometrie der Ebene und des dreidimensionalen
Raumes beschäftigt. Dies war der historische Ursprung der linearen Algebra.
Das Beispiel aus §1.1 zeigt aber, dass moderne Anwendungen meistens nicht
auf drei Dimensionen beschränkt sind und nicht notwendigerweise einen geometrischen Hintergrund haben. Trotzdem ist die geometrische Anschauung für
ein intuitives Verständnis der Begriffe der linearen Algebra unerlässlich.
Bevor wir also im nächsten Kapitel die grundlegenden Begriffe wie Vektorraum und lineare Abbildung offiziel und in abstrakter Weise definieren werden,
wollen wir sie zunächst geometrisch motivieren.
Der euklidische Standardraum
Die Elemente des Euklid waren bis zum Beginn der Neuzeit das Standardwerk der Mathematik und insbesondere der Geometrie; in ihnen ist praktisch
das gesamte mathematische Wissen und Denken der griechischen Antike zusammengefasst. Der Einfluss der Elemente auf Mathematik, Philosophie und Wissenschaft ist enorm. Wir wollen hier zwei wesentliche Aspekte hervorheben.5
• Die Mathematik wird als eine deduktive Wissenschaft aufgebaut; am Anfang stehen einige wenige Axiome, aus denen dann alles andere durch
logische Schlüsse abgeleitet wird.
• Die Algebra wird aus der Geometrie heraus begründet. Z.B. werden rationale Zahlen einfach als Längenverhältnisse von Strecken definiert, die
man durch gewisse geometrische Konstruktionen erhalten kann. (Die
Begründung der reellen Zahlen bereit massive Probleme und ist nicht allgemein gelungen.)
Der erste Punkt bestimmt auch heute noch unseren Zugang zur Mathematik
als Wissenschaft. Beim zweiten Punkt fand aber ab dem 17. Jahrhundert ein
Umdenken und eine Abkehr von den Grundsätzen der Elemente statt, dessen
Ergebnis vielleicht noch bedeutsamer ist als der Einfuss der Elemente selbst.
Das entscheidende Ereignis war wohl die Einführung von Koordinatensystemen durch René Descartes in seinem Hauptwerk Discours de la méthode (1637).
Durch diese Entdeckung wurde es möglich, die Geometrie aus der Algebra heraus
zu begründen. Dieser Standpunkt ist vielleicht weniger elegant als der von Euklid und philosophisch unbefiedigend, hat aber unschätzbare praktische Vorteile.
5 Für eine kritische Betrachtung siehe Euklid: Die Elemente – eine Übersicht, Vorlesungsskript von G.-D. Geyer SS 2001, Erlangen, oder Euklid und die Elemente, Norbert
Froese, 2007.
23
Oft kann man geometrische Fragestellungen in eine Rechenaufgabe übersetzen
und dann mit numerischen Methoden lösen. Im Zeitalter der digitalen Datenverarbeitung ist dieser Vorteil sogar noch viel grösser als zu Descartes Zeit.
Ganz im Sinne von Descartes gehen wir also vom Körper der reellen Zahlen
aus und definieren:
Definition 1.4.1 Sei n ∈ N eine natürliche Zahl. Der Euklidische Standardraum der Dimension n ist die Menge Rn aller n-Tupel von reellen Zahlen.
Für n ≤ 3 kann man sich diesem Raum leicht geometrisch veranschaulichen.
Die reellen Zahlen R stellt man sich als ‘Zahlengerade’ vor:
0
1
-
Für n = 2 identifiziert man R2 mit einer Ebene, in der man ein Koordinatensystem gewählt hat, wie folgt. Zu einem Punkt P in der Ebene assoziert man
das Paar (x1 , x2 ) ∈ R2 , indem man von P aus das Lot auf beide Koordinatenachsen fällt, welche man als Zahlengerade mit der Menge der reellen Zahlen
identifiziert.
6
x2
rP = (x1 , x2 )
x1
-
Wir nennen R2 deshalb auch die Euklidische Standardebene.
Analog verfährt man mit R3 , das man mit dem dreidimensionalen Raum
mit drei Koordinatenachsen identifiziert. Für den Moment bleiben wir aber in
Dimension zwei.
Definition 1.4.2 Eine Gerade in der Standardebene R2 ist die Lösungsmenge
einer (nichttrivialen) linearen Gleichung,
L = { (x1 , x2 ) ∈ R2 | ax1 + bx2 = c }.
Hierbei sind a, b, c ∈ R und (a, b) 6= (0, 0).
24
Wir wollen im folgenden mit den Methoden des letzten Abschnittes illustrieren, dass der soeben definierte Begriff einer Geraden mit der geometrischen
Anschauung übereinstimmt.
Sei also L ⊂ R2 eine Gerade, gegeben durch die Gleichung
ax1 + bx2 = c.
Eine Gleichung ist auch ein Gleichungssystem, also können wir den GaussAlgorithmus anwenden. Der ist in diesem Fall so einfach, dass wir in einem
Schritt das Ergebnis angeben können. Allerdings ist eine Fallunterscheidung
notwendig. Ist a 6= 0, so erhalten wir die äquivalente Gleichung
x1 =
b
c
− · x2 .
a a
Wir fassen also x2 als freie und x1 als gebundene Variable auf und erhalten die
Parametrisierung
c
b
∼
φ : R → L,
t 7→ ( − · t, t).
a a
∼
Die Umkehrabbildung φ−1 : L → R entspricht geometrisch der Projektion von
L auf die x2 -Achse. Wenn b 6= 0, so können wir auch so umformen:
x2 =
c a
− · x1 .
b
b
Die entsprechende Parametrisierung
∼
φ0 : R → L,
t 7→ (t,
c a
− · t)
b
b
entspricht der Projektion auf die x1 -Achse.
x2
6
(0, 1) r (−2, 0)
r
(2, 2) r
Figure 2: Die Gerade L : x1 − 2x2 = −2
25
x1
-
Der Fall a 6= 0, b 6= 0 ist ein Beispiel für die Bemerkung 1.3.6: man kann
sowohl x1 als auch x2 als freien Parameter wählen. Die Anzahl der freien Parameter ist aber in beiden Fällen 1. Dies entspricht der Vorstellung von einer
Geraden als ein ‘eindimensionales Objekt’.
Die Grenzfälle a = 0 (bzw. b = 0) beschreiben eine Gerade, die parallel zur
x1 -Achse (bzw. parallel zur x2 -Achse) liegt. Es ist klar, dass in diesem Fall nur
x1 (bzw. x2 ) als freie Variable in Frage kommt.
Als Ergebnis der obigen Diskussion wollen wir folgendes festhalten.
Proposition 1.4.3 Eine Teilmenge L ⊂ R2 der Ebene ist genau dann eine
∼
Gerade, wenn es eine Bijektion φ : R → L gibt der Form
∼
φ : R → L,
t 7→ (u1 + v1 t, u2 + v2 t),
mit gewissen reellen Zahlen u1 , u2 , v1 , v2 ∈ R, wobei (v1 , v2 ) 6= (0, 0).
Beweis: Angenommen, L ⊂ R ist eine Gerade, also die Lösungsmenge einer
Gleichung der Form
ax1 + bx2 = c,
mit (a, b) 6= (0, 0). Die obige Diskussion zeigt: wenn a 6= 0, so existiert die
geforderte Parametrisierung φ, wobei
u1 :=
c
,
a
b
v1 := − ,
a
u2 := 0,
v2 := 1.
Wenn a = 0 so gilt zumindest b 6= 0, und wir können ebenfalls eine explizite
Parametrisierung φ0 angeben.
∼
Nehmen wir umgekehrt an, dass es eine Bijektion φ : R → L gibt, wobei
φ(t) = (u1 + v1 t, u2 + v2 t) und (v1 , v2 ) 6= 0. Wir setzen
a := v2 ,
b := −v1 ,
c := u1 v2 − u2 v1 ,
und wollen zeigen, dass L die Lösungsmenge der Gleichung ax1 + bx2 = c, also
eine Gerade ist. Mit anderen Worten: ein Punkt (x1 , x2 ) ∈ R2 ist genau dann
eine Lösung der Gleichung ax1 + bx2 = c, wenn es ein t ∈ R gibt mit
x1 = u1 + v1 t,
x2 = u2 + v2 t.
Der Beweis dieser Aussage ist dem Leser als Übungsaufgabe überlassen.
2
∼
Eine Bijektion φ : R → L wie in Proposition 1.4.3 heißt eine Parametrisierung
oder eine Parameterdarstellung der Geraden L.
Jetzt wenden wir uns dem Problem zu, das Verhältnis zweier Geraden zueinander zu studieren.
Proposition 1.4.4 Es seien L1 , L2 ⊂ R2 Geraden in der Ebene. Dann können
nur die folgenden drei Fälle eintreten.
26
(i) L1 = L2 ,
(ii) L1 und L2 schneiden sich in genau einem Punkt, oder
(iii) L1 und L2 schneiden sich in keinem Punkt.
Beweis: Die Geraden L1 , L2 sind nach Definition Lösungsmenge einer linearen Gleichung in den Unbestimmten x1 , x2 . Die Schnittmenge L1 ∩ L2 ist demnach die Lösungsmenge eines linearen Gleichungssystems mit zwei Gleichungen:
a 1 x1 + b 1 x2 = c 1 ,
a 2 x1 + b 2 x2 = c 2 .
(22)
mit ai , bi , ci ∈ R und (ai , bi ) 6= (0, 0). Die erste Zeile von (22) entspricht der
Geraden L1 , die zweite Zeile der Geraden L2 .
Wir wenden nun auf (22) das Gauss-Verfahren an. Dabei ist eine Fallunterscheidung nötig, z.B. a1 6= 0 oder b1 6= 0. Die beiden Fälle sind sich aber so
ähnlich, dass die Betrachtung des ersten Falles a1 6= 0 hier genügen soll.
Sei also a1 6= 0. Wendet man das Gauss’sche Eliminationsverfahren auf (22)
an, so erhält man nach zwei Schritten das äquivalente Gleichungssystem
b1
c1
· x2 =
a1
a1
a 2 b1
a 2 c1
(b2 −
) · x2 = c 2 −
a1
a1
x1 +
(23)
(24)
An dieser Stelle ist eine erneute Fallunterscheidung nötig.
Fall 1: a1 b2 = a2 b1 .
Die Gleichung (24) ist dann äquivalent zu der Gleichung
a 1 c2 = a 2 c1 .
(25)
die gar nicht mehr von x1 , x2 abhängt.
Fall 1 (a): a1 b2 = a2 b1 und a1 c2 = a2 c1 .
In diesem Fall verschwindet die Gleichung (24) vollständig, und es bleibt nur
die erste Gleichung übrig. Geometrisch bedeutet das, dass die Schnittmenge
L1 ∩ L2 identisch mit der Geraden L1 ist, oder äquivalent: L2 ⊂ L1 .
Unsere Anschauung sagt uns, dass eine Gerade nur dann Teilmenge einer
anderen Geraden sein kann, wenn beide Geraden gleich sind. Also sollte sogar
L1 = L2 gelten. Da wir uns aber nicht auf unsere Anschauung verlassen wollen,
müssen wir diese Aussage beweisen. Das geht z.B. so. Wenn a2 = 0 wäre, so
würde aus a1 b2 = a2 b1 und a1 6= 0 folgen, dass auch b2 = 0. Das widerspricht
aber der Annahme, dass die zweite Gleichung in (22) die Gerade L2 beschreibt
(siehe Definition 1.4.2). Also gilt a2 6= 0, und die reelle Zahl λ := a−1
1 a2 ist
ebenfalls von Null verschieden. Aus den beiden Gleichungen a1 b2 = a2 b1 und
a1 c2 = a2 c1 folgt nun, dass die zweite Gleichung in (22) das λ-fache der ersten
Gleichung ist. Also sind beide Gleichungen äquivalent und es gilt L1 = L2 . Dies
ist Fall (i) in der Aussage von Proposition 1.4.4.
27
Fall 1 (b): a1 b2 = a2 b1 und a1 c2 6= a2 c1 .
In diesem Fall ist die Gleichung (24) unlösbar. Das bedeutet, dass die Schnittmenge
L1 ∩ L2 die leere Menge ist und entspricht dem Fall (iii) aus Proposition 1.4.4.
Fall 2: a1 b2 6= a2 b1 .
In diesem Fall kann man das Gauss-Verfahren weiterführen und erhält nach
einer kurzen Rechnung die eindeutige Lösung
x1 =
b2 c1 − b 1 c2
,
a 1 b2 − a 2 b1
x2 =
a 1 c2 − a 2 c1
.
a 1 b2 − a 2 b1
Insbesondere besteht die Schnittmenge L1 ∩ L2 aus genau einem Punkt, dessen
Koordinaten durch die obigen Gleichungen gegeben sind. Dies entspricht dem
Fall (ii) aus Proposition 1.4.4.
2
Definition 1.4.5 Zwei Geraden L1 , L2 in der Ebene heißen parallel, wenn entweder L1 = L2 gilt oder wenn sich L1 und L2 nicht schneiden (Fall (i) und (iii)
aus Proposition 1.4.4).
Der Beweis von Proposition 1.4.4 zeigt: die beiden Geraden
L 1 : a 1 x1 + b 1 x2 = c 1 ,
L 2 : a 2 x1 + b 2 x2 = c 2 ,
sind genau dann parallel, wenn die Gleichung
a 1 b2 = a 2 b1
erfüllt ist. Ist dies der Fall, so kann man die Gleichung für L2 durch Multiplikation mit einer von Null verschiedenen reellen Zahl in eine äquivalente Gleichung
der Form
L2 : a1 x1 + b1 x2 = c02
umwandeln. Dieses Argument zeigt:
Bemerkung 1.4.6 Zwei Geraden
L 1 : a 1 x1 + b 1 x2 = c 1 ,
L 2 : a 2 x1 + b 2 x2 = c 2 ,
sind genau dann parallel, wenn die beiden zugehörigen homogenen Gleichungssysteme äquivalent sind:
a1 x1 + b1 x2 = 0 ⇔ a2 x1 + b2 x2 = 0.
Geometrisch können wir diese Bemerkung folgendermassen interpretieren.
Ist die Gerade L ⊂ R2 durch die Gleichung ax1 + bx2 = c gegeben, so ist die
Lösungsmenge L0 der assoziierten homogenen Gleichung,
L0 = {(x1 , x2 ) ∈ R2 | ax1 + bx2 = 0 },
die eindeutige zu L parallele Gerade, die den Nullpunkt (0, 0) enthält.
Wenden wir uns nun dem dreidimensionalen Raum R3 zu.
28
Definition 1.4.7 Eine Ebene im R3 ist die Lösungsmenge einer linearen Gleichung,
E = { (x1 , x2 , x3 ) ∈ R3 | ax1 + bx2 + cx3 = d },
mit a, b, c, d ∈ R und (a, b, c) 6= (0, 0, 0).
Wie im Fall der Geraden sieht man leicht ein, dass jede Ebene E ⊂ R3 eine
Parametrisierung
∼
φ : R2 → E
mit zwei Parametern besitzt. Dies entspricht unserem Verständnis von einer
Ebene als einem zweidimensionalen Objekt.
Definition 1.4.8 (i) Zwei Ebenen E1 , E2 heißen parallel wenn entweder E1 =
E2 oder E1 ∩ E2 = ∅ gilt.
(ii) Eine Teilmenge L ⊂ R3 heißt Gerade, wenn sie Schnittmenge zweier nichtparalleler Ebenen ist.
Mit anderen Worten: eine Gerade L ⊂ R3 ist Lösungsmenge eines linearen Gleichungssystems mit drei Unbestimmten und zwei ’voneinander unabhängigen’ Gleichungen, d.h.
a 1 x1 + b 1 x2 + c 1 x3
= d1 ,
a 2 x1 + b 2 x2 + c 2 x3
= d2 ,
wobei ai , bi , ci , di ∈ R, (ai , bi , ci ) 6= (0, 0, 0) die Eigenschaft haben, dass es keine
λ ∈ R gibt mit
a2 = λa1 , b2 = λb1 , c2 = λc1 .
Wendet man auf so eine Gleichungssystem den Gauss-Algorithmus an, so erhält
man eine Parametrisierung der Geraden L mit genau einem freien Parameter,
∼
φ : R → L.
Dies entspricht wieder unserer Anschauung von einer Geraden als einem eindimensionalen Objekt.
Nach diesen Betrachtungen in Dimension zwei und drei können wir nun eine
allgemeine Definition wagen.
Definition 1.4.9 Sei n ∈ N. Eine nichtleere Teilmenge H ⊂ Rn des n-dimensionalen Standardraumes heißt linearer Unterraum, wenn sie Lösungsmenge
eines linearen Gleichungssystems ist, also
H = { x ∈ Rn | A · x = b },
mit A ∈ Mm,n (R) und b ∈ Rm .
Die Dimension eines linearen Unterraumes H ⊂ Rn ist die Anzahl s der
freien Parameter einer Parametrisierung,
∼
φ : Rs → H,
29
wie man sie durch Anwenden des Gauss-Algorithmus auf das Gleichungssystem
A · x = b erhält.
Ein linearer Unterraum der Dimension eins heißt Gerade, ein linearer Unterraum der Dimension zwei heißt Ebene.
Offenbar enthält diese Definition die Definitionen 1.4.2, 1.4.7 und 1.4.8 (ii)
als Spezialfall. Trotzdem gibt es eine Menge auszusetzen.
Ein erster Kritikpunkt ist, dass wir die Wohldefiniertheit der Dimension
eines linearen Unterraumes noch nicht überprüft haben. Schliesslich ist die
∼
Parametrisierung φ : Rs → H nicht eindeutig durch die Teilmenge H ⊂ Rn
bestimmt. Sie hängt unter anderem von der Wahl des Gleichungssystems A·x =
b und von den bei der Durchführung des Gauss-Algorithmus vorgenommenen
Zeilenumformungen ab. Es ist eine nichttriviale und sehr wichtige Tatsache, dass
die Zahl der freien Parameter aber nur von H ⊂ Rn abhängt (vgl. Bemerkung
1.3.6).
Eine weitere Unzulänglichkeit der Definition 1.4.9 besteht darin, dass sie
den Begriff des linearen Unterraumes nicht durch geometrische Eigenschaften
charakterisiert. Stattdessen wird die Existenz eines linearen Gleichungssystems
gefordert, für welches es aber keinerlei natürlichen Kandidaten gibt. Denkt man
z.B. an den oben besprochenen Fall einer Geraden im R3 , so ist anschaulich klar,
dass es unendlich viele Möglichkeiten gibt, eine Gerade als Schnittmenge zweier
Ebenen darzustellen. Eine bestimmte Auswahl solcher Ebenen zu treffen ist
aber eher unnatürlich.
Im Folgenden wollen wir eine geometrische Charakterisierung von linearen
Unterräumen durch Vektoren entwickeln und damit den allgemeinen Begriff des
Vektorraumes, den wir im nächsten Kapitel behandeln werden, vorbereiten und
motivieren.
Der Vektorbegriff
Um den geometrischen Begriff Vektor klar zu fassen, ist es zunächst hilfreich,
streng zwischen Punkten und Vektoren zu unterscheiden (diese Unterscheidung
werden wir aber sehr bald wieder aufgeben). Wir gehen also von einem gegebenen Raum aus, dessen Elemente Punkte sind, die wir mit P, Q usw. bezeichnen.
Wir gehen ebenfalls davon aus, dass in unserem Raum die Gesetze der euklidischen Geometrie gelten. Die Beziehung zwischen Punkten und Vektoren ist
dann folgende:
• Zwei Punkte P, Q legen einen Vektor fest. Schreibweise:
x := P~Q.
Man kann sich den Vektor x = P~Q als einen Pfeil mit Anfangspunkt P
und Endpunkt Q vorstellen.
• Ist ein Punkt P und eine Vektor x gegeben, so gibt es genau einen Punkt
Q mit der Eigenschaft x = P~Q.
30
Q
r
3
XXXX
XX
x
XXr
3
0
Q
P r
X
XX X
XXX
x
Xr
P0
Figure 3:
• Zwei Punktepaare (P, Q) und (P 0 , Q0 ) definieren denselben Vektor, also
P~Q = P ~0 Q0 ,
wenn der Pfeil von P nach Q mit dem Pfeil von P 0 nach Q0 durch eine
Parallelverschiebung in Deckung gebracht werden kann.
Sind z.B. drei paarweise verschiedene Punkte P, P 0 , Q gegeben, die nicht alle
auf einer Geraden liegen, und setzt man x := P~Q, so gibt es nach der zweiten
Regel einen vierten Punkt Q0 mit x = P ~0 Q0 . Die Strecken P Q und P 0 Q0 bilden
dann gegenüberliegende Kanten eines Parallelogramms, siehe Bild 1.4.
Aus den geometrischen Eigenschaften von Vektoren ergeben sich zwei Operationen, die Vektoraddition und die Multiplikation mit einem Skalar. Sind
zwei Vektoren x, y gegeben, so kann man einen dritten Vektor, z = x + y, folgendermassen definieren. Man wählt einen beliebigen Punkt P . Dann gibt es
einen eindeutigen Punkt Q so dass x = P~Q. Weiterhin gibt es einen eindeuti~ Wir definieren jetzt die Vektoraddition von x und y
gen Punkt R mit y = QR.
durch die Vorschrift
x + y := P~R.
Man kann mit rein geometrischen Argumenten zeigen, dass die so definierte
Vektoraddition eine assoziative und kommutative Verknüpfung auf der Menge
aller Vektoren definiert. Darauf wollen wir hier aber verzichten.
Wir definieren den Nullvektor durch die Vorschrift 0 := P~P (die Wahl des
Punktes P spielt hierbei keine Rolle). Es ist klar, dass 0 ein neutrales Element
bzgl. der Vektoraddition ist, und dass jeder Vektor ein inverses Element −x
~ .
besitzt: für x = P~Q gilt −x = QP
Eine formale Begründung der Multiplikation eines Vektors mit einem Skalar
(i.e. einer reellen Zahl) durch rein geometrische Argumente ist viel schwieriger.
Wir begnügen uns mit der folgenden Pseudodefinition. Ist x ein Vektor und
t > 0 eine positive relle Zahl, so definieren wir den Vektor t · x als den Vektor,
der dieselbe ‘Richtung’ wie x hat, dessen ‘Länge’ aber das t-fache der ‘Länge’
von x ist. Ist t < 0 so setzen wir t · x := −|t| · x, und für t = 0 setzen wir
0 · x := 0.
31
E
P r
3
x
HH
HH
O
H
r
H
H
H
HH
j
H
Hr H
yH
Q H
H
z
R = φ(t1 , t2 )
:r
Figure 4:
Jetzt haben wir genügend Hilfsmittel zur Hand, um den Begriff des linearen
Unterraumes neu zu begründen. Dazu betrachten wir das folgende Beispiel. Es
seien drei paarweise verschieden Punkte O, P, Q gegeben, die nicht alle auf einer
Geraden liegen. Unsere geometrische Anschauung sagt uns, dass O, P, Q eine
Ebene E aufspannen. Wie können wir die Menge aller Punkte von E aus den
drei gegebenen Punkten gewinnen?
~ und y := OQ
~ und betrachten die Menge aller Vektoren
Wir setzen x := OP
z der Form
z := t1 · x + t2 · y,
wobei t1 , t2 beliebige reelle Zahlen sind. Wir nennen z eine Linearkombination
der Vektoren x und y. Legt man als Anfangspunkt des Vektors z den Punkt O
~
fest und nennt den Endpunkt R (d.h. z = OR),
so ist anschaulich klar:
• der durch (t1 , t2 ) definierte Punkt R liegt auf der Ebene E, und
• jeder Punkt der Ebene E ist auf eindeutige Weise einem Paar (t1 , t2 )
zugeordnet.
Mit anderen Worten: wir haben eine Bijektion
∼
φ : R2 → E,
(t1 , t2 ) 7→ R,
~ = z = t1 · x + t2 · y. Die Bijektion φ nennen wir eine Parametrisierung
wobei OR
der Ebene E. Anschaulich gesprochen haben wir die Ebene E mit einem Koordinatensystem versehen, das uns erlaubt, Punkte mit Zahlenpaaren zu identifizieren. Vergleiche mit dem Bild der Euklidischen Standardebene auf Seite 24.
Aber im Unterschied zu dort stehen die Koordinatenachsen hier im allgemeinen
nicht senkrecht aufeinander.
Der Standardvektorraum
Der nächste Schritt ist nun, den soeben entwickelten, auf geometrischer Anschauung basierenden Vektorbegriff durch eine algebraisches Modell zu realisieren, das mit der vorhergehenden Definition des Euklidischen Standardraumes
kompatibel ist.
32
Definition 1.4.10 Der reelle Standardvektorraum der Dimension n ist die Menge
Rn , zusammen mit den folgenden Verknüpfungen:
• die Vektoraddition
Rn × R n → R n ,
definiert durch
(x, y) 7→ x + y,

  


x1
y1
x1 + y 1
 ..   .. 


..
 .  +  .  := 
.
.
xn
yn
xn + y n
• die Multiplikation mit einem Skalar
R × R n → Rn ,
definiert durch
(t, x) 7→ t · x,
 

tx1
x1
 .. 
 .. 
t ·  .  :=  .  .

xn
txn
Der Vektor 0 := (0, . . . , 0) ∈ Rn heißt der Nullvektor.
Der Bezug zur Definition des Euklidischen Standardraumes (Definition 1.4.2)
ist folgender. Zu zwei Punkt P = (p1 , . . . , pn ), Q = (q1 , . . . , qn ) ∈ Rn ist der
zugehörige Vektor definiert durch
P~Q := (q1 − p1 , . . . , qn − pn ).
Wenn wir den Punkt O = (0, . . . , 0) ∈ Rn als Ursprungspunkt wählen, so können
~ = (p1 , . . . , pn ) identiwir einen Punkt P = (p1 , . . . , pn ) mit dem Vektor OP
fizieren. Das werden wir im Folgenden auch immer tun. Man sollte aber nicht
vergessen, dass dieser Identifizierung die willkürliche Auswahl eines Ursprungs
zugrundeliegt.
Bemerkung 1.4.11 (i) Die Vektoraddition + auf Rn ist eine assoziative und
kommutative Verknüpfung.
(ii) Der Nullvektor 0 ∈ Rn ist das neutrale Element bzgl. der Vektoraddition.
(iii) Jeder Vektor x ∈ Rn besitzt ein inverses Element bzgl. der Addition, und
zwar
−x := (−1) · x.
(iv) Es gilt das folgende Distributivgesetz6 :
t · (x + y) = t · x + t · y
für alle x, y ∈ R, t ∈ R.
6 Die
Regel Punktrechnung vor Strichrechnung benutzen wir stillschweigend
33
(v) Ist A ∈ Mm,n (R), x, y ∈ Rn und t ∈ R, so gilt:
A · (x + y) = A · x + A · y,
A · (t · x) = t · (A · x).
Diese Regeln ergeben sich unmittelbar aus den entsprechenden Regeln für
das Rechnen mit reellen Zahlen. Nur die Regel (v) verdient eine ausführlichere
Begründung. Schreibe A = (ai,j ), x = (xj ), y = (yj ) (der Index i läuft über die
Menge {1, . . . , m}, und j läuft über {1, . . . , n}. Nach Definition der Multiplikation einer Matrix mit einem Vektor haben wir
A · (x + y) =
=
n
X
j=1
n
X
ai,j (xj + yj )
ai,j xj +
j=1
n
X
i=1,...,m
ai,j yj
j=1
= A · x + a · y.
i=1,...,m
Man beachte, dass wir bei Übergang von der ersten zur zweiten Zeile das
Assoziativ-, das Kommutativ- und das Distributivgesetz der reellen Zahlen jeweils mehrfach benutzt haben. Genauso zeigt man
A · (t · x) =
=
n
X
ai,j txj
j=1
n
X
t·
ai,j xj
j=1
i=1,...,m
i=1,...,m
= t · (A · x).
Damit ist die Regel (v) bewiesen.
Definition 1.4.12 Eine Teilmenge V ⊂ Rn heißt Untervektorraum, wenn folgendes gilt:
(i) V ist nichtleer,
(ii) mit x, y ∈ V liegt auch der Vektor x + y in V , und
(iii) mit x ∈ V liegt auch t · x in V , für alle t ∈ R.
Aus dieser Definition folgt sofort, dass ein Untervektorraum immer den Nullvektor enthält.
Satz 1.4.13 Für V ⊂ Rn sind die folgenden Bedingungen äquivalent.
(a) V ist ein Untervektorraum.
(b) V ist ein linearer Unterraum (Definition 1.4.9) und enthält den Nullvektor.
34
(c) V ist Lösungsmenge eines homogenen linearen Gleichungssystems, d.h.
V = { x ∈ Rn | A · x = 0 }
für eine Matrix A ∈ Mm,n (R).
Beweis: Ist V die Lösungsmenge des Gleichungssystems A · x = 0, so ist V
insbesondere ein linearer Unterraum, nach Definition 1.4.9. Zusätzlich gilt aber
auch 0 ∈ V , wegen A · 0 = 07 . Also impliziert Aussage (c) die Aussage (b).
Sei umgekehrt V ein linearer Unterraum, der den Nullvektor enthält. Dann
ist V die Lösungsmenge eines linearen Gleichungssystems A · x = b. Wegen
0 ∈ V gilt dann aber b = A · 0 = 0. Die Aussage (b) impliziert deshalb auch die
Aussage (c). Insgesamt sind (b) und (c) äquivalent.
Wir zeigen nun noch die Implikation (c) ⇒ (a). Angenommen, V ist Lösungsmenge des Gleichungssystems A · x = 0. Wegen A · 0 = 0 gilt dann 0 ∈ V .
Insbesondere ist die Bedingung (i) der Definition 1.4.12 erfüllt. Sind x, y ∈ V
zwei Elemente von V so gilt nach Annahme A · x = A · y = 0. Unter Ausnutzung
der Regel (v) der Bemerkung 1.4.11 erhalten wir demnach
A · (x + y) = A · x + A · y = 0 + 0 = 0,
d.h. x + y ∈ V , und die Bedingung (ii) der Definition 1.4.12 ist auch gezeigt.
Die Bedingung (iii) zeigt man mit der gleichen Methode: ist x ∈ V und t ∈ R,
so gilt
A · (t · x) = t · (A · x) = t · 0 = 0,
d.h. t · x ∈ V . Damit ist die Implikation (c) ⇒ (a) bewiesen.
Den Beweis der Implikation (a) ⇒ (c) werden wir später nachholen.
2
Korollar 1.4.14 Für eine Teilmenge H ⊂ Rn sind die folgenden Bedingungen
äquivalent:
(a) H ist ein linearer Unterraum.
(b) Es gibt einen Untervektorraum V ⊂ Rn und einen Vektor x ∈ H so, dass
H = x + V := { x + y | y ∈ V }.
Zusatz: wenn H ein linearer Unterraum ist, so ist der Untervektorraum V in
(b) eindeutig bestimmt durch
V = { x − y | x, y ∈ H },
und die Gleichheit H = x + V gilt für alle x ∈ H.
7 Man beachte, dass hier das Symbol 0 zwei verschiedene Bedeutungen hat: den Nullvektor
in Rn und den Nullvektor in Rm
35
Der dem linearen Unterraum eindeutig zugeordnete Untervektorraum V
heißt der Raum der Richtungsvektoren von H.
Beweis: Angenommen, H ist ein linearer Unterraum, also Lösungsmenge
eines linearen Gleichungssystems,
H = { x | A · x = b },
mit A ∈ Mm,n (R) und b ∈ Rm . Wir definieren die Teilmenge V ⊂ Rn als die
Lösungsmenge des zugehörigen homogenen Gleichungssystems:
V := { x | A · x = 0 }.
Nach Satz 1.4.13 ist V ein Untervektorraum. Außerdem ist H nichtleer. Wir
können also ein Element x ∈ H wählen. Wir wollen nun zeigen, dass dann
H = x + V gilt. Oder anders gesagt: ein Vektor z ∈ Rn liegt genau dann in H,
wenn es ein y ∈ V gibt mit z = x + y.
Der gesuchte Vektor y ist notwendigerweise gegeben durch die Vorschrift
y := z − x. Aus x ∈ H folgt nun:
A · z = A · (x + y) = A · x + A · y = b + A · y.
(26)
Aus dieser Gleichung folgt sofort die Äquivalenz
A·z =b
⇔
A · y = 0.
(27)
Mit anderen Worten: z = x+y liegt genau dann in H, wenn y in V liegt. Damit
haben wir die Implikation (a) ⇒ (b) bewiesen.
Sei umgekehrt H ⊂ Rn eine Teilmenge der Form H = x + V , wobei x ∈ Rn
und V ⊂ Rn ein Untervektorraum ist. Nach Satz 1.4.13 ist dann V Lösungsmenge
eines homogenen linearen Gleichungssystems, d.h.
V = { y | A · y = 0 },
mit A ∈ Mm,n (R). Setze b := A · x ∈ Rm . Wir müssen nun zeigen, dass
H = {z | A · z = b }
gilt. Dazu sei z ∈ Rn ein beliebiger Vektor. Nach Annahme liegt z in H genau
dann, wenn y := z − x in V liegt. Aus der Rechnung (26) folgt aber genau wie
oben die Äquivalenz (27). Wir schließen, dass z ∈ H äquivalent ist zu A · z = b.
Damit ist auch die Implikation (b) ⇒ (a) bewiesen.
Eine nachträgliche Analyse des obigen Beweises zeigt, dass wir nicht nur
die Äquivalenz (a) ⇔ (b), sondern auch die Zusatzbehauptung des Korollars
bewiesen haben. Die Details möge sich der Leser selber überlegen.
2
Beispiel 1.4.15 Es sei E ⊂ R3 die durch die folgende lineare Gleichung definierte
Ebene im dreidimensionalen Standardraum:
E:
x1 + 2x2 − x3 = 5.
36
Der Raum der Richtungsvektoren von E ist dann die Lösungsmenge V ⊂ R3
der homogenen Gleichung
V :
x1 + 2x2 − x3 = 0.
Der Gauss-Algorithmus liefert in einem Rechenschritt die Parametrisierung
∼
φ : R2 → E,
φ(t1 , t2 ) := (5 − 2t1 + t2 , t1 , t2 ).
In Vektorschreibweise sieht diese Parametrisierung so aus:
 
 
 
5
−2
1
φ(t1 , t2 ) = 0 + t1 ·  1  + t2 · 0 .
0
0
1
Setzt man
 
5
x := 0 ,
0

−2
y1 :=  1  ,
0

 
1
y2 := 0 ,
1
so ist offenbar x ∈ E und y1 , y2 ∈ V . Da V ein Untervektorraum ist, liegt aber
auch jede Linearkombination


−2t1 + t2

t1
y := t1 · y1 + t2 · y2 = 
t2
in V . Mit y ∈ V liegt dann der Vektor z := x + y in der Ebene E.
Die Grundstruktur der Parametrisierung eines linearen Unterraumes sieht
also so aus:
allgemeine Lösung des LGS = spezielle Lösung x
+ allgemeine Lösung y des homogenen LGS.
Die Anzahl der Parameter s entspricht dabei der Anzahl der Vektoren aus
V , die mindestens nötig sind, um jeden Vektor aus V als Linearkombination
darzustellen:
y = t 1 y1 + . . . + t s ys .
Sie entspricht der Dimension des Vektorraumes V .
37
Herunterladen