1 Lineare Gleichungssysteme 1.1 Ein Beispiel: Netzwerkanalyse Wir betrachten das folgende Modell eines elektrischen Schaltkreises.1 Die durchgezogenen Linien sind Leitungen. Die Kreise stehen für Spannungsquellen, die Kästchen für Widerstände. I1 R1 U q1 ? I3 R3 I2 R 2 ? U ? q2 Figure 1: Die Buchstaben auf den Widerständen (R1 , R2 , R3 ) stehen für den Wert des entsprechenden Widerstandes, gemessen in Ohm. Für uns (d.h. vom mathematischen Standpunkt aus) sind R1 , R2 , R3 einfach fest vorgegebene positive reelle Zahlen. Die Buchstaben neben den Spannungsquellen (Uq1 , Uq2 ) stehen für den Wert der angelegten Spannung, gemessen in Volt. Allerdings sind Uq1 und Uq2 nicht notwendigerweise positiv, oder – anders ausgedrückt – diese Werte haben ein Vorzeichen. Damit wir das Vorzeichen richtig deuten können, ist neben der Spannungsquelle zusätzlich ein Pfeil eingezeichnet, der die Ausrichtung der anliegenden Spannung anzeigt. Handelt es sich bei der Spannungsquelle z.B. um eine Batterie, so würde man den Wert Uqi als positiv annehmen und den Pfeil vom Plus- zum Minuspol ausrichten. Rein mathematisch betrachtet sind Uq1 und Uq2 einfach beliebige (aber fest vorgegebene) reelle Zahlen. Schliesslich bezeichnen die Buchstaben I1 , I2 , I3 die Stärke des durch den entsprechend nummerierten Widerstand fliessenden Stroms, gemessen in Ampere. Hierbei ist zu beachten, dass Stromstärke, genau wie Spannung, eine vorzeichenbehaftete Grösse ist. Das Vorzeichen bestimmt die Richtung des Stromflusses, und zwar folgendermassen. Ist Ii positiv, so fliesst der Strom in die Richtung des im Bild 1.1 neben dem Widerstand Ri eingezeichneten Pfeiles. Ist Ii dagegen negativ, so fliesst der Strom in die entgegengesetzte Richtung. Problem 1.1.1 Man bestimme die Stromstärken I1 , I2 , I3 (in Abhängigkeit von Ri und Uqj ). 1 Quelle: Wikipedia, Stichwort Netzwerkanalyse (Elektrotechnik) 1 Wir werden sehen, dass dieses Problem auf ein lineares Gleichungssystem hinausläuft. Um dieses Gleichungssystem aufstellen zu können, benötigt man drei fundamentale Gesetze der Elektrotechnik. Das erste Gesetz lautet: Das Ohmsche Gesetz: Fliesst durch einen Widerstand R der Strom I, und bezeichnet U den Spannungsabfall zwischen den beiden Enden des Widerstandes, so gilt U = R · I. Man beachte wieder, dass Stromstärke genauso wie Spannungsabfall vorzeichenbehaftete Grössen sind, oder physikalisch gesprochen eine Richtung haben. Da wir den Widerstand R als positiv annehmen, sind die Vorzeichen von U und I gleich, d.h. der Spannungsabfall erfolgt in der Richtung des Stromflusses. Das Ohmsche Gesetz ist ein typisches Beispiel für eine lineare Abhängigkeit zwischen zwei physikalischen Grössen. Legt man an ein ektronisches Schaltelement eine (variable) Spannung U an und misst den resultierenden Strom I, so ist der Quotient U/I unabhängig von U . Somit ist die Grösse R := U/I eine Konstante des Schaltelementes, die man suggestiv Widerstand nennt. Zurück zu unserem Schaltkreis in Bild 1.1. Es sei Ui der am Widerstand Ri auftretende Spannungsabfall. Nach dem Ohmschen Gesetz gilt dann U1 = R 1 · I1 , U2 = R 2 · I2 , U3 = R 3 · I3 . (1) Die nächste Grundregel bezeichnet man auch als das 1. Kirchhoffsche Gesetz. Die Maschenregel: Die Summe der Spannungsgewinne entlang eines geschlossenen Weges ist gleich Null. Dabei heben sich Spannungsgewinne und -verluste gegenseitig auf. Unser Schaltkreis hat offenbar zwei Maschen, d.h. nichttriviale geschlossene Wege, die in Bild 1.1 durch das Symbol gekennzeichnet sind. Durchläuft man diese Wege im Uhrzeigersinn und rechnet die erfahrenen Spannungsgewinne bzw. -verluste auf, so führt uns die Maschenregel auf die beiden Gleichungen U1 + U2 − Uq1 = 0, −U2 − U3 + Uq2 = 0. (2) Die dritte Grundregel ist das 2. Kirchhoffsche Gesetz, auch genannt Die Knotenregel: Die Summe der in einem Teilbereich des Netzwerkes zufliessenden Ströme ist gleich Null. Dabei heben sich zu- und abfliessende Ströme gegenseitig auf. Unser Schaltkreis hat zwei Knoten, d.h. Kreuzungspunkte von Leitungen. Wir betrachten zunächst den oberen Knoten und wenden auf ihn die Knotenregel an. Gemäß dem folgenden Schema 2 I1 - I3 I2 ? erhalten wir die Gleichung I1 − I2 + I3 = 0. (3) Offenbar liefert der zweite Knoten die äquivalente Gleichung−I1 + I2 − I3 = 0, die wir nicht extra aufführen brauchen.2 Wir können jetzt die Gleichungen (1), (2) und (3) zu folgendem Gleichungssystem zusammenfassen. R 1 I1 I1 + R 2 I2 R 2 I2 − I2 + R 3 I3 + I3 = U q1 = U q2 = 0. (4) Wir haben das Problem 1.1.1 auf das Lösen des Gleichungssystems (4) zurückgeführt. Dies ist nun ein rein mathematisches Problem. Die Erfahrung mit der physikalischen Wirklichkeit sagt uns, dass (4) eine eindeutige Lösung haben sollte. Und tatsächlich kann man sich durch eine etwas längliche Rechnung oder durch Benutzen eines Computeralgebrasystems (wie z.B. Maple) davon überzeugen, dass das Gleichungssystem (4) die eindeutige Lösung (R2 + R3 )Uq1 − R2 Uq2 , R1 R2 + R 1 R3 + R 2 R3 R 3 U q1 + R 1 U q2 I2 = , R1 R2 + R 1 R3 + R 2 R3 −R2 Uq1 + (R1 + R2 )Uq2 . I3 = R1 R2 + R 1 R3 + R 2 R3 I1 = (5) besitzt. Das Gleichungssystem (4) ist ein Beispiel für ein lineares Gleichungssystem mit drei Gleichungen und drei Unbestimmten I1 , I2 , I3 . Wir werden sehr bald lernen, wie man entscheiden kann, ob ein lineares Gleichungssystem eine Lösung besitzt, ob diese Lösung eindeutig ist, und wie man sämtliche Lösungen berechnen kann. Insbesondere kann man im vorliegenden Fall mit rein mathematischen Methoden zeigen, dass (4) eine eindeutige Lösung besitzt, die durch (5) beschrieben wird. 1. Beobachtung: Das Rechnen von Hand ist meistens unpraktikabel. Selbst bei einem so simplen Schaltkreis wie im Bild 1.1 ist die Lösung des auftretenden Gleichungssystems schon so kompliziert, dass die Berechnung derselben von Hand sehr mühsam ist (probieren Sie es aus!). Schon in diesem einfachen Fall ist uns ein Computeralgebrasystem wie Maple haushoch überlegen. 2 Allgemein gilt, dass in einem Netzwerk mit k Knoten von den k resultierenden Gleichungen immer eine überflüssig ist, aber die restlichen k − 1 Gleichungen voneinander unabhängig sind. 3 In der Praxis treten leicht Schaltkreise mit tausenden Schaltelementen auf. Es versteht sich von selbst, dass hier ohne Einsatz eines Rechners gar nichts läuft. Was können wir daraus lernen? Für das Lösen von Übungsaufgaben und das erfolgreiche Bestehen der Klausuren ist ein gewisses Maß an Rechenfertigkeit unerlässlich, und sie werden ausreichend Gelegenheit haben, dies zu trainieren. Diese Rechentechnik ist aber allenfalls ein Nebenprodukt; das eigentliche Lernziel der Vorlesung ist etwas ganz anderes. 2. Beobachtung: Die Lösung des linearen Gleichungssystems (4) ist selbst eines. Wie ist das gemeint? Nun, wir können die Gleichungen (5) auch so schreiben: R2 R2 + R 3 · U q1 + · U q2 R1 R2 + R 1 R3 + R 2 R3 R1 R2 + R 1 R3 + R 2 R3 R3 R1 · U q1 + · U q2 R1 R2 + R 1 R3 + R 2 R3 R1 R2 + R 1 R3 + R 2 R3 R1 + R 2 −R2 · U q1 + · U q2 R1 R2 + R 1 R3 + R 2 R3 R1 R2 + R 1 R3 + R 2 R3 = I1 = I2 = I3 . In dieser Form können wir (5) als lineares Gleichungssystem in den Unbekannten Uq1 , Uq2 auffassen, wenn wir Werte für I1 , I2 , I3 vorgeben. Das macht auch physikalisch Sinn: wenn man z.B. die durch die Widerstände Ri fliessenden Ströme Ii gemessen hat, kann man anhand von (5) die an den beiden Spannungsquellen anliegenden Spannungen Uqj bestimmen. Dies ist tatsächlich eine Verallgemeinerung von etwas, das wir schon anhand des Ohmschen Gesetzes beobachtet haben, nämlich die lineare Abhängigkeit zwischen zwei Grössen. Dazu ist es zweckmässig, die drei Grössen I1 , I2 , I3 zu einer zusammenzufassen, und zwar als Spaltenvektor: I1 I := I2 . I3 Mit den Spannungsquellen Uq1 und Uq2 wollen wir es ähnlich machen. Ein Blick auf das Gleichungssystem (4) sagt uns, dass wir drei Einträge brauchen, wobei der letzte Null sein muss: U q1 U := Uq2 . 0 Ausserdem schreiben wir die Koeffizienten auf der linken Seite von (4) in ein rechteckiges Zahlenschema, Matrix genannt: R1 R2 0 A := 0 R2 R3 1 −1 1 Mit diesen Bezeichnungen können wir nun das Gleichungssystem (4) in der Form A·I =U 4 (6) schreiben. Das Produkt A · I ist per definitionem der Spaltenvektor, dessen Einträge die Ausdrücke auf der linken Seite von (4) bilden. Die Vorteile dieser neuen Schreibweise sind offensichtlich: sie ist kürzer und sie sieht formal genauso aus wie das Ohmsche Gesetz, U = R · I. Wie wir später sehen werden lässt sich jede lineare Abhängigkeit zwischen zwei (vektorwertigen) Grössen als eine Gleichung der Form (6) schreiben. Wenn wir umgekehrt den Vektor I in Abhängigkeit des Vektors U betrachten wollen, so ist es naheliegend, die Matrix A ‘auf die andere Seite zu bringen’, d.h. wir möchten die Umformung A·I =U ? ⇒ I = A−1 · U durchführen. Ist das erlaubt bzw. führt so eine Umformung zu einem korrekten Ergebnis? Was bedeutet überhaupt A−1 ? Die Antwort werden wir bald kennenlernen. 3. Beobachtung: Überlagerungen von Lösungen 1.2 Ringe und Körper Wir setzen die folgenden Zahlbereiche als bekannt voraus. • Die natürlichen Zahlen N = {1, 2, 3, . . .} (bzw. N0 = {0, 1, 2, 3, . . .}). • Die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .}. • Die rationalen Zahlen Q = { ab | a, b ∈ Z, b 6= 0}. • Die reellen Zahlen R (siehe Vorlesung Analysis I). Es handelt sich jeweils um eine Menge mit zwei Verknüpfungen, die Addition und die Multiplikation. Wir wollen nun den Begriff eines Zahlbereiches formalisieren. Definition 1.2.1 Sei G eine (nichtleere) Menge. (i) Eine Verknüpfung auf G ist eine Abbildung ∗ : G×G → G.3 Schreibweise: a ∗ b := ∗(a, b), für a, b ∈ G. (ii) Eine Verknüpfung ∗ : G × G → G heißt assoziativ, wenn für alle a, b, c ∈ G gilt: (a ∗ b) ∗ c = a ∗ (b ∗ c). (iii) Eine Verknüpfung ∗ : G×G → G heißt kommutativ, wenn für alle a, b ∈ G gilt: a ∗ b = b ∗ a. 3 G × G bezeichnet das kartesische Produkt von G mit sich selbst, also die Menge aller (geordneten) Paare (a, b) mit a, b ∈ G. 5 Beispiel 1.2.2 Die Addition + und die Multiplikation · auf der Menge der natürlichen Zahlen sind beide sowohl assoziativ als auch kommutativ. Dasselbe gilt für G = Z, Q oder R. Beispiel 1.2.3 Sei G = R die Menge der reellen Zahlen. Wir definieren eine Verknüpfung ∗ auf R durch die Vorschrift a ∗ b := a+b , 2 a, b ∈ R. Offensichtlich ist ∗ kommutativ (weil + kommutativ ist). Aber ∗ ist nicht assoziativ: es gilt (a ∗ b) ∗ c = a/4 + b/4 + c/2, a ∗ (b ∗ c) = a/2 + b/4 + c/4. Z.B. erhalten wir für a := 1, b := 0, c := 0 die Ungleichheit (1 ∗ 0) ∗ 0 = 1/4 6= 1/2 = 1 ∗ (0 ∗ 0). Beispiel 1.2.4 Sei X eine nichtleere Menge. Wir definieren G := Abb(X, X) als die Menge aller Abbildungen f : X → X. Auf G definieren wir die Verknüpfung ◦ : G × G → G durch die Vorschrift (f ◦ g)(a) := f (g(a)), a ∈ X. Dann ist ◦ nicht kommutativ, wenn X mindestens drei verschiedene Elemente enthält. Ist z.B. X = {1, 2, 3} und setzen wir 1 7→ 3 1 7→ 1 2 7→ 1 , 2 7→ 1 , g := f := 3 7→ 1 3 7→ 2 so erhält man 1 7→ 2 2 7→ 1 , f ◦g = 3 7→ 1 1 7→ 3 2 7→ 3 . g◦f = 3 7→ 1 Man sieht dass f ◦ g 6= g ◦ f (weil z.B. f ◦ g(1) 6= g ◦ f (1)). Andererseit ist ◦ assoziativ. Um das zu zeigen, wählen wir beliebige Elemente f, g, h ∈ G and a ∈ X und formen ein bischen um: ((f ◦ g) ◦ h)(a) = (f ◦ g)(h(a)) = f (g(h(a))) = f ((g ◦ h)(a)) = (f ◦ (g ◦ h))(a). Kurz gesagt: für alle a ∈ G gilt ((f ◦ g) ◦ h)(a) = (f ◦ (g ◦ h))(a). Das bedeutet aber, dass die beiden Abbildungen (f ◦ g) ◦ h und f ◦ (g ◦ h) identisch sind4 . Da f, g, h beliebige Elemente von G waren, haben wir gezeigt, dass ◦ assoziativ ist. 4 Sind X, Y Mengen und f, g : X → Y Abbildungen, so gilt f = g genau dann, wenn f (a) = g(a) für alle a ∈ X gilt. 6 Definition 1.2.5 Sei G eine Menge und ∗ : G × G → G eine Verknüpfung. (i) Ein neutrales Element (bzgl. ∗) ist ein Element e ∈ G mit der Eigenschaft, dass für alle a ∈ G gilt: a ∗ e = e ∗ a = a. (ii) Sei e ein neutrales Element zu ∗ und sei a ∈ G. Ein inverses Element zu a (bezüglich e) ist ein Element b ∈ G mit der Eigenschaft a ∗ b = b ∗ a = e. Proposition 1.2.6 Sei ∗ : G × G → G eine Verknüpfung. (i) Es existiert höchstens ein neutrales Element bzgl. ∗. Insbesondere dürfen wir (im Fall der Existenz) von dem neutralen Element reden und können wir uns den Hinweis ‘bzgl. e’ beim Benennen eines inversen Elementes sparen. (ii) Angenommen, die Verknüpfung ∗ ist assoziativ und besitzt ein neutrales Element e. Dann besitzt jedes Element a ∈ G genau ein inverses Element. Beweis: Sind e, e0 zwei neutrale Elemente, so gilt zum einen e · e0 = e (weil e0 neutrales Element ist) e · e0 = e0 (weil e neutrales Element ist). zum anderen 0 Es folgt e = e . Damit ist (i) bewiesen. Nun zum Beweis von (ii). Sei a ∈ G beliebig, und seien b, c ∈ G zwei inverse Elemente zu a. Dann folgern wir: b=b∗e = b ∗ (a ∗ c) (e ist neutrales Element) (c ist Inverses von a) = (b ∗ a) ∗ c =e∗c (∗ ist assoziativ) (b ist Inverses von a) =c (e ist neutrales Element). Insbesondere gilt b = c, und (ii) ist ebenfalls bewiesen. 2 Beispiel 1.2.7 Sei G := Z und ∗ = +. Die Null ist offensichtlich ein neutrales Element zu +. Für a ∈ Z ist das Negative −a ∈ Z ein inverses Element zu a. Beispiel 1.2.8 Sei G := Q und ∗ = · . Die Eins ist offensichtlich ein neutrales Element zu · . Für eine rationale Zahl ab ∈ Q ungleich 0 ist ab ∈ Q ein inverses Element. Die Null besitzt kein inverses Element bzgl. der Multiplikation, da a 0 · = 0 6= 1 b gilt, für alle a b ∈ Q. 7 Definition 1.2.9 Ein Ring ist eine Menge, zusammen mit zwei Verknüpfungen + : R × R → R, (die Addition) und · : R × R → R, (die Multiplikation), die folgende Axiome erfüllen. (i) Die Addition ist assoziativ und kommutativ. (ii) Die Addition besitzt ein neutrales Element 0R , genannt das Nullelement. (iii) Jedes Element a ∈ R besitzt ein (eindeutiges) inverses Element −a bzgl. der Addition, genannt das Negative von a. (iv) Die Multiplikation ist assoziativ. (v) Es gelten die Distributivgesetze: a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c, für alle a, b, c ∈ R. Ein Ring (R, +, · ) heißt kommutativ, wenn auch die Multiplikation kommutativ ist. Ein neutrales Element der Multiplikation (wenn es existiert) heißt das Einselement, und wird 1R geschrieben. Beispiel 1.2.10 (i) Die Mengen Z, Q und R, versehen mit der üblichen Addition und Multiplikation, sind kommutative Ringe mit einem Einselement. (ii) Die Menge der natürlichen Zahlen N, versehen mit der üblichen Addition und Multiplikation, erfüllt die Bedingungen (i), (iv) und (v). Die Bedingungen (ii) und (iii) sind beide nicht erfüllt, also ist (N, +, · ) kein Ring. Bemerkung 1.2.11 Sei (R, +, · ) ein Ring. Um uns Schreibarbeit zu sparen, werden wir stillschweigend folgende Annahmen treffen bzw. folgende Schreibweisen benutzen. (i) Wir nehmen grundsätzlich an, dass R ein Einselement 1R besitzt. Zwar kommen in der Mathematik auch Ringe vor ohne Einselement, aber nicht in dieser Vorlesung. (ii) Wir schreiben meistens einfach 0 und 1 anstelle von 0R und 1R . Aber natürlich nur, wenn aus dem Kontext klar hervorgeht, in welchem Ring die Elemente 0 und 1 leben. 8 (iii) Wir nehmen immer an, dass 0 6= 1 gilt. Denn aus der Gleichheit 0 = 1 würde sofort folgen, dass der Ring nur aus dem Nullelement besteht (also R = {0}), und das ist eher langweilig. (iv) Wir benutzen u.a. die folgenden abkürzenden Schreibweisen (die man vom Rechnen mit ‘normalen Zahlen’ gewohnt ist): a+b+c abc statt statt (a + b) + c, (a · b) · c, ab + c a−b statt statt (a · b) + c, a + (−b), an statt a . . · a}, für n ∈ N | · .{z n mal usw. Die letzte Zeile legt uns auch die Schreibweise n · a := a + . . . + a | {z } n mal für a ∈ R und n ∈ N nahe. Hierbei muss man aber darauf achten, dass n kein Element von R ist und es sich bei dem Ausdruck n · a nicht um die Multiplikation von zwei Elementen aus R handelt. Proposition 1.2.12 Sei (R, +, · ) ein Ring und a, b, c ∈ R drei beliebige Elemente. (i) Aus der Gleichung a+b=a+c (7) folgt die Gleichung b = c. (ii) Es gelten folgende Regeln: 0 · a = a · 0 = 0, −(−a) = a, (−1) · a = a · (−1) = −a, (−a) · (−b) = a · b. (8) (9) (10) (11) Beweis: Teil (i) der Proposition folgt aus der folgenden Kette von Umformungen: b = (−a + a) + b = −a + (a + b) = −a + (a + c) = (−a + a) + c = 0 + c = c. Alternativ kann man das Argument auch so formulieren: man addiert zu beiden Seiten der Gleichung (7) das Negative von a. Nach Kürzen ergibt sich die Gleichung b = c. 9 Zum Beweis von (8) überlegt man sich zuerst, dass 0 · a = (0 + 0) · a = 0 · a + 0 · a, für ein beliebiges Element a ∈ R. Wendet man auf diese Gleichheit die unter (i) bewiesene Aussage an, so erhält man 0 · a = 0. Die Gleichung a · 0 = 0 zeigt man auf analoge Weise, womit (8) bewiesen wäre. Nach Definition ist −a das inverse Element zu a (bzgl. der Addition), d.h. es gilt a + (−a) = 0. Man kann diese Gleichung aber auch lesen als: a ist das inverse Element zu −a, d.h. a = −(−a), womit (9) bewiesen wäre. Man beachte, dass wir in diesem Argument die Eindeutigkeit des inversen Elementes benutzt haben, vergl. Proposition 1.2.6. Zum Beweis von (10) führt man zuerst die folgenden Umformungen durch: a + (−1) · a = 1 · a + (−1) · a = (1 + (−1)) · a = 0 · a = 0. (Im letzten Schritt haben wir (8) benutzt!) Die obige Gleichheit zeigt, dass (−1) · a das inverse Element von a bzgl. der Addition ist, also (−1) · a = −a gilt. Die Gleichung a · (−1) = −a zeigt man wieder auf analoge Weise. Der Beweis von (11) sei dem Leser als Übungsaufgabe überlassen. 2 Die Proposition 1.2.12 zeigt, dass in einem allgemeinen Ring viele uns von den ganzen Zahlen vertraute Rechenregeln ebenfalls gelten, aber einer ausführlichen Begründung bedürfen. Es gibt aber auch ein paar Überraschungen. Z.B. ist die im Ring der ganzen Zahlen geltende Ungleichung −1 6= 1 in vielen Ringen falsch! Unser eigentliches Ziel ist ja das Studium von linearen Gleichungssytemen. Es ist möglich und durchaus sinnvoll, lineare Gleichungssysteme über sehr allgemeinen Ringen zu betrachten. Zu grosse Allgemeinheit führt hier aber schnell zu Komplikationen. Deshalb werden wir uns in dieser Vorlesung meistens auf einen bestimmten Typ von Ringen beschränken, die Körper. Zur Illustration der Probleme betrachten wir den einfachsten Typ von linearen Gleichungssystemen: eine Gleichung in einer Unbekannten x: a · x = b. Hierbei sind a, b beliebige Elemente eines kommutativen Rings R. Falls a = 0 ist, so hat diese Gleichung entweder keine Lösung (im Fall b 6= 0) oder jedes Element x ∈ R ist eine Lösung (im Fall b = 0). Man darf also getrost a 6= 0 annehmen. Definition 1.2.13 Sei (R, +, · ) ein kommutativer Ring. (i) Ein Element a ∈ R heißt Einheit, wenn a ein multiplikatives Inverses besitzt (welches wir dann mit a−1 bezeichnen). 10 (ii) Ein Element a ∈ R heißt Nullteiler, wenn es ein Element b ∈ R, b 6= 0, gibt mit ab = 0. Der Ring R heißt nullteilerfrei wenn 0 der einzige Nullteiler ist. Bemerkung 1.2.14 Der Begriff Nullteiler ist etwas irreführend. Haben wir allgemeiner zwei Elemente a, b ∈ R, so sagen wir dass a ein Teiler von b ist, wenn die Gleichung a·x=b eine Lösung x ∈ R besitzt. Setzt man in diese Definition b = 0 ein, so folgt sofort, dass jedes Element a ∈ R ein Teiler von 0 ist (denn obige Gleichung hat ja die Lösung x = 0). Man nennt ein Element a aber nur dann einen Nullteiler, wenn es eine Lösung x 6= 0 gibt. Beispiel 1.2.15 Der Ring der ganzen Zahlen Z ist nullteilerfrei. Die Menge der Einheiten von Z besteht nur aus den zwei Elementen 1, −1. Proposition 1.2.16 Sei R ein kommutativer Ring, a, b ∈ R und a 6= 0. (i) Ist R nullteilerfrei, so besitzt die Gleichung a·x=b (12) höchstens eine Lösung x ∈ R. (ii) Wenn a ein (multiplikatives) Inverses a−1 besitzt, so hat die Gleichung (12) genau eine Lösung x ∈ R, nämlich x := a−1 b. Beweis: Angenommen, der Ring R ist nullteilerfrei, und die Gleichung (12) habe die Lösungen x = x1 und x = x2 ∈ R. Dann gilt 0 = b − b = a · x1 − a · x2 = a · (x1 − x2 ). Wegen der Annahme a 6= 0 bedeutet dies aber, dass x1 − x2 ein Nullteiler ist. Da R als nullteilerfrei angenommen wurde, folgt x1 = x2 . Es gibt also höchstens eine Lösung von (12), und (i) ist bewiesen. Zum Beweis von (ii) nehmen wir an, dass a ein Inverses a−1 besitzt. Ist dann x ∈ R eine Lösung der Gleichung ax = b, so folgt x = a−1 ax = a−1 b. Dies legt den Wert der Lösung also eindeutig fest. Umgekehrt ist der Wert x := a−1 b natürlich eine Lösung der Gleichung. Wir haben also die Existenz und die Eindeutigkeit der Lösung gezeigt. 2 Definition 1.2.17 Ein Körper ist ein kommutativer Ring (K, +, · ) mit einem Einselement 1 6= 0 und folgender Eigenschaft: jedes Element a 6= 0 ist eine Einheit. 11 Beispiel 1.2.18 Die rationalen Zahlen Q und die reellen Zahlen R bilden einen Körper. Der Ring Z ist kein Körper. Bemerkung 1.2.19 Ein Körper K ist automatisch nullteilerfrei. Denn wenn wir Elemente a, b ∈ R haben mit a 6= 0 und ab = 0, so folgt wie im Beweis von Proposition 1.2.16 (ii) die Gleichung b = a−1 · 0 = 0. Zum Abschluss wollen wir noch zeigen, dass man einen nullteilerfreien kommutativen Ring R auf einfache Weise in einen Körper K einbetten kann. Diese Konstruktion ist völlig analog (genauer: eine Verallgemeinerung von) dem Übergang von den ganzen Zahlen Z zu den rationalen Zahlen Q. Sei also R ein nullteilerfreier und kommutativer Ring mit einem Einselement 1 6= 0. Das Beispiel der rationalen Zahlen legt uns nahe, den Körper K als die Menge der Brüche über dem Ring R zu definieren, K := { a | a, b ∈ R, b 6= 0 }. b (13) Die Addition und Multiplikation definiert man ebenfalls so, wie man es von den rationalen Zahlen gewohnt ist: ad + bc a c + := , b d bd a c ac · := . b d bd (14) Man beachte, dass aus b 6= 0 und d 6= 0 die Ungleichheit bd 6= 0 folgt, weil wir annehmen, dass der Ring R nullteilerfrei ist. Jetzt muss man noch zeigen, dass man mit solchen Brüchen so rechnen kann, wie man es gewohnt ist. Die obige ‘Definition’ ist vom mathematischen Standpunkt aus sehr unbefriedigend, da man nicht präzise formuliert hat, was ein ‘Bruch’ eigentlich ist. Für eine wirklich wasserdichte Definition benötigt man das folgende Konzept. Definition 1.2.20 Sei M ein nichtleere Menge. (i) Eine Relation auf M ist eine Teilmenge ∼ von M × M . Für a, b ∈ M definieren wir a ∼ b :⇔ (a, b) ∈∼ . (ii) Eine Relation ∼ auf M heißt Äquivalenzrelation, wenn für alle a, b, c ∈ M gilt: a∼a a∼b ⇒ b∼a a ∼ b, b ∼ c ⇒ a ∼ c (Reflexivität) (Symmetrie) (Transitivität). Sind diese Bedingungen erfüllt, so sprechen wir die Beziehung ‘a ∼ b’ aus als: a ist äquivalent zu b (bzgl. der Relation ∼). 12 (iii) Sei ∼ eine Äquivalenzrelation auf M . Eine nichtleere Teilmenge A ⊂ M heißt Äquivalenzklasse (bzgl. ∼), wenn es ein Element a ∈ M gibt so, dass A genau die Elemente von M enthält, die äquivalent zu a sind, d.h. A = { b ∈ M | a ∼ b }. In diesem Fall schreiben wir A = [a]∼ und nennen a einen Repräsentanten der Äquivalenzklasse A. (Beachte: die Reflexivität impliziert a ∈ [a]∼ !) Wir bezeichnen mit M/∼ die Menge aller Äquivalenzklassen (bzgl. ∼). Der entscheidende Punkt ist: Bemerkung 1.2.21 Sei M eine nichtleere Menge und ∼ eine Äquivalenzrelation auf M . Dann liegt jedes Element von M in genau einer Äquivalenzklasse (bzgl. ∼). Für zwei Elemente a, b ∈ M gilt: a ∼ b ⇔ [a]∼ = [b]∼ . Beim Übergang von der Menge M zur Menge M/ ∼ geht also die Relation ∼ in die Relation = über. Nun zurück zu unserer ursprünglichen Situation. Wir haben einen kommutativen und nullteilerfreien Ring R. Wir setzen M := { (a, b) | a, b ∈ R, b 6= 0 } und definieren die Relation ∼ auf M durch (a, b) ∼ (c, d) :⇔ ad = bc. Lemma 1.2.22 Die Relation ∼ ist eine Äquivalenzrelation. Beweis: Reflexivität und Symmetrie sind klar. Um die Transitivität nachzuweisen, nehmen wir uns drei Elemente (a, b), (c, d), (e, f ) ∈ M her. Wir nehmen an, dass (a, b) ∼ (c, d) und (c, d) ∼ (e, f ) gelten, was gleichbedeutend ist mit ad = bc, cf = de. (15) Der Trick ist nun, beide Seiten der erste Gleichungen mit f zu multiplizieren und dann mithilfe der zweiten Gleichung umzuformen. Wir erhalten: adf = bcf = bde, woraus wir die Gleichung d(af − be) = 0 schliessen. Aber R ist nach Voraussetzung ein nullteilerfreier Ring. Aus d 6= 0 folgt deshalb af = be, oder (a, b) ∼ (e, f ). Damit ist das Lemma bewiesen. 2 Jetzt können wir eine formale Definition des Körpers K wagen. Wir definieren K := M/∼ 13 als die Menge der Äquivalenzklassen bzgl. der Relation ∼. Für ein Element (a, b) ∈ M schreiben wir die zugehörige Äquivalenzklasse als a := [(a, b)]∼ ∈ K. b Ein Bruch ab ist also die Menge der Paare (a0 , b0 ) ∈ M mit ab0 = a0 b, und K ist die Menge aller Brüche ab (wobei b 6= 0). Damit haben wir (13) präzise definiert. Die Addition und die Multiplikation auf K sollen wie in (14) definiert sein. Hier stossen wir auf das nächste Problem, die Wohldefiniertheit. Seien also α, β ∈ K zwei Elemente aus K. Nach Definition von K gibt es Elemente a, b, c, d ∈ R, b, d 6= 0, so dass α = ab , β = dc . Nach (14) möchten wir definieren: α + β := ad + bc , bd αβ := ac . bd (16) Auf der rechten Seite steht jeweils ein wohldefiniertes Element aus K (weil bd 6= 0 ist). Es ist aber auf den ersten Blick nicht klar, dass diese Elemente unabhängig von der Wahl der Darstellung α = ab , β = dc sind. Damit unsere Definition von α+β und αβ überhaupt Sinn macht, müssen wir zuerst folgendes zeigen: Lemma 1.2.23 Gegeben (a, b), (a0 , b0 ), (c, d), (c0 , d0 ) ∈ M mit a a0 = 0 b b c c0 = 0. d d und Dann gilt a 0 d 0 + b 0 c0 ad + bc = , bd b0 d 0 ac a 0 c0 = 0 0. bd bd (17) Beweis: Nach Vorausetzung gelten die Gleichungen ab0 = ba0 , cd0 = dc0 . (18) Durch Umformen erhalten wir (ad + bc)b0 d0 = adb0 d0 + bcb0 d0 = (ab0 )dd0 + (cd0 )bb0 0 0 0 = (ba )dd + (dc )bb 0 0 0 0 0 = (a d + b c )bd. (umsortieren) (benutze (18)) (umsortieren) Die resultierende Gleichung besagt gerade dass ad + bc a 0 d 0 + b 0 c0 = . bd b0 d 0 Die erste Gleichung in (17) ist damit bewiesen. Die zweite Gleichung zeigt man durch eine ähnliche Rechnung. 2 Mit dem Beweis des Lemmas ist gezeigt, dass durch (16) auf der Menge K zwei Verknüpfungen, + und · , definiert sind. 14 Satz 1.2.24 Die oben definierte Menge K, zusammen mit den Verknüpfungen + und · , bildet einen Körper. Wir nennen K den Quotientenkörper von R. Beweis: Zunächst einmal ist zu zeigen, dass (K, +, · ) ein kommutativer Ring mit Einselement ist. Es sind also insbesondere die Eigenschaften (i) bis (v) der Definition 1.2.5 nachzuprüfen, plus die Kommutativität und die Existenz der Eins. Das ist etwas mühselig, aber nicht schwierig, und sei dem Leser überlassen. Wir weisen nur darauf hin, dass das Nullelement von K der Bruch 0K := 10 und das Einselement der Bruch 1K := 11 ist. Zeigen wir, dass K sogar ein Körper ist. Dazu sei α = ab ∈ K ein beliebiges Element. Dann gilt α 6= 0 genau dann, wenn a 6= 0. In diesem Fall ist α−1 := ab ein Inverses zu α, wegen αα−1 = ab 1 a b · = = = 1K . b a ab 1 Jedes von Null verschiedene Element von K ist demnach eine Einheit, also ist K ein Körper. 2 Bemerkung 1.2.25 Die Abbildung R → K, a 7→ a 1 ist injektiv (aus a1 = 1b folgt a = b). Es ist üblich und nützlich, den Ring R mit dem Bild obiger Abbildung zu identifizieren und somit als Teilmenge von K aufzufassen. Mit anderen Worten: wir unterscheiden nicht zwischen dem Element a ∈ R und dem Element a1 ∈ K. Diese Konvention ist mit der Definition der Addition und der Multiplikation auf K verträglich, wegen a b a+b + = , 1 1 1 a b ab · = . 1 1 1 Mit anderen Worten: fassen wir R als Teilmenge des Körpers K auf, so ist die Einschränkung der auf K definierten Addition und Multiplikation auf die Teilmenge R die übliche Addition und Multiplikation des Ringes R. Diese Aussage formuliert man auch so: R ist ein Unterring von K. 1.3 Das Eliminationsverfahren von Gauss Sei K ein Körper. Ein lineares Gleichungssystem über K ist von der Form a1,1 x1 .. . + am,1 x1 + ... ... + a1,n xn .. . + am,n xn 15 = b1 .. . = bm . (19) Hierbei sind ai,j , bi Elemente von K und xj die Unbestimmten. Die Lösungsmenge des Gleichungssystems (19) ist die Menge Lös((19)) := {(x1 , . . . , xn ) | xj ∈ K, (19) ist erfüllt }. Ein Gleichungssystem zu lösen bedeutet für uns, die Lösungsmenge zu bestimmen. Das kann auch bedeuten, die Nichtexistenz von Lösungen zu beweisen. Das Eliminationsverfahren von Gauss liefert einen Algorithmus zum Lösen eines beliebigen linearen Gleichungssystems. Zunächst führen wir eine praktische Schreibweise für das Gleichungssystem (19) ein. Die Koeffizienten ai,j schreiben wir in ein rechteckiges Schema, eine Matrix: a1,1 . . . a1,n .. . A := ... . am,1 . . . am,n Die Menge aller solcher (m, n)-Matrizen bezeichnen wir mit Mm,n (K). Die Einträge bi und die Unbestimmten xj schreiben wir als Spaltenvektoren: b1 x1 .. .. n b := . ∈ K m . x := . ∈ K , bm xn Man beachte, dass die Anzahl der Einträge im allgemeinen verschieden ist: b hat m Einträge (die Anzahl der Zeilen von (19)) und x hat n Einträge (die Anzahl der Unbestimmten). Wir erklären das Produkt der Matrix A mit dem Spaltenvektor x durch die Formel a1,1 x1 + . . . + a1,n xn .. ∈ K m . A · x := ... . am,1 x1 + ... + am,n xn Hierbei ist es entscheidend, dass der Vektor x genau soviel Einträge hat wie die Matrix A Spalten hat (nämlich n). Das Ergebnis ist ein Spaltenvektor mit m Einträgen. Mit dieser Vorbereitung können wir das lineare Gleichungssystem (19) jetzt in die kompaktere, aber äquivalente Form A·x =b bringen. Die Lösungsmenge schreiben wir als Lös(A, b) := { x ∈ K n | A · x = b }. Wir nennen A die Koeffizientenmatrix des Gleichungssystems; hängt man an A noch den Vektor b als letzte Spalte an, so spricht man von der erweiterten 16 Koeffizientenmatrix: a1,1 .. Ã = (A, b) := . am,1 ... a1,n .. . . . . am,n b1 .. . . bm In ihr ist die gesamte Information über das Gleichungssystem enthalten. Das Prinzip des Gaussschen Eliminationsverfahrens besteht darin, das Gleichungssystems durch wiederholtes Anwenden von sogenannten Zeilenoperationen so weit zu vereinfachen, bis man die Lösungsmenge leicht angeben kann. Definition 1.3.1 Sei A = (ai,j ) ∈ Mm,n (K) eine (m, n)-Matrix mit Einträgen in einem Körper K. Eine elementare Zeilenoperation, angewendet auf A, liefert eine Matrix A0 = (a0i,j ) ∈ Mm,n (K) und ist vom Typ (I), (II) oder (III), wie folgt: (I) A0 geht aus A hervor durch Multiplikation der i-ten Zeile mit einem Element λ 6= 0 von K, d.h. ( λai,l , falls k = i, 0 ak,l := ak,l , falls k 6= i. Hierbei sind i, k ∈ {1, . . . , m}, l ∈ {1, . . . , n}. (II) A0 geht aus A hervor durch Addition des λ-fachen der iten Zeile auf die jte Zeile, d.h. ( aj,l + λai,l , für k = j, 0 ak,l := ak,l , für k 6= j. Hierbei sind 1 ≤ i, j ≤ m verschiedene Indizes und λ ist ein beliebiges Element von K. (III) A0 geht aus A hervor durch Vertauschen der iten mit der jten Zeile, aj,l , für k = i, a0k,l := ai,l , für k = j, ak,l , sonst. Lemma 1.3.2 Sei A · x = b ein lineares Gleichungssystem über einem Körper K, mit erweiterter Koeffizientenmatrix (A, b). Sei (A0 , b0 ) das Ergebnis einer elementaren Zeilenoperation, angewendet auf (A, b). Dann haben die beiden Gleichungssysteme A · x = b und A0 · x = b0 dieselbe Lösungsmenge: Lös(A, b) = Lös(A0 , b0 ). 17 Beweis: Wir zeigen das Lemma exemplarisch für eine elementare Zeilenumformung vom Typ (II). Die anderen beiden Fälle sind einfacher und dem Leser überlassen. Schreibe A = (ak,l ) und b = (bk ). Es seien 1 ≤ i 6= j ≤ m und λ ∈ K. Es sei ausserdem (A0 , b0 ) das Ergebnis der Zeilenoperation vom Typ (II) mit Parameter i, j, λ, angewendet auf die erweiterte Koeffizientenmatrix (A, b). Sei x = (xl ) ∈ Lös(A, b) eine Lösung von A · x = b, d.h. es gelten die Gleichungen a1,1 x1 + . . . + a1,n xn = b1 .. .. .. (20) . . . am,1 x1 + ... + am,n xn = bm . Multiplizieren wir die ite Gleichung von (20) mit λ und addieren wir diese zur jten Gleichung, so folgt, nach einer einfachen Umformung: (aj,1 + λai,1 )x1 + . . . + (aj,n + λai,n )xn = bj + λbi . (21) Ersetzen wir in (20) die jte Zeile durch die Gleichung (21), so erhalten wir, in Matrixschreibweise und nach Definition von (A0 , b0 ), die Gleichung A0 · x = b 0 . Wir haben also gezeigt: aus A · x = b folgt A0 · x = b0 . Anders ausgedrückt: Lös(A, b) ⊂ Lös(A0 , b0 ). Nun überlegt man sich folgendes: wendet man auf (A0 , b0 ) eine Zeilenumformung vom Typ (II) mit Parameter (i, j, −λ), so erhält man die ursprüngliche erweiterte Koeffizientenmatrix (A, b). Mit dem soeben ausgeführten Argument folgt dann Lös(A0 , b0 ) ⊂ Lös(A, b), und insgesamt Lös(A, b) = Lös(A0 , b0 ). 2 Definition 1.3.3 Eine (m, n)-Matrix A = (ai,j ) über einem Körper K ist in Zeilenstufenform, wenn sie folgende Form hat: • • .. . , • 6= 0. A = • ∗ 0 Etwas genauer: es gibt eine ganze Zahl r mit 0 ≤ r ≤ m und r ganze Zahlen j1 < j2 < . . . < jr , so dass gilt: ai,1 = . . . = ai,ji −1 = 0, ai,ji 6= 0 ai,1 = . . . = ai,n = 0, für i = 1, . . . , r, für i = r + 1, . . . , m. 18 Die von Null verschiedenen Einträge a1,j1 , . . . , ar,jr heißen die Angelpunkte von A. Die Zahl r heißt der Zeilenrang von A. Die Matrix A ist in normalisierter Zeilenstufenform, wenn, zusätzlich zu den oben aufgeführten Bedingen, gilt: a1,ji = . . . , ai−1,ji = 0, ai,ji = 1, für i = 1, . . . , r. Das entsprechende Bild sieht also in etwa so aus: 1 0 1 .. . A = 0 0 .. . 0 1 . Man beachte, dass die Fälle r = 0 und r = m ausdrücklich zugelassen sind: im ersten Fall ist A = 0, d.h. alle Einträge von A sind Null. Ein weiterer interessanter Grenzfall tritt ein für m = n = r. Ist dann A in normalisierter Zeilenstufenform, so gilt 1 0 .. A = En := . . 0 1 Die Matrix En heißt die Einheitsmatrix vom Rang n. Lemma 1.3.4 Sei A ∈ Mm,n (K) eine (m, n)-Matrix über einem Körper K. Dann lässt sich A durch eine Folge von elementaren Zeilenumformungen in eine Matrix A0 ∈ Mm,n (K) in normalisierter Zeilenstufenform umformen. Beweis: Zum Beweis werden wir einen konkreten Algorithmus angeben, der eine gegebene Matrix A = (ai,j ) schrittweise auf normalisierte Zeilenstufenform bringt. Dabei werden wir die Namen A für die Matrix und ai,j für ihre Einträge immer beibehalten, auch wenn sich letztere durch die laufenden Umformungen geändert haben. Ist A = 0, so ist A bereits in normalisierter Zeilenstufenform, und wir sind fertig. Andernfalls gibt es mindesten einen Eintrag ai,j 6= 0. Setze j1 := min{ j | es gibt ein i mit ai,j 6= 0 } und wähle ein i1 mit ai1 ,j1 6= 0. Jetzt führen wir die folgenden Umformungen aus: • Falls i1 6= 1, vertausche die erste mit der i1 ten Zeile. Wir dürfen danach annehmen, dass i1 = 1. Unser erster Angelpunkt ist der Eintrag a1,j1 6= 0. • Multipliziere die erste Zeile von A mit a−1 1,j1 . Danach gilt a1,j1 = 1. 19 • Addiere das −ai,j1 fache der ersten Zeile zur iten Zeile, für i = 2, . . . , m. Dadurch verschwinden die Einträge unterhalb des Angelpunktes a1,j1 = 1. Die Matrix A hat nun die Form 0 ··· .. . A= . .. 0 ··· ∗ , 0 1 ∗ ··· .. . 0 .. .. . . B 0 0 wobei B eine gewisse (m − 1, n − j1 )-Matrix ist. Nun könnte es sein, dass m = 1 oder j1 = n. In beiden Fällen ist die Matrix B leer und A ist bereits in normalisierter Zeilenstufenform. Wenn aber m > 1 und j1 < n gilt, so wenden wir das im letzten Abschnitt beschriebene Verfahren auf die Matrix B an. Dabei führen wir aber die anfallenden Zeilenumformungen nicht einfach nur auf B aus, sondern auf die ganze Matrix A. Hat man mit dieser Vorgehensweise Erfolg, so hat die Matrix A anschliessend die Form 0 ··· 0 1 ∗ ··· ··· ∗ .. .. . 0 0 ∗ . .. .. .. . . . 1 ∗ , A= . .. .. .. . . 0 0 . .. .. .. .. .. . . . . 0 ··· 0 0 ··· 0 0 d.h. sie ist in Zeilenstufenform, und die Angelpunkte haben alle den Wert 1. Vom algorithmischen Standpunkt aus haben wir eine Prozedur beschrieben, die sich u.U. selbst aufruft (ein sogenannter rekursiver Aufruf). Das ist erlaubt, aber wir müssen uns klarmachen, dass obiges Verfahren nach endlich vielen Schritten abbricht. Um das einzusehen, betrachtet man die Anzahl m der Zeilen der Matrix, auf die man die Prozedur anwendet. Die Prozedur ruft nur dann sich selbst auf, wenn m > 1, und in diesem Fall ist die Eingabe ein Matrix mit m − 1 Zeilen. Daraus folgt, dass die Tiefe der rekursiven Aufrufe höchstens m beträgt und das Verfahren tatsächlich nach endlich vielen Schritten abbricht. Wir haben nun die Matrix A auf Zeilenstufenform gebracht und dafür gesorgt, dass die Werte der Angelpunkte alle gleich 1 sind. Es ist nun klar, wie man durch weitere elementare Zeilenumformungen vom Typ (II) erreichen kann, dass alle Einträge oberhalb der Angelpunkte verschwinden. 2 Satz 1.3.5 Sei K ein Körper, m, n ∈ N, A ∈ Mm,n (K) und b ∈ K m . Wir betrachten das lineare Gleichungssystem A · x = b, mit x ∈ K n . Dann können zwei verschiedene Fälle auftreten: 20 (i) Es gibt keine Lösung, d.h. Lös(A, b) = ∅. (ii) Es gibt eine ganze Zahl s, 0 ≤ s ≤ n, und paarweise verschiedene ganze Zahlen k1 , . . . , ks , 1 ≤ k1 < · · · < ks ≤ n, mit folgender Eigenschaft. Für jedes s-Tupel (t1 , . . . , ts ) ∈ K s gibt es genau eine Lösung x = (x1 , . . . , xn ) ∈ K n der Gleichung A · x = b mit xk 1 = t 1 , . . . , x k s = t s . Insbesondere erhalten wir eine Bijektion ∼ φ : K s → Lös(A, b), (t1 , . . . , ts ) 7→ x = (x1 , . . . , xn ). Im Fall (ii) des Satzes nennen wir die Unbestimmten xk1 , . . . , xkn−r die freien Variablen und die übrigen Unbestimmten die gebundenen Variablen. Die Bijektion φ heißt Parametrisierung der Lösungsmenge, die Elemente ti heißen Parameter. Beweis: Nach Lemma 1.3.4 können wir die erweiterte Koeffizientenmatrix (A, b) durch eine Folge von Zeilenumformungen zu einer Koeffizientenmatrix (A0 , b0 ) umformen, so dass A0 in normalisierter Zeilenstufenform ist. Nach Lemma 1.3.2 gilt ausserdem Lös(A, b) = Lös(A0 , b0 ). Nun sei r der Zeilenrang von A0 und seien j1 < . . . < jr die Spaltenindizes der Angelpunkte von A0 . Setze s := n − r und sortiere die s Elemente der Menge {1, . . . , n}\{j1 , . . . , jr } in aufsteigender Reihenfolge: k1 < . . . < ks . Stellen wir jetzt das lineare Gleichungssystem A0 ·x = b0 auf und bringen die Unbestimmten xk1 , . . . , xks auf die rechte Seite, so erhalten wir ein Gleichungssystem der Form xj1 = b01 − a01,k1 xk1 − . . . − a01,ks xks .. .. . . xjr = b0r − a0r,k1 xk1 − . . . − a0r,ks xks 0 = b0r+1 .. .. . . 0 = b0m . Es können nun zwei verschiedene Fälle auftreten: entweder sind die Einträge b0r+1 , . . . , b0m alle gleich Null, oder einer dieser Einträge ist ungleich Null. Wenn letzteres zutrifft, so ist mindestens eine der obigen Gleichungen unerfüllbar, und dann ist die Lösungsmenge leer: Lös(A, b) = Lös(A0 , b0 ) = ∅. Dies entspricht dem Fall (i) des Satzes. Andernfalls gilt b0r+1 = . . . , b0m = 0 und die letzten m − r Gleichungen sind automatisch erfüllt und können weggelassen 21 werden. In diesem Fall ist es klar, dass man für die Unbestimmten xk1 , . . . , xks beliebige Werte aus dem Körper K vorgeben kann, und dass dann mit dieser Vorgabe eine eindeutige Lösung des Gleichungssystems existiert. Die Aussage im Fall (ii) des Satzes sagt genau das. 2 Bemerkung 1.3.6 Man beachte, dass die Unterteilung in freie und gebundene Variablen nicht nur von dem Gleichungssystem A · x = b, sondern vor allem von den vorgenommenen Zeilenumformungen abhängt. Da es viele Möglichkeiten gibt, eine Matrix auf Zeilenstufenform zu bringen, gibt es im allgemeinen auch viele Möglichkeiten für die Wahl der freien Variablen. Wir werden im zweiten Kapitel zeigen, dass zumindest die Anzahl s der freien Variablen (bzw. der Parameter ti ) eindeutig durch das Gleichungssystem bestimmt ist: sie entspricht der Dimension des Lösungsraumes. Die Aussage von Satz 1.3.5 lässt sich noch verschärfen, wenn b = 0 gilt. Definition 1.3.7 Ein homogenes lineares Gleichungssystem ist ein Gleichungssystem der Form A · x = 0, mit A ∈ Mm,n (K). Hierbei bezeichnet 0 den Nullvektor von K m , d.h. 0 := (0, . . . , 0) ∈ K m . Offensichtlich hat ein homogenes lineares Gleichungssystem immer mindestens eine Lösung, nämlich den Nullvektor 0 := (0, . . . , 0) ∈ K n . Der Fall (i) in Satz 1.3.5 tritt also nicht auf. Eine Lösung x ∈ Lös(A, 0), x 6= 0, heißt nichttriviale Lösung. Satz 1.3.8 Sei A ∈ Mm,n (K). Wenn m < n gilt, dann hat das homogene Gleichungssystem A·x =0 mindestens eine nichttriviale Lösung, x 6= 0. Ausserdem gilt für die Anzahl s der freien Parameter (Bezeichnung wie in Satz 1.3.5): s ≥ n − m > 0. Beweis: Wie im Beweis von Satz 1.3.5 formen wir die erweiterte Koeffizientenmatrix (A, 0) so zu einer Matrix (A0 , b0 ), dass A0 in normalisierter Zeilenstufenform ist. (Man macht sich leicht klar, dass dann b0 = 0 gilt. Mit anderen Worten: ein homogenes Gleichungssystem bleibt unter Zeilenumformungen homogen.) Sei r der Zeilenrang von A0 . Man beachte, dass r ≤ m und r ≤ n. Wie im Beweis von Satz 1.3.5 ist dann s := n − r die Anzahl der freien Parameter der Lösungsmenge. Wegen r ≤ m gilt dann s ≥ n − m. 22 Gilt zusätzlich m < n, so folgt s > 0, und es gibt mindestens eine freie Variable xk1 . Nach Satz 1.3.5 existiert dann eine Lösung x = (x1 , . . . , xn ) ∈ Lös(A, 0) mit xk1 = 1 6= 0. Insbesondere gilt x 6= 0. 2 1.4 Analytische Geometrie Als analytische Geometrie bezeichnet man heute meistens den Teil der linearen Algebra, der sich mit der Geometrie der Ebene und des dreidimensionalen Raumes beschäftigt. Dies war der historische Ursprung der linearen Algebra. Das Beispiel aus §1.1 zeigt aber, dass moderne Anwendungen meistens nicht auf drei Dimensionen beschränkt sind und nicht notwendigerweise einen geometrischen Hintergrund haben. Trotzdem ist die geometrische Anschauung für ein intuitives Verständnis der Begriffe der linearen Algebra unerlässlich. Bevor wir also im nächsten Kapitel die grundlegenden Begriffe wie Vektorraum und lineare Abbildung offiziel und in abstrakter Weise definieren werden, wollen wir sie zunächst geometrisch motivieren. Der euklidische Standardraum Die Elemente des Euklid waren bis zum Beginn der Neuzeit das Standardwerk der Mathematik und insbesondere der Geometrie; in ihnen ist praktisch das gesamte mathematische Wissen und Denken der griechischen Antike zusammengefasst. Der Einfluss der Elemente auf Mathematik, Philosophie und Wissenschaft ist enorm. Wir wollen hier zwei wesentliche Aspekte hervorheben.5 • Die Mathematik wird als eine deduktive Wissenschaft aufgebaut; am Anfang stehen einige wenige Axiome, aus denen dann alles andere durch logische Schlüsse abgeleitet wird. • Die Algebra wird aus der Geometrie heraus begründet. Z.B. werden rationale Zahlen einfach als Längenverhältnisse von Strecken definiert, die man durch gewisse geometrische Konstruktionen erhalten kann. (Die Begründung der reellen Zahlen bereit massive Probleme und ist nicht allgemein gelungen.) Der erste Punkt bestimmt auch heute noch unseren Zugang zur Mathematik als Wissenschaft. Beim zweiten Punkt fand aber ab dem 17. Jahrhundert ein Umdenken und eine Abkehr von den Grundsätzen der Elemente statt, dessen Ergebnis vielleicht noch bedeutsamer ist als der Einfuss der Elemente selbst. Das entscheidende Ereignis war wohl die Einführung von Koordinatensystemen durch René Descartes in seinem Hauptwerk Discours de la méthode (1637). Durch diese Entdeckung wurde es möglich, die Geometrie aus der Algebra heraus zu begründen. Dieser Standpunkt ist vielleicht weniger elegant als der von Euklid und philosophisch unbefiedigend, hat aber unschätzbare praktische Vorteile. 5 Für eine kritische Betrachtung siehe Euklid: Die Elemente – eine Übersicht, Vorlesungsskript von G.-D. Geyer SS 2001, Erlangen, oder Euklid und die Elemente, Norbert Froese, 2007. 23 Oft kann man geometrische Fragestellungen in eine Rechenaufgabe übersetzen und dann mit numerischen Methoden lösen. Im Zeitalter der digitalen Datenverarbeitung ist dieser Vorteil sogar noch viel grösser als zu Descartes Zeit. Ganz im Sinne von Descartes gehen wir also vom Körper der reellen Zahlen aus und definieren: Definition 1.4.1 Sei n ∈ N eine natürliche Zahl. Der Euklidische Standardraum der Dimension n ist die Menge Rn aller n-Tupel von reellen Zahlen. Für n ≤ 3 kann man sich diesem Raum leicht geometrisch veranschaulichen. Die reellen Zahlen R stellt man sich als ‘Zahlengerade’ vor: 0 1 - Für n = 2 identifiziert man R2 mit einer Ebene, in der man ein Koordinatensystem gewählt hat, wie folgt. Zu einem Punkt P in der Ebene assoziert man das Paar (x1 , x2 ) ∈ R2 , indem man von P aus das Lot auf beide Koordinatenachsen fällt, welche man als Zahlengerade mit der Menge der reellen Zahlen identifiziert. 6 x2 rP = (x1 , x2 ) x1 - Wir nennen R2 deshalb auch die Euklidische Standardebene. Analog verfährt man mit R3 , das man mit dem dreidimensionalen Raum mit drei Koordinatenachsen identifiziert. Für den Moment bleiben wir aber in Dimension zwei. Definition 1.4.2 Eine Gerade in der Standardebene R2 ist die Lösungsmenge einer (nichttrivialen) linearen Gleichung, L = { (x1 , x2 ) ∈ R2 | ax1 + bx2 = c }. Hierbei sind a, b, c ∈ R und (a, b) 6= (0, 0). 24 Wir wollen im folgenden mit den Methoden des letzten Abschnittes illustrieren, dass der soeben definierte Begriff einer Geraden mit der geometrischen Anschauung übereinstimmt. Sei also L ⊂ R2 eine Gerade, gegeben durch die Gleichung ax1 + bx2 = c. Eine Gleichung ist auch ein Gleichungssystem, also können wir den GaussAlgorithmus anwenden. Der ist in diesem Fall so einfach, dass wir in einem Schritt das Ergebnis angeben können. Allerdings ist eine Fallunterscheidung notwendig. Ist a 6= 0, so erhalten wir die äquivalente Gleichung x1 = b c − · x2 . a a Wir fassen also x2 als freie und x1 als gebundene Variable auf und erhalten die Parametrisierung c b ∼ φ : R → L, t 7→ ( − · t, t). a a ∼ Die Umkehrabbildung φ−1 : L → R entspricht geometrisch der Projektion von L auf die x2 -Achse. Wenn b 6= 0, so können wir auch so umformen: x2 = c a − · x1 . b b Die entsprechende Parametrisierung ∼ φ0 : R → L, t 7→ (t, c a − · t) b b entspricht der Projektion auf die x1 -Achse. x2 6 (0, 1) r (−2, 0) r (2, 2) r Figure 2: Die Gerade L : x1 − 2x2 = −2 25 x1 - Der Fall a 6= 0, b 6= 0 ist ein Beispiel für die Bemerkung 1.3.6: man kann sowohl x1 als auch x2 als freien Parameter wählen. Die Anzahl der freien Parameter ist aber in beiden Fällen 1. Dies entspricht der Vorstellung von einer Geraden als ein ‘eindimensionales Objekt’. Die Grenzfälle a = 0 (bzw. b = 0) beschreiben eine Gerade, die parallel zur x1 -Achse (bzw. parallel zur x2 -Achse) liegt. Es ist klar, dass in diesem Fall nur x1 (bzw. x2 ) als freie Variable in Frage kommt. Als Ergebnis der obigen Diskussion wollen wir folgendes festhalten. Proposition 1.4.3 Eine Teilmenge L ⊂ R2 der Ebene ist genau dann eine ∼ Gerade, wenn es eine Bijektion φ : R → L gibt der Form ∼ φ : R → L, t 7→ (u1 + v1 t, u2 + v2 t), mit gewissen reellen Zahlen u1 , u2 , v1 , v2 ∈ R, wobei (v1 , v2 ) 6= (0, 0). Beweis: Angenommen, L ⊂ R ist eine Gerade, also die Lösungsmenge einer Gleichung der Form ax1 + bx2 = c, mit (a, b) 6= (0, 0). Die obige Diskussion zeigt: wenn a 6= 0, so existiert die geforderte Parametrisierung φ, wobei u1 := c , a b v1 := − , a u2 := 0, v2 := 1. Wenn a = 0 so gilt zumindest b 6= 0, und wir können ebenfalls eine explizite Parametrisierung φ0 angeben. ∼ Nehmen wir umgekehrt an, dass es eine Bijektion φ : R → L gibt, wobei φ(t) = (u1 + v1 t, u2 + v2 t) und (v1 , v2 ) 6= 0. Wir setzen a := v2 , b := −v1 , c := u1 v2 − u2 v1 , und wollen zeigen, dass L die Lösungsmenge der Gleichung ax1 + bx2 = c, also eine Gerade ist. Mit anderen Worten: ein Punkt (x1 , x2 ) ∈ R2 ist genau dann eine Lösung der Gleichung ax1 + bx2 = c, wenn es ein t ∈ R gibt mit x1 = u1 + v1 t, x2 = u2 + v2 t. Der Beweis dieser Aussage ist dem Leser als Übungsaufgabe überlassen. 2 ∼ Eine Bijektion φ : R → L wie in Proposition 1.4.3 heißt eine Parametrisierung oder eine Parameterdarstellung der Geraden L. Jetzt wenden wir uns dem Problem zu, das Verhältnis zweier Geraden zueinander zu studieren. Proposition 1.4.4 Es seien L1 , L2 ⊂ R2 Geraden in der Ebene. Dann können nur die folgenden drei Fälle eintreten. 26 (i) L1 = L2 , (ii) L1 und L2 schneiden sich in genau einem Punkt, oder (iii) L1 und L2 schneiden sich in keinem Punkt. Beweis: Die Geraden L1 , L2 sind nach Definition Lösungsmenge einer linearen Gleichung in den Unbestimmten x1 , x2 . Die Schnittmenge L1 ∩ L2 ist demnach die Lösungsmenge eines linearen Gleichungssystems mit zwei Gleichungen: a 1 x1 + b 1 x2 = c 1 , a 2 x1 + b 2 x2 = c 2 . (22) mit ai , bi , ci ∈ R und (ai , bi ) 6= (0, 0). Die erste Zeile von (22) entspricht der Geraden L1 , die zweite Zeile der Geraden L2 . Wir wenden nun auf (22) das Gauss-Verfahren an. Dabei ist eine Fallunterscheidung nötig, z.B. a1 6= 0 oder b1 6= 0. Die beiden Fälle sind sich aber so ähnlich, dass die Betrachtung des ersten Falles a1 6= 0 hier genügen soll. Sei also a1 6= 0. Wendet man das Gauss’sche Eliminationsverfahren auf (22) an, so erhält man nach zwei Schritten das äquivalente Gleichungssystem b1 c1 · x2 = a1 a1 a 2 b1 a 2 c1 (b2 − ) · x2 = c 2 − a1 a1 x1 + (23) (24) An dieser Stelle ist eine erneute Fallunterscheidung nötig. Fall 1: a1 b2 = a2 b1 . Die Gleichung (24) ist dann äquivalent zu der Gleichung a 1 c2 = a 2 c1 . (25) die gar nicht mehr von x1 , x2 abhängt. Fall 1 (a): a1 b2 = a2 b1 und a1 c2 = a2 c1 . In diesem Fall verschwindet die Gleichung (24) vollständig, und es bleibt nur die erste Gleichung übrig. Geometrisch bedeutet das, dass die Schnittmenge L1 ∩ L2 identisch mit der Geraden L1 ist, oder äquivalent: L2 ⊂ L1 . Unsere Anschauung sagt uns, dass eine Gerade nur dann Teilmenge einer anderen Geraden sein kann, wenn beide Geraden gleich sind. Also sollte sogar L1 = L2 gelten. Da wir uns aber nicht auf unsere Anschauung verlassen wollen, müssen wir diese Aussage beweisen. Das geht z.B. so. Wenn a2 = 0 wäre, so würde aus a1 b2 = a2 b1 und a1 6= 0 folgen, dass auch b2 = 0. Das widerspricht aber der Annahme, dass die zweite Gleichung in (22) die Gerade L2 beschreibt (siehe Definition 1.4.2). Also gilt a2 6= 0, und die reelle Zahl λ := a−1 1 a2 ist ebenfalls von Null verschieden. Aus den beiden Gleichungen a1 b2 = a2 b1 und a1 c2 = a2 c1 folgt nun, dass die zweite Gleichung in (22) das λ-fache der ersten Gleichung ist. Also sind beide Gleichungen äquivalent und es gilt L1 = L2 . Dies ist Fall (i) in der Aussage von Proposition 1.4.4. 27 Fall 1 (b): a1 b2 = a2 b1 und a1 c2 6= a2 c1 . In diesem Fall ist die Gleichung (24) unlösbar. Das bedeutet, dass die Schnittmenge L1 ∩ L2 die leere Menge ist und entspricht dem Fall (iii) aus Proposition 1.4.4. Fall 2: a1 b2 6= a2 b1 . In diesem Fall kann man das Gauss-Verfahren weiterführen und erhält nach einer kurzen Rechnung die eindeutige Lösung x1 = b2 c1 − b 1 c2 , a 1 b2 − a 2 b1 x2 = a 1 c2 − a 2 c1 . a 1 b2 − a 2 b1 Insbesondere besteht die Schnittmenge L1 ∩ L2 aus genau einem Punkt, dessen Koordinaten durch die obigen Gleichungen gegeben sind. Dies entspricht dem Fall (ii) aus Proposition 1.4.4. 2 Definition 1.4.5 Zwei Geraden L1 , L2 in der Ebene heißen parallel, wenn entweder L1 = L2 gilt oder wenn sich L1 und L2 nicht schneiden (Fall (i) und (iii) aus Proposition 1.4.4). Der Beweis von Proposition 1.4.4 zeigt: die beiden Geraden L 1 : a 1 x1 + b 1 x2 = c 1 , L 2 : a 2 x1 + b 2 x2 = c 2 , sind genau dann parallel, wenn die Gleichung a 1 b2 = a 2 b1 erfüllt ist. Ist dies der Fall, so kann man die Gleichung für L2 durch Multiplikation mit einer von Null verschiedenen reellen Zahl in eine äquivalente Gleichung der Form L2 : a1 x1 + b1 x2 = c02 umwandeln. Dieses Argument zeigt: Bemerkung 1.4.6 Zwei Geraden L 1 : a 1 x1 + b 1 x2 = c 1 , L 2 : a 2 x1 + b 2 x2 = c 2 , sind genau dann parallel, wenn die beiden zugehörigen homogenen Gleichungssysteme äquivalent sind: a1 x1 + b1 x2 = 0 ⇔ a2 x1 + b2 x2 = 0. Geometrisch können wir diese Bemerkung folgendermassen interpretieren. Ist die Gerade L ⊂ R2 durch die Gleichung ax1 + bx2 = c gegeben, so ist die Lösungsmenge L0 der assoziierten homogenen Gleichung, L0 = {(x1 , x2 ) ∈ R2 | ax1 + bx2 = 0 }, die eindeutige zu L parallele Gerade, die den Nullpunkt (0, 0) enthält. Wenden wir uns nun dem dreidimensionalen Raum R3 zu. 28 Definition 1.4.7 Eine Ebene im R3 ist die Lösungsmenge einer linearen Gleichung, E = { (x1 , x2 , x3 ) ∈ R3 | ax1 + bx2 + cx3 = d }, mit a, b, c, d ∈ R und (a, b, c) 6= (0, 0, 0). Wie im Fall der Geraden sieht man leicht ein, dass jede Ebene E ⊂ R3 eine Parametrisierung ∼ φ : R2 → E mit zwei Parametern besitzt. Dies entspricht unserem Verständnis von einer Ebene als einem zweidimensionalen Objekt. Definition 1.4.8 (i) Zwei Ebenen E1 , E2 heißen parallel wenn entweder E1 = E2 oder E1 ∩ E2 = ∅ gilt. (ii) Eine Teilmenge L ⊂ R3 heißt Gerade, wenn sie Schnittmenge zweier nichtparalleler Ebenen ist. Mit anderen Worten: eine Gerade L ⊂ R3 ist Lösungsmenge eines linearen Gleichungssystems mit drei Unbestimmten und zwei ’voneinander unabhängigen’ Gleichungen, d.h. a 1 x1 + b 1 x2 + c 1 x3 = d1 , a 2 x1 + b 2 x2 + c 2 x3 = d2 , wobei ai , bi , ci , di ∈ R, (ai , bi , ci ) 6= (0, 0, 0) die Eigenschaft haben, dass es keine λ ∈ R gibt mit a2 = λa1 , b2 = λb1 , c2 = λc1 . Wendet man auf so eine Gleichungssystem den Gauss-Algorithmus an, so erhält man eine Parametrisierung der Geraden L mit genau einem freien Parameter, ∼ φ : R → L. Dies entspricht wieder unserer Anschauung von einer Geraden als einem eindimensionalen Objekt. Nach diesen Betrachtungen in Dimension zwei und drei können wir nun eine allgemeine Definition wagen. Definition 1.4.9 Sei n ∈ N. Eine nichtleere Teilmenge H ⊂ Rn des n-dimensionalen Standardraumes heißt linearer Unterraum, wenn sie Lösungsmenge eines linearen Gleichungssystems ist, also H = { x ∈ Rn | A · x = b }, mit A ∈ Mm,n (R) und b ∈ Rm . Die Dimension eines linearen Unterraumes H ⊂ Rn ist die Anzahl s der freien Parameter einer Parametrisierung, ∼ φ : Rs → H, 29 wie man sie durch Anwenden des Gauss-Algorithmus auf das Gleichungssystem A · x = b erhält. Ein linearer Unterraum der Dimension eins heißt Gerade, ein linearer Unterraum der Dimension zwei heißt Ebene. Offenbar enthält diese Definition die Definitionen 1.4.2, 1.4.7 und 1.4.8 (ii) als Spezialfall. Trotzdem gibt es eine Menge auszusetzen. Ein erster Kritikpunkt ist, dass wir die Wohldefiniertheit der Dimension eines linearen Unterraumes noch nicht überprüft haben. Schliesslich ist die ∼ Parametrisierung φ : Rs → H nicht eindeutig durch die Teilmenge H ⊂ Rn bestimmt. Sie hängt unter anderem von der Wahl des Gleichungssystems A·x = b und von den bei der Durchführung des Gauss-Algorithmus vorgenommenen Zeilenumformungen ab. Es ist eine nichttriviale und sehr wichtige Tatsache, dass die Zahl der freien Parameter aber nur von H ⊂ Rn abhängt (vgl. Bemerkung 1.3.6). Eine weitere Unzulänglichkeit der Definition 1.4.9 besteht darin, dass sie den Begriff des linearen Unterraumes nicht durch geometrische Eigenschaften charakterisiert. Stattdessen wird die Existenz eines linearen Gleichungssystems gefordert, für welches es aber keinerlei natürlichen Kandidaten gibt. Denkt man z.B. an den oben besprochenen Fall einer Geraden im R3 , so ist anschaulich klar, dass es unendlich viele Möglichkeiten gibt, eine Gerade als Schnittmenge zweier Ebenen darzustellen. Eine bestimmte Auswahl solcher Ebenen zu treffen ist aber eher unnatürlich. Im Folgenden wollen wir eine geometrische Charakterisierung von linearen Unterräumen durch Vektoren entwickeln und damit den allgemeinen Begriff des Vektorraumes, den wir im nächsten Kapitel behandeln werden, vorbereiten und motivieren. Der Vektorbegriff Um den geometrischen Begriff Vektor klar zu fassen, ist es zunächst hilfreich, streng zwischen Punkten und Vektoren zu unterscheiden (diese Unterscheidung werden wir aber sehr bald wieder aufgeben). Wir gehen also von einem gegebenen Raum aus, dessen Elemente Punkte sind, die wir mit P, Q usw. bezeichnen. Wir gehen ebenfalls davon aus, dass in unserem Raum die Gesetze der euklidischen Geometrie gelten. Die Beziehung zwischen Punkten und Vektoren ist dann folgende: • Zwei Punkte P, Q legen einen Vektor fest. Schreibweise: x := P~Q. Man kann sich den Vektor x = P~Q als einen Pfeil mit Anfangspunkt P und Endpunkt Q vorstellen. • Ist ein Punkt P und eine Vektor x gegeben, so gibt es genau einen Punkt Q mit der Eigenschaft x = P~Q. 30 Q r 3 XXXX XX x XXr 3 0 Q P r X XX X XXX x Xr P0 Figure 3: • Zwei Punktepaare (P, Q) und (P 0 , Q0 ) definieren denselben Vektor, also P~Q = P ~0 Q0 , wenn der Pfeil von P nach Q mit dem Pfeil von P 0 nach Q0 durch eine Parallelverschiebung in Deckung gebracht werden kann. Sind z.B. drei paarweise verschiedene Punkte P, P 0 , Q gegeben, die nicht alle auf einer Geraden liegen, und setzt man x := P~Q, so gibt es nach der zweiten Regel einen vierten Punkt Q0 mit x = P ~0 Q0 . Die Strecken P Q und P 0 Q0 bilden dann gegenüberliegende Kanten eines Parallelogramms, siehe Bild 1.4. Aus den geometrischen Eigenschaften von Vektoren ergeben sich zwei Operationen, die Vektoraddition und die Multiplikation mit einem Skalar. Sind zwei Vektoren x, y gegeben, so kann man einen dritten Vektor, z = x + y, folgendermassen definieren. Man wählt einen beliebigen Punkt P . Dann gibt es einen eindeutigen Punkt Q so dass x = P~Q. Weiterhin gibt es einen eindeuti~ Wir definieren jetzt die Vektoraddition von x und y gen Punkt R mit y = QR. durch die Vorschrift x + y := P~R. Man kann mit rein geometrischen Argumenten zeigen, dass die so definierte Vektoraddition eine assoziative und kommutative Verknüpfung auf der Menge aller Vektoren definiert. Darauf wollen wir hier aber verzichten. Wir definieren den Nullvektor durch die Vorschrift 0 := P~P (die Wahl des Punktes P spielt hierbei keine Rolle). Es ist klar, dass 0 ein neutrales Element bzgl. der Vektoraddition ist, und dass jeder Vektor ein inverses Element −x ~ . besitzt: für x = P~Q gilt −x = QP Eine formale Begründung der Multiplikation eines Vektors mit einem Skalar (i.e. einer reellen Zahl) durch rein geometrische Argumente ist viel schwieriger. Wir begnügen uns mit der folgenden Pseudodefinition. Ist x ein Vektor und t > 0 eine positive relle Zahl, so definieren wir den Vektor t · x als den Vektor, der dieselbe ‘Richtung’ wie x hat, dessen ‘Länge’ aber das t-fache der ‘Länge’ von x ist. Ist t < 0 so setzen wir t · x := −|t| · x, und für t = 0 setzen wir 0 · x := 0. 31 E P r 3 x HH HH O H r H H H HH j H Hr H yH Q H H z R = φ(t1 , t2 ) :r Figure 4: Jetzt haben wir genügend Hilfsmittel zur Hand, um den Begriff des linearen Unterraumes neu zu begründen. Dazu betrachten wir das folgende Beispiel. Es seien drei paarweise verschieden Punkte O, P, Q gegeben, die nicht alle auf einer Geraden liegen. Unsere geometrische Anschauung sagt uns, dass O, P, Q eine Ebene E aufspannen. Wie können wir die Menge aller Punkte von E aus den drei gegebenen Punkten gewinnen? ~ und y := OQ ~ und betrachten die Menge aller Vektoren Wir setzen x := OP z der Form z := t1 · x + t2 · y, wobei t1 , t2 beliebige reelle Zahlen sind. Wir nennen z eine Linearkombination der Vektoren x und y. Legt man als Anfangspunkt des Vektors z den Punkt O ~ fest und nennt den Endpunkt R (d.h. z = OR), so ist anschaulich klar: • der durch (t1 , t2 ) definierte Punkt R liegt auf der Ebene E, und • jeder Punkt der Ebene E ist auf eindeutige Weise einem Paar (t1 , t2 ) zugeordnet. Mit anderen Worten: wir haben eine Bijektion ∼ φ : R2 → E, (t1 , t2 ) 7→ R, ~ = z = t1 · x + t2 · y. Die Bijektion φ nennen wir eine Parametrisierung wobei OR der Ebene E. Anschaulich gesprochen haben wir die Ebene E mit einem Koordinatensystem versehen, das uns erlaubt, Punkte mit Zahlenpaaren zu identifizieren. Vergleiche mit dem Bild der Euklidischen Standardebene auf Seite 24. Aber im Unterschied zu dort stehen die Koordinatenachsen hier im allgemeinen nicht senkrecht aufeinander. Der Standardvektorraum Der nächste Schritt ist nun, den soeben entwickelten, auf geometrischer Anschauung basierenden Vektorbegriff durch eine algebraisches Modell zu realisieren, das mit der vorhergehenden Definition des Euklidischen Standardraumes kompatibel ist. 32 Definition 1.4.10 Der reelle Standardvektorraum der Dimension n ist die Menge Rn , zusammen mit den folgenden Verknüpfungen: • die Vektoraddition Rn × R n → R n , definiert durch (x, y) 7→ x + y, x1 y1 x1 + y 1 .. .. .. . + . := . . xn yn xn + y n • die Multiplikation mit einem Skalar R × R n → Rn , definiert durch (t, x) 7→ t · x, tx1 x1 .. .. t · . := . . xn txn Der Vektor 0 := (0, . . . , 0) ∈ Rn heißt der Nullvektor. Der Bezug zur Definition des Euklidischen Standardraumes (Definition 1.4.2) ist folgender. Zu zwei Punkt P = (p1 , . . . , pn ), Q = (q1 , . . . , qn ) ∈ Rn ist der zugehörige Vektor definiert durch P~Q := (q1 − p1 , . . . , qn − pn ). Wenn wir den Punkt O = (0, . . . , 0) ∈ Rn als Ursprungspunkt wählen, so können ~ = (p1 , . . . , pn ) identiwir einen Punkt P = (p1 , . . . , pn ) mit dem Vektor OP fizieren. Das werden wir im Folgenden auch immer tun. Man sollte aber nicht vergessen, dass dieser Identifizierung die willkürliche Auswahl eines Ursprungs zugrundeliegt. Bemerkung 1.4.11 (i) Die Vektoraddition + auf Rn ist eine assoziative und kommutative Verknüpfung. (ii) Der Nullvektor 0 ∈ Rn ist das neutrale Element bzgl. der Vektoraddition. (iii) Jeder Vektor x ∈ Rn besitzt ein inverses Element bzgl. der Addition, und zwar −x := (−1) · x. (iv) Es gilt das folgende Distributivgesetz6 : t · (x + y) = t · x + t · y für alle x, y ∈ R, t ∈ R. 6 Die Regel Punktrechnung vor Strichrechnung benutzen wir stillschweigend 33 (v) Ist A ∈ Mm,n (R), x, y ∈ Rn und t ∈ R, so gilt: A · (x + y) = A · x + A · y, A · (t · x) = t · (A · x). Diese Regeln ergeben sich unmittelbar aus den entsprechenden Regeln für das Rechnen mit reellen Zahlen. Nur die Regel (v) verdient eine ausführlichere Begründung. Schreibe A = (ai,j ), x = (xj ), y = (yj ) (der Index i läuft über die Menge {1, . . . , m}, und j läuft über {1, . . . , n}. Nach Definition der Multiplikation einer Matrix mit einem Vektor haben wir A · (x + y) = = n X j=1 n X ai,j (xj + yj ) ai,j xj + j=1 n X i=1,...,m ai,j yj j=1 = A · x + a · y. i=1,...,m Man beachte, dass wir bei Übergang von der ersten zur zweiten Zeile das Assoziativ-, das Kommutativ- und das Distributivgesetz der reellen Zahlen jeweils mehrfach benutzt haben. Genauso zeigt man A · (t · x) = = n X ai,j txj j=1 n X t· ai,j xj j=1 i=1,...,m i=1,...,m = t · (A · x). Damit ist die Regel (v) bewiesen. Definition 1.4.12 Eine Teilmenge V ⊂ Rn heißt Untervektorraum, wenn folgendes gilt: (i) V ist nichtleer, (ii) mit x, y ∈ V liegt auch der Vektor x + y in V , und (iii) mit x ∈ V liegt auch t · x in V , für alle t ∈ R. Aus dieser Definition folgt sofort, dass ein Untervektorraum immer den Nullvektor enthält. Satz 1.4.13 Für V ⊂ Rn sind die folgenden Bedingungen äquivalent. (a) V ist ein Untervektorraum. (b) V ist ein linearer Unterraum (Definition 1.4.9) und enthält den Nullvektor. 34 (c) V ist Lösungsmenge eines homogenen linearen Gleichungssystems, d.h. V = { x ∈ Rn | A · x = 0 } für eine Matrix A ∈ Mm,n (R). Beweis: Ist V die Lösungsmenge des Gleichungssystems A · x = 0, so ist V insbesondere ein linearer Unterraum, nach Definition 1.4.9. Zusätzlich gilt aber auch 0 ∈ V , wegen A · 0 = 07 . Also impliziert Aussage (c) die Aussage (b). Sei umgekehrt V ein linearer Unterraum, der den Nullvektor enthält. Dann ist V die Lösungsmenge eines linearen Gleichungssystems A · x = b. Wegen 0 ∈ V gilt dann aber b = A · 0 = 0. Die Aussage (b) impliziert deshalb auch die Aussage (c). Insgesamt sind (b) und (c) äquivalent. Wir zeigen nun noch die Implikation (c) ⇒ (a). Angenommen, V ist Lösungsmenge des Gleichungssystems A · x = 0. Wegen A · 0 = 0 gilt dann 0 ∈ V . Insbesondere ist die Bedingung (i) der Definition 1.4.12 erfüllt. Sind x, y ∈ V zwei Elemente von V so gilt nach Annahme A · x = A · y = 0. Unter Ausnutzung der Regel (v) der Bemerkung 1.4.11 erhalten wir demnach A · (x + y) = A · x + A · y = 0 + 0 = 0, d.h. x + y ∈ V , und die Bedingung (ii) der Definition 1.4.12 ist auch gezeigt. Die Bedingung (iii) zeigt man mit der gleichen Methode: ist x ∈ V und t ∈ R, so gilt A · (t · x) = t · (A · x) = t · 0 = 0, d.h. t · x ∈ V . Damit ist die Implikation (c) ⇒ (a) bewiesen. Den Beweis der Implikation (a) ⇒ (c) werden wir später nachholen. 2 Korollar 1.4.14 Für eine Teilmenge H ⊂ Rn sind die folgenden Bedingungen äquivalent: (a) H ist ein linearer Unterraum. (b) Es gibt einen Untervektorraum V ⊂ Rn und einen Vektor x ∈ H so, dass H = x + V := { x + y | y ∈ V }. Zusatz: wenn H ein linearer Unterraum ist, so ist der Untervektorraum V in (b) eindeutig bestimmt durch V = { x − y | x, y ∈ H }, und die Gleichheit H = x + V gilt für alle x ∈ H. 7 Man beachte, dass hier das Symbol 0 zwei verschiedene Bedeutungen hat: den Nullvektor in Rn und den Nullvektor in Rm 35 Der dem linearen Unterraum eindeutig zugeordnete Untervektorraum V heißt der Raum der Richtungsvektoren von H. Beweis: Angenommen, H ist ein linearer Unterraum, also Lösungsmenge eines linearen Gleichungssystems, H = { x | A · x = b }, mit A ∈ Mm,n (R) und b ∈ Rm . Wir definieren die Teilmenge V ⊂ Rn als die Lösungsmenge des zugehörigen homogenen Gleichungssystems: V := { x | A · x = 0 }. Nach Satz 1.4.13 ist V ein Untervektorraum. Außerdem ist H nichtleer. Wir können also ein Element x ∈ H wählen. Wir wollen nun zeigen, dass dann H = x + V gilt. Oder anders gesagt: ein Vektor z ∈ Rn liegt genau dann in H, wenn es ein y ∈ V gibt mit z = x + y. Der gesuchte Vektor y ist notwendigerweise gegeben durch die Vorschrift y := z − x. Aus x ∈ H folgt nun: A · z = A · (x + y) = A · x + A · y = b + A · y. (26) Aus dieser Gleichung folgt sofort die Äquivalenz A·z =b ⇔ A · y = 0. (27) Mit anderen Worten: z = x+y liegt genau dann in H, wenn y in V liegt. Damit haben wir die Implikation (a) ⇒ (b) bewiesen. Sei umgekehrt H ⊂ Rn eine Teilmenge der Form H = x + V , wobei x ∈ Rn und V ⊂ Rn ein Untervektorraum ist. Nach Satz 1.4.13 ist dann V Lösungsmenge eines homogenen linearen Gleichungssystems, d.h. V = { y | A · y = 0 }, mit A ∈ Mm,n (R). Setze b := A · x ∈ Rm . Wir müssen nun zeigen, dass H = {z | A · z = b } gilt. Dazu sei z ∈ Rn ein beliebiger Vektor. Nach Annahme liegt z in H genau dann, wenn y := z − x in V liegt. Aus der Rechnung (26) folgt aber genau wie oben die Äquivalenz (27). Wir schließen, dass z ∈ H äquivalent ist zu A · z = b. Damit ist auch die Implikation (b) ⇒ (a) bewiesen. Eine nachträgliche Analyse des obigen Beweises zeigt, dass wir nicht nur die Äquivalenz (a) ⇔ (b), sondern auch die Zusatzbehauptung des Korollars bewiesen haben. Die Details möge sich der Leser selber überlegen. 2 Beispiel 1.4.15 Es sei E ⊂ R3 die durch die folgende lineare Gleichung definierte Ebene im dreidimensionalen Standardraum: E: x1 + 2x2 − x3 = 5. 36 Der Raum der Richtungsvektoren von E ist dann die Lösungsmenge V ⊂ R3 der homogenen Gleichung V : x1 + 2x2 − x3 = 0. Der Gauss-Algorithmus liefert in einem Rechenschritt die Parametrisierung ∼ φ : R2 → E, φ(t1 , t2 ) := (5 − 2t1 + t2 , t1 , t2 ). In Vektorschreibweise sieht diese Parametrisierung so aus: 5 −2 1 φ(t1 , t2 ) = 0 + t1 · 1 + t2 · 0 . 0 0 1 Setzt man 5 x := 0 , 0 −2 y1 := 1 , 0 1 y2 := 0 , 1 so ist offenbar x ∈ E und y1 , y2 ∈ V . Da V ein Untervektorraum ist, liegt aber auch jede Linearkombination −2t1 + t2 t1 y := t1 · y1 + t2 · y2 = t2 in V . Mit y ∈ V liegt dann der Vektor z := x + y in der Ebene E. Die Grundstruktur der Parametrisierung eines linearen Unterraumes sieht also so aus: allgemeine Lösung des LGS = spezielle Lösung x + allgemeine Lösung y des homogenen LGS. Die Anzahl der Parameter s entspricht dabei der Anzahl der Vektoren aus V , die mindestens nötig sind, um jeden Vektor aus V als Linearkombination darzustellen: y = t 1 y1 + . . . + t s ys . Sie entspricht der Dimension des Vektorraumes V . 37