Kapitel 2 Lineare Gleichungssysteme Wir wollen uns in diesem Abschnitt sehr ausführlich mit linearen Gleichungssystemen beschäftigen. Üblicherweise macht man das erst, nachdem man die Theorie der Vektorräume und der linearen Abbildungen auf Vektorräumen behandelt hat. Vieles mag Ihnen von der Schule her vertraut sein. Aber eine wichtige Erweiterung gegenüber dem Schulstoff werden wir jetzt gleich im nächsten Abschnitt einführen. Wir wollen Gleichungssysteme nämlich nicht nur über den Ihnen bekannten Zahlbereichen R und Q betrachten, sondern über beliebigen sogenannten Körpern. 2.1 Gruppen, Ringe, Körper Körper sind algebraische Objekte, in denen ähnliche Rechenregeln gelten wie in R oder Q (Multiplikation, Addition, Assoziativgesetz, Distributivgesetz). Es gibt aber noch mehr algebraische Strukturen als nur R und Q, in denen solche Regeln gelten. Dazu wollen wir zunächst die entscheidenden Rechenregeln formalisieren und dann weitere Körper kennenlernen. Ein Hauptziel der linearen Algebra ist es, lineare Gleichungssysteme über solchen Körpern zu lösen. Definition 2.1.1 Sei K eine nicht leere Menge, auf der zwei binäre Verknüpfungen + und · definiert sind, die folgende Eigenschaften haben: [A1] x+y =y+x ∀x, y ∈ K. [A2] x + (y + z) = (x + y) + z [A3] Es gibt ein Element 0 ∈ K mit der Eigenschaft x+0 = x ∀x, y, z ∈ K. 23 ∀x ∈ K. [A4] Zu jedem x ∈ K gibt es ein Element y ∈ K mit x + y = 0. Bezeichnung für dieses Element y = −x. Die Regel [A1] ist die Kommutativität der Addition, [A2] die Assoziativität, [A3] sagt etwas über die Existenz eines neutralen Elementes und [A4] sagt etwas über die Existenz eines inversen Elementes. Nun zur Multiplikation. Dazu setzen wir K ∗ := K \ {0}. [M1’] x·y =y·x ∀x, y ∈ K. [M2’] (x · y) · z = x · (y · z) [M3’] Es gibt ein Element 1 ∈ K∗ mit x · 1 = x [M4’] Zu jedem x ∈ K∗ gibt es ein Element y ∈ K∗ mit x · y = 1. Bezeichnung für dieses Element y = x−1 . ∀x, y, z ∈ K ∀x ∈ K. Bislang stehen Addition und Multiplikation einfach nur nebeneinander. Interessant wird es durch das Distributivgesetz: [D] x · (y + z) = (x · y) + (x · z) ∀x, y, z ∈ K. Um deutlich zu machen, dass nicht die Menge K, sondern die Menge zusammen mit den Verknüpfungen den Körper bilden, schreiben wir den Körper manchmal auch als “Tupel” (K, +, ·, 0, 1). Beispiel 2.1.2 Wie schon erwähnt sind R und Q Beispiele von Körpern. Die ganzen Zahlen Z sind kein Körper, weil [M4] nicht erfüllt ist. Die natürlichen Zahlen (einschließlich der 0) sind kein Körper, weil [M4] und [A4] nicht erfüllt sind. Lemma 2.1.3 Sei K ein Körper. Dann gilt: (1.) x · 0 = 0 · x ∀x ∈ K. (2.) −x = (−1) · x (3.) x · y 6= 0 Beweis (1.) ∀x ∈ K. ∀x, y ∈ K∗ . Es gilt x · 0 + x = x · 0 + x · 1 = x · (0 + 1) = x · 1 = x, also x · 0 = 0 (Addiere auf beiden Seiten (−x). (2.) 0 = 0 · x = (1 + (−1)) · x = 1 · x + (−1) · x = x + (−1) · x, also muss (−1) · x das eindeutig bestimmte additiv inverse Element von x sein. 24 (3.) Angenommen x · y = 0, aber x, y 6= 0. Dann x · x−1 · y · y −1 = 1, aber auch = 0 wegen xy = 0 und (1.). Das liefert den Widerspruch 0 = 1. Teil (3.) von Lemma 2.1.3 zeigt, dass die Multiplikation auf K∗ abgeschlossen ist, d.h. das Produkt von zwei Elementen in K∗ liegt wieder in K∗ - Die Eigenschaften der Multiplikation auf K∗ sind identisch mit denen der Addition auf K (neutrales Element, Assoziativität, Kommutativität, inverses Element). Solche algebraischen Strukturen treten sehr häufig auf, und man nennt sie Gruppen (wobei das Kommutativgesetz nicht unbedingt gelten muss): Definition 2.1.4 (Gruppen) Sei G eine nicht leere Menge, auf der eine Verknüpfung · definiert ist. Dann heißt (G, ·) eine Gruppe, falls gilt [G1] x · (y · z) = (x · y) · z ∀x, y, z ∈ G. [G2] Es gibt ein Element 1 ∈ G mit der Eigenschaft x · 1 = x (neutrales Element). [G3] Zu jedem x ∈ G gibt es ein Element y ∈ G mit x·y = 1. Bezeichnung für dieses Element y = x−1 (inverses Element). ∀x ∈ G Die Gruppe heißt abelsch oder kommutativ, wenn zusätzlich gilt [Ab] x·y =y·x ∀x, y ∈ G. Wir weisen auf folgendes hin: Das Element 1 ist ein neutrales Element, wenn wir es von rechts mit x verknüpfen. Wir finden zu x ein inverses Element y, das wir von rechts mit x verknüpfen. Das folgende Lemma zeigt u.a., dass wir rechts auch durch links ersetzen können. Lemma 2.1.5 Sei G eine Gruppe. Dann sind 1 und x−1 eindeutig bestimmt und es gilt auch 1 · x = x ∀x ∈ G sowie x−1 · x = 1 ∀x ∈ G. Beweis : Wir überlegen uns zunächst x−1 x = 1 (wir lassen hier, wie das oft üblich ist, das Verknüpfungszeichen · weg): x−1 x = (x−1 x)(x−1 (x−1 )−1 ) = x−1 (xx−1 )(x−1 )−1 = x−1 (x−1 )−1 = 1, d.h. 1 = xx−1 = x−1 x ∀x ∈ G sowie 1 · x = (xx−1 )x = x(x−1 x) = x · 1 = x. Damit können wir schnell zeigen, dass das neutrale Element eindeutig bestimmt ist: 25 Angenommen, es gibt ein Element 1′ 6= 1 mit der Eigenschaft x · 1 = x = x · 1′ für alle x ∈ G. Wähle x = 1. Dann gilt 1·1′ = 1. Somit ist 1′ das inverse Element zu 1 und damit gilt auch, wie gerade gezeigt, 1′ · 1 = 1, aber auch 1′ · 1 = 1′ , weil ja 1 neutrales Element ist. Ähnlich zeigt man auch die Eindeutigkeit des inversen Elementes. Bemerkung 2.1.6 (1.) Der Beweis zeigt sogar noch etwas mehr, nämlich x = (x−1 )−1 . (2.) Es sei darauf hingewiesen, dass wir in der Definition der Gruppe wirklich sowohl ein rechtsneutrales als auch ein rechtsinverses Element gewählt haben. Rechtsneutral und Linksinvers kann andere (weniger interessante) algebraische Strukturen liefern. (3.) Man benutzt die Bezeichnung + meistens nur für kommutative Verknüpfungen. (4.) Ein Körper ist ein algebraisches Objekt mit zwei Verknüpfungen, so dass K bzgl. der Addition und K∗ bzgl. der Multiplikation kommutative Gruppen sind, und es gilt das Distributivgesetz. (5.) Die binäre Verknüpfung · ist formal eine Abbildung · : G×G → G; (g, h) 7→ g · h. Definition 2.1.7 Sei (G, ·) eine Gruppe. Dann heißt eine nicht leere Teilmenge H ⊆ G eine Untergruppe von G (Bezeichnung H ≤ G) falls (H; ·|H×H ) eine Gruppe ist. Um zu zeigen, dass H eine Untergruppe ist, muss man im wesentlichen g · h ∈ H zeigen für alle g, h ∈ H, sowie h−1 ∈ H für alle h ∈ H. Das Assoziativgesetz gilt, weil das Assoziativgesetz in G gilt! Eine der wichtigsten Gruppen überhaupt ist die Gruppe der bijektiven Abbildungen: Definition 2.1.8 Sei X eine Menge. Die Menge der bijektiven Abbildungen f : X → X heißt die symmetrische Gruppe auf X, Bezeichnung SX . Gilt X = {1, . . . , n}, so schreibt man auch Sn . In dieser Definition steckt auch ein Satz, dass die bijektiven Abbildungen eine Gruppe bilden. Das ist aber klar, weil die Verknüpfung assoziativ ist, weil es ein neutrales Element idX gibt, weil es eine inverse Abbildung gibt, und weil die Verkettung bijektiver Abbildungen wieder bijektiv ist. Lemma 2.1.9 |Sn | = n · (n − 1) · (n − 2) · · · 2 · 1 =: n! 26 2.2 Neue Körper: C und Fp Definition 2.2.1 Wir definieren C als die Menge {(x, y) : x, y ∈ R} zusammen mit den zwei Verknüpfungen + und · wie folgt: (x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ ) (x, y) · (x′ , y ′ ) = (xx′ − yy ′ , xy ′ + x′ y). Diese Definition ist sehr sinnvoll, wie der folgende Satz zeigt: Satz 2.2.2 C ist ein Körper mit dem additiv neutralen Element (0, 0), dem multiplikativ neutralen Element (1, 0) sowie den inversen Elementen −(x, y) := −1 (x, y) := (−x, −y) x −y p ,p x2 + y 2 x2 + y 2 ! . Beweis Man rechnet die Regeln [A1] bis [A4], [D] sowie [M1] bis [M4] nach. Bemerkung 2.2.3 Die Menge {(x, 0) : x ∈ R} ⊆ C ist selber ein Körper, den wir mit R “identifizieren” können, d.h. wir identifizieren das Element (x, 0) in C mit x ∈ R. Auf diese Weise können wir R als “Teilkörper” von C auffassen (präzise Definition folgt). Das Element (0, 1) bekommt einen besonderen Namen i und heißt “imaginäre Einheit”. Es gilt i2 = (−1, 0), was wir ja auch als die reelle Zahl −1 auffassen wollen. Man schreibt statt (x, y) oft auch x+ iy, x, y ∈ R. Dann wird klar, warum die Multiplikation gerade so gewählt ist, wie sie gewählt ist: (x + iy)(x′ + iy ′ ) = xx′ + i2 yy ′ + ixy ′ + ix′ y = xx′ − yy ′ + i(xy ′ + x′ y). Definition 2.2.4 Sei (K, +, ·, 0, 1) ein Körper. Ist F ⊆ K, und gilt 0, 1 ∈ F, so heißt F ein Teilkörper von K, falls x + y ∈ F, xy ∈ F, −x ∈ F sowie x−1 ∈ F für alle x, y ∈ F gilt. Um zu zeigen, dass F ein Teilkörper ist, müssen Sie nicht mehr alle Rechenregeln überprüfen, sondern nur die Abgeschlossenheit von + und · in F. Machen Sie sich das an dem Beispiel klar, dass die Menge {(x, 0) : x ∈ R} ein Teilkörper von C ist. Auf eine formale Definition, was es heißt, diesen Teilkörper mit R zu identifizieren, möchte ich hier an dieser Stelle (noch) verzichten. Der Körper R hat auch einen Teilkörper, nämlich Q. Man kann sich leicht überlegen, dass jeder Teilkörper von R diesen Teilkörper Q enthält. 27 Neben Q, R und C spielen Körper mit nur endlich vielen Elementen in den Anwendungen eine zunehmende Bedeutung. Beispiel 2.2.5 Die Menge {0, 1} mit den Verknüpfungen 0 + 1 = 1 + 0 = 1, 1 + 1 = 0 + 0 = 1 sowie der Multiplikation 1 · 1 = 1 ist ein Körper (mit nur zwei Elementen). Unser Ziel wird sein, Körper zu konstruieren, die p Elemente haben, wobei p eine Primzahl ist. Definition 2.2.6 Sei n ∈ N, und sei ≡n die in 1.4.7 definierte Äquivalenzrelation. Dann definieren wir Zn := {[0]≡n , . . . , [n − 1]≡n } als die Menge der Äquivalenzklassen von ≡n . Bezeichnung: [i]≡n =: i. Es sollte klar sein, dass |Zn | = n, und dass es keine weiteren Äquivalenzklassen gibt.Wir definieren nun auf Zn eine Addition und eine Multiplikation: [An] i + j := i + j [Mn] i · j := i · j Beispiel 2.2.7 Sei n = 4. Dann ist 5 + 7 = 12 = 0. Nun gilt 5 = 1 und 7 = 3. Wenn wir diese anderen Repräsentanten wählen, um die Addition auszuführen, erhalten wir 1 + 3 = 4 = 0, also dasselbe Ergebnis. Satz 2.2.8 [An] und [Mn] sind wohldefiniert, d.h. für i = i′ und j = j ′ gilt i + j = i′ + j ′ i · j = i′ · j ′ Bemerkung 2.2.9 Dieses Problem der “Wohldefiniertheit” tritt immer dann auf, wenn man zur Erklärung einer mathematischen Funktion “Repräsentanten” benutzt. Man muss dann zeigen, dass das Ergebnis der Funktionsauswertung unabhängig von der Auswahl des Repräsentanten ist Die Funktion, die wir hier vorliegen haben, ist die binäre Verknüpfung + (bzw. ·), die man auch als Abbildung + : Zn × Zn → Zn auffassen kann. Beweis (Beweis von Satz 2.2.8) [An] Nach Voraussetzung gilt n | (i−i′ ) und n | (j − j ′ ), also na = i − i′ und nb = j − j ′ für geeignete a, b ∈ Z. Nun ist na + nb = i − i′ + j − j ′ = (i + j) − (i′ + j ′ ), also n | ((i + j) − (i′ + j ′ )), d.h. i + j = i′ + j ′ . 28 [Mn] Beachte n | (i − i′ ) ⇒ n | (ij − i′ j) ′ n | (i′ j − i′ j ′ ) n | (j − j ) ⇒ Aus diesen beiden Gleichungen folgt durch Addition n | (ij−i′ j ′ ), also ij = i′ j ′ . Satz 2.2.10 (Zn , +, ·, 0, 1) erfüllt die Regeln [A1],[A2], [A3],[A4], [M1’], [M2’], [M3’] sowie [D]. Beweis Alle Rechenregeln folgen direkt aus der Definition. Korollar 2.2.11 (Zn , +, 0) ist eine abelsche Gruppe. Beachten Sie, dass es in Zn nicht alle Elemente multiplikativ invertierbar sind. Ferner ist die Menge Zn \ {0} bzgl. der Multiplikation im allgemeinen nicht abgeschlossen. Wenn n = a · b gilt, a, b 6= n, a, b ∈ N, dann ist a · b = n = 0. Also kann Zn kein Körper sein, wenn n eine zusammengesetzte Zahl ist. Die algebraische Struktur, die wir hier vorliegen haben, nennt man einen kommutativen Ring mit 1. Also: Wenn [M4] nicht gilt, spricht man von einem kommutativen Ring mit 1. Man kann auch “kommutativ” und “mit 1” weglassen, muss dann aber aufpassen: Im nicht kommutativen Fall müssen wir fordern, dass 1 von beiden Seiten ein neutrales Element ist. Wir fassen dies zusammen: Definition 2.2.12 Sei R eine nicht leere Menge mit zwei Verknüpfungen + und ·. Dann heißt R ein Ring, wenn gilt: [A1] x+y =y+x [A2] x + (y + z) = (x + y) + z [A3] Es gibt ein Element 0 ∈ R mit der Eigenschaft x+0 = x [A4] Zu jedem x ∈ R gibt es ein Element y ∈ R mit x + y = 0. Bezeichnung für dieses Element y = −x. [Ass] ∀x, y ∈ R. (x · y) · z = x · (y · z) ∀x, y, z ∈ R. ∀x ∈ R. ∀x, y, z ∈ K [D1] x · (y + z) = (x · y) + (x · z) ∀x, y, z ∈ R. [D2] (y + z) · x = (y · x) + (z · x) ∀x, y, z ∈ R. Wenn zusätzlich gilt [NE] Es gibt ein Element 1 ∈ R \ {0} mit x · 1 = x = 1 · x ∀x ∈ K. so sagt man, R sei ein Ring mit neutralem Element 1. Gilt [K] x·y =y·x ∀x, y ∈ R, so heißt der Ring kommutativ. 29 Das Standardbeispiel eines kommutativen Rings mit 1 ist der Ring der ganzen Zahlen. Die Menge aller geraden Zahlen ist ein kommutativer Ring ohne 1. Wir werden bald nicht kommutative Ringe kennenlernen. Aber jetzt endlich zur Konstruktion endlicher Körper: Satz 2.2.13 Ist p eine Primzahl, so ist (Zp , +, ·, 0, 1) ein Körper. Bezeichnung: Fp . Beweis Wir müssen nur [M4’] zeigen. Sei also x 6= 0. Dann betrachten wir die p − 1 Elemente x · 1, . . . , x · p − 1. Weil p prim ist, taucht in dieser Liste das Element 0 nicht auf: Sonst p | x · y für ein y ∈ {1, . . . , p − 1}, aber p teilt weder x (sonst x = 0) noch y (wg. 1 ≤ y ≤ p − 1), das ist ein Widerspruch dazu, dass p prim ist. Wenn x kein Inverses hat, so muss in der Liste dieser Elemente also mindestens ein Element mehrfach auftreten, also x · i = x · i′ mit (obdA) i > i′ . Das liefert x·i − i′ = 0 mit 1 ≤ i−i′ ≤ p−1. Also würde doch 0 in der Liste auftreten, ein Widerspruch. Also sind alle Elemente verschieden, und damit kommt auch 1 vor und es gibt zu x ein Inverses. Bemerkung 2.2.14 In Fp gilt 1| + 1 + {z. . . + 1} = 0. p mal Das ist ein ganz anderes Verhalten, als wir das für Q, R (und C) kennen. Bemerkung 2.2.15 Wir können das multiplikativ inverse Element von x modulo p mit Hilfe des Euklidischen Algorithmus bestimmen. Dazu suchen wir die Vielfachsummendarstellung des ggT von x und p. Wennn p eine Primzahl ist, so ist ggT(p, x) = 1 ür 1 ≤ x ≤ p − 1. Wir berechnen die Vielfachsummendarstellung des ggT, finden also eine Darstellung 1 = ap + bx. Dann ist b offenbar das Inverse von x. 2.3 Das Verschlüsselungsverfahren nach Rivest, Shamir, Adleman (RSA, 1977) Wir wollen die elementare Gruppen- und Zahlentheorie des vorhergehenden Kapitels ein wenig erweitern, um so eines der wichtigsten Verschlüsselungssysteme der Gegenwart vorstellen zu können. 30 Definition 2.3.1 Sei G eine Gruppe. Die Ordnung eines Elementes g ∈ G ist die kleinste Zahl n ∈ N so, dass g n = 1. Falls kein solches n existiert, so ist die Ordnung von g unendlich. Lemma 2.3.2 Ist n die Ordnung eines Elementes g ∈ G. so ist die Menge hgi := {1, g, g 2 , . . . , g n−1 eine Untergruppe der Ordnung n von G. Diese Untergruppe heißt die von g erzeugte Untergruppe. Es ist die kleinste Untergruppe von G, die g enthält. Beweis g i ·g j = g i+j . Ist 0 ≤ i+j < n, so sind wir fertig, andernfalls i+j = n+s für ein 0 ≤ s ≤ n − 1. Dann haben wir g i+j = g n · g s = g s , also g i · g j ∈< langleh > rangle. Die Elemente 1, g, g 2, . . . , g n−1 sind alle verschieden wegen der Minimalität von n. Ferner gilt (g i )−1 = g n−i . In den Übungen sollen Sie zeigen, dass die Ordnung einer Untergruppe die Gruppenordnung teilt, also muss die Ordnung eines Elements g ∈ G die Gruppenordnung teilen. Korollar 2.3.3 In einer endlichen Gruppe G gilt g |G| = 1. Korollar 2.3.4 Sei p eine Primzahl. Dann gilt xp−1 ≡ 1mbox modp, falls ggT(p, x) = 1. Wir wollen jetzt die modulo n invertierbaren Elemente charakterisieren: Satz 2.3.5 i ∈ Zn ist multiplikativ invertierbar Beweis des ggT. ⇔ ggT(i, n) = 1. “⇐”: Das ist klar wegen der Vielfachsummendarstellung si+tn = 1 “⇒”: Angenommen es gibt eine Zahl s mit s | i und s | n, s 6= ±1. Dann ist s ein Teiler von im für alle m ∈ N, also im ≡ 0 mod s. Wenn aber im ≡ 1 mod n gilt, dann ist auch im ≡ 1 mod s, ein Widerspruch. Also müssen i und n teilerfermd sein. qed Wenn wir mit Z∗n = {x ∈ Zn : x ist bezüglich · invertierbar die Gruppe (warum ist das eine Gruppe?) der modulo n invertierbaren Elemente bezeichnen, so gilt für alle x ∈ Z∗n : ∗ x|Zn | ≡ 1 mod n. Ist z.B. n = p · q das Produkt von zwei Primzahlen, dann gilt x(p−1)(q−1) ≡ 1 mod n für alle x mit ggT(x, n) = 1. 31 Das RSA-Verfahren wird benutzt, um vertrauliche Daten von Alice über einen für jeden einsehbaren Kanal an Bob zu übertragen. Das geniale an dem Verfahren ist nun, dass man solche vertraulichen Daten übertragen kann, ohne sich vorher auf einen “geheimen Schlüssel” geeinigt zu haben. Wenn man beispielsweise via Internet etwas bestellt und muss seine Kreditkartendaten übermitteln, dann hatte man vorher nie Gelegenheit, mit dem online-shop über einen sicheren Kanal einen geheimen Schlüssel auszutauschen. Natürlich könnte man das vorher mit einem gewöhnlichen Brief machen, aber dann hätte man ja auch gleich die vertraulichen Daten mit der Post verschicken können! Also, wie wird das Problem gelöst (und das hier vorgestellt Verfahren wird wirklich viel benutzt): Alice möchte von Bob Nachrichten empfangen, und möchte es ihm ermöglichen, diese “sicher” zu tun. Dazu wählt sie eine (große) Zahl n = pq, die das Produkt von zwei Primzahlen ist. Alice kennt die Primfaktorzerlegung und kann deshalb auch (p − 1)(q − 1) berechnen (das ist die Ordnung der Gruppe Z∗pq ). Nun wählt sie ein Paar (e, d) von Zahlen mit e · d ≡ 1 mod (p − 1)(q − 1). Auch das ist kein Problem. Beachten Sie: e · d = s(p − 1)(q − 1) + 1 für ein s. Nun behält sie e als geheimen Schl”ussel für sich und macht e und n öffentlich bekannt. Wenn Bob nun ein Geheimnis m an Alice schicken möchte, so schickt er me mod n (er reduziert also modulo n, d.h. er dividiert me durch n und sendet nur den Rest). Wir wollen als mögliche Geheimnisse nur Zahlen zulassen, die zu n teilerfremd sind. Aber auch das stellt kein großes Problem dar, weil Bob mit den ihm zur Verfügung stehen Daten leicht ausrechnen kann, ob ggT(m, n) = 1 gilt. Alice ∗ kann nun (me )d = m1+s·|Zpq | ≡ m mod n ausrechnen. Beispiel 2.3.6 Wir wählen die Primzahlen p = 7 und q = 11. Dann ist n = 77 und (p − 1)(q − 1) = 60. Alice wählt e = 13 und d = 37 (was man mit dem Euklidischen Algorithmus ausrechnet). Bob will nun m = 2 senden. Dann sendet er 213 ≡ 30 mod 77. Alice berechnet 3037 ≡ 2 mod 77. Die Sicherheit des RSA Verfahrens basiert darauf, dass die Faktorisierung von n in Primfaktoren schwierig ist. Sobald ein Angreifer die Zahlen p und q kennt, kann er auch schnell modulo (p − 1)(q − 1) invertieren, er kann also aus der Kenntnis von D auf e schließen. In der Praxis werden Zahlen mit mehreren hundert Dezimalstellen verwendet. 2.4 Lineare Gleichungssysteme: Definitionen Sei K ein Körper. Wir untersuchen Gleichungssysteme der Form α1,1 x1 α2,1 x1 ...... αm,1 x1 + + α1,2 x2 α2,2 x2 + ... + + ... + + αm,2 x2 + ... + α1,n xn α2,n xn ...... αm,n xn = = = β1 β2 ... βm (2.1) wobei αi,j , βi ∈ K, i = 1, . . . , m, j = 1, . . . , n. Wir haben hier m Gleichungen und n Unbekannte. Wir suchen Lösungen mit xi ∈ K. Ein n-Tupel (x1 , . . . , xn ), 32 das dieses Gleichungssystem löst, heißt Lösung des Systems. In der Regel gibt es viele Lösungen eines Systems. Die Menge aller Lösungen nennen wir die Lösungsmenge. Das Gleichungssystem heißt homogen, wenn β1 = β2 = . . . = βm = 0 gilt, andernfalls inhomogen. Beispiel 2.4.1 (1.) Jedes homogene Gleichungssystem hat mindestens eine Lösung, nämlich x1 = x2 = . . . = xn = 0 (triviale Lösung). (2.) Es gibt homogene Gleichungssysteme, die mehr als nur die triviale Lösung haben. Das gilt insbesondere, wenn m < n ist (unterbestimmtes System, Beweis später!). (3.) Es gibt inhomogene Systeme, die unlösbar sind, solche mit genau einer Lösung, und solche mit unendlich vielen Lösungen. Selbst im Fall m < n kann es passieren, dass es keine Lösungen gibt. Unser Ziel ist es, das Gleichungssystem in ein “äquivalentes” System umzuformen, das dieselben Lösungen besitzt, aber einfacher zu lösen ist. Seien γ1 , . . . , γm ∈ K. Dann erfüllt jede Lösung von (2.1) auch die Gleichung (γ1 α1,1 + γ2 α2,1 + . . . + γm αm,1 )x1 + + (γ1 α1,2 + γ2 α2,2 + . . . + γm αm,2 )x2 + . . . + . . . + (γ1 α1,n + γ2 α2,n + . . . + γm αm,n )xn = γ1 β1 + γ2 β2 + . . . + γm βm . Wir nennen eine solche Gleichung eine Linearkombination der Gleichungen in (2.1). Wenn wir aus einem Gleichungssystem (GLS1) ein neues Gleichungssystem (GLS2) bilden, in dem jede Gleichung eine Linearkombination der Gleichungen aus (GLS1) ist, dann gilt: (x1 , . . . , xn ) löst (GLS1) ⇒ (x1 , . . . , xn ) löst (GLS2) Definition 2.4.2 Zwei Gleichungssysteme (GLS1) und (GLS2) heißen äquivalent wenn jede Gleichung von (GLS1) eine Linearkombination der Gleichungen aus (GLS2) ist und umgekehrt. Satz 2.4.3 Äquivalente Gleichungssysteme haben dieselben Lösungsmengen. Noch eine Definition: Definition 2.4.4 Ein Rechteckschema α1,1 · · · α1,n A = ··· ··· αm,1 · · · αm,n 33 mit αi,j ∈ K heißt eine m × n-Matrix über K. Die Menge aller m × n-Matrizen wird mit K(m,n) bezeichnet. Eine Matrix besteht aus m Zeilen und n Spalten. β1 β2 b= . .. betam ist eine m × 1-Matrix. Das Gleichungssystem (2.1) kürzen wir mit Ax = b ab. Besondere Matrizen sind die Einheitsmatrizen 1 0 0 ··· 0 0 1 0 · · · 0 In = . .. .. . 0 0 0 ··· 1 in K(n,n) . Der Index wird weggelassen, wenn n aus dem Zusammenhang hervorgeht. Die Nullmatrix 0m,n ist die m × n-Matrix, deren sämtlichen Einträge 0 sind. Auch hier lassen wir den Index weg, wenn die Größe aus dem Zusammenhang ersichtlich ist. Gilt m = n, so schreiben wir einfach 0n . 2.5 Elementare Zeilenumformungen Gegeben sei eine m × n-Matrix A mit Einträgen aus K. Wir erlauben nun für die Zeilen von A folgende Zeilenumformungen: [E1] Multiplikation der r-ten Zeile mit γ ∈ K, γ 6= 0. [E2] Addition des γ-fachen der s-ten Zeile zur r-ten Zeile (γ ∈ K). [E3] Vertauschen von Zeile r und s. Diese Umformungen sind Abbildungen K(m,n) → K(m,n) , die wir auch wie folgt beschreiben können: zu [E1] Er (γ) : K(m,n) → K(m,n) A = (αi,j ) 7→ A′ = (α′i,j ) wobei α′i,j = ( αi,j γ · αr,j 34 wenn i 6= r sonst zu [E2] K(m,n) A = (αi,j ) Es,r (γ) : wobei α′i,j = ( → K(m,n) 7 → A′ = (α′i,j ) αi,j αr,j + γ · αs,j wenn i 6= r sonst zu [E3] Es,r : wobei α′i,j K(m,n) A = (αi,j ) αi,j = αs,j αr,j → K(m,n) 7 → A′ = (α′i,j ) wenn i 6= s, r wenn i = r wenn i = s Satz 2.5.1 (1.) Er (γ −1 ) = Er (γ)−1 . (2.) Es,r (γ −1 ) = Es,r (γ)−1 . (3.) Es,r = E−1 s,r , d.h. insbesondere, dass die oben definierten Abbildungen bijektiv sind. Definition 2.5.2 Zwei Matrizen A und B heißen zeilenäquivalent wenn B durch endlich viele elementare Zeilenumformungen aus A hervorgeht. Satz 2.5.3 Zeilenäquivalenz ist eine Äquivalenzrelation. Beweis Nicht ganz offensichtlich ist die Symmetrie. Die folgt aber aus Satz 2.5.1, weil elementare Zeilenumformungen durch ebensolche wieder rückgängig gemacht werden können. Satz 2.5.4 Sind A und B zeilenäquivalent, so sind die beiden homogenen Gleichungssysteme Ax = 0 und Bx = 0 äquivalent. Wir werden später sehen, dass auch die Umkehrung gilt. Nun ist die Strategie zum Lösen linearer Gleichungssysteme klar: Man versucht, die Matrix A durch elementare Zeilenumformungen in eine “möglichst” einfache Form zu bringen, die dann leicht lösbar ist. 2.6 Gauß-Jordan-Verfahren 35 Definition 2.6.1 Sei A ∈ K(m,n) . Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 6= 0 in jeder Zeile 6= 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1] enthält, hat alle anderen Einträge = 0. [Z3] Keine Nullzeile steht oberhalb einer Zeile 6= 0. [Z4] Die Zeilen 1, . . . r seien die Zeilen 6= 0. Die 1-Einträge nach [Z1] treten an den Positionen (1, j1 ), . . . , (r, jr ) auf. Dann gilt j1 < j2 < . . . < jr . Satz 2.6.2 Jede Matrix A ist zeilenäquivalent zu einer Matrix in zeilenreduzierter Normalform. Beweis Wir wollen diesen Satz algorithmisch beweisen, d.h. wir wollen ein Verfahren angeben, wie man A in zeilenreduzierte Form bringen kann. Das hier angegebene Verfahren heißt der Gauß-Jordan Algorithmus. Zunächst wollen wir erklären, was ein Pivotschritt ist. Sei dazu A = (αi,j ) eine beliebige m × n-Matrix, αr,s 6= 0. Dann sei Pr,s die Hintereinanderausführung folgender elementarer Zeilenumformungen: Er,i (− αi,s ), αr,s i = 1, . . . , m, i 6= r. 1 sowie abschließend Er ( αr,s ). Dadurch wird aus der s-ten Spalte von B 0 0 .. . 0 1 0 . .. 0 wobei der Eintrag 1 an der r-ten Position steht. Nun zum Verfahren: Wir setzen r = 1 und verfahren mit der Matrix A wie folgt: 36 Suche die erste Spalte jr α1,jr .. . αm,jr so, dass nicht alle αr,jr , . . . , αm,jr gleich 0 sind. Sonst STOP, der Algorithmus terminiert. Durch Zeilenvertauschungen erreicht man αr,jr 6= 0. Dann pivotisiere Pr,jr . Die so erhaltene Matrix nennen wir jetzt A und setzen r auf r + 1. Nun wiederholen wir den oben beschriebenen Schritt. Das Verfahren terminiert, weil jr < jr+1 gilt. Die Anzahl Zeilen 6= 0 in einer Matrix, die zeilenreduziert ist, nennt man den Rang r der Matrix. Es ist zunächst nicht klar, ob der Rang eine Invariante unter Zeilenäquivalenz ist (das ist zwar der Fall, erfordert aber einigen Aufwand, es zu beweisen; wir können den Beweis erst führen, wenn wir einiges über Vektorräume wissen). Wenn A in zeilenreduzierter Normalform mit r Zeilen 6= 0 ist, dann können die n− r Variablen xi , die zu den Spalten i 6= j1 , . . . jr gehören, frei gewählt werden. Wir sagen auch, das System hat n − r Freiheitsgrade! 2.7 Gauß-Verfahren Zum Lösen von linearen Gleichungssystemen genügt es, die Matrix in zeilenreduzierte Form zu bringen. Dazu ist es nicht nötig, dass die Einträge über den Pivots an den Stellen (i, jr ) alle 0 sind, und der (i, jr )-Eintrag muss auch nicht auf 1 normiert werden. Definition 2.7.1 Eine Matrix A ∈ K(m,n) heißt zeilenreduziert, wenn gilt: [ZR1] Keine Nullzeile steht oberhalb einer Zeile 6= 0, d.h. die ersten r Zeilen seien die Zeilen 6= 0. [ZR1] Wenn der erste Eintrag 6= 0 in Zeile i in der Spalte ji auftritt, so gilt j1 < j2 . . . < jr . Man kann eine Matrix offenbar mit weniger Aufwand in zeilenreduzierte Form als in zeilenreduzierte Normalform bringen. Wir verwenden dazu ein ähnliches Verfahren wie zuvor, wobei wir den Schritt Pr,s durch die Hintereinanderausführung von αi,s Er,i (− ), i = r + 1, . . . , m, αr,s 37 ersetzen. Wir nennen dieses Verfahren das Gauß-Verfahren Bemerkung 2.7.2 (1.) Man kommt beim Gauß-Verfahren ohne die Umformungen [E1] aus. (2.) Wir werden später sehen, dass jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent ist. Das ist der Grund, warum man von einer Normalform spricht. Es gibt verschiedene zeilenreduzierte Matrizen, die zeilenäquivalent sind. (3.) Das (einfachere) Gauß-Verfahren ist ausreichend, wenn man lineare Gleichungssysteme lösen möchte. (4.) Es sei noch einmal darauf hingewiesen, dass das Gauß- und das GaußJordan-Verfahren über allen Körpern funktioniert. Es funktioniert i.a. nicht, wenn man Gleichungen über Ringen lösen möchte. 2.8 Lösungsmengen linearer Gleichungssysteme Wir wollen hier einige einfache Folgerungen notieren, die aus der Tatsache folgen, dass jede Matrix in zeilenreduzierte Form gebracht werden kann. Die Sätze sind aber noch etwas unbefriedigend, weil wir nicht zeigen können, dass der Rang einer Matrix (vgl. Abschnitt 2.6) vernünftig definiert ist. Satz 2.8.1 Sei A ∈ K(m,n) mit m < n. Dann hat das lineare Gleichungssystem Ax = 0 mindestens eine Lösung x 6= 0. Beweis Nach Umformung von A in zeilenreduzierte Form gibt es mindestens einen Freiheitsgrad, weil r < n gilt. Dabei ist r die Anzahl der Zeilen 6= 0. Satz 2.8.2 Sei A ∈ K(n,n) . Dann gilt: Ax = 0 hat nur die triviale Lösung ⇔ A ist zeilenäquivalent zu I. Beweis “⇐”: klar. “⇒”: Angenommen, A ist zu einer Matrix in zeilenreduzierter Form äquivalent, die r < n Zeilen 6= 0 hat. Dann hat A aber eine Lösung x 6= 0, Widerspruch zur Annahme. Corollary 2.8.3 A ∈ K(n,n) ist zeilenäquivalent zu I ⇔ A ∈ K(n,n) ist äquivalent zu I Inhomogene Systeme Ax = b lassen sich im Prinzip genauso lösen wie homogene Systeme: Die Umformungen, die auf die Zeilen von A ∈ K(m,n) angewendet werden, wendet man auch auf b an. Genauer: Satz 2.8.4 Das lineare Gleichungssystem Ax = b hat dieselbe Lösungsmenge wie A′ x = b′ , wenn die erweiterte Matrix (A′ b′ ) durch elementare Zeilenumformungen aus (A b) hervorgeht. 38 Wenn man die Matrix (A b) in zeilenreduzierte Form (A′ b′ ) gebracht hat, kann man also schnell erkennen, ob das System überhaupt eine Lösung hat: Es hat genau dann eine Lösung, wenn die Matrix A′ genauso viele Zeilen 6= 0 hat wie die Matrix (A′ b′ ). Wenn diese Zahl r ist, so hat das inhomogene System, ähnlich wie im homogenen Fall, genau n − r Freiheitsgrade. 2.9 Matrixmultiplikation Wir wollen jetzt ein etwas vertieftes Verständnis von elementaren Zeilenumformungen sowie von Satz 2.8.2 bekommen. Dazu müssen wir eine Multiplikation auf der Menge der Matrizen einführen, die zunächst sehr künstlich wirkt: Definition 2.9.1 (Matrizenmultiplikation) Sei A ∈ K(m,n) , B ∈ K(n,p) , A = (αi,j ) und B = (βi,j ). Dann ist C := A · B eine m × p-Matrix (γi,j ) mit γi,j := n X αi,k βk,j . k=1 Achtung: Man kann nicht alle Matrizen miteinander multiplizieren. Die Größen der Matrizen müssen zueinander passen! Jetzt wird klar, dass die Notation Ax = b sinnvoll ist. Es handelt sich hier um eine Matrixgleichung β1 x1 α1,1 . . . α1,n .. .. · .. = .. . . . . . αm,1 βm xn . . . αm,n Die Matrizenmultiplikation ist eine binäre Verknüpfung. Diese Verknüpfung ist sicherlich nicht kommutativ, weil ja evtl. das Produkt AB definiert ist, nicht aber BA. Aber selbst, wenn sowohl AB als auch BA erklärt sind (wenn also sowohl A als auch B in K(n,n) liegen), kann AB 6= BA gelten: 1 0 0 1 0 1 = 0 0 0 0 0 0 aber 0 0 1 1 0 0 0 0 = 0 0 0 0 Das Beispiel zeigt auch, dass das Produkt von zwei Matrizen 0 sein kann. Man kann zeigen, dass das Produkt von Matrizen assoziativ ist. Wir können auch noch eine (komponentenweise) Addition von Matrizen einführen: 39 Definition 2.9.2 (Matrizenaddition) Sei A ∈ K(m,n) , B ∈ K(m,n) , A = (αi,j ) und B = (βi,j ). Dann ist C := A + B eine m × n-Matrix (γi,j ) mit γi,j := αi,j + βi,j . Man kann nun zeigen: Satz 2.9.3 Die Matrizen (K(n,n) , +, ·, 0, I) bilden einen im allgemeinen nichtkommutativen Ring mit neutralem Element I. Beweis (Skizze) Nicht trivial ist nur die Assoziativität der Multipliklation, die man aber nachrechnen kann. Wir wollen nun zeigen, dass elementare Zeilenumformungen von A nichts anderes bedeuten als die Multiplikation der Matrix A von links mit einer sogenannten Elementarmatrix. Definition 2.9.4 Elementarmatrizen sind diejenigen quadratischen Matrizen, die aus I durch eine elementare Zeilenumformung hervorgehen. Es gibt drei Typen von Elementarmatrizen (γi,j ): Er (γ) = (γi,j ) mit Es,r (γ) = (γi,j ) mit 0 = 1 γ Es,r = (γi,j ) mit γ = 1 0 γi,j γi,j γi,j 1 = 1 0 wenn i 6= j wenn i = j, i 6= r wenn i = j = r wenn i = r, j = s wenn i = j sonst wenn i = j, i 6= r, s wenn (i, j) = (r, s) oder (s, r) sonst Überlegen wir uns das für Es,r = (γi,j ). Wir betrachten den (i, j)-Eintrag α′i,j = (Es,r · A)i,j 40 von Es,r · A. Es gilt α′i,j = n X γi,k αk,j k=1 Für i 6= r gilt offenbar α′i,j = αi,j . Für i = r erhalten wir α′r,j = γαs,j + αr,j . Lemma 2.9.5 (1.) Er (γ) · Er (γ −1 ) = Er (γ −1 ) · Er (γ) = I (2.) Es,r (γ) · Es,r (−γ) = Es,r (−γ) · Es,r (γ) = I (3.) Er,s · Er,s = I d.h. zu jeder Elementarmatrix E gibt es eine Elementarmatrix E′ mit EE′ = E′ E = I. Aus naheliegenden Gründen wird E′ mit E−1 bezeichnet. Satz 2.9.6 Seien A, B ∈ K(m,n) . Dann ist B zeilenäquivalent zu A genau dann wenn es ein Produkt P von Elementarmatrizen gibt mit A = PB, P ∈ K(n,n) . Wir haben für quadratische Matrizen gesehen, dass A zu I zeilenäquivalent sein kann, d.h. I = PA, wobei z.B. P = E1 . . . Er , wobei die Ei Elementarmatrizen sind. Dann gilt I = P·A I = E1 · · · Er · A E−1 = E2 · · · Er · A 1 ... = ... = A −1 −1 E−1 r Er−1 . . . E1 −1 −1 E−1 r Er−1 . . . E2 = AE1 ... = ... I = AP −1 −1 −1 Wir bezeichnen E−1 . Dann gilt für zeilenäquivalente Mar Er−1 . . . E1 als P −1 trizen PB = A und B = P A. Definition 2.9.7 Wir nennen A ∈ K(n,n) invertierbar wenn es eine Matrix B gibt mit AB = I. Satz 2.9.8 A ∈ K(n,n) invertierbar ⇔ A zeilenäquivalent zu I. Beweis “⇐”: klar “⇒”: Angenommen, A ist nicht zu I zeilenäquivalent, aber invertierbar, z.B. AB = I. Dann hat eine zeilenreduzierte Normalform von A eine Nullzeile, ist 41 also nicht invertierbar. Es gibt also ein Produkt P von Elementarmatrizen so, dass PA nicht invertierbar ist, aber P und A sind invertierbar. Dann ist aber (PA)(BP−1 ) = I, also ist PA doch invertierbar. Korollar 2.9.9 A ist invertierbar zen. ⇔ A ist Produkt von Elementarmatri- Wenn AB = I, dann ist auch BA = I. Ferner gibt es nur eine Matrix B mit AB = I. Beweis Das A genau dann invertierbar ist wenn es ein Produkt von Elementarmatrizen ist, folgt aus Satz 2.9.6 und 2.9.8. Wenn AB = I und A das Produkt von Elementarmatrizen ist, dann gilt nach den Bemerkungen vor Satz 2.9.8 auch BA = I. Beachten Sie bitte, dass diese Vertauschbarkeit nur gilt, weil A Produkt von Elementarmatrizen ist. Nun zur Eindeutigkeit: AB = BA = I und AB′ = I. Dann gilt B = B(AB′ ) = (BA)B′ = B′ . Wir können dieses Korollar direkt in einen Algorithmus zur Bestimmung der Inversen von A umsetzen (siehe Vorlesung). Bemerkung 2.9.10 Es ist nicht offensichtlich, dass aus AB = I folgt BA = I, zumindest folgt das nicht aus den Rechenregeln für beliebige Ringe mit 1. Wir haben hier die besondere “Struktur” des Matrizenrings benutzt. In beliebigen Ringen R wird Invertierbarkeit wie folgt definiert: Es gibt zu a ∈ R ein b ∈ R mit a · b = b · a = 1. Man verlangt also Invertierbarkeit von beiden Seiten! Man kann dann, wie oben für die Matrizen getan, die Eindeutigkeit des inversen Elementes zeigen: Lemma 2.9.11 Sei (R, +, ·, 0, 1) ein Ring mit 1. Dann gibt es zu a ∈ R höchstens ein Element b mit a · b = b · a = 1. Der folgende Satz fasst noch einmal zusammen, was für lineare Gleichungssysteme Ax = b und die Invertierbarkeit von A gilt. Satz 2.9.12 Sei A ∈ K(n,n) . Dann sind die folgenden Aussagen äquivalent: (1.) A ist invertierbar. (2.) Ax = 0 hat genau eine Lösung. 42 (3.) Ax = b hat für ein b genau eine Lösung. (4.) Ax = b hat für jedes b genau eine Lösung. (5.) A ist zeilenäquivalent zu I. (6.) A ist äquivalent zu I. Beweis Die Äquivalenz von (1.), (2.), (5.) und (6.) folgt aus Satz 2.9.8 und Korollar 2.8.3. Wenn wir die inhomogenen Systeme in (3.) und (4.) umformen, erhalten wir A′ x = b′ für eine zeilenreduzierte Normalform A′ . Wenn diese Matrix eine Nullzeile hat, dann hat das System A′ x = b′ mehr als eine Lösung (weil nämlich eine Variable frei gewählt werden kann), oder aber keine Lösung (wenn die Nullzeile zu einer Gleichung 0x1 + 0x2 + . . . + 0xn = β 6= 0 gehört). Das heißt aber, dass A′ x = b′ nur dann eindeutig lösbar ist, wenn A = I. Das liefert (1.) ⇔ (3.) sowie (1.) ⇔ (4.) 2.10 Zusammenfassung • Sie haben gelernt, wie man lineare Gleichungssysteme löst. Das ist eines der wesentlichen Ziele der Vorlesung! • Sie sollen lineare Gleichungssysteme über beliebigen Körpern lösen können. • Die theoretische Behandlung von linearen Gleichungssystemen ist noch etwas unbefriedigend, weil der Rang noch nicht eindeutig definiert werden konnte. Unbefriedigend ist auch noch, dass wir nicht wissen, ob jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform äquivalent ist. • Sie haben einige sehr wichtige algebraische Strukturen (Gruppen, Ringe, Körper) kennengelernt. • Neben R und Q sollten Sie nun auch in den endlichen Körper Fp sowie den komplexen Zahlen C rechnen können. • Machen Sie sich mit der modularen Arithmetik vertraut. • Sie haben eine Anwendung elementarer Zahlen- und Gruppentheorie (RSAVerfahren) kennengelernt. • Sie können Matrizen invertieren. • Sie können Matrizen miteinander multiplizieren und haben verstanden, das elementare Zeilenumformungen Matrizenmultiplikation von links mit Elementarmatrizen sind. 43