Lineare Gleichungssysteme

Werbung
Kapitel 2
Lineare Gleichungssysteme
Wir wollen uns in diesem Abschnitt sehr ausführlich mit linearen Gleichungssystemen beschäftigen. Üblicherweise macht man das erst, nachdem man die
Theorie der Vektorräume und der linearen Abbildungen auf Vektorräumen behandelt hat.
Vieles mag Ihnen von der Schule her vertraut sein. Aber eine wichtige Erweiterung gegenüber dem Schulstoff werden wir jetzt gleich im nächsten Abschnitt
einführen. Wir wollen Gleichungssysteme nämlich nicht nur über den Ihnen
bekannten Zahlbereichen R und Q betrachten, sondern über beliebigen sogenannten Körpern.
2.1
Gruppen, Ringe, Körper
Körper sind algebraische Objekte, in denen ähnliche Rechenregeln gelten wie in
R oder Q (Multiplikation, Addition, Assoziativgesetz, Distributivgesetz). Es gibt
aber noch mehr algebraische Strukturen als nur R und Q, in denen solche Regeln
gelten. Dazu wollen wir zunächst die entscheidenden Rechenregeln formalisieren
und dann weitere Körper kennenlernen. Ein Hauptziel der linearen Algebra ist
es, lineare Gleichungssysteme über solchen Körpern zu lösen.
Definition 2.1.1 Sei K eine nicht leere Menge, auf der zwei binäre Verknüpfungen + und · definiert sind, die folgende Eigenschaften haben:
[A1]
x+y =y+x
∀x, y ∈ K.
[A2]
x + (y + z) = (x + y) + z
[A3]
Es gibt ein Element 0 ∈ K mit der Eigenschaft x+0 = x
∀x, y, z ∈ K.
23
∀x ∈ K.
[A4]
Zu jedem x ∈ K gibt es ein Element y ∈ K mit x + y = 0. Bezeichnung für dieses Element y = −x.
Die Regel [A1] ist die Kommutativität der Addition, [A2] die Assoziativität,
[A3] sagt etwas über die Existenz eines neutralen Elementes und [A4] sagt
etwas über die Existenz eines inversen Elementes.
Nun zur Multiplikation. Dazu setzen wir K ∗ := K \ {0}.
[M1’]
x·y =y·x
∀x, y ∈ K.
[M2’]
(x · y) · z = x · (y · z)
[M3’]
Es gibt ein Element 1 ∈ K∗ mit x · 1 = x
[M4’]
Zu jedem x ∈ K∗ gibt es ein Element y ∈ K∗ mit x · y = 1. Bezeichnung für dieses Element y = x−1 .
∀x, y, z ∈ K
∀x ∈ K.
Bislang stehen Addition und Multiplikation einfach nur nebeneinander. Interessant wird es durch das Distributivgesetz:
[D]
x · (y + z) = (x · y) + (x · z)
∀x, y, z ∈ K.
Um deutlich zu machen, dass nicht die Menge K, sondern die Menge zusammen mit den Verknüpfungen den Körper bilden, schreiben wir den Körper
manchmal auch als “Tupel” (K, +, ·, 0, 1).
Beispiel 2.1.2 Wie schon erwähnt sind R und Q Beispiele von Körpern. Die
ganzen Zahlen Z sind kein Körper, weil [M4] nicht erfüllt ist. Die natürlichen
Zahlen (einschließlich der 0) sind kein Körper, weil [M4] und [A4] nicht erfüllt
sind.
Lemma 2.1.3 Sei K ein Körper. Dann gilt:
(1.) x · 0 = 0 · x
∀x ∈ K.
(2.) −x = (−1) · x
(3.) x · y 6= 0
Beweis (1.)
∀x ∈ K.
∀x, y ∈ K∗ .
Es gilt
x · 0 + x = x · 0 + x · 1 = x · (0 + 1) = x · 1 = x,
also x · 0 = 0 (Addiere auf beiden Seiten (−x).
(2.) 0 = 0 · x = (1 + (−1)) · x = 1 · x + (−1) · x = x + (−1) · x, also muss (−1) · x
das eindeutig bestimmte additiv inverse Element von x sein.
24
(3.) Angenommen x · y = 0, aber x, y 6= 0. Dann x · x−1 · y · y −1 = 1, aber auch
= 0 wegen xy = 0 und (1.). Das liefert den Widerspruch 0 = 1.
Teil (3.) von Lemma 2.1.3 zeigt, dass die Multiplikation auf K∗ abgeschlossen
ist, d.h. das Produkt von zwei Elementen in K∗ liegt wieder in K∗ - Die Eigenschaften der Multiplikation auf K∗ sind identisch mit denen der Addition auf K
(neutrales Element, Assoziativität, Kommutativität, inverses Element). Solche
algebraischen Strukturen treten sehr häufig auf, und man nennt sie Gruppen
(wobei das Kommutativgesetz nicht unbedingt gelten muss):
Definition 2.1.4 (Gruppen) Sei G eine nicht leere Menge, auf der eine
Verknüpfung · definiert ist. Dann heißt (G, ·) eine Gruppe, falls gilt
[G1]
x · (y · z) = (x · y) · z
∀x, y, z ∈ G.
[G2]
Es gibt ein Element 1 ∈ G mit der Eigenschaft x · 1 = x
(neutrales Element).
[G3]
Zu jedem x ∈ G gibt es ein Element y ∈ G mit x·y = 1. Bezeichnung
für dieses Element y = x−1 (inverses Element).
∀x ∈ G
Die Gruppe heißt abelsch oder kommutativ, wenn zusätzlich gilt
[Ab]
x·y =y·x
∀x, y ∈ G.
Wir weisen auf folgendes hin: Das Element 1 ist ein neutrales Element, wenn
wir es von rechts mit x verknüpfen. Wir finden zu x ein inverses Element y, das
wir von rechts mit x verknüpfen. Das folgende Lemma zeigt u.a., dass wir rechts
auch durch links ersetzen können.
Lemma 2.1.5 Sei G eine Gruppe. Dann sind 1 und x−1 eindeutig bestimmt
und es gilt auch 1 · x = x ∀x ∈ G sowie x−1 · x = 1 ∀x ∈ G.
Beweis : Wir überlegen uns zunächst x−1 x = 1 (wir lassen hier, wie das oft
üblich ist, das Verknüpfungszeichen · weg):
x−1 x = (x−1 x)(x−1 (x−1 )−1 ) = x−1 (xx−1 )(x−1 )−1 = x−1 (x−1 )−1 = 1,
d.h.
1 = xx−1 = x−1 x
∀x ∈ G
sowie
1 · x = (xx−1 )x = x(x−1 x) = x · 1 = x.
Damit können wir schnell zeigen, dass das neutrale Element eindeutig bestimmt
ist:
25
Angenommen, es gibt ein Element 1′ 6= 1 mit der Eigenschaft x · 1 = x = x · 1′
für alle x ∈ G. Wähle x = 1. Dann gilt 1·1′ = 1. Somit ist 1′ das inverse Element
zu 1 und damit gilt auch, wie gerade gezeigt, 1′ · 1 = 1, aber auch 1′ · 1 = 1′ ,
weil ja 1 neutrales Element ist.
Ähnlich zeigt man auch die Eindeutigkeit des inversen Elementes.
Bemerkung 2.1.6 (1.) Der Beweis zeigt sogar noch etwas mehr, nämlich
x = (x−1 )−1 .
(2.) Es sei darauf hingewiesen, dass wir in der Definition der Gruppe wirklich
sowohl ein rechtsneutrales als auch ein rechtsinverses Element gewählt haben.
Rechtsneutral und Linksinvers kann andere (weniger interessante) algebraische
Strukturen liefern.
(3.) Man benutzt die Bezeichnung + meistens nur für kommutative Verknüpfungen.
(4.) Ein Körper ist ein algebraisches Objekt mit zwei Verknüpfungen, so dass K
bzgl. der Addition und K∗ bzgl. der Multiplikation kommutative Gruppen sind,
und es gilt das Distributivgesetz.
(5.) Die binäre Verknüpfung · ist formal eine Abbildung · : G×G → G; (g, h) 7→
g · h.
Definition 2.1.7 Sei (G, ·) eine Gruppe. Dann heißt eine nicht leere Teilmenge H ⊆ G eine Untergruppe von G (Bezeichnung H ≤ G) falls (H; ·|H×H )
eine Gruppe ist.
Um zu zeigen, dass H eine Untergruppe ist, muss man im wesentlichen g · h ∈ H
zeigen für alle g, h ∈ H, sowie h−1 ∈ H für alle h ∈ H. Das Assoziativgesetz
gilt, weil das Assoziativgesetz in G gilt!
Eine der wichtigsten Gruppen überhaupt ist die Gruppe der bijektiven Abbildungen:
Definition 2.1.8 Sei X eine Menge. Die Menge der bijektiven Abbildungen
f : X → X heißt die symmetrische Gruppe auf X, Bezeichnung SX . Gilt
X = {1, . . . , n}, so schreibt man auch Sn .
In dieser Definition steckt auch ein Satz, dass die bijektiven Abbildungen eine
Gruppe bilden. Das ist aber klar, weil die Verknüpfung assoziativ ist, weil es ein
neutrales Element idX gibt, weil es eine inverse Abbildung gibt, und weil die
Verkettung bijektiver Abbildungen wieder bijektiv ist.
Lemma 2.1.9 |Sn | = n · (n − 1) · (n − 2) · · · 2 · 1 =: n!
26
2.2
Neue Körper: C und Fp
Definition 2.2.1 Wir definieren C als die Menge {(x, y) : x, y ∈ R} zusammen mit den zwei Verknüpfungen + und · wie folgt:
(x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ )
(x, y) · (x′ , y ′ ) = (xx′ − yy ′ , xy ′ + x′ y).
Diese Definition ist sehr sinnvoll, wie der folgende Satz zeigt:
Satz 2.2.2 C ist ein Körper mit dem additiv neutralen Element (0, 0), dem
multiplikativ neutralen Element (1, 0) sowie den inversen Elementen
−(x, y) :=
−1
(x, y)
:=
(−x, −y)
x
−y
p
,p
x2 + y 2
x2 + y 2
!
.
Beweis Man rechnet die Regeln [A1] bis [A4], [D] sowie [M1] bis [M4] nach.
Bemerkung 2.2.3 Die Menge {(x, 0) : x ∈ R} ⊆ C ist selber ein Körper, den
wir mit R “identifizieren” können, d.h. wir identifizieren das Element (x, 0) in
C mit x ∈ R. Auf diese Weise können wir R als “Teilkörper” von C auffassen
(präzise Definition folgt). Das Element (0, 1) bekommt einen besonderen Namen
i und heißt “imaginäre Einheit”. Es gilt i2 = (−1, 0), was wir ja auch als die
reelle Zahl −1 auffassen wollen. Man schreibt statt (x, y) oft auch x+ iy, x, y ∈ R.
Dann wird klar, warum die Multiplikation gerade so gewählt ist, wie sie gewählt
ist:
(x + iy)(x′ + iy ′ ) =
xx′ + i2 yy ′ + ixy ′ + ix′ y
=
xx′ − yy ′ + i(xy ′ + x′ y).
Definition 2.2.4 Sei (K, +, ·, 0, 1) ein Körper. Ist F ⊆ K, und gilt 0, 1 ∈ F,
so heißt F ein Teilkörper von K, falls x + y ∈ F, xy ∈ F, −x ∈ F sowie
x−1 ∈ F für alle x, y ∈ F gilt.
Um zu zeigen, dass F ein Teilkörper ist, müssen Sie nicht mehr alle Rechenregeln
überprüfen, sondern nur die Abgeschlossenheit von + und · in F. Machen Sie
sich das an dem Beispiel klar, dass die Menge {(x, 0) : x ∈ R} ein Teilkörper
von C ist. Auf eine formale Definition, was es heißt, diesen Teilkörper mit R zu
identifizieren, möchte ich hier an dieser Stelle (noch) verzichten.
Der Körper R hat auch einen Teilkörper, nämlich Q. Man kann sich leicht überlegen, dass jeder Teilkörper von R diesen Teilkörper Q enthält.
27
Neben Q, R und C spielen Körper mit nur endlich vielen Elementen in den
Anwendungen eine zunehmende Bedeutung.
Beispiel 2.2.5 Die Menge {0, 1} mit den Verknüpfungen 0 + 1 = 1 + 0 = 1,
1 + 1 = 0 + 0 = 1 sowie der Multiplikation 1 · 1 = 1 ist ein Körper (mit nur zwei
Elementen).
Unser Ziel wird sein, Körper zu konstruieren, die p Elemente haben, wobei p
eine Primzahl ist.
Definition 2.2.6 Sei n ∈ N, und sei ≡n die in 1.4.7 definierte Äquivalenzrelation. Dann definieren wir
Zn := {[0]≡n , . . . , [n − 1]≡n }
als die Menge der Äquivalenzklassen von ≡n . Bezeichnung: [i]≡n =: i.
Es sollte klar sein, dass |Zn | = n, und dass es keine weiteren Äquivalenzklassen
gibt.Wir definieren nun auf Zn eine Addition und eine Multiplikation:
[An]
i + j := i + j
[Mn]
i · j := i · j
Beispiel 2.2.7 Sei n = 4. Dann ist 5 + 7 = 12 = 0. Nun gilt 5 = 1 und 7 = 3.
Wenn wir diese anderen Repräsentanten wählen, um die Addition auszuführen,
erhalten wir 1 + 3 = 4 = 0, also dasselbe Ergebnis.
Satz 2.2.8 [An] und [Mn] sind wohldefiniert, d.h. für i = i′ und j = j ′ gilt
i + j = i′ + j ′
i · j = i′ · j ′
Bemerkung 2.2.9 Dieses Problem der “Wohldefiniertheit” tritt immer dann
auf, wenn man zur Erklärung einer mathematischen Funktion “Repräsentanten” benutzt. Man muss dann zeigen, dass das Ergebnis der Funktionsauswertung unabhängig von der Auswahl des Repräsentanten ist Die Funktion, die wir
hier vorliegen haben, ist die binäre Verknüpfung + (bzw. ·), die man auch als
Abbildung + : Zn × Zn → Zn auffassen kann.
Beweis (Beweis von Satz 2.2.8) [An] Nach Voraussetzung gilt n | (i−i′ )
und n | (j − j ′ ), also na = i − i′ und nb = j − j ′ für geeignete a, b ∈ Z. Nun ist
na + nb = i − i′ + j − j ′ = (i + j) − (i′ + j ′ ),
also n | ((i + j) − (i′ + j ′ )), d.h. i + j = i′ + j ′ .
28
[Mn]
Beachte
n | (i − i′ ) ⇒
n | (ij − i′ j)
′
n | (i′ j − i′ j ′ )
n | (j − j ) ⇒
Aus diesen beiden Gleichungen folgt durch Addition n | (ij−i′ j ′ ), also ij = i′ j ′ .
Satz 2.2.10 (Zn , +, ·, 0, 1) erfüllt die Regeln [A1],[A2], [A3],[A4], [M1’], [M2’],
[M3’] sowie [D].
Beweis Alle Rechenregeln folgen direkt aus der Definition.
Korollar 2.2.11 (Zn , +, 0) ist eine abelsche Gruppe.
Beachten Sie, dass es in Zn nicht alle Elemente multiplikativ invertierbar sind.
Ferner ist die Menge Zn \ {0} bzgl. der Multiplikation im allgemeinen nicht
abgeschlossen. Wenn n = a · b gilt, a, b 6= n, a, b ∈ N, dann ist a · b = n = 0. Also
kann Zn kein Körper sein, wenn n eine zusammengesetzte Zahl ist.
Die algebraische Struktur, die wir hier vorliegen haben, nennt man einen kommutativen Ring mit 1. Also: Wenn [M4] nicht gilt, spricht man von einem
kommutativen Ring mit 1. Man kann auch “kommutativ” und “mit 1” weglassen, muss dann aber aufpassen: Im nicht kommutativen Fall müssen wir fordern,
dass 1 von beiden Seiten ein neutrales Element ist. Wir fassen dies zusammen:
Definition 2.2.12 Sei R eine nicht leere Menge mit zwei Verknüpfungen +
und ·. Dann heißt R ein Ring, wenn gilt:
[A1]
x+y =y+x
[A2]
x + (y + z) = (x + y) + z
[A3]
Es gibt ein Element 0 ∈ R mit der Eigenschaft x+0 = x
[A4]
Zu jedem x ∈ R gibt es ein Element y ∈ R mit x + y = 0. Bezeichnung für dieses Element y = −x.
[Ass]
∀x, y ∈ R.
(x · y) · z = x · (y · z)
∀x, y, z ∈ R.
∀x ∈ R.
∀x, y, z ∈ K
[D1]
x · (y + z) = (x · y) + (x · z)
∀x, y, z ∈ R.
[D2]
(y + z) · x = (y · x) + (z · x)
∀x, y, z ∈ R.
Wenn zusätzlich gilt
[NE]
Es gibt ein Element 1 ∈ R \ {0} mit x · 1 = x = 1 · x ∀x ∈ K.
so sagt man, R sei ein Ring mit neutralem Element 1. Gilt
[K]
x·y =y·x
∀x, y ∈ R,
so heißt der Ring kommutativ.
29
Das Standardbeispiel eines kommutativen Rings mit 1 ist der Ring der ganzen
Zahlen. Die Menge aller geraden Zahlen ist ein kommutativer Ring ohne 1.
Wir werden bald nicht kommutative Ringe kennenlernen. Aber jetzt endlich zur
Konstruktion endlicher Körper:
Satz 2.2.13 Ist p eine Primzahl, so ist (Zp , +, ·, 0, 1) ein Körper. Bezeichnung:
Fp .
Beweis Wir müssen nur [M4’] zeigen. Sei also x 6= 0. Dann betrachten wir die
p − 1 Elemente x · 1, . . . , x · p − 1. Weil p prim ist, taucht in dieser Liste das
Element 0 nicht auf: Sonst p | x · y für ein y ∈ {1, . . . , p − 1}, aber p teilt weder
x (sonst x = 0) noch y (wg. 1 ≤ y ≤ p − 1), das ist ein Widerspruch dazu, dass
p prim ist.
Wenn x kein Inverses hat, so muss in der Liste dieser Elemente also mindestens
ein Element mehrfach auftreten, also
x · i = x · i′
mit (obdA) i > i′ . Das liefert x·i − i′ = 0 mit 1 ≤ i−i′ ≤ p−1. Also würde doch
0 in der Liste auftreten, ein Widerspruch. Also sind alle Elemente verschieden,
und damit kommt auch 1 vor und es gibt zu x ein Inverses.
Bemerkung 2.2.14 In Fp gilt
1| + 1 +
{z. . . + 1} = 0.
p mal
Das ist ein ganz anderes Verhalten, als wir das für Q, R (und C) kennen.
Bemerkung 2.2.15 Wir können das multiplikativ inverse Element von x modulo p mit Hilfe des Euklidischen Algorithmus bestimmen. Dazu suchen wir die
Vielfachsummendarstellung des ggT von x und p. Wennn p eine Primzahl ist,
so ist ggT(p, x) = 1 ür 1 ≤ x ≤ p − 1. Wir berechnen die Vielfachsummendarstellung des ggT, finden also eine Darstellung 1 = ap + bx. Dann ist b offenbar
das Inverse von x.
2.3
Das Verschlüsselungsverfahren nach Rivest,
Shamir, Adleman (RSA, 1977)
Wir wollen die elementare Gruppen- und Zahlentheorie des vorhergehenden Kapitels ein wenig erweitern, um so eines der wichtigsten Verschlüsselungssysteme
der Gegenwart vorstellen zu können.
30
Definition 2.3.1 Sei G eine Gruppe. Die Ordnung eines Elementes g ∈ G
ist die kleinste Zahl n ∈ N so, dass g n = 1. Falls kein solches n existiert, so
ist die Ordnung von g unendlich.
Lemma 2.3.2 Ist n die Ordnung eines Elementes g ∈ G. so ist die Menge
hgi := {1, g, g 2 , . . . , g n−1 eine Untergruppe der Ordnung n von G. Diese Untergruppe heißt die von g erzeugte Untergruppe. Es ist die kleinste Untergruppe
von G, die g enthält.
Beweis g i ·g j = g i+j . Ist 0 ≤ i+j < n, so sind wir fertig, andernfalls i+j = n+s
für ein 0 ≤ s ≤ n − 1. Dann haben wir g i+j = g n · g s = g s , also g i · g j ∈<
langleh > rangle. Die Elemente 1, g, g 2, . . . , g n−1 sind alle verschieden wegen
der Minimalität von n. Ferner gilt (g i )−1 = g n−i .
In den Übungen sollen Sie zeigen, dass die Ordnung einer Untergruppe die Gruppenordnung teilt, also muss die Ordnung eines Elements g ∈ G die Gruppenordnung teilen.
Korollar 2.3.3 In einer endlichen Gruppe G gilt g |G| = 1.
Korollar 2.3.4 Sei p eine Primzahl. Dann gilt xp−1 ≡ 1mbox modp, falls
ggT(p, x) = 1.
Wir wollen jetzt die modulo n invertierbaren Elemente charakterisieren:
Satz 2.3.5
i ∈ Zn ist multiplikativ invertierbar
Beweis
des ggT.
⇔
ggT(i, n) = 1.
“⇐”: Das ist klar wegen der Vielfachsummendarstellung si+tn = 1
“⇒”: Angenommen es gibt eine Zahl s mit s | i und s | n, s 6= ±1. Dann
ist s ein Teiler von im für alle m ∈ N, also im ≡ 0 mod s. Wenn aber im ≡
1 mod n gilt, dann ist auch im ≡ 1 mod s, ein Widerspruch. Also müssen i und
n teilerfermd sein.
qed
Wenn wir mit Z∗n = {x ∈ Zn : x ist bezüglich · invertierbar die Gruppe (warum
ist das eine Gruppe?) der modulo n invertierbaren Elemente bezeichnen, so gilt
für alle x ∈ Z∗n :
∗
x|Zn | ≡ 1 mod n.
Ist z.B. n = p · q das Produkt von zwei Primzahlen, dann gilt x(p−1)(q−1) ≡
1 mod n für alle x mit ggT(x, n) = 1.
31
Das RSA-Verfahren wird benutzt, um vertrauliche Daten von Alice über einen
für jeden einsehbaren Kanal an Bob zu übertragen. Das geniale an dem Verfahren ist nun, dass man solche vertraulichen Daten übertragen kann, ohne sich vorher auf einen “geheimen Schlüssel” geeinigt zu haben. Wenn man beispielsweise
via Internet etwas bestellt und muss seine Kreditkartendaten übermitteln, dann
hatte man vorher nie Gelegenheit, mit dem online-shop über einen sicheren
Kanal einen geheimen Schlüssel auszutauschen. Natürlich könnte man das vorher mit einem gewöhnlichen Brief machen, aber dann hätte man ja auch gleich
die vertraulichen Daten mit der Post verschicken können! Also, wie wird das
Problem gelöst (und das hier vorgestellt Verfahren wird wirklich viel benutzt):
Alice möchte von Bob Nachrichten empfangen, und möchte es ihm ermöglichen,
diese “sicher” zu tun. Dazu wählt sie eine (große) Zahl n = pq, die das Produkt
von zwei Primzahlen ist. Alice kennt die Primfaktorzerlegung und kann deshalb
auch (p − 1)(q − 1) berechnen (das ist die Ordnung der Gruppe Z∗pq ). Nun wählt
sie ein Paar (e, d) von Zahlen mit e · d ≡ 1 mod (p − 1)(q − 1). Auch das ist kein
Problem. Beachten Sie: e · d = s(p − 1)(q − 1) + 1 für ein s. Nun behält sie e
als geheimen Schl”ussel für sich und macht e und n öffentlich bekannt. Wenn
Bob nun ein Geheimnis m an Alice schicken möchte, so schickt er me mod n (er
reduziert also modulo n, d.h. er dividiert me durch n und sendet nur den Rest).
Wir wollen als mögliche Geheimnisse nur Zahlen zulassen, die zu n teilerfremd
sind. Aber auch das stellt kein großes Problem dar, weil Bob mit den ihm zur
Verfügung stehen Daten leicht
ausrechnen kann, ob ggT(m, n) = 1 gilt. Alice
∗
kann nun (me )d = m1+s·|Zpq | ≡ m mod n ausrechnen.
Beispiel 2.3.6 Wir wählen die Primzahlen p = 7 und q = 11. Dann ist n = 77
und (p − 1)(q − 1) = 60. Alice wählt e = 13 und d = 37 (was man mit dem
Euklidischen Algorithmus ausrechnet). Bob will nun m = 2 senden. Dann sendet
er 213 ≡ 30 mod 77. Alice berechnet 3037 ≡ 2 mod 77.
Die Sicherheit des RSA Verfahrens basiert darauf, dass die Faktorisierung von
n in Primfaktoren schwierig ist. Sobald ein Angreifer die Zahlen p und q kennt,
kann er auch schnell modulo (p − 1)(q − 1) invertieren, er kann also aus der
Kenntnis von D auf e schließen.
In der Praxis werden Zahlen mit mehreren hundert Dezimalstellen verwendet.
2.4
Lineare Gleichungssysteme: Definitionen
Sei K ein Körper. Wir untersuchen Gleichungssysteme der Form
α1,1 x1
α2,1 x1
......
αm,1 x1
+
+
α1,2 x2
α2,2 x2
+ ... +
+ ... +
+
αm,2 x2
+ ... +
α1,n xn
α2,n xn
......
αm,n xn
=
=
=
β1
β2
...
βm
(2.1)
wobei αi,j , βi ∈ K, i = 1, . . . , m, j = 1, . . . , n. Wir haben hier m Gleichungen
und n Unbekannte. Wir suchen Lösungen mit xi ∈ K. Ein n-Tupel (x1 , . . . , xn ),
32
das dieses Gleichungssystem löst, heißt Lösung des Systems. In der Regel
gibt es viele Lösungen eines Systems. Die Menge aller Lösungen nennen wir die
Lösungsmenge.
Das Gleichungssystem heißt homogen, wenn β1 = β2 = . . . = βm = 0 gilt,
andernfalls inhomogen.
Beispiel 2.4.1 (1.) Jedes homogene Gleichungssystem hat mindestens eine
Lösung, nämlich x1 = x2 = . . . = xn = 0 (triviale Lösung).
(2.) Es gibt homogene Gleichungssysteme, die mehr als nur die triviale Lösung
haben. Das gilt insbesondere, wenn m < n ist (unterbestimmtes System, Beweis
später!).
(3.) Es gibt inhomogene Systeme, die unlösbar sind, solche mit genau einer
Lösung, und solche mit unendlich vielen Lösungen. Selbst im Fall m < n kann
es passieren, dass es keine Lösungen gibt.
Unser Ziel ist es, das Gleichungssystem in ein “äquivalentes” System umzuformen, das dieselben Lösungen besitzt, aber einfacher zu lösen ist.
Seien γ1 , . . . , γm ∈ K. Dann erfüllt jede Lösung von (2.1) auch die Gleichung
(γ1 α1,1 + γ2 α2,1 + . . . + γm αm,1 )x1 +
+ (γ1 α1,2 + γ2 α2,2 + . . . + γm αm,2 )x2 +
. . . + . . . + (γ1 α1,n + γ2 α2,n + . . . + γm αm,n )xn = γ1 β1 + γ2 β2 + . . . + γm βm .
Wir nennen eine solche Gleichung eine Linearkombination der Gleichungen in
(2.1). Wenn wir aus einem Gleichungssystem (GLS1) ein neues Gleichungssystem (GLS2) bilden, in dem jede Gleichung eine Linearkombination der Gleichungen aus (GLS1) ist, dann gilt:
(x1 , . . . , xn ) löst (GLS1)
⇒
(x1 , . . . , xn ) löst (GLS2)
Definition 2.4.2 Zwei Gleichungssysteme (GLS1) und (GLS2) heißen äquivalent wenn jede Gleichung von (GLS1) eine Linearkombination der Gleichungen aus (GLS2) ist und umgekehrt.
Satz 2.4.3 Äquivalente Gleichungssysteme haben dieselben Lösungsmengen.
Noch eine Definition:
Definition 2.4.4 Ein Rechteckschema


α1,1 · · · α1,n
A =  ···
··· 
αm,1 · · · αm,n
33
mit αi,j ∈ K heißt eine m × n-Matrix über K. Die Menge aller m × n-Matrizen
wird mit K(m,n) bezeichnet. Eine Matrix besteht aus m Zeilen und n Spalten.


β1
 β2 


b= . 
 .. 
betam
ist eine m × 1-Matrix. Das Gleichungssystem (2.1) kürzen wir mit Ax = b ab.
Besondere Matrizen sind die Einheitsmatrizen


1 0 0 ··· 0
0 1 0 · · · 0


In =  .
.. 
 ..
.
0 0 0 ··· 1
in K(n,n) . Der Index wird weggelassen, wenn n aus dem Zusammenhang hervorgeht.
Die Nullmatrix 0m,n ist die m × n-Matrix, deren sämtlichen Einträge 0 sind.
Auch hier lassen wir den Index weg, wenn die Größe aus dem Zusammenhang
ersichtlich ist. Gilt m = n, so schreiben wir einfach 0n .
2.5
Elementare Zeilenumformungen
Gegeben sei eine m × n-Matrix A mit Einträgen aus K. Wir erlauben nun für
die Zeilen von A folgende Zeilenumformungen:
[E1]
Multiplikation der r-ten Zeile mit γ ∈ K, γ 6= 0.
[E2]
Addition des γ-fachen der s-ten Zeile zur r-ten Zeile (γ ∈ K).
[E3]
Vertauschen von Zeile r und s.
Diese Umformungen sind Abbildungen K(m,n) → K(m,n) , die wir auch wie folgt
beschreiben können:
zu [E1]
Er (γ) :
K(m,n)
→ K(m,n)
A = (αi,j ) 7→ A′ = (α′i,j )
wobei
α′i,j
=
(
αi,j
γ · αr,j
34
wenn i 6= r
sonst
zu [E2]
K(m,n)
A = (αi,j )
Es,r (γ) :
wobei
α′i,j
=
(
→ K(m,n)
7
→
A′ = (α′i,j )
αi,j
αr,j + γ · αs,j
wenn i 6= r
sonst
zu [E3]
Es,r :
wobei
α′i,j
K(m,n)
A = (αi,j )


αi,j
= αs,j


αr,j
→ K(m,n)
7
→
A′ = (α′i,j )
wenn i 6= s, r
wenn i = r
wenn i = s
Satz 2.5.1 (1.) Er (γ −1 ) = Er (γ)−1 .
(2.) Es,r (γ −1 ) = Es,r (γ)−1 .
(3.) Es,r = E−1
s,r ,
d.h. insbesondere, dass die oben definierten Abbildungen bijektiv sind.
Definition 2.5.2 Zwei Matrizen A und B heißen zeilenäquivalent wenn B
durch endlich viele elementare Zeilenumformungen aus A hervorgeht.
Satz 2.5.3 Zeilenäquivalenz ist eine Äquivalenzrelation.
Beweis Nicht ganz offensichtlich ist die Symmetrie. Die folgt aber aus Satz
2.5.1, weil elementare Zeilenumformungen durch ebensolche wieder rückgängig
gemacht werden können.
Satz 2.5.4 Sind A und B zeilenäquivalent, so sind die beiden homogenen Gleichungssysteme Ax = 0 und Bx = 0 äquivalent.
Wir werden später sehen, dass auch die Umkehrung gilt.
Nun ist die Strategie zum Lösen linearer Gleichungssysteme klar: Man versucht,
die Matrix A durch elementare Zeilenumformungen in eine “möglichst” einfache
Form zu bringen, die dann leicht lösbar ist.
2.6
Gauß-Jordan-Verfahren
35
Definition 2.6.1 Sei A ∈ K(m,n) . Dann heißt A in zeilenreduzierter Normalform, wenn gilt:
[Z1]
Der erste Eintrag 6= 0 in jeder Zeile 6= 0 ist 1.
[Z2]
Jede Spalte, die eine 1 nach [Z1] enthält, hat alle anderen Einträge
= 0.
[Z3]
Keine Nullzeile steht oberhalb einer Zeile 6= 0.
[Z4]
Die Zeilen 1, . . . r seien die Zeilen 6= 0. Die 1-Einträge nach [Z1]
treten an den Positionen (1, j1 ), . . . , (r, jr ) auf. Dann gilt j1 < j2 <
. . . < jr .
Satz 2.6.2 Jede Matrix A ist zeilenäquivalent zu einer Matrix in zeilenreduzierter Normalform.
Beweis Wir wollen diesen Satz algorithmisch beweisen, d.h. wir wollen ein
Verfahren angeben, wie man A in zeilenreduzierte Form bringen kann. Das hier
angegebene Verfahren heißt der Gauß-Jordan Algorithmus.
Zunächst wollen wir erklären, was ein Pivotschritt ist. Sei dazu A = (αi,j ) eine
beliebige m × n-Matrix, αr,s 6= 0. Dann sei Pr,s die Hintereinanderausführung
folgender elementarer Zeilenumformungen:
Er,i (−
αi,s
),
αr,s
i = 1, . . . , m, i 6= r.
1
sowie abschließend Er ( αr,s
). Dadurch wird aus der s-ten Spalte von B
 
0
0 
 
 .. 
.
 
0 
 
1 
 
0 
 
.
 .. 
0
wobei der Eintrag 1 an der r-ten Position steht.
Nun zum Verfahren: Wir setzen r = 1 und verfahren mit der Matrix A wie
folgt:
36
Suche die erste Spalte jr


α1,jr
 .. 
 . 
αm,jr
so, dass nicht alle αr,jr , . . . , αm,jr gleich 0 sind. Sonst STOP, der Algorithmus
terminiert. Durch Zeilenvertauschungen erreicht man αr,jr 6= 0. Dann pivotisiere Pr,jr .
Die so erhaltene Matrix nennen wir jetzt A und setzen r auf r + 1. Nun wiederholen wir den oben beschriebenen Schritt.
Das Verfahren terminiert, weil jr < jr+1 gilt.
Die Anzahl Zeilen 6= 0 in einer Matrix, die zeilenreduziert ist, nennt man den
Rang r der Matrix. Es ist zunächst nicht klar, ob der Rang eine Invariante unter
Zeilenäquivalenz ist (das ist zwar der Fall, erfordert aber einigen Aufwand, es zu
beweisen; wir können den Beweis erst führen, wenn wir einiges über Vektorräume
wissen).
Wenn A in zeilenreduzierter Normalform mit r Zeilen 6= 0 ist, dann können die
n− r Variablen xi , die zu den Spalten i 6= j1 , . . . jr gehören, frei gewählt werden.
Wir sagen auch, das System hat n − r Freiheitsgrade!
2.7
Gauß-Verfahren
Zum Lösen von linearen Gleichungssystemen genügt es, die Matrix in zeilenreduzierte Form zu bringen. Dazu ist es nicht nötig, dass die Einträge über den
Pivots an den Stellen (i, jr ) alle 0 sind, und der (i, jr )-Eintrag muss auch nicht
auf 1 normiert werden.
Definition 2.7.1 Eine Matrix A ∈ K(m,n) heißt zeilenreduziert, wenn
gilt:
[ZR1]
Keine Nullzeile steht oberhalb einer Zeile 6= 0, d.h. die ersten r
Zeilen seien die Zeilen 6= 0.
[ZR1]
Wenn der erste Eintrag 6= 0 in Zeile i in der Spalte ji auftritt, so
gilt j1 < j2 . . . < jr .
Man kann eine Matrix offenbar mit weniger Aufwand in zeilenreduzierte Form
als in zeilenreduzierte Normalform bringen. Wir verwenden dazu ein ähnliches Verfahren wie zuvor, wobei wir den Schritt Pr,s durch die Hintereinanderausführung von
αi,s
Er,i (−
), i = r + 1, . . . , m,
αr,s
37
ersetzen. Wir nennen dieses Verfahren das Gauß-Verfahren
Bemerkung 2.7.2 (1.) Man kommt beim Gauß-Verfahren ohne die Umformungen [E1] aus.
(2.) Wir werden später sehen, dass jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent ist. Das ist der Grund, warum man
von einer Normalform spricht. Es gibt verschiedene zeilenreduzierte Matrizen,
die zeilenäquivalent sind.
(3.) Das (einfachere) Gauß-Verfahren ist ausreichend, wenn man lineare Gleichungssysteme lösen möchte.
(4.) Es sei noch einmal darauf hingewiesen, dass das Gauß- und das GaußJordan-Verfahren über allen Körpern funktioniert. Es funktioniert i.a. nicht,
wenn man Gleichungen über Ringen lösen möchte.
2.8
Lösungsmengen linearer Gleichungssysteme
Wir wollen hier einige einfache Folgerungen notieren, die aus der Tatsache folgen, dass jede Matrix in zeilenreduzierte Form gebracht werden kann. Die Sätze
sind aber noch etwas unbefriedigend, weil wir nicht zeigen können, dass der
Rang einer Matrix (vgl. Abschnitt 2.6) vernünftig definiert ist.
Satz 2.8.1 Sei A ∈ K(m,n) mit m < n. Dann hat das lineare Gleichungssystem
Ax = 0 mindestens eine Lösung x 6= 0.
Beweis Nach Umformung von A in zeilenreduzierte Form gibt es mindestens
einen Freiheitsgrad, weil r < n gilt. Dabei ist r die Anzahl der Zeilen 6= 0. Satz 2.8.2 Sei A ∈ K(n,n) . Dann gilt:
Ax = 0 hat nur die triviale Lösung
⇔
A ist zeilenäquivalent zu I.
Beweis “⇐”: klar.
“⇒”: Angenommen, A ist zu einer Matrix in zeilenreduzierter Form äquivalent,
die r < n Zeilen 6= 0 hat. Dann hat A aber eine Lösung x 6= 0, Widerspruch
zur Annahme.
Corollary 2.8.3
A ∈ K(n,n) ist zeilenäquivalent zu I
⇔
A ∈ K(n,n) ist äquivalent zu I
Inhomogene Systeme Ax = b lassen sich im Prinzip genauso lösen wie homogene
Systeme: Die Umformungen, die auf die Zeilen von A ∈ K(m,n) angewendet
werden, wendet man auch auf b an. Genauer:
Satz 2.8.4 Das lineare Gleichungssystem Ax = b hat dieselbe Lösungsmenge
wie A′ x = b′ , wenn die erweiterte Matrix (A′ b′ ) durch elementare Zeilenumformungen aus (A b) hervorgeht.
38
Wenn man die Matrix (A b) in zeilenreduzierte Form (A′ b′ ) gebracht hat, kann
man also schnell erkennen, ob das System überhaupt eine Lösung hat: Es hat
genau dann eine Lösung, wenn die Matrix A′ genauso viele Zeilen 6= 0 hat wie
die Matrix (A′ b′ ). Wenn diese Zahl r ist, so hat das inhomogene System, ähnlich
wie im homogenen Fall, genau n − r Freiheitsgrade.
2.9
Matrixmultiplikation
Wir wollen jetzt ein etwas vertieftes Verständnis von elementaren Zeilenumformungen sowie von Satz 2.8.2 bekommen. Dazu müssen wir eine Multiplikation
auf der Menge der Matrizen einführen, die zunächst sehr künstlich wirkt:
Definition 2.9.1 (Matrizenmultiplikation) Sei A ∈ K(m,n) , B ∈ K(n,p) ,
A = (αi,j ) und B = (βi,j ). Dann ist C := A · B eine m × p-Matrix (γi,j ) mit
γi,j :=
n
X
αi,k βk,j .
k=1
Achtung: Man kann nicht alle Matrizen miteinander multiplizieren. Die Größen
der Matrizen müssen zueinander passen!
Jetzt wird klar, dass die Notation Ax = b sinnvoll ist. Es handelt sich hier um
eine Matrixgleichung
    

β1
x1
α1,1 . . . α1,n
 ..
..  ·  ..  =  ..  .
 .
.   .   . 
αm,1
βm
xn
. . . αm,n
Die Matrizenmultiplikation ist eine binäre Verknüpfung. Diese Verknüpfung ist
sicherlich nicht kommutativ, weil ja evtl. das Produkt AB definiert ist, nicht
aber BA. Aber selbst, wenn sowohl AB als auch BA erklärt sind (wenn also
sowohl A als auch B in K(n,n) liegen), kann AB 6= BA gelten:
1 0
0 1
0 1
=
0 0
0 0
0 0
aber
0
0
1
1
0
0
0
0
=
0
0
0
0
Das Beispiel zeigt auch, dass das Produkt von zwei Matrizen 0 sein kann. Man
kann zeigen, dass das Produkt von Matrizen assoziativ ist. Wir können auch
noch eine (komponentenweise) Addition von Matrizen einführen:
39
Definition 2.9.2 (Matrizenaddition) Sei A ∈ K(m,n) , B ∈ K(m,n) , A =
(αi,j ) und B = (βi,j ). Dann ist C := A + B eine m × n-Matrix (γi,j ) mit
γi,j := αi,j + βi,j .
Man kann nun zeigen:
Satz 2.9.3 Die Matrizen (K(n,n) , +, ·, 0, I) bilden einen im allgemeinen nichtkommutativen Ring mit neutralem Element I.
Beweis (Skizze) Nicht trivial ist nur die Assoziativität der Multipliklation,
die man aber nachrechnen kann.
Wir wollen nun zeigen, dass elementare Zeilenumformungen von A nichts anderes bedeuten als die Multiplikation der Matrix A von links mit einer sogenannten
Elementarmatrix.
Definition 2.9.4 Elementarmatrizen sind diejenigen quadratischen Matrizen, die aus I durch eine elementare Zeilenumformung hervorgehen.
Es gibt drei Typen von Elementarmatrizen (γi,j ):
Er (γ) = (γi,j ) mit
Es,r (γ) = (γi,j ) mit


0
= 1


γ
Es,r = (γi,j ) mit


γ
= 1


0
γi,j
γi,j
γi,j


1
= 1


0
wenn i 6= j
wenn i = j, i 6= r
wenn i = j = r
wenn i = r, j = s
wenn i = j
sonst
wenn i = j, i 6= r, s
wenn (i, j) = (r, s) oder (s, r)
sonst
Überlegen wir uns das für Es,r = (γi,j ). Wir betrachten den (i, j)-Eintrag
α′i,j = (Es,r · A)i,j
40
von Es,r · A. Es gilt
α′i,j =
n
X
γi,k αk,j
k=1
Für i 6= r gilt offenbar α′i,j = αi,j . Für i = r erhalten wir α′r,j = γαs,j + αr,j .
Lemma 2.9.5 (1.) Er (γ) · Er (γ −1 ) = Er (γ −1 ) · Er (γ) = I
(2.) Es,r (γ) · Es,r (−γ) = Es,r (−γ) · Es,r (γ) = I
(3.) Er,s · Er,s = I
d.h. zu jeder Elementarmatrix E gibt es eine Elementarmatrix E′ mit EE′ =
E′ E = I. Aus naheliegenden Gründen wird E′ mit E−1 bezeichnet.
Satz 2.9.6 Seien A, B ∈ K(m,n) . Dann ist B zeilenäquivalent zu A genau dann
wenn es ein Produkt P von Elementarmatrizen gibt mit A = PB, P ∈ K(n,n) .
Wir haben für quadratische Matrizen gesehen, dass A zu I zeilenäquivalent sein
kann, d.h. I = PA, wobei z.B. P = E1 . . . Er , wobei die Ei Elementarmatrizen
sind. Dann gilt
I = P·A
I = E1 · · · Er · A
E−1
= E2 · · · Er · A
1
... = ...
= A
−1
−1
E−1
r Er−1 . . . E1
−1
−1
E−1
r Er−1 . . . E2
= AE1
... = ...
I = AP
−1
−1
−1
Wir bezeichnen E−1
. Dann gilt für zeilenäquivalente Mar Er−1 . . . E1 als P
−1
trizen PB = A und B = P A.
Definition 2.9.7 Wir nennen A ∈ K(n,n) invertierbar wenn es eine Matrix
B gibt mit AB = I.
Satz 2.9.8
A ∈ K(n,n) invertierbar
⇔
A zeilenäquivalent zu I.
Beweis “⇐”: klar
“⇒”: Angenommen, A ist nicht zu I zeilenäquivalent, aber invertierbar, z.B.
AB = I. Dann hat eine zeilenreduzierte Normalform von A eine Nullzeile, ist
41
also nicht invertierbar. Es gibt also ein Produkt P von Elementarmatrizen so,
dass PA nicht invertierbar ist, aber P und A sind invertierbar. Dann ist aber
(PA)(BP−1 ) = I,
also ist PA doch invertierbar.
Korollar 2.9.9 A ist invertierbar
zen.
⇔
A ist Produkt von Elementarmatri-
Wenn AB = I, dann ist auch BA = I. Ferner gibt es nur eine Matrix B mit
AB = I.
Beweis Das A genau dann invertierbar ist wenn es ein Produkt von Elementarmatrizen ist, folgt aus Satz 2.9.6 und 2.9.8. Wenn AB = I und A das Produkt
von Elementarmatrizen ist, dann gilt nach den Bemerkungen vor Satz 2.9.8
auch BA = I. Beachten Sie bitte, dass diese Vertauschbarkeit nur gilt, weil A
Produkt von Elementarmatrizen ist.
Nun zur Eindeutigkeit: AB = BA = I und AB′ = I. Dann gilt B = B(AB′ ) =
(BA)B′ = B′ .
Wir können dieses Korollar direkt in einen Algorithmus zur Bestimmung der
Inversen von A umsetzen (siehe Vorlesung).
Bemerkung 2.9.10 Es ist nicht offensichtlich, dass aus AB = I folgt BA = I,
zumindest folgt das nicht aus den Rechenregeln für beliebige Ringe mit 1. Wir
haben hier die besondere “Struktur” des Matrizenrings benutzt. In beliebigen
Ringen R wird Invertierbarkeit wie folgt definiert:
Es gibt zu a ∈ R ein b ∈ R mit a · b = b · a = 1.
Man verlangt also Invertierbarkeit von beiden Seiten!
Man kann dann, wie oben für die Matrizen getan, die Eindeutigkeit des inversen
Elementes zeigen:
Lemma 2.9.11 Sei (R, +, ·, 0, 1) ein Ring mit 1. Dann gibt es zu a ∈ R höchstens
ein Element b mit a · b = b · a = 1.
Der folgende Satz fasst noch einmal zusammen, was für lineare Gleichungssysteme Ax = b und die Invertierbarkeit von A gilt.
Satz 2.9.12 Sei A ∈ K(n,n) . Dann sind die folgenden Aussagen äquivalent:
(1.) A ist invertierbar.
(2.) Ax = 0 hat genau eine Lösung.
42
(3.) Ax = b hat für ein b genau eine Lösung.
(4.) Ax = b hat für jedes b genau eine Lösung.
(5.) A ist zeilenäquivalent zu I.
(6.) A ist äquivalent zu I.
Beweis Die Äquivalenz von (1.), (2.), (5.) und (6.) folgt aus Satz 2.9.8 und
Korollar 2.8.3. Wenn wir die inhomogenen Systeme in (3.) und (4.) umformen,
erhalten wir A′ x = b′ für eine zeilenreduzierte Normalform A′ . Wenn diese
Matrix eine Nullzeile hat, dann hat das System A′ x = b′ mehr als eine Lösung
(weil nämlich eine Variable frei gewählt werden kann), oder aber keine Lösung
(wenn die Nullzeile zu einer Gleichung 0x1 + 0x2 + . . . + 0xn = β 6= 0 gehört).
Das heißt aber, dass A′ x = b′ nur dann eindeutig lösbar ist, wenn A = I. Das
liefert (1.) ⇔ (3.) sowie (1.) ⇔ (4.)
2.10
Zusammenfassung
• Sie haben gelernt, wie man lineare Gleichungssysteme löst. Das ist eines
der wesentlichen Ziele der Vorlesung!
• Sie sollen lineare Gleichungssysteme über beliebigen Körpern lösen können.
• Die theoretische Behandlung von linearen Gleichungssystemen ist noch
etwas unbefriedigend, weil der Rang noch nicht eindeutig definiert werden
konnte. Unbefriedigend ist auch noch, dass wir nicht wissen, ob jede Matrix
zu genau einer Matrix in zeilenreduzierter Normalform äquivalent ist.
• Sie haben einige sehr wichtige algebraische Strukturen (Gruppen, Ringe,
Körper) kennengelernt.
• Neben R und Q sollten Sie nun auch in den endlichen Körper Fp sowie
den komplexen Zahlen C rechnen können.
• Machen Sie sich mit der modularen Arithmetik vertraut.
• Sie haben eine Anwendung elementarer Zahlen- und Gruppentheorie (RSAVerfahren) kennengelernt.
• Sie können Matrizen invertieren.
• Sie können Matrizen miteinander multiplizieren und haben verstanden,
das elementare Zeilenumformungen Matrizenmultiplikation von links mit
Elementarmatrizen sind.
43
Herunterladen