1.3 Zahlbereiche und algebraische Strukturen

Werbung
26 Lineare Algebra I — 2005–2009
1.3
c Rudolf Scharlau
!
Zahlbereiche und algebraische Strukturen
Dieser Abschnitt stellt überall benutzte algebraische Grundbegriffe bereit: zunächst den Begriff der Verknüpfung auf einer Menge als Verallgemeinerung der
üblichen Rechenoperationen, dann die Begriffe Gruppe, Ring, kommutativer Ring
mit Einselement, Einheiten (invertierbare Elemente) in Ringen, sowie den Begriff
eines Körpers. Wichtige Beispiele algebraischer Strukturen (neben den ganzen,
rationalen und reellen Zahlen) liefert das Rechnen mit Resten“ ganzer Zahlen
”
(sog. mod-m-Addition und mod-m-Multiplikation). Eine vertiefte Behandlung
dieser Struktur (es handelt sich um einen kommutativen Ring mit m Elementen)
wird im nächsten Abschnitt gegeben (Stichwort: Restklassen).
Definition 1.3.1 Eine Verknüpfung auf (oder in) einer Menge M ist eine Vorschrift, die je zwei Elementen x und y aus M (unter Beachtung der Reihenfolge)
ein weiteres Element z von M zuordnet.
Als Notation für das Ergebnis z der Verknüpfung verwendet man die Bezeichnung
z = x · y, x ∗ y, x ◦ y, x $ y, x + y, x ⊕ y, o.ä..
Das Zeichen · bzw. ∗, ◦, $, +, ⊕, . . . nennen wir Verknüpfungssymbol.
Bemerkung 1.3.2 Eine Verknüpfung auf einer Menge M ist dasselbe wie eine
Abbildung M × M → M. Diese wird in diesem Zusammenhang in der Form
(x, y) (→ x · y oder x ∗ y, x ◦ y, x $ y, x + y, x ⊕ y
oder ähnlich geschrieben.
Definition 1.3.3 Eine Verknüpfung ∗ heißt assoziativ, falls für alle a, b, c ∈ M
gilt:
(a ∗ b) ∗ c = a ∗ (b ∗ c) .
Sie heißt kommutativ, falls für alle a, b ∈ M gilt:
a∗ b = b∗ a.
Beispiele 1.3.4
(1) (Z, +), (N, +), (Z, ·), . . .. Die gewöhnliche Addition und Multiplikation von
Zahlen sind assoziative und kommutative Verknüpfungen.
(2) Sei X eine beliebige Menge. Betrachte
M = Abb X := {f | f : X → X Abbildung}
f ◦ g = Hintereinanderausführung von f und g,
f nach g“.
”
Diese Verknüpfung ist assoziativ:
f ◦ (g ◦ h) = (f ◦ g) ◦ h für alle f, g, h ∈ M
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
27
(3) Sei X = {1, 2}. Dann kann man die Menge M der Abbildungen ohne großen
Aufwand vollständig hinschreiben: M = {f1 , f2 , f3 , f4 }, wobei
! "
! "
! "
! "
f1 = 11 22 , f2 = 12 21 , f3 = 11 21 , f4 = 12 22 .
(In der ersten Zeile stehen die Elemente des Definitionsbereiches, darunter
jeweils das Bild.)
Definition 1.3.5 Es sei M eine Menge und · eine Verknüpfung auf M. Ein
Element e ∈ M heißt neutrales Element für die Verknüpfung, falls für alle x ∈ M
gilt
e · x = x · e = x.
Bemerkung 1.3.6 Bei gegebener Verknüpfung kann es höchstens ein neutrales
Element e geben. Man sagt also: e ist das neutrale Element.
Beweis: Sei e! ein weiteres neutrales Element. Dann gilt
e · e! = e! (weil e neutral ist, mit x = e! )
e · e! = e (weil e! neutral ist, mit x = e).
Also ist e = e! .
!
Beispiele 1.3.7
(1) Die Verknüpfung + auf N, Z, Q, R hat 0 als neutrales Element.
0+x=x+0=x
(2) Die Verknüpfung · auf N, Z, Q, R hat 1 als neutrales Element.
1·x=x·1=x
(3) Abb X = {f | f : X → X Abbildung} mit der Verkettung “f ◦ g” als
Verknüpfung hat als neutrales Element die identische Abbildung idX : es
gilt idX ◦f = f ◦ idX = f für alle f ∈ Abb X.
Zur Bezeichnungsweise: Wenn das Verknüpfungssymbol + ist, heißt das neutrale
Element immer Null, Schreibweise 0; bei Vektoren auch 0 oder !0 (Nullvektor).
Der folgende Begriff ist grundlegend für alle Gebiete der Mathematik, in denen
algebraische Methoden verwendet werden (Lineare Algebra, Geometrie, Zahlentheorie und weitere).
28 Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
Definition 1.3.8 Eine Gruppe ist eine Menge G zusammen mit einer Verknüpfung
· auf G, so dass folgende drei Axiome gelten:
(G1) Die Verknüpfung ist assoziativ.
(G2) Es gibt ein neutrales Element e.
(G3) Zu jedem Element a ∈ G gibt es ein b ∈ G, so dass
a· b = b · a = e.
Falls zusätzlich die Verknüpfung kommutativ ist, so heißt auch die Gruppe kommutativ oder abelsch 4 .
Bemerkung 1.3.9 (Eindeutigkeit des inversen Elementes)
Es sei G eine Menge und · eine assoziative Verknüpfung auf G mit neutralem
Element e. Dann gibt es bei gegebenem a ∈ G höchstens ein b ∈ G mit a · b =
b · a = e. Falls es existiert, wird es mit a−1 bezeichnet und heißt das Inverse zu a.
Wenn die Verknüpfung als + geschrieben wird, heißt b das Negative von a,
Bezeichnung −a (statt a−1 ).
Beispiele 1.3.10 (Gruppen)
(1) (N, +) ist keine Gruppe, weil sowohl neutrales Element als auch Inverse
fehlen.
(2) (N0 , +, 0) und (Z ! {0}, ·, 1) besitzen jeweils ein neutrales Element, sind
aber keine Gruppen.
(3) (Z, +), (Q, +), (R, +), (Q ! {0}, ·), (R ! {0}, ·) sind abelsche Gruppen.
(4) Vorschau: wenn K ein beliebiger Körper ist und n ∈ N, so ist die Menge GLn (K) der invertierbaren n × n-Matrizen über K eine Gruppe mit
der Matrixmultiplikation als Verknüpfung, bezeichnet als allgemeine lineare Gruppe vom Grad n über K (siehe Folgerung 2.6.6).
Weitere Beispiele von Gruppen sehen wir in den folgenden Sätzen 1.3.11 und
1.3.17.
Satz 1.3.11 Es sei X eine beliebige Menge. Setze
Per X = {f | f : X → X, f bijektiv} ⊆ Abb X .
Dann ist Per X mit der Komposition von Abbildungen als Verknüpfung eine Gruppe. Neutrales Element ist die identische Abbildung idX . Das inverse Element zu
f ∈ Per X ist die Umkehrabbildung f −1 von f .
Speziell für X = {1, 2, . . . . , n} schreibt man kurz
Sn := Per{1, 2, . . . . , n},
4
die sog. symmetrische Gruppe vom Grad n.
nach Niels Henrik Abel, 1802–1829, norwegischer Mathematiker
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
29
Bemerkung Insbesondere für endliches X heißen bijektive Abbildungen von X
in sich selbst auch Permutationen von X, daher die Abkürzung Per X.
Es ist nicht schwierig, die Anzahl aller Permutationen von {1, 2, . . . , n} zu bestimmen. Das Ergebnis ist wie folgt:
Satz 1.3.12
|Sn | = n! = n · (n − 1) · (n − 2) · . . . · 2 · 1
Weitere wichtige Beispiele von Gruppen ergeben sich aus dem ‘Rechnen mit Resten’. Wir beziehen uns hier auf die Division mit Rest aus Satz 1.2.3.
Definition 1.3.13 (mod-m-Addition und -Multiplikation)
Es sei Zm := {0, 1, . . . , m − 1}, also die Menge aller möglichen Reste modulo m.
Auf Zm betrachten wir die beiden Verknüpfungen +m und ·m definiert durch
x +m y := (x + y) mod m
x ·m y := (x · y) mod m
Wir nennen sie Addition bzw. Multiplikation modulo m, kurz mod-m-Addition,
mod-m-Multiplikation.
Die Verknüpfungstafeln für m = 5:
+5
0
1
2
3
4
0
0
1
2
3
4
1
1
2
3
4
0
2
2
3
4
0
1
3
3
4
0
1
2
4
4
0
1
2
3
·5
0
1
2
3
4
0
0
0
0
0
0
1
0
1
2
3
4
2
0
2
4
1
3
3
0
3
1
4
2
4
0
4
3
2
1
5
5
0
1
2
3
4
·6
0
1
2
3
4
5
0
0
0
0
0
0
0
1
0
1
2
3
4
5
2
0
2
4
0
2
4
3
0
3
0
3
0
3
4
0
4
2
0
4
2
Die Verknüpfungstafeln für m = 6:
+6
0
1
2
3
4
5
0
0
1
2
3
4
5
1
1
2
3
4
5
0
2
2
3
4
5
0
1
3
3
4
5
0
1
2
4
4
5
0
1
2
3
5
0
5
4
3
2
1
c Rudolf Scharlau
!
30 Lineare Algebra I — 2005–2009
Die Verknüpfungstafeln für m = 7:
+7
0
1
2
3
4
5
6
0
0
1
2
3
4
5
6
1
1
2
3
4
5
6
0
2
2
3
4
5
6
0
1
3
3
4
5
6
0
1
2
4
4
5
6
0
1
2
3
5
5
6
0
1
2
3
4
6
6
0
1
2
3
4
5
·7
0
1
2
3
4
5
6
0
0
0
0
0
0
0
0
1
0
1
2
3
4
5
6
2
0
2
4
6
1
3
5
3
0
3
6
2
5
1
4
4
0
4
1
5
2
6
3
5
0
5
3
1
6
4
2
6
0
6
5
4
3
2
1
Wir machen einige Beobachtungen zur Addition: Die Tafel für +m hat in allen
Fällen eine offensichtliche zyklische Struktur“: jede Zeile enthält die Elemente
”
0 bis m − 1 in der gleichen Reihenfolge, wobei man nach m − 1 wieder mit der
0 beginnt; die jeweils nächste Zeile entsteht aus der vorigen, indem man um eins
nach links schiebt. All dieses folgt direkt aus der Definition. Insbesondere enthält
jede Zeile eine Permutation der Zahlen 0 bis m − 1: jede dieser Zahlen kommt
genau ein mal vor.
Man kann anhand dieser Beispiele vermuten und auch allgemein zeigen, dass
(Zm , +m ) immer eine Gruppe ist. Für die Multiplikation gibt es verschiedene
Einschränkungen und Hindernisse. Bevor wir dieses weiter diskutieren, wollen
wir zunächst systematisch berücksichtigen, dass wir auf der Menge Zm zwei Verknüpfungen definiert haben, die in einem gewissen Zusammenhang zueinander
stehen, wie man es von den üblichen Zahlbereichen Z, Q, R (und weiteren) kennt.
Hierzu gibt es folgende Definition:
Definition 1.3.14 Ein Ring ist eine Menge R zusammen mit zwei Verknüpfungen + und · , genannt Addition und Multiplikation, für die folgendes gilt:
(R1) (R, +) ist eine abelsche Gruppe.
(R2) die Verknüpfung · ist assoziativ
(R3) (Distributivgesetze)
a · (x + y) = a · x + a · y
(a + b) · x = a · x + b · x
#
für alle a, b, x, y ∈ R .
Meistens wird von einem Ring zusätzlich verlangt, dass er ein neutrales Element
bzgl. der Multiplikation besitzt. Ein solches Element heißt Einselement oder kurz
Eins und wird mit 1R oder einfach 1 bezeichnet. Ein Ring heißt kommutativ, falls
die Multiplikation kommutativ ist: a · b = b · a für alle a, b ∈ R.
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
31
Beispiele 1.3.15
Alle folgenden Strukturen sind Ringe mit Einselement. Alle außer (6) (für n ≥ 2)
sind kommutativ.
(1) (Z, +, ·) die ganzen Zahlen mit der üblichen Multiplikation und Addition;
$
(2) R[x] die Menge aller Polynome f (x) = nj=0 aj xj , n ∈ N, aj ∈ R mit der
üblichen Addition und Multiplikation (siehe auch (4));
√
√
(3) Z[ 2] := {x+y 2 | x, y ∈ Z} mit der üblichen Addition und Multiplikation
reeller Zahlen;
(4) F (M, R) die reellwertigen Funktionen auf einer beliebigen Menge M, mit
der üblichen Addition und Multiplikation von Funktionen (f + g)(x) =
f (x) + g(x), (f · g)(x) = f (x) · g(x) für alle f, g ∈ F (M, R);
(5) (Q, +, ·), (R, +, ·),(C, +, ·), die rationalen, reellen bzw. komplexen Zahlen;
jeder Körper ist ein Ring;
(6) Vorschau: die Menge der n × n-Matrizen über einem beliebigen Körper K.
Bei (3) muss man sich vor allem überlegen, dass das Produkt zweier
√ solcher
Zahlen
√ wieder von derselben Bauart ist. Dieses gilt allgemeiner für d anstelle
von 2, für irgendeine feste Zahl d ∈ Z, die kein Quadrat in Z ist. Siehe auch
die Definition eines Unterrings unter 1.3.25.
Wenn man den Begriff eines Ringes benutzt, kann man die Definition der aus der
Analysis bekannten Körper sehr kurz hinschreiben.
Definition 1.3.16 Ein Körper ist ein kommutativer Ring mit Einselement, in
dem jedes von Null verschiedene Element ein Inverses bezüglich der Multiplikation
besitzt.
Nun können wir die wesentlichen Eigenschaften der Addition und Multiplikation
modulo m in folgendem Satz festhalten:
Satz 1.3.17 Für jedes m ∈ N ist (Zm , +m , ·m ) ein kommutativer Ring mit Einselement.
Für den Beweis des Satzes muss man vor allem eine Reihe von Rechengesetzen
überprüfen. Man kann den Beweis mit einigen Hilfsüberlegungen direkt anhand
der Definitionen führen. Transparenter wird er, wenn man ihn im allgemeineren
Kontext von Homomorphismen und Faktorstrukturen entwickelt. Dieses wird erst
in späteren Abschnitten geschehen.
Wir kehren zu den obigen Verknüpfungstafeln zurück. Die Struktur der Tafeln
für die Multiplikation mod m ist komplizierter als bei der Addition. Wir schauen
32 Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
im Augenblick nur auf die Frage der Permutation. In vielen Fällen ist die Zeile
zu a ∈ Zm , d.h. die Liste der Vielfachen a ·m x, eine Permutation von m = 5 und
m = 7 für alle Zeilen. Bei m = 6 haben wir für a = 2, 3, 4 keine Permutation.
Wir fragen uns für allgemeines m: Für welches a ∈ {0, 1, . . . , m − 1} ist die
a-Zeile der Verknüpfungstafel eine Permutation von {0, 1, . . . , m − 1}? Wenn das
so ist, kommt insbesondere die 1 vor, d.h. die Gleichung a ·m x = 1 ist lösbar. Aus
der Tatsache, dass wir in einem Ring arbeiten, genauer aus dem Assoziativgesetz
der Multiplikation folgt, dass auch die Umkehrung gilt: Sobald die 1 in der aZeile auftaucht, ist bereits die Zeile eine Permutation. Wir entwickeln diesen
Sachverhalt, der diverse Anwendungen hat, gleich in allgemeinen Ringen.
Definition 1.3.18 Ein Element a eines Ringes R mit Einselement heißt invertierbar, oder Einheit, falls ein x ∈ R existiert mit
a· x = 1 = x· a.
(d.h., a besitzt ein Inverses bezüglich der Multiplikation im Sinne des Axioms
(G3) aus 1.3.8 bzw. gemäß 1.3.9).
Bezeichnung:
R∗ := {a ∈ R | aEinheit} .
Die obige Bemerkung 1.3.9 ist auf die Multiplikaton in einem Ring anwendbar
und zeigt: Das Element x ist bei gegebenem a eindeutig bestimmt. Das Element
x heißt das Inverse von a; Bezeichnung: b =: a−1 .
Beispiele 1.3.19
(1) Die invertierbaren Elemente des Ringes Z sind lediglich 1 und −1.
√
√
(2) In dem
obigen
Beispiel
Z[
2]
eines
Ringes
ist
2 nicht invertierbar, aber
√
√
√
1+ 2 ist es, denn (1+ 2)(−1+ 2) = 1, und der zweite Faktor liegt
√ mwieder
im betrachteten Ring. Klar ist, dass dann auch alle Potenzen (1+ 2) , m ∈
Z und ihre Negativen invertierbar sind. In der Zahlentheorie zeigt man, dass
man so alle invertierbaren Elemente erhält; das ist aber etwas schwieriger
einzusehen.
(3) Die invertierbaren Elemente des Polynomrings R[x] sind die konstanten
Polynome ausser der Null. Das zeigt man unter Benutzung des Grades von
Polynomen.
Wir formulieren und beweisen nun allgemein die oben an Beispielen beobachtete
Kennzeichnung von invertierbaren Elementen:
Satz 1.3.20 Ein Element a eines Ringes R mit Einselement ist invertierbar genau dann, wenn die Abbildung
La : R → R, x (→ a · x
bijektiv ist.
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
33
Der folgende Satz klärt für beliebiges m, welche Elemente im Ring Zm invertierbar
sind.
Satz 1.3.21 Für m ∈ N ist ein Element a ∈ Zm genau dann invertierbar, wenn
a und m teilerfremd sind:
Z∗m = {a ∈ Zm | ggT(a, m) = 1} .
Beweis: (⇐=) Wenn a und m teilerfremd sind, so gibt es nach dem Satz 1.2.13
ganze Zahlen x, y ∈ Z mit
1 = ggT(a, m) = xa + ym.
Es folgt 1 = (xa + ym) mod m = xa mod m = (x mod m) ·m a also ist a invertierbar mit Inversem x! := x mod m.
(=⇒) Wenn umgekehrt a ∈ Z∗m ist, gibt es ein x ∈ Zm mit x ·m a = 1. Es gibt
also ein Vielfaches ym von m mit xa + ym = 1. Dann muss aber offensichtlich
der ggT von a und m gleich 1 sein.
!
Beispiel Die invertierbaren Elemente in Z6 sind die nicht durch 2 oder 3 teilbaren
Zahlen in Z6 , also 1 und 5, wie oben schon aus der Verknüpfungstafel abgelesen
wurde. In Z10 sind 1, 3, 7, 9 invertierbar.
Bemerkung 1.3.22 Die Einheiten (invertierbaren Elemente) eines Ringes R mit
1 bilden bezüglich der Ringmultiplikation eine Gruppe, die sog. Einheitengruppe
R∗ von R. Speziell für Zm spricht man von der primen Restegruppe Z∗m , genauer
(Z∗m , ·m ).
Besonders interessant und wichtig ist der Fall, dass m = p eine Primzahl ist: dann
kann der ggT von a und p nur 1 oder p sein, und für alle Elemente a ∈ Zp außer
der Null muss er 1 sein, d.h. a ist invertierbar. Dieses beweist den folgenden Satz.
Theorem 1.3.23 Für jede Primzahl p ist (Zp , +p , ·p ) ein Körper.
Zum Schluss dieses Abschnitts beschäftigen wir uns mit Teilstrukturen“ einer
”
Gruppe oder eines Ringes. Das sind Teilmengen, die selbst wieder die entsprechende Struktur tragen.
Definition 1.3.24 (Untergruppe)
Es sei (G, ∗) Gruppe mit neutralem Element und H ⊆ G eine Teilmenge von G.
Dann heißt H Untergruppe von G, genauer von (G, ∗), falls die folgenden drei
Bedingungen erfüllt sind.
(UG1) Für alle x, y ∈ H gilt x ∗ y ∈ H
(man sagt, H ist abgeschlossen unter der Verknüpfung).
(UG2) e ∈ H
(UG3) Für alle x ∈ H gilt x−1 ∈ H
(d.h. H ist abgeschlossen unter Inversenbildung).
34 Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
Wenn H eine Untergruppe von G ist, kann die Verknüpfung auf H beschränkt
werden. Genauer kann die Einschränkung der Verknüpfung von G × G auf die
Teilmenge H × H als Abbildung H × H → H, also als Verknüpfung auf H
aufgefasst werden. Diese ist trivialerweise erst recht assoziativ. Unter Berücksichtigung der beiden weiteren Bedingungen ist H zusammen mit der von G auf H
eingeschränkten Verknüpfung selbst wieder eine Gruppe.
Hier ist der entsprechende Begriff für Ringe.
Definition 1.3.25 (Unterring)
Es sei (R, +, ·) ein Ring und S ⊆ R eine Teilmenge von R. Dann heißt S Unterring
oder Teilring von R, genauer von (R, +, ·), falls die folgenden Bedingungen erfüllt
sind:
(UR1) S ist Untergruppe von (R, +).
(UR2) Für alle x, y ∈ S gilt x · y ∈ S
(d.h. S ist abgeschlossen unter Multiplikation).
Viele Beispiele von Ringen, wie etwa oben unter 1.3.15 (3) entstehen als Unterringe im Sinne dieser Definition. Etwas allgemeiner gilt:
Beispiel 1.3.26 Für jede natürliche Zahl d ∈ N ist
√
√
Z[ d] := {x + y d | x, y ∈ Z}
ein Teilring der reellen Zahlen (R, +, ·).
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
1.4
35
Restklassen und Äquivalenzrelationen
In diesem Abschnitt wird zunächst der mathematische Begriff einer Relation kurz
und informell eingeführt. Eigentliches Thema ist dann das für viele mathematische Konstruktionen zentrale Konzept einer Äquivalenzrelation sowie die daraus
abgeleiteten Begriffe Äquivalenzklasse“, Partition“ einer Menge und Repräsen”
”
”
tantensystem“. Das für uns derzeit wichtigste Beispiel einer Äquivalenzrelation
ist eine Relation zwischen ganzen Zahlen, nämlich die sogenannte Kongruenz
”
modulo m“. Die Äquivalenzklassen dieser Relation heißen Restklassen; auf der
Menge Z/mZ aller Restklassen wird eine algebraische Struktur eingeführt, die
man als eine verbesserte (aber auch abstraktere) Version des Ringes (Zm , +m , ·m )
aus dem vorigen Abschnitt ansehen kann. Wir beenden den Abschnitt mit einer (weiteren) Ergänzung zum vorigen Abschnitt, nämlich der Einführung und
Erläuterung des Isomorphiebegriffs für algebraische Strukturen.
Erklärung 1.4.1 Eine Relation auf einer Menge M bezieht sich auf je zwei Elemente a, b ∈ M (unter Beachtung der Reihenfolge). Es muss für jedes Paar (a, b)
festliegen, ob a in Relation zu b steht“ oder nicht.
”
Beispiele 1.4.2
(1) a ≤ b
(2) a | b
(3) a | b
(4) A ⊆ B
(5) g 1 h
(6) a R b
kleiner gleich“
”
teilt“
”
teilt“
”
ist enthalten in“
”
ist parallel zu “
”
steht in Rel. R zu“
”
auf Z oder R
auf Z
auf N
auf der Potenzmenge P(M) einer Menge M
auf der Menge G aller Geraden der Ebene
allgemeine Situation
Definition 1.4.3 (Kongruenz modulo m)
Sei m eine feste natürliche Zahl. Zwei Zahlen a, b ∈ Z heißen kongruent (genauer:
kongruent modulo m), falls m | b − a. In Zeichen wird dieses geschrieben als
a ≡m b,
manchmal auch kurz a ≡ b.
Die Schreibweise a ≡ b (mod m) statt a ≡m b ist ebenfalls üblich und sogar
gebräuchlicher. Man sollte hier nicht die Klammern weglassen. Die Zeichenfolge
b mod m“ ohne vorhergehendes a ≡m“ hat ja bereits eine eigene Bedeutung:
”
”
sie bezeichnet eine ganze Zahl, den Rest von b nach m ist; siehe oben.
Für die Negation wird die Notation a 3≡m b verwendet.
c Rudolf Scharlau
!
36 Lineare Algebra I — 2005–2009
Satz 1.4.4 Sei m fest. Die Kongruenz-Relation ≡m auf Z ist eine Äquivalenzrelation, d.h. sie hat die folgenden Eigenschaften:
1. a ≡m a für alle a ∈ Z
Reflexivität
2. a ≡m b =⇒ b ≡m a für alle a, b ∈ Z
Symmetrie
3. a ≡m b und b ≡m c =⇒ a ≡m c für alle a, b, c ∈ Z Transitivität
Beweis(skizze): Man benutzt die folgenden Eigenschaften der Teilerrelation,
für festes m ∈ N.
1. m | 0
2. m | x =⇒ m | (−x) für alle x ∈ Z
3. m | x ∧ m | y =⇒ m | (x + y) für alle x, y ∈ Z.
Dieses zeigt man ohne Mühe unter direktem Rückgriff auf die Definition der
Teilerrelation. Wiederum unmittelbar aufgrund der Definition der Eigenschaft
reflexiv, symmetrisch bzw. transitiv zeigt man dann, dass aus 1., 2., 3. jeweils die
entsprechende Eigenschaft 1., 2., 3. einer Äquivalenzrelation folgt.
Hier der Deutlichkeit halber noch einmal die allgemeine Definition einer Äquivalenzrelation:
Definition 1.4.5 Eine Relation ∼ auf einer Menge M heißt Äquivalenzrelation,
wenn sie reflexiv, symmetrisch und transitiv ist:
1. a ∼ a für alle a ∈ M
2. a ∼ b =⇒ b ∼ a für alle a, b ∈ M
3. a ∼ b und b ∼ c =⇒ a ∼ c für alle a, b, c ∈ M
Wir wenden uns dem Zusammenhang zwischen der modulo-Relation und der
Division mit Rest zu. Die definierende Gleichung a = qm + r zeigt unmittelbar,
dass der Rest r = a mod m kongruent zu a ist: r ≡m a. Diese Beobachtung ist
der Ausgangspunkt für folgenden Satz:
Satz 1.4.6 Sei m ∈ N fest. Zwei Zahlen a, b ∈ Z sind kongruent modulo m genau
dann, wenn sie bei Division durch m denselben Rest lassen. M.a.W.
a ≡m b
⇐⇒
a mod m = b mod m.
Hilfssatz Es seien r, s ∈ Zm mit r ≡m s. Dann ist r = s.
Beweis: s − r ist nach Voraussetzung ein Vielfaches von m, andererseits vom
Betrag her kleiner als m, weil r und s beide zwischen 0 und m − 1 liegen. Es
bleibt nur die Möglichkeit s − r = 0.
!
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
37
Beweis von 1.4.6: Wir setzen vorbereitend r := a mod m, s := b mod m; dann
gilt a = q1 m + r, b = q2 m + s mit q1 , q2 ∈ Z. Nun der eigentliche Beweis, der wie
bei jeder Äquivalenz aus zwei Teilen besteht:
zu ⇐=“: Voraussetzung ist hier r = s. Dann ist b − a = (q2 − q1 )m + (s − r) =
”
(q2 − q1 )m ein Vielfaches von m, also a ≡m b, wie gewünscht.
zu =⇒“ Wegen a ≡m b ist b − a = (q2 − q1 )m + (s − r) ein Vielfaches von m,
”
also (q2 − q1 )m + (s − r) = qm, q ∈ Z, also s − r = (q + q1 − q2 )m ein Vielfaches
von m, also r ≡m s. Aus dem Hilfssatz folgt r = s, wie gewünscht.
!
Die Tatsache, dass ≡m eine Äquivalenzrelation ist, kann man alternativ zu dem
früheren Beweis von Satz 1.4.4 leicht aus dem letzten Satz gewinnen. Hierzu
betrachtet man die Funktion
f : Z → Z, x (→ x mod m.
Satz 1.4.6 besagt, dass die Relation durch die Bedingung f (a) = f (b)“ gegeben
”
ist. Hieraus folgen sofort die drei Eigenschaften einer Äquivalenzrelation. Allgemeiner gilt offenbar Folgendes:
Bemerkung 1.4.7 Es sei M eine beliebige Menge und f : M → Y eine Abbildung. Dann ist die durch f (a) = f (b) definierte Relation auf M eine Äquivalenzrelation.
Zusammengefasst liefert also die Kennzeichnung der Kongruenzrelation gemäß
1.4.6 eine neue und vielleicht eingängigere Erklärung, warum diese Relation eine
Äquivalenzrelation ist.
Wir führen die Diskussion zu 1.4.6 und 1.4.4 weiter, indem wir den Begriff der
Äquivalenzklasse ins Spiel bringen:
Definition 1.4.8 (Äquivalenzklassen und Kongruenzklassen)
a) Es sei E eine Äquivalenzrelation auf der Menge M und a ∈ M. Die Äquivalenzklasse von a bezüglich E ist die Teilmenge aller zu a in Relation stehenden Elemente von a:
[a]E := {x ∈ M | xEa}
b) Die Äquivalenzklassen für die Kongruenzrelation ≡m heißen Restklassen
(genauer: Restklassen modulo m) und werden mit [a]m bezeichnet. Es gilt
also für a ∈ Z:
[a]m = {x ∈ Z | x ≡m a}
c Rudolf Scharlau
!
38 Lineare Algebra I — 2005–2009
Zahlenbeispiel m = 4:
[0]4
[1]4
[2]4
[3]4
=
=
=
=
{. . . , −8, −4, 0, 4, 8, . . .}
{. . . , −7, −3, 1, 5, 9, . . .}
{. . . , −6, −2, 2, 6, 10, . . .}
{. . . , −5, −1, 3, 7, 11, . . .}
Es gibt keine weiteren Restklassen modulo 4, da zum Beispiel:
[4]4 = [0]4 ,
[5]4 = [1]4 ,
[6]4 = [2]4 ,
...
In Verallgemeinerung dieses Zahlenbeispiels hat man die folgende Beschreibung
aller Restklassen:
Satz und Definition 1.4.9 Sei m ∈ N.
a) Es gibt genau m Äquivalenzklassen für die Relation ≡m , nämlich die Mengen [a]m für a = 0, 1, . . . , m − 1 .
b) Die Menge aller Restklassen modulo m wird mit Z/mZ (lies: Z nach mZ“
”
oder Z modulo mZ“) bezeichnet. Es ist also
”
Z/mZ := {[a]m | a ∈ Zm } = {[0]m , [1]m , . . . , [m − 1]m }.
Beweis: Wir zeigen erstens, dass diese Restklassen alle voneinander verschieden
sind. Anderenfalls gäbe es r, s ∈ Zm mit r 3= s und [r]m = [s]m . Dann wäre
insbesondere r ∈ [s]m , also r ≡m s. Nach dem obigen Hilfssatz aus dem Beweis
von 1.4.6 wäre dann doch r = s, ein Widerspruch zur Annahme.
Wir müssen zweitens zeigen, dass es keine weiteren Restklassen gibt. Hierzu überlegen wir uns naheliegenderweise, dass für ein beliebiges a ∈ Z gilt
[a]m = [r]m , wobei wir r := a mod m wählen. Nun gilt jedenfalls r ≡m a (siehe
oben), also r ∈ [a]m , d.h. [r]m und [a]m haben das Element r gemeinsam. Nun
kann man sich ganz allgemein (für beliebige Äquivalenzrelationen) überlegen,
dass zwei Äquivalenzklassen, die wenigstens ein Element gemeinsam haben, sogar übereinstimmen. Diese Tatsache (noch etwas ergänzt) halten wir in folgendem
Satz fest, der dann auch den laufenden Beweis abschließt.
Verallgemeinerung: Für eine allgemeine Äquivalenzrelation E auf einer Menge
M kann man ebenfalls die Menge aller Äquivalenzklassen betrachten. Hierfür ist
die Bezeichnung M/E üblich. Wenn die Relation durch ein typisches Symbol wie
∼ bezeichnet wird, schreibt man entsprechend M/∼. Für die eben eingeführte
Menge der Restklassen modulo m könnte man also systematisch Z/≡m statt
Z/mZ schreiben. Die Bezeichnung Z/mZ findet ihre systematische Einordnung
in eine allgemeinere Situation erst bei den sogenannten Faktorgruppen, die man
später in der Algebra einführt.
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
39
Satz 1.4.10 Sei E eine Äquivalenzrelation auf der Menge M.
a) Die Äquivalenzklassen bezüglich E bilden eine Partition (oder Zerlegung)
von M. Das heißt:
1. Jedes Element von M liegt in einer Äquivalenzklasse.
2. Zwei Äquivalenzklassen sind disjunkt (d.h. haben kein Element gemeinsam), oder sie stimmen überein.
b) Für zwei beliebige Elemente a, b ∈ M gilt
aEb ⇐⇒ [a]E = [b]E .
Beweis:
zu a) Behauptung 1: Dieses ist klar, denn ein beliebiges a ∈ M liegt in seiner
eigenen Äquivalenzklasse, a ∈ [a]E . (Wir haben Aussage 1 explizit aufgeführt,
um den allgemeinen Begriff der Partition zu erklären: Eine Partition einer Menge
besteht aus Teilmengen, deren Vereinigung die gesamte Menge ist.)
zu a) Behauptung 2: Es seien [a]E und [b]E zwei Äquivalenzklassen, die wenigstens ein Element gemeinsam haben. Wir zeigen in einem ersten Schritt aEb.
Dazu wähle ein Element c ∈ [a]E ∩ [b]E . Dann gilt cEa, also auch aEc, ferner cEb.
Aus der Transitivität folgt nun aEb, wie gewünscht.
Nun folgern wir aus aEb, dass [a]E = [b]E ist. Weil die Situation symmetrisch
in a und b ist, genügt es, [a]E ⊆ [b]E zu zeigen. (Dann gilt automatisch auch
die umgekehrte Inklusion, also Gleichheit der beiden Mengen.) Sei also x ∈ [a]E .
Dann gilt nach Definition xEa, wegen der Voraussetzung aEb und der Transitivität also auch xEb, was genau die gewünschte Beziehung x ∈ [b]E liefert.
zu Behauptung b): Dieses ergibt sich sofort aus dem unter a) zum zweiten
Punkt Gesagten.
!
Definition 1.4.11 Sei E eine Äquivalenzrelation auf M. Eine Teilmenge V ⊆ M
heißt Repräsentantensystem oder Vertretersystem für E, wenn jede Äquivalenzklasse [a]E genau ein Element r ∈ V enthält, den sogenannten Repräsentanten
oder Vertreter der Klasse.
Es gilt dann nach dem vorigen Satz 1.4.10 [a]E = [r]E , die Menge aller Äquivalenzklassen kann also als
M/E = {[r]E | r ∈ V }
beschrieben werden, und hier tritt keine Äquivalenzklasse doppelt auf.
Beispiel: Für die Äquivalenzrelation ≡m auf Z ist die bekannte Menge Zm =
{0, 1, 2, . . . , m − 1} ein Vertretersystem. Es gibt beliebig viele weitere Möglichkeiten. Eine naheliegende Wahl wäre z.B. {1, 2, . . . , m}. Man kann auch die vom Betrag her kleinstmöglichen Reste“ als Vertreter wählen, also etwa {−2, −1, 0, 1, 2}
”
c Rudolf Scharlau
!
40 Lineare Algebra I — 2005–2009
für m = 5, für allgemeines ungerades m = 2k + 1 die Menge {−k, −(k −
1), . . . , −1, 0, 1, . . . , k − 1, k}.
Für ein Vertretersystem reicht es, m Elemente a1 , . . . , am anzugeben, von
denen keine zwei kongruent modulo m sind. Dieses gilt ganz allgemein für jede Äquivalenzrelation mit m (also nur endlich vielen) Äquivalenzklassen. Denn
wenn die ai alle voneinander verschieden sind, dann sind nach Definition eines
Vertretersystems (und dem letzten Satz) auch ihre Klassen [ai ]E alle verschieden,
und aus Anzahlgründen sind das dann alle Klassen.
Für den nächsten Satz können wir die Äquivalenzklassen zumindest für einen
Augenblick vergessen; er handelt, wenn man so will, von einer algebraischen Zusatzeigenschaft der Kongruenzrelation.
Satz 1.4.12 (Rechnen mit Kongruenzen) Sei m ∈ N fest. Kongruenzen (modulo m) darf man addieren und multiplizieren. Genauer gilt Folgendes: Seien
a, a! , b, b! ∈ Z so, dass
a ≡m a! und b ≡m b!
Dann ist auch
a + b ≡m a! + b!
a · b ≡m a! · b!
Mit dem nächsten, für vieles grundlegenden und stark verallgemeinerungsfähigen
Satz kommen wir zum eigentlichen Ziel dieses Abschnittes.
Satz 1.4.13 (Restklassenaddition und -multiplikation)
a) Auf der Menge Z/mZ aller Restklassen modulo m werden durch
[a]m ⊕ [b]m := [a + b]m und [a] $ [b] = [a · b]
zwei Verknüpfungen ⊕ und $ sinnvoll definiert.
b) Z/mZ zusammen mit ⊕ und $ ist ein kommutativer Ring mit Einselement.
Beweis: zu Teil a): Behauptet wird, dass die Verknüpfung (wir betrachten zunächst
die Addition) bei gegebenem [a]m und [b]m ein eindeutiges Ergebnis liefert. Das
heißt, die rechte Seite [a + b]m darf nur von [a]m und [b]m abhängen (aber nicht
von a und b selbst).
Zu zeigen ist also folgendes: wenn a! , b! ∈ Z weitere Elemente sind so, dass
[a]m = [a! ]m und [b]m = [b! ]m , dann muss auch
!
[a + b]m = [a! + b! ]m
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
41
sein. Aus den Voraussetzungen [a]m = [a! ]m und [b]m = [b! ]m folgt a ≡m a! und
b ≡m b! (siehe 1.4.10 b)). Nach 1.4.12 folgt: a + b ≡m a! + b! . Wieder nach 1.4.10
b) folgt [a + b]m = [a! + b! ]m , wie gewünscht.
Der Beweis für die Multiplikation ist völlig analog.
zu Teil b): Hier sind keinerlei komplizierte Rechnungen erforderlich. Alle Gesetze ergeben sich aus der Definition der Verknüpfungen der entsprechenden Regel
in Z. Als Beispiel betrachten wir das Distributivgesetz: Gegeben sind hier drei
Elemente [a]m , [x]m , [y]m ∈ Z/mZ. Dann gilt
[a]m $ ([x]m ⊕ [y]m ) = [a]m $ [x + y]m
= [a · (x + y)]m
= [a · x + a · y]m
= [a · x]m ⊕ [a · y]m
= [a]m $ [x]m ⊕ [a]m $ [y]m
!
Für die Aufstellung von Verknüpfungstafeln oder sonstige konkrete Rechnungen
wird man alle Klassen durch ihre jeweiligen Vertreter darstellen, d.h. die Menge
Z/mZ in der Form {[r]m | r ∈ Zm } benutzen. Dann müssen auch Summen und
Produkte entsprechend ersetzt werden:
[a]m ⊕ [b]m = [a + b]m = [(a + b) mod m]m
[a]m $ [b]m = [a · b]m = [(a · b) mod m]m
Hier kommt also in natürlicher Weise die früher definierte mod-m-Addition und
-Multiplikation auf Zm ins Spiel:
Bemerkung Für je zwei Elemente a, b ∈ Zm gilt
[a]m ⊕ [b]m = [a +m b]m ,
[a]m $ [b]m = [a ·m b]m .
Beispiel: Die Verknüpfungstafeln für (Z/5Z, ⊕, $):
⊕
[0]5
[1]5
[2]5
[3]5
[4]5
[0]5
[0]5
[1]5
[2]5
[3]5
[4]5
[1]5
[1]5
[2]5
[3]5
[4]5
[0]5
[2]5
[2]5
[3]5
[4]5
[0]5
[1]5
[3]5
[3]5
[4]5
[0]5
[1]5
[2]5
[4]5
[4]5
[0]5
[1]5
[2]5
[3]5
$
[0]5
[1]5
[2]5
[3]5
[4]5
[0]5
[0]5
[0]5
[0]5
[0]5
[0]5
[1]5
[0]5
[1]5
[2]5
[3]5
[4]5
[2]5
[0]5
[2]5
[4]5
[1]5
[3]5
[3]5
[0]5
[3]5
[1]5
[4]5
[2]5
[4]5
[0]5
[4]5
[3]5
[2]5
[1]5
Wenn man sich die eckigen Klammern und die Indizes 5 wegdenkt, sind das genau
die früheren Tafeln für +5 und ·5 . Mit anderen Worten, bis auf Bezeichnungen hat
c Rudolf Scharlau
!
42 Lineare Algebra I — 2005–2009
man die gleichen Tafeln wie bei +5 und ·5 . Zwei mathematische Strukturen (hier
Gruppen oder Ringe), die sich in diesem Sinne nicht wesentlich voneinander unterscheiden, nennt man isomorph. Um zu einer mathematisch präzisen Defnition
zu kommen, präzisiert man zunächst den Bezeichnungswechsel“ als eine bijektive
”
Abbildung zwischen den zugehörigen Mengen, hier ϕ : Zm → Z/mZ, r (→ [r]m .
Diese ist mit den Verknüpfungen verträglich“: ϕ(r +m s) = ϕ(r) ⊕ ϕ(s) und auch
”
ϕ(r ·m s) = ϕ(r) $ ϕ(s)
Diese Überlegungen führen auf die folgende
Definition 1.4.14 (Isomorphismus, Isomorphie)
a) Ein Isomorphismus einer Gruppe (G, ·) auf eine Gruppe (H, ∗)
(bzw. eines Ringes (R, +, ·) auf einen Ring (S, ⊕, $) )
ist eine Abbildung ϕ : G → H (bzw. ϕ : R → S) mit folgenden beiden
Eigenschaften:
1. ϕ ist bijektiv.
2. ϕ ist verknüpfungstreu, d.h. für alle x, y ∈ G gilt ϕ(x · y) = ϕ(x) ∗ ϕ(y)
(bzw. im Fall der Ringe ϕ(x + y) = ϕ(x) ⊕ ϕ(y) und ϕ(x · y) =
ϕ(x) $ ϕ(y) für alle x, y ∈ R).
Eine verknüpfungstreue Abbildung wird auch Homomorphismus genannt.
b) Eine Gruppe (G, ·) heißt isomorph zu einer Gruppe (H, ∗), falls ein Isomorphismus von (G, ·) auf (H, ∗) existiert; entsprechend für Ringe.
Ähnlich wie beim Begriff gleichmächtig“ kommt es auf die Reihenfolge von G
”
und H nicht an, wir können auch sagen G und H sind isomorph (zueinander);
siehe die obige Bemerkung nach der Definition 1.1.21.
Beispiel zur Isomorphie: Als erste Gruppe betrachten wir das direkte Produkt
(Z2 × Z2 , +2 ). Es hat die Verknüpfungstafel
+2
(0, 0)
(1, 0)
(0, 1)
(1, 1)
(0, 0)
(0, 0)
(1, 0)
(0, 1)
(1, 1)
(1, 0)
(1, 0)
(0, 0)
(1, 1)
(0, 1)
(0, 1)
(0, 1)
(1, 1)
(0, 0)
(1, 0)
(1, 1)
(1, 1)
(0, 1)
(1, 0)
(0, 0)
Für die Definition der zweiten Gruppe betrachten wir die folgenden Elemente
(Permutationen) in der symmetrischen Gruppe S4 :
%
&
%
&
%
&
1 2 3 4
1 2 3 4
1 2 3 4
π=
, ρ=
, σ=
.
2 1 4 3
3 4 1 2
4 3 2 1
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
43
(Es handelt sich also um die paarweisen Vertauschungen innerhalb von jeweils
zwei Zweiermengen in {1, 2, 3, 4}.) Dann ist V4 := {id, π, ρ, σ} eine Untergruppe
von S4 , die sogenannte Kleinsche Vierergruppe. Ihre Verknüpfungstafel ist
◦ id π ρ σ
id id π ρ σ
π π id σ ρ
ρ ρ σ id π
σ σ ρ π id
In beiden betrachteten Gruppen gilt: Jedes Element verknüpft mit sich selbst
ergibt das neutrale Element; wenn man zwei der drei nicht neutralen Elemente
verknüpft, erhält man das dritte. Wenn man diese Tafel in neutralen“ Bezeich”
nungen aufschreibt, ergibt sich
∗
e
a
b
c
e
e
a
b
c
a
a
e
c
b
b
b
c
e
a
c
c
b
a
e
Mit e = (0, 0), a = (1, 0), b = (0, 1), c = (1, 1) liefert das die erste Verknüpfungstafel, mit e = id, a = π, b = ρ, c = σ die zweite. Die Gruppen Z2 × Z2 und V4
mit ihren jeweiligen Verknüpfungen sind also gleich bis auf Bezeichnungen“, das
”
heißt isomorph.
Als Isomorphismus im Sinne der exakten Definition kann man die Abbildung
ϕ : Z2 × Z2 → V4 , (0, 0) (→ id, (1, 0) (→ π, (0, 1) (→ ρ, (1, 1) (→ σ
nehmen.
Wir halten schließlich noch die obige Beobachtung, die zur Einführung des Begriffes Anlass war, als Satz fest:
Satz 1.4.15 Für jede natürliche Zahl m ist der Ring (Zm , +m , ·m ) isomorph zu
dem Ring (Z/mZ, ⊕, $). Ein Isomorphismus ist durch die bijektive Abbildung
r (→ [r]m gegeben.
In Wirklichkeit liefern unsere Überlegungen sogar eine schärfere Aussage. Wir
erinnern daran, dass wir nie vollständig gezeigt haben, dass (Zm , +m , ·m ) alle Eigenschaften eines Ringes besitzt: Die Assoziativgesetze und das Distributivgesetz
waren nicht so leicht aus der Definition abzuleiten. Auf der anderen Seite war es
überhaupt kein Problem (auch wenn wir nicht alles hingeschrieben haben), die
44 Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
Ringeigenschaften von (Z/mZ, ⊕, $) zu zeigen. Nun sieht man sehr leicht, dass
sich mittels der bijektiven verknüpfungstreuen Abbildung alle Rechnungen sofort
von (Z/mZ, ⊕, $) auf (Zm , +m , ·m ) übertragen. Das heißt, die Ringeigenschaften
von (Zm , +m , ·m ) folgen aus denen von (Z/mZ, ⊕, $). Wir können das Prinzip
wie folgt formulieren:
Seien (R, +, ·) und (S, ⊕, $) zwei Mengen mit jeweils zwei Verknüpfungen und
ϕ : R → S bijektiv und verknüpfungstreu. Wenn eins der beiden Objekte (R, +, ·)
und (S, ⊕, $) ein Ring ist, dann ist es auch das andere.
Abschließend merken wir noch an, dass das Entsprechende natürlich auch für
Gruppen gilt.
Lineare Algebra I — 2005–2009
1.5
c Rudolf Scharlau
!
45
Die komplexen Zahlen
Die komplexen Zahlen sind unverzichtbar für nahezu jede Art von höherer Mathematik. Systematisch gehören sie zum einen in die Analysis: Viele bekannte
Funktionen sind in natürlicher Weise auf der Menge C der komplexen Zahlen
definiert; genannt seien für den Augenblick nur die Exponentialfunktion sowie
die trigonometrischen Funktionen. Auch wenn man vorrangig an reellen Funktionen interessiert ist, werden die Eigenschaften oft transparenter, wenn man sie
(auch) als komplexe Funktionen betrachtet. Auf der anderen Seite gehören die
komplexen Zahlen genauso auch in die Algebra und Zahlentheorie: Sie stellen eine
natürliche Erweiterung der üblichen Zahlbereiche dar, auf die man beim Lösen
algebraischer Gleichungen geführt wird. In der Linearen Algebra sind die komplexen Zahlen, selbst wenn man vorrangig an reellen Vektorräumen interessiert
ist, ein unverzichtbares Hilfsmittel für die in Abschnitt 3.2 folgende Behandlung
von Eigenvektoren und Eigenwerten von Matrizen. Übrigens sind die komplexen
Zahlen auch Standard in vielen Anwendungsbereichen der Mathematik. Z.B. ist
die in der Physik, der Elektrotechnik oder der Informationstechnik verwendete
Mathematik ohne komplexe Zahlen kaum denkbar.
Systematisch könnte man die Behandlung der komplexen Zahlen auf den Abschnitt 1.3 aufbauen. Wir werden das jedoch nicht tun. Stattdessen geben wir
eine Beschreibung aus dem Stand”, damit dieser Skriptteil auch unabhängig
”
verwendet werden kann. Für diejenigen, die Abschnitt 1.3 vor diesem Abschnitt
studiert haben, machen wir einige verbindende Bemerkungen.
1.5.1 Beschreibung der komplexen Zahlen:
1. Auf der Menge C der komplexen Zahlen sind zwei Verknüpfungen + und ·
definiert, d.h.
C × C 7 (z, w) (−→ z + w ∈ C
C × C 7 (z, w) (−→ z · w ∈ C
2. Für + und · gelten jeweils das Assoziativ- und Kommutativ-Gesetz sowie
das Distributivgesetz z · (w + w ! ) = z · w + z · w ! ; es gibt neutrale Elemente
0 für + und 1 für ·.
3. Es gilt R ⊂ C; die Verknüpfungen eingeschränkt auf R sind die dort gegebene Addition und Multiplikation.
4. Es gibt ein Element i ∈ C mit i2 := i · i = −1.
5. Es ist C = {a + b · i | a, b, ∈ R}. Dabei ist
a1 + b1 · i = a2 + b2 · i ⇐⇒ a1 = a2 ∧ b1 = b2
a =: Re z heißt Realteil und b =: Im z Imaginärteil von z = a + b · i = a + bi.
c Rudolf Scharlau
!
46 Lineare Algebra I — 2005–2009
Beispiel 2 + 3i und 5 − 2i := 5 + (−2)i sind komplexe Zahlen.
(2 + 3i) + (5 − 2i) = (2 + 5) + (3i + (−2)i)
= (2 + 5) + (3 + (−2))i
=7+i
(2 + 3i) · (5 − 2i)
= 2 · 5 + 2 · (−2) · i + 3 · i · 5 + 3 · i · (−2) · i
= 2 · 5 + 2 · (−2) · i + 3 · 5 · i + 3(−2) · i · i
= 10 + (−6)(−1) + (−4 + 15) · i
= (10 + 6) + (15 − 4)i
= 16 + 11i
Unabhängig von speziellen Zahlenwerten kann man aus der obigen Beschreibung
folgende allgemeine Regeln herleiten:
Satz 1.5.2
Gegeben seien zwei komplexe Zahlen z = a + bi und w = c + di,
dabei a, b, c, d ∈ R. Dann gilt
a) z + w = (a + c) + (b + d)i
b) z · w = (ac − bd) + (ad + bc)i
c) z besitzt ein Negatives −z so, dass z + (−z) = 0, nämlich −z := (−a) +
(−b)i.
d) Wenn z 3= 0 ist. so besitzt z ein Inverses z −1 so, dass z · z −1 = 1, nämlich
z −1 :=
a2
1
(a − bi).
+ b2
Die Formel für das Inverse kann man sich leicht herleiten, indem man das gesuchte
1
Inverse als Bruch a+bi
schreibt und dann durch Erweitern mit a − bi den Nenner
reell macht. Ein Beweis ist das nicht; der wird dadurch erbracht, dass man für das
unter d) angegebene Element z −1 nachrechnet, dass es tatsächlich die Bedingung
z −1 · z = 1 für das Inverse von z erfüllt.
Es bietet sich jetzt an, die Begriffe aus dem früheren Abschnitt 1.3 über algebraische Strukturen ins Spiel zu bringen. Die unter 1.5.1 genannten Regeln besagen
bereits, dass C ein Ring ist. Mit 1.5.2.d) ist nun die zusätzliche Eigenschaft eines
Körpers gezeigt. Wir halten fest:
Folgerung 1.5.3 Die komplexen Zahlen (C, +, ·) bilden einen Körper.
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
47
Bei der letzten Folgerung handelt es sich um einen bedingten Satz“: wenn ein
”
algebraisches Objekt die Eigenschaften aus unserem Wunschkatalog“ 1.5.1 hat,
”
dann auch die weiteren Eigenschaften aus 1.5.2, und zusammengenommen bedeutet dieses, dass ein Körper vorliegt. Aus den bisherigen Überlegungen folgt
noch nicht die Existenz von C. (Die Regeln aus 1.5.1 könnten sogar in sich widersprüchlich sein, was glücklicherweise nicht der Fall ist.) Dass C mit obigen
Eigenschaften tatsächlich exisitiert, wird z.B. durch folgende Konstruktion geliefert:
Satz 1.5.4 (Konstruktion der komplexen Zahlen)
Betrachte auf der Menge C := R2 = R × R = {(a, b) | a, b ∈ R} als Verknüpfung
+ die übliche Vektoraddition (a, b) + (c, d) = (a + c, b + d) sowie die folgende
Multiplikation:
(a, b) · (c, d) := (ac − bd, ad + bc).
Dann gilt folgendes:
a) Die Verknüpfungen erfüllen das Assoziativ-, Kommutativ- und Distributivgesetz.
b) 1 := (1, 0) ist neutrales Element für die Multiplikation.
c) Mit Elementen (a, 0) wird wie in R gerechnet:
(a, 0) + (b, 0) = (a + b, 0), (a, 0) · (b, 0) = (a · b, 0).
d) Das Element i := (0, 1) erfüllt i2 = −1.
Insgesamt gelten bei Identifikation von R mit {(a, 0) | a ∈ R} ⊂ C = R2 alle
geforderten Eigenschaften.
Die in diesem Satz angegebene Definition der Addition und Multiplikation ist
natürlich alles andere als willkürlich. Vielmehr wird sie durch die Formeln aus
a) und b) von Satz 1.5.2 sogar erzwungen. Der Beweis des Satzes erfolgt durch
einfaches, aber längliches Nachrechnen aller Behauptungen anhand der Definitionen. In der Algebra lernt man, wie man durch mehr Theorie den Umfang dieser
Rechnungen fast auf Null reduzieren kann.
Aus dem letzten Satz (eigentlich schon aus Satz 1.5.1.5) liest man ab, dass komplexe Zahlen als Punkte (oder Vektoren) der Ebene interpretiert werden können.
Dabei entspricht die Addition der Vektoraddition. Diese geometrische Sichtweise
legt die folgende Definition nahe:
'
Definition 1.5.5 Für z = x + yi ∈ C heißt |z| := x2 + y 2 der Betrag von z.
c Rudolf Scharlau
!
48 Lineare Algebra I — 2005–2009
Der Betrag einer komplexen Zahl ist also die übliche Länge des zugehörigen Vektors (siehe Definition 2.9.16), bzw. der Abstand des entsprechenden Punktes vom
Nullpunkt.
Die Zahl |z|2 = x2 + y 2 kann man auch als (x + yi)(x − yi) schreiben. Der zweite
Faktor war uns schon beim Inversen einer komplexen Zahl begegnet. Für diese
Zahl gibt es einen eigenen Namen.
Definition 1.5.6 (Konjugiert-komplexe Zahl)
Für eine gegebene komplexe Zahl z = x + yi, x, y ∈ R heißt z := x − yi die zu z
konjugierte oder konjugiert-komplexe Zahl.
Geometrisch entspricht der Übergang zur konjugiert-komplexen Zahl der Spiegelung an der reellen Achse (x-Achse).
Im
"
#
b
|z |
a + ib = z
!
a
$
−b
Re
a − ib = z
Für die komplexe Konjugation (also die Abbildung C → C, z (→ z) gelten die
folgenden Rechenregeln:
Satz 1.5.7 (Komplexe Konjugation) Für alle komplexen Zahlen z, w ∈ C
gilt:
1. z + w = z + w
2. z · w = z · w
3. |z|2 = zz
4. z −1 =
z
, falls z 3= 0.
|z|2
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
49
Auch wenn die Situation nicht ganz analog ist, bietet es sich hier an, den Bezug zu
Definition 1.4.14 herzustellen. Wenn wir für den Moment der komplexen Konjugation
einen Namen geben, etwa σ, also
σ : C → C, σ(z) = z,
dann schreiben sich die Regeln 1. und 2. als σ(z + w) = σ(z) + σ(w) und σ(z · w) =
σ(z) · σ(w). Mit anderen Worten, σ ist verknüpfungstreu für Plus und Mal, also ein
Ringhomomorphismus. Ferner ist σ bijektiv, sogar zu sich selbst invers. Somit ist
σ sogar ein Isomorphismus. Ein Isomorphismus, dessen Definitions- und Zielbereich
übereinstimmen wird ganz allgemein (für alle Arten von mathematischen Strukturen)
als Automorphismus (der betreffenden Struktur, hier der komplexen Zahlen) bezeichnet. Automorphismen tragen zur Frage der Isomorphie nichts bei, weil ohnehin jedes
Objekt zu sich selbst isomorph ist. Vielmehr beschreiben Automorphismen die Sym”
metrien” einer Struktur.
Wir kehren zurück zur Betragsfunktion der komplexen Zahlen. Sie hat die folgenden Eigenschaften, von denen 1., 2. und 4. schon aus der Vektorrechnung bekannt
sind. Eigenschaft 3. bezieht sich auf die Multiplikation und ist neu. Sie folgt sofort
aus der entsprechenden Eigenschaft 1.5.7.2 für die komplexe Konjugation.
Satz 1.5.8 (Betragsfunktion) Für alle komplexen Zahlen z, w ∈ C gilt:
1. |z| ≥ 0
2. |z| = 0 ⇐⇒ z = 0
3. |zw| = |z||w|
4. |z + w| ≤ |z| + |w| (Dreiecksungleichung)
Man kann die komplexen Zahlen z = x + yi statt in kartesischen Koordinaten“
”
(x, y) auch in sog. Polarkoordinaten darstellen. Dazu betrachten wir den Winkel
θ, den der Vektor (a, b) ∈ R2 mit der x-Achse einschließt. Er wird mit arg(z)
bezeichnet (Argument von z).
Im
"
#
y
θ
|z |
x + yi = z
θ = arg(z)
!
x
Aus der Zeichnung liest man ab
cos θ =
x
y
, sin θ =
.
|z|
|z|
Re
c Rudolf Scharlau
!
50 Lineare Algebra I — 2005–2009
Satz 1.5.9 (Polarkoordinaten-Darstellung komplexer Zahlen)
a) Jede komplexe Zahl z 3= 0 kann eindeutig geschrieben werden als
z = r · (cos θ + i sin θ) mit r ∈ R, θ ∈ [0, 2π[.
Dabei ist r = |z|, und θ entspricht dem Winkel zwischen z und der reellen
Achse. Die Zahlen (r, θ) heißen Polarkoordinaten von z.
b) Für die Multiplikation komplexer Zahlen gilt
z · z ! = rr ! · (cos(θ + θ! ) + i sin(θ + θ! )
D.h. die Beträge der beiden komplexen Zahlen werden multipliziert und die
Winkel addiert.
"
'
Im
z · z!
&!
z
θ + θ!
%
z
θ!
θ
!
Re
Die Formel unter b) für das Produkt beweist man durch einfaches Nachrechnen
mittels der Additionstheoreme für Cosinus und Sinus.
√
√
Beispiel. Wir betrachten die komplexe Zahl ω = 12 + 21 −3 = 12 + 21 3 · i. Mit
etwas Rechnung zeigt man ω 3 = −1, ω 6 = 1. √Mit Polarkoordinaten geht dieses
ohne Rechnung: es ist |ω| = 1 und 12 = cos π3 , 23 = sin π3 , also
ω = cos
π
π
+ i sin .
3
3
Also ist ω 3 = cos π + i sin π = −1, ω 6 = cos 2π + i sin 2π = 1.
c Rudolf Scharlau
!
Lineare Algebra I — 2005–2009
Im
"
( ω=
1
2
π
3
−1
+i
√
3
2
!
Re
− π3
)
51
ω=
1
2
−i
√
3
2
Die Darstellung in den Polarkoordinaten θ = arg(z) und |z| lässt sich einprägsamer schreiben mit Hilfe der komplexen Exponentialfunktion. Die Herleitung der
entsprechenden Formel wollen wir im folgenden kurz skizzieren.
Aus der Analysis sind die Reihenentwicklungen der Exponentialfunktion, des Sinus und des Cosinus bekannt: für beliebige reelle x gilt
∞
(
1 n
x
e
=
n!
n=0
∞
(
(−1)n 2n
cos x =
x
(2n)!
n=0
∞
(
(−1)n 2n+1
x
sin x =
(2n
+
1)!
n=0
x
Diese Reihen kann man sich übrigens leicht als Taylorreihen herleiten. Für zwei
beliebige komplexe Zahlen z, w ∈ C kann man aufgrund der in Satz 1.5.8 festgestellten Eigenschaften die Zahl |z − w| sinnvoll als den Abstand der Elemente z
und w in C interpretieren (siehe auch 2.9.16); hiermit kann man die Konvergenz
von Folgen und den Grenzwert-Begriff für Funktionen (und weiter auch Stetigkeit
und Differenzierbarkeit) wie im Reellen definieren. Man kann dann zeigen, dass
Reihen für die Exponentialfunktion, für Cosinus und für Sinus auch für komplexe
Argumente konvergieren. Wie im Reellen konvergieren sie sogar absolut, und als
Konsequenz ist es erlaubt, die Reihenglieder beliebig umzuordnen. Wenn man in
die Exponentialreihe speziell eine rein imaginäre Zahl x = it mit t ∈ R einsetzt
und dann die Reihe so umordnet, dass Real- und Imaginärteil getrennt werden,
erhält man den folgenden Satz.
c Rudolf Scharlau
!
52 Lineare Algebra I — 2005–2009
Satz 1.5.10 (Eulersche Formel) Für jedes t ∈ R gilt
eit = cos t + i · sin t.
Die Polarkoordinaten-Darstellung z = r · (cos θ + i · sin θ) kann man daher auch
schreiben als
z = r eiθ = |z|ei arg(z) für beliebiges z ∈ C.
!
Die Formel für das Produkt z · z ! = rr ! ei(θ+θ ) benötigt nun nicht mehr die Additionstheoreme für Cosinus und Sinus, sondern einfach die Funktionalgleichung
eu+v = eu · ev der Exponentialfunktion, die für beliebiges u, v ∈ C gilt. In der Tat
kann man die Additionstheoreme, wenn man sie einmal vergessen hat, jederzeit
!
!
aus der Funktionalgleichung ei(θ+θ ) = eiθ · eiθ und der Formel von Euler wieder
herleiten.
Wir hatten die komplexen Zahlen durch die Forderung eingeführt, dass sich aus
−1 die Quadratwurzel ziehen lässt. Tatsächlich gilt sehr viel mehr, wie sich mit
der Polarkoordinaten-Darstellung besonders einfach zeigen läßt:
Satz 1.5.11
a) Jede komplexe
√
√Zahl a = r · (cos θ + i sin θ) besitzt eine Quadratwurzel, nämlich a := r · (cos 2θ + i sin 2θ ).
b) Allgemeiner besitzt a für jedes n ∈ N n-te Wurzeln, also Zahlen c ∈ C mit
cn = a. Dieses sind die Zahlen
* )
*
)
√
θ
2kπ
2kπ
θ
n
· cos
+ i · sin
, k = 0, 1, . . . , n−1.
ck := r · cos + i sin
n
n
n
n
Die Zahlen
ωnk := cos
2kπ
2kπ
2kπ
+ i · sin
= ei n ,
n
n
k = 0, 1, . . . , n − 1
heißen auch n-te Einheitswurzeln. Sie sind die Lösungen der Gleichung z n = 1.
In der Tat gilt mit ωn := ωn1 , dass ωnk wirklich die k-te Potenz (ωn )k ist.
In Wirklichkeit gilt in C noch viel mehr als nur die Existenz von Wurzeln: jede
Gleichung n-ten Grades
an xn + an−1 xn−1 + . . . + a1 x + a0 = 0 mit ak ∈ C, an 3= 0
besitzt in C wenigstens eine Lösung. Anders ausgedrückt, jedes nicht-konstante
Polynom mit komplexen Koeffizienten besitzt wenigstens eine Nullstelle. Wenn
man die Lösungen, bzw. Nullstellen mit geeigneten Vielfachheiten versieht, so besitzt die Gleichung sogar n Lösungen. Die genaue Formulierung des Sachverhaltes
geben wir im folgenden Satz.
Lineare Algebra I — 2005–2009
c Rudolf Scharlau
!
53
Theorem 1.5.12 (Fundamentalsatz der Algebra) Jedes Polynom
f (z) = an z n + an−1 z n−1 + . . . + a1 z + a0
mit komplexen Koeffizienten aj und an 3= 0 besitzt eine Darstellung
f (z) = an (z − c1 )(z − c2 ) · · · (z − cn )
mit n komplexen Zahlen c1 , . . . , cn .
Für diesen Satz gibt es unterschiedliche Beweise, die aber alle recht kompliziert
und voraussetzungsreich sind und den Rahmen dieser Vorlesung sprengen würden.
Der Satz 1.5.11 b) ist in dem Theorem natürlich enthalten: die n-ten Wurzeln
einer vorgegebenen komplexen Zahl a sind die Nullstellen des Polynoms z n − a =
0.
Herunterladen