Kapitel 1

Werbung
Kapitel 1
Zum Aufwärmen
1.1
Aussagen
Eine Aussage im üblichen Sinn ist nicht unbedingt eine Aussage im mathematischen Sinn. Aussagen wie Mathe ist doof sind keine Aussagen im mathematischen
Sinn, weil sie nicht einfach nur wahr oder falsch sind. In der Mathematik geht
es aber stets nur um Aussagen, die nur die Wahrheitswerte wahr oder falsch
annehmen können, beispielsweise “6 ist eine natürliche Zahl” oder “2 > 4”.
Aussagen können miteinander verknüpft werden. Das ist eine binäre Operation.
Die Wahrheitswerte der verknüpften Aussagen werden durch sogenannte Wahrheitstafeln erklärt: Seien A und B zwei Aussagen. Dann ist A und B wahr,
sofern beide Aussagen wahr sind, andernfalls ist die Aussage A und B falsch:
A
w
w
f
f
B
w
f
w
f
A und B
w
f
f
f
Statt A und B schreiben wir auch A ∧ B. Weitere Verknüpfungen:
A
w
w
f
f
B
w
f
w
f
A oder B (A ∨ B)
w
w
w
f
Beachten Sie, dass das mathematische oder kein ausschließendes oder ist!
1
A
w
w
f
f
A⇒B
w
f
w
w
B
w
f
w
f
Wir sagen hierzu auch “Aus A folgt B” oder “A impliziert B” oder “wenn A,
dann B”. Gewöhnungsbedürftig ist hier zweierlei. Zum Einen ist A ⇒ B richtig,
wenn A falsch ist (aus etwas Falschem kann man alles folgern). Zweitens ist “⇒”
formal nur ein Symbol für die Verknüpfung von zwei Aussagen zu einer neuen
Aussage, deren Wahrheitswert abhängig ist von den Wahrheitswerten von A
und B. Ein kausaler Zusammenhang zwischen A und B muss nicht
bestehen. So ist beispielsweise die Aussage
Wenn in Magdeburg mehr als drei Menschen wohnen, dann ist am 25.
Dezember Weihnachten
durchaus eine mathematische Aussage, die sogar wahr ist! Trotzdem besteht
zwischen der Einwohnerzahl Magdeburgs und dem Termin für Weihnachten kein
Zusammenhang!
Wenn in der Mathematik etwas bewiesen wird, versucht man, kausale Zusammenhänge herzustellen. Man versucht also zu begründen, warum aus der Gültigkeit einer Aussage A die Gültigkeit einer anderen Aussage B folgt. Das lässt sich
aber nicht mit dem Symbol “⇒” ausdrücken. Deshalb werden Sie in mathematischen Büchern und wissenschaftlichen Aufsätzen auch so gut wie nie das Symbol
“⇒” finden, um eine (kausale) Implikation auszudrücken.
Ähnliches gilt für die Äquivalenz zweier Aussagen, die wie folgt erklärt wird:
A
w
w
f
f
A⇔B
w
f
f
f
B
w
f
w
f
Man sagt auch, A und B seien äquivalent oder gleichwertig.
Eine Tautologie ist eine Verknüpfung von Aussagen, die stets wahr ist, egal,
welche Wahrheitswerte die einzelnen Aussagen annehmen. Beispielsweise gilt
((A ⇒ B) ∧ (B ⇒ A)) ⇔ (A ⇔ B).
Man kann das leicht anhand einer Wahrheitstafel verifizieren. Wir haben hier
Klammern gesetzt, weil die oben erklärten Verknüpfungen nur binäre Verknüpfungen sind. Es ist ja zunächst nicht klar, was passiert, wenn man mehr als eine
Aussage durch ∨ oder ∧ verknüpft. Wir notieren gleich einige wichtige Regeln
für die Verknüpfung mehrerer Aussagen. Vorher sei aber noch die Negation einer
Aussage erklärt:
2
A
w
f
nicht A
f
w
Statt “nicht A” schreibt man auch A.
Wir kommen nun zum ersten Satz dieser Vorlesung:
Satz 1.1.1 Es seien A, B und C Aussagen. Dann sind die folgenden Aussagen
Tautologien, also allgemeingültig:
1. (a) (A ∧ B) ⇔ (B ∧ A)
(b) (A ∨ B) ⇔ (B ∨ A)
2. (a) (A ∧ B) ∧ C ⇔ A ∧ (B ∧ C)
(b) (A ∨ B) ∨ C ⇔ A ∨ (B ∨ C)
3. (a) (A ∧ B) ∨ C ⇔ (A ∨ C) ∧ (B ∨ C)
(b) (A ∨ B) ∧ C ⇔ (A ∧ C) ∨ (B ∧ C)
4. (a) (A ∨ B) ⇔ (A ∧ B)
(b) (A ∧ B) ⇔ (A ∨ B)
Viele Aussagen hängen von “Variablen” ab, z.B.
Für alle natürlichen Zahlen x gilt x ≥ 5.
Wir schreiben in diesem Fall
∀x : A(x)
∃x : A(x)
bedeutet: für alle x gilt A(x)
bedeutet: es gibt ein x für das A(x) gilt.
Manchmal beschränkt man sich nur auf gewisse Mengen (Abschnitt 1.2) und
schreibt dann
∀x ∈ M : A(x)
∃x ∈ M : A(x)
für alle x ∈ M gilt A(x)
es gibt ein x ∈ M für das A(x) gilt.
Wir werden diese sogenannten Quantoren kaum benutzen. Wichtig ist, dass Sie
verstehen, wie man “für alle” und “es gibt” negiert:
Satz 1.1.2 Es gilt
∀x ∈ M : A(x)
⇔
∃x ∈ M : A(x)
∃x ∈ M : A(x)
⇔
∀x ∈ M : A(x)
3
Prinzip des indirekten Beweises
Wenn Sie eine mathematische Aussage A beweisen wollen, so können Sie versuchen, A durch Äquivalenzumformungen in eine Aussage B umzuformen, von
der Sie wissen, ob sie wahr oder falsch ist. Ist B eine wahre Aussage, so ist auch
A wahr, und ist B falsch, so ist auch A falsch. Es würde auch genügen, aus der
Gültigkeit einer wahren Aussage B auf A zu schließen, also aus B die Aussage
A zu folgern. Auch dann ist A wahr, sofern B wahr ist.
Sie können aber A nicht dadurch beweisen, dass Sie zeigen, dass aus der Gültigkeit von A eine wahre Aussage folgt und somit folgern, A müsse wahr sein.
Beispiel 1.1.3 Angenommen, Sie wollen “3 = 0” beweisen. Dann multiplizieren Sie beide Seiten dieser “Gleichung” mit 0 und erhalten so 0 = 0, eine sicherlich wahre Aussage. Das sagt aber nichts über den Wahrheitsgehalt von “3 = 0”
aus (Multiplikation mit 0 ist keine Äquivalenzumformung, d.h. sie können aus
der Aussage “0 = 0” nicht auf “3 = 0” schließen).
Eine andere Möglichkeit basiert auf dem folgenden Satz:
Satz 1.1.4 (Prinzip des indirekten Beweises) Seien A und B Aussagen.
Die folgende Aussage ist eine Tautologie:
(B ⇒ A) ⇔ (A ⇒ B)
Das bedeutet folgendes: Sie wollen A dadurch beweisen, dass Sie A aus einer
wahren Aussage B ableiten. Das können Sie auch dadurch erreichen, dass Sie
aus A auf B schließen.
Ein sehr bekannter indirekter Beweis ist der Beweis für die Irrationalität von
√
2, sowie der Beweis von Euklid, dass es unendlich viele Primzahlen gibt. Dazu
müssen wir zunächst klären, was eine Primzahl ist. Wir wollen eine natürliche
Zahl p eine Primzahl nennen, wenn p 6= 1 und wenn aus p = m · n mit m, n ∈ N
stets folgt m = 1 oder n = 1. In der Algebra nennt man so etwas meistens
ein irreduzibles Element. Auf diese feinen Unterschiede gehen wir später noch
genauer ein.
Satz 1.1.5 (Euklid) Es gibt unendlich viele Primzahlen.
Beweis Angenommen, es gibt nur endlich viele Primzahlen, nenne diese Menge
P.
Wir betrachten dann das Produkt all dieser Primzahlen und nennen es A. Nun
betrachten wir A + 1. Diese Zahl hat mindestens einen Primteiler: Entweder ist
sie selber eine Primzahl, oder aber wir können sie “zerlegen” A + 1 = m · n,
m, n ∈ N, mit 1 < m, n < A + 1. Jetzt ist m oder n eine Primzahl, dann haben
wir einen Primteiler gefunden, oder aber wir können m weiter zerlegen. Weil
die Zahlen immer kleiner werden, muss das Verfahren irgendwann mit einer
Primzahl, also einer nicht weiter zerlegbaren Zahl, enden. Nun gibt es also eine
Primzahl p, die A + 1 teilt. Wenn p ∈ P, so wäre p ein Teiler sowohl von A als
auch von A + 1, was nicht geht. Also kann P nicht die Menge aller Primzahlen
sein.
4
1.2
Mengen
Unter einer Menge verstehen wir eine “Zusammenfassung” von unterschiedlichen
Objekten zu einem neuen Ganzen.
Mengen können auf verschiedene Arten dargestellt werden. Wir können die Elemente aufzählen (z.B. {1, 3, 5}), wobei man manchmal auch “Pünktchen” schreiben muss, z.B. {1, 2, 3, . . . , 10}, {2, 4, 6, 8, . . .}. Man kann die Mengen auch beschreiben, z.B. {x : x ist Magdeburger}.
Ist x ein Element der Menge M , so schreibt man x ∈ M , andernfalls x ∈
/ M.
Definition 1.2.1 Seien M und N Mengen. Dann heißt M eine Teilmenge
von N (geschrieben M ⊆ N ) wenn alle Elemente aus M auch in N liegen.
Formaler:
M ⊆ N :⇔ ∀x gilt: (x ∈ M ⇒ x ∈ N ).
Ferner gilt
M =N
:⇔
M ⊆ N und N ⊆ M.
Der Doppelpunkt hier in der Definition soll bedeuten, dass es sich um eine
Definition handelt: Die Aussage links vom Doppelpunkt wird durch die Aussage
rechts erklärt.
Der zweite Teil dieser Definition liefert ein wichtiges Beweisprinzip um zu zeigen,
dass zwei Mengen gleich sind: Man zeigt, dass sie sich gegenseitig enthalten. Wir
werden dies gleich an einem Beispiel sehen (Satz 1.2.4)
Die leere Menge wird definiert als
Sie enthält kein Element.
{ } := {x : x 6= x}.
In der nächsten Definition erklären wir Vereinigung und Schnitt zweier Mengen:
Definition 1.2.2 Seien M und N Mengen. Die Menge
M ∪ N := {x : x ∈ M oder x ∈ N }
heißt die Vereinigung von M und N . Die Menge
M ∩ N := {x : x ∈ M und x ∈ N }
heißt der Schnitt.
Wenn für zwei Mengen M und N gilt M ∩ N = { }, so nennt man die
Mengen disjunkt. Die Vereinigung disjunkter Mengen nennt man disjunkte
˙ .
Vereinigung, Bezeichnung M ∪N
5
Der Doppelpunkt vor dem Gleichheitszeichen soll hier andeuten, dass vor dem
Doppelpunkt ein Symbol steht, das durch den Ausdruck auf der rechten Seite
erklärt wird.
Es gibt einige einfache Sätze über die Vereinigung und den Schnitt von Mengen:
Satz 1.2.3 Seien M , N1 und N2 Mengen. Dann gilt
(1.) M ∩ (N1 ∪ N2 ) = (M ∩ N1 ) ∪ (M ∩ N2 )
(2.) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 )
Beweis (nur (1.))
M ∩ (N1 ∪ N2 ) = {x : x ∈ M und (x ∈ N1 oder x ∈ N2 )}
= {x : (x ∈ M und x ∈ N1 ) oder (x ∈ M und x ∈ N2 )}
= (M ∩ N1 ) ∪ (M ∩ N2 ).
Wir haben hier einfach die Definition von ∪ und ∩ angewendet.
Satz 1.2.4 Seien M und N Mengen. Dann gilt
(1.) M ∩ N = M
⇔
M ⊆N
(2.) M ∪ N = M
⇔
N ⊆M
Beweis (nur (2.)) “⇒”:
N ⊆M ∪N
=M
klar
Voraussetzung
“⇐”: Zu zeigen ist M ∪ N ⊆ M und M ⊆ M ∪ N , siehe Definition 1.2.1. Die
Beziehung M ⊆ M ∪ N ist klar. Weiter gilt
M ∪N ⊆M ∪M
=M
weil N ⊆ M , also nach Voraussetzung
klar.
Definition 1.2.5 (Mengendifferenz) Seien M und N Mengen. Dann heißt
M \ N := {x ∈ M : x ∈
/ N } die Differenz von M und N .
Beachte, dass wir hier nicht N ⊆ M vorausssetzen. Wir haben hier zur Beschreibung der Menge auf der rechten Seite eine etwas andere, aber ebenfalls sehr
gebräuchliche Notation benutzt. Wir hätten statt {x ∈ M : x ∈
/ N } natürlich
auch {x : x ∈ M und x ∈
/ N } schreiben können.
6
Wir werden in dieser Vorlesung mit folgenden “Zahlbereichen” umgehen. Wir
werden uns keine Gedanken über deren axiomatische Begründung machen. Jede(r) von Ihnen sollte durch die Schulzeit ein Gefühl für diese Zahlen bekommen
haben:
N := {1, 2, 3, . . .}
Menge der natürlichen Zahlen
N0 := {0, 1, 2, 3, . . .}
Menge der natürlichen Zahlen
einschließlich 0
Z := {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} Menge der ganzen Zahlen
Q := { pq : p, q ∈ Z, q 6= 0}
Menge der rationalen Zahlen
R
Menge der reellen Zahlen
Später werden dazu noch die komplexen Zahlen C kommen. Wenn wir uns jeweils
auf die positiven Zahlen beschränken wollen, schreiben wir ein hochgestelltes
+ hinter das entsprechende Symbol, z.B. Q+ . Wenn wir uns auf die Zahlen
≥ 0 einschränken, schreiben wir zusätzlich eine tiefergestellte 0. Dann gilt z.B.
Z+ = N und Zn0 = N0 .
Hat eine Menge M nur endlich viele Elemente, so heißt die Menge endlich und
wir nennen die Anzahl der Elemente von M die Kardinalität von M , Bezeichnung |M |. Hat M unendlich viele Elemente, schreibt man auch |M | = ∞. Im
Fall unendlicher Mengen gibt es auch verschieden Mächtigkeiten, es gibt also
nicht nur ein “∞”. Dazu sagen wir in Abschnitt 1.6 etwas mehr.
Mengensysteme
Die Vereinigung und der Schnitt wurden nur für jeweils zwei Mengen definiert.
Man kann die Definition auch problemlos auf endlich viele Mengen ausdehnen,
es gilt dann auch (offensichtlich) das Assoziativgesetz
(A ∪ B) ∪ C = A ∪ (B ∪ C)
sowie
(A ∩ B) ∩ C = A ∩ (B ∩ C)
Wir können die Definition aber nicht so ohne weiteres auf unendliche Vereinigungen und Schnitte ausdehnen. Das ist in der Mathematik ein generelles
Problem/Phänomen: Wenn man die Verknüpfung von Elementen (hier z.B. die
Vereinigung von Mengen) binär definiert, so bedeutet das nicht, dass man auch
unendlich viele Elemente miteinander verknüpfen kann (vgl. unendliche Reihen
in der Analysis).
Definition 1.2.6 (Mengensysteme) Wir nennen S ein Mengensystem,
wenn die Elemente von S selber Mengen sind. Sei S ein solches Mengensystem.
Dann definieren wir
[
M := {x : ∃M ∈ S mit x ∈ M }
M ∈S
7
als die Vereinigung der Elemente in S und
\
M := {x : ∀M ∈ S gilt x ∈ M }
M ∈S
als den Schnitt.
Ist S ein Mengensystem, deren “Elemente” Teilmengen von X sind, so heißt
S eine Partition von X, wenn gilt:
S
[P1]
M ∈S M = X
[P2]
M ∩ N = { } für alle M, N in S mit M 6= N .
In vielen Fällen haben wir Mengen, die irgendwie mit Elementen aus I indiziert
sind. Genauer: Jedem i ∈ I wird genau eine Menge Mi zugeordnet. Wir sprechen
dann von einer Mengenfamilie (Mi )i∈I . Das ist Ihnen sicher vertraut, wenn
I = N, aber es besteht kein Grund, sich auf N alsSpotenzielle Indexmenge
S
zu beschränken. Wir schreiben in diesem Fall statt M ∈S M auch i∈I Mi .
St
Entsprechend kann man für I = {s, s + 1, . . . , t} auch i=s Mi schreiben.
Beachten Sie den Unterschied zu dem Mengensystem {Mi : i ∈ I}. In diesem
Mengensystem taucht jede Menge nur einmal auf, es kann aber sehr wohl Mi =
Mj für i 6= j gelten.
Beispiel 1.2.7 (1.) Sei I = N, Mi := {x · i : x ∈ Z} (Vielfache von i). Dann
gilt
[
\
Mi = Z,
Mi = {0}.
i∈N
i∈N
Aber für jede endliche Teilmenge J ⊆ N gilt
\
Mj 6= { 0}.
j∈J
(2.) I = R, Mi := {y ∈ R : −i ≤ y ≤ i}. Dann gilt beispielsweise
[
Mx = [−1, 1]
x∈[0,1]
\
Mx
= [−2, 2]
Mx
= [−2, 2]
x≥2
\
x>2
Ein wichtiges Mengensystem ist die Potenzmenge einer Menge. Das ist die Menge aller Teilmengen von M .
8
Definition 1.2.8 Sei M eine Menge. Dann heißt die Menge
P(M ) := {N : N ⊆ M }
die Potenzmenge von M .
Beachten Sie bitte, dass |P(M )| < ∞ genau für endliche Mengen M gilt. Wir
werden im nächsten Kapitel die Kardinalität von P(M ) bestimmen.
1.3
Vollständige Induktion
Sehr oft wollen wir Aussagen A(n) beweisen, die für alle natürlichen Zahlen n
gelten, oder für alle ganzen Zahlen n ≥ n0 . Man kann dann wie folgt vorgehen:
(IA)
Induktionsanfang Zeige die Gültigkeit der Aussage A(n0 ).
(IS)
Induktionsschritt Zeige die Gültigkeit der Implikation A(n) ⇒ A(n+
1) für alle n ≥ n0 . Hierbei nennt man A(n) auch manchmal die Induktionsvoraussetzung.
Wenn (IA) und (IS) richtig sind, dann gilt die Aussage A(n) für alle n ≥ n0 .
Beispiel 1.3.1
(1.) Wir wollen die Aussage A(n) zeigen:
n
X
i=
i=1
n(n + 1)
.
2
(IA) Die Aussage ist offenbar richtig für n = 1.
(IS) Wir setzen voraus
n
X
i=
i=1
und wollen zeigen
n+1
X
i=
i=1
n(n + 1)
2
(n + 1)(n + 2)
,
2
d.h. wir wollen die Ausage A(n + 1) zeigen. Das geht durch einfache Umformungen:
n+1
X
i=1
i=(
n
X
i=1
i) + (n + 1) =
(n + 1)(n + 2)
n(n + 1)
+ (n + 1) =
.
2
2
Das zweite Gleichheitszeichen ist gültig wegen (IA).
9
(2.) Wir wollen nun zeigen, dass die Potenzmenge einer Menge M mit n Elementen genau 2n Elemente hat. Der Induktionsanfang (IA) für n = 1 ist klar,
da
P({x}) = {{ }, {x}}
gilt.
Nun zum Induktionsschritt: Sei dazu M eine Menge mit |M | = n+1. Sei x ∈ M .
Dann kann die Potenzmenge P(M ) in zwei Teilmengen P1 und P2 aufgeteilt
werden, d.h. P(M ) = P1 ∪˙ P2 :
P1
P2
= {U ⊆ M : x ∈ U } = {U 0 ∪ {x} : U 0 ⊆ M \ {x}}
= {U ⊆ M : x ∈
/ U } = {U ⊆ M \ {x}}.
Wegen der Induktionsvoraussetzung (die Aussage für Mengen der Kardinalität
n) gilt |P1 | = |P2 | = 2n , also
|P(M )| = |P1 | + |P2 | = 2n + 2n = 2n+1 .
(3.) Es ist wichtig, den Induktionsanfang (IA) zu überprüfen.
Sonst könnte man etwa folgenden Beweis für die Aussage
Für jede natürliche Zahl n gilt n(n + 1) ist ungerade
führen (in Wirklichkeit gilt ja genau das Gegenteil, nämlich all diese Zahlen sind
gerade!):
Der Induktionsschritt würde hier korrekt funktionieren: Wir setzen voraus, dass
n(n + 1) ungerade ist. Daraus wollen wir schließen: (n + 1)(n + 2) ist ungerade.
Das geht wie folgt:
(n + 1)(n + 2) = n(n + 1) + 2(n + 1),
und weil die erste der beiden Zahlen nach Voraussetzung ungerade, die zweite
gerade ist, so ist die Summe ungerade. Der Induktionsschritt ist also richtig!
Der Induktionsanfang funktioniert aber nicht, weil n(n + 1) halt für n = 1 (und
auch für alle anderen n) gerade ist.
1.4
Relationen
Definition 1.4.1 Seien X und Y Mengen. Dann bezeichnet
X × Y := {(x, y) : x ∈ X, y ∈ Y }
die Menge der geordneten Paare (kartesisches Produkt). Eine Teilmenge R ⊆
X × Y heißt Relation. Gilt X = Y , so spricht man von einer Relation auf
X. Statt (x, y) ∈ R schreibt man manchmal auch x R y.
10
Beispiel 1.4.2 Sei X = {1, 2, 3} und Y = {2, 4}. Dann sind die folgenden
Mengen Relationen zwischen X und Y :
(1.) R1 = {(1, 2), (1, 4), (3, 2)}.
(2.) R2 = {(1, 4}.
(3.) R3 = { }.
(4.) R4 = {(1, 2), (2, 2), (3, 4)}
Relationen sind beliebige Teilmengen des kartesischen Produktes zweier Mengen. Das bedeutet nicht, dass zwischen den Elementen irgendein (mathematisch)
sinnhafter Zusammenhang besteht.
Mathematisch interessantere Relationen sind z.B. die Gleichheitsrelation, die
Relation ≤ (z.B. auf R, aber auch auf Z). Eine wichtige Relation auf Z wollen
wir hier noch einführen:
Definition 1.4.3 Seien a, b ∈ Z. Wir sagen a teilt b, falls es ein x ∈ Z gibt
mit ax = b. Bezeichnung: a | b. Dadurch wird eine Relation auf Z definiert
(Teilbarkeitsrelation).
Definition 1.4.4 Sei R eine Relation auf X. Dann nennen wir R
reflexiv
symmetrisch
antisymmetrisch
transitiv
:⇔
:⇔
:⇔
:⇔
(x, x) ∈ R ∀x ∈ X
(x, y) ∈ R ⇒ (y, x) ∈ R ∀x, y ∈ X
(x, y) ∈ R und (y, x) ∈ R ⇒ x = y ∀x, y ∈ X
(x, y) ∈ R und (y, z) ∈ R
⇒ (x, z) ∈ R ∀x, y, z ∈ X
Eine Relation die reflexiv, symmetrisch und transitiv ist heißt Äquivalenzrelation. Eine Relation die symmetrisch, transitiv und antisymmetrisch ist heißt
Ordnungsrelation
Beispiel 1.4.5 Die Relation ≤ auf R ist eine Ordnungsrelation. Die Relation
= ist eine Ordnungs- und Äquivalenzrelation. Die Relation teilt auf Z ist keine
Ordnungsrelation, wohl aber ist sie reflexiv und transitiv (2 | (−2) und −2 |
2, aber 2 6= −2). Die Relation 6= ist symmetrisch, aber weder reflexiv noch
transitiv.
11
Definition 1.4.6 Sei n ∈ Z, n 6= 0. Auf der Menge Z definieren wir eine
Relation ≡ mod n wie folgt:
x ≡ y mod n
:⇔
n | (x − y).
Sprechweise: x kongruent y modulo n. Die Relation bezeichnen wir auch als
≡n .
Satz 1.4.7 Die Relation ≡n ist eine Äquivalenzrelation.
Beweis Die Reflexivität und Symmetrie sind klar; zu zeigen ist nur die Transitivität:
n | (x − y) ⇔ na = x − y
n | (y − z) ⇔ nb = y − z
für ein a ∈ Z
für ein b ∈ Z.
Das bedeutet aber n(a + b) = x − z, also n | (x − z), d.h. x ≡ z mod n.
Wir können Äquivalenzklassen benutzen, um Partitionen einer Menge zu finden.
Dazu definieren wir zunächst Äquivalenzklassen:
Definition 1.4.8 Sei ∼ eine Äquivalenzrelation auf X. Dann heißen die Mengen
[x]∼ := {y ∈ X : x ∼ y}
Äquivalenzklassen.
Lemma 1.4.9 Für jede Äquivalenzrelation ∼ gilt:
x∼y
⇔
[x]∼ = [y]∼ .
Beweis “⇐:” klar
“⇒:” Wegen der Symmetrie von ∼ genügt es [x]∼ ⊆ [y]∼ zu zeigen. Sei also
z ∈ [x]∼ . Dann x ∼ z und x ∼ y, also z ∼ y, d.h. z ∈ [y]∼ .
Wenn wir also ein Element y aus der Äquivalenzklasse [x]∼ betrachten, dann ist
die zu y gehörende Äquivalenzklasse [y]∼ gleich [x]∼ . Wir nennen x einen Repräsentanten der Äquivalenzklasse. Es sind aber alle Repräsentanten “gleichbedeutend”, man kann irgendeinen wählen.
Beispiel 1.4.10 Wir betrachten die Relation ≡3 . Wir erhalten die Äquivalenzklassen
[0]≡3
[1]≡3
[2]≡3
= {0, ±2, ±6, . . .} = [3]≡3 = [6]≡3 = . . .
= {. . . , −5, −2, 1, 4, 7, . . .} = [−2]≡3 = . . .
= {. . . , −4, −1, 2, 5, 8, . . .} = [5]≡3 = . . .
12
Es gilt Z = [0]≡3 ∪˙ [1]≡3 ∪˙ [2]≡3 . Dass dies kein Zufall ist, zeigt der nächste Satz:
Satz 1.4.11 Sei X eine Menge und S eine Partition von X. Dann ist die Relation ∼S , die durch
x ∼S y
es gibt S ∈ S mit x, y ∈ S
:⇔
erklärt ist, eine Äquivalenzrelation auf X. Die Äquivalenzklassen dieser Relation
sind gerade die Mengen aus S.
Umgekehrt bilden die Äquivalenzklassen einer Äquivalenzrelation ∼ eine Partition T von X. Es gilt ∼T = ∼.
Mit anderen Worten kann man sagen, dass Partitionen und Äquivalenzrelationen
“eigentlich” dieselben Objekte sind.
Beweis
(i) Zu zeigen ist, dass ∼S eine Äquivalenzrelation ist.
reflexiv:
symmetrisch:
transitiv:
klar
klar
Sei x ∼S y und y ∼S z. Es gibt dann Mengen S1 und S2
in S mit x, y ∈ S1 und y, z ∈ S2 , also y ∈ S1 ∩ S2 . Weil S
eine Partition ist, muss S1 = S2 gelten, also x ∼S z.
(ii)
[x]∼S = {y : x ∼S y} = {y : es gibt S ∈ S mit x, y ∈ S} = Sx ,
wobei Sx die Menge aus S ist mit x ∈ Sx . Es gibt nur eine solche Menge, weil
S eine Partition ist.
(iii) Die Äquivalenzklassen bilden eine Partition von X. Klar ist
[
[x]∼ = X.
x∈X
Angenommen, [x]∼ ∩ [y]∼ =
6 { }, z.B. z ∈ [x]∼ ∩ [y]∼ , dann x ∼ z und z ∼ y,
also x ∼ y und damit [x]∼ = [y]∼ (wegen Lemma 1.4.9).
(iv) Es bleibt ∼=∼T zu zeigen.
x ∼T y
⇔ ∃T ∈ T mit x, y ∈ T
⇔ ∃z ∈ X mit x, y ∈ [z]∼
⇔ ∃z ∈ X mit x ∼ z und y ∼ z
⇔ x∼y
Um im letzten Schritt “⇐” zu zeigen, wähle z = x.
Die zu einer Äquivalenzrelation ∼ auf X gehörende Partition wird oft auch mit
X/ ∼ bezeichnet.
13
1.5
Abbildungen
Ganz besondere Relationen sind Abbildungen:
Definition 1.5.1 Seien X und Y Menge. Eine Relation f ⊆ X × Y heißt
eine Abbildung wenn sie folgende Eigenschaft hat: Zu jedem x ∈ X gibt es
genau ein y ∈ Y mit (x, y) ∈ f . Das Element y wird üblicherweise mit f (x)
bezeichnet.
Wir nennen X den Definitionsbereich und Y den Wertebereich. Häufig
kann man f formelmäßig angeben. Man spricht dann auch häufig von Funktionen, obwohl die Begriffe Funktion und Abbildungen eigentlich dasselbe bedeuten.
Beispiel 1.5.2 (1.) X = R, Y = R, f = {(x, x2 ) : x ∈ R}.
(2.) X = {1, 2, 3}, Y = {7, 8}, f = {(1, 7), (2, 7), (3, 8)}.
(3.) R4 aus Beispiel 1.4.2 ist eine Abbildung.
(4.) Die Relationen R1 , R2 und R3 aus Beispiel 1.4.2 sind keine Abbildungen.
Ist U ⊆ X eine Teilmenge des Definitionsbereiches, so heißt
f [U ] := {f (x) : x ∈ U }
das Bild von U . Ist V ⊆ Y , so heißt
f −1 [V ] := {x ∈ X : f (x) ∈ V }
das Urbild von V . Beachten Sie, dass zur Definition einer Abbildung nicht nur
die Angabe einer Abbildungsvorschrift f gehört, sondern auch die Angabe von
X und Y . Man schreibt auch
f: X
x
→
Y
7→ f (x).
Somit sind z.B. formal die beiden Abbildungen
f: R → R
x 7→ x2
und
f : R → R+
0
x 7→ x2
verschieden.
14
Definition 1.5.3 (Besondere Abbildungen) Sei f : X → Y eine Abbildung, U ⊆ X. Die Abbildung f 0 : U → Y , u 7→ f (u) heißt Einschränkung
von f auf U , Bezeichnung f|U .
Ist X ⊆ Y , so heißt die Abbildung f : X → Y , x 7→ x die Einbettung von
X in Y .
Die Identität auf X ist die Abbildung idX : X → X, x 7→ x.
Definition 1.5.4 Sei f : X → Y eine Abbildung. Dann heißt f
injektiv
: ⇔ f (x) = f (y) ⇒ x = y ∀x, y ∈ X.
surjektiv : ⇔ f [X] = Y
bijektiv
: ⇔ f injektiv und surjektiv
Beispiel 1.5.5 Die Abbildung f : R → R, x 7→→ x2 ist weder injektiv noch
2
surjektiv. Die Abbildung f : R → R+
0 , x 7→ x ist surjektiv, aber nicht injektiv.
+
Die Abbildung f : R0 → R ist injektiv, aber nicht surjektiv. Die Abbildung
+
f : R+
0 → R0 ist bijektiv.
Lemma 1.5.6 Sei f : X → Y eine Abbildung. Dann ist f : X → f [X], x 7→
f (x) surjektiv.
Wir können eine Abbildung f also einfach surjektiv machen, indem wir den
Bildbereich einschränken. Man könnte sie auch injektiv machen, indem man
den Definitionsbereich einschränkt. Das ist aber in der Regel keine sinnvolle
Operation. Wichtiger ist der Abbildungssatz 1.5.14.
Wir wollen unsere Untersuchungen hier mit der Hintereinanderausführung von
Abbildungen fortsetzen.
Definition 1.5.7 Seien f : X → Y und g : Y → Z Abbildungen. Dann
definieren wir g◦f : X → Z durch (g◦f )(x) := g(f (x)). Durch diese Definition
wird wirklich eine Abbildung X → Z erklärt.
Machen Sie sich klar, dass in dieser Definition auch ein “Satz” versteckt ist.
Wir behaupten nämlich, dass g ◦ f eine Abbildung X → Z ist. Wir weisen
darauf hin, dass erst f und dann g ausgeführt wird. Diese Verknüpfung ist nicht
kommutativ, alleine schon deshalb, weil f ◦ g gar nicht erklärt sein muss, wenn
g ◦ f erklärt ist. Aber selbst wenn beide Kompositionen definiert sind, muss f ◦ g
nicht gleich g ◦ f sein:
Beispiel 1.5.8 Sei f : R → R, x 7→ x3 sowie g : R → R, x 7→ 2x . Dann ist
3
(g ◦ f )(x) = 2x , aber (g ◦ f )(x) = (2x )3 .
15
Man kann jedoch zeigen, dass die Verknüpfung assoziativ ist:
Satz 1.5.9 Seien f : X → Y , g : Y → Z und h : Z → W Abbildungen. dann
gilt
h ◦ (g ◦ f ) = (h ◦ g) ◦ f.
Beweis Wir müssen einfach nachrechnen, was bei den Einsetzungen von x in
beiden Fällen herauskommt. Auf der linken Seite erhalten wir
h ◦ (g ◦ f )(x) = h((g ◦ f )(x)) = h((g(f (x)))).
Das kommt aber auch heraus, wenn wir anders klammern, also x auf der rechten
Seite einsetzen.
Im folgenden Satz fassen wir einige Beobachtungen über die Injektivität, Surjektivität und Bijektivität von zusammengesetzten Abbildungen zusammen:
Satz 1.5.10 Sei f : X → Y eine Abbildung, X, Y 6= { }. Dann gilt:
(1.) f ist genau dann injektiv, wenn es g : Y → X gibt mit g ◦ f = idX .
(2.) f ist genau dann surjektiv, wenn es g : Y → X gibt mit f ◦ g = idY .
Beweis (nur (1.)) “⇒”: Ist x ∈ X, so definieren wir g(f (x)) = x. Das ist
wohldefiniert, weil es keine zwei verschiedenen x und x0 gibt mit f (x) = f (x0 ).
Ist y ∈
/ f [X], so definieren wir g(y) = x0 für ein beliebiges x0 ∈ X (hier brauchen
wir X 6= { }). Dann ist g in der Tat eine Abbildung Y → X mit der gewünschten
Eigenschaft.
“⇐”: Ist f (x) = f (x0 ), so ist (g ◦ f )(x) = (g ◦ f )(x0 ). Weil aber g ◦ f = idX ,
so ist x = x0 , die Abbildung f also injektiv.
Bijektive Abbildungen haben die schöne Eigenschaft, dass es eine Umkehrabbildung gibt. Wir wollen dies im folgenden Satz zusammenfassen.
Satz 1.5.11 Sei f : X → Y eine bijektive Abbildung. Dann gibt es genau eine
Abbildung g : Y → X mit f ◦ g = idY . Es gibt auch genau eine Abbildung
g 0 : Y → X mit g 0 ◦ f = idX . Es gilt g 0 = g.
Beweis Die Existenz von g ist klar nach Satz 1.5.10. Angenommen, es gibt
zwei Abbildungen g1 6= g2 mit den gewünschten EIgenschaften. Dann ist g1 (y) 6=
g2 (y) für ein y ∈ Y . Injektivität von f ◦g liefert y = (f ◦g1 )(y) 6= (f ◦g2 )(y) = y,
ein Widerspruch. Zu g 0 = g: [g 0 ◦ (f ◦ g)](y) = g 0 (y) und [(g 0 ◦ f ) ◦ g](y) = g(y).
Die gemäß Satz 1.5.11 eindeutig bestimmte Abbildung nennt man auch die
Inverse von f , Bezeichnung f −1 .
Wenn X und Y endliche Mengen sind mit |X| = |Y |, so fallen die Begriffe
injektiv, surjektiv und bijektiv zusammen:
16
Satz 1.5.12 Sei f : X → Y , wobei X und Y endliche Mengen sind mit |X| =
|Y | = n. Dann ist f genau dann injektiv, wenn f surjektiv ist.
Beweis Weil f injektiv ist, gilt |f [X]| = n. Andernfalls müsste es mindestens
zwei verschiedene Elemente x, x0 ∈ X geben mit f (x) = f (x0 ). Also ist f surjektiv. Ist umgekehrt f surjektiv, so gilt |f [X]| = n. Das ist aber unmöglich, wenn
f nicht injektiv ist, denn dann gäbe es x, x0 mit x 6= x0 und f (x) = f (x0 ).
Lemma 1.5.13 Sei f : X → Y eine Abbildung. Dann ist die Relation ∼, die
durch x ∼ x0 :⇔ f (x) = f (x0 ) erklärt ist, eine Äquivalenzrelation auf X.
Die Äquivalenzklassen sind die Urbilder f −1 [y], y ∈ f [X].
Der nächste Satz klingt schwieriger, als er ist:
Satz 1.5.14 (Abbildungssatz) Sei f : X → Y eine Abbildung, und sei X/ ∼
die Mengenfamilie der durch ∼ definierten Äquivalenzklassen. Ferner sei τ :
X → X/ ∼, τ (x) = f (x). Dann gibt es genau eine Abbildung f 0 : X/ ∼ → Y
mit f 0 ◦ τ = f . Die Abbildung f 0 ist injektiv. Sie ist genau dann surjektiv wenn
f surjektiv ist.
Wir wollen diesen Abschnitt mit einer Definition abschließen:
Definition 1.5.15 Sei (Yi )i∈I eine Mengenfamilie nicht leerer Mengen. Dann
ist
[
Yi : f (i) ∈ Yi }
i∈I Yi := {f : I →
i∈I
das kartesische Produkt der Yi .
Ist I = {1, . . . , n} eine endliche Menge, so ist das kartesische Produkt die Menge
der n-Tupel, wobei der i-te Eintrag in einem Tupel ein Element aus Yi sein muss.
Gilt Y = Y1 = · · · = Yn , so schreiben wir auch Y n .
Es ist die Aussage des Auswahlaxioms, das
i∈I Yi 6= { } gilt. Das ist intuitiv
so einleuchtend, das man darüber eigentlich kein Wort verlieren möchte. Das
Problem ist aber, dass wir hier die Existenz einer Abbildung postulieren, ohne
sie angeben zu können. Dieses Problem tritt erst für sehr “große” Mengen I und
sehr komplizierte Mengen Yi auf. Ist I endlich, so gibt es keine Probleme, ist
Yi ⊆ N, so gibt es ebenfalls keine Probleme, wir können für jedes i das kleinste
Element in Yi wählen. Wenn aber z.B. I = P(R) die Potenzmenge von R ist
und YM := M , so können wir keine Auswahlfunktion f angeben.
Das Auswahlaxiom kann man nicht beweisen! So harmlos das Axiom klingt, so
hat es doch Konsequenzen, die völlig unserer Anschauung widersprechen. So
kann man etwa zeigen, dass man eine Kugel vom Durchmesser 1 in (unendlich
viele) Mengen so zerlegen kann, dass man aus diesen Mengen zwei Kugeln vom
Durchmesser 1 “disjunkt und ohne Lücken” zusammensetzen kann (Satz von
Banach-Tarski).
17
1.6
Der Satz von Schroeder-Bernstein
Definition 1.6.1 Zwei Mengen A und B heißen gleichmächtig, wenn es eine
bijektive Abbildung f : A → B gibt.
Intuitiv meint man, dass B mehr Elemente als A hat, wenn es eine injektive
Abbildung A → B gibt, die nicht bijektiv ist. Denn dann ordnet man ja jedem
Element aus A ein Element aus B zu, aber es bleiben noch Elemente aus B
“übrig”. Das man aber bei unendlichen Mengen so nicht argumentieren kann,
zeigt das folgende Beispiel:
Beispiel 1.6.2 Die Abbildung f : Z → Z, z 7→ 2z ist injektiv, aber nicht
surjektiv. Trotzdem gib es natürlich auch eine bijektive Abbildung Z → Z (z.B.
die Identität).
Anschaulich kann man sagen, dass die Existenz einer injektiven Abbildung A →
B heißt, dass A höchstens so viele Elemente wie B hat. Anschaulich würde man
nun erwarten, wenn A höchstens so viele Elemente wie B hat und umgekehrt
B höchstens so viele Elemente wie A, dass dann A genauso viele Elemente wie
B hat. Das zu beweisen ist aber gar nicht so einfach und ist der Inhalt des
folgenden Satzes:
Satz 1.6.3 Seien S und T Mengen. Wenn es eine injektive Abbildung f : S →
T und eine injektive Abbildung g : T → S gibt, dann gibt es auch eine bijektive
Abbildung h : S → T .
Wie beweisen zunächst folgendes Lemma:
Lemma 1.6.4 Sei B ⊆ A, und sei f : A → B eine injektive Abbildung. Dann
gibt es auch eine bijektive Abbildung h : A → B
Beweis Wir definieren
C0
Cn+1
:= A \ B
:= f [Cn ].
Wir setzen
C :=
∞
[
Ck .
k=0
Wir können jetzt explizit eine bijektive Abbildung h : A → B angeben:
f (z) wenn z ∈ C
h(z) :=
z
wenn z ∈
/ C.
18
Zunächst müssen wir uns überzeugen, dass h eine Abbildung nach B ist. Das ist
klar wenn z ∈ C. Gilt z ∈
/ C, dann ist insbesondere z ∈ B, also h(z) = z liegt in
B. Die Abbildung h ist injektiv, weil f injektiv ist. Zur Bijektivität von h: Sei
b ∈ B beliebig. Dann kann b ∈ C oder b ∈
/ C gelten. Im Fall b ∈
/ C gilt h(b) = b,
also liegt b im Bild von h. Ist b ∈ C, so gilt b ∈ Ck für ein k > 0 (beachte
k > 0 weil b ∈ B, also b ∈
/ C0 ). Weil Ck = f [Ck−1 ] erhalten wir b = f (a) für ein
a ∈ Ck−1 , also b = h(a).
Wir kommen nun zum Beweis des Satzes 1.6.3:
Beweis Seien, wie im Satz angegeben, f und g die beiden injektiven Abbildungen. Wir betrachten dann g ◦ f : S → g[T ]. Diese Abbildung ist injektiv,
und g[T ] ⊆ S. Wir können also Lemma 1.6.4 anwenden, d.h. es gibt eine bijektive Abbildung h0 : S → g[T ]. Weil g injektiv ist, gibt es g −1 : g[T ] → T .
Diese Abbildung ist bijektiv. Damit ist die Zusammensetzung g −1 ◦ h0 : S → T
bijektiv.
Dieser Satz ist nur für unendliche Mengen nicht trivial. Für endliche Mengen ist
der Satz zwar mehr oder minder klar, liefert aber trotzdem ein sehr wichtiges
Beweisprinzip. Um zu zeigen, dass zwei Mengen M und N gleich viele Elemente
haben, genügt es, eine bijektive Abbildung zwischen den Mengen anzugeben.
Das ist aber gleichbedeutend damit, zwei injektive Abbildungen M → N und
N → M anzugeben. Die Idee, die Mächtigkeit einer Menge M nicht durch
“Zählen”, sondern durch Konstruktion einer bijektiven Abbildung M → N ,
wobei |N | bekannt ist, zu bestimmen, spielt in der Kombinatorik eine große
Rolle.
1.7
Der Euklidische Algorithmus: Zum Rechnen
mit ganzen Zahlen
Wir haben in Satz 1.1.5 gezeigt, dass es unendlich viele Primzahlen gibt. In der
Mathematik wird der Begriff “prim” üblicherweise etwas anders definiert als wir
es dort gemacht haben. Für Z stimmen beide Begriffe überein, was wir in diesem
Abschnitt zeigen wollen.
Definition 1.7.1 Eine Zahl p ∈ Z, p 6= 0, 1 heißt prim, falls gilt:
p | ab
⇒
p | a oder p | b
für alle a, b ∈ Z. Wir nennen p irreduzibel, wenn für alle a, b ∈ Z gilt
p = ab
⇒
a = ±1 oder b = ±1.
19
Anders gesagt: p ist irreduzibel wenn ±1, ±p die einzigen Teiler von p sind.
Lemma 1.7.2 p prim
⇒
p irreduzibel.
Beweis Angenommen a | p, d.h. ab = p für ein b ∈ Z. Also p | ab, also p | a
oder p | b, weil p prim. Im ersten Fall folgt a = ±p, im zweiten Fall würde px = b
für ein x ∈ Z gelten, also apx = ab = p und deshalb a = ±1
Es erfordert etwas Arbeit, die Umkehrung dieses Lemmas zu zeigen. Dazu definieren wir zunächst, was ein größter gemeinsamer Teiler ist:
Definition 1.7.3 Seien a, b ∈ Z. dann heißt m ein größter gemeinsamer
Teiler (ggT) von a und b, wenn m | a, b gilt und wenn aus n | a, b stets folgt
n | m. Bezeichnung: ggT(a, b) (nicht ganz korrekt, weil der ggT nur bis auf
das Vorzeichen eindeutig bestimmt ist).
Lemma 1.7.4 (Division mit Rest) Seien a, b ∈ Z, b 6= 0. Dann gibt es eindeutig bestimmte Zahlen q, r ∈ Z mit 0 ≤ r ≤ b − 1 mit a = bq + r.
Beweis Zur Existenz: Betrachte die Menge {a − bq : q ∈ Z, a − bq ≥ 0}. Diese
Menge hat ein kleinstes Element r, das offenbar die Bedingung 0 ≤ r ≤ b − 1
erfüllt.
Zur Eindeutigkeit: Wenn a = bq 0 + r0 = bq + r mit 0 ≤ r, r 0 ≤ b − 1 gilt, so folgt
b(q − q 0 ) = r0 − r, also b | (r0 − r). Das geht aber nur für r = r0 , weil |r − r0 | ≤ b
gilt.
Satz 1.7.5 In Z haben je zwei Elemente 6= 0 einen ggT.
Beweis Der Beweis ist algorithmisch, d.h. wir geben sogar ein Verfahren an,
wie man den ggT bestimmen kann:
Euklidischer Algorithmus
0 ≤ r1 < b
0 ≤ r 2 < r1
a = bq1 + r1
b = r 1 q2 + r 2
0 ≤ r 3 < r3
r1 = r 2 q3 + r 3
...
Weil die ri immer kleiner werden, muss das Verfahren terminieren:
0 ≤rs+2 < rs+1
rs = rs+1 qs+2 + rs+2
rs+1 = rs+2 qs+3
Beachten Sie, dass der Rest ri , der im i-ten Schritt auftritt, stets in der Form
ri = asi +bti geschrieben werden kann. Das ist sicherlich wahr im ersten Schritt,
20
im zweiten Schritt gilt r2 = b−r1 q1 . Weil aber r1 sich in der Form r1 = as1 +bt1
schreiben läßt, kann man auch r2 entsprechend darstellen, usw.
Insbesondere gibt es s, t ∈ Z mit d := rs+2 = as + bt. Ferner ist d ein Teiler
von rs+1 , also auch von rs usw, also auch von a und b. Wir haben also einen
Teiler von a und b gefunden, der in der Form d = as + bt dargestellt werden
kann (Vielfachsummendarstellung).
Sei nun m ein beliebiger Teiler von a und b, also mx = a und my = b. Dann
d = mxs + myt, also m | d. Also ist d = gcd(a, b).
Wir weisen darauf hin, dass die hier vorgestellte Bestimmung des ggT viel, viel
einfacher ist als das manchmal in der Schule angewandte Verfahren, erst die
Primfaktorzerlegungen von a und b zu bestimmen und dann zu schauen, welche
Primteiler in beiden Zerlegungen gemeinsam vorkommen.
Um zu zeigen, dass in Z alle irreduziblen Elemente prim sind, benötigen wir
noch einen Hilfssatz:
Lemma 1.7.6 Ist p irreduzibel und ist p kein Teiler von a, dann gcd(p, a) = 1.
Beweis Angenommen, d = gcd(a, p), also dx = p. Weil p irreduzibel ist, gilt
somit d = ±1 oder x = ±1. Im ersten Fall sind wir fertig, im zweiten Fall wäre
d = ±p und somit p doch ein Teiler von a.
Satz 1.7.7 p irreduzibel
⇔
p prim.
Beweis “⇐:” siehe Lemma 1.7.2.
“⇒:” Angenommen p | ab, aber p teilt weder a noch b. Wegen Lemma 1.7.6 gilt
dann 1 = gcd(p, a) = gcd(p, b). Satz 1.7.5 liefert die Existenz von s, s0 , t, t0 mit
1 = ps + at = ps0 + bt0 .
Multiplikation liefert
1 = (ps + at)(ps0 + bt0 ) = px + abtt0
für ein geeignetes x ∈ Z. Wegen p | ab wäre dann p ein Teiler von 1, was nicht
geht.
Man kann jetzt den Satz von der eindeutigen Primfaktorzerlegung formulieren
und beweisen (siehe Vorlesung).
1.8
Zusammenfassung
• Sie haben in diesem Kapitel die grundlegenden Begriffe aus der Mengenlehre und der Aussagenlogik gelernt.
21
• Sie sollten in der Lage sein, einfache Aussagen aus der Mengenlehre und
der Aussagenlogik selbstständig zu beweisen (Wahrheitstafeln).
• Sie sollten das Prinzip des indirekten Beweises vesrtehen
• Sie sollten das Prinzip der vollständigen Induktion verstanden haben und
einfach Induktionsbeweise führen können.
• Sie sollen den Euklidischen Algorithmus beherrschen und in der Lage sein,
damit den ggT zweier ganzer Zahlen sowie seine Vielfachsummendarstellung zu bestimmen.
• Sie sollen den Begriff der Relation und der Abbildung verstanden haben
und mit den Begriffen reflexiv, transitiv, symmetrisch, injektiv, surjektiv,
bijektiv umgehen können.
• Der Zusammenhang zwischen Äquivalenzrelationen und Partitionen muss
Ihnen klar sein.
• Die “modulo” Relation sollte Ihnen geläufig sein.
• Sie haben in diesem Kapitel u.a. im Zusammenhang mit dem Abbildungssatz erstmals das Problem der “Wohldefiniertheit” kennengelernt. Machen
Sie sich damit vertraut! Ein solches Problem tritt noch häufiger auf.
22
Herunterladen