Kapitel 1 Zum Aufwärmen 1.1 Aussagen Eine Aussage im üblichen Sinn ist nicht unbedingt eine Aussage im mathematischen Sinn. Aussagen wie Mathe ist doof sind keine Aussagen im mathematischen Sinn, weil sie nicht einfach nur wahr oder falsch sind. In der Mathematik geht es aber stets nur um Aussagen, die nur die Wahrheitswerte wahr oder falsch annehmen können, beispielsweise “6 ist eine natürliche Zahl” oder “2 > 4”. Aussagen können miteinander verknüpft werden. Das ist eine binäre Operation. Die Wahrheitswerte der verknüpften Aussagen werden durch sogenannte Wahrheitstafeln erklärt: Seien A und B zwei Aussagen. Dann ist A und B wahr, sofern beide Aussagen wahr sind, andernfalls ist die Aussage A und B falsch: A w w f f B w f w f A und B w f f f Statt “A und B” schreiben wir auch A ∧ B. Weitere Verknüpfungen: A w w f f B w f w f A oder B (A ∨ B) w w w f Beachten Sie, dass das mathematische oder kein ausschließendes oder ist! 1 A w w f f B w f w f A⇒B w f w w Wir sagen hierzu auch “Aus A folgt B” oder “A impliziert B” oder “wenn A, dann B”. Gewöhnungsbedürftig ist hier zweierlei. Zum Einen ist A ⇒ B richtig, wenn A falsch ist (aus etwas Falschem kann man alles folgern). Zweitens ist “⇒” formal nur ein Symbol für die Verknüpfung von zwei Aussagen zu einer neuen Aussage, deren Wahrheitswert abhängig ist von den Wahrheitswerten von A und B. Ein kausaler Zusammenhang zwischen A und B muss nicht bestehen. So ist beispielsweise die Aussage Wenn in Magdeburg mehr als drei Menschen wohnen, dann ist am 25. Dezember Weihnachten durchaus eine mathematische Aussage, die sogar wahr ist! Trotzdem besteht zwischen der Einwohnerzahl Magdeburgs und dem Termin für Weihnachten kein Zusammenhang! Wenn in der Mathematik etwas bewiesen wird, versucht man, kausale Zusammenhänge herzustellen. Man versucht also zu begründen, warum aus der Gültigkeit einer Aussage A die Gültigkeit einer anderen Aussage B folgt. Das lässt sich aber nicht mit dem Symbol “⇒” ausdrücken. Deshalb werden Sie in mathematischen Büchern und wissenschaftlichen Aufsätzen auch so gut wie nie das Symbol “⇒” finden, um eine (kausale) Implikation auszudrücken. Ähnliches gilt für die Äquivalenz zweier Aussagen, die wie folgt erklärt wird: A w w f f B w f w f A⇔B w f f f Man sagt auch, A und B seien äquivalent oder gleichwertig. Eine Tautologie ist eine Verknüpfung von Aussagen, die stets wahr ist, egal, welche Wahrheitswerte die einzelnen Aussagen annehmen. Beispielsweise gilt ((A ⇒ B) ∧ (B ⇒ A)) ⇔ (A ⇔ B). Man kann das leicht anhand einer Wahrheitstafel verifizieren. Wir haben hier Klammern gesetzt, weil die oben erklärten Verknüpfungen nur binäre Verknüpfungen sind. Es ist ja zunächst nicht klar, was passiert, wenn man mehr als eine Aussage durch ∨ oder ∧ verknüpft. Wir notieren gleich einige wichtige Regeln für die Verknüpfung mehrerer Aussagen. Vorher sei aber noch die Negation einer Aussage erklärt: 2 A w f nicht A f w Statt “nicht A” schreibt man auch A. Wir kommen nun zum ersten Satz dieser Vorlesung: Satz 1.1.1 Es seien A, B und C Aussagen. Dann sind die folgenden Aussagen Tautologien, also allgemeingültig: 1. (a) (A ∧ B) ⇔ (B ∧ A) (b) (A ∨ B) ⇔ (B ∨ A) 2. (a) (A ∧ B) ∧ C ⇔ A ∧ (B ∧ C) (b) (A ∨ B) ∨ C ⇔ A ∨ (B ∨ C) 3. (a) (A ∧ B) ∨ C ⇔ (A ∨ C) ∧ (B ∨ C) (b) (A ∨ B) ∧ C ⇔ (A ∧ C) ∨ (B ∧ C) 4. (a) (A ∨ B) ⇔ (A ∧ B) (b) (A ∧ B) ⇔ (A ∨ B) Viele Aussagen hängen von “Variablen” ab, z.B. Für alle natürlichen Zahlen x gilt x ≥ 5. Wir schreiben in diesem Fall ∀x : A(x) ∃x : A(x) bedeutet: für alle x gilt A(x) bedeutet: es gibt ein x für das A(x) gilt. Manchmal beschränkt man sich nur auf gewisse Mengen (Abschnitt 1.2) und schreibt dann ∀x ∈ M : A(x) ∃x ∈ M : A(x) für alle x ∈ M gilt A(x) es gibt ein x ∈ M für das A(x) gilt. Wir werden diese sogenannten Quantoren kaum benutzen. Wichtig ist, dass Sie verstehen, wie man “für alle” und “es gibt” negiert: Satz 1.1.2 Es gilt ∀x ∈ M : A(x) ⇔ ∃x ∈ M : A(x) ∃x ∈ M : A(x) ⇔ ∀x ∈ M : A(x) 3 Prinzip des indirekten Beweises Wenn Sie eine mathematische Aussage A beweisen wollen, so können Sie versuchen, A durch Äquivalenzumformungen in eine Aussage B umzuformen, von der Sie wissen, ob sie wahr oder falsch ist. Ist B eine wahre Aussage, so ist auch A wahr, und ist B falsch, so ist auch A falsch. Es würde auch genügen, aus der Gültigkeit einer wahren Aussage B auf A zu schließen, also aus B die Aussage A zu folgern. Auch dann ist A wahr, sofern B wahr ist. Sie können aber A nicht dadurch beweisen, dass Sie zeigen, dass aus der Gültigkeit von A eine wahre Aussage folgt und somit folgern, A müsse wahr sein. Beispiel 1.1.3 Angenommen, Sie wollen “3 = 0” beweisen. Dann multiplizieren Sie beide Seiten dieser “Gleichung” mit 0 und erhalten so 0 = 0, eine sicherlich wahre Aussage. Das sagt aber nichts über den Wahrheitsgehalt von “3 = 0” aus (Multiplikation mit 0 ist keine Äquivalenzumformung, d.h. sie können aus der Aussage “0 = 0” nicht auf “3 = 0” schließen). Eine andere Möglichkeit basiert auf dem folgenden Satz: Satz 1.1.4 (Prinzip des indirekten Beweises) Seien A und B Aussagen. Die folgende Aussage ist eine Tautologie: (B ⇒ A) ⇔ (A ⇒ B) Das bedeutet folgendes: Sie wollen A dadurch beweisen, dass Sie A aus einer wahren Aussage B ableiten. Das können Sie auch dadurch erreichen, dass Sie aus A auf B schließen. √ Sehr bekannte indirekte Beweise sind der Beweis für die Irrationalität von 2, sowie der Beweis von Euklid, dass es unendlich viele Primzahlen gibt. Dazu müssen wir zunächst klären, was eine Primzahl ist. Wir wollen eine natürliche Zahl p eine Primzahl nennen, wenn p 6= 1 und wenn aus p = m · n mit m, n ∈ N stets folgt m = 1 oder n = 1. In der Algebra nennt man so etwas meistens ein irreduzibles Element. Auf diese feinen Unterschiede gehen wir später noch genauer ein. Satz 1.1.5 (Euklid) Es gibt unendlich viele Primzahlen. Beweis Angenommen, es gibt nur endlich viele Primzahlen. Wir nennen diese Menge P. Wir betrachten dann das Produkt all dieser Primzahlen und nennen es A. Nun betrachten wir A + 1. Diese Zahl hat mindestens einen Primteiler: Entweder ist sie selber eine Primzahl, oder aber wir können sie “zerlegen” A + 1 = m · n, m, n ∈ N, 1 < m, n < A + 1. Ist m oder n eine Primzahl, dann haben wir einen Primteiler gefunden, oder aber wir können m weiter zerlegen. Weil die Zahlen immer kleiner werden, muss das 4 Verfahren irgendwann mit einer Primzahl, also einer nicht weiter zerlegbaren Zahl, enden. Nun gibt es also eine Primzahl p, die A + 1 teilt. Wenn p ∈ P, so wäre p ein Teiler sowohl von A als auch von A + 1, was nicht geht. Also kann P nicht die Menge aller Primzahlen sein. 1.2 Mengen Unter einer Menge verstehen wir eine “Zusammenfassung” von unterschiedlichen Objekten zu einem neuen Ganzen. Mengen können auf verschiedene Arten dargestellt werden. Wir können die Elemente aufzählen (z.B. {1, 3, 5}), wobei man manchmal auch “Pünktchen” schreiben muss, z.B. {1, 2, 3, . . . , 10}, {2, 4, 6, 8, . . .}. Man kann die Mengen auch beschreiben, z.B. {x : x ist Magdeburger}. Ist x ein Element der Menge M , so schreibt man x ∈ M , andernfalls x ∈ / M. Definition 1.2.1 Seien M und N Mengen. Dann heißt M eine Teilmenge von N (geschrieben M ⊆ N ) wenn alle Elemente aus M auch in N liegen. Formaler: M ⊆ N :⇔ ∀x gilt: (x ∈ M ⇒ x ∈ N ). Ferner gilt M =N :⇔ M ⊆ N und N ⊆ M. Der Doppelpunkt hier in der Definition soll bedeuten, dass es sich um eine Definition handelt: Der Ausdruck links vom Doppelpunkt wird durch den Ausdruck rechts erklärt. Der zweite Teil dieser Definition liefert ein wichtiges Beweisprinzip um zu zeigen, dass zwei Mengen gleich sind: Man zeigt, dass sie sich gegenseitig enthalten. Wir werden dies gleich an einem Beispiel sehen (Satz 1.2.4) Die leere Menge wird definiert als { } := {x : x 6= x}. Sie enthält kein Element. In der nächsten Definition erklären wir Vereinigung und Schnitt zweier Mengen: Definition 1.2.2 Seien M und N Mengen. Die Menge M ∪ N := {x : x ∈ M oder x ∈ N } 5 heißt die Vereinigung von M und N . Die Menge M ∩ N := {x : x ∈ M und x ∈ N } heißt der Schnitt. Wenn für zwei Mengen M und N gilt M ∩ N = { }, so nennt man die Mengen disjunkt. Die Vereinigung disjunkter Mengen nennt man disjunkte ˙ . Vereinigung, Bezeichnung M ∪N Der Doppelpunkt vor dem Gleichheitszeichen soll hier, ähnlich wie in Definition 1.2.1, andeuten, dass vor dem Doppelpunkt ein Symbol steht, das durch den Ausdruck auf der rechten Seite erklärt wird. Es gibt einige einfache Sätze über die Vereinigung und den Schnitt von Mengen: Satz 1.2.3 Seien M , N1 und N2 Mengen. Dann gilt (1.) M ∩ (N1 ∪ N2 ) = (M ∩ N1 ) ∪ (M ∩ N2 ) (2.) M ∪ (N1 ∩ N2 ) = (M ∪ N1 ) ∩ (M ∪ N2 ) Beweis (nur (1.)) M ∩ (N1 ∪ N2 ) = = = {x : x ∈ M und (x ∈ N1 oder x ∈ N2 )} {x : (x ∈ M und x ∈ N1 ) oder (x ∈ M und x ∈ N2 )} (M ∩ N1 ) ∪ (M ∩ N2 ). Wir haben hier einfach die Definition von ∪ und ∩ angewendet. Satz 1.2.4 Seien M und N Mengen. Dann gilt (1.) M ∩ N = M ⇔ M ⊆N (2.) M ∪ N = M ⇔ N ⊆M Beweis (nur (2.)) “⇒”: N ⊆ M ∪N klar =M Voraussetzung “⇐”: Zu zeigen ist M ∪ N ⊆ M und M ⊆ M ∪ N , siehe Definition 1.2.1. Die Beziehung M ⊆ M ∪ N ist klar. Weiter gilt M ∪N ⊆ M ∪M =M weil N ⊆ M , also nach Voraussetzung klar. 6 Definition 1.2.5 (Mengendifferenz) Seien M und N Mengen. Dann heißt M \ N := {x ∈ M : x ∈ / N } die Differenz von M und N . Beachte, dass wir hier nicht N ⊆ M vorausssetzen. Wir haben hier zur Beschreibung der Menge auf der rechten Seite eine etwas andere, aber ebenfalls sehr gebräuchliche Notation benutzt. Wir hätten statt {x ∈ M : x ∈ / N } natürlich auch {x : x ∈ M und x ∈ / N } schreiben können. Wir werden in dieser Vorlesung mit folgenden “Zahlbereichen” umgehen. Wir werden uns keine Gedanken über deren axiomatische Begründung machen. Jede(r) von Ihnen sollte durch die Schulzeit ein Gefühl für diese Zahlen bekommen haben: N := {1, 2, 3, . . .} Menge der natürlichen Zahlen N0 := {0, 1, 2, 3, . . .} Menge der natürlichen Zahlen einschließlich 0 Z := {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} Menge der ganzen Zahlen Menge der rationalen Zahlen Q := { pq : p, q ∈ Z, q 6= 0} R Menge der reellen Zahlen Später werden noch die komplexen Zahlen C dazukommen. Wenn wir uns jeweils auf die positiven Zahlen beschränken wollen, schreiben wir ein hochgestelltes + hinter das entsprechende Symbol, z.B. Q+ . Wenn wir uns auf die Zahlen ≥ 0 einschränken, schreiben wir zusätzlich eine tiefergestellte 0. Dann gilt z.B. Z+ = N und Z+ 0 = N0 . Hat eine Menge M nur endlich viele Elemente, so heißt die Menge endlich und wir nennen die Anzahl der Elemente von M die Kardinalität von M , Bezeichnung |M |. Hat M unendlich viele Elemente, schreibt man auch |M | = ∞. Im Fall unendlicher Mengen gibt es auch verschieden Mächtigkeiten, es gibt also nicht nur ein “∞”. Dazu sagen wir in Abschnitt 1.6 etwas mehr. Mengensysteme Die Vereinigung und der Schnitt wurden nur für jeweils zwei Mengen definiert. Man kann die Definition auch problemlos auf endlich viele Mengen ausdehnen. Es gelten dann auch (offensichtlich) die Assoziativgesetze (A ∪ B) ∪ C = A ∪ (B ∪ C) und (A ∩ B) ∩ C = A ∩ (B ∩ C) Wir können die Definition aber nicht so ohne weiteres auf unendliche Vereinigungen und Schnitte ausdehnen. Das ist in der Mathematik ein generelles Problem/Phänomen: Wenn man die Verknüpfung von Elementen (hier z.B. die Vereinigung von Mengen) binär definiert, so bedeutet das nicht, dass man auch 7 unendlich viele Elemente miteinander verknüpfen kann (vgl. unendliche Reihen in der Analysis). Definition 1.2.6 (Mengensysteme) Wir nennen S ein Mengensystem, wenn die Elemente von S selber Mengen sind. Sei S ein solches Mengensystem. Dann definieren wir [ M := {x : ∃M ∈ S mit x ∈ M } M∈S als die Vereinigung der Elemente in S und \ M := {x : ∀M ∈ S gilt x ∈ M } M∈S als den Schnitt. Ist S ein Mengensystem, deren “Elemente” Teilmengen von X sind, so heißt S eine Partition von X, wenn gilt: [P1] [P2] S M∈S M =X M ∩ N = { } für alle M, N in S mit M 6= N . In vielen Fällen haben wir Mengen, die “irgendwie” mit Elementen aus einer Indexmenge I indiziert sind. Genauer: Jedem i ∈ I wird genau eine Menge Mi zugeordnet. Wir sprechen dann von einer Mengenfamilie (Mi )i∈I . Das ist Ihnen sicher vertraut, wenn I = N, aber es besteht kein Grund, sich auf N als zu beschränken. Wir schreiben in diesem Fall statt S S potenzielle Indexmenge M . Entsprechend kann man für I = {s, s + 1, . . . , t} auch M auch i i∈I StM∈S i=s Mi schreiben. Beachten Sie den Unterschied zu dem Mengensystem {Mi : i ∈ I}. In diesem Mengensystem taucht jede Menge nur einmal auf, es kann aber sehr wohl Mi = Mj für i 6= j gelten. Beispiel 1.2.7 (1.) Sei I = N, Mi := {x · i : x ∈ Z} (Vielfache von i). Dann gilt [ \ Mi = Z, Mi = {0}. i∈N i∈N Aber für jede endliche Teilmenge J ⊆ N gilt \ Mj 6= { 0}. j∈J 8 (2.) I = R, Mi := {y ∈ R : −i ≤ y ≤ i}. Dann gilt beispielsweise [ Mx = [−1, 1] x∈[0,1] \ Mx = [−2, 2] \ Mx = [−2, 2] x≥2 x>2 Ein wichtiges Mengensystem ist die Potenzmenge einer Menge. Das ist die Menge aller Teilmengen von M . Definition 1.2.8 Sei M eine Menge. Dann heißt die Menge P(M ) := {N : N ⊆ M } die Potenzmenge von M . Beachten Sie bitte, dass |P(M )| < ∞ genau für endliche Mengen M gilt. Wir werden im nächsten Kapitel die Kardinalität von P(M ) bestimmen. 1.3 Vollständige Induktion Sehr oft wollen wir Aussagen A(n) beweisen, die für alle natürlichen Zahlen n gelten, oder für alle ganzen Zahlen n ≥ n0 . Man kann dann wie folgt vorgehen: (IA) Induktionsanfang: Zeige die Gültigkeit der Aussage A(n0 ). (IS) Induktionsschritt: Zeige die Gültigkeit der Implikation A(n) ⇒ A(n + 1) für alle n ≥ n0 . Hierbei nennt man A(n) auch manchmal die Induktionsvoraussetzung. Wenn (IA) und (IS) richtig sind, dann gilt die Aussage A(n) für alle n ≥ n0 . Beispiel 1.3.1 (1.) Wir wollen die Aussage A(n) zeigen: n X i= i=1 n(n + 1) . 2 (IA) Die Aussage ist offenbar richtig für n = 1. (IS) Wir setzen voraus n X i=1 i= n(n + 1) 2 9 und wollen zeigen n+1 X i=1 i= (n + 1)(n + 2) , 2 d.h. wir wollen die Ausage A(n + 1) zeigen. Das geht durch einfache Umformungen: n X n(n + 1) (n + 1)(n + 2) i) + (n + 1) = i=( + (n + 1) = . 2 2 i=1 i=1 n+1 X Das zweite Gleichheitszeichen ist gültig wegen (IA). (2.) Wir wollen nun zeigen, dass die Potenzmenge einer Menge M mit n Elementen genau 2n Elemente hat. Der Induktionsanfang (IA) für n = 1 ist klar, da P({x}) = {{ }, {x}} gilt. Nun zum Induktionsschritt: Sei dazu M eine Menge mit |M | = n+1. Sei x ∈ M . Dann kann die Potenzmenge P(M ) in zwei Teilmengen P1 und P2 aufgeteilt werden, d.h. P(M ) = P1 ∪˙ P2 : P1 P2 = {U ⊆ M : x ∈ U } = {U ′ ∪ {x} : U ′ ⊆ M \ {x}}, = {U ⊆ M : x ∈ / U } = {U ⊆ M \ {x}}. Wegen der Induktionsvoraussetzung (die Aussage für Mengen der Kardinalität n) gilt |P1 | = |P2 | = 2n , also |P(M )| = |P1 | + |P2 | = 2n + 2n = 2n+1 . (3.) Es ist wichtig, den Induktionsanfang (IA) zu überprüfen. Sonst könnte man etwa folgenden Beweis für die Aussage Für jede natürliche Zahl n gilt n(n + 1) ist ungerade führen (in Wirklichkeit gilt ja genau das Gegenteil, nämlich all diese Zahlen sind gerade!): Der Induktionsschritt würde hier korrekt funktionieren: Wir setzen voraus, dass n(n + 1) ungerade ist. Daraus wollen wir schließen: (n + 1)(n + 2) ist ungerade. Das geht wie folgt: (n + 1)(n + 2) = n(n + 1) + 2(n + 1), und weil die erste der beiden Zahlen nach Voraussetzung ungerade, die zweite gerade ist, so ist die Summe ungerade. Der Induktionsschritt ist also richtig! Der Induktionsanfang funktioniert aber nicht, weil n(n + 1) halt für n = 1 (und auch für alle anderen n) gerade ist. 10 1.4 Relationen Definition 1.4.1 Seien X und Y Mengen. Dann bezeichnet X × Y := {(x, y) : x ∈ X, y ∈ Y } die Menge der geordneten Paare (kartesisches Produkt). Eine Teilmenge R ⊆ X × Y heißt Relation. Gilt X = Y , so spricht man von einer Relation auf X. Statt (x, y) ∈ R schreibt man manchmal auch x R y. Beispiel 1.4.2 Sei X = {1, 2, 3} und Y = {2, 4}. Dann sind die folgenden Mengen Relationen zwischen X und Y : (1.) R1 = {(1, 2), (1, 4), (3, 2)}. (2.) R2 = {(1, 4)}. (3.) R3 = { }. (4.) R4 = {(1, 2), (2, 2), (3, 4)} Relationen sind beliebige Teilmengen des kartesischen Produktes zweier Mengen. Das bedeutet nicht, dass zwischen den Elementen irgendein (mathematisch) sinnhafter Zusammenhang besteht. Mathematisch interessantere Relationen sind z.B. die Gleichheitsrelation, die Relation ≤ (z.B. auf R, aber auch auf Z). Eine wichtige Relation auf Z wollen wir hier noch einführen: Definition 1.4.3 Seien a, b ∈ Z. Wir sagen a teilt b, falls es ein x ∈ Z gibt mit ax = b. Bezeichnung: a | b. Dadurch wird eine Relation auf Z definiert (Teilbarkeitsrelation). Definition 1.4.4 Sei R eine Relation auf X. Dann nennen wir R reflexiv symmetrisch antisymmetrisch transitiv :⇔ :⇔ :⇔ :⇔ (x, x) ∈ R ∀x ∈ X (x, y) ∈ R ⇒ (y, x) ∈ R ∀x, y ∈ X (x, y) ∈ R und (y, x) ∈ R ⇒ x = y ∀x, y ∈ X (x, y) ∈ R und (y, z) ∈ R ⇒ (x, z) ∈ R ∀x, y, z ∈ X 11 Eine Relation die reflexiv, symmetrisch und transitiv ist heißt Äquivalenzrelation. Eine Relation die reflexiv, transitiv und antisymmetrisch ist heißt Ordnungsrelation Beispiel 1.4.5 Die Relation ≤ auf R ist eine Ordnungsrelation. Die Relation = ist eine Ordnungs- und Äquivalenzrelation. Die Relation teilt auf Z ist keine Ordnungsrelation, wohl aber ist sie reflexiv und transitiv (2 | (−2) und −2 | 2, aber 2 6= −2). Die Relation 6= ist symmetrisch, aber weder reflexiv noch transitiv. Definition 1.4.6 Sei n ∈ Z, n 6= 0. Auf der Menge Z definieren wir eine Relation ≡ mod n wie folgt: x ≡ y mod n :⇔ n | (x − y). Sprechweise: x kongruent y modulo n. Die Relation bezeichnen wir auch als ≡n . Satz 1.4.7 Die Relation ≡n ist eine Äquivalenzrelation. Beweis Die Reflexivität und Symmetrie sind klar; zu zeigen ist nur die Transitivität: n | (x − y) ⇔ na = x − y n | (y − z) ⇔ nb = y − z für ein a ∈ Z für ein b ∈ Z. Das bedeutet aber n(a + b) = x − z, also n | (x − z), d.h. x ≡ z mod n. Wir können Äquivalenzklassen benutzen, um Partitionen einer Menge zu finden. Dazu definieren wir zunächst Äquivalenzklassen: Definition 1.4.8 Sei ∼ eine Äquivalenzrelation auf X. Dann heißen die Mengen [x]∼ := {y ∈ X : x ∼ y} Äquivalenzklassen. Lemma 1.4.9 Für jede Äquivalenzrelation ∼ gilt: x∼y ⇔ [x]∼ = [y]∼ . Beweis “⇐:” klar “⇒:” Wegen der Symmetrie von ∼ genügt es [x]∼ ⊆ [y]∼ zu zeigen. Sei also z ∈ [x]∼ . Dann gilt x ∼ z und x ∼ y, also z ∼ y, d.h. z ∈ [y]∼ . 12 Wenn wir also ein Element y aus der Äquivalenzklasse [x]∼ betrachten, dann ist die zu y gehörende Äquivalenzklasse [y]∼ gleich [x]∼ . Wir nennen x einen Repräsentanten der Äquivalenzklasse. Es sind aber alle Repräsentanten “gleichbedeutend”, man kann irgendeinen wählen. Beispiel 1.4.10 Wir betrachten die Relation ≡3 . Wir erhalten die Äquivalenzklassen [0]≡3 [1]≡3 [2]≡3 = {0, ±2, ±6, . . .} = [3]≡3 = [6]≡3 = . . . = {. . . , −5, −2, 1, 4, 7, . . .} = [−2]≡3 = . . . = {. . . , −4, −1, 2, 5, 8, . . .} = [5]≡3 = . . . Es gilt Z = [0]≡3 ∪˙ [1]≡3 ∪˙ [2]≡3 . Dass dies kein Zufall ist, zeigt der nächste Satz: Satz 1.4.11 Sei X eine Menge und S eine Partition von X. Dann ist die Relation ∼S , die durch x ∼S y :⇔ es gibt S ∈ S mit x, y ∈ S erklärt ist, eine Äquivalenzrelation auf X. Die Äquivalenzklassen dieser Relation sind gerade die Mengen aus S. Umgekehrt bilden die Äquivalenzklassen einer Äquivalenzrelation ∼ eine Partition T von X. Es gilt ∼T = ∼. Mit anderen Worten kann man sagen, dass Partitionen und Äquivalenzrelationen “eigentlich” dieselben Objekte sind. Beweis (i) Zu zeigen ist, dass ∼S eine Äquivalenzrelation ist. reflexiv: symmetrisch: transitiv: klar klar Sei x ∼S y und y ∼S z. Es gibt dann Mengen S1 und S2 in S mit x, y ∈ S1 und y, z ∈ S2 , also y ∈ S1 ∩ S2 . Weil S eine Partition ist, muss S1 = S2 gelten, also x ∼S z. (ii) [x]∼S = {y : x ∼S y} = {y : es gibt S ∈ S mit x, y ∈ S} = Sx , wobei Sx die Menge aus S ist mit x ∈ Sx . Es gibt nur eine solche Menge, weil S eine Partition ist. (iii) Die Äquivalenzklassen bilden eine Partition von X. Klar ist [ [x]∼ = X. x∈X Angenommen, [x]∼ ∩ [y]∼ = 6 { }, z.B. z ∈ [x]∼ ∩ [y]∼ , dann x ∼ z und z ∼ y, also x ∼ y und damit [x]∼ = [y]∼ (wegen Lemma 1.4.9). 13 (iv) Es bleibt ∼=∼T zu zeigen. x ∼T y ⇔ ∃T ∈ T mit x, y ∈ T ⇔ ∃z ∈ X mit x, y ∈ [z]∼ ⇔ ∃z ∈ X mit x ∼ z und y ∼ z ⇔ x∼y Um im letzten Schritt “⇐” zu zeigen, wähle z = x. Die zu einer Äquivalenzrelation ∼ auf X gehörende Partition wird oft auch mit X/ ∼ bezeichnet. 1.5 Abbildungen Ganz besondere Relationen sind Abbildungen: Definition 1.5.1 Seien X und Y Mengen. Eine Relation f ⊆ X × Y heißt eine Abbildung wenn sie folgende Eigenschaft hat: Zu jedem x ∈ X gibt es genau ein y ∈ Y mit (x, y) ∈ f . Das Element y wird üblicherweise mit f (x) bezeichnet. Wir nennen X den Definitionsbereich und Y den Wertebereich. Häufig kann man f formelmäßig angeben. Man spricht dann auch häufig von Funktionen, obwohl die Begriffe Funktion und Abbildungen eigentlich dasselbe bedeuten. Beispiel 1.5.2 (1.) X = R, Y = R, f = {(x, x2 ) : x ∈ R}. (2.) X = {1, 2, 3}, Y = {7, 8}, f = {(1, 7), (2, 7), (3, 8)}. (3.) R4 aus Beispiel 1.4.2 ist eine Abbildung. (4.) Die Relationen R1 , R2 und R3 aus Beispiel 1.4.2 sind keine Abbildungen. Ist U ⊆ X eine Teilmenge des Definitionsbereiches, so heißt f [U ] := {f (x) : x ∈ U } das Bild von U . Ist V ⊆ Y , so heißt f −1 [V ] := {x ∈ X : f (x) ∈ V } das Urbild von V . Beachten Sie, dass zur Definition einer Abbildung nicht nur die Angabe einer Abbildungsvorschrift f gehört, sondern auch die Angabe von X und Y . Man schreibt auch f: X x → Y 7→ f (x). 14 Somit sind z.B. formal die beiden Abbildungen und verschieden. f: R x → R 7→ x2 f: R x → R+ 0 7→ x2 Definition 1.5.3 (Besondere Abbildungen) Sei f : X → Y eine Abbildung, U ⊆ X. Die Abbildung U → Y , u 7→ f (u) heißt Einschränkung von f auf U , Bezeichnung f|U . Ist X ⊆ Y , so heißt die Abbildung f : X → Y , x 7→ x die Einbettung von X in Y . Die Identität auf X ist die Abbildung idX : X → X, x 7→ x. Definition 1.5.4 Sei f : X → Y eine Abbildung. Dann heißt f injektiv surjektiv bijektiv ⇔ :⇔ :⇔ ∀x, y ∈ X : f (x) = f (y) ⇒ x = y f [X] = Y f injektiv und surjektiv ∀x, y ∈ X. Beispiel 1.5.5 Die Abbildung f : R → R, x 7→ x2 ist weder injektiv noch 2 surjektiv. Die Abbildung f : R → R+ 0 , x 7→ x ist surjektiv, aber nicht injektiv. + 2 Die Abbildung f : R0 → R, x 7→ x ist injektiv, aber nicht surjektiv. Die + 2 Abbildung f : R+ 0 → R0 , x 7→ x ist bijektiv. Lemma 1.5.6 Sei f : X → Y eine Abbildung. Dann ist f : X → f [X], x 7→ f (x) surjektiv. Wir können eine Abbildung f also einfach surjektiv machen, indem wir den Bildbereich einschränken. Man könnte sie auch injektiv machen, indem man den Definitionsbereich einschränkt. Das ist aber in der Regel keine sinnvolle Operation. Wichtiger ist der Abbildungssatz 1.5.14. Wir wollen unsere Untersuchungen hier mit der Hintereinanderausführung von Abbildungen fortsetzen. Definition 1.5.7 Seien f : X → Y und g : Y → Z Abbildungen. Dann definieren wir g ◦ f : X → Z durch (g ◦ f )(x) := g(f (x)). 15 Machen Sie sich klar, dass in dieser Definition auch ein “Satz” versteckt ist. Wir behaupten nämlich, dass g ◦ f eine Abbildung X → Z ist. Wir weisen darauf hin, dass erst f und dann g ausgeführt wird. Diese Verknüpfung ist nicht kommutativ, alleine schon deshalb, weil f ◦ g gar nicht erklärt sein muss, wenn g ◦ f erklärt ist. Aber selbst wenn beide Kompositionen definiert sind, muss f ◦ g nicht gleich g ◦ f sein: Beispiel 1.5.8 Sei f : R → R, x 7→ x3 sowie g : R → R, x 7→ 2x . Dann ist 3 (g ◦ f )(x) = 2x , aber (g ◦ f )(x) = (2x )3 . Man kann jedoch zeigen, dass die Verknüpfung assoziativ ist: Satz 1.5.9 Seien f : X → Y , g : Y → Z und h : Z → W Abbildungen. dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f. Beweis Wir müssen einfach nachrechnen, was bei den Einsetzungen von x in beiden Fällen herauskommt. Auf der linken Seite erhalten wir h ◦ (g ◦ f )(x) = h((g ◦ f )(x)) = h((g(f (x)))). Das kommt aber auch heraus, wenn wir anders klammern, also x auf der rechten Seite einsetzen. Im folgenden Satz fassen wir einige Beobachtungen über die Injektivität, Surjektivität und Bijektivität von zusammengesetzten Abbildungen zusammen: Satz 1.5.10 Sei f : X → Y eine Abbildung, X 6= { }. Dann gilt: (1.) f ist genau dann injektiv, wenn es g : Y → X gibt mit g ◦ f = idX . (2.) f ist genau dann surjektiv, wenn es g : Y → X gibt mit f ◦ g = idY . Beweis (nur (1.)) “⇒”: Ist x ∈ X, so definieren wir g(f (x)) = x. Das ist wohldefiniert, weil es keine zwei verschiedenen x und x′ gibt mit f (x) = f (x′ ). Ist y ∈ / f [X], so definieren wir g(y) = x0 für ein beliebiges x0 ∈ X (hier brauchen wir X 6= { }). Dann ist g in der Tat eine Abbildung Y → X mit der gewünschten Eigenschaft. “⇐”: Ist f (x) = f (x′ ), so ist (g ◦ f )(x) = (g ◦ f )(x′ ). Weil aber g ◦ f = idX , so ist x = x′ , die Abbildung f also injektiv. Bijektive Abbildungen haben die schöne Eigenschaft, dass es eine Umkehrabbildung gibt. Wir wollen dies im folgenden Satz zusammenfassen. Satz 1.5.11 Sei f : X → Y eine bijektive Abbildung. Dann gibt es genau eine Abbildung g : Y → X mit f ◦ g = idY . Es gibt auch genau eine Abbildung g ′ : Y → X mit g ′ ◦ f = idX . Es gilt g ′ = g. 16 Beweis Die Existenz von g ist klar nach Satz 1.5.10. Angenommen, es gibt zwei Abbildungen g1 6= g2 mit den gewünschten Eigenschaften. Dann ist g1 (y) 6= g2 (y) für ein y ∈ Y . Injektivität von f ◦ g liefert y = (f ◦ g1 )(y) 6= (f ◦ g2 )(y) = y, ein Widerspruch. Zu g ′ = g: [g ′ ◦ (f ◦ g)](y) = g ′ (y) und [(g ′ ◦ f ) ◦ g](y) = g(y). Die gemäß Satz 1.5.11 eindeutig bestimmte Abbildung nennt man auch die Inverse von f , Bezeichnung f −1 . Wenn X und Y endliche Mengen sind mit |X| = |Y |, so fallen die Begriffe injektiv, surjektiv und bijektiv zusammen: Satz 1.5.12 Sei f : X → Y , wobei X und Y endliche Mengen sind mit |X| = |Y | = n. Dann ist f genau dann injektiv, wenn f surjektiv ist. Beweis Weil f injektiv ist, gilt |f [X]| = n. Andernfalls müsste es mindestens zwei verschiedene Elemente x, x′ ∈ X geben mit f (x) = f (x′ ). Also ist f surjektiv. Ist umgekehrt f surjektiv, so gilt |f [X]| = n. Das ist aber unmöglich, wenn f nicht injektiv ist, denn dann gäbe es x, x′ mit x 6= x′ und f (x) = f (x′ ). Lemma 1.5.13 Sei f : X → Y eine Abbildung. Dann ist die Relation ∼, die durch x ∼ x′ :⇔ f (x) = f (x′ ) erklärt ist, eine Äquivalenzrelation auf X. Die Äquivalenzklassen sind die Urbilder f −1 [y], y ∈ f [X]. Der nächste Satz klingt schwieriger, als er ist: Satz 1.5.14 (Abbildungssatz) Sei f : X → Y eine Abbildung, und sei X/ ∼ die Mengenfamilie der durch ∼ definierten Äquivalenzklassen. Ferner sei τ : X → X/ ∼, τ (x) = f −1 [f (x)]. Dann gibt es genau eine Abbildung f ′ : X/ ∼ → Y mit f ′ ◦ τ = f . Die Abbildung f ′ ist injektiv. Sie ist genau dann surjektiv wenn f surjektiv ist. Wir wollen diesen Abschnitt mit einer Definition abschließen: Definition 1.5.15 Sei (Yi )i∈I eine Mengenfamilie nicht leerer Mengen. Dann ist [ Yi : f (i) ∈ Yi } i∈I Yi := {f : I → i∈I das kartesische Produkt der Yi . Ist I = {1, . . . , n} eine endliche Menge, so ist das kartesische Produkt die Menge der n-Tupel, wobei der i-te Eintrag in einem Tupel ein Element aus Yi sein muss. Gilt Y = Y1 = · · · = Yn , so schreiben wir auch Y n . Es ist die Aussage des Auswahlaxioms, das i∈I Yi 6= { } gilt. Das ist intuitiv so einleuchtend, das man darüber eigentlich kein Wort verlieren möchte. Das 17 Problem ist aber, dass wir hier die Existenz einer Abbildung postulieren, ohne sie angeben zu können. Dieses Problem tritt erst für sehr “große” Mengen I und sehr komplizierte Mengen Yi auf. Ist I endlich, so gibt es keine Probleme, ist Yi ⊆ N, so gibt es ebenfalls keine Probleme, wir können für jedes i das kleinste Element in Yi wählen. Wenn aber z.B. I = P(R) die Potenzmenge von R ist und YM := M , so können wir keine Auswahlfunktion f angeben. Das Auswahlaxiom kann man nicht beweisen! So harmlos das Axiom klingt, so hat es doch Konsequenzen, die völlig unserer Anschauung widersprechen. So kann man etwa zeigen, dass man eine Kugel vom Durchmesser 1 in endlich viele Mengen so zerlegen kann, dass man aus diesen Mengen zwei Kugeln vom Durchmesser 1 “disjunkt und ohne Lücken” zusammensetzen kann (Satz von Banach-Tarski). 1.6 Der Satz von Schroeder-Bernstein Definition 1.6.1 Zwei Mengen A und B heißen gleichmächtig, wenn es eine bijektive Abbildung f : A → B gibt. Intuitiv meint man, dass B mehr Elemente als A hat, wenn es eine injektive Abbildung A → B gibt, die nicht bijektiv ist. Denn dann ordnet man ja jedem Element aus A ein Element aus B zu, aber es bleiben noch Elemente aus B “übrig”. Das man aber bei unendlichen Mengen so nicht argumentieren kann, zeigt das folgende Beispiel: Beispiel 1.6.2 Die Abbildung f : Z → Z, z 7→ 2z ist injektiv, aber nicht surjektiv. Trotzdem gib es natürlich auch eine bijektive Abbildung Z → Z (z.B. die Identität). Anschaulich kann man sagen, dass die Existenz einer injektiven Abbildung A → B heißt, dass A höchstens so viele Elemente wie B hat. Anschaulich würde man nun erwarten, wenn A höchstens so viele Elemente wie B hat und umgekehrt B höchstens so viele Elemente wie A, dass dann A genauso viele Elemente wie B hat. Das zu beweisen ist aber gar nicht so einfach und ist der Inhalt des folgenden Satzes: Satz 1.6.3 Seien S und T Mengen. Wenn es eine injektive Abbildung f : S → T und eine injektive Abbildung g : T → S gibt, dann gibt es auch eine bijektive Abbildung h : S → T . Wir beweisen zunächst folgendes Lemma: Lemma 1.6.4 Seien A, B Mengen mit B ⊆ A, und sei f : A → B eine injektive Abbildung. Dann gibt es auch eine bijektive Abbildung h : A → B 18 Beweis Wir definieren C0 Cn+1 := A \ B := f [Cn ]. Wir setzen C := ∞ [ Ck . k=0 Wir können jetzt explizit eine bijektive Abbildung h : A → B angeben: f (z) wenn z ∈ C h(z) := z wenn z ∈ / C. Zunächst müssen wir uns überzeugen, dass h eine Abbildung nach B ist. Das ist klar wenn z ∈ C. Gilt z ∈ / C, dann ist insbesondere z ∈ B, also h(z) = z liegt in B. Die Abbildung h ist injektiv, weil f injektiv ist. Zur Bijektivität von h: Sei b ∈ B beliebig. Dann kann b ∈ C oder b ∈ / C gelten. Im Fall b ∈ / C gilt h(b) = b, also liegt b im Bild von h. Ist b ∈ C, so gilt b ∈ Ck für ein k > 0 (beachte k > 0 weil b ∈ B, also b ∈ / C0 ). Weil Ck = f [Ck−1 ] erhalten wir b = f (a) für ein a ∈ Ck−1 , also b = h(a). Wir kommen nun zum Beweis des Satzes 1.6.3: Beweis Seien, wie im Satz angegeben, f und g die beiden injektiven Abbildungen. Wir betrachten dann g ◦ f : S → g[T ]. Diese Abbildung ist injektiv, und g[T ] ⊆ S. Wir können also Lemma 1.6.4 anwenden, d.h. es gibt eine bijektive Abbildung h′ : S → g[T ]. Weil g injektiv ist, gibt es g −1 : g[T ] → T . Diese Abbildung ist bijektiv. Damit ist die Zusammensetzung g −1 ◦ h′ : S → T bijektiv. Dieser Satz ist nur für unendliche Mengen nicht trivial. Für endliche Mengen ist der Satz zwar mehr oder minder klar, liefert aber trotzdem ein sehr wichtiges Beweisprinzip. Um zu zeigen, dass zwei Mengen M und N gleich viele Elemente haben, genügt es, eine bijektive Abbildung zwischen den Mengen anzugeben. Das ist aber gleichbedeutend damit, zwei injektive Abbildungen M → N und N → M anzugeben. Die Idee, die Mächtigkeit einer Menge M nicht durch “Zählen”, sondern durch Konstruktion einer bijektiven Abbildung M → N , wobei |N | bekannt ist, zu bestimmen, spielt in der Kombinatorik eine große Rolle. 1.7 Der Euklidische Algorithmus: Zum Rechnen mit ganzen Zahlen Wir haben in Satz 1.1.5 gezeigt, dass es unendlich viele Primzahlen gibt. In der Mathematik wird der Begriff “prim” üblicherweise etwas anders definiert als wir 19 es dort gemacht haben. Für Z stimmen beide Begriffe überein, was wir in diesem Abschnitt zeigen wollen. Definition 1.7.1 Eine Zahl p ∈ Z, p 6= 0, 1 heißt prim, falls gilt: p | ab ⇒ p|a oder p|b für alle a, b ∈ Z. Wir nennen p irreduzibel, wenn für alle a, b ∈ Z gilt p = ab ⇒ a = ±1 oder b = ±1. Anders gesagt: p ist irreduzibel wenn ±1, ±p die einzigen Teiler von p sind. Lemma 1.7.2 Für p ∈ Z gilt: p prim ⇒ p irreduzibel. Beweis Angenommen a | p, d.h. ab = p für ein b ∈ Z. Also p | ab, also p | a oder p | b, weil p prim. Im ersten Fall folgt a = ±p, im zweiten Fall würde px = b für ein x ∈ Z gelten, also apx = ab = p und deshalb a = ±1 Es erfordert etwas Arbeit, die Umkehrung dieses Lemmas zu zeigen. Dazu definieren wir zunächst, was ein größter gemeinsamer Teiler ist: Definition 1.7.3 Seien a, b ∈ Z. Dann heißt m ein größter gemeinsamer Teiler (ggT) von a und b, wenn m | a, b gilt und wenn aus n | a, b stets folgt n | m. Bezeichnung: ggT(a, b) (nicht ganz korrekt, weil der ggT nur bis auf das Vorzeichen eindeutig bestimmt ist). Lemma 1.7.4 (Division mit Rest) Seien a, b ∈ Z, b 6= 0. Dann gibt es eindeutig bestimmte Zahlen q, r ∈ Z mit 0 ≤ r ≤ b − 1 mit a = bq + r. Beweis Zur Existenz: Betrachte die Menge {a − bq : q ∈ Z, a − bq ≥ 0}. Diese Menge hat ein kleinstes Element r, das offenbar die Bedingung 0 ≤ r ≤ b − 1 erfüllt. Zur Eindeutigkeit: Wenn a = bq ′ + r′ = bq + r mit 0 ≤ r, r′ ≤ b − 1 gilt, so folgt b(q − q ′ ) = r′ − r, also b | (r′ − r). Das geht aber nur für r = r′ , weil |r − r′ | ≤ b gilt. Satz 1.7.5 In Z haben je zwei Elemente 6= 0 einen ggT. Beweis Der Beweis ist algorithmisch, d.h. wir geben sogar ein Verfahren an, mit dem man den ggT bestimmen kann: 20 Euklidischer Algorithmus a = bq1 + r1 b = r1 q2 + r2 0 ≤ r1 < b 0 ≤ r2 < r1 r1 = r2 q3 + r3 ... 0 ≤ r3 < r3 Weil die ri immer kleiner werden, muss das Verfahren terminieren: rs = rs+1 qs+2 + rs+2 0 ≤rs+2 < rs+1 rs+1 = rs+2 qs+3 Beachten Sie, dass der Rest ri , der im i-ten Schritt auftritt, stets in der Form ri = asi +bti geschrieben werden kann. Das ist sicherlich wahr im ersten Schritt, im zweiten Schritt gilt r2 = b − r1 q1 . Weil aber r1 sich in der Form r1 = as1 + bt1 schreiben läßt, kann man auch r2 entsprechend darstellen, usw. Insbesondere gibt es s, t ∈ Z mit d := rs+2 = as + bt. Ferner ist d ein Teiler von rs+1 , also auch von rs usw, also auch von a und b. Wir haben also einen Teiler von a und b gefunden, der in der Form d = as + bt dargestellt werden kann (Vielfachsummendarstellung). Sei nun m ein beliebiger Teiler von a und b, also mx = a und my = b. Dann gilt d = mxs + myt, also m | d. Also ist d = ggT(a, b). Wir weisen darauf hin, dass die hier vorgestellte Bestimmung des ggT viel, viel einfacher ist als das manchmal in der Schule angewandte Verfahren, erst die Primfaktorzerlegungen von a und b zu bestimmen und dann zu schauen, welche Primteiler in beiden Zerlegungen gemeinsam vorkommen. Um zu zeigen, dass in Z alle irreduziblen Elemente prim sind, benötigen wir noch einen Hilfssatz: Lemma 1.7.6 Ist p irreduzibel und ist p kein Teiler von a, so gilt ggT(p, a) = 1. Beweis Angenommen, d = ggT(a, p), also dx = p. Weil p irreduzibel ist, gilt somit d = ±1 oder x = ±1. Im ersten Fall sind wir fertig, im zweiten Fall wäre d = ±p und somit p doch ein Teiler von a. Satz 1.7.7 Für p ∈ Z gilt: p irreduzibel ⇔ p prim. Beweis “⇐:” siehe Lemma 1.7.2. “⇒:” Angenommen p | ab, aber p teilt weder a noch b. Wegen Lemma 1.7.6 gilt dann 1 = ggT(p, a) = ggT(p, b). Satz 1.7.5 liefert die Existenz von s, s′ , t, t′ mit 1 = ps + at = ps′ + bt′ . 21 Multiplikation liefert 1 = (ps + at)(ps′ + bt′ ) = px + abtt′ für ein geeignetes x ∈ Z. Wegen p | ab wäre dann p ein Teiler von 1, was nicht geht. Man kann jetzt den Satz von der eindeutigen Primfaktorzerlegung formulieren und beweisen (siehe Vorlesung). 1.8 Zusammenfassung • Sie haben in diesem Kapitel die grundlegenden Begriffe aus der Mengenlehre und der Aussagenlogik gelernt. • Sie sollten in der Lage sein, einfache Aussagen aus der Mengenlehre und der Aussagenlogik selbstständig zu beweisen (Wahrheitstafeln). • Sie sollten das Prinzip des indirekten Beweises verstehen. • Sie sollten das Prinzip der vollständigen Induktion verstanden haben und einfache Induktionsbeweise führen können. • Sie sollen den Euklidischen Algorithmus beherrschen und in der Lage sein, damit den ggT zweier ganzer Zahlen sowie seine Vielfachsummendarstellung zu bestimmen. • Sie sollen den Begriff der Relation und der Abbildung verstanden haben und mit den Begriffen reflexiv, transitiv, symmetrisch, injektiv, surjektiv, bijektiv umgehen können. • Der Zusammenhang zwischen Äquivalenzrelationen und Partitionen muss Ihnen klar sein. • Die “modulo” Relation sollte Ihnen geläufig sein. • Sie haben in diesem Kapitel u.a. im Zusammenhang mit dem Abbildungssatz erstmals das Problem der “Wohldefiniertheit” kennengelernt. Machen Sie sich damit vertraut! Ein solches Problem tritt noch häufiger auf. 22