Die Probabilistische Methode Philipp Ciupke 15. Juni, 2015 Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen der Wahrscheinlichkeitsrechnung 2.0.1 Grundraum, Wahrscheinlichkeitsfunktion 2.1 Zufallsvariablen . . . . . . . . . . . . . . . . . . . 2.2 Erwartungswert . . . . . . . . . . . . . . . . . . . 2.2.1 Markow-Ungleichung . . . . . . . . . . . . . . . . 3 3 4 4 5 3 Untere Schranke der Ramsey-Zahlen 3.1 Die Probabilistische Methode . . . . . . . . . . . . . . . . . . 3.2 Beweis der unteren Schranke der Ramsey-Zahlen . . . . . . . 7 7 7 . . . . . . . . . . . . . . . . . . . . . . . . 4 Existenzbeweis zu Graphen mit hoher chromatischer Zahl und hoher Taillenweite 9 4.1 Zufallsgraphen . . . . . . . . . . . . . . . . . . . . . . . . . . 9 4.2 Taillenweite und Unabhängigkeitszahl . . . . . . . . . . . . . 9 4.3 Existenzbeweis zu Graphen mit hoher chromatischer Zahl und hoher Taillenweite . . . . . . . . . . . . . . . . . . . . . . . . 10 1 Kapitel 1 Einleitung In dieser Ausarbeitung wird es darum gehen, die probabilistische Methode, wie sie von Paul Erdös mitte des 20. Jahrhunderts erdacht wurde, zu erläutern und an Beispielen ihren hohen Wert für die Mathematik aufzuzeigen. Im ersten großen Abschnitt werden wir dazu zunächst einige wesentliche Grundlagen der Wahrscheinlichkeitsrechnung wiederholen [1, vgl.]. Daran anschließend werden wir die Grundidee der probabilistischen Methode vorstellen [2]. Mit diesem Beweiskonzept lässt sich dann der Beweis über die untere Schranke der Ramsey-Zahlen führen [2, vgl.]. Im zweiten übergeordneten Abschnitt geht es darum das Konzept der Zufallsgraphen [3, vgl.] vorzustellen und zu verwenden, um die Existenz von Graphen mit hoher chromatischer Zahl und hoher Taillenweite zu beweisen [2, vgl.]. 2 Kapitel 2 Grundlagen der Wahrscheinlichkeitsrechnung 2.0.1 Grundraum, Wahrscheinlichkeitsfunktion Zu Beginn benötigen wir einen Raum auf dem unsere Rechnungen stattfinden können. Dazu definieren wir uns einen Wahrscheinlichkeitsraum. Definition 2.1. Ein endlicher Wahrscheinlichkeitsraum (Ω, P) ist ein Paar bestehend aus einer nichtleeren Menge Ω = {ω1 , ..., ωn } und einer Funktion P : P(Ω) → R mit den Eigenschaften (i) P(A) ≥ 0 für alle Teilmengen A von Ω (Nichtnegativität) (ii) P(Ω) = 1 (Normiertheit) (iii) P(A ∪ B) = P(A) + P(B) für alle Teilmengen A, B mit A ∩ B = ∅ (Additivität) Beispiel 2.1. Um sich an die Rechnungen mit Wahrscheinlichkeiten wieder zu gewöhnen, bietet sich das Lösen folgender Aufgabe an. Da du dir nichts realistisches zum Geburtstag gewünscht hast, hast du von deinen Eltern humorvolle Wochentags-Socken bekommen. Natürlich bist du von der Kreativität dieses Geschenks begeistert und sie werden von dir brav in der intendierten Weise verwendet. Bis eines heißen Sommertages zwei deiner 14 Socken (eine Linke und eine Rechte), die du draußen (ohne Wäscheklammern) aufgehängt hattest, davonfliegen und nie wieder aufgefunden werden. Berechne die Wahrscheinlichkeit dafür, dass... 3 KAPITEL 2. GRUNDLAGEN DER WAHRSCHEINLICHKEITSRECHNUNG • A = beide Socken zu Montags gehörten • B = beide Socken zu einem Wochentag gehörten • C = beide Socken zu unterschiedlichen Wochentagen gehörten Wichtige Eigenschaften der Wahrscheinlichkeitsfunktion, die man bei der Bewältigung der Aufgabe beachten muss, sind: Bemerkung 2.1. (i) P(A) = P ω∈A P({ω}) (ii) Sei (Ω, P) ein endlicher Wahrscheinlichkeitsraum und seien A, B und C Teilmengen von Ω. Dann gilt P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) −P(A ∩ C) − P(B ∩ C) (2.1) +P(A ∩ B ∩ C) 2.1 Zufallsvariablen Ein weiterer grundlegender Teil der Stochastik baut auf das Definieren von und Rechnen mit Zufallsvariablen auf. Definition 2.2. Sei Ω eine endliche Ergebnismenge. Dann ist eine Zufallsvariable Z eine reellwertige Funktion auf Ω, d.h. Z : Ω → R; ω 7→ Z(ω) Die vorgegebene Wahrscheinlichkeitsfunktion P wird jetzt auf die Zufallsvariable übertragen. Dies geschieht mit PZ : P(Z(Ω)) → R; A 7→ PZ (A) = P(Z −1 (A)) Damit ist (Z(Ω), PZ ) ein Wahrscheinlichkeitsraum. 2.2 Erwartungswert Mithilfe dieser Zufallsvariablen lässt sich ein Ereignis des Grundraums bewerten und somit noch mehr Informationen aus dem vorliegenden Zufallsexperiment gewinnen. Beispielsweise kann man mit Vergleichsgrößen wie 4 KAPITEL 2. GRUNDLAGEN DER WAHRSCHEINLICHKEITSRECHNUNG dem Erwartungswert, der Standardabweichung und darauf aufbauenden Vergleichskoeffizienten(Cramers V, Phi,...) interessante Aussagen in der Statistik berechnen. Wir benötigen an dieser Stelle allerdings nur den Erwartungswert E. Definition 2.3. Sei (Ω, P) ein endlicher Wahrscheinlichkeitsraum und Z eine Zufallsvariable auf Ω. Dann ist die Zahl X E(Z) := x P(Z = x) (2.2) x∈Z(Ω) (falls existent) der Erwartungswert von Z. Auch hier bietet es sich an mit einer Rechnung das Konzept des Erwartungswerts wieder aufzufrischen. Hierzu folgende Aufgabe: Beispiel 2.2. Sinnvollerweise nutzen deine Eltern diese Chance, um ein neues pädagogisches Element auszuprobieren und du musst die Konsequenzen deines leichtfertigen Verhaltens tragen. Du bekommst also keine neuen Socken. Gleichzeitig musst du natürlich die vorgegebenen Trageregeln weiterhin einhalten. Problematisch ist hierbei, dass du aus lauter Enthusiasmus bereits an deinem Geburtstag sämtliche anderen Socken weggeschmissen hast. Sei Z die Zufallsvariable, die zählt an wie vielen Tagen der Woche du mit weniger als 2 Socken aus dem Haus musst. Berechne den Erwartungswert E(Z). An verschiedenen Stellen in den kommenden Beweisen wird die Linearität des Erwartungswerts verwendet, daher soll sie hier einmal erwähnt werden. Bemerkung 2.2. Seien X, Y Zufallsvariablen mit den Erwartungswerten E(X), E(Y ). Der Erwartungswert ist linear, also gilt mit a, b ∈ R E(aX + bY ) = aE(X) + bE(Y ) 2.2.1 (2.3) Markow-Ungleichung Als Abschätzung für die Wahrscheinlichkeit, dass eine Zufallsvariable extreme Werte annimmt (also sehr positive bzw. sehr negative Werte), kann man die Markow-Ungleichung benutzen. Uns soll es jedoch genügen den Fall k = 1 zu betrachten. 5 KAPITEL 2. GRUNDLAGEN DER WAHRSCHEINLICHKEITSRECHNUNG Definition 2.4. Sei k ∈ N. Sei Y eine Zufallsvariable auf dem endlichen Wahrscheinlichekitsraum (Ω, P) mit endlichem k-ten absoluten Moment E(|Y |k ). Dann gilt für alle a > 0: P(|Y | ≥ a) ≤ E(Y k ) ak P(|Y | ≥ a) ≤ E(Y ) . a Insbesondere gilt für k = 1 6 (2.4) Kapitel 3 Untere Schranke der Ramsey-Zahlen 3.1 Die Probabilistische Methode Nun zum zentralen Thema dieser Ausarbeitung. Im Buch der Beweis wird die probabilistische Methode als Beweiskonzept für Existenzbeweise folgendermaßen definiert. Bemerkung 3.1. Wenn auf einer Menge von Objekten die Wahrscheinlichkeit, dass ein Objekt eine bestimmte Eigenschaft nicht hat, kleiner als 1 ist, dann muss es ein Objekt mit der Eigenschaft geben. Mit diesem Satz ist gemeint, dass sich die Existenz einer Eigenschaft damit beweisen lässt, dass man berechnet, dass die Gegenwahrscheinlichkeit zu dieser Eigenschaft < 1 ist. Im folgenden Beweis wird diese Idee klarer. 3.2 Beweis der unteren Schranke der Ramsey-Zahlen Die Ramsey-Zahl R(s, t) gibt an, wie groß ein vollständiger Graph mindestens sein muss, um zu gewährleisten, dass es bei einer 2-Färbung dieses Graphen einen vollständigen roten Untergraphen der Ordnung s oder einen vollständigen blauen Untergraphen der Ordnung t geben muss. Diese Zahl lässt sich mit einem Satz relativ effektiv nach unten Abschätzen. Satz 3.1. Für alle k ≥ 2 gilt die folgende Schranke für die Ramsey-Zahlen: k 2 2 ≤ R(k, k) 2 (3.1) 3 Beweis. 2 = 2 2 ≤ R(2, 2) = 2 und 2, 8284 = 2 2 ≤ R(3, 3) = 6. Also sei ab jetzt k ≥ 4. 7 KAPITEL 3. UNTERE SCHRANKE DER RAMSEY-ZAHLEN k Außerdem nehmen wir an, dass N < 2 2 . Wir färben den KN mit rot und blau. Dabei sei Prot (e) die Bezeichnung für die Wahrscheinlichkeit, dass die Kante e rot gefärbt wird. Es sei Prot (e) = 21 . Jede Färbung auf dem KN hat dann also die Wahrscheinlichkeit N N (N −1) N! N (N −1) 1 ( 2 ) 1 2!(N −2)! 1 2 = (3.2) = = 2− 2 2 2 2 Sei nun A eine Menge von Knoten mit |A| = k. Weiterhin sei AR das Ereignis, dass alle Kanten in A rot sind. (k ) Dann ist P(AR ) = 21 2 . Sei weiterhin pR die Wahrscheinlichkeit für das Ereignis, dass es auf dem KN eine k-elementige Teilmenge gibt, deren Kanten allesamt rot gefärbt sind. Genauso sei pB die Wahrscheinlichkeit für das Ereignis, dass es auf dem KN eine k-elementige Teilmenge gibt, deren Kanten allesamt blau gefärbt sind. Dann gilt: pR := P( [ AR ) ≤ A⊂KN X A⊂KN (k ) N 1 2 N −(k) P(AR ) = = 2 2 k 2 k (3.3) k Nun nahmen wir aber an, dass N < 2 2 und k ≥ 4. Da allgemein für k ≥ 2 nk gilt, dass nk ≤ 2k−1 , folgt pR := P( [ AR ) = A⊂KN <2 k2 − k2 2 k N −(k) Nk 2 2 ≤ k−1 2−(2) k 2 ( )−k+1 = 2 k 2 −k(k−1) 2 −k+1 k = 2− 2 +1 = (3.4) 2 k (3.5) 22 ≤ 2 2 4 2 = 2 1 = 2 2 2 k Demnach gilt für N < 2 2 dass pR < (3.6) 1 2 und analog gilt dies auch für pB . Dann ist aber pR + pB < 1. k Daraus folgt mithilfe der probabilistischen Methode, dass für N < 2 2 auf dem KN mit Sicherheit eine Färbung existiert, sodass es weder einen roten k noch einen blauen Kk gibt. Und somit ist 2 2 ≤ R(k, k). 8 Kapitel 4 Existenzbeweis zu Graphen mit hoher chromatischer Zahl und hoher Taillenweite 4.1 Zufallsgraphen Für den zweiten großen Beweis benötigen wir noch einige Grundlagen der Graphentheorie und Eigenschaftsbegriffe. Zunächst gilt es, die Idee des Zufallsgraphen zu verstehen. Definition 4.1. Mit G(n) bezeichnen wir die Menge aller möglichen Graphen mit n-Knoten. Durch G(n, p) = (G(n), p) definieren wir damit einen Wahrscheinlichkeitsraum, dessen Ergebnisse alle möglichen Graphen auf n Knoten sind. Jedes Ergebnis des Wahrscheinlichkeitsraums ist ein Zufallsgraph und durch p wird das Auftreten der Kanten festgelegt, mit P({v, w} ∈ E) = p unabhängig für alle v 6= w ∈ Vn 4.2 (4.1) Taillenweite und Unabhängigkeitszahl Definition 4.2. Die Länge eines kürzesten Kreises in einem Graphen G ist die Taillenweite γ(G) von G. Die Unabhängigkeitszahl ist ein deutlich schwerer zu fassender Begriff. Definition 4.3. Eine Teilmenge von V heißt unabhängig, wenn ihre Elemente paarweise nicht benachbart sind. Die größte Mächtigkeit einer unabhängigen Eckenmenge in G ist die Unabhängigkeitszahl α(G) von G. 9 KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER CHROMATISCHER ZAHL UND HOHER TAILLENWEITE Hierbei ist schon die Nähe des Begriffs der unabhängigen Menge zu dem Begriff der Farbklasse(s. vorangehender Vortrag zum 5-Farbensatz) erkennbar. 4.3 Existenzbeweis zu Graphen mit hoher chromatischer Zahl und hoher Taillenweite Abschließend möchten wir noch einen Beweis anführen, in dem mithilfe der probabilistischen Methode eine wirklich erstaunliche Aussage bewiesen wird. Der Satz lautet: Satz 4.1. Für jedes k ≥ 2 gibt es einen Graphen G mit chromatischer Zahl X (G) > k und Taillenweite γ(G) > k. Diese Aussage ist insofern interessant, da sie behauptet, dass es Graphen gibt, für die man viele Farben braucht, um sie zu färben und trotzdem nur große Kreise in diesem Graphen vorliegen; insbesondere gibt es keine Dreiecke. Der Gedanken, dass es bei einer hohen chromatischen Zahl viele Dreiecke geben müsste, liegt eigentlich nahe, da man dadurch viele benachbarte Knoten erzeugt. Dennoch ist dieser Umstand nicht zwangsweise der Fall. Und das werden wir nun beweisen. Beweis. Zuerst zeigen wir, dass es zu jedem k ∈ N ein n ∈ N und einen Graphen G ∈ G(n, p) gibt, sodass X (G) > k. Dies ist einsichtig, wenn man sich klar macht, dass für jede Farbklasse auf G gilt, dass sie insbesondere eine unabhängige Menge darstellt. Daher ist die Mächtigkeit jeder einzelnen Farbklasse ≤ α(G). Daher ist n = β X (G), wobei β die durchschnittliche Mächtigkeit der Farbklassen ist. Offensichtlich ist β ≤ α(G). Also ist X (G)α(G) ≥ n. Diese Ungleichung hilft uns ungemein, da wir nun zeigen können, dass es einen Graphen gibt, für den α sehr klein werden kann. Dies ist gleichbedeutend mit einem großen X (G). Dies ist also das nächste Zwischenziel. Dazu sei 2 ≤ r ≤ n und A sei eine unabhängige r-elementige Knotenmenge r in G mit |A| = r. Dann ist P(A) = (1 − p)(2) . Desweiteren gilt: r r n nr P(α ≥ r) ≤ (1 − p)(2) ≤ (1 − p)(2) (4.2) r r! r r−1 ≤ nr (1 − p)(2) = (n(1 − p) 2 )r (4.3) ≤ (ne−p r−1 2 )r 10 (4.4) KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER CHROMATISCHER ZAHL UND HOHER TAILLENWEITE k Dies lässt sich gut abschätzen, wenn man p = n− k+1 setzt. Dadurch ist 1 pn = n k+1 . Da pn schneller wächst als ln(n), gibt es ein n ∈ N, sodass p ≥ 6k ln(n) n . n gilt dann pr ≥ 3ln(n). Für r ≥ 2k Wenn man dann all diese Einsichten kombiniert, ergibt sich P(α ≥ r−1 3 1 n ) ≤ (ne−p 2 )r ≤ (ne− 2 ln(n) e 2 )r 2k 1 1 e r = (n− 2 e 2 )r = ( ) 2 n (4.5) (4.6) Offensichtlich geht dieser Term für große n gegen 0. Insofern haben wir gezeigt, dass ∃n1 ∈ N ∀n ≥ n1 : P(α ≥ n 1 )< 2k 2 (4.7) Dies können wir als Ergebnis so festhalten und werden darauf später zurückkommen. Nun kümmern wir uns darum, dass wir γ(G) > k zeigen. Wir zeigen, dass es n gibt, sodass G nicht allzu viele Kreise hat, deren Länge höchstens k ist. Sei dazu 3 ≤ i ≤ k und A ∈ V eine Menge mit i-Knoten. Dann ist die Anzahl der möglichen i-Kreise auf A genau (i−1)! 2 . Dies entspricht nämlich genau der Anzahl der zyklischen Permutationen auf A durch 2. Man muss die Anzahl durch 2 teilen, da man sonst jeden Kreis aus zwei Richtungen durchlaufen würde und somit doppelt zählen würde. n Die Anzahl der möglichen Kreise mit Länge i auf V ist dann (i−1)! 2 i . Jeder dieser Kreise tritt mit der Wahrscheinlichkeit pi auf. Sei X eine Zufallsvariable, die die Kreise zählt, deren Länge höchstens k ist. Folglich ist E(X) = k X n (i − 1)! i=3 i 2 k pi ≤ 1X i i 1 n p ≤ (k − 2)nk pk 2 2 (4.8) i=3 An dieser Stelle können wir die Markow-Ungleichung anwenden und schätzen die Wahrscheinlichkeit dafür ab, dass es mehr als n2 Kreise in einem Graphen gibt, die kürzer als k sind. P(X ≥ 1 n E(X) (np)k ) ≤ n ≤ (k − 2) = (k − 2)n− k+1 2 n 2 (4.9) Auch hier gilt, dass der rechte Term gegen 0 geht, wenn n beliebig groß wird. Also ist insbesondere ∃n2 ∈ N ∀n > n2 : P(X ≥ 11 n 1 )< 2 2 (4.10) KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER CHROMATISCHER ZAHL UND HOHER TAILLENWEITE Wenn wir wieder die probabilistische Methode anwenden und die beiden vorherigen Ergebnisse kombinieren haben wir gezeigt, dass es für n ≥ max{n1 , n2 } n einen Graphen G mit n Ecken gibt, der α(G) < 2k erfüllt und weniger als n Kreise mit Länge < k hat. 2 Wir entfernen nun aus jedem dieser Kreise einen Knoten. Der verbleibende Graph sei dann H. Es gilt dann γ(H) > k. Da wir wissen, dass H mehr als n2 Knoten hat und wir gezeigt haben, dass n α(H) ≤ α(G) < 2k , gilt X (H) ≥ n 2 α(H) ≥ n n > n = k. 2α(G) k 12 (4.11) Literaturverzeichnis [1] A. Büchter and H.-W. Henn. Elementare Stochastik: Eine Einführung in die Mathematik der Daten und des Zufalls. Berlin Heidelberg, 2. überarbeitete und erweiterte auflage edition, 2005. [2] M. Aigner and G.M. Ziegler. Das Buch der Beweise. Springer Verlag, Berlin Heidelberg, 4. edition, 2010. [3] R. Diestel. Graphentheorie. Springer Verlag, Berlin Heidelberg, 1996. 13