Die Probabilistische Methode

Werbung
Die Probabilistische Methode
Philipp Ciupke
15. Juni, 2015
Inhaltsverzeichnis
1 Einleitung
2
2 Grundlagen der Wahrscheinlichkeitsrechnung
2.0.1 Grundraum, Wahrscheinlichkeitsfunktion
2.1 Zufallsvariablen . . . . . . . . . . . . . . . . . . .
2.2 Erwartungswert . . . . . . . . . . . . . . . . . . .
2.2.1 Markow-Ungleichung . . . . . . . . . . . .
.
.
.
.
3
3
4
4
5
3 Untere Schranke der Ramsey-Zahlen
3.1 Die Probabilistische Methode . . . . . . . . . . . . . . . . . .
3.2 Beweis der unteren Schranke der Ramsey-Zahlen . . . . . . .
7
7
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Existenzbeweis zu Graphen mit hoher chromatischer Zahl
und hoher Taillenweite
9
4.1 Zufallsgraphen . . . . . . . . . . . . . . . . . . . . . . . . . .
9
4.2 Taillenweite und Unabhängigkeitszahl . . . . . . . . . . . . .
9
4.3 Existenzbeweis zu Graphen mit hoher chromatischer Zahl und
hoher Taillenweite . . . . . . . . . . . . . . . . . . . . . . . . 10
1
Kapitel 1
Einleitung
In dieser Ausarbeitung wird es darum gehen, die probabilistische Methode, wie sie von Paul Erdös mitte des 20. Jahrhunderts erdacht wurde, zu
erläutern und an Beispielen ihren hohen Wert für die Mathematik aufzuzeigen.
Im ersten großen Abschnitt werden wir dazu zunächst einige wesentliche
Grundlagen der Wahrscheinlichkeitsrechnung wiederholen [1, vgl.]. Daran
anschließend werden wir die Grundidee der probabilistischen Methode vorstellen [2]. Mit diesem Beweiskonzept lässt sich dann der Beweis über die
untere Schranke der Ramsey-Zahlen führen [2, vgl.].
Im zweiten übergeordneten Abschnitt geht es darum das Konzept der Zufallsgraphen [3, vgl.] vorzustellen und zu verwenden, um die Existenz von
Graphen mit hoher chromatischer Zahl und hoher Taillenweite zu beweisen [2, vgl.].
2
Kapitel 2
Grundlagen der
Wahrscheinlichkeitsrechnung
2.0.1
Grundraum, Wahrscheinlichkeitsfunktion
Zu Beginn benötigen wir einen Raum auf dem unsere Rechnungen stattfinden können. Dazu definieren wir uns einen Wahrscheinlichkeitsraum.
Definition 2.1. Ein endlicher Wahrscheinlichkeitsraum (Ω, P) ist ein Paar
bestehend aus einer nichtleeren Menge
Ω = {ω1 , ..., ωn }
und einer Funktion
P : P(Ω) → R
mit den Eigenschaften
(i) P(A) ≥ 0 für alle Teilmengen A von Ω (Nichtnegativität)
(ii) P(Ω) = 1 (Normiertheit)
(iii) P(A ∪ B) = P(A) + P(B) für alle Teilmengen A, B mit A ∩ B = ∅
(Additivität)
Beispiel 2.1. Um sich an die Rechnungen mit Wahrscheinlichkeiten wieder
zu gewöhnen, bietet sich das Lösen folgender Aufgabe an.
Da du dir nichts realistisches zum Geburtstag gewünscht hast, hast du von
deinen Eltern humorvolle Wochentags-Socken bekommen. Natürlich bist du
von der Kreativität dieses Geschenks begeistert und sie werden von dir brav
in der intendierten Weise verwendet. Bis eines heißen Sommertages zwei
deiner 14 Socken (eine Linke und eine Rechte), die du draußen (ohne Wäscheklammern)
aufgehängt hattest, davonfliegen und nie wieder aufgefunden werden.
Berechne die Wahrscheinlichkeit dafür, dass...
3
KAPITEL 2. GRUNDLAGEN DER
WAHRSCHEINLICHKEITSRECHNUNG
• A = beide Socken zu Montags gehörten
• B = beide Socken zu einem Wochentag gehörten
• C = beide Socken zu unterschiedlichen Wochentagen gehörten
Wichtige Eigenschaften der Wahrscheinlichkeitsfunktion, die man bei der
Bewältigung der Aufgabe beachten muss, sind:
Bemerkung 2.1.
(i) P(A) =
P
ω∈A P({ω})
(ii) Sei (Ω, P) ein endlicher Wahrscheinlichkeitsraum und seien A, B und
C Teilmengen von Ω. Dann gilt
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B)
−P(A ∩ C) − P(B ∩ C)
(2.1)
+P(A ∩ B ∩ C)
2.1
Zufallsvariablen
Ein weiterer grundlegender Teil der Stochastik baut auf das Definieren von
und Rechnen mit Zufallsvariablen auf.
Definition 2.2. Sei Ω eine endliche Ergebnismenge. Dann ist eine Zufallsvariable Z eine reellwertige Funktion auf Ω, d.h.
Z : Ω → R; ω 7→ Z(ω)
Die vorgegebene Wahrscheinlichkeitsfunktion P wird jetzt auf die Zufallsvariable übertragen. Dies geschieht mit
PZ : P(Z(Ω)) → R; A 7→ PZ (A) = P(Z −1 (A))
Damit ist (Z(Ω), PZ ) ein Wahrscheinlichkeitsraum.
2.2
Erwartungswert
Mithilfe dieser Zufallsvariablen lässt sich ein Ereignis des Grundraums bewerten und somit noch mehr Informationen aus dem vorliegenden Zufallsexperiment gewinnen. Beispielsweise kann man mit Vergleichsgrößen wie
4
KAPITEL 2. GRUNDLAGEN DER
WAHRSCHEINLICHKEITSRECHNUNG
dem Erwartungswert, der Standardabweichung und darauf aufbauenden Vergleichskoeffizienten(Cramers V, Phi,...) interessante Aussagen in der Statistik berechnen. Wir benötigen an dieser Stelle allerdings nur den Erwartungswert E.
Definition 2.3. Sei (Ω, P) ein endlicher Wahrscheinlichkeitsraum und Z
eine Zufallsvariable auf Ω. Dann ist die Zahl
X
E(Z) :=
x P(Z = x)
(2.2)
x∈Z(Ω)
(falls existent) der Erwartungswert von Z.
Auch hier bietet es sich an mit einer Rechnung das Konzept des Erwartungswerts wieder aufzufrischen. Hierzu folgende Aufgabe:
Beispiel 2.2. Sinnvollerweise nutzen deine Eltern diese Chance, um ein
neues pädagogisches Element auszuprobieren und du musst die Konsequenzen deines leichtfertigen Verhaltens tragen.
Du bekommst also keine neuen Socken. Gleichzeitig musst du natürlich die
vorgegebenen Trageregeln weiterhin einhalten.
Problematisch ist hierbei, dass du aus lauter Enthusiasmus bereits an deinem Geburtstag sämtliche anderen Socken weggeschmissen hast.
Sei Z die Zufallsvariable, die zählt an wie vielen Tagen der Woche du mit
weniger als 2 Socken aus dem Haus musst.
Berechne den Erwartungswert E(Z).
An verschiedenen Stellen in den kommenden Beweisen wird die Linearität
des Erwartungswerts verwendet, daher soll sie hier einmal erwähnt werden.
Bemerkung 2.2. Seien X, Y Zufallsvariablen mit den Erwartungswerten
E(X), E(Y ). Der Erwartungswert ist linear, also gilt mit a, b ∈ R
E(aX + bY ) = aE(X) + bE(Y )
2.2.1
(2.3)
Markow-Ungleichung
Als Abschätzung für die Wahrscheinlichkeit, dass eine Zufallsvariable extreme Werte annimmt (also sehr positive bzw. sehr negative Werte), kann
man die Markow-Ungleichung benutzen. Uns soll es jedoch genügen den Fall
k = 1 zu betrachten.
5
KAPITEL 2. GRUNDLAGEN DER
WAHRSCHEINLICHKEITSRECHNUNG
Definition 2.4. Sei k ∈ N. Sei Y eine Zufallsvariable auf dem endlichen Wahrscheinlichekitsraum (Ω, P) mit endlichem k-ten absoluten Moment
E(|Y |k ). Dann gilt für alle a > 0:
P(|Y | ≥ a) ≤
E(Y k )
ak
P(|Y | ≥ a) ≤
E(Y )
.
a
Insbesondere gilt für k = 1
6
(2.4)
Kapitel 3
Untere Schranke der
Ramsey-Zahlen
3.1
Die Probabilistische Methode
Nun zum zentralen Thema dieser Ausarbeitung. Im Buch der Beweis wird
die probabilistische Methode als Beweiskonzept für Existenzbeweise folgendermaßen definiert.
Bemerkung 3.1. Wenn auf einer Menge von Objekten die Wahrscheinlichkeit, dass ein Objekt eine bestimmte Eigenschaft nicht hat, kleiner als 1
ist, dann muss es ein Objekt mit der Eigenschaft geben.
Mit diesem Satz ist gemeint, dass sich die Existenz einer Eigenschaft damit
beweisen lässt, dass man berechnet, dass die Gegenwahrscheinlichkeit zu
dieser Eigenschaft < 1 ist. Im folgenden Beweis wird diese Idee klarer.
3.2
Beweis der unteren Schranke der Ramsey-Zahlen
Die Ramsey-Zahl R(s, t) gibt an, wie groß ein vollständiger Graph mindestens sein muss, um zu gewährleisten, dass es bei einer 2-Färbung dieses
Graphen einen vollständigen roten Untergraphen der Ordnung s oder einen
vollständigen blauen Untergraphen der Ordnung t geben muss. Diese Zahl
lässt sich mit einem Satz relativ effektiv nach unten Abschätzen.
Satz 3.1. Für alle k ≥ 2 gilt die folgende Schranke für die Ramsey-Zahlen:
k
2 2 ≤ R(k, k)
2
(3.1)
3
Beweis. 2 = 2 2 ≤ R(2, 2) = 2 und 2, 8284 = 2 2 ≤ R(3, 3) = 6.
Also sei ab jetzt k ≥ 4.
7
KAPITEL 3. UNTERE SCHRANKE DER RAMSEY-ZAHLEN
k
Außerdem nehmen wir an, dass N < 2 2 .
Wir färben den KN mit rot und blau. Dabei sei Prot (e) die Bezeichnung für
die Wahrscheinlichkeit, dass die Kante e rot gefärbt wird. Es sei Prot (e) = 21 .
Jede Färbung auf dem KN hat dann also die Wahrscheinlichkeit
N
N (N −1)
N!
N (N −1)
1 ( 2 ) 1 2!(N −2)!
1 2
=
(3.2)
=
= 2− 2
2
2
2
Sei nun A eine Menge von Knoten mit |A| = k. Weiterhin sei AR das Ereignis, dass alle Kanten in A rot sind.
(k )
Dann ist P(AR ) = 21 2 .
Sei weiterhin pR die Wahrscheinlichkeit für das Ereignis, dass es auf dem KN
eine k-elementige Teilmenge gibt, deren Kanten allesamt rot gefärbt sind.
Genauso sei pB die Wahrscheinlichkeit für das Ereignis, dass es auf dem KN
eine k-elementige Teilmenge gibt, deren Kanten allesamt blau gefärbt sind.
Dann gilt:
pR := P(
[
AR ) ≤
A⊂KN
X
A⊂KN
(k ) N 1 2
N −(k)
P(AR ) =
=
2 2
k 2
k
(3.3)
k
Nun nahmen wir aber an, dass N < 2 2 und k ≥ 4. Da allgemein für k ≥ 2
nk
gilt, dass nk ≤ 2k−1
, folgt
pR := P(
[
AR ) =
A⊂KN
<2
k2
− k2
2
k
N −(k)
Nk
2 2 ≤ k−1 2−(2)
k
2
( )−k+1 = 2 k
2 −k(k−1)
2
−k+1
k
= 2− 2 +1 =
(3.4)
2
k
(3.5)
22
≤
2
2
4
2
=
2
1
=
2
2
2
k
Demnach gilt für N < 2 2 dass pR <
(3.6)
1
2
und analog gilt dies auch für pB .
Dann ist aber pR + pB < 1.
k
Daraus folgt mithilfe der probabilistischen Methode, dass für N < 2 2 auf
dem KN mit Sicherheit eine Färbung existiert, sodass es weder einen roten
k
noch einen blauen Kk gibt. Und somit ist 2 2 ≤ R(k, k).
8
Kapitel 4
Existenzbeweis zu Graphen
mit hoher chromatischer
Zahl und hoher Taillenweite
4.1
Zufallsgraphen
Für den zweiten großen Beweis benötigen wir noch einige Grundlagen der
Graphentheorie und Eigenschaftsbegriffe. Zunächst gilt es, die Idee des Zufallsgraphen zu verstehen.
Definition 4.1. Mit G(n) bezeichnen wir die Menge aller möglichen Graphen mit n-Knoten. Durch G(n, p) = (G(n), p) definieren wir damit einen
Wahrscheinlichkeitsraum, dessen Ergebnisse alle möglichen Graphen auf n
Knoten sind. Jedes Ergebnis des Wahrscheinlichkeitsraums ist ein Zufallsgraph und durch p wird das Auftreten der Kanten festgelegt, mit
P({v, w} ∈ E) = p unabhängig für alle v 6= w ∈ Vn
4.2
(4.1)
Taillenweite und Unabhängigkeitszahl
Definition 4.2. Die Länge eines kürzesten Kreises in einem Graphen G ist
die Taillenweite γ(G) von G.
Die Unabhängigkeitszahl ist ein deutlich schwerer zu fassender Begriff.
Definition 4.3. Eine Teilmenge von V heißt unabhängig, wenn ihre Elemente paarweise nicht benachbart sind.
Die größte Mächtigkeit einer unabhängigen Eckenmenge in G ist die Unabhängigkeitszahl α(G) von G.
9
KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER
CHROMATISCHER ZAHL UND HOHER TAILLENWEITE
Hierbei ist schon die Nähe des Begriffs der unabhängigen Menge zu dem Begriff der Farbklasse(s. vorangehender Vortrag zum 5-Farbensatz) erkennbar.
4.3
Existenzbeweis zu Graphen mit hoher chromatischer Zahl und hoher Taillenweite
Abschließend möchten wir noch einen Beweis anführen, in dem mithilfe der
probabilistischen Methode eine wirklich erstaunliche Aussage bewiesen wird.
Der Satz lautet:
Satz 4.1. Für jedes k ≥ 2 gibt es einen Graphen G mit chromatischer Zahl
X (G) > k und Taillenweite γ(G) > k.
Diese Aussage ist insofern interessant, da sie behauptet, dass es Graphen
gibt, für die man viele Farben braucht, um sie zu färben und trotzdem
nur große Kreise in diesem Graphen vorliegen; insbesondere gibt es keine
Dreiecke. Der Gedanken, dass es bei einer hohen chromatischen Zahl viele
Dreiecke geben müsste, liegt eigentlich nahe, da man dadurch viele benachbarte Knoten erzeugt. Dennoch ist dieser Umstand nicht zwangsweise der
Fall. Und das werden wir nun beweisen.
Beweis. Zuerst zeigen wir, dass es zu jedem k ∈ N ein n ∈ N und einen
Graphen G ∈ G(n, p) gibt, sodass X (G) > k.
Dies ist einsichtig, wenn man sich klar macht, dass für jede Farbklasse auf G
gilt, dass sie insbesondere eine unabhängige Menge darstellt. Daher ist die
Mächtigkeit jeder einzelnen Farbklasse ≤ α(G).
Daher ist n = β X (G), wobei β die durchschnittliche Mächtigkeit der Farbklassen ist. Offensichtlich ist β ≤ α(G). Also ist X (G)α(G) ≥ n.
Diese Ungleichung hilft uns ungemein, da wir nun zeigen können, dass es
einen Graphen gibt, für den α sehr klein werden kann. Dies ist gleichbedeutend mit einem großen X (G). Dies ist also das nächste Zwischenziel.
Dazu sei 2 ≤ r ≤ n und A sei eine unabhängige r-elementige Knotenmenge
r
in G mit |A| = r. Dann ist P(A) = (1 − p)(2) . Desweiteren gilt:
r
r
n
nr
P(α ≥ r) ≤
(1 − p)(2) ≤
(1 − p)(2)
(4.2)
r
r!
r
r−1
≤ nr (1 − p)(2) = (n(1 − p) 2 )r
(4.3)
≤ (ne−p
r−1
2
)r
10
(4.4)
KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER
CHROMATISCHER ZAHL UND HOHER TAILLENWEITE
k
Dies lässt sich gut abschätzen, wenn man p = n− k+1 setzt. Dadurch ist
1
pn = n k+1 . Da pn schneller wächst als ln(n), gibt es ein n ∈ N, sodass
p ≥ 6k ln(n)
n .
n
gilt dann pr ≥ 3ln(n).
Für r ≥ 2k
Wenn man dann all diese Einsichten kombiniert, ergibt sich
P(α ≥
r−1
3
1
n
) ≤ (ne−p 2 )r ≤ (ne− 2 ln(n) e 2 )r
2k
1 1
e r
= (n− 2 e 2 )r = ( ) 2
n
(4.5)
(4.6)
Offensichtlich geht dieser Term für große n gegen 0.
Insofern haben wir gezeigt, dass
∃n1 ∈ N ∀n ≥ n1 :
P(α ≥
n
1
)<
2k
2
(4.7)
Dies können wir als Ergebnis so festhalten und werden darauf später zurückkommen. Nun kümmern wir uns darum, dass wir γ(G) > k zeigen. Wir
zeigen, dass es n gibt, sodass G nicht allzu viele Kreise hat, deren Länge
höchstens k ist.
Sei dazu 3 ≤ i ≤ k und A ∈ V eine Menge mit i-Knoten. Dann ist die
Anzahl der möglichen i-Kreise auf A genau (i−1)!
2 . Dies entspricht nämlich
genau der Anzahl der zyklischen Permutationen auf A durch 2. Man muss
die Anzahl durch 2 teilen, da man sonst jeden Kreis aus zwei Richtungen
durchlaufen würde und somit doppelt zählen würde.
n
Die Anzahl der möglichen Kreise mit Länge i auf V ist dann (i−1)!
2
i . Jeder
dieser Kreise tritt mit der Wahrscheinlichkeit pi auf.
Sei X eine Zufallsvariable, die die Kreise zählt, deren Länge höchstens k ist.
Folglich ist
E(X) =
k X
n (i − 1)!
i=3
i
2
k
pi ≤
1X i i 1
n p ≤ (k − 2)nk pk
2
2
(4.8)
i=3
An dieser Stelle können wir die Markow-Ungleichung anwenden und schätzen
die Wahrscheinlichkeit dafür ab, dass es mehr als n2 Kreise in einem Graphen
gibt, die kürzer als k sind.
P(X ≥
1
n
E(X)
(np)k
) ≤ n ≤ (k − 2)
= (k − 2)n− k+1
2
n
2
(4.9)
Auch hier gilt, dass der rechte Term gegen 0 geht, wenn n beliebig groß wird.
Also ist insbesondere
∃n2 ∈ N ∀n > n2 : P(X ≥
11
n
1
)<
2
2
(4.10)
KAPITEL 4. EXISTENZBEWEIS ZU GRAPHEN MIT HOHER
CHROMATISCHER ZAHL UND HOHER TAILLENWEITE
Wenn wir wieder die probabilistische Methode anwenden und die beiden vorherigen Ergebnisse kombinieren haben wir gezeigt, dass es für n ≥ max{n1 , n2 }
n
einen Graphen G mit n Ecken gibt, der α(G) < 2k
erfüllt und weniger als
n
Kreise
mit
Länge
<
k
hat.
2
Wir entfernen nun aus jedem dieser Kreise einen Knoten.
Der verbleibende Graph sei dann H.
Es gilt dann γ(H) > k.
Da wir wissen, dass H mehr als n2 Knoten hat und wir gezeigt haben, dass
n
α(H) ≤ α(G) < 2k
, gilt
X (H) ≥
n
2
α(H)
≥
n
n
> n = k.
2α(G)
k
12
(4.11)
Literaturverzeichnis
[1] A. Büchter and H.-W. Henn. Elementare Stochastik: Eine Einführung
in die Mathematik der Daten und des Zufalls. Berlin Heidelberg, 2.
überarbeitete und erweiterte auflage edition, 2005.
[2] M. Aigner and G.M. Ziegler. Das Buch der Beweise. Springer Verlag,
Berlin Heidelberg, 4. edition, 2010.
[3] R. Diestel. Graphentheorie. Springer Verlag, Berlin Heidelberg, 1996.
13
Herunterladen