Zusammenfassung.

Werbung
PROBABILISTISCHE KOMBINATORIK
GOETHE-UNIVERSITÄT FRANKFURT, WINTERSEMESTER 2013/14
YURY PERSON
Abstract. Material covered so far.
Contents
1. Taubenschlagprinzip (Schubfachprinzip, pigeonhole principle)
1.1. Begriffe aus der Graphentheorie
1.2. Ramseyzahlen
2. Probabilistische Methode: ”erste Schritte”
2.1. Untere Schranken an r(k)
2.2. Diskrete Wahrscheinlichkeitstheorie
2.3. Das Grundprinzip der probabilistischen Methode
2.4. Erste Anwendungen der probabilistischen Methode
2.5. Weitere Anwendungen
2.6. Asymptotisches Verhalten
2.7. Eine asymptotische untere Schranke an die Ramseyzahl r(k)
2.8. Alterations: wenn man die Zufallsvariablen miteinander kombiniert
2.9. Graphen mit großer chromatischer Zahl und ohne kurze Kreise
2.10. Zwei berühmte Geometrieprobleme von Erdős
2.11. Lovász local Lemma
2.12. Zweite Momentmethode
2.13. Graphenigenschaften
3. Exponentell kleine Wahrscheinlichkeiten
3.1. Chernoff-Ungleichung
3.2. FKG-Ungleichung
3.3. Martingale
3.4. Jansons Ungleichung
4. Kombinatorische Theoreme
4.1. Schnitttheoreme
4.2. Entropie
5. Regularitätslemma und seine Anwendungen
5.1. Removal Lemma und Roths Theorem
References
1
2
2
2
3
3
3
4
4
6
6
7
7
9
10
10
11
12
15
15
17
18
21
24
24
25
30
30
33
2
YURY PERSON
1. Taubenschlagprinzip (Schubfachprinzip, pigeonhole principle)
Einfachste Form: fliegen n + 1 Tauben in n Löcher, so gibt es mindestens ein
Loch mit mindestens zwei Tauben.
(1) Bei 13 Menschen gibt es zwei, die im selben Monat Geburtstag haben.
(2) Seien a1 , . . . , am ganze Zahlen. Dann gibt es aufeinanderfolgende Zahlen
ai , ai+1 ,. . . , aj , deren Summe durch m teilbar ist.
Pi
Beweisidee: teilt m die Summen Si :=
`=1 a` für alle i ∈ [m] nicht, so muss
es i < j geben mit Si ≡ Sj ( mod m). Also teilt m die Summe
ai+1 , . . . , aj .
(3) Ein Schachgroßmeister bereitet sich auf ein Turnier vor, welches in 11
Wochen stattfindet. Dabei entscheidet er sich, jeden Tag mindestens ein
Spiel zu bestreiten, aber pro Woche höchstens 12 Spiele zu spielen. Zeigen
Sie: es gibt einen zusammenhängenden Zeitraum von (ganzen) Tagen, in
dem der Schachgroßmeister genau 21 Spiele spielt.
Beweisidee: Sei ai die Anzahl bestrittener Spiele bis zum Tag i. Es gilt: 1 ≤ a1 <
a2 < . . . < a77 ≤ 132 = 11 · 12. Betrachten Sie die Folge bi := ai + 21,
i ∈ [77] und wenden Sie das Schubfachprinzip an.
P
Starke Form: seien q1 ,. . . , qn ∈ N. Verteilt man ( i∈[n] qi ) − n + 1 auf n
Schubladen, so gibt es entweder in der ersten mindestens q1 Objekte, oder in der
zweiten mindestens q2 Objekte oder in der dritten mindestens q3 Objekte, oder ...
oder in der nten mindestens qn Objekte. (Beweis durch Widerspruch).
1.1. Begriffe aus der Graphentheorie.
• Ein Graph G ist ein Tupel (V, E) mit E ⊆ V2 . V heißt Knotenmenge und
E heißt Kantenmenge.
• Die Elemente aus V heißen Knoten und die Elemente aus E Kanten.
• Knoten werden graphisch durch Punkte dargestellt, während eine Kante
e = {u, v} durch eine Verbindungstrecke (Kurve), die u und v miteinander
verbindet, dargestellt wird.
• Für eine Kante e = {u, v} heißen u und v deren Endknoten. Ferner heißen
u und v benachbart (adjazent), und man sagt u und v sind mit e inzident.
• Kn bezeichnet den Graphen ([n], [n]
2 ), den vollständigen Graphen auf n
Knoten.
1.2. Ramseyzahlen.
Definition 1 (Ramseyzahl r(k)). Die Ramseyzahl r(k) ist die kleinste
natürliche
[n]
Zahl n, so dass es in jeder Färbung der Kanten von Kn = [n], 2
eine einfarbige
Kopie von Kk gibt.
Formal:
o
n
[n]
S
r(k) := min n ∈ N | ∀ c : [n]
→
{rot,blau}
∃
S
∈
s.t.
|c
|
=
1
.
2
k
2
• Beispiele für kleine Ramseyzahlen: r(2) = 2, r(3) = 6 (der Beweis wurde in
der Vorlesung präsentiert), r(4) = 18, 43 ≤ r(5) ≤ 49, 102 ≤ r(5) ≤ 165. . .
Date: February 14, 2014.
15.Oktober 2013
PROBABILISTISCHE KOMBINATORIK
3
• Möchte man also zeigen, dass r(k) > ` ist, so braucht man eine rotblau Färbung des K` zu finden mit der Eigenschaft, dass es auf jeder kelementigen Teilmenge von [`] mindestens eine rote und mindestens eine
blaue Kante gibt.
• Möchte man aber zeigen, dass r(k) ≤ ` so muss man argumentieren, dass
egal wie man die Kanten des K` färbt, eine einfarbige Kopie unvermeidbar
ist.
• Satz von Ramsey (1930) Für jedes k ∈ N gilt r(k) ist endlich.
2k−3 • (Beweisskizze für r(k) ≤ 22k−3 ): sei c : [2 2 ] → {rot,blau} beliebig aber
fest. Nimm’ einen Knoten v1 ∈ [22k−3 ] heraus. Er ist zu mindestens 22k−4
Knoten (bezeichne diese Menge V2 ) in derselben Farbe F1 ∈ {rot,blau}
verbunden. Sei v2 ∈ V2 , er ist zu mindestens 22k−5 Knoten aus V2 in
derselben Farbe F2 ∈ {rot,blau} verbunden (bezeichne die Menge der zu v2
verbundenen Knoten aus V2 in der Farbe F2 als V3 )). Iteriere den Prozess.
Am Ende hat man Knoten v1 ,. . . , v2k−2 mit der Eigenschaft, dass vi zu
allen Knoten in {vi+1 , . . . , v2k−2 } in der Farbe Fi verbunden ist. Da es
2k − 3 Fi s gibt, sind mindestens k − 1 von ihnen entweder rot oder blau.
Es findet sich also eine monochromatische (einfarbige) Kopie von Kk .
Buchreferenzen:[3, Kapitel 3],[11, Kapitel 3 und 4].
2. Probabilistische Methode: ”erste Schritte”
2.1. Untere Schranken an r(k).
• r(k) > (k − 1)2 : partitioniere [(k − 1)2 ] Knoten in k − 1 Gruppen á k − 1
Knoten, färbe innerhalb jeder Gruppe alle Kanten rot, und zwischen je zwei
Gruppen alle Kanten blau. Es ist klar, dass es kein monochromatisches Kk
gibt.
• Erdős 1947: r(k) > 2k/2 für k ≥ 3. (Bemerke: diese untere Schranke ist
exponentiell in k, wächst also viel schneller als jedes Polynom in k. Wir
kommen auf asymptotisches Wachstum etwas später zu sprechen)
• Beweisidee (Erdős): sei c : [n]
→ {rot, blau} schlecht, falls es ein
2
k/2
monochromatisches Kk ”erzeugt”, sonst gut. Nimm an n =
und zeige,
2
n
dass die Anzahl der schlechten Färbungen kleiner als 2 2 ist. Also muss
es eine gute Färbung geben, also r(k) > n.
• Wir halten fest: 2k/2 < r(k) < 22k . Diese Schranken sind (asymptotisch)
das Beste, was man kennt!
• $100/$250 Erdősprobleme: existiert limk→∞ r(k)1/k ? Wenn es existiert, was ist es?
2.2. Diskrete Wahrscheinlichkeitstheorie.
• denselben Beweis von Erdős könnte man auch so formulieren: färbe zufällig
(gleichwahrscheinlich und unabhängig) alle Kanten von Kn mit rot/blau.
Dann ist die Wahrscheinlichkeit,
dass es eine monochromatische Kopie von
k
n 1− 2
Kk gibt kleiner als k 2
. Ist diese kleiner alsP
1, so folgt: r(k) > n.
• (Ω, P) mit |Ω| < ∞ und P : Ω → [0, 1] mit
ω∈Ω P(ω) = 1 heisst
(diskreter) Wahrscheinlichkeitsraum. (In dieser Vorlesung beschränken wir
uns meistens auf endliche Wahrscheinlichkeitsräume mit der σ-Algebra
18.Oktober 2013
4
YURY PERSON
•
•
•
•
•
P(Ω) (Potenzmenge von Ω)). P heisst dabei Wahrscheinlichkeitsmaß
(Wahrscheinlichkeitsverteilung).
Wenn wir ein zufälliges Element aus Ω ziehen, so ziehen wir ω mit
1
Wahrscheinlichkeit P(ω). Falls P(ω) = |Ω|
für alle ω ∈ Ω, so heißt P
Gleichverteilung (auch uniforme Verteilung genannt.)
Eine Teilmenge A ⊆ Ω heißt
P Ereignis (engl. event). Dessen Wahrscheinlichkeit ist durch P(A) := a∈A P(a) definiert.
Meistens werden Funktionen X studiert, die den Elementen aus Ω Werte
in R zuweisen. Solche Funktionen heißen Zufallsvariable (engl. random
variable).
Der Erwartungswert (engl.
Pexpectation) E[X] einer Zufallsvariable X : Ω →
R ist durch E[X] :=
Im Falle der Gleω∈Ω X(ω)P(ω) definiert.
ichverteilung ist das der Durchschnitt aller Werte von X(ω), ω ∈ Ω.
Linearität des Erwartungswerts (engl. linearity of expectation):
Seien
Pn X1 , . . . , Xn Zufallsvariable und λ1 ,. . . , λn ∈ R. Dann gilt für X :=
i=1 λi Xi :
n
X
E[X] =
λi E[Xi ].
i=1
S
• Union bound (Bonferroni Ungleichung): Oft wird P( i∈[n] Ei ) durch
P
S
P
i∈[n] P(Ei ) abgeschätzt, d.h. P( i∈[n] Ei ) ≤
i∈[n] P(Ei ). (Gleichheit
gilt, falls alle Ei disjunkt sind.)
• Gegeben seien (Ωi , Pi ) W-Räume
Q (i ∈ [n]). Dann ist Ω := ×i∈[n] Ωi (kartesisches Produkt) mit P(ω) := i∈[n] Pi (ωi ) für jedes ω = (ω1 , . . . , ωn ) ∈ Ω
der Produktraum.
2.3. Das Grundprinzip der probabilistischen Methode.
• SeiS(Ω, P) ein (diskreter) W-Raum. Seien E1 ,. . . , En Ereignisse. Gilt nun
P( i∈[n] Ei ) < 1, so existiert ein ω ∈ Ω, welches keine der Eigenschaften
S
c
besitzt, die durch Ei s ”beschrieben” werden (ω ∈
).
i∈[n] Ei
• Gilt E[X] ≥ a, so gibt es ein ω ∈ Ω mit X(ω) ≥ a. (Dasselbe gilt für ≤).
Es ist oft hilfreich, X als Summe von geeigneten Indikatorzufallsvariablen
darzustellen um dann die Linearität des Erwartungswerts auszunutzen.
2.4. Erste Anwendungen der probabilistischen Methode.
• Erdős 1947, Beweisidee: färbe die Kanten des Kn zufällig, mit
Wahrscheinlichkeit
1/2 rot oder blau. (Ω, P) ist dabei der Produktraum
der n2 identischen W-Räume ({rot, blau}, Pi ) mit Pi (rot) = Pi (blau) =
1/2. P ist also die Gleichverteilung auf der Menge aller Kantenfärbungen
[n]
{rot, blau} 2 . (AB bezeichnet die Menge aller Funktionen von B nach
A). Für jedes S ∈ [n]
definiert man das Ereignis ”zufälliges ω induziert
k
ein monochromatisches
K
k ”. Da die Kanten unabhängig gefärbt sind, gilt:
k
P(AS ) = 21− 2 . Union bound-Argument liefert die Behauptung.
• Property B:
– H = (V, E) heißt k-uniformer Hypergraph, falls E ⊆ Vk . Elemente
aus E heißen (Hyper-)Kanten und Elemente aus V heißen Knoten.
PROBABILISTISCHE KOMBINATORIK
5
– Erdős 1963: Jeder k-uniforme Hypergraph mit weniger als 2k−1 Kanten hat eine rot-blau Färbung seiner Knoten ohne monochromatische
Kanten.
– Beweisidee: färbe die Knoten zufällig rot/blau (gleichwahrscheinlich).
Die erwartete Anzahl der monochromatischen Kanten ist kleiner als 1.
Also ist H bipartit (d.h. rot/blau-färbbar).
Buchreferenzen:[1, Kapitel 1],[11, Kapitel 3 und 5].
Weitere Begriffe aus der W-Theorie (gegeben ein W-Raum (Ω, P))
−1
• Für ein A ⊆ R bezeichnet {X ∈ A} das Ereignis X (A) = {ω : X(ω) ∈ A}.
• Ereignisse
E1 ,.Q. . , En ⊆ Ω heißen unabhängig, falls für alle J ⊆ [n] gilt
T
P( i∈J Ei ) = i∈J P(Ei ).
• Für ein Ereignis E bezeichnet 1E die Indikatorzufallsvariable mit 1E (ω) = 1
falls ω ∈ E und 1E (ω) = 0 falls ω 6∈ E. Es gilt: E[1E ] = P[E].
• Zufallsvariable X1 , . . . , Xn heißen unabhängig, falls für alle Ai ⊂ R, i ∈ [n]
gilt:
P(X1 ∈ A1 ∧X2 ∈ A2 ∧. . .∧Xn ∈ An ) = P(X1 ∈ A1 )·P(X2 ∈ A2 )·. . .·P(Xn ∈ An ).
• Die Varianz (engl. variance) misst den quadratischen Abstand der Werte
von X zum Erwartungswert E[X]: Var[X] := E[(X − E[X])2 ] = E[X 2 ] −
(E[X])2 .
Beispiel (zufällige rot-blau-Färbung von V ): Viele der Anwendungen, die wir
nun sehen werden, “laufen” wie folgt ab: typischerweise werden wir eine gegebene
Grundmenge V = {v1 , . . . , vn } zufällig mit 2 (oder mehr) Farben färben. Dabei
wird in der Regel v ∈ V zufällig und unabhängig von den anderen Elementen
aus V gefärbt. Wir assozieren also mit jedem vi eine Zufallsvariable Xi , so dass
alle X1 ,. . . , Xn unabhängig und identisch verteilt sind (engl. i.i.d.(independently
identically distributed)) und die Werte 0 und 1 annehmen. Zum Beispiel, falls
Xi = 1 ist, so färben wir vi rot und falls Xi = 0, so färben wir vi blau. Mithilfe der
Zufallsvariablen X1 , . . . , Xn können wir dann viele ”Situationen” beschreiben.
2.4.1. Beispiele.
• Sei A ⊂ V mit A = {vi1 , . . . , vik }, dann gilt P(A ist monochromatisch) =
P(Xi1 = . . . = Xik ) = P(Xi1 = . . . = Xik = 1) + P(Xi1 = . . . = Xik = 0) =
pk + (1 − p)k . Dabei: P(A ist rot) = pk und P(A ist blau) = (1 − p)k .
• Falls p = 1/2, so gilt: P(A ist monochromatisch) = 21−k .
• Sei E das Ereignis “A ist monochromatisch”, dann gilt E[1E ] = P(E) =
k
pk + (1
P− p) .
• X := i Xi ist dann binomialverteilt mit Parametern n und p. D.h. P(X =
k) = nk pk (1 − p)n−k .
• Property B
Der Wahrscheinlichkeitsraum, den wir dabei betrachten, können wir wie folgt als
Produktraum von Bernoulliräumen auffassen. Ein einzelner Bernoulliraum ist
gegeben durch (Ω, P) mit Ω = {0, 1} und P(1) = p und P(0) = 1−p. Dann definieren
P
wir den
Produktraum (Ωn , Pn ) durch Ωn := {0, 1}n und Pn (ω) = p i ωi (1 −
P
p)n− i ωi , sowie Xi : Ωn → {0, 1} durch Xi (ω) = ωi für ω = (ω1 , . . . , ωn ) ∈ Ωn .
22.Oktober 2013
6
YURY PERSON
Man kann leicht nachrechnen, dass Xi unabhängig sind. Ferner sind alle Zufallsvariable (bzw. Ereignisse unabhängig), die von verschiedenen Koordinaten aus
[n] “abhängen”.
Mehr als 2 Farben: falls die Anzahl der Farben s > 2 dann betrachten wir
Produkträume, d.h. Ω = 1, . . . , s mit P(i) = pi , und der Produktraum Ωn := Ωn
Qs
#{ω =i}
mit Pn (ω) = i=1 pi j . Die entsprechenden Zufallsvariablen bzw. Ereignisse
bleiben unabhängig. Ferner kann man eine Färbung von V mit s Farben eins-zueins (bijektiv) mit einer Partition von V in höchstens s Teilmengen identifizieren.
2.5. Weitere Anwendungen.
• Bipartite Teilgraphen: Sei G = (V, E) ein Graph mit m Kanten, dann
enthält G einen bipartiten Teilgraphen mit mindestens m/2 Kanten.
• Beweis: Färbe die Knoten zufällig rot oder blau. D.h. der Wahrscheinlichkeitsraum ist Ω = {rot, blau}V und P(ω) = (1/2)|V | für ω = (ωv )v∈V
(ωv ist die Farbe von v in der Färbung ω). Sei X die Zufallsvariable,
die die
P
nichtmonochromatischen Kanten zählt. Wir können X als e=uv∈E Xuv
schreiben, wobei Xuv = 1 falls u und v verschiedene Farben bekommen und
0 sonst (Xuv ist also die Indikatorvariable für das Ereignis ist “Kante uv
ist zweifarbig”). Da P[“Kante uv ist zweifarbig”] = P[ωu 6= ωv ] = P[ωu =
rot ∧ ωv = blau] + P[ωu = blau ∧ ωv = rot] = (1/2)2 + (1/2)2 = 1/2 ist,
gilt E[Xuv ] = 1/2 und somit E[X] = m/2 und es gibt eine Bipartition mit
mindestens m/2 Kanten im Schnitt.
• A heißt summenfrei, falls (A + A) ∩ A = ∅.
• Satz (Erdős 1965): Jede n-elementige Menge B = {b1 , . . . , bn } ganzer
Zahlen mit 0 6∈ B enthält eine summenfreie Teilmenge A der Kardinalität
größer als n/3.
• Beweis: Sei x ein (uniform verteiltes) zufälliges Element aus Z∗p . Dann
bildet man B in die Menge Z∗p (p > 2 max |bi | und p eine Primzahl der
Form 3k + 2) via φx (bi ) := bi · x( mod p) ab.
Sei Ax P
:= {b : b ∈ B und φx (b) ∈ {k + 1, . . . , 2k + 1}} und setze X =
|Ax | =
b∈B Xb , wobei Xb = 1 falls φx (b) ∈ {k + 1, . . . , 2k + 1} und
k+1
, da φx (b) uniform verteilt in Z∗p ist.
Xb = 0 sonst. Es gilt E[Xb ] = 3k+1
P
k+1
Der Erwartungswert von X ist b∈B E[Xb ] = 3k+1
n > n/3, also gibt es
ein x mit |Ax | > n/3. Da {k + 1, . . . , 2k + 1} summenfrei ist, muss auch Ax
summenfrei sein.
• Satz (Bollobás 1965): Seien Mengenpaare (A1 , B1 ),. . . , (Ah , Bh ) mit
den folgenden Eigenschaften gegeben:
(i) |Ai | = k und |Bi | = ` für alle i ∈ [h],
(ii) Ai ∩ Bi = ∅ für alle i ∈ [h],
(iii) Ai ∩ Bj 6= ∅ für alle i 6= j ∈ [h].
Dann gilt h ≤ k+`
k S.
S
• Beweis: Sei X = i Ai ∪ i Bi (⊂ N o.B.d.A.) und τ eine zufällige Permutation von X. Für jedes i ∈ [h], definiere dann folgendes
Ereignis Ei :
“max τ (Ai ) < min τ (Bi )”. Beobachtung: P(Ei ) = 1/ k+`
und
alle Ei sind
k
P
˙ i ] = i P(Ei ) = h/ k+`
disjunkt. Mit 1 ≥ P[∪E
folgt
die
Behauptung.
k
2.6. Asymptotisches Verhalten. Oftmals ist es mühsam, genaue untere/obere
Schranken herzuleiten bzw. man ist oftmals an Schranken interessiert, die erst für
PROBABILISTISCHE KOMBINATORIK
7
“große” Werte eine interessante, asymptotische Aussage liefern. Beispiele dieser Art
sind Schranken an die Laufzeit für Algorithmen, Fehlerapproximation, Primzahlsatz
u.v.m. Dazu führen wir eine weit verbreitete Landau-Notation ein. Im folgenden
werden wir Notation für Verhältnis zweier Funktionen f und g einführen. Deren
Definitionsbereich ist typischerweise N, Z, Q oder R (R+ ) und Wertebereich N oder
allgemeiner R≥0 . Wir schreiben . . .
• g = O(f ), falls es ein C > 0 und n0 gibt mit g(n) ≤ Cf (n) für alle n ≥ n0 ;
• g = Ω(f ), falls es ein c > 0 und n0 gibt mit g(n) ≥ cf (n) für alle n ≥ n0
(d.h. falls f = O(g));
• g = Θ(f ), falls f = O(g) und g = O(f ), d.h. es gibt c, C > 0 und n0 mit
cf (n) ≤ g(n) ≤ Cf (n) für n ≥ n0 ;
• g = o(f ), falls für alle ε > 0 es ein n0 gibt mit g(n) ≤ εf (n) für n ≥ n0 ;
• Spezialfall: g = o(1) bedeutet also, dass limn→∞ g(n) = 0;
• g = ω(f ), falls für alle C > 0 es ein n0 gibt mit g(n) ≥ Cf (n) für n ≥ n0 ;
• g ∼ f , falls limn→∞ fg(n)
(n) = 1.
Ferner ist es oft nützlich eine gute Abschätzung an die Binomialkoeffizienten zu
haben. Oftmals reichen:
n
,
• nk ≤ k!
k
n
• k ≤ e·n
, sowie
k
n
n k
• k ≥ k .
√
k
• Eine genauere Schranke liefert die Stirlings Formel: n! ∼ 2πn ne .
2
• Weitere Abschätzungen: 1 − x ≤ e−x für alle x, und 1 − x ≥ e−x−x für
x ∈ (0, 1/2).
2.7. Eine asymptotische untere Schranke an die Ramseyzahl r(k).
k
• Zur Erinnerung: wir haben gesehen, dass aus nk 21− 2 < 1 =⇒ r(k) > n.
k
Wenn man nk durch e·n
abschätzt, die k-te Wurzel zieht und nach
k
n auflöst, so folgt: r(k) > (1 − o(1)) √12·e k2k/2 . Die asymptotisch beste
bekannte untere Schranke ist nur um den Faktor 2 besser!
Buchreferenzen:[2, Kapitel 1-2].
29.Oktober 2013
2.8. Alterations: wenn man die Zufallsvariablen miteinander kombiniert.
2.8.1. Ramsey again.
k
• Satz: Es gilt: r(k) > n − nk 21− 2 .
• Beweisidee: färbe E(Kn ) rot-blau zufällig und sei X die Anzahl der
k
monochromatischen Kk s. Es gilt E[X] = nk 21− 2 , und es gibt also eine
k
Färbung mit höchstens nk 21− 2 monochromatischen Kk s. Man erhält
durch Löschen je eines Knotens
aus jeder solchen Kopie eine Färbung auf
k
n 1− 2
mindestens n − k 2
Knoten ohne rote und blaue Kk s.
k
• Wir brauchen nur noch die Funktion f (n) = n − nk 21− 2 zu maximieren
k
n 1− 2
(genau genommen, es reicht g(n) = n − k 2
zu maximieren). Und
wir erhalten n = (1 − o(1)) 1e k2k/2 .
8
YURY PERSON
k
• Einsetzen von n = (1 − o(1)) 1e k2k/2 in n − nk 21− 2 liefert: r(k) > (1 −
√
o(1)) 1e k2k/2 . (Verbesserung um 2.)
• Bemerkung: wegen asymptotischer Analysis (k → ∞), brauchen wir nicht
abzurunden (Das Ergebnis verändert sich nicht.)
2.8.2. Unabhängige Mengen.
• Eine unabhängige
Menge (engl. independent set) im Graphen G ist S ⊂
V (G) mit S2 ∩ E(G) = ∅. Die Kardinalität einer größten unabhängigen
Menge wird durch α(G) bezeichnet.
• Satz: Sei G = (V, E) ein Graph mit n Knoten und nd/2 Kanten, d ≥ 1.
Dann gilt α(G) ≥ n/(2d).
• Beweisidee: sei S eine zufällige
von V (n-maliger p-Münzwurf).
Teilmenge
S
Seien X = |S| und Y = 2 ∩ E , d.h. X ist die Anzahl der Knoten in
S und Y ist die Anzahl der Kanten in G[S]. Man kann nun alle Kanten
G[S] löschen indem man Y Endknoten entfernt. Dann ergibt sich eine
unabhängige Menge der Größe X −Y . Maximiere E[X −Y ] für ein p ∈ [0, 1]!
2.8.3. Planare Graphen und crossing lemma.
1.November 2013
• Ein planarer Graph lässt sich kreuzungsfrei in der Ebene (R2 ) zeichnen.
Es gilt die Eulerformel für zusammenhängende planare Graphen: |V | −
|E| + |F | = 2. Daraus folgt, dass ein planarer Graph G mit n ≥ 3 Knoten
höchstens 3n − 6 Kanten enthält (siehe Diskrete Mathematik 1). Jeder
Graph auf n Knoten mit mehr als 3n − 6 Kanten, lässt sich also nicht ohne
Kreuzungen zeichnen.
• Definiere cr(G) als die kleinste Anzahl an Kreuzungen, mit der G sich in
die Ebene zeichnen lässt. Offensichtlich: cr(G) ≥ |E(G)| − 3|V |.
• Crossing Lemma 1982 (Ajtaj, Chvátal, Newborn und Szemerédi
/ Leighton; Beweis von Székely): Sei G = (V, E) mit |E| ≥ 4|V |, dann
cr(G) ≥ |E|3 /(64|V |2 ).
• Beweis: Es sei eine optimale Zeichnung c von G gegeben. Sei S eine
zufällige
von V (P(v ∈ S) = p für alle v ∈ V ). Sei X = |S|,
Teilmenge
S
Y = 2 ∩ E und Z sei die Anzahl der Kreuzungen von c auf der Knotenmenge S. Es gilt Z ≥ cr(G[S]) ≥ Y − 3X, und mit E[X] = |V |p,
E[Y ] = |E|p und E[Z] = cr[G]p4 , folgert man cr(G) ≥ |E|/p2 − 3|V |/p3 .
Setzt man p = |E|/(4|V |) so folgt die Behauptung.
• Szemerédi-Trotter Theorem: Seien P eine n-elementige Menge von
Punkten und L eine m-elementige Menge von Geraden in R2 . Dann ist die
Anzahl I der Inzidenzen (d.h. Paare (p, `) mit p ∈ P und ` ∈ L) höchstens
4m2/3 n2/3 + 2m + 4n (d.h. O(m2/3 n2/3 + m + n)).
• Beweisidee: o.B.d.A. jede Gerade enthält einen Punkt. Konstruiere
einen Hilfsgraphen, dessen Knotenmenge P ist und deren Kanten den
Verbindungstrecken zwischen zwei Punkten entsprechen (zwischen denen
kein weiterer Punkt liegt). Bemerke: |E| = I − m und die Anzahl der
Kreuzungen ist höchstens m
2 . Wende nun crossing lemma an.
• Sei P ⊂ R2 . Eine Gerade ` heißt k-reich, falls sie mindestens k Punkte aus
P enthält.
PROBABILISTISCHE KOMBINATORIK
9
• Korollar: Seien n Punkte und (m viele) Geraden gegeben. Dann ist die
2
Anzahl der k-reichen Geraden O( nk3 + nk ).
• sum-product Phänomen: sei A ⊂ R mit |A| = n. A + A := {a +
a0 : a, a0 ∈ A}, A · A := {a · a0 : a, a0 ∈ A}. Eine arithmetische Progression
der Länge k (k-AP) ist die Folge a, a + d, . . . , a + (k − 1)d für a, d ∈ R.
Eine geometrischen Progression der Länge k ist die Folge a, ad, . . . , adk−1
für a, d ∈ R. Allgemeine Schranken an |A + A| und |A · A| sind 2|A| − 1
und |A|+1
. Dabei wird untere Schranke von den Progressionen erreicht.
2
• Vermutung (Erdős und Szemerédi, 1983): max{|A+A|, |A·A|} ≥ |A|2−o(1) .
D.h. mindestens eine Menge von beiden muss groß sein.
• Korollar: max{|A · A|, |A + A|} = Ω(|A|5/4 ).
• Beweisidee: Sei P := (A + A) × (A · A) und L := {y = (x − a)a0 : a, a0 ∈ A}
und o.B.d.A. sei 0 6∈ A. Dann enthält jede Gerade ` ∈ L mindestens |A|
Punkte aus P . Anwendung des Korollars über k-reiche Geraden liefert die
Behauptung.
Buchreferenzen:[2, Kapitel 3 und Seite 285].
2.9. Graphen mit großer chromatischer Zahl und ohne kurze Kreise.
2.9.1. Weitere Begriffe aus der Graphentheorie.
• Die chromatische Zahl von G ist χ(G) := min{k | ∃ c : V (G) → [k] mit uv ∈
E(G) ⇒ c(u) 6= c(v)}. D.h. χ(G) ist die kleinste Anzahl der Farben, die
man benötigt, um V (G) so zu färben, dass keine benachbarten Knoten
dieselbe Farbe erhalten.
• Zwei Graphen G1 = (V1 , E1 ) und G2 = (V2 , E2 ) heißen isomorph, falls es
eine Bijektion φ : V1 → V2 gibt mit uv ∈ E1 genau dann, wenn φ(u)φ(v) ∈
E2 für alle u, v ∈ V1 . Wir schreiben G1 ∼
= G2 .
• Man spricht deswegen vom vollständigen Graphen auf n Knoten. Ferner
spielen die ”Namen” der Knoten keine Rolle und wir nehmen oft an, dass
ein Graph G die Knotenmenge [n] := {1, 2, . . . n} hat (für ein geeignetes
n ∈ N).
• Ein vollständiger Graph Kn wird oft als Clique bezeichnet.
• Wir sagen, dass ein Graph F = (V 0 , E 0 ) ein Teilgraph (auch Subgraph
genannt) von G = (V, E) ist, falls V 0 ⊆ V und E 0 ⊆ E. Wir schreiben
F ⊆ G. Ferner heißt G Supergraph (Obergraph) von F .
• G enthält eine Kopie von F , falls es einen Teilgraphen F 0 in G gibt, so dass
F und F 0 isomorph sind.
• Ein Kreis C` der Länge ` ist der Graph ([`], {12, 23, . . . , {` − 1, `}, 1`}).
• Die Taillenweite (engl. girth) von G ist die Länge eines kürzesten Kreises
in G und wird mit girth(G) bezeichnet. Enthält G keine Kreise, so setzt
man girth(G) = ∞.
• Der Graph G heißt zusammenhängend, falls es zu je zwei Knoten v, u ∈
V (G) eine Folge x1 , x2 . . . , xi gibt mit xj xj+1 ∈ E(G) für alle j ∈ [i − 1]
und x1 = u, xi = v.
• Ein Baum T ist ein zusammenhängender Graph, der keine Kreise enthält.
Es gilt: falls |E(T )| ≥ 1, so χ(T ) = 2.
• Markovs Ungleichung: sei X ≥ 0 eine Zufallsvariable und a > 0. Dann
gilt: P(X ≥ a) ≤ E[X]
a .
5.November 2013
10
8.November 2013
YURY PERSON
• Speziallfall: X ist ganzzahlig und nicht negativ. Gilt dann P(X ≥ 1) < 1
so gibt es ein ω ∈ Ω mit X(ω) = 0. Ein Beispiel war die Ramseyzahlberechk
nung: nk 21− 2 < 1 =⇒ r(k) > n.
• Theorem (Erdős 1959): Seien k, ` ∈ N. Dann existiert ein Graph G mit
χ(G) > k und girth(G) > `.
• Interpretation: es werden zwei “sich widersprechende Eigenschaften” verlangt, denn falls girth(G) groß ist, so sieht G lokal aus wie ein Baum, aber
eben nicht global. Denn ein Baum hat chromatische Zahl 2.
• Der W-Raum G(n, p) und seine Interpretation:
P
P
[n]
n
– Ω = {0, 1} 2 und P(ω) = p 1≤i<j≤n ωij (1 − p) 2 − 1≤i<j≤n ωij .
– Jeder {0, 1}-Vektor ω entspricht einem (zufälligen) Teilgraphen G von
Kn , nämlich durch ij ∈ E(G) ⇐⇒ ωij = 1.
– Man kann nachrechnen, dass die Zufallvariable Xij := ωij unabhängig
und Bernoulliverteilt sind mit Parameter p. Man sagt, G ist ein
zufälliger Graph auf n Knoten und seine Kanten existieren unabhängig
mit Wahrscheinlichkeit p.
– E(G) wird auch p-zufällige Teilmenge von E(Kn ) = [n]
genannt.
2
• Proposition: Es gilt: χ(G) ≥ v(G)/α(G), wobei v(G) := |V (G)|.
• Beweisskizze (Theorem): Seien 0 < θ < 1/` und p = nθ−1 . Sei X := X(G)
die Anzahl der kurzen Kreise in G ∈ G(n, p). Man zeigt: P(X ≥ n/2) =
o(1) (mit Markovs Ungleichung), und P(α(G) ≥ b3n1−θ ln nc) = o(1). Also
gilt: P(α(G) < 3n1−θ ln n und X < n/2) > 0. Folglich gibt es ein G ⊆ Kn
mit höchstens n/2 Kreisen der Länge ` und α(G) < 3n1−θ ln n. Lösche alle
kurze Kreise und erhalte G∗ mit girth(G∗ ) > ` und χ(G∗ ) ≥ n/(2α(G)) =
nθ
6 ln n > k für n groß genug.
Buchreferenzen:[2, Seiten 41–42] und[11, Kapitel 3 und 5].
2.10. Zwei berühmte Geometrieprobleme von Erdős.
• Sei P ⊆ R2 mit |P | = n.
• unit distances problem: zeige, dass |{(p, p0 ) : |p − p0 |2 = 1, p, p0 ∈ P }| =
O(n1+o(1) ) (offen !). Beste Schranke(Hausaufgabe 4, Problem 1): O(n4/3 ).
• distinct distances problem: zeige, dass |{|p − p0 |2 = 1 : p, p0 ∈ P }| =
n
Ω( √log
) (offen !). Beste bekannte untere Schranke: Ω( logn n ). Bemerkung:
n
mit crossing lemma kann man zeigen: Ω(n4/5 ) und Ω(n2/3 ) folgt aus der
unit distances problem.
√
√
n
) liefert ist [ n] × [ n]• eine mögliche optimale Konstruktion, die Θ( √log
n
√
Gitter: P := {(i, j) : i, j ∈ [ n]}. Es folgt aus einem Theorem von Landau.
Buchreferenzen:[5].
2.11. Lovász local Lemma.
• Motivation: falls die union-bound nicht funktioniert, so kann man dennoch
oft P((∪i Ei )c ) = P(∩i Eic ) > 0 zeigen. Zum Beispiel, falls Ei unabhängig
sind und P(Ei ) < 1. Local lemma erlaubt einige Abhängigkeiten zwischen
den Ereignissen.
• Erinnerung (bedingte Wahrscheinlichkeit): seien A, B Ereignisse mit
P(B) > 0. Dann sei P(A|B) := P(A∩B)
P(B) . Falls also P(A|B) = P(A) so
ist dies zu A und B sind unabhängig äquivalent.
PROBABILISTISCHE KOMBINATORIK
11
• Def. A ist unabhängig von B1 ,. . . , Bm , falls: P(A ∩ C1 ∩ . . . ∩ Cm ) =
P(A) · P(C1 ∩ . . . ∩ Cm ) für alle Ci ∈ {Bi , Bic }.
• LLL: Local lemma (Lovász): seien A1 ,. . . , An Ereignisse mit P(Ai ) ≤
p < 1 für alle i ∈ [n]. Ferner sei jedes Ai unabhängig von allen bis auf d
viele Ereignisse Aj , j 6= i. Falls e · p(d + 1) ≤ 1 gilt, so
P(∩ni=1 Aci ) > 0.
• Bemerkung: betrachte ein zweimaligen fairen Münzwurf (ω1 , ω2 ) und die
Ereignisse A, B1 , B2 : A := {ω1 = ω2 }, Bi := {ωi = Kopf}. Dann gilt A
und Bi sind unabhängig, aber A ist nicht unabhängig von B1 , B2 . D.h. in
der Anwendung von local lemma wäre d = 1 in diesem Fall.
• Beweis: siehe [9].
• Satz: Sei k ≥ 9. Sei H = (V, E) ein k-uniformer k-regulärer Hypergraph
(d.h. jeder Knoten ist in genau k Kanten enthalten). Dann ist H 2-färbbar.
• Beweisidee: färbe jeden Knoten v ∈ V zufällig rot/blau mit Wahrscheinlichkeit 1/2 unabhängig von den anderen Knoten. Betrachte Ereignisse
Ae := e ist monochromatisch, Ae hängt von höchstens k(k − 1) Af s ab
(mit f ∩ e 6= ∅). Wende LLL an: e21−k (k(k − 1) + 1) ≤ 1.
• Bemerkung: seien X1 ,. . . , Xm unabhängige Zufallsvariable und jedes Ereignis Ai sei durch Si ⊆ {X1 , . . . , Xm } definiert. Falls Si ∩ Sj = ∅ für
j = j1 ,. . . , jk , dann ist Ai unabhängig von Aj1 ,. . . , Ajk .
• Im Satz oben hängt jedes Ae von den Zufallsvariablen Xv , v ∈ e ab, die
die Farbe von v beschreiben, z.B. durch Xv = 1 falls v rot und Xv = 0
falls v blau. Da die Knoten unabhängig voneinander gefärbt sind, sind Xv s
(v ∈ V ) unabhängig, und√ Ae = {Xv1 = . . . = Xvk }, wobei {v1 , . . . , vk } = e.
• Satz: r(k) > (1 − o(1)) e2 k2k/2 .
• Beweisidee: Sei n ∈ N. Färbe jede Kante von Kn zufällig rot/blau mit
Wahrscheinlichkeit 1/2 unabhängig von den anderen Kanten. Für S ∈ [n]
k
k
sei AS := alle Kanten in S sind in derselben Farbe, P(AS ) = 21− 2 . AS
hängt von AT ab genau dann wenn
T | ≥ 2. Es sind weniger als
|S ∩
k
n 1− 2 k
k
n
2 k−2 solcher T s. Aus e2
2 k−2 ≤ 1 folgt r(k) > n. Nun “löse
nach n auf”.
Buchreferenzen:[2, Kapitel 5], [7, Kapitel 19] und [9].
12.November 2013
15.November 2013
2.12. Zweite Momentmethode.
• E(X i ) heißt zweites Moment von X.
• Chebyshevs Ungleichung: P(|X − EX| ≥ a) ≤ Var[X]
a2 .
• Spezialfall: P(X = 0) ≤ Var(X)
.
(EX)2
• Distinct Sums:
sei
f
(n)
die größtmögliche Kardinalität der Teilmenge
P
M ⊂ [n] mit x∈A x paarweise verschieden für A ⊆ M .
• untere Schranke: f (n) ≥ blog2 nc + 1, da {1, 21 , . . . , 2blog2 nc } die
gewünschte Eigenschaft (distinct sums) hat.
• Satz: f (n) ≤ log2 n + 12 log2 log2 n + O(1).
• Beweisidee: sei M = {x
, . . . xm } ⊂ [n] eine Menge mit der distinct sums P1m
Eigenschaft. Sei X := i=1 xi Ii , wobei I1 ,. . . , Im unabhängige Bernoulliverteilte Zufallsvariable mit Parameter p = 1/2 sind. Man
√ zeigt: Var(X) ≤
mn2 /4, und mit Chebyshev-Ungleichung: P(|X −EX| ≥ mn) ≤ 1/4. Also
12
YURY PERSON
•
•
•
•
•
•
19.November 2013
•
•
•
√
√
gilt:
EX| < mn) √
≥ 3/4. Andererseits: P(|X − EX| < ( mn) ≤
√ P(|X −−m
2 mn + 1)2
und aus (2 mn + 1)2−m ≥ 3/4 folgt die Behauptung.
Nachtrag zur o, O-Notation: wir erweitern o bzw. O-Notation auf die
Fälle, wenn g : N → R und f : N → R≥0 .
– g = O(f ), falls es ein C > 0 und n0 gibt mit |g(n)| ≤ Cf (n) für alle
n ≥ n0 ;
– g = o(f ), falls für alle ε > 0 es ein n0 gibt mit |g(n)| ≤ εf (n) für
n ≥ n0 ;
– Spezialfall: g = o(1) bedeutet also, dass limn→∞ g(n) = 0.
– “Neuerung”: in O und o wird also + bzw. − “versteckt”. Dies macht
n
es manchmal schwer, die Ausdrücke der Form
zu
√
√ (1 + o(1)) richtig
interpretieren (Beispiel: sowohl 1/n, −1/n, 1/ n als auch −1/ n sind
o(1)). Der Vorteil ist allerdings eine übersichtliche Handhabung vieler
Abschätzungen (approximatives Rechnen) und dies überwiegt jedoch
bei Weitem die damit verbundenen “Risiken”.
P = {2, 3, 5, 7, . . .} bezeichnet die Menge der Primzahlen.
Definition: sei ν(n) die Anzahl verschiedener Primzahlfaktoren von n,
d.h. ν(n) := |{p : p ∈ P, p|n}|.
Theorem (Hardy und Ramanujan, 1917): Sei ω(1) → ∞ beliebig
langsam (mit n → ∞). Dann gilt für alle bis auf
√ o(n) viele ganze Zahlen x
zwischen 1 und n, dass |ν(x) − ln ln n| ≤ ω(n) ln ln n.
mit anderen Worten: die “meisten” ganzen Zahlen zwischen 1 und n haben
∼ ln ln n viele verschiedene Primzahlfaktoren.
zwei P
Ergebnisse aus der (elementaren) Zahlentheorie:
1
–
p∈P,p≤n p = ln ln n + O(1).
– π(n) := |P ∩ [n]| = Θ(n) (Theorem von Chebyshev) - inzwischen weiß
man mehr, z.B. den Primzahlsatz: π(n) ∼ lnnn .
Filmempfehlung: “N is a number”.
Buchempfehlung: “A Mathematician’s Apology” (G.H. Hardy)
Beweisskizze: sei x ∈ [n] gleichverteilt und sei X := X(x) = ν(x).
P
Wir schreiben X =
Xp , wobei Xp (x) = bn/pc
= p1 + O(1/n).
p∈P∩[n]
n
P
1
Es folgt, dass E(X) =
+ O(1) = ln ln n + O(1) (letzte
p∈P∩[n] p
Gleichung
ohne Beweis).
Ferner berechnen wir die Varianz Var(X) =
P
P
Cov(Xp , Xq ). Für p 6= q: Cov(Xp , Xq ) ≤
p∈P∩[n] Var(Xp ) +
p6=q∈P∩[n]
1
1
1
1
1
1
1
n
1
pq − ( p − n )( q − n ) ≤ n p + q . Unter Benutzung von π(n) = O( ln n ),
folgt: Var(X) ≤ EX √
+ o(1). Die Chebyshevs Ungleichung liefert: P(|X −
ln ln n + O(1)| > ω(1) ln ln n) ≤ ω22(1) = o(1), also folgt dass es für alle, bis
√
auf o(n) viele,
√ x ∈ [n] gilt: ν(x) ∈ (ln ln n + O(1) − ω(1) ln ln n, ln ln n +
O(1) + ω(1) ln ln n), und das impliziert (für ein anderes langsam wachsendes ω(1))
√
√
ν(x) ∈ (ln ln n − ω(1) ln ln n, ln ln n + ω(1) ln ln n).
Buchreferenzen:[2, Kapitel 4], [7, Kapitel 21].
2.13. Graphenigenschaften.
• Notation: für G = (V, E) schreiben wir v(G) := |V | und e(G) := |E|.
PROBABILISTISCHE KOMBINATORIK
13
• Gilbert/ Erdős-Renýi Model G(n, p): die Grundmenge ist Gn :=
n
{G : G ⊆ Kn = ([n], n2 ) und v(G) = n}, P(G) = pe(G) (1 − p) 2 −e(G)
(jede Kante existiert unabhängig mit Wahrscheinlichkeit p).
• Spezialfall: G(n, 1/2), dann ist P die Gleichverteilung.
• Schreibweise: oft schreiben wir (und sprechen wir von) G(n, p), meinen
dabei aber ein zufälliges Element(Graph) G ∈ G(n, p), der gemäß der oben
beschriebenen Verteilung auf G(n, p) ausgewählt wurde. Daher der Name
der zufällige Graph.
• Definition: A ⊆ ∪n≥0 Gn heißt Grapheneigenschaft (engl. graph property), falls A unter Isomorphie abgeschlossen ist (d.h. G ∈ A und G ∼
=
G0 −→ G0 ∈ A).
• Notation P(G(n, p) ∈ A):
sei A eine Grapheneigenschaft. Es gilt
P(G(n, p) ∈ A) = P(Gn ∩ A) (denken Sie an unser Gebrauch von G(n, p)Notation als zufälliges Element aus dem W-Raum G(n, p)!)
– Sei p = 1/2: P(G(n, 1/2) ∈ A) = P(Gn ∩ A) =
n→∞
|A∩Gn |
|Gn |
= |A ∩ Gn |2−
n
2
.
– Sprechweise: falls P(G(n, p) ∈ A) −−−−→ 1 so sagen wir, dass fast alle
Graphen die Eigenschaft A haben.
n→∞
– Sprechweise: gilt dagegen: P(G(n, p) ∈ A) −−−−→ 0, so sagen wir, dass
fast kein Graph A hat.
• Satz: fast alle Graphen haben Durchmesser 2.
• Definition: der Durchmesser von G wird diam(G) bezeichnet, und ist
definiert als: max{dist(u, v) : u, v ∈ V (G)}. Dabei ist dist(u, v) die Länge
des kürzesten Wegs von u nach v in G.
• Beweisskizze: sei Z die Anzahl der Paare (i, j), die keine gemeinsamen
Nachbarn in G(n, 1/2) haben. Falls G(n, 1/2) 6= Kn und Z = 0, so gilt dass
G(n, 1/2) den Durchmesser 2 hat (gemeint
P ist natürlich hier ein zufälliger
Graph G aus G(n, 1/2)!). Man kann Z = i<j Zij schreiben, wobei Zij = 1
falls i und j keine gemeinsamen Nachbarn haben (und sonst ist Zij = 0).
Es gilt P(Zij = 1) = (3/4)n−2 . Nun gilt: 1 ≥ P(diam(G(n, 1/2)) = 2) ≥
n
•
•
•
•
•
n→∞
1 − P(G(n, 1/2) = Kn ) − P(Z ≥ 1) ≥ 1 − 2− 2 − E(Z) −−−−→ 1.
Korollar: fast alle Graphen sind zusammenhängend.
Bemerkung: man kann zeigen, dass G(n, 1/2) viele weitere schöne Eigenschaften hat.
Sei A eine Grapheneigenschaft. Wir können den Graphen von P(G(n, p) ∈
A) zeichnen (x-Achse: p ∈ [0, 1] und y-Achse y = P(G(n, p) ∈ A) ∈ [0, 1]).
Oft kann man dann beobachten, dass zuerst P(G(n, p) ∈ A) sehr nahe bei
Null ist, und dann plötzlich auf den Wert nahe bei 1 “springt”. Man spricht
vom Phasenübergang (ähnlich wie bei Wasser um 0 Grad Celsius).
Eine große Entdeckung von Erdős und Renyi ist, dass viele schöne Eigenschaften den Phasenübergang besitzen. Dies werden wir im folgenden
studieren.
Definition: sei A eine Grapheneigenschaft und p = p(n) : N → [0, 1]. . .
n→∞
– falls P(G(n, p) ∈ A) −−−−→ 1, so sagen wir: “G(n, p) hat A asymptotisch fast sicher (a.f.s.)” (engl.: asymptotically almost surely (a.a.s.))
n→∞
– falls P(G(n, p) ∈ A) −−−−→ 0, so sagen wir: “G(n, p) hat A asymptotisch fast sicher nicht”
22.November 2013
14
YURY PERSON
• Definition: eine Funktion t = t(n) : N → [0, 1] heißt Schwellenwertfunktion (engl. threshold function, threshold) für die Eigenschaft A, falls
n→∞
(1) p = o(t) (manchmal als p t bezeichnet) =⇒ P(G(n, p) ∈ A) −−−−→ 0
(0-Aussage), und
n→∞
(2) p = ω(t) (manchmal als p t bezeichnet) =⇒ P(G(n, p) ∈ A) −−−−→ 1
(1-Aussage) gelten.
• Bemerkung: die Schwellenwertfunktion ist nicht eindeutig, eher ganze
Klasse (Θ(t(n)))
• Satz: Die Eigenschaft “enthält eine Kopie von K4 ” hat Schwellenwertfunktion n−2/3 .
• Beweisidee: betrachte Xn (G) = XP:=die Anzahl der Kopien von K4 in
G ∈ G(n, p), und schreibe: X =
n XS , wobei XS (G) ist die InS∈ 4
•
•
•
•
•
•
•
26.November 2013
•
•
dikatorzufallsvariable
für das Ereignis G[S] ∼
= K4 . Es folgt: E(XS ) = p6
n 6
und E(X) = 4 p . Die 0-Aussage folgt mit Markov-Ungleichung für
p = o(n−2/3 ). Für die 1-Aussage wendet man Chebyshev-Ungleichung an
(vorher muss man noch zeigen, dass Var(X) = o((E(X))2 ), indem man
Cov(XS , XT ) für S 6= T ∈ [n]
mit |S ∩ T | ∈ {0, 1, 2, 3, 4} analysiert).
4
Bemerkung: es gilt sogar, dass falls p(n) n−2/3 , so ist X um ihren
Erwartungswert konzentriert ist, d.h. es gilt a.f.s., dass P(X = (1 +
n→∞
o(1))E(X)) −−−−→ 1.
Der Satz lässt sich auf allgemeine Graphen F verallgemeinern. Dazu
e(F 0 )
definiert man die m-Dichte mF := maxF 0 ⊆F,v(F 0 )>0 v(F
0) .
Satz (ohne Beweis): Die Eigenschaft “enthält eine Kopie von F ” hat
Schwellenwertfunktion n−1/mF .
e(F 0 )
Bemerkung: man muss das Maximum v(F
über alle (induzierten)
0)
Teilgraphen betrachten, denn falls der dichteste Teilgraph a.f.s. nicht
vorkommt, so gibt es auch keine Kopie von F in G(n, p) a.f.s.
Satz: Die Eigenschaft “δ(G) ≥ 1” hat Schwellenwertfunktion ln n/n (und
ist scharf).
Beweisidee:
sei X die Anzahl der isolierten Knoten in G(n, p). Schreibe
P
X =
X
v∈[n] v , wobei Xv die Indikatorvariable für “v ist isoliert” ist.
Es gilt: E(Xv ) = (1 − p)n−1 und daher: E(X) = n(1 − p)n−1 . Die 1n→∞
Aussage folgt mit Markov-Ungleichung, da E(X) −−−−→ 0 selbst für p ≥
(1 + ε) lnnn für jedes fixierte ε > 0. Die 1-Aussage folgt mit Chebyshev’s
Ungleichung (man muss zeigen, dass Var(X) = o((E(X))2 ), wieder sogar
für p ≤ (1 − ε) lnnn .
Bemerkung: wir haben gezeigt, dass der Phasenübergang im viel kleineren
Intervall stattfindet, nämlich in [(1 − ε) lnnn , (1 + ε) lnnn ] (für jedes ε > 0).
Man spricht von einem scharfen Schwellenwert (engl. sharp threshold) für
diese Eigenschaft.
Satz: Die Eigenschaft “G ist zusammenhängend” hat Schwellenwertfunktion ln n/n (und ist scharf).
Beweisidee:
0-Aussage:
P(G(n, p) ist nicht zusammmenhängend) ≥
n→∞
P(δ(G(n, p)) = 0) −−−−→ 1. Für die 1-Aussage betrachtet man X(G) :=
X :=die Anzahl der Komponenten in G mit ≤ n/2 Knoten und schreibt
Pn/2
X =
`=1 X` , wobei X` ist die Anzahl der Komponenten mit genau
PROBABILISTISCHE KOMBINATORIK
•
•
•
•
•
•
15
` Knoten. Für S ∈ [n]
` , betrachte das Ereignis ES :=“es gibt keine
Kanten in G(n, p) zwischen S und [n] \ S” (bemerke: P(ES ) = (1 −
p)`(n−`) ) und die Zufallsvariable XS : XS = 1, falls es eine Komponente auf S Knoten in G(n, p) existiert und XS = 0 sonst. Es ist klar
Pn/2 E(XS ) ≤ P(ES ), da {XS = 1} ⊂ ES . Also gilt: E(X) ≤ `=1 n` (1 −
n→∞
p)`(n−`) −−−−→ 0 für p ≥ (1 + ε) ln n/n (Hausaufgabe) und deswegen
n→∞
P(G(n, p) ist zusammenhängend) −−−−→ 1.
Beispiel: seien G1 ∈ G(n, p1 ) und G2 ∈ G(n, p2 ), dann hat G := G1 ∪
G2 := ([n], E(G1 ) ∪ E(G2 )) dieselbe Verteilung wie G(n, p) mit p = p1 +
p2 − p1 p2 , denn für jede Kante e ∈ [n]
2 gilt: P(e 6∈ G) = P(e 6∈ G1 und e 6∈
G2 ) = P(e 6∈ G1 )P(e 6∈ G2 ), also P(e ∈ G) = 1 − P(e 6∈ G1 )P(e 6∈ G2 ) =
1 − (1 − p1 )(1 − p2 ), da G1 und G2 unabhängig ausgewählt sind.
Lemma: seien G1 ∈ G(n, p1 ),. . . , Gk ∈ G(n, pk ), dann hat G := ∪ki=1 Gi
Qk
dieselbe Verteilung wie G(n, p) mit p = 1 − i=1 (1 − pi ).
Definition: Sei A eine Grapheneigenschaft. A heißt monoton
wachsend
(engl. monotone increasing), falls für jedes G ∈ A und e ∈ [n]
2 \ E(G) gilt
G ∪ e ∈ A. Falls für jedes G ∈ A und e ∈ E(G) gilt G \ e ∈ A, so heißt A
monoton fallend (engl. monotone decreasing).
Satz: jede monoton wachsende Eigenschaft besitzt eine Schwellenwertfunktion.
Beweisidee: Vorüberlegung: sei ε ∈ (0, 1/2] und pε (n) so definiert, dass
P(G(n, pε ) ∈ A) = ε für alle n. Ferner sei m minimal mit (1 − ε)m ≤ ε
Kopien von G(n, pε ): G(n, pi ),
(m ≤ d 1ε ln 1ε e). Betrachte m unabhängige
Q
i ∈ [m]. Aus P(∪G(n, pi ) 6∈ A) ≤ i P(G(n, pi ) 6∈ A) = (1 − ε)m ≤ ε
folgt: P(∪G(n, mpε )) ≥ P(∪G(n, pi )) ≥ 1 − ε. D.h. der Anstieg von ε auf
1 − ε geschieht im Intervall [pε , mpε ]. Alles was man jetzt zeigen muss ist
folgendes: aus der Annahme, dass p1/2 (n) keine Schwellenwertfunktion für
A ist (wobei P(G(n, p1/2 ) ∈ A) = 1/2 ist), leitet man den Widerspruch zu
folgender Aussage her:
n→∞
entweder es existiert eine p : N → [0, 1] mit P(G(n, p) ∈ A) −
6 −−−→ 0 (falls
n→∞
p p1/2 ) oder P(G(n, p) ∈ A) −
6 −−−→ 1 (falls p p1/2 ).
p̂ heißt scharfe Schwellenwertfunktion für A falls für jedes ε > 0 gilt:
(
0, p ≤ (1 − ε)p̂
n→∞
P(G(n, p) ∈ A) −−−−→
0, p ≥ (1 + ε)p̂.
Falls eine Schwellenwertfunktion nicht scharf ist, heißt sie unscharf.
• Bemerkung:
viele Schwellenwertfunktionen besitzen sogar scharfen
Phasenübergang. Oft kann man solche Situation charakterisieren. Intuition dabei ist, dass lokale Eigenschaften einen unscharfen Phasenübergang
besitzen, während globale Eigenschaften einen scharfen Phasenübergang
haben. Beispiel: “G ist zusammenhängend” ist scharf (und global),
während “G enthält eine Kopie von K4 ” ist unscharf (und lokal).
Buchreferenzen:[2, Kapitel 4], [7, Kapitel 21] und [6, Kapitel 1].
3. Exponentell kleine Wahrscheinlichkeiten
3.1. Chernoff-Ungleichung.
29.November 2013
16
YURY PERSON
• Motivation:p man möchte zeigen, dass die Wahrscheinlichkeit P(|X −
E(X)| ≥ λ Var(X)) oft viel kleiner ist als die Chebyshev-Ungleichung,
die 1/λ2 “garantiert”. Dazu benötigt man höhere Momente E(X i ).
• Definition: EetX heißt Exponentialmoment von X und die Funktion
i
P∞ i
)
f (t) := EetX = i=0 t E(X
die momenterzeugende Funktion.
i!
tX
• Sei t > 0 und λ ∈ R, dann gelten: P(X ≥ λ) ≤ Ee
bzw. P(X ≤ −λ) ≤
etλ
−tX
Ee
. Ziel wird es nun sein die rechte Seite jeweils zu minimieren bez.
etλ
t > 0.
• Lemma: Sei X eine Zufallsvariable mit |X| ≤ 1 und E(X) = 0. Dann gilt
2
für t ∈ [−1, 1] : EetX ≤ et Var(X) .
• Beweis: weil |tX| ≤ 1 gilt: etX ≤ 1 + tX + t2 X 2 . Wenn man nun die
2
Erwartungswerte berechnet, so folgt: EetX ≤ 1 + t2 Var(X) ≤ et Var(X) .
• Satz (Chernoff-Ungleichung): seien X1 ,. . . , Xn eine Familie
unP
abhängiger Zufallsvariable mit |Xi − E(Xi )| ≤ 1 ∀i. Sei X =
i∈[n] Xi
p
und σ := Var(X) die Standardabweichung. Dann gilt für λ > 0:
2
P(|X − E(X)| ≥ λσ) ≤ 2 max{e−λ
/4
, e−λσ/2 }.
t(X−E(X))
• Beweisidee: man braucht die rechte Seite in P(X −E(X) ≥ λ) ≤ Ee etλσ
geeignet abzuschätzen und zu minimieren (die Abschätzung für P(X −
E(X) ≤ −λ) folgt analog). Da Xi − E(Xi ), i ∈ [n], unabhängig sind, folgt
Q
Q 2
(mit obigem Lemma): Eet(X−E(X)) = i Eet(Xi −E(Xi )) ≤ i et Var(Xi ) =
2 2
2 2
et σ . Die BehauptungPfolgt, indem man et σ −tλσ minimiert.
• Korollar: Sei X =
i∈[n] Xi , wobei Xi s unabhängig und jedes Xi ist
Bernoulli-verteilt zum Parameter pi ∈ (0, 1). Dann gilt für jedes ε > 0:
P(|X − E(X)| ≥ εE(X)) ≤ 2e− min{ε
2
/4,ε/2}E(X)
.
• Proposition: Sei p ln n/n. Dann hat jeder Knoten in G(n, p) a.f.s. den
Grad (1 + o(1))pn.
• Beweisidee: Wir können G(n, p) erzeugen, indem wir eine Folge Xi,j , mit
1 ≤ i < j ≤ n, von unabhängigen Bernoulliverteilten Zufallsvariablen zum
Parameter p betrachten. (Dabei heißt Xi,j =P
1 falls die Kante ij in G(n, p)
n
liegt und 0 sonst.) Sei Yi := degG(n,p) (i) = j=1,j6=i Xi,j , für i ∈ [n]. Es
folgt E(Yi ) = (n − 1)p. Ferner sei ε > 0 beliebig aber fest. Nun wollen wir
das Ereignis abschätzen, dass es einen Knoten i gibt mit |Yi − (n − 1)p| >
εpn:
X
P(∃i ∈ [i] : |Yi − (n − 1)p| > εpn) ≤
P(|Yi − (n − 1)p| > εpn)
i∈[n]
Chernoff/Korollar
≤
3.Dezember 2013
n2e− min{ε
2
/4,ε/2}p(n−1)
.
Da pn ln n, so gilt z.B., dass die Gesamtwahrscheinlichkeit kleiner als
1/n = o(1) ist und wir sind fertig (Frage: was passiert, wenn man die
Chebyshev-Ungleichung anwendet? Kann man sich dann um alle Knotengrade gleichzeitig “kümmern”?).
• Definition: seien x, y ∈ {0, 1}n , dann heißt dist(x, y) := |{i : xi 6= yi }| der
Hammingabstand von x und y (auch Abstand in der `1 -Norm: dist(x, y) :=
P
n
i=1 |xi − yi |).
PROBABILISTISCHE KOMBINATORIK
17
• Proposition: Es gibt eine Menge M ⊂ {0, 1}n mit |M | ≥ ben/32 c so dass
je zwei Vektoren aus M den Hammingabstand ≥ n/4 haben.
• Beweisidee: für zufällige x, y ∈ {0, 1} (d.h. alle xi s und yj s sind unabhängig
und Bernoulli zum Parameter 1/2-verteilt)P
gilt: E(dist(x, y)) = n/2 und
n
Var(dist(x, y)) = n/4 (denn dist(x, y) =
i=1 Xi , wobei Xi := 1xi 6=yi
unabhängig und Bernoulli zum Parameter 1/2 verteilt). Mit ChernoffUngleichung folgt: P(dist(x, y) ≤ n/4) ≤ 2e−n/16 . Nun sei M zufällig
erzeugt, indem man ben/32 c zufällige Vektoren x1 ,. . . , xben/32 c aus {0, 1}n
zieht. Sei E das Ereignis, dass es i < j gibt mit dist(xi , xj ) ≤ n/4.
n/32 Durch Union bound-Argument folgt: P(E) ≤ be 2 c 2e−n/16 < 1, also
gilt P(E c ) > 0, d.h. es gibt ben/32 c Vektoren mit paarweisem Hammingabstand ≥ n/4.
• Folgerung: Die Einheitssphäre Sn−1 ⊂ Rn enthält ben/32 c Punkte mit
paarweisem Euklidischem Abstand ≥ 1.
• Beweisidee:
seien xi die Vektoren aus {0, 1}n aus der Proposition.
√
Definiere für jedes xi den Vektor yi ∈ Sn−1 wie folgt: yi (j) := (−1)xi (j) / n.
Es folgt |yi − yk |2 ≥ 1 für i 6= k.
Buchreferenzen: [7, Kapitel 18] und [10, Kapitel 1].
3.2. FKG-Ungleichung.
• Motivation: seien P := {G : v(G) = n, G ist planar} und H :=
{G : v(G) = n, G enthält einen Hamiltonkreis}. Was ist “wahrscheinlicher”: P(G(n, p) ∈ P | G(n, p) ∈ H) oder P(G(n, p) ∈ P)? D.h. wie sind
diese Ereignisse korreliert? (Antwort: negativ!)
• Definition: sei f : {0, 1}n → R eine Funktion. Wir nennen f monoton
wachsend falls aus t, t0 ∈ {0, 1}n mit ti ≥ t0i für alle i ∈ [n] folgt: f (t) ≥
f (t0 ). Wir nennen f monoton fallend, falls −f monoton wachsend ist.
• Definition: sei E ⊆ 2Ω . Wir nennen E monoton wachsend, falls aus E ∈ E
und E ⊆ D folgt D ∈ E. Gilt dagegen für alle E ∈ E und E ⊇ D, dass
D ∈ E, so nennen wir E monoton fallend.
• Beispiele:
– sei
P f ∈ R[t
Q1 , . . . , tn ] ein Polynom der Form f := f (t1 , . . . , tn ) =
a
S⊆[n] S
i∈S ti mit allen aS ≥ 0. Dann ist f monoton wachsend.
– sei A eine monoton wachsende/fallende Grapheneigenschaft, dann ist
[n]
An := {E(G) : v(G) = n, G ∈ A} ⊆ 2 2 monoton wachsend/fallend.
– sei Ei := {E(G) : v(G), degG (i) ≤ k} ist monoton fallend (ist aber keine
Grapheneigenschaft, da nicht abgeschlossen ist unter Isomorphie).
– sei E ⊆ 2Ω monoton wachsend/fallend, dann ist E c := {Ω \ E : E ∈ E}
monoton fallend/wachsend.
– sei E ⊆ 2Ω monoton wachsend/fallend, dann ist E := 2Ω \ E monoton
fallend/wachsend.
– sei f eine monoton wachsende Funktion. Sei Ek := {S : f (1S ) ≥ k} ⊆
2[n] is monoton wachsend. Dabei bezeichnet 1S den charakteristischen
Vektor für S (d.h. 1S (i) = 1 ⇔ i ∈ S).
[n]
– sei
wachsend/fallend. Definiere f := f (t1 , . . . , tn ) :=
P E ⊆Q2 monoton
Q
t
(1
− ti ). Dann ist f monoton wachsend/fallend.
S∈E
i∈S i
i6∈S
Außerdem gilt: f (1S ) = 1 ⇔ S ∈ E und f (1S ) = 0 ⇔ S 6∈ E.
18
YURY PERSON
• Theorem (FKG-Ungleichung): Sei n ≥ 0, ({0, 1}n , P) Produktraum.
Seien f, g : {o, 1}n → R monoton wachsend. Dann gilt E(f g) ≥ Ef Eg.
Dasselbe gilt, falls f und g beide monoton fallend sind.
• Beweisidee: Induktion nach der n, siehe [10, Kapitel 1].
• Einschub (bedingter Erwartungswert): sei (Ω, P) W-Raum, X : Ω → R ZVe,
E ⊆ Ω ein Ereignis mit P(E) > 0. Der bedingte Erwartungswert von X
gegeben E ist
X
EX1E
P(ω)
.
=
X(ω) P(E)
E[X|E] :=
E1E
ω∈E
Falls P(E) = 0, so setze E[X|E] := 0.
• E[X|Y ](ω) := E[X|E], wobei E = {Y = Y (ω)} = Y −1 (Y (ω));
E[X|Y1 , . . . , Yi ] wird analog definiert.
• Rechenregeln: E[X + Y |E] = E[X|E] + E[Y |E], E (E[X|E]) = EX, EX =
E[X|E]P(E) + E[X|E c ]P(E c ), etc.
• Gegeben ({0, 1}N , P) Produktraum, wir identifizieren ihn mit dem W-Raum
(2[N ] , P0 ), wobei P0 (S) = P(1S ).
• Korollar: Seien A, B ⊆ 2[N ] monoton wachsend. Dann gilt: P(A ∩ B) ≥
P(A)P(B).
Qt
Falls A1 ,. . . , At monoton wachsend sind, so gilt: P(∩ti=1 Ai ) ≥ i=1 P(Ai ).
Dasselbe gilt, falls alle monoton fallend sind.
• Korollar: A, B ⊆ 2[N ] , A monoton wachsend, B monoton fallend. Dann
gilt: P(A ∩ B) ≤ P(A)P(B).
• Beispiele:
– seien A1 ,. . . , An ⊆ [N ]; sei A ⊆ [N ] eine zufällige Teilmenge, d.h.
P(i ∈ A) = pi unabhängig für alle i ∈ [N ]. Dann gilt:
P(∀i : A ∩ Ai 6= ∅) ≥
n
Y
P(A ∩ Ai 6= ∅).
i=1
– Grapheneigenschaften: G(n, p);
H := {E(G) : v(G) = n, G ist hamiltonsch}, P := {E(G) : v(G) =
n, G ist planar} Dann gilt: P(G(n, p) ∈ H ∩ P) ≤ P(G(n, p ∈ H)) ·
P(G(n, p) ∈ P).
Buchreferenzen: [2, Kapitel 6] und [10, Kapitel 1].
10.Dezember 2013
3.3. Martingale.
• Definition: Ein Martingal ist eine Folge von Zufallsvariablen X0 , X1 , . . . ,
Xm so dass E[Xi+1 |Xi , . . . , X0 ] = Xi für alle 0 ≤ i < m, X0 = const.
• Beispiele:
– seien Z1 ,. . . , Zn unabhängige, zum Parameter p Bernoulli-verteilte
Pi
ZVe. Dann ist Xi := j=1 Xj − ip ein Martingal.
– seien alle Kanten aus Kn durch e1 ,. . . , em nummeriert (m = n2 );
für einen Graphen H auf n Knoten definiere: He (i) := ([n], E(H) ∩
{e1 , . . . , ei }) und Hv (i) := ([n], E(H) ∩ [i]
2 ).
– sei f : Gn → R eine Funktion (Graphenparameter, z.B. χ, α, ω. . . ).
– Kantenmartingal: Xi (H) := EG∼G(n,p) [f (G)|Ge (i) = He (i)], i =
0, . . . , m; (also X0 (H) = E[f (G(n, p))] und Xm (H) = f (H))
6.Dezember 2013
PROBABILISTISCHE KOMBINATORIK
19
– Knotenmartingal: Xi (H) := EG∼G(n,p) [f (G)|Gv (i) = Hv (i)], , i =
1, . . . , n; (also X1 (H) = E[f (G(n, p))] und Xn (H) = f (H))
• Theorem (Azuma-Ungleichung): Sei 0 = X0 , X1 ,. . . , Xm ein Martingal mit |Xi+1 − Xi | ≤ 1 für alle 0 ≤ i < m. Sei λ > 0, dann gilt:
√
2
P[Xm > λ m] < e−λ /2 .
• Beweisidee: ähnlich zu Chernoff-Ungleichung (Abschätzung der momenterzeugenden Funktion von Xm + Markov-Unlgeichung). Siehe [2,
Kapitel 1].
• Einschub (konvexe Funktionen): I ⊆ R ein (offenes) Intervall. Die Funktion
f : I → R heißt konvex, falls für alle λ ≥ 0 und a, b ∈ I:
f (λa + (1 − λ)b) ≤ λf (a) + (1 − λ)f (b).
Die Funktion f heisst konkav, falls −f konvex ist.
• Proposition: sei f : I → R 2-mal stetig differenzierbar. Dann gilt: f ist
konvex genau dann, wenn f 00 (x) ≥ 0 für alle x ∈ I.
• Korollar: Sei 0 = X0 , X1 ,. . . , Xm ein Martingal mit |Xi+1 − Xi | ≤ 1 für
alle 0 ≤ i < m. Sei λ > 0, dann gilt:
√
2
P[Xm < −λ m] < e−λ /2 .
• Korollar: Sei X0 = c, X1 ,. . . , Xm ein Martingal mit |Xi+1 − Xi | ≤ 1 für
alle 0 ≤ i < m. Sei λ > 0, dann gilt:
√
2
P[|Xm − c| > λ m] < 2e−λ /2 .
• Definition: Sei f : Gn → R ein Graphenparameter.
– f genügt der Kanten-Lipschitz-Bedingung, falls für alle H, H 0 ∈ Gn
mit |E(H)∆E(H 0 )| ≤ 1 gilt: |f (H) − f (H 0 )| ≤ 1.
– f genügt der Knoten-Lipschitz-Bedingung, falls für alle H, H 0 ∈ Gn so
dass es ein i ∈ [n] gibt mit H − i = H 0 − i gilt: |f (H) − f (H 0 )| ≤ 1.
– f (G) = χ(G), f (G) = α(G), f (G) = ω(G).
• Proposition: sei f : Gn → R ein Graphenparameter.
(a) genügt f der Kanten-Lipschitz-Bedingung, so gilt für das Kantenmartingal Xi (H) := EG∼G(n,p) [f (G)|Ge (i) = He (i)], dass |Xi+1 (H) −
Xi (H)| ≤ 1 für alle H ∈ Gn .
(b) genügt f der Knoten-Lipschitz-Bedingung, so gilt für das Knotenmartingal Xi (H) := EG∼G(n,p) [f (G)|Gv (i) = Hv (i)], dass |Xi+1 (H) −
Xi (H)| ≤ 1 für alle H ∈ Gn .
• Satz: Seien n, p beliebig. Es gilt:
√
2
P(|χ(G(n, p)) − EG∼G(n,p) [χ(G)]| > λ n − 1) ≤ 2e−λ /2 .
• Korollar: Seien Z1 ,. . . , ZN unabhängige Zufallsvariable mit Zi : Ω → Λi ,
∀i ∈ [NQ
]. Sei f : Λ1 × . . . × ΛN → R gegeben mit |f (z) − f (z 0 )| ≤ 1 für alle
z, z 0 ∈ i∈[N ] Λi mit dist(z, z 0 ) = 1. Dann gilt:
2
P (|f (Z1 , . . . , ZN ) − E[f (Z1 , . . . , ZN )]| > t) < 2e−t
/(2N )
.
• Beweisidee: betrachte das Martingal Xi := E[f (Z1 , . . . , ZN )|Z1 , . . . , Zi ]
und wende Azuma-Ungleichung an.
13.Dezember 2013
20
YURY PERSON
• balls into bins: werfe m Bälle zufällig im n Körbe (so dass sich jeder Ball
unabhängig, gleichverteilt einen Korb “aussucht”). Sei Zi : Ω → [n] die
Zufallsvariable, die dem i-ten Ball den Korb Zi zuweist. Sei f (Z1 , . . . , Zn )
die Anzahl leerer Körbe. Es ist klar: E[f (Z1 , . . . , Zn )] = n(1 − 1/n)m ≈
ne−m/n (für m = o(n2 )). Mit dem obigen Korollar folgt:
√ 2
P |f (Z1 , . . . , Zn ) − E[f (Z1 , . . . , Zn )]| > λ n < 2e−λ /2) .
17.Dezember 2013
• Satz: Wirft man n Bälle in n Körbe zufällig, so gilt für die Anzahl L leerer
Körbe folgendes:
√
2
P[|L − ne | > λ n + 1] < 2e−λ /2 .
• Sei A ⊆ {0, 1}n , dann definiere B(A, s) := {y : ∃x ∈ A mit dist(x, y) ≤ s}.
2
• Satz: seien ε, λ > 0 mit e−λ /2 = ε. Dann gilt:
√
|A| ≥ ε2n =⇒ |B(A, 2λ n)| ≥ (1 − ε)2n .
20.Dezember 2013
• Beweisidee: betrachte Z1 ,. . . , Zn unabhängige gleichverteilte 0-1-ZVe.
Definiere f : {0, 1}n → N0 mit f (y) := minx∈A dist(x, y). Wende nun Ko√
2
rollar zweimal
an: P[f < E(f ) − λ n] < e−λ /2 = ε, was impliziert,
dass
√
√
E(f ) ≤ λ n (P[f = 0] = |A|2−n ); und aus P[f > E(f ) + λ n] < ε folgt
die Behauptung.
n
• Nächstes Ziel: Theorem (Bollobás 1988): χ(G(n, 1/2)) ∼ 2 log
a.f.s.
2n
V (G)
• Cliquenzahl ω(G) := max{k : ∃S ∈ k
mit G[S] ∼
= Kk }, d.h. die Kardinalität eines größten vollständigen
Graphen,
der
in
G enthalten ist.
k
−
• definiere f (k) := nk 2 2 , dies ist die erwartete Anzahl an Cliquen der
Größe k in G(n, 1/2).
n→∞
• sei k = k(n) mit f (k) −−−−→ 0, dann gilt a.f.s. ω(G(n, 1/2)) < k (Mit
Markovs Ungleichung)
n→∞
• Was passiert, wenn f (k) −−−−→ ∞? Wie groß kann ein solches k sein?
Kann man dann womöglich die Chebyshevs Ungleichung anwenden?
n→∞
• grobe Rechnung ergibt: f (k) −−−−→ 0 für k ≥ 2 log2 n + 10, während für
n→∞
k ≤ 2 log2 n − 10 log2 log2 n gilt: f (k) −−−−→ ∞.
n→∞
• Satz: Sei k = k(n) mit k ∼ 2 log2 n und f (k) −−−−→ ∞. Dann gilt:
ω(G(n, 1/2)) ≥ k a.f.s.
• Beweisidee: sei X die Anzahl der Cliquen der Größe k in G(n, 1/2); schätze
die Varianz ab und wende die Chebyshev-Ungleichung an. Schreibe X =
P
∼
[n] XS , wobei XS (G) die Indikatorvariable fürs Ereignis G[S] = Kk ,
S∈ k
P
wobei G ∼ G(n, 1/2). Nun gilt: Var(X) =
[n] Cov(XS , XT ) ≤
P
P S,T ∈ k
EX + S,T : 2≤|X∩S|≤k−1 EXS XT . Sei ∆ := S,T : 2≤|X∩S|≤k−1 EXS XT =
i
k
k
n − 2 Pk−1 k n−k − 2 + 2
2
2
. Es bleibt zu zeigen, dass ∆∗ :=
i=2 i k−i k
k
i
Pk−1 k n−k − +
Pk−2
2
2
= o(EX) ist. Schreibe ∆∗ als EX i=2 g(i),
i=2 i
k−i 2
wobei
i
k n−k
2 2
g(i) := i k−i
.
n
k
PROBABILISTISCHE KOMBINATORIK
21
−k
Es gilt g(2) ∼ k 4 /n2 und g(k − 1) ∼ 2kn2
= o(n−1+o(1) ), und die anderen
EX
Terme sind durch g(2) bzw. g(k − 1) beschränkt. Also gilt: ∆∗ = o(EX).
• Korollar: Es existiert k = k(n) ∼ 2 log2 n so dass P[ω(G(n, 1/2)) =
n→∞
k oder k+1] −−−−→ 1. (d.h. a.f.s. die Cliquenzahl auf höchstens zwei Werten
konzentriert).
• Sei k0 = k0 (n) so dass f (k0 ) < 1 ≤ f (k0 − 1) und wähle k := k0 − 4, aus
4
−k
folgt: f (k) ≥ n3+o(1) . Ferner gilt: ∆ ∼ f (k)2 nk 2 .
f (k + 1)/f (k) = n−k
k+1 2
2
8
• Satz: Es gibt ein c > 0 so dass P[ω(G(n, 1/2)) < k] ≤ e−cn / log2 n gilt.
• Beweisidee: sei Y (H) die größte Kardinalität einer Familie kantendisjunkter Cliquen Kk in H. Dann ist Xi (H) := EG∼G(n,1/2) [Y (G)|G(i) = H(i)]
ein Kantenmartingal, welches der Kanten-Lipschitz-Bedingung genügt (Die
Zufallsvariable Y0 für die Anzahl der Cliquen Kk wäre eine schlechte Wahl
als Martingal. Wieso?). Die Azuma-Ungleichung liefert:
P[ω(G(n, 1/2)) <
2
n
k] = P[Y = 0] ≤ P[Y − EY ≤ EY ] ≤ e−(EY ) /(2 2 ) . Nun brauchen wir
aber eine gute untere (!) Schranke an den Erwartungswert von EY (dann
wäre der Satz gezeigt).
• Lemma: EY ≥ (1 + o(1))n2 /(2k 4 ).
• Beweisidee: sei H ∼ G(n, 1/2), betrachte alle (ungeordneten) Paare
von k-Cliquen in H, die sich in mindestens einer Kante schneiden, d.h.
W(H) := {{S, T } : S, T ∈ K(H), H[S] ∼
= H[T ] ∼
= Kk , 2 ≤ |S ∩ T | ≤ k − 1},
∼
wobei K(H) := {S : : H[S] = Kk } die Menge aller k-Cliquen in H. Sei
[n]
C ⊆ [n]
ist in C unabhängig mit Wahrscheink , wobei jedes S ∈
k
lichkeit q. Definiere W 0 (H) als W(H) ∩ C2 . Intuitiv: W 0 (H, C) beschreibt
“Konflikte” in K(H) ∩ C. Es gilt also Y (H) ≥ |C ∩ K(H)| − |W 0 (C, H)|.
Wenn man Erwartungswerte nimmt, so folgt: EH∼G(n,1/2);C |C ∩ K(H)| =
k
q nk 2− 2 = qf (k), EH∼G(n,1/2);C |W 0 (C, H)| = q 2 EH∼G(n,1/2) |W(H)| =
q 2 ∆/2 (∆ wurde in der Vorlesung vom 20. Dezember definiert). Also gilt
EY ≥ qf (k) − q 2 ∆/2 und maximiert nach q die rechte Seite, so folgt das
4
gewünschte Ergebnis (mit ∆ ∼ f (k)2 nk 2 und f (k) > n3+o(1) ).
Buchreferenzen: [2, Kapitel 7], [6, Kapitel 2] und [4, Kapitel 6].
17.Januar 2014
14.Januar 2014
3.4. Jansons Ungleichung.
• sei S ⊂ [N ] zufällige Teilmenge mit P(i ∈ S) P
= pi ∈ (0, 1) unabhängig
[N ]
für
alle
i
∈
[N
],
A
⊂
2
\
{∅},
und
X
:=
A∈A IA , wobei IA (S) =
(
1, A ⊆ S
0, sonst.
• Problem(e): schätze P(X = 0), P(X ≤ EX − t), P(X ≤ EX + t) ab.
• Beispiele:
(1) P(G(n, p) 6⊇ K3 ) = P(X = 0), wobei N = | [n]
|, pi = p ∀i ∈ [N ], A =
2 P
{{ab, bc, ac} : a 6= b 6= c 6= a, a, b, c ∈ [n]}, X = A∈A IA =Anzahl von
K3 s in G(n, p).
(2) P(ω(G(n, 1/2)) < k) = P(X = 0), wobei N = | [n]
|, pi = 1/2 ∀i ∈
2
P
S
[n]
[N ], A = { 2 : S ∈ k }, X =
A∈A IA =Anzahl von Kk s in
G(n, 1/2).
• Abschätzung von P(X = 0) von “unten”:
– P(X = 0) = P(IA = 1 : ∀A ∈ A).
22
YURY PERSON
– es gilt, dass {X = 0}, sowie {IA = 0}(a ∈ A) monoton fallende
Familien in 2[N ] sind
– Korollar von FKG-Ungleichung
liefert (Vorlesung
Q
Q vom 6. Dezember): P(X = 0) ≥
P(I
=
0)
=
A
A∈A
A∈A (1 − EIA ) ≥
Q
−EIA /(1−EIA )
−EX/(1−maxA∈A EIA )
e
≥
e
,
wobei
1 − x ≥ e−x/(1−x)
A∈A
für x ∈ [0, 1) gilt (Hausaufgabe).
– betrachte G(n, p) mit p = c/n mit c > 0, dann gilt: EX =
P
c3
3
A∈A EIA ∼ 6 wobei EIA = p = o(1); Also gilt: P(G(n, p) 6⊇
−(1+o(1))c3 /6
K3 ) ≥ e
.
• Theorem (Jansons Ungleichung): sei S ⊂ [N ] zufällige Teilmenge mit
[N ]
P(i ∈ S) = pi ∈ (0, 1) unabhängig
( für alle i ∈ [N ], A ⊂ 2 \ {∅}, und
P
P
1, A ⊆ S
Sei ∆ =
X :=
A∈A IA , wobei IA (S) =
A∩B6=∅ EIA IB
0, sonst.
und φ(x) := (1 + x) ln(1 + x) − x (x ≥ −1, φ(−1) := 1). Dann gilt für alle
t mit 0 ≤ t ≤ EX:
P(X ≤ EX − t) ≤ e−φ(−t/EX)(EX)
2
/∆
2
≤ e−t
/(2∆)
.
−EX+∆
• Korollar: Mit
,
P den obigen Voraussetzungen gilt: P(X = 0) ≤ e
wobei ∆ = A∩B6=∅,A6=B EIA IB (es gilt also ∆ = ∆ + EX).
– Beweis: setze t = EX und schätze (EX)2 /(EX + ∆) ≥ EX − ∆ ab.
• Beispiel 1:
– P(G(n, p) 6⊇ K3 ) = P(X = 0), wobei N = | [n]
|, pi = p ∀i ∈ [N ], A =
2 P
{{ab, bc, ac} : a 6= b 6= c 6= a, a, b, c ∈ [n]}, X = A∈A IA =Anzahl von
K3 s in G(n, p).
– falls p 1/n so gilt G(n, p) enthält a.f.s. kein K3 (betrachte Er n→∞
wartungswert EX = p3 n3 −−−−→ 0 und wende Markovs Ungleichung
an)
n→∞
– falls p 1/n so gilt G(n, p) enthält a.f.s. kein K3 (es gilt: EX −−−−→
∞ und VarX = o(EX), also kann man Chebyshevs Ungleichung anwenden)
3
– betrachte G(n, p) mit p = c/n mit c > 0, dann gilt: EX ∼ c6 ,
P
∆ = A6=B,A∩B6=∅ EIA IB = n2 (n − 2)(n − 3)p5 = o(1), also folgt:
3
P(G(n, c/n) 6⊇ K3 ) ≤ e−(1+o(1))c /6 .
3
n→∞
– Zusammen mit FKG folgt: P(G(n, p) 6⊇ K3 ) −−−−→ e−c /6 (p = c/n).
n→∞
– Allgemeiner gilt (o.Beweis): P(G(n, p) enthält genau j K3 ) −−−−→
3
j
3
/6)
e−c /6 (c j!
(p = c/n) (Poisson Paradigma).
• Beispiel 2:
– P(ω(G(n, 1/2)) < k) = P(X = 0), wobei N = | [n]
|, pi = 1/2 ∀i ∈
2
P
S
[n]
[N ], A = { 2 : S ∈ k }, X =
A∈A IA =Anzahl von Kk s in
G(n, 1/2).
– Setup vom 20. Dezember:
k
∗ setze f (k) := nk 2− 2 , dies ist die erwartete Anzahl an Cliquen
der Größe k in G(n, 1/2)
∗ k0 := k0 (n) so dass f (k0 ) < 1 ≤ f (k0 − 1), es gilt k0 ∼ 2 log2 n
PROBABILISTISCHE KOMBINATORIK
23
−k
∗ wähle k := k0 − 4, aus f (k + 1)/f (k) = n−k
folgt: f (k) ≥
k+1 2
3+o(1)
n
.
∗ man kann ∆ wie folgt schreiben (siehe Vorlesung vom 20. Dezem
i
k n−k
P
2 2
k−1
ber): ∆ = f (k)2 i=2 g(i), wobei g(i) := i k−i
, und
n
k
g(2) > g(3) > . . . > g(i0 ) < . . . g(k − 1) (für ein i0 – analysiere
dazu g(i)/g(i + 1) – etwas technisch).
−k
=
∗ mit g(2) ∼ k 4 /n2 , g(3) ∼ n−3 und g(k − 1) ∼ 2kn2
EX
o(n−4+o(1) ) (denn EX = f (k) > n3+o(1) ) folgt: g(2) ∼
Pk−1
i=2 g(i).
– Mit dem Setup folgt (und EX > n3+o(1) ): ∆ ∼ ∆ ∼ E(X)2 k 4 /n2 .
2
– Somit gilt: P(ω(G(n, 1/2)) < k) = P(X = 0) ≤ e−(EX) /(2∆) =
2+o(1)
e−n
(vgl. Vorlesung vom 20. Dezember).
• chromatische Zahl χ(G(n, 1/2)): Es gilt a.f.s. χ(G(n, 1/2)) = (1+o(1))n
2 log2 n .
• Beweisidee:
n
– untere Schranke folgt mit χ(G) ≥ α(G)
und α(G(n, 1/2)) ∼ 2 log2 n
a.f.s. – weil G ∼ G(n, 1/2) gleichverteilt ist, folgt dies mit α(G) =
ω(G).
– für die obere Schranke setzen wir m = bn/ log22 nc. Es gilt ferner
k0 (m) ∼ 2 log2 m ∼ 2 log2 n. Also gilt
PG∼G(n,1/2) [∃ S ∈
[n]
m
: α(G[S]) < k0 (m)−4] <
n
m
2+o(1)
e−m
−2+o(1)
< 2 n en
17.Januar 2014
= o(1).
Nun färbe disjunkte unabhängige Mengen der Größe k := k0 (m) − 4 ∼
2 log2 n mit verschiedenen Farben, bis höchstens m Knoten übrig
bleiben. Jeder dieser Knoten erhält dann eine eigene Farbe. Zusammen haben wir a.f.s. für ein G ∼ G(n, 1/2) höchstens d n−m
k e+m =
n
(1 + o(1)) 2 log
Farben
verwendet.
2n
• grobe Beweisidee (Jansons Ungleichung): folgt demselben Muster wie Chernoffs Ungleichung und Azumas Ungleichung, d.h. man analysiert die momenterzeugende Funktion einer Zufallsvariablen. Mit Markovs Ungleichung
(s > 0): P(X ≤ EX − t) = P(−sX ≥ −s(EX − t)) = P(e−sX ≥
e−s(EX−t) ) ≤ Ee−sX es(EX−t) . Definiere Ψ(s) := Ee−sX . Das Herz des
Beweises ist die technische Abschätzung von: − ln(Ψ(s))0 ≥ EXe−s∆/EX
Rs
für ∀s > 0. Denn daraus folgt sofort: − ln Ψ(s) ≥ 0 EXe−u∆/EX du =
(EX)2
(1 − e−s∆/EX ). Also gilt: ln P(X ≤ EX − t) ≤ ln Ψ(s) + s(EX − t) ≤
∆
2
− (EX)
(1 − e−s∆/EX ) + s(EX − t) =: f (s). Die rechte Seit wird dabei
∆
t
bei s0 = − ln(1 − EX
) EX
minimiert. Setzt man s = s0 ein, so folgt:
∆
(EX)2
ln(P(X ≤ EX − t)) ≤ ∆ φ(−t/EX). Da φ(x) ≥ x2 /2 für x ∈ [−1, 0] gilt,
−t2 /(2∆)
.
folgt: ln P(X − EX − t) ≤ e
• Sei f : I → R eine konvexe Funktion (I ein Intervall) und X eine Zufallsvariable mit Werten in I. Dann gilt die Jensensche Ungleichung:
f (EX) ≤ Ef (X). (Hausaufgabenblatt 9)
21.Januar 2014
24
YURY PERSON
0
• Abschätzung − ln(Ψ(s))P
≥ EXe−s∆/EX für ∀s > 0: grobe Idee:
0
−sX
−sX
Ψ (s) = −EXe
=
. Nun gilt es, EIA e−sX nach unA∈A EIA e
−sX
−sX
ten abzuschätzen: EIA e
|IA = 1], zerlegt man
P= P(IA = 1)E[e
X = YA + ZA mit YA :=
I
,
so
folgt
mit
FKG-Ungleichung:
B∩A6=∅ B
−sX
−sYA
P(IA = 1)E[e
|IA = 1] ≥ P(IA = 1)E[e
|IA = 1]E[e−sZA |IA = 1] ≥
−sYA
P(IA = 1)Ψ(s)E[e
|IA = 1]. Zusammen gilt:
0
X
−Ψ (s)
− ln(Ψ(s))0 =
≥
P(IA = 1)E[e−sYA |IA = 1] ≥ EXe−s∆/EX ,
Ψ(s)
A∈A
durch zweimaliges Anwenden der Jensenschen Ungleichung.
Buchreferenzen: [2, Kapitel 7 und 10] und [6, Kapitel 2].
4. Kombinatorische Theoreme
4.1. Schnitttheoreme.
• Proposition: Sei F ⊆ 2[n] eine Familie mit der Eigenschaft: ∀ F1 , F2 ∈ F
gilt F1 ∩ F2 6= ∅. Dann gilt |F| ≤ 2n−1 .
• Beweis: F und sein Komplement F c können nicht beide in F liegen.
• Bemerkung: die Schranke ist scharf, denn die folgenden Familien nehmen
sie an:
– Fi := {F : i ∈ F, F ⊆ [n]},
– n ungerade: F := {F : |F | ≥ dn/2e}.
• Theorem (Erdős-Ko-Rado): Sei n ≥ 2k und F ⊆ [n]
mit
k eine Familie
der Eigenschaft: ∀ F1 , F2 ∈ F gilt F1 ∩ F2 6= ∅. Dann gilt |F| ≤ n−1
.
k−1
• Bemerkungen:
– die Schranke ist scharf, z.B. für Fi := {F : i ∈ F, F ⊆ [n]k};
– falls n ≤ 2k−1 so gilt die triviale Schranke nk , denn alle k-elementigen
Mengen von [n] haben einen nichtleeren Schnitt.
• Beweisidee: wir ersetzen [n] durch Zn (und rechnen modulo n). Sei σ
eine zufällige uniforme Permutation von Zn , und i ein zufälliges uniform
verteiltes Element aus Zn . Dann ist die Menge A := {σ(i), . . . , σ(i + k − 1)}
eine uniform
verteilte Menge aus [n]
k . Es ist klar, dass P(A ∈ F) =
|F|/ nk . Andererseits kann man zeigen, dass P[A ∈ F|σ] ≤ k/n , und
somit P[A ∈ F] ≤ k/n. Zusammen folgt: |F|/ nk ≤ k/n und durch die
Umformung die Behauptung.
• Theorem (Projektionstheorem): sei F ⊆ 2[n] , und seien A1 ,. . . , Am
Teilmengen von [n]. Ferner sei jedes i ∈ [n] in mindestens k der Ai s enthalten. Dann gilt:
m
Y
|F|k ≤
|Fi |,
i=1
wobei Fi := {F ∩ Ai : F ∈ F} die Projektion von F auf Ai .
• Theorem: sei n ≥ 4, und G eine Menge von (markierten) Graphen auf
der Knotenmenge [n] mit der Eigenschaft, dass für alle G1 = ([n], E1 ),
G1 = ([n], E2 ) ∈ G gilt G1 ∩ G2 := ([n], E1 ∩ E2 ) enthält ein Dreieck (K3 ).
Dann gilt:
n
|G| < 2( 2 )−2 .
PROBABILISTISCHE KOMBINATORIK
25
• Bemerkung: es war lange ein offenes Problem (vor 4 Jahren gelöst), die
n
obere Schranke auf die bestmögliche ≤ 2( 2 )−3 (betrachte alle markierten
Graphen, die ein fixiertes Dreieck enthalten) zu verbessern.
• Beweis: finde geeignete Kantenmengen ein, auf die G projiziert wer˙ Tc): T ∈
den kann. Genauer: definiere die Familie A := {E(KT ∪K
[n]
n
} mit m := bn/2c Elementen AT , d.h. die Kantenmenge AT ist
bn/2c
[bn/2c] ˙ n\[bn/2c]
∪
, und enthält
s := bn/2c
+ dn/2e
Kanten. Ferner
2
2
2
2
ist jede Kante in k = ms/ n2 Mengen AT enthalten (doppeltes Abzählen
der Paare (AT , e) mit e ∈ AT ; jede Kante liegt in gleich vielen AT s). Es
gilt auch, dass GT := {AT ∩ G : G ∈ G} eine Schnittfamilie ist und daher
|GT | ≤ 2s−1 (d.h. für G, G0 ∈ GT gilt G ∩ G0 6= ∅) – dies liegt daran, dass
Dreiecke nicht bipartit sind und [n]
2 \AT die Kantenmenge eines bipartiten
Graphen ist. Nach dem Projektionstheorem gilt:
Y
n
|G|ms/( 2 ) = |G|k ≤
|GT | ≤ (2s−1 )m .
T
n
2
n
2
Es folgt: |G| ≤ 2( )−( )/s . Mit s <
1 n
2 2
folgt die Behauptung.
4.2. Entropie.
• Definition: Sei X eine Zufallsvariable mit den Werten in einer endlichen
Menge S. Dann ist deren Entropie H(X) definiert als:
X
H(X) := −
P(X = a) log2 P(X = a).
a∈S
x→0
•
•
•
•
•
•
Als Konvention: 0 log2 0 := 0, da x log2 x −−−→ 0.
Intuitiv misst H(X) den Informationsgehalt von X, welcher die erwartete
Anzahl der Bits ist, die man übertragen muss, um X zu übermitteln.
Beispiele:
– p-Münze X: H(X) = −p log2 p − (1 − p) log2 (1 − p). Falls p = 1/2 so
ist H(X) = 1. Gilt p = 1, so ist H(X) = 0, die Münze ist “deterministisch”.
– sei F eine Familie von Mengen und X eine auf F uniform verteilte
Zufallsvariable. Dann gilt: H(X) = log2 |F|.
Proposition: Sei X eine Zufallsvariable mit den Werten in einer endlichen
Menge S. Dann gilt: H(X)
P ≤ log2 |S|.
P
Beweis: H(X) = − a∈S P(X = a) log2 P(X = a) =
a∈S P(X =
P
Jensen
1
1
a) log2 P(X=a) ≤ log2
= log2 |S|, weil log2 x
a∈S P(X = a) P(X=a)
P
P
auf (0, ∞) konkav ist (es gilt also φ( i λi xi ) ≥ i λi φ(xi ) falls φ konkav
ist (−φ ist konvex)).
Anwendung auf kombinatorische Probleme: um |F| abzuschätzen,
reicht es, eine Abschätzung an H(X) zu gewinnen, wobei X eine Zufallsvariable mit dem Wertebereich F ist.
bedingte Entropie:
(1) seiP
X eine ZV’e mit dem Wertebereich S, E ein Ereignis; H(X|E) :=
− a∈S P(X = a|E) log2 P(X = a|E) heißt bedingte Entropie von X
gegeben E
24.Januar 2014
26
YURY PERSON
•
•
•
28.Januar 2014
•
(2) seien
P X und Y ZV’e mit den Wertebereichen S, bzw. T ; H(X|Y ) :=
− b∈T H(X|Y = b)P(Y = b) heißt bedingte Entropie von X gegeben
Y (vergleiche mit der Definition des bedingten Erwartungswerts)
(3) ferner kann man X und Y als Vektoren von Zufallsvariablen auffassen: X = (X1 , . . . , Xn ) und Y = (Y1 , . . . , Ym ) ZV’e mit den Wertebereichen S1 × . . . × Sn bzw. T1 × . . . × Tm ; dann ist H(X|Y ) =
P
b=(b1 ,...,bm )∈T1 ×...×Tm H(X|Y = b)P(Y = b), wobei H(X|Y = b) =
P
− a=(a1 ,...,an )∈S1 ×...×Sn P(X = a|Y = b) log2 P(X = a|Y = b).
* Hinweis: P(X = a) steht für P(X1 = a1 , X2 = a2 , . . . , Xn = an ) und
P(Y = b) analog.
Weitere Eigenschaften der Entropie: seien X, Y und Z Zufallsvariablen (ZV’en) mit den Wertebereichen S, T und U . Dann gelten:
(i) H(X, Y ) ≥ H(X) (“Je mehr Zufallsexperimente, desto mehr Information”)
(ii) H(X, Y ) ≤ H(X) + H(Y ) (“Informationsgehalt ist subadditiv”)
(iii) H(X, Y ) = H(X) + H(Y |X) (Kettenregel)
(iv) H(X|Y, Z) ≤ H(X|Y ) (“wenn man weniger beobachtet hat (Y ), dann
ist der Informationsgehalt größer”)
* zusätzlich gilt in (ii): H(X, Y ) = H(X) + H(Y ) genau dann, wenn X
und Y unabhängig sind.
die Beweise nutzen Konvexität von x log2 x bzw. Monotonie von log2 x,
sowie Definitionen der Entropie bzw. der bedingten Entropie aus (siehe [2,
Kapitel 15])
Korollar: seien X1 ,. . .P
, Xn Zufallsvariablen (ZV’en). Dann gelten:
n
(i) H(X1 , . . . , Xn ) ≤ Pi=1 H(Xi ) (folgt sofort aus der Proposition (ii));
n
(ii) H(X1 , . . . , Xn ) = i=1 H(Xi |X1 , . . . , Xi−1 ) = H(X1 ) + H(X2 |X1 ) +
H(X3 |X1 , X2 ) + . . . + H(Xn |X1 , . . . , Xn−1 ) (folgt per Induktion aus
der Kettenregel).
3i,F ∈F }|
. Dann gilt: |F| ≤
Proposition: Sei F ⊆ 2[n] , pi = |{F : F |F
|
Pn
2 i=1 H(pi ) , wobei H(p) = −p log2 p − (1 − p) log2 (1 − p).
• Beweis: sei X eine ZVe, uniform verteilt auf F, d.h. P(F = X) = 1/|F|.
Wir können jedes F mit seinem charakteristischen Vektor vF ∈ {0, 1}n
assozieren; X lässt sich dann schreiben als (X1 , . . . , Xn ) ∈ {0, 1}n . Es ist
klar, dass H(X) = log2 |F|, und P(Xi = 1) = pi (und P(Xi = 0) = 1 − pi
und
i ) = H(pi )). Es gilt mit vorherigem Korollar: H(X) ≤
Pn daher H(XP
n
H(X
)
≤
die Behauptung.
i
i=1 H(pi ) und durch potenzieren folgt
i=1
Ppn n
• Korollar: Sei p ∈ [0, 1/2]. Es gilt die Abschätzung i=1 i ≤ 2H(p)n .
3i,F ∈F }|
• Beweis: sei F := {F : F ⊆ [n], |F | ≤ pn}, und pi := |{F : F |F
. Zähle
|
Paare (F, j) mit j ∈ F ∈ F auf doppelte Art ab:
pn n
X
X
n
pi |F| =
j
≤ pn|F|.
j
i=1
j=0
P
Daraus folgt:
i pi ≤ pn. Wegen Symmetrie gilt p1 = . . . = pn , und
somit
p
≤
p
für
alle i. Da H(x) monoton wachsend auf [0, 1/2] ist, gilt:
i
P
H(p
)
≤
H(p)n.
Mit der Proposition davor folgt dann die Behauptung.
i
i
• Theorem: sei X = (X1 , . . . , Xn ) ZVe mit dem Wertebereich S = S1 ×
. . . × Sn , und seien F1 , . . . , Fm ⊆ [n] Teilmengen mit |{i : Fi 3 j}| ≥ k für
PROBABILISTISCHE KOMBINATORIK
27
alle j ∈ [n]. Dann gilt:
kH(X) ≤
m
X
H(X(Fi )),
i=1
wobei X(F ) := (Xi )i∈F die Projektion von X auf F ⊆ [n] ist.
• Beweisidee: Induktion nach k. Für k = 1 folgt es aus den Fakten über
Entropie. Nun gelte die Behauptung für k ≥ 1, wir zeigen per Induktion,
dass das Theorem auch für k + 1 gilt.PFalls es ein Fj = [n] gibt, so folgt:
m
(k + 1)H(X) = kH(X) + H(X) ≤
i=1,i6=j H(X(Fi )) + H(X(Fj )) mit
Induktionsvoraussetzung. Angenommen, [n] 6= Fj für alle j. Nun kann
man zeigen, dass man (schrittweise)
Pm aus den Mengen
Pm F1 ,. . . , Fm Mengen
G1 ,. . . , Gm erhalten kann mit i=1 H(X(Gi )) ≤ i=1 H(X(Fi )) und dass
{i : j ∈ Gi } ≥ k + 1 für alle j ∈ [n]. O.B.d.A. seien F1 6= F2 und nicht leer.
Nun gilt: H(X(F1 \F2 )|X(F2 \F1 ), X(F1 ∩F2 )) ≤ H(X(F1 \F2 )|X(F1 ∩F2 )).
Aus der Kettenregel folgt dann: H(X(F1 \ F2 ), X(F2 \ F1 ), X(F1 ∩ F2 )) −
H(X(F2 \ F1 ), X(F1 ∩ F2 )) ≤ H(X(F1 \ F2 ), X(F1 ∩ F2 )) − H(X(F1 ∩
F2 )). Durch Umsortieren und mit H(X(F1 \ F2 ), X(F2 \ F1 ), X(F1 ∩ F2 )) =
H(X(F1 ∪ F2 )) und H(X(F1 )) folgt: H(X(F1 ∪ F2 )) + H(X(F1 ∩ F2 )) ≤
H(X(F1 )) + H(X(F2 )). Wenn man also F1 und F2 durch F1 ∪ F2 und
F1 ∩ F2 P
ersetzt, so erhält man eine neue Familie von Mengen (Fi0 )i∈[m] ,
0
so dass
i H(Fi ) aber weiterhin |{j : Fj 3 i}| ≥ k + 1 erfüllt. Durch
wiederholtes Vorgehen erhält man eine Familie, die [n] enthält. Nun kann
wie am Anfang die Induktionsvoraussetzung angewendet werden.
• Beweis (Projektionstheorem): sei X uniform auf F verteilt und als {0, 1}Vektor
(X1 , . . . , Xn ) aufgefasst. Es gilt: H(X) = log2 |F|, und kH(X) ≤
Pm
H(X(A
i )). Da Fi Projektion von F auf Ai ist, kann X(Ai ) höchstens
i=1
|Fi | Werte P
annehmen. Es gilt: H(X(Ai )) ≤ log2 |Fi |. Somit folgt:
k log2 |F| ≤ i log2 |Fi | und damit die Behauptung.
• Definition: sei A = (aij ) eine
n Matrix, die Permanente per(A) von
P n ×Q
n
A ist definiert als per(A) := σ∈Sn i=1 aiσ(i) .
• Bemerkung: falls A eine {0, 1}-Matrix ist, so ist per(A) die Anzahl der
perfekten Matchings im bipartiten Graphen G, mit den Klassen [n] × {1}
und [n] × {2}, wobei {(i, 1), (j, 2)} ∈ E(G) genau dann, wenn aij = 1.
• Mincs Vermutung (jetzt Bregman’s Theorem): sei A eine n × n
Matrix mit Einträgen aus 0 und 1, dabei sei ri die Anzahl der Einsen in
der iten Zeile. Dann gilt:
per(A) ≤
n
Y
(ri !)1/ri .
i=1
• Bemerkung: die Schranke ist scharf – betrachte dazu eine diagonale Blockmatrix mit Einsen in den Blöcken und Nullen außerhalb.
• Beweis:
– sei S := {σ : aiσ(i) = 1 ∀i ∈ [n]} – die “guten” Permutationen, die
zählen (d.h. eins zu per(A) beitragen)
– sei π ∈ S zufällig uniform ausgewählt; man kann π als den ndimensionalen Vektor (π(1), . . . , π(n)) darstellen
– Vorüberlegung: die Entropie von π istPH(π) = log2 |S|, auf der anderen
n
Seite mit der Kettenregel: H(π) = i=1 H(π(i)|π(1) . . . , π(i − 1)) ≤
31.Januar 2014
28
YURY PERSON
Pn
Pn
H(π(i)) ≤ i=1 log2 ri (denn π(i) kann höchstens ri Werte annehmenQ– es sind genau ri Einsen in der iten Zeile). Also folgt:
|S| ≤ i ri . Die Kettenregel gibt vor, in welcher Reihenfolge man
die Information in der bedingten Entropie H(π(i)|π(1) . . . , π(i − 1))
berechnet. Hier “verliert” man zuviel, da man die bedingte Entropie
zu grob abschätzt.
– Idee: nimm’ zufällige Permutation τ ∈ Sn und schätze die ertwartete
Entropie H(π(τ (i))|π(τ (1)),
Q.n. . , π(τ (i − 1))) ab – dies entspricht dem
“Auswerten” des Produkts i=1 aiπ(i) durch zufällige Zeilenanordnung
(für jedes i).
– Schritt 1: H(π) = H(π(τ (1)), . . . , π(τ (n))) für jedes τ ∈ Sn , und
somit: H(π) = Eτ H(π(τ (1)), . . . , π(τ (n))). Mit der Kettenregel und
Umsortierung der Terme folgt:
i=1
H(π) = Eτ H(π(τ (1)), . . . , π(τ (n))) = Eτ
Eτ
n
X
H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] =
n
X
H(π(τ (i))|π(τ (1)), . . . , π(τ (i−1))) =
i=1
n
X
Eτ H[π(i)|π(τ (1)), . . . , π(τ (k − 1))],
i=1
i=1
wobei k := kτ,i = τ −1 (i) eine Zufallsvariable ist. Wir werden im
folgenden Eτ H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] abschätzen.
– Schritt 2: H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] ist die Zufallsvariableund
der Wertebereich von π(i) hängt von τ ab. Definiere: Rπ,τ (i) := Ti \
{π(τ (1)), . . . , π(τ (k−1))} (Zufallsvariable!), wobei Ti := {j : aij = 1}.
Es ist klar, dass für ein (fixiertes) τ und gegeben π(τ (1)), . . . , π(τ (k −
1)) gilt: π(i) kann höchstens Rπ,τ (i) Werte annehmen. Seien π ∈ S
und i ∈ [n] gegeben, dann gilt: Rπ,τ (i) ist uniform verteilt auf
{1, . . . , ri } für ein uniform ausgewähltes τ ∈ Sn . Denn: die Kardinalität von Ti \ {π(τ (1)), . . . , π(τ (k − 1))} (also Rπ,τ (i)) hängt nur
davon ab, in welcher Reihenfolge (zueinander) die Zeilen π −1 (Ti ) unter
für jedes ` ∈ {1, . . . , ri }.
τ sortiert sind. Also: Pτ [Rπ,τ (i) = `] = (rir−1)!
i!
– Schritt 3: Seien τ ∈ Sn und i ∈ [n] fixiert. Sei E` das Ereignis Rπ,τ (i) = `, und da E` s alle möglichen Werte a enthalten, die
π(τ (1)), . . . , π(τ (k − 1)) annehmen kann, folgt somit:
H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] =
ri X
X
H[π(i)|π(τ (1)), . . . , π(τ (k − 1)) = a]Pπ (π(τ (1)), . . . , π(τ (k − 1)) = a).
`=1 a∈E`
Da π(i), gegeben {π(τ (1)), . . . , π(τ (k − 1)) = a}, höchstens ` Werte
annehmen kann, gilt: H[π(i)|π(τ (1)), . . . , π(τ (k − 1)) = a] ≤ log2 `.
Also folgt:
H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] ≤
ri X
X
`=1 a∈E`
(log2 `)Pπ (π(τ (1)), . . . , π(τ (k − 1)) = a) =
ri
X
`=1
Pπ (E` ) log2 `.
PROBABILISTISCHE KOMBINATORIK
29
– Schritt 4:
Eτ H[π(i)|π(τ (1)), . . . , π(τ (k − 1))] ≤ Eτ
`
X
Pπ (E` ) log2 ` =
i=1
ri
X
Eτ Pπ (E` ) log2 ` =
`=1
ri
X
Pπ,τ (Rπ,τ (i) = `) log2 ` =
`=1
ri
X
1
log2 ` = log2 (ri !)1/ri .
ri
`=1
Pn
•
•
•
•
•
Ln ≤
– Schritt 5: Nun folgt mit H[π] = i=1 Eτ H[π(i)|π(τ (1)), . . . , π(τ (k −
1))] und Eτ H[π(i)|π(τ (1)),
1))] ≤ log2 (ri !)1/ri , dass
Pn. . . , π(τ (k −
1/ri
log2 per(A) = H[π] ≤
, und daraus: per(A) ≤
i=1 log2 (ri !)
Qn
1/ri
(r
!)
i=1 i
Definition: sei L : [n] × [n] → [n] eine Funktion mit den folgenden Eigenschaften
(1) für alle i, j ∈ [n] gibt es genau ein x mit L(i, x) = j, und
(2) für alle i, j ∈ [n] gibt es genau ein x mit L(x, i) = j.
Dann heißt L lateinisches Quadrat. (Anschaulich: man kann in ein n × n
Array die Zahlen zwischen 1 und n so anordnen, dass in jeder Zeile und
jeder Spalte jedes Element aus [n] genau einmal vorkommt).
Bemerkung: man kann naiv recht leicht ein lateinisches Quadrat konstruieren, indem man Zeile für Zeile eine Permutation auswählt, so dass jede
(partiell ausgefüllte Spalte) jedes Element höchstens einmal enthält. Dass
dies immer möglich ist, folgt aus dem Heiratssatz.
Frage: sei Ln die Anzahl lateinischer n × n Quadrate, wie groß ist (asymptotisch) Ln ?
n2
Theorem: Es gilt Ln = (1 + o(1)) en2
Beweis (≤): es gibt eine natürliche Bijektion zwischen lateinischen
Quadraten L und n × n × n {0, 1}-Arrays M , wobei in jeder Zeile, Spalte
und jedem Schaft genau eine 1 steht und alle anderen Einträge Null sind:
L(i, j) = k ⇐⇒ M (i, j, k) = 1. Man kann ein lateinisches Quadrat also
Zeile für Zeile aufbauen, indem man in jedem Schritt, eine Permutation
auswählt, so dass kein Eintrag sich in einer der Spalten wiederholt. Dies
entspricht dem Aufbau von M ∈ {0, 1}n×n×n , indem man im kten Schritt
eine Permutation für die Matrix M (·, ·, k) auswählt, und zwar aus der MaPk−1
trix J − i=1 M (·, ·, i), wobei J eine n × n Matrix mit allen Einträgen
gleich Eins ist und M (·, ·, i) die n × n-Matrix A = (ast ) mit ast = M (s, t, i).
Pk−1
Es gilt, dass jede Zeile der Matrix J − i=1 M (·, ·, i) genau n−k +1 Einsen
enthält. Nach Bregman’s Theorem, gibt es höchstens ((n−k+1)!)n/(n−k+1)
Permutationen, die für die Matrix M (·, ·, k) in Frage kommen. Es gilt somit
N
folgende obere Schranke an Ln (mit Stirlings Formel N ! = (1+o(1)) Ne
):
n
Y
((n−k+1)!)n/(n−k+1) =
k=1
n
Y
k=1
(1+o(1))
n − k + 1 n
n! n
n n2
= (1+o(1)) n = (1+o(1)) 2
.
e
e
e
• Definition: Eine n × n Matrix P
A = (aij ) mit nichtnegativen
Einträgen
Pn
n
heißt doppelt stochastisch, falls i=1 aij = 1 und j=1 aij = 1 für alle
i, j ∈ [n].
30
YURY PERSON
• Theorem von Falikman; Egorichev (ehem. van der Waerden’s Vermutung): Sei A eine dopplet stochastische Matrix. Dann gilt:
n!
per(A) ≥ n ,
n
wobei die Gleichheit nur für A = n1 J gilt.
• Bemerkung: untere Schranke an Ln folgt aus dem obigen Theorem und
ähnlicher Argumentation wie die obere Schranke.
Buchreferenzen: [2, Probabilistic Lens auf Seite 13; Kapitel 15], [7, Kapitel 22]
und [8].
4.Februar 2014
5. Regularitätslemma und seine Anwendungen
5.1. Removal Lemma und Roths Theorem.
• Definition: sei G = (V, E) ein Graph mit n Knoten. Der Graph G heißt
ε-weit von K3 -Freiheit, falls man mindestens εn2 Kanten aus G löschen
muss, um alle Dreiecke (K3 ) zu zerstören.
• Fragen: Angenommen, G ist ε-weit von K3 -Freiheit. Wie viele Kopien von
K3 muss G mindestens enthalten? Wie viele kantendisjunkte Kopien von
K3 muss G mindestens enthalten? Umgekehrt: angenommen, G enthält
höchstens εn2 kantendisjunkte Kopien von K3 bzw. δn3 Kopien, wie weit
ist er von K3 -Freiheit entfernt?
• Lemma (triangle removal lemma, TRL): für jedes ε > 0 gibt es ein
δ = δ(ε) > 0 so dass jeder Graph mit n Knoten, der ε-weit von K3 -Freiheit
ist, mindestens δn3 viele Kopien von K3 enthalten muss.
• Anwendung 1: testen auf Dreiecke
– Definition ε-Tester für K3 ist ein randomisierter Algorithmus der
die konstante (von ε abhängige) Laufzeit hat (konstant viele Anfragen
stellen kann), und Anfragen der Form “ist ij eine Kante von G” für
i, j ∈ V (G) stellen kann. Als Ausgabe gibt ε-Tester aus: G ist K3 -frei
(Tester akzeptiert G) oder G ⊇ K3 (Tester weist G ab). Dabei soll
folgendes gelten:
(i) Falls G 6⊇ K3 , so akzeptiert Tester G mit Wahrscheinlichkeit
mindestens 2/3;
(ii) Falls G ε-weit von K3 -Freiheit ist, so weist Tester G mit
Wahrscheinlichkeit mindestens 2/3 ab.
– Proposition: es gibt einen ε-Tester für K3 .
Input: G = (V, E), ε
Setup: setze s := bln 3/(6δ(ε))c
1 wähle zufällig uniform s Tripel (ai , bi , ci ) aus V3 aus
2 teste alle s Tripel ob sie Dreiecke in G bilden (3s Anfragen)
Output: gibt es ein Dreieck, dann: G ⊇ K3 , sonst: G 6⊇ K3 .
– Beweis: Falls G 6⊇ K3 , so ist klar, dass G immer als K3 -frei vom obigen
ε-Tester akzeptiert wird (d.h. mit Wahrscheinlichkeit 1). Sonst sei G
3
ε-weit von K3 -Freiheit. Dann ist P G[ai , bi , ci ] 6= K3 ≤ 1 − δnn <
(3)
1 − 6δ, wobei δ = δ(ε) vom triangle removal
lemma stammt. Weil alle
s Anfragen unabhängig sind, folgt P( Tester akzeptiert G ) < (1 −
6δ)s < e−6sδ < 1/3. Somit wird G mit Wahrscheinlichkeit mindestens
2/3 abgewiesen.
PROBABILISTISCHE KOMBINATORIK
31
• Anwendung 2: Roths Theorem: für jedes ε > 0, gibt es ein n0 so dass
für jedes n ≥ n0 folgendes gilt: ist A ⊆ [n] mit |A| ≥ εn, so enthält A eine
3-AP (eine arithmetische Progression der Länge 3).
• Beweis: sei A ⊆ [n] mit |A| ≥ εn, wobei n ≥ n0 := 2/(δ) (δ := δ(ε/36)
wird durch Anwendung des triangle removal lemmas geliefert). Definiere
einen tripartiten Graphen Gmit Knotenklassen [n]× {1}, [2n] × {2} und
[3n]×{3};
seine Kanten sind m×{1},
m+a×{2} , m×{1}, m+2a×{3}
und m + a × {2}, m + 2a × {3} für alle a ∈ A und m ∈ [n]. Es ist
klar, dass v(G) = 6n und e(G) = 3|A|n. Ferner
enthält G mindestens
|A|n
viele
kantendisjunkte
Dreiecke
der
Form
m ×{1}, m + a × {2} ,
m×{1}, m+2a×{3} und m+a×{2}, m+2a×{3} (triviale Dreiecke).
– Behauptung: enthält A keine 3-AP, so hat G genau |A|n viele Dreiecke.
– Beweis: angenommen, G hat mehr als |A|n viele Dreiecke. Dann gibt
es ein nichtriviales Dreieck, d.h. es gibt m 6= m0 ∈ [n] und a1 , a2 , a3 ∈ A
mit m + a1 = m0 + a2 und m0 + 2a2 = m = 2a3 (wieso?). Daraus
2
, und dies ist equivalent zu {a1 , a2 , a3 } ist eine 3-AP.
folgt: a3 = a1 +a
2
Widerspruch.
εn2
Nun ist aber G (6n)
2 = ε/36-weit von K3 -Freiheit, somit hat G nach TRL
mindestens δn3 > n2 ≥ |A|n Dreiecke. Somit muss A eine 3-AP enthalten.
• Definition: G(n1 , n2 ; p) ist ein zufälliger bipartiter Graph, wobei jede
der möglichen Kanten des Kn1 ,n2 mit Wahrscheinlichkeit p existiert (unabhängig). Genauer, G(n1 , n2 ; p) ist ein Wahrscheinlichkeitsraum, mit
der Verteilung auf der Menge aller Graphen G ⊆ Kn1 ,n2 mit P(G) =
pe(G) (1 − p)n1 n2 −e(G) . Wir identifizieren jedoch G ∼ G(n1 , n2 ; p) mit
G(n1 , n2 ; p) wie im Fall von G(n, p).
• was ist eine typische Eigenschaft von G(n1 , n2 ; p)?
• Definition: sei G = (V, E) ein Graph und V1 , V2 ⊆ V disjunkte Teilmen1 ,V2 )
die Dichte von Paar
gen. Dann heißt d(V1 , V2 ) := dG (V1 , V2 ) = eG|V(V
1 ||V2 |
(V1 , V2 ), wobei eG (V1 , V2 ) die Anzahl der Kanten zwischen V1 und V2 ist
(die Menge dieser Kanten wird mit EG (V1 , V2 ) bezeichnet).
• Definition: sei G = (V, E) ein Graph und V1 , V2 ⊆ V disjunkte Teilmengen. Dann heißt das Paar (V1 , V2 ) ε-regulär, falls für alle U1 ⊆ V1 und
U2 ⊆ V2 mit |Ui | ≥ ε|Vi | (i = 1, 2) gilt:
|d(V1 , V2 ) − d(U1 , U2 )| ≤ ε.
• Proposition: seien ε, p ∈ (0, 1) fixiert, und n1 , n2 ∈ N. Dann gilt folgendes: P(G(n1 , n2 ; p) ist ε-regulär) = 1 − e−Θ(n1 n2 ) .
• Beweisidee: folgt mit Chernoffs Ungleichung und Union bound über alle
möglichen Teilmengen von V1 und V2 .
• Lemma: sei (V1 , V2 ) ein ε-reguläres Paar der Dichte d. Dann gilt:
(i) |{v ∈ Vi : degVj (v) < (d − ε)|Vj |}| < ε|Vi | für i 6= j ∈ {1, 2}, und
(ii) |{v ∈ Vi : degVj (v) > (d + ε)|Vj |}| < ε|Vi | für i 6= j ∈ {1, 2}.
• Beweis: Sei B := {v ∈ Vi : degVj (v) < (d − ε)|Vj |}. Wäre |B| ≥ ε|Vi |, so
wäre d(B, V2 ) < d − ε im Widerspruch zur ε-Regularität. Der zweite Teil
folgt analog.
• Proposition (Zähllemma): für alle d > 0 und γ > 0 gibt es ein ε > 0 so
dass folgendes gilt. Ist G ein tripartiter Graph mit den Klassen V1 , V2 und
7.Februar 2014
32
YURY PERSON
•
•
•
•
•
11.Februar 2014
•
•
V3 , jede der Kardinalität n, und (Vi , Vj ) ist ε-regulär mit der Dichte dij ≥ d
für i 6= j, so enthält G (d12 d13 d23 ±γ)n3 viele Dreiecke. (d±ε := [d−ε, d+ε])
Beweis: wähle ε := min{d/2, γ/16}. Sei B := {v ∈ V1 : degV2 (v) <
(d − ε)|V2 | oder degV3 (v) < (d − ε)|V3 |}. Es folgt: |B| < 2εn, und
jedes v ∈ V1 \ B bildet zusammen mit einer Kante aus E(NV2 (v), NV3 (v))
ein Dreieck
, vw ∈ E}). Also enthält G minP (NV2 (v) := {w : w ∈ V2P
destens v∈V1 \B e(NV2 (v), NV3 (v)) ≥ v∈V1 \B (d23 − ε)|NV2 (v)||NV3 (v)| ≥
P
3
v∈V1 \B (d23 − ε)(d12 − ε)n(d13 − ε)n ≥ (d12 d13 d23 − 16ε)n Dreiecke. Die
obere Schranke folgt ähnlich.
Motivationsfrage: kann man einen gegebenen Graphen G in ε-reguläre
Paare “zerlegen”?
Defintion: Eine Partition P = {V1 , . . . , Vt } der Knotenmenge
eines
Graphen G = (V, E) heißt Equipartition, falls |Vi | − |Vj | ≤ 1 für alle
i, j ∈ [t] (und natürlich V = ∪˙ i∈[t] Vi ).
Defintion: Eine Equipartition P = {V1 , . . . , Vt } der Knotenmenge eines
Graphen G = (V, E) heißt ε-regulär, falls alle bis auf εt2 viele Paare (Vi , Vj )
ε-regulär sind (für 1 ≤ i < j ≤ t).
Theorem(Regularitätslemma, Szemerédi 1978): für jedes ε > 0 und
t0 ∈ N existiert ein T (ε, t0 ) ∈ N, so dass jeder Graph G = (V, E) auf
mindestens n ≥ t0 Knoten eine ε-reguläre Equipartition P = {V1 , . . . , Vt }
mit t0 ≤ t ≤ T besitzt.
Lemma (triangle removal lemma, TRL): für jedes ε > 0 gibt es ein
δ = δ(ε) > 0 so dass jeder Graph mit n Knoten, der ε-weit von K3 -Freiheit
ist, mindestens δn3 viele Kopien von K3 enthalten muss.
Beweis: zuerst werden wir die Beweisskizze präsentieren und dann erklären,
wie man die Parameter wählt. Sei G ein Graph auf n Knoten. Wir wenden
mit den Parametern εRL und t0 das Regularitätslemma auf G an, falls
n ≥ t0 ist. Sei P = {V1 , . . . , Vt } die dazugehörige ε-reguläre Partition mit
t0 ≤ t ≤ T = T (ε, t0 ) (T wird durch Regularitätslemma gegeben). Wir
wissen, dass G ε-weit von K3 -Freiheit ist, also muss man mindestens εn2
seiner Kanten löschen, damit G keine Dreiecke mehr enthält. Wir werden
folgende Abschätzung oft benutzen: n/(2t) ≤ bn/tc ≤ |Vi | ≤ dn/te ≤ 2n/t.
Wir löschen folgende Kanten aus G:
(1) alle Kanten innerhalb der Klassen Vi (i ∈ [t]): das sind höchstens
Pt
|Vi |
≤ t 2n/t
< 2n2 /t viele;
i=1
2
2
(2) alle Kanten zwischen den εRL -irregulären (d.h. nicht εRL -regulären)
Paaren: das sind höchstens εRL t2 dn/te2 ≤ 4εRL n2 viele;
(3) alle Kanten zwischen den εRL -regulären Paaren deren Dichte weniger
als d beträgt (es sind also weniger als ddn/te2 Kanten
zwischen
einem solchen Paar) – insgesamt also höchstens 2t ddn/te2 <
(t2 /2)d(2n/t)2 < 2dn2 viele Kanten.
Gilt
2n2 /t + 4εRL n2 + 2dn2 < εn2 ,
(1)
so enthält G selbst nach dem Löschen dieser Kanten mindestens ein Dreieck.
Das bedeutet, dass es drei Knotenklassen Vi , Vj und Vk so dass (Vi , Vj ),
(Vi , Vk ) und (Vk , Vj ) εRL -regulär sind und Dichte jeweils mindestens d
haben (wieso?). Wenn man aber ein Zähllemma (mit d und γ = d3 /2
und erhalten wir εZL ) anwenden könnte, so hätte also G mindestens
PROBABILISTISCHE KOMBINATORIK
33
d3 dn/te3 /2 ≥ d3 n3 /(16T 3 ) viele Dreiecke. Nun müssen wir δ nur noch
passend wählen (doch bevor müssen andere Parameter gesetzt werden):
(i) Vorüberlegung: damit (1) gilt, reicht es dass 2n2 /t, 4εRL n2 , 2dn2 ≤
εn2 /4 ist;
(ii) wende Zähllemma mit d := ε/8 und γ := d3 /2 and und erhalte ein
εZL > 0;
(iii) wende Regularitätslemma mit t0 = d8/εe und εRL := min{ε/16, εZL }
an und erhalte T ;
−3
(iv) nun setze δ := min{d3 /(16T 3 ), t−3
0 }. Die Bedingung δ ≤ t0 brauchen
wir für den Fall, dass wir Regularitätslemma nicht anwenden können.
Mit den so gewählten Parametern kann der Beweis ausgeführt werden und
wir erhalten, dass ein jeder solcher Graph G mindestens δn3 K3 s enthält.
• Lemma: sei Y eine Zufallsvariable mit 0 ≤ Y ≤ 1. Es gilt für jedes
γ ∈ [0, 1], dass
P[Y ≥ EY − γ] ≥ γ.
• Beweisidee: definiere Ereignis E := {Y ≥ EY − γ}. Es gilt: E[Y ] =
E[Y |E]P(E) + E[Y |E c ]P(E c ). Es gilt: E[Y |E] ≤ 1 und E[Y c |E] ≤ EY − γ.
Nun erhalten wir: E[Y ] ≤ P(E) + (EY − γ)P(E c ), woraus mit P(E c ) ≤ 1
folgt: P(E) ≥ γ, falls γ ≤ EY . Gilt γ > EY , so gilt die Behauptung
trivialerweise.
• Regularitätslemma (Spezialfall): sei ε > 0, dann gibt es ein δ = δ(ε)
˙ 2 , E) mit |V1 |, |V2 | ≥
und n0 ∈ N, so dass jeder bipartite Graph G = (V1 ∪V
n0 ein ε-reguläres Paar (U1 , U2 ) mit |Ui | ≥ δ|Vi | enthält.
• Beweis: angenommen (V1 , V2 ) ist nicht ε-regulär. Dann gibt es Ui ⊆ Vi
mit |Ui | ≥ ε|Vi |, so dass |d(V1 , V2 ) − d(U1 , U2 )| > ε. Seien v1 ∈ V1 und
v2 ∈ V2 zufällig uniform ausgewählt. Definiere die ZVe Z = Z(v1 , v2 ) :=
d(A, B) mit v1 ∈ A ∈ {U1 , U1c } und v2 ∈ B ∈ {U2 , U2c }. Es gilt EZ =
d(V1 , V2 ) (wieso?). Betrachte Var(Z) = EZ 2 + (EZ)2 = E(Z − EZ)2 >
1 ||U2 |
4
2
2
ε2 |U
|V1 ||V2 | ≥ ε (wieso?). Also gibt es v1 und v2 mit Z = Z (v1 , v2 ) >
2
4
2
2
4
4
d (V1 , V2 ) + ε . Somit gilt P[Z ≥ d (V1 , V2 ) + ε /2] ≥ ε /2. Es folgt,
dass es dann A ∈ {U1 , U1c } und B ∈ {U2 , U2c } gibt mit |A| ≥ (ε4 /8)|V1 |
und |B| ≥ (ε4 /8)|V2 |, sowie d2 (A, B) > d2 (V1 , V2 ) + ε4 /2 (wieso?). Und
damit d(A, B) > d(V1 , V2 ) + ε4 /8. Ist (A, B) nicht ε-regulär, so können wir
dieselbe Argumentation nochmal durchführen, und zwar höchstens 8/ε4 oft,
denn jedes Mal steigt die Dichte unseres neuen Paares um ε4 /8 einerseits,
und andererseits ist die Dichte durch 1 nach oben beschränkt. Nach 8/ε4
vielen Wiederholungen haben die Knotenklassen in unserem Paar jeweils
4
4
4
mindestens (ε4 /8)8/ε |V1 | bzw. (ε4 /8)8/ε |V2 | Knoten. Mit δ := (ε4 /8)8/ε
und n0 := d1/δe folgt die Behauptung.
Buchreferenzen: [2, Kapitel 17].
References
1.
2.
3.
4.
Martin Aigner, Diskrete Mathematik, Springer Verlag, 2006.
Noga Alon and Joel H. Spencer, The Probabilistic Method, Wiley, 2004.
Richard A. Brualdi, Introductory Combinatorics, Pearson Education, 2004.
Devdatt P. Dubhashi and Alessandro Panconesi, Concentration of measure for the analysis
of randomized algorithms, Cambridge University Press, Cambridge, 2009.
5. Julia Garibaldi, Alex Iosevich, and Steven Senger, The Erdős distance problem, Student Mathematical Library, vol. 56, American Mathematical Society, Providence, RI, 2011.
14.Februar 2014
34
YURY PERSON
6. Svante Janson, Tomasz Luczak, and Andrzej Rucinski, Random graphs, Wiley-Interscience
Series in Discrete Mathematics and Optimization, Wiley-Interscience, New York, 2000.
7. S. Jukna, Extremal combinatorics, second ed., Texts in Theoretical Computer Science. An
EATCS Series, Springer, Heidelberg, 2011, With applications in computer science.
8. Jaikumar Radhakrishnan, Entropy and Counting, Computational Mathematics, Modelling
and Algorithms (2003), 146.
9. A. Sinclair, http://www.cs.berkeley.edu/~sinclair/cs271/n22.pdf.
10. Terence Tao and Van H. Vu, Additive combinatorics, Cambridge Studies in Advanced Mathematics, vol. 105, Cambridge University Press, Cambridge, 2010, Paperback edition [of
MR2289012].
11. Anusch Taraz, Diskrete Mathematik, Springer Verlag, 2012, als E-Buch verfügbar.
Herunterladen