Kapitel 8 Auszüge der probabilistischen Graphentheorie

Werbung
Kapitel 8
Auszüge der probabilistischen
Graphentheorie
8.1
Die Erwartungswertmethode
Wir beweisen erneut die Caro-Wei Schranke; diemal jedoch mit probabilistischen
Methoden.
Satz 4.18 (Caro 1979, Wei 1981). Sei G ein Graph. Dann gilt
X
1
.
α(G) ≥
1 + dG (v)
v∈V (G)
Beweis. Sei Ψ die Menge aller bijektiven Abbildungen ψ : V (G) → [n(G)]. Offen1
sichtlich gilt |Ψ| = n(G)!. Weiterhin sei mit Wahrscheinlichkeit n(G)!
ein ψ ∈ Ψ
gewählt. Wir definieren S(ψ) := {u : ψ(u) < ψ(v) ∀v ∈ NG (v)}. |S| kann als eine
Zufallsvariable angesehen werden. Somit teilen wir |S| mit den Indikatorfunktionen
1u : Ψ → {0, 1}
(
1 falls u ∈ S(ψ)
1u (ψ) =
0 andernfalls
P
(für alle u ∈ V (G)) auf, d.h. |S| = u∈V (G) 1u . Wir wissen
α(G) = max{|S(ψ)| : ψ ∈ Ψ}


X
X
X
≥ E[|S|] = E 
1u  =
E[1u ] =
P [u ∈ S].
u∈V (G)
u∈V (G)
u∈V (G)
Sei also u ∈ V (G). Es gilt
P [u ∈ S] =
|{ψ : ψ ∈ Ψ, u ∈ S(ψ)|}
|{ψ : ψ ∈ Ψ, ψ(u) < ψ(v) ∀v ∈ NG (v)}|
=
.
n(G)!
n(G)!
Wir schreiben ψ ∼ ψ 0 für zwei ψ, ψ 0 ∈ Ψ, falls ψ(w) = ψ(w0 ) für alle w ∈
/ NG [u] gilt.
Offensichtlich definiert ∼ eine Äquivalenzrelation mit genau
n(G)
· [n(G) − (dG (u) + 1)]!
n(G) − (dG (u) + 1)
1
KAPITEL 8. AUSZÜGE DER PROBABILISTISCHEN GRAPHENTHEORIE
2
Äquivalenzklassen und jede solche besitzt genau (dG (u)+1)! Elemente. In jeder Äquivalenzklasse existieren aber genau dG (u)! Funktionen ψ für die ψ(u) ≤ ψ(v) für alle
v ∈ vG (v) gilt. Also folgt
n(G)
· [n(G) − (dG (u) + 1)]! · dG (u)!
1
n(G)−(dG (u)+1)
=
P [u ∈ S] =
n(G)!
dG (u) + 1
und damit auch die gewünschte Schranke.
Eine zweite Schranke, die wir mit der Erwatungswertmethode beweisen können, ist
die obere Schranke für die Dominationszahl von Alon und Spencer.
Satz 5.4 (Alon und Spencer 1992). Sei d eine positive natürliche Zahl und G ein
Graph mit δ(G) ≥ d. Dann gilt
γ(G) ≤
ln(d + 1) + 1
n(G).
d+1
Beweis. Sei p : V (G) → [0, 1]. Für alle u ∈ V (G) definieren wir die Menge Su als
Zufallsvariable mit P [Su = {u}]S= p(u) und P [Su = ∅] = 1 − p(u). Weiterhin sei Zu
definiert durch Zu = {u}, wenn v∈NG [u] Sv = ∅, und Zu = ∅ andernfalls. Damit folgt
Y
Y
P [Zu = {u}] =
(1 − p(v)) und P [Zu = ∅] = 1 −
(1 − p(v)).
v∈NG [u]
Da
v∈NG [u]
S
∪ Zu ) eine dominierende Menge ist, gilt




X
X
[
γ(G) ≤ E 
E[|Su ∪ Zu |]
(Su ∪ Zu ) = E 
|Su ∪ Zu | =
u∈V (G)
u∈V (G)
u∈V (G)


Y
X
X
p(u) +
(1 − p(v))
≤
(E[|Su |] + E[|Zu |]) =
u∈V (G) (Su
u∈V (G)
u∈V (G)
v∈NG [u]
Wir wissen, dass 1 − x ≤ e−x für alle x ∈ [0, 1]. Somit folgt für p ≡ c mit c ∈ [0, 1],
dass
X X γ(G) ≤
c + (1 − c)dG (u)+1 ≤
c + (1 − c)d+1 = nc + n(1 − c)d+1
v∈V (G)
v∈V (G)
−(d+1)·c
≤ nc + ne
Sei nun f : [0, 1] → R mit f (c) = nc + ne−(d+1)·c definiert. f nimmt sein Minimum
bei
ln(d + 1)
c? =
d+1
an. Somit folgt
ln(d + 1)
1
ln(d + 1) + 1
?
?
−(d+1)·c?
γ(G) ≤ f (c ) = nc + ne
=n
+
=
n(G).
d+1
d+1
d+1
KAPITEL 8. AUSZÜGE DER PROBABILISTISCHEN GRAPHENTHEORIE
3
Aufgabe: Man überlege sich anhand analoger Überlegungen, warum das folgende
Resultat von Henning und Yeo gilt.
Satz 5.13 (Henning und Yeo 2007) Sei d eine positive natürliche Zahl und G ein
Graph mit δ(G) ≥ d. Dann gilt
γt (G) ≤
8.2
ln(d) + 1
n(G).
d
Die Ausschlussmethode
In diesem Teil möchten wir den Satz von Erdős (Satz 7.10) mit Hilfe probabilistischer
Methoden aber ohne den Satz von Bollobás (Satz 4.24) zeigen.
Satz 7.10 (Erdős 1959). Für alle positiven natürlichen Zahlen g ≥ 4 und k ≥ 3 gibt
es einen (C3 , C4 , . . . , Cg−1 )-freien Graphen G mit χ(G) ≥ k.
Beweis. Sei n ≥ 0 und V = {v1 , v2 , v3 , . . . , vn } eine Knotenmenge. Wir wählen nun
alle Kanten vi vj (i, j ∈ [n] mit i < j) unabhängig und gleich verteilt mit einer
gegeben und fixierten Wahrscheinlichkeit p. D.h. ein Graph G mit V (G) = V hat die
Wahrscheinlichkeit
n
pm(G) (1 − p)( 2 )−m(G)
aufzutreten. Wir bezeichnen mit G die Menge aller möglichen Graphen über V , d.h.
n
|G| = 2( 2 ) .
√
g
Seien p = nn und i ∈ [g − 1]. Aus der Knotenmenge V kann man offensichtlich M (n, i) = n(n−1)···(n−i+1)
mögliche Kreise C 1 , C 2 , . . . , C M (n,i) der Länge i mit
2i
V (C j ) ⊆ V für alle j ∈ [M (n, i)] bilden. Sei für jeden möglichen Kreis C der Länge
i die Indikatorfunktion 1C : G → {0, 1} mit
(
1 falls E(C) ⊆ E(G)
1C (G) =
0 anderenfalls
definiert und mit Xi (G) die Anzahl der (nicht notwendigerweise induzierten) Kreise
der Länge i in G bezeichnet. Damit gilt
M (n,i)
Xi (G) =
X
j=1
sowie

M (n,i)
E[Xi ] = E 
X
j=1
1C j (G) und E[1C ] = P [E(C) ⊆ E(G)] = pi .

1C j  =
M (n,i)
X
j=1
M (n,i)
E[1C j ] =
X
j=1
i
ni pi
ng
p = M (n, i)p ≤
=
.
2i
2i
i
i
Also erhalten wir mit Hilfe der Markow’schen Ungleichung (hier für die 1. Abschätzung verwendet)
" g−1
#
Pg−1 g−1
i
g−1
g−1
g−1
X
X
X
E
n
2E[Xi ] X n g
n g
(g − 1)
i=3 Xi
P
Xi ≥
≤
=
≤
≤
= √
.
n
g
2
n
i
·
n
3n
3
n
2
i=3
i=3
i=3
i=3
KAPITEL 8. AUSZÜGE DER PROBABILISTISCHEN GRAPHENTHEORIE
4
l
m
Sei y = p3 ln(n) + 1. Wir definieren für Y ∈ Vy die Indikatorfunktion 1Y : G →
{0, 1} mit
(
1 falls Y unabhängig in G ist.
1Y (G) =
.
0 anderenfalls
Damit folgt
y
E[1Y ] = P [Y ist unabhängig in G] = (1 − p)(2) .
Ist also mit Z(G) die Anzahl der unabhängigen Mengen mit Größe y in G bezeichnet,
so folgt
X
1Y (G)
Z(G) =
V
Y ∈( y )
sowie mit der Markow’schen Ungleichung (hier für die 1. Abschätzung verwendet)
und (1 − x) ≤ e−x für x ∈ [0, 1], dass


X
X
y
 X

P [Z ≥ 1] ≤ E[Z] = E 
1Y  =
E[1Y ] =
(1 − p)(2)
Y ∈(Vy )
Y ∈(Vy )
Y ∈(Vy )
i
h
−p(y−1) y
y
y
y
n
=
(1 − p)(2) ≤ ny · (1 − p)(2) ≤ ny · e−p(2) = n · e 2
y
#y "
#y
"
3 ln(n)
3 ln(n)
h
iy
−p( p
−p(d p
e)
)
y
− 23
2
2
≤ n·e
= n·n
= n·e
= n− 2
3
≤ n− 2p ln(n) = n
− 32
n ln(n)
√
gn
=h
1
n
n ln(n)
√
gn
i 32
Mit Grenzwertbetrachtungen erhalten wir
" g−1
#
X
n
(g − 1)
√ =0
0 ≤ lim P
Xi ≥
≤ lim
n→∞
n→∞
2
3gn
i=3
und
− 23
0 ≤ lim P [Z ≥ 1] ≤ lim n
n→∞
n→∞
n ln(n)
√
gn
= 0.
Falls also n groß genug ist, gibt es einen Graphen G0 mit n Knoten, der höchstens n2 kleine Kreise, d.h. Kreise der Länge maximal g − 1, besitzt, und für den
α(G0 ) ≤ p3 ln(n) + 1 gilt. Wir können also durch das Entfernen von höchstens n2 Knoten aus G0 einen Graphen G? erhalten, der (C3 , C4 , . . . , Cg−1 )-frei ist.
Mit Beobachtung 7.2 folgt also
√
g
n − n2
n(G? )
n(G? )
n
?
√
χ(G ) ≥
≥
≥
=
.
g
3
?
0
α(G )
α(G )
ln(n) + 1
6 ln(n) + 2 n n
p
Falls n also groß ist, folgt χ(G? ) ≥ k.
Bollobás verwendet im Beweis zu Satz 4.24 grundsätzlich ähnliche Methoden, benötigt
aber kompliziertere analytische Methoden in seinen Grenzwertbetrachtungen.
Herunterladen