Die Methode des zweiten Moments

Werbung
Die Methode des zweiten Moments
The second moment method
Christoph Schmidt
Seminar: Extremal combinatorics
July 16, 2004
Übersicht
I
Einleitung
I
Chebyshev Ungleichung
I
Mathematische Grundlagen
I
Anwendung I: Mengenseparatoren
I
(Anwendung II: Schwellwertfunktion einer 4-Clique)
Einleitung
Varianz : mittlere quadratische Abweichung vom Erwartungswert
Einleitung
Varianz : mittlere quadratische Abweichung vom Erwartungswert
Var [X ] = E [(X − EX )2 ] =
E [X 2 ]
−E [X ]2
| {z }
2.Moment
Einleitung
Varianz : mittlere quadratische Abweichung vom Erwartungswert
Var [X ] = E [(X − EX )2 ] =
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich
seinem Erwartungswert.
E [X 2 ]
−E [X ]2
| {z }
2.Moment
Einleitung
Varianz : mittlere quadratische Abweichung vom Erwartungswert
Var [X ] = E [(X − EX )2 ] =
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich
seinem Erwartungswert.
E [X 2 ]
−E [X ]2
| {z }
2.Moment
Die Methode des 2. Moments
I
Verfahren zum Beweis der Existenz einer kombinatorischen
Struktur mit bestimmten Eigenschaften.
I
Spezialfall der probabilistischen Methode
Die Methode des 2. Moments
I
Verfahren zum Beweis der Existenz einer kombinatorischen
Struktur mit bestimmten Eigenschaften.
I
Spezialfall der probabilistischen Methode
I
verwendet Aussage:
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich seinem Erwartungswert.
Die Methode des 2. Moments
I
Verfahren zum Beweis der Existenz einer kombinatorischen
Struktur mit bestimmten Eigenschaften.
I
Spezialfall der probabilistischen Methode
I
verwendet Aussage:
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich seinem Erwartungswert.
I
mathematisch formal fassbar in der Chebyshev-Ungleichung
Die Chebyshev-Ungleichung
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich
seinem Erwartungswert.
I
Chebyshev-Ungleichung :
P(|X −E [X ]| ≥ λ) ≤
Var [X ]
λ2
Die Chebyshev-Ungleichung
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich
seinem Erwartungswert.
I
Chebyshev-Ungleichung :
P(|X −E [X ]| ≥ λ) ≤
Var [X ]
λ2
Die Chebyshev-Ungleichung
Kernsatz
Ist die Varianz sehr klein
(viel kleiner als E [X ]2 ),
so ist X fast immer fast gleich
seinem Erwartungswert.
I
Chebyshev-Ungleichung :
P(|X −E [X ]| ≥ λ) ≤
I
Var [X ]
λ2
Setze λ = E [X ] :
P(X = 0) ≤ P(|X −E [X ]| ≥ E [X ]) ≤
Var [X ]
E [X ]2
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
I
Existiert ein Objekt, dass diese Eigenschaft erfüllt ?
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
I
Existiert ein Objekt, dass diese Eigenschaft erfüllt ?
I
Lege einen Wahrscheinlichkeitsraum über alle Objekte
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
I
Existiert ein Objekt, dass diese Eigenschaft erfüllt ?
I
Lege einen Wahrscheinlichkeitsraum über alle Objekte
I
Modelliere mit X die Anzahl der zählbaren Eigenschaften in
einem Objekt
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
I
Existiert ein Objekt, dass diese Eigenschaft erfüllt ?
I
Lege einen Wahrscheinlichkeitsraum über alle Objekte
I
Modelliere mit X die Anzahl der zählbaren Eigenschaften in
einem Objekt
I
Beweise mit der Gleichung P(X = 0) < 1.
Anwendung des Spezialfalls
I
Betrachte eine zählbare Eigenschaft
I
Existiert ein Objekt, dass diese Eigenschaft erfüllt ?
I
Lege einen Wahrscheinlichkeitsraum über alle Objekte
I
Modelliere mit X die Anzahl der zählbaren Eigenschaften in
einem Objekt
I
Beweise mit der Gleichung P(X = 0) < 1.
I
⇒ Also muss ein Objekt mit der Eigenschaft existieren, weil
P(X ≥ 1) > 0.
Die Methode des 2.Moments
Die Methode des zweiten Moments allgemein:
Anwendung der Probabilistischen Methode
unter Verwendung der Chebyshev-Ungleichung
Übersicht
I
Einleitung
I
Chebyshev Ungleichung
I
Mathematische Grundlagen
I
Anwendung I: Mengenseparatoren
I
Anwendung II: Schwellwertfunktion einer 4-Clique
Varianzrechnung
Sei X = X1 + ... + Xn .
Dann ist
Var [X ] =
n
X
i,j=1
Cov [Xi , Xj ] =
n
X
i=1
Var [Xi ] +
X
i6=j
Cov [Xi , Xj ]
Varianzrechnung
Sei X = X1 + ... + Xn .
Dann ist
Var [X ] =
n
X
i,j=1
Cov [Xi , Xj ] =
n
X
i=1
Var [Xi ] +
X
i6=j
Kovarianz Cov [Xi , Xj ] = E [Xi Xj ] − E [Xi ]E [Xj ].
Cov [Xi , Xj ]
Varianzrechnung
Sei X = X1 + ... + Xn .
Dann ist
Var [X ] =
n
X
i,j=1
Cov [Xi , Xj ] =
n
X
i=1
Var [Xi ] +
X
Cov [Xi , Xj ]
i6=j
Kovarianz Cov [Xi , Xj ] = E [Xi Xj ] − E [Xi ]E [Xj ].
Xi und Xj stochastisch unabhängig
⇒ E [Xi Xj ] = E [Xi ]E [Xj ] ⇒ Cov [Xi , Xj ] = 0.
Cov [Xi , Xj ] leistet keinen Beitrag zur Varianz von X.
Chebyshev-Ungleichung für Folgen
Gegeben: a1 , ..., an monoton steigend, b1 , ..., bn monoton fallend
Es gilt:
n
n
n
X
X
1 X
ai )(
bj )
ai bi ≤ (
n
i=1
i=1
j=1
Chebyshev-Ungleichung für Folgen
Gegeben: a1 , ..., an monoton steigend, b1 , ..., bn monoton fallend
Es gilt:
n
n
n
X
X
1 X
ai )(
bj )
ai bi ≤ (
n
i=1
i=1
j=1
Beweis:
X
i
=
X
1X X
1 XX
ai
bj =
ai bi −
ai bj
n
n
i
j
i
i
j
1 XX
1 XX
(ai bi − ai bj ) =
(ai bi + aj bj − ai bj − aj bi )
n
2∗n
i
=
ai bi −
j
i
j
1 XX
1 XX
(ai (bi −bj )−aj (bi −bj )) =
(ai −aj )(bi −bj ) ≤ 0
2∗n
2∗n
i
j
da a1 , ..., an % und b1 , ..., bn &
i
j
Anwendung I: Mengenseparatoren
I
Betrachte Berechnungskomplexität von Funktionen
I
Modell: Branching programs
Anwendung I: Mengenseparatoren
I
Betrachte Berechnungskomplexität von Funktionen
I
Modell: Branching programs
I
Beispiel:
f = (a ∨ b) ∧ (b ∨ c)
↓
b
1
0
c
a
0
1
0
0
1
1
Nichtdeterministische Branching programs
I
Erweiterung von BPs um ,,Rate”knoten
Nichtdeterministische Branching programs
I
I
Erweiterung von BPs um ,,Rate”knoten
Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer
diesen aus.
Nichtdeterministische Branching programs
I
I
I
Erweiterung von BPs um ,,Rate”knoten
Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer
diesen aus.
Entspricht logischem ,,∨”
Nichtdeterministische Branching programs
I
I
I
I
Erweiterung von BPs um ,,Rate”knoten
Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer
diesen aus.
Entspricht logischem ,,∨”
Beispiel:
↓
?
?
?
a
b
0
1
0
0
1
1
Nichtdeterministische Branching programs
I
I
I
I
Erweiterung von BPs um ,,Rate”knoten
Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer
diesen aus.
Entspricht logischem ,,∨”
Beispiel:
↓
?
?
?
a
b
0
1
0
I
0
1
1
Entspricht der Formel f = a ∨ b
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
I
Durch Nichtdeterminismus oft verbesserbar.
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
I
Durch Nichtdeterminismus oft verbesserbar.
I
Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6)
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
I
Durch Nichtdeterminismus oft verbesserbar.
Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6)

?



Berechnungslänge 5

,,(a ∧ b) ∨ (b ∧ d)”
,,(c ∧ f) ∨ (c ∧ e)”


3 Variablen ⇒ Berechnungslänge 4
3 Variablen ⇒ Berechnungslänge 4
I
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
I
Durch Nichtdeterminismus oft verbesserbar.
Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6)

?



Berechnungslänge 5

,,(a ∧ b) ∨ (b ∧ d)”
,,(c ∧ f) ∨ (c ∧ e)”


3 Variablen ⇒ Berechnungslänge 4
3 Variablen ⇒ Berechnungslänge 4
I
I
Frage: Wie gut ist Reduktion für gegebene Formel?
I
Antwort: Satz von Beame, Saks, Thathachar
Verbesserung der Berechnungstiefe
I
Zu einer Formel mit n Variablen gibt es ein BP mit
Berechnungstiefe n.
I
Durch Nichtdeterminismus oft verbesserbar.
Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6)

?



Berechnungslänge 5

,,(a ∧ b) ∨ (b ∧ d)”
,,(c ∧ f) ∨ (c ∧ e)”


3 Variablen ⇒ Berechnungslänge 4
3 Variablen ⇒ Berechnungslänge 4
I
I
Frage: Wie gut ist Reduktion für gegebene Formel?
I
Antwort: Satz von Beame, Saks, Thathachar
I
Dazu: Umformulierung in Mengen
Separator
Sei F = {F1 , ...Fm }, Fi ⊆ X
Separator
Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von
F disjunkt zu S oder zu T ist.
Separator
Sei F = {F1 , ...Fm }, Fi ⊆ X
Separator
Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von
F disjunkt zu S oder zu T ist.
Beispiel
X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}}
S = {1, 3}, T = {4, 5}
(S,T) ist Separator von F.
Separator
Sei F = {F1 , ...Fm }, Fi ⊆ X
Separator
Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von
F disjunkt zu S oder zu T ist.
Beispiel
X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}}
S = {1, 3}, T = {4, 5}
(S,T) ist Separator von F.
Die Größe eines Separators ist das Minimum von |S| und |T |.
Separator
Sei F = {F1 , ...Fm }, Fi ⊆ X
Separator
Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von
F disjunkt zu S oder zu T ist.
Beispiel
X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}}
S = {1, 3}, T = {4, 5}
(S,T) ist Separator von F.
Die Größe eines Separators ist das Minimum von |S| und |T |.
Beispiel
Die Größe von (S,T) ist min(|{1, 3}|,|{4, 5}|)=2
Grad eines Elementes
Grad dx
Anzahl der Elemente von F, die x enthalten.
Grad eines Elementes
Grad dx
Anzahl der Elemente von F, die x enthalten.
Beispiel
F = {{1, 2, 3}, {4, 5}, {2, 5}}
Der Grad d5 ist 2.
Grad eines Elementes
Grad dx
Anzahl der Elemente von F, die x enthalten.
Beispiel
F = {{1, 2, 3}, {4, 5}, {2, 5}}
Der Grad d5 ist 2.
durchschnittlicher Grad von F
d=
1 X
dx
|X |
x∈X
Anwendung auf BP-Problem
f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
?
,,(a ∧ b) ∨ (b ∧ d)”
3 Variablen ⇒ Berechnungslänge 4
,,(c ∧ f) ∨ (c ∧ e)”
3 Variablen ⇒ Berechnungslänge 4
Anwendung auf BP-Problem
f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
?
,,(a ∧ b) ∨ (b ∧ d)”
3 Variablen ⇒ Berechnungslänge 4
I
X: Menge der Variablen
,,(c ∧ f) ∨ (c ∧ e)”
3 Variablen ⇒ Berechnungslänge 4
X = {a, b, c, d, e, f }
Anwendung auf BP-Problem
f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
?
,,(a ∧ b) ∨ (b ∧ d)”
3 Variablen ⇒ Berechnungslänge 4
,,(c ∧ f) ∨ (c ∧ e)”
3 Variablen ⇒ Berechnungslänge 4
I
X: Menge der Variablen
X = {a, b, c, d, e, f }
I
F: Formel als Familie
F = {{a, b}, {c, f }, {b, d}, {c, e}}
Anwendung auf BP-Problem
f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e)
?
,,(a ∧ b) ∨ (b ∧ d)”
3 Variablen ⇒ Berechnungslänge 4
,,(c ∧ f) ∨ (c ∧ e)”
3 Variablen ⇒ Berechnungslänge 4
I
X: Menge der Variablen
X = {a, b, c, d, e, f }
I
F: Formel als Familie
F = {{a, b}, {c, f }, {b, d}, {c, e}}
I
S,T: Mengen der
eliminierten Variablen
S = {c, e, f }, T = {a, b, d}
Satz von Beame,Saks,Thathachar(’98)
Satz
Sei X eine Menge mit N Elementen.
F = {F1 , ..., Fm }, Fi 6= ∅, Fi ⊆ X , |Fi | ≤ r .
d sei der durchschnittliche Grad von F.
Dann hat F einen Separator der Größe mindestens (1 − δ)2−d n,
wobei
r
dr 2d+1
δ=
n
Beweis des Satzes:
Beweis mit der probabilistischen Methode:
Beweis des Satzes:
Beweis mit der probabilistischen Methode:
I
Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren
Beweis des Satzes:
Beweis mit der probabilistischen Methode:
I
Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren
I
Beweise,dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0
Beweis des Satzes:
Beweis mit der probabilistischen Methode:
I
Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren
I
Beweise,dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0
I
Dann muss ein Separator mit gewünschter Größe existieren.
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Beispiel
Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}}
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Beispiel
Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}}
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Beispiel
Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}}
S = {1, 4, 7}
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Beispiel
Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}}
S = {1, 4, 7}
T = {6, 8}
Der Wahrscheinlichkeitsraum
Seien X alle in F vorkommenden Elemente und n = |X |.
I
Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau.
I
S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind.
I
T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind.
Beispiel
Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}}
S = {1, 4, 7}
T = {6, 8}
Es gilt: S ∩ T = ∅
sowie F ∩ S = ∅ oder F ∩ T = ∅ ∀F ∈ F.
Beweis des Satzes
Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0.
Beweis des Satzes
Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0.
I
Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}.
I
Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx .
I
E [Zx ] = P(Zx = 1) = 2−dx .
Beweis des Satzes
Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0.
I
Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}.
I
Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx .
I
I
E [Zx ] = P(Zx = 1) = 2−dx .
P
Nun sei Z = x Zx . Also gilt: Z = |S|
Beweis des Satzes
Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0.
I
Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}.
I
Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx .
I
I
E [Zx ] = P(Zx = 1) = 2−dx .
P
Nun sei Z = x Zx . Also gilt: Z = |S|
E [Z ] =
X
x
E [Zx ] =
X
x
2−dx ≥ n2−
P
x
dx /n
= n2−d
Beweis des Satzes
arithmetisch-geometrische Ungleichung
Aus erstem Vortrag bekannt
Seien a1 ,..,an nicht negativ.
Dann gilt:
n
n
Y
1
1X
ai ≥ ( ai ) n
n
i=1
E [Z ] =
X
x
E [Zx ] =
i=1
X
x
2−dx ≥ n2−
P
x
dx /n
= n2−d
Beschränkung der Varianz
I
Es soll gezeigt werden, dass Z fast immer fast gleich seinem
Erwartungswert ist.
I
Beschränkung der Varianz nach oben:
X
X
Var [Z ] =
Var [Zx ] +
Cov (Zx , Zy )
x
x6=y
Beschränkung der Varianz
I
Es soll gezeigt werden, dass Z fast immer fast gleich seinem
Erwartungswert ist.
I
Beschränkung der Varianz nach oben:
X
X
Var [Z ] =
Var [Zx ] +
Cov (Zx , Zy )
x
x6=y
Zx ∈ {0, 1}. Daher gilt:
Var [Zx ] = E [Zx ] −E [Zx ]2 ≤ E [Zx ]
| {z }
≤0
Hieraus folgt:
X
x
Var [Zx ] ≤ E [Z ]
Beschränkung der Varianz
I
Es soll gezeigt werden, dass Z fast immer fast gleich seinem
Erwartungswert ist.
I
Beschränkung der Varianz nach oben:
X
X
Cov (Zx , Zy )
Var [Z ] =
Var [Zx ] +
x
x6=y
Zx ∈ {0, 1}. Daher gilt:
Var [Zx ] = E [Zx ] −E [Zx ]2 ≤ E [Zx ]
| {z }
≤0
Hieraus folgt:
X
x
Var [Zx ] ≤ E [Z ]
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
Betrachte x, y ∈ X .
P
x6=y
Cov (Zx , Zy )
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
⇒ Cov (Zx , Zy ) = 0
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
⇒ Cov (Zx , Zy ) = 0
I 2.Fall:∃F ∈ F mit x, y ∈ F .
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
⇒ Cov (Zx , Zy ) = 0
I 2.Fall:∃F ∈ F mit x, y ∈ F .
Für ein festes x gibt es maximal (r − 1)dx Paare.
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
⇒ Cov (Zx , Zy ) = 0
I 2.Fall:∃F ∈ F mit x, y ∈ F .
Für ein festes x gibt es maximal (r − 1)dx Paare.
Für ein solches Paar x,y gilt:
Cov (Zx , Zy ) = E [Zx Zy ] −E [Zx ]E [Zy ] ≤ E [Zx Zy ] ≤ E [Zx ] = 2−dx
{z
}
|
≤0
Beschränkung der Varianz II
Var [Z ] =
P
x
Var [Zx ] +
P
x6=y
Cov (Zx , Zy )
Betrachte x, y ∈ X .
I 1.Fall: kein F ∈ F enthält x und y.
⇒ Zx , Zy sind stochastisch unabhängig.
⇒ Cov (Zx , Zy ) = 0
I 2.Fall:∃F ∈ F mit x, y ∈ F .
Für ein festes x gibt es maximal (r − 1)dx Paare.
Für ein solches Paar x,y gilt:
Cov (Zx , Zy ) = E [Zx Zy ] −E [Zx ]E [Zy ] ≤ E [Zx Zy ] ≤ E [Zx ] = 2−dx
{z
}
|
≤0
X
x6=y
Cov (Zx , Zy ) ≤ (r − 1)
X
x
dx 2−dx
Beschränkung der Varianz III
Var [Z ] =
X
x
X
x6=y
Var [Zx ] +
X
Cov (Zx , Zy )
x6=y
Cov (Zx , Zy ) ≤ (r − 1)
X
dx 2−dx
x
Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert.
Beschränkung der Varianz III
Var [Z ] =
X
Var [Zx ] +
x
X
X
Cov (Zx , Zy )
x6=y
Cov (Zx , Zy ) ≤ (r − 1)
X
dx 2−dx
x
x6=y
Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert.
Chebyshev-Ungleichung für Folgen
Gegeben: a1 , ..., an monoton steigend,b1 , ..., bn monoton fallend
Es gilt:
n
n
n
X
X
1 X
ai bi ≤ (
ai )(
bi )
n
i=1
i=1
i=1
Beschränkung der Varianz III
Var [Z ] =
X
Var [Zx ] +
x
X
Cov (Zx , Zy )
x6=y
Cov (Zx , Zy ) ≤ (r − 1)
X
dx 2−dx
x
x6=y
≤
X
r − 1 X −dx X
(
2 )(
dx ) = d(r − 1)E [Z ]
n
x
x
Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert.
Chebyshev-Ungleichung für Folgen
Gegeben: a1 , ..., an monoton steigend,b1 , ..., bn monoton fallend
Es gilt:
n
n
n
X
X
1 X
ai bi ≤ (
ai )(
bi )
n
i=1
i=1
i=1
Beschränkung der Varianz III
Var [Z ] =
X
x
Var [Zx ] +
X
Cov (Zx , Zy )
x6=y
Var [Z ] ≤ (d(r − 1) + 1)E [Z ] ≤ drE [Z ],
da d =
1P
n
x
dx ≥ 1 gilt.
Anwendung der Chebyshev-Ungleichung
Chebyshev-Ungleichung
P(|X − E [X ]| ≥ λ) ≤
Var [X ]
λ2
P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) <
Var [Z ]
dr
≤ 2
δ 2 E [Z ]2
δ E [Z ]
Anwendung der Chebyshev-Ungleichung
Chebyshev-Ungleichung
P(|X − E [X ]| ≥ λ) ≤
Var [X ]
λ2
P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) <
Einsetzen von
r
δ=
Var [Z ]
dr
≤ 2
δ 2 E [Z ]2
δ E [Z ]
dr 2d+1
n
und Z = |S| ergibt:
P(|S| < (1 − δ)E [Z ]) <
drn
dr 2d+1 E [Z ]
≤
n
2d+1 n2−d
=
1
2
Anwendung der Chebyshev-Ungleichung
Chebyshev-Ungleichung
P(|X − E [X ]| ≥ λ) ≤
Var [X ]
λ2
P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) <
Einsetzen von
r
δ=
Var [Z ]
dr
≤ 2
δ 2 E [Z ]2
δ E [Z ]
dr 2d+1
n
und Z = |S| ergibt:
P(|S| < (1 − δ)E [Z ]) <
drn
dr 2d+1 E [Z ]
≤
n
2d+1 n2−d
Analog lässt sich zeigen:P(|T | < (1 − δ)E [Z ]) <
1
2
=
1
2
Beweisschluss
P(|S| < (1 − δ)E [Z ]) <
P(|T | < (1 − δ)E [Z ]) <
1
2
1
2
P(|S| ≥ (1−δ)E [Z ], |T | ≥ (1−δ)E [Z ]) > 0
Beweisschluss
P(|S| < (1 − δ)E [Z ]) <
P(|T | < (1 − δ)E [Z ]) <
1
2
1
2
P(|S| ≥ (1−δ)E [Z ], |T | ≥ (1−δ)E [Z ]) > 0
Somit existiert ein Separator (S,T), der das Theorem erfüllt.
Anwendung II: 4-Clique im Zufallsgraphen
I
n ältere Damen aus Aachen wollen Bridge spielen.
I
Für ein Bridgespiel braucht man 4 Spieler
I
Die Damen spielen nur mit anderen Damen, die sie mögen.
Anwendung II: 4-Clique im Zufallsgraphen
I
n ältere Damen aus Aachen wollen Bridge spielen.
I
Für ein Bridgespiel braucht man 4 Spieler
I
Die Damen spielen nur mit anderen Damen, die sie mögen.
I
Annahme: Zwei Aachener Damen mögen sich mit
Wahrscheinlichkeit p
unabhängig davon, ob sie andere Damen (nicht) mögen.
Anwendung II: 4-Clique im Zufallsgraphen
I
n ältere Damen aus Aachen wollen Bridge spielen.
I
Für ein Bridgespiel braucht man 4 Spieler
I
Die Damen spielen nur mit anderen Damen, die sie mögen.
I
Annahme: Zwei Aachener Damen mögen sich mit
Wahrscheinlichkeit p
unabhängig davon, ob sie andere Damen (nicht) mögen.
I
Darstellung als Graph:
Fr. Bauer
Fr. Maurer
Fr. Meier
Fr. Schulz
Fr. Müller
Zufallsgraph
I
Graph G(n,p) mit n Knoten
I
Jede Kante ist stochastisch unabhängig mit
Wahrscheinlichkeit p vorhanden.
Zufallsgraph
I
Graph G(n,p) mit n Knoten
I
Jede Kante ist stochastisch unabhängig mit
Wahrscheinlichkeit p vorhanden.
I
Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten.
I
Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten.
Zufallsgraph
I
Graph G(n,p) mit n Knoten
I
Jede Kante ist stochastisch unabhängig mit
Wahrscheinlichkeit p vorhanden.
I
Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten.
I
Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten.
I
Wie hoch ist die Wahrscheinlichkeit, dass ein solcher Graph
eine 4-Clique enthält? (Wann existiert eine Bridgegruppe?)
I
Naiv : die Wahrscheinlichkeit steigt linear mit p.
Zufallsgraph
I
Graph G(n,p) mit n Knoten
I
Jede Kante ist stochastisch unabhängig mit
Wahrscheinlichkeit p vorhanden.
I
Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten.
I
Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten.
I
Wie hoch ist die Wahrscheinlichkeit, dass ein solcher Graph
eine 4-Clique enthält? (Wann existiert eine Bridgegruppe?)
I
Naiv : die Wahrscheinlichkeit steigt linear mit p.
Tatsächlich : scharf begrenzter Schwellwert p(n), so dass gilt:
p etwas kleiner als p(n) ⇒ G enthält wahrscheinlich keine 4-Clique.
p etwas größer als p(n) ⇒ G enthält wahrscheinlich eine 4-Clique
Schwellwertfunktion für eine 4-Clique
Satz
Die Schwellwertfunktion für einen Zufallsgraphen G(n,p),
eine 4-Clique zu enthalten, ist p = n−2/3 .
Schwellwertfunktion für eine 4-Clique
Satz
Die Schwellwertfunktion für einen Zufallsgraphen G(n,p),
eine 4-Clique zu enthalten, ist p = n−2/3 .
Beweis:
Seien
S Menge von 4 Knoten
AS das Ereignis, dass S eine
4-Clique in G(n,p) induziert
XS die Indikatorvariable von AS .
Schwellwertfunktion für eine 4-Clique
Satz
Die Schwellwertfunktion für einen Zufallsgraphen G(n,p),
eine 4-Clique zu enthalten, ist p = n−2/3 .
Beweis:
Seien
S Menge von 4 Knoten
AS das Ereignis, dass S eine
4-Clique in G(n,p) induziert
XS die Indikatorvariable von AS .
I eine 4-Clique enthält 6 Kanten
I
Die Kanten kommen s.u. mit W’keit p im Graphen vor
I
P(AS ) = p 6 ⇒ P(XS = 1) = p 6 ⇒ E [XS ] = p 6
Das Ereignis ,,G enthält eine 4-Clique”
P
Sei X = XS die Anzahl der 4-Cliquen in G(n,p).
p = n−2/3 ist ein Schwellwert des Ereignisses ,,G enthält eine
4-Clique”.
Das Ereignis ,,G enthält eine 4-Clique”
P
Sei X = XS die Anzahl der 4-Cliquen in G(n,p).
p = n−2/3 ist ein Schwellwert des Ereignisses ,,G enthält eine
4-Clique”.
Formal:
1. P(X ≥ 1) → 0 für p n−2/3
2. P(X ≥ 1) → 1 für p n−2/3
Beweis des Schwellwertes I
Beweis zu 1.:P(X ≥ 1) → 0 für p n−2/3 :
Folgt aus der Markov-Ungleichung:
Markov-Ungleichung
P(|X | > c) ≤
E (|X |)
c
∀c > 0
Beweis des Schwellwertes I
Beweis zu 1.:P(X ≥ 1) → 0 für p n−2/3 :
Folgt aus der Markov-Ungleichung:
Markov-Ungleichung
P(|X | > c) ≤
E (|X |)
c
∀c > 0
Sei X ≥ 0, setze c=1 :
n 6 n4 p 6
P(X ≥ 1) ≤ E [X ] =
→0
p ≤
24
4
für p n−2/3
Beweis des Schwellwertes II
Beweis zu 2.: P(X ≥ 1) → 1 für p n−2/3
Sei p n−2/3 .
P(X ≥ 1) → 1 ⇔ P(X = 0) → 0.
Spezielle Chebyshev Ungleichung:
P(X = 0) ≤
Var [X ]
E [X ]2
⇒ Varianz nach oben abschätzen.
Es gilt:
X
X
Var [X ] =
Var [XS ] +
Cov (XS , XT )
S
S6=T
Beweis des Schwellwertes II:Varianz
Var [X ] =
X
S
Var [XS ] +
X
Cov (XS , XT )
S6=T
Es gilt:
I
Var [XS ] = E [XS ]− E [XS ]2 ≤ E [XS ] = p 6
| {z }
≥0
Es gibt n4 = O(n4 ) Mengen S ⇒ erste Summe: O(n4 p 6 )
Beweis des Schwellwertes II:Varianz
Var [X ] =
X
S
Var [XS ] +
X
Cov (XS , XT )
S6=T
Betrachte Paare S 6= T :
I
Haben die von S und T induzierten Graphen keine
gemeinsamen Kanten ⇒ XS , XT sind s.u.
⇒ Cov (XS , XT ) = 0
Beweis des Schwellwertes II:Varianz
Var [X ] =
X
S
Var [XS ] +
X
Cov (XS , XT )
S6=T
Betrachte Paare S 6= T :
I
Haben die von S und T induzierten Graphen keine
gemeinsamen Kanten ⇒ XS , XT sind s.u.
⇒ Cov (XS , XT ) = 0
I
Wirksame Anteile für |S ∩ T | = 2 (eine gem. Kante) und
|S ∩ T | = 3 (drei gem. Kanten)
Beweis des Schwellwertes II:Covarianz I
Fall 1:|S ∩ T | = 2 (eine gem. Kante)
Es gibt n4 42 n−4
∈ O(n6 )
2
Paare S,T mit |S ∩ T | = 2
für sie ist
Cov (XS , XT ) = E [XS XT ]− E [XS ]E [XT ] ≤ E [XS XT ] = O(p 11 ),
|
{z
}
≥0
da S ∪ T elf Kanten induziert. ⇒ Beitrag: O(p 11 n6 )
Beweis des Schwellwertes II:Covarianz II
Fall 1:|S ∩ T | = 3 (drei gem. Kante)
Es gibt n4 43 (n − 4) ∈ O(n5 )
Paare S,T mit |S ∩ T | = 3
für sie ist
Cov (XS , XT ) = E [XS XT ]− E [XS ]E [XT ] ≤ E [XS XT ] = O(p 9 ),
|
{z
}
≥0
da S ∪ T 9 Kanten induziert. ⇒ Beitrag: O(p 9 n5 )
Begrenzung der Varianz
Insgesamt folgt für die Varianz:
Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ),
da p n−2/3 .
Begrenzung der Varianz
Insgesamt folgt für die Varianz:
Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ),
da p n−2/3 .
Die Chebyshev Ungleichung liefert:
P(X = 0) ≤
Var [X ]
≤ o(1)
E [X ]2
Für p n−2/3 enthält also G(n,p) wahrscheinlich eine 4-Clique.
Begrenzung der Varianz
Insgesamt folgt für die Varianz:
Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ),
da p n−2/3 .
Die Chebyshev Ungleichung liefert:
P(X = 0) ≤
Var [X ]
≤ o(1)
E [X ]2
Für p n−2/3 enthält also G(n,p) wahrscheinlich eine 4-Clique.
Somit ist p = n−2/3 eine Schwellwertfunktion für das Ereignis
,,G(n,p) enthält eine 4-Clique”.
Zusammenfassung
I
Methode des 2. Moments: Probabilistische Existenzbeweise
unter Verwendung der Chebyshev Ungleichung
I
immer dann sinnvoll, wenn die Varianz von X klein gegenüber
E [X ]2 ist
I
Kombinatorische Fragestellungen elegant lösbar, wenn man
geeigneten Zufallsraum gewählt hat
Herunterladen