Die Methode des zweiten Moments The second moment method Christoph Schmidt Seminar: Extremal combinatorics July 16, 2004 Übersicht I Einleitung I Chebyshev Ungleichung I Mathematische Grundlagen I Anwendung I: Mengenseparatoren I (Anwendung II: Schwellwertfunktion einer 4-Clique) Einleitung Varianz : mittlere quadratische Abweichung vom Erwartungswert Einleitung Varianz : mittlere quadratische Abweichung vom Erwartungswert Var [X ] = E [(X − EX )2 ] = E [X 2 ] −E [X ]2 | {z } 2.Moment Einleitung Varianz : mittlere quadratische Abweichung vom Erwartungswert Var [X ] = E [(X − EX )2 ] = Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. E [X 2 ] −E [X ]2 | {z } 2.Moment Einleitung Varianz : mittlere quadratische Abweichung vom Erwartungswert Var [X ] = E [(X − EX )2 ] = Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. E [X 2 ] −E [X ]2 | {z } 2.Moment Die Methode des 2. Moments I Verfahren zum Beweis der Existenz einer kombinatorischen Struktur mit bestimmten Eigenschaften. I Spezialfall der probabilistischen Methode Die Methode des 2. Moments I Verfahren zum Beweis der Existenz einer kombinatorischen Struktur mit bestimmten Eigenschaften. I Spezialfall der probabilistischen Methode I verwendet Aussage: Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. Die Methode des 2. Moments I Verfahren zum Beweis der Existenz einer kombinatorischen Struktur mit bestimmten Eigenschaften. I Spezialfall der probabilistischen Methode I verwendet Aussage: Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. I mathematisch formal fassbar in der Chebyshev-Ungleichung Die Chebyshev-Ungleichung Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. I Chebyshev-Ungleichung : P(|X −E [X ]| ≥ λ) ≤ Var [X ] λ2 Die Chebyshev-Ungleichung Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. I Chebyshev-Ungleichung : P(|X −E [X ]| ≥ λ) ≤ Var [X ] λ2 Die Chebyshev-Ungleichung Kernsatz Ist die Varianz sehr klein (viel kleiner als E [X ]2 ), so ist X fast immer fast gleich seinem Erwartungswert. I Chebyshev-Ungleichung : P(|X −E [X ]| ≥ λ) ≤ I Var [X ] λ2 Setze λ = E [X ] : P(X = 0) ≤ P(|X −E [X ]| ≥ E [X ]) ≤ Var [X ] E [X ]2 Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft I Existiert ein Objekt, dass diese Eigenschaft erfüllt ? Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft I Existiert ein Objekt, dass diese Eigenschaft erfüllt ? I Lege einen Wahrscheinlichkeitsraum über alle Objekte Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft I Existiert ein Objekt, dass diese Eigenschaft erfüllt ? I Lege einen Wahrscheinlichkeitsraum über alle Objekte I Modelliere mit X die Anzahl der zählbaren Eigenschaften in einem Objekt Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft I Existiert ein Objekt, dass diese Eigenschaft erfüllt ? I Lege einen Wahrscheinlichkeitsraum über alle Objekte I Modelliere mit X die Anzahl der zählbaren Eigenschaften in einem Objekt I Beweise mit der Gleichung P(X = 0) < 1. Anwendung des Spezialfalls I Betrachte eine zählbare Eigenschaft I Existiert ein Objekt, dass diese Eigenschaft erfüllt ? I Lege einen Wahrscheinlichkeitsraum über alle Objekte I Modelliere mit X die Anzahl der zählbaren Eigenschaften in einem Objekt I Beweise mit der Gleichung P(X = 0) < 1. I ⇒ Also muss ein Objekt mit der Eigenschaft existieren, weil P(X ≥ 1) > 0. Die Methode des 2.Moments Die Methode des zweiten Moments allgemein: Anwendung der Probabilistischen Methode unter Verwendung der Chebyshev-Ungleichung Übersicht I Einleitung I Chebyshev Ungleichung I Mathematische Grundlagen I Anwendung I: Mengenseparatoren I Anwendung II: Schwellwertfunktion einer 4-Clique Varianzrechnung Sei X = X1 + ... + Xn . Dann ist Var [X ] = n X i,j=1 Cov [Xi , Xj ] = n X i=1 Var [Xi ] + X i6=j Cov [Xi , Xj ] Varianzrechnung Sei X = X1 + ... + Xn . Dann ist Var [X ] = n X i,j=1 Cov [Xi , Xj ] = n X i=1 Var [Xi ] + X i6=j Kovarianz Cov [Xi , Xj ] = E [Xi Xj ] − E [Xi ]E [Xj ]. Cov [Xi , Xj ] Varianzrechnung Sei X = X1 + ... + Xn . Dann ist Var [X ] = n X i,j=1 Cov [Xi , Xj ] = n X i=1 Var [Xi ] + X Cov [Xi , Xj ] i6=j Kovarianz Cov [Xi , Xj ] = E [Xi Xj ] − E [Xi ]E [Xj ]. Xi und Xj stochastisch unabhängig ⇒ E [Xi Xj ] = E [Xi ]E [Xj ] ⇒ Cov [Xi , Xj ] = 0. Cov [Xi , Xj ] leistet keinen Beitrag zur Varianz von X. Chebyshev-Ungleichung für Folgen Gegeben: a1 , ..., an monoton steigend, b1 , ..., bn monoton fallend Es gilt: n n n X X 1 X ai )( bj ) ai bi ≤ ( n i=1 i=1 j=1 Chebyshev-Ungleichung für Folgen Gegeben: a1 , ..., an monoton steigend, b1 , ..., bn monoton fallend Es gilt: n n n X X 1 X ai )( bj ) ai bi ≤ ( n i=1 i=1 j=1 Beweis: X i = X 1X X 1 XX ai bj = ai bi − ai bj n n i j i i j 1 XX 1 XX (ai bi − ai bj ) = (ai bi + aj bj − ai bj − aj bi ) n 2∗n i = ai bi − j i j 1 XX 1 XX (ai (bi −bj )−aj (bi −bj )) = (ai −aj )(bi −bj ) ≤ 0 2∗n 2∗n i j da a1 , ..., an % und b1 , ..., bn & i j Anwendung I: Mengenseparatoren I Betrachte Berechnungskomplexität von Funktionen I Modell: Branching programs Anwendung I: Mengenseparatoren I Betrachte Berechnungskomplexität von Funktionen I Modell: Branching programs I Beispiel: f = (a ∨ b) ∧ (b ∨ c) ↓ b 1 0 c a 0 1 0 0 1 1 Nichtdeterministische Branching programs I Erweiterung von BPs um ,,Rate”knoten Nichtdeterministische Branching programs I I Erweiterung von BPs um ,,Rate”knoten Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer diesen aus. Nichtdeterministische Branching programs I I I Erweiterung von BPs um ,,Rate”knoten Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer diesen aus. Entspricht logischem ,,∨” Nichtdeterministische Branching programs I I I I Erweiterung von BPs um ,,Rate”knoten Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer diesen aus. Entspricht logischem ,,∨” Beispiel: ↓ ? ? ? a b 0 1 0 0 1 1 Nichtdeterministische Branching programs I I I I Erweiterung von BPs um ,,Rate”knoten Wenn es einen Pfad zu einer 1-Senke gibt,wählt der Computer diesen aus. Entspricht logischem ,,∨” Beispiel: ↓ ? ? ? a b 0 1 0 I 0 1 1 Entspricht der Formel f = a ∨ b Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. I Durch Nichtdeterminismus oft verbesserbar. Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. I Durch Nichtdeterminismus oft verbesserbar. I Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) 6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6) Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. I Durch Nichtdeterminismus oft verbesserbar. Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) 6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6) ? Berechnungslänge 5 ,,(a ∧ b) ∨ (b ∧ d)” ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 3 Variablen ⇒ Berechnungslänge 4 I Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. I Durch Nichtdeterminismus oft verbesserbar. Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) 6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6) ? Berechnungslänge 5 ,,(a ∧ b) ∨ (b ∧ d)” ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 3 Variablen ⇒ Berechnungslänge 4 I I Frage: Wie gut ist Reduktion für gegebene Formel? I Antwort: Satz von Beame, Saks, Thathachar Verbesserung der Berechnungstiefe I Zu einer Formel mit n Variablen gibt es ein BP mit Berechnungstiefe n. I Durch Nichtdeterminismus oft verbesserbar. Beispiel: f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) 6 Variablen ⇒ Berechnungslänge 7 (B.tiefe 6) ? Berechnungslänge 5 ,,(a ∧ b) ∨ (b ∧ d)” ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 3 Variablen ⇒ Berechnungslänge 4 I I Frage: Wie gut ist Reduktion für gegebene Formel? I Antwort: Satz von Beame, Saks, Thathachar I Dazu: Umformulierung in Mengen Separator Sei F = {F1 , ...Fm }, Fi ⊆ X Separator Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von F disjunkt zu S oder zu T ist. Separator Sei F = {F1 , ...Fm }, Fi ⊆ X Separator Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von F disjunkt zu S oder zu T ist. Beispiel X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}} S = {1, 3}, T = {4, 5} (S,T) ist Separator von F. Separator Sei F = {F1 , ...Fm }, Fi ⊆ X Separator Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von F disjunkt zu S oder zu T ist. Beispiel X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}} S = {1, 3}, T = {4, 5} (S,T) ist Separator von F. Die Größe eines Separators ist das Minimum von |S| und |T |. Separator Sei F = {F1 , ...Fm }, Fi ⊆ X Separator Paar (S,T) disjunkter Teilmengen von X, wobei jedes Element von F disjunkt zu S oder zu T ist. Beispiel X = {1, 2, 3, 4, 5}, F = {{1, 2, 3}, {4, 5}, {2, 5}} S = {1, 3}, T = {4, 5} (S,T) ist Separator von F. Die Größe eines Separators ist das Minimum von |S| und |T |. Beispiel Die Größe von (S,T) ist min(|{1, 3}|,|{4, 5}|)=2 Grad eines Elementes Grad dx Anzahl der Elemente von F, die x enthalten. Grad eines Elementes Grad dx Anzahl der Elemente von F, die x enthalten. Beispiel F = {{1, 2, 3}, {4, 5}, {2, 5}} Der Grad d5 ist 2. Grad eines Elementes Grad dx Anzahl der Elemente von F, die x enthalten. Beispiel F = {{1, 2, 3}, {4, 5}, {2, 5}} Der Grad d5 ist 2. durchschnittlicher Grad von F d= 1 X dx |X | x∈X Anwendung auf BP-Problem f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) ? ,,(a ∧ b) ∨ (b ∧ d)” 3 Variablen ⇒ Berechnungslänge 4 ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 Anwendung auf BP-Problem f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) ? ,,(a ∧ b) ∨ (b ∧ d)” 3 Variablen ⇒ Berechnungslänge 4 I X: Menge der Variablen ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 X = {a, b, c, d, e, f } Anwendung auf BP-Problem f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) ? ,,(a ∧ b) ∨ (b ∧ d)” 3 Variablen ⇒ Berechnungslänge 4 ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 I X: Menge der Variablen X = {a, b, c, d, e, f } I F: Formel als Familie F = {{a, b}, {c, f }, {b, d}, {c, e}} Anwendung auf BP-Problem f = (a ∧ b) ∨ (c ∧ f ) ∨ (b ∧ d) ∨ (c ∧ e) ? ,,(a ∧ b) ∨ (b ∧ d)” 3 Variablen ⇒ Berechnungslänge 4 ,,(c ∧ f) ∨ (c ∧ e)” 3 Variablen ⇒ Berechnungslänge 4 I X: Menge der Variablen X = {a, b, c, d, e, f } I F: Formel als Familie F = {{a, b}, {c, f }, {b, d}, {c, e}} I S,T: Mengen der eliminierten Variablen S = {c, e, f }, T = {a, b, d} Satz von Beame,Saks,Thathachar(’98) Satz Sei X eine Menge mit N Elementen. F = {F1 , ..., Fm }, Fi 6= ∅, Fi ⊆ X , |Fi | ≤ r . d sei der durchschnittliche Grad von F. Dann hat F einen Separator der Größe mindestens (1 − δ)2−d n, wobei r dr 2d+1 δ= n Beweis des Satzes: Beweis mit der probabilistischen Methode: Beweis des Satzes: Beweis mit der probabilistischen Methode: I Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren Beweis des Satzes: Beweis mit der probabilistischen Methode: I Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren I Beweise,dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0 Beweis des Satzes: Beweis mit der probabilistischen Methode: I Lege Wahrscheinlichkeitsraum über alle möglichen Separatoren I Beweise,dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0 I Dann muss ein Separator mit gewünschter Größe existieren. Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Beispiel Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}} Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Beispiel Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}} Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Beispiel Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}} S = {1, 4, 7} Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Beispiel Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}} S = {1, 4, 7} T = {6, 8} Der Wahrscheinlichkeitsraum Seien X alle in F vorkommenden Elemente und n = |X |. I Färbe jedes F ∈ F unabhängig mit W’keit 1/2 rot oder blau. I S sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi rot sind. I T sei die Menge der x ∈ X ,für die alle Fi mit x ∈ Fi blau sind. Beispiel Sei F = {{1, 2, 3}, {2, 4, 5}, {2, 6, 8}, {3, 5, 8}, {2, 7}, {3, 6}} S = {1, 4, 7} T = {6, 8} Es gilt: S ∩ T = ∅ sowie F ∩ S = ∅ oder F ∩ T = ∅ ∀F ∈ F. Beweis des Satzes Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0. Beweis des Satzes Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0. I Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}. I Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx . I E [Zx ] = P(Zx = 1) = 2−dx . Beweis des Satzes Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0. I Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}. I Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx . I I E [Zx ] = P(Zx = 1) = 2−dx . P Nun sei Z = x Zx . Also gilt: Z = |S| Beweis des Satzes Es bleibt zu zeigen, dass P(|(S, T )| ≥ (1 − δ)2−d n) > 0. I Sei Zx die Indikatorvariable des Ereignisses {x ∈ S}. I Es gilt: P(Zx = 1) = P(x ∈ S) = 2−dx . I I E [Zx ] = P(Zx = 1) = 2−dx . P Nun sei Z = x Zx . Also gilt: Z = |S| E [Z ] = X x E [Zx ] = X x 2−dx ≥ n2− P x dx /n = n2−d Beweis des Satzes arithmetisch-geometrische Ungleichung Aus erstem Vortrag bekannt Seien a1 ,..,an nicht negativ. Dann gilt: n n Y 1 1X ai ≥ ( ai ) n n i=1 E [Z ] = X x E [Zx ] = i=1 X x 2−dx ≥ n2− P x dx /n = n2−d Beschränkung der Varianz I Es soll gezeigt werden, dass Z fast immer fast gleich seinem Erwartungswert ist. I Beschränkung der Varianz nach oben: X X Var [Z ] = Var [Zx ] + Cov (Zx , Zy ) x x6=y Beschränkung der Varianz I Es soll gezeigt werden, dass Z fast immer fast gleich seinem Erwartungswert ist. I Beschränkung der Varianz nach oben: X X Var [Z ] = Var [Zx ] + Cov (Zx , Zy ) x x6=y Zx ∈ {0, 1}. Daher gilt: Var [Zx ] = E [Zx ] −E [Zx ]2 ≤ E [Zx ] | {z } ≤0 Hieraus folgt: X x Var [Zx ] ≤ E [Z ] Beschränkung der Varianz I Es soll gezeigt werden, dass Z fast immer fast gleich seinem Erwartungswert ist. I Beschränkung der Varianz nach oben: X X Cov (Zx , Zy ) Var [Z ] = Var [Zx ] + x x6=y Zx ∈ {0, 1}. Daher gilt: Var [Zx ] = E [Zx ] −E [Zx ]2 ≤ E [Zx ] | {z } ≤0 Hieraus folgt: X x Var [Zx ] ≤ E [Z ] Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + Betrachte x, y ∈ X . P x6=y Cov (Zx , Zy ) Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. ⇒ Cov (Zx , Zy ) = 0 Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. ⇒ Cov (Zx , Zy ) = 0 I 2.Fall:∃F ∈ F mit x, y ∈ F . Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. ⇒ Cov (Zx , Zy ) = 0 I 2.Fall:∃F ∈ F mit x, y ∈ F . Für ein festes x gibt es maximal (r − 1)dx Paare. Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. ⇒ Cov (Zx , Zy ) = 0 I 2.Fall:∃F ∈ F mit x, y ∈ F . Für ein festes x gibt es maximal (r − 1)dx Paare. Für ein solches Paar x,y gilt: Cov (Zx , Zy ) = E [Zx Zy ] −E [Zx ]E [Zy ] ≤ E [Zx Zy ] ≤ E [Zx ] = 2−dx {z } | ≤0 Beschränkung der Varianz II Var [Z ] = P x Var [Zx ] + P x6=y Cov (Zx , Zy ) Betrachte x, y ∈ X . I 1.Fall: kein F ∈ F enthält x und y. ⇒ Zx , Zy sind stochastisch unabhängig. ⇒ Cov (Zx , Zy ) = 0 I 2.Fall:∃F ∈ F mit x, y ∈ F . Für ein festes x gibt es maximal (r − 1)dx Paare. Für ein solches Paar x,y gilt: Cov (Zx , Zy ) = E [Zx Zy ] −E [Zx ]E [Zy ] ≤ E [Zx Zy ] ≤ E [Zx ] = 2−dx {z } | ≤0 X x6=y Cov (Zx , Zy ) ≤ (r − 1) X x dx 2−dx Beschränkung der Varianz III Var [Z ] = X x X x6=y Var [Zx ] + X Cov (Zx , Zy ) x6=y Cov (Zx , Zy ) ≤ (r − 1) X dx 2−dx x Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert. Beschränkung der Varianz III Var [Z ] = X Var [Zx ] + x X X Cov (Zx , Zy ) x6=y Cov (Zx , Zy ) ≤ (r − 1) X dx 2−dx x x6=y Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert. Chebyshev-Ungleichung für Folgen Gegeben: a1 , ..., an monoton steigend,b1 , ..., bn monoton fallend Es gilt: n n n X X 1 X ai bi ≤ ( ai )( bi ) n i=1 i=1 i=1 Beschränkung der Varianz III Var [Z ] = X Var [Zx ] + x X Cov (Zx , Zy ) x6=y Cov (Zx , Zy ) ≤ (r − 1) X dx 2−dx x x6=y ≤ X r − 1 X −dx X ( 2 )( dx ) = d(r − 1)E [Z ] n x x Sortiere {dx } aufsteigend. Dann ist {2−dx } absteigend sortiert. Chebyshev-Ungleichung für Folgen Gegeben: a1 , ..., an monoton steigend,b1 , ..., bn monoton fallend Es gilt: n n n X X 1 X ai bi ≤ ( ai )( bi ) n i=1 i=1 i=1 Beschränkung der Varianz III Var [Z ] = X x Var [Zx ] + X Cov (Zx , Zy ) x6=y Var [Z ] ≤ (d(r − 1) + 1)E [Z ] ≤ drE [Z ], da d = 1P n x dx ≥ 1 gilt. Anwendung der Chebyshev-Ungleichung Chebyshev-Ungleichung P(|X − E [X ]| ≥ λ) ≤ Var [X ] λ2 P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) < Var [Z ] dr ≤ 2 δ 2 E [Z ]2 δ E [Z ] Anwendung der Chebyshev-Ungleichung Chebyshev-Ungleichung P(|X − E [X ]| ≥ λ) ≤ Var [X ] λ2 P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) < Einsetzen von r δ= Var [Z ] dr ≤ 2 δ 2 E [Z ]2 δ E [Z ] dr 2d+1 n und Z = |S| ergibt: P(|S| < (1 − δ)E [Z ]) < drn dr 2d+1 E [Z ] ≤ n 2d+1 n2−d = 1 2 Anwendung der Chebyshev-Ungleichung Chebyshev-Ungleichung P(|X − E [X ]| ≥ λ) ≤ Var [X ] λ2 P(Z < (1−δ)E [Z ]) ≤ P(|Z −E [Z ]| > δE [Z ]) < Einsetzen von r δ= Var [Z ] dr ≤ 2 δ 2 E [Z ]2 δ E [Z ] dr 2d+1 n und Z = |S| ergibt: P(|S| < (1 − δ)E [Z ]) < drn dr 2d+1 E [Z ] ≤ n 2d+1 n2−d Analog lässt sich zeigen:P(|T | < (1 − δ)E [Z ]) < 1 2 = 1 2 Beweisschluss P(|S| < (1 − δ)E [Z ]) < P(|T | < (1 − δ)E [Z ]) < 1 2 1 2 P(|S| ≥ (1−δ)E [Z ], |T | ≥ (1−δ)E [Z ]) > 0 Beweisschluss P(|S| < (1 − δ)E [Z ]) < P(|T | < (1 − δ)E [Z ]) < 1 2 1 2 P(|S| ≥ (1−δ)E [Z ], |T | ≥ (1−δ)E [Z ]) > 0 Somit existiert ein Separator (S,T), der das Theorem erfüllt. Anwendung II: 4-Clique im Zufallsgraphen I n ältere Damen aus Aachen wollen Bridge spielen. I Für ein Bridgespiel braucht man 4 Spieler I Die Damen spielen nur mit anderen Damen, die sie mögen. Anwendung II: 4-Clique im Zufallsgraphen I n ältere Damen aus Aachen wollen Bridge spielen. I Für ein Bridgespiel braucht man 4 Spieler I Die Damen spielen nur mit anderen Damen, die sie mögen. I Annahme: Zwei Aachener Damen mögen sich mit Wahrscheinlichkeit p unabhängig davon, ob sie andere Damen (nicht) mögen. Anwendung II: 4-Clique im Zufallsgraphen I n ältere Damen aus Aachen wollen Bridge spielen. I Für ein Bridgespiel braucht man 4 Spieler I Die Damen spielen nur mit anderen Damen, die sie mögen. I Annahme: Zwei Aachener Damen mögen sich mit Wahrscheinlichkeit p unabhängig davon, ob sie andere Damen (nicht) mögen. I Darstellung als Graph: Fr. Bauer Fr. Maurer Fr. Meier Fr. Schulz Fr. Müller Zufallsgraph I Graph G(n,p) mit n Knoten I Jede Kante ist stochastisch unabhängig mit Wahrscheinlichkeit p vorhanden. Zufallsgraph I Graph G(n,p) mit n Knoten I Jede Kante ist stochastisch unabhängig mit Wahrscheinlichkeit p vorhanden. I Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten. I Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten. Zufallsgraph I Graph G(n,p) mit n Knoten I Jede Kante ist stochastisch unabhängig mit Wahrscheinlichkeit p vorhanden. I Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten. I Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten. I Wie hoch ist die Wahrscheinlichkeit, dass ein solcher Graph eine 4-Clique enthält? (Wann existiert eine Bridgegruppe?) I Naiv : die Wahrscheinlichkeit steigt linear mit p. Zufallsgraph I Graph G(n,p) mit n Knoten I Jede Kante ist stochastisch unabhängig mit Wahrscheinlichkeit p vorhanden. I Ist p gering, so enthält G(n,p) wahrscheinlich wenige Knoten. I Ist p hoch, so enthält G(n,p) wahrscheinlich viele Knoten. I Wie hoch ist die Wahrscheinlichkeit, dass ein solcher Graph eine 4-Clique enthält? (Wann existiert eine Bridgegruppe?) I Naiv : die Wahrscheinlichkeit steigt linear mit p. Tatsächlich : scharf begrenzter Schwellwert p(n), so dass gilt: p etwas kleiner als p(n) ⇒ G enthält wahrscheinlich keine 4-Clique. p etwas größer als p(n) ⇒ G enthält wahrscheinlich eine 4-Clique Schwellwertfunktion für eine 4-Clique Satz Die Schwellwertfunktion für einen Zufallsgraphen G(n,p), eine 4-Clique zu enthalten, ist p = n−2/3 . Schwellwertfunktion für eine 4-Clique Satz Die Schwellwertfunktion für einen Zufallsgraphen G(n,p), eine 4-Clique zu enthalten, ist p = n−2/3 . Beweis: Seien S Menge von 4 Knoten AS das Ereignis, dass S eine 4-Clique in G(n,p) induziert XS die Indikatorvariable von AS . Schwellwertfunktion für eine 4-Clique Satz Die Schwellwertfunktion für einen Zufallsgraphen G(n,p), eine 4-Clique zu enthalten, ist p = n−2/3 . Beweis: Seien S Menge von 4 Knoten AS das Ereignis, dass S eine 4-Clique in G(n,p) induziert XS die Indikatorvariable von AS . I eine 4-Clique enthält 6 Kanten I Die Kanten kommen s.u. mit W’keit p im Graphen vor I P(AS ) = p 6 ⇒ P(XS = 1) = p 6 ⇒ E [XS ] = p 6 Das Ereignis ,,G enthält eine 4-Clique” P Sei X = XS die Anzahl der 4-Cliquen in G(n,p). p = n−2/3 ist ein Schwellwert des Ereignisses ,,G enthält eine 4-Clique”. Das Ereignis ,,G enthält eine 4-Clique” P Sei X = XS die Anzahl der 4-Cliquen in G(n,p). p = n−2/3 ist ein Schwellwert des Ereignisses ,,G enthält eine 4-Clique”. Formal: 1. P(X ≥ 1) → 0 für p n−2/3 2. P(X ≥ 1) → 1 für p n−2/3 Beweis des Schwellwertes I Beweis zu 1.:P(X ≥ 1) → 0 für p n−2/3 : Folgt aus der Markov-Ungleichung: Markov-Ungleichung P(|X | > c) ≤ E (|X |) c ∀c > 0 Beweis des Schwellwertes I Beweis zu 1.:P(X ≥ 1) → 0 für p n−2/3 : Folgt aus der Markov-Ungleichung: Markov-Ungleichung P(|X | > c) ≤ E (|X |) c ∀c > 0 Sei X ≥ 0, setze c=1 : n 6 n4 p 6 P(X ≥ 1) ≤ E [X ] = →0 p ≤ 24 4 für p n−2/3 Beweis des Schwellwertes II Beweis zu 2.: P(X ≥ 1) → 1 für p n−2/3 Sei p n−2/3 . P(X ≥ 1) → 1 ⇔ P(X = 0) → 0. Spezielle Chebyshev Ungleichung: P(X = 0) ≤ Var [X ] E [X ]2 ⇒ Varianz nach oben abschätzen. Es gilt: X X Var [X ] = Var [XS ] + Cov (XS , XT ) S S6=T Beweis des Schwellwertes II:Varianz Var [X ] = X S Var [XS ] + X Cov (XS , XT ) S6=T Es gilt: I Var [XS ] = E [XS ]− E [XS ]2 ≤ E [XS ] = p 6 | {z } ≥0 Es gibt n4 = O(n4 ) Mengen S ⇒ erste Summe: O(n4 p 6 ) Beweis des Schwellwertes II:Varianz Var [X ] = X S Var [XS ] + X Cov (XS , XT ) S6=T Betrachte Paare S 6= T : I Haben die von S und T induzierten Graphen keine gemeinsamen Kanten ⇒ XS , XT sind s.u. ⇒ Cov (XS , XT ) = 0 Beweis des Schwellwertes II:Varianz Var [X ] = X S Var [XS ] + X Cov (XS , XT ) S6=T Betrachte Paare S 6= T : I Haben die von S und T induzierten Graphen keine gemeinsamen Kanten ⇒ XS , XT sind s.u. ⇒ Cov (XS , XT ) = 0 I Wirksame Anteile für |S ∩ T | = 2 (eine gem. Kante) und |S ∩ T | = 3 (drei gem. Kanten) Beweis des Schwellwertes II:Covarianz I Fall 1:|S ∩ T | = 2 (eine gem. Kante) Es gibt n4 42 n−4 ∈ O(n6 ) 2 Paare S,T mit |S ∩ T | = 2 für sie ist Cov (XS , XT ) = E [XS XT ]− E [XS ]E [XT ] ≤ E [XS XT ] = O(p 11 ), | {z } ≥0 da S ∪ T elf Kanten induziert. ⇒ Beitrag: O(p 11 n6 ) Beweis des Schwellwertes II:Covarianz II Fall 1:|S ∩ T | = 3 (drei gem. Kante) Es gibt n4 43 (n − 4) ∈ O(n5 ) Paare S,T mit |S ∩ T | = 3 für sie ist Cov (XS , XT ) = E [XS XT ]− E [XS ]E [XT ] ≤ E [XS XT ] = O(p 9 ), | {z } ≥0 da S ∪ T 9 Kanten induziert. ⇒ Beitrag: O(p 9 n5 ) Begrenzung der Varianz Insgesamt folgt für die Varianz: Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ), da p n−2/3 . Begrenzung der Varianz Insgesamt folgt für die Varianz: Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ), da p n−2/3 . Die Chebyshev Ungleichung liefert: P(X = 0) ≤ Var [X ] ≤ o(1) E [X ]2 Für p n−2/3 enthält also G(n,p) wahrscheinlich eine 4-Clique. Begrenzung der Varianz Insgesamt folgt für die Varianz: Var [X ] = O(n4 p 6 + n6 p 11 + n5 p 9 ) = o(n8 p 12 ) = o(E [X ]2 ), da p n−2/3 . Die Chebyshev Ungleichung liefert: P(X = 0) ≤ Var [X ] ≤ o(1) E [X ]2 Für p n−2/3 enthält also G(n,p) wahrscheinlich eine 4-Clique. Somit ist p = n−2/3 eine Schwellwertfunktion für das Ereignis ,,G(n,p) enthält eine 4-Clique”. Zusammenfassung I Methode des 2. Moments: Probabilistische Existenzbeweise unter Verwendung der Chebyshev Ungleichung I immer dann sinnvoll, wenn die Varianz von X klein gegenüber E [X ]2 ist I Kombinatorische Fragestellungen elegant lösbar, wenn man geeigneten Zufallsraum gewählt hat