Fakultät für Informatik Professur Theoretische Informatik und Informationssicherheit Wintersemester 2013/14 Prof. Dr. Hanno Lefmann Randomisierte Algorithmen 11. Aufgabe Aufgabe 11a Zwei Aufgaben zur Markov-Ungleichung: 1. Zeigen oder widerlegen Sie: Die Markov-Ungleichung P r[X ≥ α] ≤ E[X]/α, ∀α > 0 gilt für alle diskreten Zufallsvariablen X. 2. Wir betrachten eine Zufallsvariable X, die Werte aus Z annehmen kann, und für die gilt P r[X = −i] ≤ 1/2 · P r[X = i] ∀ i ∈ N. Geben Sie eine Version der Markov-Ungleichung für solche Zufallsvariablen an. Aufgabe 11b Eine Chernoff-Ungleichung ist z. B. die folgende: Für n Zufallsvariablen X1 , . . . , Xn , die unabhängig voneinander mit Wahrscheinlichkeit p ∈ (0, 1) auf 1 und mit Wahrscheinlichkeit 1 − p auf 0 gesetzt werden, gilt für die Zufallsvariable X = X1 + . . . + Xn und alle δ > 0: Pr[X ≥ (1 + δ) · E[X]] ≤ e− min{δ,δ 2 } ·E[X] 3 . Es sei p = 1/2. 1. Wie groß ist E[X] in Abhängigkeit von n? 2. Welche obere Schranke liefert diese Chernoff-Ungleichung für die Wahrscheinlichkeit, dass X mindestens 58 · n ist? Was ist also eine obere Schranke für die Wahrscheinlichkeit, bei 1000 Münzwürfen mindestens 625 mal Kopf” zu ” werfen? 3. Welche obere Schranke liefert die Markov-Ungleichung für diese Wahrscheinlichkeit? 4. Wieso sind die Werte aus 2. und 3. so extrem unterschiedlich? Aufgabe 11c Wir betrachten n unabhängige Zufallsvariablen X1 , . . . , Xn , die jeweils mit Wahrscheinlichkeit p ∈ (0, 1) gleich 1 und sonst gleich 0 sind. Für die Summe X = X1 + . . . + Xn der Zufallsvariablen ist der Erwartungswert gleich pn. Wir betrachten die Chernoff-Ungleichung, die Pr[X ≥ (1 + δ)pn] ≤ eδ (1 + δ)1+δ pn besagt. Zeigen Sie, dass für alle δ > 0 die rechte Seite der Ungleichung nichttrivial, d. h. kleiner als 1 ist. Aufgabe 11d Wir wählen zufällig 0-1-Vektoren der Länge m, indem wir jeden Eintrag jeweils mit Wahrscheinlichkeit 1/2 unabhängig von den anderen auf 1 bzw. 0 setzen. Der Hamming-Abstand d(v, w) ist für zwei Vektoren v, w die Anzahl der Stellen, an denen sich die beiden Vektoren unterscheiden. Z.B. ist d((1, 1, 0), (0, 1, 1)) = 2. 1. Bestimmen Sie die Wahrscheinlichkeit, dass zwei zufällig erzeugte Vektoren v, w einen Hammingabstand d(v, w) < d haben für gegebenes 1 ≤ d ≤ m. 2. Wir erzeugen n zufällige Vektoren. Wie groß ist die erwartete Anzahl von Paaren v, w unter diesen Vektoren, die einen Hammingabstand d(v, w) < d haben? P −1 d−1 m 3. Zeigen Sie: Für natürliche Zahlen n, d, m mit (2n − 1) ≤ 2m · i=0 i gilt, dass es eine Menge von n Vektoren der Länge m gibt, so dass der minimale Abstand d(v, w) zweier Vektoren v, w aus der Menge mindestens d ist.