Randomisierte Algorithmen

Werbung
Fakultät für Informatik
Professur Theoretische Informatik
und Informationssicherheit
Wintersemester 2013/14
Prof. Dr. Hanno Lefmann
Randomisierte Algorithmen
11. Aufgabe
Aufgabe 11a Zwei Aufgaben zur Markov-Ungleichung:
1. Zeigen oder widerlegen Sie: Die Markov-Ungleichung
P r[X ≥ α] ≤ E[X]/α, ∀α > 0
gilt für alle diskreten Zufallsvariablen X.
2. Wir betrachten eine Zufallsvariable X, die Werte aus Z annehmen kann, und
für die gilt P r[X = −i] ≤ 1/2 · P r[X = i] ∀ i ∈ N. Geben Sie eine Version der
Markov-Ungleichung für solche Zufallsvariablen an.
Aufgabe 11b Eine Chernoff-Ungleichung ist z. B. die folgende: Für n Zufallsvariablen X1 , . . . , Xn , die unabhängig voneinander mit Wahrscheinlichkeit p ∈ (0, 1) auf
1 und mit Wahrscheinlichkeit 1 − p auf 0 gesetzt werden, gilt für die Zufallsvariable
X = X1 + . . . + Xn und alle δ > 0:
Pr[X ≥ (1 + δ) · E[X]] ≤ e−
min{δ,δ 2 }
·E[X]
3
.
Es sei p = 1/2.
1. Wie groß ist E[X] in Abhängigkeit von n?
2. Welche obere Schranke liefert diese Chernoff-Ungleichung für die Wahrscheinlichkeit, dass X mindestens 58 · n ist? Was ist also eine obere Schranke für
die Wahrscheinlichkeit, bei 1000 Münzwürfen mindestens 625 mal Kopf” zu
”
werfen?
3. Welche obere Schranke liefert die Markov-Ungleichung für diese Wahrscheinlichkeit?
4. Wieso sind die Werte aus 2. und 3. so extrem unterschiedlich?
Aufgabe 11c Wir betrachten n unabhängige Zufallsvariablen X1 , . . . , Xn , die jeweils mit Wahrscheinlichkeit p ∈ (0, 1) gleich 1 und sonst gleich 0 sind. Für die
Summe X = X1 + . . . + Xn der Zufallsvariablen ist der Erwartungswert gleich pn.
Wir betrachten die Chernoff-Ungleichung, die
Pr[X ≥ (1 + δ)pn] ≤
eδ
(1 + δ)1+δ
pn
besagt. Zeigen Sie, dass für alle δ > 0 die rechte Seite der Ungleichung nichttrivial,
d. h. kleiner als 1 ist.
Aufgabe 11d Wir wählen zufällig 0-1-Vektoren der Länge m, indem wir jeden Eintrag jeweils mit Wahrscheinlichkeit 1/2 unabhängig von den anderen auf 1 bzw. 0 setzen. Der Hamming-Abstand d(v, w) ist für zwei Vektoren v, w die Anzahl der Stellen,
an denen sich die beiden Vektoren unterscheiden. Z.B. ist d((1, 1, 0), (0, 1, 1)) = 2.
1. Bestimmen Sie die Wahrscheinlichkeit, dass zwei zufällig erzeugte Vektoren
v, w einen Hammingabstand d(v, w) < d haben für gegebenes 1 ≤ d ≤ m.
2. Wir erzeugen n zufällige Vektoren. Wie groß ist die erwartete Anzahl von
Paaren v, w unter diesen Vektoren, die einen Hammingabstand d(v, w) < d
haben?
P
−1
d−1 m
3. Zeigen Sie: Für natürliche Zahlen n, d, m mit (2n − 1) ≤ 2m ·
i=0 i
gilt, dass es eine Menge von n Vektoren der Länge m gibt, so dass der minimale
Abstand d(v, w) zweier Vektoren v, w aus der Menge mindestens d ist.
Herunterladen