Randomisierte Algorithmen“ ¨Ubungsblatt 5, WS 2009/10

Werbung
TU Ilmenau, Fakultät IA
Institut für Theoretische Informatik
FG Komplexitätstheorie und Effiziente Algorithmen
Univ.-Prof. Dr. Martin Dietzfelbinger, Dr. Ulf Schellbach
http://www.tu-ilmenau.de/fakia/RA WS09.html
Randomisierte Algorithmen“
”
Übungsblatt 5, WS 2009/10
Besprechung: Freitag, den 15.01.2010
(Mit Möglichkeit zum Vorrechnen.)
Aufgabe 1 (Quicksort benötigt O(n log n) Schritte mit hoher Wahrscheinlichkeit)
Sei n ≥ 1 ganzzahlig, L := dlog3/2 ne, sowie c ≥ 6 ganzzahlig und so groß, dass
e−(1−3/c)
2
<
3/c
3
(3/c)
gilt. Seien weiter Y1 , Y2 , . . . , YcL unabhängige, 0-1-wertige Zufallsvariablen mit Pr(Yi = 1) = 1/3
und sei Y := Y1 + · · · + YcL .
(a) Zeigen Sie:
1
.
n2
Hinweis: Anwendung der Chernoff-Hoeffding-Ungleichung in der zweiten Form:
Pr(X ≤ (1 − ε)m) ≤ (e−ε /(1 − ε)1−ε )m .
Pr(Y ≤ L) ≤
(b) Verfolgen Sie bei randomisiertem Quicksort für Input (a1 , . . . , an ), wobei die ai paarweise
verschieden sind, das Schicksal“ eines Schlüssels z, z ∈ {a1 , . . . , an }. Wir nennen einen
”
partition-Aufruf für ein Teilarray A[a..b], in dem z vorkommt, gut für z, wenn nach dem
Aufruf das neue Teilarray, in dem z steht, höchstens 32 (b − a + 1) Einträge hat (oder wenn
z als Pivot gewählt wird).
Argumentieren Sie, dass ein fest gewähltes z höchstens L = dlog3/2 ne gute Aufrufe
erleben“ kann.
”
(c) Zeigen Sie: Wenn z in A[a..b] liegt und partition für A[a..b] ausgeführt wird, ist die
Wahrscheinlichkeit, dass dieser Aufruf gut für z ist, mindestens 1/3.
(d) Argumentieren Sie: Die Wahrscheinlichkeit, dass unter den ersten cL partitionAufrufen, an denen z beteiligt ist, weniger als L viele gut für z sind, ist durch 1/n2 nach
oben beschränkt.
(e) Argumentieren Sie: Es gibt eine Konstante C, so dass die Wahrscheinlichkeit, dass beim
randomisierten Quicksort mehr als Cn log n Vergleiche ausgeführt werden, durch 1/n nach
oben beschränkt ist.
Aufgabe 2 (Chernoff-Hoeffding für Summen geometrisch verteilter Zufallvariabler)
Seien Z1 , Z2 , Z3 , . . . unabhängige Zufallsvariable, die jeweils zum Parameter p, 0 < p < 1,
geometrisch verteilt sind. (Siehe Übungsblatt 2, Aufgabe 3.) Diese Zufallsvariablen modellieren
die Wartezeit auf einen Erfolg bei unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p.
Weiter sei für k ≥ 1 die Zufallsvariable Yk definiert durch Yk = Z1 +Z2 +· · ·+Zk . Dann modelliert
Yk die Wartezeit auf k Erfolge bei unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p.
Wir wollen eine Art Hoeffding-Chernoff-Schranke für Yk ermitteln.
(a) Zeigen Sie:
E(Yk ) = kp .
2
Randomisierte Algorithmen“
”
Übungsblatt 5, WS 2009/10
(b) Finden Sie eine obere Schranke für Pr Yk ≥ (1 + ε) kp .
Hinweis: Wenn X1 , X2 , X3 , . . . unabhängige 0-1-Zufallsvariable mit Pr(Xi = 1) = p sind,
dann kann man sich vorstellen, dass Yk wie folgt definiert ist:
Yk = min{i | X1 + X2 + · · · + Xi ≥ k}.
Also gilt für ganzzahlige t, dass Pr (Yk > t) = Pr(X1 + · · · + Xt < k). Nun kann man die
Hoeffding-Chernoff-Schranke aus Aufgabe 1 ins Spiel bringen.
(c) (Optional.) Finden Sie eine obere Schranke für Pr Yk ≤ (1 − ε) kp .
(d) Benutzen Sie das Ergebnis von (b) und (c), um folgende Strategie zu analysieren: Gegeben
ist eine unfaire Münze, die mit Wahrscheinlichkeit p Kopf und mit Wahrscheinlichkeit 1−p
Zahl zeigt. Der unbekannte Parameter p soll geschätzt werden.
Man wirft die Münze mehrmals, bis genau k-mal Kopf erschienen ist. Die beobachtete Zahl
der Versuche ist Y . Nun gibt man p̂ = k/Y als Schätzwert für p aus. Es soll etwas über
die Wahrscheinlichkeit gesagt werden, dass man mit dieser Schätzung weit vom echten p
entfernt liegt.
Aufgabe 3
(Vierfach unabhängige Suche)
In dem in Kapitel 4.1 der Vorlesung beschriebenen Szenario (die Menge A ist ein Zp , A ⊇ B 6= ∅,
% = |B|/|A|) seien die Zufallsvariablen Xi , 0 ≤ i ≤ p − 1, jetzt definiert durch
Xi = (a0 + a1 i + a2 i2 + a3 i3 ) mod p ,
wobei a0 , a1 , a2 , a3 ∈ A = Zp zufällig gewählt werden. Erinnerung (siehe Blatt 4, Aufg. 2):
Wenn i1 , . . . , i4 verschieden sind, dann sind Xi1 , . . . , Xi4 unabhängig; jede ist uniform in Zp
verteilt.
Wie in der Vorlesung sei Yi = 1, falls Xi ∈ B, und Yi = 0 sonst, und es sei Zi = Y0 + · · · + Yi−1 .
(a) Zeigen Sie:
E (Zi − i%)4
Pr(Zi = 0) ≤
(i%)4
Hinweis: Verallgemeinerte Markovsche Ungleichung.
(b) (Etwas schwieriger.) Beweisen Sie:
E (Zi − i%)4 ≤ i% + 3(i%)2
Hinweis: Für unabhängige Zufallsvariablen X, Y ist der Erwartungswert
multiplikativ,
P
d. h., es ist E(X · Y ) = E(X) · E(Y ). Man multipliziere E ( 0≤j<i (Yj − %))4 aus und
vereinfache mit der Multiplikationsregel. Dabei fallen sehr viele Terme weg, weil E(Yj −%) =
0 ist.
(c) (Wieder leicht.) Zeigen Sie:
Pr(Zi = 0) ≤
3
1
+
3
(i%)
(i%)2
Falls i% ≥ 1 gilt, ist dies nicht größer als 4/(i%)2 .
(d) Zeigen Sie:
1
%
P
Hinweis: Den Erwartungswert schätzt man mit der Formel E(#Tests) = i Pr(#Tests ≥
i) und Teil (c) ab. Die entstehende Summe wird durch ein Integral abgeschätzt.
E(#Tests) = O
Herunterladen