Diskrete Strukturen II - Zentralübung (Musterlösung) Michael Tautschnig 23. Mai 2003 Inhaltsverzeichnis 1 Blatt 1 1.1 Jobs und Prozessoren . . . . 1.2 Coupon-Collector-Problem 1.3 Urnen . . . . . . . . . . . . . 1.4 Lotto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 3 4 2 Blatt 2 2.1 Royal Flush . . . . . . . . . . . . . 2.2 Gezinkte Münzen . . . . . . . . . . 2.3 Prozessoren und Speicherzellen . . 2.4 Ziehen mit und ohne Zurücklegen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 6 7 3 Blatt 3 3.1 Verteilung des Minimums . . . . . . . . . . . . . . 3.2 Serverausfälle . . . . . . . . . . . . . . . . . . . . . 3.3 Mensch gegen Maschine . . . . . . . . . . . . . . . 3.4 Gedächtnislosigkeit der geometrischen Verteilung 3.5 Was trifft zu? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 . 9 . 9 . 10 . 10 . 11 4 Blatt 4 4.1 Schärfe der Markov-Ungleichung . . . . . . . . . . . . 4.2 Lastverteilung . . . . . . . . . . . . . . . . . . . . . . . 4.3 Verhältnis geometrisch verteilter Zufallsvariablen . . 4.4 Chernoff für Summen geometrischer Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 13 14 14 5 Blatt 5 5.1 Routerausfälle . . . . . . . . . . . . 5.2 Verteilung von Betrag und Wurzel 5.3 Punkt im Dreieck . . . . . . . . . . 5.4 Lebensdauer . . . . . . . . . . . . . 5.5 Erlang-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 17 17 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korrekturen . . . . . . . . . . . . . . . . . . . . . . . . . 19 1 1 Blatt 1 1.1 Jobs und Prozessoren Gegeben seien ein Parallelrechner mit fünf unterscheidbaren Prozessoren P1 , P2 , . . . P5 und drei voneinander nicht unterscheidbare Jobs. (a) Wieviele Möglichkeiten gibt es, diese Jobs auf die einzelnen Prozessoren zur verteilen, wenn jedem Prozessor höchstens ein Job zugeteilt werden darf? Zu bestimmen: Wieviele Belegungen B gibt es? Dabei ist B eine 3-Teilmenge der 5-Menge P : B ⊂ P, |B| = 3 Ω = {B : B ist Belegung} 5 |Ω| = = 10 3 (b) Wieviele Möglichkeiten gibt es dafür, dass die Prozessoren P1 , P2 , P3 genau zwei und P4 , P5 den verbleibenden Job bekommen? Definiere Ereignis E ⊂ Ω E = {E1 ∪ E2 : E1 ⊂ {P1 , P2 , P3 }, |E1 | = 2, E2 ⊂ {P4 , P5 }, |E2 | = 1} 3 2 |E| = · =6 2 1 (c) Man bestimme die Wahrscheinlichkeit, mit der das in (b) beschriebene Ereignis bei einer zufälligen Verteilung der Jobs eintritt. Definiere Wahrscheinlichkeitsraum Ω = {B : B ist Belegung} = {ω1 , . . . ω|Ω| } |Ω| = Pr[ωi ] = Pr[E] = 5 3 1 i = 1 . . . |Ω| |Ω| X 1 |E| 6 = = |Ω| |Ω| 10 ω∈E 1.2 Coupon-Collector-Problem Es sind k Abziehbilder in Haselnusstafeln versteckt, wobei jedes Bild mit gleicher Wahrscheinlichkeit versteckt ist. Wenn Sie n Haselnusstafeln kaufen, wie groß ist dann die Wahrscheinlichkeit, dass Sie alle Bildchen bekommen? Definiere Wahrscheinlichkeitsraum Ω = t = (t1 , . . . tn ) : ti = {1, . . . k}, i = 1 . . . n = {ω1 , . . . ωn } |Ω| = k n 1 Pr[ωi] = |Ω| 2 i = 1 . . . |Ω| Ereignis A ⊂ Ω: A Pr[A] = {t = (t1 , . . . tn ) : = X Pr[ω] = ω∈A n [ i=1 {ti } = {1 . . . k} X 1 |A| = |Ω| |Ω| ω∈A Was ist |A|? Beispiel: n = 3, k = 2 • t = (2, 1, 1) • I = {1, 2, 3} • B1 = {2, 3}, B2 = {1} Also: Partitioniere die Indexmenge I = {1 . . . n} eines t ∈ A, t = (t1 , . . . tn ) in genau k nicht-leere Teilmengen B1 , . . . Bk ⊂ I. Dabei stehen die Elemente von Bi für diejenigen gekauften Tafeln, in denen das Bild i versteckt war. Somit: Wieviele Möglichkeiten gibt es, eine n-Menge in k unterscheidbare, nicht-leere Teilmengen zu partitionieren? Stirling-Zahlen 2. Art Sn,k : Anzahl der Möglichkeiten eine n-Menge in k nicht-unterscheidbare, nichtleere Teilmengen zu partitionieren. Da die k Teilmengen unterscheidbar sind, haben wir noch den Faktor k! zu berücksichtigen. Insgesamt: |A| = Sn,k · k! Pr[A] = Sn,k · k! kn 1.3 Urnen Gegeben sind zwei Urnen U1 und U2 . In U1 sind zwei weiße und sieben schwarze Kugeln; in U2 sind fünf weiße und sechs schwarze Kugeln. Wir werfen eine faire Münze (d.h., dass die Wahrscheinlichkeiten für Kopf und Zahl gleich sind) und ziehen bei Kopf eine Kugel aus U1 und bei Zahl eine aus U2 . Wie hoch ist die bedingte Wahrscheinlichkeit, dass das Ergebnis des Münzwurfs Kopf war unter der Bedingung, dass eine weiße Kugel gezogen wurde. Definiere Ereignisse • Ui : Kugel aus Ui gezogen, i = {1, 2} • W : Weiße Kugel gezogen • Kopf = U1 , Kopf=U2 Uns interessiert Pr[U1 |W ] Bedingte Wahrscheinlichkeit: siehe Vorlesung Pr[U1 ∩ W ] Pr[W |U1 ] · Pr[U1 ] = Pr[W ] Pr[W ] = (W ∩ U1 ) ] (W ∩ U2 ) Pr[U1 |W ] = W Pr[W ] = Pr[(W ∩ U1 ) ] (W ∩ U2 )] = Pr[W ∩ U1 ] + Pr[W ∩ U2 ] = Pr[W |U1 ] · Pr[U1 ] + Pr[W |U2 ] · Pr[U2 ] 3 Insgesamt: Pr[U1 |W ] = Pr[W |U1 ] · Pr[U1 ] = Pr[W |U1 ] · Pr[U1 ] + Pr[W |U2 ] · Pr[U2 ] 2 9 2 9 · 1 2 · 12 5 + 11 · 1 2 = 22 67 1.4 Lotto Wir betrachten ein einfaches Lottospiel, bei dem 6 aus 49 Zahlen (ohne Zusatzzahl) gezogen werden. Berechnen Sie eine (möglichst gute) Schranke für die minimale Anzahl von Ziehungen bis mit Wahrscheinlichkeit mindestens 1/2 ein Ziehungsergebnis doppelt auftritt. Wie vielen Jahren entspricht dies, wenn jede Woche zwei Ziehungen stattfinden? Definiere Wahrscheinlichkeitsraum Ω = {Z : Z ⊂ {1, . . . 49}, |Z| = 6} = {ω 1 , . . . ω|Ω| } |Ω| = Pr[ωi ] = 49 6 1 i = 1 . . . |Ω| 49 6 Urnenmodell: • n Urnen: Eine Urne entspricht einer bestimmten Zahlenkombination, d.h. ein Element aus Ω • m Bälle: Ein Ball in einer Urne heißt, dass die entsprechende Zahlenkombination gezogen wurde. Definiere Ereignis D ⊂ Ω D: Nach m Würfen gibt es eine Urne mit zwei Bällen. Das ist gleichwertig zum Geburtstagsproblem Pr[D] ≥ 1 − e− m·(m−1) 2n ≥ 1 2 m · (m − 1) ≥ 2n · ln 2 √ m ≥ 2n · ln 2 = 4403 ≈ 42, 5 Jahren 4 2 Blatt 2 2.1 Royal Flush Wie groß ist die Wahrscheinlichkeit für einen Royal Flush beim Poker (Spiel mit 52 Karten, 5 davon werden ausgeteilt, Royal Flush bedeutet 10, B, D, K, A von einer Farbe)? Wie verändert sich die Wahrscheinlichkeit, wenn die letzte Karte offen ausgeteilt wird und es sich dabei um das Herz-Ass handelt? Definiere Wahrscheinlichkeitsraum Ω = T : T ⊂ {1, 2, . . . , 52}, |T | = 5 52 |Ω| = 5 1 Pr[ω] = ∀ω ∈ Ω |Ω| Ereignis R ⊂ Ω: ,,Royal Flush einer Farbe” Es gibt genau 4 Royal Flushs- für jede der Farben Karo, Herz, Pik, Kreuz genau 1 4 Pr[R] = 52 5 Ereignis H ⊂ Ω: ,,Letzte Karte ist Herz-Ass” 1 1 Pr[H] = 52 5 Uns interessiert Pr[R|H] 51 4 1 4 4 ( 52 ) Pr[R ∩ H] Pr[H|R]Pr[R] Pr[R|H] = = = 1 551 = ( 1 )( 4 ) Pr[H] Pr[H] ( 52 5 ) 1 51 4 = 13 · Pr[R] 5 2.2 Gezinkte Münzen Seien drei gezinkte Münzen gegeben (Ergebnis Kopf K oder Zahl Z). Die Wahrscheinlichkeiten für Kopf seien 1/3, 2/3 und 1. Wir werfen eine zufällig gewählte Münze zweimal. Mk bzeichne das Ereignis, dass die k-te Münze gewählt wurde. Kj bezeichne das Ereignis, dass im j-ten Wurf Kopf fällt. Berechnen Sie Pr[Mk |K1 ] für k = 1, 2, 3 sowie Pr[K2 |K1 ]. Ereignisse • K: Kopf • Kj : im j-ten Wurf Kopf • Mk : Münze k gewählt, k = 1, 2, 3 • Pr[K|M1 ] = 1/3 • Pr[K|M2 ] = 2/3 • Pr[K|M3 ] = 1 5 Bedingte Wahrscheinlichkeiten für Pr[Mk |K1 ], k = 1, 2, 3 Satz von Bayes bzw. Satz von der totalen Wahrscheinlichkeit liefert: Pr[Mk |K1 ] = Einsetzen der Wahrscheinlichkeiten: Pr[Mk ∩ K1 ] Pr[K1 |Mk ]Pr[Mk ] = P3 Pr[K1 ] k=1 Pr[K1 |Mk ]Pr[Mk ] Pr[M1 |K1 ] = Pr[M1 |K1 ] = Pr[M1 |K1 ] = 1 6 1 3 1 2 Bestimmung der Wahrscheinlichkeiten für Pr[K2 |K1 ] P3 P3 Pr[K|Mk ]2 Pr[Mk ] Pr[K1 ∩ K2 |Mk ]Pr[Mk ] Pr[K1 ∩ K2 ] = Pk=1 Pr[K2 |K1 ] = = k=1 P3 3 Pr[K1 ] k=1 Pr[K1 |Mk ]Pr[Mk ] k=1 Pr[K|Mk ]Pr[Mk ] 2 2 1 · 13 + 23 · 13 + 12 · 31 7 3 = = 2 1 1 1 1 9 · + · + 3 3 3 3 3 2.3 Prozessoren und Speicherzellen In einem Parallelrechner mit n Prozessoren und n Speicherzellen sende jeder Prozessor gleichzeitig eine Anfrage unabhängig und gleichverteilt an eine Speicherzelle. Jede Speicherzelle kann genau eine Anfrage bedienen. Falls eine Speicherzelle von mehr als einem Prozessor gleichzeitig angefragt wird, so wird keine der Anfragen beantwortet. Sei X die Anzahl der Prozessoren, die ihre Anfrage beantwortet bekommen. Berechnen Sie E[X] und lim E[X] n . n→∞ X: Anzahl der Prozessoren, deren Anfrage beantwortet wird Satz (Linearität des Erwartungswertes) Für Zufallsvariablen X1 , . . . Xn und a1 , . . . an ∈ R gilt: " n # n X X E a i Xi = ai E[Xi ] i=1 i=1 Beweis: E " n X # a i Xi = i=1 n X X ω∈Ω i=1 n n X X X ai Xi (ω) Pr[ω] = ai Xi (ω)Pr[ω] = ai E[Xi ] i=1 i=1 ω∈Ω Was ist E[X]? Xi = 1 wenn i-ter Prozessor Antwort bekommt 0 sonst ⇒X = n X ,,Indikatorvariable” Xi i=1 E[X] = E = = " n X n X i=1 n X i=1 # Xi = n X E[Xi ] i=1 1 · Pr[Xi = 1] + 0 · Pr[Xi = 0] Pr[Xi = 1] i=1 6 Was ist Pr[Xi = 1] n−1 n−1 n n X n − 1 n−1 Pr[Xi = 1] = ⇒ E[X] = Was ist lim n→∞ n i=1 =n· n−1 n n−1 1 n n−1 = lim E[X] n ? E[X] n→∞ n lim = ( z lim 1+ n n→∞ = lim n→∞ ) n =e z n−1 n n−1 = lim n→∞ 1− n n 1 · 1− n→∞ n − 1 n 1 ≈ 0, 36 . . . e 2.4 Ziehen mit und ohne Zurücklegen Aus einer Urne mit den Kugeln 1, . . . n werden k Kugeln gezogen. Die Summe der gezogenen Zahlen wird mit S bezeichnet. (a) Ziehen mit Zurücklegen (Nach dem Ziehen einer Kugel wird diese wieder in die Urne gelegt). Berechnen Sie E[S] und Var[S], wenn die k Kugeln mit Zurücklegen gezogen werden. Xi : Wert der i-ten gezogenen Kugel S = k X Xi i=1 E[S] = E E[Xi ] = E[S] = " k X # Xi = i=1 n X k X E[Xi ] i=1 n 1 X 1 1 1 j · Pr[Xi = j] = · j = · · n · (n + 1) = · (n + 1) | {z } n n 2 2 j=1 j=1 =1/n k X 1 i=1 2 · (n + 1) = k · 1 · (n + 1) 2 Satz (Linearität der Varianz) Für unabhängige Zufallsvariablen X1 , . . . Xn gilt: " n # n X X Var Xi = Var[Xi ] i=1 i=1 Sind die Xi unabhängig? def. X1 , . . . Xn unabhängig ⇔ Pr[Xi = x1 , . . . Xn = xn ] = Pr[X1 = x1 ] · . . . · Pr[Xn = xn ] Pr[X1 = x1 , . . . Xn = xn ] = Y [Xi = xi |X1 = x1 , . . . Xi−1 = xi−1 ] = 7 n Y i=1 Pr[Xi = xi ] ⇒ Xi unabhängig " Var[S] = Var n X # Xi = i=1 n X Var[Xi ] i=1 Var[Xi ] = E[Xi2 ] − E[Xi ]2 = n X j=1 j 2 · Pr[Xi = j] − 1 · (n + 1)2 4 1 1 1 · · n · (n + 1) · (2n + 1) − · (n + 1)2 = (n + 1) · n 6 4 = k X Var[S] = Var[Xi ] = i=1 1 1 1 1 ·n+ − ·n− 3 6 4 4 1 1 · k · (n + 1) · (n − 1) = · k · (n2 − 1) 12 12 (b) Ziehen ohne Zurücklegen (Nach dem Ziehen einer Kugel wird diese nicht mehr in die Urne gelegt). Berechnen Sie E[S] und Var[S], wenn die k Kugeln ohne Zurücklegen gezogen werden. 1 falls Kugel i gezogen Yi = 0 sonst S n X = i=1 1 1 Pr[Yi = 1] = n−1 n X E[S] = i · Yi i=1 Var[S] = Var k−1 n k = (n−1)! (k−1)!(n−1−k+1)! n! k!(n−k)! n X i · Pr[Yi = 1] = " n X i=1 i · Yi # i=1 i· = k n k 1 k k = · · (n + 1) · n = · (n + 1) n n 2 2 Sind die Yi unabhängig? Gegenbeispiel: n > k = 2, Ereignis: Kugel 1 und 2 gezogen: Pr[Y1 = 1 ∩ Y2 = 2] = Pr[Y2 = 2|Y1 = 1] · Pr[Y1 = 1] = E n X i=1 Var[S] = E[S 2 ] − E[S]2 = E !2 i · Yi = E = n X i=1 n X n X i=1 j=1 i 2 n X i=1 i · Yi i · j · Y i · Yj = E[Yi2 ] | {z } =Pr[Yi =1]=k/n + !2 − E[S]2 n X n X i=1 j=1 n X n X j=1 k−1 k k k · = 6 · = Pr[Y2 = 1] · Pr[Y1 = 1] n−1 n n n i=1 i6=j i · j · E[Yi · Yj ] i · j · E[Yi · Yj ] k−1 k · n−1 n n n n X k XX k−1 k 1 E[S 2 ] = i2 + i·j · · = ... = · k · (3kn2 + n2 + 5kn + n + 2k) n n − 1 n 12 j=1 i=1 i=1 Ei6=j [Yi Yj ] = 1 · Pr[Yi = 1, Yj = 1] + 0 · (1 − Pr[]) = j6=i Var[S] = 1 · k · (n + 1) · (n − k) 12 8 3 Blatt 3 3.1 Verteilung des Minimums Es seien X und Y unabhängige Zufallsvariablen mit den Verteilungen FX (t) := Pr[X ≤ t] und FY (t) := Pr[Y ≤ t]. Berechnen Sie für Z := min{X, Y } die Verteilung FZ (t) := Pr[Z ≤ t] (in Abhängigkeit von FX (t) und FY (t)). FZ (t) = Pr[Z ≤ t] = 1 − Pr[Z > t] = 1 − Pr[min{X, Y } > t] = 1 − Pr[X > t ∧ Y > t] unabh. = 1 − Pr[X > t] · Pr[Y > t] = = 1 − 1 − FX (t) 1 − FY (t) 1 − (1 − Pr[X ≤ t]) (1 − Pr[Y ≤ t]) 3.2 Serverausfälle Ein Server fällt am i-ten Tag mit Wahrscheinlichkeit pi aus. X sei die Anzahl der Tage bis zum ersten Ausfall. • pi : Wahrscheinlichkeit für Ausfall am i-ten Tag. qi = 1 − pi • X : Anzahl der Tage bis zum ersten Ausfall a) Bestimmen Sie einen allgemeinen Ausdruck für Pr[X = n] und Pr[X > n]. Pr[X = n] = pn · Pr[X > n] = = n−1 Y qi i=1 ∞ X k=n+1 n ∞ Y X qi i=1 ∞ k−1 X Y Pr[X = k] = k=1 k=n+1 i=1 qi · p k = Pr[X = n + k|X ≥ n] = | {z } =1 n Y n Y i=1 qi · ∞ n+k−1 X Y k=1 i=n+1 qi · pk+n qi i=1 b) Betrachten Sie die Spezialfälle (b1) und (b2), berechnen Sie jeweils Pr[X > n] und entscheiden Sie, ob E[X] existiert, d.h. E[X] < ∞ Trick (Satz 1.43) E[X] = ∞ X k=1 ∞ X k=1 (1) pi = 1 i+1 Pr[X ≥ k] k · Pr[X = k] = Pr[X = 1] + Pr[X = 2] + Pr[X = 2] + Pr[X = 3] + Pr[X = 3] + Pr[X = 3] + . . . = Pr[X ≥ 1] + Pr[X ≥ 2] + Pr[X ≥ 3] . . . Pr[X > n] = E[X] = ∞ Y (1 − i=1 ∞ X k=1 n Y 1 i 1 )= = i+1 i+1 n+1 i=1 1 →∞ k+1 9 (2) pi = 1 − e−λi Pr[X > n] = E[X] = n Y i=1 ∞ X e −λi =e −λ n P i i=1 e−1/2λk(k+1) = e−1/2λn(n+1) geom.Reihe < k=1 ∞ λ≥0 3.3 Mensch gegen Maschine Gary Kasparov und Deep Blue spielen Schach, wobei Deep Blue eine Partie mit Wahrscheinlichkeit p gewinnt. Wie viele Partien spielen die beiden im Mittel, bis einer von Ihnen zwei Partien in Folge für sich entschieden hat? • p: Wahrscheinlichkeit, dass Deep Blue gewinnt; q = 1 − p • Di : Deep Blue gewinnte die i-te Partie • X: Anzahl der Partiien, bis einer von beiden zwei Partien in Folge gewonnen hat E[X] = E[X|D1 ] · Pr[D1 ] + E[X|D1 ] · Pr[D1 ] E[X|D1 ] = E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] + E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] = q · 1 + E[X|D2 ] + 2p = 1 + p + q · E[X|D1 ] E[X|D1 ] = E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] + E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] = (1 + E[X|D2 ]) · p + 2q = 1 + q + p · E[X|D1 ] 2 + p2 E[X|D1 ] = 1 + p + q · (1 + q + p · E[X|D1 ]) = 1 + p + q + q 2 + q · p · E[X|D1 ] = 1 − pq 2 + p2 E[X|D1 ] = 1 + q + p · 1 + p + q · E[X|D1 ] = 1 − pq 2p + pq 2 + 2q + p2 q 2 + pq E[X] = = 1 − pq 1 − pq 3.4 Gedächtnislosigkeit der geometrischen Verteilung Eine Zufallsvariable X heißt gedächtnislos, falls für alle x, y ∈ WX gilt: Pr[X > x + y|X > y] = Pr[X > x]. Zeigen Sie, dass eine Zufallsvariable mit Wertebereich N genau dann geometrisch verteilt ist, wenn sie gedächtnislos ist. ,,⇐” X ∼ Geo(p) Pr[X > x] = ∞ X Pr[X = k] = k=x+1 Pr[X > x + y|X > y] = ∞ X k=x+1 q k−1 · p = q x · ∞ X k=1 | q x+y Pr[X > x + y] = y = q x = Pr[X > x] Pr[X > y] q 10 qk · p = qx {z =1 } ,,⇒” X gedächtnislos mit WX = N Pr[X > x] = Pr[X > 1 + (x − 1)|X > x − 1]Pr[X > (x − 1)] = Pr[X > 1] ·Pr[X > x − 1] = . . . | {z } =:q x = Pr[X > 1] = q x Pr[X = k] = P r[X > k − 1] − Pr[X > k] = q k−1 − q k = q k−1 · 1 − q = q k−1 · p | {z } =p 3.5 Was trifft zu? Zeigen oder widerlegen Sie: (a) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bernoulli(pX ), Y ∼ Bernoulli(pY ) und Z := X ·Y gilt Z ∼ Bernoulli(pX · pY ). Wahr. WZ = {0, 1} Pr[Z = 1] = Pr[X = 1 ∧ Y = 1] = Pr[X = 1] · Pr[Y = 1] = pX · pY Pr[Z = 0] = 1 − pX · pY (b) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bernoulli(pX ), Y ∼ Bernoulli(pY ) und Z := Y . X + Y gilt Z ∼ Bernoulli pX +p 2 Falsch. WZ = {0, 1, 2} Pr[Z = 2] = pX · pY > 0 (c) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bin(n, p), Y ∼ Bin(m, p) und Z := X + Y gilt Z ∼ Bin(n + m, p). Wahr. X Y = = n X i=1 m X i=1 Z Xi Xi ∼ Bernoulli(p) Yi Yi ∼ Bernoulli(p) = X +Y = n X i=1 Xi + m X Yi i=1 (d) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bin(n, pX ), Y ∼ Bin(n, pY ) und Z := X + Y gilt Y Z ∼ Bin 2n, pX +p . 2 Falsch. Gegenbeispiel: X ∼ Bin(n, 1), Y ∼ Bin(n, 0) Z =X +Y =i i 6= n i=n Y Das ist nicht die Verteilung Bin 2n, pX +p . 2 Pr[Z = i] 0 1 (e) Für unabhängige Zufallsvariablen X und Y mit X ∼ Po(λ), Y ∼ Po(µ) und Z := X + Y gilt Z ∼ Po(λ + µ). 11 Wahr. Pr[Z = z] = fZ (z) = ∞ X µ λ p:= λ+µ , q:=1−p= λ+µ = z X e−λ λx e−µ µz−x (z − x)! x z−x (λ + µ)z z! λ µ e−(λ+µ) · · · z! x!(z − x)! λ+µ λ+µ x=0 x=0 = fX (x) · fY (z − x) = z X e−(λ+µ) · (λ + µ)z · z! x=0 x! z X z x=0 | x px (1 − p)z−x {z =1=1z =(1−p+p)z = = (λ + µ)z e−(λ+µ) · z! 12 z P } ( xz )px (1−p)z−x x=0 4 Blatt 4 4.1 Schärfe der Markov-Ungleichung Zeigen Sie, dass die Markov-Ungleichung in folgendem Sinne scharf ist: Geben Sie für jedes t ∈ N jeweils eine positive Zufallsvariable X an, sodass Pr[X ≥ t] = E[X] t gilt. X = t, d.h. Pr[X = t] = t E[X] = ∞ X i=1 iPr[X = i] = t · Pr[X = t] = t · Pr[X ≥ t] ⇒ Pr[X ≥ T ] = E[X] t 4.2 Lastverteilung Angenommen wir haben m Jobs, die wir auf n Rechner in einem Rechnernetz verteilen wollen, wobei zusätzlich m > n gilt. Wir entscheiden uns für folgende Strategie: Jeder der m Jobs wird unabhängig und gleichwahrscheinlich einem der n Rechner zugewiesen. Wir untersuchen die Zufallsvariablen Xi = Anzahl der Jobs im i-ten Rechner für i = 1, . . . n und X = max{Xi : i = 1, . . . n}. Zeigen Sie mit Hilfe der Chernoff-Schranke und der Booleschen Ungleichung r m 1 m + 6 ln n ≤ Pr X ≥ n n n Xi = max Xi i Behauptung r m m 1 Pr X ≥ + 6 ln n ≤ n n n Beweis ∀t > 0 Pr[X ≥ t] = Korollar1.7 ≤ E[X] = Pr [X1 ≥ (1 + δ) · E[X1 ]] = Chernoff ≤ ⇔ ⇔ ⇒ Pr[max Xi ≥ t] = Pr[X1 ≥ t ∨ X2 ≥ t ∨ . . . Xn ≥ t] i n X i=1 ! Pr[Xi ≥ t] = n · Pr[X1 ≥ t] ≤ m ∀i = 1, . . . n nh Pr X1 ≥ (1 + δ) · 1 m 2 n δ e− 3 1 ≤ 1 n2 1 n mi n m 2 δ ≥ 2 ln n 3n r m δ ≥ 6 ln n n r m m m t = (1 + δ) ≥ . . . + 6 ln n n n n 13 4.3 Verhältnis geometrisch verteilter Zufallsvariablen Seien X ∼ Geo(px ) und Y ∼ Geo(pY ) unabhängig und R = X Y . Berechnen Sie (a) Pr[R > 1] Pr[R > 1] = Pr[X > Y ] = ∞ X i=1 = ∞ X i i−1 qX qY p Y Pr[X > i|Y = i] · Pr[Y = i] = q X pY m n (qY qY ) i−1 = = q X pY ∞ X i=1 ∞ X i=1 i=1 (b) Pr R = ∞ X unabh. Pr[X > i] · Pr[Y = i] (qX qY )i geom.Reihe = q X pY i=0 1 1 − q X qY für teilerfremde Zahlen m, n ∈ N ⇔ ggT(m, n) = 1 h mi Pr R = n = = ∞ X i=1 ∞ X Pr[X = i · m ∧ Y = i · n] i·m−1 qX pX i=1 = · qYi·n−1 pY unabh. = pX pY = qX qY m−1 n−1 p X p Y qX qY m qn 1 − qX Y ∞ X i=1 ∞ X Pr[X = i · m] · Pr[Y = i · n] m n i (qX qY ) i=1 ∞ X pX pY = qX qY m n i (qX qY ) i=0 −1 ! = ... 4.4 Chernoff für Summen geometrischer Zufallsvariablen Seien Xi ∼ Geo 1 2 unabhängig für i = 1, . . . n und X = n P Xi , sowie µ = E[X]. Zeigen Sie analog zum i=1 Beweis der Chernoff-Schranke Pr[X ≥ (1 + δ)µ] ≤ Satz " (1 + δ)1+δ p (1 + 2δ)1+2δ Pr[X ≥ (1 + δ)µ] ≤ p !2n (1 + δ)(1+δ) (1 + 2δ)( 1 + 2δ) #2n Beweis (analog zu Chernoff) 0 < t < ln 2 Pr[X ≥ (1 + δ)µ] = E[etX ] = Markov E[etX ] Pr[etX ≥ et(1+δ)µ ] ≤ t(1+δ)µ " #e Y Y P Satz1.64 E[et· Xi ] = E etXi = E[etXi ] i E[etXi ] ∞ X = etj Pr[Xi = j] = j=1 = j=0 (1), (3) ⇒ Pr[X ≥ (1 + δ)µ] ≤ f(t) → e 2 −1= ∞ X etj j X ∞ t j 1 e = 2 2 j=1 1 et − 1 = t 2 − et 1 − e2 n t e 2 − et min Berechnung mit Maple e−t(1+δ)}mu 14 (2) i j=1 ∞ t j X (1) (3) (4) (5) f(tmin ) = e−tmin (1+δ)2n = = = " = h 1 − 2(1 + δ) = −(1 + 2δ) = − 21 2(1 + 2δ) = etmin 2 − etmin 1 + 2δ 1+δ +(1+δ)2n 1+δ 1 + 2δ (1+δ)2n (1 + 2δ) · · 2 n 1+2δ 1+δ − 1+2δ 1+δ !n (1 + 2δ)n 1+δ 1 + 2δ 2(1+δ) #n (1 + δ)2(1+δ) · (1 + 2δ)1−2(1+δ) " 15 (1 + δ)1+δ p (1 + 2δ)1+2δ #2n in (6) 5 Blatt 5 5.1 Routerausfälle Ein Rechnernetz enthalte n Router, die im Mittel jeweils t Zeiteinheiten zuverlässig laufen, bis es zu einem Absturz oder ähnlichen Problemen kommt. Wir nehmen an, dass die Zeitdauer bis zum Absturz eines einzelnen Routers exponentialverteilt ist und die Abstürze der Router unabhängig erfolgen. Ferner werden für den reibungslosen Netzbetrieb alle Router benötigt. Geben Sie die Verteilung der Zeitdauer T bis zur ersten Störung des Netzes an und berechnen sie E[T ]. • Ti : Zeit bis zum Absturz von Router i • E[Ti ] = t • Ti ∼ Exp 1 t • T : Zeit bis zum ersten Ausfall • T = min{Ti : i = 1, . . . n} Satz 2.33 Die Zufallsvariablen X1 , . . . Xn seien unabhängig und exponentialverteiltP mit den Parametern n λ1 , . . . λn . Dann ist X = min{Xi : i = 1, . . . n} exponential verteilt mit Parameter λ = i=1 λi . n ⇒ T ∼ Exp t n FT (x) = 1 − e− t x t E[T ] = n 5.2 Verteilung von Betrag und Wurzel Die Zufallsvariable X besitze die Verteilung FX . Berechnen Sie die Verteilung und die Dichte von A := |X| p und B := |X|. Pr[X ≤ t] = FX (t) 1. A := |X| FA (t) = = = fA (t) = OE t≤0 Pr[A ≤ t] = Pr[|X| ≤ t] = 1 − Pr[|X| ≥ t] = 1 − (Pr[X ≥ t|X ≥ 0] · Pr[X ≤ 0]) 1 − (Pr[X ≥ T ] + Pr[X ≤ −t]) = 1 − (1 − Pr[X ≤ t] + Pr[X ≤ −t]) Pr[X ≤ t] − Pr[X ≤ −t] = FX (t) − FX (−t) = FA (t) d FA (t) = fX (t) − fX (−t)(−1) = fX + fX (−t) dt 2. B := FB (t) = fB (t) = p |X| √ Pr[B ≤ t] = Pr[ A ≤ t] = Pr[A ≤ t2 ] = FA (t2 ) = FX (t2 ) − FX (−t2 ) d FB (t) = fX (t2 ) · 2t − fX (−t2 )(−2t) = 2t(fX )(t2 ) − fX (−t2 ) dt 16 5.3 Punkt im Dreieck In einem Dreieck mimt Grundseite g und Höhe h werde ein Punkt P gleichverteilt gewählt. X sei die Entfernung von P zur Grundseite. Berechnen Sie Verteilung und Dichte von X. C h’ K g’ h A P L X=t B g 1 · g · h Flächeninhalt des Dreiecks 2 g0 h0 h0 = ⇒ g0 = g g h h h0 = h − t h−t 1 0 0 gh (h − t) (h − t)2 4(K, L, C) Pr[X ≥ t] = = 21 = h = 4(A, B, C) h h2 2 gh 4(A, B, C) = (h − t)2 = FX (t) h2 d h2 · 2(h − t)(−1) − (h − t)2 · 0 h−t FX (t) = =2· 2 dt h4 h ⇒ Pr[X ≤ t] = 1 − fX (t) = 5.4 Lebensdauer Gegeben seien zwei Glühbirnen mit unabhängiger und exponentialverteilter Lebensdauer (jeweils mit Parameter λ = 1). Ferner bezeichne die Zufallsvariable X ∼ Exp(1) die Lebensdauer der ersten und X , die den Anteil der Y ∼ Exp(1) die der zweiten Glühbirne. Zeigen Sie, dass die Zufallsvariable Z := X+Y ersten Glühbirne an der Gesamtlebensdauer misst, gleichverteilt auf [0, 1] ist. Zu zeigen: 0 für t < 0 klar t für 0 ≤ t ≤ 1 Pr[Z ≤ t] = 1 für t > 1 klar X t Pr[Z ≤ t] = Pr ≤ t = Pr[X ≤ tX + tY ] = Pr X ≤ Y X +Y 1−t = t Z∞ 1−t Z y Z∞ Z∞ t − 1−t t y −x −y −y e e dxdy = e −e x 0 dy = e−y 1 − e− 1−t y dy y=0 x=0 = −y ∞ −e − 0 y=0 y=0 Z∞ y=0 e−y( 1−t + 1−t ) dy = 1 − t 1−t = 1 − (1 − t) = t 17 Z∞ y=0 h i∞ 1 1 e−y( 1−t ) dy = 1 − −(1 − t) · e−y( 1−t ) 0 5.5 Erlang-Verteilung Seien die Zufallsvariablen Xi ∼ Exp(λ) für i = 1, . . . n unabhängig, exponentialverteilt mit Parameter Pn λ > 0 und X := X . Zeigen Sie (mit vollständiger Induktion nach n), dass X ∼ Er(λ, n) Erlangi i=1 verteilt mit Parameter λ und Stufenzahl n ist, d.h. die Verteilung FX (t) = Pr[X ≤ t] = 1 − n−1 X i=0 (λt)i −λt e i! besitzt. Xi ∼ Exp(λ) n X := Xi X i = 1, . . . n, unabhängig i=1 Wir leiten zunächst ab: fX (t) d d FX (t) = dt dt = n−1 X = i=0 1− i−1 − n−1 X i=0 (λt)i −λt e i! i (λt) (λt) λe−λt + λe−λt (i − 1)! i! ! =− n−1 X i=0 Teleskopsumme = (λt)i−1 (λt)i iλe−λt + (−λ)e−λt i! i! λn tn−1 −λt e (n − 1)! Induktionsverankerung n = 1 X fX = X1 ∼ Exp(λ) t0 = λ1 · e−λt = λe−λt = fX1 (t) 0! Induktionsschluss n y n + 1 X = X1 + . . . + Xn + Xn+1 | {z } | {z } =:Y ∼Er(λ,n) fX (t) Satz 2.37 = ∼Exp(λ) +∞ Z Z sn−1 −λs I.V. fY (s) · fXn+1 (t − s)ds = tλn e · λe−λ(t−s) ds (n − 1)! −∞ = = 0 λn+1 −λt e (n − 1)! λn+1 Zt 0 s n−1 t λn+1 −λt 1 n λn+1 n ds = e ·s = t (n − 1)! n n! 0 tn −λt e n! 18 ! Korrekturen Datum 12.05.2003 13.05.2003 13.05.2003 13.05.2003 15.05.2003 Aufgabe 2.4.a 1.3 1.2 1.4 2.1 15.05.2003 15.05.2003 17.05.2003 17.05.2003 21.05.2003 3.3 2.4.a 5.3 5.3 1.4 22.05.2003 3.2 Fehler bzw. Korrektur 1 Var[S] = 12 · k · (n + 1) · (n − 1) Pr[U1 ] = Pr[U2 ] = 1/2, Pr[W |U1 ] = 2/9 Der Faktor muss k! und nicht k 0 sein! Pr[D] = 1 − e−... (Minuszeichen im Exponenten) 4 Pr[R] = 52 (Ziehen von 5 Karten) (5) E[X|D1 ] = . . . = 1 + q + p + E[X|D1 ] in der zweiten Gleichung (also ¬D1 ) Var[S] fehlt vor der letzten Zeile Zeichnung hinzugefügt 2 2 ·0 d fX (t) = dt FX (t) = h ·2(h−t)(−1)−(h−t) = 2 · h−t h4 h2 (Potenzen im Nenner) 49 Pr[ωi ] = 1/ 6 n Q 1 i Pr[X > n] = . . . = i+1 = n+1 i=1 19