D-ITET Wahrscheinlichkeitstheorie und Statistik Prof. A.-S. Sznitman FS 2016 Musterlösung 5 1. X ist binomialverteilt mit Länge n = 2 und Erfolgsparameter p = 1/2 (kurzschreibweise: X ∼ Bin(2,1/2)), d.h. P [X = 0] = 1/4, P [X = 1] = 1/2 und P [X = 2] = 1/4. Y ist Bernoulliverteilt mit Erfolgsparameter p = 1/2 (Y ∼ Bernoulli(1/2), was das gleiche bedeutet wie Y ∼ Bin(1,1/2)), d.h. P [Y = 0] = 1/2 und P [Y = 1] = 1/2. Die Zufallsvariable X + Y gibt an, wie oft in den drei Würfen Kopf oben liegt. Demnach ist X + Y ∼ Bin(3,1/2). Die Verteilung von Z := X − Y ist gegeben durch P [Z = −1] = 1/8, P [Z = 0] = 3/8, P [Z = 1] = 3/8 und P [Z = 2] = 1/8. Dies kann man sich leicht ausrechnen, z.B. ist P [Z = 1] = P [X = 1, Y = 0] + P [X = 2, Y = 1] = P [X = 1] · P [Y = 0] + P [X = 2] · P [Y = 1] = 1/4 + 1/8, oder folgendermassen überlegen: Die Zufallsvariable Z + 1 = X + (1 − Y ) zählt, wie oft zusammen in den ersten beiden Würfen Kopf und im letzten Wurf Zahl oben liegt. Folglich ist Z + 1 ∼ Bin(3,1/2), woraus sich obige Werte ergeben. 2. a) X ist binomialverteilt mit Parametern n = 1024 und p = 10−3 , d.h. 1024 P [X = k] = 0.001k 0.9991024−k für k = 0, . . . , 1024. k b) Da n = 1024 relativ gross und p = 10−3 relativ klein ist, ist X approximativ Poisson-verteilt mit Parameter λ = np = 1024 · 0.001 = 1.024, d.h. λk P [X = k] ≈ exp(−λ) . k! Bitte wenden! Diese Nährung hat den Vorteil, dass sie sich, besonders für grosses k, leichter berechnen lässt als der exakte Wert. Die Wahrscheinlichkeit dafür, dass ein Codewort richtig dekodiert wird, ist somit P [X ≤ 3] = 3 X P [X = k] ≈ exp(−λ) 1 + λ + k=0 λ2 λ3 + = 0.97950487 . . . 2 6 c) Die Anzahl Y falsch dekodierter Wörter ist (mit der in Aufgabe b) vorgenommenen Nährungen) Bin(10, 1 − 0.9795) verteilt. Also ist die gesuchte Wahrscheinlichkeit gleich 10 P [Y ≥ 1] = 1 − P [Y = 0] ≈ 1 − 0.02050 0.979510 = 0.187 . . . 0 3. a) E[M ] = 3 X kP [M = k] = 0 + 1 · 3 · k=0 = 4·3·6 4·3·2 4·6·5 +2·3 +3 10 · 9 · 8 10 · 9 · 8 10 · 9 · 8 1 3 1 6 + + = . 2 5 10 5 b) P [genau zwei aufeinander folgende Personen wählen Typ A] = 2 · P [M = 2] = 3 · 4 3 6 1 · · = 10 9 8 5 3 6 4 3 · · = 10 9 8 10 c) E[Anzahl Abstürze] = E[Anzahl Abstürze auf A] + E[Anzahl Abstürze auf B] 1 1 = E[Anzahl Personen auf A] + E[Anzahl Personen auf B] 2 3 1 1 = E[Anzahl Personen auf A] + (3 − E[Anzahl Personen auf A]) 2 3 1 6 a) = 1 + E[Anzahl Personen auf A] = 6 5 4. Für beliebige Ereignisse A1 , . . . , An gilt: 1{A1 ∪...∪An } = 1 − 1{A1 ∪...∪An }c = 1 − 1{Ac1 ∩...∩Acn } n Y = 1− 1Aci = 1 − Πni=1 (1 − 1Ai ). i=1 Siehe nächstes Blatt! Wir multiplizieren nun das Produkt auf der rechten Seite aus in eine Summe. Bemerke, dass wir genau einen Summanden gleich 1 haben. Zudem haben wir n Summanden der Form 1Ai für i = 1, . . . , n. Weiter haben wir Summanden der Form 1Ai 1Ai0 für alle 1 ≤ i < i0 ≤ n, usw. Unter Berücksichtigung der Vorzeichen erhalten wir schliesslich 1{A1 ∪...∪An } = 1 − Πni=1 (1 − 1Ai ) n X = 1− 1+ (−1)k = (−1)k+1 k=1 1Ai1 · . . . · 1Aik 1≤i1 <...<ik ≤n k=1 n X ! X X 1Ai1 · . . . · 1Aik . 1≤i1 <...<ik ≤n Nehme Erwartungswert auf beiden Seiten: E[1{A1 ∪...∪An } ] = P [A1 ∪ . . . ∪ An ] = 1 − E[Πni=1 (1 − 1Ai )] n X X = (−1)k+1 E[1Ai1 · . . . · 1Aik ] = k=1 n X k=1 1≤i1 <...<ik ≤n (−1)k+1 X 1≤i1 <...<ik ≤n P [Ai1 ∩ . . . ∩ Aik ] (1)