ETH Zürich HS 2014 D-INFK Prof. Dr. P. Embrechts Koordinator Blanka Horvath Wahrscheinlichkeit und Statistik Lösungsskizze 7 7-1 a) X ist binomialverteilt mit Parametern n = 1024 und p = 10−3 , d.h. 1024 P [X = k] = 0.001k 0.9991024−k für k = 0, . . . , 1024. k b) Da n = 1024 relativ gross und p = 10−3 relativ klein ist, ist X approximativ poissonverteilt mit Parameter λ = np = 1024 · 0.001 = 1.024, d.h. P [X = k] ≈ exp(−λ) λk . k! Diese Näherung hat den Vorteil, dass sie sich, besonders für grosses k, leichter berechnen lässt als der exakte Wert. Die Wahrscheinlichkeit dafür, dass ein Codewort richtig decodiert wird, ist somit P [X ≤ 3] = 3 X P [X = k] ≈ exp(−λ) 1 + λ + k=0 λ2 λ3 + = 0.97950487 . . . 2 6 c) Die Anzahl Y falsch decodierter Wörter ist (mit der in Aufgabe b) vorgenommenen Näherung) Binomial(10, 1−0.9795) verteilt. Also ist die gesuchte Wahrscheinlichkeit gleich 10 P [Y ≥ 1] = 1 − P [Y = 0] ≈ 1 − 0.02050 0.979510 = 0.187 . . . 0 7-2 a) Gegeben, dass Felix insgesamt 12 E-Mails erhalten hat, ist die Anzahl E-Mails auf der Privatadresse NP binomialverteilt mit n = 12 und p, und somit 12 2 P [NP = 2 | T = 12] = p (1 − p)10 . 2 b) Allgemeiner gilt für k ≤ n n k P [NP = k | T = n] = p (1 − p)n−k . k Für k ∈ N gilt somit pNP (k) = P [NP = k] = ∞ X P [NP = k | T = n]P [T = n] n=k ∞ X n k λn = p (1 − p)n−k e−λ n! k n=k = e−λ (λp)k X ((1 − p)λ)n−k k! (n − k)! n≥k = e−λ (λp)k k! X ((1 − p)λ)l l≥0 l! (λp)k λ(1−p) e k! (λp)k = e−λp . k! = e−λ Also ist NP Poisson-verteilt mit Parameter λp. 7-3 a) Da Y ∼ Geom(p) gilt P [Y > k] = (1 − p)k , k ∈ N. Somit gilt also P [Y > 10] = (1 − 0.05)10 = 0.9510 ≈ 59.9%. b) Gesucht ist P [Y > 30|Y > 20]. Nach Definition der bedingten Wahrscheinlichkeit gilt P [Y > 30, Y > 20] P [Y > 30] (1 − 0.05)30 = = P [Y > 20] P [Y > 20] (1 − 0.05)20 10 = (1 − 0.05) P [Y > 30 | Y > 20] = = 0.9510 ≈ 59.9%. Vergleichen wir mit Teilaufgabe a) so sehen wir dass P [Y > 30|Y > 20] = P [Y > 10]. Die Wahrscheinlichkeit, dass die Sonde 10 Minuten überlebt ist gleich gross wie die Wahrscheinlichkeit, dass die Sonde, gegeben sie hat schon 20 Minuten überlebt, weitere 10 Minuten überlebt. D.h. die Information, dass die Sonde vorher schon 20 Minuten überlebt hat, spielt keine Rolle. Die Vergangenheit wird “vergessen”. Dies ist kein Zufall, siehe Teilaufgabe c). c) “=⇒”: Sei Y ∼ Geom(p), p ∈ [0, 1]. Dann gilt P [Y > k] = (1 − p)k , k ∈ N, und somit für alle k, n ∈ N, dass P [Y > n + k, Y > k] P [Y > n + k] (1 − p)n+k = = P [Y > k] P [Y > k] (1 − p)k = (1 − p)n = P [Y > n]. P [Y > n + k | Y > k] = “⇐=”: Sei nun P [Y > n + k | Y > k] = P [Y > n], n, k ∈ N. Dann gilt P [Y > n] = P [Y > n + k | Y > k] = P [Y > n + k, Y > k] P [Y > n + k] = . P [Y > k] P [Y > k] Definiere nun f (n) = P [Y > n]. Es gilt also f (n)f (k) = f (n + k), ∀n, k ∈ N. Wegen f (n + 1) = f (n)f (1) folgt sofort durch Iteration, dass f (n) = an mit a = f (1) und damit P [Y = n] = P [Y > n − 1] − P [Y > n] = f (n − 1) − f (n) = (1 − a)an−1 . Schliesslich ist a = f (1) = P [Y > 1] ∈ [0, 1], also auch p = 1 − a ∈ [0, 1] und damit Y ∼ Geom(p). Bemerkung: Die geometrische Verteilung ist also die einzige diskrete Verteilung, welche diese “forgetfulness property” besitzt. d) Die Lebensdauer der Sonde sei also 30 Minuten. Während dieser Zeit sendet sie jede Minute mit einer Wahrscheinlichkeit von 90% ein Datenpaket. In jeder Minute haben wir ein Bernoulli-Experiment, d.h. die Empfangsstation empfängt das Datenpaket oder nicht. Sei Z die Anzahl der empfangenen Datenpakete. Die bedingte Verteilung von Z, gegeben Y = 30, ist demnach eine Bin(n = 30, p = 0.9)-Verteilung und gesucht ist P [Z > 27 | Y = 30]. Somit gilt P [Z > 27 | Y = 30] = P [Z = 28 | Y = 30] + P [Z = 29 | Y = 30] + P [Z = 30 | Y = 30] 30 30 30 29 30 28 2 p ≈ 0.411. p (1 − p) + p (1 − p) + = 30 29 28