Wahrscheinlichkeit und Statistik - D-MATH

Werbung
ETH Zürich HS 2014
D-INFK
Prof. Dr. P. Embrechts
Koordinator
Blanka Horvath
Wahrscheinlichkeit und Statistik
Lösungsskizze 7
7-1
a) X ist binomialverteilt mit Parametern n = 1024 und p = 10−3 , d.h.
1024
P [X = k] =
0.001k 0.9991024−k für k = 0, . . . , 1024.
k
b) Da n = 1024 relativ gross und p = 10−3 relativ klein ist, ist X approximativ poissonverteilt
mit Parameter λ = np = 1024 · 0.001 = 1.024, d.h.
P [X = k] ≈ exp(−λ)
λk
.
k!
Diese Näherung hat den Vorteil, dass sie sich, besonders für grosses k, leichter berechnen
lässt als der exakte Wert. Die Wahrscheinlichkeit dafür, dass ein Codewort richtig decodiert
wird, ist somit
P [X ≤ 3] =
3
X
P [X = k] ≈ exp(−λ) 1 + λ +
k=0
λ2 λ3 +
= 0.97950487 . . .
2
6
c) Die Anzahl Y falsch decodierter Wörter ist (mit der in Aufgabe b) vorgenommenen
Näherung) Binomial(10, 1−0.9795) verteilt. Also ist die gesuchte Wahrscheinlichkeit gleich
10
P [Y ≥ 1] = 1 − P [Y = 0] ≈ 1 −
0.02050 0.979510 = 0.187 . . .
0
7-2
a) Gegeben, dass Felix insgesamt 12 E-Mails erhalten hat, ist die Anzahl E-Mails auf der
Privatadresse NP binomialverteilt mit n = 12 und p, und somit
12 2
P [NP = 2 | T = 12] =
p (1 − p)10 .
2
b) Allgemeiner gilt für k ≤ n
n k
P [NP = k | T = n] =
p (1 − p)n−k .
k
Für k ∈ N gilt somit
pNP (k) = P [NP = k] =
∞
X
P [NP = k | T = n]P [T = n]
n=k
∞ X
n k
λn
=
p (1 − p)n−k e−λ
n!
k
n=k
= e−λ
(λp)k X ((1 − p)λ)n−k
k!
(n − k)!
n≥k
= e−λ
(λp)k
k!
X ((1 − p)λ)l
l≥0
l!
(λp)k λ(1−p)
e
k!
(λp)k
= e−λp
.
k!
= e−λ
Also ist NP Poisson-verteilt mit Parameter λp.
7-3
a) Da Y ∼ Geom(p) gilt P [Y > k] = (1 − p)k , k ∈ N. Somit gilt also
P [Y > 10] = (1 − 0.05)10 = 0.9510 ≈ 59.9%.
b) Gesucht ist P [Y > 30|Y > 20]. Nach Definition der bedingten Wahrscheinlichkeit gilt
P [Y > 30, Y > 20]
P [Y > 30]
(1 − 0.05)30
=
=
P [Y > 20]
P [Y > 20]
(1 − 0.05)20
10
= (1 − 0.05)
P [Y > 30 | Y > 20] =
= 0.9510 ≈ 59.9%.
Vergleichen wir mit Teilaufgabe a) so sehen wir dass P [Y > 30|Y > 20] = P [Y > 10]. Die
Wahrscheinlichkeit, dass die Sonde 10 Minuten überlebt ist gleich gross wie die Wahrscheinlichkeit, dass die Sonde, gegeben sie hat schon 20 Minuten überlebt, weitere 10 Minuten
überlebt. D.h. die Information, dass die Sonde vorher schon 20 Minuten überlebt hat, spielt
keine Rolle. Die Vergangenheit wird “vergessen”. Dies ist kein Zufall, siehe Teilaufgabe c).
c) “=⇒”: Sei Y ∼ Geom(p), p ∈ [0, 1]. Dann gilt P [Y > k] = (1 − p)k , k ∈ N, und somit für
alle k, n ∈ N, dass
P [Y > n + k, Y > k]
P [Y > n + k]
(1 − p)n+k
=
=
P [Y > k]
P [Y > k]
(1 − p)k
= (1 − p)n = P [Y > n].
P [Y > n + k | Y > k] =
“⇐=”: Sei nun P [Y > n + k | Y > k] = P [Y > n], n, k ∈ N. Dann gilt
P [Y > n] = P [Y > n + k | Y > k] =
P [Y > n + k, Y > k]
P [Y > n + k]
=
.
P [Y > k]
P [Y > k]
Definiere nun f (n) = P [Y > n]. Es gilt also
f (n)f (k) = f (n + k),
∀n, k ∈ N.
Wegen f (n + 1) = f (n)f (1) folgt sofort durch Iteration, dass f (n) = an mit a = f (1) und
damit
P [Y = n] = P [Y > n − 1] − P [Y > n]
= f (n − 1) − f (n)
= (1 − a)an−1 .
Schliesslich ist a = f (1) = P [Y > 1] ∈ [0, 1], also auch p = 1 − a ∈ [0, 1] und damit
Y ∼ Geom(p).
Bemerkung: Die geometrische Verteilung ist also die einzige diskrete Verteilung, welche
diese “forgetfulness property” besitzt.
d) Die Lebensdauer der Sonde sei also 30 Minuten. Während dieser Zeit sendet sie jede
Minute mit einer Wahrscheinlichkeit von 90% ein Datenpaket. In jeder Minute haben
wir ein Bernoulli-Experiment, d.h. die Empfangsstation empfängt das Datenpaket oder
nicht. Sei Z die Anzahl der empfangenen Datenpakete. Die bedingte Verteilung von
Z, gegeben Y = 30, ist demnach eine Bin(n = 30, p = 0.9)-Verteilung und gesucht ist
P [Z > 27 | Y = 30]. Somit gilt
P [Z > 27 | Y = 30] = P [Z = 28 | Y = 30] + P [Z = 29 | Y = 30] + P [Z = 30 | Y = 30]
30 30
30 29
30 28
2
p ≈ 0.411.
p (1 − p) +
p (1 − p) +
=
30
29
28
Herunterladen