Musterlösung 8

Werbung
D-ITET
Prof. P. Nolin
Wahrscheinlichkeitstheorie und Statistik
FS 2017
Musterlösung 8
1.
a) Es muss
1=
∞
X
n=1
∞
∞
X
X
λn
λn
P [X = n] =
c
= c −1 +
n!
n!
n=1
!
= c(eλ − 1)
n=0
gelten, also
c=
eλ
1
.
−1
b) Es ist
E[X] =
∞
X
nP [X = n] =
n=1
∞
X
n=1
∞
X λn
λn
λeλ
= cλ
= cλeλ = λ
c
(n − 1)!
n!
e −1
n=0
und
2
E[X ] =
∞
X
2
n P [X = n] =
n=1
∞
X
= c
n=2
∞
X
n=1
λn
(n − 2)!
∞
λn X λn
n(n − 1)c
+
nc
n!
n!
n=1
+ E[X] = cλ2
= cλ2 eλ + cλeλ =
∞
X
λn
n=0
n!
+ E[X]
eλ λ(λ + 1)
.
eλ − 1
Also gilt
Var[X] = E[X 2 ] − (E[X])2 =
eλ λ(eλ − λ − 1)
.
(eλ − 1)2
Bitte wenden!
c)
P [X = n, Y = n]
P [X = Y = n]
=
P [Y = n]
P [Y = n]
(A)
P [X = Y | Y = n] =
(B)
P [X = n] · P [Y = n]
= P [X = n],
P [Y = n]
λn
P [0 6= Y = n] = P [Y = n] = e−λ
6= P [X = n],
n!
P [Y = n]
P [0 6= Y = n]
=
P [Y = n | Y 6= 0] =
P [Y 6= 0]
1 − P [Y = 0]
unabh.
=
(C)
(da c 6= e−λ )
λn
λn
=
c
= P [X = n],
n!
n!(1 − e−λ )
P [0 6= Y = n]
P [Y = n]
P [Y 6= 0 | Y = n] =
=
= 1 6= P [X = n],
P [Y = n]
P [Y = n]
P [X = n, Y = 0] unabh. P [X = n] · P [Y = 0]
P [X = n | Y = 0] =
=
= P [X = n].
P [Y = 0]
P [Y = 0]
= e−λ
(D)
(E)
Also sind (A),(C) und (E) gleich P [X = n], (B) und (D) hingegen nicht.
2.
a) Xn kann nur Werte in {0, 1} annehmen. Die Wahrscheinlichkeit, dass die n-te Ente vom
`-ten Jäger nicht getroffen wird, ist 1−p/m. Da die Jäger unabhängig voneinander schiessen, beträgt für die n-te, und deswegen für jede Ente die Chance, unverletzt davonzukommen,
p k
P [Xn = 1] = 1 −
.
(1)
m
Also sind alle Xn Binomial-verteilt mit Parametern ñ = 1 und p̃ = (1 − p/m)k , also
Bernoulli verteilt mit Parameter p̃.
b) Die Gesamtzahl X aller nicht verletzten Enten ist gleich X = X1 + X2 + . . . + Xm .
Aufgrund der Linearität des Erwartungswertes gilt
E[X] = E[X1 ] + E[X2 ] + . . . + E[Xm ].
(2)
Da die Xn Indikatorvariablen sind, gilt E[Xn ] = P [Xn = 1] = (1 − p/m)k für alle
n = 1, . . . , m und somit
p k
E[X] = m 1 −
.
m
c) Wir betrachten nur den Fall k < m, also weniger Jäger als Enten. Dann sind X1 , . . . , Xm
nicht unabhängig, weil
m
p k m Y
=
P [Xn = 0].
P [X1 = . . . = Xm = 0] = 0 < 1 − 1 −
m
n=1
Bemerkung: Die Zufallsvariablen X1 , . . . , Xm sind auch nicht unabhängig, wenn k ≥ m
und m > 1. Insbesondere ist X nicht Binomial-verteilt.
Siehe nächstes Blatt!
3. Sei X die Anzahl gezogener weisser Kugeln.
a) Für 0 ≤ k ≤ N, 0 ≤ n − k ≤ M gilt
N
M
k n−k
N +M
n
P [X = k] =
.
Für alle übrigen k ist P [X = k] = 0.
b) Wir nummerieren die weissen Kugeln von 1 bis N . Dann können wir X als Summe von
Indikatorfunktionen schreiben:
X = X1 + . . . + XN ,
wobei
Xi =
1, die weisse Kugel Nr. i wird gezogen,
0, sonst.
Es gilt
E[Xi ] = P [Xi = 1] =
1·
M +N −1
n−1
M +N
n
Es folgt
E[X] =
Nn
.
M +N
=
n
.
M +N
Zugehörige Unterlagen
Herunterladen