Tutorium 2006/07/10

Werbung
Stochastik für Informatiker, Physiker, Chemiker und
Wirtschaftswissenschaftler
Tutorium zu Übungsblatt 11
Aufgabe 1
Gegeben sei eine nicht-leere Urne mit weißen und schwarzen Kugeln, wobei uns weder die Anzahl an weißen Kugeln, noch die Gesamtzahl an Kugeln bekannt ist. Uns sei lediglich bekannt,
dass sich Kugeln beider Farben in der Urne befinden. Es werden nun Kugeln mit Zurücklegen
und ohne Beachtung der Reihenfolge aus der Urne gezogen. Die Wahrscheinlichkeit, dass bei
einem solchen Zug eine weiße Kugel gezogen wird sei mit p bezeichnet. Sei nun X eine Zufallsvariable, die angibt, ob bei einem Zug aus der Urne eine weiße oder eine schwarze Kugel
gezogen wurde.
(a) Gib die Verteilung von X in Abhängigkeit von p an.
(b) Bestimme - in Abhängigkeit von p - die Wahrscheinlichkeit, dass bei n Ziehungen, w
weiße und n − w schwarze Kugeln gezogen werden.
(c) Du wirst als Statistiker um Rat gefragt, einen Schätzer für p zu konstruieren. Tue dies
mit Hilfe der Maximum-Likelihood-Methode. Wie lässt sich der Schätzer interpretieren?
(d) Es werden nun genau vier Kugeln aus der Urne gezogen, wobei genau drei davon weiß
sind. Berechne die konkrete Schätzung für p basierend auf dem in (c) konstruierten
Maximum-Likelihood-Schätzer.
Lösung
(a) Die Zufallsvariable X beschreibt, ob beim einmaligen Zug aus der Urne (mit Zurücklegen
und ohne Beachtung der Reihenfolge) ein gewisses Ereignis eintritt (gezogene Kugel ist
weiß; X nehme in diesem Fall den Wert 1 an) oder nicht (gezogene Kugel ist nicht-weiß;
X nehme in diesem Fall den Wert 0 an). Damit gilt: X ∼ B(1, p).
(b) Es gilt:
P(“bei genau n Ziehungen werden genau w weiße Kugeln gezogen”)
n w
=
p (1 − p)n−w .
w
(c) Sei (X1 , . . . , Xn ) eine Zufallsstichprobe zum Merkmal X. Die Likelihood-Funktion basierend auf der Zufallsstichprobe (X1 , . . . , Xn ) mit Realisierung (x1 , . . . , xn ) ist damit
gegeben durch
n
P
xi
n−
L(x1 , . . . , xn , p) = p i=1 (1 − p)
n
P
i=1
xi
,
P
wobei ni=1 xi die Anzahl w an gezogenen weißen Kugeln angibt. In diesem Fall ist es
günstig, statt der Likelihood-Funktion die Log-Likelihood-Funktion zu betrachten (w =
P
n
i=1 xi ):
log(L(x1 , . . . , xn , p)) = w log(p) + (n − w) log(1 − p)
Damit folgt
w n−w
∂
log L(x1 , . . . , xn , p) = −
∂p
p
1−p
und
∂2
w
n−w
log L(x1 , . . . , xn , p) = − 2 −
.
2
∂p
p
(1 − p)2
Durch Auflösen von
∂
∂p log(L(x1 , . . . , xn , p)) =
w
n2
n in (∗∗) erhalten wir − w
(∗∗)
0 (nach p) ergibt sich p =
n2
n−w
w
n.
Durch
Einsetzen von p =
−
< 0 und damit ist p̂ =
1 Pn
i=1 xi = x̄ ein Maximum-Likelihood-Schätzer für p.
n
w
n
=
Interpretation: Der Maximum-Likelihood-Schätzer p̂ für p ist der relative Anteil der weißen
Kugeln in der Urne.
(d) Mit n = 4 und w = 3 folgt aus (c): p̂ = 34 .
Aufgabe 2
Gegeben sei eine Zufallsstichprobe (X1 , . . . , Xn ) zum Merkmal X, wobei E(X) = µ ∈ R.
Zeige, dass der Schätzer
Tn (X1 , . . . , Xn ) =
n
X
ci Xi
mit ci ∈ R ∀ i ∈ {1, . . . , n}
i=1
genau dann erwartungstreu für µ ist, wenn
n
P
ci = 1.
i=1
Lösung
E Tn (X1 , . . . , Xn ) = E
Damit folgt, dass
n
P
i=1
ci Xi
=
n
P
E(ci Xi ) =
i=1
n
P
i=1
E Tn (X1 , . . . , Xn ) = µ
⇔
n
n
P
P
ci E(Xi ) =
ci µ = µ
ci .
n
X
i=1
i=1
ci = 1.
i=1
Aufgabe 3
Gegeben sei eine Zufallsstichprobe (X1 , . . . , Xn ) zum Merkmal X mit σ 2 = Var(X) ∈ R.
Zeige, dass
n
Tn (X1 , . . . , Xn ) =
1X
(Xi − X̄)2
n
i=1
kein erwartungstreuer Schätzer für σ 2 ist und bestimme eine Konstante c (in Abhängigkeit
von n), so dass cTn erwartungstreu für σ 2 ist.
Lösung
Es ist
n
1X
E(Tn ) =
E(Xi − X̄)2
n
i=1
n
1X
E(Xi2 − 2Xi X̄ + X̄ 2 )
=
n
i=1
n
2 1 X
2
=
+ E(X̄ 2 )
E(X 2 ) + (n − 1) E(X)
E(X 2 ) −
n
n
i=1
2 2
+ E(X̄ 2 ).
E(X 2 ) + (n − 1) E(X)
= E(X 2 ) −
n
Mit


n
n
X
X
1
E(X̄ 2 ) = 2 E 
Xj 
Xi
n
j=1
i=1


n
X
X
1
= 2E
Xi2 + 2
Xi Xj 
n
i=1
1≤i<j≤n


n
X
X
1
E(Xi2 ) + 2
E(Xi )E(Xj )
= 2
n
i=1
1≤i<j≤n
2
1
n(n − 1)
2
= 2 nE(X ) + 2
E(X)
n
2
2 1
,
E(X 2 ) + (n − 1) E(X)
=
n
folgt
E(Tn ) =
n−1 2
n−1
σ .
E(X 2 ) − E(X)2 =
n
n
Hierbei wurde mehrfach benutzt, dass (X1 , . . . , Xn ) eine Zufallsstichprobe zum Merkmal X
ist, d.h. X1 , . . . , Xn sind iid-Kopien von X.
P
Man sieht, dass c n1 ni=1 (Xi − X̄)2 genau dann ein erwartungstreuer Schätzer für Var(X)
n
gewählt wird.
ist, wenn c = n−1
Aufgabe 4
Ein Würfel wird n mal geworfen. Sei Yn die größte der geworfenen Augenzahlen, d.h. Yn =
max{X1 , . . . , Xn }.
(a) Bestimme die Zähldichte von Yn .
(b) Zeige, dass lim E(Yn ) = 6.
n→∞
Lösung
(a) Sei k ∈ {1, . . . , 6}. Dann gilt: P(Yn = k) = P(Yn ≤ k) − P(Yn ≤ k − 1). Mit X ∼
U{1,...,6} (d.h. X ist eine auf der Menge {1, . . . , 6} gleichverteilte Zufallsvariable), folgt
n
P(Yn ≤ k) = P(X1 ≤ k, . . . , Xn ≤ k) = P(X ≤ k)
n
k
=
6
n
n
∀ k ∈ {1, . . . , 6}.
und damit: P(Yn = k) = k6 − k−1
6
P
(b) Es ist E(Yn ) = 6k=1 k · P(Yn = k). Damit könnte man die unter (a) berechnete Zähldichte P(Yn = k) verwenden, um den Erwartungswert von Yn zu bestimmen.
P6 Es geht
allerdings auch einfacher, nämlich mit folgender Abschätzung: E(Yn ) ≤ 6 k=1P(Y
n =
n
k) = 6. Andererseits ist E(Yn ) ≥ 6·P(Yn = 6) = 6· 1−P(Yn ≤ 5) = 6· 1− 56
→6
(n → ∞) und damit folgt die Behauptung.
Hinweis: In der Aufgabe 4)b) auf Blatt 11 kann dieselbe Überlegung wie in Teilaufgabe (b)
verwendet werden und in der Aufgabe 4c) auf Blatt 11 brauchen wir auch die Zähldichte des
Maximums von n Zufallsvariablen...
Herunterladen