Lösungsskizze ¨Ubungsserie 11

Werbung
Prof. M. Schweizer
Wahrscheinlichkeit und Statistik
WS 2005/06
Lösungsskizze Übungsserie 11
1. a) Wir schätzen λ durch den Mittelwert λ̂ = X̄3 . Als Schätzwert ergibt sich:
λ̂(ω) = X̄3 (ω) =
19
1
4+6+9
=
= 6 = 6.33 .
3
3
3
b) Wir nehmen an, dass die drei Werte von den drei Zuvallsvariablen X 1 , X2 und X3 erzeugt wurden, Xi ∼ Pois (λ).
Betrachte nun die Zufallsvariable
X1 + X 2 + X 3
3
Gemäss dem Zentralen Grenzwertsatz ist nun
X̄3 =
X̄3 − µ approx
∼ N (0, 1)
σX̄3
2
mit µ = E X̄3 , σX̄
=
Var
X̄
3
3
Für ein approximatives (1 − α) · 100%-Vertrauensintervall gilt folgendes:
X̄3 − µ
≤ z1− α2 ≈ 1 − α.
P z α2 ≤
σX̄3
Durch Umformen bekommen wir
i
h
⇔ P X̄3 − σX̄3 z1− α2 ≤ µ ≤ X̄3 − σX̄3 z α2 ≈ 1 − α
h
i
⇔ P X̄3 − σX̄3 z1− α2 ≤ µ ≤ X̄3 + σX̄3 z1− α2 ≈ 1 − α,
denn −z α2 = z1− α2 .
2 = Var X̄
Nun: µ = E X̄3 = λ, σX̄
=
3
3
2 = 1 λ̂ =
Also bilden wir den Schätzer σ̂X̄
3
3
"
P λ̂ − z1− α2
r
1
1
3 Var (X1 ) = 3 λ.
1
3 X̄3 . Dies führt auf:
1
λ̂ ≤ λ ≤ λ̂ + z1− α2
3
r
#
1
λ̂ ≈ 1 − α
3
Da α = 0.05 folgt aus der Tabelle der Normalverteilungsquantile dass z 1− α2 = 1.96.
Damit bekommt man für unsere Realisierung ω:
r
1
1
λ̂(ω) ± 1.96
λ̂(ω) = 6 ± 2.848 = (3.486, 9.181).
3
3
Anmerkung: Die Anzahl n = 3 ist für den Zentralen Grenzwertsatz noch sehr klein. Alternativ hätte man auch verwenden können, dass die Summe von Poisson(λ
P i )-verteilten
Zufallsvariablen auch Poisson-verteilt ist, und zwar mit dem Parameter i λi .
2
c) 10 liegt nicht im approximativen 95% Vertrauensintervall. Diese Tatsache sagt aber
nur wenig über die Wahrscheinlichkeit aus, dass ein einzelnes X i (ω) gleich 10 ist. Man
bedenke, dass uns das Vertrauenintervall nur einen wahrscheinlichen Bereich für den
wahren Parameter (hier λ) angibt. Es kann also durchaus so sein, dass der Wert 10 für
eine Realisierung unserer Zufallsvariablen sehr hohe Wahrscheinlichkeit hat. Ist etwa der
910
−9 ≈ 0.118. Die Wahrscheinlichkeit
wahre Parameter λ = 9, so gilt P [Xi = 10] = 10
! ·e
10 Fasern zu beobachten, ist beinahe 12% (sic!).
2. a)
fθ (x) =
Fθ0 (x)
√
√ −θ
exp(−θ x) · θ
√
= − exp(−θ x) √ =
2 x
2 x
b) Sei X eine Zufallsvariable mit X ∼ F .
Z ∞
Z
√
θ ∞√
E [X]
=
x exp(−θ x) dx
xfθ (x) dx =
2 0
0
Z ∞
Z
√
θ ∞ 4t
t= x θ
exp(−θt) dt
=
t exp(−θt)2t dt =
2 0
2 0 θ
Z
∞ θ 4
θ (−4)
2
θ ∞ 4
exp(−θt)
dt
=
exp(−θt)
= 2.
=
=
2 0 θ2
2 θ3
2 θ3
θ
0
c) Der Momentenschätzer beruht auf dem Gesetz der grossen Zahlen:
s
r
2
2
2
.
= E [X] ≈ X̄n ⇒ θ̂M M =
=
Pn
1
2
θ
X̄n
i=1 Xi
n
d) Für Maximum-Likelihood brauchen wir die log-Likelihood-Funktion:
√ !
n
n
n
X
X
Y
√
√
θ exp(−θ xi )
log( xi ).
xi −
`(x1 , . . . , xn , θ) = log
= n log(θ)−n log(2)−θ
√
2
xi
i=1
i=1
i=1
Zufallsvariablen einsetzen, Ableiten und Nullsetzen ergibt:
n
Xp
n
d
!
−
`(X1 , . . . , Xn , θ̂M L ) =
Xi = 0
dθ
θ̂M L i=1
n
√
=
i=1 Xi
⇒ θ̂M L = Pn
1
1
n
Pn
i=1
√ .
Xi
3. a) Sei X der Zufallsvektor X = (X1 , . . . , Xn ) Wir beginnen mit dem Aufstellen der LogLikelihood-Funktion:
`(x1 , . . . , xn , θ) = log
n
1
1 Y
(1 + xi )−(1+ θ )
n
θ
i=1
n
!
1 X
= −n log(θ) − (1 + )
log(1 + xi )
θ
i=1
Zufallsvariablen einsetzen, Ableiten und Nullsetzen:
3
n
n
1 X
d
!
`(X1 , . . . , Xn , θ̂M L ) = −
log(1 + Xi ) = 0.
+
2
dθ
θ̂M L θ̂M L i=1
Auflösen nach θ̂M L ergibt den Maximum-Likelihood-Schätzer:
n
θ̂M L =
1X
log(1 + Xi ) = tn (X) = Tn ,
n
i=1
was zu zeigen war.
b) Nein. Dafür gibt es keinen Grund: θ ∈ (0, ∞).
c) Man sieht leicht:
" n
#
n
1X
1X
E [tn (X)] = E
log(1 + Xi ) =
E [log(1 + Xi )] = E [log(1 + X1 )] .
n
n
i=1
i=1
Sei Y eine Zufallsvariable mit Y ∼ Exp( 1θ ). Dann gilt für Y bekanntlich: E [Y ] = θ und
Var (Y ) = θ 2 . Mit dem Hinweis und obiger Rechnung sehen wir nun, dass E [t n (X)] =
E [Y ] = 11 = θ.
θ
Ähnlich kann man für die Varianz schliessen:
n
Var (tn (X)) = Var
1X
log(1 + Xi )
n
i=1
=
!
=
1
1 1
1
= θ2 .
Var (Y ) =
n
n θ12
n
n
1 X
1
Var (log(1 + Xi )) = Var (log(1 + X1 ))
n2
n
i=1
Bemerkung 1: Man kann selbstverständlich die gesuchten Grössen E [tn (X)] und Var (tn (X))
auch direkt durch Integrieren finden.
Bemerkung 2: Beweis des Hinweises:
F (y) = P [Y ≤ y] = P [log(1 + X) ≤ y] = P [X ≤ e y − 1]
Z y
Z ey −1
1 s −(1+ 1 ) s
1
s=log(t+1)
−(1+ 1θ )
θ · e ds
dt
=
=
(1 + t)
(e )
θ
0 θ
Z0 y
1 s −1
=
(e ) θ ds.
0 θ
Folglich ist die Dichte von Y:
f (y) =
d
1 1
F (y) = e− θ y .
dy
θ
d) Aus c) folgt, dass E [tn (X)] = θ, und dies ist die Erwartungstreue.
e) Die Chebychev-Ungleichung auf dem Aufgabenblatt liefert:
P [|tn (X) − θ| > ] ≤
Dies beweist die Konsistenz.
1
1 1 n→∞
Var (tn (X)) = 2 θ 2 −→ 0, ∀ > 0.
2
n
Zugehörige Unterlagen
Herunterladen