Stochastik I, HU Berlin, SS 2013

Werbung
Humboldt-Universität zu Berlin
Institut für Mathematik
Prof. Dr. U. Horst
Stochastik I SS 2013
Übungsblatt 11 - Musterlösungen
1.
[Lindeberg-Bedingung, Feller-Bedingung]
• Falls (Xn ) die Bedingung a) für die zentrale Grenzwerteigenschaft erfüllt, so erfüllt (Xn )
k ]|
offenbar die Lyapunov-Bedingung mit δ = 1. Ferner gilt für ω ∈ Mk = { |Xk −E[X
≥ ε}:
sn
|Xk (ω) − E[Xk ]| ≥ εsn ⇒ |Xk (ω) − E[Xk ]|2+δ ≥ |Xk (ω) − E[Xk ]|2 (εsn )δ
und damit:
Ln (ε) =
≤
n Z
X
k=1 Mk
n Z
X
k=1
Mk
Xk − E[Xk ]
sn
2
dP
|Xk (ω) − E[Xk ]|2+δ
dP(ω)
εδ s2+δ
n
Pn
1 k=1 E[|Xk (ω) − E[Xk ]|2+δ ]
εδ
s2+δ
n
→ 0 für n → ∞.
≤
b) Sei ε > 0 beliebig. Für alle k = 1, . . . , n gilt:
σk
sn
2
Xk (ω) − E[Xk ] 2
dP
sn
Ω
Z Xk (ω) − E[Xk ] 2
≤
dP + ε2
s
n
Mk
Z =
= Ln (ε) + ε2
und damit aufgrund der Lindeberg-Bedingung:
lim max
n→∞ 1≤k≤n
σk
≤ ε2 .
sn
Da ε > 0 beliebig war, folgt die Behauptung.
2.
[Lindeberg-Bedingung, Lyapunov-Bedingung]
Es gilt:
s2n =
n
X
Var(Xn,l ) =
j=1
n
n
X
1
1X
Var(Yl ) =
Var(Y1 ) = 1
n
n
j=1
j=1
und damit:
Mn,l (ε) = {
|Xn,l −E[Xn,l ]|
sn
≥ ε} = {|Xn,l | ≥ ε} = {|Yl | ≥
√
nε}.
Somit erhalten wir:
Ln (ε) =
=
=
n Z
X
l=1 Mn,l
n Z
X
Xn,l − E[Xn,l ]
sn
√
1 2
Y dP
n l
√
1 2
Y dP
n 1
l=1 {|Yl |≥ nε}
n Z
X
Zl=1
{|Y1 |≥ nε}
=
√
{|Y1 |≥ nε}
2
Y12 dP → 0
dP
für n → ∞,
da Y1 ∈ L2 (Ω). Also erfüllt (Xn,l ) die Lindeberg-Bedingung. Weiter gilt:
Pn
n
h
i
2+δ
X
l=1 E |Xn,l − E[Xn,l ]|
−(2+δ)/2
2+δ
=
E
n
|Y
|
1
s2+δ
n
l=1
h
i
= n−δ/2 E |Y1 |2+δ → 0 für n → ∞.
Die Lyapunov-Bedingung ist also erfüllt, falls es ein δ > 0 gibt, so dass Y1 ∈ L2+δ (Ω).
3.
[Schema von Zufallsvariablen]
Aus Aufgabe 1 b) folgt, dass für (Xn,l ) auch die Feller-Bedingung gilt, also gilt:
σk
= 0.
n→∞ 1≤k≤n sn
lim max
Da (Xn,l ) normiert ist, gilt für alle n:
s2n =
n
X
Var(Xn,l ) = 1
l=1
und damit:
lim max σk = 0.
n→∞ 1≤k≤n
Nach der Tschebyscheff-Ungleichung gilt nun für jedes feste ε > 0:
P[|Xn,l | ≥ ε] ≤
1
Var(Xn,l ) → 0
ε2
für n → ∞
und damit:
lim max P[|Xn,l | > ε] = 0.
n→∞ 1≤l≤n
4.
[Zentraler Grenzwertsatz]
a) Wir zeigen, dass die Folge (Xn ) die Lindeberg-Bedingung erfüllt, nach Satz 5.7 gilt
dann für (Xn ) der zentrale Grenzwertsatz. Offenbar gilt:
E[Xn ] = 0,
Var(Xn ) = E[Xn2 ] = 1 − 2−n .
Damit gilt:
s2n
=
n
X
j=1
n
X
1
Var(Xj ) = n −
( )j = n − 1 + 2−n .
2
j=1
Folglich gilt für jedes ε > 0:
n
o
p
|Xj − E[Xj ]|
Mj =
≥ ε = |Xj | ≥ ε n − 1 + 2−n = ∅
sn
für n hinreichend groß. Damit ist die Lindeberg-Bedingung sicher erfüllt.
b) Definiere die Zufallsvariablen X1 , X2 , . . .
(
1 falls das k-te Baby ein Junge ist
Xk =
.
0 falls das k-te Baby ein Mädchen ist
Dann gilt Xk ∼ Ber(p) mit p = 0,51 und es gilt:
E[Xk ] = p,
Var(Xk ) = p(1 − p).
Wir können
Pn annehmen, dass die Xk unabhängig und identisch verteilt sind. Weiter sei
Sn := k=1 Xk , dann gilt:
E[Sn ] = np,
Var(Sn ) = np(1 − p).
Die relative Anzahl der Jungen (bei n Babys) ist
n
1X
1
Xk = Sn .
n
n
k=1
Da die Xk identisch verteilt und in L2 sind, ist der zentrale Grenzwertsatz anwendbar,
d.h.
Sn − E[Sn ]
Sn − np D
p
=p
−
→ N (0, 1)
Var(Sn )
np(1 − p)
Für hinreichend große n können wir also annehmen, dass √Sn −np
np(1−p)
ungefähr standard-
normalverteilt ist, d.h. für c > 0 und α ∈ (0, 1) gilt:
1
1
1
P Sn − p ≥ c = P
Sn − p ≥ c + P
Sn − p ≤ −c
n
n
n
"
#
"
#
√
√
Sn − np
c n
Sn − np
−c n
=1−P p
<p
+P p
≤p
np(1 − p)
p(1 − p)
np(1 − p)
p(1 − p)
!!
√
c n
≈2 1−Φ p
,
p(1 − p)
wobei Φ wie üblich die Verteilungsfunktion der Standardnormalverteilung bezeichnet.
Für α ∈ {0,9, 0,95, 0,99} bestimmen wir nun cα , so dass:
!!
p
√
p(1 − p) −1 α + 1
cα n
√
2 1−Φ p
≤ 1 − α ⇔ cα ≥
Φ
.
2
n
p(1 − p)
Einsetzen von p = 0,51, n = 700000 liefert:
c0.9 ≈ 0,00098,
c0.95 ≈ 0,00117,
c0.99 ≈ 0,00154,
d.h. mit Wahrscheinlichkeit α bewegt sich die relative Anzahl der Jungen im Intervall
(p − cα , p + cα ).
Herunterladen