Lösung 1

Werbung
Institut für Stochastik
PD. Dr. Dieter Kadelka
·
Daniel Gentner
Asymptotische Stochastik (SS 2010)
Übungsblatt 1
Aufgabe 1 (Arten von Konvergenz reeller Zufallsvariablen und deren Zusammenhänge)
Es seien X, Xn , n ∈ N reelle Zufallsvariablen. Zeigen Sie die eingezeichneten Zusammenhänge,
d.h. zeigen Sie die Implikation bei nicht durchgestrichenen Pfeilen und nden Sie Gegenbeispiele
für durchgestrichene Pfeile:
p
f.s.
L
X
Xn −→
Xn −→ X
P
Xn −→
X
d
Xn −→
X
Lösung: Betrachte (Ω, A, P) := ([0, 1], B([0, 1]), λ1 |[0,1] ) und Xn := n1[0, n1 ) , X := 0. Dann gilt
Xn → X f.s., jedoch
E|Xn − X|p = np−1 ̸→ 0.
Dies liefert auch ein Gegenbeispiel, weshalb aus Konvergenz in Wahrscheinlichkeit nicht die
Konvergenz in Lp folgt, denn es ist für ϵ > 0
P(|Xn − X| > ϵ) ≤
1
→ 0,
n
n → ∞.
Ein Gegenbeispiel weshalb aus Konvergenz in Lp nicht fast sichere Konvergenz folgt, liefert
Xn := 1[j·2−k ,(j+1)·2−k ] für n = j + 2k , 0 ≤ j < 2k , k ∈ N0 und X := 0. Hier gilt
E|Xn − X|p = 2−k ,
(0 < p < ∞)
und also Xn → X in Lp . Oensichtlich konvergiert Xn jedoch nirgendwo punktweise. Dies
liefert auch ein Gegenbeispiel, weshalb aus Konvergenz in Wahrscheinlichkeit nicht fast-sichere
Konvergenz folgt, denn es ist
P(|Xn − X| > ϵ) = 2−k → 0,
n → ∞.
Es konvergiere nun Xn → X fast sicher. Dann folgt
P(sup |Xk − X| > ϵ) → 0,
k≥n
n → ∞,
und wegen {|Xn − X| > ϵ} ⊂ {supk≥n |Xk − X| > ϵ} die Konvergenz in Wahrscheinlichkeit.
Konvergiert statt dessen Xn → X in Lp für ein p > 0, so liefert für ϵ > 0 die Markov-Ungleichung
P(|Xn − X| > ϵ) ≤
E|Xn − X|p
,
ϵp
die Konvergenz in Wahrscheinlichkeit.
P
Gelte nun Xn →
X . Es gilt für t ∈ R, ϵ > 0 die Inklusion
{X ≤ t − ϵ} ⊂ {|Xn − X| ≥ ϵ} ∪ {Xn ≤ t}
(Fallunterscheidung nach Xn ), was dann für die Verteilungsfunktionen
F (t − ϵ) ≤ P(|Xn − X| ≥ ϵ) + Fn (t)
nach sich zieht. Die Konvergenz in Wahrscheinlichkeit impliziert
F (t − ϵ) ≤ lim inf Fn (t).
n→∞
Analog impliziert die Inklusion
{Xn ≤ t} ⊂ {|Xn − X| ≥ ϵ} ∪ {X ≤ t + ϵ}
(Fallunterscheidung nach X ) dann
lim sup Fn (t) ≤ F (t + ϵ).
n→∞
D
Für t ∈ C(F ) liefert ϵ → 0 nun limn→∞ Fn (t) = F (t), und damit Xn →
X.
Für ein Gegenbeispiel, weshalb die umgekehrte Implikation unzulässig ist, sei X ∼ 12 δ0 + 12 δ1
und
Xn := 1 − X.
D
Trivialerweise Xn → X , jedoch gilt für 0 < ϵ < 1 dann
P(|Xn − X| ≥ ϵ) = P(1 ≥ ϵ) = 1 ̸→ 0,
n → ∞.
Aufgabe 2 (Satz von Polya)
Seien X, X1 , X2 , ... Zufallsvariablen mit zugehörigen Verteilungsfunktionen F, F1 , F2 , .... F sei
stetig. Zeigen Sie:
D
Xn → X ⇔ sup |Fn (x) − F (x)| → 0,
n → ∞.
x∈R
Lösung:
D
X , was wegen der Stetigkeit
Die Implikation von rechts nach links ist trivial. Gelte also Xn →
von F die punktweise Konvergenz
Fn (x) → F (x),
x ∈ R,
nach sich zieht. Um die Gleichmäÿigkeit dieser Konvergenz nachzuweisen, sei ϵ > 0. Wir wählen
ein N ∈ N so, dass N1 < ϵ. Da F stetig ist, existieren (nicht notwendig eindeutig bestimmte)
Stellen tk mit
F (tk ) =
k
,
N
k = 1, ..., N − 1.
Da es sich hier nur um endlich viele Stellen handelt, können wir ein n0 ∈ N wählen mit
|Fn (tk ) − F (tk )| ≤ ϵ,
k = 1, ..., N − 1,
n ≥ n0 .
Sei nun x ∈ R beliebig. Dann gilt entweder −∞ < x ≤ t1 , tN −1 ≤ x < ∞ oder es gibt ein k
mit tk ≤ x ≤ tk+1 . Wir behandeln nur den letzten Fall, die beiden ersten behandelt man völlig
analog. Gelte also tk ≤ x ≤ tk+1 für ein k. Dann folgt auf Grund der Monotonie der jeweiligen
Funktionen
1
, n ≥ n0
N
1
Fn (x) − F (x) ≤ Fn (tk+1 ) − F (tk ) ≤ Fn (tk+1 ) − F (tk+1 ) + F (tk+1 ) − F (tk ) ≤ ϵ + , n ≥ n0 .
N
Fn (x) − F (x) ≥ Fn (tk ) − F (tk+1 ) ≥ Fn (tk ) − F (tk ) + F (tk ) − F (tk+1 ) ≥ −ϵ −
Es folgt
sup |Fn (x) − F (x)| ≤ ϵ +
x∈R
1
≤ 2ϵ.
N
Aufgabe 3 (Exponentialverteilung als schwacher Grenzwert)
Seien X1 , X2 , ... ∼ U (0, 1) u.i.v. Zufallsvariablen. Zeigen Sie:
D
Exp(1),
(a) n min1≤j≤n Xj →
D
(b) n(1 − max1≤j≤n Xj ) →
Exp(1).
Seien nun Y1 , Y2 , ... u.i.v. Zufallsvariablen mit invertierbarer Verteilungsfunktion F . Zeigen Sie
D
(c) n(1 − F (max1≤j≤n Yj )) →
Exp(1).
Lösung:
(a) Es gilt für 0 < x < n
P(n min Xj ≤ x) = P(∃1 ≤ j ≤ n : Xj ≤ x/n) = 1 − P(Xj > x/n, j = 1, ..., n)
1≤j≤n
= 1 − P(X1 > x/n)n = 1 − (1 − P(X1 ≤ x/n))n
x
= 1 − (1 − )n → 1 − e−x , n → ∞.
n
Es ist klar, dass diese Konvergenz dann auch für alle x ∈ [0, ∞) gilt.
(b) Es gilt für 0 < x < n
P(n(1 − max Xj ) ≤ x) = P( max Xj ≥ 1 − x/n) = 1 − P( max Xj < 1 − x/n)
1≤j≤n
1≤j≤n
1≤j≤n
= 1 − P(X1 < 1 − x/n) = 1 − (1 − x/n)n
→ 1 − e−x , n → ∞.
n
Es ist klar, dass diese Konvergenz dann auch für alle x ∈ [0, ∞) gilt.
(c) Es gilt für x ∈ R
P(n(1 − F ( max Yj )) ≤ x) = P(F ( max Xj ) ≥ 1 − x/n) = 1 − P(F ( max Xj ) < 1 − x/n)
1≤j≤n
1≤j≤n
1≤j≤n
= 1 − P( max Xj < F
−1
1≤j≤n
−1
(1 − x/n)) = 1 − P(X1 < F −1 (1 − x/n))n
= 1 − (F (F (1 − x/n)))n
= 1 − (1 − x/n)n → 1 − e−x ,
n → ∞.
Aufgabe 4 (Schwache Konvergenz als Werkzeug)
Die Euler−Mascheroni Konstante γ wird wie folgt deniert
γ := lim
n→∞
n
∑
1
k=1
k
∫
− ln(n) =
∞
(
1
1
1
−
⌊x⌋ x
)
dx ≃ 0, 5772156649...
Sie spielt in verschiedensten Bereichen der Zahlentheorie und Analysis eine Rolle. Interessanterweise ist nicht einmal bekannt, ob γ rational ist. Ziel dieser Aufgabe ist es zu zeigen, dass
∫
∞
[1 − exp(−e−x )]dx = γ.
0
Zeigen Sie dazu zunächst, dass für u.i.v. X1 , X2 , ... ∼ Exp(1) Zufallsvariablen gilt, dass
D
max Xj − ln(n) → X,
1≤j≤n
wobei X die Verteilungsfunktion G : R → R, x 7→ exp(−e−x ) besitzt, und setzen Sie diese
Information gewinnbringend ein. Im Weiteren wird es nützlich sein, zu zeigen, dass
n ( )
∑
n
i=1
i
i−1 1
(−1)
i
=
n
∑
1
i=1
i
,
n ∈ N.
Betrachten Sie dazu die erzeugende Funktion der linken Seite
f (x) :=
n ( )
∑
n
i
i=1
(−1)i−1
xi
,
i
bzw. deren Ableitung.
Lösung: Zunächst gilt
P(X(n) − ln n ≤ x) = P(max{X1 , · · · , Xn } ≤ x + ln n) = P(Xi ≤ x + ln n, i ∈ {1, ..., n})
e−x n
−x
) → e−e .
= (1 − e−(x+ln n) )n = (1 −
n
Das Integral kann also wie folgt geschrieben werden:
∫
0
∞
−x
∫
∞
[1 − exp(−e )]dx =
0
lim P(X(n) − ln n > x)dx.
n→∞
Hier ist
P(X(n) − ln n > x) = 1 − (1 −
e−x n
) ,
n
monoton fallend in n, weshalb wir wie folgt nach oben abschätzen können:
P(X(n) − ln n > x) ≤ 1 − (1 −
∫
e−x 1
) = e−x ,
1
Nun ist 0∞ e−x dx = 1 < ∞, weshalb wir den Satz von der dominierten Konvergenz verwenden
können, um Limes und Integration zu vertauschen:
∫
∞
∫
−x
[1 − exp(−e )]dx =
n→∞
0
n→∞
Den Erwartungswert berechnen wir wie folgt:
E[X(n) ] =
∞
P(X(n) − ln n > x)dx
0
lim E[X(n) − ln n].
=
∫
∞
lim
∫
P(X(n) > x)dx =
∞
1 − P(X(n) ≤ x)dx
∫ ∞
∫ ∞
1 − P(X1 , ..., Xn ≤ x)dx =
1 − (1 − e−x )n dx
0
0
∫ ∞
n ( )
∑
n
1−
(−e−x )i dx
i
0
i=0
(
)
∫ ∞
n
∑
n
i
−
(−1)
e−ix dx
i
0
i=1
)
(
n
∑ n
1
(−1)i−1 .
i
i
i=1
∑n 1
0
=
=
=
=
0
Wir beweisen im Folgenden, dass diese Reihe gleich
obigen Reihe ist
n ( )
∑
f (x) :=
und für deren Ableitung ergibt sich
i=1
i=1 i
ist. Die erzeugende Funktion der
n
xi
(−1)i−1 ,
i
i
n ( )
n ( )
−1 ∑ n
1 − (1 − x)n
1∑ n
i−1 i
(−1) x =
(−x)i =
f (x) =
x i=1 i
x i=1 i
1 − (1 − x)
′
= 1 + (1 − x) + (1 − x)2 + ... + (1 − x)n−1 .
Integration von 0 bis x liefert
f (x) − f (0) = x −
und also
(1 − x)n
1 1
1
(1 − x)2 (1 − x)3
−
− ... −
+ 0 + + + ... + ,
2
3
n
2 3
n
f (1) = 1 +
Zusammenfassend erhalten wir
∫
0
∞
1 1
1
+ + ... + .
2 3
n
[
[1 − exp(−e−x )]dx = lim
n→∞
n
∑
1
i=1
i
]
− ln n = γ.
Herunterladen