Institut für Stochastik PD. Dr. Dieter Kadelka · Daniel Gentner Asymptotische Stochastik (SS 2010) Übungsblatt 1 Aufgabe 1 (Arten von Konvergenz reeller Zufallsvariablen und deren Zusammenhänge) Es seien X, Xn , n ∈ N reelle Zufallsvariablen. Zeigen Sie die eingezeichneten Zusammenhänge, d.h. zeigen Sie die Implikation bei nicht durchgestrichenen Pfeilen und nden Sie Gegenbeispiele für durchgestrichene Pfeile: p f.s. L X Xn −→ Xn −→ X P Xn −→ X d Xn −→ X Lösung: Betrachte (Ω, A, P) := ([0, 1], B([0, 1]), λ1 |[0,1] ) und Xn := n1[0, n1 ) , X := 0. Dann gilt Xn → X f.s., jedoch E|Xn − X|p = np−1 ̸→ 0. Dies liefert auch ein Gegenbeispiel, weshalb aus Konvergenz in Wahrscheinlichkeit nicht die Konvergenz in Lp folgt, denn es ist für ϵ > 0 P(|Xn − X| > ϵ) ≤ 1 → 0, n n → ∞. Ein Gegenbeispiel weshalb aus Konvergenz in Lp nicht fast sichere Konvergenz folgt, liefert Xn := 1[j·2−k ,(j+1)·2−k ] für n = j + 2k , 0 ≤ j < 2k , k ∈ N0 und X := 0. Hier gilt E|Xn − X|p = 2−k , (0 < p < ∞) und also Xn → X in Lp . Oensichtlich konvergiert Xn jedoch nirgendwo punktweise. Dies liefert auch ein Gegenbeispiel, weshalb aus Konvergenz in Wahrscheinlichkeit nicht fast-sichere Konvergenz folgt, denn es ist P(|Xn − X| > ϵ) = 2−k → 0, n → ∞. Es konvergiere nun Xn → X fast sicher. Dann folgt P(sup |Xk − X| > ϵ) → 0, k≥n n → ∞, und wegen {|Xn − X| > ϵ} ⊂ {supk≥n |Xk − X| > ϵ} die Konvergenz in Wahrscheinlichkeit. Konvergiert statt dessen Xn → X in Lp für ein p > 0, so liefert für ϵ > 0 die Markov-Ungleichung P(|Xn − X| > ϵ) ≤ E|Xn − X|p , ϵp die Konvergenz in Wahrscheinlichkeit. P Gelte nun Xn → X . Es gilt für t ∈ R, ϵ > 0 die Inklusion {X ≤ t − ϵ} ⊂ {|Xn − X| ≥ ϵ} ∪ {Xn ≤ t} (Fallunterscheidung nach Xn ), was dann für die Verteilungsfunktionen F (t − ϵ) ≤ P(|Xn − X| ≥ ϵ) + Fn (t) nach sich zieht. Die Konvergenz in Wahrscheinlichkeit impliziert F (t − ϵ) ≤ lim inf Fn (t). n→∞ Analog impliziert die Inklusion {Xn ≤ t} ⊂ {|Xn − X| ≥ ϵ} ∪ {X ≤ t + ϵ} (Fallunterscheidung nach X ) dann lim sup Fn (t) ≤ F (t + ϵ). n→∞ D Für t ∈ C(F ) liefert ϵ → 0 nun limn→∞ Fn (t) = F (t), und damit Xn → X. Für ein Gegenbeispiel, weshalb die umgekehrte Implikation unzulässig ist, sei X ∼ 12 δ0 + 12 δ1 und Xn := 1 − X. D Trivialerweise Xn → X , jedoch gilt für 0 < ϵ < 1 dann P(|Xn − X| ≥ ϵ) = P(1 ≥ ϵ) = 1 ̸→ 0, n → ∞. Aufgabe 2 (Satz von Polya) Seien X, X1 , X2 , ... Zufallsvariablen mit zugehörigen Verteilungsfunktionen F, F1 , F2 , .... F sei stetig. Zeigen Sie: D Xn → X ⇔ sup |Fn (x) − F (x)| → 0, n → ∞. x∈R Lösung: D X , was wegen der Stetigkeit Die Implikation von rechts nach links ist trivial. Gelte also Xn → von F die punktweise Konvergenz Fn (x) → F (x), x ∈ R, nach sich zieht. Um die Gleichmäÿigkeit dieser Konvergenz nachzuweisen, sei ϵ > 0. Wir wählen ein N ∈ N so, dass N1 < ϵ. Da F stetig ist, existieren (nicht notwendig eindeutig bestimmte) Stellen tk mit F (tk ) = k , N k = 1, ..., N − 1. Da es sich hier nur um endlich viele Stellen handelt, können wir ein n0 ∈ N wählen mit |Fn (tk ) − F (tk )| ≤ ϵ, k = 1, ..., N − 1, n ≥ n0 . Sei nun x ∈ R beliebig. Dann gilt entweder −∞ < x ≤ t1 , tN −1 ≤ x < ∞ oder es gibt ein k mit tk ≤ x ≤ tk+1 . Wir behandeln nur den letzten Fall, die beiden ersten behandelt man völlig analog. Gelte also tk ≤ x ≤ tk+1 für ein k. Dann folgt auf Grund der Monotonie der jeweiligen Funktionen 1 , n ≥ n0 N 1 Fn (x) − F (x) ≤ Fn (tk+1 ) − F (tk ) ≤ Fn (tk+1 ) − F (tk+1 ) + F (tk+1 ) − F (tk ) ≤ ϵ + , n ≥ n0 . N Fn (x) − F (x) ≥ Fn (tk ) − F (tk+1 ) ≥ Fn (tk ) − F (tk ) + F (tk ) − F (tk+1 ) ≥ −ϵ − Es folgt sup |Fn (x) − F (x)| ≤ ϵ + x∈R 1 ≤ 2ϵ. N Aufgabe 3 (Exponentialverteilung als schwacher Grenzwert) Seien X1 , X2 , ... ∼ U (0, 1) u.i.v. Zufallsvariablen. Zeigen Sie: D Exp(1), (a) n min1≤j≤n Xj → D (b) n(1 − max1≤j≤n Xj ) → Exp(1). Seien nun Y1 , Y2 , ... u.i.v. Zufallsvariablen mit invertierbarer Verteilungsfunktion F . Zeigen Sie D (c) n(1 − F (max1≤j≤n Yj )) → Exp(1). Lösung: (a) Es gilt für 0 < x < n P(n min Xj ≤ x) = P(∃1 ≤ j ≤ n : Xj ≤ x/n) = 1 − P(Xj > x/n, j = 1, ..., n) 1≤j≤n = 1 − P(X1 > x/n)n = 1 − (1 − P(X1 ≤ x/n))n x = 1 − (1 − )n → 1 − e−x , n → ∞. n Es ist klar, dass diese Konvergenz dann auch für alle x ∈ [0, ∞) gilt. (b) Es gilt für 0 < x < n P(n(1 − max Xj ) ≤ x) = P( max Xj ≥ 1 − x/n) = 1 − P( max Xj < 1 − x/n) 1≤j≤n 1≤j≤n 1≤j≤n = 1 − P(X1 < 1 − x/n) = 1 − (1 − x/n)n → 1 − e−x , n → ∞. n Es ist klar, dass diese Konvergenz dann auch für alle x ∈ [0, ∞) gilt. (c) Es gilt für x ∈ R P(n(1 − F ( max Yj )) ≤ x) = P(F ( max Xj ) ≥ 1 − x/n) = 1 − P(F ( max Xj ) < 1 − x/n) 1≤j≤n 1≤j≤n 1≤j≤n = 1 − P( max Xj < F −1 1≤j≤n −1 (1 − x/n)) = 1 − P(X1 < F −1 (1 − x/n))n = 1 − (F (F (1 − x/n)))n = 1 − (1 − x/n)n → 1 − e−x , n → ∞. Aufgabe 4 (Schwache Konvergenz als Werkzeug) Die Euler−Mascheroni Konstante γ wird wie folgt deniert γ := lim n→∞ n ∑ 1 k=1 k ∫ − ln(n) = ∞ ( 1 1 1 − ⌊x⌋ x ) dx ≃ 0, 5772156649... Sie spielt in verschiedensten Bereichen der Zahlentheorie und Analysis eine Rolle. Interessanterweise ist nicht einmal bekannt, ob γ rational ist. Ziel dieser Aufgabe ist es zu zeigen, dass ∫ ∞ [1 − exp(−e−x )]dx = γ. 0 Zeigen Sie dazu zunächst, dass für u.i.v. X1 , X2 , ... ∼ Exp(1) Zufallsvariablen gilt, dass D max Xj − ln(n) → X, 1≤j≤n wobei X die Verteilungsfunktion G : R → R, x 7→ exp(−e−x ) besitzt, und setzen Sie diese Information gewinnbringend ein. Im Weiteren wird es nützlich sein, zu zeigen, dass n ( ) ∑ n i=1 i i−1 1 (−1) i = n ∑ 1 i=1 i , n ∈ N. Betrachten Sie dazu die erzeugende Funktion der linken Seite f (x) := n ( ) ∑ n i i=1 (−1)i−1 xi , i bzw. deren Ableitung. Lösung: Zunächst gilt P(X(n) − ln n ≤ x) = P(max{X1 , · · · , Xn } ≤ x + ln n) = P(Xi ≤ x + ln n, i ∈ {1, ..., n}) e−x n −x ) → e−e . = (1 − e−(x+ln n) )n = (1 − n Das Integral kann also wie folgt geschrieben werden: ∫ 0 ∞ −x ∫ ∞ [1 − exp(−e )]dx = 0 lim P(X(n) − ln n > x)dx. n→∞ Hier ist P(X(n) − ln n > x) = 1 − (1 − e−x n ) , n monoton fallend in n, weshalb wir wie folgt nach oben abschätzen können: P(X(n) − ln n > x) ≤ 1 − (1 − ∫ e−x 1 ) = e−x , 1 Nun ist 0∞ e−x dx = 1 < ∞, weshalb wir den Satz von der dominierten Konvergenz verwenden können, um Limes und Integration zu vertauschen: ∫ ∞ ∫ −x [1 − exp(−e )]dx = n→∞ 0 n→∞ Den Erwartungswert berechnen wir wie folgt: E[X(n) ] = ∞ P(X(n) − ln n > x)dx 0 lim E[X(n) − ln n]. = ∫ ∞ lim ∫ P(X(n) > x)dx = ∞ 1 − P(X(n) ≤ x)dx ∫ ∞ ∫ ∞ 1 − P(X1 , ..., Xn ≤ x)dx = 1 − (1 − e−x )n dx 0 0 ∫ ∞ n ( ) ∑ n 1− (−e−x )i dx i 0 i=0 ( ) ∫ ∞ n ∑ n i − (−1) e−ix dx i 0 i=1 ) ( n ∑ n 1 (−1)i−1 . i i i=1 ∑n 1 0 = = = = 0 Wir beweisen im Folgenden, dass diese Reihe gleich obigen Reihe ist n ( ) ∑ f (x) := und für deren Ableitung ergibt sich i=1 i=1 i ist. Die erzeugende Funktion der n xi (−1)i−1 , i i n ( ) n ( ) −1 ∑ n 1 − (1 − x)n 1∑ n i−1 i (−1) x = (−x)i = f (x) = x i=1 i x i=1 i 1 − (1 − x) ′ = 1 + (1 − x) + (1 − x)2 + ... + (1 − x)n−1 . Integration von 0 bis x liefert f (x) − f (0) = x − und also (1 − x)n 1 1 1 (1 − x)2 (1 − x)3 − − ... − + 0 + + + ... + , 2 3 n 2 3 n f (1) = 1 + Zusammenfassend erhalten wir ∫ 0 ∞ 1 1 1 + + ... + . 2 3 n [ [1 − exp(−e−x )]dx = lim n→∞ n ∑ 1 i=1 i ] − ln n = γ.