Humboldt-Universität zu Berlin Institut für Mathematik Prof. Dr. U. Horst Stochastik I SS 2013 Übungsblatt 11 - Musterlösungen 1. [Lindeberg-Bedingung, Feller-Bedingung] • Falls (Xn ) die Bedingung a) für die zentrale Grenzwerteigenschaft erfüllt, so erfüllt (Xn ) k ]| offenbar die Lyapunov-Bedingung mit δ = 1. Ferner gilt für ω ∈ Mk = { |Xk −E[X ≥ ε}: sn |Xk (ω) − E[Xk ]| ≥ εsn ⇒ |Xk (ω) − E[Xk ]|2+δ ≥ |Xk (ω) − E[Xk ]|2 (εsn )δ und damit: Ln (ε) = ≤ n Z X k=1 Mk n Z X k=1 Mk Xk − E[Xk ] sn 2 dP |Xk (ω) − E[Xk ]|2+δ dP(ω) εδ s2+δ n Pn 1 k=1 E[|Xk (ω) − E[Xk ]|2+δ ] εδ s2+δ n → 0 für n → ∞. ≤ b) Sei ε > 0 beliebig. Für alle k = 1, . . . , n gilt: σk sn 2 Xk (ω) − E[Xk ] 2 dP sn Ω Z Xk (ω) − E[Xk ] 2 ≤ dP + ε2 s n Mk Z = = Ln (ε) + ε2 und damit aufgrund der Lindeberg-Bedingung: lim max n→∞ 1≤k≤n σk ≤ ε2 . sn Da ε > 0 beliebig war, folgt die Behauptung. 2. [Lindeberg-Bedingung, Lyapunov-Bedingung] Es gilt: s2n = n X Var(Xn,l ) = j=1 n n X 1 1X Var(Yl ) = Var(Y1 ) = 1 n n j=1 j=1 und damit: Mn,l (ε) = { |Xn,l −E[Xn,l ]| sn ≥ ε} = {|Xn,l | ≥ ε} = {|Yl | ≥ √ nε}. Somit erhalten wir: Ln (ε) = = = n Z X l=1 Mn,l n Z X Xn,l − E[Xn,l ] sn √ 1 2 Y dP n l √ 1 2 Y dP n 1 l=1 {|Yl |≥ nε} n Z X Zl=1 {|Y1 |≥ nε} = √ {|Y1 |≥ nε} 2 Y12 dP → 0 dP für n → ∞, da Y1 ∈ L2 (Ω). Also erfüllt (Xn,l ) die Lindeberg-Bedingung. Weiter gilt: Pn n h i 2+δ X l=1 E |Xn,l − E[Xn,l ]| −(2+δ)/2 2+δ = E n |Y | 1 s2+δ n l=1 h i = n−δ/2 E |Y1 |2+δ → 0 für n → ∞. Die Lyapunov-Bedingung ist also erfüllt, falls es ein δ > 0 gibt, so dass Y1 ∈ L2+δ (Ω). 3. [Schema von Zufallsvariablen] Aus Aufgabe 1 b) folgt, dass für (Xn,l ) auch die Feller-Bedingung gilt, also gilt: σk = 0. n→∞ 1≤k≤n sn lim max Da (Xn,l ) normiert ist, gilt für alle n: s2n = n X Var(Xn,l ) = 1 l=1 und damit: lim max σk = 0. n→∞ 1≤k≤n Nach der Tschebyscheff-Ungleichung gilt nun für jedes feste ε > 0: P[|Xn,l | ≥ ε] ≤ 1 Var(Xn,l ) → 0 ε2 für n → ∞ und damit: lim max P[|Xn,l | > ε] = 0. n→∞ 1≤l≤n 4. [Zentraler Grenzwertsatz] a) Wir zeigen, dass die Folge (Xn ) die Lindeberg-Bedingung erfüllt, nach Satz 5.7 gilt dann für (Xn ) der zentrale Grenzwertsatz. Offenbar gilt: E[Xn ] = 0, Var(Xn ) = E[Xn2 ] = 1 − 2−n . Damit gilt: s2n = n X j=1 n X 1 Var(Xj ) = n − ( )j = n − 1 + 2−n . 2 j=1 Folglich gilt für jedes ε > 0: n o p |Xj − E[Xj ]| Mj = ≥ ε = |Xj | ≥ ε n − 1 + 2−n = ∅ sn für n hinreichend groß. Damit ist die Lindeberg-Bedingung sicher erfüllt. b) Definiere die Zufallsvariablen X1 , X2 , . . . ( 1 falls das k-te Baby ein Junge ist Xk = . 0 falls das k-te Baby ein Mädchen ist Dann gilt Xk ∼ Ber(p) mit p = 0,51 und es gilt: E[Xk ] = p, Var(Xk ) = p(1 − p). Wir können Pn annehmen, dass die Xk unabhängig und identisch verteilt sind. Weiter sei Sn := k=1 Xk , dann gilt: E[Sn ] = np, Var(Sn ) = np(1 − p). Die relative Anzahl der Jungen (bei n Babys) ist n 1X 1 Xk = Sn . n n k=1 Da die Xk identisch verteilt und in L2 sind, ist der zentrale Grenzwertsatz anwendbar, d.h. Sn − E[Sn ] Sn − np D p =p − → N (0, 1) Var(Sn ) np(1 − p) Für hinreichend große n können wir also annehmen, dass √Sn −np np(1−p) ungefähr standard- normalverteilt ist, d.h. für c > 0 und α ∈ (0, 1) gilt: 1 1 1 P Sn − p ≥ c = P Sn − p ≥ c + P Sn − p ≤ −c n n n " # " # √ √ Sn − np c n Sn − np −c n =1−P p <p +P p ≤p np(1 − p) p(1 − p) np(1 − p) p(1 − p) !! √ c n ≈2 1−Φ p , p(1 − p) wobei Φ wie üblich die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Für α ∈ {0,9, 0,95, 0,99} bestimmen wir nun cα , so dass: !! p √ p(1 − p) −1 α + 1 cα n √ 2 1−Φ p ≤ 1 − α ⇔ cα ≥ Φ . 2 n p(1 − p) Einsetzen von p = 0,51, n = 700000 liefert: c0.9 ≈ 0,00098, c0.95 ≈ 0,00117, c0.99 ≈ 0,00154, d.h. mit Wahrscheinlichkeit α bewegt sich die relative Anzahl der Jungen im Intervall (p − cα , p + cα ).