13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X1 , X2 , . . . , Xn (n ∈ N) und bildet dann das arithmetische Mittel dieser Beobachtungen: X= 1 n n X Xi =: X n i=1 Dabei muß man jedoch beachten, daß die Beobachtungen X1 , . . . , Xn unabhängig oder wenigstens unkorreliert sind. 495 W.Kössler, Humboldt-Universität zu Berlin Satz 43 (Schwaches Gesetz der großen Zahlen) Es seien X1 , . . . , Xn unkorrelierte zufällige Variablen mit µ := EXi und σ 2 := Var Xi < ∞ (für alle i = 1, . . . , n). Dann gilt für alle ε > 0: lim P (|X n − µ| > ε) = 0. n→∞ Beweis: Zum Beweis des Satzes verwenden wir die Ungleichung von T SCHEBYCHEW (vgl. Satz ??). 496 W.Kössler, Humboldt-Universität zu Berlin Da die Zufallsgrößen X1 , . . . , Xn unkorreliert sind, gilt ! ! n n X X Xi = n12 · Var Var X = Var n1 Xi i=1 = 1 n2 · 497 1 n · Var (Xi ) = 1 n2 i=1 1 n EX = E = n X i=1 · n X i=1 n X i=1 Xi ! EXi = 1 n = 1 n 2 ·n·σ = ·E n X i=1 σ2 n Xi ! ·n·µ=µ W.Kössler, Humboldt-Universität zu Berlin Mittels der T SCHEBYCHEV–Ungleichung erhalten wir: P (|X n − µ| > ε) = P (|X − EX| > ε) Var X ≤ ε2 σ2 = − −−→ 0 n→∞ 2 n·ε 2 Bem. 19 Aus dem Beweis erkennen wir, daß die Voraussetzungen etwas abgeschwächt werden können, anstelle Var Xi = σ 2 genügt die Forderung 1 X Var Xi = 0. lim 2 n→∞ n 498 W.Kössler, Humboldt-Universität zu Berlin Def. 45 Wenn lim P (|Yn − Y0 | > ε) = 0 ∀ε > 0 n→∞ dann heißt Y0 stochastischer Grenzwert der Folge {Yn } und man schreibt p − lim Yn = Y0 . 499 W.Kössler, Humboldt-Universität zu Berlin Bsp. 81 Es seien Xi ∼ B(1, p) Xi : Dann gilt: 0 1 1−p p µ := EX = EXi = 0 · (1 − p) + 1 · p = p 500 W.Kössler, Humboldt-Universität zu Berlin und σ 2 := E(X − p)2 = (0 − p)2 · (1 − p) + (1 − p)2 · p = p2 · (1 − p) + (1 − p)2 · p = p2 − p3 + p − 2 · p2 + p3 = p − p2 = p · (1 − p) Nach dem schwachen Gesetz der großen Zahlen folgt: n ! X P n1 Xi − p > ε − −−→ 0. n→∞ i=1 501 W.Kössler, Humboldt-Universität zu Berlin Bsp. 82 Es sei A ein Ereignis, p = P (A) sei unbekannt. Zur Schätzung von p führen wir eine Reihe von unabhängigen Experimenten durch, bei denen A und A die einzig möglichen Ausgänge seien. n: # der Experimente, die durchgeführt werden. n(A): # Auftretens des Ereignisses A. n(A) p̂n = n die relative Häufigkeit des Ereignisses A. Frage: p̂n − −−→ p? n→∞ Dazu definieren wir Zufallsgrößen Xi (i = 1, . . . , n), 502 W.Kössler, Humboldt-Universität zu Berlin 1 , A im i–ten Experiment eintritt Xi := 0 , A im i-ten Experiment nicht eintritt Dann gilt für alle i = 1, . . . , n: Xi ∼ B(1, p) und P (Xi = 1) = p sowie P (Xi = 0) = 1 − p. σ 2 = Var Xi = p · (1 − p) µ = EXi = p Wir definieren weiterhin: X := 503 1 n · n X i=1 Xi = 1 n · n(A) = p̂n . W.Kössler, Humboldt-Universität zu Berlin Wir wenden nun das Schwache Gesetz der großen Zahlen an und erhalten: lim P (|p̂n − p| > ε) = n→∞ lim P (|X n − µ| > ε) n→∞ = 0, ∀ε > 0 Folglich gilt: p̂n − −−→ p. n→∞ Bem. 20 Schätzungen p̂n , die gegen den zu schätzenden Parameter konvergieren heißen (schwach) konsistent. 504 W.Kössler, Humboldt-Universität zu Berlin Satz 44 (Gesetz der Großen Zahlen) Seien die Zufallsvariablen X1 , . . . , Xn identisch verteilt und unabhängig, E|Xi | < ∞, EXi = µ. Dann gilt P (ω : lim X n = µ) = 1. n→∞ Bem. 21 Das Schwache Gesetz der Großen Zahlen lautet entsprechend: Seien die Zufallsvariablen X1 , . . . , Xn identisch verteilt, EXi = µ und unkorreliert (cov(Xi , Xj ) = σ 2 δij ). Dann gilt ⇒ p − lim X n = µ. 505 W.Kössler, Humboldt-Universität zu Berlin Das Gesetz der großen Zahlen eignet sich also zum Schätzen von Erwartungswerten oder auch zur Approximation von Integralen. Bsp. 83 Sei X ∼ F mit Dichte f (x), den Beobachtungen x1 , . . . , xn und g(·) eine beliebige Funktion. Der Erwartungswert Z E(g(X)) = g(x)f (x) dx wird (falls er existiert) geschätzt durch n X 1 ˆ I= g(xi ) n i=1 506 W.Kössler, Humboldt-Universität zu Berlin Bsp. 84 Ist f > 0 kann das Integral Z I = g(x) dx (falls es existiert) geschätzt werden durch n X 1 g(xi ) ˆ I= . n i=1 f (xi ) 507 W.Kössler, Humboldt-Universität zu Berlin 13.2 Der Satz von G LIVENKO –C ANTELLI Seien X1 , . . . , Xn zufällige Beobachtungen mit P (Xi < x) = F (x), ∀i = 1, . . . , n. Die Verteilungsfunktion F (x) soll durch die Funktion Fn (x) := #{Xi : Xi <x,i=1,...,n} n approximiert werden. Def. 46 Seien X1 , . . . , Xn unkorreliert, Xi ∼ F , und X(1) , . . . , X(n) , X(1) ≤ X(2) ≤ . . . ≤ X(n) die geordnete 508 W.Kössler, Humboldt-Universität zu Berlin Stichprobe. Die Funktion #{Xi : Xi < x, i = 1, . . . , n} Fn (x) = n falls x < X(1) 0 i = falls X(i) ≤ x < X(i+1) n 1 falls X(n) < x heißt empirische Verteilungsfunktion. EDF.sas EDF 2.sas Satz 45 Seien X1 , . . . , Xn unkorreliert. Es gilt: lim P (|Fn (x) − F (x)| > ε) = 0 ∀x ∈ R. n→∞ 509 W.Kössler, Humboldt-Universität zu Berlin Beweis: Wir definieren Zufallsgrößen Yix (i = 1, . . . , n, x ∈ R) durch: 1 , falls X < x i Yix = 0 , sonst Dann gilt offensichtlich für alle i = 1, . . . , n und x ∈ R: 0 1 Yix : 1 − F (x) F (x) D.h. Yix ∼ B(1, F (x)). Sei, für alle x ∈ R, Y x := 1 n n X Yix . i=1 510 W.Kössler, Humboldt-Universität zu Berlin Vergleichen wir die Zufallsgrößen Fn (x) und Y x : Y x = Fn (x). Aus Beispiel 81 folgt, µ := EYix = F (x). Deshalb folgt aus dem schwachen Gesetz der großen Zahlen: lim P (|Y x − µ| > ε) = 0, n→∞ ∀ε > 0. D.h. für alle ε > 0 gilt: lim P (|Fn (x) − F (x)| > ε) = 0 n→∞ 2 511 W.Kössler, Humboldt-Universität zu Berlin Verschärfung: Satz 46 (Satz von G LIVENKO –C ANTELLI) Es seien X1 , . . . , Xn unabhängige zufällige Variablen. Dann gilt: P lim sup |Fn (x) − F (x)| = 0 = 1. n→∞ x∈R Dieser Satz wird auch oft als der Hauptsatz der Statistik bezeichnet. 512 W.Kössler, Humboldt-Universität zu Berlin 13.3 Konvergenz von Folgen zufälliger Variablen Wir betrachten in diesem Abschnitt eine Reihe von Konvergenzbegriffen, die ersten beiden haben wir schon am Anfang des Kapitels kennengelernt. Def. 47 Eine Folge {Xn }n∈N zufälliger Variablen konvergiert stochastisch (in Wkt.) gegen eine zufällige Variable X, falls für alle ε > 0 gilt: lim P (|Xn − X| > ε) = 0. n→∞ Wir bezeichnen dann: p–lim Xn = X. 513 W.Kössler, Humboldt-Universität zu Berlin X heißt stochastischer Grenzwert der Folge {Xn }. Def. 48 Eine Folge {Xn }n∈N zufälliger Variablen heißt fast sicher konvergent gegen eine zufällige Variable X, falls gilt: n o P ω : lim Xn (ω) = X(ω) = 1. n→∞ Wir bezeichnen dann: lim Xn = X f.s.a X heißt f.s. Grenzwert der Folge {Xn }. a Das Kürzel f.s.“ steht für fast sicher“. Manchmal findet man statt ” ” f.s.“ auch das Kürzel a.e.“. Es bedeutet almost everywhere“. ” ” ” 514 W.Kössler, Humboldt-Universität zu Berlin Def. 49 Es seien X1 , . . . , Xn , X zufällige Variablen mit E|Xi |p < ∞, E|X|p < ∞. {Xn } konvergiert im p-ten Mittel gegen X, falls lim E|Xn − X|p = 0. n→∞ Wir bezeichnen dann: limn→∞ Xn = X p.m. (q.m. wenn p = 2). 515 W.Kössler, Humboldt-Universität zu Berlin Def. 50 Es sei {Xn }n∈N eine Folge von zufälligen Variablen. X sei eine Zufallsgröße mit der Verteilungsfunktion F (x) = P (X < x). Die Folge {Xn }n∈N konvergiert in Verteilung gegen die Zufallsgröße X, wenn für alle x ∈ R, in denen die Funktion F stetig ist, gilt: lim P (Xn < x) = F (x). n→∞ Wir bezeichnen dann: Xn −→D X. 516 W.Kössler, Humboldt-Universität zu Berlin Wir versuchen jetzt Zusammenhänge zwischen den verschiedenen Konvergenzbegriffen herzustellen. Lemma 47 Sei X eine Zufallsvariable mit E|X|p < ∞, p0 < p. Dann gilt 1 1 p0 p0 p p ≤ E|X| . E|X| Beweis: Die Funktion g(x) = |x|t ist konvex für t ≥ 1. Für eine beliebige Zufallsvariable Y gilt (Jensens Ungleichung) |EY |t ≤ E|Y |t . p0 Sei Y = |X| , t = p0 E|X| 517 p p0 ≥ 1. Daraus folgt p0 p p0 ≤ E |X| p0 p = E|X|p . W.Kössler, Humboldt-Universität zu Berlin 2 Folg. 7 Sei p0 < p. lim Xn = X n→∞ p.m. ⇒ lim Xn = X n→∞ p0 .m. Beweis: Wegen Lemma 47 gilt: p0 E|Xn − X| 10 p p ≤ E|Xn − X| p1 . 2 Lemma 48 Sei p ≥ 1. Dann gilt lim Xn = X n→∞ 518 p.m. ⇒ p–lim x→∞ Xn = X. W.Kössler, Humboldt-Universität zu Berlin Beweis: Es gilt für alle n: P (|Xn − X| > ε) = P (|Xn − X|p > εp ) E|Xn − X|p ≤ εp Markoff-Ungleichung E|Xn − X|p lim P (|Xn − X| > ε) ≤ lim = 0. p n→∞ n→∞ ε 2 Das folgende Beispiel zeigt, daß stochastische und fast sichere Konvergenz nicht identisch sind. Bsp. 85 Wir wollen eine Folge {Xn }n∈N zufälliger Variablen konstruieren, für die zwar p–lim Xn = 0 gilt, nicht aber lim Xn = 0 f.s. Es seien Ω = [0, 1] und E = [0, 1] ∩ B1 519 W.Kössler, Humboldt-Universität zu Berlin gegeben. Für alle Ereignisse A ⊆ [0, 1] gelte: Z 0 ≤ P (A) = 1 dx ≤ 1. A Wir betrachten nun eine Folge {An }n∈N von Ereignissen im Ereignisfeld E. Für alle n ∈ N sei An definiert durch: An := [k · 2−h , (k + 1) · 2−h ], wobei für die Zahlen h und k folgendes gelte: • h, k ∈ Z+ ∪ {0}; • n = 2h + k; (n ≤ 2 · 2h ) • 0 ≤ k < 2h . 520 W.Kössler, Humboldt-Universität zu Berlin Die Folge {Xn }n∈N definieren wir nun wie folgt: 1 , falls ω ∈ A n Xn (ω) = 0 , sonst Untersuchen wir die stochastische Konvergenz dieser Folge von Zufallsgrößen: Nach Definition der Folge {Xn }n∈N gilt: P (|Xn | > ε) = P (|Xn | = 1) = P (An ) = (k + 1) · 2−h − k · 2−h 2 −h = 2 ≤ → 0, n d.h. p–lim Xn = 0. Wir untersuchen nun, ob die Folge {Xn }n∈N auch fast sicher gegen Null konvergiert. Sehen wir uns die Intervalle An an, für n = 1, . . . , 8: n = 2h + k h k An 1 = 20 + 0 0 0 A1 = [0, 1] 2 = 21 + 0 1 0 A2 = [0, 21 ] 3 = 21 + 1 1 1 A3 = [ 21 , 1] 4 = 22 + 0 2 0 A4 = [0, 41 ] 5 = 22 + 1 2 1 A5 = [ 41 , 12 ] 6 = 22 + 2 2 2 A6 = [ 21 , 34 ] 7 = 22 + 3 2 3 A7 = [ 43 , 1] 8 = 23 + 0 3 0 A8 = [0, 81 ] Die Folge {An }n∈N ist nirgends konvergent. Also n o P ω : lim Xn (ω) = 0 = 0 6= 1. n→∞ Satz 49 Es sei {Xn }n∈N eine Folge von zufälligen Variablen, für die es zwei Zufallsgrößen X und Y gibt, so daß gilt: X = p–lim Xn und Y = p–lim Xn . Dann folgt daraus: P (X = Y ) = 1. Beweis: Es sei ε > 0 beliebig. Dann berechnen wir P ({ω : |X(ω) − Y (ω)| > ε}) = (∗) 523 W.Kössler, Humboldt-Universität zu Berlin (∗) = ≤ ≤ ≤ P ({ω : |X(ω) − Xn (ω) + Xn (ω) − Y (ω)| > ε}) P ({ω : |X(ω) − Xn (ω)| + |Xn (ω) − Y (ω)| > ε}) ε ε P ω : |Xn (ω) − X(ω)| > 2 ∪ ω : |Xn (ω) − Y (ω)| > 2 ε P ω : |XX(ω) − X(ω)| > 2 + ε P ω : |Xn (ω) − η(ω)| > 2 − −−→ 0 n→∞ D.h. P (|X − Y | > ε) = 0 ∀ε > 0. P ({ω : X(ω) = Y (ω)}) = 1. 524 2 W.Kössler, Humboldt-Universität zu Berlin Lemma 50 p–lim n→∞ Xn = X ⇒ Xn →D X Wir kennen vier verschiedene Arten der Konvergenz einer Folge von Zufallsgrößen gegen eine zufällige Variable. Sie bilden z.T. eine gewisse Hierarchie. lim Xn = X f.s. =⇒ p–lim Xn = X =⇒ Xn −→D X lim Xn = X q.m. =⇒ p–lim Xn = X Die Umkehrungen gelten im allgemeinen nicht. Da die Verteilungskonvergenz in dieser Kette die schwächste ist, wird sie oft auch als schwache Konvergenz bezeichnet. 525 W.Kössler, Humboldt-Universität zu Berlin Bsp. 86 Xn ∼ Bi(n, pn ), lim npn = λ, Y ∼ P oi(λ) ⇒ Xn →D Y. Diese Aussage kennen wir schon von früher. 526 W.Kössler, Humboldt-Universität zu Berlin 13.4 ∗ Die fast sichere Konvergenz Dieser Abschnitt wird in der Vorlesung nicht behandelt. Er dient nur als Ergänzung für den interessierten Leser. Def. 51 Es sei {An }n∈N eine Folge von Ereignissen. Wir definieren ! ∞ [ Ak . lim sup An := lim n→∞ n→∞ k=n Bem.: Wir definieren für alle n ∈ N: Bn := ∞ S Ak . Dann k=n gilt: Bn+1 ⊆ Bn (n ∈ N). Folglich ist die Folge {Bn }n∈N 527 W.Kössler, Humboldt-Universität zu Berlin monoton fallend. Demzufolge gilt: lim Bn = n→∞ ∞ \ Bn . n=1 Das bedeutet jedoch nichts anderes als: ! ∞ ∞ \ [ Ak = lim sup An = lim n→∞ n→∞ n=1 k=n ∞ [ k=n Ak ! . Lemma 51 (B OREL –C ANTELLI ) Es sei {An }n∈N eine Folge von Ereignissen aus einem Wahrscheinlichkeitsraum ∞ P P (An ) < ∞, so folgt daraus: (Ω, E, P ). Gilt n=1 P 528 lim sup An = 0. n→∞ W.Kössler, Humboldt-Universität zu Berlin Beweis: Zunächst gilt: P ∞ [ Ak k=n ! ≤ ∞ X P (An ). k=n Es sei ε > 0 beliebig gewählt. Da nach Voraussetzung ∞ P P (An ) < ∞ gilt, folgt für hinreichend großes n: n=1 ∞ X P (An ) < ε. k=n Folglich gilt: 529 W.Kössler, Humboldt-Universität zu Berlin P lim sup An n→∞ = P ≤ lim lim n→∞ n→∞ ∞ X ∞ [ Ak k=n ! = lim P n→∞ ∞ [ Ak k=n ! P (An ) = 0. k=n 2 Wir betrachten eine Folge {Xn }n∈N von Zufallsvariablen, die fast sicher gegen eine zufällige Variable X konvergiert. Es gilt: lim Xn = X f.s. n→∞ 530 W.Kössler, Humboldt-Universität zu Berlin n o ⇐⇒ P ω : lim Xn (ω) = X(ω) =1 n→∞ ! ∞ \ {ω : |Xk (ω) − X(ω)| ≤ ε} − −−→ 1 ∀ε > 0 ⇐⇒ P n→∞ k=n Cauchy-Kriterium ! ∞ [ {ω : |Xk (ω) − X(ω)| > ε} − −−→ 0 ⇐⇒ P n→∞ k=n ⇐⇒ lim P (Bn ) = 0, Bn := n→∞ ⇐⇒ P ∞ [ k=n ∀ε > 0 {ω : |Xk (ω) − X(ω)| ≥ ε} lim Bn = 0 (da {Bn }n∈N monoton fallend ist) n→∞ ⇐⇒ P lim sup Bn = 0. n→∞ 531 W.Kössler, Humboldt-Universität zu Berlin Satz 52 Es sei {Xn }n∈N eine Folge von Zufallsgrößen, und X eine weitere zufällige Variable. lim Xn = Xf.s. ⇒ p–lim Xn = X. Beweis: Es sei ε > 0 beliebig gewählt. Dann gilt: 0 ≤ ≤ lim P ({ω : |Xn (ω) − X(ω)| > ε}) n→∞ lim P n→∞ = 0 ∞ [ ! {ω : |Xk (ω) − X(ω)| > ε} k=n nach Vor. 2 532 W.Kössler, Humboldt-Universität zu Berlin Folg. 8 (aus dem Borel-Cantelli Lemma) ∞ X n=1 P (|Xn − X| > ε) < ∞ ∀ε > 0 ⇒ lim = Xf.s. n→∞ Lemma 53 Sei p–lim Xn = X. Dann existiert eine Teilfolge {Xnk } von {Xn } so daß limk→∞ Xnk f.s. Lemma 54 ∞ X n=1 E|Xn − X|p < ∞ ⇒ lim Xn = Xf.s. n→∞ Satz 55 (Satz von der majorisierten Konvergenz) limn→∞ Xn = X f.s. und |Xn | ≤ Y , E|Y |p < ∞. Dann gilt: limn→∞ Xn = X p.m. 533 W.Kössler, Humboldt-Universität zu Berlin 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz) Es seien X1 , . . . , Xn (n ∈ N) unabhängige, identisch verteilte zufällige Variablen mit µ := EXi ; σ 2 := Var Xi . Wir definieren für alle n ∈ N Zufallsgrößen Zn , Z n und Yn n P durch: Zn := Xi bzw. Z n := Znn und i=1 √ Zn − µ Yn = n · σ 534 W.Kössler, Humboldt-Universität zu Berlin Dann gilt: lim P n→∞ Z√ n −n·µ n·σ <x = = lim P (Yn < x) = Φ(x) n→∞ √1 2π Zx 2 e − t2 dt. −∞ Beweis: (Als Hilfsmittel werden charakteristische Funktionen verwendet, siehe unten, für den interessierten Leser) 535 2 W.Kössler, Humboldt-Universität zu Berlin Bem.: Die Folge {Yn }n∈N konvergiert in Verteilung gegen eine Zufallsgröße Z, Yn −→D Z, Z ∼ N (0, 1). Anwendungen: • Simulation bei der Erzeugung einer normalverteilten Zufallsgröße aus Pseudozufallszahlen • Approximation von Wkt.-verteilungen (insbes. von Teststatistiken) 536 W.Kössler, Humboldt-Universität zu Berlin Genauigkeitsabschätzung: Satz 57 (B ERRY-E SS ÉEN ) Es seien die Voraussetzungen des zentralen Grenzwertsatzes erfüllt und M := E|Xi − µ|3 < ∞. Dann gilt: Z√ n −n·µ < x − Φ(x) < K, P n·σ wobei K = 0,8·M √ σ3 · n ist. Bsp. 87 Es seien Xi ∼ R(0, 1), µ = EXi = 1 2 σ 2 = EXi2 − µ2 = 537 1 12 W.Kössler, Humboldt-Universität zu Berlin Wir bestimmen die Zahl M : Z+∞ M = E|Xi − µ|3 = |x − µ|3 · f (x) dx = Z1 −∞ |x − 12 |3 dx = 2 · 0 538 Z1 1 2 (x − 12 )3 dx = n 12 100 1000 K 0.3 0.104 0.033 1 32 W.Kössler, Humboldt-Universität zu Berlin Bsp. 88 Seien Xi ∼ P oi(λ), EXi = Var Xi = λ Wir schätzen die Zahl M ab: M 1 3 = ≤ = 3 E|Xi − λ| 4 E|Xi − λ| E(Xi − λ) 2 1 4 2 3 4 = (λ + 3λ ) 13 14 4 (Lemma 47) 41 Berry-Esseen Schranke: 0.8(λ + 3λ ) 0.8 · 3 K≤ →λ→∞ √ 3√ n λ2 n 539 3 4 W.Kössler, Humboldt-Universität zu Berlin n K 540 12 100 1000 0.52 0.18 0.058 W.Kössler, Humboldt-Universität zu Berlin Bsp. 89 Seien Xi ∼ B(1, p), i = 1, . . . , n, unabhängig, 0 1 Xi : 1−p p • EXi = µ = p; • Var Xi = σ 2 = p(1 − p). Wir definieren nun für alle n ∈ N eine Zufallsgröße Zn := n X Xi . i=1 541 W.Kössler, Humboldt-Universität zu Berlin Die Zufallsgrößen Zn (n ∈ N) haben also folgende Gestalt: 0 1 2 ... n Zn : p0 p1 p2 . . . pn Wir zeigen jetzt: Für alle n ∈ N gilt: Zn ∼ B(n, p),d.h. n i pi = i p (1 − p)n−i . Beweis mittels vollständiger Induktion. IA: Es sei n = 2. Dann gilt: Z2 = X1 + X2 : 542 0 1 2 p0 p1 p2 W.Kössler, Humboldt-Universität zu Berlin Wir ermitteln die Wktn. p0 , p1 und p2 : p0 = P (Z2 = 0) = P (X1 = 0, X2 = 0) = P (X1 = 0) · P (X2 = 0) p1 (Unabh. von X1 und X2 ) 2 0 2 = (1 − p) · (1 − p) = (1 − p) = p (1 − p)2−0 0 = P (Z2 = 1) = P ({X1 = 1, X2 = 0} ∪ {X1 = 0, X2 = 1}) = P (X1 = 1, X2 = 0) + P (X1 = 0, X2 = 1) (Unvereinbarkeit der Ereignisse) 543 = P (X1 = 1) · P (X2 = 0) + P (X1 = 0) · P (X2 = 1) 2 1 = p · (1 − p) + (1 − p) · p = p (1 − p)2−1 1 W.Kössler, Humboldt-Universität zu Berlin p2 = P (Z2 = 2) = P (X1 = 1, X2 = 1) 2 2 2 = P (X1 = 1) · P (X2 = 1) = p = p (1 − p)2−2 2 IS: ÜA Satz 58 (M OIVRE –L APLACE ) Es seien Xi ∼ Bi(1, p), Pn unabhängig. Dann gilt für Zn = i=1 Xi (∼ Bi(n, p)): lim Zn →D Z ∼ N (np, np(1 − p)) Bem.: Der Satz sagt aus, daß für ausreichend großes n ∈ N die Binomialverteilung durch die (einfachere) 544 W.Kössler, Humboldt-Universität zu Berlin (Standard–)Normalverteilung ersetzt werden kann, P (Zn < y) ≈ Φ √ y−n·p . n·p·(1−p) Beweis: Mit EZn = np und Var Zn = np(1 − p) folgt unter Anwendung des Zentralen Grenzwertsatzes: y−n·µ n −n·µ √ P (Zn < y) = P Z√ < n·σ n·σ = P √Zn −n·p < √ y−n·p n·p·(1−p) n·p·(1−p) ≈ Φ √ y−n·p n·p·(1−p) 2 545 W.Kössler, Humboldt-Universität zu Berlin Bsp. 90 Es seien n = 1000 und p = 0.4. Gesucht werde die Wahrscheinlichkeit P (Zn < 300). Es gilt: X P (Zn < 300) = P (Zn = x) x<300 = 299 X 1000 i=0 i 0.4i (1 − 0.4)1000−i großer Rechenaufwand. besser: Anwendung des Satzes von M OIVRE –L APLACE. 546 W.Kössler, Humboldt-Universität zu Berlin Es gilt: P (Zn < 300) ≈ Φ = Φ √ 300−1000·0,4 1000·0,4·(1−0,4) −100 √ 240 ≈Φ −100 15,49 = Φ(−6.45) = 1 − Φ(6.45) ≈ 0 | {z } ≈1 Bem.: Die Anwendung des Satzes von M OIVRE –L APLACE setzt voraus, daß n ∈ N hinreichend groß ist. Faustregel: n · p ≥ 10 und n · (1 − p) ≥ 10. 547 W.Kössler, Humboldt-Universität zu Berlin Bsp. 91 Wir betrachten P OISSON–verteilte unabhängige Zufallsgrößen Xi ∼ P oi(λi ) (i = 1, . . . , n, 0 1 2 ... k ... Xi : p0i p1i p2i . . . pki . . . λji j! mit pji = · e−λi (i = 1, . . . , n). EXi = Var Xi = λi . Zn := n X Xi i=1 548 W.Kössler, Humboldt-Universität zu Berlin Für den Erwartungswert dieser Zufallsgrößen gilt: ! n n n X X X λi EXi = Xi = EZn = E i=1 i=1 i=1 Wir nehmen nun an, λi = λ, für alle i = 1, . . . , n. Ohne diese Annahme haben die Zufallsgrößen Xi verschiedene Erwartungswerte und Varianzen, so daß der zentrale Grenzwertsatz (in der angegebenen Form) nicht anwendbar ist. Es gilt also unter dieser Annahme: EXi = µ = λ; 549 Var Xi = σ 2 = λ. W.Kössler, Humboldt-Universität zu Berlin Lemma 59 Es seien X1 und X2 unabhängig, X1 , X2 ∼ P oi(λi ), i = 1, 2). Dann ist die Zufallsgröße Z2 := X1 + X2 ebenfalls P OISSON–verteilt und es gilt: Z2 ∼ P oi(λ1 + λ2 ). (Bem: Vergleichen Sie mit der Faltungsformel für stetige Zufallsvariablen) 550 W.Kössler, Humboldt-Universität zu Berlin Beweis: Es gilt für alle k ∈ N: P (Z2 = k) = k X t=0 = p1 (t) · p2 (k − t) k X λt 1 t! t=0 = · e−λ1 · k X λt ·λk−t 1 2 t!·(k−t)! t=0 = e−(λ1 +λ2 ) · = e−(λ1 +λ2 ) k! 1 k! λ2k−t (k−t)! · e−λ2 · e−(λ1 +λ2 ) · k X λt ·λk−t ·k! 1 2 t!·(k−t)! t=0 · (λ1 + λ2 )k (Binomischer Lehrsatz) 2 551 W.Kössler, Humboldt-Universität zu Berlin Bem. 22 Die Funktionen p1 und p2 heißen auch Faltungsdichten. Mit λi = λ (i = 1, . . . , n) folgt daraus Zn = n X i=1 Xi ∼ P oi(n · λ). Wir wenden jetzt den Zentralen Grenzwertsatz an. Dann erhalten wir für hinreichend großes λ0 := n · λ: 0 Z√ n −n·µ n −λ P Z√ < x = P < x ≈ Φ(x). n·σ λ0 Also kann auch eine P OISSON–Verteilung durch eine einfachere (Standard–)Normalverteilung ersetzt werden, falls die Parameter λi (i = 1, . . . , n) alle gleich λ sind und der 552 W.Kössler, Humboldt-Universität zu Berlin Faktor n · λ hinreichend groß ist (etwa n · λ ≥ 10). Bem.: Sind die Parameter λi (i = 1, . . . , n) nicht alle gleich, so gilt die Aussage trotzdem, falls ihre Summe hinreichend groß ist (≥ 10). 553 W.Kössler, Humboldt-Universität zu Berlin Bsp. 92 Seien Xi unabhängig, Xi ∼ N (0, 1), i = 1, . . . , n. Y = n X i=1 Xi2 ∼ χ2n , d.h. Y ist χ2 verteilt mit n Freiheitsgraden. −x n 1 x n−2 2 e 2, falls x ≥ 0 ) 2 2 Γ( n 2 fY (y) = 0 sonst. EY Var Y = n n X = E(Y − n)2 = E( (Xi2 − 1))2 = nE(X12 − 1)2 i=1 = nE(X14 − 2EX12 + 1) = n(3 − 2 + 1) = 2n. 554 W.Kössler, Humboldt-Universität zu Berlin ⇒ lim P n→∞ P( Pn n X i=1 2 X i −n i=1 √ < y = Φ(y). 2n Xi2 x − n < x) ≈ Φ √ 2n z.B. n = 30, x = 23.364: P ( Pn 2 X i < x) = 0.2 i=1 x − n = Φ(−0.8567) = 1 − 0.8042 = 0.1958. Φ √ 2n 555 W.Kössler, Humboldt-Universität zu Berlin bleibt z.z.: EXi4 = 3. Z ∞ 2 √ 4 4 − x2 2πEXi = dx xe −∞ Z ∞ 2 1 −1 2 4 − x2 dx, t = x , dx = t 2 dt xe = 2 2 0 Z ∞ Z ∞ 3 5 t t − −1 − t 2 e 2 dt = t 2 e 2 dt = 0 EXi4 556 0 1 5 5 5 22 = Γ 2 + 22 = Γ 2 √ 2 √ π 5 · 2 2 = 3 · 2π = 1·3· 4 = 3. W.Kössler, Humboldt-Universität zu Berlin Dabei haben wir verwendet: Z ∞ Γ(λ) λ−1 −αt t e dt = λ α 0 Γ(n + 1) = nΓ(n) = n! √ 1 π Γ(n + ) = 1 · 3 · 5 · · · (2n − 1) n 2 2 557 W.Kössler, Humboldt-Universität zu Berlin ∗ Beweis des Zentralen Grenzwertsatzes Sei φX−µ die charakteristische Funktion von Xi − µ. Da die ersten beiden Momente (µ, σ 2 ) existieren, folgt aus der Taylorreihendarstellung 1 22 φX−µ (t) = 1 − σ t + o(t2 ) 2 Die ZV 558 Xi − µ √ nσ haben die charakteristische Funktion t φX−µ √ , nσ Pn Xi −µ Die ZV Yn = i=1 √nσ hat also die charakteristische W.Kössler, Humboldt-Universität zu Berlin Funktion n t t2 t2 n φYn (t) = φX−µ √ = 1− + o( ) . 2n n nσ Es gilt: t2 t2 n t2 t2 t2 ln 1 − + o( ) = n ln 1 − + o( ) → − . 2n n 2n n 2 (vgl. Taylorreihenentwicklung des Logarithmus) 559 W.Kössler, Humboldt-Universität zu Berlin t2 ln φYn (t) → − 2 φYn (t) → e 2 − t2 . D.h. die ch.Fkt. von Yn konvergiert gegen die ch.Fkt. der Standard-Normalverteilung (sogar gleichmäßig). Aus dem Konvergenzsatz folgt: Yn → Z ∼ N (0, 1). 560 W.Kössler, Humboldt-Universität zu Berlin Bsp. 93 Münzwurf: 1000 mal. Wie groß ist die Wkt., dass weniger als 475 mal Zahl fällt? 1 falls Zahl Xi = 0 sonst 1000 X P( i=1 1 P √ 1000 qXi − Xi ≤ 475) = P ( 1000 1 2 1 4 | {z ∼N (0,1) √ 0.475 − 0.5 ≈ Φ( 1000 ) 1 475 1 √ − q 2) ≤ 1000 1000 1 4 } 2 = Φ(−1.58) ≈ 0.057. 561 W.Kössler, Humboldt-Universität zu Berlin Bedeutung des ZGWS in der Statistik • beim Schätzen Gesetz der Großen Zahlen: X → µ. Frage: Wie groß ist der Stichprobenumfang zu wählen, um eine bestimmte Genauigkeit zu erreichen? ε, δ vorgegeben, klein (ε, δ < 0.5). n ist so zu wählen, dass P (|X − µ| ≤ ε) ≥ 1 − δ 562 W.Kössler, Humboldt-Universität zu Berlin 1 − δ ≤ P (|X − µ| ≤ ε) √ (|X − µ| √ ε ≤ n√ ) = P( n √ V arX V arX √ (|X − µ| √ ε = P( n ≤ n ) σ σ √ ε ≈ Φ( n ) σ gdw. √ ε Φ (1 − δ) ≤ n σ 2 −1 σΦ (1 − δ) n ≥ ε −1 563 W.Kössler, Humboldt-Universität zu Berlin Bedeutung des ZGWS in der Statistik • beim Testen µ := EX. Wir testen z.B. H 0 : µ ≤ µ0 gegen H 1 : µ > µ0 Teststatistik: √ X − µ0 Tn = n σ Tn klein spricht für H0 , Tn groß gegen H0 . Fehler 1. Art: H0 ablehnen, obwohl richtig möchte man begrenzen (≤ α) Fehler 2. Art: H0 annehmen, obwohl falsch 564 W.Kössler, Humboldt-Universität zu Berlin sollte auch klein sein (≤ β) Pµ0 (Tn ≥ u1−α ) → α nach ZGWS denn Pµ0 (Tn < u1−α ) → Φ(u1−α ) = 1 − α (wenn µ < µ0 so Pµ (Tn < u1−α ) > Pµ0 (Tn < u1−α )) 565 W.Kössler, Humboldt-Universität zu Berlin Bsp. 94 In der BRD gab es im Zeitraum 1970-1990 insgesamt 25 171 123 registrierte Lebendgeburten, davon waren 12 241 392 Mädchen. Berechnen Sie die ein 95% Vertrauensintervall für die Wahrscheinlichkeit einer Mädchengeburt! Das zufällige Ereignis einer Mädchengeburt wird dargestellt durch eine Bernoulli-verteilte Zufallsvariable, Xi ∼ B(1, p). Sei n = 25171123 und n X Xi Sn = i=1 die zufällige Anzahl der Mädchengeburten. Wir wissen, ESn = n · p und Var Sn = n · p · (1 − p). 566 W.Kössler, Humboldt-Universität zu Berlin Weiter sei u0.975 das 0.975-Quantil der Standardnormalverteilung, d.h Φ(u0.975 ) = 0.975. Nachsehen in der Tabelle liefert u0.975 = 1.96. Aus dem ZGWS folgt |Sn − np| P( √ ≤ u0.975 ) = 0.95. V arSn Die folgenden Ungleichungen gelten jeweils mit Wkt. 0.95: p |Sn − np| ≤ 1.96 · np(1 − p) (Sn − np)2 ≤ 1.962 np(1 − p) n2 p2 − 2Sn np + Sn2 ≤ 1.962 np − 1.962 np2 567 W.Kössler, Humboldt-Universität zu Berlin (n2 + 1.962 n)p2 − (1.962 n + 2nSn )p + Sn2 ≤ 0 bzw. wenn wir die Schätzung Sn p̂ = n für die relative Anzahl der Mädchengeburten einsetzen, für die Randpunkte des Vertrauensintervalls r 2 1 1.96 1.962 p1,2 = np̂ + ± 1.96 np̂(1 − p̂) + . 2 n + 1.96 2 4 Hier haben wir Sn 12241392 p̂ = = = 0.48633 n 25171123 95%-Vertrauensintervall: [0.48613, 0.48652]. 568 W.Kössler, Humboldt-Universität zu Berlin Bsp. 95 (Fortsetzung des vorigen Beispiels) Angenommen, es würde gelten p = 21 . Mit welcher Wkt. würden dann höchstens 12 241 392 auftreten? Sn − np 12241392 − np P (Sn ≤ 12241392) = P p ≤ p np(1 − p) np(1 − p) 12241392 − np ≈ Φ( p ) np(1 − p) = Φ(−137.2) ≤ 3 · 10−4091 . 569 W.Kössler, Humboldt-Universität zu Berlin Bsp. 96 (Roulette) Beim Roulette gibt es 36 Zahlen, 18 davon sind schwarz, 18 sind rot, dazu die 0, die ist grün. Bei Setzen der richtigen Farbe gibt es den doppelten Einsatz, bei Setzen der richtigen Zahl den 36 fachen Einsatz. Zwei Spieler A und B spielen folgende Strategie: A setzt auf Farbe, B auf Zahl. Beide spielen 100 mal, und jetzen jeweils 10 Euro. Wie groß ist die Wkt., dass sie nach n = 100 Spielen mindestens 40 Euro gewonnen haben? Wir beschreiben die Gewinne/Verluste im i-ten Spiel durch 570 W.Kössler, Humboldt-Universität zu Berlin Bernoulli-Zufallsvariablen, 10 −10 , Xi : 18 37 EXi V arXi EYi V arYi 571 19 37 Yi : 350 −10 1 37 36 37 18 19 10 = 10 · − 10 · = − =: µA 37 37 37 10 2 2 2 = EXi − (EXi ) = 100 − ( ) =: σA2 37 1 36 10 = 350 · − 10 · = − =: µB 37 37 37 10 2 2 2 1 2 2 36 2 + (−10) − ( ) =: σB = EYi − (EYi ) = 350 37 37 37 W.Kössler, Humboldt-Universität zu Berlin P 100 X i=1 Xi ≥ 40 = = = P 100 X i=1 Yi ≥ 40 = = = 572 P100 40 − nµA i=1 Xi − nµA ≥√ √ P √ √ n V arXi n V arXi 40 − nµA 1−Φ √ √ n V arXi 1 − Φ(0.067) = 0.47 P100 40 − nµB i=1 Yi − nµB P √ √ ≥√ √ n V arXi n V arXi 40 − nµB 1−Φ √ √ n V arXi 1 − Φ(0.12) = 0.45 W.Kössler, Humboldt-Universität zu Berlin