Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript∗ Version 1.0 S. Döhler 1. Juli 2008 ∗ In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält das Skript möglicherweise Themen, die nicht Gegenstand der Vorlesung waren. Das Dokument befindet sich in laufender Überarbeitung. Für Verbesserungsvorschläge und Fehlermeldungen (email: [email protected]) bin ich dankbar! Inhaltsverzeichnis 1 Beschreibende Statistik 1.1 Statistische Grundbegriffe . . . . . . . . . . . . . . . 1.1.1 Grundgesamtheit und Stichprobe . . . . . . . 1.1.2 Merkmale und Merkmalsausprägungen . . . . 1.2 Skalen und Merkmalstypen . . . . . . . . . . . . . . . 1.3 Tabellarische und grafische Darstellungen . . . . . . . 1.3.1 Häufigkeiten . . . . . . . . . . . . . . . . . . . 1.3.2 Die empirische Verteilungsfunktion . . . . . . 1.3.3 Stabdiagramm . . . . . . . . . . . . . . . . . 1.4 Lagemaße . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Median und Quantil . . . . . . . . . . . . . . 1.4.2 Stichprobenmittel . . . . . . . . . . . . . . . . 1.4.3 Ausreißerverhalten . . . . . . . . . . . . . . . 1.5 Streuungsmaße . . . . . . . . . . . . . . . . . . . . . 1.5.1 Spannweite und Quartilsabstand . . . . . . . 1.5.2 Stichprobenvarianz- und Standardabweichung 1.6 Grafische Darstellungen . . . . . . . . . . . . . . . . 1.6.1 Box-Plots . . . . . . . . . . . . . . . . . . . . 1.6.2 Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 2 Diskrete Wahrscheinlichkeitsräume und elementare Kombinatorik 2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Einfache Urnenmodelle (Kombinatorik) . . . . . . . . . . . . . . 2.2.1 Ziehen in Reihenfolge mit Zurücklegen . . . . . . . . . . 2.2.2 Ziehen in Reihenfolge ohne Zurücklegen . . . . . . . . . . 2.2.3 Ziehen ohne Reihenfolge mit Zurücklegen . . . . . . . . . 2.2.4 Ziehen ohne Reihenfolge ohne Zurücklegen . . . . . . . . 2.2.5 Die hypergeometrische Verteilung . . . . . . . . . . . . . 2.3 Einige diskrete Wahrscheinlichkeitsverteilungen . . . . . . . . . 2.3.1 Die Binomialverteilung . . . . . . . . . . . . . . . . . . . 2.3.2 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . . 2.3.3 Die geometrische Verteilung . . . . . . . . . . . . . . . . 2.3.4 Die negative Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 6 6 6 6 6 6 6 6 6 6 3 Allgemeine Wahrscheinlichkeitsräume 3.1 Grundlagen . . . . . . . . . . . . . . . . . . . 3.2 Einige stetige Wahrscheinlichkeitsverteilungen 3.3 Bedingte Wahrscheinlichkeiten . . . . . . . . . 3.4 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 9 9 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhaltsverzeichnis 4 Zufallsvariablen 4.1 Einführung . . . . . . . . . . . . . . . . . 4.2 Unabhängige ZV’en und mehrdimensionale 4.2.1 Mehrdimensionale ZV’en . . . . . . 4.3 Quantilfunktion . . . . . . . . . . . . . . . 4.4 Summen unabhängiger ZV’en . . . . . . . 4.5 Erwartungswert, Varianz und Kovarianz . 4.6 Transformationen von ZV’en . . . . . . . . 5 Grenzwertsätze 5.1 Das Gesetz großer Zahlen . . . 5.2 Der zentrale Grenzwertsatz . . . 5.3 Anwendungen . . . . . . . . . . 5.3.1 Monte-Carlo Simulation . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . ZV’en . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 10 10 11 11 12 13 . . . . 14 14 14 15 15 1 Beschreibende Statistik 1.1 Statistische Grundbegriffe 1.1.1 Grundgesamtheit und Stichprobe 1.1.2 Merkmale und Merkmalsausprägungen 1.2 Skalen und Merkmalstypen 1.3 Tabellarische und grafische Darstellungen 1.3.1 Häufigkeiten 1.3.2 Die empirische Verteilungsfunktion Definition 1.1 (Indikatorfunktion) Für A ⊂ R sei die Funktion 1A : R → {0, 1} definiert durch ( 1 x∈A 1A (x) := 0 x∈ /A 1A heißt Indikatorfunktion der Menge A. Definition 1.2 (Empirische Verteilungsfunktion) Für x1 , . . . , xn ∈ R wird die empirische Verteilungsfunktion Fn : R → [0, 1] definiert durch n Fn (x) := 1X 1(−∞,x] (xi ) n i=1 Bemerkung 1.3 Seien x1 , . . . , xn ∈ R. Dann hat die empirische Verteilungsfunktion Fn die folgenden Eigenschaften: (a) Fn ist eine monoton wachsende Treppenfunktion. (b) Fn (x) = 0 für x < min{x1 , . . . , xn } und Fn (x) = 1 für x ≥ max{x1 , . . . , xn } (c) – Fn (x) ist der relative Anteil der Beobachtungen im Intervall (−∞, x]. – 1 − Fn (x) ist der relative Anteil der Beobachtungen im Intervall (x, ∞). – Fn (y) − Fn (x) ist der relative Anteil der Beobachtungen im Intervall (x, y]. 4 1 Beschreibende Statistik 1.3.3 Stabdiagramm 1.4 Lagemaße 1.4.1 Median und Quantil 1.4.2 Stichprobenmittel 1.4.3 Ausreißerverhalten 1.5 Streuungsmaße 1.5.1 Spannweite und Quartilsabstand Definition 1.4 (Spannweite, Quartilsabstand) Für x1 , . . . , xn ∈ R wird die Spannweite R und Quartilsabstand Q definiert als R = x(n) − x(1) Q=x e0.75 − x e0.25 1.5.2 Stichprobenvarianz- und Standardabweichung Definition 1.5 (Stichprobenvarianz- und Standardabweichung) Für x1 , . . . , xn ∈ R wird die Stichprobenvarianz s2n und empirische Standardabweichung sn definiert als n 1X := (xi − x)2 n i=1 p s := s2n s2n Bemerkung 1.6 (Verschiebungssatz) Für x1 , . . . , xn ∈ R gilt n X (xi − x)2 = n X x2i − n · (x)2 bzw. i=1 i=1 2 s = x2 − (x)2 1.6 Grafische Darstellungen 1.6.1 Box-Plots 1.6.2 Histogramm 5 2 Diskrete Wahrscheinlichkeitsräume und elementare Kombinatorik 2.1 Grundlagen Definition 2.1 (Grundraum, Ereignis) Definition 2.2 (Ereignisse, Operationen) Definition 2.3 ((Diskreter) W-Raum) Sei Ω ein endlicher oder abzählbarer Grundraum. Eine Abbildung P : P ot(Ω) → [0, 1] heißt Wahrscheinlichkeitsmaß bzw. Wahrscheinlichkeitsverteilung , wenn (A1) P (Ω) = 1. (A2) Für alle A ⊂ Ω gilt P (A) ≥ 0. (A3) Für alle disjunkten A, B ⊂ Ω gilt P (A ∪ B) = P (A) + P (B). (Ω, P ) heißt (diskreter) Wahrscheinlichkeitsraum. Lemma 2.4 Sei (Ω, P ) diskreter Wahrscheinlichkeitsraum, seien A, B, Ai ∈ Ω. Dann: (a) P (Ac ) = 1 − P (A), speziell P (∅) = 0 (b) A ⊂ B ⇒ P (A) ≤ P (B) (c) P (A \ B) = P (A) − P (A ∩ B) S P (d) Falls A1 , . . . , An paarweise disjunkt ⇒ P ( ni=1 Ai ) = ni=1 P (Ai ) S P (e) Für beliebige Mengen A1 , . . . , An gilt P ( ni=1 Ai ) ≤ ni=1 P (Ai ) (f ) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (g) P (A) = P ω∈A P ({ω}) Definition 2.5 (Wahrscheinlichkeitsfunktion) Sei (Ω, P ) ein diskreter Wahrscheinlichkeitsraum. Die Abbildung ω 7→ P ({ω}) heißt Wahrscheinlichkeitsfunktion bzw. Zähldichte(funktion). Schreibweise: Oft P (ω) statt P ({ω}). 6 2 Diskrete Wahrscheinlichkeitsräume und elementare Kombinatorik 2.2 Einfache Urnenmodelle (Kombinatorik) Definition 2.6 (Laplacescher Wahrscheinlichkeitsraum) Sei Ω ein endlicher Grundraum. Wenn alle ω ∈ Ω die gleiche Wahrscheinlichkeit P (ω) besitzen, dann heissen: (a) P : (diskrete) Gleichverteilung auf Ω. (b) (Ω, P ): Laplacescher W-raum 2.2.1 Ziehen in Reihenfolge mit Zurücklegen 2.2.2 Ziehen in Reihenfolge ohne Zurücklegen 2.2.3 Ziehen ohne Reihenfolge mit Zurücklegen 2.2.4 Ziehen ohne Reihenfolge ohne Zurücklegen Identitäten für Binomialkoeffizienten 2.2.5 Die hypergeometrische Verteilung 2.3 Einige diskrete Wahrscheinlichkeitsverteilungen Definition 2.7 (Diskrete Gleichverteilung) Definition 2.8 (Hypergreometrische Verteilung) 2.3.1 Die Binomialverteilung Definition 2.9 (Binomialverteilung) 2.3.2 Die Poissonverteilung Definition 2.10 (Poisson-Verteilung) 2.3.3 Die geometrische Verteilung Definition 2.11 (Geometrische Verteilung) 2.3.4 Die negative Binomialverteilung 7 3 Allgemeine Wahrscheinlichkeitsräume 3.1 Grundlagen Definition 3.1 (σ-Algebra) Definition 3.2 (Wahrscheinlichkeitsraum) Definition 3.3 (Dichtefunktion, Verteilungsfunktion) Lemma 3.4 (Eigenschaften von Verteilungsfunktionen) 3.2 Einige stetige Wahrscheinlichkeitsverteilungen Definition 3.5 (Gleichverteilung) Seien a, b ∈ R mit a < b. Dann ist die (stetige) Gleichverteilung (Rechteckverteilung) auf dem Intervall [a, b] definiert durch die Dichtefunktion f (x) = 1 · 1[a,b] (x) b−a Bezeichnungen: U ([a, b]), U (a, b), R(a, b)... (englisch: uniform distribution) Definition 3.6 (Exponentialverteilung) Sei λ > 0. Die Exponentialverteilung mit Parameter λ ist gegeben durch die Dichtefunktion f (x) = λ · exp(−λx) · 1[0,∞) (x) bzw. Verteilungsfunktion F (x) = (1 − exp(−λx)) · 1[0,∞) (x) Bezeichnung: Exp(λ) Definition 3.7 (Normalverteilung) Sei µ ∈ R, σ 2 > 0. Die Normalverteilung N (µ, σ 2 ) mit Parametern µ und σ 2 ist definiert durch die Dichtefunktion 2 ! 1 1 x−µ (x ∈ R) f (x) = √ · exp − 2 2 σ 2πσ Speziell für µ = 0 und σ 2 = 1 heißt N (0, 1) Standardnormalverteilung. Die zugehörige Dichtebzw. Verteilungsfunktion werden mit ϕ bzw. Φ bezeichnet. Es ist 1 1 2 ϕ(x) = √ · exp − x (x ∈ R) 2 2π 8 3 Allgemeine Wahrscheinlichkeitsräume Bemerkung 3.8 (Eigenschaften der Normalverteilung) Mit den Bezeichnungen aus der obigen Definition gilt (a) ϕ ist symmetrisch zur y-Achse, d.h. ϕ(x) = ϕ(−x) (x ∈ R). (b) Φ(x) = 1 − Φ(−x) (x ∈ R). Speziell gilt Φ(0) = 1/2. (c) Sei Fµ,σ2 die Verteilungsfunktion von N (µ, σ 2 ). Dann gilt: Fµ,σ2 (x) = Φ( x−µ ). σ 9 3 Allgemeine Wahrscheinlichkeitsräume 3.3 Bedingte Wahrscheinlichkeiten Definition 3.9 (Bedingte Wahrscheinlichkeit) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, B ∈ A mit P (B) > 0. Für A ∈ A wird die bedingte Wahrscheinlichkeit von A unter B definiert durch P (A|B) := P (A ∩ B) P (B) Lemma 3.10 (Eigenschaften) Folgerung 3.11 (Satz von der totalen Wahrscheinlichkeit) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, B1 , . . . , Bn ∈ A mit S • ni=1 Bi = Ω • die Bi ’s sind paarweise disjunkt • P (Bi ) > 0 für alle i = 1, . . . n. Dann gilt für beliebiges Ereignis A ∈ A: P (A) = n X P (A|Bi ) · P (Bi ) i=1 Folgerung 3.12 (Bayessche Formel) Unter den Bedingungen der obigen Folgerung gilt: P (Bi ) · P (A|Bi ) P (Bi |A) = Pn k=1 P (A|Bk ) · P (Bk ) 3.4 Unabhängigkeit Definition 3.13 (Unabhängigkeit von Ereignissen) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Zwei Ereignisse A, B ∈ A heißen unabhängig, wenn P (A ∩ B) = P (A) · P (B) 10 4 Zufallsvariablen 4.1 Einführung Definition 4.1 (Zufallsvariable) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Eine Zufallsvariable (ZV’e) ist eine Abbildung X : Ω → R. Definition 4.2 (Verteilung von X unter P ) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsvariable und B die Borelsche σ-Algebra auf R. Für A ∈ B definieren wir die Wahrscheinlichkeitsverteilung von X durch P X (A) := P (X ∈ A) := P ({ω ∈ Ω|X(ω) ∈ A}) Bezeichnungen: X hat Verteilung P X“, X ist verteilt wie P X“ ” ” Notationen: X ∼ P X , X ∼ P ,... Definition 4.3 (Verteilungsfunktion) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsvariable mit Wahrscheinlichkeitsverteilung P X . Die Funktion F X R → [0, 1] mit F X (x) := P X ((−∞, x]) = P (X ≤ x) heißt die zur Verteilung P X gehörige Verteilungsfunktion. Notationen: F X , FX , F , X ∼ F ,... Sprechweisen:: F ist Verteilungsfunktion von X“, X ist nach F verteilt“, ... ” ” 4.2 Unabhängige ZV’en und mehrdimensionale ZV’en Definition 4.4 (Unabhängigkeit) Seien X, Y ZV’en auf einem Wahrscheinlichkeitsraum (Ω, A, P ). X und Y heißen (stochastisch) unabhängig, wenn für alle x, y ∈ R gilt P (X ≤ x, Y ≤ y) = P (X ≤ x) · P (Y ≤ y) 4.2.1 Mehrdimensionale ZV’en Definition 4.5 (Randverteilung, gemeinsame Verteilungsfunktion) Seien X, Y ZV’en. Dann heißt die Funktion F : R2 → [0, 1] F (x, y) := P (X ≤ x, Y ≤ y) (x, y ∈ R) gemeinsame Verteilungsfunktion von X und Y (Notationen: F , F(X,Y ) , F (X,Y ) ,...) Die Funktionen FX (x) = P (X ≤ x) bzw. FY (y) = P (Y ≤ y) heißen Randverteilungen (Randverteilungsfunktionen) von X bzw. Y . 11 4 Zufallsvariablen Definition 4.6 (Randdichte, gemeinsame Dichtefunktion) Seien X, Y ZV’en. Eine Funktion f : R2 → R+ heißt gemeinsame Dichte von X und Y , wenn Z x Z y f (u, v) du dv (x, y ∈ R) F (x, y) = −∞ −∞ (Notationen: f , f(X,Y ) , f (X,Y ) ,...) Die Funktionen Z ∞ f (x, y) dy bzw. fX (x) = Z ∞ fY (y) = −∞ f (x, y) dx −∞ heißen Randdichten von X bzw. Y . Bemerkung 4.7 (Verteilungsfunktion und Dichte bei unabhängigen ZV’en) Seien X, Y unabhängige ZV’en. Dann gilt (a) (b) F(X,Y ) (x, y) = FX (x) · FY (y) f(X,Y ) (x, y) = fX (x) · fY (y), falls die Dichtefunktionen existieren. 4.3 Quantilfunktion Definition 4.8 (Quantilfunktion, Quantil) Sei F : R → [0, 1] eine stetige und streng monoton steigende Verteilungsfunktion. Für p ∈ (0, 1) heißt x ep := F −1 (p) das p-Quantil von F bzw. von der Wahrscheinlichkeitsverteilung, die zur Verteilungsfunktion F gehört. Die Funktion F −1 : (0, 1) → R, p 7→ F −1 (p) heißt Quantilfunktion von F . Bezeichnungen: xp , qp , ... Folgerung 4.9 (Simulationslemma) Sei F : R → [0, 1] eine stetige und streng monoton steigende Verteilungsfunktion. (a) Sei Y ∼ U (0, 1), Z := F −1 (Y ). Dann ist Z ∼ F , d.h. die Verteilungsfunktion von Z ist F. (b) Sei X ∼ F , Z := F (X). Dann ist Z ∼ U (0, 1). 4.4 Summen unabhängiger ZV’en Satz 4.10 (Faltungsformel für diskrete ZV’en) Seien X, Y : Ω → Z unabhängige ZV’en. Dann gilt für k ∈ Z X X P (X + Y = k) = P (X = k − j) · P (Y = j) = P (X = j) · P (Y = k − j) j∈Z j∈Z Folgerung 4.11 (a) Seien X1 , . . . , Xn ∼ Bin(1, p) iid. Dann ist X1 + · · · + Xn ∼ Bin(n, p). (b) Seien X ∼ P ois(λ), Y ∼ P ois(µ) unabhängig. Dann ist X + Y ∼ P ois(λ + µ). 12 4 Zufallsvariablen Satz 4.12 (Faltungsformel für stetige ZV’en) Seien X, Y : Ω → Z unabhängige ZV’en mit DIchten f und g. Dann hat die ZV’e X + Y die Dichte f ∗ g mit Z ∞ f (y) · g(x − y) dy (f ∗ g)(x) = −∞ Z ∞ = f (x − y) · g(y) dy −∞ Bezeichnung: Faltung von f und g. Die Faltung der entsprechenden Verteilungsfunktionen F und G wird entsprechend definiert: Z x (f ∗ g)(y) dy, d.h. (F ∗ G)(x) = −∞ F ∗ G = FX+Y Folgerung 4.13 Seien X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ22 ) unabhängig. Dann ist X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ). 4.5 Erwartungswert, Varianz und Kovarianz Definition 4.14 (Erwartungswert für diskrete ZV’e) Sei X : Ω → {x1 , x2 , . . .} eine diskrete ZV’e mit Wahrscheinlichkeitsfunktion (Zähldichte) p. Dann ist der Erwartungswert von X definiert durch X E(X) = xi · p(xi ) i∈N = X xi · P (X = xi ) i∈N Definition 4.15 (Erwartungswert für stetige ZV’e) Sei X : Ω → R eine stetige ZV’e mit Wahrscheinlichkeitsdichte f . Dann ist der Erwartungswert von X definiert durch Z ∞ x · f (x) dx E(X) = −∞ Satz 4.16 (Rechnen mit Erwartunsgwerten) Seien X, Y ZV’en, a, b ∈ R. Dann gilt: (a) E(a) = a. (b) E(aX) = a · E(X) (Homogenität). (c) E(X + Y ) = E(X) + E(Y ) (Additivität). (d) Falls X ≤ Y (d.h. X(ω) ≤ Y (ω) für alle ω ∈ Ω), dann: E(X) ≤ E(Y ) (Monotonie). (e) E|X + Y | ≤ E|X| + E|Y | (Dreiecksungleichung). Satz 4.17 (Multiplikationssatz) Seien X, Y unabhängige ZV’en. Dann gilt: E(X · Y ) = E(X) · E(Y ) 13 4 Zufallsvariablen Definition 4.18 (Varianz, Kovarianz) Seien X, Y ZV’en. (a) Var(X) := E(X − EX)2 = E(X 2 ) − (EX)2 heißt Varianz von X. (b) Cov(X, Y ) := E((X − EX) · (Y − EY )) = E(XY ) − (EX) · (EY ) heißt Kovarianz von X und Y . Lemma 4.19 (Eigenschaften Varianz) Seien X, Y ZV’en, a, b ∈ R. Dann gilt: (a) Var(a) = 0. (b) Var(aX) = a2 · Var(X). (c) Var(X + b) = Var(X) (Translationsinvarianz). (d) E(X − a)2 = VarX + (EX − a)2 . Speziell gilt: E(X − a)2 wird minimal für a = E(X). (e) Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ). Lemma 4.20 (Eigenschaften Kovarianz) Seien X, Y ZV’en, a, b ∈ R. Dann gilt: (a) Cov(X, X) = Var(X). (b) Cov(X, Y ) = Cov(Y, X) (Symmetrie). (c) Cov(X + a, Y + b) = Cov(X, Y ) (Translationsinvarianz). (d) Cov(aX, bY ) = ab · Cov(X, Y ). (e) Wenn X, Y unabhängig sind, folgt Cov(X, Y ) = 0. Speziell gilt dann: Var(X + Y ) = Var(X) + Var(Y ) . Folgerung 4.21 (Erwartungswert einer Funktion von ZV’en) Sei X ZV’e, g eine Funktion, Y := g(X). Dann ist Y eine ZV’e und es gilt: (a) Falls X eine diskrete ZV’e mit Wahrscheinlichkeitsfunktion (Zähldichte) p ist, dann gilt: X E(Y ) = g(xi ) · p(xi ) i∈N = X g(xi ) · P (X = xi ) i∈N (b) Falls X eine stetige ZV’e mit Wahrscheinlichkeitsdichte f ist, dann gilt: Z ∞ E(Y ) = g(x) · f (x) dx −∞ 4.6 Transformationen von ZV’en 14 5 Grenzwertsätze 5.1 Das Gesetz großer Zahlen Satz 5.1 (Tschebyscheff-Ungleichung) Sei X eine ZV’e mit Erwartungswert µ und Varianz σ 2 . Dann gilt für alle t > 0: P (|X − µ| ≥ t) ≤ σ2 t2 Satz 5.2 (Gesetz großer Zahlen) Sei X1 , X2 , . . . eine iid Folge mit E(Xi ) = µ und Var(Xi ) = σ 2 . Sei n 1X X n := Xi n i=1 Dann gilt: X n → µ (n → ∞) Genauer: Für jedes ε > 0 gilt P (|X n − µ| > ε) → 0 (n → ∞) 5.2 Der zentrale Grenzwertsatz Satz 5.3 (Zentraler Grenzwertsatz) Sei X1 , X2 , . . . eine iid Folge mit E(Xi ) = µ und Var(Xi ) = σ 2 . Sei n Sn∗ 1 X Xi − µ := √ σ n i=1 Dann gilt: Sn∗ → Z (n → ∞) und Z ∼ N (0, 1). Genauer: Für jedes x ∈ R gilt P (Sn∗ ≤ x) → Φ(x) (n → ∞) Dabei ist Φ die Verteilungsfunktion von N (0, 1). 15 5 Grenzwertsätze Folgerung 5.4 (de-Moivre-Laplace) Sei X ∼ Bin(n, p) mit p ∈ (0, 1). Dann gilt: X − np p →Z np(1 − p) (n → ∞) und Z ∼ N (0, 1). Genauer: Für jedes x ∈ R gilt P X − np p ≤x np(1 − p) ! → Φ(x) (n → ∞) Dabei ist Φ die Verteilungsfunktion von N (0, 1). 5.3 Anwendungen 5.3.1 Monte-Carlo Simulation Monte-Carlo-Integration Berechnung von Pi 16 Literaturverzeichnis Lehrbücher [B1] Bourier, Beschreibende Statistik, Gabler, 2005 [B2] Bourier, Wahrscheinlichkeitsrechnung und schließende Statistik, Gabler, 2006 [CK] Cramer, Kamps, Grundlagen der Wahrscheinlichkeitsrechnung und Statistik , Springer, 2007 [DH] Dehling, Haupt, Einführung in die Wahrscheinlichkeitstheorie und Statistik, Springer, 2004 [Kr] Krengel, Einführung in die Wahrscheinlichkeitstheorie und Statistik, Vieweg, 1991 [PfSchu] Pfeifer, Schuchmann, Statistik mit SAS, Oldenbourg, 1997 [Ri] Rice, Mathematical Statistics and Data Analysis, Duxbury, 1995 [St] Steland, Mathematische Grundlagen der empirischen Forschung, Springer, 2004 Nachschlagewerke [Sa] Sachs, Heddrich, Angewandte Statistik, Springer, 2006 [Ha] Hartung, Statistik, Oldenbourg, 2005 17