Universität Mannheim Lehrstuhl für Statistik Prof. Dr. E. Mammen Stoff der Vorlesung Wahrscheinlichkeitstheorie § 1 Einleitung (Ω, P) heißt diskreter Wahrscheinlichkeitsraum , falls (a) Ω abzählbar, („Ergebnismenge“, „Stichprobenraum“) (b) P („Wahrscheinlichkeitsmaß“) ist eine Zuordnung von {A: A ⊂ Ω} nach [0,1] mit folgenden Eigenschaften: (i) P(ø) = 0, (ii) P(Ω) = 1, (iii) ∞ ⎛∞ ⎞ P(A ) P = ∑ i ⎜ U Ai ⎟ " σ − Additivität " ⎝ i =1 ⎠ i =1 Eigenschaften von Wahrscheinlichkeitsmaßen auf diskreten Wahrscheinlichkeitsräumen: (i) P ist durch P({ω}) für ω∈ Ω definiert. (ii) P(Ac ) = 1- P(A) (iii) P(A\B) = P(A) – P(A ∩ B) 2 (iv) P(A ∪ B) = P(A) + P(B) – P(A ∩ B) (v) P(A) ≤ P(B) für A ⊂ B “Monotonie” (vi) P( U Ai ) ≤ ∑ P(Ai ). n n i =1 i =1 Jede Funktion X : Ω → ℵ heißt (ℵ-wertige) Zufallsvariable. (ℵ beliebige Menge). Anschauliche Interpretation: X ist „zufälliges Element von ℵ“. Px (A) = P(X ∈ A) = P(X −1(A)) = P({ω : X(ω) ∈ A}) für A ⊂ ℵ heißt Bildmaß von X unter P oder Verteilung von X. Interpretation: (Ω, P) beschreibt den zugrunde liegenden Zufallsgenerator. Er legt das Er- gebnis für alle im Modell betrachteten Zufallsvariablen fest. In Anwendungen ist meist die intuitive Bedeutung der Zufallsvariablen zunächst gegeben. Dann wird ein Wahrscheinlichkeitsraum (Ω, P) gewählt und die Zufallsvariablen als Funktionen modelliert. Die Wahl von (Ω, P) ist nicht eindeutig und wird oft nicht explizit angegeben. § 2 Laplaceansatz Eine Modellierung, in der (Ω, P) so gewählt wird, dass P({ω}) = 1 für alle ω ∈Ω gilt, #Ω heißt Laplaceansatz. n! = n · (n-1) ·…· 1 Anzahl möglicher Anordnungen einer n elementigen Menge. 3 ( nk ) = k!(nn!− k)! Anzahl k-elementiger Teilmengen einer n-elementigen Menge. („Binomial Koeffizient“) n ( k ...k )= 1 r n! Anzahl der Möglichkeiten, eine n elementige Menge auf r disjunkte k1 ! ⋅ K ⋅ k r ! Klassen mit k1 bzw. … bzw. kr Elementen aufzuteilen („Multinomialkoeffizient“). Binomialverteilung, Multinomialverteilung, Hypergeometrische Verteilung, Poissonverteilung, Gleichverteilung. Poissonapproximation: Eine binomialverteilte Zufallsvariable (Parameter : n, p) mit n groß, p klein ist approximativ Poissonverteilt mit Parameter λ = np. Formaler: Sei Xn ~ Bin (n, λ/n), X ~ Pois(λ). Dann P(Xn∈A) → P(X∈A) für n → ∞ mit A ⊂ {0, 1, 2, …}. § 3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit P(B⎟A) = P(A ∩ B) heißt bedingte Wahrscheinlichkeit von B gegeben A. c2. Die ZuP(A) ordnung B P(B⎟A) ist Wahrscheinlichkeitsmaß. Formel von der totalen Wahrscheinlichkeit: 4 k P(B) = ∑ P(B Ai ) P(Ai ) i =1 für paarweise disjunkte A1, A2, … ⊂ Ω mit A1 ∪…∪ Ak = Ω. Multiplikationsformel: P(B1 ∩…∩ Bn) = P(B1) P(B2⎟B1) ·…· P(Bn⎟B1 ∩…∩ Bn-1), falls P(B1 ∩…∩ Bn) > 0. Bayesformel: P(A ) P(B Ai ) P(Ai B) = k i ∑ P(A j ) P(B A j ) j=1 für paarweise disjunkte A1, A2, … ⊂ Ω mit A1 ∪ … Ak = Ω mit A1 ∪ … ∪ Ak = Ω. Simpson′schses Paradoxon. Zwei Ereignisse A, B heißen unabhängig, wenn gilt: P(A ∩ B) = P(A) P(B) 5 Zufallsvariablen X1, …, Xn (mit Werten in ℵ1, …, ℵn) heißen unabhängig, wenn für alle Mengen B1 ⊂ ℵ1, …, Bn ⊂ ℵn gilt: P(X1∈B1, …, Xn∈Bn) = P(X1∈B1) ·…· P(Xn∈Bn). X1, X2 unabhängig, X1 ~ Pois (λ1), X2 ~ Pois (λ2). Dann X1 + X2 ~ Pois (λ1 + λ2). § 4 Momente, Erwartungswerte X Zufallsvariable auf diskreten Wahrscheinlichkeitsraum (Ω, P) mit Werten in ℝ. ∑ E [X] : = x P(X = x) heißt Erwartungswert von X, falls x möglicher Wert von X ∑ x P(X = x) endlich ist (absolute Konvergenz der Reihe). x möglicher Wert von X Eigenschaften: (i) E [ X ] = ∑ ω∈Ω X(ω) P ({ω}) (ii) E [λX ] = λ E [ X ] , E [X + Y] = E [X] + E [Y] für Zufallsvariablen X, Y mit existierendem Erwartungswert und reeller Zahl λ. („Linearität“ des Erwartungswertes.) (iii) E[X · Y] = E[X] E[Y] für unabhängige Zufallsvariablen X, Y mit existierendem Erwartungswert. 6 (iv) Sei Z ℵwertige Zufallsvariable und f : ℵ → ℝ Funktion. Dann E [f (Z)] = y P ( f (Z) = y ) ∑ y möglicher Wert von f (Z) ∑ = f (z) P(Z = z) y möglicher Wert von Z = ∑ f ( Z(ω) ) ω∈Ω P ({ω}) (falls Summen absolut konvergent). Median, Varianz Var(X), Standardabweichung σx, Kovarianz Cov(X,Y), Korrelation ρX, Y, k-tes Moment. Erwartungswert, Varianz der Poissonverteilung, Binomialverteilung, Erwartungswert der hypergeometrischen Verteilung. Eigenschaften von Varianz, Kovarianz: (i) Var(X) = EX2 – (EX)2 (ii) Var(aX + b) = a2 Var(X) (iii) Var(X1 + … + Xn) = Var(X1) + … + Var(Xn) für unabhängige X1, …, Xn. (iv) -1 ≤ ρX, Y ≤ 1. Cauchy – Schwarz′sche Ungleichung: (E[XY])2 ≤ E[X2] E[Y2] . 7 Gilt "=" , dann existiert λ∈ℝ mit Y = λ X. Tschebyschev′sche Ungleichung: P(| X – EX| ≥ c) ≤ P (| X | ≥ c ) ≤ Var(X) , c2 EX 2 . c2 Stochastische Konvergenz: Zn Folge von reellwertigen Zufallsvariablen, Z reellwertige Zufallsvariable (Spezialfall Z konstante reelle Zahl). Man sagt: Zn konvergiert in Wahrscheinlichkeit (oder sto- chastisch) gegen Z, falls P(|Zn – Z| > ε) → 0 für n → ∞ für alle ε > 0. Schreibweise: P Z n ⎯⎯ → Z. Eigenschaften: P P (i) Aus X n ⎯⎯ → 0, Yn ⎯⎯ → 0 folgt: P X n + Yn ⎯⎯ → 0. P P (ii) Aus X n ⎯⎯ → X, Yn ⎯⎯ → 0 folgt: P X n Yn ⎯⎯ → 0. 8 P (iii) Aus X n ⎯⎯ → 0, f : → stetig folgt: P f (X n ) ⎯⎯ → f (0). (iv) Aus EX 2n ⎯⎯ → 0 folgt: P X n ⎯⎯ → 0. (Argument : Tschebyschev 'sche Ungleichung P (v) Aus X n ⎯⎯ →0 folgt i.a. nicht EX 2n ⎯⎯ → 0. Schwaches Gesetz der großen Zahl: Für X1, …, Xn u.i.v. reellwertige Zufallsvariablen mit EX i2 < + ∞ gilt Xn = 1 P → EX i . ( X1 + K + X n ) ⎯⎯ n Herleitung mit Tschebyschev′scher Ungleichung wie bei Eigenschaft (iv). Anmerkung: Schwaches Gesetz der großen Zahl gilt auch unter der schwächeren Annahme E|Xi| < + ∞. Herleitung ist dann komplexer.