2.5 2.5.1 Parameter einer Verteilung Erwartungswert X eine Zufallsvariable, g : R → R stetig. Der Erwartungswert E[g(X)] von g(X) ist definiert durch: E[g(X)] := X g(xk )w(X = xk ), k falls X diskret ist mit den Werten xk (und falls P k |g(xk )w(X = xk )| < ∞). Z ∞ E[g(X)] := g(x)f (x)dx, −∞ falls X stetig ist (und falls R∞ −∞ |g(x)f (x)|dx < ∞). Speziell für g(X) := X legt man fest: E[X] =: µ heißt Mittelwert von X (oder Mittelwert der Verteilung). 1 Es gilt also E[X] := X xk w(X = xk ), k falls X diskret ist mit den Werten xk (und falls P k |xk w(X = xk )| < ∞). Z ∞ E[X] := xf (x)dx, −∞ falls X stetig ist (und falls 2.5.2 R∞ −∞ |xf (x)|dx < ∞). Rechenregeln für Erwartungswerte X Zufallsvariable, g1, g2 stetige Funktionen von X und a, b ∈ R. Dann ist E[a · g1(X) + b · g2(X)] = a · E[g1(X)] + b · E[g2(X)] Speziell folgt daraus: E[a · X + b] = a · E[X] + b = a · µ + b 2 2.5.3 Varianz X Zufallsvariable mit Mittelwert µ E[(X − µ)2] =: V (X) =: σ 2 heißt Varianz oder mittlere quadratische Abweichung von X. √ σ := σ 2 heißt Standardabweichung (oder mittlerer Fehler) von X. V [a · X + b] = E[((a · X + b) − (a · µ + b))2] = E[a2 · (X − µ)2] = a2 · V [X] Es gilt also die Regel: V [a · X + b] = a2 · V [X] 2.6 Wichtige Verteilungen 1. Null-Eins-Verteilung 1 X nimmt den Wert mit der Wahrschein0 p lichkeit an. 1-p 3 µ = 1 · p + 0 · (1 − p) = p σ 2 = E[(X−µ)2] = (0−p)2 ·(1−p)+(1−p)2 ·p = p2(1−p)+(1−p)2p = p(1−p)(p+1−p) = p(1−p). 2. Binomial- oder Bernoulli-Verteilung Die Wahrscheinlichkeit von A bei einem Versuch sei p. X . . . Anzahl des Auftretens von A bei n unabhängigen Versuchen (z.B. Ziehen mit Zurücklegen!) pk := w(X = k) = n k pk (1 − p)n−k Es gilt: µ=n·p und σ 2 = npq Rechnung! Für die Binomialverteilung gibt es Tabellen! 4 3. Poisson-Verteilung Für n → ∞ und zugleich p → 0, derart, dass gilt: n · p =: λ = const. geht die Binomialverteilung über in die PoissonVerteilung mit dem Parameter λ: λk −λ w(X = k) = e k! mit λ > 0. Rechnung zeigt: µ = σ2 = λ Für große n und kleine p mit 0 < np ≤ 10 ersetzt man die Binomialverteilung durch die PoissonVerteilung mit dem Paramter λ = np. Warum? Weil man damit leichter rechnen kann und (fast) das Gleiche herauskommt. 5 Es gilt: w(0) = e−λ ⇒ Für die Poisson-Verteilung gilt: λ = − ln(w(0)) Anwendung der Poisson-Verteilung: Ein Ereignis A trete immer wieder einmal zufällig ein, z.B.: Vorbeifahren eines Autos an einam bestimmten Messpunkt Emission eines α-Teilchens beim radioaktiven Zerfall einer bestimmten Probe Ankommen eines Telefonanrufs bei der Beschwerdestelle Vorkommen eines Druckfehlers in einem Buch Dann hat die Zufallsvariable Xt: ”Anzahl des Auftretens von A in dem Zeitintervall [t0, t0 + t]“ 6 für jedes t > 0 eine Poisson-Verteilung, wenn gilt: (a) w(Xt = k) ist unabhängig von t0 und stetig in t. (b) In verschiedenen (nicht überlappenden) Zeitintervallen sind die Anzahlen voneinander unabhängig. (c) limt→0 1t · w(Xt > 1) = 0. In einem Buch mit 200 Seiten gibt es 20 Druckfehler, die rein zufällig verteilt sind. (Der Setzer hatte nie einen Tiefpunkt, das zweimalige Korrekturlesen ist unabhängig erfolgt usw.) 20 Auf einer Seite gibt es durchschnittlich 200 = 0, 1 Druckfehler. Parameter λ = 0, 1. Frage: Auf wievielen Seiten sind genau zwei Druckfehler zu erwarten? 7 w(X = 2) = λ2 2! · e−λ = 0,01 2 · e−0,1 ≈ 0, 0045 Auf ungefähr 200 · 0, 0045 = 0, 9 ≈ 1 Seiten sind genau zwei Druckfehler zu erwarten. In einem Buch mit 200 Seiten gibt es 200 Druckfehler. Auf einer Seite gibt es durchschnittlich einen Druckfehler. Parameter λ = 1. Frage: Auf wievielen Seiten sind genau zwei Druckfehler zu erwarten? w(X = 2) = λ2 2! · e−λ = 12 · e−1 ≈ 0, 1839 Auf ungefähr 200 · 0, 1839 = 36, 78 ≈ 37 Seiten sind genau zwei Druckfehler zu erwarten. Für die Poisson-Verteilung gibt es Tabellen! 8 4. Gleichverteilung oder Rechtecksverteilung Stetige Verteilung mit konstanter Wahrscheinlichkeitsdichte f auf einem Intervall [a, b]. Dann ist f (t) = sonst. 1 b−a für a ≤ t ≤ b, f (t) = 0 Verteilungsfunktion: Z x F (x) = f (t)dt = −∞ 0 für x ≤ a für a ≤ x ≤ b für x ≥ b x−a b−a 1 Der Mittelwert µ ist Z Z ∞ x · f (x)dx = µ= −∞ a b 1 x· dx = b−a b 2 − a2 1 · b−a 2 Folglich ist µ = a+b 2 . Die Varianz 2 2 Z ∞ σ = E[(X − µ) ] = (x − µ)2 · f (x)dx = −∞ Z b (x2 − 2µx + µ2) · f (x)dx = a 9 1 b3 − a3 b 2 − a2 ( − 2µ + µ2(b − a)) = b−a 3 2 1 2 1 1 (b + ab + b2) − (a + b)2 + (a + b)2 = 3 2 4 1 (4(b2 + ab + b2) − 3(a + b)2) = 12 1 2 1 2 (b − 2ab + a ) = (b − a)2 12 12 5. Normalverteilung Die Normalverteilung N (µ; σ 2) mit Mittelwert µ und Varianz σ 2 ist die wichtigste stetige Verteilung! (a) Viele Zufallsvariable sind normalverteilt. (b) Viele weitere Zufallsvariable sind näherungsweise normalverteilt. (c) Entsteht eine Zufallsvariable als Summe (oder als Mittelwert) von vielen (mindestens dreißig) unabhängigen Zufallsvariablen, so ist sie näherungsweise normalverteilt. (Mitteilung ohne Beweis) (d) Aus (c) folgt: Die Binomialverteilung ist für große n (ungefähr n·p ≥ 5 und n·(1−p) ≥ 5) näherungsweise eine Normalverteilung. 10 Nicht begründbar aber meist richtig: Unterliegt eine Größe vielen zufälligen unabhängigen Einflussen, so ist sie in der Regel normalverteilt. Beispiele: Körpergröße erwachsener Männer Körpergröße erwachsener Frauen Intelligenzquotient in der Bevölkerung Füllmenge in Verpackungen (meistens) Brustumfang von Soldaten (Quetelet) Wahrscheinlichkeitsdichte: 1 2 − 12 ( t̃−µ σ ) f (t̃) = √ e 2π · σ Setzt man der Dichte t̃−µ σ =: t, so erhält man N (0; 1) mit 1 − 1 t2 φ(t) = √ e 2 2π und der Verteilungsfunktion 11 1 Φ(x) := w(X ≤ x) = √ 2π Z x 1 2 e− 2 t dt −∞ Φ kann man in Tabellen nachschlagen. Der Graph von φ ist die berühmte Gaußsche Glockenkurve (siehe Tafelskizze). Für die Normalverteilung gibt es Tabellen! 12