12 Maßzahlen von Verteilungen 12.1 Erwartungswert 12.1 Definition Es sei X eine Zufallsvariable mit der (Zähl-) Dichte fX . Dann heißt X s · fX (s) , falls X diskret, s∈MX EX := Z ∞ x · fX (x) dx , falls X stetig ist, −∞ der Erwartungswert (der Verteilung) von X. f(x) P(X=k) 0.20 0.6 0.15 0.4 0.10 0.2 0.05 0.0 x 0 E(X) 4 8 0.0 k 2 4 E(X) Erwartungswert als physikalischer Schwerpunkt 10 12 12.2 Beispiel a) Es sei X ∼ P o(λ). Dann gilt EX = ∞ X k · e−λ k=0 −λ = λ·e · ∞ X λk λk−1 = λ · e−λ · k! (k − 1)! k=1 ∞ X λj j=0 j! = λ · e−λ · eλ = λ. b) Es sei X ∼ Exp(α). Dann gilt mit der Substitution u = αx Z ∞ EX = x · α e−αx dx 0 Z ∞ 1 1 1 = · ue−u du = · Γ(2) = . α 0 α α 12.3 Satz (Eigenschaften des Erwartungswertes) a) E(X + Y ) = EX + EY b) E(a · X) = a · EX, a ∈ R, c) E(1A ) = P(A) d) X ≤ Y =⇒ e) P(X = a) = 1 EX ≤ EY =⇒ f) fX symmetrisch zu x = a EX = a, insbesondere: Ec = c =⇒ EX = a. Eine direkte Konsequenz für a1 , . . . , an , b ∈ R ist E n X ! ak · Xk + b k=1 = E n X k=1 = n X k=1 ak · Xk ! + Eb E (ak · Xk ) + Eb = n X ak · EXk + b. k=1 Beachtet man, dass N (µ, σ 2) eine zu µ symmetrische Dichte besitzt, so folgt ohne Rechnung: µ = Erwartungswert von N (µ, σ 2) Ähnlich folgt, dass die (diskrete) Gleichverteilung auf (a, b) bzw. auf {a, a+1, . . . , b} den Erwartungswert a+b 2 besitzt. Symmetrische Verteilung Erwartungswerte wichtiger Verteilungen Verteilung Erwartungswert Bin(n, p) n·p Hyp(n, r, s) n · r/(r + s) P o(λ) λ Nb(r, p) r · (1 − p)/p G(p) (1 − p)/p N (µ, σ 2 ) µ LN (µ, σ 2) eµ+ 2 σ U(a, b) (a + b)/2 Γ(α, β) α/β Exp(λ) 1/λ 1 2 12.4 Satz a) Für eine Funktion g : R → R gilt: X g(s) · fX (s) , X diskret s∈MX Eg(X) = Z ∞ g(x) · fX (x) dx , X stetig. −∞ b) Für eine Funktion h : R2 → R gilt: Eh(X, Y ) = X X h(s, t) · fX,Y (s, t) s∈MX t∈MY Z ∞ −∞ Z ∞ , h(x, y) · fX,Y (x, y) dy dx , −∞ falls X und Y diskret bzw. stetig sind. c) Sind X und Y stochastisch unabhängig, so gilt E(X · Y ) = EX · EY Die Umkehrung gilt im Allgemeinen nicht. d) Besitzt X die Verteilungsfunktion FX , so gilt Z ∞ Z 0 EX = (1 − FX (x)) dx − FX (x) dx. 0 −∞ e) Ist X eine N0 -wertige Zufallsvariable, so gilt Z ∞ ∞ X P(X ≥ n) = (1 − FX (x)) dx. EX = n=1 0 Nach der Darstellungsformel ist EX in der folgenden Abbildung die hellgraue Fläche abzüglich der dunkelgrauen. 12.5 Beispiel (Geometrische Verteilung) Es sei X ∼ G(p). Wegen P(X ≥ n) = (1 − p)n , n ∈ N0 , und Satz 12.4 gilt EX = ∞ X n=1 (1 − p) n = (1 − p) ∞ X n=0 (1 − p)n = 1−p 1−p = . 1 − (1 − p) p 12.2 Varianz 12.6 Definition a) Hat die Zufallsvariable X den Erwartungswert EX, so heißt 2 σX := V (X) := E(X − EX)2 die Varianz (der Verteilung) von X. p V (X) heißt die Standardabweichung (der Verteilung) von X . b) σX := p V (X) c) Ist X > 0, so heißt vX := der Variationskoeffizient (der Verteilung) EX von X. 12.7 Satz (Eigenschaften der Varianz) a) V (X) ≥ 0; V (X) = 0 ⇐⇒ P(X = EX) = 1. b) V (X) = E(X 2 ) − (EX)2 . c) V (a · X + b) = a2 · V (X), a, b ∈ R. 12.8 Beispiel a) X ∼ N (µ, σ 2) =⇒ V (X) = σ 2 , d.h. N (µ, σ 2) besitzt den Erwartungs- wert µ und die Varianz σ 2 . Speziell besitzt die Standard-Normalverteilung N (0, 1) den Erwartungswert 0 und die Varianz 1. b) X ∼ P o(λ) =⇒ V (X) = λ. Varianzen wichtiger Verteilungen Verteilung Varianz Bin(n, p) n · p · (1 − p) Hyp(n, r, s) n · p · (1 − p) · 1 − mit p = r r+s P o(λ) λ Nb(r, p) r · (1 − p)/p2 G(p) (1 − p)/p2 N (µ, σ 2) σ2 LN (µ, σ 2 ) e2µ+σ · (eσ − 1) U(a, b) (b − a)2 /12 Γ(α, β) α/β 2 Exp(λ) 1/λ2 2 2 n−1 r+s−1 12.9 Satz und Definition Es sei X eine Zufallsvariable mit µ := EX und σ := X̃ := X −µ σ p V (X) > 0. Dann heißt die zu X standardisierte Zufallsvariable oder Standardisierung von X. Es gilt EX̃ = 1 E(X − µ) = 0, σ V (X̃) = 1 V (X) = 1. σ2 12.10 Definition a) Für k ∈ N heißt X sk · fX (s) , X diskret, s∈MX EX k = Z ∞ xk · fX (x) dx , X stetig −∞ das k-te Moment (der Verteilung) von X. b) Sei µ := EX. E(X − µ)k = X (s − µ)k · fX (s) s∈MX Z , ∞ (x − µ)k · fX (x) dx , −∞ falls X diskret bzw. stetig ist, heißt das k-te zentrale Moment von X. Die Varianz ist das 2. zentrale Moment. 12.11 Beispiel a) Sei X ∼ N (µ, σ 2). Dann gilt 0, k ungerade k E(X − µ) = σ k · 1 · 3 · 5 · . . . · (k − 3) · (k − 1), sonst. b) Für X ∼ Γ(α, β) und beliebiges k > −α gilt β α Γ(α + k) · Γ(α) β α+k α(α + 1) . . . (α + k − 1) = , falls k eine ganze Zahl ist. βk Insbesondere: α α(α + 1) EX = , EX 2 = β β2 2 α(α + 1) α α V (X) = − = . β2 β2 β2 EX k = 12.3 Quantile 12.12 Definition Sei X eine Zufallsvariable mit stetiger, streng monoton wachsender Verteilungsfunktion FX (t) = P(X ≤ t), t ∈ R. Zu p mit 0 < p < 1 heißt tp := tp (X) := FX−1 (p) das p-Quantil (der Verteilung) von X bzw. von FX . t1/2 heißt Median, t1/4 heißt unteres Quartil und t3/4 heißt oberes Quartil. tp ist die eindeutig bestimmte Lösung der Gleichung F (x) = p. Zur Definition des p-Quantils 12.13 Bemerkung a) Ist fX symmetrisch, so stimmen Erwartungswert EX und der Median t1/2 überein. b) Das p-Quantil von N (0, 1) bezeichnen wir mit up . Die wichtigsten Quantile von N (0, 1): p 0.900 0.950 0.975 0.990 0.995 0.999 up 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902 Die Werte für p < 0.5 erhält man aus der Beziehung up = −u1−p , 0 < p < 1. So ist etwa u0.05 = −u0.95 = −1.6449. 12.14 Beispiel Quantile der Exponentialverteilung: Es sei X ∼ Exp(α), α > 0. Aus FX (x) = 1 − e−αx = p folgt tp = − 1 · ln(1 − p). α Z.B. gilt für p = 1/2 und α = 1 t1/2 = − ln(1/2) = 0.693 < 1 = EX. 12.4 Kovarianz und Korrelationskoeffizient Es gilt stets E(X + Y ) = EX + EY , aber in der Regel V (X + Y ) 6= V (X) + V (Y ). Wegen V (X + Y ) = E(X + Y − E(X + Y ))2 = E[(X − EX) + (Y − EY )]2 = E[(X − EX)2 + 2 · (X − EX) · (Y − EY ) + (Y − EY )2 ] = E(X − EX)2 + 2 · E(X − EX) · (Y − EY ) + E(Y − EY )2 = V (X) + V (Y ) + 2 · E(X − EX) · (Y − EY ) gilt V (X + Y ) = V (X) + V (Y ) genau dann, wenn E(X − EX) · (Y − EY ) = 0 ist. 12.15 Definition a) Der Ausdruck C(X, Y ) := E(X − EX) · (Y − EY ) heißt Kovarianz von X und Y . C(X, Y ) heißt Korrelationskoeffizient von X und Y (falls b) ρ(X, Y ) := p V (X) · V (Y ) V (X) · V (Y ) > 0). >0 positiv korreliert, falls ρ(X, Y ) = 0 ist. c) X und Y heißen un− <0 negativ Also gilt: V (X + Y ) = V (X) + V (Y ) + 2 · C(X, Y ). 12.16 Satz a) C(X, Y ) = E(X · Y ) − EX · EY b) C(X, X) = V (X) und C(Y, X) = C(X, Y ) c) Sind X und Y unabhängig, so sind sie auch unkorreliert. Die Umkehrung dieser Aussage ist im Allgemeinen falsch. d) Sind X1 , . . . , Xn stochastisch unabhängig , so gilt ! n n X X V (Xj ). Xj = V j=1 j=1 e) −1 ≤ ρ(X, Y ) ≤ +1 f) C(X + Z, Y ) = C(X, Y ) + C(Z, Y ). 12.17 Beispiel Sei X ∼ Bin(n, p). Dann gilt V (X) = n · p · (1 − p).