2.7 Summen von Zufallsgrößen Literatur: [Papula Bd. 3, Kap. II.7.5 ff.], [Benning, Kap. 3.4] Satz 1 (Additionssatz für Erwartungswerte) Der Erwartungswert einer Linearkombination von (diskreten oder stetigen, nicht notwendig unabhängigen) Zufallsgrößen, deren Erwartungswerte existieren, ist gleich der Linearkombination der Erwartungswerte der einzelnen Zufallsgrößen, E(a1 X1 + a2 X2 + . . . + an Xn ) = a1 E(X1 ) + a2 E(X2 ) + . . . + an E(Xn ). Beweis Wir beweisen den Fall zweier diskreter Zufallsgrößen. Es gilt: XX E(aX + bY ) = (axi + byj )pij = a = a i j X xi X pij + b i j X xi pi∗ + b i X yj X j X pij i yj p∗j j = aE(X) + bE(Y ). Der Fall mehrerer Zufallsgrößen und der Fall stetiger Zufallsgrößen lässt sich analog behandeln. q.e.d. Bsp 2 Beim Zufallsexperiment Würfeln mit zwei unterscheidbaren Würfeln interessieren wir uns für die Zufallsvariable Z = Augensumme beider Würfel, die als Summe der beiden Zufallsvariablen X = Augenanzahl der ersten Würfels Y = Augenanzahl der zweiten Würfels darstellbar ist. Wir haben bereits berechnet, dass die Erwartungswerte von X und Y gleich 3,5 ist. Nach dem Satz ist der Erwartungswert von Z = X + Y gleich 7. Das hatten wir auch schon einmal ausgerechnet. 2.7 – 1 Satz 3 (Additionssatz für die Varianz) Der Varianz einer Linearkombination von (diskreten oder stetigen) unabhängigen Zufallsgrößen ist gleich der Linearkombination der Varianzen der einzelnen Zufallsgrößen, Var(a1 X1 + a2 X2 + . . . + an Xn ) = a21 Var(X1 ) + a22 Var(X2 ) + . . . + a2n Var(Xn ). Beweis Wir beweisen auch hier nur den Fall zweier Zufallsgrößen. Mit den Abkürzungen µX = E(X) und µY = E(Y ) gilt: Var(aX + bY ) = E[(aX + bY − E(ax + bY ))2 ] = E[(a(X − µX ) + b(Y − µY ))2 ] = E[a2 (X − µX )2 + 2ab(X − µX )(Y − µY ) + b2 (Y − µY )2 ] = a2 E[(X − µX )2 ] + 2abE[(X − µX )(Y − µY )] + b2 E[(Y − µY )2 ] = a2 Var(X) + 2abE[(X − µX )(Y − µY )] + b2 Var(Y ). Der störende Term E[(X − µX )(Y − µY )] = E(XY ) − µX µY wird genau dann Null, wenn die Zufallsgrößen X und Y unabhängig sind. Der Fall mehrerer Zufallsgrößen lässt sich analog behandeln. q.e.d. Bsp 4 Wir haben bereits auf diese beiden Sätze vorgegriffen, als wir Erwartungswert und Varianz bei der Binomialverteilung bewiesen haben. Seien die Zufallsgrößen X1 , . . . , Xn die Resultate von Bernoulliexperimenten, bei denen das beobachtete Ereignis mit Wahrscheinlichkeit p eintritt. Die Summe X = X1 + . . . + Xn ist dann laut Definition eine binomialverteilte Zufallsgröße mit den Parametern n und p. Wir hatten bereits geprüft, dass für die Einzelereignisse E(Xi ) = p, Var(Xi ) = p(1 − p) i = 1, . . . , n, gilt. Nach den beiden hier formulierten Sätzen folgt E(X) = np, Var(X) = np(1 − p). Bsp 5 Wir bilden aus n unabhängigen, normalverteilten Zufallsgrößen X1 , . . . , Xn den arithmetischen Mittelwert X= 1 (X1 + . . . + Xn ). n Besitzen alle Xi denselben Mittelwert µ und dieselbe Varianz σ 2 , dann folgt E(X) = µ, Var(X) = n · 1 2 σ2 σ = . n2 n Beim Bilden des Mittelwertes bleibt der Erwartungswert erhalten, während die Varianz auf den n-ten Teil zurückgeht. 2.7 – 2 Bem 6 In naturwissenschaftlich-technischen Anwendungen hat man es häufig mit Zufallsgrößen zu tun, deren Verteilung man nicht kennt, z.B. Messfehler oder Fertigungsfehler. Was man aber immer beobachten kann, ist die Summe, bzw. das arithmetische Mittel X aus n solchen, unabhängigen Zufallsgrößen X1 ,. . . , Xn . Satz 7 (Zentraler Grenzwertsatz von Lindenberg/Levy) Wenn die unabhängigen Zufallsvariablen X1 ,. . . , Xn derselben Verteilung mit dem Erwartungswert µ und der Varianz σ 2 genügen, dann konvergiert die Verteilungsfunktion Fn der Zufallsgröße n 1X Xi − µ n i=1 √ Yn = σ/ n für n → ∞ gegen die Verteilungsfunktion Φ der Standardnormalverteilung, 1 lim Fn (y) = √ n→∞ 2π Zy 2 /2 e−t dt f.f.a. y ∈ R. −∞ Bem 8 1. Die Ersetzung von Fn durch Φ ist praktisch für n > 30 möglich. 2. Wir haben oben festgestellt, dass der arithmetische Mittelwert aus n unabhängigen, normalverteilten Zufallsgrößen stets normalverteilt mit gleichem Mittelwert und auf den n-ten Teil reduzierter Varianz ist. Der Zentrale Grenzwertsatz besagt, dass das für große n auch für alle anderen Verteilungen annähernd gilt. 3. Für allgemeinere Grenzwertsätze sei auf die Literatur verwiesen. Bsp 9 Insbesondere kann der Satz auf die Binomialverteilung angewandt werden. Seien die Zufallsgrößen X1 , . . . , Xn die Resultate von Bernoulliexperimenten, bei denen das beobachtete Ereignis mit Wahrscheinlichkeit p eintritt. Es gilt E(Xi ) = p, Var(Xi ) = p(1 − p) i = 1, . . . , n. Die Zufallsgröße X = X1 + . . . + Xn = nX ist dann binomialverteilt mit den Parametern n und p. Nach dem Zentralen Grenzwertsatz konvergiert die Verteilungsfunktion der standardisierten Zufallsgröße n n X 1X Xi − p Xi − np n i=1 i=1 Yn = p =p p(1 − p)/n np(1 − p) für n → ∞ gegen die Verteilungsfunktion Φ der Standardnormalverteilung. Dieser Satz ist auch unter dem Namen Grenzwertsatz von Moivre-Laplace bekannt. Eine Illustration dafür bietet das Galton-Brett , siehe auch http: //www.unizh.ch/biostat/kurs/normal/kap53.htm 2.7 – 3 Bem 10 Der Zentrale Grenzwertsatz ist ein wichtiges Resultat. Dennoch hat er eine einschränkende Voraussetzung. Es müssen der Erwartungswert und die Varianz der Verteilung der Zufallsgrößen Xi bekannt sein. Man kann diese nun durch Bildung von Mittelwert und empirischer Varianz aus einer Stichprobe schätzen. Danach sollte man aber prüfen (testen), ob X tatsächlich annähernd normalverteilt mit den empirisch gewonnenen Parametern ist. Das ist Aufgabe der induktiven Statistik, der wir uns in Kapitel 3 zuwenden. Dazu benötigen wir jedoch noch einige Verteilungen, die hier eingeführt seien. Def 11 Gegeben seien n unabhängige standardnormalverteilte Zufallsgrößen X1 , . . . , Xn . Dann heißt die Verteilung der Zufallsgröße χ2 = X12 + . . . + Xn2 χ2 -Verteilung mit n Freiheitsgraden (auch Helmert-Pearson-Verteilung). Ihre Verteilungsfunktion wird mit Fχ2 (x) und die zugehörige Dichtefunktion mit fχ2 (x) bezeichnet. Def 12 Ist X eine standardnormalverteilte Zufallsgröße und Y eine von X unabhängige χ2 -verteilte Zufallsgröße mit m Freiheitsgraden, dann heißt die Verteilung der Zufallsgröße X T =p Y /m Student-Verteilung oder t-Verteilung mit m Freiheitsgraden. Def 13 Sind X1 und X2 unabhängige, χ2 -verteilte Zufallsgrößen mit m1 bzw. m2 Freiheitsgraden, dann heißt die Verteilung der Zufallsgröße Fm1 ,m2 = m2 X 1 · m1 X 2 Fisher-Verteilung oder F -Verteilung mit den Freiheitsgraden m1 und m2 . Bem 14 Für Verteilungs- und Dichtefunktion der χ2 -, t- und F -Verteilung sei auf die Literatur verwiesen. Quantile sind tabelliert. 2.7 – 4