3.4 Summen von Zufallsvariablen Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt Z fZ (z ) = 1 1 fX (x) fY (z x) d x : Beweis: Nach Denition der Verteilungsfunktion gilt FZ (t) = Pr[Z t] = Pr[X + Y t] = Z A(t) fX;Y (x; y) d xd y wobei A(t) = f(x; y ) 2 R2 j x + y tg. DWT c Susanne Albers 3.4 Summen von Zufallsvariablen 263/460 Beweis (Forts.): Aus der Unabhangigkeit von X und Y folgt FZ (t) = = Z A(t) Z 1 1 fX (x) fY (y) d xd y fX (x) Z t x 1 fY (y) d y d x: Mittels der Substitution z := x + y , d z = d y ergibt sich Z t x 1 und somit FZ (t) = DWT c Susanne Albers fY (y) d y = Z t Z 1 1 1 Z t 1 fY (z x) d z fX (x)fY (z x) d x d z : 264/460 Satz 106 (Additivitat der Normalverteilung) Die Zufallsvariablen X1 ; : : : ; Xn seien unabhangig und normalverteilt mit den Parametern i ; i (1 i n). Es gilt: Die Zufallsvariable Z := a1 X1 + : : : + an Xn ist normalverteilt mit Erwartungswert = a1 1 + : : : + an n und Varianz 2 = a21 12 + : : : + a2n n2 . Beweis: Wir beweisen zunachst den Fall n = 2 und a1 = a2 = 1. Nach Satz 105 gilt fur Z := X1 + X2 , dass Z1 fZ (z ) = = DWT c Susanne Albers 1 fX1 (z 1 1 2 2 Z1 1 y ) fX2 (y ) d y exp 1 2 | z ( y 1 )2 (y 2 )2 + d y: 12 22 {z } =:v 3.4 Summen von Zufallsvariablen 265/460 Beweis (Forts.): Wir setzen := 1 + 2 2 := 12 + 22 v1 := (z )= v22 := v v12 Damit ergibt sich unmittelbar v22 = woraus wir ermitteln. DWT c Susanne Albers (z y 1 )2 + (y 2 )2 12 v2 = 22 y12 2 12 + y22 1 2 (z 1 2 )2 ; 12 + 22 z22 + 1 22 3.4 Summen von Zufallsvariablen 266/460 Beweis (Forts.): Damit folgt fur die gesuchte Dichte fZ (z ) = Wir substituieren noch und erhalten 1 2 1 2 exp v12 Z 2 1 exp t := v2 und d t = 1 2 d y: dy 1 2 Z 1 ( z )2 1 fZ (z ) = 2 exp 22 1 exp Mit Lemma 92 folgt, dass fZ (z ) = '(z ; ; ) ist. DWT c Susanne Albers v22 t2 2 d t: 267/460 Beweis (Forts.): Daraus erhalten wir die Behauptung fur n = 2, denn den Fall Z := a1 X1 + a2 X2 fur beliebige Werte a1 ; a2 2 R konnen wir leicht mit Hilfe von Satz 93 auf den soeben bewiesenen Fall reduzieren. Durch Induktion kann die Aussage auf beliebige Werte n 2 N verallgemeinert werden. DWT c Susanne Albers 268/460 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen Fur diskrete Zufallsvariablen X haben wir die momenterzeugende Funktion MX (s) = E[eXs ] eingefuhrt. Diese Denition kann man unmittelbar auf kontinuierliche Zufallsvariablen ubertragen. Die fur MX (s) gezeigten Eigenschaften bleiben dabei erhalten. DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 269/460 Beispiel 107 Fur eine auf [a; b] gleichverteilte Zufallsvariable U gilt MU (t) = E[etX ] = etx = t(b a) etb eta Z b a b etx 1 dx b a a = t(b a) : DWT c Susanne Albers 270/460 Beispiel (Forts.) Fur eine standardnormalverteilte Zufallsvariable N N (0; 1) gilt Z +1 1 MN (t) = p et e =2 d 2 1 Z +1 e (t ) =2 d = et =2 p1 2 1 t = 2 =e : 2 2 2 2 DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 271/460 Beispiel (Forts.) Daraus ergibt sich fur Y N (; 2) wegen Y N (0; 1) MY (t) = E[etY ] Y = et E[e(t) ] = et MN (t) = et+(t)2 =2 : DWT c Susanne Albers 272/460 Weiterer Beweis von Satz 106: Beweis: Gema dem vorhergehenden Beispiel gilt MXi (t) = eti +(ti ) =2 : Wegen der Unabhangigkeit der Xi folgt 2 MZ (t) = E[et(a1 X1 ++an Xn ) ] = = = n Y i=1 n Y n Y i=1 E[e(ai t)Xi ] MXi (ai t) eai ti +(ai ti ) =2 2 i=1 = et+(t)2 =2 ; mit = a1 1 + + an n und 2 = a21 12 + + a2n n2 . DWT c Susanne Albers 3.5 Momenterzeugende Funktionen fur kontinuierliche Zufallsvariablen 273/460 4. Zentraler Grenzwertsatz Satz 108 (Zentraler Grenzwertsatz) Die Zufallsvariablen X1 ; : : : ; Xn besitzen jeweils dieselbe Verteilung und seien unabhangig. Erwartungswert und Varianz von Xi existieren fur i = 1; : : : ; n und seien mit bzw. 2 bezeichnet ( 2 > 0). Die Zufallsvariablen Yn seien deniert durch Yn := X1 + : : : + Xn fur n 1. Dann folgt, dass die Zufallsvariablen Yn n p n asymptotisch standardnormalverteilt sind, also Zn N (0; 1) fur n ! 1. Zn := DWT c Susanne Albers 4 Zentraler Grenzwertsatz 274/460 Etwas formaler ausgedruckt gilt: Die Folge der zu Zn gehorenden Verteilungsfunktionen Fn hat die Eigenschaft lim F (x) = (x) fur alle n!1 n x 2 R: Wir sagen dazu auch: Die Verteilung von Zn konvergiert gegen die Standardnormalverteilung fur n ! 1. DWT c Susanne Albers 275/460 Dieser Satz ist von groer Bedeutung fur die Anwendung der Normalverteilung in der Statistik. Der Satz besagt, dass sich die Verteilung einer Summe beliebiger unabhangiger Zufallsvariablen (mit endlichem Erwartungswert und Varianz) der Normalverteilung umso mehr annahert, je mehr Zufallsvariablen an der Summe beteiligt sind. DWT c Susanne Albers 276/460 Beweis: Wir betrachten Xi := (Xi )= fur i = 1; : : : ; n mit E[Xi ] = 0 und Var[Xi ] = 1. Damit gilt (gema vorhergehendem Beispiel) p MZ (t) = E[etZ ] = E[et(X1 +:::+Xn )= n ] p p = MX1 (t= n) : : : MXn (t= n) : Fur beliebiges i betrachten wir die Taylorentwicklung von MXi (t) =: h(t) an der Stelle t=0 h00 (0) 2 h(t) = h(0) + h0 (0) t + t + O(t3): Aus der Linearitat des Erwartungswerts folgt 2 h0 (t) = E[etXi Xi ] und h00 (t) = E[etXi (Xi )2 ]: DWT c Susanne Albers 4 Zentraler Grenzwertsatz 277/460 Beweis (Forts.): Damit gilt h0 (0) = E[Xi ] = 0 und h00 (0) = E[(Xi )2 ] = Var[X ] = 1: Durch Einsetzen in die Taylorreihe folgt h(t) = 1 + t2 =2 + O(t3 ), und wir konnen MZ (t) umschreiben zu t2 t3 MZ (t) = 1 + + O 3=2 2n n n ! et =2 fur n ! 1: 2 Aus der Konvergenz der momenterzeugenden Funktion folgt auch die Konvergenz der Verteilung. Damit ist Z asymptotisch normalverteilt. DWT c Susanne Albers 278/460 Beweis (Forts.): Die momenterzeugende Funktion existiert leider nicht bei allen Zufallsvariablen und unser Beweis ist deshalb unvollstandig. Man umgeht dieses Problem, indem man statt der momenterzeugenden Funktion die so genannte charakteristische Funktion M~ X (t) = E[eitX ] betrachtet. Fur Details verweisen wir auf die einschlagige Literatur. DWT c Susanne Albers 279/460 Der Zentrale Grenzwertsatz hat die folgende intuitive Konsequenz: Wenn eine Zufallsgroe durch lineare Kombination vieler unabhangiger, identisch verteilter Zufallsgroen entsteht, so erhalt man naherungsweise eine Normalverteilung. DWT c Susanne Albers 280/460 Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgroen Bernoulli-verteilt sind. Korollar 109 (Grenzwertsatz von de Moivre) X1 ; : : : ; Xn seien unabhangige Bernoulli-verteilte Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p. Dann gilt fur die Zufallsvariable Hn mit Hn := X1 + : : : + Xn fur n 1, dass die Verteilung der Zufallsvariablen Hn := Hn np np(1 p) p fur n ! 1 gegen die Standardnormalverteilung konvergiert. DWT c Susanne Albers 281/460 Beweis: Die Behauptung folgt unmittelbar aus dem Zentralen Grenzwertsatz, da = n1 E[Hn ] = p und 2 = n1 Var[Hn ] = p(1 p). Bemerkung Wenn man X1 ; : : : ; Xn als Indikatorvariablen fur das Eintreten eines Ereignisses A bei n unabhangigen Wiederholungen eines Experimentes interpretiert, dann gibt Hn die absolute Haugkeit von A an. DWT c Susanne Albers 4 Zentraler Grenzwertsatz 282/460 4.1 Normalverteilung als Grenzwert der Binomialverteilung Korollar 109 ermoglicht, die Normalverteilung als Grenzwert der Binomialverteilung aufzufassen. Die folgende Aussage ist eine Konsequenz von Korollar 109: Korollar 110 Sei Hn Bin(n; p) eine binomialverteilte Zufallsvariable. Die Verteilung von Hn =n konvergiert gegen N (p; p(1 p)=n) fur n ! 1. DWT c Susanne Albers 4.1 Normalverteilung als Grenzwert der Binomialverteilung 283/460 0.4 0.4 Bin(10, 0.3) ϕ(x) 0.3 0.3 0.2 0.2 0.1 0.1 0.0 -4.0 -3.0 -2.0 -1.0 0.0 0.4 1.0 2.0 3.0 4.0 0.0 -4.0 0.3 0.2 0.2 0.1 0.1 -3.0 -2.0 -1.0 0.0 1.0 2.0 -3.0 -2.0 -1.0 0.0 0.4 Bin(50, 0.3) ϕ(x) 0.3 0.0 -4.0 Bin(20, 0.3) ϕ(x) 3.0 4.0 0.0 -4.0 1.0 2.0 3.0 4.0 3.0 4.0 Bin(100, 0.3) ϕ(x) -3.0 -2.0 -1.0 0.0 1.0 2.0 Vergleich von Binomial- und Normalverteilung n; 0:3) bei 0:3n zentriert, mit Bin( DWT c Susanne Albers p0:3 0:7n horizontal gestaucht und vertikal gestreckt 4.1 Normalverteilung als Grenzwert der Binomialverteilung 284/460 Historisch gesehen entstand Korollar 109 vor Satz 108. Fur den Fall p = 1=2 wurde Korollar 109 bereits von Abraham de Moivre (1667{1754) bewiesen. De Moivre war geburtiger Franzose, musste jedoch aufgrund seines protestantischen Glaubens nach England iehen. Dort wurde er unter anderem Mitglied der Royal Society, erhielt jedoch niemals eine eigene Professur. Die allgemeine Formulierung von Korollar 109 geht auf Pierre Simon Laplace (1749{1827) zuruck. Allerdings vermutet man, dass die Losung des allgemeinen Falls p 6= 1=2 bereits de Moivre bekannt war. DWT c Susanne Albers 285/460 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 Wir betrachten die Wahrscheinlichkeit Pr[a H2n b] fur p = 1=2 und a; b 2 R mit a b. Wenn die Verteilung von H2n , wieRin Korollar 109 angegeben, gegen N (0; 1) konvergiert, so sollte Pr[a H2n b] ab '(t) d t fur genugend groe n gelten. Wir schreiben f (n) 1 g (n) fur limn!1 f (n)=g (n) = 1, wollen also zeigen: Pr[a H 2n b] 1 Z b a '(t) d t: Da fur H2n Bin(2n; 1=2) gilt, dass E[H2n ] = n und Var[H2n ] = n=2 ist, erhalten wir H2n n ; H2n = p n=2 DWT c Susanne Albers 286/460 und es folgt p p Pr[a H2n b] = Pr[n + a n=2 H2n n + b n=2] X = Pr[H2n = n + i] i2In p p fur In := fz 2 Z j a n=2 z b n=2g. Damit ist 2n 2n 1 2n b] = n + i {z 2 i2In | Pr[a H X =:pn;i DWT c Susanne Albers : } 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 287/460 Es gilt 2n max pn;i pn := 2n i 21 n und mit der Stirling'schen Approximation fur n! p 2n n)! 1 = (2 (n!)2 2 ; (2n)2n e 2n p 2 2n 1 2n = p1 : pn 1 2 n (nn e n 2n)2 Ersetzen wir nun die pn;i durch pn , so entsteht dabei ein Fehler, den wir mit qn;i := ppn;i n bezeichnen. DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 288/460 Fur i > 0 gilt qn;i = = 2n 1 2n n+i 2 2n 1 2n 2 n Qi 1 j =0 (n j ) Qi j =1 (n + j ) = (n + i(2)!n )!(n n! i)!n! (2n)! i i Y Y 2 j 1 n j+1 = 1 n+j : = n+j j =1 j =1 Wegen der Symmetrie der Binomialkoezienten gilt qn; i = qn;i , womit auch der Fall i < 0 abgehandelt ist. DWT c Susanne Albers 289/460 Man macht sich leicht klar, dass 1 schlieen wir, dass 0 ln @ i Y j =1 p 1 1 A 1 2nj + j 1=x ln x x 1 fur x > 0 gilt. Damit = i X ln 1 2nj + j1 j =1 i X i X 2 j 1 2j 1 n+j n+i j =1 j =1 2 3 = i(i n++1)i i = in + n(ni + i) 2 = in + O p1n ; da i = O( n) fur i 2 In . DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 290/460 Ebenso erhalten wir 0 ln @ i Y j =1 1 1 A 1 2nj + j = i X 1 j =1 i X 1 2nj + j1 2j + 1 n j+1 j =1 i2 = n i = Zusammen haben wir e i2 n i =e i2 n O p1n qn;i e p Wegen eO(1= n) = 1 o(1) folgt daraus qn;i DWT c Susanne Albers 1 e i2 n i X 1! 2j 1 j =1 n i O p1n : i2 +O p1 n n i2 =n . 291/460 Damit schatzen wir nun Pr[a H2n b] weiter ab: X Pr[a H2n b] = pn qn;i 1 i2In Mit := p1n | X i 2I n e {z =:Sn i2 =n : } p 2=n konnen wir die Summe Sn umschreiben zu 1 X e (i) : Sn = p 2 i2In 2 1 2 R R 2 Diese Summe entspricht einer Naherung fur ab '(t) d t = p12 ab e t =2 d t durch Aufteilung der integrierten Flache in Balken der Breite ur n ! 1 konvergiert die R . F Flache der Balken gegen das Integral, d. h. Sn 1 ab '(t) d t. q. e. d. DWT c Susanne Albers 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre fur p = 1=2 292/460 4.3 Verschiedene Approximationen der Binomialverteilung Sei Hn Bin(n; p) eine binomialverteilte Zufallsvariable mit der Verteilungsfunktion Fn . Fur n ! 1 gilt Fn (t) = Pr[Hn =n t=n] ! t=n p ! p = p(1 p)=n ! t np p : p(1 p)n Wir konnen Fn somit fur groe n durch approximieren. Diese Approximation ist in der Praxis deshalb von Bedeutung, da die Auswertung der Verteilungsfunktion der Binomialverteilung fur groe n sehr aufwandig ist, wahrend fur die Berechnung der Normalverteilung eziente numerische Methoden vorliegen. DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 293/460 Beispiel 111 Wenn man die Wahrscheinlichkeit berechnen mochte, mit der bei 106 Wurfen mit einem idealen Wurfel mehr als 500500-mal eine gerade Augenzahl fallt, so muss man eigentlich folgenden Term auswerten: T := 10 X 106 6 i=5;00510 5 i 106 1 2 : Dies ist numerisch kaum ezient moglich. Die numerische Integration der Dichte ' der Normalverteilung ist hingegen relativ einfach. Auch andere Approximationen der Verteilung , beispielsweise durch Polynome, sind bekannt. Entsprechende Funktionen werden in zahlreichen Softwarebibliotheken als black box\ angeboten. " DWT c Susanne Albers 294/460 Beispiel Mit der Approximation durch die Normalverteilung erhalten wir 5;005p 105 5 105 T 1 2;5 105 102 = 1 55 10 2 = 1 (1) 0;1573 : DWT c Susanne Albers ! 4.3 Verschiedene Approximationen der Binomialverteilung 295/460 Bei der Approximation der Binomialverteilung mit Hilfe von Korollar 109 fuhrt man oft noch eine so genannte Stetigkeitskorrektur durch. Zur Berechnung von Pr[X x] fur X Bin(n; p) setzt man Pr[X x] xp+ 0;5 np np(1 p) statt an. DWT c Susanne Albers Pr[X x] p x np np(1 p) ! ! 296/460 Der Korrekturterm lat sich in der Histogramm-Darstellung der Binomialverteilung veranschaulichen. Die Binomialverteilung wird dort durch Balken angegeben, deren Flache in etwa der Flache unterhalb der Dichte ' von N (0; 1) entspricht. Wenn man die Flache der Balken mit X x\ durch das Integral von ' approximieren mochte, so " sollte man bis zum Ende des Balkens fur X = x\ integrieren und nicht nur bis zur " Mitte. Dafur sorgt der Korrekturterm 0;5. DWT c Susanne Albers 4.3 Verschiedene Approximationen der Binomialverteilung 297/460 Approximationen fur die Binomialverteilung Approximation durch die Poisson-Verteilung: Bin(n; p) wird approximiert durch Po(np). Diese Approximation funktioniert sehr gut fur seltene Ereignisse, d. h. wenn np sehr klein gegenuber n ist. Als Faustregel fordert man n 30 und p 0;05. Approximation durch die Cherno-Schranken: Bei der Berechnung der tails der Binomialverteilung liefern diese Ungleichungen meist sehr gute Ergebnisse. Ihre Starke liegt darin, dass es sich bei den Schranken nicht um Approximationen, sondern um echte Abschatzungen handelt. Dies ist vor allem dann wichtig, wenn man nicht nur numerische Naherungen erhalten mochte, sondern allgemeine Aussagen uber die Wahrscheinlichkeit von Ereignissen beweisen mochte. DWT c Susanne Albers 298/460 Approximation durch die Normalverteilung: Als Faustregel sagt man, dass die Verteilungsfunktion Fn (t) von Bin(n; p) durch p Fn (t) ((t np)= p(1 p)n) approximiert werden kann, wenn np 5 und n(1 DWT c Susanne Albers p) 5 gilt. 299/460 Kapitel III Induktive Statistik 1. Einfuhrung Das Ziel der induktiven Statistik besteht darin, aus gemessenen Zufallsgroen auf die zugrunde liegenden Gesetzmaigkeiten zu schlieen. Im Gegensatz dazu spricht man von deskriptiver Statistik, wenn man sich damit beschaftigt, groe Datenmengen verstandlich aufzubereiten, beispielsweise durch Berechnung des Mittelwertes oder anderer abgeleiteter Groen. DWT c Susanne Albers 1 Einfuhrung 300/460 2. Schatzvariablen Wir betrachten die Anzahl X von Lesezugrien auf eine Festplatte bis zum ersten Lesefehler und nehmen an, dass Pr[X = i] = (1 p)i 1 p, setzen also fur X eine geometrische Verteilung an. Dahinter verbirgt sich die Annahme, dass bei jedem Zugri unabhangig und mit jeweils derselben Wahrscheinlichkeit p ein Lesefehler auftreten kann. Unter diesen Annahmen ist die Verteilung der Zufallsvariablen X eindeutig festgelegt. Allerdings entzieht sich der numerische Wert des Parameters p noch unserer Kenntnis. Dieser soll daher nun empirisch geschatzt werden. Statt p konnen wir ebensogut E[X ] bestimmen, da wir daraus nach den Eigenschaften der geometrischen Verteilung p mittels p = E[1X ] berechnen konnen. DWT c Susanne Albers 2 Schatzvariablen 301/460 Dazu betrachten wir n baugleiche Platten und die zugehorigen Zufallsvariablen Xi (fur 1 i n), d. h. wir zahlen fur jede Platte die Anzahl von Zugrien bis zum ersten Lesefehler. Die Zufallsvariablen Xi sind dann unabhangig und besitzen jeweils dieselbe Verteilung wie X . Wir fuhren also viele Kopien eines bestimmten Zufallsexperiments aus, um Schlusse auf die Gesetzmaigkeiten des einzelnen Experiments ziehen zu konnen. Dies ist das Grundprinzip der induktiven Statistik. Die n Messungen heien Stichproben, und die Variablen Xi nennt man Stichprobenvariablen. DWT c Susanne Albers 302/460 Grundprinzip statistischer Verfahren Wir erinnern an das Gesetz der groen Zahlen (Satz 63) bzw. den Zentralen Grenzwertsatz (Satz 108). Wenn man ein Experiment genugend oft wiederholt, so nahert sich der Durchschnitt der Versuchsergebnisse immer mehr dem Verhalten an, das man im Mittel\ erwarten wurde. Je mehr Experimente wir also durchfuhren, umso " genauere und zuverlassigere Aussagen konnen wir uber den zugrunde liegenden Wahrscheinlichkeitsraum ableiten. Auf diesem Grundprinzip beruhen alle statistischen Verfahren. DWT c Susanne Albers 303/460 Um E[X ] empirisch zu ermitteln, bietet es sich an, aus den Zufallsvariablen Xi das arithmetische Mittel X zu bilden, das deniert ist durch n X 1 Xi : X := n i=1 Es gilt E[X ] = n n 1X 1X E[X ] = E[X ] = E[X ]: n i=1 i n i=1 X liefert uns also im Mittel den gesuchten Wert E[X ]. Da wir X zur Bestimmung von E[X ] verwenden, nennen wir X einen Schatzer fur den Erwartungswert E[X ]. Wegen der obigen Eigenschaft ist X sogar ein so genannter erwartungstreuer Schatzer. DWT c Susanne Albers 2 Schatzvariablen 304/460 Denition 112 Gegeben sei eine Zufallsvariable X mit der Dichte f (x; ). Eine Schatzvariable oder kurz Schatzer fur den Parameter der Dichte von X ist eine Zufallsvariable, die aus mehreren (meist unabhangigen und identisch verteilten) Stichprobenvariablen zusammengesetzt ist. Ein Schatzer U heit erwartungstreu, wenn gilt E[U ] = : Bemerkung: Die Groe E[U ] nennt man Bias der Schatzvariablen U . Bei erwartungstreuen Schatzvariablen ist der Bias gleich Null. DWT c Susanne Albers 305/460 Der Schatzer X ist also ein erwartungstreuer Schatzer fur den Erwartungswert von X . Ein wichtiges Ma fur die Gute eines Schatzers ist die mittlere quadratische Abweichung, kurz MSE fur mean squared error genannt. Diese berechnet sich durch MSE := E[(U )2 ]. Wenn U erwartungstreu ist, so folgt MSE = E[(U E[U ])2 ] = Var[U ]. Denition 113 Wenn die Schatzvariable A eine kleinere mittlere quadratische Abweichung besitzt als die Schatzvariable B , so sagt man, dass A ezienter ist als B . Eine Schatzvariable heit konsistent im quadratischen Mittel, wenn MSE ! 0 fur n ! 1 gilt. Hierbei bezeichne n den Umfang der Stichprobe. DWT c Susanne Albers 306/460 Fur X erhalten wir wegen der Unabhangigkeit von X1 ; : : : ; Xn " n 1X MSE = Var[X ] = Var Xi n = n12 DWT c Susanne Albers n X i=1 # i=1 Var[Xi ] = n1 Var[X ]: 307/460 Bei jeder Verteilung mit endlicher Varianz folgt MSE = O(1=n) und somit MSE ! 0 fur n ! 1. Der Schatzer X ist also konsistent. Aus der Konsistenz von X im quadratischen Mittel konnen wir mit Hilfe des Satzes von Chebyshev (siehe Satz 61) folgende Konsequenz ableiten. Sei " > 0 beliebig, aber fest. Dann gilt X] !0 Pr[jX j "] = Pr[jX E[X ]j "] Var[ 2 " fur n ! 1. Fur genugend groe n liegen also die Werte von X beliebig nahe am gesuchten Wert = E[X ]. Diese Eigenschaft nennt man auch schwache Konsistenz, da sie aus der Konsistenz im quadratischen Mittel folgt. DWT c Susanne Albers 2 Schatzvariablen 308/460 Als nachstes betrachten wir eine weitere von X abgeleitete Schatzvariable: S := v u u t 1 n X n 1 i=1 (Xi X )2 : Wir zeigen, dass S 2 ein erwartungstreuer Schatzer fur die Varianz von X ist. Sei := E[X ] = E[Xi ] = E[X ]. ( Xi X )2 = (Xi = (Xi + X )2 )2 + ( X )2 + 2(Xi )2 + ( Xi = ( = DWT c Susanne Albers n 2 n Xi ( X )2 )2 + ( 2 n X n j =1 X )2 2 Schatzvariablen )( ( Xi 2 )(Xj X n j 6=i X) ( Xi ) )(Xj ): 309/460 Fur je zwei unabhangige Zufallsvariablen Xi , Xj mit i 6= j gilt E[(Xi )(Xj )] = E[Xi ] E[Xj ] = (E[Xi ] ) (E[Xj ] ) = 0 0 = 0: Daraus folgt n 2 E[(Xi )2] + E[( X )2] n = n n 2 Var[Xi ] + Var[X ]: E[(Xi X )2 ] = DWT c Susanne Albers 310/460 Wegen Var[Xi ] = Var[X ] und Var[X ] = n1 Var[X ] folgt nun E[(Xi X )2 ] = n 1 Var[X ]; n und somit gilt fur S 2 E[S 2 ] = 1 n X E[(Xi X )2 ] n 1 i=1 = n 1 1 n n n 1 Var[X ] = Var[X ]: S 2 ist also eine erwartungstreue Schatzvariable fur die Varianz von X . DWT c Susanne Albers 311/460 Die vorangegangene Rechnung erklart, warum man als Schatzer nicht n 1X (X n i=1 i ! X )2 6= S 2 verwendet, wie man vielleicht intuitiv erwarten wurde. DWT c Susanne Albers 2 Schatzvariablen 312/460 Denition 114 Die Zufallsvariablen X := n n 1X 1 X Xi und S 2 := (Xi X )2 n n 1 i=1 i=1 heien Stichprobenmittel bzw. Stichprobenvarianz der Stichprobe X1 ; : : : ; Xn . X und S 2 sind erwartungstreue Schatzer fur den Erwartungswert bzw. die Varianz. DWT c Susanne Albers 313/460