Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho↵ Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung 3 Zufallsgrößen 4 Spezielle Zufallsgrößen stetige Verteilungen 5 Mehrdimensionale Zufallsvariablen 6 Genzwertsätze t-Verteilung Definition t-Verteilung Seien X und Y1 , . . . Yn unabhängige Zufallsvariablen mit X ⇠ N(0, 1) und Yi ⇠ N(0, 1). Dann ist der Quotient qP n X 2 i=1 Yi /n ⇠ tn t-verteilt mit n Freiheitsgraden. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 173 / 210 t-Verteilung 0.4 0.3 0.2 0.1 −6 Statistik 2 t30 0.0 0.0 0.1 0.2 0.3 0.4 t1 0.5 0.5 Beispiele der Dichtefunktion −4 −2 Sommersemester 2017 0 2 4 6 −6 −4 −2 0 Helmut Küchenho↵ (Institut für Statistik, LMU) 2 4 6 174 / 210 Anwendungen bei Finanzdaten Häufig wird die Normalverteilung fr die Verteilung von Renditen genutzt Problematisch, da die Wahrscheinlichkeit von extremen Ausreißern (Crash) unterschätzt wird Abhilfe: Verwende Verteilungen mit heavy tails z.B. die t-Verteilung Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 175 / 210 Vergleich t-Verteilung und Normalverteilung 0.4 0.3 y Verteilung Normalverteilung 0.2 t−Verteilung 0.1 0.0 −4 −2 0 2 4 x Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 176 / 210 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung 3 Zufallsgrößen 4 Spezielle Zufallsgrößen 5 Mehrdimensionale Zufallsvariablen 6 Genzwertsätze Mehrdimensionale Zufallsvariablen Analog zu den Maßzahlen und Überlegungen aus der deskriptiven Statistik: ✓ ◆ X Y also z.B. ! 2 ⌦, zufällig gezogene Person und damit X (!) und Y (!) Auswertung der Merkmale jeweils an derselben Person. ) zweidimensionale Zufallsvariable YX (wie bei Zusammenhangsanalyse in Statistik I) Das Hauptinteresse gilt (entsprechend der Kontingenztafel in Statistik I) der gemeinsamen Verteilung P({X = xi } \ {Y = yj }) Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 177 / 210 Zweidimensionale Verteilungen Betrachtet werden zwei eindimensionale diskrete Zufallselemente X und Y (zu demselben Zufallsexperiment). Die Wahrscheinlichkeit P(X = xi , Y = yj ) := P({X = xi } \ {Y = yj }) in Abhängigkeit von xi und yj heißt gemeinsame Verteilung der mehrdimensionalen Zufallsvariable YX bzw. der Variablen X und Y . Randwahrscheinlichkeiten: pi• = P(X = xi ) = m X P(X = xi , Y = yj ) j=1 p•j Statistik 2 = Sommersemester 2017 P(Y = yj ) = k X P(X = xi , Y = yj ) i=1 Helmut Küchenho↵ (Institut für Statistik, LMU) 178 / 210 Bedingte Verteilungen P(X = xi |Y = yj ) = P(Y = yj |X = xi ) = P(X = xi , Y = yj ) P(Y = yj ) P(X = xi , Y = yj ) P(X = xi ) Stetiger Fall: Zufallsvariable mit zweidimensionaler Dichtefunktion f (x, y ): ! Z Z b P(a X b, c Y d) = Statistik 2 Sommersemester 2017 d f (x, y )dy a dx c Helmut Küchenho↵ (Institut für Statistik, LMU) 179 / 210 Kovarianz Seien X und Y zwei Zufallsvariablen. Dann heißt X ,Y := Cov(X , Y ) = E ((X E(X ))(Y E(Y ))) Kovarianz von X und Y . Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 180 / 210 Rechenregeln Cov(X , X ) = Var(X ) Cov(X , Y ) = E(XY ) E(X ) · E(Y ) Cov(X , Y ) = Cov(Y , X ) Mit X̃ = aX X + bX und Ỹ = aY Y + bY ist Cov(X̃ , Ỹ ) = aX · aY · Cov(X , Y ) Var(X + Y ) = Var(X ) + Var(Y ) + 2 · Cov(X , Y ) Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 181 / 210 Korrelation Definition Zwei Zufallsvariablen X und Y mit Cov(X , Y ) = 0 heißen unkorreliert. Stochastisch unabhängige Zufallsvariablen sind unkorreliert. Die Umkehrung gilt jedoch im allgemeinen nicht. Vergleiche Statistik I: Kovarianz misst nur lineare Zusammenhänge. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 182 / 210 Korrelationskoeffizient Definition Gegeben seien zwei Zufallsvariablen X und Y . Dann heißt ⇢(X , Y ) = p Cov(X , Y ) p Var(Y ) Var(X ) Korrelationskoeffizient von X und Y . Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 183 / 210 Eigenschaften des Korrelationskoeffizienten Mit X̃ = aX X + bX und Ỹ = aY Y + bY ist |⇢(X̃ , Ỹ )| = |⇢(X , Y )|. 1 ⇢(X , Y ) 1. |⇢(X , Y )| = 1 () Y = aX + b Sind Var(X ) > 0 und Var(Y ) > 0, so gilt ⇢(X , Y ) = 0 genau dann, wenn Cov(X , Y ) = 0. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 184 / 210 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung 3 Zufallsgrößen 4 Spezielle Zufallsgrößen 5 Mehrdimensionale Zufallsvariablen 6 Genzwertsätze Grenzwertsätze: Einführung Big Data: Bobachtung von großen Datensätzen Was ist das Besondere daran? Vereinfacht sich etwas und wenn ja was? Kann man Wahrscheinlichkeitsgesetzmäßigkeiten“ durch ” Betrachten vielfacher Wiederholungen erkennen? Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 185 / 210 Das i.i.d.-Modell Betrachtet werden diskrete oder stetige Zufallsvariablen X1 , . . . , Xn , die i.i.d. (independently, identically distributed) sind, d.h. die 1) unabhängig sind und 2) die gleiche Verteilung besitzen. Ferner sollen der Erwartungswert µ und die Varianz 2 existieren. Die Verteilungsfunktion werde mit F bezeichnet. Dies bildet insbesondere die Situation ab in der X1 , . . . , Xn eine Stichprobe eines Merkmals X̃ bei einer einfachen Zufallsauswahl sind. Beispiel: X̃ Einkommen, n Personen zufällig ausgewählt Statistik 2 X1 X2 .. . Einkommen der Einkommen der ersten zweiten .. . zufällig ausgewählten Person zufällig ausgewählten Person Xn Einkommen der n-ten zufällig ausgewählten Person Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 186 / 210 Stichprobenvariable Jede Funktion von X1 , . . . , Xn ist wieder eine Zufallsvariable, z.B. das arithmetische Mittel oder die Stichprobenvarianz n 1X Xi n i=1 S̃ 2 = n 1X (Xi n X̄ )2 i=1 Wahrscheinlichkeitsaussagen möglich =) Wahrscheinlichkeitsrechnung anwenden Gerade bei diesen Zufallsgrößen ist die Abhängigkeit von n oft wichtig, man schreibt dann X̄n , S̃n2 Sind X1 , . . . , Xn jeweils {0, 1}-Variablen, so ist X̄n gerade die empirische relative Häufigkeit von Einsen in der Stichprobe vom Umfang n. Notation: Hn Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 187 / 210 Erwartungswert und Varianz von X̄n X1 , X2 , . . . , Xn seien unabhängig und identisch verteilt. X1 , X2 , . . . , Xn Ist E(Xi ) = µ und Var (Xi ) = 2 i.i.d. , so gilt: E(X1 + X2 + . . . + Xn ) = nµ Var (X1 + X2 + . . . + Xn ) ✓ ◆ 1 E (X1 + X2 + . . . + Xn ) n ✓ ◆ 1 Var (X1 + X2 + . . . + Xn ) n = n = µ 2 2 = n Diese Eigenschaften bilden die Grundlage für die folgenden Sätze. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 188 / 210 Das schwache Gesetz der großen Zahlen Betrachte für wachsenden Stichprobenumfang n: X1 , . . . , Xn i.i.d. Xi 2 {0, 1} binäre Variablen mit ⇡ = P(Xi = 1) Beispiele: Pro/Contra, Kopf/Zahl, A tritt ein/A tritt nicht ein Hn = die relative Häufigkeit der Einsen in den ersten n Versuchen. relative 6 Häufigkeit wahrer Wert - Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 189 / 210 0 0 1000 1500 0.3 - 1000 1500 1500 1:i 3000 2000 3500 2500 3000 1:i 0.6 s[1:i] 0.5 0.4 0.3 0.6 s[1:i] 0.4 0.3 0 3500 1:i 500 1000 1500 1500 0.5 s[1:i] 0.5 0.6 s[1:i] s[1:i] 0.3 0.4 2500 1500 0500 1000 0.7 0.7 0.6 0.7 0.7 s[1:i] 0.5 2000 1000 1:i 10001500 1:i 500 1:i 0.4 0.3 1500 500 0 5001000 1:i 0 1:i 0.6 0.7 0.6 1000 0 1500 1500 0.7 0.7 0.5 0.6 s[1:i] s[1:i] s[1:i] 0.4 0.5 0 500 0.3 500 1000 1500 1000 1:i 1000 1:i 0 1500 1:i 1000 500 1:i 0.3 0.4 1500 1000 500 500 0.6 0.7 0.7 0.4 0.5 s[1:i] 0.6 0.60.7 s[1:i] 0.50.6 0.3 1000 500 1:i 0500 0.6 0.5 s[1:i] s[1:i] 0.4 0.3 500 1500 0 0 1000 1500 1500 2000 0 4000 2000 6000 4000 1:i 0 500 1:i 1000 1500 8000 6000 10000 8000 10000 1:i 2000 2500 3000 3500 1:i 0.7 1:i 0 0.3 1500 0.5 0.4 0.6 0.5 s[1:i] 0.4 0.3 1000 1:i 500 1000 0 1500 0.7 0.7 0.7 0.6 0.7 0.3 0.4 0.3 500 0500 0.40.5 0.30.4 0 500 0 1:i 0.5 0.6 s[1:i] s[1:i] 0 1500 1:i 0.4 0.5 0.7 0.6 0.5 s[1:i] 0.4 0.3 0 1500 1000 1:i - 0.3 1500 1000 1500 1000 500 1:i 0.3 500 1000 1:i 0 0.5 0.6 1000 1:i 0500 00 s[1:i] s[1:i] 0.4 0.3 0.3 0.4 500 0.3 0 500 0.7 0.7 0.7 0.6 0.7 0.5 0.6 0.4 0.5 0.7 0.6 s[1:i] 0.5 s[1:i] s[1:i] 0.4 0 0.3 00 0 0.4 0.5 0 eiben: Simulationen variable! allsvariable! FigurFigur beschreiben: beschreiben: Helmut Küchenho↵ (Institut für Statistik, LMU) .7 Sommersemester 2017 .7 6.7 .7 Statistik 2 190 / 210 Beobachtungen 1 Am Anfang sehr unterschiedlicher, unregelmäßiger Verlauf der Pfade. 2 Mit wachsendem n pendeln sich die Pfade immer stärker um ⇡ herum ein, d.h. mit wachsendem Stichprobenumfang konvergiert die relative Häufigkeiten eines Ereignisses gegen seine Wahrscheinlichkeit. 3 Formalisierung von 2.: Legt man sehr kleine Korridore/Intervalle um ⇡, so ist bei sehr großem n der Wert von Hn fast sicher in diesem Korridor. Das Ereignis Die relative Häufigkeit Hn liegt im Intervall der Breite ” 2✏ um ⇡ lässt sich schreiben als: ” ⇡ " " Statistik 2 Sommersemester 2017 Hn Hn ⇡ |Hn ⇡| ⇡+" " " Helmut Küchenho↵ (Institut für Statistik, LMU) 191 / 210 Theorem von Bernoulli Seien X1 , . . . , Xn , i.i.d. mit Xi 2 {0, 1} und P(Xi = 1) = ⇡. Dann gilt für Hn = n 1X Xi n i=1 (relative Häufigkeit der Einsen“) und beliebig kleines ✏ > 0 ” lim P(|Hn n!1 ⇡| ✏) = 1 Anschauliche Interpretation: Die relative Häufigkeit eines Ereignisses nähert sich praktisch sicher mit wachsender Versuchszahl an die Wahrscheinlichkeit des Ereignisses an. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 192 / 210 Zwei wichtige Konsequenzen 1) Häufigkeitsinterpretation von Wahrscheinlichkeiten: P(A), die Wahrscheinlichkeit eines Ereignisses A, kann man sich vorstellen als Grenzwert der relativen Häufigkeit des Eintretens von A in einer unendlichen Versuchsreihe identischer Wiederholungen eines Zufallsexperiments. 2) Induktion: Man kann dieses Ergebnis nutzen, um Information über eine unbekannte Wahrscheinlichkeit (⇡ = ˆ Anteil in einer Grundgesamtheit) zu erhalten. Sei z.B. ⇡ der (unbekannte) Anteil der SPD Wähler, so ist die relative Häufigkeit in der Stichprobe eine gute Schätzung für ⇡“. Je größer ” die Stichprobe ist, umso größer ist die Wahrscheinlichkeit, dass die relative Häufigkeit sehr nahe beim wahren Anteil ⇡ ist. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 193 / 210 Gesetz der großen Zahl (allgemein) Das Ergebnis lässt sich verallgemeinern auf Mittelwerte beliebiger Zufallsvariablen: Gegeben seien X1 , . . . , Xn i.i.d. Zufallsvariablen mit (existierendem) Erwartungswert µ und (existierender) Varianz 2 . Dann gilt für n 1X X̄n := Xi n i=1 und beliebiges ✏ > 0: µ| ✏) = 1 lim P(|X̄n n!1 Schreibweise: P X̄n ! µ ( Stochastische Konvergenz“, Xn konvergiert in Wahrscheinlichkeit ” ” gegen µ“.) Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 194 / 210 Konsequenz Interpretation des Erwartungswerts: µ kann in der Tat interpretiert werden als Durchschnittswert in einer unendlichen Folge von Wiederholungen des Zufallsexperiments. Spiele. Wenn ein Spiel mit negativem Erwartungswert häufig gespielt wird, verliert man mit sehr hoher Wahrscheinlichkeit (Grund für Rentabilität von Spielbanken und Wettbüros) Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 195 / 210 Die Verteilungsfunktion Jetzt betrachten wir die empirische Verteilungsfunktion: In jedem Punkt x ist Fn (x) vor der Stichprobe eine Zufallsvariable, also ist Fn eine zufällige Funktion Wie vergleicht man die zufällige Funktion Fn (x) mit der Funktion F (x)? Der Abstand hängt ja von dem Punkt x ab, in dem gemessen wird! Idee: Maximaler Abstand max |FnX1 ,...,Xn (x) x 2R F (x)| Existiert nicht immer; formal muss man das sogenannte Supremum betrachten. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 196 / 210 Hauptsatz der Statistik Seien X1 , . . . , Xn i.i.d. mit Verteilungsfunktion F und sei Fn (x) die empirische Verteilungsfunktion der ersten n Beobachtungen. Mit Dn := sup |Fn (x) F (x)|, x gilt für jedes c > 0 lim P(Dn > c) = 0. n!1 Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 197 / 210 Interpretation Erträglichkeitsschranke“ c vorgegeben. Wsk, dass maximaler ” Abstand größer c ist geht für hinreichend großes n gegen 0 =) überall kleiner Abstand. Man kann {Dn > c} interpretieren als Die ” Stichprobe führt den Betrachter hinter das Licht.“. Dann ist also die Wahrscheinlichkeit mit hinreichend großem n praktisch null. Anschaulich: Praktisch sicher spiegelt die empirische Verteilungsfunktion einer unendlichen Stichprobe die wahre Verteilungsfunktion wider. Falls die Stichprobe groß genug ist, so wird letztendlich immer representativ für die Grundgesamtheit, d.h. man kann Verteilungsgesetzmäßigkeiten durch Beobachtungen erlernen (grundlegend für die Statistik) ! Hauptsatz “. ” Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 198 / 210 4 Statistik 2 −4 −2 0 sort(x) 2 Sommersemester 2017 4 −4 −4−2 sort(x) −20 02 24 sort(x) 4 −3 Helmut Küchenho↵ (Institut für Statistik, LMU) 0.2 0.4 0.6 0.8 1.0 4 2 function(x) pnorm(x, 0, 1) (x) 1.0 2 0 0.8 0 −2 0.6 sort(x) 0.4 1.0 −2−4 0.2 0.8 −4 0.0 0.6 function(x) pnorm(x, 0, 1) (x) 0.4 1.0 4 0.0 0.2 0.8 42 0.6 1.0 20 sort(x) (1:lx)/lx 0.8 −2 0 sort(x) 0.4 (1:lx)/lx 0.6 (1:lx)/lx 0.4 −4 −2 0.0 0.2 0.2 −4 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.2 0.2 0.2 0.2 0.2 0.6 0.6 0.6 (1:lx)/lx 0.4 (1:lx)/lx 0.6 (1:lx)/lx 0.4 0.4 (1:lx)/lx 0.4 (1:lx)/lx 0.6 (1:lx)/lx 0.4 0.8 0.8 0.8 0.8 0.8 1.0 1.0 1.0 1.0 1.0 Beispiele sort(x) 4 −4 −2 sort(x) −2 −3 −1 0 −2 0 x 2 −1 1 0 4 Normal CDF Normal CDF x 2 1 3 2 3 199 / 210 Der zentrale Grenzwertsatz I Gibt es für große Stichprobenumfänge Regelmäßigkeiten im Verteilungstyp? Gibt es eine Standardverteilung, mit der man oft bei großen empirischen Untersuchungen rechnen kann? Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 200 / 210 Der zentrale Grenzwertsatz II Seien X1 , . . . , Xn i.i.d. mit E(Xi ) = µ und Var(Xi ) = n ✓ 1 X Xi p Zn = n i=1 µ ◆ 2 > 0 sowie . Dann gilt: Zn ist asymptotisch standardnormalverteilt, in Zeichen: a Zn ⇠ N(0; 1), d.h. es gilt für jedes z lim P(Zn z) = n!1 (z). Für die Eingangsfragen gilt also: Ja, wenn man die Variablen geeignet mittelt und standardisiert, dann kann man bei großem n näherungsweise mit der Normalverteilung rechnen. Dabei ist für festes n die Approximation umso besser, je symmetrischer“ die ursprüngliche Verteilung ist. ” Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 201 / 210 Standardisieren Die Funktion kommt durch Standardisieren und durch geeignetes mitteln zustande. p Dabei ist es wichtig, durch n (und nicht durch n) zu teilen. P P Xi ! verliert sich; Var( Xi ) ! 1 P P 1 xi ! Var n1 Xi ! 0 n Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 202 / 210 Beispiele Histogram of res Histogram of res 1 0 2 3 1 2 0.4 Density 0.2 Density 0.1 0 2 2 4 −4 4 −2 res Sommersemester 2017 4 0.4 0.4 0.3 Density 0.2 0.1 0.1 0.0 −4 −2 −2 0 res 0 2 2 4 Histogram of res Histogram of res 0.0 −4 0 res 0.3 0.4 0.2 Density 0.1 0.0 2 res Statistik 2 Density 0.3 0.4 0.3 0.2 Density 0.1 0 0 −2 Histogram of res Histogram of res 0.0 −2 −2 −4 res Histogram of res −4 0.3 0.4 0.3 0.1 0.0 −4 3 res 0.4 −1 0.3 0 42 4 0.2 −2 res Density −1 0.1 −3 0.0 −2 0.0 0.2 0.3 −4 0.2 −3 Density Density 0.1 0.0 0.1 0.0 0.0 −4 Histogram of res 0.2 0.3 0.2 0.2 Density 0.1 Density 0.3 0.4 Histogram of res Histogram of res −4 res Helmut Küchenho↵ (Institut für Statistik, LMU) −2 −4 0 −2 res 2 0 4 2 6 4 6 res 203 / 210 Anwendung des zentralen Grenzwertsatz auf X̄ I Gemäß dem Gesetz der großen Zahlen weiß man: X̄n ! µ Für die Praxis ist es aber zudem wichtig, die konkreten Abweichungen bei großem aber endlichem n zu quantifizieren, etwa zur Beantwortung folgender Fragen: Gegeben eine Fehlermarge " und Stichprobenumfang n: Wie groß ist die Wahrscheinlichkeit, dass X̄ höchstens um " von µ abweicht? Gegeben eine Fehlermarge " und eine Sicherheitswahrscheinlichkeit“ : Wie groß muss man n mindestens ” wählen, damit mit mindestens Wahrscheinlichkeit das Stichprobenmittel höchstens um " von µ abweicht (Stichprobenplanung)? Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 204 / 210 Anwendung des zentralen Grenzwertsatz auf X̄ II Aus dem zentralen Grenzwertsatz folgt: n ✓ 1 X Xi p n i=1 oder auch 2 µ ◆ = Pn = nX̄n nµ X̄n µ a p p ⇠ N(0, 1) = n· / n i=1 p Xi n· ✓ a X̄n ⇠ N µ, 2 n nµ ◆ . wird mit wachsendem n immer kleiner n * Schwankung im richtigen Wert (µ) * Ausschläge werden kleiner Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 205 / 210 Warten auf den Bus Bestimme Wartezeit, Durchschnittliche Wartezeit in 1 Woche, 1 Monat, 1 Jahr 150 count count 150 100 100 50 50 0 0 0.0 2.5 5.0 7.5 10.0 0.0 2.5 einmal 5.0 7.5 10.0 7.5 10.0 eine Woche 150 200 count count 100 100 50 0 0 0.0 2.5 5.0 einen Monat Statistik 2 Sommersemester 2017 7.5 10.0 0.0 2.5 5.0 ein Jahr Helmut Küchenho↵ (Institut für Statistik, LMU) 206 / 210 1 Jahr count 200 100 0 4.50 4.75 5.00 5.25 5.50 ein Jahr Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 207 / 210 Approximation der Binomialverteilung I Sei X ⇠ B(n, ⇡). Kann man die Verteilung von X approximieren? Hier hat man zunächst nur ein X . Der zentrale Grenzwertsatz gilt aber für eine Summe vieler Glieder. Idee: Schreibe X als Summe von binären Zufallsvariablen. X ist die Anzahl der Tre↵er in einer i.i.d. Folge Y1 , . . . , Yn von Einzelversuchen, wobei ( 1 Tre↵er Yi = 0 kein Tre↵er Derselbe Trick wurde bei der Berechnung von Erwartungswerten angewendet. Die Yi sind i.i.d. Zufallsvariablen mit Yi ⇠ Bin(1, ⇡) und es gilt X = n X i=1 Statistik 2 Sommersemester 2017 Yi , E(Yi ) = ⇡, Var(Yi ) = ⇡ · (1 Helmut Küchenho↵ (Institut für Statistik, LMU) ⇡). 208 / 210 Approximation der Binomialverteilung II Damit lässt sich der zentrale Grenzwertsatz anwenden: ! P n 1 X Yi ⇡ 1 Yi n · ⇡ p p = p p n i=1 n ⇡(1 ⇡) ⇡(1 ⇡) P Yi n · ⇡ a = p ⇠ N(0, 1) n · ⇡(1 ⇡) und damit X E(X ) a p ⇠ N(0, 1) Var(X ) so dass P(X x) ⇡ falls n groß genug. Statistik 2 Sommersemester 2017 x n·⇡ p n · ⇡(1 ⇡) ! Helmut Küchenho↵ (Institut für Statistik, LMU) 209 / 210 Faustregeln Es gibt verschiedene Faustregeln, ab wann diese Approximation gut ist, z.B. n·⇡ 5 und n · (1 n · ⇡(1 ⇡) 5 ⇡) 9 Wichtig: Ob die Approximation hinreichend genau ist, hängt insbesondere vom substanzwissenschaftlichen Kontext ab. Statistik 2 Sommersemester 2017 Helmut Küchenho↵ (Institut für Statistik, LMU) 210 / 210