1.3 Zufallsvariable und Verteilungen 1.3.1 Zufallsvariable und Verteilungen – Definitionen Zufallsvariable: Ein zahlenmäßiges Merkmal für die Ausgänge von Zufallsvorgängen D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 83 1.3.1 Zufallsvariable u. Verteilungen – Definitionen Beispiele: - X = Zahl der verkauften Zeitungen an einem Kiosk (Wertebereich N0) Realisierungen z. B. x1=79, x2=32, …. - Y = Stand des DAX bei Börsenschluss am Tag t (Wertebereich R+) y1=4016,2, y2=3994,71, …. - Z = Anzahl der Sechsen bei 10-maligem Würfeln (Wertebereich = {0, ...,10}) z1=1, z2=8, …. Weitere?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 84 1.3.1 Zufallsvariable u. Verteilungen – Definitionen Definitionen: X sei eine auf einem Ereignisraum 6 definierte reellwertige Funktion ( jedem Elementarereignis E wird eine reelle Zahl x= X(E) zugeordnet). Diese Funktion X heißt Zufallsvariable Der Zahlenwert x = X(E) für ein konkretes Elementarereignis E heißt ........................ von X D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 85 1.3.1 Zufallsvariable u. Verteilungen – Definitionen Noch Definitionen: abcd Eine monotone Funktion F mit lim F( x) = 0 x → −∞ lim F( x) = 1 x→ ∞ heißt Verteilungsfunktion von X Interpretation der Verteilungsfunktion: F(x) = P(X ........ x) das bedeutet?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 86 1.3.1 Zufallsvariable u. Verteilungen – Definitionen Beispiel 1: (Würfel) X = Augenzahl Wahrscheinlichkeitsfunktion 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 1 2 3 4 5 6 7 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 87 1.3.1 Zufallsvariable u. Verteilungen – Definitionen noch Beispiel 1: (Würfel) abcd Verteilungsfunktion 1,00002 0,83335 0,66668 0,50001 0,33334 0,16667 0 0 1 2 3 4 5 6 7 z. B. F(5) = P(X 5) = ........./........ 0,8333 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 88 1.3.1 Zufallsvariable u. Verteilungen – Definitionen Beispiel 2: Arbeitsgang auf Maschine dauert 10 Minuten X = Zeit, die ein zufällig eintreffender Mechaniker bis zum Ende des Arbeitsgangs warten muss. für x < 0 ⎧0 ⎪ F( x) = ⎨ x/......... für 0 ≤ x ≤ 10 ⎪1 für x > 10 ⎩ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 89 1.3.1 Zufallsvariable u. Verteilungen – Definitionen noch Beispiel 2: Verteilungsfunktion P(X = 8.324) = 0 1 1 1 0,8324 0 0 -1 P(X<8.324) = F(8.324)=0.8324 0 0 1 2 3 4 5 6 7 8 9 10 11 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 90 1.3.2 Verteilungen diskreter Zufallsvariablen Diskrete ZV: Wertebereich endlich oder abzählbar unendlich Beispiele: X = Augenzahl beim Würfeln A = Zahl der Aufträge, die am Tag in einer Firma eingehen Wahrscheinlichkeitsfunktion: pi = p(xi) = P(X = xi) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 91 1.3.2 Verteilungen diskreter Zufallsvariablen Als Verteilungstabelle: x1 x2 x3 . . . . . . . . .xi ... p1 p2 p3 . . . . . . . . .pi ... Verteilungsfunktion: F( x) = ∑ pi xi ≤ x D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 92 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiele a) Würfel pi = 1/6 i=1,2, ... 6 Augen xi 0 1 2 3 4 5 6 7 Wahrscheinlichkeit pi 0 1/6 1/6 1/6 1/6 1/6 1/6 0 Wahrscheinlichkeit F(xi) 0 1/6 2/6 3/6 4/6 5/6 6/6 1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 93 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiele abcd b) Anzahl der Aufträge: ai 0 1 2 3 4 ... P(A = ai) 0,0005 0.001 0.003 0.006 0.007 ... F(ai) 0.0005 0.0015 ... D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 94 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiele c) Y=Anzahl der Jungen bei 3 Kindern abcd yi 0 1 2 3 4 pi = p(yi) 1/8 3/8 3/8 1/8 0 F(yi) 1/8 4/8 7/8 8/8 1 Rechnung: ?? Möglichkeiten insgesamt: Variationen von zwei Elementen (m,w) zur Ordnung 3 mit Wiederholungen: Vw (2,3) = 23 = 8 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 95 1.3.2 Verteilungen diskreter Zufallsvariablen Berechnung z. B. für y2 =1: mww wmw w w m d.h. p2 =3/ 8 P Wahrscheinlichkeitsfunktion 3/8 t p i r Sk 1/8 0 1 2 D Prof. Dr. H. G. Strohe Statistik II 3i s s ie n i e tk Y I. 96 1.3.2 Verteilungen diskreter Zufallsvariablen 1 Verteilungsfunktion: 4/8 1/8 0 1 2 3 D Prof. Dr. H. G. Strohe Statistik II 4 s i s ie n i e tk t p i r Sk I. 97 1.3.2 Verteilungen diskreter Zufallsvariablen Erwartungswert: n E ( X ) = ∑xi pi i =1 Beispiele: a) Würfel E (X) = 1#1/6+2#1/6+3#1/6+4#1/6+5#1/6+6#1/6 = ................. b) Zahl der Jungen unter 3 Kindern E(Y) = 0#1/8 +1#3/8 + 2#3/8 +3#1/8 = 1.5 D Interpretation? Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 98 1.3.2 Verteilungen diskreter Zufallsvariablen Varianz: Var( X ) = E[{ X - .........}² ] Die erwartete quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert E(X) n Var( X ) = σ x = ∑ ( xi − E( X ))2 pi 2 i =1 Standardabweichung: σ x = Var ( X ) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 99 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel (Würfel): = 2.52 # 1/6 + 1.52 # 1/6 + 0.52 # 1/6 + 0.5² #1/6 + 1.52 # 1/6 + 2.52 # 1/6 Var(X) = 2.91667 = X 2 X = 1.708 Interpretation? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 100 1.3.2 Verteilungen diskreter Zufallsvariablen Unabhängigkeit zweier Zufallsvariablen X mit Verteilungsfunktion Fx (x ) = P(X ≤ x ) Y mit Verteilungsfunktion Fy (y ) = P(Y ≤ y ) X und Y sind voneinander unabhängig, wenn für alle x,y gilt: P((X ≤ x )∩ (Y ≤ y )) = Fx (x ).Fy (y ) Aussage der Formel?? Vgl. Unabhängigkeit von Merkmalen in Statistik I Beispiele?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 101 1.3.2 Verteilungen diskreter Zufallsvariablen Rechenregeln für Erwartungswert und Varianz: E 1: Hat X nur einen Wert x1 dann P(X=x1) = ?? und E(X) = ?? E 2: E(aX) = ...........E(X) E 3: E(X+Y) = E(X) + ........... D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 102 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel: Y = Augenzahl mit 2 Würfeln E(Y) = E(X1+X2)=3,5+3,5=7 Wichtig: E(X+c) = ?? E 4. Wenn X, Y unabhängig, dann E(X#Y) = E(X) # .............. warum?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 103 1.3.2 Verteilungen diskreter Zufallsvariablen V 1. Hat X nur einen Wert, dann ist Var (X)=............. V 2. E[( X − c) 2 ] ≥ E[( X − µ)²] = Var( X ), wobei µ = E( X ) V 3. Var(aX) = a2 Var(X) V 4. Var(X+b) = ............... V 5. Var(X±Y) = Var(X)+Var(Y) ± 2(E(X#Y)-E(X)#E(Y)) = Var(X)+Var(Y) ± 2 Cov(X,Y) V 6. Var(X) = E(X²)-[E(X)]². D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 104 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiele: a) X = Augenzahl beim Würfeln (V6) b) Var(X) = 91/6 - 3.5² = 2,91667 Y = Augenzahl mit 2 Würfeln (V5) Var(Y) = Var(X1+X2) = 2,9167+2,9167 = 5,8334 Warum? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 105 1.3.2 Verteilungen diskreter Zufallsvariablen Spezielle diskrete Verteilungen 1. Gleichverteilung Alle Werte der Zufallsvariablen haben die gleiche Wahrscheinlichkeit. 1 n E( X ) = ∑ xm = x n m=1 1 n Var( X ) = E(( X − x )²) = ∑ ( xm − x )² n m=1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 106 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel: Augenzahl beim Würfeln 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 1 2 3 4 5 6 7 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 107 1.3.2 Verteilungen diskreter Zufallsvariablen 2. Zweipunktverteilung (Bernoulli) Zufallsvariable X mit Wertebereich {a, b} P(X=b) = p; P(X=a) = ............ 0 1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 108 1.3.2 Verteilungen diskreter Zufallsvariablen Häufig verwendetes Modell: xi a = 0, b = 1 0 1 1-p p 1 xi pi 0 p p xi2 pi 0 p p pi = p(xi) Summe E(X) = 0 # (1-p) + 1# p E(X) = ............. D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 109 1.3.2 Verteilungen diskreter Zufallsvariablen Var(X) = (xi2pi - [E(X)]2 = [0 # (1-p) + 1p] - p2 = p - p2 Var(X) = p(1-p) z. B. p=0.8 E(X) = 0.8 Var(X) = 0.8 # 0.2 = 0.16 ) = 0.4 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 110 1.3.2 Verteilungen diskreter Zufallsvariablen 3. Binomialverteilung X gibt an, wie oft ein Ereignis A mit P(A)= p bei n unabhängigen Wiederholungen des Versuches eintritt. Wahrscheinlichkeit, dass genau m-mal das Ereignis A eintritt: b(m; n; p ) = P( X = m) ⎛n ⎞ = ⎜ ⎟ p m ⋅ (1 − p ) n−m ⎝ m⎠ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 111 1.3.2 Verteilungen diskreter Zufallsvariablen X ist Summe von n unabhängigen Xi mit 0/1-Zweipunktverteilung Also E(X) = np; Var(X) = np(1-p) Warum? Verteilungsfunktion: B( x; n; p ) = P( X ≤ x ) = ∑ b(m; n; p) m≤ x D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 112 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel a) X = Zahl der Jungen bei 3 Kindern Vereinfachung: p = 0.5 (Wirklich?) ⎛3⎞ b(2; 3; 0,5) = P( X = ...........) = ⎜ ⎟ p ² ⋅ (1 − p ) ⎝ 2⎠ 3⋅ 2 ⎛ 1 ⎞ 1 = ⋅ ⎜ ⎟ ⋅ = ......... 2 ⎝ 2⎠ 2 2 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 113 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel a) Oder einfach klassisch: Günstige Möglichkeiten: Kombination (ohne Berücksichtigung der Reihenfolge) von 3 Elementen (=“Versuche“) zur Ordnung 2 (×”männlich”) 3 Möglichkeiten für 2 Jungen bei 3 „Versuchen“: 1. 1. 2. Kind 2. 3. 3. Kind D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 114 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel a) Gesamtzahl der Möglichkeiten: 2³=8 Variationen von 2 Elementen (=Geschlechter) zur Ordnung 3 (=Versuche) mit Wiederholung. Also b(2; 3; 0,5) = 3/8. E(X) = np = 3 # 0.5 = 1.5 Jungen bei 3 Geburten (?) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 115 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel b) X = Häufigkeit der 6 bei 12-maligem Würfeln ⎛....⎞⎛ 1 ⎞ ⎛ 5 ⎞ 12⋅11 510 1 ⋅ 12 ≈ 0,3 b(2;12; ) = P(X = 2) = ⎜ ⎟⎜ ⎟ ⎜ ⎟ = 6 2 ⋅1 6 ⎝....⎠⎝ 6 ⎠ ⎝ 6 ⎠ 2 10 E(X) = np = 12 # 1/6 = 2 Sechser Demonstration mit Urnenmodell: n-malige Ziehung mit Zurücklegen aus Urne mit N Losen, wovon M gewinnen. Dabei ist M/N = p Wichtige Anwendung: Stichprobe “mit Zurücklegen” oder großem N. D.h. praktisch: Stichprobe bei gleichbleibender Ereigniswahrscheinlichkeit D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 116 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel c) In Statistikübung Blume für jedes Geburtstagskind. n = 80 Stud. X = Anzahl der Geb.kinder an bestimmtem Übungstag. Blumen sollen mit mindestens 99%iger Sicherheit reichen. Wieviel Stück notwendig? A = „Studentin S hat heute Geb.tag“ P(A) = p 1/365 (klassisch, Alternative??) Erwartungswert E(X) = ?? = 0,22 Warum? Bedeutung?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 117 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel c) Allgemein: ⎛ 80 ⎞⎛ 1 ⎞ P( X = k ) = ⎜⎜ ⎟⎟⎜ ⎟ k 365 ⎝ ⎠ ⎝ ⎠ k ⎛ 364 ⎞ ⋅⎜ ⎟ ⎝ 365 ⎠ n−k Speziell: 80 ⎛ 364 ⎞ P( X = 0) = ...... ⋅ ........ ⋅ ⎜ ⎟ = 0,803 ⎝ 365 ⎠ ⎛ 80 ⎞ 1 ⎛ 364 ⎞ P( X = 1) = ⎜ ⎟ ⋅ ⋅⎜ ⎟ = 0,176 1 365 365 ⎝ ⎠ ⎝ ⎠ 79 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 118 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel c) B(1) = P( X ≤ 1) = 0,803 + 0,176 = 0,979 reicht‘s schon? ⎛ 80 ⎞ ⎛ 1 ⎞ P( X = 2) = ⎜ ⎟ ⋅ ⎜ ⎟ 2 365 ⎠ ⎝ ⎠ ⎝ ....... 78 ⎛ 364 ⎞ ⋅⎜ ⎟ = 0,019 365 ⎝ ⎠ B(2) = P( X ≤ 2) = 0,979 + 0,019 = 0,998 Ergebnis? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 119 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel c) Wahrscheinlichkeitsfunktion 1 0.8 0.176 0 1 2 3 4 5 Binomialverteilung dieser Zufallsvariablen extrem ................ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 120 1.3.2 Verteilungen diskreter Zufallsvariablen 4. Hypergeometrische Verteilung Modell: In einer Urne mit N Losen sind M Gewinne. X ist Gewinn-Häufigkeit bei n-maliger Ziehung ohne Zurücklegen: d.h. am Anfang p = ..../..... pk = P( X = k ) ⎛ M ⎞⎛ N − M ⎞ ⎜ ⎟⎜ ⎟ n−k ⎠ k = H(k;n,N,M ) = ⎝ ⎠⎝ ⎛N⎞ ⎜ ⎟ ⎝n ⎠ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 121 1.3.2 Verteilungen diskreter Zufallsvariablen Mn N aber p nur Anfangswahrscheinlichkeit N-n Mn( N − M )( N − n) Var( X ) = ⋅ n ⋅ p ⋅ (1 − p ) = N-1 N ²( N − 1) E( X ) = ............ = Korrekturfaktor ggü. Binomialverteilung wie bei Binomialverteilung D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 122 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel: Qualitätskontrolle N=50 Gummiteile, davon M=10 fehlerhaft, Zufallsstichprobe von n=5 Stück. Bei Prüfung auf Reißfestigkeit werden alle unbrauchbar. Gesucht: Wahrscheinlichkeit, dass k=2 fehlerhafte Stücke dabei sind ⎛10 ⎞⎛ 40 ⎞ ⎜ ⎟⎜ ⎟ K(10,2) ⋅ K(40,3) ⎝ 2 ⎠⎝ 3 ⎠ 45 ⋅ 9880 = P( X = 2) = = = 0,21 K ( 50 ,5 ) 2118760 ⎛ 50 ⎞ ⎜ ⎟ ⎝5 ⎠ Interpretation? Erwartungswert? Varianz? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 123 1.3.2 Verteilungen diskreter Zufallsvariablen 5. Poisson-Verteilung X = Häufigkeit des Auftretens unabhängiger gleichwahrscheinlicher Ereignisse, wenn im Mittel eine Häufigkeit von zu erwarten ist: k pk = p( k ) = P( X = k ) = E( X ) = ........... e− k! Var( X ) = Historisches Beispiel?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 124 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel : Häufigkeit der Störung von Telefonanschlüssen Keine Angabe von n und p, Unabhängigkeit und Gleichwahrscheinlichkeit angenommen, daher poissonverteilt Erfahrung: Am Tag durchschnittlich 3 Störungen. x =3 → → p( k ) ≈ E( X ) ≈ 3 → λ ≈ 3 3k −3 e k! Ein Monteur kann am Tag 2 Störungen beheben. Wie viele Monteure einsetzen, damit mit 95% Sicherheit alle Störungen beseitigt werden können? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 125 1.3.2 Verteilungen diskreter Zufallsvariablen noch Beispiel 38 −3 Wahrscheinlichkeitsfunktion: z.B. p(8) = e = 0 ,008102 8! p(7) = 0,021604, p(6) = 0,050409, p(5) = 0,100819, p(4) = 0,168031, p(3) = 0,224042, p(2) = 0,224042, P(1) = 0,149361, p(0) = 0,049787 Verteilungsfunktion: 3i F ( x) = P( X ≤ x) = e ∑ i = 0 i! P −3 x FP (...........) = 0,96649 d. h. ?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 126 1.3.2 Verteilungen diskreter Zufallsvariablen Weitere wichtige Anwendung: Approximation von b(k;n;p) für kleine p (seltene Ereignisse) und große n. Dann ist: = .......... E(X) = n # p = Var(X) = n # p (1-p) wegen 1-p 1 (Übung: Geburtstag mit =80/365!!) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 127 1.3.2 Verteilungen diskreter Zufallsvariablen Beispiel : Wieder Häufigkeit von Störungen Aber gegeben: n = 10000 Telefonanschlüsse P(“Störung”) = 0.0003 = p X= Zahl der Störungen an einem Tag. Im Prinzip binomial. E (X) = .............. = 3 < = 3 35 p (5) = e −3 = 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1 z. B. = 243 ⋅ 0,0498 = 2,025 ⋅ 0,0498 = 0,1008 120 Interpretation? Das gleiche mit Binomialverteilung?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 128 1.3.3 Verteilungen stetiger Zufallsvariablen Stetige Zufallsvariable: Wertebereich: lückenlos alle reellen Zahlen mindestens eines Intervalls Wahrscheinlichkeitsfunktion: gegenstandslos (warum?) Verteilungsfunktion F(x) um so wichtiger: Eine Funktion f(x) mit x F(x) = P( X .........x) = ∫ f( )d −∞ heißt Dichtefunktion D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 129 1.3.3 Verteilungen stetiger Zufallsvariablen F’(x) = … ? (Mit Ausnahme einiger Punkte, wo F(x) nicht differenzierbar ist. Welche??) lim F( x) = ?? x →∞ lim F( x) = ?? x → −∞ Es gilt: P(Xx2) = P(Xx1) + P(x1<Xx2) also: P( x1 < X ≤ x2 ) = P( X ≤ x2 ) − P( X ≤ x1 ) x2 x1 = F( x2 ) - F( x1 ) = ∫ f( x)dx - ∫ f( x)dx -∞ -∞ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 130 1.3.3 Verteilungen stetiger Zufallsvariablen F x2 P( x1 < X ≤ x2 ) = ∫ f( x)dx 1 x1 F(x2) F(x1) x f P(x1 <Xx2) f(x1) P(Xx1) x1 x2 x D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 131 1.3.3 Verteilungen stetiger Zufallsvariablen x1 P( X = x1 ) = ∫ f( x)dx = ?? x1 (Aber X = x1 ist nicht unmögliches Ereignis) Erwartungswert : +∞ E( X ) = ∫ ..... ⋅ f( x)dx häufiges Symbol : µ -∞ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 132 1.3.3 Verteilungen stetiger Zufallsvariablen Varianz Var( X ) = +∞ = E([ X - E( X )]²) = ∫ [ x - E( X )]²f( x)dx -∞ = +∞ ∫ x²f( x)dx − [E( X )]² = E( X ²) − [E( X )]² −∞ (z.E. Statistik I: σ x2 = x 2 − x 2 ) Gleiche Rechenregeln wie bei diskreten ZV Standardabweichung ?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 133 1.3.3 Verteilungen stetiger Zufallsvariablen a) Gleichverteilung, Rechteckverteilung: Konstante Dichtefunktion über dem Intervall (a,b), f(x) 1/(b-a) 1 a b x D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 134 1.3.3 Verteilungen stetiger Zufallsvariablen Dichtefunktion der Gleichverteilung : ⎧ 1 ⎪ f( x) = ⎨......... ⎪⎩0 für a ≤ x ≤ b sonst Verteilungsfunktion der Gleichverteilung: F(x) 1 a Prof. Dr. H. G. Strohe D b Statistik II s i s ie n i e tk t p i r Sk 135 1.3.3 Verteilungen stetiger Zufallsvariablen x x 1 d a b−a −∞ ξ x x−a = = für a ≤ x ≤ b, b − a a ........ ∫ f( )d = ∫ Also ⎧0 ⎪⎪ x − a F( x) = ⎨ ⎪........ ⎪⎩1 x<a für a ≤ x ≤ b x>b D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 136 1.3.3 Verteilungen stetiger Zufallsvariablen E( X ) = ...?; Var( X ) = (b − a )² 12 Beweisen! Beispiel: X = Wartezeit auf Ende eines 10-minütigen Arbeitsganges f( x) = 1 für 0 ≤ x ≤ 10, sonst Null 10 ⎧0 ⎪⎪ x F( X ) = ⎨ ⎪10 ⎪⎩1 x<0 für 0 ≤ x ≤ 10 x > 10 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 137 1.3.3 Verteilungen stetiger Zufallsvariablen Noch Beispiel: 10 1 10 1 1 = 5 min E( X ) = ∫ x dx = x ² ⋅ 2 10 0 10 0 10 1 10 1 1 Var( X ) = ∫ ( x − 5) ⋅ dx = ( x − 5)³ ⋅ 10 0 3 10 0 100 = = 8,33 12 = Var( X ) = 2,89 min d.h.?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 138 1.3.3 Verteilungen stetiger Zufallsvariablen b) Die Exponentialverteilung ⎧0 f( x) = ⎨ − ⎩ H für x < 0 [ ⎧0 F( x) = ⎨ − ⎩1 − e für x ≥ 0 für x < 0 [ für x ≥ 0 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 139 1.3.3 Verteilungen stetiger Zufallsvariablen x Beweis: ∫ H d 0 − x = −e x − 0 0 = −e − [ − (−1) Probe? Parameter : ⎛1⎞ E( X ) = ; Var( X ) = ⎜ ⎟; ⎝ ð⎠ 1 = ...? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 140 1.3.3 Verteilungen stetiger Zufallsvariablen Anwendung: Z.B. Warteschlangenprobleme. Zeit zwischen wiederholtem unabhängigen Eintreten eines Ereignisses ist exponential verteilt. Beispiel: X = Zeit zwischen Anrufen Erfahrung: Durchschnitt: = 1.42 Min Annahme: Anrufe unabhängig => F(x)=1-e- D Prof. Dr. H. G. Strohe Statistik II x s i s ie n i e tk t p i r Sk I. 141 1.3.3 Verteilungen stetiger Zufallsvariablen noch Beispiel: x ≈ E( X ) = 1 → ≈ ?? Frage: Mit welcher Wahrscheinlichkeit liegt Wartezeit zwischen 2 und 3 Minuten? P(2 < X 3) = F(3) - F(2) = (1-e-0.7 # 3) - (1-e- 0.7 # 2) = e-1.4 - e-2.1 = 0.247 - 0.123 = 0.124 Interpretation?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 142 1.3.3 Verteilungen stetiger Zufallsvariablen 0,8 Wahscheinlichkeitsdichte 0,7 0,6 0,5 0,4 Reihe1 0,3 0,2 0,1 0 0 1 2 3 4 5 6 7 8 9 Wartezeit in Min. D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 143 1.3.3 Verteilungen stetiger Zufallsvariablen Zusammenhang mit Poissonverteilung: Y= Zahl der Anrufe pro Minute ist poissonverteilt. Y= 1 X Erwartungswert für die Zahl von Anrufen in einer Minute: E(Y ) = 1 1 ≈ = = 0,7 E( X ) x Also im Durchschnitt etwa 7 Anrufe in 10 Min. D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 144 1.3.3 Verteilungen stetiger Zufallsvariablen weitere Beispiele: - Wartezeit auf Reparatur eines Autos - Dauer zwischen zwei Betriebsstörungen - Lebensdauer eines Lebewesens o. Unternehmens -„Wartezeit“ bis zum nächsten Terroranschlag … D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 145 1.3.3 Verteilungen stetiger Zufallsvariablen c) Die Normalverteilung Gaußsche Verteilung: Wo sich eine Vielzahl unabhängiger zufälliger Effekte zu einer Gesamterscheinung überlagert, z.B. Messfehler Dichtefunktion der Normalverteilung 1 ϕ ( x) = 2 E(X) = ; e − ( x − )² 2 ² Var(X) = )2. Symmetrisch um . D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 146 1.3.3 Verteilungen stetiger Zufallsvariablen Kurz: X ~ N ( , ²), Gaußsche Glockenkurve D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 147 1.3.3 Verteilungen stetiger Zufallsvariablen Für x = Maximum Wendepunkte bei ± ) P(µ - σ < X µ + σ ) = 0,6827 P(µ- 2σ < X µ+2σ ) = .............. P(µ- 3σ < X µ+3σ ) = 0,9973 Verteilungsfunktion: x x;µ; ²) = ∫ −∞ 1 2 - e ( )² 2 ² d D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 148 1.3.3 Verteilungen stetiger Zufallsvariablen Problem: Berechnung von 0 schwierig, für jedes und ) anders. Standardisierte Normalverteilung (Standardnormalverteilung) = .......... ; )2=............. Dichtefunktion: ϕ ( x) = 1 e 2 − x² 2 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 149 1.3.3 Verteilungen stetiger Zufallsvariablen 0(x) 1 1/2 x 0 0 Es gibt Tafeln und Programme D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 150 1.3.3 Verteilungen stetiger Zufallsvariablen Für andere Normalverteilungen: Standardisierung Wenn X ~ N(x, )x2) und Z= X − µx ; dann Z ~ N(0,1) x Vorteil: 0(z,0,1) und Q(z;0,1) sind tabelliert Kurzbezeichnung: 0(z) und 1(z) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 151 1.3.3 Verteilungen stetiger Zufallsvariablen Beispiel: P(Z1.41) = 0(1.41) = 0.920730 F lä c h e : 0 ( 1 .4 1 )= 0 .9 2 1 x 1 .4 1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 152 1.3.3 Verteilungen stetiger Zufallsvariablen Jetzt symmetrisches Intervall: 0(z) = P(Zz) = P(Z>-z) 0(-z) = P(Z-z) = 1- 0(z) P(-z<Zz) = P(Zz) - P(Z-z) = 0(z)-0(-z) = 0(z)-[1 -0(z)] Also: P(-z < Z z) = 20(z) - 1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 153 1.3.3 Verteilungen stetiger Zufallsvariablen Intervallwahrscheinlichkeit bei beliebigen Normalverteilungen Sei X ~ N (, )2) umrechnen: zi = xi − µ σ Dann ist P(X xi) = P(Z zi) = 0(zi) ebenso P(x1 < X x2) = P( z1 < Z z2) = 0(z2) - ......... D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 154 1.3.3 Verteilungen stetiger Zufallsvariablen Für symmetrisches Intervall P( − d < X ≤ µ + d ) = P( − d d <Z ≤+ ) = P( − z < Z ≤ z ) = 2Φ ( z ) − 1 mit z = ............ ............ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 155 1.3.3 Verteilungen stetiger Zufallsvariablen Beispiel 1: X = Gewicht von Gurken, X ~ N (0.8; 0.0025) 0,95 − 0,8 ) 0,05 = P( Z > 3) = 1 − P( Z ≤ 3) a) P( X > 0,95)? = P( Z > = 1 − = 1 − 0,9987 = 0,0013 b) P(0,7 < X ≤ 0,9) ? 0,9 − 0,8 ⎞ ⎛ 0,7 - 0,8 = P⎜ <Z ≤ ⎟ = P( −2 < Z ≤ 2) 0,05 0,05 ⎝ ⎠ = 2Φ ( 2) − 1 = 2 ⋅ 0,9772 − 1 = 0,9544 Interpretation? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 156 1.3.3 Verteilungen stetiger Zufallsvariablen Für Statistik umgekehrte Fragestellung wichtiger: Beispiel 2: X = Gewicht von Zementpaletten X ~ N(1000, 0.25) Gesucht: Symmetrischer Bereich um 1000 kg, in dem etwa 99% der Paletten liegen X − 1000 d ⎞ ⎛ d < < P(1000 − d < X ≤ 1000 + d ) = P⎜ − ⎟ 0,5 0,5 ⎠ ⎝ 0,5 d d.h. Standardisierung ............. = P( − z < Z < z ) ( z = ) 0,5 1 − 0,01 = 2Φ ( z ) - 1 D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 157 1.3.3 Verteilungen stetiger Zufallsvariablen noch Beispiel 2: 2 − 0,01 = 2 z ) 0,01 = z) 1− 2 Vorgehen kurz : 0,995 = z ) ⇒ z = 2,58 d = 2,58 ⋅ 0,5 = 1,29 99% der Paletten haben Gewicht zwischen 998,71 und 1001,29 kg D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 158 1.3.4 Allgemeine Verteilungsgesetze a) Tschebyschewsche Ungleichung E(X) = , Var(X) = )2, sonst Verteilung nicht bekannt P( µ − < X < µ + ) = P(| X − µ |< ) ≥ 1 − ² ² D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 159 1.3.4 Allgemeine Verteilungsgesetze Beispiel: Mit welcher Wahrscheinlichkeit fällt X in den 3)-Bereich? -=?? P(| X − µ |< .......) ≥ 1 - ² 3² ² = 1− 1 8 = = 0,888 3² 9 Wdh.: bei Normalverteilung ?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 160 1.3.4 Allgemeine Verteilungsgesetze b) Gesetz der großen Zahl • Bernoulli: P(A) = p, Zufallsvariable H gibt an, wie oft A bei n unabhängigen Wiederholungen auftritt. Dann: H ⎛ H ⎞ lim P⎜ ⎧⎨ − ⎫⎬ < p < ⎧⎨ + ⎫⎬ ⎟ = ............ n →∞ ⎭ ⎩n ⎭⎠ ⎝⎩ n (plim n →∞ H = p) n d.h. relative Häufigkeit pn = H/n konvergiert stochastisch gegen Wahrscheinlichkeit. Empirisch schon bei Süßmilch D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 161 1.3.4 Allgemeine Verteilungsgesetze b) Gesetz der großen Zahl • Chinschtchin: X1, ..., Xn,... Folge von unabhängigen Zufallsvariablen mit identischer Verteilung: E(Xi ) = Folge der Durchschnitte: X1 = X1; X2 = (X1 + X2)/2; X3 = (X1 + X2 + X3)/3 ; ... lim P( µ − < X n < µ + ) = .......... ( plim X n = µ ) n →∞ n →∞ Beweis: Tschebyschewsche Ungleichung D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 162 1.3.4 Allgemeine Verteilungsgesetze c) Zentraler Grenzwertsatz X i ~ iid( µ , ), Zn = Xn − Standardisierte Durchschnitte n Verteileilungsfunktion von Z n : FZ n (z) = P( Z n ≤ z ) → z ) n →∞ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 163 1.3.4 Allgemeine Verteilungsgesetze c) Zentraler Grenzwertsatz D.h. Durchschnitte nicht normalverteilter Zufallsvariablen sind näherungsweise normalverteilt, z. B. Stichprobendurchschnitt !! Vielfach auch Summen. Insbesondere ableitbar: Yn ~ B(p,n) (binomialverteilt) kann approximiert werden durch Normalverteilung: n~ N(......, np(1-p)). Warum diese Parameter?? D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 164 1.3.4 Allgemeine Verteilungsgesetze c) Zentraler Grenzwertsatz Approximationsgüte sehr gut bei symmetrischer Binomialverteilung p=0.5, schlecht bei starker Asymmetrie : 0.1 oder 0.9. Faustregel: Approximation nur anwenden, wenn Var(Yn ) = np(1- p) > ......, d.h. für p=0.5 : p=0.1 : n> 36 n>100 (merken!) D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 165 1.3.4 Allgemeine Verteilungsgesetze c) Zentraler Grenzwertsatz Demonstration mit Galton-Brett: p = ........ D Prof. Dr. H. G. Strohe Statistik II s i s ie n i e tk t p i r Sk I. 166