Diskrete Zufallsvariablen Wahrscheinlichkeitsräume Zufallsvariablen Erwartungswert Varianz Quiz Im Fall einer Gleichverteilung sind gleich große Teilmengen von Ω gleich wahrscheinlich. Z.B. gilt für Ω={0,1,2}: (0, 13 ]c = ( 13 ,1] , P({0})=P({1})=P({2})= 13 ( 18 , 85 ] ∪ ( 83 , 78 ] = ( 18 , 78 ] , P({0,1})=P({0,2})=P({1,2})= 23 ( 18 , 85 ] ∩ ( 83 , 78 ] = ( 83 , 85 ] , Analog müsste im Fall der unendlichen Menge Ω=(0,1] gelten: P ((0,1]) = 1 P((0, 12 ]) = P(( 12 ,1]) = 12 P((0, 13 ]) = P(( 13 , 23 ]) = P (( 23 ,1]) = 13 P((0, 14 ]) = P(( 14 , 24 ]) = P( 24 , 43 ]) = P(( 43 ,1]) Komplemente, Vereinigungen und Durchschnitte von Teilintervallen von (0,1] sind wieder Teilintervalle von (0,1], z.B. oder zumindest aber Vereinigungen disjunkter Teilintervalle von (0,1], z.B. ( 72 , 47 ]c = (0, 27 ] ∪ ( 47 ,1] . = 1 4 Die Wahrscheinlichkeit eines Teilintervalls von (0,1] wäre also einfach gegeben durch seine Länge. Die Länge/Wahrscheinlichkeit einer Vereinigung disjunkter Teilintervalle von (0,1] ist gegeben durch die Summe der Längen/Wahrscheinlichkeiten der einzelnen Teilintervalle von (0,1], z.B. P(( 19 , 49 ] ∪ ( 96 , 79 ]) = P(( 19 , 49 ]) + P(( 69 , 79 ]) = 93 + 19 = 49 . 1 Im Fall von Ω=(0,1] müsste eine Gleichverteilung P jedem Teilintervall von (0,1] seine Länge als Wahrscheinlichkeit zuordnen. Teilmengen von ℜ, die man mit den Mengenoperationen c , ∪, ∩ aus Intervallen erzeugen kann, heißen Borel- Leider gibt es keine Wahrscheinlichkeitsverteilung P, die diese Anforderung erfüllt und darüber hinaus auch noch jeder beliebigen Teilmenge von (0,1] eine Wahrscheinlichkeit zuordnet. Das liegt daran, dass es auch sehr komplizierte Teilmengen von (0,1] gibt, für die man unmöglich eine Länge angeben kann. Beispiele von Borel-Mengen: Will man für Ω=(0,1] trotzdem eine Gleichverteilung definieren, dann muss man sich auf einfachere Teilmengen beschränken, z.B. Teilintervalle von (0,1] sowie ihre Komplemente, Vereinigungen und Durchschnitte. Mengen. [-8,-5)∪(0,1]∪(π,∞), ℜ = ( −∞, ∞) , φ = ℜc , {3}=[3,3] Abzählbar unendliche1 Vereinigungen und Durchschnitte sind auch erlaubt. Daher ist beispielsweise auch die Menge der natürlichen Zahlen ℵ = {0,1,2,3,...} = {0} ∪ {1} ∪ {2} ∪ {3} ∪ ... eine Borel-Menge. 1 countably infinite 2 Eine Menge F von Teilmengen einer nichtleeren Menge Ω heißt σ-Algebra2 auf Ω, wenn für alle A,A1,A2,…∈F gilt: φ ∈F, Ω∈F, A∈F ⇒ Ac∈F, A1, A2, A3,…∈F ⇒ A1∪A2∪ A3∪…∈F, A1, A2, A3,…∈F ⇒ A1∩A2∩ A3∩…∈F Beispiele: Die Menge aller Borel-Mengen ist eine σ-Algebra auf ℜ. F={φ,{0},Ω} ist keine σ-Algebra auf Ω={0,1}, weil {0}c ={1}∉F. F={φ,{1},{2},{1,3},{2,3},Ω} ist keine σ-Algebra auf Ω={1,2,3}, weil F={φ,{1},{2,3},Ω} ist eine σ-Algebra auf Ω={1,2,3}, weil φ ∈F, Ω∈F, φ c=Ω∈F, Ωc=φ ∈F, {1}c={2,3}∈F, {2,3}c={1}∈F, φ ∪{1}={1}∈F, φ ∪{2,3}={2,3}∈F, φ ∪Ω=Ω∈F, {1}∪{2,3}=Ω∈F, {2,3}∪Ω=Ω∈F, φ ∩{1}=φ ∈F, φ ∩{2,3}=φ ∈F, φ ∩Ω=φ ∈F, {1}∩{2,3}=φ ∈F, {2,3}∩Ω={2,3}∈F. Die Potenzmenge P(Ω) einer nichtleeren Menge Ω ist eine σ-Algebra auf Ω. Sie enthält alle Teilmengen von Ω, also insbesondere auch φ und Ω. Außerdem sind alle Komplemente, Vereinigungen und Durchschnitte von Teilmengen von Ω wiederum Teilmengen von Ω und sind daher auch in P(Ω) enthalten. {1}∪{2}={1,2}∉F, {1,3}∩{2,3}={3}∉F. 2 σ-algebra (or σ-field) 3 Eine Funktion P: F:→[0,1] heißt Wahrscheinlichkeitsverteilung3, wenn F eine σ-Algebra auf einer Menge Ω ist und für alle A∈F sowie für alle paarweise disjunkten A1,A2,A3,…∈F gilt: P(φ)=0, P(Ω)=1, P(Ac)=1−P(A), P(A1∪A2∪A3∪…)=P(A1)+P(A2)+P(A3)+… Teilmengen von Ω, die in F enthalten sind, heißen Ereignisse4. Die Wahrscheinlichkeitsverteilung P ordnet nur Ereignissen Wahrscheinlichkeiten zu, nicht aber Teilmengen von Ω, die nicht in F enthalten sind. Beispiele: • P={(φ,0),({1},0.8),({2,3},0.2),({1,2,3},1)} ist eine Wahrscheinlichkeitsverteilung auf F={φ,{1},{2,3},{1,2,3}}. • P={(φ,0),({1},0.7),({2,3},0.2),({1,2,3},1)} ist keine Wahrscheinlichkeitsverteilung auf F={φ,{1},{2,3},{1,2,3}}, weil P({1})+P({2,3})=0.7+0.2=0.9 ≠ P({1}∪{2,3})=P({1,2,3})=1. Das Tripel (Ω,F,P) heißt Wahrscheinlichkeitsraum5. 3 probability distribution (or probability measure) events 5 probability space 4 4 Eine Funktion X: Ω→ℜ heißt Zufallsvariable6 auf dem Wahrscheinlichkeitsraum (Ω,F,P), wenn das Urbild jeder Borel-Menge ein Ereignis ist. Eine Funktion X : Ω → ℜn heißt n-dimensionale Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω,F,P), wenn das Urbild jeder n-dimensionalen Borel-Menge ein Ereignis ist. Die Wahrscheinlichkeit, dass eine Zufallsvariable X einen Wert in einer Borelmenge B annimmt, ist gegeben durch Die σ-Algebra der n-dimensionalen Borel-Mengen ist die kleinste σ-Algebra auf ℜn, die alle n-dimensionalen Intervalle enthält. P(X∈B) = P(X-1(B))=P({ω ∈Ω: X(ω)∈B}). Für jedes ω ∈Ω heißt X(ω) eine Realisierung7 von X. Beispiel: Ist Ω={1,2,3} und F={φ,{1},{2,3},Ω}, dann ist die Funktion X={(1,5),(2,0),(3,7)} keine Zufallsvariable, weil X-1([4,9])={ω ∈{1,2,3}: X(ω)∈[4,9]}={1,3}∉F, X-1([0,0])={ω ∈{1,2,3}: X(ω)∈[0,0]}={2}∉F, M 6 7 random variable realization 2-dimensionale Intervalle sind Rechtecke. 3-dimensionale Intervalle sind Quader. Beispiel: X1 … Augenzahl (bei 1 × Würfeln) X2 … Quadrat der Augenzahl X3 … Vorzeichen der Augenzahl 3-dimensionale Zufallsvariable: X=(X1, X2, X3) X(4) = (X1(4), X2(4), X3(4)) = (4,16,1) ∈ ℜ3 Statt P(X1∈(3,4]) und P(X∈[0,1]×(2,4)×(0,5]) schreibt man auch P(3<X1≤4) bzw. P((0≤X1≤1)∧(2<X2<4)∧(0<X3≤5)). 5 Beispiel: X = Anzahl der Köpfe bei 2-maligem Münzwurf Ω={(0,0),(0,1),(1,0),(1,1)} P({(0,0)})=P({(0,1)})=P({(1,0)})=P({(1,1)})= 14 X((0,0))=2, X((0,1))=1, X((1,0))=1, X((1,1))=0 P(-1<X≤1.5)=P(X∈(-1,1.5])=P(X-1((-1,1.5])) =P({(0,0),(0,1),(1,0)}= 34 Beispiel: X = (X1, X2) zweidimensionale Zufallsvariable X1 =Anzahl der Zahlen bei 2-maligem Münzwurf X2 =Anzahl der Köpfe bei 2-maligem Münzwurf Ω={(0,0),(0,1),(1,0),(1,1)}, P({(0,0)})=…=P({(1,1)})= 14 X((0,0))=(0,2), X((0,1))=(1,1), X((1,0))=(1,1), X((1,1))=(2,0) P(0.5<X1≤1.5 ∧ 0.5<X2≤1.5)=P(X∈(0.5,1.5]×(0.5,1.5]) =P(X-1((0.5,1.5]×(0.5,1.5]))=P({(0,1),(1,0)})= 24 6 Der Erwartungswert8 einer Zufallsvariablen X: Ω→ℜ mit möglichen Werten x1,…,xn ist gegeben durch Y=g(X), g(x)=|x−3.5| Mögliche Werte: y1=g(x1)=|1−3.5|=2.5=|6−3.5|=g(x6) n y2=g(x2)=|2−3.5|=1.5=|5−3.5|=g(x5) E ( X ) = x1P ( X = x1 ) + ... + xn P ( X = xn ) = ∑ x j P( X = x j ) . y3=g(x3)=|3−3.5|=0.5=|4−3.5|=g(x4) j =1 E (Y ) = y1P (Y = y1 ) + y2 P (Y = y2 ) + y3 P (Y = y3 ) Beispiel: 1 × Würfeln Ω={1,2,3,4,5,6}, X(ω)=ω = 2.5 P (Y = 2.5) + 1.5 P (Y = 1.5) + 0.5 P (Y = 0.5) P({1})=P({2})=…=P({6})= 16 (Augenzahl) Mögliche Werte: x1=X(1)=1, x2=X(2)=2, x3=X(3)=3 x4=X(4)=4, x5=X(5)=5, x6=X(6)=6 E ( X ) = 1P ( X = 1) + ... + 6 P( X = 6) = 1P( X −1 ({1}) + ... + 6 P( X −1 ({6}) = 1P({1}) + ... + 6 P({6}) = 1 16 + ... + 6 16 = 21 6 = 3.5 = 2.5P(Y −1 ({2.5}) + 1.5P(Y −1 ({1.5})... + 0.5P( X −1 ({0.5}) = 2.5 P({1,6}) + 1.5 P ({2,5}) + 0.5 P ({3,4}) = 2.5 62 + 1.5 62 + 0.5 26 = 1.5 Dasselbe Ergebnis erhält man wie folgt: E (Y ) = g ( x1 ) P ( X = x1 ) + g ( x2 ) P ( X = x2 ) + g ( x3 ) P ( X = x3 ) + g ( x4 ) P ( X = x4 ) + g ( x5 ) P( X = x5 ) + g ( x6 ) P ( X = x6 ) = 2.5 16 + 1.5 16 + 0.5 16 + 0.5 16 + 1.5 16 + 2.5 16 = 1.5 Allgemein gilt: m n j =1 i =1 Y = g ( X ) ⇒ E (Y ) = ∑ y j P (Y = y j ) = ∑ g ( xi ) P ( X = xi ) 8 expected value 7 E ( λX ) = λ E ( X ) Es gilt: Beweis: X (Ω) = {x1,..., xn }, Y = g ( X ) = λX n m n E ( X + Y ) = ∑ ∑ ( xi + y j ) P ( X = xi ∧ Y = y j ) i =1 j =1 n ⇒ E (Y ) = ∑ g ( xi ) P ( X = xi ) = ∑ λxi P( X = xi ) i =1 10 Beweis: i =1 n = λ ∑ xi P( X = xi ) i1 =144244 3 n m n i =1 m j =1 j =1 i =1 = ∑ xi ∑ P ( X = xi ∧ Y = y j ) + ∑ y j ∑ P ( X = xi ∧ Y = y j ) = ∑ xi ( P ( X = xi ∧ Y = y1 ) + ... + P ( X = xi ∧ Y = yn )) i =1 =E( X ) Eine Zufallsvariable X, die den Wert λ mit der Wahrscheinlichkeit 1 annimmt, hat eine Einpunktverteilung9 mit Parameter λ. m n + ∑ y j ( P( X = x1 ∧ Y = y j ) + ... + P ( X = xm ∧ Y = y j )) j =1 m = ∑ xi P (( X = xi ∧ Y = y1 ) ∨ ... ∨ ( X = xi ∧ Y = yn )) i =1 n E ( X ) = λP ( X = λ ) = λ ⋅ 1 = λ ⇒ E ( λ ) = λ + ∑ y j P (( X = x1 ∧ Y = y j ) ∨ ... ∨ ( X = xm ∧ Y = y j )) j =1 X und Y seien (auf demselben Wahrscheinlichkeitsraum definierte) Zufallsvariablen mit den möglichen Werten x1,…,xn bzw. y1,…,yn. Es gilt: E ( X + Y ) = E ( X ) + E (Y ) 9 degenerate distribution m n i =1 j =1 = ∑ xi P ( X = xi ) + ∑ y j P (Y = y j ) = E ( X ) + E (Y ) 10 Text auf grünem Hintergrund kann übersprungen werden. 8 Beispiel: Einmaliges Würfeln Die Zufallsvariable X nimmt im Fall eines Erfolgs (Sechser) den Wert 1 an und im Fall eines Misserfolgs (kein Sechser) den Wert 0. Man sagt auch, dass X eine Bernoulli-Verteilung11 mit Parameter p hat, und meint damit diejenige Wahrscheinlichkeitsverteilung P* auf ℜ, die jeder Borel-Menge A die Wahrscheinlichkeit 0, p, P * ( A) = 1 − p, 1, Ω = {1,...,6} X = {(1,0), ( 2,0), (3,0), ( 4,0), (5,0), (6,1)} Erfolgswahrscheinlichkeit: P ( X = 1) = P ( X −1 (1)) = P ({6}) = 1 6 falls 0 ∉ A, 1 ∉ A falls 0 ∉ A, 1 ∈ A falls 0 ∈ A, 1 ∉ A falls 0 ∈ A, 1 ∈ A zuordnet. Misserfolgswahrscheinlichkeit: P ( X = 0) = P ( X −1 (0)) = P ({1,2,3,4,5}) = 5 6 Eine Zufallsvariable X, die den Wert 1 mit der Wahrscheinlichkeit p und den Wert 0 mit der Wahrscheinlichkeit 1-p annimmt, ist Bernoulli-verteilt mit Parameter p (Erfolgswahrscheinlichkeit). E ( X ) = 0 ⋅ P ( X = 0) + 1 ⋅ P ( X = 1) = 0 ⋅ (1 − p ) + 1 ⋅ p = p 11 X has a Bernoulli distribution (or X is Bernoulli-distributed) 9 Beispiel: Zweimaliges Würfeln Ω = {(1,1), (1,2),..., (6,6)} Die Zufallsvariablen X und Y heißen unabhängig, falls P ( X ∈ A ∧ Y ∈ B) = P( X1 ∈ A) ⋅ P ( X 2 ∈ B) X1 nimmt den Wert 1 an, wenn beim 1. Wurf ein Sechser kommt, andernfalls den Wert 0. für alle Borel-Mengen A und B. X2 nimmt den Wert 1 an, wenn beim 2. Wurf ein Sechser kommt, andernfalls den Wert 0. Im vorigen Beispiel sind die Zufallsvariablen X1 und X2 unabhängig. Die Zufallsvariable X=X1+X2 ordnet jedem Ergebnis ω∈Ω die Gesamtanzahl der Sechser zu, z.B. Beispielsweise erhalten wir für A=[-2,0] und B={1}: X ({(5,1)}) = 0 , X ({(2,6)}) = 1 , X ({(6,6)}) = 2 . z <- sample(1:6,2,replace=TRUE); z 51 x <- ifelse(z==6,1,0); x 12 00 X <- sum(x); X 0 12 P( X1 ∈ [−2,0] ∧ X 2 ∈ {1}) = P( X1 = 0 ∧ X 2 = 1) = P({(1,6), (2,6), (3,6), (4,6), (5,6)}) = 5 36 P( X1 ∈ [−2,0]) ⋅ P( X 2 ∈ {1}) = P( X1 = 0) ⋅ P( X 2 = 1) = 56 ⋅ 16 = 5 36 Use the command help(ifelse) to get more information about ifelse. 10 Beispiel: n-maliges Würfeln Ω = {(1,1,...,1), (1,1,...,2),..., (6,6,...,6)} n=3: P( X = 0) = P( X 1 = 0) P( X 2 = 0) P( X 3 = 0) = X1 nimmt den Wert 1 an, wenn beim 1. Wurf ein Sechser kommt, andernfalls den Wert 0. M Xn nimmt den Wert 1 an, wenn beim n. Wurf ein Sechser kommt, andernfalls den Wert 0. P ( X = 1) = P ( X 1 = 1) P ( X 2 = 0) P ( X 3 = 0) Die Zufallsvariablen X1,…,Xn sind unabhängig, d.h. P ( X 1 ∈ A1 ∧ ... ∧ X n ∈ An ) = P ( X 1 ∈ A1 )...P ( X n ∈ An ) für alle Borelmengen A1,…,An. P( X Die Zufallsvariable X=X1+X2+…+Xn ordnet jedem Ergebnis ω∈Ω die Gesamtanzahl der Sechser zu, z.B. X ({( 4,4,2,4,3,2,6,1,4,6)}) = 2 . z <- sample(1:6,10,replace=TRUE); z 4424326146 x <- ifelse(z==6,1,0); x; X <- sum(x); X 0000001001 2 555 666 + P ( X 1 = 0) P ( X 2 = 1) P ( X 3 = 0) + P ( X 1 = 0) P ( X 2 = 0) P ( X 3 = 1) = P( X 1 5 5 + 5 1 5 + 5 5 1 = 31 5 5 666 666 666 666 = 2) = 16 16 56 + 16 56 16 + 56 16 16 = 3 16 16 56 = 3) = 16 16 16 n=4: P( X = 0) = P( X P( X P( X P( X 5555 6666 1 = 1) = 6 65 56 56 + 56 16 56 56 + 56 56 16 65 + 65 56 56 16 = 4 16 56 56 56 = 2) = 16 16 65 56 + 16 56 16 56 + 16 56 65 16 + 56 16 16 56 + 56 16 56 16 + 56 65 16 16 = 6 16 16 56 65 = 3) = 16 16 16 56 + 16 16 56 16 + 16 65 16 16 + 65 16 16 16 = 4 16 16 16 56 = 4) = 16 16 16 16 11 Es gibt Die Summe n! = n ⋅ ( n − 1) ⋅ ... ⋅ 2 ⋅ 1 X = X 1 + ... + X n (n Faktorielle)15 von n unabhänigen Zufallsvariablen X1,…,Xn, die eine Bernoulli-Verteilung mit Parameter p haben, hat eine Binomialverteilung13 mit Parametern n und p. n-Tupel mit den Zahlen 1,2,…,n als ihren Komponenten. Für die erste Komponente des n-Tupels kommen noch alle n Zahlen in Frage, für die zweite nur noch n-1 usw. Die Wahrscheinlichkeit, dass X den Wert j∈{0,1,2,…,n} annimmt, ist gegeben durch n=3: 3 Wahlmöglichkeiten: 2 Wahlmöglichkeiten: 1 Wahlmöglichkeit: n P ( X = j ) = p j (1 − p ) n − j , j wobei der Binomialkoeffizient die Anzahl der Möglichkeiten angibt, die j erfolgreichen Versuche aus den insgesamt n Versuchen auszuwählen. 13 14 binomial distribution binomial coefficient 2 3 2 3 3 2 1 3 3 1 1 2 2 1 Man kann beispielsweise jedes der 3!=3⋅2⋅1=6 Tripel 14 n n! = j j!( n − j )! 1 (1,2,3), (1,3,2), (2,1,3), (2,3,1), (3,1,2), (3,2,1) zur Auswahl von 2 Zahlen verwenden. Allerdings wählen das 1. und das 3., das 2. und das 5. sowie das 4. und das 6. Tripel jeweils dieselben 2 Zahlen. Die Anzahl der Wahlmöglichkeiten ist also in diesem Fall gegeben durch die Anzahl der Tripel dividiert durch 2: 3=6:2=3!:(2!1!) 15 n factorial 12 • Es gibt Da eine binomialverteilte Zufallsvariable mit Parametern n und p definiert ist als Summe X = X 1 + ... + X n 5!=5⋅4⋅3⋅2⋅1=120 verschiedene Anordnungen der 5 BRICS-Staaten: von n unabhänigen, Bernoulli-verteilten Zufallsvariablen X1,…,Xn mit Parameter p, ist ihr Erwartungswert gegeben durch BRA,CHN,IND,RUS,ZAF CHN,IND,BRA,RUS,ZAF M E ( X ) = E ( X 1 + ... + X n ) = E ( X 1 ) + ... + E ( X n ) • Es gibt 30 über 5 verschiedene Aktienportfolios, die 5 der 30 im Dow Jones Industrial Average (DJIA) berücksichtigten Industrieunternehmen17 enthalten: = p + ... + p = np . Beispiele: DIS,KO,MCD,AAPL,NKE18 (kids‘ choice) AXP,GS,JPM,TRV,V19 (Geld) • Es gibt 45 über 616 verschiedene Tipps beim Lotto 6 aus 45. 45 45! 45 ⋅ 44 ⋅ 43 ⋅ 42 ⋅ 41 ⋅ 40 = = = 8 145 060 6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1 6 6!(45 − 6)! sample(1:45,6,replace=FALSE) 21 4 39 36 18 23 (Alphabet) (Bevölkerung) M 30 30! 30 ⋅ 29 ⋅ 28 ⋅ 27 ⋅ 26 = = = 142 506 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1 5 5!(30 − 5)! 17 DJIA-Komponenten vom 19.03.2015 Walt Disney, Coca-Cola, McDonald's, Apple, Nike 19 American Express, Goldman Sachs, JPMorgan, Travelers, Visa 18 16 45 choose 6 13 Beispiel: Würfeln bis zum ersten Sechser Ω = {6, (1,6), ( 2,6),..., (5,6), (1,1,6), (1,2,6),...} Die Zufallsvariable X ordnet jedem Ergebnis die Anzahl der Misserfolge bis zum Erfolg (erster Sechser) zu. Eine Zufallsvariable heißt diskret20, falls X (Ω) endlich oder abzählbar unendlich ist. Ist die Menge der möglichen Werte einer Zufallsvariablen X abzählbar unendlich, d.h. Beispielsweise nimmt X den Wert 0 an, wenn gleich beim X (Ω) = {x1 , x2 , x3 ,...} , ersten Mal ein Sechser kommt, den Wert 1, wenn erst beim dann ist ihr Erwartungswert gegeben durch zweiten Mal ein Sechser kommt, usw. X kann also die Werte 0,1,2,3,… annehmen, d.h. E ( X ) = x1P( X = x1 ) + x2 P( X = x2 ) + ... ∞ X (Ω) = {0,1,2,3,...} = ℵ . = ∑ x j P( X = x j ) , j =1 Beispielsweise ist allerdings nur, falls diese unendliche Summe existiert. X ({(3,4,1,3,5,5,3,6)}) = 7 und X ({(2,4,3,4,2,2,5,2,2,4,2,3,4,2,4,6 )}) = 15 . Der Erwartungswert einer diskreten Zufallsvariablen X kann einheitlich geschrieben werden als E( X ) = ∑ x P( X = x) . x∈X ( Ω ) 20 discrete 14 Würfelt man solange, bis ein Sechser kommt, dann ist die Wahrscheinlichkeit von j Misserfolgen gegeben durch P( X = j ) = () 1 5 j, 6 6 j ∈ℵ. Eine diskrete Zufallsvariabe hat eine geometrische Verteilung21 mit Parameter p, falls P( X = j ) = p(1 − p ) j , j ∈ ℵ . Die Summe aller Wahrscheinlichkeiten ist gleich 1: Gleich beim 1. Mal ein Sechser, kein Misserfolg: P( X = 0) = 1 6 Erst beim 2. Mal ein Sechser, ein Misserfolg: P( X = 1) = 51 66 ∞ j =0 j =0 j =0 ∞ ∞ E ( X ) = ∑ j p (1 − p ) j = ∑ j p (1 − p ) j j =0 j =1 ∞ ( = (1 − p ) ∑ ( j − 1) p (1 − p ) j −1 + p (1 − p ) j −1 j =1 551 666 ) ∞ = (1 − p ) E ( X ) + (1 − p ) p ∑ (1 − p ) j Erst beim 4. Mal ein Sechser, drei Misserfolge: P( X = 3) = ∞ Den Erwartungswert von X erhält man wie folgt: Erst beim 3. Mal ein Sechser, zwei Misserfolge: P ( X = 2) = ∞ ∑ P( X = j ) = ∑ p(1 − p ) j = p ∑ (1 − p ) j = p 1− (11− p ) = 1 j =0 5551 6666 ⇒ pE ( X ) = (1 − p ) p 1− (11− p ) ⇒ E ( X ) = 1−pp M 21 geometric distribution 15 Ein Maß für die Streuung22 einer Zufallsvariablen X ist gegeben durch den Erwartungswert der absoluten Abweichung vom Erwartungswert: E X − E ( X ) 23 (mittlere absolute Abweichung24) Ein alternatives Maß erhält man, wenn man zuerst den Erwartungswert der quadrierten Abweichung vom Erwartungswert ermittelt und dann die Wurzel zieht: var( X ) = E ( X − E ( X )) sd( X ) = var( X ) 2 25 (Varianz ) (Standardabweichung26) Für Y = ( X − E ( X )) 2 gilt: E (Y ) = ∑ y P(Y = y ) = y∈Y ( Ω ) ∑ ( x − E ( X )) 2 P( X = x ) x∈ X ( Ω ) Beispiel: X hat eine Bernoulli-Verteilung mit Parameter p E( X ) = p E X − E ( X ) = 0 − p (1 − p ) + 1 − p p var( X ) = (0 − p )2 (1 − p ) + (1 − p )2 p = p − p 2 = p(1 − p ) sd( X ) = p(1 − p ) p <- c(0.2,0.4,0.6,0.8) MAD <- abs(0-p)*(1-p)+abs(1-p)*p # absolute value sd <- sqrt(p*(1-p)) # square root h <- rbind(p,MAD,sd); h # combine by rows p 0.20 0.4000000 0.6000000 0.80 MAD 0.32 0.4800000 0.4800000 0.32 sd 0.40 0.4898979 0.4898979 0.40 22 dispersion Weglassen der Klammern bei E(…) kann die Lesbarkeit verbessern. 24 mean absolute deviation 25 variance 26 standard deviation 23 16 Eigenschaften der Varianz (X Zufallsvariable, α,β∈ℜ): var( X ) = E ( X − E ( X )) 2 2 Ist X binomialverteilt mit Parametern n und p, dann gilt für n=2 var( X ) = E X 2 − ( E X ) 2 2 = E ( X − 2 X E ( X ) + ( E ( X )) ) = 02 P ( X = 0) + 12 P ( X = 1) + 22 P ( X = 2) − ( 2 p )2 = E ( X 2 ) − E ( 2 X E ( X )) + E ( E ( X )) 2 123 123 ∈ℜ ∈ℜ = E ( X 2 ) − ( 2 E ( X )) E ( X ) + ( E ( X )) 2 2 = E ( X ) − ( E ( X )) = 2 p(1 − p ) , für n=3 var( X ) = ... = 3 p (1 − p ) 2 und allgemein var(α + βX ) = E (α + βX − E (α + β X )) 2 = E (α + βX − Eα − E ( βX )) = E (α + βX − α − β E ( X )) = E ( β X − β E ( X )) 2 = Eβ 2 ( X − E ( X )) 2 = β 2 E ( X − E ( X )) 2 = β 2 var( X ) = 0 + 12 2 p1 (1 − p )1 + 22 p 2 (1 − p )0 − 4 p 2 2 var( X ) = n p (1 − p ) . 2 Die Varianz einer Summe von n unabhänigen, Bernoulliverteilten Zufallsvariablen mit Parameter p ist also gegeben durch var( X 1 + ... + X n ) = np (1 − p ) und ist somit gleich der Summe var( X 1 ) + ... + var( X n ) = p (1 − p ) + ... + p (1 − p ) der Varianzen der Summanden. 17 Allgemein gilt var( X 1 + ... + X n ) = var( X 1 ) + ... + var( X n ) , falls X1,…,Xn paarweise unabhängig sind. Beweis (für n=2): E ( X1 X 2 ) = ∑ ∑ x1x2 P( X 1 x1∈ X1 (Ω ) x2∈ X1 ( Ω ) = x1 ∧ X 2 = x2 ) = ∑ ∑ x1x2 P( X 1 x1∈ X1 ( Ω ) x2 ∈ X1 ( Ω ) = x1 ) P( X 2 = x2 ) = ∑ x1 P( X 1 x1∈ X1 ( Ω ) = x1 ) ∑ x2 P ( X 2 x2∈ X1 ( Ω ) = x2 ) = E( X1)E( X 2 ) ⇒ var( X 1 + X 2 ) = E ( X 1 + X 2 ) 2 − ( E ( X 1 + X 2 )) 2 = E ( X12 ) + 2 E ( X1 X 2 ) + E ( X 22 ) − ( E ( X 1 ) + E ( X 2 )) 2 = E ( X12 ) + 2 E ( X1 ) E ( X 2 ) + E ( X 22 ) − ( E ( X 1 )) 2 − 2 E ( X 1 ) E ( X 2 ) − ( E ( X 2 )) 2 = E ( X 12 ) − ( E ( X 1 )) 2 + E ( X 22 ) − ( E ( X 2 )) 2 = var( X 1 ) + var( X 2 ) 18 Momente: Spezielle Momente: Für k∈ℵ heißt Nichtzentrales Moment der Ordnung 1: Erwartungswert E( X k ) Zentrales Moment der Ordnung 2: Varianz das nichtzentrale Moment der Ordnung k 27 von X, E ( X − E ( X )) k Normiertes zentrales Moment der Ordnung 3: Schiefe30 Normiertes zentrales Moment der Ordnung 4: Wölbung31 das zentrale Moment der Ordnung k 28 von X und X − E( X ) E sd ( X ) k das normierte zentrale Moment der Ordnung k 29 von X. 27 noncentral moment of order k central moment of order k* 29 normalized central moment of order k 28 30 31 skewness kurtosis 19 Quiz Lösungen F={φ,{3,5},x,y} σ-Algebra auf Ω={3,4,5}, |x|+|y|=? |x|+|y|=|{3,5}c|+|Ω|=|{4}|+|Ω|=1+3=4 P={(φ,0),({0,1,2},0.2),({3},x),({0,1,2,3},1)}, x=? {3}={0,1,2}c ⇒ x=P({3})=1−P({0,1,2})=1−0.2=0.8 P Gleichverteilung auf {-5,-4,…,4}, X(ω)=ω2, P(X≤4)=? 1 ⇒ P(X≤4)=P({-2,….,2})= 5 =0.5 P({-5})=…=P({4})= 10 10 P(X=-5)=0.1, P(X=-3)=0.2, P(X=2)=0.7, E(X)=? E(X)=(-5)⋅0.1+(-3)⋅0.2+2⋅0.7=0.3 E(X)=4, E(Y)=-1, Z=3+3X −Y, E(Z)=? E(Z)=3+3E(X)−E(Y)=3+3⋅4−(-1)=16 P(X=3)=0.3, P(X=-2)=0.2, P(X=1)=0.5, E(X2)=? E(X2)=32⋅0.3+(-2)2⋅0.2+12⋅0.5=4 var(X)=3, Y=-19−2X, var(Y)=? var(Y)=var(-19−2X)=var((-19)+(-2)X)=(-2)2var(X)=4⋅3=12 E(X)=4, var(X)=23, E(X2)=? var(X)=E(X2)−(E(X))2 ⇒ E(X2)=var(X)+(E(X))2=23+42=39 X Gleichverteilung auf {2,3,4}, Y~B(4,0.5)32, E(X+Y)=? E(X+Y)=E(X)+E(Y)=2 13 +3 13 +4 13 +4⋅0.5= 93 +2=5 32 Abkürzung für: Y hat eine Binomialverteilung mit n=4 und p=0.5 20