Diskrete Zufallsvariablen Wahrscheinlichkeitsräume

Werbung
Diskrete Zufallsvariablen
Wahrscheinlichkeitsräume
Zufallsvariablen
Erwartungswert
Varianz
Quiz
Im Fall einer Gleichverteilung sind gleich große
Teilmengen von Ω gleich wahrscheinlich.
Z.B. gilt für Ω={0,1,2}:
(0, 13 ]c = ( 13 ,1] ,
P({0})=P({1})=P({2})= 13
( 18 , 85 ] ∪ ( 83 , 78 ] = ( 18 , 78 ] ,
P({0,1})=P({0,2})=P({1,2})= 23
( 18 , 85 ] ∩ ( 83 , 78 ] = ( 83 , 85 ] ,
Analog müsste im Fall der unendlichen Menge Ω=(0,1]
gelten:
P ((0,1]) = 1
P((0, 12 ]) = P(( 12 ,1]) = 12
P((0, 13 ]) = P(( 13 , 23 ]) = P (( 23 ,1]) = 13
P((0, 14 ]) = P(( 14 , 24 ]) = P( 24 , 43 ]) = P(( 43 ,1])
Komplemente, Vereinigungen und Durchschnitte von
Teilintervallen von (0,1] sind wieder Teilintervalle von
(0,1], z.B.
oder zumindest aber Vereinigungen disjunkter
Teilintervalle von (0,1], z.B.
( 72 , 47 ]c = (0, 27 ] ∪ ( 47 ,1] .
=
1
4
Die Wahrscheinlichkeit eines Teilintervalls von (0,1]
wäre also einfach gegeben durch seine Länge.
Die Länge/Wahrscheinlichkeit einer Vereinigung
disjunkter Teilintervalle von (0,1] ist gegeben durch
die Summe der Längen/Wahrscheinlichkeiten der
einzelnen Teilintervalle von (0,1], z.B.
P(( 19 , 49 ] ∪ ( 96 , 79 ]) = P(( 19 , 49 ]) + P(( 69 , 79 ]) = 93 + 19 = 49 .
1
Im Fall von Ω=(0,1] müsste eine Gleichverteilung P
jedem Teilintervall von (0,1] seine Länge als
Wahrscheinlichkeit zuordnen.
Teilmengen von ℜ, die man mit den Mengenoperationen
c
, ∪, ∩ aus Intervallen erzeugen kann, heißen Borel-
Leider gibt es keine Wahrscheinlichkeitsverteilung P,
die diese Anforderung erfüllt und darüber hinaus auch
noch jeder beliebigen Teilmenge von (0,1] eine
Wahrscheinlichkeit zuordnet. Das liegt daran, dass es
auch sehr komplizierte Teilmengen von (0,1] gibt,
für die man unmöglich eine Länge angeben kann.
Beispiele von Borel-Mengen:
Will man für Ω=(0,1] trotzdem eine Gleichverteilung
definieren, dann muss man sich auf einfachere
Teilmengen beschränken, z.B. Teilintervalle von (0,1]
sowie ihre Komplemente, Vereinigungen und Durchschnitte.
Mengen.
[-8,-5)∪(0,1]∪(π,∞),
ℜ = ( −∞, ∞) ,
φ = ℜc ,
{3}=[3,3]
Abzählbar unendliche1 Vereinigungen und Durchschnitte
sind auch erlaubt. Daher ist beispielsweise auch die Menge
der natürlichen Zahlen
ℵ = {0,1,2,3,...} = {0} ∪ {1} ∪ {2} ∪ {3} ∪ ...
eine Borel-Menge.
1
countably infinite
2
Eine Menge F von Teilmengen einer nichtleeren Menge
Ω heißt σ-Algebra2 auf Ω, wenn für alle A,A1,A2,…∈F gilt:
φ ∈F,
Ω∈F,
A∈F ⇒ Ac∈F,
A1, A2, A3,…∈F ⇒ A1∪A2∪ A3∪…∈F,
A1, A2, A3,…∈F ⇒ A1∩A2∩ A3∩…∈F
Beispiele:
Die Menge aller Borel-Mengen ist eine σ-Algebra auf ℜ.
F={φ,{0},Ω} ist keine σ-Algebra auf Ω={0,1}, weil
{0}c ={1}∉F.
F={φ,{1},{2},{1,3},{2,3},Ω} ist keine σ-Algebra auf
Ω={1,2,3}, weil
F={φ,{1},{2,3},Ω} ist eine σ-Algebra auf Ω={1,2,3},
weil
φ ∈F, Ω∈F,
φ c=Ω∈F, Ωc=φ ∈F, {1}c={2,3}∈F, {2,3}c={1}∈F,
φ ∪{1}={1}∈F, φ ∪{2,3}={2,3}∈F, φ ∪Ω=Ω∈F,
{1}∪{2,3}=Ω∈F, {2,3}∪Ω=Ω∈F,
φ ∩{1}=φ ∈F, φ ∩{2,3}=φ ∈F, φ ∩Ω=φ ∈F,
{1}∩{2,3}=φ ∈F, {2,3}∩Ω={2,3}∈F.
Die Potenzmenge P(Ω) einer nichtleeren Menge Ω ist
eine σ-Algebra auf Ω. Sie enthält alle Teilmengen von
Ω, also insbesondere auch φ und Ω. Außerdem sind alle
Komplemente, Vereinigungen und Durchschnitte von
Teilmengen von Ω wiederum Teilmengen von Ω und sind
daher auch in P(Ω) enthalten.
{1}∪{2}={1,2}∉F, {1,3}∩{2,3}={3}∉F.
2
σ-algebra (or σ-field)
3
Eine Funktion P: F:→[0,1] heißt Wahrscheinlichkeitsverteilung3, wenn F eine σ-Algebra auf einer Menge Ω
ist und für alle A∈F sowie für alle paarweise disjunkten
A1,A2,A3,…∈F gilt:
P(φ)=0,
P(Ω)=1,
P(Ac)=1−P(A),
P(A1∪A2∪A3∪…)=P(A1)+P(A2)+P(A3)+…
Teilmengen von Ω, die in F enthalten sind, heißen
Ereignisse4. Die Wahrscheinlichkeitsverteilung P
ordnet nur Ereignissen Wahrscheinlichkeiten zu,
nicht aber Teilmengen von Ω, die nicht in F enthalten
sind.
Beispiele:
• P={(φ,0),({1},0.8),({2,3},0.2),({1,2,3},1)}
ist eine Wahrscheinlichkeitsverteilung auf
F={φ,{1},{2,3},{1,2,3}}.
• P={(φ,0),({1},0.7),({2,3},0.2),({1,2,3},1)}
ist keine Wahrscheinlichkeitsverteilung auf
F={φ,{1},{2,3},{1,2,3}},
weil
P({1})+P({2,3})=0.7+0.2=0.9
≠ P({1}∪{2,3})=P({1,2,3})=1.
Das Tripel (Ω,F,P) heißt Wahrscheinlichkeitsraum5.
3
probability distribution (or probability measure)
events
5
probability space
4
4
Eine Funktion X: Ω→ℜ heißt Zufallsvariable6 auf dem
Wahrscheinlichkeitsraum (Ω,F,P), wenn das Urbild jeder
Borel-Menge ein Ereignis ist.
Eine Funktion X : Ω → ℜn heißt n-dimensionale Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω,F,P), wenn
das Urbild jeder n-dimensionalen Borel-Menge ein Ereignis
ist.
Die Wahrscheinlichkeit, dass eine Zufallsvariable X einen
Wert in einer Borelmenge B annimmt, ist gegeben durch
Die σ-Algebra der n-dimensionalen Borel-Mengen ist
die kleinste σ-Algebra auf ℜn, die alle n-dimensionalen
Intervalle enthält.
P(X∈B) = P(X-1(B))=P({ω ∈Ω: X(ω)∈B}).
Für jedes ω ∈Ω heißt X(ω) eine Realisierung7 von X.
Beispiel: Ist Ω={1,2,3} und F={φ,{1},{2,3},Ω}, dann ist
die Funktion X={(1,5),(2,0),(3,7)} keine Zufallsvariable,
weil
X-1([4,9])={ω ∈{1,2,3}: X(ω)∈[4,9]}={1,3}∉F,
X-1([0,0])={ω ∈{1,2,3}: X(ω)∈[0,0]}={2}∉F,
M
6
7
random variable
realization
2-dimensionale Intervalle sind Rechtecke.
3-dimensionale Intervalle sind Quader.
Beispiel: X1 … Augenzahl (bei 1 × Würfeln)
X2 … Quadrat der Augenzahl
X3 … Vorzeichen der Augenzahl
3-dimensionale Zufallsvariable: X=(X1, X2, X3)
X(4) = (X1(4), X2(4), X3(4)) = (4,16,1) ∈ ℜ3
Statt P(X1∈(3,4]) und P(X∈[0,1]×(2,4)×(0,5]) schreibt man
auch P(3<X1≤4) bzw. P((0≤X1≤1)∧(2<X2<4)∧(0<X3≤5)).
5
Beispiel: X = Anzahl der Köpfe bei 2-maligem Münzwurf
Ω={(0,0),(0,1),(1,0),(1,1)}
P({(0,0)})=P({(0,1)})=P({(1,0)})=P({(1,1)})= 14
X((0,0))=2, X((0,1))=1, X((1,0))=1, X((1,1))=0
P(-1<X≤1.5)=P(X∈(-1,1.5])=P(X-1((-1,1.5]))
=P({(0,0),(0,1),(1,0)}= 34
Beispiel: X = (X1, X2) zweidimensionale Zufallsvariable
X1 =Anzahl der Zahlen bei 2-maligem Münzwurf
X2 =Anzahl der Köpfe bei 2-maligem Münzwurf
Ω={(0,0),(0,1),(1,0),(1,1)}, P({(0,0)})=…=P({(1,1)})= 14
X((0,0))=(0,2), X((0,1))=(1,1), X((1,0))=(1,1), X((1,1))=(2,0)
P(0.5<X1≤1.5 ∧ 0.5<X2≤1.5)=P(X∈(0.5,1.5]×(0.5,1.5])
=P(X-1((0.5,1.5]×(0.5,1.5]))=P({(0,1),(1,0)})= 24
6
Der Erwartungswert8 einer Zufallsvariablen X: Ω→ℜ
mit möglichen Werten x1,…,xn ist gegeben durch
Y=g(X), g(x)=|x−3.5|
Mögliche Werte: y1=g(x1)=|1−3.5|=2.5=|6−3.5|=g(x6)
n
y2=g(x2)=|2−3.5|=1.5=|5−3.5|=g(x5)
E ( X ) = x1P ( X = x1 ) + ... + xn P ( X = xn ) = ∑ x j P( X = x j ) .
y3=g(x3)=|3−3.5|=0.5=|4−3.5|=g(x4)
j =1
E (Y ) = y1P (Y = y1 ) + y2 P (Y = y2 ) + y3 P (Y = y3 )
Beispiel: 1 × Würfeln
Ω={1,2,3,4,5,6},
X(ω)=ω
= 2.5 P (Y = 2.5) + 1.5 P (Y = 1.5) + 0.5 P (Y = 0.5)
P({1})=P({2})=…=P({6})= 16
(Augenzahl)
Mögliche Werte: x1=X(1)=1, x2=X(2)=2, x3=X(3)=3
x4=X(4)=4, x5=X(5)=5, x6=X(6)=6
E ( X ) = 1P ( X = 1) + ... + 6 P( X = 6)
= 1P( X −1 ({1}) + ... + 6 P( X −1 ({6})
= 1P({1}) + ... + 6 P({6})
= 1 16 + ... + 6 16 =
21
6
= 3.5
= 2.5P(Y −1 ({2.5}) + 1.5P(Y −1 ({1.5})... + 0.5P( X −1 ({0.5})
= 2.5 P({1,6}) + 1.5 P ({2,5}) + 0.5 P ({3,4})
= 2.5 62 + 1.5 62 + 0.5 26 = 1.5
Dasselbe Ergebnis erhält man wie folgt:
E (Y ) = g ( x1 ) P ( X = x1 ) + g ( x2 ) P ( X = x2 ) + g ( x3 ) P ( X = x3 )
+ g ( x4 ) P ( X = x4 ) + g ( x5 ) P( X = x5 ) + g ( x6 ) P ( X = x6 )
= 2.5 16 + 1.5 16 + 0.5 16 + 0.5 16 + 1.5 16 + 2.5 16 = 1.5
Allgemein gilt:
m
n
j =1
i =1
Y = g ( X ) ⇒ E (Y ) = ∑ y j P (Y = y j ) = ∑ g ( xi ) P ( X = xi )
8
expected value
7
E ( λX ) = λ E ( X )
Es gilt:
Beweis: X (Ω) = {x1,..., xn }, Y = g ( X ) = λX
n
m n
E ( X + Y ) = ∑ ∑ ( xi + y j ) P ( X = xi ∧ Y = y j )
i =1 j =1
n
⇒ E (Y ) = ∑ g ( xi ) P ( X = xi ) = ∑ λxi P( X = xi )
i =1
10
Beweis:
i =1
n
= λ ∑ xi P( X = xi )
i1
=144244
3
n
m
n
i =1
m
j =1
j =1
i =1
= ∑ xi ∑ P ( X = xi ∧ Y = y j ) + ∑ y j ∑ P ( X = xi ∧ Y = y j )
= ∑ xi ( P ( X = xi ∧ Y = y1 ) + ... + P ( X = xi ∧ Y = yn ))
i =1
=E( X )
Eine Zufallsvariable X, die den Wert λ mit der Wahrscheinlichkeit 1 annimmt, hat eine Einpunktverteilung9
mit Parameter λ.
m
n
+ ∑ y j ( P( X = x1 ∧ Y = y j ) + ... + P ( X = xm ∧ Y = y j ))
j =1
m
= ∑ xi P (( X = xi ∧ Y = y1 ) ∨ ... ∨ ( X = xi ∧ Y = yn ))
i =1
n
E ( X ) = λP ( X = λ ) = λ ⋅ 1 = λ ⇒ E ( λ ) = λ
+ ∑ y j P (( X = x1 ∧ Y = y j ) ∨ ... ∨ ( X = xm ∧ Y = y j ))
j =1
X und Y seien (auf demselben Wahrscheinlichkeitsraum
definierte) Zufallsvariablen mit den möglichen Werten
x1,…,xn bzw. y1,…,yn. Es gilt: E ( X + Y ) = E ( X ) + E (Y )
9
degenerate distribution
m
n
i =1
j =1
= ∑ xi P ( X = xi ) + ∑ y j P (Y = y j ) = E ( X ) + E (Y )
10
Text auf grünem Hintergrund kann übersprungen werden.
8
Beispiel: Einmaliges Würfeln
Die Zufallsvariable X nimmt im Fall eines Erfolgs
(Sechser) den Wert 1 an und im Fall eines Misserfolgs
(kein Sechser) den Wert 0.
Man sagt auch, dass X eine Bernoulli-Verteilung11 mit
Parameter p hat, und meint damit diejenige Wahrscheinlichkeitsverteilung P* auf ℜ, die jeder Borel-Menge A
die Wahrscheinlichkeit
 0,
 p,

P * ( A) = 
1 − p,
 1,
Ω = {1,...,6}
X = {(1,0), ( 2,0), (3,0), ( 4,0), (5,0), (6,1)}
Erfolgswahrscheinlichkeit:
P ( X = 1) = P ( X −1 (1)) = P ({6}) =
1
6
falls 0 ∉ A, 1 ∉ A
falls 0 ∉ A, 1 ∈ A
falls 0 ∈ A, 1 ∉ A
falls 0 ∈ A, 1 ∈ A
zuordnet.
Misserfolgswahrscheinlichkeit:
P ( X = 0) = P ( X −1 (0)) = P ({1,2,3,4,5}) =
5
6
Eine Zufallsvariable X, die den Wert 1 mit der Wahrscheinlichkeit p und den Wert 0 mit der Wahrscheinlichkeit 1-p annimmt, ist Bernoulli-verteilt mit
Parameter p (Erfolgswahrscheinlichkeit).
E ( X ) = 0 ⋅ P ( X = 0) + 1 ⋅ P ( X = 1) = 0 ⋅ (1 − p ) + 1 ⋅ p = p
11
X has a Bernoulli distribution (or X is Bernoulli-distributed)
9
Beispiel: Zweimaliges Würfeln
Ω = {(1,1), (1,2),..., (6,6)}
Die Zufallsvariablen X und Y heißen unabhängig, falls
P ( X ∈ A ∧ Y ∈ B) = P( X1 ∈ A) ⋅ P ( X 2 ∈ B)
X1 nimmt den Wert 1 an, wenn beim 1. Wurf ein Sechser
kommt, andernfalls den Wert 0.
für alle Borel-Mengen A und B.
X2 nimmt den Wert 1 an, wenn beim 2. Wurf ein Sechser
kommt, andernfalls den Wert 0.
Im vorigen Beispiel sind die Zufallsvariablen X1 und X2
unabhängig.
Die Zufallsvariable X=X1+X2 ordnet jedem Ergebnis
ω∈Ω die Gesamtanzahl der Sechser zu, z.B.
Beispielsweise erhalten wir für A=[-2,0] und B={1}:
X ({(5,1)}) = 0 , X ({(2,6)}) = 1 , X ({(6,6)}) = 2 .
z <- sample(1:6,2,replace=TRUE); z
51
x <- ifelse(z==6,1,0); x 12
00
X <- sum(x); X
0
12
P( X1 ∈ [−2,0] ∧ X 2 ∈ {1}) = P( X1 = 0 ∧ X 2 = 1)
= P({(1,6), (2,6), (3,6), (4,6), (5,6)})
=
5
36
P( X1 ∈ [−2,0]) ⋅ P( X 2 ∈ {1}) = P( X1 = 0) ⋅ P( X 2 = 1)
= 56 ⋅ 16
=
5
36
Use the command help(ifelse) to get more information about ifelse.
10
Beispiel: n-maliges Würfeln
Ω = {(1,1,...,1), (1,1,...,2),..., (6,6,...,6)}
n=3:
P( X = 0) = P( X 1 = 0) P( X 2 = 0) P( X 3 = 0) =
X1 nimmt den Wert 1 an, wenn beim 1. Wurf ein
Sechser kommt, andernfalls den Wert 0.
M
Xn nimmt den Wert 1 an, wenn beim n. Wurf ein
Sechser kommt, andernfalls den Wert 0.
P ( X = 1) = P ( X 1 = 1) P ( X 2 = 0) P ( X 3 = 0)
Die Zufallsvariablen X1,…,Xn sind unabhängig, d.h.
P ( X 1 ∈ A1 ∧ ... ∧ X n ∈ An ) = P ( X 1 ∈ A1 )...P ( X n ∈ An )
für alle Borelmengen A1,…,An.
P( X
Die Zufallsvariable X=X1+X2+…+Xn ordnet jedem
Ergebnis ω∈Ω die Gesamtanzahl der Sechser zu, z.B.
X ({( 4,4,2,4,3,2,6,1,4,6)}) = 2 .
z <- sample(1:6,10,replace=TRUE); z
4424326146
x <- ifelse(z==6,1,0); x; X <- sum(x); X
0000001001
2
555
666
+ P ( X 1 = 0) P ( X 2 = 1) P ( X 3 = 0)
+ P ( X 1 = 0) P ( X 2 = 0) P ( X 3 = 1)
=
P( X
1 5 5 + 5 1 5 + 5 5 1 = 31 5 5
666 666 666
666
= 2) = 16 16 56 + 16 56 16 + 56 16 16 = 3 16 16 56
= 3) = 16 16 16
n=4:
P( X = 0) =
P( X
P( X
P( X
P( X
5555
6666
1
= 1) = 6 65 56 56 + 56 16 56 56 + 56 56 16 65 + 65 56 56 16 = 4 16 56 56 56
= 2) = 16 16 65 56 + 16 56 16 56 + 16 56 65 16
+ 56 16 16 56 + 56 16 56 16 + 56 65 16 16 = 6 16 16 56 65
= 3) = 16 16 16 56 + 16 16 56 16 + 16 65 16 16 + 65 16 16 16 = 4 16 16 16 56
= 4) = 16 16 16 16
11
Es gibt
Die Summe
n! = n ⋅ ( n − 1) ⋅ ... ⋅ 2 ⋅ 1
X = X 1 + ... + X n
(n Faktorielle)15
von n unabhänigen Zufallsvariablen X1,…,Xn, die eine
Bernoulli-Verteilung mit Parameter p haben, hat eine
Binomialverteilung13 mit Parametern n und p.
n-Tupel mit den Zahlen 1,2,…,n als ihren Komponenten.
Für die erste Komponente des n-Tupels kommen noch
alle n Zahlen in Frage, für die zweite nur noch n-1 usw.
Die Wahrscheinlichkeit, dass X den Wert j∈{0,1,2,…,n}
annimmt, ist gegeben durch
n=3:
3 Wahlmöglichkeiten:
2 Wahlmöglichkeiten:
1 Wahlmöglichkeit:
n
P ( X = j ) =   p j (1 − p ) n − j ,
 j
wobei der Binomialkoeffizient
die Anzahl der Möglichkeiten angibt, die j erfolgreichen
Versuche aus den insgesamt n Versuchen auszuwählen.
13
14
binomial distribution
binomial coefficient
2
3
2 3
3 2
1 3
3 1
1 2
2 1
Man kann beispielsweise jedes der 3!=3⋅2⋅1=6 Tripel
14
n
n!
  =
 j  j!( n − j )!
1
(1,2,3), (1,3,2), (2,1,3), (2,3,1), (3,1,2), (3,2,1)
zur Auswahl von 2 Zahlen verwenden. Allerdings wählen
das 1. und das 3., das 2. und das 5. sowie das 4. und das
6. Tripel jeweils dieselben 2 Zahlen. Die Anzahl der
Wahlmöglichkeiten ist also in diesem Fall gegeben durch
die Anzahl der Tripel dividiert durch 2: 3=6:2=3!:(2!1!)
15
n factorial
12
• Es gibt
Da eine binomialverteilte Zufallsvariable mit Parametern
n und p definiert ist als Summe
X = X 1 + ... + X n
5!=5⋅4⋅3⋅2⋅1=120
verschiedene Anordnungen der 5 BRICS-Staaten:
von n unabhänigen, Bernoulli-verteilten Zufallsvariablen
X1,…,Xn mit Parameter p, ist ihr Erwartungswert
gegeben durch
BRA,CHN,IND,RUS,ZAF
CHN,IND,BRA,RUS,ZAF
M
E ( X ) = E ( X 1 + ... + X n ) = E ( X 1 ) + ... + E ( X n )
• Es gibt 30 über 5 verschiedene Aktienportfolios,
die 5 der 30 im Dow Jones Industrial Average (DJIA)
berücksichtigten Industrieunternehmen17 enthalten:
= p + ... + p = np .
Beispiele:
DIS,KO,MCD,AAPL,NKE18 (kids‘ choice)
AXP,GS,JPM,TRV,V19
(Geld)
• Es gibt 45 über 616 verschiedene Tipps beim Lotto
6 aus 45.
 45 
45!
45 ⋅ 44 ⋅ 43 ⋅ 42 ⋅ 41 ⋅ 40
  =
=
= 8 145 060
6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1
 6  6!(45 − 6)!
sample(1:45,6,replace=FALSE)
21 4 39 36 18 23
(Alphabet)
(Bevölkerung)
M
 30 
30!
30 ⋅ 29 ⋅ 28 ⋅ 27 ⋅ 26
  =
=
= 142 506
5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1
 5  5!(30 − 5)!
17
DJIA-Komponenten vom 19.03.2015
Walt Disney, Coca-Cola, McDonald's, Apple, Nike
19
American Express, Goldman Sachs, JPMorgan, Travelers, Visa
18
16
45 choose 6
13
Beispiel: Würfeln bis zum ersten Sechser
Ω = {6, (1,6), ( 2,6),..., (5,6), (1,1,6), (1,2,6),...}
Die Zufallsvariable X ordnet jedem Ergebnis die Anzahl
der Misserfolge bis zum Erfolg (erster Sechser) zu.
Eine Zufallsvariable heißt diskret20, falls X (Ω) endlich
oder abzählbar unendlich ist.
Ist die Menge der möglichen Werte einer Zufallsvariablen
X abzählbar unendlich, d.h.
Beispielsweise nimmt X den Wert 0 an, wenn gleich beim
X (Ω) = {x1 , x2 , x3 ,...} ,
ersten Mal ein Sechser kommt, den Wert 1, wenn erst beim
dann ist ihr Erwartungswert gegeben durch
zweiten Mal ein Sechser kommt, usw.
X kann also die Werte 0,1,2,3,… annehmen, d.h.
E ( X ) = x1P( X = x1 ) + x2 P( X = x2 ) + ...
∞
X (Ω) = {0,1,2,3,...} = ℵ .
= ∑ x j P( X = x j ) ,
j =1
Beispielsweise ist
allerdings nur, falls diese unendliche Summe existiert.
X ({(3,4,1,3,5,5,3,6)}) = 7
und
X ({(2,4,3,4,2,2,5,2,2,4,2,3,4,2,4,6 )}) = 15 .
Der Erwartungswert einer diskreten Zufallsvariablen X
kann einheitlich geschrieben werden als
E( X ) =
∑
x P( X = x) .
x∈X ( Ω )
20
discrete
14
Würfelt man solange, bis ein Sechser kommt, dann ist
die Wahrscheinlichkeit von j Misserfolgen gegeben
durch
P( X = j ) =
()
1 5 j,
6 6
j ∈ℵ.
Eine diskrete Zufallsvariabe hat eine geometrische
Verteilung21 mit Parameter p, falls
P( X = j ) = p(1 − p ) j , j ∈ ℵ .
Die Summe aller Wahrscheinlichkeiten ist gleich 1:
Gleich beim 1. Mal ein Sechser, kein Misserfolg:
P( X = 0) =
1
6
Erst beim 2. Mal ein Sechser, ein Misserfolg:
P( X = 1) =
51
66
∞
j =0
j =0
j =0
∞
∞
E ( X ) = ∑ j p (1 − p ) j = ∑ j p (1 − p ) j
j =0
j =1
∞
(
= (1 − p ) ∑ ( j − 1) p (1 − p ) j −1 + p (1 − p ) j −1
j =1
551
666
)
∞
= (1 − p ) E ( X ) + (1 − p ) p ∑ (1 − p ) j
Erst beim 4. Mal ein Sechser, drei Misserfolge:
P( X = 3) =
∞
Den Erwartungswert von X erhält man wie folgt:
Erst beim 3. Mal ein Sechser, zwei Misserfolge:
P ( X = 2) =
∞
∑ P( X = j ) = ∑ p(1 − p ) j = p ∑ (1 − p ) j = p 1− (11− p ) = 1
j =0
5551
6666
⇒ pE ( X ) = (1 − p ) p 1− (11− p ) ⇒ E ( X ) = 1−pp
M
21
geometric distribution
15
Ein Maß für die Streuung22 einer Zufallsvariablen X ist
gegeben durch den Erwartungswert der absoluten
Abweichung vom Erwartungswert:
E X − E ( X ) 23 (mittlere absolute Abweichung24)
Ein alternatives Maß erhält man, wenn man zuerst den
Erwartungswert der quadrierten Abweichung vom
Erwartungswert ermittelt und dann die Wurzel zieht:
var( X ) = E ( X − E ( X ))
sd( X ) = var( X )
2
25
(Varianz )
(Standardabweichung26)
Für Y = ( X − E ( X )) 2 gilt:
E (Y ) =
∑ y P(Y = y ) =
y∈Y ( Ω )
∑ ( x − E ( X )) 2 P( X = x )
x∈ X ( Ω )
Beispiel: X hat eine Bernoulli-Verteilung mit Parameter p
E( X ) = p
E X − E ( X ) = 0 − p (1 − p ) + 1 − p p
var( X ) = (0 − p )2 (1 − p ) + (1 − p )2 p = p − p 2 = p(1 − p )
sd( X ) =
p(1 − p )
p <- c(0.2,0.4,0.6,0.8)
MAD <- abs(0-p)*(1-p)+abs(1-p)*p # absolute value
sd <- sqrt(p*(1-p))
# square root
h <- rbind(p,MAD,sd); h
# combine by rows
p
0.20
0.4000000
0.6000000
0.80
MAD
0.32
0.4800000
0.4800000
0.32
sd
0.40
0.4898979
0.4898979
0.40
22
dispersion
Weglassen der Klammern bei E(…) kann die Lesbarkeit verbessern.
24
mean absolute deviation
25
variance
26
standard deviation
23
16
Eigenschaften der Varianz (X Zufallsvariable, α,β∈ℜ):
var( X ) = E ( X − E ( X )) 2
2
Ist X binomialverteilt mit Parametern n und p, dann gilt
für n=2
var( X ) = E X 2 − ( E X ) 2
2
= E ( X − 2 X E ( X ) + ( E ( X )) )
= 02 P ( X = 0) + 12 P ( X = 1) + 22 P ( X = 2) − ( 2 p )2
= E ( X 2 ) − E ( 2 X E ( X )) + E ( E ( X )) 2
123
123
∈ℜ
∈ℜ
= E ( X 2 ) − ( 2 E ( X )) E ( X ) + ( E ( X )) 2
2
= E ( X ) − ( E ( X ))
= 2 p(1 − p ) ,
für n=3
var( X ) = ... = 3 p (1 − p )
2
und allgemein
var(α + βX ) = E (α + βX − E (α + β X )) 2
= E (α + βX − Eα − E ( βX ))
= E (α + βX − α − β E ( X ))
= E ( β X − β E ( X )) 2
= Eβ 2 ( X − E ( X )) 2
= β 2 E ( X − E ( X )) 2
= β 2 var( X )
= 0 + 12 2 p1 (1 − p )1 + 22 p 2 (1 − p )0 − 4 p 2
2
var( X ) = n p (1 − p ) .
2
Die Varianz einer Summe von n unabhänigen, Bernoulliverteilten Zufallsvariablen mit Parameter p ist also
gegeben durch
var( X 1 + ... + X n ) = np (1 − p )
und ist somit gleich der Summe
var( X 1 ) + ... + var( X n ) = p (1 − p ) + ... + p (1 − p )
der Varianzen der Summanden.
17
Allgemein gilt
var( X 1 + ... + X n ) = var( X 1 ) + ... + var( X n ) ,
falls X1,…,Xn paarweise unabhängig sind.
Beweis (für n=2):
E ( X1 X 2 ) = ∑
∑ x1x2 P( X 1
x1∈ X1 (Ω ) x2∈ X1 ( Ω )
= x1 ∧ X 2 = x2 )
=
∑
∑ x1x2 P( X 1
x1∈ X1 ( Ω ) x2 ∈ X1 ( Ω )
= x1 ) P( X 2 = x2 )
=
∑ x1 P( X 1
x1∈ X1 ( Ω )
= x1 )
∑ x2 P ( X 2
x2∈ X1 ( Ω )
= x2 )
= E( X1)E( X 2 )
⇒ var( X 1 + X 2 ) = E ( X 1 + X 2 ) 2 − ( E ( X 1 + X 2 )) 2
= E ( X12 ) + 2 E ( X1 X 2 ) + E ( X 22 ) − ( E ( X 1 ) + E ( X 2 )) 2
= E ( X12 ) + 2 E ( X1 ) E ( X 2 ) + E ( X 22 )
− ( E ( X 1 )) 2 − 2 E ( X 1 ) E ( X 2 ) − ( E ( X 2 )) 2
= E ( X 12 ) − ( E ( X 1 )) 2 + E ( X 22 ) − ( E ( X 2 )) 2
= var( X 1 ) + var( X 2 )
18
Momente:
Spezielle Momente:
Für k∈ℵ heißt
Nichtzentrales Moment der Ordnung 1: Erwartungswert
E( X k )
Zentrales Moment der Ordnung 2: Varianz
das nichtzentrale Moment der Ordnung k 27 von X,
E ( X − E ( X )) k
Normiertes zentrales Moment der Ordnung 3: Schiefe30
Normiertes zentrales Moment der Ordnung 4: Wölbung31
das zentrale Moment der Ordnung k 28 von X und
 X − E( X ) 
E 

 sd ( X ) 
k
das normierte zentrale Moment der Ordnung k 29
von X.
27
noncentral moment of order k
central moment of order k*
29
normalized central moment of order k
28
30
31
skewness
kurtosis
19
Quiz
Lösungen
F={φ,{3,5},x,y} σ-Algebra auf Ω={3,4,5}, |x|+|y|=?
|x|+|y|=|{3,5}c|+|Ω|=|{4}|+|Ω|=1+3=4
P={(φ,0),({0,1,2},0.2),({3},x),({0,1,2,3},1)}, x=?
{3}={0,1,2}c ⇒ x=P({3})=1−P({0,1,2})=1−0.2=0.8
P Gleichverteilung auf {-5,-4,…,4}, X(ω)=ω2, P(X≤4)=?
1 ⇒ P(X≤4)=P({-2,….,2})= 5 =0.5
P({-5})=…=P({4})= 10
10
P(X=-5)=0.1, P(X=-3)=0.2, P(X=2)=0.7, E(X)=?
E(X)=(-5)⋅0.1+(-3)⋅0.2+2⋅0.7=0.3
E(X)=4, E(Y)=-1, Z=3+3X −Y, E(Z)=?
E(Z)=3+3E(X)−E(Y)=3+3⋅4−(-1)=16
P(X=3)=0.3, P(X=-2)=0.2, P(X=1)=0.5, E(X2)=?
E(X2)=32⋅0.3+(-2)2⋅0.2+12⋅0.5=4
var(X)=3, Y=-19−2X, var(Y)=?
var(Y)=var(-19−2X)=var((-19)+(-2)X)=(-2)2var(X)=4⋅3=12
E(X)=4, var(X)=23, E(X2)=?
var(X)=E(X2)−(E(X))2 ⇒ E(X2)=var(X)+(E(X))2=23+42=39
X Gleichverteilung auf {2,3,4}, Y~B(4,0.5)32, E(X+Y)=?
E(X+Y)=E(X)+E(Y)=2 13 +3 13 +4 13 +4⋅0.5= 93 +2=5
32
Abkürzung für: Y hat eine Binomialverteilung mit n=4 und p=0.5
20
Herunterladen