wahrscheinlichkeitstheorie und statistik für studierende der informatik

Werbung
12 Maßzahlen von Verteilungen
12.1 Erwartungswert
12.1 Definition
Es sei X eine Zufallsvariable mit der (Zähl-) Dichte fX . Dann heißt
 X

s · fX (s)
, falls X diskret,



 s∈MX
EX :=
Z ∞





x · fX (x) dx , falls X stetig ist,
−∞
der Erwartungswert (der Verteilung) von X.
f(x)
P(X=k)
0.20
0.6
0.15
0.4
0.10
0.2
0.05
0.0
x
0
E(X)
4
8
0.0
k
2
4
E(X)
Erwartungswert als physikalischer Schwerpunkt
10
12
12.2 Beispiel
a) Es sei X ∼ P o(λ). Dann gilt
EX =
∞
X
k · e−λ
k=0
−λ
= λ·e
·
∞
X
λk
λk−1
= λ · e−λ ·
k!
(k − 1)!
k=1
∞
X
λj
j=0
j!
= λ · e−λ · eλ = λ.
b) Es sei X ∼ Exp(α). Dann gilt mit der Substitution u = αx
Z ∞
EX =
x · α e−αx dx
0
Z ∞
1
1
1
=
·
ue−u du =
· Γ(2) = .
α 0
α
α
12.3 Satz (Eigenschaften des Erwartungswertes)
a) E(X + Y ) = EX + EY
b) E(a · X) = a · EX, a ∈ R,
c) E(1A ) = P(A)
d) X ≤ Y
=⇒
e) P(X = a) = 1
EX ≤ EY
=⇒
f) fX symmetrisch zu x = a
EX = a, insbesondere: Ec = c
=⇒
EX = a.
Eine direkte Konsequenz für a1 , . . . , an , b ∈ R ist
E
n
X
!
ak · Xk + b
k=1
= E
n
X
k=1
=
n
X
k=1
ak · Xk
!
+ Eb
E (ak · Xk ) + Eb =
n
X
ak · EXk + b.
k=1
Beachtet man, dass N (µ, σ 2) eine zu µ symmetrische Dichte besitzt, so folgt ohne
Rechnung:
µ = Erwartungswert von N (µ, σ 2)
Ähnlich folgt, dass die (diskrete) Gleichverteilung auf (a, b) bzw. auf {a, a+1, . . . , b}
den Erwartungswert
a+b
2
besitzt.
Symmetrische Verteilung
Erwartungswerte wichtiger Verteilungen
Verteilung
Erwartungswert
Bin(n, p)
n·p
Hyp(n, r, s)
n · r/(r + s)
P o(λ)
λ
Nb(r, p)
r · (1 − p)/p
G(p)
(1 − p)/p
N (µ, σ 2 )
µ
LN (µ, σ 2)
eµ+ 2 σ
U(a, b)
(a + b)/2
Γ(α, β)
α/β
Exp(λ)
1/λ
1
2
12.4 Satz
a) Für eine Funktion g : R → R gilt:
 X


g(s) · fX (s)
, X diskret



 s∈MX
Eg(X) =

Z ∞





g(x) · fX (x) dx , X stetig.
−∞
b) Für eine Funktion h : R2 → R gilt:
Eh(X, Y ) =
 X X


h(s, t) · fX,Y (s, t)



 s∈MX t∈MY

Z





∞
−∞
Z
∞
,
h(x, y) · fX,Y (x, y) dy dx ,
−∞
falls X und Y diskret bzw. stetig sind.
c) Sind X und Y stochastisch unabhängig, so gilt
E(X · Y ) = EX · EY
Die Umkehrung gilt im Allgemeinen nicht.
d) Besitzt X die Verteilungsfunktion FX , so gilt
Z ∞
Z 0
EX =
(1 − FX (x)) dx −
FX (x) dx.
0
−∞
e) Ist X eine N0 -wertige Zufallsvariable, so gilt
Z ∞
∞
X
P(X ≥ n) =
(1 − FX (x)) dx.
EX =
n=1
0
Nach der Darstellungsformel ist EX in der folgenden Abbildung die hellgraue Fläche
abzüglich der dunkelgrauen.
12.5 Beispiel (Geometrische Verteilung) Es sei X ∼ G(p). Wegen
P(X ≥ n) = (1 − p)n , n ∈ N0 ,
und Satz 12.4 gilt
EX =
∞
X
n=1
(1 − p)
n
= (1 − p)
∞
X
n=0
(1 − p)n =
1−p
1−p
=
.
1 − (1 − p)
p
12.2 Varianz
12.6 Definition
a) Hat die Zufallsvariable X den Erwartungswert EX, so heißt
2
σX
:= V (X) := E(X − EX)2
die Varianz (der Verteilung) von X.
p
V (X) heißt die Standardabweichung (der Verteilung) von X .
b) σX :=
p
V (X)
c) Ist X > 0, so heißt vX :=
der Variationskoeffizient (der Verteilung)
EX
von X.
12.7 Satz (Eigenschaften der Varianz)
a) V (X) ≥ 0;
V (X) = 0
⇐⇒
P(X = EX) = 1.
b) V (X) = E(X 2 ) − (EX)2 .
c) V (a · X + b) = a2 · V (X), a, b ∈ R.
12.8 Beispiel
a) X ∼ N (µ, σ 2)
=⇒
V (X) = σ 2 , d.h. N (µ, σ 2) besitzt den Erwartungs-
wert µ und die Varianz σ 2 . Speziell besitzt die Standard-Normalverteilung
N (0, 1) den Erwartungswert 0 und die Varianz 1.
b) X ∼ P o(λ)
=⇒
V (X) = λ.
Varianzen wichtiger Verteilungen
Verteilung
Varianz
Bin(n, p)
n · p · (1 − p)
Hyp(n, r, s)
n · p · (1 − p) · 1 −
mit p =
r
r+s
P o(λ)
λ
Nb(r, p)
r · (1 − p)/p2
G(p)
(1 − p)/p2
N (µ, σ 2)
σ2
LN (µ, σ 2 )
e2µ+σ · (eσ − 1)
U(a, b)
(b − a)2 /12
Γ(α, β)
α/β 2
Exp(λ)
1/λ2
2
2
n−1
r+s−1
12.9 Satz und Definition
Es sei X eine Zufallsvariable mit µ := EX und σ :=
X̃ :=
X −µ
σ
p
V (X) > 0. Dann heißt
die zu X standardisierte Zufallsvariable oder Standardisierung von X.
Es gilt
EX̃ =
1
E(X − µ) = 0,
σ
V (X̃) =
1
V (X) = 1.
σ2
12.10 Definition
a) Für k ∈ N heißt
 X


sk · fX (s)
, X diskret,



 s∈MX
EX k =

Z ∞





xk · fX (x) dx , X stetig
−∞
das k-te Moment (der Verteilung) von X.
b) Sei µ := EX.
E(X − µ)k =
 X


(s − µ)k · fX (s)



 s∈MX

Z





,
∞
(x − µ)k · fX (x) dx ,
−∞
falls X diskret bzw. stetig ist, heißt das k-te zentrale Moment von X.
Die Varianz ist das 2. zentrale Moment.
12.11 Beispiel
a) Sei X ∼ N (µ, σ 2). Dann gilt


 0, k ungerade
k
E(X − µ) =

 σ k · 1 · 3 · 5 · . . . · (k − 3) · (k − 1),
sonst.
b) Für X ∼ Γ(α, β) und beliebiges k > −α gilt
β α Γ(α + k)
·
Γ(α)
β α+k
α(α + 1) . . . (α + k − 1)
=
, falls k eine ganze Zahl ist.
βk
Insbesondere:
α
α(α + 1)
EX =
,
EX 2 =
β
β2
2
α(α + 1) α
α
V (X) =
−
=
.
β2
β2
β2
EX k =
12.3 Quantile
12.12 Definition
Sei X eine Zufallsvariable mit stetiger, streng monoton wachsender Verteilungsfunktion FX (t) = P(X ≤ t), t ∈ R.
Zu p mit 0 < p < 1 heißt
tp := tp (X) := FX−1 (p)
das p-Quantil (der Verteilung) von X bzw. von FX .
ˆ t1/2 heißt Median,
ˆ t1/4 heißt unteres Quartil und
ˆ t3/4 heißt oberes Quartil.
tp ist die eindeutig bestimmte Lösung der Gleichung F (x) = p.
Zur Definition des p-Quantils
12.13 Bemerkung
a) Ist fX symmetrisch, so stimmen Erwartungswert EX und der Median t1/2
überein.
b) Das p-Quantil von N (0, 1) bezeichnen wir mit up . Die wichtigsten Quantile
von N (0, 1):
p
0.900
0.950
0.975
0.990
0.995
0.999
up 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902
Die Werte für p < 0.5 erhält man aus der Beziehung
up = −u1−p , 0 < p < 1.
So ist etwa u0.05 = −u0.95 = −1.6449.
12.14 Beispiel
Quantile der Exponentialverteilung:
Es sei X ∼ Exp(α), α > 0. Aus
FX (x) = 1 − e−αx = p
folgt
tp = −
1
· ln(1 − p).
α
Z.B. gilt für p = 1/2 und α = 1
t1/2 = − ln(1/2) = 0.693 < 1 = EX.
12.4 Kovarianz und Korrelationskoeffizient
Es gilt stets E(X + Y ) = EX + EY , aber in der Regel
V (X + Y ) 6= V (X) + V (Y ).
Wegen
V (X + Y ) = E(X + Y − E(X + Y ))2
= E[(X − EX) + (Y − EY )]2
= E[(X − EX)2 + 2 · (X − EX) · (Y − EY ) + (Y − EY )2 ]
= E(X − EX)2 + 2 · E(X − EX) · (Y − EY ) + E(Y − EY )2
= V (X) + V (Y ) + 2 · E(X − EX) · (Y − EY )
gilt V (X + Y ) = V (X) + V (Y ) genau dann, wenn
E(X − EX) · (Y − EY ) = 0
ist.
12.15 Definition
a) Der Ausdruck
C(X, Y ) := E(X − EX) · (Y − EY )
heißt Kovarianz von X und Y .
C(X, Y )
heißt Korrelationskoeffizient von X und Y (falls
b) ρ(X, Y ) := p
V (X) · V (Y )
V (X) · V (Y ) > 0).






>0
positiv






korreliert, falls ρ(X, Y ) = 0 ist.
c) X und Y heißen
un−








 <0
 negativ
Also gilt: V (X + Y ) = V (X) + V (Y ) + 2 · C(X, Y ).
12.16 Satz
a) C(X, Y ) = E(X · Y ) − EX · EY
b) C(X, X) = V (X) und C(Y, X) = C(X, Y )
c) Sind X und Y unabhängig, so sind sie auch unkorreliert. Die Umkehrung
dieser Aussage ist im Allgemeinen falsch.
d) Sind X1 , . . . , Xn stochastisch unabhängig , so gilt
!
n
n
X
X
V (Xj ).
Xj =
V
j=1
j=1
e) −1 ≤ ρ(X, Y ) ≤ +1
f) C(X + Z, Y ) = C(X, Y ) + C(Z, Y ).
12.17 Beispiel
Sei X ∼ Bin(n, p). Dann gilt
V (X) = n · p · (1 − p).
Herunterladen