Kapitel V Parameter der Verteilungen

Werbung
Kapitel V
Parameter der Verteilungen
D. 5. 1. (Erwartungswert)
Als Erwartungswert einer Zufallsvariablen X bezeichnet man:
∞
 ∑ xi ⋅ pi
 i =1
E ( X ) :=  + ∞
 x ⋅ f ( x ) dx
∫
 −∞
falls X diskret
falls X stetig
Dabei sei vorausgesetzt:
∞
∑x
i =1
i
⋅ pi < ∞
und
+∞
∫
x ⋅ f ( x ) dx < ∞ .
−∞
B. 5. 1.
Der Erwartungswert ist das gewogene arithmetische Mittel der Realisierungen xi einer
Zufallsvariablen X , wobei die Wahrscheinlichkeiten pi als Gewichte wirken.
B. 5. 2.
Der Begriff “Erwartungswert” in der Wahrscheinlichkeitstheorie ist vergleichbar mit dem
Bergriff “arithmetisches Mitte” in der deskriptiven Statistik.
Das nachfolgende Beispiel zeigt die Ähnlichkeiten und die Differenzen:
BS. 5. 1.
Ein Würfel wird geworfen. Das Ergebnis lautet
3, 5, 4, 3, 1.
Für das arithmetische Mittel gilt:
_
x=
1
⋅ ( 3 + 5 + 4 + 3 + + 1) = 3.2
5
Der Erwartungswert der Zufallsvariablen
X:
„die Zahl, die oben erscheint.“
lautet:
E( X ) =
1
1
1
1
1
1
⋅1 + ⋅ 2 + ⋅ 3 + ⋅ 4 + ⋅ 5 + ⋅ 6 = 3.5
6
6
6
6
6
6
1
B. 5. 2.
Während sich das arithmetische Mittel von Versuch zu Versuch im Allgemeinen ändert, ist
der Erwartungswert eine objektive Zahl, unabhängig vom Ausgang eines konkreten Versuchs.
Für eine hinreichend große Anzahl von Versuchen nähert sich das arithmetische Mittel dem
Erwartungswert.
BS. 5. 2.
Gegeben sei folgende Dichtefunktion einer Zufallsvariable X :
f ( x) = −
2
2
x + , x ∈ [ 0, 3] ,
9
3
Berechnen Sie den Erwartungswert E ( X ) .
Lösung:
+∞
3
2
 2
∫−∞ x ⋅ f ( x ) dx = ∫0 x ⋅  − 9 x + 3 dx
E(X ) =
3
2 
 2
= ∫  − x 2 + x dx
9
3 
0
2 x3 2 x 2
=− ⋅ + ⋅
9 3 3 2
3
0
2 27 9
=− ⋅
+ =1
9 3 3
D. 5. 2. (Varianz bzw. Dispersion, Standardabweichung)
Die Varianz bzw. Dispersion einer Zufallsvariablen X , bezeichnet mit D 2 ( X ) , wird
folgendermaßen definiert:
D 2 ( X ) := E ( X − E ( X ) )
2
d.h.
∞
2
 ∑ ( xi − E ( X ) ) ⋅ p i
 i =1
D 2 ( X ) :=  + ∞
 ( x − E ( X ) )2 ⋅ f ( x ) dx
 .∫∞
falls X : discrete
falls X : stetig
Dabei wird vorausgesetzt, dass der Erwartungswert existiert.
Die Standardabweichung, bezeichnet mit D , wird folgendermaßen definiert:
D ( X ) :=
D2 ( X )
(>0) .
2
B. 5. 3.
Es kann leicht gezeigt werden, dass
D 2 ( X ) = E ( X 2 ) − ( E ( X )) 2 ,
d.h.
2
∞ 2
 ∞

x
⋅
p
−
x
⋅
p
∑ i i  ∑ i i  ,
 i =1

 i =1
D 2 ( X ) :=  + ∞
+∞
 x 2 ⋅ f ( x ) dx −  x ⋅ f ( x )  , 2
∫

∫
 −∞

 .∞
falls X diskret
falls X stetig
BS. 5. 1. (Fortsetzung)
Bestimmen Sie die Varianz und Standardabweichung der Zufallsgröße X .
Lösung:
2 1
2 1
2 1
D 2 ( X ) = (1 − 3.5 ) ⋅ + ( 2 − 3.5 ) ⋅ + ... + ( 6 − 3.5 ) ⋅ ≈ 2.92 ,
6
6
6
oder
1
1
1
D 2 ( X ) = 1 ⋅ + 4 ⋅ + ... + 36 ⋅ − 3.5 2 ≈ 2.92 .
6
6
6
D ( X ) ≈ 1.71 .
BS. 5. 3. (Fortsetzung)
Bestimmen Sie die Varianz und Standardabweichung der Zufallsgröße X .
Lösung:
3
2
2  2
D 2 ( X ) = ∫ ( x − 1) ⋅  x +  dx
3
9
0
3
10 2 14
2
 2
= ∫  − x3 +
x − x + dx
9
9
9
3
0
3
2 x 4 10 x 3 14 x 2 2
=− ⋅ + ⋅ − ⋅ + x
9 4
9 3
9 2 3 0
=
1
2
oder
3
2
 2
D ( X ) = ∫ x 2 ⋅  − x +  dx − 1
3
 9
0
2
3
3
2 
 2
= ∫  − x 3 + x 2 dx − 1
9
3 
0
3
2 x 4 2 x3
=− ⋅ + ⋅
−1
9 4 3 3 0
=
1
.
2
B. 5. 4.
Seien X und Y zwei Zufallsvariable. Mit der Transformation
Y = g(X ) ,
möchten wir unter Kenntnis der Verteilung von X Informationen über Y erhalten. Dazu
betrachten wir folgendes Beispiel:
BS. 5. 4.
Sei
Y = 4X
mit folgender Wahrscheinlichkeitsfunktion
xi
2
4
P ( X = xi )
1
4
3
4
und der Verteilungsfunktion
0
1

F ( x ) := 
4
1
für
x≤2
für
2< x≤ 4.
für
x>4
Wir möchten aufgrund dieser Informationen die Wahrscheinlichkeitsfunktion und die
Verteilungsfunktion von Y herleiten.
4
P ( X = xi ) = P (4 X = 4 xi )
= P ( Z = 4 xi )
= P ( Z = zi ), i = 1, 2 ,
and
F ( z) = P ( Z < z )
= P (4 X < z )
z

= P X < 
4

z
= P   = F (x) .
4
Damit haben wir die Wahrscheinlichkeitsfunktion:
zi
P ( Z = zi )
8
16
1
4
3
4
und die Verteilungsfunktion:
0
1

F ( z ) := 
4
1
when
z≤8
when
8 < z ≤ 16 .
when
z > 16
Berechnen wir nun den Erwartungswert von Z :
E ( Z ) = z1 ⋅ P ( Z = z1 ) + z 2 ⋅ P ( Z = z 2 )
= 8 ⋅ P ( Z = 8 ) + 16 ⋅ P ( Z = 16 )
= 8 ⋅ P ( 4 X = 8 ) + 16 ⋅ P ( 4 X = 16 )
= 8 ⋅ P ( X = 2 ) + 16 ⋅ P ( X = 4 )
= 8⋅
1
3
+ 16 ⋅
4
4
= 14 .
5
B. 5. 5.
Eine Verallgemeinerung des letzten Beispiels führt zu
∞
 ∑ g ( xi ) ⋅ P ( X = xi ) , falls X diskret
 i =1
E (Z ) = E ( g ( x )) = +∞
 g ( x ) ⋅ f ( x ) dx ,
falls X stetig
∫
 −∞
BS. 5. 5.
Betrachtet sei eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion
xi
x1
x2
pi = P ( X = xi ) = f ( xi )
p1
p2
Sei
…
…
Y = aX + b, a , b = const.
Dann gilt:
∞
E ( Z ) = ∑ ( axi + b ) ⋅ pi
i =1
∞
∞
i =1
∞
i =1
= a ⋅ ∑ x i ⋅ p i + b ⋅ ∑ pi
= a ⋅ ∑ x i ⋅ pi + b .
i =1
Die Existenz von E ( X ) vorausgesetzt, hat man
E ( aX + b ) = a ⋅ E ( X ) + b .
Es kann analog bewiesen werden:
D 2 ( aX + b ) = a 2 ⋅ D 2 ( X ),
falls D 2 ( X ) existiert.
BS. 5. 6
Betrachtet sei die Zufallsvariable X mit
E ( X ) = µ,
D 2 ( X ) = σ 2 (σ 2 ≠ 0) .
Für die Funktion
Y = g ( X ) :=
X −µ
σ
erhalten wir:
6
=
1
σ
⋅X −
µ
σ
xn
pn
E (Z ) =
1
σ
=
⋅E(X )−
1
σ
⋅µ −
µ
σ
µ
=0
σ
= 0,
1
D2 ( Z ) = 2 ⋅ D2 ( X )
σ
=
σ2(X )
σ2(X )
= 1.
D. 5. 3. (Standardisierung, Standardisierte Zufallsvariable)
Eine Zufallsvariable Z heißt standardisierte oder normiert, wenn
E ( Z ) = 0,
D 2 ( Z ) = 1.
Der Prozess
Y = g ( X ) :=
X −µ
σ
heißt Standardisierung oder Normierung.
(Letzte Aktualisierung: 17.05.2017)
7
=
1
σ
⋅X −
µ
σ
Herunterladen