3. Zufallsvariable und Verteilungen

Werbung
3. Zufallsvariable und Verteilungen
Häufige Situation in der Praxis:
• Es interessiert nicht so sehr das konkrete Ergebnis ω ∈ Ω
eines Zufallsexperimentes, sondern eine Zahl, die von ω abhängt
Beispiele:
• Gewinn in Euro im Roulette
• Gewinn einer Aktie an der Börse
• Monatsgehalt einer zufällig ausgewählten Person
104
Intuitive Bedeutung einer Zufallsvariablen:
• Vorschrift, die das ’abstrakte’ ω in eine Zahl übersetzt
Begrifflichkeiten:
Deskriptive Statistik
Grundgesamtheit
Merkmal
Messwert
Wskt.-Rechnung
←→
Ergebnismenge
←→
Realisation
←→
Zufallsvariable
105
3.1 Grundbegriffe und Definitionen
Definition 3.1: (Zufallsvariable [kurz: ZV])
Unter einer Zufallsvariablen versteht man formal eine (mathematische) Funktion
X : Ω −→ R
ω −→ X(ω).
Bemerkungen:
• Eine Zufallsvariable ordnet jedem Ergebnis ω ∈ Ω eine reelle
Zahl zu
106
Zufallsvariable als Abbildung der Ergebnismenge auf die reelle Zahlenachse
(vgl. Schira, 2009, S. 258)
107
Bemerkungen: [I]
• Intuition:
Eine Zufallsvariable X charakterisiert eine Zahl, deren Wert
man noch nicht kennt
• Nach der Durchführung des Zufallsexperimentes realisiert sich
die Zufallsvariable X im Wert x
• x heißt die Realisation oder Realisierung der ZV X nach
Durchführung des zugehörigen Zufallsexperimentes
• In dieser VL:
Zufallsvariablen werden immer mit Großbuchstaben, Realisationen immer mit Kleinbuchstaben bezeichnet
108
Bemerkungen: [II]
• Die Zufallsvariable X beschreibt die Situation ex ante, d.h.
vor der tatsächlichen Durchführung des Zufallsexperimentes
• Die Realisation x beschreibt die Situation ex post, d.h. nach
der Durchführung des Zufallsexperimentes
• Wahrscheinlichkeitsaussagen kann man nur über die Zufallsvariable X treffen
• Für den Rest der VL sind Zufallsvariablen von zentraler Bedeutung
109
Beispiel 1:
• Betrachte den 1-maligen Münzwurf (Z=Zahl, K=Kopf). Die
ZV X bezeichne die ’Anzahl der Köpfe’ bei diesem Zufallsexperiment
• Es gilt:
Ω = {K, Z}
• Die ZV X kann 2 Werte annehmen:
X(Z) = 0,
X(K) = 1
110
Beispiel 2:
• Betrachte den 3-maligen Münzwurf. Die ZV X bezeichne
erneut die ’Anzahl der Köpfe’
• Es gilt:
K,
Z)}, . . . , (Z,
Z,
Z)}}
Ω = {(K,
K,
K)}, (K,
{z
|
{z
|
{z
|
=ω1
=ω2
=ω8
• Die Zufallsvariable X ist definiert durch
X(ω) = Anzahl der K in ω
• Offensichtlich:
X ordnet verschiedenen ω dieselbe Zahl zu, z.B.
X((K, K, Z)) = X((K, Z, K)) = X((Z, K, K)) = 2
111
Beispiel 3:
• Aus einer Personengruppe werde zufällig 1 Person ausgewählt.
Die ZV X soll den Erwerbsstatus der ausgewählten Person
bezeichnen
• Es gilt:
Ω = {’erwerbstätig’
|
{z
}, |’nicht erwerbstätig’
{z
}}
=ω1
=ω2
• Die ZV X kann definiert werden durch
X(ω1) = 1,
X(ω2) = 0
(Codierung)
112
Beispiel 4:
• Das Zufallsexperiment bestehe in der Messung des morgigen
Kurses einer bestimmten Aktie. Die ZV X bezeichne diesen
Aktienkurs
• Es gilt:
Ω = [0, ∞)
• X ist definiert durch
X(ω) = ω
113
Zwischenfazit:
• Die ZV X kann verschiedene Werte annehmen und zwar mit
bestimmten Wskt’en
Vereinfachende Schreibweise: (a, b, x ∈ R)
• P (X = a) ≡ P ({ω|X(ω) = a})
• P (a < X < b) ≡ P ({ω|a < X(ω) < b})
• P (X ≤ x) ≡ P ({ω|X(ω) ≤ x})
114
Frage:
• Wie kann man diese Wskt’en bestimmen und mit diesen rechnen?
Lösung:
• Die Berechnung solcher Wskt’en kann über die sogenannte
Verteilungsfunktion der ZV’en X erfolgen
Intuition:
• Die Verteilungsfunktion der ZV’en X charakterisiert die
Wahrscheinlichkeiten, mit denen sich die potenziellen Realisationen x auf der reellen Zahlenachse verteilen
(die sogenannte Verteilung der ZV’en X)
115
Definition 3.2: (Verteilungsfunktion [kurz: VF])
Gegeben sei die Zufallsvariable X. Unter der Verteilungsfunktion der ZV’en X (in Zeichen: FX ) versteht man die folgende
Abbildung:
FX : R −→ [0, 1]
x −→ FX (x) = P ({ω|X(ω) ≤ x}) = P (X ≤ x).
116
Beispiel: [I]
• Betrachte das Laplace-Experiment des 3-fachen Münzwurfes.
Die ZV X messe die ’Anzahl Kopf’.
• Zunächst gilt:
Ω = {(K,
K,
K)}, (K,
K,
Z)}, . . . , (Z,
Z,
Z)}}
{z
{z
{z
|
|
|
= ω1
= ω2
= ω8
• Für die Wskt’en der ZV X errechnet sich:
P (X
P (X
P (X
P (X
= 0)
= 1)
= 2)
= 3)
=
=
=
=
P ({(Z, Z, Z)}) = 1/8
P ({(Z, Z, K), (Z, K, Z), (K, Z, Z)}) = 3/8
P ({(Z, K, K), (K, Z, K), (K, K, Z)}) = 3/8
P ({(K, K, K)}) = 1/8
117
Beispiel: [II]
• Daraus ergibt sich die VF:
FX (x) =


 0.000




 0.125
0.5


 0.875




1
für x < 0
für 0 ≤ x < 1
für 1 ≤ x < 2
für 2 ≤ x < 3
für x ≥ 3
Graph der Verteilungsfunktion
118
Bemerkungen:
• Es genügt (fast immer), lediglich die VF FX der ZV X zu
kennen
• Oft ist es in praxi gar nicht möglich, den Grundraum Ω oder
die explizite Abbildung X : Ω −→ R anzugeben
(jedoch kann man meistens die VF FX aus sachlogischen
Überlegungen heraus angeben)
119
Allgemeingültige Eigenschaften von FX :
• FX (x) ist monoton wachsend
• Es gilt stets:
lim FX (x) = 0
x→−∞
und
lim FX (x) = 1
x→+∞
• FX ist rechtsseitig stetig, d.h.
F (z) = FX (x)
lim
z→x X
z>x
(vgl. Eigenschaften der empirischen Verteilungsfunktion aus
der VL Statistik I)
120
Fazit:
• VF FX (x) der ZV’en X gibt Antwort auf die Frage
’Wie hoch ist die Wahrscheinlichkeit, dass X höchstens den
Wert x annimmt?’
Jetzt:
• Antwort auf die Frage
’Welchen Wert wird die ZV’e X mit einer vorgegebenen
Wahrscheinlichkeit p ∈ (0, 1) nicht überschreiten?’
−→ Quantilfunktion der ZV’en X
121
Definition 3.3: (Quantilfunktion)
Gegeben sei die ZV X mit VF FX . Für jeden reellen Wert p ∈
(0, 1) versteht man unter der Quantilfunktion von X (in Zeichen:
QX (p)) die folgende Abbildung:
QX : (0, 1) −→ R
p
−→ QX (p) = min{x|FX (x) ≥ p}.
Der Wert der Quantilfunktion xp = QX (p) heißt p − Quantil der
ZV’en X.
122
Bemerkungen:
• Das p-Quantil xp ist die kleinste Zahl x ∈ R mit der Eigenschaft, dass FX (x) den Wert p erreicht oder überschreitet.
• Interpretiert man p ∈ (0, 1) als eine Wahrscheinlichkeit, so ist
das p-Quantil xp die kleinste Realisation der ZV’en X, die X
mit Wskt. p nicht überschreitet.
Spezielle Quantile:
• Median: p = 0.5
• Quartile: p = 0.25, 0.5, 0.75
• Quintile: p = 0.2, 0.4, 0.6, 0.8
• Dezile: p = 0.1, 0.2, . . . , 0.9
123
Frage:
• Warum diese ’scheinbar komplizierte’ Definition?
Betrachte 3 Fälle:
• Stetige, streng monoton wachsende VF FX
• Stetige, teilweise konstante VF FX
• Rechtsseitig stetige Treppen-VF FX
124
Stetige, streng monoton wachsende Verteilungsfunktion
125
Stetige, teilweise konstante Verteilungsfunktion
126
Rechtsseitig stetige Treppen-Verteilungsfunktion
127
Jetzt:
• Typisierung von ZV’en
(diskrete vs. stetige ZV’en)
Grund:
• Unterschiedliche mathematische Methoden zur Behandlung
von ZV’en
• Bei diskreten ZV’en:
Endliche und unendliche Summen
• Bei stetigen ZV’en:
Differential- und Integralrechnung
128
Definition 3.4: (Diskrete Zufallsvariable)
Die ZV X heißt diskret, wenn sie entweder
1. nur endlich viele Realisationen x1, x2, . . . , xJ oder
2. abzählbar unendlich viele Realisationen x1, x2, . . .
mit streng positiver Wahrscheinlichkeit annehmen kann, d.h. falls
für alle j = 1, . . . , J, . . . gilt
P (X = xj ) > 0
und
J,...
X
P (X = xj ) = 1.
j=1
129
Typische diskrete Merkmale sind:
• Zählmerkmale (’X = Anzahl von . . .’)
• Codierte qualitative Merkmale
Definition 3.5: (Träger einer diskreten Zufallsvariablen)
Die Menge aller Realisationen, die eine diskrete ZV X mit streng
positiver Wskt. annehmen kann, heißt Träger von X (in Zeichen:
TX ):
TX = {x1, . . . , xJ }
bzw.
TX = {x1, x2, . . .}.
130
Definition 3.6: (Wahrscheinlichkeitsfunktion)
Für eine diskrete ZV X heißt die Funktion
fX (x) = P (X = x)
die Wahrscheinlichkeitsfunktion von X.
Bemerkungen: [I]
• Die Wahrscheinlichkeitsfunktion fX der ZV X nimmt nur für
die Elemente des Träger TX positive Werte an. Für Werte
außerhalb des Trägers, d.h. für x ∈
/ TX , gilt fX (x) = 0:
fX (x) =
(
P (X = xj ) > 0
0
für x = xj ∈ TX
/ TX
für x ∈
131
Bemerkungen: [II]
• Die Wahrscheinlichkeitsfkt. fX hat die Eigenschaften
fX (x) ≥ 0 für alle x
X
fX (xj ) = 1
xj ∈TX
• Für eine beliebige Menge B ⊂ R berechnet sich die Wskt. des
Ereignisses {ω|X(ω) ∈ B} = {X ∈ B} durch
P (X ∈ B) =
X
fX (xj )
xj ∈B
132
Beispiel: [I]
• Betrachte 3-fachen Münzwurf und X = ’Anzahl Kopf’
• Offensichtlich: X ist diskret mit dem Träger
TX = {0, 1, 2, 3}
• Die Wahrscheinlichkeitsfunktion ist gegeben durch
fX (x) =

 P (X = 0) = 0.125





 P (X = 1) = 0.375
P (X = 2) = 0.375

 P (X = 3) = 0.125





0
für x = 0
für x = 1
für x = 2
für x = 3
/ TX
für x ∈
133
Beispiel: [II]
• Die Verteilungsfunktion ist gegeben durch (vgl. Folie 118)
FX (x) =

 0.000





 0.125
0.5



 0.875



1
für x < 0
für 0 ≤ x < 1
für 1 ≤ x < 2
für 2 ≤ x < 3
für x ≥ 3
134
Wahrscheinlichkeits- und Verteilungsfunktion
135
Offensichtlich:
• Für die Verteilungsfunktion gilt
FX (x) = P (X ≤ x) =
X
{xj ∈TX |xj ≤x}
=P (X=xj )
z }| {
fX (xj )
Fazit:
• Die VF einer diskreten ZV’en X ist eine Treppenfunktion
mit Sprüngen an den Stellen xj ∈ TX . Die Sprunghöhe an
der Stelle xj beträgt
lim F (x) = P (X = xj ) = fX (xj ),
FX (xj ) − x→x
j
x<xj
d.h. die Sprunghöhe ist der Wert der Wskt.-Funktion
(Beziehung: Verteilungs- und Wahrscheinlichkeitsfunktion)
136
Jetzt:
• Definition von stetigen Zufallsvariablen
Intuition:
• Im Gegensatz zu diskreten ZV’en (vgl. Definition 3.4, Folie
129) sind stetige ZV’e solche, die überabzählbar viele Realisationen (z.B. jede reelle Zahl in einem Intervall) annehmen
können
Tatsächlich:
• Definition stetiger ZV’en komplizierter (technischer)
137
Definition 3.7: (Stetige ZV, Dichtefunktion)
Eine ZV X heißt stetig, wenn sich ihre Verteilungsfunktion FX
als Integral einer Funktion fX : R −→ [0, ∞) schreiben lässt:
FX (x) =
Z x
−∞
fX (t)dt
für alle x ∈ R.
Die Funktion fX (x) heißt Dichtefunktion [kurz: Dichte] von X.
Bemerkungen:
• Die VF FX einer stetigen ZV’en X ist (eine) Stammfunktion
der Dichtefunktion fX
• FX (x) = P (X ≤ x) ist gleich dem Flächeninhalt unter der
Dichtefunktion fX von −∞ bis zur Stelle x
138
Verteilungsfunktion FX und Dichte fX
fX(t)
P(X ≤ x) = FX(x)
x
t
139
Eigenschaften der Dichtefunktion fX :
1. Die Dichte fX ist niemals negativ, d.h.
fX (x) ≥ 0
für alle x ∈ R
2. Die Fläche unter der Dichte ist gleich 1, d.h.
Z +∞
−∞
fX (x)dx = 1
3. Wenn FX (x) differenzierbar ist, gilt
0 (x)
fX (x) = FX
140
Beispiel: (Gleichverteilung über [0, 10]) [I]
• Gegeben sei die ZV X mit Dichtefunktion
fX (x) =
(
0
0.1
, für x ∈
/ [0, 10]
, für x ∈ [0, 10]
• Berechnung der VF FX : [I]
Für x < 0 gilt:
FX (x) =
Z x
−∞
fX (t) dt =
Z x
−∞
0 dt = 0
141
Beispiel: (Gleichverteilung über [0, 10]) [II]
• Berechnung der VF FX : [II]
Für x ∈ [0, 10] gilt:
FX (x) =
Z x
=
Z 0
−∞
fX (t) dt
0 dt +
{z
| −∞
=0
}
Z x
0
0.1 dt
= [0.1 · t]x0
= 0.1 · x − 0.1 · 0
= 0.1 · x
142
Beispiel: (Gleichverteilung über [0, 10]) [III]
• Berechnung der VF FX : [III]
Für x > 10 gilt:
FX (x) =
Z x
=
Z 0
−∞
fX (t) dt
0 dt +
{z
| −∞
=0
= 1
}
Z 10
|0
0.1 dt +
{z
=1
}
Z ∞
0 dt
| 10{z }
=0
143
Verteilungsfunktion und Dichte der Gleichverteilung über [0, 10]
144
Jetzt:
• Wskt.’en für Intervalle, d.h. (für a, b ∈ R, a < b)
P (X ∈ (a, b]) = P (a < X ≤ b)
• Es gilt:
P (a < X ≤ b) = P ({ω|a < X(ω) ≤ b})
= P ({ω|X(ω) > a} ∩ {ω|X(ω) ≤ b})
= 1 − P ({ω|X(ω) > a} ∩ {ω|X(ω) ≤ b})
= 1 − P ({ω|X(ω) > a} ∪ {ω|X(ω) ≤ b})
= 1 − P ({ω|X(ω) ≤ a} ∪ {ω|X(ω) > b})
145
= 1 − [P (X ≤ a) + P (X > b)]
= 1 − [FX (a) + (1 − P (X ≤ b))]
= 1 − [FX (a) + 1 − FX (b)]
= FX (b) − FX (a)
=
Z b
=
Z b
−∞
a
fX (t) dt −
Z a
−∞
fX (t) dt
fX (t) dt
146
Intervall-Wahrscheinlichkeit mit den Grenzen a und b
fX(x)
P(a < X ≤ b)
a
b
x
147
Wichtiges Ergebnis für stetige ZV X:
P (X = a) = 0
für alle a ∈ R
Begründung:
P (X = a) = lim P (a < X ≤ b) = lim
b→a
=
Z a
a
Z b
b→a a
fX (x) dx
fX (x)dx = 0
Fazit:
• Die Wskt., dass eine stetige ZV X einen einzelnen Wert annimmt, ist immer Null!!
148
Punkt-Wahrscheinlichkeit bei stetiger ZV
fX(x)
a
b3
b2
b1
x
149
Vorsicht:
• Das bedeutet nicht, dass dieses Ereignis unmöglich ist
Konsequenz:
• Da bei stetigen ZV’en für alle a ∈ R stets P (X = a) = 0 gilt,
folgt für stetige ZV stets
P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b)
= P (a < X ≤ b) = FX (b) − FX (a)
(Ob Intervalle offen oder geschlossen sind, spielt für die
Wskt.-Bestimmung bei stetigen ZV keine Rolle)
150
3.2 Erwartungswert und Varianz einer Zufallsvariablen
Jetzt:
• Beschreibung der Wskt.-Verteilung der ZV’en X durch bestimmte Kenngrößen
• In dieser VL lediglich Betrachtung von
Erwartungswert
Varianz
151
Zunächst:
• Der Erwartungswert einer ZV’en X ist eine Maßzahl für die
Lage der Verteilung
• Der Erwartungswert einer ZV’en X ähnelt in seiner Bedeutung dem arithmetischen Mittel einer Datenreihe
(vgl. deskriptive Statistik, VL Statistik I)
152
Wiederholung:
• Für eine gegebene Datenreihe x1, . . . , xn ist das arithmetische
Mittel definiert als
’
n
n
X
1
1 X
xi =
xi ·
x=
n i=1
n
i=1
“
• Jeder Summand xi · 1/n entspricht einem Datenpunkt × relativer Häufigkeit
Jetzt:
• Übertragung dieses Prinzips auf die ZV X
153
Definition 3.8: (Erwartungswert)
Der Erwartungswert der ZV’en X (in Zeichen: E(X)) ist definiert
als
E(X) =

X

xj · P (X = xj )




 {xj ∈TX }






Z +∞
−∞
x · fX (x) dx
, falls X diskret ist
.
, falls X stetig ist
Bemerkungen: [I]
• Der Erwartungswert der ZV’en X entspricht also (in etwa)
der Summe aller möglichen Realisationen jeweils gewichtet
mit der Wskt. ihres Eintretens
154
Bemerkungen: [II]
• Anstelle von E(X) schreibt man häufig µX
• Anstelle der Formulierung ’Erwartungswert der ZV’en X’
sagt man häufig ’Erwartungswert der Verteilung von X’
• Es gibt ZV’en, die keinen Erwartungswert besitzen
(kein Gegenstand dieser VL)
155
Beispiel 1: (Diskrete ZV) [I]
• Man betrachte den 2-maligen Würfelwurf. Die ZV X stehe
für die (betragliche) Differenz der Augenzahlen. Man berechne
den Erwartungswert von X
• Zunächst ergibt sich als Träger der Zufallsvariablen
TX = {0, 1, 2, 3, 4, 5}
• Die Wahrscheinlichkeitsfunktion ist gegeben durch
fX (x) =


P (X = 0) = 6/36



 P (X = 1) = 10/36





 P (X = 2) = 8/36
P (X = 3) = 6/36

 P (X = 4) = 4/36





 P (X = 5) = 2/36



0
für x = 0
für x = 1
für x = 2
für x = 3
für x = 4
für x = 5
/ TX
für x ∈
156
Beispiel 1: (Diskrete ZV) [II]
• Als Erwartungswert ergibt sich
E(X) = 0 ·
6
10
8
6
4
2
+1·
+2·
+3·
+4·
+5·
36
36
36
36
36
36
70
=
= 1.9444
36
• Achtung:
In diesem Beispiel ist E(X) eine Zahl, die die ZV X selbst
gar nicht annehmen kann
157
Beispiel 2: (Stetige ZV)
• Es sei X eine stetige ZV mit der Dichte

 x
, für 1 ≤ x ≤ 3
fX (x) =
4
 0
, sonst
• Zur Berechnung des Erwartungswertes spaltet man das Integral auf:
E(X) =
Z +∞
=
Z 3 2
x
Z 1
Z 3
Z
+∞
x
x · fX (x) dx =
0 dx
0 dx +
x · dx +
4
−∞
3
−∞
1
”
•
1 1 3 3
dx = ·
·x
4 3
1 4
1
’
“
1
27 1
26
=
·
−
=
= 2.1667
4
3
3
12
158
Häufige Situation:
• Kenne ZV X mit Wskt.- oder Dichtefunktion fX
• Suche den Erwartungswert der transformierten ZV
Y = g(X)
159
Satz 3.9: (Erwartungswert einer Transformierten)
Gegeben sei die ZV X mit Wskt.- oder Dichtefunktion fX . Für
eine beliebige (Baire)Funktion g : R −→ R berechnet sich der
Erwartungswert der transformierten ZV Y = g(X) als
E(Y ) = E(g(X))
=

X

g(xj ) · P (X = xj )



 {x ∈T }

j
X






Z +∞
−∞
g(x) · fX (x) dx
, falls X diskret ist
.
, falls X stetig ist
160
Bemerkungen:
• Alle Funktionen, die im VWL- und/oder BWL-Studium auftauchen, sind Baire-Funktionen
• Für den Spezialfall g(x) = x (die Identitätsfunktion) fällt der
Satz 3.9 mit der Definition 3.8 zusammen
161
Rechnen mit Erwartungswerten (Teil 1):
• Betrachte die (lineare) Transformation
Y = g(X) = a + b · X
mit a, b ∈ R
• Ist X stetig mit Dichtefunktion fX , so gilt:
E(Y ) = E(a + b · X) =
=
Z +∞
−∞
= a·
Z +∞
−∞
(a + b · x) · fX (x) dx
[a · fX (x) + b · x · fX (x)] dx
Z +∞
| −∞
fX (x) dx +b ·
{z
=1
= a + b · E(X)
}
Z +∞
| −∞
x · fX (x) dx
{z
=E(X)
}
162
Bemerkung:
• Der Erwartungswert ist ein linearer Operator, d.h.
E(a + b · X) = a + b · E(X)
für reelle Zahlen a, b ∈ R
(Spezialfälle: a = 0, b 6= 0 bzw. a 6= 0, b = 0)
163
Rechnen mit Erwartungswerten (Teil 2):
• Betrachte die aufgespaltene Funktion
Y = g(X) = g1(X) + g2(X)
• Ist X stetig mit Dichtefunktion fX , so gilt:
E(Y ) = E[g1(X) + g2(X)]
=
Z +∞
=
Z +∞
−∞
| −∞
[g1(x) + g2(x)] · fX (x) dx
g1(x) · fX (x) dx +
{z
=E[g1 (X)]
}
Z +∞
| −∞
g2(x) · fX (x) dx
{z
=E[g2(X)]
}
= E[g1(X)] + E[g2(X)]
164
Bemerkung:
• Für diskrete ZV’en sind die Herleitungen analog
Satz 3.10: (Zusammenfassung)
Es seien X eine beliebige ZV (stetig oder diskret), a, b ∈ R reelle
Zahlen und g1, g2 : R −→ R (Baire)Funktionen. Dann gelten die
folgenden Rechenregeln:
1. E(a + b · X) = a + b · E(X).
2. E[g1(X) + g2(X)] = E[g1(X)] + E[g2(X)].
165
Jetzt:
• Beschreibung des Streuungsverhaltens einer ZV X
Wiederholung aus deskriptiver Statistik:
• Für eine gegebene Datenreihe x1, . . . , xn ist die empirische
Varianz definiert durch
”
n
n
X
X
1
1
2
2
2
s =
(xi − x) =
(xi − x) ·
n i=1
n
i=1
•
• Jeder Summand entspricht der quadratischen Abweichung
des Datenpunktes xi vom arithmetischen Mittel x gewichtet
mit seiner relativen Häufigkeit
166
Definition 3.11: (Varianz, Standardabweichung)
Für eine beliebige stetige oder diskrete ZV X ist die Varianz
von X [in Zeichen: V (X)] definiert als die erwartete quadrierte
Abweichung der ZV von ihrem Erwartungswert E(X), d.h.
V (X) = E[(X − E(X))2].
Unter der Standardabweichung von X [in Zeichen: σ(X)] versteht man die (positive) Wurzel aus der Varianz, d.h.
q
σ(X) = + V (X).
167
Bemerkungen:
• Offensichtlich ist die Varianz von X ein Erwartungswert. Mit
g(X) = [X − E(X)]2 und Satz 3.9 (Folie 160) gilt für die
Varianz von X:
V (X) = E[g(X)]
=

X
2 · P (X = x )


[x
−
E(X)]
j
j



 {xj ∈TX }






Z +∞
−∞
[x − E(X)]2 · fX (x) dx
, für diskretes X
, für stetiges X
• Es gibt ZV’en, die keine endliche Varianz besitzen
(nicht Gegenstand dieser VL)
168
Beispiel: (Diskrete ZV)
• Betrachte erneut den 2-maligen Münzwurf mit der ZV X
als (betraglicher) Differenz der Augenzahlen (vgl. Beispiel 1,
Folie 156). Für die Varianz gilt:
V (X) = (0 − 70/36)2 · 6/36 + (1 − 70/36)2 · 10/36
+ (2 − 70/36)2 · 8/36 + (3 − 70/36)2 · 6/36
+ (4 − 70/36)2 · 4/36 + (5 − 70/36)2 · 2/36
= 2.05247
169
Jetzt:
• Rechenregeln für Varianzen
Man beachte:
• Varianz ist per definitionem ein Erwartungswert
−→ Rechenregeln für Erwartungswerte anwendbar
Rechenregel 1: [I]
• Betrachte die (lineare) Transformation
Y = g(X) = a + b · X
mit a, b ∈ R
170
Rechenregel 1: [II]
• Es gilt
V (Y ) = V [g(X)]
= E[[g(X) − E(g(X))]2]
= E[[a + b · X − a − b · E(X)]2]
= E[b2 · [X − E(X)]2]
= b2 · E[[X − E(X)]2]
= b2 · V (X)
−→ Spezialfall: b = 0, a ∈ R (Varianz einer Konstanten)
V (a) = 0
171
Rechenregel 2:
• Vereinfachte Varianzberechnung:
V (X) = E[(X − E(X))2]
= E[X 2 − 2 · E(X) · X + [E(X)]2]
= E(X 2) − 2 · E(X) · E(X) + [E(X)]2
= E(X 2) − [E(X)]2
172
Übungsaufgabe:
• Berechnen Sie anhand dieser Formel die Varianz der stetigen
ZV’en X mit Dichte

 x
, für 1 ≤ x ≤ 3
fX (x) =
4
 0
, sonst
Satz 3.12: (Zusammenfassung)
Es seien X eine beliebige ZV (stetig oder diskret) sowie a, b ∈ R
reelle Zahlen. Es gelten die folgenden Rechenregeln:
1. V (X) = E(X 2) − [E(X)]2.
2. V (a + b · X) = b2 · V (X).
173
3.3 Spezielle diskrete Verteilungen
Jetzt:
• Einige wichtige diskrete Verteilungen:
Bernoulli-Verteilung
Binomial-Verteilung
Geometrische Verteilung
Poisson-Verteilung
174
1. Die Bernoulli-Verteilung
Ausgangssituation:
• Ein Zufallsexp. habe nur 2 interessierende Ausgänge:
Ω=A∪A
• Oft bezeichnet man das Ereignis A als Erfolg und A als Misserfolg oder Niete
Definition 3.13: (Bernoulli-Experiment)
Ein Zufallsexperiment, bei dem man sich nur dafür interessiert,
ob ein Ereignis A eintritt oder nicht, nennt man ein BernoulliExperiment.
175
Jetzt:
• Definiere die codierte ZV X als
X=
(
1
0
, falls A eintritt (Erfolg)
, falls A eintritt (Misserfolg)
Beispiele: [I]
• Das Geschlecht einer zufällig ausgewählten Person aus einer
Population:
X=
(
1
0
, falls die Person weiblich ist
, falls die Person männlich ist
176
Beispiele: [II]
• Eine Urne enthält insgesamt N Kugeln, von denen M rot und
N − M weiß sind. Betrachte das Experiment des 1-maligen
Ziehens einer Kugel:
X=
(
1
0
, falls die Kugel rot ist
, falls die Kugel weiß ist
Offensichtlich:
P (X = 1) =
M
≡p
N
P (X = 0) =
M
N −M
=1−
=1−p≡q
N
N
177
Definition 3.14: (Bernoulli-Verteilung)
Die ZV X repräsentiere ein Bernoulli-Experiment und für ein
festes p ∈ [0, 1] gelte
P (X = 1) = P (A) = p,
P (X = 0) = P (A) = 1 − p ≡ q.
Dann heißt die ZV X Bernoulli-verteilt mit Parameter (Erfolgswskt.) p und man schreibt X ∼ Be(p).
Berechnung des E-Wertes bzw. der Varianz:
• E(X) = 0 · (1 − p) + 1 · p = p
• V (X) = (0 − p)2 · (1 − p) + (1 − p)2 · p = p · (1 − p) = p · q
178
Wahrscheinlichkeits- und Verteilungsfunktion der Bernoulli-Verteilung
179
2. Die Binomial-Verteilung
Jetzt:
• Betrachte n gleichartige und unabhängig voneinander
durchgeführte Bernoulli-Experimente
(alle mit derselben Erfolgswahrscheinlichkeit p)
• Die ZV X bezeichne die Anzahl der Erfolge, d.h. der Träger
von X ist
TX = {0, 1, . . . , n}
Gesucht:
• Wskt. genau x Erfolge zu erzielen, d.h. P (X = x)
180
Herleitung:
• Bei
 ‘ n unabhängigen Bernoulli-Experimenten gibt es genau
n
x Versuchsreihen, die exakt x Erfolge und gleichzeitig n − x
Misserfolge aufweisen
• Wegen der Unabhängigkeit der
 ‘ Bernoulli-Experimente ist die
x · (1 − p)n−x
Wskt. jeder einzelnen dieser n
Versuchsreihen
p
x
 ‘
• Wegen der Disjunktheit der n
x Versuchsreihen folgt für die
gesuchte Wskt.
P (X = x) =
n‘
x
· px · (1 − p)n−x
181
Definition 3.15: (Binomial-Verteilung)
Eine diskrete ZV X mit Träger TX = {0, 1, . . . , n} und Wahrscheinlichkeitsfunktion
n‘
P (X = x) =
· px · (1 − p)n−x für x = 0, 1, . . . , n,
x
heißt binomialverteilt mit den Parametern n und p [in Zeichen:
X ∼ B(n, p)].
Bemerkung:
• Die Bernoulli-Verteilung aus Definition 3.14 (Folie 178) ist
ein Spezialfall der Binomialverteilung, denn es gilt
X ∼ Be(p)
ist das gleiche wie
X ∼ B(1, p)
182
Beispiel: [I]
• Eine Urne enthält 10 Kugeln, davon 3 rote und 7 weiße. Es
werden 2 Kugeln mit Zurücklegen gezogen. Gesucht sind die
Wskt’en dafür, genau 0, 1 bzw. 2 rote Kugeln zu ziehen
• Es bezeichne X die Anzahl der gezogenen roten Kugeln.
Die Wskt. bei genau einem Zug eine rote Kugel zu ziehen,
beträgt p = 3/10 = 0.3
−→ X ∼ B(n = 2, p = 0.3)
183
Beispiel: [II]
• Berechung der Wskt. Funktion:
P (X = 0) =
P (X = 1) =
P (X = 2) =
2‘
0
2‘
1
2‘
2
· 0.30 · (1 − 0.3)2−0 = 0.49
· 0.31 · (1 − 0.3)2−1 = 0.42
· 0.32 · (1 − 0.3)2−2 = 0.09
E-Wert und Varianz einer Binomial-Verteilung:
• E(X) = n · p
• V (X) = n · p · (1 − p)
(Beweise: später mit Ergebnissen aus Kapitel 4)
184
Wahrscheinlichkeits- und Verteilungsfunktion der Binomial-Verteilung
185
3. Die Geometrische Verteilung
Ausgangssituation:
• Bernoulli-Experiment (Ausgänge A bzw. A, P (A) = p) kann
prinzipiell beliebig oft wiederholt werden
(gleichartige unabhängige Experimente)
Von Interesse:
• Zeitpunkt des 1. Erfolges, d.h. ZV
X = Anzahl der Experimente bis zum 1. Ausgang A
186
Offensichtlich:
• Träger von X ist TX = {1, 2, . . .} = N
Berechnung der Wskt.-Funktion:
P (X = 1) = p
P (X = 2) = (1 − p) · p = p · (1 − p)
P (X = 3) = (1 − p) · (1 − p) · p = p · (1 − p)2
...
Allgemein gilt:
x−1
=
p
·
−
p)
·p
(1
P (X = x) = (1
·
−
p)
.
.
.
·
(1
−
p)
{z
}
|
x−1 mal
187
Definition 3.16: (Geometrische Verteilung)
Eine diskrete ZV X mit Träger TX = N und der Wahrscheinlichkeitsfunktion
P (X = x) = p · (1 − p)x−1
für x ∈ N
heißt geometrisch verteilt mit Parameter p ∈ (0, 1) [in Zeichen:
X ∼ G(p)].
Bemerkung:
• Bei der Berechnung diverser Verteilungseigenschaften spielt
die unendliche geometrische Reihe eine Rolle, z.B.
∞
X
x=1
P (X = x) =
∞
X
x=1
p · (1 − p)x−1 = p ·
1
=1
1 − (1 − p)
188
Satz 3.17: (Kenngrößen der geometrischen Verteilung)
Die diskrete ZV X sei geometrisch verteilt mit Parameter p,
d.h. X ∼ G(p). Dann sind der Erwartungswert bzw. die Varianz
von X gegeben durch
E(X) =
∞
X
1
x−1
=
x · p · (1 − p)
∞
X
1−p
x−1
=
.
(x − 1/p) · p · (1 − p)
2
p
x=1
V (X) =
x=1
p
2
189
Beispiel: [I]
• Aus einer Urne mit 10 Kugeln (4 rote, 6 weiße) wird mit
Zurücklegen gezogen. Gesucht werden
1. die Wskt., dass bei der 3. Ziehung erstmalig eine rote
Kugel gezogen wird,
2. die Wskt., dass frühestens bei der 3. Ziehung erstmalig
eine rote Kugel gezogen wird,
3. der Erwartungswert für das erstmalige Ziehen einer roten
Kugel,
4. die Varianz für das erstmalige Ziehen einer roten Kugel.
190
Beispiel: [II]
• Betrachte ZV
X = Nummer der Ziehung, bei der erstmalig eine rote
Kugel gezogen wird
• Offensichtlich: X ∼ G(0.4). Damit gilt:
1. P (X = 3) = 0.4 · 0.62 = 0.144
2.
∞
X
x=3
P (X = x) = 1 − P (X = 1) − P (X = 2) = 0.36
3. E(X) = 1/0.4 = 2.5
4. V (X) = (1 − 0.4)/(0.42) = 3.75
191
3. Die Poisson-Verteilung
Häufiges Anwendungsgebiet:
• Warteschlangenmodelle, z.B. zur Modellierung von
Schlangen vor einem Bankschalter
Auftragsschlangen bei einem Internet-Server
In dieser VL:
• Keine sachlogische Herleitung, sondern nur
formale Definition
Angabe von Erwartungswert und Varianz
192
Definition 3.18: (Poisson-Verteilung)
Die diskrete ZV X mit dem Träger TX = {0, 1, . . .} = N ∪ {0} und
der Wahrscheinlichkeitsfunktion
µx
−µ
P (X = x) = e ·
für x = 0, 1, 2, . . .
x!
heißt Poisson-verteilt mit Parameter µ > 0 [in Zeichen: X ∼
P o(µ)].
Bemerkung:
• e bezeichnet die Eulersche Zahl und die Funktion ex die
natürliche Exponentialfunktion
(vgl. Abschnitt 2.2, VL Statistik I)
193
Satz 3.19: (Kenngrößen der Poisson-Verteilung)
Die diskrete ZV X sei Poisson-verteilt mit Parameter µ, d.h. X ∼
P o(µ). Dann sind der Erwartungswert bzw. die Varianz von X
gegeben durch
E(X) = µ
sowie
V (X) = µ.
194
Herleitungen: [I]
• Für den Erwartungswert gilt:
∞
X
∞
x
x
X
µ
µ
E(X) =
x · e−µ ·
= e−µ
x·
x!
x!
x=0
x=1
∞
X
x−1
µ
= e−µ
µ·
(x − 1)!
x=1
∞
x
X
µ
= µ · e−µ
x=0 x!
= µ · e−µ · eµ
= µ
195
Herleitungen: [II]
• Zur Bestimmung der Varianz berechnet man zunächst
E(X 2) =
∞
X
x=0
µx
2
−µ
x ·e ·
x!
= ...
= µ2 + µ
• Nach Satz 3.12(a) (vgl. Folie 173) folgt damit für die Varianz:
V (X) = E(X 2) − [E(X)]2 = µ2 + µ − µ2 = µ
196
3.4 Spezielle stetige Verteilungen
Jetzt:
• Drei bekannte stetige Verteilungen
Gleichverteilung
Exponentialverteilung
Normalverteilung
197
1. Die Gleichverteilung
Definition 3.20: (Gleichverteilung)
Die stetige ZV X heißt gleichverteilt über dem Intervall [a, b], a <
b, [in Zeichen: X ∼ U (a, b)], falls X die folgende Dichtefunktion
besitzt:

1


, falls a ≤ x ≤ b
fX (x) =
.
b−a


0
, sonst
198
Bemerkungen:
• Die ZV X auf Folie 141 ist gleichverteilt über dem Intervall
[0, 10], d.h. X ∼ U (0, 10)
• Die Gleichverteilung U (a, b) sinnvoll, falls X keinerlei Werte
zwischen a und b ’bevorzugt’ annimmt
• Die Verteilungsfunktion berechnet sich zu


0


Z x
 x−a
fX (t) dt =
FX (x) =
 b−a
−∞



1
, falls x < a
, falls a ≤ x ≤ b
, falls x > b
199
Dichte- und Verteilungsfunktion der Gleichverteilung über [a, b]
200
Satz 3.21: (E-Wert, Varianz)
Für die stetige, gleichverteilte ZV X ∼ U (a, b) sind Erwartungswert
und Varianz gegeben durch
E(X) =
Z +∞
V (X) =
Z +∞
−∞
x · fX (x) dx =
a+b
,
2
(b − a)2
.
[x − E(X)] · fX (x) dx =
12
−∞
2
201
2. Die Exponentialverteilung
Definition 3.22: (Exponentialverteilung)
Die stetige ZV X heißt exponentialverteilt mit Parameter λ > 0
[in Zeichen: X ∼ Exp(λ)], falls X die folgende Dichtefunktion
besitzt:
fX (x) =
(
0
λ · e−λ·x
, falls x < 0
.
, falls x ≥ 0
Bemerkung:
• Die Verteilungsfunktion berechnet sich zu
FX (x) =
Z x
−∞
fX (t) dt =
(
0
1 − e−λ·x
, falls x < 0
, falls x ≥ 0
202
Dichtefunktionen der Exponentialverteilung
fX(x)
4
3
λ=3
2
λ=2
1
λ=1
0
0.0
x
0.5
1.0
1.5
2.0
2.5
3.0
3.5
203
Verteilungsfunktionen der Exponentialverteilung
FX(x)
1.0
λ=1
0.8
λ=2
0.6
λ=3
0.4
0.2
0.0
0.0
0.5
1.0
1.5
2.0
2.5
3.0
3.5
x
204
Satz 3.23: (E-Wert, Varianz)
Für die stetige, exponentialverteilte ZV X ∼ Exp(λ) sind Erwartungswert und Varianz gegeben durch
E(X) =
Z +∞
V (X) =
Z +∞
−∞
x · fX (x) dx =
1
,
λ
1
[x − E(X)]2 · fX (x) dx = 2 .
λ
−∞
205
3. Die Normalverteilung
Einführende Bemerkungen: [I]
• Normalverteilung (auch Gaußverteilung) ist die wichtigste
Verteilung überhaupt
Praxis:
−→ Relevanz resultiert aus zentralem Grenzwertsatz
(vgl. Kapitel 4)
Theorie:
−→ Relevant für Entwicklung von Schätz- und Testverfahren
(vgl. Kapitel 5-7)
206
Einführende Bemerkungen: [II]
• Viele Phänomene lassen sich gut durch eine Normalverteilung
approximieren, z.B.
Biometrische Größen
(Körpergrößen, Gewicht etc.)
Ökonomische Größen
(Veränderungsraten)
Zufällige Fehler
(Messfehler, Produktionsfehler)
207
Definition 3.24: (Normalverteilung)
Die stetige ZV X heißt normalverteilt mit Parametern µ ∈ R
und σ 2 > 0 [in Zeichen: X ∼ N (µ, σ 2)], falls X die folgende
Dichtefunktion besitzt:
fX (x) = √

‘
x−µ 2
1
−2 σ
1
·e
2π · σ
,
x ∈ R.
Bemerkungen:
• Die Parameter µ und σ 2 geben der Dichtefunktion ihre spezielle
Gestalt
• Die Normalverteilung N (0, 1) heißt Standardnormalverteilung.
Ihre Dichte wird oft mit ϕ(x) bezeichnet
208
Dichtefunktionen der Normalverteilung
fX(x)
N(5,1)
N(0,1)
N(5,3)
N(5,5)
0
5
x
209
Satz 3.25: (Eigenschaften der Normalverteilung) [I]
Es sei X ∼ N (µ, σ 2). Dann gilt:
1. Die Dichte fX (x) hat ihr einzige lokales Maximum an der
Stelle x = µ.
2. Die Dichte fX (x) ist symmetrisch um µ.
3. Die Dichte fX (x) besitzt Wendepunkte an den Stellen x =
µ + σ und x = µ − σ.
210
Satz 3.25: (Eigenschaften der Normalverteilung) [II]
4. Für Erwartungswert und Varianz von X gilt:
E(X) = µ
und
V (X) = σ 2.
5. Auch die linear transformierte ZV Y = a + b · X mit a, b ∈ R
ist normalverteilt mit Erwartungswert E(Y ) = a + b · µ und
Varianz V (Y ) = b2 · σ 2, d.h.
Y ∼ N (a + b · µ, b2 · σ 2).
211
Jetzt:
• Bestimmung der Verteilungsfunktion FX :
FX (x) = P (X ≤ x) =
Z x
=
Z x
−∞
fX (t) dt

‘
t−µ 2
1
−2 σ
1
√
·e
−∞ 2π · σ
dt
Problem:
• Keine mathematisch geschlossene Lösung des Integrals
• VF’en können nur approximativ berechnet werden
(durch numerische Verfahren)
212
(Approximative) Verteilungsfunktionen der Normalverteilung
FX(x)
1
N(0,1)
N(5,5)
0.5
N(5,3)
N(5,1)
0
5
x
213
Bezeichnung:
• Die
Verteilungsfunktion
der
Standardnormalverteilung
wird oft mit Φ(x) bezeichnet, also
Φ(x) ≡ FX (x) = P (X ≤ x)
für X ∼ N (0, 1)
Zentrales Ergebnis:
• Für jede beliebige normalverteilte ZV X ∼ N (µ, σ 2) kann
die VF FX (x) = P (X ≤ x) auf die VF der Standardnormalverteilung zurückgeführt werden
214
Herleitung: [I]
• Für die VF von X ∼ N (µ, σ 2) gilt




FX (x) = P (X ≤ x) = P (X − µ)/σ ≤ (x − µ)/σ 
|
{z
}
≡Y
• Nach Satz 3.25(e) folgt
1
X −µ
µ
=
Y =
·X −
σ
σ
σ
|{z}
|{z}
≡a
≡b
ist normalverteilt, und zwar




1
1

 µ
2
2
2
Y ∼ N (a + b · µ, b · σ ) = N − + · µ, 2 · σ  = N (0, 1)

 σ
|
{z σ } |σ {z }
=0
=1
215
Herleitung: [II]
• Insgesamt gilt also für die ZV X ∼ N (µ, σ 2):


x − µ

FX (x) = P (X ≤ x) = P  |{z}
Y
≤
=Φ
σ
∼N (0,1)
’
x−µ
σ
“
Beispiel: [I]
• Überdeckungswahrscheinlichkeiten bei der Normalverteilung
• Es seien X ∼ N (µ, σ 2) und k ∈ R eine reelle Zahl
• Gesucht: Wahrscheinlichkeit dafür, dass sich X im Intervall
[µ − k · σ, µ + k · σ] realisiert
216
Beispiel: [II]
• Es gilt:
P (µ − k · σ ≤ X ≤ µ + k · σ) = FX (µ + k · σ) − FX (µ − k · σ)
’
µ+k·σ−µ
= Φ
σ
’
“
µ−k·σ−µ
−Φ
σ
“
= Φ(k) − Φ(−k)
• Die VF Φ(x) der Standardnormalverteilung ist in allen StatistikLehrbüchern ausreichend tabelliert
(z.B. in Mosler/Schmid, 2008)
217
Beispiel: [III]
• Außerdem:
Φ(x) kann in allen statistischen Programmpaketen berechnet
werden
(z.B. in Excel, EViews, SPSS)
• Für k = 1, 2, 3 gilt:
k = 1 : Φ(1) − Φ(−1) = 0.6827
k = 2 : Φ(2) − Φ(−2) = 0.9545
k = 3 : Φ(3) − Φ(−3) = 0.9973
218
Überdeckungswahrscheinlichkeiten der Normalverteilung
F lä c h e n in h a lte :
1
1+2+4
1+2+3+4+5
1
5
µ−3σ
4
µ−2σ
3
2
µ−σ
µ
µ+σ
: 0 .6 8 2 7
: 0 .9 5 4 5
: 0 .9 9 7 3
µ+2σ
µ+3σ
219
Herunterladen