1.6 Wichtige Verteilungsmodelle

Werbung
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
1.6 Wichtige Verteilungsmodelle
Wir behandeln hier nur Binomial-, Poisson- und Normalverteilung. Einige weitere Verteilungsmodelle
werden direkt dort eingeführt, wo sie benötigt werden.
1.6.1 Binomialverteilung
Konstruktionsprinzip:
• Ein Zufallsexperiment wird n mal unabhängig durchgeführt.
• Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht.
• X = Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt“.
”
• Träger von X : X = {0, 1, 2, . . . , n}.
1 Wahrscheinlichkeitsrechnung
155
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Herleitung der Wahrscheinlichkeitsfunktion:
• Bezeichne π = P (A) die Wahrscheinlichkeit für A in einem Experiment.
• Das Ereignis {X = x} tritt z.B. auf, wenn in den ersten x Versuchen A eintritt und anschließend
nicht mehr. Die Wahrscheinlichkeit dafür ist
P (A1 ∩ . . . ∩ Ax ∩ Āx+1 ∩ . . . ∩ Ān)
• Insgesamt gibt es
Damit gilt:
1 Wahrscheinlichkeitsrechnung
n
x
=
π
. . · π} (1 − π) · . . . · (1 − π)
| · .{z
|
{z
}
x mal
n−x mal
=
π (1 − π)
x
n−x
.
Möglichkeiten für die Verteilung der x Erfolge (Auftreten von A) auf n Plätze.
n
x
n−x
P (X = x) =
π (1 − π)
.
x
156
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Definition 1.57.
Eine Zufallsvariable heißt binomialverteilt mit den Parametern n und π , kurz X ∼ B(n, π), wenn sie
die Wahrscheinlichkeitsfunktion
n
x
n−x

π (1 − π)
, x = 0, 1, . . . , n
x
f (x) =
0,
sonst
besitzt.
Die B(1, π)-Verteilung heißt auch Bernoulliverteilung.
1 Wahrscheinlichkeitsrechnung
157
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Wahrscheinlichkeitshistogramme von Binomialverteilungen mit n = 10
π = 0.1
π = 0.25
0.4
0.4
0.3 0.3 0.2
0.2
0.1
0.1
0
0
1
2
3
4
5
6
7
8
0
π = 0.5
0.4
0.3 0.3 0.2
0.2
0.1
0.1
0
1
2
1
2
3
4
5
7 8
9 10
6
7 8
9 10
π = 0.75
0.4
0
6
0
9 10
3
4
5
1 Wahrscheinlichkeitsrechnung
6
7 8
0
9 10
0
1
2
3
4
5
158
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Erwartungswert und Varianz:
• Zur Berechnung von Erwartungswert und Varianz der Binomialverteilung ist folgende Darstellung
hilfreich:
X = X1 + . . . + Xn
mit den binären Variablen

1 falls A beim i-ten Versuch eintritt,
Xi =
0 falls Ā beim i-ten Versuch eintritt.
• Die Xi sind stochastisch unabhängig mit
E(Xi)
=
0 · P ({Xi = 0}) + 1 · P ({Xi = 1}) = π
Var(Xi)
=
E(Xi ) − (E(Xi)) = 1 · P ({Xi = 1}) − π = π − π = π(1 − π).
1 Wahrscheinlichkeitsrechnung
2
2
2
2
159
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
• Erwartungswert der Binomialverteilung:
E(X) = E(X1 + . . . + Xn) = E(X1) + . . . + E(Xn) = nπ
Die direkte Berechnung über
n
n
X
i
n−i
π (1 − π)
= . . . = nπ
E(X) =
i
i
i=1
ist deutlich komplizierter!
• Varianz der Binomialverteilung:
Var(X) = Var(X1 + . . . + Xn) = Var(X1) + . . . + Var(Xn) = nπ(1 − π)
1 Wahrscheinlichkeitsrechnung
160
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Bsp. 1.58.
Risikobereite Slalomfahrer stürzen mit W’keit 10%, vorsichtigere mit 2%.
a) Wie groß sind jeweils die Wahrscheinlichkeiten, dass von 20 Fahrern mindestens einer stürzt?
b) Vergleichen Sie die durchschnittlich zu erwartende Anzahl von Stürzen von je 100 Rennläufern!
Beschreibung der Situation durch ein Binomialmodell
• Xr Anzahl der Stürze der risikobereiten Fahrer
Xv Anzahl der Stürze der vorsichtigen Fahrer
• Trefferwskten πr , πv
• n Anzahl der Rennläufer der jeweiligen Kategorie.
• Unabhängigkeit der Versuche nicht ganz unproblematisch, aber hier vorausgesetzt.
a) n = 20, gesucht: P ({Xr ≥ 1}), P ({Xv ≥ 1}), wobei:
n
k
n−k
P ({Xr = k}) =
· π · (1 − π)
k
Dann gilt
P ({Xr ≥ 1}) = P ({Xr = 1}) + P ({Xr = 2}) + . . . + P ({Xr = 20})
1 Wahrscheinlichkeitsrechnung
161
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Zur Berechnung einfacher:
P ({Xr ≥ 1})
1 − P ({Xr = 0})
n
0
n−0
1−
· πr · (1 − π)
0
20
0
20
1−
· (0.1) · (1 − 0.1)
0
20!
20
· 1 · (0.9)
1−
0!20!
=
=
=
=
≈
1 − 0.1216 ≈ 0.8784
Analog:
P ({Xv ≥ 1})
=
=
=
≈
1 Wahrscheinlichkeitsrechnung
1 − P ({Xv = 0})
n
0
n−0
1−
· πv · (1 − πv )
0
20
0
20
1−
· (0.02) · (0.98)
0
1 − 0.6676 ≈ 0.332
162
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
b) Durchschnittlich erwartete Anzahl =
ˆ Erwartungswert
E(Xr ) = n · πr
und
E(Xv ) = n · πv
E(Xr ) = 100 · 0.1 = 10
und
E(Xv ) = 100 · 0.02 = 2.
also
Für den Vergleich ergibt sich damit
E(Xr )
10
=
= 5.
E(Xv )
2
Es gilt allgemein (für zwei binomialverteilte ZV):
n · πr
πr
E(Xr )
=
=
.
E(Xv )
n · πv
πv
1 Wahrscheinlichkeitsrechnung
163
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Exkurs: Zur Problematik der Argumentation mittels natürlicher Häufigkeiten“.
”
Man würde demgemäß die Wahrscheinlichkeit πr = 0.1 kommunizieren als von 100 stürzen 10
”
Rennläufer“.
Diese Interpretation läuft Gefahr, die beträchtliche Variabilität zufälliger Prozesse zu verschleiern. In der
Tat ist hier die Wahrscheinlichkeit, dass genau 10 von 100 Läufern stürzen,
100
10
90
· 0.1 · 0.9 = 0.13,
P (X = 10) =
10
also lediglich etwa 13%. Natürliche Häufigkeiten“ müssen also unbedingt als Durchschnittswerte bzw.
”
Erwartungswerte begriffen werden.
1 Wahrscheinlichkeitsrechnung
164
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Eigenschaften der Binomialverteilung:
• Symmetrieeigenschaft (vertausche Rolle von A und Ā):
Sei X ∼ B(n, π) und Y = n − X . Dann gilt Y ∼ B(n, 1 − π).
• Summeneigenschaft: Seien X ∼ B(n, π) und Y ∼ B(m, π). Sind X und Y unabhängig, so gilt
X + Y ∼ B(n + m, π)
Entscheidend: Gleiches π !
1 Wahrscheinlichkeitsrechnung
165
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
1.6.2 Poisson Verteilung
(vgl. z.B. Fahrmeir et. al))
Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher
seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte, deviante Verhaltensmuster,
etc.).
Definition 1.59. [Poisson-Verteilung]
Eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion

 λx e−λ, x ∈ {0, 1, . . .}
x!
f (x) = P ({X = x}) =
0,
sonst
heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X ∼ P o(λ). Es gilt
E(X) = λ,
1 Wahrscheinlichkeitsrechnung
Var(X) = λ
166
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Die Poisson-Verteilung kann auch als Näherungsmodell für eine Binomialverteilung gesehen werden, wenn
die Anzahl der Versuchswiederholungen n groß und die Trefferwahrscheinlichkeit“ π sehr klein ist (seltene
”
Ereignisse!).
Der Erwartungswert λ ist dann gleich n · π.
Es gilt also abgekürzt geschrieben
X ∼ B(n, π) =⇒ X u P o(n · π)
n groß
π klein
Hat man mehrere unabhängige Poisson-Prozesse“, also dynamische Simulationen, bei denen die Ereig”
nisanzahl Poisson-verteilt ist, also z.B. verschiedene deviante Verhaltensmuster, so ist die Gesamtanzahl
der einzelnen Ereignisanzahlen wieder Poisson-verteilt: genauer gilt
1 Wahrscheinlichkeitsrechnung
167
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Satz 1.60. [Addition von Poisson-verteilten Zufallsvariablen]
Sind X ∼ P o(λX ), Y ∼ P o(λY ) voneinander unabhängig, so gilt
X + Y ∼ P o(λX + λY ).
Beachte, die Unabhängigkeit (genauer die Unkorreliertheit, siehe später) ist wesentlich. Hat man als
Extremfall, z.B. zwei Ereignisse bei denen das eine das andere voraussetzt (Scheidungen, Scheidungen
mit Streit um das Sorgerecht für Kinder), so ist die Gesamtzahl nicht mehr Poisson-verteilt.
Es muss gelten, wenn X + Y Poisson-verteilt wäre:
Var(X + Y ) = E(X + Y ) = E(X) + E(Y ) = Var(X) + Var(Y ),
was aber bei abhängigen (korrelierten) X und Y verletzt ist.
1 Wahrscheinlichkeitsrechnung
168
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Bsp. 1.61.
Max geht gerne auf Open-Air Festivals. Im Durchschnitt trifft er dort 6 weibliche Bekannte und 3
männliche Bekannte.
a) Wie groß ist die Wahrscheinlichkeit, dass er genau 6 weibliche Bekannte trifft?
b) Wie groß ist die Wahrscheinlichkeit, dass er mindestens einen männlichen Bekannten trifft?
c) Berechnen Sie die Wahrscheinlichkeit, das er weder einen männlichen noch eine weibliche Bekannte
trifft, auf 2 verschiedene Arten. Diskutieren Sie eventuell zu treffende Zusatzannahmen.
a) Sei X die Anzahl der getroffenen weiblichen Bekannten und Y die Anzahl der getroffenen
männlichen Bekannten.
Es gilt (bzw. es gelte)
X
∼
P o(6),
λX = 6
Y
∼
P o(3),
λY = 3
λxX −λX
66 −6
P (X = x) =
e
⇒ P (X = 6) = e = 0.1606
x!
6!
b) P ({Y ≥ 1}) = 1 − P ({Y = 0}). Also: P (Y ≥ 1) = 1 −
1 Wahrscheinlichkeitsrechnung
30 −3
0! e
= 1 − 0.0498 = 0.9502
169
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
c) Unter Unabhängigkeit von X und Y gilt:
Z = X + Y ∼ P o(λX + λY ),
also
(6 + 3)0 −(6+3)
P ({Z = 0}) =
e
= 0.0001
0!
Alternative Berechnung:
keinen Bekannten“ bedeutet {X = 0} ∩ {Y = 0}
”
P ({X = 0} ∩ {Y = 0})
unabh.
=
P ({X = 0}) · P ({Y = 0}) =
=
λ0X −λX λ0Y −λY
·
=
e
e
0!
0!
=
(λX + λY )0 −(λX +λY )
e
= ...
0!
Die Unabhängigkeitsannahme ist zentral, in dem Beispiel ist das Treffen eines männlichen und einer
weiblichen Bekannten nicht unabhängig, wenn man viele Pärchen kennt (und Pärchen gemeinsam
auf Open-Air Festivals gehen)
1 Wahrscheinlichkeitsrechnung
170
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
1.6.3 Normalverteilung
Die Normalverteilung ist wohl das wichtigste Verteilungsmodell der Statistik, denn
• viele Zufallsvariablen sind (nach Transformation) (ungefähr) normalverteilt.
• beim Zusammenwirken vieler zufälliger Einflüsse ist der geeignet aggregierte Gesamteffekt oft approximativ normalverteilt (Zentraler Grenzwertsatz, Kap. 1.7).
• die asymptotische Grenzverteilung, also die Verteilung bei unendlich großem Stichprobenumfang,
typischer statistischer Größen ist die Normalverteilung.
1 Wahrscheinlichkeitsrechnung
171
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Definition 1.62.
Eine stetige Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2, in Zeichen X ∼
N (µ, σ 2), wenn für ihre Dichte gilt:
1
f (x) = √
exp
2π · σ
1
2
− 2 (x − µ)
2σ
, x∈R
(1.2)
und standardnormalverteilt, in Zeichen X ∼ N (0; 1), falls µ = 0 und σ 2 = 1 gilt (π ist hier die
Kreiszahl π = 3.14 . . .).
1 Wahrscheinlichkeitsrechnung
172
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Grundlegende Eigenschaften:
a) Die Dichte der Standardnormalverteilung wird oft mit ϕ(x) bezeichnet, also
1
ϕ(x) = √
exp
2π
1 2
− x
2
und die zugehörige Verteilungsfunktion mit
x
Z
Φ(x) =
ϕ(u)du
−∞
b) Φ(x) lässt sich nicht in geschlossener Form durch bekannte Funktionen beschreiben =⇒ numerische
Berechnung, Tabellierung.
c) µ und σ 2 sind genau der Erwartungswert und die Varianz, also, wenn X ∼ N (µ, σ 2), dann
E(X) = µ
und
2
Var(X) = σ .
d) Die Dichte ist symmetrisch um µ, d.h.
f (µ − x)
1 Wahrscheinlichkeitsrechnung
=
f (µ + x) .
173
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Grundlegendes zum Rechnen mit Normalverteilungen:
• Es gilt:
Φ(−x) = 1 − Φ(x)
(folgt aus der Symmetrie der Dichte).
• Gilt X ∼ N (µ, σ 2), so ist die zugehörige standardisierte Zufallsvariable
Z=
•
•
•
•
X−µ
σ
standardnormalverteilt. Einfach zu zeigen: E(Z) = 0, Var(Z) = 1.
Andersherum: Ist Z ∼ N (0, 1), dann ist σZ + µ ∼ N (µ, σ 2)
Entscheidende Eigenschaft für die Tabellierung: Es reicht die Standardnormalverteilung zu tabellieren.
Normalverteilte Zufallsvariablen mit Erwartungswert µ und Varianz σ 2 muss man, wie unten erläutert,
zuerst standardisieren, dann kann man aber auch die Standardnormalverteilungstabelle verwenden.
Tabelliert sind die Werte der Verteilungsfunktion Φ(z) = P ({Z ≤ z}) für z ≥ 0.
Ablesebeispiel: Φ(1.75) = 0.9599
Funktionswerte für negative Argumente: Φ(−z) = 1 − Φ(z)
Die z -Quantile ergeben sich über die Umkehrfunktion.
Beispielsweise ist z0.9599 = 1.75 und z0.9750 = 1.96.
1 Wahrscheinlichkeitsrechnung
174
Statistik II für Studierende der Soziologie und Nebenfachstudierende
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
0.00
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.01
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9049
0.9207
0.9345
0.9463
0.9564
1 Wahrscheinlichkeitsrechnung
0.02
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.03
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
1.6 Wichtige Verteilungsmodelle
0.04
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.8264
0.8508
0.8729
0.8925
0.9099
0.9251
0.9382
0.9495
0.9591
0.05
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
0.8289
0.8531
0.8749
0.8944
0.9115
0.9265
0.9394
0.9505
0.9599
0.06
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
0.8315
0.8554
0.8770
0.8962
0.9131
0.9279
0.9406
0.9515
0.9608
0.07
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.08
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9429
0.9535
0.9625
0.09
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
175
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Berechnung bei allgemeiner Normalverteilung: Wie bestimmt man bei X ∼ N (µ, σ 2) die Wahrscheinlichkeiten P ({X ≤ a}) aus der Tabelle der Standardnormalverteilung?
• Zentrale Idee: X zu standardnormalverteilter Zufallsvariable umformen, d.h. standardisieren.
• Dabei muss die rechte Seite analog mit transformiert werden:
{X ≤ a}
⇔
⇔
{X − µ ≤ a − µ}
a−µ
X−µ
≤
σ
σ
das heißt
P ({X ≤ a}) = P
X−µ
a−µ
≤
σ
σ
.
Wegen
X−µ
∼ N (0, 1)
σ
gilt dann
P
1 Wahrscheinlichkeitsrechnung
X−µ
a−µ
≤
σ
σ
=Φ
a−µ
σ
,
176
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
so dass sich der folgende Zusammenhang ergibt:
P ({X ≤ a}) = Φ
a−µ
σ
.
Ist a < µ, also a − µ < 0, so muss man vor dem Benutzen der Tabelle noch folgendes ausnutzen:
a−µ
a−µ
µ−a
Φ
=1−Φ −
=1−Φ
σ
σ
σ
1 Wahrscheinlichkeitsrechnung
177
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Abgeschlossenheit gegenüber Linearkombinationen: Seien X1 und X2 unabhängig und Xi ∼
N (µi, σi2), i = 1, 2. Ferner seien b, a1, a2 feste reelle Zahlen. Dann gilt
2
2
Y1
:=
a1X1 + b ∼ N (a1µ1 + b; a1σ1 )
Y2
:=
a1X1 + a2X2 ∼ N (a1µ1 + a2µ2; a1σ1 + a2σ2 ).
2
2
2
2
Das Ergebnis lässt sich auf mehrere Summanden verallgemeinern.
1 Wahrscheinlichkeitsrechnung
178
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Bsp. 1.63. [aus Fahrmeir et al.]
•
Schultischhöhe:
Stuhlhöhe:
Y
X
∼
∼
N (µY , σY2 ) ,
2
N (µX , σX
),
µY = 113 ,
µX = 83 ,
σY2 = 16
2
σX
= 25
• optimale Sitzposition: Tisch zwischen 27 und 29 cm höher als Stuhl.
• Wie groß ist die Wahrscheinlichkeit, dass ein zufällig ausgewähltes Paar zueinander gut passt?
Differenz: Y − X soll zwischen [27, 29] sein.
Definiere also
V := Y − X = Y + (−X)
Wegen −X ∼ N (−83, 25) gilt dann
V ∼ N (113 − 83, 16 + 25) = N (30, 41).
Außerdem ergibt sich durch Standardisieren:
27 ≤ V ≤ 29
1 Wahrscheinlichkeitsrechnung
⇔
27 − 30 ≤ V − 30 ≤ 29 − 30
⇔
27 − 30
V − 30
29 − 30
≤ √
≤ √
√
41
41
41
179
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.6 Wichtige Verteilungsmodelle
Damit lässt sich die gesuchte Wahrscheinlichkeit bestimmen:
P (27 ≤ V ≤ 29)
1 Wahrscheinlichkeitsrechnung
V − 30
≤ −0.156) =
√
41
=
P (−0.469 ≤
=
Φ(−0.156) − Φ(−0.469) =
=
(1 − Φ(0.156)) − (1 − Φ(0.469)) =
=
−0.5636 + 0.6808 = 0.1172
180
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
1.7 Grenzwertsätze und Approximationen
Gerade in der Soziologie beobachtet man häufig große Stichprobenumfänge.
• Was ist das Besondere daran?
• Vereinfacht sich etwas und wenn ja was?
• Kann man Wahrscheinlichkeitsgesetzmäßigkeiten“ durch Betrachten vielfacher Wiederholungen er”
kennen?
1 Wahrscheinlichkeitsrechnung
181
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
1.7.1 Das i.i.d.-Modell
Betrachtet werden diskrete oder stetige Zufallsvariablen X1, . . . , Xn, die i.i.d. (independently, identically
distributed) sind, d.h. die
1) unabhängig sind und
2) die gleiche Verteilung besitzen.
Ferner sollen der Erwartungswert µ und die Varianz σ 2 existieren. Die Verteilungsfunktion werde mit F
bezeichnet.
Dies bildet insbesondere die Situation ab in der X1, . . . , Xn eine Stichprobe eines Merkmals X̃ bei
reiner Zufallsauswahl sind.
1 Wahrscheinlichkeitsrechnung
182
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Jede Funktion von X1, . . . , Xn ist wieder eine Zufallsvariable, z.B. das arithmetische Mittel oder die
Stichprobenvarianz
n
n
1X
1X
2
2
Xi
S̃ =
(Xi − X̄)
n i=1
n i=1
Vor dem Ziehen der Stichprobe: Wahrscheinlichkeitsaussagen möglich =⇒ Wahrscheinlichkeitsrechnung
anwenden
• Gerade bei diesen Zufallsgrößen ist die Abhängigkeit von n oft wichtig, man schreibt dann X̄n, S̃n2
• Sind X1, . . . , Xn jeweils {0, 1}-Variablen, so ist X̄n gerade die empirische relative Häufigkeit von
Einsen in der Stichprobe vom Umfang n. Notation: Hn
1 Wahrscheinlichkeitsrechnung
183
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
später:
Induktionsschluss
Durchführen eines Zufallsexperiments // Ziehen einer Stichprobe
?
IMMER Wahrheit “
”
?
S−planung
→
VORHER
Wahre Urliste
x
f
g
1 , ..., x
N
Zufallsvariablen
X1 , . . . , Xn
eines Merkmals
(z.B. Xi Einkommen der i-ten Person)
¯
x
e
arithmetisches Mittel
in der Grundgesamtheit
f
s2
e
X
Varianz in
der Grundgesamtheit
F (x)
empirische Verteilungsfunktion
in der Grundgesamtheit
1
arithmetisches Mittel
der Stichprobe
1 Pn X
X = n
i=1 i
NACHHER
W sktsrechn.
−→
S−ziehung
←→
Realisationen
x , . . . , xn
}
| 1 {z
neue Urliste
⇓
Auswertung, z.B.
arithmetisches Mittel
der Stichprobe
1 Pn x
x̄ = n
i=1 i
Stichprobenvarianz
2
1 Pn (X − X)2
e
S = n
i=1 i
←→
empirische Varianz1
1 Pn (x − x̄)2
s̃2 = n
i=1 i
empirische Verteilungsfunktion als
Zufallsvariable in jedem Punkt x
X1 ,...,Xn
1 |{i : X ≤ x}|
Fn
(x) = n
i
←→
empirische Verteilungsfunktion
X ,...,Xn
1 |{i : x ≤ x}|
Fn 1
(x) = n
i
Gehört nicht zur Grundgesamtheit; hier e“ für empirische Version
”
1 Wahrscheinlichkeitsrechnung
184
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
1.7.2 Das schwache Gesetz der großen Zahlen
Betrachte für wachsenden Stichprobenumfang n:
• X1, . . . , Xn i.i.d.
• Xi ∈ {0, 1} binäre Variablen mit π = P (Xi = 1)
• Hn = die relative Häufigkeit der Einsen in den ersten n Versuchen.
1 Wahrscheinlichkeitsrechnung
185
svariable!
Figur
beschreiben:
fallsvariable!
Figur
beschreiben:
500 1000
10001500
0.7
0.7
0.6
0.7
0.7
1 Wahrscheinlichkeitsrechnung
0.4
0.5
s[1:i]
0.3
1:i
500
1000
1500
0.7
s[1:i]
0.4
0.4
0.3
0.3
0.4
1500
4000
2000
6000
4000
500
1000
1500
8000
6000
10000
8000
10000
0.3
2000
0
1:i
0
0.5
0.6
0.6
0.5
s[1:i]
s[1:i]
s[1:i]
0
3500
10001500
1:i
1500
0.7
0.7
0.3
0.6
0.6
0.4
0.3
0
0.6
0.7
0.7
0.6
0.5
s[1:i]
0.5
s[1:i]
1:i
1000 1500
1:i
0.4
500 1000
1:i
500 1000
1:i
1:i
0 500
1:i
0.7
0.7
0.7
0.3
0.5
0.6
0.3
0.4
1500
0.7
1:i
500
0.3
10001500
1000 500
1500 1000
2000 1500
2500 2000
3000 2500
3500 3000
0
0
1500
0.4
0.5
s[1:i]
s[1:i]
0.4
0.5
s[1:i]
0.6
0.6
0.7
0.7
0.60.7
0.50.6
s[1:i]
0.7
0.6
500
0.3
0
0
1:i
2000
2500
3000
3500
1:i
0.7
1:i
0.6
0.5
s[1:i]
s[1:i]
0.4
0.3
0.4
0.3
1500
0.5
0.4
0.6
s[1:i]
0.3
1000
1:i
0 500
0.40.5
s[1:i]
0.30.4
0.7
0.7
0.5
0.6
s[1:i]
s[1:i]
0.4
0.5
500
500 1000
1:i
0.3
0.4
0.3
0
0
1500
1:i
0 500
1:i
0.6
0.7
0.7
0.6
0.5
0.4
s[1:i]
0
1500
1:i
1000 1500
0.5
0.6
10001500
500 1000
0.3
500 1000
1:i
0
0 500
1:i
0 500
1500
0
0.4
0.5
1500
0.5
0
1000
0.3
0.3
500
1.7 Grenzwertsätze und Approximationen
0.7
0.7
0.6
0.4
0.3
0.3
0.4
0
0.3
1500
0.5
s[1:i]
0.5
0.6
s[1:i]
s[1:i]
0.4
0.5
0.5
0.4
s[1:i]
0.6
0.6
0.7
0.7
0.7
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1:i
186
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Beobachtungen:
1. Am Anfang sehr unterschiedlicher, unregelmäßiger Verlauf der Pfade.
2. Mit wachsendem n pendeln sich die Pfade immer stärker um π herum ein, d.h. mit wachsendem Stichprobenumfang konvergiert die relative Häufigkeiten eines Ereignisses gegen seine
Wahrscheinlichkeit.
3. Formalisierung von 2.: Legt man sehr kleine Korridore/Intervalle um π , so ist bei sehr großem n der
Wert von Hn fast sicher in diesem Korridor.
Das Ereignis Die relative Häufigkeit Hn liegt im Intervall der Breite 2 um π lässt sich schreiben
”
”
als:
π−ε≤
−ε ≤
1 Wahrscheinlichkeitsrechnung
Hn
≤π+ε
Hn − π
≤ε
|Hn − π|
≤ε
187
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Theorem 1.64. [Theorem von Bernoulli]
Seien X1, . . . , Xn, i.i.d. mit Xi ∈ {0, 1} und P (Xi = 1) = π . Dann gilt für
n
1X
Hn =
Xi
n i=1
(relative Häufigkeit der Einsen“) und beliebig kleines > 0
”
lim P (|Hn − π| ≤ ) = 1
n→∞
Anschauliche Interpretation: Die relative Häufigkeit eines Ereignisses nähert sich praktisch sicher mit
wachsender Versuchszahl an die Wahrscheinlichkeit des Ereignisses an.
1 Wahrscheinlichkeitsrechnung
188
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Zwei wichtige Konsequenzen:
1) Häufigkeitsinterpretation von Wahrscheinlichkeiten:
P (A), die Wahrscheinlichkeit eines Ereignisses A, kann man sich vorstellen als Grenzwert der relativen
Häufigkeit des Eintretens von A in einer unendlichen Versuchsreihe identischer Wiederholungen eines
Zufallsexperiments.
2) Induktion: Man kann dieses Ergebnis nutzen, um Information über eine unbekannte Wahrscheinlichkeit
(π =
ˆ Anteil in einer Grundgesamtheit) zu erhalten.
Sei z.B. π der (unbekannte) Anteil der SPD Wähler, so ist die relative Häufigkeit in der Stichprobe
eine gute Schätzung für π“. Je größer die Stichprobe ist, umso größer ist die Wahrscheinlichkeit,
”
dass die relative Häufigkeit sehr nahe beim wahren Anteil π ist.
1 Wahrscheinlichkeitsrechnung
189
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Das Ergebnis lässt sich verallgemeinern auf Mittelwerte beliebiger Zufallsvariablen:
Schwaches Gesetz der großen Zahl: Gegeben seien X1, . . . , Xn i.i.d. Zufallsvariablen mit (existierendem) Erwartungswert µ und (existierender) Varianz σ 2. Dann gilt für
n
1X
X̄n :=
Xi
n i=1
und beliebiges > 0:
lim P (|X̄n − µ| ≤ ) = 1
n→∞
Schreibweise:
P
X̄n −→ µ
( Stochastische Konvergenz“, Xn konvergiert in Wahrscheinlichkeit gegen µ“.)
”
”
Schwaches Gesetz“: Kommt daher, dass es auch ein starkes Gesetz“ gibt. Dort wird eine stärkere
”
”
Form der Konvergenz betrachtet, welche im Prinzip fordert, dass die Folge nicht nur fast sicher in den
Intervallen liegt, sonder praktisch sicher einen entsprechenden Tunnel nie mehr verlässt.
Konsequenz für die Interpretation des Erwartungswerts:
µ kann in der Tat interpretiert werden als Durchschnittswert in einer unendlichen Folge von
Wiederholungen des Zufallsexperiments.
1 Wahrscheinlichkeitsrechnung
190
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
1.7.3 Der Hauptsatz der Statistik
Jetzt betrachten wir die empirische Verteilungsfunktion: In jedem Punkt x ist Fn(x) vor der Stichprobe
eine Zufallsvariable, also ist Fn eine zufällige Funktion
Bsp.: Realisation von Fn(4) bei n = 3
bei Realisation der Stichprobe 1, 3, 7:
1
⇒
F3(4) =
3
2
3
1 Wahrscheinlichkeitsrechnung
4
bei Realisation der Stichprobe 5, 6, 8:
4
7
⇒
5
6
8
F3(4) = 0
191
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Jetzt vergleiche die empirische Verteilungsfunktion Fn(x) und die wahre Verteilungsfunktion F (x):
Für jeden einzelnen Punkt x0 gilt nach dem schwachen Gesetz der großen Zahl
n
1X
P
Fn(x0) =
1(Xi ≤ x0) −→ P (X ≤ x0) = F (x0).
n i=1
Jetzt globale“ Sicht: Was passiert wenn man die ganze Funktion auf einmal betrachtet?
”
d
4
5
6
8
Wie vergleicht man die zufällige Funktion Fn(x) mit der Funktion F (x)? Der Abstand hängt ja von
dem Punkt x ab, in dem gemessen wird!
1 Wahrscheinlichkeitsrechnung
192
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Idee: Maximaler Abstand
X1 ,...,Xn
(x)
max |Fn
x ∈R
− F (x)|
Existiert nicht immer; formal muss man das sogenannte Supremum betrachten. Trotzdem so merken:
Wenn maximaler Abstand klein, dann Abstand überall klein!
Satz 1.65. [Hauptsatz der Statistik]
Seien X1, . . . , Xn i.i.d. mit Verteilungsfunktion F und sei Fn(x) die empirische Verteilungsfunktion
der ersten n Beobachtungen. Mit
Dn := sup |Fn(x) − F (x)|,
x
gilt für jedes c > 0
lim P (Dn > c) = 0.
n→∞
1 Wahrscheinlichkeitsrechnung
193
4
−4
−2
0
sort(x)
1 Wahrscheinlichkeitsrechnung
2
4
−4
0.6
−4 −2
−2 0
sort(x)
0 2
sort(x)
2 4
4
−3
0.4
0.6
0.8
1.0
4
0.2
sort(x)
function(x) pnorm(x, 0, 1) (x)
1.0
sort(x)
42
0.8
20
0.6
sort(x)
−2
0
0.4
1.0
−4
−2
0.2
0.8
−4
0.0
0.0
0.4
1.0
4
function(x) pnorm(x, 0, 1) (x)
0.2
0.8
1.0
24
(1:lx)/lx
0.8
sort(x)
02
0.6
(1:lx)/lx
0.6
−20
0.4
0.4
−4−2
0.0
0.2
0.2
−4
0.0
0.0
(1:lx)/lx
0.0
0.0
0.0
0.0
0.0
0.2
0.2
0.2
0.2
0.2
0.6
0.6
0.6
(1:lx)/lx
0.4
(1:lx)/lx
0.6
(1:lx)/lx
0.4
0.4
(1:lx)/lx
0.6
(1:lx)/lx
0.4
0.4
(1:lx)/lx
0.8
0.8
0.8
0.8
0.8
1.0
1.0
1.0
1.0
1.0
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Interpretation:
−4
−2
−2 −3
0
−1 −2
0 −1
x
2
1
0
2
4
sort(x)
Normal CDF
Normal CDF
1
3
2
3
x
194
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
1.7.4 Der zentrale Grenzwertsatz
• Gibt es für große Stichprobenumfänge Regelmäßigkeiten im Verteilungstyp?
• Gibt es eine Standardverteilung, mit der man oft bei großen empirischen Untersuchungen rechnen
kann?
Damit kann man dann insbesondere Fehlermengen einheitlich behandeln.
1 Wahrscheinlichkeitsrechnung
195
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Satz 1.66. [Zentraler Grenzwertsatz]
Seien X1, . . . , Xn i.i.d. mit E(Xi) = µ und Var(Xi) = σ 2 > 0 sowie
n
1 X
Zn = √
n i=1
Xi − µ
σ
.
a
Dann gilt: Zn ist asymptotisch standardnormalverteilt, in Zeichen: Zn ∼ N (0; 1), d.h. es gilt für jedes
z
lim P ({Zn ≤ z}) = Φ(z).
n→∞
Für die Eingangsfragen gilt also:
• Ja, wenn man die Variablen geeignet mittelt und standardisiert, dann kann man bei großem n
näherungsweise mit der Normalverteilung rechnen. Dabei ist für festes n die Approximation umso
besser, je symmetrischer“ die ursprüngliche Verteilung ist.
”
1 Wahrscheinlichkeitsrechnung
196
4
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Histogram of res
Histogram of res
3
1
2
1 Wahrscheinlichkeitsrechnung
0.4
0.4
2
2
4
0.3
0.1
0.0
−4
4
2
4
−2
res
0.4
0.4
0.3
Density
0.1
0.0
−2 0
res
02
res
2
4
Histogram of res
Histogram of res
0.1
−4 −2
0
res
0.0
−4
24
4
0.2
Density
0.1
0.0
0
0.2
Density
0.0
res
0
0.3
0.4
Density
0.1
0.2
0.3
0.4
0.3
0.2
0
0.2
Density
−2
Histogram of res
Histogram of res
0.1
Density
−2
res
0.0
−2
−4
res
Histogram of res
−4
0.3
0.4
0.3
0.1
0.0
−4
3
0.4
2
0.3
0
0.2
res
1
0.1
0
−1
0.0
−1
−2
Density
−2
−3
0.2
−3
−4
Histogram of res
0.2
0.2
0.1
0.0
0.1
0.0
0.0
−4
Density
Density
0.3
0.3
0.2
Density
0.2
0.1
Density
0.3
0.4
Histogram of res
Histogram of res
−4
−2−4
0−2
20
res
4 2
6 4
6
res
197
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Anwendung des zentralen Grenzwertsatz auf X̄ :
Gemäß dem Gesetz der großen Zahlen weiß man: X̄n −→ µ
Für die Praxis ist es aber zudem wichtig, die konkreten Abweichungen bei großem aber endlichem n zu
quantifizieren, etwa zur Beantwortung folgender Fragen:
• Gegeben eine Fehlermarge ε und Stichprobenumfang n: Wie groß ist die Wahrscheinlichkeit, dass X̄
höchstens um ε von µ abweicht?
• Gegeben eine Fehlermarge ε und eine Sicherheitswahrscheinlichkeit“ γ : Wie groß muss man n
”
mindestens wählen, damit mit mindestens Wahrscheinlichkeit γ das Stichprobenmittel höchstens um
ε von µ abweicht (Stichprobenplanung)?
Aus dem zentralen Grenzwertsatz folgt:
n 1 X Xi − µ
√
n i=1
σ
Pn
=
=
1 Wahrscheinlichkeitsrechnung
Xi − nµ
√
n·σ
i=1
nX̄n − nµ
X̄n − µ a
=
√
√ ∼ N (0, 1)
n·σ
σ/ n
198
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Wichtige Anwendung: Approximation der Binomialverteilung
Sei X ∼ B(n, π). Kann man die Verteilung von X approximieren?
Hier hat man zunächst nur ein X . Der zentrale Grenzwertsatz gilt aber für eine Summe vieler Glieder.
Idee: Schreibe X als Summe von binären Zufallsvariablen.
X ist die Anzahl der Treffer in einer i.i.d. Folge Y1, . . . , Yn von Einzelversuchen, wobei

1 Treffer
Yi =
0 kein Treffer
Die Yi sind i.i.d. Zufallsvariablen mit Yi ∼ B(1, π) und es gilt
X =
n
X
Yi ,
E(Yi) = π,
Var(Yi) = π · (1 − π).
i=1
1 Wahrscheinlichkeitsrechnung
199
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Damit lässt sich der zentrale Grenzwertsatz anwenden:
!
P
n
1 X
Yi − π
1
Yi − n · π
= √ p
p
√
n i=1
n
π(1 − π)
π(1 − π)
P
Yi − n · π a
= p
∼ N (0, 1)
n · π(1 − π)
und damit
X − E(X) a
∼ N (0, 1)
p
Var(X)
so dass
P (X ≤ x) ≈ Φ
x−n·π
p
!
n · π(1 − π)
falls n groß genug.
Es gibt verschiedene Faustregeln, ab wann diese Approximation gut ist, z.B.
n · π ≥ 5 und n · (1 − π) ≥ 5
n · π(1 − π) ≥ 9
1 Wahrscheinlichkeitsrechnung
200
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Fiktives Beispiel: Ein Politiker ist von einer gewissen umstrittenen Maßnahme überzeugt und überlegt,
ob es taktisch geschickt ist, zur Unterstützung der Argumentation eine Mitgliederbefragung zu dem
Thema durchzuführen. Er wählt dazu 200 Mitglieder zufällig aus und beschließt, eine Mitgliederbefragung
zu riskieren“, falls er in der Stichprobe mindestens 52% Zustimmung erhält.
”
Wie groß ist die Wahrscheinlichkeit, in der Stichprobe mindestens 52% Zustimmung zu erhalten, obwohl
der wahre Anteil nur 48% beträgt?
• X Anzahl der Ja-Stimmen
• X ja/nein ⇒ Binomialmodell
• X ∼ B(n, π) mit n = 200 und π = 48%
• n · π = 96 und n · (1 − π) = 104: Faustregel erfüllt, die Normalapproximation darf also angewendet
werden.
1 Wahrscheinlichkeitsrechnung
201
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.7 Grenzwertsätze und Approximationen
Gesucht: W’keit dass mind. 52%, also 104 Mitglieder, zustimmen, d.h.
P (X ≥ 104)
1 Wahrscheinlichkeitsrechnung
=
1 − P (X < 104)
=
1 − Φ( p
=
1 − Φ(1.13)
=
1 − 0.871241 = 12.87%
104 − 200 · 0.48
200 · 0.48(1 − 0.48)
)
202
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
1.8 Mehrdimensionale Zufallsvariablen
Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen.
Vorstellung: Auswerten eines mehrdimensionalen Merkmals
X X :Ω→
Y
Y
Das Hauptinteresse gilt (entsprechend der Kontingenztafel in Statistik I) der gemeinsamen Verteilung
P ({X = xi} ∩ {Y = yj })
1 Wahrscheinlichkeitsrechnung
203
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Definition 1.67.
Betrachtet werden zwei eindimensionale diskrete Zufallselemente X und Y (zu demselben Zufallsexperiment). Die Wahrscheinlichkeit
P (X = xi, Y = yj ) := P ({X = xi} ∩ {Y = yj })
in Abhängigkeit von xi und yj heißt gemeinsame Verteilung der mehrdimensionalen Zufallsvariable
bzw. der Variablen X und Y .
X
Y
Randwahrscheinlichkeiten:
pi•
=
P (X = xi) =
m
X
P (X = xi, Y = yj )
j=1
p•j
=
P (Y = yj ) =
k
X
P (X = xi, Y = yj )
i=1
1 Wahrscheinlichkeitsrechnung
204
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Bedingte Verteilungen:
P (X = xi|Y = yj )
=
P (X = xi, Y = yj )
P (Y = yj )
P (Y = yj |X = xi)
=
P (X = xi, Y = yj )
P (X = xi)
Stetiger Fall (nicht klausurrelevant): Zufallsvariable mit zweidimensionaler Dichtefunktion f (x, y):
b
Z
P (a ≤ X ≤ b, c ≤ Y ≤ d) =
f (x, y)dy
a
1 Wahrscheinlichkeitsrechnung
!
d
Z
dx
c
205
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Definition 1.68.
Seien X und Y zwei Zufallsvariablen. Dann heißt
σX,Y := Cov(X, Y ) = E((X − E(X))(Y − E(Y )))
Kovarianz von X und Y .
Rechenregeln:
•
•
•
•
Cov(X, X) = Var(X)
Cov(X, Y ) = E(XY ) − E(X) · E(Y )
Cov(X, Y ) = Cov(Y, X)
Mit X̃ = aX X + bX und Ỹ = aY Y + bY ist
Cov(X̃, Ỹ ) = aX · aY · Cov(X, Y )
• Var(X + Y ) = Var(X) + Var(Y ) + 2 · Cov(X, Y )
Definition 1.69.
Zwei Zufallsvariablen X und Y mit Cov(X, Y ) = 0 heißen unkorreliert.
1 Wahrscheinlichkeitsrechnung
206
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Satz 1.70.
Stochastisch unabhängige Zufallsvariablen sind unkorreliert. Die Umkehrung gilt jedoch im allgemeinen
nicht.
Vergleiche Statistik I: Kovarianz misst nur lineare Zusammenhänge.
Definition 1.71.
Gegeben seien zwei Zufallsvariablen X und Y . Dann heißt
ρ(X, Y ) = p
Cov(X, Y )
p
Var(X) Var(Y )
Korrelationskoeffizient von X und Y .
1 Wahrscheinlichkeitsrechnung
207
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Eigenschaften des Korrelationskoeffizienten:
• Mit X̃ = aX X + bX und Ỹ = aY Y + bY ist
|ρ(X̃, Ỹ )| = |ρ(X, Y )|.
• −1 ≤ ρ(X, Y ) ≤ 1.
• |ρ(X, Y )| = 1 ⇐⇒ Y = aX + b
• Sind Var(X) > 0 und Var(Y ) > 0, so gilt ρ(X, Y ) = 0 genau dann, wenn Cov(X, Y ) = 0.
1 Wahrscheinlichkeitsrechnung
208
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
Bsp. 1.72. [Chuckk-a-Luck:]
X1 Gewinn, wenn beim ersten Wurf ein Einsatz auf 1 gesetzt wird.
X6 Gewinn, wenn beim ersten Wurf ein Einsatz auf 6 gesetzt wird.
Kovarianz zwischen X1 und X6:
1 Wahrscheinlichkeitsrechnung
209
Statistik II für Studierende der Soziologie und Nebenfachstudierende
1.8 Mehrdimensionale Zufallsvariablen
(x1, x6)
P (X1 = x1, X6 = x6)
(x1, x6)
P (X1 = x1, X6 = x6)
(−1, −1)
64
216
(−1, 3)
1
216
(−1, 1)
48
216
(3, −1)
1
216
(1, −1)
48
216
(1, 1)
24
216
(−1, 2)
12
216
(1, 2)
3
216
(2, −1)
12
216
(2, 1)
3
216
⇒
E(X1 · X6)
=
−50/216 = −0.23148
Cov(X1, X6)
=
−0.23148 − (−0.0787) · (−0.0787) = −0.23768
1 Wahrscheinlichkeitsrechnung
210
Herunterladen