Dies ist kein Skript

Werbung
1.3 Zufallsvariable und Verteilungen
1.3.1 Zufallsvariable und Verteilungen – Definitionen
Zufallsvariable:
Ein zahlenmäßiges Merkmal für die Ausgänge von Zufallsvorgängen
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 83
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
Beispiele:
- X = Zahl der verkauften Zeitungen an einem Kiosk (Wertebereich N0)
Realisierungen z. B. x1=79, x2=32, ….
- Y = Stand des DAX bei Börsenschluss am Tag t (Wertebereich R+)
y1=4016,2, y2=3994,71, ….
- Z = Anzahl der Sechsen bei 10-maligem Würfeln (Wertebereich = {0, ...,10})
z1=1, z2=8, ….
Weitere??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 84
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
Definitionen:
X sei eine auf einem Ereignisraum 6 definierte reellwertige Funktion
( jedem Elementarereignis E wird eine reelle Zahl x= X(E) zugeordnet).
Diese Funktion X heißt Zufallsvariable
Der Zahlenwert x = X(E) für ein konkretes Elementarereignis E heißt ........................ von X
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 85
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
Noch Definitionen:
abcd
Eine monotone Funktion F mit
lim F( x) = 0
x → −∞
lim F( x) = 1
x→ ∞
heißt Verteilungsfunktion von X
Interpretation der Verteilungsfunktion: F(x) = P(X ........ x)
das bedeutet??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 86
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
Beispiel 1: (Würfel)
X = Augenzahl
Wahrscheinlichkeitsfunktion
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
1
2
3
4
5
6
7
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 87
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
noch Beispiel 1: (Würfel)
abcd
Verteilungsfunktion
1,00002
0,83335
0,66668
0,50001
0,33334
0,16667
0
0
1
2
3
4
5
6
7
z. B. F(5) = P(X 5) = ........./........ 0,8333
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 88
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
Beispiel 2:
Arbeitsgang auf Maschine dauert 10 Minuten
X = Zeit, die ein zufällig eintreffender Mechaniker bis zum Ende des
Arbeitsgangs warten muss.
für x < 0
⎧0
⎪
F( x) = ⎨ x/......... für 0 ≤ x ≤ 10
⎪1
für
x > 10
⎩
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 89
1.3.1 Zufallsvariable u. Verteilungen – Definitionen
noch Beispiel 2:
Verteilungsfunktion
P(X = 8.324) = 0
1
1
1
0,8324
0 0
-1
P(X<8.324) =
F(8.324)=0.8324
0
0
1
2
3
4
5
6
7
8
9
10
11
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 90
1.3.2 Verteilungen diskreter Zufallsvariablen
Diskrete ZV: Wertebereich endlich oder abzählbar unendlich
Beispiele: X = Augenzahl beim Würfeln
A = Zahl der Aufträge, die am Tag in einer Firma eingehen
Wahrscheinlichkeitsfunktion:
pi = p(xi) = P(X = xi)
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 91
1.3.2 Verteilungen diskreter Zufallsvariablen
Als Verteilungstabelle:
x1
x2
x3
. . . . . . . . .xi
...
p1
p2
p3
. . . . . . . . .pi
...
Verteilungsfunktion:
F( x) = ∑ pi
xi ≤ x
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 92
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiele
a) Würfel
pi = 1/6
i=1,2, ... 6
Augen xi
0
1
2
3
4
5
6
7
Wahrscheinlichkeit pi
0
1/6
1/6
1/6
1/6
1/6
1/6
0
Wahrscheinlichkeit F(xi)
0
1/6
2/6
3/6
4/6
5/6
6/6
1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 93
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiele
abcd
b) Anzahl der Aufträge:
ai
0
1
2
3
4
...
P(A = ai)
0,0005
0.001
0.003
0.006
0.007
...
F(ai)
0.0005
0.0015
...
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 94
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiele
c) Y=Anzahl der Jungen bei 3 Kindern
abcd
yi
0
1
2
3
4
pi = p(yi) 1/8
3/8
3/8
1/8
0
F(yi)
1/8
4/8
7/8
8/8
1
Rechnung:
??
Möglichkeiten insgesamt:
Variationen von zwei Elementen (m,w) zur Ordnung 3 mit Wiederholungen:
Vw (2,3) = 23 = 8
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 95
1.3.2 Verteilungen diskreter Zufallsvariablen
Berechnung z. B. für y2 =1:
mww
wmw
w w m d.h.
p2 =3/ 8
P
Wahrscheinlichkeitsfunktion
3/8
t
p
i
r
Sk
1/8
0
1
2
D
Prof. Dr. H. G. Strohe
Statistik II
3i s
s
ie
n
i
e
tk Y
I. 96
1.3.2 Verteilungen diskreter Zufallsvariablen
1
Verteilungsfunktion:
4/8
1/8
0
1
2
3
D
Prof. Dr. H. G. Strohe
Statistik II
4
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 97
1.3.2 Verteilungen diskreter Zufallsvariablen
Erwartungswert:
n
E ( X ) = ∑xi pi
i =1
Beispiele:
a)
Würfel
E (X) = 1#1/6+2#1/6+3#1/6+4#1/6+5#1/6+6#1/6 = .................
b)
Zahl der Jungen unter 3 Kindern
E(Y) = 0#1/8 +1#3/8 + 2#3/8 +3#1/8 = 1.5
D
Interpretation?
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 98
1.3.2 Verteilungen diskreter Zufallsvariablen
Varianz:
Var( X ) = E[{ X - .........}² ]
Die erwartete quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert E(X)
n
Var( X ) = σ x = ∑ ( xi − E( X ))2 pi
2
i =1
Standardabweichung:
σ x = Var ( X )
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 99
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel (Würfel):
= 2.52 # 1/6 + 1.52 # 1/6 + 0.52 # 1/6 + 0.5² #1/6 + 1.52 # 1/6 + 2.52 # 1/6
Var(X)
= 2.91667 =
X
2
X
= 1.708
Interpretation?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 100
1.3.2 Verteilungen diskreter Zufallsvariablen
Unabhängigkeit zweier Zufallsvariablen
X
mit Verteilungsfunktion
Fx (x ) = P(X ≤ x )
Y
mit Verteilungsfunktion
Fy (y ) = P(Y ≤ y )
X und Y sind voneinander unabhängig, wenn
für alle x,y gilt:
P((X ≤ x )∩ (Y ≤ y )) = Fx (x ).Fy (y )
Aussage der Formel??
Vgl. Unabhängigkeit von Merkmalen in Statistik I
Beispiele??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 101
1.3.2 Verteilungen diskreter Zufallsvariablen
Rechenregeln für Erwartungswert und Varianz:
E 1:
Hat X nur einen Wert x1 dann
P(X=x1) = ?? und E(X) = ??
E 2:
E(aX) = ...........E(X)
E 3:
E(X+Y) = E(X) + ...........
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 102
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel:
Y = Augenzahl mit 2 Würfeln
E(Y) = E(X1+X2)=3,5+3,5=7
Wichtig: E(X+c) = ??
E 4.
Wenn X, Y unabhängig,
dann E(X#Y) = E(X) # ..............
warum??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 103
1.3.2 Verteilungen diskreter Zufallsvariablen
V 1.
Hat X nur einen Wert, dann ist Var (X)=.............
V 2.
E[( X − c) 2 ] ≥ E[( X − µ)²] = Var( X ), wobei µ = E( X )
V 3.
Var(aX) = a2 Var(X)
V 4.
Var(X+b) = ...............
V 5.
Var(X±Y) = Var(X)+Var(Y) ± 2(E(X#Y)-E(X)#E(Y)) = Var(X)+Var(Y) ± 2 Cov(X,Y)
V 6.
Var(X) = E(X²)-[E(X)]².
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 104
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiele:
a)
X = Augenzahl beim Würfeln
(V6)
b)
Var(X) = 91/6 - 3.5² = 2,91667
Y = Augenzahl mit 2 Würfeln
(V5)
Var(Y) = Var(X1+X2) = 2,9167+2,9167 = 5,8334
Warum?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 105
1.3.2 Verteilungen diskreter Zufallsvariablen
Spezielle diskrete Verteilungen
1. Gleichverteilung
Alle Werte der Zufallsvariablen haben die gleiche Wahrscheinlichkeit.
1 n
E( X ) = ∑ xm = x
n m=1
1 n
Var( X ) = E(( X − x )²) = ∑ ( xm − x )²
n m=1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 106
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel:
Augenzahl beim Würfeln
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
1
2
3
4
5
6
7
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 107
1.3.2 Verteilungen diskreter Zufallsvariablen
2. Zweipunktverteilung (Bernoulli)
Zufallsvariable X mit Wertebereich {a, b}
P(X=b) = p;
P(X=a) = ............
0
1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 108
1.3.2 Verteilungen diskreter Zufallsvariablen
Häufig verwendetes Modell:
xi
a = 0, b = 1
0
1
1-p
p
1
xi pi
0
p
p
xi2 pi
0
p
p
pi = p(xi)
Summe
E(X) = 0 # (1-p) + 1# p
E(X) = .............
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 109
1.3.2 Verteilungen diskreter Zufallsvariablen
Var(X) = (xi2pi - [E(X)]2
= [0 # (1-p) + 1p] - p2 = p - p2
Var(X) = p(1-p)
z. B.
p=0.8
E(X) = 0.8
Var(X) = 0.8 # 0.2 = 0.16
) = 0.4
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 110
1.3.2 Verteilungen diskreter Zufallsvariablen
3. Binomialverteilung
X gibt an, wie oft ein Ereignis A mit P(A)= p bei n unabhängigen Wiederholungen des
Versuches eintritt.
Wahrscheinlichkeit, dass genau m-mal das Ereignis A eintritt:
b(m; n; p ) = P( X = m)
⎛n ⎞
= ⎜ ⎟ p m ⋅ (1 − p ) n−m
⎝ m⎠
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 111
1.3.2 Verteilungen diskreter Zufallsvariablen
X ist Summe von n unabhängigen Xi mit 0/1-Zweipunktverteilung
Also E(X) = np; Var(X) = np(1-p)
Warum?
Verteilungsfunktion:
B( x; n; p ) = P( X ≤ x ) =
∑ b(m; n; p)
m≤ x
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 112
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel a)
X = Zahl der Jungen bei 3 Kindern
Vereinfachung: p = 0.5
(Wirklich?)
⎛3⎞
b(2; 3; 0,5) = P( X = ...........) = ⎜ ⎟ p ² ⋅ (1 − p )
⎝ 2⎠
3⋅ 2 ⎛ 1 ⎞ 1
=
⋅ ⎜ ⎟ ⋅ = .........
2 ⎝ 2⎠ 2
2
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 113
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel a)
Oder einfach klassisch:
Günstige Möglichkeiten:
Kombination (ohne Berücksichtigung der Reihenfolge) von 3 Elementen
(=“Versuche“) zur Ordnung 2 (×”männlich”)
3 Möglichkeiten für 2 Jungen bei 3 „Versuchen“:
1.
1.
2.
Kind
2.
3.
3.
Kind
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 114
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel a)
Gesamtzahl der Möglichkeiten:
2³=8 Variationen von 2 Elementen (=Geschlechter)
zur Ordnung 3 (=Versuche) mit Wiederholung.
Also
b(2; 3; 0,5) = 3/8.
E(X) = np = 3 # 0.5 = 1.5 Jungen bei 3 Geburten (?)
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 115
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel b)
X = Häufigkeit der 6 bei 12-maligem Würfeln
⎛....⎞⎛ 1 ⎞ ⎛ 5 ⎞ 12⋅11 510
1
⋅ 12 ≈ 0,3
b(2;12; ) = P(X = 2) = ⎜ ⎟⎜ ⎟ ⎜ ⎟ =
6
2 ⋅1 6
⎝....⎠⎝ 6 ⎠ ⎝ 6 ⎠
2
10
E(X) = np = 12 # 1/6 = 2 Sechser
Demonstration mit Urnenmodell:
n-malige Ziehung mit Zurücklegen aus Urne mit N Losen, wovon M gewinnen.
Dabei ist M/N = p
Wichtige Anwendung:
Stichprobe “mit Zurücklegen” oder großem N.
D.h. praktisch: Stichprobe bei gleichbleibender Ereigniswahrscheinlichkeit
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 116
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel c)
In Statistikübung Blume für jedes Geburtstagskind.
n = 80 Stud.
X = Anzahl der Geb.kinder an bestimmtem Übungstag.
Blumen sollen mit mindestens 99%iger Sicherheit reichen.
Wieviel Stück notwendig?
A = „Studentin S hat heute Geb.tag“
P(A) = p 1/365 (klassisch, Alternative??)
Erwartungswert E(X) = ?? = 0,22
Warum? Bedeutung??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 117
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel c)
Allgemein:
⎛ 80 ⎞⎛ 1 ⎞
P( X = k ) = ⎜⎜ ⎟⎟⎜
⎟
k
365
⎝
⎠
⎝ ⎠
k
⎛ 364 ⎞
⋅⎜
⎟
⎝ 365 ⎠
n−k
Speziell:
80
⎛ 364 ⎞
P( X = 0) = ...... ⋅ ........ ⋅ ⎜
⎟ = 0,803
⎝ 365 ⎠
⎛ 80 ⎞ 1 ⎛ 364 ⎞
P( X = 1) = ⎜ ⎟ ⋅
⋅⎜
⎟ = 0,176
1
365
365
⎝
⎠
⎝ ⎠
79
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 118
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel c)
B(1) = P( X ≤ 1) = 0,803 + 0,176 = 0,979
reicht‘s schon?
⎛ 80 ⎞ ⎛ 1 ⎞
P( X = 2) = ⎜ ⎟ ⋅ ⎜
⎟
2
365
⎠
⎝ ⎠ ⎝
.......
78
⎛ 364 ⎞
⋅⎜
⎟ = 0,019
365
⎝
⎠
B(2) = P( X ≤ 2) = 0,979 + 0,019 = 0,998
Ergebnis?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 119
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel c)
Wahrscheinlichkeitsfunktion
1
0.8
0.176
0
1
2
3
4
5
Binomialverteilung dieser Zufallsvariablen extrem ................
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 120
1.3.2 Verteilungen diskreter Zufallsvariablen
4. Hypergeometrische Verteilung
Modell: In einer Urne mit N Losen sind M Gewinne. X ist Gewinn-Häufigkeit bei n-maliger
Ziehung ohne Zurücklegen:
d.h. am Anfang
p = ..../.....
pk = P( X = k )
⎛ M ⎞⎛ N − M ⎞
⎜ ⎟⎜
⎟
n−k ⎠
k
= H(k;n,N,M ) = ⎝ ⎠⎝
⎛N⎞
⎜ ⎟
⎝n ⎠
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 121
1.3.2 Verteilungen diskreter Zufallsvariablen
Mn
N
aber p nur Anfangswahrscheinlichkeit
N-n
Mn( N − M )( N − n)
Var( X ) =
⋅ n ⋅ p ⋅ (1 − p ) =
N-1
N ²( N − 1)
E( X ) = ............ =
Korrekturfaktor
ggü. Binomialverteilung
wie bei Binomialverteilung
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 122
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel: Qualitätskontrolle
N=50 Gummiteile, davon M=10 fehlerhaft, Zufallsstichprobe von n=5 Stück.
Bei Prüfung auf Reißfestigkeit werden alle unbrauchbar.
Gesucht: Wahrscheinlichkeit, dass k=2 fehlerhafte Stücke dabei sind
⎛10 ⎞⎛ 40 ⎞
⎜ ⎟⎜ ⎟
K(10,2) ⋅ K(40,3) ⎝ 2 ⎠⎝ 3 ⎠ 45 ⋅ 9880
=
P( X = 2) =
=
= 0,21
K ( 50 ,5 )
2118760
⎛ 50 ⎞
⎜ ⎟
⎝5 ⎠
Interpretation? Erwartungswert? Varianz?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 123
1.3.2 Verteilungen diskreter Zufallsvariablen
5. Poisson-Verteilung
X = Häufigkeit des Auftretens unabhängiger gleichwahrscheinlicher Ereignisse, wenn im
Mittel eine Häufigkeit von zu erwarten ist:
k
pk = p( k ) = P( X = k ) =
E( X ) = ...........
e−
k!
Var( X ) =
Historisches Beispiel??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 124
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel : Häufigkeit der Störung von Telefonanschlüssen
Keine Angabe von n und p,
Unabhängigkeit und Gleichwahrscheinlichkeit angenommen, daher poissonverteilt
Erfahrung: Am Tag durchschnittlich 3 Störungen.
x =3
→
→ p( k ) ≈
E( X ) ≈ 3 → λ ≈ 3
3k
−3
e
k!
Ein Monteur kann am Tag 2 Störungen beheben.
Wie viele Monteure einsetzen, damit mit 95% Sicherheit alle Störungen beseitigt werden können?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 125
1.3.2 Verteilungen diskreter Zufallsvariablen
noch Beispiel
38 −3
Wahrscheinlichkeitsfunktion: z.B. p(8) =
e = 0 ,008102
8!
p(7) = 0,021604, p(6) = 0,050409, p(5) = 0,100819,
p(4) = 0,168031, p(3) = 0,224042, p(2) = 0,224042,
P(1) = 0,149361, p(0) = 0,049787
Verteilungsfunktion:
3i
F ( x) = P( X ≤ x) = e ∑
i = 0 i!
P
−3
x
FP (...........) = 0,96649
d. h. ??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 126
1.3.2 Verteilungen diskreter Zufallsvariablen
Weitere wichtige Anwendung:
Approximation von b(k;n;p) für kleine p (seltene Ereignisse) und große n.
Dann ist:
= ..........
E(X) = n # p = Var(X) = n # p (1-p) wegen 1-p 1
(Übung: Geburtstag mit =80/365!!)
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 127
1.3.2 Verteilungen diskreter Zufallsvariablen
Beispiel : Wieder Häufigkeit von Störungen
Aber gegeben:
n = 10000 Telefonanschlüsse
P(“Störung”) = 0.0003 = p
X= Zahl der Störungen an einem Tag. Im Prinzip binomial.
E (X) = .............. = 3 < = 3
35
p (5) =
e −3 =
5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1
z. B.
=
243
⋅ 0,0498 = 2,025 ⋅ 0,0498 = 0,1008
120
Interpretation? Das gleiche mit Binomialverteilung??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 128
1.3.3 Verteilungen stetiger Zufallsvariablen
Stetige Zufallsvariable:
Wertebereich: lückenlos alle reellen Zahlen mindestens eines Intervalls
Wahrscheinlichkeitsfunktion: gegenstandslos (warum?)
Verteilungsfunktion F(x) um so wichtiger:
Eine Funktion f(x) mit
x
F(x) = P( X .........x) = ∫ f( )d
−∞
heißt Dichtefunktion
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 129
1.3.3 Verteilungen stetiger Zufallsvariablen
F’(x) = … ?
(Mit Ausnahme einiger Punkte, wo F(x) nicht differenzierbar ist. Welche??)
lim F( x) = ??
x →∞
lim F( x) = ??
x → −∞
Es gilt: P(Xx2) = P(Xx1) + P(x1<Xx2) also:
P( x1 < X ≤ x2 ) = P( X ≤ x2 ) − P( X ≤ x1 )
x2
x1
= F( x2 ) - F( x1 ) = ∫ f( x)dx - ∫ f( x)dx
-∞
-∞
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 130
1.3.3 Verteilungen stetiger Zufallsvariablen
F
x2
P( x1 < X ≤ x2 ) = ∫ f( x)dx
1
x1
F(x2)
F(x1)
x
f
P(x1 <Xx2)
f(x1)
P(Xx1)
x1 x2
x
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 131
1.3.3 Verteilungen stetiger Zufallsvariablen
x1
P( X = x1 ) = ∫ f( x)dx = ??
x1
(Aber X = x1 ist nicht unmögliches Ereignis)
Erwartungswert :
+∞
E( X ) = ∫ ..... ⋅ f( x)dx
häufiges Symbol : µ
-∞
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 132
1.3.3 Verteilungen stetiger Zufallsvariablen
Varianz
Var( X ) =
+∞
= E([ X - E( X )]²) = ∫ [ x - E( X )]²f( x)dx
-∞
=
+∞
∫ x²f( x)dx − [E( X )]² = E( X ²) − [E( X )]²
−∞
(z.E. Statistik I:
σ x2 = x 2 − x 2
)
Gleiche Rechenregeln wie bei diskreten ZV
Standardabweichung ??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 133
1.3.3 Verteilungen stetiger Zufallsvariablen
a)
Gleichverteilung, Rechteckverteilung:
Konstante Dichtefunktion über dem Intervall (a,b),
f(x)
1/(b-a)
1
a
b
x
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 134
1.3.3 Verteilungen stetiger Zufallsvariablen
Dichtefunktion der Gleichverteilung :
⎧ 1
⎪
f( x) = ⎨.........
⎪⎩0
für a ≤ x ≤ b
sonst
Verteilungsfunktion der Gleichverteilung:
F(x)
1
a
Prof. Dr. H. G. Strohe
D
b
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
135
1.3.3 Verteilungen stetiger Zufallsvariablen
x
x
1
d
a b−a
−∞
ξ x x−a
=
=
für a ≤ x ≤ b,
b − a a ........
∫ f( )d = ∫
Also
⎧0
⎪⎪ x − a
F( x) = ⎨
⎪........
⎪⎩1
x<a
für a ≤ x ≤ b
x>b
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 136
1.3.3 Verteilungen stetiger Zufallsvariablen
E( X ) = ...?;
Var( X ) =
(b − a )²
12
Beweisen!
Beispiel: X = Wartezeit auf Ende eines 10-minütigen Arbeitsganges
f( x) =
1
für 0 ≤ x ≤ 10, sonst Null
10
⎧0
⎪⎪ x
F( X ) = ⎨
⎪10
⎪⎩1
x<0
für 0 ≤ x ≤ 10
x > 10
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 137
1.3.3 Verteilungen stetiger Zufallsvariablen
Noch Beispiel:
10
1 10
1
1
= 5 min
E( X ) = ∫ x dx = x ² ⋅
2 10 0
10
0
10
1 10
1
1
Var( X ) = ∫ ( x − 5) ⋅ dx = ( x − 5)³ ⋅
10 0
3
10
0
100
=
= 8,33
12
= Var( X ) = 2,89 min
d.h.??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 138
1.3.3 Verteilungen stetiger Zufallsvariablen
b) Die Exponentialverteilung
⎧0
f( x) = ⎨ −
⎩ H
für x < 0
[
⎧0
F( x) = ⎨
−
⎩1 − e
für x ≥ 0
für x < 0
[
für x ≥ 0
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 139
1.3.3 Verteilungen stetiger Zufallsvariablen
x
Beweis:
∫
H d
0
−
x
= −e
x
−
0
0
= −e − [ − (−1)
Probe?
Parameter :
⎛1⎞
E( X ) = ; Var( X ) = ⎜ ⎟;
⎝ ð⎠
1
= ...?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 140
1.3.3 Verteilungen stetiger Zufallsvariablen
Anwendung:
Z.B. Warteschlangenprobleme.
Zeit zwischen wiederholtem unabhängigen
Eintreten eines Ereignisses ist exponential verteilt.
Beispiel:
X = Zeit zwischen Anrufen
Erfahrung:
Durchschnitt: = 1.42 Min
Annahme: Anrufe unabhängig => F(x)=1-e-
D
Prof. Dr. H. G. Strohe
Statistik II
x
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 141
1.3.3 Verteilungen stetiger Zufallsvariablen
noch Beispiel:
x ≈ E( X ) =
1
→ ≈ ??
Frage: Mit welcher Wahrscheinlichkeit liegt Wartezeit zwischen 2 und 3 Minuten?
P(2 < X 3) = F(3) - F(2)
= (1-e-0.7 # 3) - (1-e- 0.7 # 2)
= e-1.4 - e-2.1
= 0.247 - 0.123
= 0.124
Interpretation??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 142
1.3.3 Verteilungen stetiger Zufallsvariablen
0,8
Wahscheinlichkeitsdichte
0,7
0,6
0,5
0,4
Reihe1
0,3
0,2
0,1
0
0
1
2
3
4
5
6
7
8
9
Wartezeit in Min.
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 143
1.3.3 Verteilungen stetiger Zufallsvariablen
Zusammenhang mit Poissonverteilung:
Y= Zahl der Anrufe pro Minute ist poissonverteilt.
Y=
1
X
Erwartungswert für die Zahl von Anrufen in einer Minute:
E(Y ) =
1
1
≈ = = 0,7
E( X ) x
Also im Durchschnitt etwa 7 Anrufe in 10 Min.
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 144
1.3.3 Verteilungen stetiger Zufallsvariablen
weitere Beispiele:
- Wartezeit auf Reparatur eines Autos
- Dauer zwischen zwei Betriebsstörungen
- Lebensdauer eines Lebewesens o. Unternehmens
-„Wartezeit“ bis zum nächsten Terroranschlag
…
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 145
1.3.3 Verteilungen stetiger Zufallsvariablen
c) Die Normalverteilung
Gaußsche Verteilung: Wo sich eine Vielzahl unabhängiger zufälliger Effekte zu einer
Gesamterscheinung überlagert, z.B. Messfehler
Dichtefunktion der Normalverteilung
1
ϕ ( x) =
2
E(X) = ;
e
−
( x − )²
2 ²
Var(X) = )2.
Symmetrisch um .
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 146
1.3.3 Verteilungen stetiger Zufallsvariablen
Kurz: X ~ N ( , ²),
Gaußsche Glockenkurve
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 147
1.3.3 Verteilungen stetiger Zufallsvariablen
Für x = Maximum
Wendepunkte bei ± )
P(µ - σ < X ” µ + σ ) = 0,6827
P(µ- 2σ < X ” µ+2σ ) = ..............
P(µ- 3σ < X ” µ+3σ ) = 0,9973
Verteilungsfunktion:
x
x;µ; ²) =
∫
−∞
1
2
-
e
( —)²
2 ² d
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 148
1.3.3 Verteilungen stetiger Zufallsvariablen
Problem:
Berechnung von 0 schwierig, für jedes und ) anders.
Standardisierte Normalverteilung
(Standardnormalverteilung)
= .......... ; )2=.............
Dichtefunktion:
ϕ ( x) =
1
e
2
−
x²
2
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 149
1.3.3 Verteilungen stetiger Zufallsvariablen
0(x)
1
1/2
x
0
0
Es gibt Tafeln und Programme
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 150
1.3.3 Verteilungen stetiger Zufallsvariablen
Für andere Normalverteilungen:
Standardisierung
Wenn X ~ N(x, )x2) und
Z=
X − µx
; dann
Z ~ N(0,1)
x
Vorteil: 0(z,0,1) und Q(z;0,1) sind tabelliert
Kurzbezeichnung: 0(z) und 1(z)
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 151
1.3.3 Verteilungen stetiger Zufallsvariablen
Beispiel:
P(Z1.41) = 0(1.41)
= 0.920730
F lä c h e :
0 ( 1 .4 1 )= 0 .9 2 1
x
1 .4 1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 152
1.3.3 Verteilungen stetiger Zufallsvariablen
Jetzt symmetrisches Intervall:
0(z) = P(Zz) = P(Z>-z)
0(-z) = P(Z-z) = 1- 0(z)
P(-z<Zz) = P(Zz) - P(Z-z) = 0(z)-0(-z) = 0(z)-[1 -0(z)]
Also: P(-z < Z z) = 20(z) - 1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 153
1.3.3 Verteilungen stetiger Zufallsvariablen
Intervallwahrscheinlichkeit bei beliebigen Normalverteilungen
Sei X ~ N (, )2)
umrechnen:
zi =
xi − µ
σ
Dann ist
P(X xi) = P(Z zi) = 0(zi)
ebenso
P(x1 < X x2) = P( z1 < Z z2)
= 0(z2) - .........
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 154
1.3.3 Verteilungen stetiger Zufallsvariablen
Für symmetrisches Intervall
P( − d < X ≤ µ + d ) = P( −
d
d
<Z ≤+ )
= P( − z < Z ≤ z )
= 2Φ ( z ) − 1
mit z =
............
............
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 155
1.3.3 Verteilungen stetiger Zufallsvariablen
Beispiel 1: X = Gewicht von Gurken,
X ~ N (0.8; 0.0025)
0,95 − 0,8
)
0,05
= P( Z > 3) = 1 − P( Z ≤ 3)
a) P( X > 0,95)? = P( Z >
= 1 − = 1 − 0,9987 = 0,0013
b) P(0,7 < X ≤ 0,9) ?
0,9 − 0,8 ⎞
⎛ 0,7 - 0,8
= P⎜
<Z ≤
⎟ = P( −2 < Z ≤ 2)
0,05
0,05
⎝
⎠
= 2Φ ( 2) − 1 = 2 ⋅ 0,9772 − 1 = 0,9544
Interpretation?
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 156
1.3.3 Verteilungen stetiger Zufallsvariablen
Für Statistik umgekehrte Fragestellung wichtiger:
Beispiel 2:
X = Gewicht von Zementpaletten
X ~ N(1000, 0.25)
Gesucht: Symmetrischer Bereich um 1000 kg, in dem etwa 99% der Paletten liegen
X − 1000 d ⎞
⎛ d
<
<
P(1000 − d < X ≤ 1000 + d ) = P⎜ −
⎟
0,5
0,5 ⎠
⎝ 0,5
d
d.h. Standardisierung ............. = P( − z < Z < z ) ( z =
)
0,5
1 − 0,01 = 2Φ ( z ) - 1
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 157
1.3.3 Verteilungen stetiger Zufallsvariablen
noch Beispiel 2:
2 − 0,01 = 2 z )
0,01
= z)
1−
2
Vorgehen kurz : 0,995 = z ) ⇒
z = 2,58
d = 2,58 ⋅ 0,5 = 1,29
99% der Paletten haben Gewicht zwischen 998,71 und 1001,29 kg
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 158
1.3.4 Allgemeine Verteilungsgesetze
a) Tschebyschewsche Ungleichung
E(X) = , Var(X) = )2, sonst Verteilung nicht bekannt
P( µ − < X < µ + ) = P(| X − µ |< ) ≥ 1 −
²
²
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 159
1.3.4 Allgemeine Verteilungsgesetze
Beispiel: Mit welcher Wahrscheinlichkeit fällt X in den 3)-Bereich?
-=??
P(| X − µ |< .......) ≥ 1 -
²
3² ²
= 1−
1 8
= = 0,888
3² 9
Wdh.:
bei Normalverteilung ??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 160
1.3.4 Allgemeine Verteilungsgesetze
b) Gesetz der großen Zahl
•
Bernoulli: P(A) = p, Zufallsvariable H gibt an, wie oft A bei n unabhängigen
Wiederholungen auftritt.
Dann:
H
⎛ H
⎞
lim P⎜ ⎧⎨ − ⎫⎬ < p < ⎧⎨ + ⎫⎬ ⎟ = ............
n →∞
⎭
⎩n
⎭⎠
⎝⎩ n
(plim
n →∞
H
= p)
n
d.h. relative Häufigkeit pn = H/n konvergiert stochastisch gegen Wahrscheinlichkeit.
Empirisch schon bei Süßmilch
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 161
1.3.4 Allgemeine Verteilungsgesetze
b) Gesetz der großen Zahl
•
Chinschtchin:
X1, ..., Xn,... Folge von unabhängigen Zufallsvariablen mit identischer Verteilung:
E(Xi ) = Folge der Durchschnitte:
X1 = X1;
X2 = (X1 + X2)/2;
X3 = (X1 + X2 + X3)/3 ;
...
lim P( µ − < X n < µ + ) = ..........
( plim X n = µ )
n →∞
n →∞
Beweis: Tschebyschewsche Ungleichung
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 162
1.3.4 Allgemeine Verteilungsgesetze
c) Zentraler Grenzwertsatz
X i ~ iid( µ , ),
Zn =
Xn −
Standardisierte Durchschnitte
n
Verteileilungsfunktion von Z n :
FZ n (z) = P( Z n ≤ z ) → z )
n →∞
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 163
1.3.4 Allgemeine Verteilungsgesetze
c) Zentraler Grenzwertsatz
D.h. Durchschnitte nicht normalverteilter Zufallsvariablen sind näherungsweise
normalverteilt, z. B. Stichprobendurchschnitt !! Vielfach auch Summen.
Insbesondere ableitbar:
Yn ~ B(p,n) (binomialverteilt)
kann approximiert werden durch Normalverteilung:
n~
N(......, np(1-p)).
Warum diese Parameter??
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 164
1.3.4 Allgemeine Verteilungsgesetze
c) Zentraler Grenzwertsatz
Approximationsgüte
sehr gut bei symmetrischer Binomialverteilung p=0.5,
schlecht bei starker Asymmetrie : 0.1 oder 0.9.
Faustregel:
Approximation nur anwenden, wenn
Var(Yn ) = np(1- p) > ......,
d.h. für
p=0.5 :
p=0.1 :
n> 36
n>100
(merken!)
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 165
1.3.4 Allgemeine Verteilungsgesetze
c) Zentraler Grenzwertsatz
Demonstration mit Galton-Brett:
p = ........
D
Prof. Dr. H. G. Strohe
Statistik II
s
i
s
ie
n
i
e
tk
t
p
i
r
Sk
I. 166
Herunterladen