Die Binomialverteilung

Werbung
Die Binomialverteilung
Man werfe eine Münze n mal und zähle die Häufigkeit k, mit
der dabei „Kopf“ oben liegt.
n=4
n=8
n = 32
p
p
p
0.14
0.35
0.25
0.12
0.3
0.2
0.1
0.2
0.15
0.08
0.15
0.1
0.25
0.06
0.04
0.1
0.05
0.05
0.02
k
0
1
2
3
4
k
0
1
2
3
4
5
6
7
8
k
0123456789101112131415161718192021222324
2526272829303132
Diskrete Verteilung, die mit zunehmendem n normal wird
Die Binomialverteilung
Man wiederhole ein Zufallsexperiment n mal und bestimme
die Häufigkeit k, mit der ein bestimmtes Ereignis E eintritt.
Es sei:
P(E) = p
P(E) = 1− p = q
Bei n Wiederholungen kann das Ereignis „k-mal E“ auf genau
⎛ n ⎞ Weisen eintreten. Da sich die einzelnen n über k Folgen
⎜k ⎟
⎝ ⎠ gegenseitig ausschliessen, folgt mit dem Additionssatz:
⎛ n ⎞ k n −k
P (k n ) = ⎜ ⎟ ⋅ p ⋅ q
⎝k ⎠
[Tafel-Entwicklung]
Multiplikationssatz der WKn für unabhängige Versuche & Additionssatz auf die
disjunkten Folgen anwenden!
Die Verteilungsfunktion der Binomialverteilung
Die Wahrscheinlichkeit, daß höchstens k mal E auftritt, ist:
⎛n⎞⎟ j n− j
P ( j ≤ k n) = ∑ ⎜⎜ ⎟⋅
p ⋅q
⎟
⎜ ⎟
j =0 ⎝ j ⎠
k
Die Wahrscheinlichkeit, daß mindestens k+1 mal E auftritt,
ist:
n ⎛ ⎞
n ⎟ j n− j
⎜
P ( j ≥ k + 1 n) = ∑ ⎜ ⎟⋅
p ⋅q
⎜⎝ j ⎠⎟⎟
j = k +1
= 1 − P ( j ≤ k n)
Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung
Wahrscheinlichkeitsfunktion
Definition:
⎛n⎞⎟ x n−x
f n ( x ) = ⎜⎜ ⎟⋅
p ⋅q
⎜⎝ x⎠⎟⎟
definiert die Wahrscheinlichkeitsfunktion, oder
Wahrscheinlichkeitsdichtefunktion der Binomialverteilung.
Sie tritt auf bei der Betrachtung der Anzahl der Erfolge einer Folge von unabhängigen Versuchen (Bernoulli-Folge), wobei p die Wahrscheinlichkeit des Erfolgs bei
einem Versuch ist und q = 1- p gilt. n ist die Anzahl der Wiederholungen des Versuchs. p und n sind die beiden Parameter der Binomialverteilung
Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung
mit den Parametern p und n.
Verteilungsfunktion
Definition:
⎛ n⎞⎟ k n−k
Fn ( x ) = ∑ ⎜⎜ ⎟⋅
p ⋅q
⎟
⎟
⎜
k =0 ⎝ k ⎠
x
definiert die Verteilungsfunktion der Binomialverteilung.
Allgemein:
x
Fn ( x ) = P (k ≤ x n) = ∑ f n (k )
k =0
Die Verteilungsfunktion ist die kumulierte Wahrscheinlichkeitsdichtefunktion. Sie
gibt die Wahrscheinlichkeit für Erfolge bis zu einer oberen Schranke x an.
Verteilungsfunktion: Kumulierte Wahrscheinlichkeitsdichtefunktion bis zu einer Grenze x.
Verteilungsfunktion für diskrete Variable
Es gilt für diskrete Zufallsvariablen:
f n ( x ) = Fn ( x ) − Fn ( x −1)
Allgemeine Eigenschaften sind:
1. Fn ( x0 ) = 0, für x0 < min { x}
2. Fn ( x0 ) = 1, für x0 = max { x}
3. P ( xu < x ≤ xo ) = Fn ( xo ) − Fn ( xu )
Mit der Verteilungsfunktion kann man die Wahrscheinlichkeit
für beliebige Intervalle der Zufallsvariable bestimmen.
Die Poissonverteilung
Sind einzelne Ereignisse selten, so kann die Wahrscheinlichkeit
statt mit der Binomialverteilung über die Poissonverteilung
ausgedrückt werden.
Gilt:
λ = n⋅ p < 5
So approximiert die Possonverteilung die Binomialverteilung gut.
Die poissonverteilung hat nur den Parameter λ, der
sowohl Mittelwert wie Varianz beschreibt.
Wahrscheinlichkeitsfunktion:
f ( x) =
λ x e− λ
x!
Die Poissonverteilung ist eine einfache Alternative zur Binomialverteilung für
Seltene Ereignisse.
Vergleich: Binomial - Poisson
Poissonverteilung
0.5000
0.5000
0.3750
0.3750
WK
WK
Binomialverteilung
0.2500
0.2500
0.1250
0.1250
0.0000
0.0000
0
1
2
3
4
5
6
7
8
0
Erfolge
Für
n = 100
1
2
3
4
Erfolge
p = 0.012
λ = n ⋅ p = 1.2
Fast exakte Übereinstimmung beider Verteilungen.
5
6
7
8
Die Normalverteilung
f (x)
0.04
0.03
1
f ( x) =
e
s ⋅ 2π
0.02
1 ⎛ x− x ⎞
− ⋅⎜
⎟
2⎝ s ⎠
2
0.01
20 25 30 35 40 45 50 55 60 65 70 75 80
x
Die Normalverteilung (Gauss‘sche Glockenkurve) ist eine symmetrische
Verteilung. Ihre Form ist durch die Standardabweichung und den
Mittelwert eindeutig festgelegt. Sie resultiert aus dem Modell
unabhängiger sich überlagernder Zufallsfehler („Galton-Brett“)
[Tafelbeispiel Galton, Binomial]
Die Normalverteilung
F(x)
1.0
x
2
1 ⎛⎜ u− x ⎞⎟
− ⋅⎜
⎟
2 ⎜⎝ s ⎠⎟
1
F ( x) =
e
∫
s ⋅ 2π −∞
0.75
0.5
0.25
20 25 30 35 40 45 50 55 60 65 70 75 80
x
Die Verteilungsfunktion der Normalverteilung (Fläche unter der
Normalkurve) kann man nicht auf eine geschlossene Form bringen. Sie
ist aber für standardisierte Variablen (z-Standardisierung) austabelliert
und elektronisch implementiert (z.B. in Excel).
du
Die Normalverteilung
f(z)
f(z)
0.4
-3
-2
-1
0.4
68.26%
0.3
0.3
0.2
0.2
0.1
0.1
1
2
x−x
z=
s
3
z
-3
-2
-1
95.5%
1
2
3
1 − 12 ⋅z 2
f ( z) =
e
2π
Die Fläche unter der Kurve ist bei der Normalverteilung eine Funktion
der Standardabweichung (in Einheiten von s angebbar)
[Tabellenbenutzung, Excel, Aufgabenbeispiel zu IQ‘s]
z
z - Standardisierung
z=
x−x
s
0.10
σx
0.05
0.00
-15
-10
-5
0
x
5
10
15
f (z)
Wahrscheinlichkeitsdichte
Wahrscheinlichkeitsdichte
f ( x)
x
0.10
σz =1
0.05
0.00
-3z
-2z
-1z
0
1z
2z
3z
zx
z - Standardisierung zur Überführung in Standardnormalverteilung
z
Wahrscheinlichkeitsbestimmung
Verteilungsfunktion
(Fläche der Dichtefunktion)
0.4
F ( z0 ) = P ( z ≤ z0 )
0.3
Eigenschaften
0.2
F ( −∞ ) = 0
F (∞) = 1
P ( z a < z ≤ zb ) = F ( zb ) − F ( z a )
0.1
-3
-2
-1
za
→ Benutze austabellierte Standardnormalverteilung
1
zb
2
3
Approximation der Binomialverteilung
Die Binomialverteilung hat ebenfalls Mittelwert und Varianz:
μ = n⋅ p
σ 2 = n⋅ p⋅q
Gilt n ⋅ p ⋅ q ≥ 9 so kann die Binomialverteilung durch die
Normalverteilung approximiert werden.
Dann gilt B [ n; p ] ∼ N [ μ ;σ ]
[Beispiele]
Fehler 1. und 2. Art
In der Population gilt
H0
Entscheidung für
H1
H0
H1
Correct
Rejection
P ( H0 H0 )
Miss
(Fehler 2. Art)
P ( H 0 H1 )
False Alarm
(Fehler 1. Art)
P ( H1 H 0 )
Hit
P ( H 1 H1 )
Hypothesenwahrscheinlichkeiten : bedingte WKn
Mittelwerteabstand aus WK
Man klassifiziere man nach „Distraktor“ (H0) und „Target“ (H1)
Tatsächlich gilt
H0
Entscheidung für
H1
H0
H1
P ( H0 H0 )
0.59
P ( H1 H 0 )
P ( H 0 H1 )
0.41
0.923
1
0.077
P ( H 1 H1 )
1
Wie groß ist der Mittelwerteabstand der Likelihoodfunktionen ?
Mittelwerteabstand
H0 – Verteilung:
H1 – Verteilung:
0.4
0.4
p = 0.59
-3
-2
pp == 0.077
0.59
0.3
-1
0.3
0.2
0.2
0.1
0.1
1
2
3
-3
z0 = F-1{0.59} = 0.23
Correct Rejection
z - Berechnung für jede einzelne Verteilung
-2
-1
1
2
3
z1 = F-1{0.077} = -1.43
Miss
Abstand in z- Standardisierung
Es gilt:
z0 =
k − μ0
Ferner:
σ
z1 =
k − μ1
Nun betrachte im z1 Wert den Abstand des Kriteriums k in Bezug auf μ0:
z1 =
k − ( μ0 + ( μ1 − μ0 ) )
σ
=
k − μ0
σ
μ1 − μ0
−
σ
z1 = z0 − d '
d ' = z0 − z1
(standardisierter Abstand)
Annahme: beide Likelihoodfunktionen haben dieselbe Varianz
σ
Herunterladen