Binomialverteilung und Anwendungen

Werbung
Binomialverteilung und Anwendungen
Elke Warmuth
Humboldt-Universität Berlin
Sommersemester 2010
1 / 61
Unabhängigkeit von Ereignissen
1
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
2 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Kolmogorow: The concept of mutual independence of two or
”
more experiments holds, in a certain sense, a central position in
the theory of probability.
...
Historically, the independence of experiments and random variables
represents the very mathematical concept that has given the theory
of probability its peculiar stamp.“
Quelle: A. N. Kolmogorov: Foundations of the Theory of Probability. New York: Chelsea Publishing Company, 1950.
3 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Was soll erfasst werden?
Ereignisse A und B haben folgende Eigenschaft:
Information über das Eintreten von A beeinflusst unsere Bewertung
der Chancen für das Eintreten von B nicht.
Prototypen: Ziehen mit und ohne Zurücklegen
4 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
R1 – rote Kugel im 1. Zug, R2 – rote Kugel im 2. Zug
ohne Zurücklegen
P(R2 ) =
3
10
P(R2 |R1 ) =
mit Zurücklegen
P(R2 ) =
2
9
<
3
10
3
10
P(R2 |R1 ) =
3
10
5 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Ziehen ohne Zurücklegen:
P(R1 |R2 ) =
P(R1 ∩ R2 )
=
P(R2 )
3
10
·
3
10
2
9
=
2
9
Die Information darüber, dass die zweite Kugel rot ist, verändert
die Chancen für eine rote Kugel im ersten Zug. Es ist
wahrscheinlicher, dass die erste Kugel weiß war.
Real ist R1 unbeeinflusst von R2 , aber stochastisch, im Sinne der
Chancen, schon.
Provisorische Festlegung: Das Ereignis A ist stochastisch
unabhängig vom Ereignis B mit P(B) > 0, falls
P(A|B) = P(A)
gilt.
6 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Folgerungen aus der provisorischen Festlegung für P(A) und P(B)
positiv:
A unabhängig von B
⇔
P(A|B)
P(A ∩ B)
⇔
P(B)
⇔
P(A ∩ B)
P(A ∩ B)
⇔
P(A)
⇔
P(B|A)
= P(A)
= P(A)
= P(A) · P(B)
= P(B)
= P(B)
A unabhängig von B genau dann, wenn B unabhängig von A,
stochastische Unabhängigkeit ist symmetrisch in A und B
⇒ endgültige Definition
7 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Definition: Unabhängigkeit zweier Ereignisse
Zwei Ereignisse A und B heißen (stochastisch) unabhängig, falls
die Produktformel
P(A ∩ B) = P(A) · P(B)
gilt.
Symmetrie
ohne Voraussetzung P(A) > 0 bzw. P(B) > 0.
Aspekte von Unabhängigkeit
Unabhängigkeit als Modellannahme
Unabhängigkeit in einem Modell nachweisen
8 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
gutes Beispiel:
Quelle: Barth, Haller: Stochastik Leistungskurs. München: Oldenbourg Schulbuchverlag, 1998
Sehr empfehlenswertes Lehrbuch (für Lehrerinnen und Lehrer)
9 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
schlechtes Beispiel:
Quelle: Mathematik. Band 2. Sachsen-Anhalt. Berlin: Cornelsen Verlag, 2005
10 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Begriff Unabhängigkeit festigen
Unabhängigkeit und Unvereinbarkeit
Unabhängigkeit in Vierfeldertafel
Beispiele und Gegenbeispiele
Verallgemeinerung auf n Ereignisse
Unabhängigkeit von Vorgängen
11 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Unabhängigkeit und Unvereinbarkeit
i.A. krasse Abhängigkeit:
Eintreten von A macht Eintreten von B unmöglich und umgekehrt.
Nagelprobe
Verständnis
für
inhaltliches
12 / 61
Unabhängigkeit von Ereignissen
Ausnahme:
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
P(A ∩ B) = P(A) · P(B)
0 = P(A) · P(B)
P(A) = 0 oder P(B) = 0
Ereignisse mit Wahrscheinlichkeit 0 sind von allen Ereignissen
unabhängig.
Ereignisse mit Wahrscheinlichkeit 1 auch. Sei nämlich
P(A) = 1
P(A) · P(B) = P(B) = P(B ∩ A) + P(B ∩ A) = P(B ∩ A)
Entspricht das inhaltlichem Verständnis?
13 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Unabhängigkeit in Vierfeldertafel
A
A
B P(A) · P(B)
P(B)
B
P(B)
P(A)
P(A)
1
P(B) − P(A) · P(B) = P(B) [1 − P(A)] = P(B) · P(A)
14 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Unabhängigkeit in Vierfeldertafel
A
A
B P(A) · P(B) P(A) · P(B) P(B)
B P(A) · P(B) P(A) · P(B) P(B)
P(A)
P(A)
1
Aus der Unabhängigkeit für ein Pärchen“ folgt die
”
Unabhängigkeit für alle anderen.
15 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Beispiele und Gegenbeispiele
1. Zweimaliges Würfeln mit einem fairen Würfel
A – erster Wurf 6, B – zweiter Wurf 3
Unabhängigkeit als Modellierungselement:
Argumentation: Das Eintreten von A beeinflusst die Chancen
für das Eintreten von B nicht (Gedächtnislosigkeit).
⇒ P(A ∩ B) =
1 1
·
6 6
Unabhängigkeit in einem Modell nachprüfen:
Ω = {(w1 , w2 ) : w1 , w2 ∈ {1, 2, . . . , 6}}
Annahme: gleichwahrscheinlich, |Ω| = 36
|A| = |B| = 6, |A ∩ B| = 1 ⇒ P(A ∩ B) = P(A) · P(B)
⇒ A und B unabhängig
16 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
2. Zweimaliges Würfeln mit einem fairen Würfel
A – Augensumme gerade, B – zweite Augenzahl gerade
Was sagt die Intuition?
Ω = {(w1 , w2 ) : w1 , w2 ∈ {1, 2, . . . , 6}}
Annahme: gleichwahrscheinlich, |Ω| = 36
P(A) =
18
36
, P(B) =
1
2
A ∩ B = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}
⇒ P(A ∩ B) =
9
36
=
1
4
= P(A) · P(B)
⇒ A und B stochastisch unabhängig,
obwohl reale gegenseitige Beeinflussung von A und B.
17 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
3. Test auf Unabhängigkeit
Verunglückte Verkehrsteilnehmer bei Verkehrsunfällen in Berlin von
Januar bis Juli 2006
Quelle: http://www.statistik-berlin.de/home.htm
unter 15 ab 15
√1
9106
männlich
369
4716
5085
weiblich
288
3733
4021
657
8449
9106
≈ 0, 01, sinnvoll runden
18 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
unter 15 ab 15
männlich
0, 04
0, 52
0, 56
weiblich
0, 03
0, 41
0, 44
0, 07
0, 93
1, 00
0, 07 · 0, 56 ≈ 0, 04
Spricht für Unabhängigkeitsannahme
Frage: Wie große Abweichungen von der Produktformel sind noch
mit Zufallsschwankungen verträglich?
Typische Fragestellung bei statistischem Test.
19 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Was soll erfasst werden?
Information über das Eintreten von A beeinflusst unsere
Bewertung der Chancen für das Eintreten von B bzw. C
nicht.
Analog B und C . Kurz paarweise Unabhängigkeit:
P(A ∩ B) = P(A) · P(B)
P(A ∩ C ) = P(A) · P(C )
P(B ∩ C ) = P(B) · P(C )
Aber auch: Information über das Eintreten von A ∩ B
beeinflusst unsere Bewertung der Chancen für das Eintreten
von C nicht:
P((A ∩ B) ∩ C ) = P(A ∩ B) · P(C )
P(A ∩ B ∩ C )
= P(A) · P(B) · P(C )
20 / 61
Unabhängigkeit von Ereignissen
Bedeutung der Unabhängigkeit
Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von 3 Ereignissen
Definition: Vollständige Unabhängigkeit von drei Ereignissen
Drei Ereignisse A, B und C heißen (vollständig stochastisch)
unabhängig, falls die folgenden Produktformeln
P(A ∩ B)
P(A ∩ C )
P(B ∩ C )
P(A ∩ B ∩ C )
=
=
=
=
P(A) · P(B)
(1)
P(A) · P(C )
(2)
P(B) · P(C )
(3)
P(A) · P(B) · P(C ) (4)
gelten.
Weder die Gleichungen (1) bis (3) zusammen, noch die Gleichung
(4) alleine reichen aus für vollständige Unabhängigkeit.
Naheliegende Verallgemeinerung auf n Ereignisse.
21 / 61
Bernoulli-Ketten
2
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
22 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Unabhängige Experimente
Was heißt eigentlich unabhängige Wiederholungen eines
”
Experiments“ oder auch unabhängige Teilexperimente“?
”
Vorstellung: Gesamtexperiment besteht aus n Teilexperimenten.
Welche Eigenschaft müsste das Modell dieses Gesamtexperiments
haben, wenn die Teilexperimente unabhängig heißen sollen?
23 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Halbformale Definition
Teilexperimente heißen unabhängig, wenn beliebige Ereignisse, die
etwas über die Ausgänge verschiedener Teilexperimente aussagen,
unabhängig sind. Wenn A1 zum ersten, A2 zum zweiten, ..., An
zum n-ten von n unabhängigen Teilexperimenten gehört, dann gilt
die Produktformel
P(A1 ∩ A2 ∩ . . . ∩ An ) = P(A1 ) · (A2 ) · . . . · P(An ).
Genau diese Situation liegt bei Bernoulli-Ketten vor.
24 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Quelle: Mathematik. Band 2. Sachsen-Anhalt. Berlin: Cornelsen Verlag, 2005
25 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Was heißt in exakt gleicher Weise“
”
Warum wird der eingeführte Begriff Unabhängigkeit“ nicht
”
benutzt?
Bernoulli-Kette
Vorgänge mit zufälligem Ergebnis, bei denen nur zwischen Erfolg
(1) und Misserfolg (0) unterschieden wird, heißen
Bernoulli-Experimente oder Bernoulli-Versuche.
Wird ein Bernoulli-Experiment mit derselben
Erfolgswahrscheinlichkeit n mal unabhängig voneinander
ausgeführt, so entsteht eine Bernoulli-Kette der Länge n mit der
Erfolgswahrscheinlichkeit p.
26 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Jakob Bernoulli (1654-1705)
Ars conjectandi (1713)
Schweizer Briefmarke 1994
Quelle: www.fh-friedberg.de/.../marke04 09 bild01.jpg”
Bernoulli-Ketten u.a. als Rahmen für den Beweis des Gesetzes der
großen Zahlen
27 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
.
Bernoulli-Experiment: Ω = {0, 1}, P(1) = p, 1 = Erfolg
Bernoulli-Kette:
Ergebnismenge: Ω = {w = (w1 , . . . , wn ) : wi ∈ {0, 1}}
Einzelwahrscheinlichkeiten:
P((w1 , . . . , wn )) = p Anzahl der Einsen ·(1−p)Anzahl der Nullen
(Unabhängigkeit)
P(nur Erfolge) = p · p · . . . · p = p n
P(nur Misserfolge) = (1 − p) · (1 − p) · . . . · (1 − p) = (1 − p)n
P(genau einen Erfolg) = n · p · (1 − p)n−1
P(genau k Erfolge) = kn p k (1 − p)n−k
Bernoulli-Experimente zeitlich parallel oder nacheinander
28 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Beispiele und Gegenbeispiele
Würfeln, Erfolg – 6
Ziehen mit Zurücklegen, Erfolg – rote Kugel
Tageshöchsttemperatur an aufeinanderfolgenden Tagen im
Juli in Berlin, Erfolg – Sommertag
Multiple-Choice-Test, Erfolg – richtige Antwort
Totoschein 13er-Wette, Erfolg – richtiger Tipp
kleine Stichproben ohne Zurücklegen aus großen
Grundgesamtheiten, Erfolg – Merkmal liegt vor
1000 Buchstaben eines Textes auswerten, Erfolg – Vokal
Elfmeterschüsse, Erfolg – Tor
29 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
realer Vorgang als Bernoulli-Kette:
Unabhängigkeit der Teilvorgänge
gleichbleibende Erfolgswahrscheinlichkeit
in der Regel idealisierende Annahmen, deshalb Modellkritik
wichtig
aber
auch einfache Modelle können helfen Einsichten zu gewinnen
einfache Modelle als erster Schritt
PS: Wir lassen die Pfadregeln hinter uns.
30 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Zufallsgrößen als Modellierungswerkzeuge nutzen!
1 falls i-ter Teilversuch Erfolg, d.h. wi = 1
Xi =
0 falls i-ter Teilversuch Misserfolg, d.h. wi = 0
Xi unabhängig und identisch verteilt mit
P(Xi = 1) = p,
E (Xi ) = p,
Var (Xi ) = p(1 − p)
Anzahl der Erfolge Sn = X1 + X2 + . . . + Xn
P(Sn = k) =
n
k
p k (1 − p)n−k
E (Sn ) = E (X1 ) + E (X2 ) + . . . + E (Xn ) = np (Additivität)
Var (Sn ) = Var (X1 ) + Var (X2 ) + . . . + Var (Xn ) = np(1 − p)
(Additivität bei Unabhängigkeit)
31 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
kσ-Intervalle
p
Mit σn = np(1 − p) gilt für große n

 0, 683 k = 1
0, 954 k = 2
P (np − kσn ≤ Sn ≤ np + kσn ) ≈

0, 997 k = 3
nur experimentell überprüfbar ⇒ experimentell überprüfen!
Faustregel für Anwendung np(1 − p) > 9
Wahrscheinlichkeiten fest, Lage und Länge der Intervalle
abhängig n und p
Kleine Standardabweichung ⇒ kurze Intervalle
große Standardabweichung ⇒ lange Intervalle
sehr schöne Interpretation von Erwartungswert und
Standardabweichung
32 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Beispiele für 2σ-Intervalle
33 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
B(50; 0, 3) : 15 ± 6 und B(150; 0, 3) : 45 ± 11
Intervalllänge wächst mit n. Wachstum mit Größenordnung
√
n.
34 / 61
Bernoulli-Ketten
Unabhängigkeit von Experimenten
Modell Bernoulli-Kette
Gestalt der Binomialverteilung
Exakte Aussagen über kσ-Intervalle
Tschebyschewsche Ungleichung:
P(|X − EX | ≥ ε) ≤ VarX
ε2
⇔ P(|X − EX | < ε) ≥ 1 − VarX
ε2
X ∼ B(n; p) und ε = kσ
P(|X − np| < kσ) ≥ 1 − knp(1−p)
2 np(1−p)

k=1
 0
0, 75 k = 2
≥

0, 89 k = 3
35 / 61
Normalverteilung als Grenzfall der Binomialverteilung
3
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
36 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
für große n:
E (Sn )
→
∞
Var (Sn )
→
∞
σn
→
∞
Verteilungen (Histogramme) fließen auseinander“, aber
”
Gesamtfläche 1
Standardisierung in drei Schritten:
1. Zentrieren: Sn − np
Sn − np
2. Stauchen der Intervallbreite: p
np(1 − p)
3. Strecken der Säulenhöhe
Anpassung einer universellen Kurve an die standardisierten
Histogramme
37 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
1. Zentrieren
38 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
2. Stauchen und 3. Strecken
39 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
Beim 2. Schritt entstehen reelle Zahlen, die keine natürlichen sind:
Sn = k
⇔ k − 0, 5
≤
Sn
⇔ k − 0, 5 − np
≤
Sn − np
≤ k + 0, 5 − np
k − 0, 5 − np
σn
≤
Sn − np
σn
≤
⇔
≤ k + 0, 5
k + 0, 5 − np
σn
Somit
P(Sn = k) = P
k − 0, 5 − np
Sn − np
k + 0, 5 − np
≤
≤
σn
σn
σn
= pk
±0, 5 – Stetigkeitskorrektur
40 / 61
Normalverteilung als Grenzfall der Binomialverteilung
P(Sn = k) = P
Intervallbreite:
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
Sn − np
k + 0, 5 − np
k − 0, 5 − np
≤
≤
σn
σn
σn
= pk
k + 0, 5 − np − (k − 0, 5 − np)
1
=
σn
σn
41 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Intervallbreite:
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
1
σn
Säulenfläche := pk , folglich Säulenhöhe = pk · σn
universelle Kurve: ϕ – Gaußsche Glockenkurve
42 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
Quelle: www.geogebra.org/de
ϕ(x) =
√1 e
2π
2
− x2
X ∼ N(0, 1): P(a ≤ X ≤ b) =
Rb
ϕ(x)dx = φ(b) − φ(a)
a
siehe auch www.geogebra.org/de/examples/normalverteilung/normalverteilung.html
43 / 61
Normalverteilung als Grenzfall der Binomialverteilung
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
Grenzwertsatz von de Moivre-Laplace
Sei Sn ∼ B(n, p) mit 0 < p < 1. Dann gilt für alle α < β
!
Sn − np
≤ β = φ(β) − φ(α)
lim P α ≤ p
n→∞
np(1 − p)
Praktische Anwendung:
Ersetze das n-te Folgeglied durch den Grenzwert
44 / 61
Normalverteilung als Grenzfall der Binomialverteilung
P(a ≤ Sn ≤ b)
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
(∗)
= P(a − 0, 5 ≤ Sn ≤ b + 0, 5)
Stetigkeitskorrektur
a−0,5−np
b+0,5−np
= P √
≤ √Sn −np ≤ √
Standardisierung
np(1−p) np(1−p) np(1−p)
b−0,5−np
a+0,5−np
≈ φ √
− √
Approximation
np(1−p)
np(1−p)
auf schwache Ungleichungen im Ansatz (*) achten
Stetigkeitskorrektur bei großen σn vernachlässigbar
Faustregel für die Approximation: np(1 − p) > 9
45 / 61
Standardisieren
Standardnormalverteilung
Grenzwertsatz von de Moivre-Laplace
Normalverteilung als Grenzfall der Binomialverteilung
2σ-Intervalle:
P (np − 2σn ≤ Sn ≤ np + 2σn )
Sn − np
= P −2 ≤
≤2
σn
≈ φ(2) − φ(−2)
≈ 0, 954
Beispiel
X ∼ B 600, 61 , E (X ) = 100, Var (X ) =
100 − 2σ = 81, 74,
500
6 ,σ
≈ 9, 13
100 + 2σ = 118, 26
2σ-Intervall: [82; 118]
exakt: P(82 ≤ X ≤ 118) = 0, 958
46 / 61
Anwendungen
PS
4
Anwendungen
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
5
PS
47 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Verdeckte Befragung
Prozentsatz sozial unerwünschter, peinlicher oder strafbarer
Handlungen soll geschätzt werden
ehrliche Antworten auf direkte peinliche Fragen nicht zu
erwarten
S. L. Warner (1965): RRT, Idee: verstärke das Gefühl von
Anonymität
W. R. Simmonds (1967): Unrelated Question Model, wie
RRT, aber unverfänglicher.
P. T. Liu, L. P. Chow (1976): Quantitative Randomized
Response Model
48 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Beispiel
Gesucht: Prozentsatz der Studierenden, die schon einmal bei
einer Prüfung betrogen haben
Befragungsdesign:
10 Kärtchen: 7 mit der Aufforderung Sagen Sie Ja!“ (Typ A)
”
3 mit der Frage Haben Sie schon einmal bei einer Prüfung
”
betrogen?“ (Typ B)
Kärtchen auf der Rückseite gleich.
befragte Person zieht eine Karte
Annahme: Die Befragten folgen der Aufforderung bzw.
antworten wahrheitsgemäß.
Was spricht dafür, dass Befragte bei dieser Form eher ehrlich
antworten?
Worin bestehen Nachteile dieses Verfahrens?
49 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Modell
π – Anteil der Typ-B-Karten, p – unbekannter Anteil der
Betrüger
P(Ja) = 1 − π + π · p
p̂ – Schätzwert für p aus einer großen Anzahl n von Befragten
hn (Ja) − 1 + π
Ansatz P(Ja) = hn (Ja) liefert p̂ =
π
50 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Eigenschaften des Schätzers p̂
Arbeiten im Modell, Nutzen von Zufallsgrößen, Eigenschaften von
Erwartungswert und Varianz
p̂ ist eine Zufallsgröße, E (p̂) =?, Var (p̂) =?
E (p̂)
= E hn (Ja)−1+π
= E (hn (Ja))−1+π
π
π
Var (hn (Ja))
Var (p̂) = Var hn (Ja)−1+π
=
π
π2
hn (Ja) =
Sn
n ,
Sn – Anzahl der Ja-Antworten
E (hn (Ja)) = n1 E (Sn )
Var (hn (Ja)) =
1
Var (Sn )
n2
51 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Verteilung von Sn – Anzahl der Ja-Antworten?
Annahmen:
1. Befragungen der n Personen sind unabhängige Teilexperimente
2. Jede Person antwortet mit Wahrscheinlichkeit p auf eine
B-Frage mit Ja“
”
Dann Sn ∼ B(n, 1 − π + πp)
E (Sn ) = n(1 − π + πp),
Var (Sn ) = n(1 − π + πp)(π − πp) = nπ(1 − π + πp)(1 − p)
Einsetzen in die bereitgestellten Formeln liefert
E (p̂) = p
Var (p̂) =
p(1 − p) (1 − π)(1 − p)
+
n
πn
52 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Diskussion der Eigenschaften des Schätzers
E (p̂) = p – im Mittel schätzen wir richtig
Var (p̂) =
p(1 − p) (1 − π)(1 − p)
+
n
πn
π = 1 bedeutet direkte Befragung
Varianz erhöht sich durch RRT
p, n fest: Erhöhung um so größer, je kleiner π
psychologisch gut ist π = 0, 5
53 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Zahlenbeispiel
n = 2000, π = 0, 5
h2000 (Ja) − 0, 5
= 2 · h2000 (Ja) − 1
0, 5
p(1 − p) 1 − p
1 − p2
1
Var (p̂) =
+
=
≤
2000
2000
2000
2000
p̂ =
Genauigkeit der Schätzung: σ(p̂) ≤ 0, 022
Beispiel: hn (Ja) = 0, 67 liefert p̂ = 2 · 0, 67 − 1 = 0, 34
2σ-Intervall für das unbekannte p: [0, 30; 0, 38].
Literaturhinweise:
K.Krüger: Wahrheit oder Pflicht. In: mathematik lehren, Heft 125, August 2004
A. Engel: Stochastik. Stuttgart: Klett, 1987
54 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Qualitätskontrolle des Ausschussanteils p bei Massenproduktion
Sollwert p ≤ 0, 05 durch zufällige Stichprobe vom Umfang n
kontrolliert
X – Anzahl Ausschussteile in der Stichprobe
Annahme: X ∼ B(n, p)
√
bei p = 0, 05 gilt EX = n · 0, 05 und σ = n · 0, 05 · 0, 95
Wenn K = {X > n · 0, 05 + 2σ} eintritt, dann Posten
ablehnen. Zu viel Ausschuss!“
”
Wenn p = 0, 05 gilt, dann P(K ) ≈ 0, 023 (2σ-Intervall)
Herstellerrisiko: Es kann sein, dass K eintritt, obwohl
p ≤ 0.05. Chance: 2,3%
Abnehmerrisiko: Es kann sein, dass K nicht eintritt, obwohl
p > 0, 05.
55 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Herstellerrisiko und Abnehmerrisiko konkurrieren!
56 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Abnehmerrisiko umso größer, je näher p an 0,05.
Abnehmer gibt einen für ihn gerade noch erträglichen
Ausschussanteil π > 0, 05 und eine Risikowahrscheinlichkeit β
an, so dass gilt:
Pπ (K ) ≤ β,
d.h. schlechter Posten wird höchstens mit Wkeit β nicht
zurückgewiesen.
erfüllbar nur durch genügend großes n
57 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Wählen π = 0, 07 und β = 0, 1:
Pπ (X ≤ n · 0, 05 + 2σ)
≤ 0, 1
⇔ Pπ (X − n · 0, 07 ≤ n · 0, 05 + 2σ − n · 0, 07) ≤ 0, 1
n(0,05−0,07)+2σ
X
−n·0,07
≤√
⇔
Pπ √
≤ 0, 1
n·0,07(1−0,07)
n·0,07(1−0,07)
Normalapproximation:
⇔
⇔
√
φ n(0,05−0,07)+2σ
n·0,07(1−0,07)
1 − φ √0,02n−2σ
n·0,07·0,93
φ
√0,02n−2σ
n·0,07·0,93
≤ 0, 1
≤ 0, 1
≥ 0, 9
58 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
√
0, 02 n − 2σ
φ √
0, 07 · 0, 93
√
√
0, 02 n − 2 0, 05 · 0, 95
√
0, 07 · 0, 93
⇔
⇔
n
≥
0, 9
≥ 1, 28
≥ 1554
Ablehnungsbereich K = {X > 87} sichert Herstellerrisiko von
höchstens 2, 3% und Abnehmerrisiko bei p = 0, 07 von 10%.
59 / 61
Anwendungen
PS
Verdeckte Befragung
Statistische Qualitätskontrolle
Weitere Beispiele
Weitere Beispiele
Überbuchung
u.a. in: Einheitliche Prüfungsanforderungen in der
”
Abiturprüfung – Mathematik“ (Beschluss der KMK vom
24.05.2002)
Sammelproben
Kernzerfall
Irrfahrten
Mendelsche Gesetze
Wahlen
60 / 61
Anwendungen
PS
Sunday, November 16, 2008
Lieber Steini,
als wir dieses Wochenende ein Spiel namens Abenteuer Menschheit“ (ähnlich wie
”
Siedler von Catan“) spielten, beschwerte
”
sich mein kleiner Bruder ,dass mein Vater
viel mehr Karten bekam als er. Nach dem
Spiel berechnete ich aber die Wahrscheinlichkeit für jede Farbe (rot, orange, blau, weiß
) eine Karte zu bekommen (bei einen mal
würfeln, mit zwei Würfeln). Eine Karte bekommt man, wenn ein Stamm (sieht so aus,
wie eine Flamme; s. Bild) deiner Farbe an einem Feld steht, worauf die Zahl zusehen ist,
die gewürfelt wurde. Mein keiner Bruder hatte blau und mein Vater rot. Aber nach der
Ausrechnung kam raus, dass WEISS (Mama)
27 3
die beste Wahrscheinlichkeit von 36
( 4 ) hatte und alle anderen Farben eine von 26
( 13 )
36 18
hatten, eine Karte bei einen mal würfeln
zu bekommen. Ab jetzt an, kann ich wegen
der Wahrscheinlichkeitsrechnung viel strategischer gegen meine Familie spielen.
Danke. Gruss Florian
61 / 61
Herunterladen