Binomialverteilung und Anwendungen Elke Warmuth Humboldt-Universität Berlin Sommersemester 2010 1 / 61 Unabhängigkeit von Ereignissen 1 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen 2 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Kolmogorow: The concept of mutual independence of two or ” more experiments holds, in a certain sense, a central position in the theory of probability. ... Historically, the independence of experiments and random variables represents the very mathematical concept that has given the theory of probability its peculiar stamp.“ Quelle: A. N. Kolmogorov: Foundations of the Theory of Probability. New York: Chelsea Publishing Company, 1950. 3 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Was soll erfasst werden? Ereignisse A und B haben folgende Eigenschaft: Information über das Eintreten von A beeinflusst unsere Bewertung der Chancen für das Eintreten von B nicht. Prototypen: Ziehen mit und ohne Zurücklegen 4 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen R1 – rote Kugel im 1. Zug, R2 – rote Kugel im 2. Zug ohne Zurücklegen P(R2 ) = 3 10 P(R2 |R1 ) = mit Zurücklegen P(R2 ) = 2 9 < 3 10 3 10 P(R2 |R1 ) = 3 10 5 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Ziehen ohne Zurücklegen: P(R1 |R2 ) = P(R1 ∩ R2 ) = P(R2 ) 3 10 · 3 10 2 9 = 2 9 Die Information darüber, dass die zweite Kugel rot ist, verändert die Chancen für eine rote Kugel im ersten Zug. Es ist wahrscheinlicher, dass die erste Kugel weiß war. Real ist R1 unbeeinflusst von R2 , aber stochastisch, im Sinne der Chancen, schon. Provisorische Festlegung: Das Ereignis A ist stochastisch unabhängig vom Ereignis B mit P(B) > 0, falls P(A|B) = P(A) gilt. 6 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Folgerungen aus der provisorischen Festlegung für P(A) und P(B) positiv: A unabhängig von B ⇔ P(A|B) P(A ∩ B) ⇔ P(B) ⇔ P(A ∩ B) P(A ∩ B) ⇔ P(A) ⇔ P(B|A) = P(A) = P(A) = P(A) · P(B) = P(B) = P(B) A unabhängig von B genau dann, wenn B unabhängig von A, stochastische Unabhängigkeit ist symmetrisch in A und B ⇒ endgültige Definition 7 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Definition: Unabhängigkeit zweier Ereignisse Zwei Ereignisse A und B heißen (stochastisch) unabhängig, falls die Produktformel P(A ∩ B) = P(A) · P(B) gilt. Symmetrie ohne Voraussetzung P(A) > 0 bzw. P(B) > 0. Aspekte von Unabhängigkeit Unabhängigkeit als Modellannahme Unabhängigkeit in einem Modell nachweisen 8 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen gutes Beispiel: Quelle: Barth, Haller: Stochastik Leistungskurs. München: Oldenbourg Schulbuchverlag, 1998 Sehr empfehlenswertes Lehrbuch (für Lehrerinnen und Lehrer) 9 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen schlechtes Beispiel: Quelle: Mathematik. Band 2. Sachsen-Anhalt. Berlin: Cornelsen Verlag, 2005 10 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Begriff Unabhängigkeit festigen Unabhängigkeit und Unvereinbarkeit Unabhängigkeit in Vierfeldertafel Beispiele und Gegenbeispiele Verallgemeinerung auf n Ereignisse Unabhängigkeit von Vorgängen 11 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Unabhängigkeit und Unvereinbarkeit i.A. krasse Abhängigkeit: Eintreten von A macht Eintreten von B unmöglich und umgekehrt. Nagelprobe Verständnis für inhaltliches 12 / 61 Unabhängigkeit von Ereignissen Ausnahme: Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen P(A ∩ B) = P(A) · P(B) 0 = P(A) · P(B) P(A) = 0 oder P(B) = 0 Ereignisse mit Wahrscheinlichkeit 0 sind von allen Ereignissen unabhängig. Ereignisse mit Wahrscheinlichkeit 1 auch. Sei nämlich P(A) = 1 P(A) · P(B) = P(B) = P(B ∩ A) + P(B ∩ A) = P(B ∩ A) Entspricht das inhaltlichem Verständnis? 13 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Unabhängigkeit in Vierfeldertafel A A B P(A) · P(B) P(B) B P(B) P(A) P(A) 1 P(B) − P(A) · P(B) = P(B) [1 − P(A)] = P(B) · P(A) 14 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Unabhängigkeit in Vierfeldertafel A A B P(A) · P(B) P(A) · P(B) P(B) B P(A) · P(B) P(A) · P(B) P(B) P(A) P(A) 1 Aus der Unabhängigkeit für ein Pärchen“ folgt die ” Unabhängigkeit für alle anderen. 15 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Beispiele und Gegenbeispiele 1. Zweimaliges Würfeln mit einem fairen Würfel A – erster Wurf 6, B – zweiter Wurf 3 Unabhängigkeit als Modellierungselement: Argumentation: Das Eintreten von A beeinflusst die Chancen für das Eintreten von B nicht (Gedächtnislosigkeit). ⇒ P(A ∩ B) = 1 1 · 6 6 Unabhängigkeit in einem Modell nachprüfen: Ω = {(w1 , w2 ) : w1 , w2 ∈ {1, 2, . . . , 6}} Annahme: gleichwahrscheinlich, |Ω| = 36 |A| = |B| = 6, |A ∩ B| = 1 ⇒ P(A ∩ B) = P(A) · P(B) ⇒ A und B unabhängig 16 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen 2. Zweimaliges Würfeln mit einem fairen Würfel A – Augensumme gerade, B – zweite Augenzahl gerade Was sagt die Intuition? Ω = {(w1 , w2 ) : w1 , w2 ∈ {1, 2, . . . , 6}} Annahme: gleichwahrscheinlich, |Ω| = 36 P(A) = 18 36 , P(B) = 1 2 A ∩ B = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)} ⇒ P(A ∩ B) = 9 36 = 1 4 = P(A) · P(B) ⇒ A und B stochastisch unabhängig, obwohl reale gegenseitige Beeinflussung von A und B. 17 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen 3. Test auf Unabhängigkeit Verunglückte Verkehrsteilnehmer bei Verkehrsunfällen in Berlin von Januar bis Juli 2006 Quelle: http://www.statistik-berlin.de/home.htm unter 15 ab 15 √1 9106 männlich 369 4716 5085 weiblich 288 3733 4021 657 8449 9106 ≈ 0, 01, sinnvoll runden 18 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen unter 15 ab 15 männlich 0, 04 0, 52 0, 56 weiblich 0, 03 0, 41 0, 44 0, 07 0, 93 1, 00 0, 07 · 0, 56 ≈ 0, 04 Spricht für Unabhängigkeitsannahme Frage: Wie große Abweichungen von der Produktformel sind noch mit Zufallsschwankungen verträglich? Typische Fragestellung bei statistischem Test. 19 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Was soll erfasst werden? Information über das Eintreten von A beeinflusst unsere Bewertung der Chancen für das Eintreten von B bzw. C nicht. Analog B und C . Kurz paarweise Unabhängigkeit: P(A ∩ B) = P(A) · P(B) P(A ∩ C ) = P(A) · P(C ) P(B ∩ C ) = P(B) · P(C ) Aber auch: Information über das Eintreten von A ∩ B beeinflusst unsere Bewertung der Chancen für das Eintreten von C nicht: P((A ∩ B) ∩ C ) = P(A ∩ B) · P(C ) P(A ∩ B ∩ C ) = P(A) · P(B) · P(C ) 20 / 61 Unabhängigkeit von Ereignissen Bedeutung der Unabhängigkeit Unabhängigkeit von zwei Ereignissen Unabhängigkeit von 3 Ereignissen Definition: Vollständige Unabhängigkeit von drei Ereignissen Drei Ereignisse A, B und C heißen (vollständig stochastisch) unabhängig, falls die folgenden Produktformeln P(A ∩ B) P(A ∩ C ) P(B ∩ C ) P(A ∩ B ∩ C ) = = = = P(A) · P(B) (1) P(A) · P(C ) (2) P(B) · P(C ) (3) P(A) · P(B) · P(C ) (4) gelten. Weder die Gleichungen (1) bis (3) zusammen, noch die Gleichung (4) alleine reichen aus für vollständige Unabhängigkeit. Naheliegende Verallgemeinerung auf n Ereignisse. 21 / 61 Bernoulli-Ketten 2 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung 22 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Unabhängige Experimente Was heißt eigentlich unabhängige Wiederholungen eines ” Experiments“ oder auch unabhängige Teilexperimente“? ” Vorstellung: Gesamtexperiment besteht aus n Teilexperimenten. Welche Eigenschaft müsste das Modell dieses Gesamtexperiments haben, wenn die Teilexperimente unabhängig heißen sollen? 23 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Halbformale Definition Teilexperimente heißen unabhängig, wenn beliebige Ereignisse, die etwas über die Ausgänge verschiedener Teilexperimente aussagen, unabhängig sind. Wenn A1 zum ersten, A2 zum zweiten, ..., An zum n-ten von n unabhängigen Teilexperimenten gehört, dann gilt die Produktformel P(A1 ∩ A2 ∩ . . . ∩ An ) = P(A1 ) · (A2 ) · . . . · P(An ). Genau diese Situation liegt bei Bernoulli-Ketten vor. 24 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Quelle: Mathematik. Band 2. Sachsen-Anhalt. Berlin: Cornelsen Verlag, 2005 25 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Was heißt in exakt gleicher Weise“ ” Warum wird der eingeführte Begriff Unabhängigkeit“ nicht ” benutzt? Bernoulli-Kette Vorgänge mit zufälligem Ergebnis, bei denen nur zwischen Erfolg (1) und Misserfolg (0) unterschieden wird, heißen Bernoulli-Experimente oder Bernoulli-Versuche. Wird ein Bernoulli-Experiment mit derselben Erfolgswahrscheinlichkeit n mal unabhängig voneinander ausgeführt, so entsteht eine Bernoulli-Kette der Länge n mit der Erfolgswahrscheinlichkeit p. 26 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Jakob Bernoulli (1654-1705) Ars conjectandi (1713) Schweizer Briefmarke 1994 Quelle: www.fh-friedberg.de/.../marke04 09 bild01.jpg” Bernoulli-Ketten u.a. als Rahmen für den Beweis des Gesetzes der großen Zahlen 27 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung . Bernoulli-Experiment: Ω = {0, 1}, P(1) = p, 1 = Erfolg Bernoulli-Kette: Ergebnismenge: Ω = {w = (w1 , . . . , wn ) : wi ∈ {0, 1}} Einzelwahrscheinlichkeiten: P((w1 , . . . , wn )) = p Anzahl der Einsen ·(1−p)Anzahl der Nullen (Unabhängigkeit) P(nur Erfolge) = p · p · . . . · p = p n P(nur Misserfolge) = (1 − p) · (1 − p) · . . . · (1 − p) = (1 − p)n P(genau einen Erfolg) = n · p · (1 − p)n−1 P(genau k Erfolge) = kn p k (1 − p)n−k Bernoulli-Experimente zeitlich parallel oder nacheinander 28 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Beispiele und Gegenbeispiele Würfeln, Erfolg – 6 Ziehen mit Zurücklegen, Erfolg – rote Kugel Tageshöchsttemperatur an aufeinanderfolgenden Tagen im Juli in Berlin, Erfolg – Sommertag Multiple-Choice-Test, Erfolg – richtige Antwort Totoschein 13er-Wette, Erfolg – richtiger Tipp kleine Stichproben ohne Zurücklegen aus großen Grundgesamtheiten, Erfolg – Merkmal liegt vor 1000 Buchstaben eines Textes auswerten, Erfolg – Vokal Elfmeterschüsse, Erfolg – Tor 29 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung realer Vorgang als Bernoulli-Kette: Unabhängigkeit der Teilvorgänge gleichbleibende Erfolgswahrscheinlichkeit in der Regel idealisierende Annahmen, deshalb Modellkritik wichtig aber auch einfache Modelle können helfen Einsichten zu gewinnen einfache Modelle als erster Schritt PS: Wir lassen die Pfadregeln hinter uns. 30 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Zufallsgrößen als Modellierungswerkzeuge nutzen! 1 falls i-ter Teilversuch Erfolg, d.h. wi = 1 Xi = 0 falls i-ter Teilversuch Misserfolg, d.h. wi = 0 Xi unabhängig und identisch verteilt mit P(Xi = 1) = p, E (Xi ) = p, Var (Xi ) = p(1 − p) Anzahl der Erfolge Sn = X1 + X2 + . . . + Xn P(Sn = k) = n k p k (1 − p)n−k E (Sn ) = E (X1 ) + E (X2 ) + . . . + E (Xn ) = np (Additivität) Var (Sn ) = Var (X1 ) + Var (X2 ) + . . . + Var (Xn ) = np(1 − p) (Additivität bei Unabhängigkeit) 31 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung kσ-Intervalle p Mit σn = np(1 − p) gilt für große n 0, 683 k = 1 0, 954 k = 2 P (np − kσn ≤ Sn ≤ np + kσn ) ≈ 0, 997 k = 3 nur experimentell überprüfbar ⇒ experimentell überprüfen! Faustregel für Anwendung np(1 − p) > 9 Wahrscheinlichkeiten fest, Lage und Länge der Intervalle abhängig n und p Kleine Standardabweichung ⇒ kurze Intervalle große Standardabweichung ⇒ lange Intervalle sehr schöne Interpretation von Erwartungswert und Standardabweichung 32 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Beispiele für 2σ-Intervalle 33 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung B(50; 0, 3) : 15 ± 6 und B(150; 0, 3) : 45 ± 11 Intervalllänge wächst mit n. Wachstum mit Größenordnung √ n. 34 / 61 Bernoulli-Ketten Unabhängigkeit von Experimenten Modell Bernoulli-Kette Gestalt der Binomialverteilung Exakte Aussagen über kσ-Intervalle Tschebyschewsche Ungleichung: P(|X − EX | ≥ ε) ≤ VarX ε2 ⇔ P(|X − EX | < ε) ≥ 1 − VarX ε2 X ∼ B(n; p) und ε = kσ P(|X − np| < kσ) ≥ 1 − knp(1−p) 2 np(1−p) k=1 0 0, 75 k = 2 ≥ 0, 89 k = 3 35 / 61 Normalverteilung als Grenzfall der Binomialverteilung 3 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace 36 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace für große n: E (Sn ) → ∞ Var (Sn ) → ∞ σn → ∞ Verteilungen (Histogramme) fließen auseinander“, aber ” Gesamtfläche 1 Standardisierung in drei Schritten: 1. Zentrieren: Sn − np Sn − np 2. Stauchen der Intervallbreite: p np(1 − p) 3. Strecken der Säulenhöhe Anpassung einer universellen Kurve an die standardisierten Histogramme 37 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace 1. Zentrieren 38 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace 2. Stauchen und 3. Strecken 39 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace Beim 2. Schritt entstehen reelle Zahlen, die keine natürlichen sind: Sn = k ⇔ k − 0, 5 ≤ Sn ⇔ k − 0, 5 − np ≤ Sn − np ≤ k + 0, 5 − np k − 0, 5 − np σn ≤ Sn − np σn ≤ ⇔ ≤ k + 0, 5 k + 0, 5 − np σn Somit P(Sn = k) = P k − 0, 5 − np Sn − np k + 0, 5 − np ≤ ≤ σn σn σn = pk ±0, 5 – Stetigkeitskorrektur 40 / 61 Normalverteilung als Grenzfall der Binomialverteilung P(Sn = k) = P Intervallbreite: Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace Sn − np k + 0, 5 − np k − 0, 5 − np ≤ ≤ σn σn σn = pk k + 0, 5 − np − (k − 0, 5 − np) 1 = σn σn 41 / 61 Normalverteilung als Grenzfall der Binomialverteilung Intervallbreite: Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace 1 σn Säulenfläche := pk , folglich Säulenhöhe = pk · σn universelle Kurve: ϕ – Gaußsche Glockenkurve 42 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace Quelle: www.geogebra.org/de ϕ(x) = √1 e 2π 2 − x2 X ∼ N(0, 1): P(a ≤ X ≤ b) = Rb ϕ(x)dx = φ(b) − φ(a) a siehe auch www.geogebra.org/de/examples/normalverteilung/normalverteilung.html 43 / 61 Normalverteilung als Grenzfall der Binomialverteilung Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace Grenzwertsatz von de Moivre-Laplace Sei Sn ∼ B(n, p) mit 0 < p < 1. Dann gilt für alle α < β ! Sn − np ≤ β = φ(β) − φ(α) lim P α ≤ p n→∞ np(1 − p) Praktische Anwendung: Ersetze das n-te Folgeglied durch den Grenzwert 44 / 61 Normalverteilung als Grenzfall der Binomialverteilung P(a ≤ Sn ≤ b) Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace (∗) = P(a − 0, 5 ≤ Sn ≤ b + 0, 5) Stetigkeitskorrektur a−0,5−np b+0,5−np = P √ ≤ √Sn −np ≤ √ Standardisierung np(1−p) np(1−p) np(1−p) b−0,5−np a+0,5−np ≈ φ √ − √ Approximation np(1−p) np(1−p) auf schwache Ungleichungen im Ansatz (*) achten Stetigkeitskorrektur bei großen σn vernachlässigbar Faustregel für die Approximation: np(1 − p) > 9 45 / 61 Standardisieren Standardnormalverteilung Grenzwertsatz von de Moivre-Laplace Normalverteilung als Grenzfall der Binomialverteilung 2σ-Intervalle: P (np − 2σn ≤ Sn ≤ np + 2σn ) Sn − np = P −2 ≤ ≤2 σn ≈ φ(2) − φ(−2) ≈ 0, 954 Beispiel X ∼ B 600, 61 , E (X ) = 100, Var (X ) = 100 − 2σ = 81, 74, 500 6 ,σ ≈ 9, 13 100 + 2σ = 118, 26 2σ-Intervall: [82; 118] exakt: P(82 ≤ X ≤ 118) = 0, 958 46 / 61 Anwendungen PS 4 Anwendungen Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele 5 PS 47 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Verdeckte Befragung Prozentsatz sozial unerwünschter, peinlicher oder strafbarer Handlungen soll geschätzt werden ehrliche Antworten auf direkte peinliche Fragen nicht zu erwarten S. L. Warner (1965): RRT, Idee: verstärke das Gefühl von Anonymität W. R. Simmonds (1967): Unrelated Question Model, wie RRT, aber unverfänglicher. P. T. Liu, L. P. Chow (1976): Quantitative Randomized Response Model 48 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Beispiel Gesucht: Prozentsatz der Studierenden, die schon einmal bei einer Prüfung betrogen haben Befragungsdesign: 10 Kärtchen: 7 mit der Aufforderung Sagen Sie Ja!“ (Typ A) ” 3 mit der Frage Haben Sie schon einmal bei einer Prüfung ” betrogen?“ (Typ B) Kärtchen auf der Rückseite gleich. befragte Person zieht eine Karte Annahme: Die Befragten folgen der Aufforderung bzw. antworten wahrheitsgemäß. Was spricht dafür, dass Befragte bei dieser Form eher ehrlich antworten? Worin bestehen Nachteile dieses Verfahrens? 49 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Modell π – Anteil der Typ-B-Karten, p – unbekannter Anteil der Betrüger P(Ja) = 1 − π + π · p p̂ – Schätzwert für p aus einer großen Anzahl n von Befragten hn (Ja) − 1 + π Ansatz P(Ja) = hn (Ja) liefert p̂ = π 50 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Eigenschaften des Schätzers p̂ Arbeiten im Modell, Nutzen von Zufallsgrößen, Eigenschaften von Erwartungswert und Varianz p̂ ist eine Zufallsgröße, E (p̂) =?, Var (p̂) =? E (p̂) = E hn (Ja)−1+π = E (hn (Ja))−1+π π π Var (hn (Ja)) Var (p̂) = Var hn (Ja)−1+π = π π2 hn (Ja) = Sn n , Sn – Anzahl der Ja-Antworten E (hn (Ja)) = n1 E (Sn ) Var (hn (Ja)) = 1 Var (Sn ) n2 51 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Verteilung von Sn – Anzahl der Ja-Antworten? Annahmen: 1. Befragungen der n Personen sind unabhängige Teilexperimente 2. Jede Person antwortet mit Wahrscheinlichkeit p auf eine B-Frage mit Ja“ ” Dann Sn ∼ B(n, 1 − π + πp) E (Sn ) = n(1 − π + πp), Var (Sn ) = n(1 − π + πp)(π − πp) = nπ(1 − π + πp)(1 − p) Einsetzen in die bereitgestellten Formeln liefert E (p̂) = p Var (p̂) = p(1 − p) (1 − π)(1 − p) + n πn 52 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Diskussion der Eigenschaften des Schätzers E (p̂) = p – im Mittel schätzen wir richtig Var (p̂) = p(1 − p) (1 − π)(1 − p) + n πn π = 1 bedeutet direkte Befragung Varianz erhöht sich durch RRT p, n fest: Erhöhung um so größer, je kleiner π psychologisch gut ist π = 0, 5 53 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Zahlenbeispiel n = 2000, π = 0, 5 h2000 (Ja) − 0, 5 = 2 · h2000 (Ja) − 1 0, 5 p(1 − p) 1 − p 1 − p2 1 Var (p̂) = + = ≤ 2000 2000 2000 2000 p̂ = Genauigkeit der Schätzung: σ(p̂) ≤ 0, 022 Beispiel: hn (Ja) = 0, 67 liefert p̂ = 2 · 0, 67 − 1 = 0, 34 2σ-Intervall für das unbekannte p: [0, 30; 0, 38]. Literaturhinweise: K.Krüger: Wahrheit oder Pflicht. In: mathematik lehren, Heft 125, August 2004 A. Engel: Stochastik. Stuttgart: Klett, 1987 54 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Qualitätskontrolle des Ausschussanteils p bei Massenproduktion Sollwert p ≤ 0, 05 durch zufällige Stichprobe vom Umfang n kontrolliert X – Anzahl Ausschussteile in der Stichprobe Annahme: X ∼ B(n, p) √ bei p = 0, 05 gilt EX = n · 0, 05 und σ = n · 0, 05 · 0, 95 Wenn K = {X > n · 0, 05 + 2σ} eintritt, dann Posten ablehnen. Zu viel Ausschuss!“ ” Wenn p = 0, 05 gilt, dann P(K ) ≈ 0, 023 (2σ-Intervall) Herstellerrisiko: Es kann sein, dass K eintritt, obwohl p ≤ 0.05. Chance: 2,3% Abnehmerrisiko: Es kann sein, dass K nicht eintritt, obwohl p > 0, 05. 55 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Herstellerrisiko und Abnehmerrisiko konkurrieren! 56 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Abnehmerrisiko umso größer, je näher p an 0,05. Abnehmer gibt einen für ihn gerade noch erträglichen Ausschussanteil π > 0, 05 und eine Risikowahrscheinlichkeit β an, so dass gilt: Pπ (K ) ≤ β, d.h. schlechter Posten wird höchstens mit Wkeit β nicht zurückgewiesen. erfüllbar nur durch genügend großes n 57 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Wählen π = 0, 07 und β = 0, 1: Pπ (X ≤ n · 0, 05 + 2σ) ≤ 0, 1 ⇔ Pπ (X − n · 0, 07 ≤ n · 0, 05 + 2σ − n · 0, 07) ≤ 0, 1 n(0,05−0,07)+2σ X −n·0,07 ≤√ ⇔ Pπ √ ≤ 0, 1 n·0,07(1−0,07) n·0,07(1−0,07) Normalapproximation: ⇔ ⇔ √ φ n(0,05−0,07)+2σ n·0,07(1−0,07) 1 − φ √0,02n−2σ n·0,07·0,93 φ √0,02n−2σ n·0,07·0,93 ≤ 0, 1 ≤ 0, 1 ≥ 0, 9 58 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele √ 0, 02 n − 2σ φ √ 0, 07 · 0, 93 √ √ 0, 02 n − 2 0, 05 · 0, 95 √ 0, 07 · 0, 93 ⇔ ⇔ n ≥ 0, 9 ≥ 1, 28 ≥ 1554 Ablehnungsbereich K = {X > 87} sichert Herstellerrisiko von höchstens 2, 3% und Abnehmerrisiko bei p = 0, 07 von 10%. 59 / 61 Anwendungen PS Verdeckte Befragung Statistische Qualitätskontrolle Weitere Beispiele Weitere Beispiele Überbuchung u.a. in: Einheitliche Prüfungsanforderungen in der ” Abiturprüfung – Mathematik“ (Beschluss der KMK vom 24.05.2002) Sammelproben Kernzerfall Irrfahrten Mendelsche Gesetze Wahlen 60 / 61 Anwendungen PS Sunday, November 16, 2008 Lieber Steini, als wir dieses Wochenende ein Spiel namens Abenteuer Menschheit“ (ähnlich wie ” Siedler von Catan“) spielten, beschwerte ” sich mein kleiner Bruder ,dass mein Vater viel mehr Karten bekam als er. Nach dem Spiel berechnete ich aber die Wahrscheinlichkeit für jede Farbe (rot, orange, blau, weiß ) eine Karte zu bekommen (bei einen mal würfeln, mit zwei Würfeln). Eine Karte bekommt man, wenn ein Stamm (sieht so aus, wie eine Flamme; s. Bild) deiner Farbe an einem Feld steht, worauf die Zahl zusehen ist, die gewürfelt wurde. Mein keiner Bruder hatte blau und mein Vater rot. Aber nach der Ausrechnung kam raus, dass WEISS (Mama) 27 3 die beste Wahrscheinlichkeit von 36 ( 4 ) hatte und alle anderen Farben eine von 26 ( 13 ) 36 18 hatten, eine Karte bei einen mal würfeln zu bekommen. Ab jetzt an, kann ich wegen der Wahrscheinlichkeitsrechnung viel strategischer gegen meine Familie spielen. Danke. Gruss Florian 61 / 61