Statistik B Wahrscheinlichkeitsrechnung und induktive Statistik Prof. Dr. Alois Kneip Sommersemester 2012 Literatur: Fahrmeier, Künstler, Pigeot und Tutz (2004): Statistik, Springer Verlag Fahrmeier, Künstler, Pigeot, Tutz, Caputo und Lang (2005): Arbeitsbuch Statistik, Springer Verlag Statistik_II@finasto 0–1 Inhalt: 1) Wahrscheinlichkeitsrechnung 2) Diskrete Zufallsvariablen 3) Stetige Zufallsvariablen 4) Mehrdimensionale Zufallsvariablen 5) Stichproben und Schätzverfahren 6) Testen von Hypothesen 7) Spezielle Testprobleme Statistik_II@finasto 0–2 Einführung Statistik I (Deskriptive Statistik) Analyse von konkreten Daten: Datenaufbereitung, Auswertung und Interpretation mit Hilfe von Maßzahlen (relative Häufigkeiten, Mittelwert, Median, usw.) Statistik II (1. Teil: Wahrscheinlichkeitsrechnung, Zufallszahlen) Entwicklung von stochastischen Modellen; Formalisierung eines Zufallsvorgangs; Fragestellung: Welche Resultate können eintreten und wie sind die zugehörigen Wahrscheinlichkeiten? Statistik II (2. Teil: Induktive Statistik) Vergleich konkreter Daten mit idealisierter Modellvorstellung; Quantifzierung von Unsicherheit; Testen von Hypothesen. Statistik_II@finasto 0–3 Fragestellungen der Wahrscheinlichkeitsrechnung Historisches Beispiel: Analyse von „Glücksspiel“, Gewinnwahrscheinlichkeit Frage des George Brossin Chevalier de Méré an Blaise Pascal: Was ist wahrscheinlicher: Bei 4 Würfen mit einem Würfel (mindestens) einmal „6“ zu werfen oder bei 24 Würfen mit 2 Würfeln mindestens eine „Doppelsechs“ zu werfen? Vermutung: Gleichwahrscheinlich. (Doppelsechs ist zwar 6-mal weniger häufig als „6“, aber dafür hat man 6-mal so viele Versuche.) Feststellung des Chevalier de Méré (nach sehr vielen Partien am Spieltisch): Nicht gleichwahrscheinlich. Systematische Analyse dieser Situation? Beispiel: Wie groß ist die Wahrscheinlichkeit, im Lotto „6 Richtige“ zu tippen? Statistik_II@finasto 0–4 Vorgehen der induktiven Statistik Beispiel 1: Experiment: 100-maliges Werfen einer Münze Statistik I: (Datenanalyse) ⇒ Beobachtete absolute Häufigkeiten: 65 mal „Kopf“ und 35 mal „Zahl“ Frage: Münze fair (d.h. Ergebnis nur Zufall) oder manipuliert? Statistik II: Modellannahme: „Münze ist fair“ ⇒ Chance für Kopf : Zahl stehen 50 : 50 Induktion: Falls die Modellannahme erfüllt ist, d.h. falls die „Hypothese“ einer fairen Münze richtig ist, so ist die Wahrscheinlichkeit bei 100 Versuchen ≥ 65 mal Kopf zu beobachten nur 0, 003 (0,3%) Schlussfolgerung: Die Hypothese einer fairen Münze ist abzulehnen, die Münze ist wohl manipuliert Statistik_II@finasto 0–5 Beispiel: Meinungsforschung Frage: Wieviel Prozent der Bevölkerung sind für oder gegen eine bestimmte wirtschaftspolitische Entscheidung der Bundesregierung? Datenerhebung: Befragung von n = 1000 zufällig ausgewählten Bürgerinnen und Bürgern (⇒ Zufallsstichprobe). Datenanalyse (Statistik I): Relative Häufigkeiten z.B. 0, 513 = 51, 3% („dafür“) und 0, 487 = 48, 7% („dagegen“) Problem: Unsicherheit! Wie nahe liegt die aus der Stichprobe berechnete relative Häufigkeit an dem wahren Prozentsatz in der Bevölkerung? Induktive Statistik: Formalisierung des Problems und Berechnung von „Konfidenzintervallen“ zur Quantifizierung der Unsicherheit: Mit einer sehr geringen Irrtumswahrscheinlichkeit liegt der wahre Prozentsatz in der Bevölkerung im Intervall [0, 513 ± 0, 031] = [0, 482, 0, 544] Statistik_II@finasto 0–6 1 Wahrscheinlichkeitsrechnung 1.1 Grundbegriffe Ziel der Wahrscheinlichkeitsrechnung ist die Analyse einer stochastischen Situation. Grundlage ist die Modellierung von Zufallsvorgängen. Zwei Fragen: • Was kann alles passieren? • Mit welcher Wahrscheinlichkeit passiert dies oder jenes? Ein Zufallsvorgang führt zu einem von mehreren, sich gegenseitig ausschließenden Ergebnissen. Es ist vor der Durchführung ungewiss, welches Ergebnis tatsächlich eintreten wird. Ein Zufallsexperiment ist ein Zufallsvorgang, der unter kontrollierbaren Bedingungen wiederholbar ist. Idee: Ein „Ergebnis“ ω ∈ S tritt ein, zufallsgesteuert. Die (nichtleere) Menge S aller möglichen Ergebnisse heißt Ergebnisraum oder Ereignisraum. Statistik_II@finasto 1–1 Beispiele: Lose ziehen (auf Kirmes) S = {Niete, Trostpreis, Teddy, Ferrari} Nächstes Spiel eines Fußballvereins S = {Gewinn, Niederlage, Unentschieden} Ein Münzwurf S = {Kopf, Zahl}={+1, b −1}={0, b 1} Würfel S = {1, 2, 3, 4, 5, 6} Einarmiger Bandit S = {(z1 , z2 , z3 )|zi ∈ {Glocke, Krone, Apfel}} 2 Würfel (Monopoly, Backgammon, . . . ) S = {(1, 1), (1, 2), (2, 2), (2, 3), . . . , (6, 6)} Statistik_II@finasto 1–2 Beispiele (Fortsetzung): Ziehung der Lottozahlen (vereinfacht, ohne Zusatzzahl) S = {{z1 , . . . , z6 }|zi ̸= zj 1 ≤ zi ≤ 49} n Münzwürfe S = {ω = (z1 , . . . , zn )|zi ∈ {K, Z}} Anzahl Schadensmeldungen, die bei einer Versicherung in einem bestimmten Monat eingehen S = {0, 1, 2, . . . } Anzahl Unfälle auf einer bestimmten Kreuzung S = {0, 1, 2, . . . } Statistik_II@finasto 1–3 Beispiele (Fortsetzung): Pfeilwurf auf Zielscheibe (mit Radius 20cm) S = {alle Punkte in einer Kreisscheibe mit Radius 20cm} ={(x, ˆ y)|x2 + y 2 ≤ 202 } ⊂ R2 Drehen eines Glücksrads/Flaschendrehen S = {Winkel von 0 bis 360◦ }=[0, ˆ 360) „Random-Taste“ auf Ihrem Taschenrechner S = {Zufallszahlen im Einheitsintervall}=[0, ˆ 1] Aktienkurs S = {Möglicher Tages-Verlauf der VW-Aktie morgen} = ˆ {Alle „Pfade“ ausgehend von heutigem Schlusskurs} Statistik_II@finasto 1–4 Die letzten Beispiele zeigen: Oft ist das Eintreten jedes einzelnen Ergebnisses sehr, sehr unwahrscheinlich (z.B.: einen festen Punkt auf der Zielscheibe treffen). ⇒ Diskussion von Wahrscheinlichkeiten nicht auf der Ebene der Ergebnisse, sondern auf der Ebene der Ereignisse A ⊂ S. Eine Teilmenge A des Ergebnisraums S heißt Ereignis. Wir sagen: „A tritt ein“, wenn ein Ergebnis ω ∈ A eintritt. einzelnes Ergebnis ω ∈ S ⇔ Elementarereignis A = {ω} Beispiele: Ein Münzwurf: A = „Kopf liegt oben“ = {K} ⊂ S = {K,Z} 1 Würfel: A = „Eine 6 wird gewürfelt“ = {6} ⊂ {1, 2, 3, 4, 5, 6} B = „Eine gerade Zahl wird gewürfelt“ = {2, 4, 6} C = „Mehr als 4 wird gewürfelt“ = {5, 6} Statistik_II@finasto 1–5 Beispiele (Fortsetzung): 2 Würfel: A = „Pasch gewürfelt“ B = „Doppelsechs“ C = „Keine 4 dabei“ Einarmiger Bandit: A = „Hauptgewinn“ = {„Automat zeigt 3 Kronen“} = {(Krone,Krone,Krone)} Glücksrad / Flaschendrehen: A = „Glücksrad bleibt in bestimmtem Sektor stehen“ = „Flasche zeigt auf bestimmte Person“ = {Winkel ∈ [α, α]} Zielscheibe: A = „Pfeil trifft ins Schwarze“ = {(x, y)|x2 + y 2 ≤ 1} B = „Pfeil landet im äußeren Ring“ = {(x, y)|182 < x2 + y 2 ≤ 202 } Statistik_II@finasto 1–6 Beispiele (Fortsetzung): Schadensmeldungen / Unfälle: A = „kein Schaden“ = {0} ⊂ N B = „höchstens 4 Schäden“ C = „Mehr als 100 Schäden“ Aktienkurs: A = „Schlusskurs ist größer als Ausgangskurs“ B = „mehr als 3% zugelegt“ Statistik_II@finasto 1–7 1.2 Mengen und Ereignisse x ∈ A: „x ist ein Element der Menge A“. x ̸∈ A: „x ist kein Element der Menge A“. A ⊂ B: A ist Teilmenge von B; x ∈ A ⇒ x ∈ B. Die Schnittmenge A ∩ B ist die Menge aller Elemente, die sowohl in A als auch in B sind; A ∩ B = {x : x ∈ A und x ∈ B} Die Vereinigungsmenge A ∪ B ist die Menge aller Elemente, die in A oder B sind; A ∪ B = {x : x ∈ A oder x ∈ B}. Die Differenzmenge A\B ist die Menge aller Elemente, die in A aber nicht in B sind; A\B = {x : x ∈ A und x ̸∈ B}. Für A ⊂ S ist die Komplementärmenge Ā von A bzgl S die Menge aller Elemente von S, die nicht in A sind. (Andere Notation: Ac , {A.) Die Potenzmenge P(S) ist die Menge aller Teilmengen von S; P(S) = {M |M ⊂ S}. Die Mächtigkeit (Kardinalität) von S ist die Anzahl der Elemente in S; #S = #{x : x ∈ S}. Statistik_II@finasto 1–8 Rechenregeln für Mengen (Veranschaulichung im Venn-Diagramm) • Kommutativgesetz: A∩B =B∩A A∪B =B∪A • Assoziativgesetz: (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) • Distributivgesetz: (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) • De Morgansche Regeln: (A ∪ B) = Ā ∩ B̄ (A ∩ B) = Ā ∪ B̄ • Aus A ⊂ B folgt B̄ ⊂ Ā. • Für die Differenzmenge A\B gilt: A\B = A ∩ B̄. Statistik_II@finasto 1–9 Ein Ereignis ist jede beliebige Teilmenge des Ereignisraumes Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels Ereignis A: \Werfen einer geraden Augenzahl" A = 2; 4; 6 ) f g Sicheres Ereignis S Ereignis, das als Ergebnis des Zufallsexperiments eintreten mu Unm ogliches Ereignis ; Ereignis, das im Ergebnis des Zufallsexperimentes auf keinen Fall eintreten kann Statistik_II@finasto 1–10 Komplement arereignis Menge samtlicher Elementarereignisse des Ereignisraumes S , die nicht im betrachteten Ereignis enthalten sind Ereignis Komplementarereignis zu A A A =; S Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels Ereignis A: \Werfen einer geraden Augenzahl" A = f2; 4; 6g = f1; 3; 5g A Statistik_II@finasto 1–11 Venn-Diagramm: Statistik_II@finasto 1–12 Relationen und Operationen von Ereignissen A zieht B nach sich: A B Wenn bei der Realisierung gegebener Bedingungen, bei der das Ereignis eintritt, stets auch das Ereignis eintritt, so sagt man zieht nach sich. ist eine Teilmenge von . A B A B A B A und B sind gleichwertig (aquivalent), wenn A B und B A: A B Statistik_II@finasto 1–13 Vereinigung von Ereignissen (logische Summe) Die Vereinigung zweier Ereignisse A und B ist die Menge aller Elementarereignisse, die zu A oder B geh oren: A [B =C A [B Verallgemeinerung Ereignisse: A1; A2; : : : ; An A Statistik_II@finasto 1[A2[ : : : [An = [ n =1 Ai i 1–14 Durchschnitt von Ereignissen Der Durchschnitt von A und B ist die Menge aller Elementarereignisse, die sowohl zu A als auch zu B geh oren: A \B =C A \B Verallgemeinerung Ereignisse: A1; A2; : : : ; An A Statistik_II@finasto 1\A2\ : : : \An = \ n =1 Ai i 1–15 Disjunkte Ereignisse Zwei Ereignisse A und B heien disjunkt, wenn ihr gleichzeitiges Eintreten unmoglich ist: A\B =; Stets disjunkt: A und A : A \ A = ; A und ; : ; \ A = ; Statistik_II@finasto 1–16 Logische Dierenz von Ereignissen Ereignis C , das darin besteht, da das Ereignis A eintritt, w ahrend das Ereignis B nicht eintritt: A B = C = A B n \ Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels f ) n A g f g = f1 2g, n = f4g = 1; 2; 3 , B = 3; 4 A B =C Statistik_II@finasto ; B A 1–17 Zerlegung des Ereignisraumes S Ein System von Ereignissen A1; A2; : : : ; An heit eine Zerlegung von S , wenn die Relationen Ai 6= ;, (i = 1; 2; : : : ; n) Ai \ Ak = ;, f ur i 6= k, disjunkt A1 [ A2 [ : : : [ An = S gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu Beispiel: Zufallsexperiment: Werfen eines Wurfels = f1; 2; 3; 4; 5; 6g S 1 = f1g A4 = f5; 6g A 2 = f3; 4g A5 = f2; 5g A 3 = f1; 3; 4g A6 = f6g A Zerlegung von S : A1; A2; A5; A6 1 \ A2 = ; A2 \ A5 = ; A 1 \ A5 = ; A2 \ A6 = ; A 1 \ A6 = ; A5 \ A6 = ; A 1 [ A2 [ A5 [ A6 = S A Statistik_II@finasto 1–18 Zerlegung des Ereignisraumes S Ein System von Ereignissen A1; A2; : : : ; An heit eine Zerlegung von S , wenn die Relationen Ai 6= ;, (i = 1; 2; : : : ; n) Ai \ Ak = ;, f ur i 6= k, disjunkt A1 [ A2 [ : : : [ An = S gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu Beispiel: Zufallsexperiment: Werfen eines Wurfels = f1; 2; 3; 4; 5; 6g S 1 = f1g A4 = f5; 6g A 2 = f3; 4g A5 = f2; 5g A 3 = f1; 3; 4g A6 = f6g A Zerlegung von S : A1; A2; A5; A6 1 \ A2 = ; A2 \ A5 = ; A 1 \ A5 = ; A2 \ A6 = ; A 1 \ A6 = ; A5 \ A6 = ; A 1 [ A2 [ A5 [ A6 = S A Statistik_II@finasto 1–19 Zusammenfassung Beschreibung des zugrunde- Bezeichnung (Sprech- Darstellung liegenden Sachverhaltes weise) A tritt sicher ein A tritt sicher nicht ein wenn A A ist sicheres Ereignis ist unmogliches Ereignis A eintritt, tritt B ein A ist Teilmenge von B genau dann, wenn A eintritt, und B sind aquivalente Ereignisse wenn A eintritt, tritt B nicht und B sind disjunkte Ereignisse tritt B ein ein A A =S A =; A B A B A \B =; B = A genau dann, wenn A eintritt, A genau dann, wenn minde- A ist Vereinigung der Ai A = S genau dann, wenn alle A ist Durchschnitt der A = T tritt B nicht ein stens ein Ai eintritt (genau dann, wenn A1 oder A2 oder : : : eintritt), tritt A ein Ai eintreten (genau dann, wenn A1 und A2 und : : : eintreten), tritt A ein Statistik_II@finasto und B sind komplementare Ereignisse A Ai i i Ai Ai 1–20 1.3 Wahrscheinlichkeiten Vor der Durchführung eines Zufallsvorgangs ist es ungewiss, welches Ereignis eintritt. In der Wahrscheinlichkeitsrechnung wird nun die Chance für das Eintreten eines bestimmten Ereignisses A ⊂ S durch eine Zahl, die „Wahrscheinlichkeit“ P [A], bewertet. Problem: Wie kommt man zu Wahrscheinlichkeiten? 1) Klassischer Wahrscheinlichkeitsbegriff (Laplace-Wahrscheinlichkeiten) Bei „fairen“Würfeln, Glücksrädern, Münzen, Lotto-Ziehungsgeräten, etc., gilt • S = {ω1 , . . . , ωN } ist endlich • Alle Ergebnisse sind gleichwahrscheinlich ⇒ Die Wahrscheinlichkeit von A ⊂ S ergibt sich durch Abzählen: Anzahl der Elementarereignisse in A P [A] = Anzahl der Elementarereignisse in S Beispiel: Würfel, A =”gerade Augenzahl ⇒ P [A] = 3/6 = 1/2 Statistik_II@finasto 1–21 2) Objektiver (statistischer) Wahrscheinlichkeitsbegriff Wahrscheinlichkeiten ergeben sich als Grenzwert der relativen Häufigkeit eines Ereignisses A ⊂ S • n-malige Wiederholung des interessierenden Zufallsexperiments ⇒ relative Häufigkeit fn (A) • Feststellung: Für n → ∞ stabilisieren sich die relativen Häufigkeiten erfahrungsgemäß um einen festen Wert. Dieser Wert entspricht der Wahrscheinlichkeit P [A] Beispiel: n = 100, 1000, 10000, . . . mal würfeln. Bei einem fairen Würfel stabilisieren sich die relativen Häufigkeiten von A =„gerade Augenzahl“ um P [A] = 1/2. 3) Subjektive Wahrscheinlichkeiten Subjektive Wahrscheinlichkeiten geben persönliche Einschätzungen wider. Beispiele: Ihre Einschätzung der Chance, die Klausur Statistik II zu bestehen; Konjunkturprognose durch einen Sachverständigen Statistik_II@finasto 1–22 1. Beispiel: Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf einer fairen Münze. n h(„Kopf“) f („Kopf“) 10 7 0,700 20 11 0.550 40 17 0,425 60 24 0,400 80 34 0,425 100 47 0,470 200 92 0,460 400 204 0,510 600 348 0,580 800 404 0,505 1000 492 0,492 2000 1010 0,505 3000 1530 0,510 4000 2032 0,508 5000 2515 0,503 Statistik_II@finasto 1–23 2. Beispiel: Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf eines fairen Würfels. n = 20 Würfe n = 200 Würfe 0.25 0.2 0.15 0.15 0.1 0.1 0.05 0.05 1 2 3 4 5 1 6 n = 2.000 Würfe 2 3 4 5 6 n = 20.000 Würfe 0.175 0.15 0.15 0.125 0.125 0.1 0.1 0.075 0.075 0.05 0.05 0.025 0.025 1 2 3 Statistik_II@finasto 4 5 6 1 2 3 4 5 6 1–24 3. Beispiel: Man betrachte ein Land mit N = 82.000.000 Bürgerinnen und Bürgern. • 41.820.000 Frauen ⇒ Anteil = 51% • 40.180.000 Männer ⇒ Anteil = 49% • Zufallsexperiment: Ziehen eines zufällig ausgewählten Individuums (⇒ 82.000.000 mögliche Elementarereignisse Frage: Wahrscheinlichkeit des Ereignisses A („Frau“)? 41.820.000 = 0.51 P [A] = 82.000.000 Wiederholtes Ziehen von n = 10, 100, 1000, ... Individuen: Mit wachsendem n nähert sich fn (A) immer stärker der Wahrscheinlichkeit P [A] an. Vollerhebung: fN (A) = P [A] Statistik_II@finasto 1–25 1.4 Wahrscheinlichkeitsverteilungen Ziel: Unabhängig von der Art des Wahrscheinlichkeitsbegriffs entwickeln wir einen Apparat, mit dem wir die Ausgänge eines Zufallsvorgangs quantifizieren können. Wir legen hier nur fest, welche Eigenschaften Wahrscheinlichkeiten haben müssen und wie wir mit ihnen rechnen dürfen. Jede „sinnvolle“ Zuordnung von Wahrscheinlichkeiten für Ereignisse A, B ⊂ S besitzt z.B. folgenden Eigenschaften: 0 ≤ P [A] ≤ 1 P [S] = 1 A ⊂ B ⇒ P [A] ≤ P [B] P [Ā] = 1 − P [A] P [A ∪ B] = P [A] + P [B], falls A und B nicht gleichzeitig eintreten können. Die von Wahrscheinlichkeiten zu fordernden Eigenschaften sind in den „Axiomen“ des russischen Mathematikers Kolmogoroff zusammengefasst. Alle zum Umgang mit Wahrscheinlichkeiten wichtigen Rechenregeln lassen sich aus diesen Axiomen ableiten. Statistik_II@finasto 1–26 Gegeben: Diskreter Ereignisraum S = {ω1 , ω2 , . . .} Ein Wahrscheinlichkeitsmaß P ist eine Abbildung, die allen Ereignissen A eines Zufallsvorgangs eine Zahl P [A] zuordnet, und die folgenden Bedingungen (Eigenschaften, Axiome) genügt: Axiom 1: Die Wahrscheinlichkeit P [A] eines Ereignisses A ist eine eindeutig bestimmte Zahl mit 0 ≤ P [A] ≤ 1 (Nichtnegativität) Axiom 2: P [S] = 1 (Normierung) Axiom 3: (Additivität) Sind A1 , A2 , . . . , Ak , . . . paarweise disjunkt, dann gilt Für disjunkte Ereignisse (A ∪ B = ∅) gilt P [A1 ∪A2 ∪. . .∪Ak . . .] = P [A1 ]+P [A2 ]+. . .+P [Ak ]+. . . (S, P[S], P ) heißt dann ein (diskreter) Wahrscheinlichkeitsraum und P heißt (diskrete) Wahrscheinlichkeitsverteilung. Falls S endlich ist, S = (ω1 , . . . , ωN ), sprechen wir von einem endlichen Wahrscheinlichkeitsraum. Statistik_II@finasto 1–27 S : „Was kann alles passieren?“ genauer: „Welche Ereignisse sind modelliert?“ P : „Mit welcher Wahrscheinlichkeit treten die Ereignisse ein?“ Rechenregeln: • P [S] = 1, P [∅] = 0 • P [A] ≤ P [B], falls A ⊂ B • P [Ā] = 1 − P [A] mit Ā = S\A • P [A1 ∪A2 ∪. . .∪Ak ] = P [A1 ]+P [A2 ]+. . .+P [Ak ], falls A1 , A2 , . . . , Ak paarweise disjunkt • P [A\B] = P [A] − P [A ∩ B] • Additionssatz: P [A ∪ B] = P [A] + P [B] − P [A ∩ B] Statistik_II@finasto 1–28 Beispiele: 1. Fairer Würfel: • Elementarwahrscheinlichkeiten: 1 p1 = P [{1}] = = p2 = · · · = p6 6 • Wahrscheinlichkeit eine gerade Zahl zu würfeln: P [„Gerade Zahl“] = P [{2, 4, 6}] 1 1 1 1 = p2 + p4 + p6 = + + = 6 6 6 2 • Wahrscheinlichkeit eine ungerade Zahl zu würfeln: P [„Ungerade Zahl“] = P [{1, 3, 5}] 1 = p1 + p3 + p5 = 2 = 1 − P [„Gerade Zahl“] • Wahrscheinlichkeit mehr als 4 zu würfeln: P [„Mehr als 4“] = P [{5, 6}] = p5 + p6 = Statistik_II@finasto 1 1 1 + = 6 6 3 1–29 2. Gefälschter Würfel: • Elementarwahrscheinlichkeiten: p1 = 1 1 1 , p2 = p3 = p4 = p5 = , p6 = 12 6 4 • Wahrscheinlichkeit eine gerade Zahl zu würfeln: P [„Gerade Zahl“] = P [{2, 4, 6}] = p2 + p4 + p6 = 1 1 1 7 + + = 6 6 4 12 • Wahrscheinlichkeit eine ungerade Zahl zu würfeln: P [„Ungerade Zahl“] = P [{1, 3, 5}] 5 12 = 1 − P [„Gerade Zahl“] = p1 + p3 + p5 = • Wahrscheinlichkeit mehr als 4 zu würfeln: P [„Mehr als 4“] = P [{5, 6}] 1 1 5 = p5 + p6 = + = 6 4 12 Statistik_II@finasto 1–30 3. Warten auf die erste Zahl beim wiederholten Wurf einer fairen Münze: • Elementarwahrscheinlichkeiten: P [„Zahl im 1. Versuch“] = 12 =: p1 P [„Zahl erst im 2. Versuch“] = 14 =: p2 P [„Zahl erst im 3. Versuch“] = 21 · 12 · 12 = 81 =: p3 ( 1 )k P [„Zahl erst im kten Versuch“] = 2 =: pk Probe: ∞ ∑ pk = k=1 ∞ ( )k ∑ 1 k=1 2 =1 (Geometr. Reihe) • Wahrscheinlichkeit für eine gerade Anzahl von Versuchen: P [„Gerade Anzahl Versuche“] ∞ ( )2k ∑ 1 1 1 1 = p2 + p4 + p6 + · · · = = = 2 4 1 − 14 3 k=1 • Wahrscheinlichkeit für eine ungerade Anzahl von Versuchen: P [„Ungerade Anzahl Versuche“] 1 2 = 1 − = = p1 + p3 + p5 + · · · 3 3 Statistik_II@finasto 1–31 Allgemeine Wahrscheinlichkeitsräume Wenn der Grundraum nicht diskret ist, können die Wahrscheinlichkeiten von Ereignissen nicht mehr durch Summieren von Elementarwahrscheinlichkeiten berechnet werden. Betrachtet man z.B. den Pfeilwurf auf eine Zielscheibe, so ist die Trefferwahrscheinlichkeit für jeden fest gewählten, einzelnen Punkt der Scheibe gleich 0. Damit kann die Wahrscheinlichkeit für „einen Treffer ins Schwarze“ nicht als Summe der Elementarwahrscheinlichkeiten aller Punkte „im Schwarzen“ erhalten werden. Anmerkung: Bei nicht diskreten Räumen ist weiterhin zu beachten, dass es aus mathematischen Gründen nicht möglich ist, allen denkbaren Mengen A ⊂ S Wahrscheinlichkeiten zuzuweisen und gleichzeitig zu verlangen, dass die Rechenregeln für Wahrscheinlichkeiten weiter gelten. Als Ausweg betrachtet man eine Kollektion von Mengen, die abgeschlossen ist unter mengentheoretischen Operationen („σ-Algebra“). Nur noch den in der Kollektion enthaltenen Ereignissen wird eine Wahrscheinlichkeit zugeordnet. Alle in der Praxis relevanten Mengen wie z.B. Intervalle, Quadrate, Rechtecke, Kreise, Kreissektoren, Kreisringe, usw., sind i. Allg. in einer solchen Kollektion enthalten. Statistik_II@finasto 1–32 1.5 Laplace-Modell Annahmen im Laplace-Modell: • S endlich, S = {ω1 , . . . , ωN } • Alle Elementarereignisse gleichwahrscheinlich ⇒ Elementarwahrscheinlichkeiten: 1 1 pk = P [{ωk }] = = N #S für alle k = 1, . . . , N ⇒ Berechnung der Wahrscheinlichkeit von A: ∑ 1 P [A] = pk = #{ωk |ωk ∈ A} · N ωk ∈A #{ωk |ωk ∈ A} = #S Anzahl der für A günstigen Fälle = Anzahl aller Fälle Beispiele: Fairer Würfel, faire Münze. 2 faire Würfel: P [„Pasch“] = 6 36 = 1 6 Kompliziertere Modelle (z.B. Wahrscheinlichkeit fuer 3,4,5,6 Richtige beim Lotto) ⇒ geschicktes Abzählen: Kombinatorik. Statistik_II@finasto 1–33 1.6 Zufallsstichproben und Kombinatorik Gegeben: Grundgesamtheit bestehend aus N Elementen {e1 , . . . , eN } Beispiele: Urne bestehend aus 49 Kugeln (Lottozahlen), Gesamtheit aller Studenten in Bonn,... Wir betrachten nun Stichproben, die durch zufällige Ziehung von n Elementen der Grundgesamtheit entstehen Beispiele: Ziehung der Lottozahlen, Erstellung einer Zufallsstichprobe von Bonner Sudenten zu statistischen Zwecken In vielen Fällen interessiert man sich dabei für die Wahrscheinlichkeit eine bestimmte Stichprobe zu ziehen. Diese hängt ab von der Gesamtzahl der möglichen Stichproben in Abhängigkeit von der Art und Weise des Ziehungsvorgangs. und erfordert die Anwendung von kombinatorischen Überlegungen. Statistik_II@finasto 1–34 Modell mit Zurücklegen Grundgesamtheit aus N Elementen; n voneinander unabhängige Ziehungen jeweils eines zufälligen Elements ( nach jeder Ziehung wird das gezogene Element wieder in die Grundgesamtheit zurückgelegt). Anzahl der möglichen Stichproben: N n Grundgesamtheit aus N = 3 Elementen {a, b, c} Stichproben des Umfangs n = 2: {a, a}, {a, b}, {a, c}, {b, a}, {b, b}, {b, c}, {c, a}, {c, b}, {c, c} Jede dieser Stichproben wird mit der gleichen Wahrscheinlichkeit (1/9) gezogen Stichproben, die durch unabhängiges Ziehen mit Zurücklegen aus einer Grundgesamtheit entstehen, heißen einfache Zufallsstichproben. Statistik_II@finasto 1–35 Die Antwort auf die Frage des Chevalier de Méré: Was ist wahrscheinlicher: Aus 4 Würfen mindestens eine „6“ oder aus 24 Würfen mindestens eine „Doppelsechs“ zu erhalten? Fall 1: Mindestens eine 6 aus 4 Würfen • Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe): 64 • Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe), die keine 6 enthalten: 54 ⇒ P [„mindestens eine 6 aus 4 Würfen“] = 1 − P [„keine 6 aus 4 Würfen“] 54 = 1 − 4 ≈ 0, 5177 6 Analog: P [„mindestens eine Doppelsechs aus 24 Würfen“] = 1 − P [„keine Doppelsechs aus 24 Würfen“] 3524 = 1 − 24 ≈ 0, 4914 36 (An der kleinen Differenz der Wahrscheinlichkeiten sieht man, dass der Chevalier de Meré ein äußerst eifriger Spieler gewesen sein muss, um den Unterschied am Spieltisch wahrzunehmen.) Statistik_II@finasto 1–36 Modell ohne Zurücklegen Grundgesamtheit aus N Elementen; n aufeinanderfolgende Ziehungen jeweils eines zufälligen Elements. Nach jeder Ziehung wird das gezogene Element nicht wieder in die Grundgesamtheit zurückgelegt). Grundgesamtheit aus N = 3 Elementen {a, b, c} 6 Stichproben des Umfangs n = 2 bei Ziehen ohne Zurücklegen: {a, b}, {a, c}, {b, a}, {b, c}, {c, a}, {c, b} Jede dieser Stichproben ist gleichwahrscheinlich (1/6) . Anmerkung: Beim Modell ohne Zurücklegen sind die einzelnen Ziehungen nicht unabhängig voneinander; das Resultat einer Ziehung beeinflusst die möglichen Ergebnisse jeder weiteren Ziehung Statistik_II@finasto 1–37 Modell ohne Zurücklegen Anzahl der möglichen Stichproben vom Umfang n: N! N · (N − 1) · (N − n + 1) = (N − n)! Fakultät Die Fakultät einer natürlichen Zahl k ist definiert durch k! = k · (k − 1) · (k − 2) · . . . · 2 · 1 Es gilt 1! = 1, 0! = 1 Beispiele: 2! = 2 3! = 6 4! = 24 10! = 3628800 20! = 2432902008176640000 Statistik_II@finasto 1–38 Permutationen Grundgesamtheit aus N Elementen; durch N maliges zufälliges Ziehen ohne Zurücklegen werden nacheinander alle Elemente der Grundgesamtheit gezogen. Die resultierenden Stichproben (Permutationen) unterscheiden sich nur in der Reihenfolge der Elemente. Anwendungsbeispiel: Auslosung der Startreihenfolge bei einem Sportereignis mit N teilnehmenden Sportlern. N = 3 Elementen {a, b, c} 6 mögliche Permutationen: {a, b, c}, {a, c, b}, {b, a, c}, {b, c, a}, {c, a, b}, {c, b, a} Jede Permutation ist gleichwahrscheinlich (1/6) Anzahl möglicher Permutationen bei N Objekten: Statistik_II@finasto N! 1–39 Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge Grundgesamtheit aus N Elementen; durch zufälliges Ziehen ohne Zurücklegen werden nacheinander n Elemente gezogen. Keine Berücksichtigung der Reihenfolge; zwei Stichproben sind äquivalent, wenn sie die gleichen Elemente entahlten. Anzahl der möglichen Stichproben vom Umfang n (jeweils gleichwahrscheinlich): ( ) N n Binomialkoeffizient (N ) Der Binomialkoeffizient n ist definiert als ( ) N N! = (N − n)! · n! n Es gilt ( ) ( ) ( ) N N N = 1, = N, = 1, 0 1 N ( ) N = 0 falls N < n n Statistik_II@finasto 1–40 Anwendungsbeispiel: Ziehung der Lottozahlen. Bei der Ziehung der Lottozahlen handelt es sich um ein Beispiel für ein Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge. Die Stichprobe 4, 7, 11, 13, 26, 28 wird nicht unterschieden von der Ziehung 11, 26, 13, 28, 4, 7 Es gibt also ( ) 49 49! = = 13983816 6 (43)! · 6! Möglichkeiten 6 Lottozahlen aus 49 Kugeln zu ziehen ⇒ Wahrscheinlichkeit, dass eine bestimmte (getippte) Kombination die richtige ist: P [”6 Richtige”] = Statistik_II@finasto 1 = 0, 000000072 13983816 1–41 Wahrscheinlichkeit für 3, 4, 5, 6 Richtige? Modell ohne Zurücklegen, Reihenfolge irrelevant ⇒ alle Ziehungen gleichwahrscheinlich ⇒ Laplace-Modell 1 P [„6 Richtige“] = (49) = 6 P [„3 Richtige“] = = 1 ≈ 0, 000000072 13.983.816 #{„3 Richtige und 3 Falsche“} #{Alle möglichen Tipps} (6)(49−6) 3 (496−3 ) = ... 6 #{„k Richtige und 6 − k Falsche“} P [„k Richtige“] = #{Alle möglichen Tipps} (6)(49−6) = k (496−k ) 6 Statistik_II@finasto 1–42 Anmerkungen: In der Sprache der Kombinatorik werden Zusammenstellungen (Ziehungen) von n Elementen, die sich unter Berücksichtigung der Reihenfolge ergeben, als Variationen bezeichnet Zusammenstellungen (Ziehungen) von n Elementen, die ohne Berücksichtigung der Reihenfolge ergeben, werden Kombinationen genannt Anzahl Stichproben beim Modell mit Zurücklegen und ohne Berücksichtigung der Reihenfolge (Kombination mit Wiederholung): ( ) N +n−1 n Vorsicht: Stichproben nicht gleichwahrscheinlich Statistik_II@finasto 1–43 1.7 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Bei manchen Problemen der Wahrscheinlichkeitsrechnung betrachtet man das Eintreten von Ereignissen in Abhängigkeit von bestimmten anderen Ereignissen. Beispiel: Ein Unternehmen stellt 2000 Teile auf zwei Maschinen her. • 1400 Teile werden auf Maschine 1 hergestellt. Davon sind 1162 Teile fehlerfrei. • 600 Teile werden auf Maschine 2 produziert. Hiervon sind 378 Teile fehlerfrei. A ={Teil ist fehlerfrei} B ={Teil auf Maschine 1 hergestellt} C ={Teil auf Maschine 2 hergestellt} Statistik_II@finasto 1–44 fehlerfrei = A mit Fehlern = Ā Maschine 1 = B 1162 238 1400 Maschien 2 = C 378 222 600 1540 460 2000 1540 P [A] = = 0, 77 2000 1400 P [B] = = 0, 7 2000 1162 P [A ∩ B] = = 0, 581 2000 Wie hoch ist die Wahrscheinlichkeit, dass ein zufällig entnommenes fehlerfreies Teil auf Maschine 1 hergestellt wurde? P [A ∩ B] 0, 581 P [B|A] = = = 0.7545 P [A] 0, 77 Statistik_II@finasto 1–45 Bedingte Wahrscheinlichkeit Wollen definieren: Wahrscheinlichkeit von A, angenommen B tritt ein. (B ist „neuer“ Grundraum) Bezeichnung: P [A|B] Definition: [bedingte Wahrscheinlichkeit] Man betrachte Ereignisse A, B ⊂ S mit P [B] > 0. Die bedingte Wahrscheinlichkeit von A gegeben B wird definiert durch P [A|B] := P [A ∩ B] P [B] P [·|B] als Funktion der Ereignisse A heisst bedingte Wahrscheinlichkeitsverteilung bzgl B. Bedingte Wahrscheinlichkeiten sind wiederum Wahrscheinlichkeiten im Sinne der Axiome von Kolmogoroff (alle Rechenregeln für „normale“ Wahrscheinlichkeiten sind erfüllt). Statistik_II@finasto 1–46 Unabhängigkeit Definition: [Unabhängige Ereignisse] Ein Ereignis A ist dann von einem Ereignis B stochastisch unabhängig, wenn das Eintreten des Ereignisses A von dem Eintreten oder Nichteintreten des Ereignisses B nicht abhängt. P [A|B] = P [A] P [B|A] = P [B] P [A ∩ B] = P [A] P [B] Bemerkung: unabhängig ist nicht gleichbedeutend mit disjunkt Beispiel: Zwei Ereignisse: A und B mit P [A] > 0, P [B] > 0 P [A ∩ B] = ∅ ⇒ P [A ∩ B] = 0 aber: P [A ∩ B] = 0 ̸= P [A] P [B] Statistik_II@finasto 1–47 Beispiel 1: Zweimaliges Werfen eines Würfels A = {„Im ersten Wurf eine 6“} B = {„Im zweiten Wurf eine 6“} P [B|A] = P [B] = 1 , 6 A und B sind unabhängig Beispiel 2: Augenfarbe und Intelligenz A = {„Hohe Intelligenz“}, B = {„Blaue Augen“} Vierfeldertafel der Wahrscheinlichkeiten in einer Population: IQ\Augen B (blau) B̄ (nicht blau) Summe A P [A ∩ B] = 0.1 P [A ∩ B̄] = 0.4 P [A] = 0.5 Ā P [Ā ∩ B] = 0.1 P [Ā ∩ B̄] = 0.4 P [Ā] = 0.5 Summe P [B] = 0.2 P [B̄] = 0.8 P [S] = 1 P [A ∩ B] = P [A] · P [B] = 0.1, P [Ā ∩ B̄] = P [Ā)] · P [B̄] = 0.4 ⇒ A und B sind unabhängig, Statistik_II@finasto 1–48 Verallgemeinerung auf mehr als zwei Ereignisse Multiplikationssatz: Für Ereignisse A1 , . . . , An P [A1 ∩ . . . ∩ An ] = P [A1 )] · P [A2 |A1 ] · P [A3 |A1 ∩ A2 ] · · · · P [An |A1 ∩ . . . ∩ An−1 ] Unabhängigkeit: Die Ereignisse A1 , . . . , An heißen stochastisch unabhängig, wenn für jede Auswahl Ai1 , . . . , Aim mit m ≤ n gilt P [Ai1 ∩ . . . ∩ Aim ] = P [Ai1 ] · P [Ai2 ] · · · P [Aim ] Statistik_II@finasto 1–49 1.8 Totale Wahrscheinlichkeit und das Theorem von Bayes Beispiel: [Weinkeller] • Qualitätswein, Kabinett, Spätlese: 5:3:2 • Weißweinanteil: 1/5, 1/3 bzw. 1/4 Wahrscheinlichkeit für Weinsorten A1 = { Qualitätswein } P [A1 ] = 0, 5 A2 = { Kabinett } P [A2 ] = 0, 3 A3 = { Spätlese } P [A3 ] = 0, 2 ⇒ vollständige Zerlegung von S A1 ∪ A2 ∪ A3 = S A1 ∩ A2 = ∅, A1 ∩ A3 = ∅, A2 ∩ A3 = ∅, Frage: Wie hoch ist die Wahrscheinlichkeit für Ereignis B, eine ausgewählte Flasche ist „Weißwein“? 1 5 1 P [B|A2 ] = 3 1 P [B|A3 ] = 4 P [B|A1 ] = Statistik_II@finasto 1–50 A 1 Qualitätswein A1 B A2 A3 B B A3 Kabinett A2 Spätlese Vorgehen: A1 .A2 , A3 bilden eine vollständige Zerlegung des Grundraums S ⇒ B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 ) P [B] =P [(B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 )] =P [(B ∩ A1 )] + P [(B ∩ A2 )] + P [(B ∩ A3 )] =P [B|A1 ] P [A1 ] + P [B|A2 ] P [A2 ] + P [B|A3 ] P [A3 ] 1 1 1 3 1 2 = · + · + · 5 2 3 10 4 10 1 = 4 Statistik_II@finasto 1–51 Totale Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit: Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung von S bilden, d.h. es gilt: Ai ∩ Aj = ∅, i ̸= j, und A1 ∪ A2 ∪ · · · ∪ Ak = S. Dann folgt für ein Ereignis B ⊂ S: P [B] = P [A1 ∩ B] + P [A2 ∩ B] + . . . + P [Ak ∩ B] = k ∑ P [Ai ∩ B] i=1 = k ∑ P [B|Ai ] · P [Ai ]. i=1 Statistik_II@finasto 1–52 Beispiel: [Weinkeller (Fortsetzung)] Weitere mögliche Fragestellung: Wie groß ist die Wahrscheinlichkeit P [A1 |B] dafür, daß eine zufällig ausgewählte Weißweinflasche Qualitätswein ist? Grundlage: Wir kennen die Wahrscheinlichkeiten P [B|Ai ] und P [Ai ] i = 1, . . . , 3 Aus der Definition der bedingten Wahrscheinlichkeit folgt: P [A1 ∩ B] = P [A1 |B] P [B] = P [B|A1 ] P [A1 ] ⇒ P [B|A1 ] P [A1 ] P [B] P [B|A1 ] P [A1 ] = ∑3 i=1 P [B|Ai ] P [Ai ] P [A1 |B] = = Statistik_II@finasto 1 5 · 1 4 1 2 = 2 5 1–53 Satz von Bayes [Thomas Bayes, englischer Pastor, Mathematiker, (17021761)] Seien die Vorraussetzungen des Satzes von der totalen Wahrscheinlichkeit erfüllt. Dann kann auch nach der Wahrscheinlichkeit von Ai gefragt werden unter der Bedingung, dass B eingetreten ist (Wahrscheinlichkeit a posteriori). Satz von Bayes: Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung von S bilden Sei B Ereignis, derart daß P [B] > 0. Dann gilt: P [Aj ]P [B|Aj ] P [Aj ]P [B|Aj ] P [Aj |B] = ∑k = P [B] P [Ai ]P [B|Ai ] i=1 Wir nennen die Wahrscheinlichkeiten • P [Ai ] a-priori Wahrscheinlichkeiten • P [Ai |B] a-posteriori Wahrscheinlichkeiten Statistik_II@finasto 1–54 Hilfsmittel bei der Berechnung von Wahrscheinlichkeiten: Baumdiagramm Voraussetzung: Vollständige Zerlegung des Ereignisraums Beispiel: Ereignisse A, Ā und B, B̄ P (A) P (Ā) P (B|A) B P (B̄|A) B̄ P (B|Ā) B P (B̄|Ā) B̄ A Ā zur Kontrolle: Die Wahrscheinlichkeiten, der von einem Punkt des Baumdiagramms ausgehenden Äste, haben stets die Summe 1. Die Summe aller Pfadwahrscheinlichkeiten ist 1. Statistik_II@finasto 1–55 Pfadregeln: 1) Wird ein Ergebnis durch einen einzelnen Pfad beschrieben, so ist die Wahrscheinlichkeit dieses Ergebnisses (= Pfadwahrscheinlichkeit) gleich dem Produkt aller Wahrscheinlichkeiten längs des zugehörigen Pfades. 2) Setzt sich ein Ereignis aus mehreren Pfaden zusammen, so werden die entsprechenden Pfadwahrscheinlichkeiten addiert. Statistik_II@finasto 1–56 2 Diskrete Zufallsvariablen Beispiel: Zufallsexperiment: dreimaliges Werfen einer idealen Münze (Kopf (K) und Zahl (Z)) Ereignisraum Ω = {KKK, KKZ, KZK, ZKK, KZZ, ZKZ, ZZK, ZZZ} Alle Elementarereignisse sind gleichwahrscheinlich Zufallsvariable: X = Anzahl „Z“ Werte von X: X=0 falls das Elementarereignis {KKK} eintritt X=1 falls eines der Elementarereignisse {KKZ}, {KZK} oder {ZKK} eintritt X=2 falls eines der Elementarereignisse {KZZ}, {ZKZ} oder {ZZK} eintritt X=3 falls das Elementarereignis {ZZZ} eintritt Statistik_II@finasto 2–1 Zufallsvariable Eine numerische Variable oder ein Merkmal X, dessen Werte oder Ausprägungen die Ergebnisse eines Zufallsvorgangs sind, heißt Zufallsvariable X. Die Zahl x ∈ R, die X bei einer Durchführung des Zufallsvorgangs annimmt, heißt Realisierung oder Wert von X. Formal ist eine Zufallsvariable eine Abbildung, die jedem möglichen Elementarereignis ω ∈ Ω einen Zahlenwert X(ω) zuweist: ω 7→ X(ω) Wie in der deskriptiven Statistik ist das Skalenniveau eines Merkmals entscheidend für das weitere Vorgehen. Von besonderer Bedeutung ist die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen. Statistik_II@finasto 2–2 Beispiele: 1) Ω = Menge aller Bürgerinnen und Bürger von Bonn Zufallsexperiment: Zufälliges Ziehen aus Ω Diskrete Zufallsvariable: In Abhängigkeit vom Geschlecht nimmt X die Werte 0 und 1 an 0 falls weiblich X= 1 falls männlich Stetige Zufallsvariable: Jedem Bürger wird seine Körpergröße zugewiesen, X = Körpergröße. 2) Würfelspiel: X = Anzahl der benötigten Versuche bis zum ersten Mal eine „6“ auftritt X diskrete Zufallsvariable, jede natürliche Zahl ist mögliche Ausprägung Von statistischem Interesse: Wahrscheinlichkeiten, z.B P [X = 1], P [X ≤ 3], P [X ≥ 4], etc. Anmerkung: Im Fall 1) entsprechen Wahrscheinlichkeiten den relativen Häufigkeiten in der Grundgesamtheit. Statistik_II@finasto 2–3 2.1 Wahrscheinlichkeitsverteilungen Eine Zufallsvariable heißt diskret, falls sie nur endlich oder abzählbar unendlich viele Werte x1 , x2 , . . . , xk , . . . annehmen kann. Die Wahrscheinlichkeitsverteilung von X ist durch die Wahrscheinlichkeiten P [X = xi ] = pi , i = 1, 2, . . . , k, . . . gegeben. Beispiel: Dreimaliges Werfen einer idealen Münze Elementar- Wahrschein- Anzahl Wahrscheinlich- ereignis lichkeit der Z keiten von X ωj P [{ωj }] xi P [X = xi ] = pi ω1 - KKK P [{ω1 }] = 0, 125 x1 = 0 p1 = 0, 125 ω2 - KKZ P [{ω2 }] = 0, 125 x2 = 1 p2 = 0, 375 ω3 - KZK P [{ω3 }] = 0, 125 ω4 - ZKK P [{ω4 }] = 0, 125 ω5 - KZZ P [{ω5 }] = 0, 125 x3 = 2 p3 = 0, 375 ω6 - ZKZ P [{ω6 }] = 0, 125 ω7 - ZZK P [{ω7 }] = 0, 125 ω8 - ZZZ P [{ω8 }] = 0, 125 x4 = 3 p4 = 0, 125 Statistik_II@finasto 2–4 Wahrscheinlichkeitsfunktion Die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen mit möglichen Werten x1 , x2 , . . . , xk , . . . ist definiert durch P [X = x] für x ∈ {x1 , x2 , . . . , xk , . . .} f (x) = 0 sonst Eigenschaften: ∑ f (xi ) = pi ≥ 0, f (xi ) = 1 i Beispiel: Wahrscheinlichkeitsfunktion 0.4 f(x) 0.3 0.2 0.1 0.0 0 Statistik_II@finasto 1 x 2 3 2–5 Verteilungsfunktion (einer diskreten Zufallsvariable X mit Werten xi ) ∑ F (x) = P [X ≤ x] = f (xi ) xi ≤x Beispiel: F (x) = 0 für 0, 125 für x<0 0, 5 für 0, 875 für 1 für 2≤x<3 0≤x<1 1≤x<2 x≥3 Verteilungsfunktion 1.0 0.8 0.6 F(x) 0.4 0.2 0.0 0 1 2 3 x Statistik_II@finasto 2–6 Berechnung von Wahrscheinlichkeiten für beliebige Ereignisse A ⊂ Ω: ∑ ∑ P [X ∈ A] = P [X = xi ] = pi Spezialfälle: i:xi ∈A P [X ≤ b] = ∑ i:xi ∈A pi = F (b) i:xi ≤b P [X ≥ a] = ∑ pi i:xi ≥a P [X > a] = ∑ pi = 1 − F (a) i:xi >a P [X ∈]a, b]] = ∑ pi = F (b) − F (a) i:a<xi ≤b Beispiel: Dreimaliges Werfen einer idealen Münze P [X ≤ 2] = p1 + p2 + p3 = 0, 875 P [0 < X ≤ 1] = P [X = 1] = p2 = 0, 375 P [0 ≤ X ≤ 1] = p1 + p2 = 0, 5 P [2 ≤ X ≤ 3] = p3 + p4 = 0, 5 Statistik_II@finasto 2–7 2.2 Unabhängigkeit von Zufallsvariablen Idee: Zwei Zufallsvariablen X und Y sind unabhängig, falls sie sich gegenseitig nicht beeinflussen. Zwei diskrete Zufallsvariablen X und Y heißen unabhängig, wenn für alle möglichen Werte x, y P [X = x, Y = y] = P [X = x] · P [Y = y] Verallgemeinerung: X1 , . . . , Xn heißen unabhängig, falls P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ] Anmerkung: Seien X1 , . . . , Xn Zufallsvariablen, die jeweils die einzelnen Versuche bei n-maliger unabhängiger Wiederholung eines Zufallsexperiments beschreiben. Dann gilt • Alle Xi haben die gleiche Verteilung • X1 , . . . , Xn sind voneinander unabhängig Statistik_II@finasto 2–8 2.3 Erwartungswert und Varianz Der Erwartungswert E(X) einer diskreten Zufallsvariable X ist definiert durch ∑ E(X) = x1 p1 + . . . + xk pk + . . . = xi pi i≥1 bzw. E(X) = x1 f (x1 ) + . . . + xk f (xk ) + . . . = ∑ xi f (xi ) i≥1 Statt E(X) schreibt man auch µX oder einfach µ, wenn klar ist, welche Zufallsvariable gemeint ist. µ = E(X) wird häufig auch als „Mittelwert“ der Zufallsvariable X bezeichnet. Subjektive Interpretation von µX : pi ist ein „Gewicht“, das dem Wert xi zukommt, da man diesen mit Wahrscheinlichkeit P [X = xi ] = pi erwartet. Für X „erwartet“ man dann die Summe der gewichteten Werte xi pi . Statistik_II@finasto 2–9 Analogie( Statistik I): Empirischer Mittelwert eines diskreten Merkmals X mit k möglichen Ausprägungen: n Beobachtungen mit relativen Häufigkeiten f1,n , . . . , fk,n k ∑ xi fi,n x̄ = i=1 Man beachte jedoch: E(X) charakterisiert eine Zufallsvariable x̄ beschreibt den Schwerpunkt von Daten „Asymptotischer“ Zusammenhang zwischen x̄ und E(X): Gesetz der großen Zahlen Das der Zufallsvariable X zugrundeliegende Zufallsexperiment werde n mal unabhängig voneinander durchgeführt. x̄n - Mittelwert der resultierenden Beobachtungen Gesetz der großen Zahlen: Falls n groß ist, liegt x̄n mit hoher Wahrscheinlichkeit nahe bei E(X); je größer n, umso geringer der zu erwartende Unterschied ⇒ Häufigkeitsinterpretation von µX . Statistik_II@finasto 2–10 Beispiele: (Erwartete Wettgewinne) 1) Werfen einer Münze; Wetteinsatz: 1 DM Gewinn bei Zahl, 1 DM Verlust bei Kopf 1 falls „Z“ Zufallsvariable: X = −1 falls „K“ E(X) = 1 1 · (−1) + · 1 = 0 2 2 Bei häufigem Werfen der Münze ist der „mittlere“ Gewinn 0, Gewinne und Verluste gleichen sich aus 2) Dreimaliges Werfen einer Münze; Wetteinsatz: 10 DM Gewinn bei „ZZZ“, jeweils 1 DM Verlust bei anderen Ergebnissen Zufallsvariable: 10 falls „ZZZ“ X= −1 sonst E(X) = 0, 125 · 10 + 0, 875 · (−1) = 0, 375 Bei häufiger Wiederholung des Zufallsexperiments ist der „mittlere“ Gewinn 0,375 DM. Statistik_II@finasto 2–11 Transformationen Transformationsregel für Erwartungswerte Sei g(x) eine reelle Funktion. Dann gilt für Y = g(X) ∑ ∑ E(Y ) = E(g(X)) = g(xi )pi = g(xi )f (xi ) i≥1 i≥1 Beispiel: g(x) = x2 , X diskret mit k möglichen Ausprägungen E(g(X)) = E(X 2 ) = x21 p1 + . . . + x2k pk Lineare Transformationen • Für Y = aX + b gilt: E(Y ) = aE(X) + b • Für zwei Zufallsvariablen X1 und X2 und Konstanten a1 , a2 gilt: E(a1 X1 + a2 X2 ) = a1 E(X1 ) + a2 E(X2 ) Statistik_II@finasto 2–12 2.4 Varianz und Standardabweichung Die Varianz Var(X) einer diskreten Zufallsvariable X ist definiert durch Var(X) = (x1 − µ)2 p1 + . . . + (xk − µ)2 pk + . . . ∑ = (xi − µ)2 f (xi ) i≥1 und die Standardabweichung ist √ σX = Var(X) 2 Statt Var(X) schreibt man auch σX oder einfach σ 2 , wenn klar ist, welche Zufallsvariable gemeint ist. • Varianz als erwartete quadratische Abweichung Var(X) = E(X − µ)2 • Rechentechnisch günstige Formel Statistik_II@finasto Var(X) = E(X 2 ) − µ2 2–13 Lineare Transformation Für Y = aX + b ist Var(Y ) = a2 Var(X) und σY = |a|σX Unabhängige Zufallsvariablen: Sind X und Y unabhängig, so gilt E(X · Y ) = E(X) · E(Y ) Var(X + Y ) = Var(X) + Var(Y ) Beispiel: Werfen eines idealen Würfels; Gewinn von X = 1 DM bei „1“, . . . , X = 6 DM bei „6“ Erwartungswert: µ = E(X) = 6 ∑ 1 i=1 6 · i = 3, 5 Varianz: σ 2 = E(X 2 ) − µ2 = 6 ∑ 1 i=1 Statistik_II@finasto 6 · i2 − (3, 5)2 = 2, 917 2–14 2.5 Weitere Charakeristika von Verteilungen Die Definition von Modus, Median, etc. erfolgt analog zu den entsprechenden Definitionen in Statistik I, indem man relative Häufigkeiten durch Wahrscheinlichkeiten ersetzt. Modus: xmod ist ein Wert für den die Wahrscheinlichkeitsfunktion f (x) = P [X = x] maximal wird. Quantile: Ein Wert xp mit 0 < p < 1 für den P [X ≤ xp ] = F (xp ) ≥ p und P [X ≥ xp ] ≥ 1 − p gilt, heißt p−Quantil der diskreten Zufallsvaribale X. Für p = 0, 5 heißt xmed = x0,5 Median Bei symmetrischen Verteilungen gilt: xmod = xmed = µX Statistik_II@finasto 2–15 2.6 Wichtige diskrete Verteilungsmodelle 2.6.1 Die diskrete Gleichverteilung Eine diskrete Zufallsvariable mit möglichen Ausprägungen x1 , . . . , xk heißt gleichverteilt auf {x1 , . . . , xk }, wenn für alle i = 1, . . . , k P [X = xi ] = 1 k gilt Anwendung: Werfen eines idealen Würfels Die Zufallsvariable X = „Augenzahl“ ist gleichverteilt auf {1, 2, . . . , 6} p1 = P [X = 1] = . . . = p6 = P [X = 6] = Statistik_II@finasto 1 6 2–16 Übersicht: Diskrete Gleichverteilung • Wahrscheinlichkeitsfunktion 1 k für x = x1 , x2 , . . . , xk f (x) = 0 sonst • Erwartungswert k 1∑ E(X) = µ = xi k i=1 • Varianz k ∑ 1 Var(X) = σ 2 = (xi − µ)2 k i=1 • Verteilungsfunktion für x < x1 0 F (x) = ki für xi ≤ x < xi+1 , 1 ≤ i < k 1 für xk ≤ x Statistik_II@finasto 2–17 0.15 0.05 0.1 f(x) 0.2 0.25 Wahrscheinlichkeitsfunktion (diskrete Gleichverteilung) 1 2 3 x 4 5 6 0.5 0 F(x) 1 Verteilungsfunktion (diskrete Gleichverteilung) 1 Statistik_II@finasto 2 3 x 4 5 6 2–18 Bernoulli Variablen Oft interessiert man sich bei einem Zufallsvorgang nur dafür, ob ein bestimmtes Ereignis A eintritt oder nicht. Man spricht dann von einem Bernoulli Vorgang oder Bernoulli-Experiment. Die Zufallsvariable 1 falls A eintritt X= 0 falls A nicht eintritt heißt binäre Variable oder Bernoulli- Variable Beispiele: A = „weiblich“ (X = 1), Ā = „männlich“ (X=0) A = „arbeitslos“ (X = 1), Ā = „nicht arbeitslos“ (X=0) X folgt einer Bernoulli-Verteilung mit Parameter p = P [A], kurz X ∼ Bernoulli(p) Es gilt dann: P [X = 1] = p, P [X = 0] = 1 − p E(X) = p, Var(X) = p(1 − p) Statistik_II@finasto 2–19 2.6.2 Die geometrische Verteilung Ein Bernoulli-Experiment werde solange wiederholt, bis zum ersten Mal das interessierende Ereignis A eintritt. Man betrachte X = Beispiel: Anzahl der Versuche bis zum ersten Mal „A“ eintritt Würfelspiel: Man würfelt solange, bis zum ersten Mal eine „6“ geworfen wird. X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt ⇒ X ist geometrisch verteilt mit Parameter p: X ∼ G(p) Herleitung: Mögliche Werte von X: 1, 2, 3, . . . (alle nat. Zahlen!) X nimmt einen Wert x an, falls zunächst x−1 mal das Komplementärereignis Ā und dann im x−ten Versuch A eintritt. Die Unabhängigkeit der Ereignisse führt auf x−1 P [X = x] = P (Ā ∩ . . . ∩ Ā ∩A) = (1 − p) ·p | {z } x − 1 mal Statistik_II@finasto 2–20 Übersicht: Geometrische Verteilung • Wahrscheinlichkeitsfunktion x−1 (1 − p) p für x = 1, 2, 3, . . . fG (x) = 0 sonst • Erwartungswert E(X) = • Varianz Var(X) = 1 p 1−p p2 • Verteilungsfunktion [x] ∑ (1 − p)k−1 p für x ≥ 1 FG (x) = k=1 0 sonst [x] - größte ganze Zahl mit [x] ≤ x Statistik_II@finasto 2–21 Beispiel: Würfelspiel X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt Da p = P [„6“] = 16 , gilt 1 X ∼ G( ) 6 1 E(X) = = 6 p Im „Mittel“ braucht man also 6 Versuche, um zum ersten Mal eine „6“ zu würfeln. 11 P [X ≤ 2] = p + (1 − p)p = = 0, 3056 36 Geometrische Reihe: ∑l 1−αl+1 k k=0 α = 1−α für 0 ≤ α < 1 5 ∑ 1 − (1 − p)6 ⇒ P [X ≤ 6] = p (1 − p) = p p k=0 ( )6 5 = 0, 6651 =1− 6 P [X > 10] = 1 − P [X ≤ 10] [ ( )10 ] 5 =1− 1− = 0, 1615 6 Statistik_II@finasto k 2–22 2.6.3 Die Binomialverteilung n unabhängige Wiederholungen eines BernoulliExperiments mit gleicher Erfolgswahrscheinlichkeit p. Man betrachte X = Anzahl der Versuche, bei denen „A“ eintritt Beispiele: Würfelspiel mit einem fairen Würfel: Mit Wahrscheinlichkeit p = 1/6 wird eine „6“ geworfen X = Anzahl der „6“ bei n = 20 Würfen Meinungsumfrage zu einer bestimmten politischen Entscheidung; p = Anteil der Befürworter in der Population. Einfache Zufallsstichprobe vom Umfang n: X = Anzahl Befürworter in der Stichprobe ⇒ X ist binomialverteilt mit den Parametern p und n: X ∼ B(n, p) Anmerkung: Bernoulli(p) = B(1, p) Statistik_II@finasto 2–23 Herleitung der Binomialverteilung Mögliche Werte von X: 0, 1, 2, . . . , n − 1, n X nimmt einen Wert x an, falls z.B. das Ereignis „zunächst x mal A, danach n − x mal Ā“ eintritt. Unabhängigkeit impliziert x n−x P [A ∩ . . . ∩ A ∩ Ā ∩ . . . ∩ Ā ] = p (1 − p) | {z } | {z } x mal n − x mal Anzahl möglicher Ziehungen, bei denen jeweils x mal A und n − x mal Ā auftritt: ( ) n! n = x!(n − x)! x Alle diese Fälle sind gleichwahrscheinlich ⇒ Statistik_II@finasto ( ) n x P [X = x] = p (1 − p)n−x x 2–24 Herleitung von Erwartungswert und Varianz: X läßt sich als Summe von unabhängigen Bernoulliverteilten Zufallsvariablen schreiben: X= n ∑ Xi i=1 mit 1 falls beim i-ten Versuch „A“ eintritt Xi = 0 falls beim i-ten Versuch „ Ā“ eintritt X1 , . . . , Xn sind unabhängig, und E(Xi ) = p, Var(Xi ) = p(1 − p) i = 1, . . . , n Damit ergibt sich E(X) = E(X1 ) + . . . + E(Xn ) = np Var(X) = Var(X1 ) + . . . + Var(Xn ) = np(1 − p) Statistik_II@finasto 2–25 Übersicht: Binomialverteilung • Wahrscheinlichkeitsfunktion ( ) n x n−x p (1 − p) für x = 0, 1, 2, . . . , n x fB (x) = 0 sonst • Erwartungswert E(X) = np • Varianz Var(X) = np(1 − p) • Verteilungsfunktion [x] ( ) ∑ n k n−k p (1 − p) k=0 k FB (x) = 0 Statistik_II@finasto für x ≥ 0 sonst 2–26 Beispiel: B (8; p) 0.2 f(x) 0.4 p=0.1 0.2 f(x) 0.4 p=0.25 0.2 f(x) 0.4 p=0.5 0.2 f(x) 0.4 p=0.75 0.2 f(x) 0.4 p=0.9 Statistik_II@finasto 2–27 Beispiel: Schießen auf eine Zielscheibe Mittelmäßiger Schütze: p = P [„Treffer in Schwarze“] = 0, 3 X = Anzahl der „Treffer ins Schwarze“ bei n = 5 Schüssen ⇒ X ∼ B(5; 0, 3) Wahrscheinlichkeit von 2 Treffern ( ) 5 P [X = 2] = fB (2) = · 0, 32 · 0, 73 = 0, 3087 2 Wahrscheinlichkeits- und Verteilungsfunktion: p = 0, 3, n = 5 Statistik_II@finasto x fB (x) FB (x) 0 0,1681 0,1681 1 0,3601 0,5282 2 0,3087 0,8369 3 0,1323 0,9692 4 0,0284 0,9976 5 0,0024 1,0000 2–28 2.6.4 Die hypergeometrische Verteilung Aus einer endlichen Grundgesamtheit von N Einheiten, von denen M eine interessierende Eigenschaft „A“ besitzen, wird n mal rein zufällig, aber ohne Zurücklegen gezogen. Man betrachte X = Anzahl der gezogenen Objekte mit der Eigenschaft „A“ Beispiele: Lotterie: Behälter mit N = 50 Losen, M = 10 Gewinnen und N − M = 40 Nieten X = Anzahl der „Gewinne“ beim Kauf von n = 25 Losen Wohngemeinschaft mit N = 5 Personen, M = 2 Frauen und N − M = 3 Männern. Zufällige Ziehung von n = 2 unterschiedlichen Personen. X = Anzahl der Frauen unter den 2 gezogenen Personen ⇒ X folgt einer hypergeometrischen Verteilung mit den Parametern n, M und N : X ∼ H(n, M, N ) Anmerkung: H(1, M, N ) = Bernoulli(p) = B(1, p) für p = M/N Statistik_II@finasto 2–29 Übersicht: Hypergeometrische Verteilung Wir setzen voraus, dass N > n • Wahrscheinlichkeitsfunktion M N −M ( x )( n−x ) für x = 0, 1, 2, . . . , n (Nn ) fH (x) = 0 sonst Achtung: Man setzt hier (k1 ) k2 = 0, falls k2 > k1 . • Erwartungswert E(X) = n M N • Varianz M M N −n Var(X) = n (1 − ) N N N −1 • Verteilungsfunktion [x] M N −M ∑ ( x )( n−k ) k=0 (Nn ) FH (x) = 0 Statistik_II@finasto für x ≥ 0 sonst 2–30 Beispiele: Hypergeometrische Verteilung für verschiedene Werte von n, M, N : 0 0.1 0.2 f(x) 0.3 0.4 0.5 N=100, M=20, n=10 0 2 4 x 6 8 6 8 0.1 0.2 f(x) 0.3 0.4 N=16, M=8, n=8 0 2 Statistik_II@finasto 4 x 2–31 Zusammenhang mit der Binomialverteilung Ebenso wie eine binomialverteilte lässt sich auch eine hypergeometrische verteilte Zufallsvariable X als Summe von Bernoulli-verteilten Variablen schreiben: X= n ∑ Xi i=1 mit 1 falls bei der i-ten Ziehung „A“ eintritt Xi = 0 falls bei der i-ten Ziehung „ Ā“ eintritt Da ohne Zurücklegen gezogen wird, sind hier die Zufallsvariablen X1 , . . . , Xn voneinander abhängig. Beim Vergleich von XH ∼ H(n, M, N ) und XB ∼ B(n, p) mit p = M/N ergibt sich: E(XH ) = np = E(XB ) N −n Var(XH ) = np(1 − p) < Var(XB ) = np(1 − p) N −1 −n Für kleine Werte n/N ist der „Korrekturfaktor“ N N −1 praktisch gleich 1. Approximation: Sind N und M groß gegenüber n, so gilt approximativ P (XH = x) ≈ P (XB = x) Statistik_II@finasto für x = 0, 1, . . . , n 2–32 Beispiel: Lotterielose Behälter mit N Losen, M Gewinnen und N − M Nieten X = Anzahl der „Gewinne“ beim Kauf von n = 2 Losen aus dem Behälter ⇒ X ∼ H(2, M, N ) N = 6, M = 2 ⇒ p = M/N = 1/3 H(2, 2, 6) B(2, 1/3) x fH (x) fB (x) 0 6 = 0.4 15 8 ≈ 0.533 15 1 ≈ 0.067 15 1 2 N = 60, M = 20 4 9 4 9 1 9 = 0.444 ≈ 0.444 ≈ 0.112 ⇒ p = M/N = 1/3 H(2, 20, 60) B(2, 1/3) x fH (x) fB (x) 0 0.441 1 0.452 2 0.107 4 9 4 9 1 9 = 0.444 ≈ 0.444 ≈ 0.112 ⇒ H(2, 20, 60) ≈ B(2, 1/3) Statistik_II@finasto 2–33 2.6.5 Die Poisson-Verteilung Die Poisson-Verteilung dient zur Modellierung von Zählvorgängen in kontinuierlicher Zeit. Man betrachtet X = Anzahl des Auftretens eines Ereignisses „A“ in einem festen Zeitintervall [0, 1] Beispiele: X = Anzahl der Insolvenzen in einem Jahr X = Anzahl der Unfälle auf einem vorgegebenen Abschnitt der A61 innerhalb eines Monats X = Anzahl der Anrufe bei der Hotline eines Unternehmens innerhalb eines Tages Zur Modellierung solcher Zählvariablen X wird häufig von einer „Poisson-Verteilung“ ausgegangen. Die jeweilige Struktur der Verteilung berechnet sich dann in Abhängigkeit von einem Parameter λ > 0, der dem im Mittel zu erwartenden Wert von X entspricht. Man schreibt X ∼ P o(λ) Statistik_II@finasto 2–34 Übersicht: Poisson-Verteilung • Wahrscheinlichkeitsfunktion λx e−λ für x = 0, 1, 2, . . . fPo (x) = x! 0 sonst • Erwartungswert E(X) = λ • Varianz Var(X) = λ • Verteilungsfunktion [x] ∑ λk e−λ FP o (x) = k=0 k! 0 Statistik_II@finasto für x ≥ 0 sonst 2–35 Beispiele [Poisson-Verteilung] 0.1 f(x) 0.2 0.3 0.4 lambda=5 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 9 10 11 12 13 14 15 x 0 0.1 f(x) 0.2 0.3 0.4 lambda=1 0 1 2 3 4 5 6 7 8 x Statistik_II@finasto 2–36 Poisson-Verteilung für Intervalle variabler Länge (Poisson-Prozess) Sei X = Anzahl des Auftretens eines Ereignisses „A“ im Zeitintervall [0, 1] und für einen Zeitpunkt t > 0 sei Xt = Anzahl des Auftretens des Ereignisses „A“ in dem Zeitintervall [0, t] Falls X ∼ P o(λ), so ist Xt Poisson-verteilt mit Parameter λ · t: Hieraus folgt • P [Xt = x] = Xt ∼ P o(λt) (λt)x −λt x! e für x = 0, 1, 2, . . . • E(Xt ) = λt, Var(Xt ) = λt Statistik_II@finasto 2–37 Anmerkung: Die Modellierung von Zählvorgängen durch die Poisson-Verteilung beruht auf einigen Annahmen, deren Gültigkeit - zumindest näherungsweise - kritisch geprüft werden muss. Sei X = Anzahl des Auftretens eines Ereignisses „A“ im Zeitintervall [0, t] X ist Poisson-verteilt, falls • Die Wahrscheinlichkeit, dass zwei Ereignisse genau gleichzeitig auftreten, ist Null. • Die Wahrscheinlichkeit des Eintretens von „A“ innerhalb eines sehr kleinen Teilintervalls von [0, t] ist proportional zur Länge des Intervalls und hängt nicht von dessen Lage auf der Zeitachse ab. • Die Anzahlen von Ereignissen in zwei disjunkten Teilintervallen sind voneinander unabhängig. Statistik_II@finasto 2–38 Beispiel: Es treten durchschnittlich zwei Defekte pro Monat an einer Maschine auf 1) Wie groß ist die Wahrscheinlichkeit, dass in einem Monat kein Defekt auftritt? X = Anzahl der Defekte in einem Monat E(X) = λ = 2, X ∼ P o(2) 20 −2 P [X = 0] = fP o (0) = e = 0, 135 0! 2) Wie groß ist die Wahrscheinlichkeit, dass in zwei Monaten kein Defekt auftritt? X2 = Anzahl der Defekte in zwei Monaten t = 2, X2 ∼ P o(λ · 2) = P o(4) 40 −4 P [X2 = 0] = e = e−4 = 0, 018 0! Statistik_II@finasto 2–39 3) Wie groß ist die Wahrscheinlichkeit, dass in t Monaten kein Defekt auftritt? Xt = Anzahl der Defekte in t Monaten E(Xt ) = λt = 2t, X ∼ P o(2t) (2t)0 −2t P [Xt = 0] = e = e−2t 0! 4) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt mehr als zwei Monate beträgt? Y = Wartezeit bis zum nächsten Defekt P [Y > 2] = P [X2 = 0] = e−4 = 0, 018 5) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt weniger als 1/2 Monat beträgt? P [Y < 0, 5] = 1 − P [Y ≥ 0, 5] = 1 − P [X0,5 = 0] = 1 − e−1 = 0, 632 Statistik_II@finasto 2–40 Approximation der Binomialverteilung durch eine Poisson-Verteilung Sei X ∼ B(n, p). Für großes n bei gleichzeitig kleiner „Erfolgswahrscheinlichkeit“ p gilt ( ) n x (np)x −np n−x P [X = x] = p (1 − p) ≈ e , x x! d.h. X ist approximativ Poisson-verteilt mit Parameter λ = np Faustregel: Approximation sinnvoll, falls n groß und np < 5 Beispiel: Lottospiel Erfolgswahrscheinlichkeit: p = 1/13.983.816 X = Anzahl „6 Richtige“ bei n = 10.000.000 Lottospielern, np = 0, 715 ⇒ Approximativ X ∼ P o(0, 715) Statistik_II@finasto 2–41