Statistik B Wahrscheinlichkeitsrechnung und induktive Statistik Prof. Dr. Alois Kneip Sommersemester 2010 Literatur: Fahrmeier, Künstler, Pigeot und Tutz (2004): Statistik, Springer Verlag Fahrmeier, Künstler, Pigeot, Tutz, Caputo und Lang (2005): Arbeitsbuch Statistik, Springer Verlag Statistik_II@finasto 0–1 Inhalt: 1) Wahrscheinlichkeitsrechnung 2) Diskrete Zufallsvariablen 3) Stetige Zufallsvariablen 4) Mehrdimensionale Zufallsvariablen 5) Stichproben und Schätzverfahren 6) Testen von Hypothesen 7) Spezielle Testprobleme 8) Lineare Einfachregression Statistik_II@finasto 0–2 Einführung Statistik I (Deskriptive Statistik) Analyse von konkreten Daten: Datenaufbereitung, Auswertung und Interpretation mit Hilfe von Maßzahlen (relative Häufigkeiten, Mittelwert, Median, usw.) Statistik II (1. Teil: Wahrscheinlichkeitsrechnung, Zufallszahlen) Entwicklung von stochastischen Modellen; Formalisierung eines Zufallsvorgangs; Fragestellung: Welche Resultate können eintreten und wie sind die zugehörigen Wahrscheinlichkeiten? Statistik II (2. Teil: Induktive Statistik) Vergleich konkreter Daten mit idealisierter Modellvorstellung; Quantifzierung von Unsicherheit; Testen von Hypothesen. Statistik_II@finasto 0–3 Fragestellungen der Wahrscheinlichkeitsrechnung Historisches Beispiel: Analyse von „Glücksspiel“, Gewinnwahrscheinlichkeit Frage des George Brossin Chevalier de Méré an Blaise Pascal: Was ist wahrscheinlicher: Bei 4 Würfen mit einem Würfel (mindestens) einmal „6“ zu werfen oder bei 24 Würfen mit 2 Würfeln mindestens eine „Doppelsechs“ zu werfen? Vermutung: Gleichwahrscheinlich. (Doppelsechs ist zwar 6-mal weniger häufig als „6“, aber dafür hat man 6-mal so viele Versuche.) Feststellung des Chevalier de Méré (nach sehr vielen Partien am Spieltisch): Nicht gleichwahrscheinlich. Systematische Analyse dieser Situation? Beispiel: Wie groß ist die Wahrscheinlichkeit, im Lotto „6 Richtige“ zu tippen? Statistik_II@finasto 0–4 Vorgehen der induktiven Statistik Beispiel 1: Experiment: 100-maliges Werfen einer Münze Statistik I: (Datenanalyse) ⇒ Beobachtete absolute Häufigkeiten: 65 mal „Kopf“ und 35 mal „Zahl“ Frage: Münze fair (d.h. Ergebnis nur Zufall) oder manipuliert? Statistik II: Modellannahme: „Münze ist fair“ ⇒ Chance für Kopf : Zahl stehen 50 : 50 Induktion: Falls die Modellannahme erfüllt ist, d.h. falls die „Hypothese“ einer fairen Münze richtig ist, so ist die Wahrscheinlichkeit bei 100 Versuchen ≥ 65 mal Kopf zu beobachten nur 0, 003 (0,3%) Schlussfolgerung: Die Hypothese einer fairen Münze ist abzulehnen, die Münze ist wohl manipuliert Statistik_II@finasto 0–5 Beispiel: Meinungsforschung Frage: Wieviel Prozent der Bevölkerung sind für oder gegen eine bestimmte wirtschaftspolitische Entscheidung der Bundesregierung? Datenerhebung: Befragung von n = 1000 zufällig ausgewählten Bürgerinnen und Bürgern (⇒ Zufallsstichprobe). Datenanalyse (Statistik I): Relative Häufigkeiten z.B. 0, 513 = 51, 3% („dafür“) und 0, 487 = 48, 7% („dagegen“) Problem: Unsicherheit! Wie nahe liegt die aus der Stichprobe berechnete relative Häufigkeit an dem wahren Prozentsatz in der Bevölkerung? Induktive Statistik: Formalisierung des Problems und Berechnung von „Konfidenzintervallen“ zur Quantifizierung der Unsicherheit: Mit einer sehr geringen Irrtumswahrscheinlichkeit liegt der wahre Prozentsatz in der Bevölkerung im Intervall [0, 513 ± 0, 031] = [0, 482, 0, 544] Statistik_II@finasto 0–6 6 Wahrscheinlichkeitsrechnung 6.1 Grundbegriffe Ziel der Wahrscheinlichkeitsrechnung ist die Analyse einer stochastischen Situation. Grundlage ist die Modellierung von Zufallsvorgängen. Zwei Fragen: • Was kann alles passieren? • Mit welcher Wahrscheinlichkeit passiert dies oder jenes? Ein Zufallsvorgang führt zu einem von mehreren, sich gegenseitig ausschließenden Ergebnissen. Es ist vor der Durchführung ungewiss, welches Ergebnis tatsächlich eintreten wird. Ein Zufallsexperiment ist ein Zufallsvorgang, der unter kontrollierbaren Bedingungen wiederholbar ist. Idee: Ein „Ergebnis“ ω ∈ S tritt ein, zufallsgesteuert. Die (nichtleere) Menge S aller möglichen Ergebnisse heißt Ergebnisraum oder Ereignisraum. Statistik_II@finasto 6–1 Beispiele: Lose ziehen (auf Kirmes) S = {Niete, Trostpreis, Teddy, Ferrari} Nächstes Spiel eines Fußballvereins S = {Gewinn, Niederlage, Unentschieden} Ein Münzwurf S = {Kopf, Zahl}={+1, b −1}={0, b 1} Würfel S = {1, 2, 3, 4, 5, 6} Einarmiger Bandit S = {(z1 , z2 , z3 )|zi ∈ {Glocke, Krone, Apfel}} 2 Würfel (Monopoly, Backgammon, . . . ) S = {(1, 1), (1, 2), (2, 2), (2, 3), . . . , (6, 6)} Statistik_II@finasto 6–2 Beispiele (Fortsetzung): Ziehung der Lottozahlen (vereinfacht, ohne Zusatzzahl) S = {{z1 , . . . , z6 }|zi ̸= zj 1 ≤ zi ≤ 49} n Münzwürfe S = {ω = (z1 , . . . , zn )|zi ∈ {K, Z}} Anzahl Schadensmeldungen, die bei einer Versicherung in einem bestimmten Monat eingehen S = {0, 1, 2, . . . } Anzahl Unfälle auf einer bestimmten Kreuzung S = {0, 1, 2, . . . } Statistik_II@finasto 6–3 Beispiele (Fortsetzung): Pfeilwurf auf Zielscheibe (mit Radius 20cm) S = {alle Punkte in einer Kreisscheibe mit Radius 20cm} ={(x, ˆ y)|x2 + y 2 ≤ 202 } ⊂ R2 Drehen eines Glücksrads/Flaschendrehen S = {Winkel von 0 bis 360◦ }=[0, ˆ 360) „Random-Taste“ auf Ihrem Taschenrechner S = {Zufallszahlen im Einheitsintervall}=[0, ˆ 1] Aktienkurs S = {Möglicher Tages-Verlauf der VW-Aktie morgen} = ˆ {Alle „Pfade“ ausgehend von heutigem Schlusskurs} Statistik_II@finasto 6–4 Die letzten Beispiele zeigen: Oft ist das Eintreten jedes einzelnen Ergebnisses sehr, sehr unwahrscheinlich (z.B.: einen festen Punkt auf der Zielscheibe treffen). ⇒ Diskussion von Wahrscheinlichkeiten nicht auf der Ebene der Ergebnisse, sondern auf der Ebene der Ereignisse A ⊂ S. Eine Teilmenge A des Ergebnisraums S heißt Ereignis. Wir sagen: „A tritt ein“, wenn ein Ergebnis ω ∈ A eintritt. einzelnes Ergebnis ω ∈ S ⇔ Elementarereignis A = {ω} Beispiele: Ein Münzwurf: A = „Kopf liegt oben“ = {K} ⊂ S = {K,Z} 1 Würfel: A = „Eine 6 wird gewürfelt“ = {6} ⊂ {1, 2, 3, 4, 5, 6} B = „Eine gerade Zahl wird gewürfelt“ = {2, 4, 6} C = „Mehr als 4 wird gewürfelt“ = {5, 6} Statistik_II@finasto 6–5 Beispiele (Fortsetzung): 2 Würfel: A = „Pasch gewürfelt“ B = „Doppelsechs“ C = „Keine 4 dabei“ Einarmiger Bandit: A = „Hauptgewinn“ = {„Automat zeigt 3 Kronen“} = {(Krone,Krone,Krone)} Glücksrad / Flaschendrehen: A = „Glücksrad bleibt in bestimmtem Sektor stehen“ = „Flasche zeigt auf bestimmte Person“ = {Winkel ∈ [α, α]} Zielscheibe: A = „Pfeil trifft ins Schwarze“ = {(x, y)|x2 + y 2 ≤ 1} B = „Pfeil landet im äußeren Ring“ = {(x, y)|182 < x2 + y 2 ≤ 202 } Statistik_II@finasto 6–6 Beispiele (Fortsetzung): Schadensmeldungen / Unfälle: A = „kein Schaden“ = {0} ⊂ N B = „höchstens 4 Schäden“ C = „Mehr als 100 Schäden“ Aktienkurs: A = „Schlusskurs ist größer als Ausgangskurs“ B = „mehr als 3% zugelegt“ Statistik_II@finasto 6–7 6.2 Mengen und Ereignisse x ∈ A: „x ist ein Element der Menge A“. x ̸∈ A: „x ist kein Element der Menge A“. A ⊂ B: A ist Teilmenge von B; x ∈ A ⇒ x ∈ B. Die Schnittmenge A ∩ B ist die Menge aller Elemente, die sowohl in A als auch in B sind; A ∩ B = {x : x ∈ A und x ∈ B} Die Vereinigungsmenge A ∪ B ist die Menge aller Elemente, die in A oder B sind; A ∪ B = {x : x ∈ A oder x ∈ B}. Die Differenzmenge A\B ist die Menge aller Elemente, die in A aber nicht in B sind; A\B = {x : x ∈ A und x ̸∈ B}. Für A ⊂ S ist die Komplementärmenge Ā von A bzgl S die Menge aller Elemente von S, die nicht in A sind. (Andere Notation: Ac , {A.) Die Potenzmenge P(S) ist die Menge aller Teilmengen von S; P(S) = {M |M ⊂ S}. Die Mächtigkeit (Kardinalität) von S ist die Anzahl der Elemente in S; #S = #{x : x ∈ S}. Statistik_II@finasto 6–8 Rechenregeln für Mengen (Veranschaulichung im Venn-Diagramm) • Kommutativgesetz: A∩B =B∩A A∪B =B∪A • Assoziativgesetz: (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) • Distributivgesetz: (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) • De Morgansche Regeln: (A ∪ B) = Ā ∩ B̄ (A ∩ B) = Ā ∪ B̄ • Aus A ⊂ B folgt B̄ ⊂ Ā. • Für die Differenzmenge A\B gilt: A\B = A ∩ B̄. Statistik_II@finasto 6–9 Ein Ereignis ist jede beliebige Teilmenge des Ereignisraumes Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels Ereignis A: \Werfen einer geraden Augenzahl" A = 2; 4; 6 ) f g Sicheres Ereignis S Ereignis, das als Ergebnis des Zufallsexperiments eintreten mu Unm ogliches Ereignis ; Ereignis, das im Ergebnis des Zufallsexperimentes auf keinen Fall eintreten kann Statistik_II@finasto 6–10 Komplement arereignis Menge samtlicher Elementarereignisse des Ereignisraumes S , die nicht im betrachteten Ereignis enthalten sind Ereignis Komplementarereignis zu A A A =; S Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels Ereignis A: \Werfen einer geraden Augenzahl" A = f2; 4; 6g = f1; 3; 5g A Statistik_II@finasto 6–11 Venn-Diagramm: Statistik_II@finasto 6–12 Relationen und Operationen von Ereignissen A zieht B nach sich: A B Wenn bei der Realisierung gegebener Bedingungen, bei der das Ereignis eintritt, stets auch das Ereignis eintritt, so sagt man zieht nach sich. ist eine Teilmenge von . A B A B A B A und B sind gleichwertig (aquivalent), wenn A B und B A: A B Statistik_II@finasto 6–13 Vereinigung von Ereignissen (logische Summe) Die Vereinigung zweier Ereignisse A und B ist die Menge aller Elementarereignisse, die zu A oder B geh oren: A [B =C A [B Verallgemeinerung Ereignisse: A1; A2; : : : ; An A Statistik_II@finasto 1[A2[ : : : [An = [ n =1 Ai i 6–14 Durchschnitt von Ereignissen Der Durchschnitt von A und B ist die Menge aller Elementarereignisse, die sowohl zu A als auch zu B geh oren: A \B =C A \B Verallgemeinerung Ereignisse: A1; A2; : : : ; An A Statistik_II@finasto 1\A2\ : : : \An = \ n =1 Ai i 6–15 Disjunkte Ereignisse Zwei Ereignisse A und B heien disjunkt, wenn ihr gleichzeitiges Eintreten unmoglich ist: A\B =; Stets disjunkt: A und A : A \ A = ; A und ; : ; \ A = ; Statistik_II@finasto 6–16 Logische Dierenz von Ereignissen Ereignis C , das darin besteht, da das Ereignis A eintritt, w ahrend das Ereignis B nicht eintritt: A B = C = A B n \ Beispiel: Zufallsexperiment: einmaliges Werfen eines Wurfels f ) n A g f g = f1 2g, n = f4g = 1; 2; 3 , B = 3; 4 A B =C Statistik_II@finasto ; B A 6–17 Zerlegung des Ereignisraumes S Ein System von Ereignissen A1; A2; : : : ; An heit eine Zerlegung von S , wenn die Relationen Ai 6= ;, (i = 1; 2; : : : ; n) Ai \ Ak = ;, f ur i 6= k, disjunkt A1 [ A2 [ : : : [ An = S gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu Beispiel: Zufallsexperiment: Werfen eines Wurfels = f1; 2; 3; 4; 5; 6g S 1 = f1g A4 = f5; 6g A 2 = f3; 4g A5 = f2; 5g A 3 = f1; 3; 4g A6 = f6g A Zerlegung von S : A1; A2; A5; A6 1 \ A2 = ; A2 \ A5 = ; A 1 \ A5 = ; A2 \ A6 = ; A 1 \ A6 = ; A5 \ A6 = ; A 1 [ A2 [ A5 [ A6 = S A Statistik_II@finasto 6–18 Zerlegung des Ereignisraumes S Ein System von Ereignissen A1; A2; : : : ; An heit eine Zerlegung von S , wenn die Relationen Ai 6= ;, (i = 1; 2; : : : ; n) Ai \ Ak = ;, f ur i 6= k, disjunkt A1 [ A2 [ : : : [ An = S gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu Beispiel: Zufallsexperiment: Werfen eines Wurfels = f1; 2; 3; 4; 5; 6g S 1 = f1g A4 = f5; 6g A 2 = f3; 4g A5 = f2; 5g A 3 = f1; 3; 4g A6 = f6g A Zerlegung von S : A1; A2; A5; A6 1 \ A2 = ; A2 \ A5 = ; A 1 \ A5 = ; A2 \ A6 = ; A 1 \ A6 = ; A5 \ A6 = ; A 1 [ A2 [ A5 [ A6 = S A Statistik_II@finasto 6–19 Zusammenfassung Beschreibung des zugrunde- Bezeichnung (Sprech- Darstellung liegenden Sachverhaltes weise) A tritt sicher ein A tritt sicher nicht ein wenn A A ist sicheres Ereignis ist unmogliches Ereignis A eintritt, tritt B ein A ist Teilmenge von B genau dann, wenn A eintritt, und B sind aquivalente Ereignisse wenn A eintritt, tritt B nicht und B sind disjunkte Ereignisse tritt B ein ein A A =S A =; A B A B A \B =; B = A genau dann, wenn A eintritt, A genau dann, wenn minde- A ist Vereinigung der Ai A = S genau dann, wenn alle A ist Durchschnitt der A = T tritt B nicht ein stens ein Ai eintritt (genau dann, wenn A1 oder A2 oder : : : eintritt), tritt A ein Ai eintreten (genau dann, wenn A1 und A2 und : : : eintreten), tritt A ein Statistik_II@finasto und B sind komplementare Ereignisse A Ai i i Ai Ai 6–20 6.3 Wahrscheinlichkeiten Vor der Durchführung eines Zufallsvorgangs ist es ungewiss, welches Ereignis eintritt. In der Wahrscheinlichkeitsrechnung wird nun die Chance für das Eintreten eines bestimmten Ereignisses A ⊂ S durch eine Zahl, die „Wahrscheinlichkeit“ P [A], bewertet. Problem: Wie kommt man zu Wahrscheinlichkeiten? 1) Klassischer Wahrscheinlichkeitsbegriff (Laplace-Wahrscheinlichkeiten) Bei „fairen“Würfeln, Glücksrädern, Münzen, Lotto-Ziehungsgeräten, etc., gilt • S = {ω1 , . . . , ωN } ist endlich • Alle Ergebnisse sind gleichwahrscheinlich ⇒ Die Wahrscheinlichkeit von A ⊂ S ergibt sich durch Abzählen: Anzahl der Elementarereignisse in A P [A] = Anzahl der Elementarereignisse in S Beispiel: Würfel, A =”gerade Augenzahl ⇒ P [A] = 3/6 = 1/2 Statistik_II@finasto 6–21 2) Objektiver (statistischer) Wahrscheinlichkeitsbegriff Wahrscheinlichkeiten ergeben sich als Grenzwert der relativen Häufigkeit eines Ereignisses A ⊂ S • n-malige Wiederholung des interessierenden Zufallsexperiments ⇒ relative Häufigkeit fn (A) • Feststellung: Für n → ∞ stabilisieren sich die relativen Häufigkeiten erfahrungsgemäß um einen festen Wert. Dieser Wert entspricht der Wahrscheinlichkeit P [A] Beispiel: n = 100, 1000, 10000, . . . mal würfeln. Bei einem fairen Würfel stabilisieren sich die relativen Häufigkeiten von A =„gerade Augenzahl“ um P [A] = 1/2. 3) Subjektive Wahrscheinlichkeiten Subjektive Wahrscheinlichkeiten geben persönliche Einschätzungen wider. Beispiele: Ihre Einschätzung der Chance, die Klausur Statistik II zu bestehen; Konjunkturprognose durch einen Sachverständigen Statistik_II@finasto 6–22 1. Beispiel: Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf einer fairen Münze. n h(„Kopf“) f („Kopf“) 10 7 0,700 20 11 0.550 40 17 0,425 60 24 0,400 80 34 0,425 100 47 0,470 200 92 0,460 400 204 0,510 600 348 0,580 800 404 0,505 1000 492 0,492 2000 1010 0,505 3000 1530 0,510 4000 2032 0,508 5000 2515 0,503 Statistik_II@finasto 6–23 2. Beispiel: Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf eines fairen Würfels. n = 20 Würfe n = 200 Würfe 0.25 0.2 0.15 0.15 0.1 0.1 0.05 0.05 1 2 3 4 5 1 6 n = 2.000 Würfe 2 3 4 5 6 n = 20.000 Würfe 0.175 0.15 0.15 0.125 0.125 0.1 0.1 0.075 0.075 0.05 0.05 0.025 0.025 1 2 3 Statistik_II@finasto 4 5 6 1 2 3 4 5 6 6–24 3. Beispiel: Man betrachte ein Land mit N = 82.000.000 Bürgerinnen und Bürgern. • 41.820.000 Frauen ⇒ Anteil = 51% • 40.180.000 Männer ⇒ Anteil = 49% • Zufallsexperiment: Ziehen eines zufällig ausgewählten Individuums (⇒ 82.000.000 mögliche Elementarereignisse Frage: Wahrscheinlichkeit des Ereignisses A („Frau“)? 41.820.000 = 0.51 P [A] = 82.000.000 Wiederholtes Ziehen von n = 10, 100, 1000, ... Individuen: Mit wachsendem n nähert sich fn (A) immer stärker der Wahrscheinlichkeit P [A] an. Vollerhebung: fN (A) = P [A] Statistik_II@finasto 6–25 6.4 Wahrscheinlichkeitsverteilungen Ziel: Unabhängig von der Art des Wahrscheinlichkeitsbegriffs entwickeln wir einen Apparat, mit dem wir die Ausgänge eines Zufallsvorgangs quantifizieren können. Wir legen hier nur fest, welche Eigenschaften Wahrscheinlichkeiten haben müssen und wie wir mit ihnen rechnen dürfen. Jede „sinnvolle“ Zuordnung von Wahrscheinlichkeiten für Ereignisse A, B ⊂ S besitzt z.B. folgenden Eigenschaften: 0 ≤ P [A] ≤ 1 P [S] = 1 A ⊂ B ⇒ P [A] ≤ P [B] P [Ā] = 1 − P [A] P [A ∪ B] = P [A] + P [B], falls A und B nicht gleichzeitig eintreten können. Die von Wahrscheinlichkeiten zu fordernden Eigenschaften sind in den „Axiomen“ des russischen Mathematikers Kolmogoroff zusammengefasst. Alle zum Umgang mit Wahrscheinlichkeiten wichtigen Rechenregeln lassen sich aus diesen Axiomen ableiten. Statistik_II@finasto 6–26 Gegeben: Diskreter Ereignisraum S = {ω1 , ω2 , . . .} Ein Wahrscheinlichkeitsmaß P ist eine Abbildung, die allen Ereignissen A eines Zufallsvorgangs eine Zahl P [A] zuordnet, und die folgenden Bedingungen (Eigenschaften, Axiome) genügt: Axiom 1: Die Wahrscheinlichkeit P [A] eines Ereignisses A ist eine eindeutig bestimmte Zahl mit 0 ≤ P [A] ≤ 1 (Nichtnegativität) Axiom 2: P [S] = 1 (Normierung) Axiom 3: (Additivität) Sind A1 , A2 , . . . , Ak , . . . paarweise disjunkt, dann gilt Für disjunkte Ereignisse (A ∪ B = ∅) gilt P [A1 ∪A2 ∪. . .∪Ak . . .] = P [A1 ]+P [A2 ]+. . .+P [Ak ]+. . . (S, P[S], P ) heißt dann ein (diskreter) Wahrscheinlichkeitsraum und P heißt (diskrete) Wahrscheinlichkeitsverteilung. Falls S endlich ist, S = (ω1 , . . . , ωN ), sprechen wir von einem endlichen Wahrscheinlichkeitsraum. Statistik_II@finasto 6–27 S : „Was kann alles passieren?“ genauer: „Welche Ereignisse sind modelliert?“ P : „Mit welcher Wahrscheinlichkeit treten die Ereignisse ein?“ Rechenregeln: • P [S] = 1, P [∅] = 0 • P [A] ≤ P [B], falls A ⊂ B • P [Ā] = 1 − P [A] mit Ā = S\A • P [A1 ∪A2 ∪. . .∪Ak ] = P [A1 ]+P [A2 ]+. . .+P [Ak ], falls A1 , A2 , . . . , Ak paarweise disjunkt • P [A\B] = P [A] − P [A ∩ B] • Additionssatz: P [A ∪ B] = P [A] + P [B] − P [A ∩ B] Statistik_II@finasto 6–28 Beispiele: 1. Fairer Würfel: • Elementarwahrscheinlichkeiten: 1 p1 = P [{1}] = = p2 = · · · = p6 6 • Wahrscheinlichkeit eine gerade Zahl zu würfeln: P [„Gerade Zahl“] = P [{2, 4, 6}] 1 1 1 1 = p2 + p4 + p6 = + + = 6 6 6 2 • Wahrscheinlichkeit eine ungerade Zahl zu würfeln: P [„Ungerade Zahl“] = P [{1, 3, 5}] 1 = p1 + p3 + p5 = 2 = 1 − P [„Gerade Zahl“] • Wahrscheinlichkeit mehr als 4 zu würfeln: P [„Mehr als 4“] = P [{5, 6}] = p5 + p6 = Statistik_II@finasto 1 1 1 + = 6 6 3 6–29 2. Gefälschter Würfel: • Elementarwahrscheinlichkeiten: p1 = 1 1 1 , p2 = p3 = p4 = p5 = , p6 = 12 6 4 • Wahrscheinlichkeit eine gerade Zahl zu würfeln: P [„Gerade Zahl“] = P [{2, 4, 6}] = p2 + p4 + p6 = 1 1 1 7 + + = 6 6 4 12 • Wahrscheinlichkeit eine ungerade Zahl zu würfeln: P [„Ungerade Zahl“] = P [{1, 3, 5}] 5 12 = 1 − P [„Gerade Zahl“] = p1 + p3 + p5 = • Wahrscheinlichkeit mehr als 4 zu würfeln: P [„Mehr als 4“] = P [{5, 6}] 1 1 5 = p5 + p6 = + = 6 4 12 Statistik_II@finasto 6–30 3. Warten auf die erste Zahl beim wiederholten Wurf einer fairen Münze: • Elementarwahrscheinlichkeiten: P [„Zahl im 1. Versuch“] = 12 =: p1 P [„Zahl erst im 2. Versuch“] = 14 =: p2 P [„Zahl erst im 3. Versuch“] = 21 · 12 · 12 = 81 =: p3 ( 1 )k P [„Zahl erst im kten Versuch“] = 2 =: pk Probe: ∞ ∑ pk = k=1 ∞ ( )k ∑ 1 k=1 2 =1 (Geometr. Reihe) • Wahrscheinlichkeit für eine gerade Anzahl von Versuchen: P [„Gerade Anzahl Versuche“] ∞ ( )2k ∑ 1 1 1 1 = p2 + p4 + p6 + · · · = = = 2 4 1 − 14 3 k=1 • Wahrscheinlichkeit für eine ungerade Anzahl von Versuchen: P [„Ungerade Anzahl Versuche“] 1 2 = 1 − = = p1 + p3 + p5 + · · · 3 3 Statistik_II@finasto 6–31 Allgemeine Wahrscheinlichkeitsräume Wenn der Grundraum nicht diskret ist, können die Wahrscheinlichkeiten von Ereignissen nicht mehr durch Summieren von Elementarwahrscheinlichkeiten berechnet werden. Betrachtet man z.B. den Pfeilwurf auf eine Zielscheibe, so ist die Trefferwahrscheinlichkeit für jeden fest gewählten, einzelnen Punkt der Scheibe gleich 0. Damit kann die Wahrscheinlichkeit für „einen Treffer ins Schwarze“ nicht als Summe der Elementarwahrscheinlichkeiten aller Punkte „im Schwarzen“ erhalten werden. Anmerkung: Bei nicht diskreten Räumen ist weiterhin zu beachten, dass es aus mathematischen Gründen nicht möglich ist, allen denkbaren Mengen A ⊂ S Wahrscheinlichkeiten zuzuweisen und gleichzeitig zu verlangen, dass die Rechenregeln für Wahrscheinlichkeiten weiter gelten. Als Ausweg betrachtet man eine Kollektion von Mengen, die abgeschlossen ist unter mengentheoretischen Operationen („σ-Algebra“). Nur noch den in der Kollektion enthaltenen Ereignissen wird eine Wahrscheinlichkeit zugeordnet. Alle in der Praxis relevanten Mengen wie z.B. Intervalle, Quadrate, Rechtecke, Kreise, Kreissektoren, Kreisringe, usw., sind i. Allg. in einer solchen Kollektion enthalten. Statistik_II@finasto 6–32 6.5 Laplace-Modell Annahmen im Laplace-Modell: • S endlich, S = {ω1 , . . . , ωN } • Alle Elementarereignisse gleichwahrscheinlich ⇒ Elementarwahrscheinlichkeiten: 1 1 pk = P [{ωk }] = = N #S für alle k = 1, . . . , N ⇒ Berechnung der Wahrscheinlichkeit von A: ∑ 1 P [A] = pk = #{ωk |ωk ∈ A} · N ωk ∈A #{ωk |ωk ∈ A} = #S Anzahl der für A günstigen Fälle = Anzahl aller Fälle Beispiele: Fairer Würfel, faire Münze. 2 faire Würfel: P [„Pasch“] = 6 36 = 1 6 Kompliziertere Modelle (z.B. Wahrscheinlichkeit fuer 3,4,5,6 Richtige beim Lotto) ⇒ geschicktes Abzählen: Kombinatorik. Statistik_II@finasto 6–33 6.6 Zufallsstichproben und Kombinatorik Gegeben: Grundgesamtheit bestehend aus N Elementen {e1 , . . . , eN } Beispiele: Urne bestehend aus 49 Kugeln (Lottozahlen), Gesamtheit aller Studenten in Bonn,... Wir betrachten nun Stichproben, die durch zufällige Ziehung von n Elementen der Grundgesamtheit entstehen Beispiele: Ziehung der Lottozahlen, Erstellung einer Zufallsstichprobe von Bonner Sudenten zu statistischen Zwecken In vielen Fällen interessiert man sich dabei für die Wahrscheinlichkeit eine bestimmte Stichprobe zu ziehen. Diese hängt ab von der Gesamtzahl der möglichen Stichproben in Abhängigkeit von der Art und Weise des Ziehungsvorgangs. und erfordert die Anwendung von kombinatorischen Überlegungen. Statistik_II@finasto 6–34 Modell mit Zurücklegen Grundgesamtheit aus N Elementen; n voneinander unabhängige Ziehungen jeweils eines zufälligen Elements ( nach jeder Ziehung wird das gezogene Element wieder in die Grundgesamtheit zurückgelegt). Anzahl der möglichen Stichproben: N n Grundgesamtheit aus N = 3 Elementen {a, b, c} Stichproben des Umfangs n = 2: {a, a}, {a, b}, {a, c}, {b, a}, {b, b}, {b, c}, {c, a}, {c, b}, {c, c} Jede dieser Stichproben wird mit der gleichen Wahrscheinlichkeit (1/9) gezogen Stichproben, die durch unabhängiges Ziehen mit Zurücklegen aus einer Grundgesamtheit entstehen, heißen einfache Zufallsstichproben. Statistik_II@finasto 6–35 Die Antwort auf die Frage des Chevalier de Méré: Was ist wahrscheinlicher: Aus 4 Würfen mindestens eine „6“ oder aus 24 Würfen mindestens eine „Doppelsechs“ zu erhalten? Fall 1: Mindestens eine 6 aus 4 Würfen • Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe): 64 • Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe), die keine 6 enthalten: 54 ⇒ P [„mindestens eine 6 aus 4 Würfen“] = 1 − P [„keine 6 aus 4 Würfen“] 54 = 1 − 4 ≈ 0, 5177 6 Analog: P [„mindestens eine Doppelsechs aus 24 Würfen“] = 1 − P [„keine Doppelsechs aus 24 Würfen“] 3524 = 1 − 24 ≈ 0, 4914 36 (An der kleinen Differenz der Wahrscheinlichkeiten sieht man, dass der Chevalier de Meré ein äußerst eifriger Spieler gewesen sein muss, um den Unterschied am Spieltisch wahrzunehmen.) Statistik_II@finasto 6–36 Modell ohne Zurücklegen Grundgesamtheit aus N Elementen; n aufeinanderfolgende Ziehungen jeweils eines zufälligen Elements. Nach jeder Ziehung wird das gezogene Element nicht wieder in die Grundgesamtheit zurückgelegt). Grundgesamtheit aus N = 3 Elementen {a, b, c} 6 Stichproben des Umfangs n = 2 bei Ziehen ohne Zurücklegen: {a, b}, {a, c}, {b, a}, {b, c}, {c, a}, {c, b} Jede dieser Stichproben ist gleichwahrscheinlich (1/6) . Anmerkung: Beim Modell ohne Zurücklegen sind die einzelnen Ziehungen nicht unabhängig voneinander; das Resultat einer Ziehung beeinflusst die möglichen Ergebnisse jeder weiteren Ziehung Statistik_II@finasto 6–37 Modell ohne Zurücklegen Anzahl der möglichen Stichproben vom Umfang n: N! N · (N − 1) · (N − n + 1) = (N − n)! Fakultät Die Fakultät einer natürlichen Zahl k ist definiert durch k! = k · (k − 1) · (k − 2) · . . . · 2 · 1 Es gilt 1! = 1, 0! = 1 Beispiele: 2! = 2 3! = 6 4! = 24 10! = 3628800 20! = 2432902008176640000 Statistik_II@finasto 6–38 Permutationen Grundgesamtheit aus N Elementen; durch N maliges zufälliges Ziehen ohne Zurücklegen werden nacheinander alle Elemente der Grundgesamtheit gezogen. Die resultierenden Stichproben (Permutationen) unterscheiden sich nur in der Reihenfolge der Elemente. Anwendungsbeispiel: Auslosung der Startreihenfolge bei einem Sportereignis mit N teilnehmenden Sportlern. N = 3 Elementen {a, b, c} 6 mögliche Permutationen: {a, b, c}, {a, c, b}, {b, a, c}, {b, c, a}, {c, a, b}, {c, b, a} Jede Permutation ist gleichwahrscheinlich (1/6) Anzahl möglicher Permutationen bei N Objekten: Statistik_II@finasto N! 6–39 Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge Grundgesamtheit aus N Elementen; durch zufälliges Ziehen ohne Zurücklegen werden nacheinander n Elemente gezogen. Keine Berücksichtigung der Reihenfolge; zwei Stichproben sind äquivalent, wenn sie die gleichen Elemente entahlten. Anzahl der möglichen Stichproben vom Umfang n (jeweils gleichwahrscheinlich): ( ) N n Binomialkoeffizient (N ) Der Binomialkoeffizient n ist definiert als ( ) N N! = (N − n)! · n! n Es gilt ( ) ( ) ( ) N N N = 1, = N, = 1, 0 1 N ( ) N = 0 falls N < n n Statistik_II@finasto 6–40 Anwendungsbeispiel: Ziehung der Lottozahlen. Bei der Ziehung der Lottozahlen handelt es sich um ein Beispiel für ein Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge. Die Stichprobe 4, 7, 11, 13, 26, 28 wird nicht unterschieden von der Ziehung 11, 26, 13, 28, 4, 7 Es gibt also ( ) 49 49! = = 13983816 6 (43)! · 6! Möglichkeiten 6 Lottozahlen aus 49 Kugeln zu ziehen ⇒ Wahrscheinlichkeit, dass eine bestimmte (getippte) Kombination die richtige ist: P [”6 Richtige”] = Statistik_II@finasto 1 = 0, 000000072 13983816 6–41 Wahrscheinlichkeit für 3, 4, 5, 6 Richtige? Modell ohne Zurücklegen, Reihenfolge irrelevant ⇒ alle Ziehungen gleichwahrscheinlich ⇒ Laplace-Modell 1 P [„6 Richtige“] = (49) = 6 P [„3 Richtige“] = = 1 ≈ 0, 000000072 13.983.816 #{„3 Richtige und 3 Falsche“} #{Alle möglichen Tipps} (6)(49−6) 3 (496−3 ) = ... 6 #{„k Richtige und 6 − k Falsche“} P [„k Richtige“] = #{Alle möglichen Tipps} (6)(49−6) = k (496−k ) 6 Statistik_II@finasto 6–42 Anmerkungen: In der Sprache der Kombinatorik werden Zusammenstellungen (Ziehungen) von n Elementen, die sich unter Berücksichtigung der Reihenfolge ergeben, als Variationen bezeichnet Zusammenstellungen (Ziehungen) von n Elementen, die ohne Berücksichtigung der Reihenfolge ergeben, werden Kombinationen genannt Anzahl Stichproben beim Modell mit Zurücklegen und ohne Berücksichtigung der Reihenfolge (Kombination mit Wiederholung): ( ) N +n−1 n Vorsicht: Stichproben nicht gleichwahrscheinlich Statistik_II@finasto 6–43 6.7 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Bei manchen Problemen der Wahrscheinlichkeitsrechnung betrachtet man das Eintreten von Ereignissen in Abhängigkeit von bestimmten anderen Ereignissen. Beispiel: Ein Unternehmen stellt 2000 Teile auf zwei Maschinen her. • 1400 Teile werden auf Maschine 1 hergestellt. Davon sind 1162 Teile fehlerfrei. • 600 Teile werden auf Maschine 2 produziert. Hiervon sind 378 Teile fehlerfrei. A ={Teil ist fehlerfrei} B ={Teil auf Maschine 1 hergestellt} C ={Teil auf Maschine 2 hergestellt} Statistik_II@finasto 6–44 fehlerfrei = A mit Fehlern = Ā Maschine 1 = B 1162 238 1400 Maschien 2 = C 378 222 600 1540 460 2000 1540 P [A] = = 0, 77 2000 1400 P [B] = = 0, 7 2000 1162 P [A ∩ B] = = 0, 581 2000 Wie hoch ist die Wahrscheinlichkeit, dass ein zufällig entnommenes fehlerfreies Teil auf Maschine 1 hergestellt wurde? P [A ∩ B] 0, 581 P [B|A] = = = 0.7545 P [A] 0, 77 Statistik_II@finasto 6–45 Bedingte Wahrscheinlichkeit Wollen definieren: Wahrscheinlichkeit von A, angenommen B tritt ein. (B ist „neuer“ Grundraum) Bezeichnung: P [A|B] Definition: [bedingte Wahrscheinlichkeit] Man betrachte Ereignisse A, B ⊂ S mit P [B] > 0. Die bedingte Wahrscheinlichkeit von A gegeben B wird definiert durch P [A|B] := P [A ∩ B] P [B] P [·|B] als Funktion der Ereignisse A heisst bedingte Wahrscheinlichkeitsverteilung bzgl B. Bedingte Wahrscheinlichkeiten sind wiederum Wahrscheinlichkeiten im Sinne der Axiome von Kolmogoroff (alle Rechenregeln für „normale“ Wahrscheinlichkeiten sind erfüllt). Statistik_II@finasto 6–46 Unabhängigkeit Definition: [Unabhängige Ereignisse] Ein Ereignis A ist dann von einem Ereignis B stochastisch unabhängig, wenn das Eintreten des Ereignisses A von dem Eintreten oder Nichteintreten des Ereignisses B nicht abhängt. P [A|B] = P [A] P [B|A] = P [B] P [A ∩ B] = P [A] P [B] Bemerkung: unabhängig ist nicht gleichbedeutend mit disjunkt Beispiel: Zwei Ereignisse: A und B mit P [A] > 0, P [B] > 0 P [A ∩ B] = ∅ ⇒ P [A ∩ B] = 0 aber: P [A ∩ B] = 0 ̸= P [A] P [B] Statistik_II@finasto 6–47 Beispiel 1: Zweimaliges Werfen eines Würfels A = {„Im ersten Wurf eine 6“} B = {„Im zweiten Wurf eine 6“} P [B|A] = P [B] = 1 , 6 A und B sind unabhängig Beispiel 2: Augenfarbe und Intelligenz A = {„Hohe Intelligenz“}, B = {„Blaue Augen“} Vierfeldertafel der Wahrscheinlichkeiten in einer Population: IQ\Augen B (blau) B̄ (nicht blau) Summe A P [A ∩ B] = 0.1 P [A ∩ B̄] = 0.4 P [A] = 0.5 Ā P [Ā ∩ B] = 0.1 P [Ā ∩ B̄] = 0.4 P [Ā] = 0.5 Summe P [B] = 0.2 P [B̄] = 0.8 P [S] = 1 P [A ∩ B] = P [A] · P [B] = 0.1, P [Ā ∩ B̄] = P [Ā)] · P [B̄] = 0.4 ⇒ A und B sind unabhängig, Statistik_II@finasto 6–48 Verallgemeinerung auf mehr als zwei Ereignisse Multiplikationssatz: Für Ereignisse A1 , . . . , An P [A1 ∩ . . . ∩ An ] = P [A1 )] · P [A2 |A1 ] · P [A3 |A1 ∩ A2 ] · · · · P [An |A1 ∩ . . . ∩ An−1 ] Unabhängigkeit: Die Ereignisse A1 , . . . , An heißen stochastisch unabhängig, wenn für jede Auswahl Ai1 , . . . , Aim mit m ≤ n gilt P [Ai1 ∩ . . . ∩ Aim ] = P [Ai1 ] · P [Ai2 ] · · · P [Aim ] Statistik_II@finasto 6–49 6.8 Totale Wahrscheinlichkeit und das Theorem von Bayes Beispiel: [Weinkeller] • Qualitätswein, Kabinett, Spätlese: 5:3:2 • Weißweinanteil: 1/5, 1/3 bzw. 1/4 Wahrscheinlichkeit für Weinsorten A1 = { Qualitätswein } P [A1 ] = 0, 5 A2 = { Kabinett } P [A2 ] = 0, 3 A3 = { Spätlese } P [A3 ] = 0, 2 ⇒ vollständige Zerlegung von S A1 ∪ A2 ∪ A3 = S A1 ∩ A2 = ∅, A1 ∩ A3 = ∅, A2 ∩ A3 = ∅, Frage: Wie hoch ist die Wahrscheinlichkeit für Ereignis B, eine ausgewählte Flasche ist „Weißwein“? 1 5 1 P [B|A2 ] = 3 1 P [B|A3 ] = 4 P [B|A1 ] = Statistik_II@finasto 6–50 A 1 Qualitätswein A1 B A2 A3 B B A3 Kabinett A2 Spätlese Vorgehen: A1 .A2 , A3 bilden eine vollständige Zerlegung des Grundraums S ⇒ B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 ) P [B] =P [(B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 )] =P [(B ∩ A1 )] + P [(B ∩ A2 )] + P [(B ∩ A3 )] =P [B|A1 ] P [A1 ] + P [B|A2 ] P [A2 ] + P [B|A3 ] P [A3 ] 1 1 1 3 1 2 = · + · + · 5 2 3 10 4 10 1 = 4 Statistik_II@finasto 6–51 Totale Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit: Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung von S bilden, d.h. es gilt: Ai ∩ Aj = ∅, i ̸= j, und A1 ∪ A2 ∪ · · · ∪ Ak = S. Dann folgt für ein Ereignis B ⊂ S: P [B] = P [A1 ∩ B] + P [A2 ∩ B] + . . . + P [Ak ∩ B] = k ∑ P [Ai ∩ B] i=1 = k ∑ P [B|Ai ] · P [Ai ]. i=1 Statistik_II@finasto 6–52 Beispiel: [Weinkeller (Fortsetzung)] Weitere mögliche Fragestellung: Wie groß ist die Wahrscheinlichkeit P [A1 |B] dafür, daß eine zufällig ausgewählte Weißweinflasche Qualitätswein ist? Grundlage: Wir kennen die Wahrscheinlichkeiten P [B|Ai ] und P [Ai ] i = 1, . . . , 3 Aus der Definition der bedingten Wahrscheinlichkeit folgt: P [A1 ∩ B] = P [A1 |B] P [B] = P [B|A1 ] P [A1 ] ⇒ P [B|A1 ] P [A1 ] P [B] P [B|A1 ] P [A1 ] = ∑3 i=1 P [B|Ai ] P [Ai ] P [A1 |B] = = Statistik_II@finasto 1 5 · 1 4 1 2 = 2 5 6–53 Satz von Bayes [Thomas Bayes, englischer Pastor, Mathematiker, (17021761)] Seien die Vorraussetzungen des Satzes von der totalen Wahrscheinlichkeit erfüllt. Dann kann auch nach der Wahrscheinlichkeit von Ai gefragt werden unter der Bedingung, dass B eingetreten ist (Wahrscheinlichkeit a posteriori). Satz von Bayes: Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung von S bilden Sei B Ereignis, derart daß P [B] > 0. Dann gilt: P [Aj ]P [B|Aj ] P [Aj ]P [B|Aj ] P [Aj |B] = ∑k = P [B] P [Ai ]P [B|Ai ] i=1 Wir nennen die Wahrscheinlichkeiten • P [Ai ] a-priori Wahrscheinlichkeiten • P [Ai |B] a-posteriori Wahrscheinlichkeiten Statistik_II@finasto 6–54 Hilfsmittel bei der Berechnung von Wahrscheinlichkeiten: Baumdiagramm Voraussetzung: Vollständige Zerlegung des Ereignisraums Beispiel: Ereignisse A, Ā und B, B̄ P (A) P (Ā) P (B|A) B P (B̄|A) B̄ P (B|Ā) B P (B̄|Ā) B̄ A Ā zur Kontrolle: Die Wahrscheinlichkeiten, der von einem Punkt des Baumdiagramms ausgehenden Äste, haben stets die Summe 1. Die Summe aller Pfadwahrscheinlichkeiten ist 1. Statistik_II@finasto 6–55 Pfadregeln: 1) Wird ein Ergebnis durch einen einzelnen Pfad beschrieben, so ist die Wahrscheinlichkeit dieses Ergebnisses (= Pfadwahrscheinlichkeit) gleich dem Produkt aller Wahrscheinlichkeiten längs des zugehörigen Pfades. 2) Setzt sich ein Ereignis aus mehreren Pfaden zusammen, so werden die entsprechenden Pfadwahrscheinlichkeiten addiert. Statistik_II@finasto 6–56 2 Diskrete Zufallsvariablen Beispiel: Zufallsexperiment: dreimaliges Werfen einer idealen Münze (Kopf (K) und Zahl (Z)) Ereignisraum Ω = {KKK, KKZ, KZK, ZKK, KZZ, ZKZ, ZZK, ZZZ} Alle Elementarereignisse sind gleichwahrscheinlich Zufallsvariable: X = Anzahl „Z“ Werte von X: X=0 falls das Elementarereignis {KKK} eintritt X=1 falls eines der Elementarereignisse {KKZ}, {KZK} oder {ZKK} eintritt X=2 falls eines der Elementarereignisse {KZZ}, {ZKZ} oder {ZZK} eintritt X=3 falls das Elementarereignis {ZZZ} eintritt Statistik_II@finasto 2–1 Zufallsvariable Eine numerische Variable oder ein Merkmal X, dessen Werte oder Ausprägungen die Ergebnisse eines Zufallsvorgangs sind, heißt Zufallsvariable X. Die Zahl x ∈ R, die X bei einer Durchführung des Zufallsvorgangs annimmt, heißt Realisierung oder Wert von X. Formal ist eine Zufallsvariable eine Abbildung, die jedem möglichen Elementarereignis ω ∈ Ω einen Zahlenwert X(ω) zuweist: ω 7→ X(ω) Wie in der deskriptiven Statistik ist das Skalenniveau eines Merkmals entscheidend für das weitere Vorgehen. Von besonderer Bedeutung ist die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen. Statistik_II@finasto 2–2 Beispiele: 1) Ω = Menge aller Bürgerinnen und Bürger von Bonn Zufallsexperiment: Zufälliges Ziehen aus Ω Diskrete Zufallsvariable: In Abhängigkeit vom Geschlecht nimmt X die Werte 0 und 1 an 0 falls weiblich X= 1 falls männlich Stetige Zufallsvariable: Jedem Bürger wird seine Körpergröße zugewiesen, X = Körpergröße. 2) Würfelspiel: X = Anzahl der benötigten Versuche bis zum ersten Mal eine „6“ auftritt X diskrete Zufallsvariable, jede natürliche Zahl ist mögliche Ausprägung Von statistischem Interesse: Wahrscheinlichkeiten, z.B P [X = 1], P [X ≤ 3], P [X ≥ 4], etc. Anmerkung: Im Fall 1) entsprechen Wahrscheinlichkeiten den relativen Häufigkeiten in der Grundgesamtheit. Statistik_II@finasto 2–3 2.1 Wahrscheinlichkeitsverteilungen Eine Zufallsvariable heißt diskret, falls sie nur endlich oder abzählbar unendlich viele Werte x1 , x2 , . . . , xk , . . . annehmen kann. Die Wahrscheinlichkeitsverteilung von X ist durch die Wahrscheinlichkeiten P [X = xi ] = pi , i = 1, 2, . . . , k, . . . gegeben. Beispiel: Dreimaliges Werfen einer idealen Münze Elementar- Wahrschein- Anzahl Wahrscheinlich- ereignis lichkeit der Z keiten von X ωj P [{ωj }] xi P [X = xi ] = pi ω1 - KKK P [{ω1 }] = 0, 125 x1 = 0 p1 = 0, 125 ω2 - KKZ P [{ω2 }] = 0, 125 x2 = 1 p2 = 0, 375 ω3 - KZK P [{ω3 }] = 0, 125 ω4 - ZKK P [{ω4 }] = 0, 125 ω5 - KZZ P [{ω5 }] = 0, 125 x3 = 2 p3 = 0, 375 ω6 - ZKZ P [{ω6 }] = 0, 125 ω7 - ZZK P [{ω7 }] = 0, 125 ω8 - ZZZ P [{ω8 }] = 0, 125 x4 = 3 p4 = 0, 125 Statistik_II@finasto 2–4 Wahrscheinlichkeitsfunktion Die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen mit möglichen Werten x1 , x2 , . . . , xk , . . . ist definiert durch P [X = x] für x ∈ {x1 , x2 , . . . , xk , . . .} f (x) = 0 sonst Eigenschaften: ∑ f (xi ) = pi ≥ 0, f (xi ) = 1 i Beispiel: Wahrscheinlichkeitsfunktion 0.4 f(x) 0.3 0.2 0.1 0.0 0 Statistik_II@finasto 1 x 2 3 2–5 Verteilungsfunktion (einer diskreten Zufallsvariable X mit Werten xi ) ∑ F (x) = P [X ≤ x] = f (xi ) xi ≤x Beispiel: F (x) = 0 für 0, 125 für x<0 0, 5 für 0, 875 für 1 für 2≤x<3 0≤x<1 1≤x<2 x≥3 Verteilungsfunktion 1.0 0.8 0.6 F(x) 0.4 0.2 0.0 0 1 2 3 x Statistik_II@finasto 2–6 Berechnung von Wahrscheinlichkeiten für beliebige Ereignisse A ⊂ Ω: ∑ ∑ P [X ∈ A] = P [X = xi ] = pi Spezialfälle: i:xi ∈A P [X ≤ b] = ∑ i:xi ∈A pi = F (b) i:xi ≤b P [X ≥ a] = ∑ pi i:xi ≥a P [X > a] = ∑ pi = 1 − F (a) i:xi >a P [X ∈]a, b]] = ∑ pi = F (b) − F (a) i:a<xi ≤b Beispiel: Dreimaliges Werfen einer idealen Münze P [X ≤ 2] = p1 + p2 + p3 = 0, 875 P [0 < X ≤ 1] = P [X = 1] = p2 = 0, 375 P [0 ≤ X ≤ 1] = p1 + p2 = 0, 5 P [2 ≤ X ≤ 3] = p3 + p4 = 0, 5 Statistik_II@finasto 2–7 2.2 Unabhängigkeit von Zufallsvariablen Idee: Zwei Zufallsvariablen X und Y sind unabhängig, falls sie sich gegenseitig nicht beeinflussen. Zwei diskrete Zufallsvariablen X und Y heißen unabhängig, wenn für alle möglichen Werte x, y P [X = x, Y = y] = P [X = x] · P [Y = y] Verallgemeinerung: X1 , . . . , Xn heißen unabhängig, falls P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ] Anmerkung: Seien X1 , . . . , Xn Zufallsvariablen, die jeweils die einzelnen Versuche bei n-maliger unabhängiger Wiederholung eines Zufallsexperiments beschreiben. Dann gilt • Alle Xi haben die gleiche Verteilung • X1 , . . . , Xn sind voneinander unabhängig Statistik_II@finasto 2–8 2.3 Erwartungswert und Varianz Der Erwartungswert E(X) einer diskreten Zufallsvariable X ist definiert durch ∑ E(X) = x1 p1 + . . . + xk pk + . . . = xi pi i≥1 bzw. E(X) = x1 f (x1 ) + . . . + xk f (xk ) + . . . = ∑ xi f (xi ) i≥1 Statt E(X) schreibt man auch µX oder einfach µ, wenn klar ist, welche Zufallsvariable gemeint ist. µ = E(X) wird häufig auch als „Mittelwert“ der Zufallsvariable X bezeichnet. Subjektive Interpretation von µX : pi ist ein „Gewicht“, das dem Wert xi zukommt, da man diesen mit Wahrscheinlichkeit P [X = xi ] = pi erwartet. Für X „erwartet“ man dann die Summe der gewichteten Werte xi pi . Statistik_II@finasto 2–9 Analogie( Statistik I): Empirischer Mittelwert eines diskreten Merkmals X mit k möglichen Ausprägungen: n Beobachtungen mit relativen Häufigkeiten f1,n , . . . , fk,n k ∑ xi fi,n x̄ = i=1 Man beachte jedoch: E(X) charakterisiert eine Zufallsvariable x̄ beschreibt den Schwerpunkt von Daten „Asymptotischer“ Zusammenhang zwischen x̄ und E(X): Gesetz der großen Zahlen Das der Zufallsvariable X zugrundeliegende Zufallsexperiment werde n mal unabhängig voneinander durchgeführt. x̄n - Mittelwert der resultierenden Beobachtungen Gesetz der großen Zahlen: Falls n groß ist, liegt x̄n mit hoher Wahrscheinlichkeit nahe bei E(X); je größer n, umso geringer der zu erwartende Unterschied ⇒ Häufigkeitsinterpretation von µX . Statistik_II@finasto 2–10 Beispiele: (Erwartete Wettgewinne) 1) Werfen einer Münze; Wetteinsatz: 1 DM Gewinn bei Zahl, 1 DM Verlust bei Kopf 1 falls „Z“ Zufallsvariable: X = −1 falls „K“ E(X) = 1 1 · (−1) + · 1 = 0 2 2 Bei häufigem Werfen der Münze ist der „mittlere“ Gewinn 0, Gewinne und Verluste gleichen sich aus 2) Dreimaliges Werfen einer Münze; Wetteinsatz: 10 DM Gewinn bei „ZZZ“, jeweils 1 DM Verlust bei anderen Ergebnissen Zufallsvariable: 10 falls „ZZZ“ X= −1 sonst E(X) = 0, 125 · 10 + 0, 875 · (−1) = 0, 375 Bei häufiger Wiederholung des Zufallsexperiments ist der „mittlere“ Gewinn 0,375 DM. Statistik_II@finasto 2–11 Transformationen Transformationsregel für Erwartungswerte Sei g(x) eine reelle Funktion. Dann gilt für Y = g(X) ∑ ∑ E(Y ) = E(g(X)) = g(xi )pi = g(xi )f (xi ) i≥1 i≥1 Beispiel: g(x) = x2 , X diskret mit k möglichen Ausprägungen E(g(X)) = E(X 2 ) = x21 p1 + . . . + x2k pk Lineare Transformationen • Für Y = aX + b gilt: E(Y ) = aE(X) + b • Für zwei Zufallsvariablen X1 und X2 und Konstanten a1 , a2 gilt: E(a1 X1 + a2 X2 ) = a1 E(X1 ) + a2 E(X2 ) Statistik_II@finasto 2–12 2.4 Varianz und Standardabweichung Die Varianz Var(X) einer diskreten Zufallsvariable X ist definiert durch Var(X) = (x1 − µ)2 p1 + . . . + (xk − µ)2 pk + . . . ∑ = (xi − µ)2 f (xi ) i≥1 und die Standardabweichung ist √ σX = Var(X) 2 Statt Var(X) schreibt man auch σX oder einfach σ 2 , wenn klar ist, welche Zufallsvariable gemeint ist. • Varianz als erwartete quadratische Abweichung Var(X) = E(X − µ)2 • Rechentechnisch günstige Formel Statistik_II@finasto Var(X) = E(X 2 ) − µ2 2–13 Lineare Transformation Für Y = aX + b ist Var(Y ) = a2 Var(X) und σY = |a|σX Unabhängige Zufallsvariablen: Sind X und Y unabhängig, so gilt E(X · Y ) = E(X) · E(Y ) Var(X + Y ) = Var(X) + Var(Y ) Beispiel: Werfen eines idealen Würfels; Gewinn von X = 1 DM bei „1“, . . . , X = 6 DM bei „6“ Erwartungswert: µ = E(X) = 6 ∑ 1 i=1 6 · i = 3, 5 Varianz: σ 2 = E(X 2 ) − µ2 = 6 ∑ 1 i=1 Statistik_II@finasto 6 · i2 − (3, 5)2 = 2, 917 2–14 2.5 Weitere Charakeristika von Verteilungen Die Definition von Modus, Median, etc. erfolgt analog zu den entsprechenden Definitionen in Statistik I, indem man relative Häufigkeiten durch Wahrscheinlichkeiten ersetzt. Modus: xmod ist ein Wert für den die Wahrscheinlichkeitsfunktion f (x) = P [X = x] maximal wird. Quantile: Ein Wert xp mit 0 < p < 1 für den P [X ≤ xp ] = F (xp ) ≥ p und P [X ≥ xp ] ≥ 1 − p gilt, heißt p−Quantil der diskreten Zufallsvaribale X. Für p = 0, 5 heißt xmed = x0,5 Median Bei symmetrischen Verteilungen gilt: xmod = xmed = µX Statistik_II@finasto 2–15 2.6 Wichtige diskrete Verteilungsmodelle 2.6.1 Die diskrete Gleichverteilung Eine diskrete Zufallsvariable mit möglichen Ausprägungen x1 , . . . , xk heißt gleichverteilt auf {x1 , . . . , xk }, wenn für alle i = 1, . . . , k P [X = xi ] = 1 k gilt Anwendung: Werfen eines idealen Würfels Die Zufallsvariable X = „Augenzahl“ ist gleichverteilt auf {1, 2, . . . , 6} p1 = P [X = 1] = . . . = p6 = P [X = 6] = Statistik_II@finasto 1 6 2–16 Übersicht: Diskrete Gleichverteilung • Wahrscheinlichkeitsfunktion 1 k für x = x1 , x2 , . . . , xk f (x) = 0 sonst • Erwartungswert k 1∑ E(X) = µ = xi k i=1 • Varianz k ∑ 1 Var(X) = σ 2 = (xi − µ)2 k i=1 • Verteilungsfunktion für x < x1 0 F (x) = ki für xi ≤ x < xi+1 , 1 ≤ i < k 1 für xk ≤ x Statistik_II@finasto 2–17 0.15 0.05 0.1 f(x) 0.2 0.25 Wahrscheinlichkeitsfunktion (diskrete Gleichverteilung) 1 2 3 x 4 5 6 0.5 0 F(x) 1 Verteilungsfunktion (diskrete Gleichverteilung) 1 Statistik_II@finasto 2 3 x 4 5 6 2–18 Bernoulli Variablen Oft interessiert man sich bei einem Zufallsvorgang nur dafür, ob ein bestimmtes Ereignis A eintritt oder nicht. Man spricht dann von einem Bernoulli Vorgang oder Bernoulli-Experiment. Die Zufallsvariable 1 falls A eintritt X= 0 falls A nicht eintritt heißt binäre Variable oder Bernoulli- Variable Beispiele: A = „weiblich“ (X = 1), Ā = „männlich“ (X=0) A = „arbeitslos“ (X = 1), Ā = „nicht arbeitslos“ (X=0) X folgt einer Bernoulli-Verteilung mit Parameter p = P [A], kurz X ∼ Bernoulli(p) Es gilt dann: P [X = 1] = p, P [X = 0] = 1 − p E(X) = p, Var(X) = p(1 − p) Statistik_II@finasto 2–19 2.6.2 Die geometrische Verteilung Ein Bernoulli-Experiment werde solange wiederholt, bis zum ersten Mal das interessierende Ereignis A eintritt. Man betrachte X = Beispiel: Anzahl der Versuche bis zum ersten Mal „A“ eintritt Würfelspiel: Man würfelt solange, bis zum ersten Mal eine „6“ geworfen wird. X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt ⇒ X ist geometrisch verteilt mit Parameter p: X ∼ G(p) Herleitung: Mögliche Werte von X: 1, 2, 3, . . . (alle nat. Zahlen!) X nimmt einen Wert x an, falls zunächst x−1 mal das Komplementärereignis Ā und dann im x−ten Versuch A eintritt. Die Unabhängigkeit der Ereignisse führt auf x−1 P [X = x] = P (Ā ∩ . . . ∩ Ā ∩A) = (1 − p) ·p | {z } x − 1 mal Statistik_II@finasto 2–20 Übersicht: Geometrische Verteilung • Wahrscheinlichkeitsfunktion x−1 (1 − p) p für x = 1, 2, 3, . . . fG (x) = 0 sonst • Erwartungswert E(X) = • Varianz Var(X) = 1 p 1−p p2 • Verteilungsfunktion [x] ∑ (1 − p)k−1 p für x ≥ 1 FG (x) = k=1 0 sonst [x] - größte ganze Zahl mit [x] ≤ x Statistik_II@finasto 2–21 Beispiel: Würfelspiel X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt Da p = P [„6“] = 16 , gilt 1 X ∼ G( ) 6 1 E(X) = = 6 p Im „Mittel“ braucht man also 6 Versuche, um zum ersten Mal eine „6“ zu würfeln. 11 P [X ≤ 2] = p + (1 − p)p = = 0, 3056 36 Geometrische Reihe: ∑l 1−αl+1 k k=0 α = 1−α für 0 ≤ α < 1 5 ∑ 1 − (1 − p)6 ⇒ P [X ≤ 6] = p (1 − p) = p p k=0 ( )6 5 = 0, 6651 =1− 6 P [X > 10] = 1 − P [X ≤ 10] [ ( )10 ] 5 =1− 1− = 0, 1615 6 Statistik_II@finasto k 2–22 2.6.3 Die Binomialverteilung n unabhängige Wiederholungen eines BernoulliExperiments mit gleicher Erfolgswahrscheinlichkeit p. Man betrachte X = Anzahl der Versuche, bei denen „A“ eintritt Beispiele: Würfelspiel mit einem fairen Würfel: Mit Wahrscheinlichkeit p = 1/6 wird eine „6“ geworfen X = Anzahl der „6“ bei n = 20 Würfen Meinungsumfrage zu einer bestimmten politischen Entscheidung; p = Anteil der Befürworter in der Population. Einfache Zufallsstichprobe vom Umfang n: X = Anzahl Befürworter in der Stichprobe ⇒ X ist binomialverteilt mit den Parametern p und n: X ∼ B(n, p) Anmerkung: Bernoulli(p) = B(1, p) Statistik_II@finasto 2–23 Herleitung der Binomialverteilung Mögliche Werte von X: 0, 1, 2, . . . , n − 1, n X nimmt einen Wert x an, falls z.B. das Ereignis „zunächst x mal A, danach n − x mal Ā“ eintritt. Unabhängigkeit impliziert x n−x P [A ∩ . . . ∩ A ∩ Ā ∩ . . . ∩ Ā ] = p (1 − p) | {z } | {z } x mal n − x mal Anzahl möglicher Ziehungen, bei denen jeweils x mal A und n − x mal Ā auftritt: ( ) n! n = x!(n − x)! x Alle diese Fälle sind gleichwahrscheinlich ⇒ Statistik_II@finasto ( ) n x P [X = x] = p (1 − p)n−x x 2–24 Herleitung von Erwartungswert und Varianz: X läßt sich als Summe von unabhängigen Bernoulliverteilten Zufallsvariablen schreiben: X= n ∑ Xi i=1 mit 1 falls beim i-ten Versuch „A“ eintritt Xi = 0 falls beim i-ten Versuch „ Ā“ eintritt X1 , . . . , Xn sind unabhängig, und E(Xi ) = p, Var(Xi ) = p(1 − p) i = 1, . . . , n Damit ergibt sich E(X) = E(X1 ) + . . . + E(Xn ) = np Var(X) = Var(X1 ) + . . . + Var(Xn ) = np(1 − p) Statistik_II@finasto 2–25 Übersicht: Binomialverteilung • Wahrscheinlichkeitsfunktion ( ) n x n−x p (1 − p) für x = 0, 1, 2, . . . , n x fB (x) = 0 sonst • Erwartungswert E(X) = np • Varianz Var(X) = np(1 − p) • Verteilungsfunktion [x] ( ) ∑ n k n−k p (1 − p) k=0 k FB (x) = 0 Statistik_II@finasto für x ≥ 0 sonst 2–26 Beispiel: B (8; p) 0.2 f(x) 0.4 p=0.1 0.2 f(x) 0.4 p=0.25 0.2 f(x) 0.4 p=0.5 0.2 f(x) 0.4 p=0.75 0.2 f(x) 0.4 p=0.9 Statistik_II@finasto 2–27 Beispiel: Schießen auf eine Zielscheibe Mittelmäßiger Schütze: p = P [„Treffer in Schwarze“] = 0, 3 X = Anzahl der „Treffer ins Schwarze“ bei n = 5 Schüssen ⇒ X ∼ B(5; 0, 3) Wahrscheinlichkeit von 2 Treffern ( ) 5 P [X = 2] = fB (2) = · 0, 32 · 0, 73 = 0, 3087 2 Wahrscheinlichkeits- und Verteilungsfunktion: p = 0, 3, n = 5 Statistik_II@finasto x fB (x) FB (x) 0 0,1681 0,1681 1 0,3601 0,5282 2 0,3087 0,8369 3 0,1323 0,9692 4 0,0284 0,9976 5 0,0024 1,0000 2–28 2.6.4 Die hypergeometrische Verteilung Aus einer endlichen Grundgesamtheit von N Einheiten, von denen M eine interessierende Eigenschaft „A“ besitzen, wird n mal rein zufällig, aber ohne Zurücklegen gezogen. Man betrachte X = Anzahl der gezogenen Objekte mit der Eigenschaft „A“ Beispiele: Lotterie: Behälter mit N = 50 Losen, M = 10 Gewinnen und N − M = 40 Nieten X = Anzahl der „Gewinne“ beim Kauf von n = 25 Losen Wohngemeinschaft mit N = 5 Personen, M = 2 Frauen und N − M = 3 Männern. Zufällige Ziehung von n = 2 unterschiedlichen Personen. X = Anzahl der Frauen unter den 2 gezogenen Personen ⇒ X folgt einer hypergeometrischen Verteilung mit den Parametern n, M und N : X ∼ H(n, M, N ) Anmerkung: H(1, M, N ) = Bernoulli(p) = B(1, p) für p = M/N Statistik_II@finasto 2–29 Übersicht: Hypergeometrische Verteilung Wir setzen voraus, dass N > n • Wahrscheinlichkeitsfunktion M N −M ( x )( n−x ) für x = 0, 1, 2, . . . , n (Nn ) fH (x) = 0 sonst Achtung: Man setzt hier (k1 ) k2 = 0, falls k2 > k1 . • Erwartungswert E(X) = n M N • Varianz M M N −n Var(X) = n (1 − ) N N N −1 • Verteilungsfunktion [x] M N −M ∑ ( x )( n−k ) k=0 (Nn ) FH (x) = 0 Statistik_II@finasto für x ≥ 0 sonst 2–30 Beispiele: Hypergeometrische Verteilung für verschiedene Werte von n, M, N : 0 0.1 0.2 f(x) 0.3 0.4 0.5 N=100, M=20, n=10 0 2 4 x 6 8 6 8 0.1 0.2 f(x) 0.3 0.4 N=16, M=8, n=8 0 2 Statistik_II@finasto 4 x 2–31 Zusammenhang mit der Binomialverteilung Ebenso wie eine binomialverteilte lässt sich auch eine hypergeometrische verteilte Zufallsvariable X als Summe von Bernoulli-verteilten Variablen schreiben: X= n ∑ Xi i=1 mit 1 falls bei der i-ten Ziehung „A“ eintritt Xi = 0 falls bei der i-ten Ziehung „ Ā“ eintritt Da ohne Zurücklegen gezogen wird, sind hier die Zufallsvariablen X1 , . . . , Xn voneinander abhängig. Beim Vergleich von XH ∼ H(n, M, N ) und XB ∼ B(n, p) mit p = M/N ergibt sich: E(XH ) = np = E(XB ) N −n Var(XH ) = np(1 − p) < Var(XB ) = np(1 − p) N −1 −n Für kleine Werte n/N ist der „Korrekturfaktor“ N N −1 praktisch gleich 1. Approximation: Sind N und M groß gegenüber n, so gilt approximativ P (XH = x) ≈ P (XB = x) Statistik_II@finasto für x = 0, 1, . . . , n 2–32 Beispiel: Lotterielose Behälter mit N Losen, M Gewinnen und N − M Nieten X = Anzahl der „Gewinne“ beim Kauf von n = 2 Losen aus dem Behälter ⇒ X ∼ H(2, M, N ) N = 6, M = 2 ⇒ p = M/N = 1/3 H(2, 2, 6) B(2, 1/3) x fH (x) fB (x) 0 6 = 0.4 15 8 ≈ 0.533 15 1 ≈ 0.067 15 1 2 N = 60, M = 20 4 9 4 9 1 9 = 0.444 ≈ 0.444 ≈ 0.112 ⇒ p = M/N = 1/3 H(2, 20, 60) B(2, 1/3) x fH (x) fB (x) 0 0.441 1 0.452 2 0.107 4 9 4 9 1 9 = 0.444 ≈ 0.444 ≈ 0.112 ⇒ H(2, 20, 60) ≈ B(2, 1/3) Statistik_II@finasto 2–33 2.6.5 Die Poisson-Verteilung Die Poisson-Verteilung dient zur Modellierung von Zählvorgängen in kontinuierlicher Zeit. Man betrachtet X = Anzahl des Auftretens eines Ereignisses „A“ in einem festen Zeitintervall [0, 1] Beispiele: X = Anzahl der Insolvenzen in einem Jahr X = Anzahl der Unfälle auf einem vorgegebenen Abschnitt der A61 innerhalb eines Monats X = Anzahl der Anrufe bei der Hotline eines Unternehmens innerhalb eines Tages Zur Modellierung solcher Zählvariablen X wird häufig von einer „Poisson-Verteilung“ ausgegangen. Die jeweilige Struktur der Verteilung berechnet sich dann in Abhängigkeit von einem Parameter λ > 0, der dem im Mittel zu erwartenden Wert von X entspricht. Man schreibt X ∼ P o(λ) Statistik_II@finasto 2–34 Übersicht: Poisson-Verteilung • Wahrscheinlichkeitsfunktion λx e−λ für x = 0, 1, 2, . . . fPo (x) = x! 0 sonst • Erwartungswert E(X) = λ • Varianz Var(X) = λ • Verteilungsfunktion [x] ∑ λk e−λ FP o (x) = k=0 k! 0 Statistik_II@finasto für x ≥ 0 sonst 2–35 Beispiele [Poisson-Verteilung] 0.1 f(x) 0.2 0.3 0.4 lambda=5 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 9 10 11 12 13 14 15 x 0 0.1 f(x) 0.2 0.3 0.4 lambda=1 0 1 2 3 4 5 6 7 8 x Statistik_II@finasto 2–36 Poisson-Verteilung für Intervalle variabler Länge (Poisson-Prozess) Sei X = Anzahl des Auftretens eines Ereignisses „A“ im Zeitintervall [0, 1] und für einen Zeitpunkt t > 0 sei Xt = Anzahl des Auftretens des Ereignisses „A“ in dem Zeitintervall [0, t] Falls X ∼ P o(λ), so ist Xt Poisson-verteilt mit Parameter λ · t: Hieraus folgt • P [Xt = x] = Xt ∼ P o(λt) (λt)x −λt x! e für x = 0, 1, 2, . . . • E(Xt ) = λt, Var(Xt ) = λt Statistik_II@finasto 2–37 Anmerkung: Die Modellierung von Zählvorgängen durch die Poisson-Verteilung beruht auf einigen Annahmen, deren Gültigkeit - zumindest näherungsweise - kritisch geprüft werden muss. Sei X = Anzahl des Auftretens eines Ereignisses „A“ im Zeitintervall [0, t] X ist Poisson-verteilt, falls • Die Wahrscheinlichkeit, dass zwei Ereignisse genau gleichzeitig auftreten, ist Null. • Die Wahrscheinlichkeit des Eintretens von „A“ innerhalb eines sehr kleinen Teilintervalls von [0, t] ist proportional zur Länge des Intervalls und hängt nicht von dessen Lage auf der Zeitachse ab. • Die Anzahlen von Ereignissen in zwei disjunkten Teilintervallen sind voneinander unabhängig. Statistik_II@finasto 2–38 Beispiel: Es treten durchschnittlich zwei Defekte pro Monat an einer Maschine auf 1) Wie groß ist die Wahrscheinlichkeit, dass in einem Monat kein Defekt auftritt? X = Anzahl der Defekte in einem Monat E(X) = λ = 2, X ∼ P o(2) 20 −2 P [X = 0] = fP o (0) = e = 0, 135 0! 2) Wie groß ist die Wahrscheinlichkeit, dass in zwei Monaten kein Defekt auftritt? X2 = Anzahl der Defekte in zwei Monaten t = 2, X2 ∼ P o(λ · 2) = P o(4) 40 −4 P [X2 = 0] = e = e−4 = 0, 018 0! Statistik_II@finasto 2–39 3) Wie groß ist die Wahrscheinlichkeit, dass in t Monaten kein Defekt auftritt? Xt = Anzahl der Defekte in t Monaten E(Xt ) = λt = 2t, X ∼ P o(2t) (2t)0 −2t P [Xt = 0] = e = e−2t 0! 4) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt mehr als zwei Monate beträgt? Y = Wartezeit bis zum nächsten Defekt P [Y > 2] = P [X2 = 0] = e−4 = 0, 018 5) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt weniger als 1/2 Monat beträgt? P [Y < 0, 5] = 1 − P [Y ≥ 0, 5] = 1 − P [X0,5 = 0] = 1 − e−1 = 0, 632 Statistik_II@finasto 2–40 Approximation der Binomialverteilung durch eine Poisson-Verteilung Sei X ∼ B(n, p). Für großes n bei gleichzeitig kleiner „Erfolgswahrscheinlichkeit“ p gilt ( ) n x (np)x −np n−x P [X = x] = p (1 − p) ≈ e , x x! d.h. X ist approximativ Poisson-verteilt mit Parameter λ = np Faustregel: Approximation sinnvoll, falls n groß und np < 5 Beispiel: Lottospiel Erfolgswahrscheinlichkeit: p = 1/13.983.816 X = Anzahl „6 Richtige“ bei n = 10.000.000 Lottospielern, np = 0, 715 ⇒ Approximativ X ∼ P o(0, 715) Statistik_II@finasto 2–41 3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = „Alter“, X = „Körpergröße“, X = „Temperatur“, X = „Intelligenzquotient“ In der Praxis kommen häufig Variablen vor, die als quasistetig aufzufassen sind. Quasistetig bedeutet, dass eine Zufallsvariable extrem viele Ausprägungen besitzt und die Wahrscheinlichkeit eines einzelnen möglichen Wertes vernachlässigbar klein ist. Solche Merkmale werden in der Statistik wie stetige Zufallsvariablen behandelt. Beispiele: X = „Einkommen“, X = „Vermögen“, X = „Umsatz einer Firma“, Statistik_II@finasto 3–1 3.1 Wahrscheinlichkeitsverteilungen Modellierung von stetigen Zufallsvariablen: • P [X = x] = 0 für einen einzelnen möglichen Wert x • Ansatz: Man betrachtet Intervalle und zugehörige Wahrscheinlichkeiten P [X ∈ [a, b]] Wahrscheinlichkeiten stetiger blen Für stetige Zufallsvariablen X gilt P [a ≤ X ≤ b] = Zufallsvaria- P [a < X ≤ b] = P [a ≤ X < b] = P [a < X < b] und P [X = x] = 0 Statistik_II@finasto für jedes x ∈ R 3–2 Die Verteilung einer stetigen Zufallsvariablen lässt sich durch die zugehörige Dichtefunktion charakterisieren. Wahrscheinlichkeiten ergeben sich als Flächen unter der Dichtefunktion. Analogie (Statistik I): Histogramm eines stetigen Merkmals • Gruppierung anhand von Klassen benachbarter Intervalle [c0 , c1 ), [c1 , c2 ), . . . , [ck−1 , ck ) der gleichen Klassenbreite δ • Berechnung der relativen Häufigkeit fj für jede Klasse [cj−1 , cj ) • Histogrammwerte innerhalb jeder Klasse: fj /δ • Fläche des Histogramms über [cj−1 , cj ) = fj Verhalten für großes n: • fj nahe an P [cj−1 ≤ X < cj ] • Falls n → ∞ und gleichzeitig δ → 0, so konvergiert das Histogramm gegen eine Funktion f (x) ≥ 0 (=Dichtefunktion) P [a ≤ X ≤ b] = Fläche von f (x) über [a, b] ∫ b = f (x)dx a Statistik_II@finasto 3–3 Stetige Zufallsvariable 0 Histogramm 0.2 0.4 n=50 0 Histogramm 0.2 0.4 n=500 0 Histogramm 0.2 0.4 n=5000 0 0.2 Dichte 0.4 Model Statistik_II@finasto 3–4 Flächen und Integrale: Für eine positive Funktion f (x) ≥ 0 gilt ∫ b f (x)dx = Fläche von f (x) über [a, b] a Man betrachte eine allgemeine Funktion g(x) mit positiven und negativen Werten. • positiver Teil von g(x): g+ (x) = max{0, g(x)} • negativer Teil von g(x): g− (x) = min{0, g(x)} ∫ b ⇒ g(x)dx = Fläche von g+ (x) über [a, b] a − Fläche von g− (x) über [a, b] Statistik_II@finasto 3–5 Stetige Zufallsvariablen und Dichten X stetige Zufallsvariable: Es existiert eine Funktion f (x), so dass für jedes Intervall [a, b] ∫ b P [a ≤ X ≤ b] = f (x)dx a f heißt (Wahrscheinlichkeits-) Dichte von X Eigenschaften von Dichten: • Positivität: f (x) ≥ 0 • Normierung: Die Gesamtfläche zwischen x-Achse und f (x) ist gleich 1, ∫ ∞ P [−∞ < X < ∞] = f (x)dx = 1 −∞ Verteilungsfunktion einer stetigen Zufallsvariablen ∫ F (x) = P [X ≤ x] = Statistik_II@finasto x f (t)dt −∞ 3–6 Wahrscheinlichkeitsdichte: Z 1 f (x) 0; f (x)dx = 1: + 1 Verteilungsfunktion: F F (x) monoton wachsend ( 1) = 0 ; F 1) = 1 (+ 1 Verteilungsfunktion 1 Dichtefunktion : 0.8 0.6 F(x) f(x) 0.6 0.8 F(x) 0.4 0.4 f(x) 0.2 0.2 F(b) F(b) b 0 b -3 -2 -1 0 x Statistik_II@finasto 1 2 3 -3 -2 -1 0 1 2 3 x 3–7 Die Verteilungsfunktion ist ein zentrales Werkzeug zur Berechnung von Wahrscheinlichkeiten. Die Verteilungsfunktion einer stetigen Zufallsvariable besitzt folgende Eigenschaften: • F (x) ist eine stetige, monoton wachsende Funktion, 0 ≤ F (x) ≤ 1. • F (a) = P [X < a] • P [X ≥ a] = P [X > a] = 1 − F (a) • P [a ≤ X ≤ b] = P [a < X < b] = F (b) − F (a) Interpretation von Dichten: • f (x) groß für alle Werte in einem Intervall [a, b]: Es besteht eine relativ hohe Wahrscheinlichkeit, dass X einen Wert in [a, b] annimmt • f (x) sehr klein für alle Werte in einem Intervall [c, d]: Es besteht eine sehr geringe Wahrscheinlichkeit, dass X einen Wert in [c, d] annimmt Statistik_II@finasto 3–8 Klassifikation von Verteilungen symmetrisch, unimodal 0.4 0.3 0.2 0.1 0.0 -3 -2 -1 0 1 2 3 rechtssteil linkssteil 0.6 0.6 0.4 0.4 0.2 0.2 0.0 0.0 0 1 2 3 -4 4 -3 bimodal -2 -1 multimodal 1.0 4 0.8 3 0.6 2 0.4 1 0.2 0.0 0 -3 -2 -1 Statistik_II@finasto 0 1 2 3 -2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3–9 3.0 Spezialfall: Stetige Gleichverteilung Stetige Gleichverteilung Eine stetige Zufallsvariable mit Ausprägungen in einem Intervall [a, b] heißt gleichverteilt, falls für jedes Teilintervall [c, d] ⊂ [a, b] gilt d−c P [c ≤ X ≤ d] = b−a Man schreibt: X ∼ U (a, b) Wahrscheinlichkeitsdichte fU (x) = 1 b−a FU (x) = Statistik_II@finasto für a ≤ x ≤ b 0 sonst 0 für x < a Verteilungsfunktion x−a b−a für a ≤ x ≤ b 1 für x > b 3–10 Stetige Gleichverteilung auf [1, 6] 0.15 0.05 0.1 f(x) 0.2 0.25 Dichtefunktion (stetige Gleichverteilung) 1 2 3 4 x 5 6 0.5 0 f(x) 1 Verteilungsfunktion (stetige Gleichverteilung) 0 Statistik_II@finasto 1 2 3 x 4 5 6 7 3–11 Beispiel: Wartezeit auf eine Straßenbahn • Ideale Welt: An einer bestimmten Haltestelle hält jeweils genau alle 20 Minuten eine Straßenbahn • Eine Person kommt ohne Kenntnis des Fahrplans zu einer zufälligen Zeit an die Haltestelle X = „Wartezeit (in Minuten) auf die nächste Straßenbahn“ ⇒ X ∼ U (0, 20) P [0 ≤ X ≤ 20] = 1 10 = 0, 5 20 10 P [X ≥ 10] = 1 − = 0, 5 20 10 5 P [5 ≤ X ≤ 10] = − = 0, 25 20 20 P [X ≤ 10] = Statistik_II@finasto 3–12 3.2 Verteilungsparameter Erwartungswert Diskrete Zufallsvariable: µ = E(X) = ∑ xi f (xi ) i≥1 Stetige Zufallsvariable: ∫ ∞ µ = E(X) = −∞ x · f (x)dx Rechenregeln: • Y = aX + b, a, b beliebig E(Y ) = E(aX + b) = aE(X) + b • Für zwei Zufallsvariablen X und Y E(X + Y ) = E(X) + E(Y ) Beispiel: X ∼ U (a, b) → E(X) = Statistik_II@finasto a+b 2 3–13 Beispiele: Zwei Verteilungen mit ∫ x E(X) = x · f (x)dx = 0 −∞ y 0.3 0 0 0.1 0.1 0.2 0.2 y 0.3 0.4 0.5 Wahrscheinlichkeitsdichte f(x) 0.4 Wahrscheinlichkeitsdichte f(x) -5 0 x 5 -3 -2 -1 1 2 3 1 2 3 x f(x) 0 -0.5 -0.2 -0.1 0 y y 0.1 0.2 0.5 x f(x) 0 x -5 E(X) = 0 Statistik_II@finasto 0 x 5 -3 -2 -1 0 x E(X) = 0 3–14 Beispiele mit E(X) = 0 und E(X) > 0 0 0.1 0.2 y 0.3 0.4 Wahrscheinlichkeitsdichte f(x) -5 0 x 5 -0.2 -0.1 0 y 0.1 0.2 x f(x) -5 0 x 5 E(X) = 0 0 0.1 0.2 y 0.3 0.4 Wahrscheinlichkeitsdichte f(x) -5 0 x 5 0 0.2 y 0.4 x f(x) -5 0 x 5 E(X) = 1 0 0.1 0.2 y 0.3 0.4 Wahrscheinlichkeitsdichte f(x) -5 0 x 5 0 0.2 0.4 y 0.6 0.8 x f(x) -5 0 x 5 E(X) = 2 Statistik_II@finasto 3–15 Varianz Diskrete Zufallsvariable: 2 σ = Var(X) = ∑ (xi − µ)2 f (xi ) i≥1 Stetige Zufallsvariable: ∫ σ 2 = Var(X) = ∞ −∞ (x − µ)2 · f (x)dx √ σ = Var(X) heißt Standardabweichung Rechenregeln: • Var(X) = E(X − µ)2 = E(X 2 ) − µ2 • Y = aX + b, a, b beliebig Var(Y ) = Var(aX + b) = a2 · Var(X) • Für unabhängige Zufallsvariablen X und Y Var(X + Y ) = Var(X) + Var(Y ) Beispiel: X ∼ U (a, b) ⇒ Var(X) = Statistik_II@finasto (b−a)2 12 3–16 • Der Erwartungswert µ = E(X) ist ein Lageparameter, der Aufschluss über das Zentrum der Verteilung gibt. • Die Standardabweichung ist ein Maß für die Dispersion Ungleichung von Tschebyscheff: 1 P [|X − µ| > kσ] ≤ 2 k für alle k > 0 1 k2 [µ − kσ, µ + kσ] heißt zentrales Schwankungsintervall ⇒ P [µ − kσ ≤ X ≤ µ + kσ] ≥ 1 − k P [µ − kσ ≤ X ≤ µ + kσ] 2 ≥1− 3 ≥1− 4 ≥1− 1 4 = 0, 75 1 9 ≈ 0, 89 1 16 = 0, 9375 Achtung: Die Ungleichung gibt nur eine untere Schranke für die Wahrscheinlichkeit. Genauere Berechnungen auf der Basis spezieller Verteilungsmodelle. Statistik_II@finasto 3–17 Beispiel: X EX Zufallsvariable mit ( ) = 0, (Dichte = Glockenkurve) V ar(X ) = 1 Y 0 0.2 0.4 k=1: P(-1<X<1) = 0.6827 -4 -2 0 X 2 4 Y 0 0.2 0.4 k=2: P(-2<X<2) = 0.9545 -4 -2 0 X 2 4 Y 0 0.2 0.4 k=3: P(-3<X<3) = 0.9973 -4 -2 0 X 2 4 Y 0 0.2 0.4 k=4: P(-4<X<4) = 0.9999 -4 Statistik_II@finasto -2 0 X 2 4 3–18 Beispiel: X EX Zufallsvariable mit ( ) = 0, (Dichte = schiefe Dichte) V ar(X ) = 1 0 Y 0.2 k=1: P(-1<X<1) = 0.5443 -3 -2 -1 0 1 2 X 3 4 5 6 7 6 7 6 7 6 7 0 Y 0.2 k=2: P(-2<X<2) = 0.9089 -3 -2 -1 0 1 2 X 3 4 5 0 Y 0.2 k=3: P(-3<X<3) = 0.9579 -3 -2 -1 0 1 2 X 3 4 5 0 Y 0.2 k=4: P(-4<X<4) = 0.9808 -3 Statistik_II@finasto -2 -1 0 1 2 X 3 4 5 3–19 Weitere Verteilungsparameter einer stetigen Zufallsvariable X Modus: xmod ist ein Wert, für den die Dichtefunktion f (x) maximal wird. Median: xmed ist der Wert, für den gilt: F (xmed ) = P [X ≤ xmed ] = P [X ≥ xmed ] = 1−F (xmed ) = Quantile: Für 0 < p < 1 ist das p-Quantil xp der Wert, für den F (xp ) = P [X ≤ xp ] = p und 1 − F (xp ) = P [X ≥ xp ] = 1 − p gilt. Median und Quantile sind eindeutig bestimmt, wenn die Verteilungsfunktion F streng monoton ist. Statistik_II@finasto 3–20 1 2 Illustration: Quantil xp Verteilungsfunktion: P [X ≤ xp ] = F (xp ) = p 1.0 F(x) 0.8 p 0.6 0.4 0.2 0.0 -3 -2 -1 0 1 xp 2 3 Dichte: Das Quantil xp teilt die Gesamtfläche von f über der x-Achse in zwei Teile der Größen p = P [X ≤ xp ] und 1 − p = P [X ≥ xp ] auf. 0.4 0.3 0.2 0.1 p 1-p 0.0 -3 Statistik_II@finasto -2 -1 0 xp 1 2 3 3–21 Lageregeln Symmetrische Verteilung: xmod = xmed = µ xmod = xmed = µ Linkssteile Verteilung: xmod ≤ xmed ≤ µ xmod xmed µ Rechtssteile Verteilung: µ ≤ xmed ≤ xmod µ Statistik_II@finasto xmed xmod 3–22 3.3 Die Exponentialverteilung Exponentialverteilung Eine stetige Zufallsvariable X mit nichtnegativen Werten heißt exponentialverteilt mit Parameter λ > 0, kurz X ∼ Ex(λ), wenn sie die Dichte λe−λx für x ≥ 0 fEx (x) = 0 sonst besitzt. Es gilt: E(X) = λ1 , Var(X) = 1 λ2 Dichten der Exponentialverteilung 1.0 λ=1 0.8 0.6 0.4 λ=0,5 0.2 0.0 0 2 Statistik_II@finasto 4 6 8 10 3–23 Verteilungsfunktion 1 − e−λx für x ≥ 0 FEx (x) = 0 für x < 0 Zusammenhang mit der Poisson-Verteilung: Anzahl des Auftretens eines Ereignisses Y = „A“ in einem festen Zeitintervall [0, 1] Yt = Anzahl des Auftretens des Ereignisses „A“ in dem Zeitintervall [0, t] Y ∼ P o(λ) ⇒ Yt ∼ P o(λt) Für X = Wartezeit bis zum ersten Auftreten des Ereignisses „A“ gilt dann X ∼ Ex(λ), denn P [X ≤ t] = 1 − P [Yt = 0] = 1 − e−λt Statistik_II@finasto 3–24 3.4 Die Normalverteilung (Gauß-Verteilung) Normalverteilung Eine Zufallsvariable X heißt normalverteilt mit Parametern µ ∈ R und σ 2 > 0, kurz X ∼ N (µ, σ 2 ), wenn sie die Dichte ( ) 2 1 (x − µ) f (x) = √ exp − für x ∈ R 2 2σ 2πσ besitzt. Es gilt: E(X) = µ, Var(X) = σ 2 • Die Normalverteilung wird auch als Gauß-Verteilung und die Dichte als Gauß-Kurve bezeichnet • Die Normalverteilung spielt eine zentrale Rolle in der induktiven Statistik. Bei sehr vielen Zufallsphänomenen wird angenommen, dass sie zumindest approximativ normalverteilt sind. • Normalverteilungen sind unimodal und symmetrisch un ihren Mittelwert µ Statistik_II@finasto 3–25 Gauß-Kurven mit µ = 0 und σ 2 = 0.25, 1, 4 N(0,0.25) 0.8 0.6 0.4 N(0,1) 0.2 N(0,2) 0.0 -4 -2 0 2 4 Gauß-Kurven mit µ = −1, 0, 2 und σ 2 = 1 N(0,1) 0.4 N(2,1) N(-1,1) 0.3 0.2 0.1 0.0 -4 -2 0 2 4 Gauß-Kurven mit verschiedenen µ und σ 2 N(2,0.16) 1.0 0.8 0.6 N(0,1) 0.4 N(-1,2.25) 0.2 0.0 -4 Statistik_II@finasto -2 0 2 4 3–26 Spezialfall mit µ = 0, σ 2 = 1: Standardnormalverteilung N (0, 1) Dichte der Standardnormalverteilung N (0, 1): ( 2) 1 x ϕ(x) = √ exp − für x ∈ R 2 2π Verteilungsfunktion: ∫ Φ(x) = ∫ x x ϕ(t)dt = −∞ −∞ ( 2) 1 t √ exp − dt 2 2π • Die Standardnormalverteilung ist symmetrisch zum Nullpunkt, Φ(−x) = 1 − Φ(x) • Die Werte von Φ(z) sind tabelliert. Statistik_II@finasto 3–27 Die Quantile der Standardnormalverteilung Die Quantile der Standardnormalverteilung sind durch Φ(zp ) = p bestimmt. Wegen der Symmetrie gilt zp = −z1−p p 50% 75% 90% 95% 97,5% 99% zp 0 = xmed 0,675 1,282 1,645 1,960 2,326 0.4 φ(x) 0.3 0.2 0.1 1-p 1-p 0.0 -3 Statistik_II@finasto -2 -zp -1 0 1 zp 2 3 3–28 Rückführung einer allgemeinen N (µ, σ 2 )-Verteilung auf die Standardnormalverteilung: Standardisierung: Ist X ∼ N (µ, σ 2 ), so ist die standardisierte Zufallsvariable X −µ Z= σ standardnormalverteilt, d.h. Z ∼ N (0, 1) Für die Verteilungsfunktion F von X gilt: ( ) x−µ x−µ F (x) = Φ = Φ(z) mit z = σ σ Quantile: Für 0 < p < 1 berechnet sich das pQuantil xp der N (µ, σ)-Verteilung durch zp = xp − µ bzw xp = µ + σzp σ ⇒ P [a ≤ X ≤ b] = F (b) − F (a) ( ) ( ) b−µ a−µ =Φ −Φ σ σ Statistik_II@finasto 3–29 Beispiel: Füllmenge von Bier In einer Abfüllanlage werden Flaschen mit nominal 50 cl Bier gefüllt. Die Anlage arbeitet jedoch nicht vollständig exakt. Im Mittel werden tatsächlich 50 cl eingefüllt, die Standardabweichung beträgt jedoch 1,2 cl. Modell: X = „Füllmenge“ ∼ N (50, 1.44) ( ) 52 − 50 P [X ≤ 52] = F (52) = P Z ≤ 1, 2 = P [Z ≤ 1, 67] = Φ(1, 67) = 0, 953 P [X ≥ 49] = 1 − F (49) ( ) 49 − 50 = 1 − Φ(−0, 833) =1−Φ 1, 2 = 1 − (1 − Φ(0, 833)) = 0, 797 Statistik_II@finasto 3–30 Zentrale Schwankungsintervalle Ist X ∼ N (µ, σ 2 ), so gilt für α > 0 P [µ − z1−α/2 σ ≤ X ≤ µ + z1−α/2 σ] = 1 − α Für z1−α/2 = k erhält man die Bereiche P [µ − σ ≤ X ≤ µ + σ] = 0, 6827 k=1: k=2: P [µ − 2σ ≤ X ≤ µ + 2σ] = 0, 9545 k=3: P [µ − 3σ ≤ X ≤ µ + 3σ] = 0, 9973 1−α α/2 µ−z1-α/2 σ Statistik_II@finasto α/2 µ µ+z1-α/2 σ 3–31 Beispiel: Füllmenge von Bier X = „Füllmenge“ ∼ N (50, 1.44) Frage: Zwischen welchen Werten liegt die tatsächliche Füllmenge mit einer Wahrscheinlichkeit von 95%? 0, 95 = 1 − α ⇒ α = 0, 05, z1−α/2 = z0,975 = 1, 96 ⇒ P [µ − 1, 96σ ≤ X ≤ µ + 1, 96σ] = 1 − α = 0, 95 Anwendung auf Füllmenge: P [47, 65 ≤ X ≤ 52, 35] = 0, 95 95% 2,5% 2,5% µ−1.96σ Statistik_II@finasto µ µ+1.96σ 3–32 Eigenschaften der Normalverteilung: Lineare Transformation Für X ∼ N (µ, σ 2 ) ist die linear transformierte Variable Y = aX + b wieder normalverteilt mit Y ∼ N (aµ + b, a2 σ 2 ) Addition 2 Sind X ∼ N (µX , σX ) und Y ∼ N (µY , σY2 ) normalverteilt und unabhängig, so gilt 2 X + Y ∼ N (µX + µY , σX + σY2 ) Verallgemeinerung: Sind Xi ∼ N (µi , σi2 ) unabhängig, so ist jede Linearkombination Y = a1 X1 + . . . + an Xn normalverteilt mit Y ∼ N (a1 µ1 + . . . + an µn , a21 σ12 + . . . + a2n σn2 ) Statistik_II@finasto 3–33 Der zentrale Grenzwertsatz Zufallsvariable X (diskret oder stetig) Beispiele: X =”Geschlecht einer zufällig ausgewählten Person” (0/1 falls weiblich/männlich); X =”Einkommen einer zufällig ausgewählten Person”, Einfache Zufallsstichprobe des Umfangs n (bzw. nmalige unabhängige Wiederholung des Zufallsexperiments): • Folge X1 , . . . , Xn von Zufallsvariablen, die jeweils eine einzelne Ziehung (Wiederholung) beschreiben • Alle Xi haben die gleiche Verteilung wie X und X1 , . . . , Xn sind voneinander unabhängig, µ = E(X) = E(Xi ), σ 2 = Var(X) = Var(Xi ) X1 , . . . , Xn - unabhängig und identisch verteilte Zufallsvariablen (mit Mittelwert µ und Varianz σ 2 ) Statistik_II@finasto 3–34 Man betrachte nun den Mittelwert: n ∑ 1 • X̄ = n Xi (Zufallsvariable!!) i=1 • x̄ = 1 n n ∑ xi tatsächlich beobachteter (realisierter) i=1 numerischer Wert (z.B. x̄ = 0, 0456) Zentraler Grenwertsatz Seien X1 , . . . , Xn unabhängig und identisch verteilte Zufallsvariablen mit Mittelwert µ und Varianz σ 2 . Dann gilt ( ) X̄ − µ √ ≤ z → Φ(z) für n → ∞ P σ/ n Mit anderen Worten: Für großes n gilt approximativ ( ) 2 σ X̄ ∼ N µ, n Folgerung für Summen von Zufallsvariablen: n groß, so gilt approximativ n ∑ Xi ∼ N (nµ, nσ 2 ) i=1 Anmerkung: Die asymptotische Normalität von X̄ gilt unabhängig von der Struktur der Verteilung der Xi (diese Verteilung ist natürlich für alle Stichprobenumfänge n die gleiche (z:B. Exponentialverteilung, Bernoulli, etc.) Statistik_II@finasto 3–35 Beispiel: N = 7 Kugeln: 10, 11, 11, 12, 12, 12, 16 X: „Zahl auf einer zufällig gezogenen Kugel“ x 10 11 12 16 f (x) 1/7 2/7 3/7 1/7 µ = E(X) = 12, σ 2 = Var(X) = 22/7 = 3.143 Einfache Zufallsstichprobe (n = 2): Unabhängig und identisch verteilte Zufallsvariablen X1 und X2 X1 : „Zahl auf der 1. gezogenen Kugel“ X2 : „Zahl auf der 2. gezogenen Kugel“ Mögliche Realisationen: 2.Kugel 1.Kugel 10 11 11 12 12 12 16 10 (10;10) 10;11 10;11 10;12 10;12 10;12 10;16 11 11;10 (11;11) 11;11 11;12 11;12 11;12 11;16 11 11;10 11;11 (11;11) 11;12 11;12 11;12 11;16 12 12;10 12;11 12;11 (12;12) 12;12 12;12 12;16 12 12;10 12;11 12;11 12;12 (12;12) 12;12 12;16 12 12;10 12;11 12;11 12;12 12;12 (12;12) 12;16 16 16;10 16;11 16;11 16;12 16;12 16;12 (16;16) Statistik_II@finasto 3–36 Mögliche Stichprobenmittelwerte x̄ 2. Kugel 1. Kugel 10 11 11 12 12 12 16 10 (10) 10,5 10,5 11 11 11 13 11 10,5 (11) 11 11,5 11,5 11,5 13,5 11 10,5 11 (11) 11,5 11,5 11,5 13,5 12 11 11,5 11,5 (12) 12 12 14 12 11 11,5 11,5 12 (12) 12 14 12 11 11,5 11,5 12 12 (12) 14 16 13 13,5 13,5 14 14 14 (16) Wahrscheinlichkeitsverteilung von X̄ x 10 10.5 11 11.5 12 13 13,5 14 16 f (x) 1 49 4 49 10 49 12 49 9 49 2 49 4 49 6 49 1 49 E(X) = 12 = µ, Var(X) = 22/14 = σ 2 /2 Für wachsendes n gibt es immer mehr mögliche Werte von X ⇒ Übergang zu einer quasistetigen Verteilung, die sich für genügend großes n durch eine Normalverteilung approximieren lässt ( ) 22/7 X̄ ∼ N 12, n Statistik_II@finasto 3–37 Verteilungen der Zufallsvariablen Xi E(X) E(X) Zugehörige Verteilungen des Mittelwertes X̄ = E(X) E(X) E(X) E(X) E(X) 1 n ∑n i=1 E(X) n=2 E(X) E(X) E(X) E(X) E(X) E(X) n=4 E(X) E(X) n = 30 Statistik_II@finasto 3–38 Xi Verhalten von X̄ für n → ∞: σ σ √ √ P [µ − z1−α/2 ≤ X̄ ≤ µ + z1−α/2 ]≈1−α n n Die Länge 2z1−α/2 √σn dieser zentralen Schwankungsintervalle wird für steigendes n immer kleiner. n=1600 n=100 α/2 1−α 1−α α/2 α/2 µ Beispiel: σ = 1, α = 0, 05 ⇒ z1−α/2 √σn = α/2 µ 1,96 √ n n = 100 P [µ − 0, 196 ≤ X̄ ≤ µ + 0, 196] ≈ 0, 95 n = 1600 P [µ − 0, 049 ≤ X̄ ≤ µ + 0, 049] ≈ 0, 95 ⇒ Für großes n ist zu erwarten, dass der beobachtete Mittelwert x̄ sehr nahe am Erwartungswert µ der Zufallsvariablen liegt (Gesetz der großen Zahlen) Statistik_II@finasto 3–39 Anwendung des zentralen Grenzwertsatzes: Approximation der Binomialverteilung Zentraler Grenzwertsatz Sei X ∼ B(n, p). Für großes n gilt approximativ X − np Z=√ ∼ N (0, 1) np(1 − p) bzw. X ∼ N (np, np(1 − p)) Faustregeln: np ≥ 5, n(1 − p) ≥ 5 Anwendung (mit Stetigkeitskorrektur): ( ) x − 0, 5 − np P [X < x] ≈ Φ √ np(1 − p) ) ( x + 0, 5 − np P [X ≤ x] ≈ Φ √ np(1 − p) ⇒ P [x1 ≤ X ≤ x2 ] ) ) ( ( x2 + 0, 5 − np x1 − 0, 5 − np √ √ ≈Φ −Φ np(1 − p) np(1 − p) Statistik_II@finasto 3–40 3.5 Spezielle Verteilungsmodelle χ2 -Verteilung Seien X1 , . . . , Xn unabhängige und identisch N (0, 1)-verteilte Zufallsvariablen. Dann heißt die Verteilung von χ2 = X12 + · · · + Xn2 Chi-Quadrat-Verteilung mit n Freiheitsgraden, kurz χ2 ∼ χ2 (n). Es gilt: E(χ2 ) = n, Var(χ2 ) = 2n Dichten der χ2-Verteilung 0.5 n=2 0.4 0.3 0.2 n=5 0.1 n=10 0.0 0 Statistik_II@finasto 5 10 15 20 3–41 • Die Dichten der χ2 -Verteilung sind linkssteil, nähern sich jedoch für große n der Gauß-Kurve an (zentraler Grenzwertsatz) • n > 30: χ2 (n) ≈ N (n, 2n) • Wichtige Quantile der χ2 (n)-Verteilung sind tabelliert. Für n > 30 benutzt man eine Normalverteilungsapproximation χ2p;n √ 1 = (zp + 2n − 1)2 2 Anwendungsbereich: Verfahren der inferentiellen Statistik (Anpassungstests, Tests im Zusammenhang mit Varianzen); spezielle Lebensdauermodelle Statistik_II@finasto 3–42 t-Verteilung, Student-Verteilung Seien X ∼ N (0, 1) und Y ∼ χ2n unabhängig. Dann heißt die Verteilung von X √ T = Y /n t-Verteilung mit n Freiheitsgraden, kurz T ∼ t(n). Es gilt: E(T ) = 0, (n > 1), n , (n > 2) Var(T ) = n−2 Dichten der Student-Verteilung 0.4 n=10 0.3 0.2 0.1 n=1 0.0 -4 Statistik_II@finasto -2 0 2 4 3–43 • Die Dichten der t-Verteilung sind symmetrisch um 0. Im Vergleich zu ϕ besitzen sie für kleine n größere Enden, d.h. die Flächen unter den Dichtekurven für kleine und große Werte x sind größer. • n groß (n > 30): t(n) ≈ N (0, 1) • Wichtige Quantile der t(n)-Verteilung sind tabelliert. Für n > 30 benutzt man eine Normalverteilungsapproximation tp;n ≈ zp Anwendungsbereich: Verfahren der inferentiellen Statistik (Tests im Zusammenhang mit Mittelwerten); robuste Statistik (Modellierung von Daten mit einem hohen Anteil extremer Werte) Statistik_II@finasto 3–44 Fisher-Verteilung Seien X ∼ χ2 (m) und Y ∼ χ2 (n) unabhängig. Dann heißt die Verteilung von X/m F = Y /n Fisher- oder F -Verteilung mit den Freiheitsgraden m und n, kurz F ∼ F (m, n). n Es gilt: E(F ) = n−2 (für n > 2) Anwendungsbereich: Quantile der F -verteilung (tabelliert) werden bei Testverfahren in der Regressions- und Varianzanalyse benötigt Dichten der F-Verteilung F(50,50) 1.2 F(2,10) 0.8 F(10,3) 0.4 0.0 0 Statistik_II@finasto 1 2 3 4 3–45