Folien zur Vorlesung Statistik für Prozesswissenschaften (Teil 2: Wahrscheinlichkeitsrechnung) U. Römisch http://www.tu-berlin.de/fak3/staff/roemisch/homepage1.html 2. WAHRSCHEINLICHKEITSRECHNUNG Die Wahrscheinlichkeitsrechnung liefert mathematische Modelle der Gesetzmäßigkeiten von Zufallserscheinungen. Es werden solche Experimente betrachtet, deren Ergebnisse einen zufälligen Ausgang haben, so genannte zufällige Versuche. 2.1. Zufällige Ereignisse, Ereignisfeld Begriffe und Definitionen: Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei einem Versuch, bei dem bestimmte Bedingungen ("Ursachenkomplex") eingehalten werden, eintreten kann, aber nicht notwendig eintreten muss. Es ist das Ergebnis eines zufälligen Versuches. Bez.: A,B,C,...,A1,B1,... Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung der geworfenen Augenzahl (zuf. Versuch) ● zufällige Ereignisse sind: - Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ", - aber auch: A7:= "Eine gerade Augenzahl wird gewürfelt" Nur eine Zahl wird tatsächlich gewürfelt, alle übrigen nicht. Begriffe: - Elementarereignis: Elementarereignisse lassen sich nicht weiter in zufällige Ereignisse zerlegen. Bez.: ei ; i=1,...,n Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 " - Zusammengesetzte Ereignisse: lassen sich weiter in zufällige Ereignisse zerlegen. Bez.: Ai, Bi,... ; i=1,...,n Bsp.1: A7 := "Würfeln einer geraden Zahl" = {e2,e4,e6} Def.: Die Menge E (oder: Ω) heißt Menge der zu einem zufälligen Versuch gehörenden Elementarereignisse, wenn jedem Versuchsausgang genau ein Element dieser Menge E entspricht. Bsp.1: E = {e1,...,e6} ⇒ Schlussfolgerung: Methoden der Mengenlehre könnten anwendbar sein! Def.: Ein zufälliges Ereignis A ist eine Teilmenge der Menge E der Elementarereignisse, d.h. A ⊆ E . Betrachten wir zunächst zuf. Ereignisse, die als Grenzfälle angesehen werden können: Def.: Sichere Ereignisse sind dadurch gekennzeichnet, dass sie unter den Bedingungen, die den betrachteten Versuch kennzeichnen, eintreten müssen. Sie bilden die Teilmenge von E, die alle Elementarereignisse enthält. Bez.: S oder E Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt" = {e1,...,e6} Def.: Unmögliche Ereignisse sind dadurch charakterisiert, dass sie nicht eintreten können. Sie sind die Teilmenge, die kein Elementarereignis enthält. Bez.: U oder Ø. Bsp.1: Ø := "Es wird eine '0' gewürfelt!" Relationen und Operationen zwischen zufälligen Ereignissen: Def.: Ein zufälliges Ereignis A ist genau dann in dem zufälligen Ereignis B enthalten, wenn alle Elementarereignisse, die zu A gehören, auch zu B gehören. D.h.: Wenn A eintritt, dann tritt auch B ein. Bez.: A ⊆ B Bsp.1: Würfeln mit 1 Würfel: A2 ⊆ A7 Bem.: Für ein beliebiges zufälliges Ereignis A gilt immer: Ø ⊆ A ⊆E Def.: Zwei zuf. Ereignisse A und B heißen äquivalent (gleich), wenn sowohl das Ereignis A in B enthalten ist ( A ⊆ B ), als auch das Ereignis B in A enthalten ist (B ⊆ A ) . Bez.: A = B Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter der Summe von A und B (Vereinigung, Disjunktion) das Ereignis, das genau die Elementarereignisse enthält, die zu A oder zu B gehören. E A ∪B Bez.: Bsp.1: A 1 ∪ A 7 = {e1, e 2 , e 4 , e 6 } A B Verallgemeinerung: A1, ... , An sind zuf. Ereignisse. Die Summe der Ai (i = 1, ... , n) ist das Ereignis, das genau dann eintritt, wenn mindestens eines der Ereignisse Ai eintritt. n Bez.: A 1 ∪ A 2 ∪ ... ∪ A n = U A i i =1 6 Bsp.1: U i= 1 A i = E Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter dem Produkt von A und B (Durchschnitt, Konjunktion) das Ereignis, das genau die Elementarereignisse enthält, die zu A und zu B gehören. E A ∩B Bez.: A B Bsp.1: A 1 ∩ A 7 = ∅ Verallgemeinerung: A1, ... , An sind zuf. Ereignisse. Das Produkt der Ai ist das Ereignis, das genau dann eintritt, wenn jedes der Ereignisse Ai (i = 1, ... , n) eintritt. n Bez.: A 1 ∩ A 2 ∩ ... ∩ A n = I A i i =1 6 Bsp.1: IA i=1 i = ∅ Def.: Zwei zufällige Ereignisse A und B heißen miteinander unvereinbar (unverträglich), wenn sie keine gemeinsamen Elementarereignisse besitzen. (D.h. wenn A und B nicht gleichzeitig eintreten können!) Bez.: A ∩ B = ∅ Bsp.1: A1 ∩ A7= ∅ Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis, das genau die Elementarereignisse enthält, die nicht zu A gehören, das zu A komplementäre (oder entgegengesetzte) Ereignis. Bez.: A Bsp.1: A 7 = {1,3,5} Offensichtlich gelten folgende Aussagen: • A ∪ A = E, • A ∩B = A ∪B • A ∪B = A ∩B E =∅, A ∩ A = ∅, Verallgem. IA = UA i UA = IA i i ∅=E i de Morgan’sche Regeln Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter der Differenz von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A, aber nicht zu B gehören. (d.h. wenn A, aber nicht B eintritt!) Bez.: A \ B Bsp.1: A7 \ A2 = {4, 6} E A B Es gelten folgende Aussagen: • A =E\A • A ∩B = A \ B Bem.: Für die Vereinigung und den Durchschnitt gelten die Gesetze der Kommutativität, Assoziativität und Distributivität. Def.: Ereignisfeld Eine Menge von zufälligen Ereignissen heißt Ereignisfeld ℰ, wenn folgende Eigenschaften gelten: 1. E ∈ ℰ 2. A, B ∈ ℰ 3. A ∈ ℰ 4. Ai ∈ ℰ (E- sicheres Ereignis) → → → A∪B∈ℰ A ∈ℰ ∞ UA i =1 i ∈ℰ (i=1,2,…) Folgerungen: • ∅∈ℰ • A, B ∈ ℰ → • ∞ IA i =1 i ∈ℰ A∩B∈ℰ A \ B∈ℰ (A \ B) äquivalent ( A ∩ B ) Bem.: Ein Ereignisfeld ist somit eine Menge von zufälligen Ereignissen mit der Eigenschaft, dass Anwendungen der in 2.1.2. eingeführten Operationen auf Elemente dieser Menge ℰ nicht aus dieser Menge hinausführen, also immer wieder Elemente dieser Menge liefern. In der Mengenlehre sprechen wir von einer σ- Algebra. Wahrscheinlichkeit: Mit Wahrscheinlichkeiten wurde schon gerechnet, lange bevor sich die Wahrscheinlichkeitsrechnung als eigenständige mathematische Disziplin formiert hatte, z.B. im Rahmen der Bevölkerungsstatistiken, bei Versicherungsproblemen und Glücksspielen. Auch im täglichen Sprachgebrauch verwendet man den Begriff „wahrscheinlich“ als eine mögliche subjektive Bewertung des Eintretens eines zufälligen Ereignisses (hier: nur qualitative, keine quantitative Aussage!). In der Mathematik löst man sich von dem subjektiven Urteil und führt den Begriff der Wahrscheinlichkeit als Maß für den Grad der Gewissheit des Eintretens eines zufälligen Ereignisses A ein. Bsp.: In einer Brauerei werden unter bestimmten Produktionsbedingungen im Mittel 1,6 % der Bierflaschen nicht normgerecht abgefüllt. D.h.: Von 1000 Bierflaschen sind im Mittel 16 nicht qualitätsgerecht gefüllt worden, manchmal mehr, manchmal weniger. Mit anderen Worten: Der Prozentsatz an Ausschuss oder auch die Wahrscheinlichkeit der Ausschussproduktion beträgt im Beispiel 1.6 % oder 0,016. D.h.: Bei Massenerscheinungen, wie der Massenproduktion von Erzeugnissen ist die Anzahl der uns interessierenden Ereignisse (hier: unbrauchbare, nicht normgerecht gefüllte Flaschen) annähernd gleich. 2 Fragen: ● Wie kann man die Wahrscheinlichkeit eines zufälligen Ereignisses bestimmen? ● Welche Eigenschaften besitzen Wahrscheinlichkeiten, welchen Rechenregeln genügen sie? 1. Klassische Definition der Wahrscheinlichkeit: (Laplace: 1749 – 1827) Ausgangspunkt: • zufälliger Versuch mit endlich vielen Versuchsausgängen n, d.h. E = {e1, ..., en} • jeder Versuchsausgang soll gleichmöglich sein (Symmetrieeigenschaft) Jedes mit dem betrachteten Versuch zusammenhängende zufällige Ereignis A lässt sich durch Aufzählung derjenigen Versuchsausgänge kennzeichnen, die für A günstig sind, d.h. die das Eintreten von A bewirken. • N(A) - sei die Anzahl der Versuchausgänge, bei denen A eintritt • n = N(E) - sei die Gesamtzahl der Versuchsausgänge ⇒ das Verhältnis von N(A) zu n vermittelt eine Vorstellung über den Grad der Gewissheit des Eintretens von A. Def.: Klassische Wahrscheinlichkeit: Sei E endlich und ei gleichmöglich. Jedem zufälligen Ereignis A können wir eine positive Zahl P(A) - die Wahrscheinlichkeit des zufälligen Ereignisses A - zuordnen (A ∈ ℰ → P(A) ∈ [0,1] ⊆ R). Sie ist der Quotient aus der Anzahl der in A enthaltenen Elementarereignisse N(A) („der für A günstigen Elementarereignisse“) und der Gesamtzahl n der Elementarereignisse. N( A) P( A) = n Insbesondere gilt: 1 P( e i ) = n (i = 1, ... , n) Satz: Eigenschaften der klassische Wahrscheinlichkeit: 1. 0 ≤ P(A) ≤ 1 2. P(E) = 1 (es gilt auch: P(A) = 1 → A = E !) 3. Sind A, B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅, so gilt: P(A ∪ B) = P(A) + P(B) (Additionsregel für unvereinbare zuf. Ereignisse) 4. P(∅) = 0 (es gilt auch: P(A) = 0 → A = ∅ !) 5. P( A ) = 1 – P(A) 6. Sind A, B beliebige zuf. Ereignisse, so gilt: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) (allg. Additionsregel für bel. zuf. Ereignisse) 7. Aus A ⊆ B folgt: P(A) ≤ P(B) Verallgemeinerung der Additionsregel für drei beliebige zufällige Ereignisse A, B und C: P(A ∪ B ∪ C) = P(A) + P(B) + P(C) – P(A ∩ B) – P(A ∩ C) – P(B ∩ C) + P(A ∩ B ∩ C) ist die Wahrscheinlichkeit, dass mindestens eines de Ereignisse A, B, oder C eintritt. A∩B∩ C E A∩ B ∩ C B A C A∩ B∩C A∩B∩C A∩B∩C A∩B∩C A∩B∩C Bem.: Der klassischen Definition der Wahrscheinlichkeit kommt deshalb besondere Bedeutung zu, weil man auf dieser Grundlage für zahlreiche praktische Fragestellungen Wahrscheinlichkeiten berechnen kann. Die Berechnung interessierender Wahrscheinlichkeiten erfolgt nach Rechenregeln (s. Satz), wobei die Berechnung der Anzahl der möglichen Fälle und der Anzahl der günstigen Fälle für ein Ereignis häufig auf der Basis der Methoden der Kombinatorik (Variation, Kombination mit oder ohne Wiederholung), erfolgt. Bsp.1: Würfeln mit einem „idealen“ Würfel Wir betrachten n = 6 mögliche, gleichwahrscheinliche Versuchsausgänge, d.h. E = {e1, ... , e6} , ei = {i} , i = 1, ... 6 Augenzahl i a) Sei A6 das zufällige Ereignis, eine „6“ zu würfeln: A6 = { e6 } = { 6 } ges.: P(A6) N( A 6 ) N(e 6 ) 1 P( A 6 ) = P(e 6 ) = = = = 0,1 6 n n 6 b) Sei A7 das zufällige Ereignis, eine gerade Zahl zu würfeln: A7 = {e2, e4, e6} = {2,4,6} ges.: P(A7) Lösung: 2 Varianten - nach klass. Def. der Wahrscheinlichkeit gilt: Für A7 sind e2, e4 oder e6 günstig ⇒ N(A7) = 3 3 ⇒ P( A 7 ) = = 0,5 6 - nach Additionsregel für unvereinbare Ereignisse gilt: P(A7) = P(A2 ∪ (A4 ∪ A6)) = P(e2 ∪ (e4 ∪ e6)) = P(e2) + P(e4 ∪ e6) = P(e2) + P(e4) + P(e6) da e2, e4 und e6 paarweise unvereinbar 1 1 1 3 + + = = 0,5 = 6 6 6 6 Bsp.: In einem Bierkasten befinden sich 25 Flaschen Bier, von diesen sind 2 nicht qualitätsgerecht. Der zufällige Versuche bestehe in der Entnahme einer Flasche, wobei jede Flasche die gleiche Chance habe, entnommen zu werden. Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig entnommene Flasche qualitätsgerecht ist (Ereignis A)? Lösung: ● Anzahl der möglichen Versuchsausgänge n = 25 ● Anzahl der für A günstigen Versuchsausgänge N(A) = 25 – 2 = 23 N( A ) 23 = = 0,92 Damit ergibt sich: P( A ) = n 25 Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln E = {(ei,ej), i,j = 1, ..., 6} = {(i, j), i,j = 1, ..., 6} Anzahl der Elementarereignisse: n = 36 ( W VmK = mk , m = 6, k = 2) (Variation, d.h. mit Berücksichtigung der Anordnung, mit Wiederholung) C:= „Die Summe der Augenzahlen aus beiden Würfeln (i + j) bzw. (j + i) sei 10 oder 11“. D:= „Die Summe der Augenzahlen aus beiden Würfeln sei ‚mindestens 10“ (10, 11 oder 12).“ ges.: P(C) und P(D) C = {(4,6), (5,5), (5,6), (6,4), (6,5)} Es gilt: P(C) ≤ P(D), da C ⊆ D ⇒ N(C) = 5 5 ⇒ P (C ) = = 0 ,139 36 D = {(4,6), (5,5), (5,6), (6,4), (6,5), (6,6)} ⇒ N(D) = 6 ⇒ P(D) = 6 = 1 = 0,16 36 6 2. Statistische Definition der Wahrscheinlichkeit: Wir betrachten das Bsp.1: Würfeln mit 1 Würfel Sei A das zuf. Ereignis, das im Ergebnis des zuf. Versuches eine „6“ gewürfelt wird. Der Versuch wird n- mal wiederholt (n = 50, 100, ...). Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...) auf, d.h. N(A) ist die absolute Häufigkeit des Auftretens von A. Dann nennt man den Quotienten aus der absoluten Häufigkeit und der Gesamtzahl der Versuche relative Häufigkeit N( A ) hn ( A ) = . n hn(A) kann die Zahlen n 0 1 2 0 = , , ,..., =1 n n n n annehmen. Satz: Die relative Häufigkeit eines zufälligen Ereignisses A besitzt folgende Eigenschaften: 1) 0 ≤ hn(A) ≤ 1 2) hn(∅) = 0 (aber: aus hn(A) = 0 ⇏A = ∅) 3) hn(E) = 1 (aber: aus hn(A) = 1 ⇏A = E) 4) hn(A ∪ B) = hn(A) + hn(B) für A und B unvereinbar 5) hn(A ∪ B) = hn(A) + hn(B) - hn(A ∩ B) für bel. A und B n − N( A ) 6) hn ( A ) = = 1 − hn ( A ) n 7) A ⊆ B → hn(A) ≤ hn(B) Bem.: ● Welchen Wert die abs. bzw. rel. Häufigkeit bei einer konkreten Versuchsserie annehmen wird, kann nicht mit Sicherheit vorausgesagt werden, sie ist vom Zufall abhängig, d.h. sie wird sich bei Wiederholung der Versuchsreihe ändern. ● Mit zunehmender Anzahl der Versuche zeigt sich jedoch eine gewisse Stabilität der rel. Häufigkeit, d.h. die rel. Häufigkeiten schwanken um einen gewissen Wert, den wir nicht genau kennen und stat. Wahrscheinlichkeit des Ereignisses A nennen und mit P(A) bezeichnen. Das Stabilisierungsverhalten der rel. Häufigkeit wird durch Grenzwertsätze formuliert. Def.: ● Die rel. Häufigkeit hn(A) kann also als Schätzwert der Wahrscheinlichkeit P(A) aufgefasst werden, der um so besser ist, je häufiger der Versuch wiederholt wird, d.h. hn(A) ≈ P(A) für n → ∞ Bsp.: Münzwurf Anzahl der Würfe n Anzahl des Auftretens des "Wappen" N(A) relative Häufigkeit hn=N(A)/n Buffon 4040 2048 0.5069 Pearson 12000 6019 0.5016 Pearson 24000 12012 0.5005 Stabilität der relativen Häufigkeit hn(A) P(A) 0 n ∞ Die bedingte Wahrscheinlichkeit und die Unabhängigkeit von Ereignissen: Sei A ∈ ℰ. Die Zahl P(A) gibt die Wahrscheinlichkeit des Ereignisses A im Rahmen der Bedingungen an, die den betrachteten zufälligen Versuch kennzeichnen. Nehmen wir gedanklich zu diesen Bedingungen noch die Bedingung „Das zufällige Ereignis B ∈ ℰ ist bereits eingetreten“ hinzu, so wird die Wahrscheinlichkeit des Eintretens von A nun durch eine i.a. von P(A) verschiedene Zahl beschrieben. Bsp.2: Würfeln mit 2 unterscheidbaren Würfeln E = {(i,j) / i, j = 1, ..., 6} C:= “ Summe der Augenzahlen 10 oder 11“ 5 C = {(5,5), (4,6), (6,4), (5,6)} P(C) = 36 B1:= „1. Würfel zeigt eine 3“ B2:= „1. Würfel zeigt eine 5“ ges.: P(C/B1) und P(C/B2) Lösung: B2 = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)} Dann ist P(C/B1) = 0 P(C/B2) = 2 = 0 ,3 6 Es gilt: (C ∩ B2) = {(5,5), (5,6)} Erweiterung von Zähler und Nenner mit 1/36: 2 P(C ∩ B 2 ) 1 36 = = = 0,3 P(C/B2) = 6 P (B 2 ) 3 36 ⇒ Bedingte Wahrscheinlichkeiten können auf unbedingte Wahrscheinlichkeiten zurückgeführt werden. Def.: Seien A, B ∈ ℰ mit P(B) > 0, dann heißt die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B schon eingetreten ist, bedingte Wahrscheinlichkeit des Ereignisses A unter der Bedingung B und wird nach der Formel P( A ∩ B ) P( A / B ) = P(B ) berechnet. Satz: Seien A, B ∈ ℰ und P(B) > 0, dann gilt: P(A ∩ B) = P(A/B) ⋅ P(B) (Multiplikationsregel für bedingte Ereignisse) Satz: Seien A1, ..., An ∈ ℰ mit P(A1 ∩ A2 ∩ ... ∩ An-1) > 0. Dann gilt: n P(I A i ) = P( A 1 ) ⋅ P( A 2 / A 1 ) ⋅ ... ⋅ P( A n / A 1 ∩ ... ∩ A n−1 ) i =1 (Verallg. der Multiplikationsregel für bed. Ereignisse) Def.: Zwei zuf. Ereignisse A und B ∈ ℰ heißen (stochastisch) unabhängig, wenn der Eintritt des Ereignisses B ohne Einfluss auf die Wahrscheinlichkeit des zuf. Ereignisses A ist, d.h. wenn P(A/B) = P(A) gilt. Satz: Für unabhängige zuf. Ereignisse A und B ∈ ℰ gilt: P(A ∩ B) = P(A) ⋅ P(B) (Multiplikationsregel für unabh. Ereignisse) Satz: Für unabhängige zuf. Ereignisse A1, ..., An ∈ ℰ gilt: n ⎛ n ⎞ P⎜⎜ I A i ⎟⎟ = P( A i ) ⋅ ... ⋅ P( A n ) = ∏ P( A i ) i=1 ⎝ i ⎠ (Verallg. der Multiplikationsregel für unabh. Ereignisse) Satz: Für unabhängige Ereignisse A1, ..., An ∈ ℰ gilt: n n i =1 i =1 P(U A i ) = 1 − ∏ (1 − P( A i )) (Verallg. der Additionsregel für unabh. Ereignisse) Totale Wahrscheinlichkeit und Bayes‘ sche Formel: Satz: Totale Wahrscheinlichkeit: Seien A1, …, An paarweise disjunkte Ereignisse mit n UA i i =1 =E , so gilt für ein beliebiges Ereignis B: n P(B ) = ∑ P(B / A i )P( A i ) i =1 Satz: Bayes‘ sche Formel: Seien A1, …, An paarweise disjunkte Ereignisse mit n UA i =E i =1 dann gilt: , wobei für mindestens ein i (i=1,…,n) P(Ai) >0 und P(B/Ai) >0 erfüllt ist, P( A j / B) = P(B / A j ) ⋅ P( A j ) n ∑ P(B / A ) ⋅ P( A ) i =1 i i , j=1,…,n. Bem.: ● Die Wahrscheinlichkeit P(Ai) wird auch als a-priori Wahrscheinlichkeit bezeichnet, da P(Ai) das Eintreten von Ai vor Kenntnis des Eintretens von B bewertet. ● Die Wahrscheinlichkeit P(Ai/B) nennt man auch a-posteriori Wahrscheinlichkeit, da das Eintreten von Ai unter der Bedingung, dass das Ereignis B schon eingetreten ist, also nach Kenntnis über das Eintreten von B beurteilt wird. Bsp.: Medizinische Diagnostik (Erkennen von Krankheiten) Diagnostische medizinische Tests werden so entwickelt, dass sie eine hohe Sensitivität und Spezifität aufweisen. Die Sensitivität ist die Wahrscheinlichkeit dafür, dass ein Kranker als krank eingestuft wird, während die Spezifität der Wahrscheinlichkeit entspricht, einen Nichtkranken auch als nicht krank zu erkennen. Seien die Ereignisse A:= „Patient ist krank“ B:= „Testergebnis ist positiv“ Aus der Erprobungsphase des Tests können folgende Wahrscheinlichkeiten als bekannt betrachtet werden: P(B/A) = P(„Testergebnis ist positiv bei Kranken“) = 0,97 P(B / A) = P(„Testergebnis ist positiv bei Nichtkranken“) = 0,02 P(A) = 0,002 (d.h. sehr seltene Krankheit!) ges.: Wahrscheinlichkeit P(A/B), dass der Patient auch wirklich krank ist, wenn ein positives Testergebnis vorliegt! Lösung: (Bayes‘ sche Formel) P(B / A ) ⋅ P( A ) P( A / B) = = 0,08858 ≈ 0,089 P(B / A ) ⋅ P( A ) + P(B / A ) ⋅ P( A ) Interpretation: ● Nur bei 8,9 % der Patienten mit einem positiven Testergebnis kann davon ausgegangen werden, dass die Krankheit auch wirklich vorliegt, bei den übrigen 91 % handelt es sich demnach um Fehldiagnosen. Positiv (B) Test Negativ Summe (B) Krankheit Summe ja (A) nein(A) 0,00194 0,01996 0,0219 0,00006 0,97804 0,9781 0,002 0,998 1 ● Wegen P(A) = 0,002 ist in einer Population von z.B. 100000 Personen bei 200 Personen mit der Krankheit zu rechnen, bei 99800 nicht. ● P(B/A) = 0,97 bedeutet, dass von den 200 Kranken 194 mit dem mediz. Test richtig diagnostiziert werden. ● P(B/ (A) ) = 0,02 bedeutet, dass von den 99800 nicht kranken Personen fälschlicherweise 1996 als krank eingestuft werden ● Bei 194 + 1996 = 2190 Personen zeigt also der Test ein pos. Ergebnis an, das ist ein Anteil von 194/ 2190 = 0,08858 = 8,9 % 2.2. Zufallsgrößen (ZG) Bisher haben wir uns mit zuf. Ereignissen und ihren Gesetzmäßigkeiten beschäftigt. Wir haben zuf. Ereignisse wie Mengen behandelt und jedem beliebigen zuf. Ereignis A ∈ ℰ als Grad für die Gewissheit des Eintretens von A die Wahrscheinlichkeit P(A) zugeordnet. Einige der betrachteten Beispiele zeigten, dass man zuf. Ereignisse durch reelle Zahlen ausdrücken kann: X E . ei 0 xi =X(ei) R Bem.: Die Abbildung X heißt Zufallsgröße (ZG), weil ihre Werte über die zuf. Ereignisse vom Zufall abhängen. X X(ei) = xi ei ∈ E → xi ∈ Beispiele Elementarereignisse Werte der ZG X →1 … →6 gewürfelte Augenzahl 2. Würfeln mit 2 (1,1) versch. Würfeln (1,2), (2,1) (Augensumme) … (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) … (6,6) →2 →3 … →7 … → 12 gewürfelte Augensumme 3. Herstellung von e0 – “genau 0 Erzeug. Ausschuss” 5 Erzeugnissen e1– “genau 1 Erzeug. Ausschuss” … e5– “genau 5 Erzeug. Ausschuss” →0 →1 … →5 Anzahl der Ausschusserzeug. 1. Würfeln mit einem Würfel (Augenzahl) e1 – “Würfeln einer 1” … e6 – “Würfeln einer 6” Weitere Beispiele für Zufallsgrößen sind: ● Länge von Baumwollfasern einer bestimmten Sorte (schwankt nicht nur für verschiedene Anbaugebiete sehr stark, sondern auch für eine Samenkapsel) ● Masse von Weizenkörnern (ändert sich von Korn zu Korn, da es unmöglich ist, den Einfluss aller Faktoren wie Bodenqualität, Wasserhaushalt, Lichteinflüsse usw. zu berücksichtigen) ● Anzahl der Stillstände einer Flaschenabfüllanlage ● Anzahl nicht qualitätsgerechter Joghurtbecher ● Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und Ozongehalt, sowie Schwebestaubgehalt in der Luft ● Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen Def.: Es sei E die Menge der Elementarereignisse (Versuchsausgänge eines zufälligen Versuches) und ℰ ein Ereignisfeld von E. Eine auf E definierte Funktion X, die jedem Elementarereignis e∈E eine reelle Zahl x∈ zuordnet, heißt Zufallsgröße, wenn die folgende Eigenschaft gilt: Das Urbild A jedes beliebigen Zahlenintervalls (-∞, x], x∈ bel., ist ein zuf. Ereignis, d.h. A={e/X(e)∈(-∞, x]} ∈ ℰ. Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi. Bem.: Ist bei einem konkreten Versuch ein bestimmtes zuf. Ereignis eingetreten, so ist X(e) ein fester Wert (reelle Z.) und heißt Realisierung von X. Bez.: Realisierungen von Zufallsgrößen werden mit kleinen Buchstaben bezeichnet, z.B. x,y,z bzw. xi, yi, zi … Bem.: Wir können A ∈ ℰ noch anders schreiben: A={e/X(e) ∈ (-∞, x]}= {e/X(e) ≤ x} = {X ≤ x} = (X ≤ x) Bez. Analog bedeuten:. {X = a} = {e/X(e) = a} oder {a < X ≤ b} = {e/a < X(e) ≤ b} = {X ≤ b} \ {X ≤ a} a b Wenn A∈ ℰ → P(A) existiert, so ist diese Wahrscheinlichkeit P(A) darstellbar als P(A) = P({X ≤ x}) = P(X ≤ x) Zufallsgrößen sind also Größen, die ihre Werte mit einer bestimmten Wahrscheinlichkeit annehmen. Bsp.: Münzwurf e1:= “Wappen“ e2:= “Zahl“ → P(e1) = 0,5 → P(e2) = 0,5 P(e1) = P(X=0) = 0,5 P(e2) = P(X=1) = 0,5 Bsp. 1: Würfeln mit 1 Würfel A:= “Würfeln einer Augenzahl i ≤ 3“ A = {e1, e2, e3} → P( A ) = 3 = 0,5 6 P( A ) = P( X ≤ 3) = 0,5 1 1 1 P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + = 0,5 6 6 6 Def.: Sei X eine Zufallsgröße mit X: E → und P: ℰ → [0,1] ⊆ Dann heißt die durch FX(x) = P(X ≤ x) definierte Funktion FX Verteilungsfunktion der ZG X. Bem.: Der Wert der Verteilungsfunktion FX(x) an der Stelle x ist also gleich der Wahrscheinlichkeit, dass die ZG X Zufallsgröße X einen Wert kleiner oder gleich x annimmt. Mittels der Verteilungsfunktion einer Zufallsgröße kann man die Wahrscheinlichkeiten aller mit dieser Zufallsgröße in Zusammenhang stehenden zuf. Ereignisse ausdrücken, z.B. P(X > x) = 1- FX(x) P(a < X ≤ b) = FX(b) – FX(a) , weil (-∞, a] ⊂ (-∞, b] für a≤b Satz : Eigenschaften der Verteilungsfunktion: 1. 0 ≤ FX(x) ≤ 1 ∀x∈ 2. FX ist monoton wachsende Funktion, d.h. x1 < x2 ⇒ FX(x1) < FX(x2) 3. FX ist rechtsseitig stetig, d.h. lim F x↑ x0 X ( x ) = FX ( x 0 ) bzw. 4. Grenzwerte: lim F x → −∞ lim x → +∞ (x) = 0 ( =ˆ P(∅)), FX ( x ) = 1 ( =ˆ P(E)) X lim F h→ 0 h >1 X ( x + h ) = FX ( x ) Diskrete Zufallsgrößen: Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich oder abzählbar unendlich viele Werte annehmen kann. Beispiele: ● Anzahl nicht qualitätsgerechter Joghurtbecher ● Anzahl der Stillstände einer Flaschenabfüllanlage ● Anzahl der monatlichen Krankentage der Belegschaft eines Betriebes Bem.: Man beschreibt eine diskrete ZG X durch die Werte xi, die sie annehmen kann und die sogenannten Einzelwahrscheinlichkeiten pi = P(X = xi), mit denen sie diese Werte annimmt. Bem.: Man gibt die xi und pi, d.h. die Paare (xi, pi) oft in Form einer Verteilungstabelle, die die ZG X vollständig beschreibt, an. Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln (X:= „Augensumme i+j“): xi 2 pi = P(X = xi) 1 36 3 4 2 36 3 36 5 4 36 6 5 36 7 8 6 36 5 36 9 4 36 10 3 36 11 2 36 12 1 36 Grafische Darstellung der Einzelwahrscheinlichkeiten: pi 1/6 0 1 2 3 4 5 6 7 8 9 10 11 12 xi Def. : Sei X eine diskrete ZG. Dann bezeichnet man P(X = x) als Wahrscheinlichkeitsverteilung der ZG X. Satz: Eigenschaften der Einzelwahrscheinlichkeiten einer diskreten ZG X : 1. 0 ≤ pi ≤ 1 ∞ 2. ∑p i =1 i =1 Def. : Die Verteilungsfunktion einer diskreten ZG X bestimmt man nach der Formel: FX ( x ) = P( X ≤ x ) = ∑ P( X = xi ) = ∑ pi i xi ≤ x i xi ≤ x Bsp. 1: Würfeln mit 1 Würfel (Gleichverteilung) Verteilungstabelle mit Verteilungsfunktion: xi <1 1 2 3 4 5 pi = P(X = xi) 0 1/6 1/6 1/6 1/6 1/6 1/6 0 FX(xi) 0 1/6 2/6 3/6 4/6 5/6 1 1 FX (x) 6 >6 1 p1=1/6 x 1 2 3 4 5 6 FX ( x i ) = P ( X ≤ x i ) = ∑ P( X = x k xk ≤ xi k ) Bem.: Für eine diskrete ZG X gilt: 1. P( X ≤ x) = FX ( x) = ∑p ∀i mit xi ≤ x i i 2. P( X > x) = 1− FX (x) = 1− ∑p ∀i mit xi ≤ x i i 3. P(a < X ≤ b) = FX (b) − FX (a) = ∑p i i ∀i mit a < xi ≤ b P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass eine Realisierung von X in das Intervall (a, b] fällt! Stetige Zufallsgrößen: Stetige Zufallsgrößen können überabzählbar unendlich viele Werte (d.h. Werte aus einem reellen Zahlenintervall) annehmen. Beispiele: ● Eiweiß- und Fettgehalt von Milch ● Stammwürzegehalt von Bier ● Saccharosegehalt von Zuckerrüben ● Masse von Broten Bem.: Die Wahrscheinlichkeit, dass eine solche stetige ZG einen bestimmten festen Wert annimmt, z.B. dass Milch genau einen Fettgehalt von 2,3 [%] aufweist, ist „0“, denn es ist unwahrscheinlich („fast unmöglich“), dass gerade dieser und kein dicht daneben liegender Wert angenommen wird. ⇒ Wahrscheinlichkeitsfunktion ist hier nicht von Interesse aber: Es ist von Interesse, mit welcher Wahrscheinlichkeit eine stetige ZG Werte in einem gewissen Intervall (a, b] annimmt. Diese Wahrscheinlichkeit ist im Allg. von „0“ verschieden und man kann sie berechnen! Def. : Eine ZG heißt stetig, wenn es auf der Menge der reellen Zahlen eine nichtnegative, integrierbare Funktion fX gibt, so dass sich die Verteilungsfunktion FX(x) = P(X ≤ x) ∀x∈ in der Form x FX ( x ) = ∫f X ( t ) dt darstellen lässt. −∞ Die Funktion fX, von der wir fordern, dass +∞ ∫f X ( x ) dx = 1 ist, −∞ heißt Dichtefunktion (oder Verteilungsdichte) von X. Die Verteilungsfunktion ist eine Stammfunktion der Dichte! Dichtefunktion der Normalverteilung 0,4 0,1 Dichte Ausgehend von der geometrischen Deutung des Integralbegriffes erhalten wir FX(x0) als Flächeninhalt der Fläche zwischen der Kurve fX(x) und der Abzissenachse in den Grenzen – ∞ und x0. 0,3 0,2 0,1 0 -5 -3 -1 x 0 1 3 5 x Verteilungsfunktion der Normalverteilung Verteilungsfunktion Bem.: 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 x0 x 1 3 5 Satz : Eigenschaften der Dichtefunktion Es sei X eine stetige ZG mit der Dichtefunktion fX. 1. fX(x) ≥ 0 +∞ 2. ∫f X ( x )dx = 1 −∞ x 3. FX ( x ) = ∫f X ( t )dt −∞ 4. FX ist eine stetige Funktion, die an allen Stetigkeitsstellen von fX differenzierbar ist, wobei FX’(x) = fX(x) gilt. Bem.: Für eine stetige ZG X gilt: x 1. P( X ≤ x) = FX ( x) = ∫ f(t)dt −∞ x ∫ 2. P( X > x) = 1− FX (x) = 1− f (t)dt −∞ b ∫ 3. P(a < X ≤ b) = FX (b) − FX (a) = f ( x)dx a ∀x mit a < x ≤ b (nach dem Hauptsatz der Differential- und Integralrechnung!) P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass eine Realisierung von X in das Intervall (a, b] fällt! X sei eine stetige Zufallsgröße mit der Dichtefunktion (gleichmäßig stet. Vert.) fX(x) = 0,1 , x ∈ [0, 10] 0 , x ∉ [0, 10] x Bsp. 3: ges.: Verteilungsfunktion FX(x) FX ( x) = ∫ fX (t )dt −∞ zu beachten: fX ist nicht geschlossen analytisch angebbar, sondern in 3 Intervallen: (-∞, 0), [0, 10], (10, +∞) Lösung: x ∫ 0 dt = 0 , x ∈ (-∞, 0) −∞ ⇒ FX(x) = 0 x −∞ 0 0 10 x −∞ 0 10 ∫ 0 dt + ∫ 0,1dt = 0,1x ∫ 0 dt + ∫ 0,1dt + ∫ 0 dt = 1 , x ∈ [0, 10] , x ∈ (10, ∞) Verteilungstabelle: X = xi <0 0 1 5 10 fX(xi) FX(xi) >10 0 0,1 0,1 0,1 0,1 0 0 0,1 0,1 0,5 1 1 FX(x) 1 fX(x) 0,5 0,1 x 0 5 Dichtefunktion 10 0,1 x 0 5 10 Verteilungsfunktion Diskrete ZG Stetige ZG endlich oder abzählbar unendlich viele Werte überabzählbar unendlich viele Werte Einzelwahrscheinlichkeiten pi: pi = P(X = xi) i = 1, 2, … 0 ≤ pi ≤ 1 Dichtefunktion fX: fX(x) ≥ 0 ∞ ∑p i=1 i +∞ =1 ∫f ( x )dx = 1 −∞ Verteilungsfunktion: FX(x) = P(X ≤ x) FX ( x ) = X ∑p ∀x∈ Verteilungsfunktion: FX(x) = P(X ≤ x) ∀x∈ x FX ( x ) = i i xi ≤ x X ( t )dt −∞ FX rechtsseitig stetige Treppenfunktion, monoton wachsend P(a < X ≤ b) = ∫f ∑p i i a< xi ≤b FX stetig, monoton wachsend b P ( a < X ≤ b ) = ∫ f X ( x )dx a Kenngrößen (Parameter) von Verteilungen: 1. Erwartungswert: Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das Zentrum ihrer Verteilung: ∞ ∑x EX = ⋅ pi , X diskr. ZG ∫ x ⋅ fX (x)dx , X stet. ZG i =1 i +∞ EX ∈ −∞ Bem.: Der Erwartungswert einer diskr. ZG ist das gewogene Mittel aller Werte xi von X, wobei die Einzelwahrscheinlichkeiten pi die Gewichte darstellen. Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ EX = 3,5 Bsp. 3: X auf [0,10] gleichmäßig stet. verteilt ⇒ EX = 5 Satz: Eigenschaften des Erwartungswertes Für die Erwartungswerte von diskreten oder stetigen Zufallsgrößen X, X1, … und Konstante a,b ∈ gelten folgende Aussagen: 1. Ea = a 2. E [EX] = EX 3. E [X1 +…+ Xn] = EX1 +…+ EXn (Additionsregel) 4. E [aX] = a EX (Linearitätsregel) 5. E [aX + b] = a EX + b (lin. Transformation) 6. X1,…,Xn unabhängig ⇒ E [X1•…•Xn] = EX1•…•EXn (Multiplikationsregel) 7. X ≥ 0 ⇒ EX ≥ 0 und X ≥ Y ⇒ EX ≥ EY 2. Varianz: Def.: Als Varianz bezeichnen wir die mittlere (erwartete) quadratische Abweichung einer ZG X von ihrem Erwartungswert: D2X = E [X - EX]2 ∞ 2 ( x − EX ) ⋅ pi ∑ i = , X diskr. ZG i =1 D2X ∈ +∞ 2 ( x − EX ) ⋅ fX ( x)dx ∫ , X stet. ZG −∞ D2 X heißt Standardabweichung. Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ D2X = 2,92 Bsp. 3: X auf [0,10] gleichmäßig stet. verteilt ⇒ D2X = 8,3 Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung) Für die Varianz von diskreten oder stetigen Zufallsgrößen X, X1, …, Y, Z und Konstanten a,b ∈ gilt: 1. D2X ≥ 0, D2X = 0 ⇔ P(X = EX) = 1 2. D2X = EX2 – [EX]2 (Verschiebungsregel) 3. D2 [aX + b] = a2 • D2X (lin. Transformation) 4. X1,X2 unabhängig ⇒ D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz) und für Y =X1• X2 und Z = X1/X2 2 2 ⎛ D2 Y ⎞ ⎛ D X1 ⎞ ⎛ D X2 ⎟ +⎜ ⎟ ≈⎜ ⎜ ⎜ EY ⎟ ⎜ EX1 ⎟ ⎜ EX2 ⎠ ⎝ ⎝ ⎠ ⎝ 2 2 2 (Produkt und Quotient) ⎞ ⎛ D2 Z ⎞ ⎟ ≈⎜ ⎟ ⎟ ⎜ EZ ⎟ ⎠ ⎠ ⎝ 2 (Quadr. Variationskoeffizienten addieren sich!) Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln, X:=„ Augensumme“, X = X1 + X2 D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83 Normierung und Standardisierung: Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt. Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und EX = 0 gilt. Satz: Für eine beliebige ZG X gilt: 1. 2. Y= Y= X D2 X X − EX 2 D X ist eine normierte ZG und ist eine standardisierte ZG. 2.3. Spezielle Verteilungen von Zufallsgrößen Wahrscheinlichkeitsverteilungen Diskrete Verteilungen Stetige Verteilungen - 2- Pkt.- Verteilung (Münzwurf) - Gleichmäßig stet. Verteilung (Bsp. 3: X stet. ZG auf [0,10]) - Gleichverteilung (Bsp. 1: Würfeln mit 1 Würfel) - Normalverteilung und log. NV - Binomialverteilung (Qualitätskontrolle) - Exponentialverteilung (Wachstumsprozesse) - Hypergeometrische Vert. - Weibullverteilung (Abnutzungsprozesse) - Poissonverteilung - Prüfvert. (t-, χ2-, F- Vert.) 1. Binomialverteilung (BV, Anwendung bei Qualitätskontrolle) Beispiele: - Zuf. Anzahl der in einem bestimmten Zeitabschnitt ausfallenden Maschinen von insgesamt n Maschinen gleicher Bauart, wenn die Wahrscheinlichkeit, dass eine Maschine ausfällt, p ist. - Zuf. Anzahl nicht qualitätsgerecht produzierter Joghurtbecher von insgesamt n Joghurtbechern, wenn die Wahrscheinlichkeit, einen Ausschußbecher zu produzieren, p ist. - Allgemein: X := „Anzahl der beobachteten (gezogenen) Objekte aus einer Menge von n Objekten mit der Eigenschaft A“ Bernoullisches Versuchsschema (Urnenmodell mit Zurücklegen): - Urne enthält weiße und schwarze Kugeln, die Wahrscheinlichkeit, eine weiße Kugel zu ziehen (Ereignis A), sei P(A) = p. - n- malige Entnahme einer Kugel und Feststellen, ob Kugel weiß (A) oder schwarz ( A ) war, jeweils Zurücklegen der Kugel. (Durch Zurücklegen wird Unabhängigkeit der Einzelziehungen erreicht, die Wahrscheinlichkeit, eine weiße Kugel zu ziehen, bleibt gleich!) - Von Interesse: Wahrscheinlichkeit, bei n Entnahmen k weiße Kugeln zu ziehen. - Bei Qualitätskontrolle: A :=„ Entnahme eines guten Teils“ A :=„ Entnahme eines Ausschußteils“ Def.: Eine diskrete ZG X heißt binomialverteilt mit den Parametern n und p (X ~ B(n,p)), wenn sie die Wahrscheinlichkeitsfunktion ⎛n⎞ k P( X = k ) = ⎜⎜ ⎟⎟ ⋅ p ⋅ (1 − p)n−k ⎝k ⎠ ,k = 0,…,n besitzt. Bem.: - Die Binomialverteilung wird durch die Parameter n und p eindeutig bestimmt. - EX = n • p - D2X = n • p • (1-p) = n • p • q - P(X ≤ k) = P(X=0)+…+P(X=k) = ⎛n⎞ i n−i ⎜ ⎟ ⋅ p ⋅ ( 1 − p ) ∑ ⎜i⎟ i =0 ⎝ ⎠ - P(X ≥ k) = P(X=k)+…+P(X=n) = ⎛n⎞ i n−i ⎜ ⎟ ⋅ p ⋅ ( 1 − p ) ∑ ⎜i⎟ i=k ⎝ ⎠ k P(X ≥ 1) = 1- P(X=0) n Bsp.: 10 Äpfel einer Partie werden untersucht. Es ist bekannt, dass 10% der Äpfel angeschlagen sind. a) Wie groß ist die Wahrscheinlichkeit, 3 angeschlagene Äpfel in der Stichprobe zu finden? b) Wie groß ist die Wahrscheinlichkeit, höchstens einen angeschlagenen Apfel in der Stichprobe zu finden? Lösung: geg.: n = 10, P(A)= p = 0,1 ⎛ 10 ⎞ a) P(X = 3) = ⎜⎜ ⎟⎟ ⋅ 0,13 ⋅ (1 − 0,1)10 − 3 = 0,057 ⎝3⎠ b) P(X ≤ 1) = P(X = 0) + P(X = 1) = 0,736 ⎛ ⎛ 10 ⎞ ⎞ ⎛ ⎛ 10 ⎞ ⎞ 0 10 1 9 ⎜ ⎜⎜ ⎟⎟ ⋅ 0,1 ⋅ 0,9 ⎟ + ⎜ ⎜⎜ ⎟⎟ ⋅ 0,1 ⋅ 0,9 ⎟ = 0,910 + 0,9 9 ⎜ 0 ⎟ ⎜ 1 ⎟ ⎝⎝ ⎠ ⎠ ⎝⎝ ⎠ ⎠ 2. Hypergeometrische Verteilung (Anwendung bei Qualitätskontrolle) Versuchsschema: Urnenmodell ohne Zurücklegen - Urne enthält N weiße und M schwarze Kugeln - n- malige Entnahme einer Kugel und Feststellen, ob Kugel weiß (A) oder schwarz ( A ) war, ohne Zurücklegen der Kugel. - allgemein: Aus einer endlichen Grundgesamtheit von N Objekten, von denen M die Eigenschaft A und N - M die Eigenschaft A besitzen, wird n- mal zufällig ein Objekt ohne Zurücklegen gezogen. Wir betrachten wieder die ZG X := „Anzahl der beobachteten (gezogenen) Objekte aus einer Menge von n Objekten mit der Eigenschaft A“ Def.: Eine diskrete ZG X heißt hypergeometrisch verteilt mit den Parametern N,M und n (X ~ H(N,M,n)), wenn sie die Wahrscheinlichkeitsfunktion ⎛ M⎞ ⎛ N − M⎞ ⎜⎜ ⎟⎟ ⋅ ⎜⎜ ⎟⎟ k ⎠ ⎝ n−k ⎠ ⎝ P( X = k ) = ⎛ N⎞ ⎜⎜ ⎟⎟ ⎝n⎠ ,k = 0,…,n besitzt. Bem.: - Die Hypergeometrische Verteilung wird durch die Parameter N,M und n eindeutig bestimmt. M - EX = n ⋅ N - D2X = n ⋅ M⎛ M⎞ N−n ⎜1 − ⎟ ⋅ N⎝ N ⎠ N −1 3. Poisson Verteilung (PV) (Verteilung der seltenen Ereignisse) Versuchsschema: Es werden Ereignisse gezählt, die innerhalb eines festen, vorgegebenen Zeitintervalls eintreten können. Von Interesse: Die ZG X := „Anzahl der (seltenen) Ereignisse, die innerhalb des Intervalls [0,1] eintreten“ Bsp.: ● Radioaktiver Zerfall (Zählung von α- Teilchen) ● Anzahl von Krankheitsfällen einer seltenen Krankheit in einem Monat ● Verteilung von Unkrautsamen unter Getreide ● Chromosomenaustausch in Zellen ● Verteilung von Druckfehlern pro Seite in Büchern Vorauss.: 1. 2 Ereignisse können nicht gleichzeitig auftreten. 2. Die Wahrsch., dass ein Ereignis während eines kleinen Zeitintervalls der Länge ∆t stattfindet, ist annähernd λ∆t 3. Die Anzahlen von Ereignissen in 2 disjunkten Teilintervallen sind unabhängig. Def.: Eine diskrete ZG X heißt Poisson- verteit mit dem Parameter λ (X ~ Π(λ)), wenn sie die Wahrscheinlichkeitsfunktion λk P( X = k ) = ⋅ e −λ k! ,k = 0,…,n besitzt. Bem.: - der Parameter λ > 0 heißt Intensitätsparameter. - EX = λ - D2X = λ 4. Normalverteilung (NV) (Gauss, 1809: „Theorie der Beobachtungsfehler“) Hintergrund: Führt man in der Praxis wiederholt Messungen an ein und demselben Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es zeigt sich aber, dass bei häufiger Wiederholung der Messung die erhaltenen Werte kleinere oder größere Abweichungen voneinander und von einem bestimmtem „wahren“ Wert, dem Erwartungswert, aufweisen. Beispiele: ● zuf. Mess- und Beobachtungsfehler ● Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von Bier, Saccharosegehalt von Zuckerrüben ● Füllhöhe bestimmter Getränkeflaschen Def.: Eine stetige ZG X heißt normalverteilt mit den Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihre Dichtefunktion die Form 2 fX ( x ) = 1 ⋅e 2π ⋅ σ − (x − µ ) 2 ⋅σ 2 x∈, hat. Satz: Eigenschaften der Dichtefunktion der NV 1. fX(x) ≥ 0 x∈ 2. fX besitzt an der Stelle x = µ ein Maximum und 1 fX (µ) = 2π ⋅ σ 3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σ zwei Wendepunkte 4. fX ist symmetrisch bez. X = µ: fX(µ - x) = fX(µ + x) Dichtefunktion der Normalverteilung 0,8 0,1 4,1 4,2 4,0,5 0,2 Dichte 0,6 0,4 0,2 fX(x; 0, 1) = ϕX(x) 0 -10 -6 -2 2 6 10 14 x Verteilungsfunktion Verteilungsfunktion der Normalverteilung 1 0,1 4,1 4,2 4,0,5 0,2 0,8 0,6 0,4 Standard- Normalverteilung X ~ N (0, 1) FX(x; 0, 1) = ΦX(x) 0,2 ist tabelliert! 0 -10 -6 -2 2 x 6 10 14 Bem.: - Für eine normalverteilte ZG X gilt: EX = µ und D2X = σ2 - Der Parameter µ bedeutet : Verschiebung des Symmetriezentrums Der Parameter σ bedeutet: Streckung oder Stauchung der Dichte x - Die Verteilungsfunktion: FX (x)= P(X ≤ x) = aber: ∫ f (t )dt X −∞ Integral nicht geschlossen integrierbar! ⇒ Standardisierung der normalverteilten ZG X und Bestimmen der standardisierten Verteilungsfunktion Φ (ist tabelliert!) ! Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σ standardisiert werden, so dass Y ~ N(0, 1), und man erhält: fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y) (Zusammenhang von Dichte- und Verteilungsfunktionen) N(0,1) 0,4 0,1 Dichte 0,3 0,2 0,1 0 -5 -3 -1 1 3 x ϕY(-y) = ϕY(y) 5 Verteilungsfunktion der Normalverteilung Verteilungsfunktion Dichtefunktion der Normalverteilung N(0,1) 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 1 3 5 x ΦY(-y) = 1- ΦY(y) Bestimmen von Intervallwahrscheinlichkeiten: X−µ x −µ⎞ ⎛ 1. P( X ≤ x) = FX ( x) = P⎜ ≤ ⎟ = P( Y ≤ y) = Φ Y ( y) σ ⎠ ⎝ σ 2. P( X > x) = 1− P( X ≤ x) = 1− FX ( x) = ⎛ X−µ x −µ⎞ 1− P⎜ ≤ ⎟ = 1− P( Y ≤ y) = 1− Φ Y ( y) σ ⎠ ⎝ σ 3. P( x1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x1 ) X−µ ⎛ ⎞ = P⎜ y1 < Y = ≤ y 2 ⎟ = Φ Y ( y 2 ) − Φ Y ( y1 ) σ ⎝ ⎠ ⎛ x1 −µ⎞ y1 = ⎜ ⎟ ⎝ σ ⎠ ⎛ x2 −µ⎞ y2 = ⎜ ⎟ ⎝ σ ⎠ 4. Spezialfall von 3. Seien x1 = µ - kσ und x2 = µ + kσ Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1 Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich folgende Wahrscheinlichkeiten: P(|X - µ|) ≤ 1σ) = 0,638 P(|X - µ|) ≤ 2σ) = 0,955 P(|X - µ|) ≤ 3σ) = 0,997 3σ- Regel d.h. es ist praktisch „fast sicher“, dass eine normalverteilte ZG X Werte zwischen µ - 3σ und µ - 3σ annimmt. Bem.: Ist die stet. ZG nicht normalverteilt, kann man dennoch die Wahrscheinlichkeit, dass die ZG Werte zwischen µ und dem k-fachen der Standardabweichung σ annimmt mit Hilfe der Tschebyscheff‘schen Ungleichung abschätzen: P(|X - µ| < kσ) > 1- (1/k2) Dann gilt für k = 3 und 4: P(|X - µ|) < 3σ) > 0,89 P(|X - µ|) < 4σ) > 0,94 Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten (ZG X) sei normalverteilt mit X~ N(31,4; 0,04) [g]. Eine Tüte ist normgerecht gefüllt, wenn X Werte im Intervall [30,9; 31,7] annimmt. a) Wieviel % der Tüten sind normgerecht gefüllt? b) Wieviel % der Tüten sind nicht normgerecht gefüllt? c) Wieviel % der Tüten sind unterdosiert? d) Wieviel % der Tüten sind überdosiert? e) Wie müßte die untere Grenze des Toleranzbereiches xu sein, damit nur 0,2 % der Tüten unterdosiert sind? f) Welchen Wert müßte die Standardabweichung σ haben, damit bei ursprünglichem Toleranzbereich nur 2% der Tütenunterdosiert sind? Lösung: a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319(1-0,99379) = 0,92698 ≈ 92,7 % b) P( A ) = 1- P(A) = 7,3 % c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 % d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 % e) P(X ≤ xu) = 0,002 ⎛ x u − 31,4 ⎞ 1-0,002 = 0,998 ⎟ = 0,002 = ΦY ⎜ ⎝ 0,2 ⎠ → ΦY(2,88) = 0,998 ⎛ x u − 31,4 ⎞ → ΦY(-2,88) = 0,002 → ⎜ ⎟ = −2,88 ⎝ 0,2 ⎠ → xu = 30,824 f) analog zu e) ⎛ 30,9 − 31,4 ⎞ ⎛ 30,9 − 31,4 ⎞ ⎟ = −2,88 ΦY ⎜ ⎟ = 0,002 → ⎜ σ ⎝ ⎠ σ → σ = 0,1736 ⎝ ⎠ 5. Prüfverteilungen Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die insbesondere in der induktiven Statistik eine Rolle spielen. Für die praktische Durchführung von Prüfverfahren benötigt man insbesondere die Quantile dieser Prüfverteilungen. Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX und p∈(0,1) ⊆ R. Dann heißt eine Zahl xp Quantil der Ordnung p, wenn Fx(xP) = P(X ≤ xP) = p gilt. Bem.: Ein Quantil der Ordnung p = ½ heißt Median 5.1. χ² - Verteilung (Helmert, 1876) Def.: Seien X1, …, Xm stochastisch unabhängige N(0,1)- verteilte ZG- en, so heißt die Verteilung von m W = ∑ Xi2 zentrale χ²- Verteilung mit m Freiheits- i=1 graden, d.h. W = m ∑ i= 1 X i2 ~ χ ²( m ) Chi-Quadrat Verteilung 0,1 FG 10 20 30 50 100 Dichte 0,08 0,06 0,04 0,02 0 0 30 60 90 x 120 150 180 Verteilungsfunktion Chi-Quadrat Verteilung FG 10 20 30 50 100 1 0,8 0,6 0,4 0,2 0 0 30 60 90 x 120 150 180 Satz: Eigenschaften der χ²-Verteilung Sei W~ χ²(m). Dann gilt: - E W = m, D² W = 2m - χ² ist unsymmetrische Verteilung, die nur vom FG m abhängt - Quantil der Ordnung p der χ²-Verteilung mit m FG- en wird mit χ²p;m bezeichnet - Für m Æ ∞ konvergiert die Verteilungsfunktion der χ²-Verteilung gegen die Verteilungsfunktion der NV mit N(m,2m), d.h. F ( x ) ≈ Φ⎛⎜ x − m ⎞⎟ χ² ⎝ 2m ⎠ Satz: Seien X1,…, Xn stochastisch unabhängig und identisch normalverteilte ZG-en mit Xi ~ N(µ,σ²) und 1 S² = ( Xi − X)² die empirische Varianz (das ∑ n −1 unbekannte µ wird durch X geschätzt!) Dann ist die ZG (n − 1)S ² ~ χ ²( m ) W = σ² m = n-1 („STUDENT“ , W. Gosset) 5.2. t-Verteilung Def.: Seien X ~ N(0,1) und W ~ χ²(m) stoch. unabhängig. X ⋅ m ~ t(m ) Dann heißt die ZG t = W t- verteilt mit m FG- en. t- Verteilung 0,4 FG 10 20 30 50 100 Dichte 0,3 0,2 0,1 0 -6 -4 -2 0 x 2 4 6 Verteilungsfunktion t- Verteilung 1 FG 10 20 30 50 100 0,8 0,6 0,4 0,2 0 -6 -4 -2 0 x 2 4 6 Satz: Eigenschaften der t- Verteilung (m ≥ 2) - D² t = m (m ≥ 2) m−2 -Et=0 - t- Vert. ist symmetrisch und abhängig vom FG m - Das Quantil der Ordnung p der t- Vert. mit m FG- en wird mit tp;m bezeichnet. - Für m Æ ∞ konvergiert die Verteilungsfunktion der t- Verteilung mit m FG- en gegen die Verteilungsfunktion der Standardnormalverteilung N(0,1). Satz: Seien X1,…,Xn ~ N(µ,σ²) identisch normalverteilt und stoch. unabh. ZG- en, so sind auch die ZG- en n 1 n 1 X = ∑ Xi und S² = ( Xi − X)² stoch. unabh. ∑ n i=1 n − 1 i=1 und es gilt: X −µ X −µ t= ⋅ n= ⋅ n ~ t(m ) S S² m= n-1 (FISHER) 5.3. F-Verteilung Def.: Seien W1 ~ χ²(m1) und W2 ~ χ²(m2), dann heißt die 1 W1 m F= 1 ~ F(m1, m 2 ) 1 W2 m2 Verteilung von F-Verteilung mit m1 und m2 FG- en. F- Verteilung 2,4 FG 10,10 20,20 30,30 50,50 100,100 Dichte 2 1,6 1,2 0,8 0,4 0 0 1 2 3 x 4 5 Verteilungsfunktion F- Verteilung FG 10,10 20,20 30,30 50,50 100,100 1 0,8 0,6 0,4 0,2 0 0 1 2 3 x 4 5 Satz: Eigenschaften der F-Verteilung m2 - EF = m2 ≥ 3 m2 − 2 - F-Verteilung ist unsymmetrisch und von den FG- en m1 und m2 abhängig. - Das Quantil der Ordnung p der F-Verteilung mit m1 und m2 FG- en wird mit Fp;m1;m2 bezeichnet. - Für m2 Æ ∞ konvergiert die Verteilungsfunktion von m1⋅F gegen die Verteilungsfunktion der χ²(m1)- Vert. - Es gilt: und F1− α ;m 1 ;m 2 = t 1+ α 2 ;m 2 1 F α ;m 1 ; m 2 = Fα;m1;m2 Satz: Seien Xi ~ N(µ1,σ²) (i=1,…,n1) und Yi ~ N(µ2,σ²) (i=1,…,n2) Dann sind die ZG- en (n1 − 1)S12 ~ χ ²(m1 ) W1 = σ² und (n2 − 1)S22 W2 = ~ χ²(m2 ) σ² und es gilt: S12 F = 2 ~ F(m1, m2 ) S2 m1 = n1 – 1 m2 = n2 - 1 Verteilungen von Funktionen von Zufallsgrößen 1.) Xi ~ N(µ,σ²) ⎛1 ⎞ ⎛1 ⎞ 1 Æ X = 1 X ~ N⎛ µ, σ ² ⎞ ,da EX = E⎜ ∑ Xi ⎟ = ⎜ ∑ EX i ⎟ = ⋅ n ⋅ µ = µ ⎜ ⎟ ⎝n ⎠ ⎝n ⎠ n ∑ i n ⎝ n ⎠ σ² ⎛1 ⎞ ⎛1 ⎞ 1 D² X = D²⎜ ∑ Xi ⎟ = ⎜ ∑D² Xi ⎟ = ⋅ n ⋅ σ² = n ⎝n ⎠ ⎝ n² ⎠ n² 2.) Xi ~ N(µ,σ²) Æ X = Æ Standardisierung: 1 ⎛ σ² ⎞ X ~ N ⎜ µ, ⎟ ∑ i n ⎝ n⎠ X −µ Z= ⋅ n ~ N(0,1) σ n ⎛ σ² ⎞ 1 3.) Xi ~ N(µ,σ²) und X ~ N⎜ µ, ⎟ und S² = ( Xi − X)² ⎝ n⎠ n − 1 i=1 ∑ stoch. unabhängig Æ (n − 1)S ² W = ~ χ ²(m ) σ² m=n-1 4.) Xi ~ N(µ1,σ²); X ~ N⎛⎜ µ, σ ² ⎞⎟ ⎝ ; n ⎠ X −µ Z= ⋅ n ~ N(0,1) σ (n − 1)S ² ~ χ ²(m ) W= σ² ; Z und W stoch. unabh. Æ t = Z = X − µ ⋅ n ~ t(m) m=n-1 S W m 5.) Xi ~ N(µ1,σ²); Yi ~ N(µ2,σ²) (n1 − 1)S12 ~ χ ²(m1 ) W1 = σ² Æ S12 F = 2 ~ F(m1,m2 ) S2 (n2 − 1)S 22 ~ χ²(m2 ) W2 = σ² m1 = n1 – 1 m2 = n2 - 1 2.4. Grenzwertsätze 1.) Gesetz der großen Zahlen ( ) P Xn − µ ≤ ε ⎯⎯ ⎯→ 1 n→ ∞ ∀ε > 0 d.h. X n konvergiert in Wahrscheinlichkeit (stochastisch) gegen µ. 2.) Theorem von Bernoulli: Die relative Häufigkeit, mit der ein Ereignis A bei n unabhängigen Versuchen eintritt, konvergiert in Wahrscheinlichkeit (stochastisch) gegen P(A). 3.) Hauptsatz der math. Statistik: Zufallsexperiment wird durch die ZG X mit der Verteilungsfunktion FX(x) beschrieben. Dann gilt für die empirische Verteilungsfunktion Fn(x): (X1,…,Xn unabhängig und ident. wie X verteilt!) P(Fn ( x ) − FX ( x ) ≤ ε ) ⎯⎯ ⎯→ 1 n→ ∞ ∀ε > 0 Æ Satz von Glivenko-Cantelli: P(sup Fn ( x ) − FX ( x ) ≤ ε ) ⎯⎯ ⎯→1 ∀ε > 0 n→∞ max. Abweichung zwischen Fn(x) und Fx(x) 4.) zentraler Grenzwertsatz: Seien X1,…,Xn unabhängig und ident. verteilte ZG- en mit EXi = µ und D²Xi = σ² > 0 Dann konvergiert die Verteilungsfunktion Fn(z) = P(Zn ≤ z) der standardisierten Summe X1 + ... + Xn − n ⋅ µ 1 n Xi − µ = ⋅∑ Zn = n ⋅σ n i=1 σ für n Æ ∞ an jeder Stelle x∈R gegen die Verteilungfunktion Φ(z) der Standardnormalverteilung: Fn ( z ) → Φ Z ( z ) (Regel: n > 30!) Bem.: 1. Eine ZG X ist dann in guter Näherung normalverteilt, wenn sie durch das additive Zusammenwirken von vielen kleinen zufällige Effekten entsteht. 2. Bei den meisten ZG- en tendiert die Verteilung ihrer Mittelwerte zu einer Normalverteilung, unabhängig davon, welche Verteilungsform die ZG- en selbst haben, d.h. sie zeigen eine zentrale Tendenz, die umso deutlicher wird, je größer der Stichprobenumfang ist. 3. Besitzen die ZG- en selbst eine NV, so ist die Verteilung der Mittelwerte stets (bei jedem Stichprobenumfang) eine NV!