Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Beispiele: Fragestellung: Schädlichkeit von Passivrauchen. Ist das Risiko für eine Erkältungserkrankung bei Passivrauchern höher als bei Nichtrauchern? 3 Gruppen von Testpersonen 1. Gruppe 2. Gruppe 3. Gruppe 40 Raucher 32 Passivraucher 44 Nichtraucher Häufigkeit von Erkältungserkrankungen während der letzten 12 Monate: In Gruppe 1: 24 In Gruppe 2: 20 In Gruppe 3: 16 24/40 = 60 % 20/32 = 63 % 16/32 = 36 % ⇒ Die Ergebnisse sind vom Zufall beeinflußt. Zufallsexperiment Beispiel: - Werfen eines Würfels Ziehen einer Spielkarte Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang, dessen Ausgang nicht im Voraus schon feststeht. - Entnahme eines Bauteils aus einer Produktion und Prüfung. Bestimmung der Lebensdauer eines Fernsehgerätes von bestimmten Typ. Die Ausgänge eines Zufallsexperiment heißen (elementare) Zufallsereignisse. Beispiel: - beim Würfelexperiment: Werfen einer 1 = Werfen einer 2 = … Werfen einer 6 = A B … C - beim Kartenexperiment: A1 = gezogene Karte ist ein Kreuz As A2 = gezogene Karte ist ein Herz König … … - beim Prüfexperiment: A = geprüftes Bauteil ist in Ordnung B = geprüftes Bauteil ist defekt Seite 1 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik - beim Lebensdauerexperiment: A = die Lebensdauer beträgt 3,5 Jahre B = die Lebensdauer beträgt 4,2 Jahre Verknüpfungsoperationen für Zufallsereignisse Beispiel: A = Werfen einer 6 B = Werfen einer 4 A ∪ B = Werfen einer 6 oder 4 Zusammengesetztes Zufallsereignis „Oder - Ereignis“ „Summen - Ereignis“ B ∪ A = Werfen einer 4 oder 6 Kommutativgesetz C = Werfen einer 2 (A ∪ B) ∪ C = Werfen einer 6 oder 4 oder 2 A ∪ (B ∪ C) = A ∪ B ∪ C Assoziativgesetz E = Werfen einer 6 oder 5 oder 4 oder 3 oder 2 oder 1: Sicheres Ereignis A = Werfen einer geraden Zahl B = Werfen einer durch 3 teilbaren Zahl A ∩ B = Werfen einer geraden und durch 3 teilbaren Zahl „Und-Ereignis“ „Produkt-Ereignis“ B ∩ A = Werfen einer durch 3 teilbaren Zahl und geraden Zahl Kommutativgesetz (A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C Assoziativgesetz A = Werfen einer geraden Zahl B = Werfen einer ungeraden Zahl ∅ = Werfen einer geraden und ungeraden Zahl unmögliches Ereignis Seite 2 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik A = Werfen einer geraden Zahl = Werfen einer ungeraden Zahl : Komplementäres Ereignis zu A A = Werfen einer geraden Zahl B = Werfen einer 4 B impliziert A B⊂A A⊃B (B hat A zur Folge) Implikation von Ereignissen A = Werfen einer 6 B = Werfen einer Zahl > 5 A ⊂ B und B ⊂ A Wechselseitige Implikation A=B A = Werfen einer ungeraden Zahl B = Werfen einer 6 __ A ∩ B = Werfen einer 2 oder 4 = A – B Differenzereignis Zusammenhang zwischen Zufallsereignissen und Mengen A∪B A-B E A∩B A B Wurfwand A = Punktmenge auf der Wurfwand Wenn der Pfeil in der Punktmenge A landet, dann ist Ereignis A eingetreten. Entsprechen für Punktmenge B. Seite 3 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik A⊂B A B Mengenbild der Ereignisse Rechenregeln für Zufallsereignisse A∪E=E A∪∅=A A∪A=A A∪ A∪B=B∪A (A ∪ B) ∪ C = A ∪ (B ∪ C) = A ∪ B ∪ C A∩E=A A∩∅=∅ A∩A=A A∩ ∅ A∩B=B∩A (A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) = A ∩ B ∪ A ∩ C A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) _ ______ A∪ ______ A∩ _ ∩B _ ∪B Algebra der Zufallsergebnisse Relative Häufigkeit von Zufallsereignissen Ein Zufallsexperiment wird n mal ausgeführt. z. B.: Ein Würfel wird 100 mal geworfen. z.B.: Bei den n Ausführungen tritt ein Ereignis A k mal ein. Bei den 100 Würfen, erscheint 20 mal eine sechs. h( A) = k 20 = = 20 % n 100 Relative Häufigkeit von A Seite 4 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Eigenschaften der relativen Häufigkeit: 0 h (E) = 1, h (∅) = 0 wenn A=B, dann h (A) = h(B) h (A ∪ B)= ? 1.Beispiel: A = Werfen einer Sechs B = Werfen einer Fünf Es wurde 100 mal gewürfelt, dabei ist 20 mal eine Sechs und 15 mal eine Fünf erschienen. 20 15 h (A) = = 20 % h (B) = = 15 % 100 100 20 + 15 h (A ∪ B) = = 35 % = h (A) + h (B) 100 2.Beispiel: A = Werfen einer geraden Zahl B = Werfen einer durch 3 teilbaren Zahl Es wurde 100 mal gewürfelt, dabei ist 54 mal eine gerade Zahl erschienen und 30 mal einen durch 3 teilbare Zahl. 54 30 h (A) = = 54 % h (B) = = 30 % 100 100 Die Sechs ist 20 mal erschienen 54 + 30 − 20 = 64 % h (A ∪ B) = 100 h (A ∪ B) = h (A) + h (B) – h (A ∩ B) Wahrscheinlichkeit eines Zufallsereignisses lim h ( A ) = P ( A ) n→ ∞ Wahrscheinlichkeit von A Beispiel: A = Werfen einer durch 3 teilbaren Zahl n Würfelergebnis k 1 2 3 4 5 6 7 8 9 10 … 5 1 6 2 3 4 4 6 1 5 … 0 0 1 1 2 2 2 3 3 3 … h (A) = k n 0/1 = 0 0/2 = 0 1/3 = 0,33 ¼ = 0,25 2/5 = 0,40 2/6 = 0,33 2/7 = 0,28 3/8 = 0,38 3/9 = 0,33 3/10 = 0,30 … Seite 5 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik h (A) 1,0 0,5 P (A) 0,1 1 2 3 4 5 6 7 8 9 10 1000 1001 ... n Eigenschaften der Wahrscheinlichkeit 0 P (E) = 1 P (∅) = 0 Wenn A = B, dann P (A) = P (B) Wenn A und B sich gegenseitig ausschließen, dann gilt P(A ∪ B) = P (A) + P (B) Für beliebige Ereignisse A und B gilt: P (A ∪ B) = P (A) + P (B) – P (A ∩ B) Axiome der Wahrscheinlichkeit Man kann die gesamte Wahrscheinlichkeitsrechnung aufbauen auf die Wahrscheinlichkeitsaxiome. Folgerungen aus den Axiomen: A∪ =E P (A ∪ ) = P (E) P (A) + P( ) = 1 P( ) = 1 – P (A) P (E) = 1 – P (E) P(∅) = 1 – 1 = 0 P (E) = 1 A∪B A-B A∩B A B Seite 6 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik (A-B) ∪ B = A ∪ B P((A-B) ∪ B) = P (A ∪ B) (A-B) ∪ (A ∩ B) = A P ((A-B) ∪ (A ∩ B) = P (A) P (A-B) + P (B) = P (A ∪ B) I P (A-B) + P (B) = P (A) II I-II : P (B) – P (A ∩ B) =P (A ∪ B) – P(A) P (A) + P (B) – P (A ∩ B) = P (A ∪ B) Zerlegung von sicheren Ereignissen H1 = Werfen einer 1 H2 = Werfen einer 2 … H6 = Werfen einer 6 H1 ∪ H2 ∪ ... ∪ H6 = E Hi ∪ Hj = ∅ für i ≠ j Die Ereignisse H1, H2, ..., H6 bilden eine Zerlegung vom sicheren Ereignis E. allgemein: Ein System von Ereignissen H1, H2, ..., Hm bilden eine Zerlegung vom sicheren Ereignis E, wenn gilt: H1 ∪ H2 ∪ ... ∪ Hm = E Hi ∩ Hj = ∅ für i ≠ j Folgerung: Für jede Zerlegung von E gilt: P (H1 ∪ H2 ∪ ... ∪ Hm ) = P (E) P (H1) + P(H2) + ... + P(Hm) = 1 Bei einem symmetrischen Würfel gilt: P (H1) = P (H2) = ... = P (H6) 1/6 1/6 1/6 Eine Zerlegung von E heißt symmetrisch, wenn gilt: P (H1) = P (H2) = ... = P (Hn) Folgerung: Für jede symmetrische Zerlegung von E gilt: 1 m 1 P (H2) = m … 1 P (Hm) = m P (H1) = Seite 7 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik A = Werfen einer durch 3 teibaren Zahl A = H3 ∪ H6 P (A)= P (H3 ∪ H6) = P(H3) + P(H6) = 2 1 = 6 3 B = Werfen einer geraden Zahl B = H2 ∪ H4 ∪ H6 P (B) = P (H2 ∪ H4 ∪ H6) = P(H2) + P (H4) + P(H6)= A= 3 1 = 6 2 ein Ereignis, welches zusammengesetzt ist aus g Ereignissen der symmetrischen Zerlegung. P (A) = g = m Anzahl der für A günstigen Fälle Anzahl der gleichmöglichen Fälle klassische Wahrscheinlichkeit Beispiel: - Ziehen einer Karte aus einem Kartenspiel von 32 Karten A = Die gezogene Karte ist ein Kreuz – Ass 1 P (A) = 32 B = Die gezogene Karte ist ein Ass 4 1 P (B) = = 32 8 - 12 Kugeln, davon 3 rot Es wird auf zufällige Weise 1 Kugel gezogen. Wie groß ist die Wahrscheinlichkeit, daß die gezogene Kugel rot ist ? A = Die gezogene Kugel ist rot 3 P (A) = 12 Werfen mit 2 symmetrischen Würfeln: A12 = gewürfelte Augenzahlsumme beträgt 12 → (1,1), (1,2), (1,3), (1,4), (1,5), (1,6) → (2,1), (2,2), (2,3), (2,4), (2,5), (2,6) → (3,1), (3,2), (3,3), (3,4), (3,5), (3,6) → (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) → (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) → (6,1), (6,2), (6,3), (6,4), (6,5), (6,6) ↑ ↑ ↑ ↑ ↑ ↑ 36 gleichmögliche Fälle 1 1 günstiger Fall ⇒ P (A12) = 36 Seite 8 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 2 , 36 5 P (A8) = , 36 4 P (A5) = , 36 1 P (A2) = 36 P (A11) = 3 , 36 6 P (A7) = , 36 3 P (A4) = , 36 P (A10) = 4 36 5 P (A6) = 36 2 P (A3) = 36 P (A9) = Beispiel: 1. Würfel hat 6 Flächen 2. Würfel hat 10 Flächen (1,1), (1,2), … (2,1), … … (6,1), … , (1,10) , (2,10) , (6,10) 6 x 10 = 60 gleichmäßige Fälle 1 P(A2) = 60 3 Würfel (symmetrisch) 1. Würfel hat 6 Flächen 2. Würfel hat 10 Flächen 3. Würfel hat 12 Flächen (1,1,1), (1,2,1), … , (6,10,12) 6 x 10 x 12 = 720 gleichmögliche Fälle r symmetrische Würfel der 1. Würfel hat n1 Flächen der 2. Würfel hat n2 Flächen der r. Würfel hat nr Flächen (a1, a2, … ,ar) mit r-Tupel 1 ≤ a1 ≤ n1 1 ≤ a2 ≤ n2 … 1 ≤ ar ≤ nr n1 x n2 x … x nr - gleichmögliche Fälle Für die Beziehung der 1. Position des r-Tupels n1 Möglichkeiten Für die Beziehung der 2. Position des r-Tupels n2 Möglichkeiten … Für die Beziehung der 3. Position des r-Tupels nr Möglichkeiten Seite 9 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik n1 ⋅ n2 ⋅ ⋅ nr gleichmöglicher Fälle Fundamentalprinzip der Kombinatorik Spezialfall: n1 = n2 = = nr = n ⇒ n r gleichmöglicher Fälle (a1, a2, … ,ar) mit 1 ≤ ai ≤ n für i = 1,2, ,r z.B.: 63 = 216 Die r-Tupel heißen geordnete Proben vom Umfang r aus einer Menge von nElementen. (mit Wiederholung) Anzahl beträgt 63 Andere Bezeichnungsweise: Man nennt auch die r-Tupel Variationen r-ter Ordnung mit Wiederholungen. geordnete Proben vom Umfang r aus einer Menge von n-Elementen. (ohnen Wiederholung) (a1, a2, … ,ar) mit 1 ≤ ai ≤ n für i = 1,2, ,r alle ai verschieden Anzahl: n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1) Variationen r-ter Ordnung ohne Wiederholungen Spezialfall: n=r z.B.: n = 3, r = 3 (1,2,3) (1,3,2) (2,3,1) (2,1,3) (3,1,2) (3,2,1) Permutationen anhand der Formel: 3 ⋅ 2 ⋅1 = 6 Anzahl der Permutationen von n verschiedenen Elementen beträgt: n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅1 = n! (Fakultät) Geordnete Probe mit Wiederholung: nr Geordnete Probe mit Wiederholung: n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1)(n − r )(n − r − 1) 1 n! n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − r + 1) = = (n − r )(n − r − 1) 1 (n − r )! Permutation von n verschiedenen Elementen: n! Seite 10 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Ungeordnete Proben vom Umfang r aus einer Menge von n Elementen ohne Wiederholung z.B.: n = 6, r = 3 1. {1,2,3} 2. {1,2,4} … X. {4,5,6} ={1,3,2}={2,3,1}={2,1,3}={3,1,2}={3,2,1} ={1,4,2}={2,4,1}={2,1,4}={4,1,2}={4,2,1} … ={…}={…}=… Kombinationen r-ter Ordnung ohne Wiederholung 6⋅5⋅4 = x⋅6 x = 20 n ⋅ (n − 1) ⋅ allgemein: ⋅ (n − r + 1) = x ⋅ r! n ⋅ (n − 1) ⋅ x= ⋅ (n − r + 1) n = r! r Anzahl der ungeordneten Proben ohne Wiederholung: Anzahl der ungeordneten Proben mit Wiederholung: Binominalkoeffizient (n über r) n r n + r − 1 r Anzahl der Permutationen von n Elementen, die nicht alle verschieden sind (Permutationen mit Wiederholungen): n Kugeln davon n1 von Sorte 1 n2 von Sorte 2 … ns von Sorte s n! n1!⋅n2! ns! Lostrommel mit 6 Losen Die Lose tragen die Nummern 1 bis 6 Es werden 3 Lose gezogen und die Nummern von links nach rechts aufgeschrieben. z.B.: 4 1 5 Gewinn, wenn 1 2 3 entsteht G = Gewinn P (G) = ? gleichmögliche Fälle = geordnete Proben vom Umfang 3 aus einer Menge von 6 Elementen ohne Wiederholung. Anzahl = n(n − 1) (n − r + 1) = 6 ⋅ 5 ⋅ 4 = 120 1 günstiger Fall 1 P (G) = 120 6 Lose wie vorher. Seite 11 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 3 Lose nacheinander entnehmen. Nummern von links nach rechts aufschreiben. Nachdem die Nummer aufgeschrieben ist, wird das Los zurückgelegt z.B.: 2 6 1, 5 1 5, 1 2 3 Gewinn wenn 1 2 3 entsteht gleichmögliche Fälle: geordnete Proben mit Wiederholung Anzahl der geordneten Proben mit Wiederholungen: nr = 63 = 216 1 günstiger Fall 1 P (G) = 216 3 Lose ziehen ohne zurücklegen: Gewinn, wenn 1,2,3 gezogen wird in beliebiger Reihenfolge 2 Berechnungsmöglichkeiten: a) gleichmögliche Fälle: geordnete Proben ohne Wiederholen Anzahl = 6 ⋅ 5 ⋅ 4 = 120 Günstige Fälle: Permutation der 3 Elemente 1, 2, 3 Anzahl günstiger Fälle: 3! = 6 3! 1 P (G) = = 6 ⋅ 5 ⋅ 4 20 1 b) 6 3 gleichmögliche Fälle: ungeordnete Proben ohne Wiederholung: {1,2,3}, {1,2,4}, …, {4,5,6} 6 Anzahl = 20 3 1 1 günstiger Fall → P (G) = 20 Losentnahme mit zurücklegen Gewinn, wenn 1, 2, 3 gezogen wird in beliebiger Reihenfolge gleichmögliche Fälle: ungeordnete Proben mit Wiederholung Anzahl: nr = 63 = 216 3! = 6 Günstige Fälle 3! 6 1 P (G) = 3 = = 6 216 36 Zum Vergleich: Anzahl der ungeordneten Proben mit Wiederholung: n + r − 1 6 + 3 − 1 8 8 ⋅ 7 ⋅ 6 = = = = 56 3! r 3 3 Seite 12 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 3 Würfel: a) die Würfel sind unterscheidbar Wahrscheinlichkeit für eine Augensumme von 3 gleichmögliche Fälle: geordnete Proben mit Wiederholung Anzahl: 63 = 216 1 1 günstiger Fall → P (A) = 216 b) die Würfel sind ununterscheidbar gleichmögliche Fälle: ungeordnete Proben ohne Wiederholung n + r − 1 6 + 3 − 1 8 = = 56 = Anzahl: r 3 3 1 günstiger Fall 1 P (A) = 56 Beispiele: - 9 Kugeln, davon 2 rote, 3 grüne und 4 blaue. Es werden nacheinander alle Kugeln gezogen. Wie groß ist die Wahrscheinlichkeit, daß zuerst die 3 roten, dann die 3 grünen und dann die 4 blauen Kugeln gezogen werden? gleichmögliche Fälle = Permutation der 9 Kugeln a) Anzahl der Permutationen = n!= 9!= 362880 Anzahl der günstigen Fälle 2!⋅3!⋅4! 2!⋅3!⋅4! 2 ⋅ 6 ⋅ 24 1 P( A) = = = 9! 362880 1260 b) Anzahl der Permutationen 1 günstiger Fall - 9! = 1260 2!⋅3!⋅4! 1 P( A) = 1260 Wahrscheinlichkeit für 6 richtige beim Lotto: gleichmögliche Fälle = ungeordnete Proben ohne Wiederholung 49 Anzahl = = 13983816 6 1 günstiger Fall 1 1 = ≈ 7 ⋅ 10 −8 49 13983816 6 Wahrscheinlichkeit für 5 richtige mit Zusatzzahl: 49 gleichmögliche Fälle = = 13983816 6 günstige Fälle: R1, R2, R3, R4, R5, Z R1, R2, R3, R4, Z, R6 … Z, R2, R3, R4, R5, R6 P( A) = - Seite 13 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 6 günstige Fälle - P( A) = 6 49 6 2 Felder ausfüllen ( doppelter Einsatz) Wahrscheinlichkeit für 6 Richtige: A = 6 Richtige A1 = 6 Richtige im 1. Feld A2 = 6 Richtige im 2. Feld 1 1 P( A1 ) = = 7 ⋅ 10 −8 P( A2 ) = = 7 ⋅ 10−8 49 49 6 6 P( A) = A1 ∪ A2 P( A) = P( A1 ∪ A2 ) = P( A1 ) + P( A2 ) − P( A1 ∩ A2 ) Verschiedene Vorgehensweise beim Ausfüllen der Felder 1) Beim Ausfüllen des 2. Feldes wird darauf geachtet, daß mindestens eine Zahl verschieden ist von denen des 1. Feldes → P( A1 ∩ A2 ) = 0 → P( A) = 14 ⋅ 10−8 2) Beim 2. Feld werden absichtlich die gleichen Zahlen verwendet wie im 1. Feld → P ( A1 ∩ A2 ) = 7 ⋅ 10 −8 → P ( A) = 14 ⋅ 10−8 − 7 ⋅ 10 −8 = 7 ⋅ 10− 8 3) Die beiden Felder werden unabhängig voneinander ausgefüllt → P ( A1 ∩ A2 ) = P ( A1 ) ⋅ P ( A2 ) = 7 ⋅ 10−8 ⋅ 7 ⋅ 10−8 = 49 ⋅ 10 −16 → P ( A) = 14 ⋅ 10 −8 − 49 ⋅ 10 −16 ≈ 14 ⋅ 10− 8 - 32 Karten. Es werden 5 Karten gezogen. Wie groß ist die Wahrscheinlichkeit, daß (genau) 2 Asse gezogen werden: gleichmögliche Fälle = ungeordnete Proben ohne Wiederholung. 32 Anzahl = = 201376 5 günstige Fälle: 2 Asse, 3 Nichtasse Kreuz As, Herz As, Kreuz As, Pik As, Kreuz As, Karo As, Herz As, Pik As, Herz As, Karo As, Pik As, Karo As, 4 = 6 2 Karo zehn, Pik Dame, Herz Neun … … … … … 28 = 3276 3 Seite 14 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 6 ⋅ 3276 günstige Fälle 6 ⋅ 3276 P( A) = = 9,8% 201376 4 28 ⋅ 2 3 = 32 5 - N Kugeln, davon r rot und N - r schwarz. Es werden n Kugeln gezogen (ohne Zurücklegen). Wahrscheinlichkeit, daß k rote Kugeln gezogen werden. Ak = Es werden k rote Kugeln gezogen r N − r ⋅ k n − k P( Ak ) = N n hypergeometrische Wahrscheinlichkeit - Wahrscheinlichkeit für k richtige im Lotto ( k = 6, 5, 4, …,0) 6 43 ⋅ k 6 − k P( Ak ) = 49 6 6 43 ⋅ 6 0 1 P( A6 ) = = 49 49 6 6 6 43 ⋅ 5 1 6 ⋅ 43 258 P( A5 ) = = = 49 49 49 6 6 6 6 43 ⋅ 4 2 P( A4 ) = = 9,7 ⋅ 10− 4 49 6 P( A3 ) = 1,8% Seite 15 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( A2 ) = 13,2% P( A1 ) = 41,3% P( A0 ) = 43,6% - 100 Bauteile in einer Schachtel, davon sind 6 defekt. Es werden 10 Bauteile entnommen und in ein Gerät eingebaut. Wie groß ist die Wahrscheinlichkeit, daß das Gerät dann 2 defekte Bauteile enthält? P (D2) = ? N = 100 r=6 N – r = 94 n = 10 k=2 6 94 ⋅ 2 8 P(D2 ) = = 9,65% 100 10 6 94 ⋅ 1 9 P(D1 ) = = 36,9% 100 10 - Wie groß ist die Wahrscheinlichkeit, daß das Gerät keine defekten Bauteile enthält? 6 94 ⋅ 0 10 P(D0 ) = = 52,2% 100 10 - Wie groß ist die Wahrscheinlichkeit, daß mindestens ein defektes Bauteile eingebaut worden ist? P D0 = 1 − P (D0 ) = 47,8% ( ) andere Berechnungsmöglichkeit: P(D1 ∩ D2 ∩ D3 ∩ D4 ∩ D5 ∩ D6 ) = P(D1 ) + P(D2 ) + - + P(D6 ) = 36,9% + 9,65% + Lieferung von 12 Elektrogeräten. Davon sind 3 Geräte defekt. Es werden 2 Geräte entnommen: a) Wie groß ist die Wahrscheinlichkeit, daß beide entnommenen Geräte einwandfrei sind? Seite 16 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik C = beide entnommenen Geräte sind einwandfrei. 3 9 ⋅ 0 2 9 ⋅ 8 ⋅ 2! P(C ) = = 12 2!⋅12 ⋅ 11 2 b) Wie groß ist die Wahrscheinlichkeit, daß das 1. entnommene Gerät einwandfrei ist? A = das 1. entnommene Gerät ist einwandfrei. 9 P( A) = 12 c) Wie groß ist die Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist? B = das 2. entnommene Gerät ist einwandfrei. P (B) = ? 8 = Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist, wenn das 1. Gerät 11 einwandfrei war. 9 = Wahrscheinlichkeit, daß das 2. entnommene Gerät einwandfrei ist, wenn das 1. Gerät 11 defekt war = P (B|A). bedingte Wahrscheinlichkeit C=A∩B P(C) =P (A ∩ B) 9⋅8 9 8 = ⋅ ⇒ P( A ∩ B) = P( A) ⋅ P( B | A) 12 ⋅ 11 12 11 - Multiplikationssatz 12 Geräte wie vorher. Es werden 2 Geräte entnommen. Wie groß ist die Wahrscheinlichkeit, daß das 1 gerät in Ordnung ist und das 2. Gerät defekt ist? A = das 1. entnommene Gerät ist in Ordnung. B = das 2. entnommene Gerät ist defekt. P(A ∩ B) = ? 9 3 9 P(A ∩ B) = P(A) ⋅ P(B|A)= ⋅ = 12 11 44 Multiplikationssatz für 3 bzw. n Ereignisse P(A1 ∩ A2 ∩ A3) = ? A ∩ B Seite 17 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P(A ∩ B) = P(A)⋅P(B|A) = P(A1 ∩ A2) ⋅ P(A3| A1 ∩ A2) = P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2) - 12 Geräte wie vorher. Es werden 3 Geräte entnommen. Wie groß ist die Wahrscheinlichkeit, daß das 1. Entnommene Gerät in Ordnung ist und das 2. Entnommene Gerät defekt und das 3. Entnommene Gerät wieder in Ordnung ? A1 = das 1. entnommene Gerät ist in Ordnung. A2 = das 2. entnommene Gerät ist defekt. A3 = das 3. entnommene Gerät ist in Ordnung. P (A1∩A2∩A3) = P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2) 9 3 8 = ⋅ ⋅ 12 11 10 P (A1 ∩ A2 ∩ A2 ∩ … ∩ An) = P (A1) ⋅ P(A2| A1) ⋅ P(A3| A1 ∩ A2) ⋅ … ⋅ P(An| A1 ∩ A2 ∩ … ∩ An-1) Multiplikationssatz für n Ereignisse P( B | A) = P( A ∩ B) P( A) Spezialfall: vorausgesetzt P(A) > 0 Statt A das sichere Ereignis E eingesetzen P( E ∩ B) P( B | E ) = = P( E ∩ B) = P( B) P( E ) Es gibt Ereignisse A und B für welche gilt: P (B | A) = P (B) Bsp.: Werfen mit 2 Würfeln A = auf 1. Würfel erscheint eine 6 B = auf 2. Würfel erscheint eine 1 P (B | A) = 1 6 P (B) = 1 6 Die Gleichheit liegt vor, wenn A und B zwei Ereignisse sind, die sich nicht gegenseitig beeinflussen, dann P (B | A) = P (B) P (A | B) = P (A) Solche Ereignisse heißen Unabhängig. Für beliebige Ereignisse gilt: P (B ∩ A) = P (A) ⋅ P(A | B) Für unabhängige Ereignisse: P (B ∩ A) = P (A) ⋅ P (B) Seite 18 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Unabhängigkeit von 3 bzw. n Ereignissen A, B, C P (A ∩ B) = P (A) ⋅ P (B) paarweise P (A ∩ C) = P (A) ⋅ P (C) Unabhängig P (B ∩ C) = P (B) ⋅ P (C) P (A ∩ B ∩ C) = P (A) ⋅ P (B) ⋅ P (C) Beispiel für 3 Ereignisse, die zwar paarweise Unabhängig sind, aber nicht unabhängig (insgesamt). A = auf 1. Würfel erscheint eine gerade Zahl B = auf 2. Würfel erscheint eine ungerade Zahl C = Beide Zahlen haben die gleiche Parität (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6) (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6) (3, 1), … (3, 6) (4, 1), … (4, 6) (5, 1), … (5, 6) (6, 1), … (6, 6) P( A) = 18 1 = 36 2 P( A ∩ B) = → 9 1 = 36 4 P( B) = 18 1 = 36 2 P( A ∩ C ) = 9 1 = 36 4 P(C ) = 18 1 = 36 2 P( B ∩ C ) = 9 1 = 36 4 Diese 3 Ereignisse sind paarweise unabhängig P (A ∩ B) = P (A) ⋅ P (B) P (A ∩ C) = P (A) ⋅ P (C) P (B ∩ C) = P (B) ⋅ P (C) P (A ∩ B ∩ C) = 0 1 1 1 1 ⋅ ⋅ = 2 2 2 8 P (A ∩ B ∩ C) ≠ P (A) ⋅ P (B) ⋅ P (C) P (A) ⋅ P (B) ⋅ P (C) = Diese 3 Ereignisse sind nicht unabhängig 4 unabhängige Ereignisse: P (A1 ∩ A2) = P (A1) ⋅ P (A2) P (A1 ∩ A3) = P (A1) ⋅ P (A3) P (A1 ∩ A4) = P (A1) ⋅ P (A4) P (A2 ∩ A3) = P (A2) ⋅ P (A3) P (A2 ∩ A4) = P (A2) ⋅ P (A4) P (A3 ∩ A4) = P (A3) ⋅ P (A4) paarweise unabhängig Seite 19 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P (A1 ∩ A2 ∩ A3) = P (A1) ⋅ P (A2) ⋅ P (A3) P (A1 ∩ A2 ∩ A4) = P (A1) ⋅ P (A2) ⋅ P (A4) P (A1 ∩ A3 ∩ A4) = P (A1) ⋅ P (A3) ⋅ P (A4) P (A2 ∩ A3 ∩ A4) = P (A2) ⋅ P (A3) ⋅ P (A4) 4 = 4 3 P (A1 ∩ A2 ∩ A3 ∩ A4) = P (A1) ⋅ P (A2) ⋅ P (A3) ⋅ P (A4) 4 = 1 4 Anzahl der Gleichungen bei n unabhängigen Ereignissen: n n n n + + + + 0 1 2 3 n n n + − − n 1 0 -n 2n -1 Folgerung: Die Anzahl der Gleichungen bei n unabhängigen Ereignissen beträgt: 2n - n –1 z.B. für n=2 n=3 n=4 n=5 1 Gleichung 4 Gleichungen 11 Gleichungen 26 Gleichungen Formel der totalen Wahrscheinlichkeit Bsp.: Kugeln in 5 Urnen 2 Urnen enthalten jeweils 2 weiße und 1 schwarze Kugel 1 Urne enthält 10 schwarze Kugeln 2 Urnen enthalten jeweils 3 weiße und 1 schwarze Kugel Auf zufällige weise wird eine Urne ausgewählt und daraus eine Kugel gezogen. Wie groß ist die Wahrscheinlichkeit, daß die gezogene Kugel weiß ist ? Herleitung der Formel der totalen Wahrscheinlichkeit: d.h.: H1, H2, … , Hm sei eine Zerlegung vom sicheren Ereignis. H1 ∪ H2 ∪ … ∪ Hm = E Hi ∩ Hj = ∅ für i ≠ j B sei ein beliebiges Ereignis B=B∩E P (B) = P (B ∩ E) Seite 20 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik = P ( B ∩ ( H1 ∪ H 2 ∪ ∪ H m )) = P(( B ∩ H1 ) ∪ ( B ∩ H 2 ) ∪ ∪ ( B ∩ H m )) = P ( B ∩ H1 ) + P ( B ∩ H 2 ) + + P( B ∩ H m ) m = ∑ P( B ∩ H j ) j =1 m P( B) = ∑ P( H j ) ⋅ P( B | H j ) j =1 Formel der totalen Wahrscheinlichkeit B = die gezogene Kugel ist weiß H1 = die ausgewählte Urne hat den Inhalt 2 weiße, 1 schwarze Kugel H2 = die ausgewählte Urne hat den Inhalt 10 schwarze Kugeln H3 = die ausgewählte Urne hat den Inhalt 3 weiße, 1 schwarze Kugel H1, H2, H3 bilden eine Zerlegung von E H1 ∪ H2 ∪ H3 = E Hi ∩ Hj = ∅ für i ≠ j ⇒ die Formel der totalen Wahrscheinlichkeit ist anwendbar m=3 P (H1) = 2 5 P (B | H1) = P (H2) = 2 3 1 5 P (H3) = P (B | H2) = 0 2 5 P (B | H3) = 3 4 P (B) = P (H1) ⋅ P (B | H1) + P (H2) ⋅ P (B | H2) + P (H3) ⋅ P (B | H3) 2 2 1 2 3 4 3 8 + 9 17 = ⋅ + ⋅0+ ⋅ = + = = 5 3 5 5 4 15 10 30 30 Baumdiagramm für die Formel der totalen Wahrscheinlichkeit 2 2 1 5 5 5 H1 B H2 2 1 3 3 _ B 0 B H3 1 _ B B Auswahl einer Urne 3 1 4 4 _ B Ziehung einer Kugel Seite 21 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( B) = - 2 2 2 3 17 ⋅ + 1⋅ 0 + ⋅ = 5 3 5 4 30 12 Geräte, davon 3 defekt Es werden nacheinander 2 Geräte entnommen. Frage: Wie groß ist die Wahrscheinlichkeit, daß das 2. entnommene Gerät in Ordnung ist? B = das 2. Gerät ist in Ordnung. P (B) = ? H1 = das 1. entnommene Gerät ist in Ordnung H2 = das 2. entnommene Gerät ist defekt 9 3 P ( H1 ) = P( H 2 ) = 12 12 8 9 P ( B | H1 ) = P( B | H 2 ) = 11 11 9 3 12 12 H1 H2 Entnahme des 1. Gerätes 8 3 9 2 11 11 11 11 _ B B P( B) = _ B B Entnahme des 2. Gerätes 9 8 3 9 9 8 3 9 ⋅ + ⋅ = ⋅ + = 11 11 12 11 12 11 12 12 9 3 12 12 H1 H2 8 3 9 2 11 11 11 11 _ B B B Entnahme des 1. Gerätes _ B B Entnahme des 2. Gerätes 7 3 8 2 8 2 9 1 10 10 10 10 10 10 10 10 _ B B _ B B _ B B _ B Entnahme des 3. Gerätes Seite 22 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9 8 7 9 3 8 3 9 8 3 2 9 ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ 12 11 10 12 11 10 12 11 10 12 11 10 9 8 7 3 8 3 8 3 2 = ⋅ ⋅ + ⋅ + ⋅ + ⋅ 12 11 10 11 10 11 10 11 10 P (B) = = 9 8 7 3 3 8 2 ⋅ ⋅ + + ⋅ + 12 11 10 10 11 10 10 9 8 3 ⋅ + 12 11 11 9 = 12 = - Das Zufallsexperiment mit den 5 Urnen wird ausgeführt Es wurde eine weiße Kugel gezogen Wie groß ist die Wahrscheinlichkeit, daß sie aus einer Urne stammt mit 2 weißen und 1 schwarzen Kugel? P ( H1 | B ) = ? 2 2 ⋅ P (H1 ∩ B ) P (H1 ) ⋅ P (B | H1 ) 5 3 8 P ( H1 | B ) = = = = 17 P( B) P( B ) 17 30 entsprechend P( H 3 | B) 2 3 ⋅ P (H 3 ∩ B ) P (H 3 ) ⋅ P (B | H 3 ) 5 4 9 P( H 3 | B) = = = = 17 P( B) P( B) 17 30 1 P( H 2 ⋅0 P ( H 2 ∩ B ) P( H 2 ) ⋅ P ( B | H 2 ) 5 | B) = = = =0 P( H i | B) = i =1, 2 , 3 P( H i | B) = i =1, 2 , 3 P( B) P( B) 17 30 P (H i ) ⋅ P (B | H i ) P ( B) P (H i ) ⋅ P (B | H i ) m=3 ∑ P( H j =1 j ) ⋅ P( B | H j ) Bayes’sche Formel Seite 23 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P ( H1 ) = 2 5 P( H 2 ) = P ( H 1 | B) = 8 17 1 5 P( H 3 ) = P( H 2 | B) = 0 2 5 P( H 3 | B) = apriori Wahrscheinlichkeiten 9 17 aposteriori Wahrscheinlichkeiten Die Bayes’sche Formel wird verwendet zur Berechnung der aposteriori Wahrscheinlichkeiten. - Es liegen 2 Warenpartien vor: Die eine ist einwandfrei, die andere enthält 25% defekte Stücke. Es wird eine Warenpartie ausgewählt per Zufallsauswahl. H1 = die gewählte Warenpartie ist die gute H2 = die gewählte Warenpartie ist die schlechte P ( H1 ) = 1 = 50% 2 P( H 2 ) = 1 = 50% 2 apriori - Wahrscheinlichkeiten Aus der gewählten Warenpartie wird ein Stück entnommen und geprüft. B = Das geprüfte Stück ist in Ordnung. Wie groß ist jetzt die Wahrscheinlichkeit, daß die gewählte Warenpartie die gute ist (bzw. die schlechte)? P ( H1 | B ) = ? P( H1 | B) = bzw. P( H 2 | B) = ? P( H1 ) ⋅ P( B | H1 ) 2 ∑ P( H j =1 j ) ⋅ P( B | H j ) = aposteriori Wahrscheinlichkeiten P ( H1 ) ⋅ P ( B | H1 ) P ( H1 ) ⋅ P ( B | H1 ) + P ( H 2 ) ⋅ P ( B | H 2 ) 1 1 ⋅ P ( B | H1 ) ⋅1 4 4 2 2 = = = = = 57,1% 1 1 1 1 3 4+3 7 ⋅ P ( B | H1 ) + ⋅ P ( B | H 2 ) ⋅1 + ⋅ 2 2 2 2 4 P(H2|B)=42,9% Es soll ein 2. Stück entnommen werden. Das 1. geprüfte Stück wird in seine Warenpartie zurückgelegt und aus der gleichen Warenpartie wird ein 2. Stück entnommen. B2 = auch das 2. geprüfte Stück ist in Ordnung Wie groß ist die Wahrscheinlichkeit, daß es sich bei dieser Warenpartie um die gute bzw. schlechte handelt ? 4 ⋅1 P( H1 ) ⋅ P( B2 | H1 ) 7 P( H1 | B2 ) = = = 64% P( H1 ) ⋅ P( B2 | H1 ) + P( H 2 ) ⋅ P( B2 | H 2 ) 4 ⋅ 1 + 3 ⋅ 3 7 7 4 Seite 24 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( H 2 | B2 ) = 36% Auch das 2. geprüfte Stück wird in seine Warenpartie zurückgelegt und daraus ein 3. Stück entnommen. B3 = auch das 3. geprüfte Stück ist in Ordnung 64% ⋅ 1 P( H1 | B3 ) = = 70,3% 3 64% ⋅1 + 36% ⋅ 4 P( H 2 | B3 ) = 29,7% Anzahl der geprüften Stücke Wahrscheinlichkeit für gute Warenpartie 0 1 2 3 … 15 16 50 % 57,1 % 64 % 70,3 % … 98,68 % 99,01 % Wahrscheinlichkeit für schlechte Warenpartie 50 % 42,9 % 36 % 29,7 % … 1,32 % 0,99 % Gesamtheit von N Objekten, davon hat eine Unbekannte Anzahl ein Merkmal. H0 = in der Gesamtheit haben 0 Objekte das Merkmal H1 = in der Gesamtheit hat 1 Objekte das Merkmal … HN = in der Gesamtheit haben N Objekte das Merkmal P(Hi) = 1 N +1 ariori Wahrscheinlichkeiten Es wird eine Stichprobe von n Objekten entnommen (ohne Zurücklegen). B = in der Stichprobe haben k Objekte das Merkmal Wie groß ist die Wahrscheinlichkeit, daß in der Gesamtheit i Objekte mit Merkmal vorhanden waren (i = 0, 1, … ,N) ? P (Hi|B) = ? Zahlenbeispiel: aposteriori Wahrscheinlichkeiten N = 100, n = 10, k = 6 P (H0|B) = 0, P (H1|B) = 0, … , P (H5|B) = 0 k-1 P (H100|B) = 0,P (H99|B) = 0, … N N-1 , P (H97|B) = 0 N-(n-k)+1 Seite 25 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( H i | B) = i = 6 ,7 ,...,96 k , k +1,..., N − ( n − k ) P( H i ) ⋅ P( B | H i ) N − (n− k ) ∑ P( H j =k j ) ⋅ P( B | H j ) Es wird noch benötigt P (B|Hi) P (B|Hi) = Wahrscheinlichkeit, daß in der Stichprobe k Objekte mit Merkmal gefunden werden, wenn in der Gesamtheit i Objekte das Merkmal hatten. i N − i ⋅ k n − k hypergeometrische Formel = N n Hypergeometrische Formel einsetzen in die Bayes’sche Formel: i N − i ⋅ k n − k P( H i | B) = N − ( n − k ) j N − j i = k , k +1,..., N − ( n − k ) ⋅ ∑ j =k k n − k im Zahlenbeispiel: i 100 − i i 100 − i ⋅ ⋅ 6 4 6 4 = P( H i | B) = 96 1,589 ⋅ 1014 j 100 − j ⋅ ∑ 4 j =6 6 94 1 ⋅ 6 4 = 3,04 ⋅ 10 = 1,919 ⋅ 10 −8 P( H 6 | B) = 1,589 ⋅ 1014 1,589 ⋅ 1014 P( H 7 | B) = 1,286 ⋅ 10 −7 P( H 8 | B) = 4,922 ⋅ 10−7 … P( H 59 | B) = 2,87 ⋅ 10−2 = 2,87% P ( H 60 | B ) = 2,88% P ( H 61 | B ) = 2,87% … Seite 26 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( H 96 | B) = 5,83 ⋅ 10−6 P (H33|B) + P (H34|B) + … + P (H83|B) = 95,47 % [33, 83] zum Vergleich: [49, 71] 95 % Konfidenzintervall für die unbekannte Anzahl an Merkmalsträgern in der Gesamtheit. N = 100, n = 40, k = 24 95 % Konfidenzintervall für die unbekannte Anzahl an Merkmalsträgern in der Gesamtheit. N = 100, n = 10, k = 6 [33% , 83%] 95 % Konfidenzintervall für den relativen Anteil an Merkmalsträgern in der Gesamtheit. N = 1000, n = 10, k = 6 ≈ [33% , 83%] 95 % Konfidenzintervall für den relativen Anteil an Merkmalsträgern in der Gesamtheit. Näherungsformel für die Berechnung des Konfidenzintervalls a) für den relativen Anteil an Merkmalsträgern in der Gesamtheit k +1 1 (k + 1) ⋅ (n − k + 1) k + 1 1 (k + 1) ⋅ (n − k + 1) , −C⋅ ⋅ +C⋅ ⋅ n+2 n+3 n+2 n+2 n+3 n + 2 C = 1,960 für 95 % Konfidenzintervalle C = 2,576 für 99 % Konfidenzintervalle b) für die unbekannte Anzahl an Merkmalsträgern in der Gesamtheit k +1 1 (k + 1) ⋅ (n − k + 1) k + 1 1 (k + 1) ⋅ (n − k + 1) −C⋅ ⋅ , +C⋅ ⋅ ⋅N n+2 n+3 n+2 n+2 n+3 n + 2 Voraussetzung: 1) n ≤ 1 ⋅N 10 N ≥ 10 ⋅ n für k ≤ n 2 Seite 27 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 2) k +1 ⋅ (n + 3) ≈> 9 n − k +1 n − k +1 ⋅ (n + 3) ≈> 9 k +1 für k > Bsp.: k=6 N = 100 n = 10 95 % Konfidenzintervall: Voraussetzung prüfen: n≤ n 2 1 N 10 n − k +1 ⋅ (n + 3) ≈> 9 k +1 6 +1 1 (6 + 1) ⋅ (10 − 6 + 1) 6 + 1 1 (6 + 1) ⋅ (10 − 6 + 1) , − 1,96 ⋅ ⋅ + 1,96 ⋅ ⋅ = 10 2 10 2 10 3 10 2 + + 10 2 10 3 + + + + 7 1,96 7 ⋅ 5 7 1,96 7 ⋅ 5 ⋅ , + ⋅ − = 12 12 13 12 12 13 [32 % , 85 %] mit exakter Formel: [33 % , 83 %] Vereinfachung der Näherungsformel, falls n > 500: k C k ⋅ (n − k ) k C k ⋅ (n − k ) , + ⋅ − ⋅ = n n n n n n k C k ⋅ (n − k ) k C k ⋅ (n − k ) ⋅ , + ⋅ − = n n ⋅ n n n ⋅ n n n k C k k k C k k ⋅ ⋅ 1 − , + ⋅ ⋅ 1 − − n n n n n n n n Vergleich: 1) n = 1000, k = 600 k 600 = = 60% n 1000 Seite 28 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik C = 1,960 1,960 1,960 0,60 − 1000 ⋅ 0,60 ⋅ 0,40 ,0,60 + 1000 ⋅ 0,60 ⋅ 0,40 [0,60 − 0,03,0,60 + 0,03] 95 % - Konfidenzintervall für den relativen Anteil [57%,63%] an Merkmalsträgern in der Geamtheit 2) n = 4000, k = 2400 k 2400 = = 60% n 4000 C = 1,960 1,960 1,960 0,60 − 4000 ⋅ 0,60 ⋅ 0,40 ,0,60 + 4000 ⋅ 0,60 ⋅ 0,40 [0,60 − 0,015,0,60 + 0,015] 95 % - Konfidenzintervall für den relativen Anteil [58,5%,61,5%] an Merkmalsträgern in der Geamtheit Folgerung: Die Intervallänge halbiert sich bei Vervierfachung des Stichprobenumfangs n. Zuverlässigkeit von technischen Geräten Die Zuverlässigkeit eines Gerätes ist definiert als Wahrscheinlichkeit, daß das Gerät intakt ist. Typische Fragestellung: Wie kann die Zuverlässigkeit eines Systems berechnet werden aus der Zuverlässigkeit der Komponenten? Arten von Systemen: I) II) z.B.: Systeme ohne Redundanz Bei einem System ohne Redundanz müssen alle Komponenten funktionieren, damit das System funktioniert. Systeme mit Redundanz Bei einem System mit Redundanz müssen nicht alle Komponenten funktionieren, damit das System funktioniert. Flugzeug hat 3 Triebwerke Es müssen nicht alle Funktionieren, damit das Flugzeug flugfähig bleibt. Seite 29 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Zuverlässigkeit eines Systems ohne Redundanz K1 K2 Kn Zuverlässigkeitsschaltbild eines Seriensystems Zuverlässigkeit von Komponente K1 ist Zuverlässigkeit von Komponente K2 ist … Zuverlässigkeit von Komponente Kn ist Zuverlässigkeit des Seriensystems ist p1 = P (K1 intakt) p2 = P (K2 intakt) pn = P (Kn intakt) pSerie = P (Seriensystem intakt) PSerie = P (K1 intakt ∩ K2 intakt ∩ … ∩ Kn intakt) Voraussetzung: Die Komponenten sind unabhängig voneinander intakt, bzw. defekt ⇒ pSerie = P (K1 intakt) ⋅ P(K2 intakt) ⋅ … ⋅ P(Kn intakt) pSerie = p1 ⋅ p2 ⋅ … ⋅ pn Bsp.: Ein System ohne Redundanz besteht aus 200 unabhängigen Komponenten. Jede Komponente hat eine Zuverlässigkeit von 99,9 % ⇒ PSerie = 0,999 ⋅ 0,999 ⋅ … ⋅ 0,999 = 0,999200 = 0,819 = 81,9 % Systeme mit Redundanz Systeme aus n Komponenten, wovon mindestens eine Funktionieren muß. K1 K2 Parallelsystem Kn pparallel = P (Parallelsystem intakt) = P (K1 intakt ∪ K2 intakt ∪ … ∪ Kn intakt) 1- pparallel = P (Parallelsystem defekt) = P (K1 defekt ∩ K2 defekt ∩ … ∩ Kn defekt) = P (K1 defekt) ⋅ P (K2 defekt) ⋅ … ⋅ P (Kn defekt) = (1 – p1) ⋅ (1 – p2) ⋅ … ⋅ (1 – pn) ⇒ pparallel = 1- (1 – p1) ⋅ (1 – p2) ⋅ … ⋅ (1 – pn) Seite 30 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Beispiele: - Ein System besteht aus 6 Komponenten K1, K2 und K3 müssen intakt sein. Von den restlichen genügt es, wenn entweder K4 intakt ist oder K5 und K6 gemeinsam. K4 K1 K2 K3 K5 K6 pSystem = p1 ⋅ p2 ⋅ p3 ⋅ [1 − (1 − p4 ) ⋅ (1 − p4 ⋅ p5 )] - Von den 3 Triebwerken desFlugzeugs müssen mindestens 2 Funktionieren → Ein 2 von 3 - System Ein Beispiel für ein k von n - System Das 2 von 3 System: K1 K2 K1 K3 K2 K2 P2von3 = P (2 von 3 - System intakt) P2von3 = P (2 von 3 - System intakt) = P (K1 intakt ∩ K2 intakt ∪ K1 intakt ∩ K3 intakt ∪ K2 intakt ∩ K3 intakt) A C Seite 31 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik = P (A) + P (B) + P (C) – P (A ∩ B) – P (A ∩ C) – P (B ∩ C) + P (A ∩ B ∩ C) = P (K1 intakt ∩ K2 intakt) + P (K1 intakt ∩ K3 intakt) + P (K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K2 intakt ∩ K1 intakt ∩ K3 intakt) – P (K1 intakt ∩ K2 intakt ∩ K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K3 intakt ∩ K2 intakt ∩ K3 intakt) + P (K1 intakt ∩ K2 intakt ∩ K1 intakt ∩ K3 intakt ∩ K2 intakt ∩ K3 intakt) = P (K1 intakt ∩ K2 intakt) + P (K1 intakt ∩ K3 intakt) + P (K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K2 intakt ∩ K3 intakt) – P (K1 intakt ∩ K3 intakt ∩ K2 intakt) + P (K1 intakt ∩ K2 intakt ∩ K3 intakt) = p1 ⋅ p2 + p1 ⋅ p3 + p2 ⋅p3 – p1 ⋅ p2 ⋅ p3 – p1 ⋅ p2 ⋅ p3 – p1 ⋅ p2 ⋅ p3 + p1 ⋅ p2 ⋅ p3 P2von3 = p1 ⋅ p2 ⋅(1 – p3) + p1 ⋅ p3 ⋅(1 – p2) + p2 ⋅ p3 ⋅(1 – p1) + p1 ⋅ p2 ⋅ p3 P2von3 = p1⋅p2⋅p3⋅(1 – p4) + p1⋅p2⋅p3⋅(1 – p3) + p1⋅p3⋅p4⋅(1 – p2) + p2⋅p3⋅p4⋅(1 – p1) + p1⋅p2⋅p3⋅p3 P2von4 K1 K2 K5 K3 K4 Das Brückensystem Grenzfall I: K5 defekt K1 K2 K3 K4 1 – (1 – p1 ⋅ p2) ⋅ (1 – p3 ⋅ p4) Seite 32 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Grenzfall II: K5 intakt K1 K2 K3 K4 [1 − (1 − p1 ) ⋅ (1 − p3 )] ⋅ [1 − (1 − p2 ) ⋅ (1 − p4 )] Formel der totalen Wahrscheinlichkeit m P(Bn ) = ∑ P ( H i ) ⋅ P( B | H i ) i =1 m = 2 H1 = K5 defekt H2 = K5 intakt B = Brückensystem intakt PBrückensystem = P (H1) ⋅ P (B| H1) + P (H2) ⋅ P (B| H2) = (1– p5) ⋅ Grenzfall I + p5 ⋅ Grenzfall II PBrückensystem = (1 − p5 ) ⋅ [1 − (1 − p1 ⋅ p2 ) ⋅ (1 − p3 ⋅ p4 )] + p5 ⋅ [1 − (1 − p1 ) ⋅ (1 − p3 )] ⋅ [1 − (1 − p2 ) ⋅ (1 − p4 )] Zufallsvariable Beispiele: X = Augensumme beim Werfen von 2 Würfeln X = Anzahl defekter Stücke in einer Stichprobe X = Anzahl der Reparaturaufträge, die pro Woche in einer Werkstatt eintreffen. X = Lebensdauer eines Fernsehgerätes X = Meßfehler bei einer Messung X = Meßergebnis bei einer Messung diskrete Zufallsvariablen stetige Zufallsvariablen Für das Arbeiten mit Zufallsvariablen verwendet man 3 Funktionen: ♦ Wahrscheinlichkeitsfunktion für diskrete Zufallsvariablen ♦ Verteilungsfunktion für stetige Zufallsvariablen ♦ Wahrscheinlichkeitsdichtefunktion Seite 33 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Die Wahrscheinlichkeitsfunktion z.B.: X = Augensumme beim Würfeln X kann die Werte annehmen: 2, 3, … , 7, … , 12 1 2 6 1 , , , , , 36 36 36 36 Wertetabelle der Wahrscheinlichkeitsfunktion P (X=k) 6 36 5 36 4 36 3 36 2 36 Stabdiagramm der Wahrscheinlichkeitsfunktion 1 36 1 2 3 P ( X = 5) = 4 5 6 7 8 9 10 11 12 k 4 36 P( X ≥ 9) = P( X = 9) + P( X = 10) + P( X = 11) + P( X = 12) = P( X < 4) = P( X = 3) + P( X = 2) = 4 3 2 1 10 + + + = 36 36 36 36 36 2 1 3 + = 36 36 36 P(6 < X ≤ 9) = P( X = 7) + P( X = 8) + P( X = 9) = 6 5 4 15 + + = 36 36 36 36 Verteilungsfunktion 1 2 3 6 + + = 36 36 36 36 6 P( X ≤ 4,8) = P( X = 2) + P( X = 3) + P( X = 4) = 36 P( X ≤ 4) = P( X = 2) + P( X = 3) + P( X = 4) = F (t ) = P( X ≤ t ) = ∑ P( X = k ) k ≤t F(t) heißt Verteilungsfunktion der Zufallsvariablen X X = Augensumme beim Würfeln Seite 34 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik t t<2 2≤t<3 3≤t<4 4≤t<5 5≤t<6 6≤t<7 7≤t<8 8≤t<9 9 ≤ t < 10 10 ≤ t <11 11 ≤ t < 12 12 ≤ t F(t) 0 1/36 3/36 6/36 10/36 15/36 21/36 26/36 30/36 33/36 35/36 36/36 = 1 F(3,6) = P(X≤3,6) = P(X=2) + P(X=3) = 1/36 + 2/36 = 3/36 1 F (t) 30 36 P(X=9) 24 36 P(X=8) 18 36 P(X=7) 12 36 P(X=6) P(X=5) 6 36 t -1 0 1 2 3 4 5 6 7 8 9 10 P(6 < X ≤ 9) = P( X = 7) + P( X = 8) + P( X = 9) = F (9) − F (6) = 11 12 13 30 15 15 − = 36 36 36 P (a < X ≤ b) = F (b) – F (a) Eigenschaften der Verteilungsfunktion F (t) lim = 1 kürzer: F(∞) = 1 lim = 0 kürzer: F(-∞) = 0 t →∞ t → −∞ F (t) ist monoton steigend Seite 35 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Verteilungsfunktion bei einer stetigen Zufallsvariablen F (t) = p (X ≤ t) Stufenhöhe ist die Wahrscheinlichkeit (bei stetiger Funktion Stufenhöhe = 0) P (X = b) = 0 P (a < X ≤ b) = F(b) – F(a) = P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b) F (+∞) = 1 F (–∞) = 0 F ist monoton steigend F‘ (t) = f (t) = Wahrscheinlichkeitsdichtefunktion t F (t ) = ∫ f ( x )dx −∞ F (−∞) = ∫ −∞ F (+∞) = ∫ +∞ −∞ −∞ f ( x)dx = 0 f ( x)dx = 1 Seite 36 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik f (x) = 0 P (a < X ≤ b) = F (b) – F (a) ∫ b = ∫ b P (a < X ≤ b) = ∫ b = −∞ a a f ( x)dx − ∫ a −∞ f ( x )dx f ( x)dx f ( x)dx Beispiel: 2π, 0 X länge = 1m 3 π 2 π 2 π Seite 37 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X kann Werte annehmen zwischen 0 und 2π F (t) = P ( X ≤ t) F (t) = 0 F (t) = 1 für t < 0 t ≥ 2π für 0≤ t ≤ 2π F (t) ~ t F (t) = c ⋅ t F (2π) = 1 = c ⋅ 2π F (t) = { 0 1 ⇒c= π 2 für t < 0 1 ⋅ t für 0 ≤ t ≤ 2π 2π 1 für t ≥ 2π F (t) 1 t 2π f (t) = F‘ (t) = { 0 für t < 0 1 2π 1 für 0 ≤ t ≤ 2π für t > 2π f (t) 1 2π 2π t X hat eine gleichmäßige Verteilung in [0, 2π] Seite 38 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Wie groß ist die Wahrscheinlichkeit, daß der Zeiger zwischen π und 3 π stehen bleibt: 2 3 3 P π ≤ X ≤ π = F π − F (π ) 2 2 1 3 1 = ⋅ π− ⋅π 2π 2 2π 3 1 1 = − = 4 2 4 allgemeine gleichmäßige Verteilung: gleichmäßige Verteilung in [a,b] F (t) 1 a F (t) = { t b 0 für t < 0 t−a für a ≤ t ≤ b b−a 1 für t > b f (t) 1 b−a a b t Seite 39 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik f (t) = { 1 für a ≤ t ≤ b b−a 0 sonst Spezialfall a = 0, b = 1 gleichmäßige Verteilung in [0, 1] F (t) 1 t 1 F (t) = { 0 t 1 für t < 0 für 0 ≤ t ≤ 1 für t > 1 f (t) 1 1 f (t) = { 1 für 0 ≤ t ≤ 1 0 sonst t Seite 40 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 1, 0 X länge = 3 4 1 2π 1 4 0,1963 0,5218 0,3084 0,8625 … 1 2 Zufalls(zahlen)generator Folge von Zufallszahlen mit gleichmäßiger Verteilung in [0, 1] Anwendung von Zufallszahlen: Bsp.: Bei einer Produktion wird in Losen von jeweils 10000 Stück produziert. Jedes produzierte Stück erhält nach Fertigstellung eine Identifikationsnummer. z. B.: 0, 1, 2, 3, … , 9999 Für die Qualitätskontrolle soll eine Stichprobe von z. B. n = 100 Stück ausgewählt werden. Zufallsauswahl soll realisiert werden: 0,19432 → 1943 0,57219 → 5721 0,63048 → 6304 0,27431 → 2743 … … … andere Losgröße, z. B.: 8000 0, 1, 2, 3, … , 7999 Multiplikation der Zufallszahlen mit 8000 (danach Abschneiden des Ergebnis) oder: Vorgehensweise wie zuvor, und Identifikationsnummern größer gleich 8000 wegstreichen. 2. Bsp.: Simulation von Zufallsprozessen Es soll das Werfen zweier Münzen mit Hilfe von Zufallszahlen simuliert werden. X = Anzahl der Wappen X kann die Werte annehmen 0, 1, 2 Wappen 1 4 1 P (X = 0) = 2 1 P (X = 0) = 4 P (X = 0) = Seite 41 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 1 4 2 4 ↓ 0 0,25 1 4 0,75 ↓ X=0 X=1 → → → → → 0,19432 0,57219 0,63048 0,27431 0,83175 1 ↓ X=2 X=0 X=1 X=1 X=1 X=2 Zufallsgeneratoren 9 8 9 0 8 1 7 2 6 5 4 0,2 3 4 7 1 7 2 5 0 8 1 7 6 9 0 3 6 … 2 5 4 3 5 0,1001011… 1 Zufallsgeneratoren, die auf elektronischen Rauschen beruhen. Seite 42 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Anzahl der Nulldurchgänge … ungerade = 1 gerade = 0 Pseudozufallszahlen Verhalten sich ähnlich wie Zufallszahlen, werden aber mit einem Rechenprogramm erzeugt (und sind aufgrund dieser Methode reproduzierbar). Kongruenzmethoden: 1) multiplikative Kongruenzmethode m, a, N0 (positive ganze Zahlen) m > a, m > N0 a ⋅ N0 wird dividiert durch m Divisionsrest = N1 a ⋅ N1 wird dividiert durch m Divisionsrest = N2 Ni+1 = Divisionsrest bei Division von a ⋅ Ni durch m Ni+1 = a⋅ Ni (mod m) Abkürzende Schreibweise 0 ≤ Zi < m N0, N1, N2, … N Z i = i → Z0, Z1, Z2, … m Pseudozufallszahlen Günstige Wahl für m, a, N0: b Binärstellen (z. B. b = 31) b m und a teilerfremd m = 2b a = 22 ± 3 N0 ungerade Zahl negatives Beispiel (so sollte nicht vorgegangen werden) m = 7, a = 5, N0 = 3 i 0 1 2 3 4 5 6 7 8 Ni 3 1 5 4 6 2 3 1 5 Zi 0,4286 0,1429 0,7143 0,5714 0,8571 0,2857 0,4286 0,1429 0,7143 Wiederholungen spätestens nach m Werten kann beobachtet werden, daß es zu Wiederholungen kommt. Seite 43 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 2) lineare Kongruenzmethode m, a, N0, C N0, N1, N2, … Ni+1 =a⋅ Ni + C (mod m) N Zi = i m Z0, Z1, Z2, … m = 2b wie vorher für a, C, N0 kann keine allgemeine Regel aufgestellt werden. Folgerung: Vor ihrer Verwendung sollten diese Pseudozufallszahlen „ getestet“ werden. 3) additive Kongruenzmethode m, N0, N1, N2, … , Nr Ni+1 = Ni + Ni-r (mod m) z. B. für r = 15 N0, N1, … , N15 N16 = N15 + N0 (mod m) N17 = N16 + N1 (mod m) … N Zi = i m … Z0, Z1, Z2, … r ≥ 15 erzeugte Pseudozufallszahlen müssen getestet werden Binomialverteilung Bsp.: Ein Würfel wird 10 mal geworfen. Wie groß ist die Wahrscheinlichkeit, daß 2 mal eine Sechs erscheint ? allgemein: Ein Zufallsexperiment wird n mal unabhängig voneinander ausgeführt. Bei jeder Ausführung kann ein Ereignis A mit einer Wahrscheinlichkeit von p eintreten. Wie groß ist die Wahrscheinlichkeit, daß das Ereignis A k mal eintritt ? A = Werfen einer Sechs. 1 p= 6 n = 10 k=2 im Bsp.: im Bsp.: allgemein: X = Anzahl der Ausführungen des Experiments, bei denen A eingetreten ist. X = Anzahl der gewürfelten Sechsen. P (X=2) = ? P (X=k) = ? Seite 44 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Spezielle Serie von Würfen: (1) 1. A p⋅ 2. A p⋅ 3. 4. 5. 6. 7. 8. 9. 10. A A A A A A A A (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p) = p 2 ⋅ (1 − p)8 (2) A A A (1-p)⋅ (1-p)⋅ p ⋅ A p⋅ (3) … (45) Serie mit 2 A und 8 A … Serie mit 2 A und 8 A A A A A A A (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p)⋅ (1-p) = p 2 ⋅ (1 − p)8 10 10 ⋅ 9 = = 45 2! 2 P((1) ∪ (2) ∪ ∪ (45)) = P((1)) + P((2) ) + + P((45) ) = p ⋅ (1 − p ) + p ⋅ (1 − p ) + 8 2 2 8 = 45 ⋅ p 2 ⋅ (1 − p ) + p 2 ⋅ (1 − p ) 8 8 2 8 1 5 = 45 ⋅ ⋅ = 29,1% 6 6 = P( X = 2) allgemein: n n−k P( X = k ) = ⋅ p k ⋅ (1 − p ) fürk = 0 ,1, , n k Binomialverteilung mit Parametern n und p Wie groß ist die Wahrscheinlichkeit, daß bei 10 maligem Würfeln höchstens 2 mal eine 6 erscheint ? P (X ≤ 2) P (X = k) = P (X=0) + P(X=1)+P(X=2) = 16,2 % + 32,3 % + 29,1 % = 77,6 % n n−k = ⋅ p k ⋅ (1 − p ) k Anwendungsbeispiel: Produktionsprozeß bei welchem jedes hergestellt Stück mit einer Wahrscheinlichkeit von 3 % defekt ist. Es werden 100 Stück hergestellt. Seite 45 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X = Anzahl der hergestellten defekten Stücke 100 ⋅ 0,034 ⋅ 0,97 96 =17,1 % P (X = 4) = 4 Warenlieferung von N Stück. Davon sind r Stück defekt. Es werden n Stück entnommen. Wie groß ist die Wahrscheinlichkeit, daß k defekte Stücke entnommen werden? X = Anzahl der entnommenen defekten Stücke a) Stichprobe ohne Zurücklegen r N − r k r − k P (X = k) = N n b) Stichprobe mit Zurücklegen n P (X = k) = ⋅ p k k r ⋅ 1 − n r p= n n−k Vergleich a) mit b): N = 100, r = 10, n = 20, k =2 10 98 2 18 a) P (X=2) = = 31,8 % 100 20 20 10 b) P (X=2) = ⋅ 2 100 2 18 10 ⋅ 1 − = 28,5 % 100 Verteilungsfunktion der Exponentialverteilung F(t) = P(X = t) = t 0 −∞ −∞ ∫ f ( x)dx = ∫ t f ( x)dx + ∫ f ( x )dx t≥0 0 0 λ ⋅ e −λ ⋅ x Seite 46 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik [ t ] = ∫ λ ⋅ e − λ ⋅ x dx = − e − λ ⋅ x 0 = −e − λ ⋅t + 1 = 1 − e − λ ⋅t t 0 F(t) = { 1-e-λ⋅t für t > 0 0 sonst λ hat die Dimension Zeit–1 und ist ein gerätespezifischer Parameter Beispiel: N = 2000 r = 200 n = 20 k=2 200 1800 ⋅ 2 18 a) P (X = 2) = = 28,7% 2000 20 200 2000 b) P (X = 2) = ⋅ 2 20 2 18 200 ⋅ 1 − = 28,5% 2000 Folgerung: r N − r ⋅ k n−k n n − k N r r lim = ⋅ ⋅ 1 − r →∞ N k N N r → konst n n Die hypergeometrische Verteilung konvergiert gegen die Binomialverteilung bei r wachsendem N und konstantem . N Seite 47 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Exponentialverteilung: f (x) = { λ ⋅ e − λx für x ≤ 0 0 Dichtefunktion sonst Die Exponentialverteilung ist eine Lebensdauerverteilung. X = Lebensdauer eines technischen Gerätes. Unter bestimmten Voraussetzungen ist die Lebensdauer von technischen Geräten exponential verteil. Beispiel: 1 Jahre−1 2 1 Gerätetyp II: λ = Jahre−1 3 3 geplante Einsatzdauer Jahr 4 Gerätetyp I: λ= Welches der beiden Geräte hat die Größere Zuverlässigkeit für diese Einsatzdauer? P (X > 3 3 Jahre) = 1 – ( X ≤ Jahre ) 4 4 3 = 1 – F ( Jahre ) 4 3 − λ ⋅ Jahre = 1 – 1 − e 4 =e Gerät I: Gerät II: =e =e 3 − λ ⋅ Jahre 4 1 3 − Jahre −1 ⋅ Jahre 2 4 1 3 − Jahre −1 ⋅ Jahre 3 4 = 68,7% = 77,9% Man würde sich also für Gerätetyp II entscheiden. Seite 48 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ⇒ Das Gerät mit kleinerem λ besitzt die höhere Zuverlässigkeit. Zuverlässigkeit für eine Einsatzdauer der Länge t P (X > t) = 1 – P (X ≤ t) = 1 – F (t) R (t) R (t) = P ( X > t) = 1 – F (t) R(t) heißt Zuverlässigkeitsfunktion Verlauf der Zuverlässigkeitsfunktion R (t) = λ= { e-λt für t ≥ 0 1 für t < 0 1 Jahre-1 3 Frage: Wie groß ist die Wahrscheinlichkeit, daß das Gerät innerhalb einer Garantiezeit von einem halben Jahr ausfällt ? P (X ≤ 1 2 Jahr) = F ( 1 2 Jahr) = 1 − e 1 1 − Jahre −1 − Jahre 3 2 − 1 = 1− e 6 = 1- 0,846 = 0,154 = 15,4 % Wie groß ist die Wahrscheinlichkeit, daß das Gerät die Garantiezeit von einem halben Jahr besteht, aber spätestens nach 2 Jahren ausgefallen ist ? Seite 49 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P( 1 2 < X ≤ 2) = F ( 2Jahre) – F ( = 1− e =e − 1 6 1 − Jahre −1 ⋅ 2 Jahre 3 −e − 1 2 Jahr) 1 1 − Jahre −1 ⋅ Jahre 2 − 1 − e 3 2 3 = 0,846 – 0,513 = 0,333 = 33,3 % Das Gerät war 1 Jahr in Betrieb und funktioniert noch … Wie groß ist die Zuverlässigkeit für ein weiteres halbes Jahr ? P (X > 1,5 Jahre | X > 1 Jahr) P( X > 1Jahr ∩ X > 1,5 Jahre) P( X > 1Jahr ) P( X > 1,5 Jahre) R(1,5 Jahre) = = P( X > 1Jahr ) R(1Jahr ) = = e Allgemeingültig 1 − ⋅1,5 3 e 1 − ⋅1 3 − 1 6 =e = 0,846 = 84,6% Folgerung: Bei Exponentialverteilung ist der Alterungsprozeß nicht enthalten, wird also vernachlässigt. Die Exponentialverteilung ist eine Abstraktion bzw. Näherung. Konsequenz: Die Exponentialverteilung kann nur verwendet werden, wenn der Alterungsprozeß vernachlässigt werden kann. Dies ist der Fall, wenn … 1) … die betrachteten Einsatzdauern klein sind im Vergleich zur durchschnittlichen Lebensdauer der Geräte oder 2) … das Gerät einer vorsorglichen Wartung unterliegt. Das Gerät hat ein Alter von t Jahren erreicht und funktioniert noch. Wie groß ist die Wahrscheinlichkeit, daß das Gerät im nächsten Zeitraum der Länge ∆t ausfallen wird ? Seite 50 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P (X ≤ t + ∆t | x > t) P ( X > t ∩ X ≤ t + ∆t ) P (t < X ≤ t + ∆t ) = P( X > t ) P( X > t ) F (t + ∆t ) − F (t ) = R (t ) = P( X ≤ t + ∆t | X > t ) F (t + ∆t ) − F (t ) = ∆t ∆t ⋅ R(t ) Ausfall Quote Anfangs (Zeitnullpunkt) 1000 Geräte in Betrieb. nach 1 Jahr (Alter = 1 Jahr) funktionieren noch 850 nach einem weiteren Monat fallen weitere 10 Geräte aus 1 10 P (X ≤ (1 + )Jahre | X > 1 Jahr) ≈ 2 850 1 P X ≤ 1 + Jahr | X > 1Jahr 10 2 = 1 1 Jahr Jahr ⋅ 850 12 12 120 12 = = Jahre −1 = 14% pro Jahr 850 Jahre 85 Ausfallquote P( X ≤ t + ∆t | X > t ) F (t + ∆t ) − F (t ) = ∆t ∆t ⋅ R(t ) Grenzfall: Ausfallquote ∆t → 0 lim Ausfallquote = Ausfallrate ∆t → 0 = h (t) F (t + ∆t ) − F (t ) ∆t → 0 ∆t ⋅ R(t ) 1 F (t + ∆t ) − F (t ) = ⋅ lim ∆ t → 0 R(t ) ∆t h (t) = lim F‘ (t) = f (t) h(t ) = f (t ) R(t ) Seite 51 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Ausfallrate bei der Exponentialverteilung: f (t) = R (t) = { λ⋅e-λt für t ≥ 0 0 sonst { e-λt für t ≥ 0 ⇒ h(t ) = 0 sonst λ ⋅ e − λt =λ e − λt λ t Empirische Bestimmung der Ausfallrate N0 N1 ∆t t0 N2 ∆t t1 N3 Ni ∆t t2 Ni+1 ∆t t3 ti ti+1 t Zeit Ausfallquote zum Zeitpunkt ti: hi = N i − N i +1 ∆t ⋅ N i für i = 0, 1, 2, … Badewannenkurve Frühausfälle Zufallsausfälle Altersausfälle Burn in Phase Nutzungsphase Ersetzungshase Seite 52 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Größenordnung der Ausfallrate für (elektrische) Bauteile: Widerstände: 10-7 – 10-9 h-1 Kapazitäten: 10-7 – 10-8 h-1 ICs: 10-6 – 10-7 h-1 Beispiel: Ein Gerät ist aus 100 Bauteilen ohne Redundanz aufgebaut. λR = 1 ⋅ 10-7 h-1 λC = 3 ⋅ 10-7 h-1 λIC= 4 ⋅ 10-7 h-1 50 Widerstände 30 Kondensatoren 20 ICs 1) Wie groß ist die Zuverlässigkeit des Gerätes für einen Einsatz von 1 Jahr ? 2) Wie groß ist die Ausfallrate solcher Geräte ? R (t) = Zuverlässigkeit des Gerätes R1 (t) = Zuverlässigkeit des Bauteils 1 R2 (t) = Zuverlässigkeit des Bauteils 2 … … Rn (t) = Zuverlässigkeit des Bauteils n Ri (t) = e-λt Seriensystem: PSerie = p1 ⋅ p2 ⋅ … ⋅ pn R(t) = R1 (t) ⋅ R2 (t) ⋅ … ⋅ Rn (t) R(t) = e − λ1t ⋅ e −λ 2 t ⋅ ⋅ e − λn t = e −( λ1 + λ 2 + + λ n )⋅t = e − λ ⋅t wobei λ = λ1 + λ2 + … + λn Folgerung: I) II) Ein Seriensystem aus Komponenten mit exponential verteilten Lebensdauern hat selbst eine exponential verteilte Lebensdauer. Die Ausfallrate des Seriensystems ergibt sich als Summe der Ausfallraten der Komponenten wobei λ = λ1 + λ2 + … + λn . zu Frage 2: λ = 50 ⋅ λR + 30 ⋅ λC + 20 ⋅ λIC = 50 ⋅ 1 ⋅ 10-7 h-1 + 30 ⋅ 3 ⋅ 10-7 h-1 + 20 ⋅ 4 ⋅ 10-7 h-1 = 220 ⋅ 10-7 h-1 = 0,22 ⋅ 10-4 h-1 zu Frage 1: −4 −1 R ( 8760 h) = e −0, 22⋅10 ⋅h ⋅8760⋅ h = e −0,1927 = 0,825 = 82,5% Seite 53 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Parallelsysteme bestehend aus Komponenten mit exponential verteilter Lebensdauer R1 (t ) = e − λ1t K1 R2 (t ) = e − λ2 t K2 R (t) = Zuverlässigkeit des Systems = 1 – (1 – R1(t)) ⋅ (1 – R2(t)) = 1 – (1 – e − λ1t ) ⋅ (1 – e − λ2 t ) Folgerung: Ein Parallelsystem aus Komponenten mit exponential verteilten Lebensdauern hat selbst keine exponential verteilte Lebensdauer. f (t ) = F ′(t ) F (t ) = 1 − R(t ) ( )( ) f (t ) = λ ⋅ e ⋅ (1 − e ) + (1 − e )⋅ λ ⋅ e f (t ) λ ⋅ e ⋅ (1 − e ) + (1 − e )⋅ λ ⇒ h(t ) = = R(t ) ) 1 − (1 − e ) ⋅ (1 − e F (t ) = 1 − e − λ1 ⋅t ⋅ 1 − e − λ 2 ⋅t − λ1 ⋅t − λ 2 ⋅t − λ1 ⋅t i − λ 2 ⋅t 2 − λ1 ⋅t i − λ 2 ⋅t − λ1 ⋅t − λ1 ⋅t − λ 2 ⋅t 2 ⋅ e − λ 2 ⋅t Allgemeinere Lebensdauerverteilungen Verteilungsfunktion: 1 − e − ( λ ⋅t ) für t ≥ 0 0 sonst α f (t) = { Parameter α > 0, λ > 0 für α = 1 ergibt sich die Exponentialverteilung für α ≠ 1 ergibt sich eine Verallgemeinerung Weibull – Verteilung mit Parameter λ und α. Seite 54 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Bestimmung der Ausfallratefunktion: h(t ) = f (t ) R(t ) R(t ) = 1 − F (t ) = e − ( λ ⋅t ) α f (t ) = F ′(t ) = e − (λ ⋅t ) ⋅ α ⋅ (λ ⋅ t ) α ⇒ h(t ) = α −1 ⋅λ λ ⋅ α ⋅ (λ ⋅ t )α −1 ⋅ e − (λ ⋅t ) α −1 = λ ⋅ α ⋅ (λ ⋅ t ) − (λ ⋅t )α e α Erlangverteilung Dichtefunktion: f (t) = { λk ⋅ x k −1 ⋅ e − λ ⋅ x (k − 1)! für x ≥ 0 0 sonst Parameter k ≥ 1, k ganzzahlig λ>0 für k = 1 ergibt sich die Dichte der Exponentialverteilung für k > 1 ergibt sich die eine Verallgemeinerung Verteilungsfunktion: t F (t) = t ∫ f (x )dx = ∫ f (x )dx −∞ t = 0 λ k ∫ (k − 1)! ⋅ x −∞ k −1 = 1− ∑e i =0 − λ ⋅t k −1 ⋅ e − λ ⋅ x dx ( λ ⋅ t )i ⋅ i! Seite 55 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Zuverlässigkeitsfunktion: k −1 R (t) = 1 – F (t) = ∑e − λ ⋅t i =0 ( λ ⋅ t )i ⋅ i! µ=3 Standardnormalverteilung λk ⋅ t k −1 ⋅ e − λ ⋅t f (t ) (k − 1)! h(t ) = = k −1 i R(t ) − λ ⋅t (λ ⋅ t ) e ⋅ ∑ i! i=0 λk ⋅ t k −1 = i k −1 (k − 1)!⋅∑ (λ ⋅ t ) i! i =0 für k = 2: λ2 ⋅ t λ ⋅t h(t ) = =λ⋅ 1+ λ ⋅ t 1+ λ ⋅t Normalverteilung Dichtefunktion: f (x ) = − 1 ⋅e 2π ⋅ σ ( x − µ )2 2 ⋅σ 2 für -∞ < x < +∞ µ beliebig σ>0 Seite 56 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik µ = 0, σ = 1 Spezialfall: f (x ) = x2 − 1 ⋅e 2 2π Standardnormalverteilung ( x ⋅ 3) 2 − 1 µ = 3, σ = 1 f (x ) = ⋅e 2 2π ⇒ µ gibt die Lage des Maximums an µ ist ein Lageparameter − f (x ) = 1 µ = 0, σ = 2 1 2π ⋅ ⇒ σ ist ein Breiteparameter 1 2 ⋅e x2 1 2 ⋅ 2 2 = 2 2 ⋅ e− 2 x 2π Die Normalverteilung kommt u. a. vor bei Meßvorgängen und bei Produktionsvorgängen. z. B. Produktion von elektrische Widerständen. X = Widerstandswert eines Widerstandes X ist eine Zufallsvariable X hat (näherungsweise) eine Normalverteilung Verteilungsfunktion der Normalverteilung t F (t) = ↓ ∫ f (x )dx −∞ t F(t; µ, σ) = ∫ −∞ t F(t; 0, 1) = ∫ −∞ − 1 ⋅e 2 ⋅π ⋅σ x2 ( x − µ )2 − 1 ⋅ e 2 dx 2 ⋅π 2⋅σ 2 dx = Φ (t ) Φ (t ) = Verteilungsfunktion der Standardnormalverteilung Seite 57 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Φ (0) = 0,5 Φ (∞ ) = 1 Φ (− ∞ ) = 0 Φ (0,1) = 0 ,1 ∫ −∞ 0 ∫ −∞ x2 − 1 ⋅ e 2 dx 2 ⋅π x2 − 1 ⋅ e 2 dx + 2 ⋅π 0,5 0 ,1 ∫ 0 x2 − 1 ⋅ e 2 dx 2 ⋅π + 0,0398 = 0,5398 Φ (0,2) = 0,5793 Φ (0,3) = 0,6179 … Φ (− 0,1) = 0,5 - 0,0398 = 0,4602 Φ (− 0,2 ) = 0,5 –0,0793 = 0,4207 Φ (0,1) + Φ (− 0,1) = 1 Φ (− 0,1) = 1 - Φ (0,1) Φ (− t ) = 1 - Φ (t ) D (t) = = Φ (t ) - Φ (− t ) Differenz ( x − µ )2 t − 1 2 F (t; µ, σ) = ∫ ⋅ e 2⋅σ dx 2 ⋅π ⋅σ −∞ x−µ Substitution: =y σ x =σ ⋅ y+ µ dx = σ ⋅ dy = t −µ σ ∫ −∞ = t −µ σ ∫ −∞ y2 − 1 ⋅ e 2 ⋅ σ ⋅ dy 2 ⋅π ⋅σ y2 − 1 ⋅ e 2 ⋅ dy 2 ⋅π t −µ = Φ σ t − µ F (t; µ, σ) = Φ σ Seite 58 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik z.B.: 62,5 − 60 F (62,5; 60, 2) = Φ = Φ (1,25) = 0,8944 2 Bsp.: X = Widerstand eines elektrischen Widerstands Produktion von elektrischen Widerständen Normalverteilt mit µ = 60 kΩ , σ = 2 kΩ Toleranzbereich: 55 kΩ bis 68 kΩ Wie groß ist der zu erwartende Anteil an unbrauchbaren Widerständen ? 1 – P (55 kΩ ≤ X ≤ 68 kΩ) = 1 − [F (68kΩ;60kΩ,2kΩ ) − F (55kΩ;60kΩ,2kΩ )] 68kΩ − 60kΩ 55kΩ − 60kΩ = 1 − Φ − Φ 2kΩ 2kΩ = 1 − [Φ (4 ) − Φ (− 2,5)] = 1 − [1 − 0,0062] = 0,0062 = 0,62 % anderer Toleranzbereich: 55 kΩ bis 65 kΩ 1 – P (55 ≤ X ≤ 65) = 1 − [F (65;60,2 ) − F (55;60,2 )] 65 − 60 55 − 60 = 1 − Φ − Φ 2 2 = 1 − [Φ (2,5) − Φ (− 2,5)] = 1 − D(2,5) = 1 – 0,9876 = 0,0124 = 1,24 % anderes σ: µ = 60 kΩ , σ = 3 kΩ 1 – P (55 ≤ X ≤ 65) = 1 − [F (65;60,3) − F (55;60,3)] 65 − 60 55 − 60 = 1 − Φ − Φ 3 3 = 1 − [Φ (1,67 ) − Φ (− 1,67 )] = 1 − D(1,67 ) = 1 – 0,9051 = 0,0949 = 9,49 % Folgerung: σ ist ein Maß für die Güte der Produktion. Kleine werte für σ sind günstiger. Toleranzbereich: 55 kΩ bis 65 kΩ Seite 59 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Wie groß darf σ sein, damit der zu erwartende Anteil an unbrauchbaren Widerständen gerade 5 % beträgt ? 1 – P (55 ≤ X ≤ 65) → 1 − [F (65;60,σ ) − F (55;60,σ )] = 95% 65 − 60 55 − 60 Φ − Φ = 95% σ σ 5 −5 Φ − Φ = 95% σ σ 5 D = 95% σ 5 5 ⇒σ = = 1,96 1,96 ist der 95 % – Punkt der D – Funktion 1,96 σ σ = 2,55 kΩ 90 % – Punkt der D – Funktion D(1,64) = 0,8990 = 89,90 % D(1,65) = 0,9011 = 90,11 % Interpolation zwischen 1,64 und 1,65 1,645 ist der 90 % – Punkt der D – Funktion 2,576 ist der 99 % – Punkt (Quantil) der D – Funktion 97,5 % – Punkt der Φ – Funktion 1,96 ist der 97,5% – Punkt der Φ – Funktion D (z) = χ z ist das χ – Quantil der D – Funktion Φ( z ) − Φ (− z ) = χ Φ( z ) − (1 − Φ ( z )) = χ Φ( z ) − 1 + Φ ( z ) = χ 2 ⋅ Φ(z ) − 1 = χ Φ( z ) = 1 (1 + χ ) 2 z ist das 1 (1 + χ ) Quantil der Φ – Funktion. 2 Normalverteilte Produktion von Widerständen mit: µ = 60 kΩ , σ = 2 kΩ Was für Widerstandswerte werden durchschnittlich hergestellt ? Seite 60 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Widerstände aus dieser Produktion: 61,3 58,5 60,4 62,1 … Erwartungswert einer Zufallsvariablen X = Augensumme beim Werfen mit 2 Würfeln. Welche Augensumme ergibt sich durchschnittlich bei einer großen Zahl von Würfen ? 8, 5, 7, 9, … , 2, 12, … N = 36000 mal gewürfelt 8 + 5 + 7 + 9 + + 2 + 12 + 36000 2+2+ = + 2+3+3+ + 3+ 36000 + 12 + 12 + + 12 Die Augensumme 2 kommt bei N = 36000 Würfen ca. 1000 mal vor. Die Augensumme 3 kommt bei N = 36000 Würfen ca. 2000 mal vor. … Die Augensumme 7 kommt bei N = 36000 Würfen ca. 6000 mal vor. … Die Augensumme 12 kommt bei N = 36000 Würfen ca. 1000 mal vor. 1000 = 1 1 ⋅ 36000 = ⋅N 36 36 Gesamtsumme an gewürfelten Augen: ≈ 2 ⋅ 1000 + 3 ⋅ 2000 + + 7 ⋅ 6000 + + 12 ⋅ 1000 1 2 6 1 = 2 ⋅ ⋅ N + 3 ⋅ ⋅ N + + 7 ⋅ ⋅ N + + 12 ⋅ ⋅ N 36 36 36 36 Durchschnittswert der gewürfelten Augen pro Wurf ≈ 2⋅ 1 2 ⋅ N + 3⋅ ⋅ N + 36 36 1 2 = 2⋅ + 3⋅ + 36 36 + 7⋅ N 6 + 7⋅ + 36 6 ⋅N + 36 + 12 ⋅ Gesamtzahl 1 2 = 2⋅ + 3⋅ + N →∞ N 36 36 Erwartungswert der Augensumme X = E (X) lim + 12 ⋅ 1 ⋅N 36 1 36 +7⋅ 6 + 36 + 12 ⋅ 1 =7 36 E (X) = 7 Seite 61 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X sei eine diskrete Zufallsvariable, die die Werte x1, x2, … annehmen kann mit den Wahrscheinlichkeiten p1, p2, … E ( X ) = x1 ⋅ p1 + x2 ⋅ p2 + = ∑x ⋅ p i falls die betreffende Reihe absolut konvergent ist, d.h. ∑|xi|⋅pi < ∞ i alle i X sei eine stetige Zufallsvariable mit Dichtefunktion f(x) E(X ) = +∞ ∫ x ⋅ f (x )dx falls das betreffende Integral absolut konvergent ist, d.h. |x|⋅f(x) < ∞ −∞ Erwartungswert einer gleichmäßigen Verteilung gleichmäßige Verteilung in [a, b] f (t) 1 b−a a f (x) = { E(X) = b t 1 für a ≤ x ≤ b b−a 0 sonst +∞ a b +∞ −∞ a b ∫ x ⋅ f (x )dx = ∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx = −∞ b = 0 + ∫ x ⋅ f (x )dx + 0 a b b 1 1 = ∫x⋅ ⋅ xdx dx = b−a b − a ∫a a b 1 x2 1 1 2 = ⋅ = ⋅ ⋅ b − a2 b − a 2 a b − a 2 = ( ) 1 1 ⋅ ⋅ (b − a ) ⋅ (b + a ) b−a 2 Seite 62 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik E(X) = a +b 2 gleichmäßige Verteilung in [0, 1] Spezialfall: z. B: Zufallszahlen mit gleichmäßiger Verteilung in [0, 1] Was ist der Durchschnittswert bei einer großen Zahl von solchen Zufallszahlen ? E( X ) = 1 2 Es wird n = 30 mal mit einem symmetrischen Würfel gewürfelt. Wie viele Sechsen sind durchschnittlich zu erwarten ? X = Anzahl der Sechser bei 30maligem Würfeln X kann die Werte 0, 1, 2, … , 30 annehmen P (X = i) = pi i 30 − i 30 1 1 pi = ⋅ ⋅ 1 − i 6 6 Binomialverteilung mit den Parametern n = 30 p= 1 6 n n n −i E ( X ) = ∑ i ⋅ ⋅ p i ⋅ (1 − p ) i i =0 n n ⋅ (n − 1) (n − 1 + 1) i ⋅ = i ⋅ i! i n ⋅ (n − 1) (n − 1 + 1) = (i − 1)! = n⋅ für i ≠ 0 (n − 1) (n − 1 + 1) = n ⋅ n − 1 i −1 (i − 1)! i = 0 leistet keinen Beitrag zur Summe: n ∑ i ⋅ i ⋅ p ⋅ (1 − p ) n i i =1 n −i Seite 63 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik n n − 1 i ⋅ p ⋅ (1 − p )n − i E (X) = ∑ n ⋅ i =1 i −1 n n − 1 i n−i ⋅ p ⋅ (1 − p ) = n ⋅ ∑ i =1 i − 1 j = i −1 n −1 n − 1 j +1 n −1− j ⋅ p ⋅ (1 − p ) = n ⋅ ∑ j j =0 n −1 n − 1 j ⋅ p ⋅ p ⋅ (1 − p )n −1− j = n ⋅ ∑ j j =0 n −1 n − 1 j ⋅ p ⋅ (1 − p )n −1− j = n ⋅ p ⋅ ∑ j j =0 = n ⋅ p ⋅1 E (X) = n ⋅ p Erwartungswert der Binomialverteilung mit Parameter n und p im Beispiel: 1 =5 6 1 n = 10 , p = 6 E (X) = 30 ⋅ E ( X ) = n ⋅ p = 10 ⋅ 1 5 = = 1,67 6 3 Erwartungswert einer Zufallsvariablen E (X) = { ∑x ⋅ p i i diskret alle i +∞ ∫ x ⋅ f (x )dx stetig −∞ Erwartungswert der Normalverteilung z. B.: X = Widerstandswert eines hergestellten Widerstandes Normalverteilte Produktion von elektrischen Widerständen Parameter µ = 60 , σ = 2 kΩ Was für ein Widerstandswert ist durchschnittlich zu erwarten bei einer solchen Produktion ? Seite 64 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik E (X) = ? +∞ +∞ − 1 E ( X ) = ∫ x ⋅ f ( x ) ⋅ dx = ∫ x ⋅ ⋅e 2 ⋅π ⋅σ −∞ −∞ ( x − µ )2 2 ⋅σ 2 ⋅ dx x−µ σ x =σ ⋅ y⋅µ y= Substitution: dx = σ ⋅ dy +∞ − 1 E(X) = ∫ (σ ⋅ y ⋅ µ ) ⋅ ⋅e 2 ⋅π ⋅σ −∞ +∞ y2 2 ⋅ σ ⋅ dy y2 − 1 = ∫ (σ ⋅ y ⋅ µ ) ⋅ ⋅ e 2 ⋅ dy 2 ⋅π −∞ +∞ +∞ y2 y2 − − 1 1 =σ ⋅ ⋅ ∫ y ⋅ e 2 ⋅ dy + µ ⋅ ∫ ⋅ e 2 ⋅ dy 2 ⋅π −∞ 2 ⋅π −∞ −y ⋅ − e 2 2 1 =σ ⋅ 2 ⋅π +∞ + µ ⋅1 − ∞ E (X) = µ im Beispiel: E (X) = 60 kΩ Bei einer Normalverteilten Produktion von durchschnittlich 60 kΩ Widerstände hergestellt elektrischen Widerständen werden Folgerung µ = 60 kΩ Aus der Produktion werden n Widerstände auf zufällige Weise entnommen und ausgemessen: x1, x2, … , xn z.B.: 58,3 kΩ 60,8 kΩ … 61,7 kΩ 1 n ⋅ ∑ xi = x n i =1 für hinreichend großes n stimmt x näherungsweise mit E(X) überein und folglich: µ≈x → Parameterabschätzung Seite 65 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Allgemein gilt: Bei einer symmetrischen Verteilung stimmt die Symmetriestelle überein mit dem Erwartungswert E (X). (falls der Erwartungswert existiert) Dichtefunktion der Normalverteilung 1 5 0 1 E (X) = 5 2 3 4 5 6 7 8 9 10 ↑ Symmetriestelle 1 b-a Symmetriestelle: a a+b = E( X ) 2 b Seite 66 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 6 36 5 36 4 36 3 36 2 36 1 36 0 1 2 3 4 5 6 7 8 9 10 11 12 13 ↑ Symmetriestelle E (X) = 7 1 6 1 2 3 4 5 6 Symmetriestelle = 3,5 = E (X) Die Lebensdauer von einem Gerätetyp ist Exponentialverteilt mit Parameter λ = 1 Jahre−1 4 Seite 67 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Wie groß ist die durchschnittlich zu erwartende Lebensdauer bei solchen Geräten ? E (X) = Lebenserwartung = +∞ ∫ x ⋅ f (x )dx −∞ = +∞ ∫x⋅λ ⋅e −λ ⋅ x dx 0 [ ( = x⋅ −e +∞ )] + ∫ e −λ ⋅ x ∞ 0 −λ⋅x dx 0 ∞ 1 1 = 0 + − ⋅ e − λ ⋅ x = λ 0 λ E (X) = E(X ) = Beispiel: 1 λ 1 1 Jahre−1 4 λ= = 4 Jahre 1 Jahre−1 4 1 = 4 Jahre λ Lebensdauer Lebensdauer des 2. Gerätes Lebensdauer des 3. Gerätes Zeit ↑ Inbetriebnahme ↑ Ausfall Inbetriebnahme eines 2. Gerätes ↑ Ausfall des 2. Gerätes Inbetriebnahme eines 3. Gerätes Mittlere Zeit zwischen den Ausfällen Mean Time Between Failure MTBF – Wert = Betriebszeit 1 λ Reparaturzeit Betriebszeit Zeit ↑ Inbetriebnahme ↑ Ausfall Seite 68 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Erwartungswert der Reparaturzeit Mean Time To Repair MTTR – Wert MTBF = Verfügbarkeit MTBF + MTTR Erwartungswert ausgedrückt durch die Verteilungsfunktion E (X) = +∞ ∫ x ⋅ f (x )dx −∞ 0 = +∞ ∫ x ⋅ f (x )dx + ∫ x ⋅ f (x )dx −∞ 0 0 = [x ⋅ F ( x )]− ∞ − ∫1 ⋅ F ( x )dx +[x ⋅ F ( x )]0 − ∞ 0 −∞ 0 +∞ −∞ 0 = 0 − ∫1 ⋅ F ( x )dx + 0 − 0 +∞ −∞ 0 E (X) = − ∫1 ⋅ F ( x )dx + +∞ ∫ (F (x ) − 1)dx 0 ∫ (F (x ) − 1)dx ∫ (1 − F (x ))dx gilt auch für diskrete Verteilungen diskrete Verteilung: 1 + x Seite 69 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X sei eine Zufallsvariable, die keine negativen Werte annimmt, z. B. eine Lebensdauer ∞ ∞ 0 0 E ( X ) = ∫ (1 − F ( X ))dx = ∫ R ( X )dx Verallgemeinerung des Erwartungswertbegriffs { ∑x ⋅ p i i alle i E (X) = +∞ ∫ x ⋅ f (x )dx −∞ E (X2) = ? E (X3) = ? E (u(x)) = ? Erwartungswert einer Funktion und einer Zufallsvariablen X Beispiel: Es werden 2 Münzen geworfen. X = Anzahl der Wappen X kann die Werte 0, 1, 2 Annehmen mit den Wahrscheinlichkeiten 1 2 1 P (X = 0) = , P (X = 1) = , P (X = 2) = 4 4 4 E (X) = 0 ⋅ P (X = 0) + 1 ⋅ P (X = 1) + 2 ⋅ P (X = 2) 1 2 1 =0⋅ +1⋅ +2⋅ 4 4 4 2 2 4 =0+ + = =1 4 4 4 Y = Gewinn in Abhängigkeit der geworfenen Wappen Y = 0 DM Y = 1 DM Y = 4 DM bei X = 0 Wappen bei X = 1 Wappen bei X = 2 Wappen Wie groß ist die Gewinnerwartung ? E (Y) = ? Y = X2 E (Y) = E(X2) E (Y) = 02 ⋅ P (Y = 0) + 12 ⋅ P (Y = 1) + 22 ⋅ P (Y = 4) 1 2 1 = 02 ⋅ + 12 ⋅ + 22 ⋅ 4 4 4 2 4 3 = + = 4 4 2 Durchschnittlicher Gewinn 1,50 DM Seite 70 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ( ) ∑x 2 i ⋅ pi ( ) ∑x 3 i ⋅ pi ( ) ∑e xi ⋅ pi E X2 = alle i E X3 = alle i E eX = alle i E (u ( X )) = ∑ u(x ) ⋅ p i i für diskrete Zufallsvariablen alle i +∞ ( ) ∫x E X2 = ⋅ f ( x ) ⋅ dx 3 ⋅ f ( x ) ⋅ dx −∞ +∞ ( ) ∫x E X3 = 2 −∞ +∞ E (u ( X )) = ∫ u ( x ) ⋅ f ( x ) ⋅ dx −∞ Anwendung: E (a ⋅ X + b) = +∞ ∫ (a ⋅ x + b) ⋅ f (x )dx −∞ +∞ = ∫ a ⋅ x ⋅ f ( x ) + b ⋅ f ( x ) ⋅ dx −∞ +∞ +∞ = ∫ a ⋅ x ⋅ f (x ) ⋅ dx + ∫ b ⋅ f ( x ) ⋅ dx −∞ −∞ +∞ +∞ −∞ −∞ = a ⋅ ∫ x ⋅ f (x ) ⋅ dx + b ⋅ = a ⋅ E(X ) + b ⋅1 ∫ f (x ) ⋅ dx E (a ⋅ X + b) = a ⋅ E (X) + b ( ) E X 2 ≠ (E ( X )) 2 +∞ ∫ x ⋅ f ( x ) ⋅ dx x ⋅ f ( x ) ⋅ dx ≠ ∫−∞ −∞ +∞ 2 2 Seite 71 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ∑ (x ) k { E (Xk) = i ⋅ pi alle i +∞ ∫x k ⋅ f ( x ) ⋅ dx −∞ E (Xk) wird bezeichnet als k-tes Moment der Zufallsvariablen X = mk m1 = E (X1) = (X) m2 = E (X2) Anwendung der Momente einer Zufallsvariablen E (X) kann geschätzt werden durch x = 1 n ⋅ ∑ xi , wobei x1, x2, … , xn eine Stichprobe von n i =1 Beobachtungsdaten ist. es gilt: E (X2) kann geschätzt werden durch 1 n 2 ⋅ ∑ xi n i =1 E (X3) kann geschätzt werden durch 1 n 3 ⋅ ∑ xi n i =1 … E (Xk) kann geschätzt werden durch k-tes Moment der Zufallsvariablen X 1 n k ⋅ ∑ ( xi ) n i =1 k-tes Stichprobenmoment Das k-te Moment der Zufallsvariablen X (mk = E(xk)) kann geschätzt werden durch das k1 n k te Stichprobenmoment Mk = ⋅ ∑ ( xi ) n i =1 diese Feststellung kann zur Parameterschätzung verwendet werden: Schätzung nach der Momentmethode [ E ( X − c) k ] Spezialfall: [ k-tes Moment der Zufallsvariablen X in Bezug auf c. c = m1 = E (X) ] [ E ( X − m1 ) = E ( X − E ( X )) k k ] Seite 72 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik k-tes Zentralmoment = µ k [ ] µ 1 = E ( X − m1 ) = E( X − m1 ) = E( X ) − m1 = 0 1 [ µ 2 = E ( X − E ( X )) 2 ] Beispiel: X = Augensumme beim Werfen von zwei Würfeln [ µ 2 = E ( X − 7) 2 ] X – 7 = Abweichung der Augensumme X vom Erwartungswert E(X) = 7 (X – 7)2 = quadratische Abweichung der Augensumme X vom Erwartungswert E(X) =7 E[(X–7)2] = erwartete quadratische Erwartungswert E(X) = 7 Abweichung der Augensumme X vom = Varianz der Augensumme X = V(X) V (X) = µ 2 = E[(X–E(X))2] Die Varianz V(X) ist ein Maß für die Stärke der Streuung der Zufallsvariablen X. Die Varianz ist ein quadratisches Maß (Einheit ist das Quadrat der Einheit von X). V ( X ) = σ ( X ) = Standardabweichung von X Die Standardabweichung (σ(x)) ist ebenfalls eine Maßzahl für die Stärke der Streuung der Zufallsvariablen X (σ(x) hat die gleiche Dimension wie X). E (Xk) = { ∑ (x i − E ( X ) ) ⋅ pi 2 diskret alle i +∞ ∫ (x − E( X )) 2 ⋅ f ( x ) ⋅ dx stetig −∞ Seite 73 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Berechnung der Varianz der Normalverteilung Dichtefuntion: − 1 ⋅e 2 ⋅π ⋅σ f (x ) = ( x − µ )2 2 ⋅σ 2 E (X) = µ +∞ − 1 V (x ) = ∫ (x − µ ) ⋅ ⋅e 2 ⋅π ⋅σ −∞ 2 Substitution: ( x − µ )2 2⋅σ 2 ⋅ dx (x − µ ) = y σ x−µ =σ ⋅ y dx = σ ⋅ dy V(X) = +∞ ∫σ 2 ⋅ y2 ⋅ −∞ =σ 2 =σ 2 − 1 ⋅e 2 ⋅π +∞ − 1 ⋅ ∫ y2 ⋅ e 2 ⋅π −∞ ⋅ +∞ y2 2 y2 2 − 1 ⋅ ∫ y ⋅ y ⋅e 2 ⋅π −∞ ⋅ ⋅d ⋅ dy y2 2 ⋅ dy partielle Integration: u = y v′ = y ⋅ e u′ = 1 v = −e − − y2 2 y2 2 − y 2 +∞ + ∞ − y 2 1 2 2 2 =σ ⋅ ⋅ y ⋅ − e + ∫ e ⋅ dy 2 ⋅ π −∞ − ∞ +∞ y2 − 1 =σ ⋅ ⋅ ∫ e 2 ⋅ dy = 1 2 ⋅ π −∞ 2 Dichtefunktion der Standartnormalverteilung V (X) = σ 2 σ ( X ) = V (X ) = σ [ V(X) = E ( x − E ( X )) 2 ] Seite 74 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik [ = E [x − 2 ⋅ X ⋅ m + m ] = E (x ) − 2 ⋅ m ⋅ E ( X ) + m = E x 2 − 2 ⋅ X ⋅ E ( X ) + E ( X )) 2 2 ] 2 1 1 2 2 1 1 = m2 − 2 ⋅ m1 ⋅ m1 + m12 = m2 − 2 ⋅ m12 + m12 = m2 − m12 V ( X ) = m2 − m12 ( ) V ( X ) = E X 2 − (E ( X )) 2 Schätzung von σ 2 und σ σ 2 = V ( X ) = m2 − m12 mk kann geschätzt werden durch: Wobei x1, x2, … ,xn eine Stichprobe von Beobachtungsdaten darstellt 1 n k M k = ⋅ ∑ (xi ) n i =1 Schätzwert für σ 2 ist (Momentenmethode): 1 n 1 n M 2 − M = ⋅ ∑ xi2 − ⋅ ∑ xi n i =1 n i =1 2 2 1 Der Ausdruck kann umgeformt werden in: ( ) ( ) 2 1 n ⋅ ∑ xi − x n i =1 Beweis: [ 2 2 1 n 1 n ⋅ ∑ xi − x = ⋅ ∑ xi2 − 2 ⋅ xi ⋅ x + x n i =1 n i =1 = 1 n 2 1 n 1 n 2 ⋅ ∑ xi − ⋅ ∑ 2 ⋅ xi ⋅ x + ⋅ ∑ x n i =1 n i =1 n i =1 = 1 n 2 2⋅ x n 1 n 2 ⋅ ∑ xi − ⋅ ∑ xi + ⋅ ∑ x n i =1 n i =1 n i =1 = 2 1 n 2 1 n ⋅ ∑ xi − 2 ⋅ x ⋅ ⋅ ∑ xi + 1 ⋅ x n i =1 n i =1 = 2 1 n 2 ⋅ ∑ xi − x n i =1 ] Seite 75 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Schätzwert für σ 2 ist ( ) ( ) () 2 2 1 n 1 n 2 ⋅ ∑ xi − x = ⋅ ∑ xi − x n i =1 n i =1 2 ~ 1 n ⋅ ∑ xi − x = S 2 n i =1 σ 2 kann auch geschätzt werden durch: S2 = ( ) ( ) n 2 1 ⋅ ∑ xi − x n − 1 i =1 n 2 1 ⋅ ∑ xi − x n − 1 i =1 S= Varianz der Exponentialverteilung f (x) λ ⋅ e −λ ⋅ x für x > 0 0 sonst { V(X) = m2 − m12 m2 = ∫ x 2 ⋅ f ( x ) ⋅ dx = ∫ x 2 ⋅ λ ⋅ e − λ ⋅ x ⋅ dx +∞ +∞ −∞ −∞ partielle Integration: u = x2 v′ = λ ⋅ e − λ ⋅ x u′ = 2 ⋅ x v = −e − λ ⋅ x [ ( = x 2 ⋅ − e−λ ⋅ x )] ∞ 0 +∞ + 2 ⋅ ∫ x ⋅ e − λ ⋅ x ⋅ dx 0 +∞ = 0 + 2 ⋅ ∫ x ⋅ e − λ ⋅ x ⋅ dx 0 = 2⋅ +∞ 1 ∫ x⋅ λ ⋅λ ⋅e −λ⋅x ⋅ dx 0 ∞ 1 = 2 ⋅ ⋅ ∫ x ⋅ λ ⋅ e − λ ⋅ x ⋅ dx λ 0 = 2⋅ = 1 ⋅ E(X ) λ E( X ) = 1 λ 2 λ2 Seite 76 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik m1 = E ( X ) = 1 λ ⇒ V ( X ) = m2 − m1 = 2 V (X ) = 1 λ2 σ (X ) = 1 λ 2 1 1 − 2 = 2 2 λ λ λ Varianz und Standardabweichung der Normalverteilung { ∑ (x i − E ( X )) ⋅ pi 2 diskret alle i V (x) +∞ ∫ ( X − E ( X )) 2 ∫ (X − µ ) 2 ⋅ −∞ Substitution: +∞ V(X) = ∫ (σ ⋅ y ) 2 ⋅ −∞ =σ ⋅ 2 stetig −∞ +∞ V(X) = ⋅ f ( x ) ⋅ dx 1 2 ⋅π 1 2 ⋅π ⋅σ ⋅e − ( X − µ )2 2⋅σ 2 x−µ =σ ⋅ y x−µ =y σ 1 2 ⋅π ⋅σ ⋅e +∞ ⋅ ∫ y ⋅e 2 − − y2 2 y2 2 ⋅ dx dx = σ ⋅ dy ⋅ dy ⋅ dy −∞ +∞ 2 y − 1 =σ ⋅ ⋅ ∫ y ⋅ y ⋅ e 2 ⋅ dy 2 ⋅π −∞ 2 partielle Integration: u′ = 1 v = −e − y2 2 Seite 77 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik 1 =σ 2 ⋅ 2 ⋅π − y 2 ⋅ y ⋅ e 2 +∞ +∞ +∞ y2 − + e 2 ⋅ dy ∫ −∞ −∞ 2 y − 1 =σ ⋅ ⋅ e 2 ⋅ dy 2 ⋅ π −∫∞ 2 =σ 2 V (X ) = σ 2 σ ( X ) = V (x ) = σ Schätzung der Varianz σ2, bzw. Standardabweichung σ einer Normalverteilung Stichprobe von Beobachtungsdaten (Widerstände): x1, x2, … , xn 62,3 kΩ 59,8 kΩ … 60,4 kΩ 1 n ⋅ ∑ xi n i =1 Schätzwert für µ = x = m1 = E(X) = µ kann geschätzt werden durch: M1 = m2 = E(X2) 1 n ⋅ ∑ xi = x n i =1 kann geschätzt werden durch: M2 = mk = E(Xk) 1 n 2 ⋅ ∑ ( xi ) n i =1 kann geschätzt werden durch: Mk = 1 n k ⋅ ∑ (xi ) n i =1 Schätzung der Varianz bzw. Standarderhebung [ = E [X = E [X V (X) = E ( X − E ( X )) 2 2 2 ] ] − 2 ⋅ X ⋅ E ( X ) + (E ( X )) ] − 2 ⋅ X ⋅ E ( X ) + (E ( X )) 2 2 ( ) = E X 2 − E (2 ⋅ X ⋅ m1 ) + m12 = m2 − m12 V (X) = m2 − m12 = E(X2) – (E(X))2 Seite 78 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik m1 kann geschätzt werden durch: M1 = 1 n ⋅ ∑ xi = x n i =1 m2 kann geschätzt werden durch: M 2 n 1 = ⋅ ∑ (x i n i =1 )2 V(X) = m2 − m12 kann geschätzt werden durch: M 2 − M 12 = 2 1 n 2 ⋅ ∑ ( xi ) − x n i =1 ( ) Es gilt: 2 1 n 1 n 2 ⋅ ∑ ( xi ) − x = ⋅ ∑ xi − x n i =1 n i =1 Beweis: 1 n 1 n 1 n 2 2 ⋅ ∑ ( xi ) − ⋅ ∑ 2 ⋅ xi ⋅ x + ⋅ ∑ x n i =1 n i =1 n i =1 2 2 2 1 n 1 2 ⋅ ∑ ( xi ) − 2 ⋅ x + ⋅ n ⋅ x n i =1 n n 2 1 2 = ⋅ ∑ ( xi ) − x n i =1 = Zusammengefaßt: V (X) kann geschätzt werden durch ( ) 2 1 n ~ ⋅ ∑ xi − x = S 2 n i =1 S2 = ( n 1 ⋅ ∑ xi − x n − 1 i =1 ) 2 Stichprobenvarianz ist ebenfalls ein Schätzwert für V(X) Es kann gezeigt werden, daß S2 i.a. die genauere Schätzung liefert. S= ( n 1 ⋅ ∑ xi − x n − 1 i =1 ( ~ 1 n S = ⋅ ∑ xi − x n i =1 ) 2 ) 2 Stichprobenstandardabweichung Stichprobenstandardabweichung Varianz bei der gleichm. Verteilung in [a, b] Seite 79 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Dichtefunktion der gleichmäßigen Verteilung in [a, b] f (x) = { 1 b−a a≤x≤b 0 sonst b b a a E ( X ) = ∫ x ⋅ f ( x ) ⋅ dx = ∫ x ⋅ 1 a+b ⋅ dx = b−a 2 V (X) = m2 − m12 ( ) =E X 2 a +b − 2 2 a +b = ∫ x ⋅ f ( x ) ⋅ dx − 2 a b 2 2 1 a +b = ∫x ⋅ ⋅ dx − b−a 2 a 2 1 a +b = ⋅ ∫ x 2 ⋅ dx − b−a a 2 2 b 2 b 1 1 3 a + b = ⋅ ⋅x − b − a 3 a 2 b 2 1 1 3 (a + b ) = ⋅ ⋅ b − a3 − b−a 3 4 2 3 3 1 4 ⋅ b − a − 3 ⋅ (a + b ) ⋅ (b − a ) = ⋅ b−a 12 3 3 1 4 ⋅ b − a − 3 ⋅ a 2 + 2 ⋅ a ⋅ b + b 2 ⋅ (b − a ) = ⋅ b−a 12 3 3 2 1 4b − 4a − 3a b − 6ab 2 − 3b 3 + 3a 3 + 6a 2b + 3ab 2 = ⋅ b−a 12 2 (b − a ) = 12 ( ) ( ) ( ) σ (X ) = V ( X ) = 2 ( ) b−a 12 Seite 80 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Varianz und Standardabweichung der Exponentialverteilung V (X) = [(X – E(X))2] 2 = E X 2 − (E ( X )) ( ) ∞ E ( X ) = ∫ x ⋅ λ ⋅ e − λ ⋅ x ⋅ dx = 0 ( ) 2 λ ∞ E X 2 = ∫ x 2 ⋅ λ ⋅ e −λ ⋅ x ⋅ dx = 0 1 λ2 2 V (X ) = 2 1 1 − = 2 2 λ λ λ V (X ) = 1 λ2 σ (X ) = 1 λ n 1 ≈ x = ∑ xi λ i =1 1 ≈S= λ n 1 2 ⋅ ∑ ( xi − x ) n − 1 i =1 Varianz bzw. Standardabweichung der Binomialverteilung n n−k P( X = k ) = ⋅ p k ⋅ (1 − p ) k für k = 0, 1, … , n n n n n−k E ( X ) = ∑ k ⋅ P( X = k ) = ∑ k ⋅ ⋅ p k ⋅ (1 − p ) k =0 k =0 k E(X ) = n ⋅ p ( ) V ( X ) = E X 2 − (E ( X )) 2 n n n n−k E X 2 = ∑ k ⋅ P( X = k ) = ∑ k ⋅ ⋅ p k ⋅ (1 − p ) k =0 k =0 k 2 2 E X = n ⋅ (n − 1) ⋅ p + n ⋅ p ( ) ( ) Seite 81 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Einsetzten V (X) = n ⋅ (n − 1) ⋅ p 2 + n ⋅ p − (n ⋅ p ) 2 = −n ⋅ p 2 + n ⋅ p = n ⋅ p − n ⋅ p2 = n ⋅ p ⋅ (1 − p ) V ( X ) = n ⋅ p ⋅ (1 − p ) σ ( X ) = n ⋅ p ⋅ (1 − p ) X ist eine Normalverteilte Zufallsvariable mit Erwartungswert µ und Standardabweichung σ µ-σ µ µ+σ x ± 1σ - Bereich Wie groß ist der Anteil innerhalb (bzw. außerhalb des ±1 σ - Bereich ? P (µ − σ ≤ X ≤ µ + σ ) = F (µ + σ ) − F ( µ − σ ) µ +σ − µ µ −σ − µ = Φ − Φ σ σ = Φ (1) − Φ(− 1) = D(1) = 0,6827 = 68,27% x−µ F ( X ) = Φ σ Anteil bei einer Normalverteilung innerhalb des ±1 σ - Bereich beträgt 68,27 % Anteil außerhalb des ±1 σ - Bereich beträgt 31,73 % Anteil innerhalb des ±2 σ - Bereich bei einer Normalverteilung P (µ − 2 ⋅ σ ≤ X ≤ µ + 2 ⋅ σ ) = F (µ + 2 ⋅ σ ) − F (µ − 2 ⋅ σ ) µ + 2 ⋅σ − µ µ − 2 ⋅σ − µ = Φ − Φ σ σ = Φ (2) − Φ (− 2 ) = D(2) = 0,9545 = 95,45% Anteil außerhalb des ±2 σ - Bereich beträgt 4,55 % Anteil innerhalb des ±3 σ - Bereich bei einer Normalverteilung P(µ − 3 ⋅ σ ≤ X ≤ µ + 3 ⋅ σ ) = F (µ + 3 ⋅σ ) − F (µ − 3 ⋅ σ ) = 99,73% Anteil außerhalb des ±3 σ - Bereich beträgt 0,27 % Seite 82 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik σ = 2 kΩ Bsp.: µ = 60 kΩ 3 ⋅σ 6kΩ = = 10% Toleranzangabe µ 60kΩ σ µ Variationskoeffizient P (µ − k ⋅ σ ≤ X ≤ µ + k ⋅ σ ) = F (µ + k ⋅ σ ) − F (µ − k ⋅ σ ) = D (k ) = Anteil innerhalb des ± k σ - Bereichs P ( X − µ ≥ k ⋅ σ ) = 1 − D (k ) = Anteil außerhalb des ± k σ - Bereichs Anteil innerhalb des ± 2 σ - Bereichs bei der Exponentialverteilung: P(E ( X ) − 2 ⋅ σ ( X ) ≤ X ≤ E ( X ) + 2 ⋅ σ ( X )) 1 1 1 1 = P − 2 ⋅ ≤ X ≤ + 2 ⋅ λ λ λ λ 3 1 = P − ≤ X ≤ λ λ 3 1 = F − F − λ λ = 1− e = 1− e −λ⋅ 3 λ −3 = 95% −0 Anteil innerhalb des ± 2 σ - Bereichs bei der Binomialverteilung: Zum Beispiel mit: n = 16 p= 1 4 P(E ( X ) − 2 ⋅ σ ( X ) ≤ X ≤ E ( X ) + 2 ⋅ σ ( X )) ( = P(4 − 2 ⋅ = P n ⋅ p − 2 ⋅ n ⋅ p ⋅ (1 − p ) ≤ X ≤ n ⋅ p + 2 ⋅ n ⋅ p ⋅ (1 − p ) 3 ≤ X ≤ 4 + 2⋅ 3 ) ) Seite 83 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik = P(4 − 3,46 ≤ X ≤ 4 + 3, 46) = P(0,54 ≤ X ≤ 7,46 ) = P( X = 1) + P( X = 2 ) + 16 1 = ⋅ 1 4 + P( X = 7 ) 16 1 3 ⋅ + ⋅ 4 2 4 = 0,053 + 0,134 + + 0,052 1 15 2 14 3 ⋅ + 4 16 1 + ⋅ 7 4 7 3 ⋅ 4 9 = 0,963 = 96,3% Es gilt: Bei den meisten Verteilungen sind die Anteile innerhalb, bzw. außerhalb des ± k ⋅ σ(X) – Bereichsvon ähnlicher Größe wie bei der Normalverteilung. Für alle Verteilungen gilt: P( X − E ( X ) ≥ k ⋅ σ ( X )) ≤ 1 k2 Ungleichung von Tschebyscheff k=2 P( X − E ( X ) ≥ 2 ⋅ σ ( X )) ≤ 1 1 = = 25% 22 4 P( X − E ( X ) ≥ 3 ⋅ σ ( X )) ≤ 1 1 = ≈ 11% 32 9 P( X − E ( X ) ≥ 4 ⋅ σ ( X )) ≤ 1 1 = ≈ 6% 2 4 16 k=3 k=4 [ ( V X = E ( X − E ( X )) [ µ 3 = E ( X − E ( X ))3 2 ]) = µ 2 2. Zentralmoment ] µ 3 ist Null, wenn die Verteilung symmetrisch ist. µ3 3 µ2 2 = γ = Schiefe der Verteilung γ=0 Seite 84 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik γ>0 γ<0 Schätzung der Schiefe γ: Stichprobe von Beobachtungsdaten: X1, X2, … , Xn Schätzwert für µ 2: Schätzwert für µ 3: 1 n 2 ⋅ ∑ ( xi − x ) n i =1 1 3 ⋅ ∑ ( xi − x ) n i =1 n 3 2 1 n 2 ⋅ ∑ ( xi − x ) n i =1 1 n 3 ⋅ ∑ ( xi − x ) n i =1 Schätzwert für die Schiefe γ Transformation von Verteilungen Bsp.: X sei eine Zufallsvariable mit Standardnormalverteilung Y = 2 ⋅ X + 60 Frage: Was für eine Verteilung hat Y ? Seite 85 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik allgemein: X sei eine Zufallsvariable mit vorgegebener Verteilungsfunktion F(x) Y=a⋅X+b Frage: Was für eine Verteilung hat Y ? noch allgemeiner: Y = u(X) F (X) = P (X ≤ x) vorgegeben G (y) = P (Y ≤ y) gesucht G (Y) = P(a ⋅ X + b ≤ y) = P(a ⋅ X ≤ y − b ) y −b y−b für a > 0 = P X ≤ = F a a y −b y −b y − b für a < 0 y −b = P X ≥ = 1 − P X < = 1− F + P X = a a a a y −b F a für a > 0 y −b y−b 1− F + P X = a a für a < 0 G (Y) = y −b wenn X stetig ist, dann P X = =0 a Transformation von Verteilungen X eine Zufallsvariable mit vorgegebener Verteilung F (X) = Verteilungsfunktion von X y = a ⋅ X + b lineare Funktion von X G (y) = Verteilungsfunktion von y y −b F a für a > 0 y −b y −b 1− F + P X = a a für a < 0 G (Y) = Seite 86 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik y −b P X = = 0 falls X eine stetige Zufallszahl a Bsp.: X hat eine Standardnormalverteilung y = 2 ⋅ x + 60 ges.: Verteilung von y Einschub: X sei eine stetige Zufallsvariable f (x) = Dichtefunktion von X f ( X ) = F ′( X ) Dichtefunktion von y y −b 1 f ⋅ a a für a > 0 y −b 1 − f ⋅ a a für a < 0 g ( y ) = G ′( y ) = y−b 1 g(y) = f für a ≠ 0 ⋅ a a f (X ) = 1 2 ⋅π ⋅e − x2 2 Dichtefunktion, die zu diesem X gehört y − 60 1 g (y) = f ⋅ 2 2 1 y − 60 2 2 − ⋅ 1 = ⋅e 2 2 ⋅π − 1 = ⋅e 2 ⋅π ⋅ 2 Folgerung: ⋅ 1 2 ( y − 60 ) 2 2⋅ 2 2 Das y hat eine Normalverteilung mit E (y) = 60 und σ (y) = 2 Seite 87 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Die Verteilungsfunktion von X ist Φ (X) y − 60 Die Verteilungsfunktion von y ist G (y) = Φ 2 Anwendung: Auf einem Rechner soll eine Produktion von elektrischen Widerständen simuliert werden. Die simulierten Widerstandswerte sollen normalverteilt sein mit Parameter µ = 60 kΩ σ = 2 kΩ. Zur Verfügung stehen Zufallszahlen X mit Standardnormalverteilung. z.B.: X = 1,3721 -0,4613 0,8425 … y = 2 ⋅ x + 60 y = 62,7442 59,0774 61,6858 … X ist eine Zufallsvariable mit Verteilungsfunktion F(X) = P(X ≤ X) Y = u(X) gesucht: Verteilungsfunktion G(Y) = P(Y ≤ y) G(y) = P(Y ≤ y) = P( u(X) ≤ y) X = v(Y) Umkehrfunktion zu u monoton steigend/fallend keine umkehrbare Funktion y y x x – Unkehrfunktion existiert, wenn u streng monoton steigend oder fallend ist – P( X ≤ v(Y )) G( y ) = P( X ≥ v(Y )) falls u steigend falls u fallend falls u steigend Transformationsformel für falls u fallend Seite 88 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik F (v(Y )) G( y ) = 1 − F (v(Y )) + P( X = v( y )) F (v(Y )) G( y ) = 1 − F (v (Y )) falls u steigend falls u fallend Transformationsformel für stetige X Dichtefunktion: f (v( y )) ⋅ v’( y ) g ( y ) = G ’( y ) = − f (v( y )) ⋅ v’( y ) falls u steigend falls u fallend g ( y ) = f (v( y )) ⋅ v ’( y ) Beispiel: X sei eine Zufallsvariable mit gleichmäßiger Verteilung in [0, 1] 0 für x < 0 X für 0 ≤ X ≤ 1 1 für X > 1 F= 1 für 0 ≤ x ≤ 1 f(x) = 0 sonst 1 1 1 Verteilungsfunktion 1 Dichtefunktion 1 ⋅ ln (1 − x ) λ > 0 konstant λ gesucht: Verteilung von Y Y =− Bestimmung der Umkehrfunktion u Auflösen nach X Seite 89 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik − λ ⋅ Y = ln(1 − X ) e − λ ⋅Y = 1 − X X = 1 − e − λ ⋅Y G ( y ) = F (v( y )) = v( y ) = 1 − e − λ ⋅ y für y ≥ 0 1 − e − λ ⋅ y G( y ) = 0 für y < 0 Folgerung: Y hat eine Exponentialverteilung mit Parameter λ Anwendung: Für die Simulation einer Exponentialverteilung werden Zufallszahlen benötigt. Diese können nach der Formel 1 Y = − ⋅ ln (1 − x ) λ berechnet werden aus Zufallszahlen X mit gleichmäßiger Verteilung in [0, 1]. Zahlenbeispiel: Es soll die Lebensdauer von Geräten simuliert werden mit einer Lebenserwartung von 4 Jahren. 1 1 = 4 Jahre ⇒ λ = Jahre −1 λ 4 Y = – 4 ⋅ ln(1 – x) Y = – 4 ⋅ ln(1 – x) 8,11 Jahre 1,12 Jahre 3,12 Jahre X 0,86846 0,24440 0,54235 Es sollen Zufallszahlen Y mit Weiballverteilung mit Parameter λ und α erzeugt werden. zur Verfügung stehen Zufallsvariablen X mit gleichmäßiger Verteilung in [0, 1]. Wie muss die Berechnungsvorschrift Y = u(X) gewählt werden ? Verteilungsfunktion der Weiballverteilung 1 − e − (λ ⋅ y ) G( y ) = 0 α für y ≥ 0 sonst X = G( y ) X = 1 − e − (λ ⋅Y ) α e − (λ ⋅Y ) = 1 − X α Seite 90 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik − ( X ⋅ Y ) = ln (1 − X ) α λ ⋅ Y = [− ln (1 − X )]α 1 1 Y = ⋅ [− ln(1 − X )]α λ −1 Umkehrfunktion zu G G (X ) = 1 Allgemein: Zur Erzeugung von Zufallszahlen Y mit vorgegebener Verteilungsfunktion G(y) aus Zufallszahlen X mit gleichmäßiger Verteilung in [0, 1] kann die Berechnungsvorschrift: Y = G-1 (X) verwendet werden, wobei G-1 die Umkehrfunktion von G ist. Das Verfahren heißt Inversionsmethode. Beispiel: Es sollen Zufallszahlen Y mit Weiballverteilung mit Parameter λ = 1 Jahre −1 und α = 3,2 erzeugt 4 werden. X 0,86846 0,24440 0,54135 … Y=4 4,989 2,688 3,7 … grafische Veranschaulichung x 1 x G(y) stetige Verteilung x y y x 1 x P1 P2 y1 P3 y2 P4 y3 P5 y4 P6 y5 diskrete Verteilung y6 y Seite 91 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Anwendung der Inversionsmethode auf die Normalverteilung: Es sollen Zufallszahlen Y mit Standardnormalverteilung erzeugt werden. Wie lautet die Berechnungsvorschrift ? Verteilungsfunktion der Standardnormalverteilung: G( y ) = Φ( y ) X = Φ( y ) Auflösen nach Y y X = 2 t − 1 ⋅ ∫ e 2 dt 2 ⋅π −∞ Kann nicht in geschlossener Form invertiert werden. Folgerung: Für die N-Verteilung ist die Inversionsmethode praktisch ungeeignet. Erzeugung von Zufallszahlen Y mit vorgegebener Dichtefunktion g(y) 1) Die Dichtefunktion sei nur in einem endlichen Intervall [a, b] von Null verschieden. 2) Es gibt eine obere Schranke C für die Funktionswerte von g(y) g(y) ≤ C C g(y) a b Seite 92 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X1, X2 zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [0, 1]. Z1 = (b – a) ⋅ X1 + a Z2 = C ⋅ X2 Z1 ist gleichmäßig Verteilt in [a, b]. Z2 ist gleichmäßig Verteilt in [0, C]. C g(y) Z1, Z1 Z1 a Ziel: Z2 ∆y ∆y y b y+∆y Die zu erzeugenden Zufallszahlen Y sollen folgende Eigenschaft haben: P ( y ≤ Y ≤ y + ∆y ) = y + ∆y ∫ g (t )dt ≈ g ( y ) ⋅ ∆y y Folgerung: In Bereichen, wo g(y) groß ist, müssen die Zufallszahlen Y mit größerer Wahrscheinlichkeit erzeugt werden als in Bereichen, wo g(y) klein ist. Falls Z2 ≤ g(Z1), dann setze Y = Z1 Andernfalls verwerfe Z1, Z2 „ Rückweisungsmethode“ Beispiel: es sollen Zufallszahlen Y erzeugt werden mit der Dichtefunktion: 3 5 8 ⋅ ( y − 1)2 ⋅ (3 − y )2 g ( y ) = 3 ⋅ π 0 falls 1 ≤ y ≤ 3 sonst Seite 93 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik a = 1 b= 3 b–a = 2 g’(y) = 0 ⇒ g(y) besitzt ein maximum bei y = 1,75 g(1,75) = 0,963… g(y) ≤ 1 C=1 Z1 = 2 ⋅ X1 + 1 Z2 = 1 ⋅ X2 = X2 X1 0,87331 0,28104 0,83640 0,68764 0,37995 X2 0,82442 0,26432 0,17323 0,84728 0,96106 Z1 2,74662 1,56208 2,6728 2,37528 1,7599 Z2 0,82442 0,26432 0,17323 0,84728 0,96106 g(Z1) 0,06332 0,88686 0,11243 0,42215 0,9626 Y verwerfen 0,88686 verwerfen verwerfen 1,7599 Es sollen Zufallszahlen Y mit Standardnormalverteilung erzeugt werden: 1. Die Rückweisungsmethode ist (exakt) nicht anwendbar auf die Standardnormalverteilung, da die Normalverteilung nicht nur in einem endlichen Intervall von 0 verschieden ist. 2. Näherungsweise kann die Rückweisungsmethode verwendet werden, wenn die Dichtefunktion der Normal-Verteilung „ abgeschnitten“ wird, z.B. außerhalb des Bereichs [-3, 3]. Seite 94 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Transformation von Verteilungen X eine Zufallsvariable mit Dichtefunktion f(x) Y = u(x) Dichtefunktion von Y ist g ( y ) = f (v( y )) ⋅ v’( y ) wobei v die Umkehrfunktion zu u ist. X1, X2 seien zwei unabhängige Zufallsvariablen mit Dichten f1(x1) und f2(x2) Y1 = u1(X1, X2) Y2 = u2(X1, X2) gesucht : Dichtefunktion von Y1 und Y2 A, B zwei unabhängige Ereignisse P(A ∩ B) = P(A) ⋅ P(B) P((X1 ≤ x1) ∩ (X2 ≤ x2) ) = P(X1 ≤ x1) ⋅ P(X2 ≤ x2) = F1(x1) ⋅ F2(x2) F(x1, x2) Verteilungsfunktion von X1 und X2 f(x1, x2) = f1(x1) ⋅ f2(x2) gilt für unabhängige Zufallsvariablen g ( y1 , y2 ) = f1 (v1 ( y1 , y2 )) ⋅ f 2 (v2 ( y1, y2 )) ⋅ J ∂v1 , ∂y1 J= ∂v2 , ∂y1 ∂v1 ∂y2 ∂v2 ∂y2 Funktionaldeterminante wobei v1 und v2 die Umkehrfunktionen zu u1 und u2 sind. Seite 95 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Beispiel: X1 und X2 seien zwei unabhängige Zufallsvariablen mit gleichmäßiger Verteilung in [0, 1]. 1 f1 ( x1 ) = 0 für 0 ≤ x1 ≤ 1 1 f 2 ( x2 ) = 0 für 0 ≤ x1 ≤ 1 sonst sonst Y1 = (− 2 ⋅ ln X1 )2 ⋅ cos(2π ⋅ X 2 ) = u1(X1, X2) Y2 = (− 2 ⋅ ln X 1 )2 ⋅ sin (2π ⋅ X 2 ) = u2(X1, X2) 1 1 gesucht Dichtefunktion g(y1, y2) von Y1 und Y2 Berechnung der Umkehrfunktionen: [ ] Y1 + Y2 = −2 ⋅ ln X 1 ⋅ cos2 (2π ⋅ X 2 ) + sin 2 (2π ⋅ X 2 ) 2 2 Y + Y2 − 1 = ln X 1 2 2 X1 = e 2 − 1 Y1 2 + Y2 2 2 = v1(Y1, Y2) Y2 = tan (2π ⋅ X 2 ) Y1 Y arctan 2 = 2π ⋅ X 2 Y1 Y 1 X2 = ⋅ arctan 2 2π Y1 − ∂v1 = −e ∂y1 Y12 + Y22 2 − ∂v1 = −e ∂y2 Y12 + Y22 2 = v2(Y1, Y2) ⋅ Y1 ⋅ Y2 Y ⋅ − 22 Y Y1 1 + 2 Y1 ∂v2 1 1 1 = ⋅ ⋅ 2 ∂y2 2π Y Y1 1 + 2 Y1 ∂v2 1 = ⋅ ∂y1 2π 1 2 Seite 96 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Y 2 +Y 2 Y 2 +Y 2 2 2 − 1 − 1 ∂v1 ∂v1 = −e 2 ⋅ Y1 , = −e 2 ⋅ Y2 ∂y1 ∂y2 Y ∂v2 J = ∂v2 1 1 1 1 1 = ⋅ ⋅ − 22 , = ⋅ ⋅ 2 2 ∂y1 2π Y Y1 ∂y2 2π Y Y1 1 + 2 1 + 2 Y1 Y1 = −e − Y12 + Y22 2 1 − =− ⋅e 2π 1 − =− ⋅e 2π 1 ⋅ Y1 ⋅ ⋅ 2π Y12 + Y22 2 ⋅ − 1 ⋅ −e 2 Y Y1 1 + 2 Y1 1 Y12 + Y22 2 ⋅ ( − Y2 ) ⋅ 1 ⋅ 2π Y ⋅ − 22 Y Y1 1 + 2 Y1 1 2 Y2 2 ⋅ 1+ 2 2 Y2 Y1 1 + Y1 1 Y12 + Y22 2 1 − J = ⋅e 2π Y12 + Y22 2 g ( y1 , y2 ) = f1 (v1 ( y1 , y2 )) ⋅ f 2 (v2 ( y1 , y2 )) ⋅ J 1 1 − g ( y1, y2 ) = ⋅e 2π g ( y1, y2 ) = 1 Y12 + Y22 2 − 1 ⋅e 2π Y12 2 Dichtefunktion der Standardnormalverteilung − 1 ⋅ ⋅e 2π Y22 2 Dichtefunktion der Standardnormalverteilung Folgerung: Y1 und Y2 sind zwei unabhängige Zufallsvariablen, beide mit Standardnormalverteilung. X1 0,83721 0,68219 0,21943 … X2 0,46839 0,73215 0,58214 … Y1 -0,58440 -0,09788 -1,51482 … Y2 0,11762 0,8691 -0,8595 … „ Direkte Methode“ (zur Erzeugung von Standardnormalverteilten Zufallszahlen) Seite 97 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Modifizierte Direkte Methode X1, X2 zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [0, 1] V1 = 2 ⋅ X1 – 1 V2 = 2 ⋅ X2 – 1 V1 V2 sind zwei unabhängige Zufallszahlen mit gleichmäßiger Verteilung in [–1, 1] 1 (V1, V2) V2 V 1 2 + V 22 θ -1 V1 1 -1 S = V12 + V22 θ ist gleichmäßig Verteilt in [0, 2π] Bei Beschränkung auf den Einheitskreis hat S eine gleichmäßige Verteilung in [0, 1] cosθ = V1 S sin θ = V21 S Algorithmus: 1) Aus X1, X2 berechne V1 = 2 ⋅ X1 – 1 V2 = 2 ⋅ X2 – 1 2) Berechne S = V12 + V22 Falls S > 1 dann beginne mit zwei neuen Werten X1, X2 andernfalls berechne: Seite 98 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Y1 = V1 ⋅ − 2 ⋅ ln S S Y2 = V2 ⋅ − 2 ⋅ ln S S Y1, Y2 sind zwei Zufallszahlen mit Standardnormalverteilung Weitere Fragestellungen, die mit Transformationen von Verteilungen behandelt werden können. Beispiel: Zwei Schachteln von elektrischen Widerständen. I: Widerstände mit 60 kΩ II: Widerstände mit 100 kΩ 10% Toleranz 9% Toleranz Serienschaltung eines Widerstandes I und II Was für einen Nennwert und was für eine Toleranz hat die Reihenschaltung dieser beiden Widerstände? Voraussetzung: die Widerstandswerte I und II sind Normalverteilt. X1 = Widerstandswert des Widerstandes I X2 = Widerstandswert des Widerstandes II Y = Widerstandswert der Reihenschaltung Y = X1 + X2 Was für eine Verteilung hat Y? X1 hat N-Verteilung mit X2 hat N-Verteilung mit allgemeiner: µ 1 = 60 kΩ, σ1 = 2kΩ µ 2 = 100 kΩ, σ2 = 3kΩ X1 , X2 zwei unabhängige Zufallsvariablen mit vorgegebener Verteilung gesucht: Verteilung der beiden Zufallsvariablen. Entsprechend gibt es Fragestellungen, wo die Verteilungen der Differenz oder des Produktes oder des Quotienten der beiden Zufallsvariablen X1 , X2 ermittelt werden muß. allgemein: X1 , X2 zwei unabhängige Zufallsvariablen mit vorgegebenen Dichtefunktionen f1(X1), f2(X2) Y = u(X1 , X2) gesucht : (3) Dichtefunktion von Y : g(y) Seite 99 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik bisher: Y = u(X) g (y) = f(v(y) ⋅ |v’(y)| (1) Y1 = u1(X1, X2) (2) Y2 = u2(X1, X2) g(y1, y2) = f1(v1(y1, y2) ⋅ f2(v2(y1, y2) ⋅ |J| g(y) = +∞ ∂v ∫ f ( X ) ⋅ f (v( X , y )) ⋅ ∂y ⋅ dx 1 1 2 1 1 −∞ wobei : X2 = v(X1, y) die Auflösung von Y = u(X1 , X2) Anwendung auf die Addition von Zufallszahlen = u(X1, X2) = v(X1, Y) Y = X1 + X2 X2 = Y - X1 ∂v =1 ∂y g(y) = +∞ ∫ f ( X ) ⋅ f (Y − X ) ⋅ 1 ⋅ dx 1 1 2 1 1 −∞ g wird berechnet durch Faltung von f1 mit f2 Faltungsintegral Addition von zwei Zufallsvariablen erfordert Faltung der Zugehörigen Dichtefunktionen. Subtraktion: = u(X1, X2) = v(X1, Y) Y = X1 – X2 X2 = X1 – Y ∂v = −1 ∂y g(y) = ∂v =1 ∂y +∞ ∫ f (X )⋅ f (X 1 1 2 1 − Y ) ⋅ dx1 −∞ Multiplikation: Y = X1 ⋅ X2 Y X2 = X1 ∂v 1 = ∂y X 1 = u(X1, X2) = v(X1, Y) Seite 100 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik g(y) = +∞ Y ∫ f ( X ) ⋅ f X 1 1 2 −∞ 1 ⋅ ⋅ dx1 1 X1 Division: X1 X2 X X2 = 1 Y ∂v X = − 21 ∂y Y = u(X1, X2) Y= g(y) = = v(X1, Y) X ∂v = − 21 ∂y Y +∞ X ∫ f ( X ) ⋅ f Y 1 1 1 2 −∞ X1 ⋅ 2 ⋅ dx1 Y Addition von Normalverteilten Zufallsvariablen Y = X1 + X2 − ( X 1 − µ1 ) 2 Dichte von X1: f1 (x1 ) = Dichte von X2: − 1 f 2 ( x2 ) = ⋅e 2 ⋅π ⋅σ 2 Dichte von Y: g(y) = 1 ⋅e 2 ⋅π ⋅σ1 2 ⋅σ 12 ( X 2 − µ 2 )2 2 ⋅σ 22 +∞ ∫ f ( X ) ⋅ f (Y − X ) ⋅ dx 1 1 2 2 1 −∞ = +∞ ∫ −∞ − 1 ⋅e 2π ⋅ σ 1 ( X 1 − µ1 ) 2 2 ⋅σ 1 2 − 1 ⋅ ⋅e 2π ⋅ σ 2 (Y − X 1 − µ 2 )2 2⋅σ 2 2 ⋅ dx1 = = Folgerung: 1 2π ⋅ σ 1 + σ 2 2 2 ⋅e − (Y − µ 1 − µ 2 ) 2 ( 2⋅ σ 1 2 + σ 2 2 ) die Summe Y hat ebenfalls eine Normalverteilung mit Parametern µ = µ1 + µ2 σ = σ 12 + σ 2 2 Seite 101 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik µ = µ 1 + µ 2 = 60 kΩ + 100kΩ = 160 kΩ σ = σ 12 + σ 2 2 = 2 2 + 5 2 kΩ = 13kΩ ≈ 3,61kΩ Toleranz: 3 ⋅ σ 10,8kΩ = = 6,8% µ 160kΩ E(X1) = µ 1 E(X2) = µ 2 E(X1 + X2) = E(X1) + E(X2) gilt nicht nur für normalverteilte Zufallsvariablen, sondern allgemein, d. h. für Zufallsvariablen mit beliebigem Verteilungstyp und sowohl für unabhängige, als auch für abhängige Zufallsvariablen. Subtraktion: Y = X1 – X2 g(y) = 1 2 ⋅π ⋅ σ1 + σ 2 2 2 ⋅e − (Y − µ1 − µ 2 )2 ( 2 ⋅ σ 12 + σ 22 ) µ = µ1 − µ 2 σ = σ 12 + σ 2 2 E(X1 – X2) = E(X1) – E(X2) σ 2 = σ 12 + σ 22 V(X1 + X2) = V(X1) + V(X2) V(X1 – X2) = V(X1) – V(X2) gilt nicht nur für normalverteilte Zufallsvariablen, sondern allgemein auch für andere Verteilungen, allerdings nur für unabhängige Zufallsvariablen. Seite 102 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Weiteres Beispiel für die Addition von Zufallsvariablen Gegeben ein System, welches aus zwei Komponenten besteht. Komponente II ist eine Reservekomponente, die erst eingeschaltet wird, wenn Komponente I ausgefallen ist. (System mit kalter Redundanz) Beide Komponenten haben eine Lebenserwartung von je 10000 Stunden. Für beide Komponenten ist die Lebensdauer exponentialverteilt. Das System ist vorgesehen für eine Einsatzdauer von 6000 Stunden. Wie groß ist die Zuverlässigkeit des Systems für diese Einsatzdauer ? X1 = Lebensdauer von Komponente I X2 = Lebensdauer von Komponente II Y = Lebensdauer des Systems Y = X1 + X2 Addition von Zufallsvariablen mit Exponentialverteilung Dichte von X1: λ ⋅ e − λ1 ⋅ x1 f1 ( X 1 ) = 1 0 Dichte von X2: f2 (X 2 ) = sonst λ2 ⋅ e −λ 2 ⋅ x2 für x2 ≥ 0 sonst 0 E(X1) = 1 1 = 10000 h → λ1 = = 10 − 4 h −1 λ1 10000 E(X2) = 1 1 = 10− 4 h −1 = 10000 h → λ2 = λ2 10000 Gesucht: für x1 ≥ 0 P(Y > 6000 h) = ? Zur Berechnung wird die Verteilung von Y benötigt. Dichte von Y g(y) = +∞ ∫ f (x ) ⋅ f ( y − x ) ⋅ dx 1 1 2 1 1 −∞ für y ≥ 0 = 0 ∫ −∞ y +∞ 0 y f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1 + ∫ f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1 + ∫ f (x ) ⋅ f ( y − x ) ⋅ dx 1 1 2 1 1 Seite 103 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik y = ∫ f1 ( x1 ) ⋅ f 2 ( y − x1 ) ⋅ dx1 0 y = ∫ λ1 ⋅ e − λ1 ⋅ x1 ⋅ λ2 ⋅ e − λ2 ⋅( y − x1 ) ⋅ dx1 0 y = ∫ λ1 ⋅ λ2 ⋅ e − (λ1 − λ2 )⋅ x1 ⋅ e − λ 2 ⋅ y ⋅ dx1 0 y = λ1 ⋅ λ2 ⋅ e − λ2 ⋅ y ⋅ ∫ e − (λ1 − λ2 )⋅ x1 ⋅ dx1 0 y 1 − (λ1 − λ 2 )⋅ y − λ − λ ⋅ e 2 1 0 für λ1 ≠ λ2 : − 1 1 ⋅ e − (λ1 − λ2 )⋅ y + − λ1 − λ2 λ1 − λ2 λ1 ⋅ λ2 ⋅ e − λ2 ⋅ y − e − λ1 ⋅ y g ( y ) = λ1 − λ2 0 ( ) für y ≥ 0 sonst für λ1 = λ2 = λ g(y) = λ ⋅ e 2 y −λ ⋅ y ⋅ ∫ e − (λ − λ )⋅ x1 ⋅ dx1 0 y g ( y ) = λ2 ⋅ e − λ ⋅ y ⋅ ∫1 ⋅ dx1 0 g(y) = λ ⋅ e 2 −λ ⋅ y ⋅ [x ]0 y g ( y ) = λ2 ⋅ e − λ ⋅ y ⋅ y λ2 ⋅ e − λ ⋅ y ⋅ y für y ≥ 0 g(y) = 0 sonst Erlang – Verteilung mit Parameter λ und k (k = 2) Dichtefunktion: λk ⋅ e − λ ⋅ k ⋅ y k −1 g ( y ) = (k − 1)! 0 für y ≥ 0 sonst k = 1 entspricht der Exponentialverteilung k=2 g(y) = λ2 − λ ⋅ y ⋅e ⋅y 1! Seite 104 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Zuverlässigkeitsfunktion der Erlangverteilung R (t) = P (y > t) i k −1 − λ ⋅t e ⋅ (y ⋅ t ) =∑ i! i =0 für k = 2 : e − λ ⋅t ⋅ ( y ⋅ t ) R (t) = ∑ i! i =0 i 1 e − λ ⋅t ⋅ (λ ⋅ t ) e − λ ⋅t ⋅ (λ ⋅ t ) = + 0! 1! − λ ⋅t − λ ⋅t = e + e ⋅λ ⋅t 0 1 = e − λ ⋅t ⋅ (1 + λ ⋅ t ) R (6000) = e −10 =e −4 −0 , 6 ⋅ h −1 ⋅ 6000 h ( ⋅ 1 + 10−4 ⋅ h −1 ⋅ 6000h ⋅ (1 + 0,6 ) ) = e − 0,6 ⋅ 1,6 = 0,549 ⋅ 1,6 = 0,878 = 87,8% für k = 3 Komponenten (λ ⋅ t )2 R(t ) = e − λ ⋅t ⋅ 1 + λ ⋅ t + 2 R(6000 ) = e −0, 6 ⋅ (1 + 0,6 + 0,18) = 0,549 ⋅1,78 = 97,7% X sei eine stetige Zufallsvariable mit Verteilungsfunktion F(x) = P(X ≤ x) Y = x2 Gesucht: Verteilung von Y Verteilungsfunktion von Y: G(y) = P(X ≤ x) G(y) = ? G(y) = P(Y ≤ y) wenn y < 0, dann G(y) = 0 Seite 105 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik sei y > 0 : ( G(y) = P(Y ≤ y ) = P X 2 ≤ y ( ) = F ( Y ) − F (− Y ) ) =P− Y ≤X ≤ Y ( ) ( F Y − F − Y G( y ) = 0 ) für y ≥ 0 sonst Dichte von Y : g ( y ) = G′( y ) = f ( y )⋅ 2 ⋅1 y − f (− y )⋅ − 2 ⋅1 y [ ( y )+ f (− y )] 1 ⋅ f g(y) = 2 ⋅ y für y > 0 sonst 0 Beispiel: X eine Zufallsvariable mit Standardnormalverteilung Y = X2 Gesucht: Verteilung von Y x2 − 1 Dichte von X: f ( x ) = ⋅e 2 2 ⋅π Dichte von Y: g ( y ) = g(y) = g(y) = 1 2⋅ y [ ( y )+ f (− y )] ⋅ f y y − − 1 1 2 2 ⋅ ⋅e + ⋅e 2 ⋅ y 2 ⋅π 2 ⋅π 1 1 2⋅ y y ⋅2⋅ − 1 ⋅e 2 2 ⋅π y − 1 1 ⋅ ⋅e 2 g(y) = 2 ⋅π y 0 für y > 0 sonst χ2 – Verteilung mit 1 Freiheitsgrad Seite 106 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Dichtefunktion der χ2 – Verteilung mit n Freiheitsgraden: n y −1 − 1 2 2 ⋅ y ⋅e n g ( y ) = 2 2 ⋅ Γ n 2 0 für y > 0 sonst Gamma – Funktion Γ(z) ∞ Γ( z ) = ∫ t z −1 ⋅ e− t dt 0 Eigenschaften: ∞ [ Γ(1) = ∫ t 0 ⋅ e −t dt = − e− t ] ∞ 0 =1 0 ∞ Γ( z + 1) = ∫ t z ⋅ e − t dt 0 u = tz v′ = e − t u′ = z ⋅ t z −1 v = −e − t [ ( = t z ⋅ − e −t ∞ )] + ∫ z ⋅ t ∞ 0 z −1 ⋅ e −t dt 0 ∞ = 0 + z ⋅ ∫ t z −1 ⋅ e − t dt 0 = z ⋅ Γ( z ) Γ( z + 1) = z ⋅ Γ (z ) Funktionalgleichung der Γ-Funktion Γ(2 ) = Γ(1 + 1) = 1 ⋅ Γ(1) = 1 ⋅1 = 1 Γ(3) = Γ(2 + 1) = 2 ⋅ Γ(2) = 2 ⋅1 = 2! Γ(4 ) = Γ(3 + 1) = 3 ⋅ Γ(3) = 3 ⋅ 2!= 3! Γ(5) = 4! Γ(m ) = (m − 1)! m ganzzahlig positiv Seite 107 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ∞ − 1 Γ = ∫ t 2 ⋅ e− t dt = π 2 0 1 3 1 Γ = Γ + 1 = 2 2 5 3 Γ = Γ + 1 = 2 2 1 1 1 ⋅ Γ = ⋅ π 2 2 2 5 3 Γ = Γ + 1 = 2 2 7 5 Γ = Γ + 1 = 2 2 3 3 3 1 ⋅ Γ = ⋅ ⋅ π 2 2 2 2 3 3 3 1 ⋅ Γ = ⋅ ⋅ π 2 2 2 2 5 5 5 3 1 ⋅ Γ = ⋅ ⋅ ⋅ π 2 2 2 2 2 11 9 9 9 9 7 5 3 1 Γ = Γ + 1 = ⋅ Γ = ⋅ ⋅ ⋅ ⋅ ⋅ π 2 2 2 2 2 2 2 2 2 χ2 – Verteilung mit 1 Freiheitsgrad g(y) = g(y) = 1 1 2 ⋅ Γ 2 1 2 ⋅y 1 −1 2 − y 2 −1 − y 2 −1 − y 2 ⋅e 1 1 − 2y ⋅ ⋅e 2⋅ π y 1 1 − 2y g(y) = ⋅ ⋅e 2π y χ2 – Verteilung mit 2 Freiheitsgrad g(y) = 1 2 2 2 ⋅ Γ 2 2 g(y) = 1 − 2y ⋅e 2 g(y) = 1 2 ⋅ y2 ⋅ e χ2 – Verteilung mit 3 Freiheitsgrad 3 2 2 ⋅ Γ 2 3 3 ⋅ y2 ⋅e y − 1 g(y) = ⋅ y ⋅e 2 1 2⋅ 2 ⋅ ⋅ π 2 y − 1 g(y) = ⋅ y ⋅e 2 2π Seite 108 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik χ2 – Verteilung mit 4 Freiheitsgrad g(y) = 1 4 2 ⋅ Γ 2 4 2 ⋅y 4 −1 2 ⋅e − y 2 y − 1 ⋅ y ⋅e 2 4 ⋅1 y − 1 2 g(y) = ⋅ y ⋅ e 4 g(y) = X1, X2 zwei unabhängige Zufallsvariablen mit Standardnormalverteilung Y = X12 + X22 gesucht : Verteilung von Y Y1 = X12 Y2 = X22 Y1 hat χ2 –Verteilung mit 1 Freiheitsgrad Y2 hat χ2 –Verteilung mit 1 Freiheitsgrad Dichte g1(y1) Dichte g2(y2) Y = Y1 + Y2 Die Verteilung von Y ergibt sich durch Faltung der beiden χ2 –Verteilungen mit je 1 Freiheitsgrad Dichte von Y: g ( y ) = +∞ ∫ g ( y ) ⋅ g ( y − y ) ⋅ dy 1 1 2 1 1 −∞ y g(y) = ∫ 0 y − 1 − 1 1 1 1 ⋅ ⋅e 2 ⋅ ⋅ ⋅e 2 ⋅π y1 2 ⋅π y − y1 y − y1 2 ⋅ dy1 y = 1 − = ⋅e 2 2 χ2 –Verteilungen mit 2 Freiheitsgraden Folgerung: X1, X2, … , Xn unabhängige Zufallsvariablen mit Standardnormalverteilung Y = X12 + X22 + … + Xn2 Y hat eine χ2 –Verteilungen mit n Freiheitsgraden Beispiel: Es wurden 6 Zufallszahlen mit Standardnormalverteilung erzeugt nach der direkten Methode: X12, X22, … , X62 0,8377, -1,4392, … , 2,5164 Y = X12 + X22 + … + X62 Y ist eine Zufallszahl mit χ2 –Verteilung mit 6 Freiheitsgraden Seite 109 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Wie groß ist die Wahrscheinlichkeit, dass Y einen Wert annimmt ≤ 10,64 ? P (Y ≤ 10,64) = ? mit G = Verteilungsfunktion der χ2 –Verteilung mit 6 Freiheitsgraden = G (10,64) G( y ) = y =∫ 0 y y −∞ 0 ∫ g (t )dt = ∫ g (t )dt n 1 n 2 2 ⋅ Γ 2 n −1 − t ⋅ t 2 ⋅ e 2 ⋅ dt Verteilungsfunktion der χ2 –Verteilung mit n Freiheitsgraden für n = 6 y t − 1 G ( y ) = ∫ 3 ⋅ t 2 ⋅ e 2 ⋅ dt 2 ⋅2 0 G (10,64) = 10 , 64 ∫ 0 t 1 2 −2 ⋅ t ⋅ e ⋅ dt = 0,9 = 90% 24 90 % g(t) t 10,64 0 10,64 ist der 90 % - Punkt der χ2 –Verteilung mit 6 Freiheitsgraden Die χ2 –Verteilung gehört zu den „ Testverteilungen“ X1 sei eine Zufallsvariable mit Standardnormalverteilung. x2 − 1 f1 ( x1 ) = ⋅e 2 2π W sei eine Zufallsvariable mit χ2 –Verteilung mit n Freiheitsgraden X1, W sind unabhängig voneinander. Seite 110 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik g (w) = n 2 ⋅ Γ 2 n 2 X1 W n Y= −1 ⋅ w2 ⋅ e − t 2 für w > 0 gesucht: Verteilung von Y W n X2 = Y= n 1 X1 X2 Dichte von X2: f1(x2) W = n ⋅ X2 dw = 2 ⋅ n ⋅ x2 dx2 2 ( ) f 2 ( x2 ) = g n ⋅ x2 ⋅ 2 ⋅ n ⋅ x2 = 2 1 n n 2 ⋅ Γ 2 2 ( ) ⋅ n ⋅ x2 ⋅ e 2 n − n2 ⋅2 n −1 = n ⋅ x2 ⋅ e n 2 2 ⋅ Γ 2 − n⋅ x 2 2 n⋅ x 2 2 2 ⋅ 2 ⋅ n ⋅ x2 2 f1 und f2 einsetzen in: h( y ) = +∞ x1 x1 ∫ f (x ) ⋅ f y ⋅ y 1 1 2 2 ⋅ dx1 −∞ = = n + 1 Γ 2 h( y ) = n Γ ⋅ n ⋅ π 2 ⋅ 1 n +1 y2 2 1 + n Dichte von Y für -∞ < Y < +∞ Studentsche t-Verteilung mit n Freiheitsgraden Seite 111 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik z. B.: für n = 1 1 + 1 Γ 2 h( y ) = 1 Γ ⋅ 1 ⋅ π 2 1 1 ⋅ π ⋅ π 1 + y2 1 1 = ⋅ π 1 + y2 = ( 1 ⋅ 1+1 2 y2 1 + 1 ) für n = 2 3 Γ 2 ⋅ h( y ) = Γ(1) ⋅ 2 ⋅ π 1 ⋅ π =2 ⋅ 1⋅ π 1 3 y2 2 1 + 2 1 3 y2 2 1 + 2 Verteilungsfunktion der Student’schen t-Verteilung mit n Freiheitsgraden n +1 Γ 2 F (z ) = ∫ n − ∞ Γ ⋅ n ⋅ π 2 z 1 ⋅ y 1 + n 2 n +1 2 ⋅ dy z.B. für n = 1 F (z ) = z −∞ F (z ) = 1 1 ∫ π ⋅ 1+ y 2 ⋅ dy = 1 z ⋅ [arctan( y )]− ∞ π 1 1 1 1 ⋅ arctan(z ) − ⋅ arctan(− ∞ ) = ⋅ arctan( z ) + π π π 2 Seite 112 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik arctan: π 2 − F(3,08) = 0,90 = 90 % π 2 3,08 ist der 90% - Punkt der Student’schen t-Verteilung mit 1 Freiheitsgrad. F(1,38) = 0,80 F-Verteilung mit (m, n) Freiheitsgraden V1, V2 zwei unabhängige Zufallsvariable mit χ2 –Verteilung mit m bzw. n Freiheitsgraden. V1 n V Y= m = ⋅ 1 V2 m V2 n Die Verteilung Y heißt F-Verteilung mit (m, n) Freiheitsgraden Dichte von Y: m+ n m −1 m n Γ 2 2 Y 2 2 m ⋅ n ⋅ ⋅ m n (m ⋅ y + n )m2+ n g(y) = Γ ⋅ Γ 2 2 0 für y>0 sonst Verteilungsfunktion: z G ( z ) = ∫ g ( y )dy 0 Seite 113 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik z.B.: m = 7, n = 5 Z = 4,88 G (4,88) = 4 ,88 ∫7 7 2 5 2 ⋅5 ⋅ 0 4,88 7 2 7 −1 2 Γ(6) y ⋅ dy 7 5 (7 ⋅ y + 5)6 Γ ⋅ Γ 2 2 5 2 y dy 6 5 3 1 3 1 ( 7 ⋅ y + 5 ) 0 ⋅ ⋅ ⋅ π⋅ ⋅ ⋅ π 2 2 2 2 2 numerische Integration = ∫ 7 ⋅5 ⋅ 120 5 2 ⋅ = 0,95 = 95% 4,88 ist der 95% - Punkt der F-Verteilung mit (7, 5) Freiheitsgraden 10,5 ist der 99% - Punkt der F-Verteilung mit (7, 5) Freiheitsgraden X1, X2, … , Xn seien unabhängige Zufallsvariable mit Normalverteilung mit Parameter µ und σ Y = X1 + X2 + … + Xn Y hat eine Normalverteilung mit Parameter µ y und σy es gilt: µ y = µ + µ + µ + … + µ = n ⋅ µ σ y = σ 2 +σ 2 + 1 1 ⋅ Y = ⋅ (X1 + X 2 + n n + σ 2 = n ⋅σ 2 = n ⋅ σ + Xn) = 1 n ⋅ ∑ Xi = X n i =1 hat eine Normalverteilung mit Parameter µ X und σ X X 1 1 1 1 µ X = E (X ) = E ⋅ Y = ⋅ E (Y ) = ⋅ µ y = ⋅ n ⋅ µ n n n n µX = µ 1 1 1 2 σ X = V (X ) = V ⋅ y = 2 ⋅ V ( y ) = 2 ⋅ n ⋅ σ 2 n n n σX = σ n Seite 114 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Anwendungsbeispiel: Messung, z.B. ein Körper wird gemessen Der Körper hat eine Masse von 1000g. Das Messergebnis ist der Messwert X. Der Messwert könnte sein z.B.: oder oder X = 1003 g X = 998 g X = 1000 g ⇒ Messfehler von 3g. ⇒ Messfehler von -2g. ⇒ Messfehler von 0g. Der Messfehler besteht im allgemeinen aus einem systematischen und einem zufälligen Anteil. Bei einem guten Messgerät ist der systematische Messfehler Null oder zumindest sehr klein. Es verbleibt der zufällige Messfehler Z. Z ist eine Zufallsvariable Z ist i.a. normalverteilt die Parameter seien µ z und σz µz = 0 σz ist festgelegt durch die Bauart (bei Präzisionswaage ist σz klein, bei einer ungenauen Waage ist σz größer. X = 1000 g + Z X ist eine Zufallsvariable mit Normalverteilung mit Parameter µ und σ µ = E(X) = E(1000g + Z) = 1000 g + E(Z) = 1000 g σ2 = V(X) = V(1000 g + Z) = V(Z) = σz2 σ = σz z.B.: σz = 2 g µ = 1000 g Das Messergebnis X wird (mit nahezu 100% Sicherheit) im Bereich 994 g bis 1006 g liegen (3σ Bereich). Der Körper wird n mal gewogen (z.B. n = 4) Messwerte X1, X2, … , Xn n unabhängige Zufallsvariablen mit Parameter m und σ (µ = tatsächliche Masse des Körpers σ ist durch die Bauart festgelegt, z.B. σ = 2 g) X= 1 n ⋅ ∑ X i arithmetisches Mittel der Messwerte n i =1 Seite 115 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X ist ebenfalls eine Zufallsvariable mit Normalverteilung mit Parametern µ X = µ und σ 2g σX = = n n z.B. n = 4 σX = 2g = 1g 4 X1, X2, … , Xn n Messwerte mit N-Verteilung mit µ und σ In welchem Bereich liegt der tatsächliche Wert µ ? X= 1 n ⋅ ∑ Xi n i =1 hat N-Verteilung mit µ X = µ und σ X = σ n σ σ P µ − C ⋅ ≤ X ≤ µ +C⋅ n n σ σ −µ −µ µ +C⋅ µ −C⋅ n n − Φ = Φ σ σ n n Φ (C ) − Φ (− C ) = D (C ) = γ für γ = 99 % für γ = 95 % für γ = 99,73 % für γ = 95,45 % C = 2,576 C = 1,960 C = 3,0 C = 2,0 σ σ ≤ X ≤ µ +C⋅ −µ n n σ σ −C⋅ ≤ X −µ ≤C⋅ ⋅ (− 1) n n σ σ C⋅ ≥ µ − X ≥ −C ⋅ n n σ σ −C⋅ ≤ µ − X ≤C⋅ +X n n σ σ X −C⋅ ≤ µ ≤ X +C⋅ n n σ σ P X − C ⋅ ≤ µ ≤ X +C⋅ =γ n n µ −C⋅ Seite 116 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik σ σ X − C ⋅ n , X + C ⋅ n ist Konfidenzintervall für den Parameter µ einer Normalverteilung mit der Konfidenzzahl γ bei bekanntem σ Zahlenbeispiel: Ein Körper wurde 4 mal gewogen auf einer Waage mit Standardabweichung σ = 2 g Messwerte: X1 = 1003 g X2 = 998 g X3 = 1001 g X4 = 1000 g Bestimmung eines 99 % Konfidenzintervall für die tatsächliche Masse µ des Körpers γ = 99 % C = 2,576 X= 1 4 ⋅ ∑ X i = 1000,5 g 4 i =1 σ = 1000,5 − 2,576 ⋅ n σ X +C⋅ = 1000,5 + 2,576 ⋅ n X −C⋅ [997,924 , 1003,076] 2 = 997,924 4 2 = 1003,076 4 ein 99 % Konfidenzintervall für die unbekannte Masse µ des Körpers. γ = 95 % C = 1,960 X −C⋅ σ = 1000,5 − 1,960 ⋅ n σ X +C⋅ = 1000,5 + 1,960 ⋅ n 2 = 998,54 4 2 = 1002,46 4 [998,54 , 1002,46] ein 95 % Konfidenzintervall für die unbekannte Masse µ des Körpers. Bestimmung eines Konfidenzintervalls für den Parameter µ einer Normalverteilung bei unbekanntem σ. s= n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 Schätzwert für σ Seite 117 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X1, X2, … , Xn n unabhängige Zufallsvariablen mit N-Verteilung mit Parameter µ, σ Xi - µ hat N-Verteilung mit Parameter 0 und σ Xi − µ σ hat N-Verteilung mit Parameter 0 und 1 (Standardnormalverteilung) Xi − µ σ 2 hat χ2-Verteilung mit 1 Freiheitsgrad Xi − µ = ∑ σ i =1 2 n n 1 σ2 ∑ (X 1 σ2 ∑ (X i =1 i − µ) i − X) 2 n i =1 hat χ2-Verteilung mit n Freiheitsgraden 2 Verteilung = ? für n = 2: 1 σ2 ∑ (X n i =1 −X) 2 i [ ] 1 2 2 ⋅ ( X 1 − X ) + (X 2 − X ) 2 σ 2 2 1 X1 + X 2 X1 + X 2 = 2 ⋅ X 1 − + X2 − 2 2 σ = = 2 2 1 2 ⋅ X 1 − X 1 + X 2 2 ⋅ X 2 − X 1 − X 2 ⋅ + 2 2 σ 2 2 2 1 X 1 − X 2 X 2 − X 1 = 2 ⋅ + σ 2 2 = 1 X − X2 ⋅ 2⋅ 1 2 2 σ 2 1 (X − X 2 ) = 2 ⋅2⋅ 1 4 σ 2 X − X2 = 1 2 ⋅σ X1 – X2 2 hat N-Verteilung mit Parameter 0 und 2 ⋅ σ Seite 118 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik X1 − X 2 2 ⋅σ X1 − X 2 2 ⋅σ hat Standardnormalverteilung 2 hat χ2-Verteilung mit 1 Freiheitsgrad Folgerung: 1 σ2 X −µ σ n s2 = i =1 − X ) hat χ2-Verteilung mit n-1 Freiheitsgraden 2 i hat Standardnormalverteilung n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 (n − 1) ⋅ s 2 = σ ∑ (X n 2 1 n 2 ⋅ (X i − X ) 2 ∑ σ i =1 X −µ σ n =T (n − 1) ⋅ s 2 σ2 (n − 1) hat χ2-Verteilung mit n-1 Freiheitsgraden hat eine Student’sche t-Verteilung mit n-1 Freiheitsgraden X −µ σ n = X −µ T= s s σ n Konstante C mit: P(− C ≤ T ≤ +C ) = γ F (C ) − F (− C ) = γ F (C ) − [1 − F (C )] = γ F (C ) − 1 + F (C ) = γ 2 ⋅ F (C ) − 1 = γ γ ist eine vorgegebene Wahrscheinlichkeit, z.B. 99% F: Verteilungsfunktion der Student’schen t-Verteilung mit n-1 Freiheitsgraden 2 ⋅ F (C ) = 1 + γ F (C ) = 1 ⋅ (1 + γ ) 2 Seite 119 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik C= 1 ⋅ (1 + γ ) - Prozentpunkt der Student’ schen t-Verteilung mit n-1 Freiheitsgraden 2 C = t1 2 z.B.: ⋅(1+ γ ); n −1 n = 4, γ = 99 % C = t1 2 ⋅(1+ γ );n −1 = t0, 995;3 = 5,84 P(− 5,84 ≤ T ≤ 5,84) = 99% −C ≤T ≤C X −µ ≤C s n s s −C⋅ ≤ X −µ ≤C⋅ n n s s C⋅ ≥ X − µ ≥ −C ⋅ n n s s −C⋅ ≤ µ − X ≤C⋅ n n s s X −C⋅ ≤ µ ≤ X +C⋅ n n s P X − C ⋅ ≤ µ ≤ X +C⋅ n −C ≤ ⋅ (− 1) +X s =γ n s s X − C ⋅ n , X + C ⋅ n wobei C = t 1 2 ⋅(1+ γ ); n −1 Konfidenzintervall für µ (bei unbekanntem σ) Zahlenbeispiel: n = 4 Messwerte X= X1 = 1003 g X2 = 998 g X3 = 1001 g X4 = 1000 g 1 4 ⋅ ∑ X i = 1000,5 g 4 i =1 Seite 120 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Gesucht: 99 % Konfidenzintervall für µ s = 2,0817 g C = t1 2 ⋅(1+ γ );n −1 = t0, 995;3 = 5,84 X −C⋅ s 2,0817 = 1000,5 − 5,84 ⋅ = 994,42 n 4 X +C⋅ s 2,0817 = 1000,5 + 5,84 ⋅ = 1006,58 n 4 [994,42 , 1006,58] 99 % Konfidenzintervall für µ Konfidenzintervall für den Parameter σ einer Normalverteilung X1, X2, … , Xn Beobachtungsdaten (z.B. n Messwerte) Xi ist eine Zufallsvariable mit Normalverteilung mit Parameter µ und σ Schätzwert für σ bzw σ2 n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 s= bzw. s2 = n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 Wie genau ist dieser Schätzwert ? Um wie viel kann σ von s abweichen ? (n − 1) ⋅ s 2 = Y σ hat χ2-Verteilung mit n-1 Freiheitsgraden 2 C1, C2 zwei Konstanten mit P(C1 ≤ Y ≤ C2 ) = γ Dichtefunktion der χ2-Verteilung γ 0 C1 C2 Y Seite 121 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik P(Y < C1 ) = P(Y > C2 ) = F (C1 ) = 1 ⋅ (1 − γ ) 2 1 ⋅ (1 − γ ) 2 F: Verteilungsfunktion der χ2-Verteilung mit n-1 Freiheitsgraden 1 1 1 1 P(Y ≤ C2 ) = 1 − P(Y > C2 ) = 1 − ⋅ (1 − γ ) = + ⋅ γ = ⋅ (1 + γ ) 2 2 2 2 F (C2 ) = z.B.: 1 ⋅ (1 + γ ) 2 F: Verteilungsfunktion der χ2-Verteilung mit n-1 Freiheitsgraden n = 25 Beobachtungsdaten X1, X2, ., X25 n-1 = 24 γ = 95 % F (C1 ) = 1 ⋅ (1 − γ ) = 2,5% = 0,0025 2 1 ⋅ (1 + γ ) = 97,5% = 0,975 2 1 ⋅ (1 − γ ) = 0,0025 2 C1 = 12,4 C2 = 39,4 C1 = χ 2 1 (1−γ );n−1 2 C2 = χ 2 1 (1+γ );n −1 2 P(12,4 ≤ Y ≤ 39,4) = 95% P(C1 ≤ Y ≤ C2 ) = γ (n − 1) ⋅ s 2 ≤ C = γ P C1 ≤ 2 σ2 1 σ2 1 P ≥ ≥ = γ 2 C2 C1 (n − 1) ⋅ s 1 σ2 1 P ≤ ≤ = γ 2 C1 C2 (n − 1) ⋅ s (n − 1) ⋅ s 2 (n − 1) ⋅ s 2 = γ P ≤σ 2 ≤ C1 C2 (n − 1) P ⋅s ≤σ ≤ C 2 (n − 1) ⋅s , C 2 (n − 1) ⋅ s = γ (n − 1) ⋅ s C1 C1 Konfidenzintervall für σ Seite 122 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Zahlenbeispiel: Aus einer normalverteilten Produktion von elektrischen Widerständen wurde eine Stichprobe von 25 Widerständen entnommen: X1 = 50,72 kΩ; X2 = 49,69 kΩ, X3 = 45,86 kΩ, … , X25 = 53,13 kΩ Gesucht: Ein 95 % - Konfidenzintervall für den Parameter σ dieser Produktion s= n 1 2 ⋅ ∑ ( X i − X ) = 2,713 n − 1 i =1 γ = 95 % C1 = χ 2 1 (1−γ );n−1 = χ 2 0 , 0025; 24 = 12, 4 2 C2 = χ (n − 1) ⋅ s = C1 1 (1+γ ); n−1 2 = χ 2 0 , 975 ; 24 = 39,4 24 ⋅ 2,713 = 2,12 39,4 C2 (n − 1) 2 24 ⋅ 2,713 = 3,77 12,4 ⋅s = [2,12 , 3,77] 95%-Konfidenzintervall für σ [1,96 , 4,22] 99%-Konfidenzintervall für σ Testen von Hypothesen Beispiel: Bei einer Produktion werden pro Tag im Mittel 40 Mengeneinheiten hergestellt. Die pro Tag produzierte Menge ist normalverteilt mit einer Standardabweichung von σ = 2 Mengeneinheiten. Verbesserungsvorschlag zur Steigerung der Produktionsmenge µ = Erwartungswert der Produktion nach Durchführung des Verbesserungsvorschlags. H0: A: µ = 40 µ > 40 Nullhypothese Alternativhypothese In Probezeit von 10 Tagen: X1 = 38,2 X6 = 45,0 X2 = 42,3 X7 = 42,1 X3 = 41,9 X8 = 43,1 X4 = 39,9 X9 = 41,3 X5 = 39,1 X10 = 41,2 X = 41,41 Seite 123 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Verwerfungs bereich von H X 40 Entscheidungsregel: H0 wird verworfen, wenn X > C C heißt kritische Zahl Fehler 1. Art: H0 wird verworfen, obwohl H0 zutrifft. Die Wahrscheinlichkeit für den Fehler 1. Art heißt Risiko 1. Art Ziel: z.B.: Das Risiko soll klein sein α = Signifikanzzahl α = kleine Vorgegebene Wahrscheinlichkeit α=5% P ( X > C | H 0 ) = Risiko 1. Art = α X ist eine Zufallsvariable mit µ X und σ X = P(X > C | H 0 ) = 1 − α σ n 95% C − 40 =1−α Φ σ X C − 40 =1−α Φ 2 95% 10 C − 40 = 1,645 2 W1−α 10 ⇒ C = 40 + 1,645 ⋅ µ0 W1−α 2 σ = µ0 + W1−α ⋅ 10 n σ n = 41,04 H0 wird verworfen, da das beobachtete X größer als C ist 41, 41 > 41,04 C X Fehler 2. Art: H0 wird nicht verworfen, obwohl H0 nicht zutrifft Risiko für Fehler 2. Art ist die Wahrscheinlichkeit für den Fehler 1. Art =β Seite 124 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Berechnung des β-Risikos: β (λ ) = P(X ≤ C | A) = P (X ≤ C | µ = 40 + λ ⋅ σ ) λ >0 ( ) − + ⋅ C 40 λ σ β (λ ) = Φ σ n σ − 40 − λ ⋅ σ 40 + 1,645 ⋅ n =Φ σ n = Φ1,645 − λ ⋅ n W 10 1−α Wertetabelle für das β-Risiko: λ 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 … ( 1,645 − λ ⋅ 10 β (λ ) = Φ 1,645 − λ ⋅ 10 1,645 95 % 1,329 90,8 % 1,013 84,4% 0,696 75,7% 0,380 64,8% 0,064 52,5% -0,252 40,0% -0,569 28,5% -0,885 18,8% -1,201 11,5% -1,517 6,5% -1,834 3,3% ) Seite 125 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik OC – Kurve (Operationscharakteristik) 100 % 90 % β(λ) 80 % 70 % α verkleinert 60 % 50 % 40 % 30 % n vergrößert 20 % 10 % 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 Die Kostensituation sei so, dass Steigerungen bei µ erst ab µ = 42 von Interesse sind λ= λ=1 µ = 42 β(λ) = β(1) = 6,5 % Interpretation: µ − 40 2 Wenn sich µ auf 42 vergrößert hat, dann wird dies bei dem Test mit einer Wahrscheinlichkeit von 6,5 % entdeckt ( mit 93,5 % Wahrscheinlichkeit wird eine solche Steigerung entdeckt). Wenn bereits Steigerung bei m auf 41,6 von Interesse ist zum Vergleich: λ = 0,8 µ = 41,6 β(0,8) = 18,8 % Verkleinerung von α bewirkt eine Vergrößerung von β(λ) (< ) Beispiel: α=1% Gewünscht β (1) = 2% Wie groß muss n gewählt werden? ( β (λ ) = Φ W1−α − λ ⋅ n ↑ 1 ( ↑ ↑ 2 ,326 1 ) ) (< ) Φ 2,326 − 1 ⋅ n = 2% Φ(− 2,054 ) = 2% 2,326 − n = −2,054 n = 4,380 n = 19,184 n = 20 Seite 126 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik β(λ) gibt das Risiko an, dass eine Steigerung bei µ um λ Standardabweichungen nicht entdeckt wird bei dem Test. H0: A: µ = µ0 µ < µ0 Stichprobe von Beobachtungsdaten X1, X2, … , Xn X = Prüfgröße des Tests α = vorgegebene Signifikanzzahl Verwerfungsbereich von H0 C µ0 Entscheidungsregel: H0 verwerfen, wenn X < C P(X < C | H 0 ) = α C = µ 0 − W1−α ⋅ ⇒ β (λ ) = P(X ≥ C | A) σ 10 = P (X ≥ C | µ = µ 0 − λ ⋅ σ ) ( Φ W1−α − λ ⋅ n ) β(λ) gibt das Risiko an, dass eine Verkleinerung bei µ um λ Standardabweichungen nicht entdeckt wird. H0: A: µ = µ0 µ ≠ µ0 Stichprobe von Beobachtungsdaten X1, X2, … , Xn X = Prüfgröße α = vorgegebene Signifikanzzahl Verwerfungs bereich für H C1 Verwerfungs bereich für X H µ0 C2 Entscheidungsregel: H0 wird verworfen, wenn X < C1 oder X > C2 Seite 127 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik C1 = µ 0 − W α 1− 2 ⋅ C2 = µ0 + W σ n α 1− 2 ⋅ σ n β (λ ) = P(C1 ≤ X ≤ C2 | A) = P(C1 ≤ X ≤ C2 | µ = µ 0 + λ ⋅ σ ) mit λ ≠ 0 ( ) ( ) C − µ + λ ⋅ σ C − µ + λ ⋅ σ 0 0 − Φ 1 = Φ 2 σ σ n n σ σ − µ0 − λ ⋅ σ − µ0 − λ ⋅ σ µ0 + W α ⋅ µ0 − W α ⋅ 1− 1− n n 2 2 =Φ −Φ σ σ n n = ΦW α − λ ⋅ n − Φ − W α − λ ⋅ n 1− 2 1− 2 z. B.: α = 1% W α = W99, 5% =2,576 1− 2 n = 10 β (λ ) = Φ 2,576 − λ ⋅ 10 − Φ − 2,576 − λ ⋅ 10 ( ) ( ) α β(λ) 1 β(1) = 8 % 0 1 λ als Beispiel Wenn sich µ um 1 (λ) Standardabweichung verändert hat, dann wird es bei dem Test mit einer Wahrscheinlichkeit von 8 % (β(λ)) nicht bemerkt. Seite 128 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik H0 wird verworfen H0 wird nicht verworfen H0 α A 1-α 1-β β Abänderung der Tests für den Fall, dass σ unbekannt ist: 1) bei den kritischen Zahlen σ wird ersetzt durch n s C = µ0 + t1−α ; n −1 ⋅ n C = µ 0 + W1−α ⋅ σ wird ersetzt durch n s C = µ0 − t1−α ; n −1 ⋅ n C = µ0 − W1−α ⋅ σ wird ersetzt durch n s C 1 = µ0 ± t α ⋅ 1− ; n −1 2 n 2 C 1 = µ 0 ± W1−α ⋅ 2 2) Beim β–Risiko ( ) Φ W1−α − λ ⋅ n wird ersetzt durch t1−α ;n −1 − λ ⋅ n ≈ Φ t 12−α ;n−1 1+ 2 ⋅ (n − 1) ΦW α − λ ⋅ n − Φ − W α − λ ⋅ n wird ersetzt durch 1− 2 1− 2 t −λ⋅ n −t −λ⋅ n 1− α ; n −1 1− α ;n −1 2 − Φ ≈ Φ 2 t 12−α ;n−1 t 12−α ;n−1 1+ 1+ 2 ⋅ (n − 1) 2 ⋅ (n − 1) Seite 129 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik Tests für σ H0: A: Beispiele: σ = σ0 σ > σ0 Bei einer Produktion betrug bisher die Standardabweichung 2 Einheiten. Im Laufe der Zeit entsteht die Vermutung, dass die Standardabweichung sich vergrößert hat. H0: A: σ=2 σ>2 Stichprobe von Beobachtungsdaten X1, X2, … , Xn z.B.: Aus der Produktion werden n = 25 Stück entnommen und die Werte ausgemessen. Prüfgröße S= n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 Verwerfungsbereich für H0 0 µ0 C S Entscheidungsregel: H0 wird verworfen, wenn S > C α = vorgegebene Signifikanzzahl P(S > C | H 0 ) = α P(S ≤ C | H 0 ) = 1 − α ( ) P S 2 ≤ C2 | H0 = 1 − α n 1 2 P ⋅ ∑ (X i − X ) ≤ C 2 | H 0 = 1 − α n − 1 i =1 n 2 P ∑ (X i − X ) ≤ (n − 1) ⋅ C 2 | H 0 = 1 − α i =1 n 2 (n − 1) ⋅ C 2 | H = 1 − α 1 P 2 ⋅ ∑ ( X i − X ) ≤ 0 σ2 σ i =1 hat eine χ2–Verteilung mit n-1 Freiheitsgraden (n − 1) 2 F ⋅ C = 1 − α 2 σ0 Verteilungsfunktion der χ2–Verteilung mit (n-1) Freiheitsgraden χ 21−α ; n −1 = (n-1) – Prozentpunkt der χ2–Verteilung mit (n-1) Freiheitsgraden (Tabellenwert) Seite 130 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik ( ) F χ 21−α ; n −1 = 1 − α (n − 1) ⋅ C 2 = χ 2 1−α ; n −1 σ 02 C2 = σ 02 ⋅ χ 21−α ; n −1 (n − 1) C =σ0 ⋅ z. B.: H0: A: χ 21−α ; n −1 (n − 1) σ = 2 (σ0) σ>2 n=5 α=5% χ 21−α ; n −1 = χ 20,95; 4 = 9,49 9,49 = 3,08 4 C = 2⋅ S > 3,08 dann H0 verwerfen Berechnung des β-Risikos: β (λ ) = P(S ≤ C | A) β (λ ) = P(S ≤ C | σ = λ ⋅ σ 0 β (λ ) = P(S 2 ≤ C 2 | σ = λ ⋅ σ 0 ) mit λ > 1) (n − 1) ⋅ C 2 | σ = λ ⋅ σ (n − 1) β (λ ) = P 2 ⋅ S 2 ≤ 0 σ2 σ hat eine χ2–Verteilung mit n-1 Freiheitsgraden (n − 1) = F 2 2 ⋅ C 2 λ ⋅σ 0 (n − 1) σ 02 = F 2 2 ⋅ ⋅ χ 21−α ; n −1 λ ⋅ σ 0 (n − 1) Verteilungsfunktion der χ –Verteilung mit (n-1) Freiheitsgraden 2 χ 21−α ;n −1 β (λ ) = F 2 λ Seite 131 Skriptum zur Vorlesung Wahrscheinlichkeitsrechnung und Statistik z. B.: 9,49 β (1,5) = F 2 = F (4,218) = 62,3% 1,5 F(3,36) = 50 % F(5,39) = 75 % F(4,218) = 62,3 % lineare Interpolation: 4,218 – 3,36 = 0,858 5,39 – 3,36 = 2,03 10,7 % 25 % 50 % + 10,7 % = 60,7 % Wenn sich σ gegenüber σ0 um Faktor 1,5 vergrößert hat, dann wird es mit einer Wahrscheinlichkeit von 62,3 % nicht bemerkt. Wie groß ist die Wahrscheinlichkeit, dass es bei dem Test nicht bemerkt wird, wenn sich verdoppelt hat ? 9,49 β (2) = F 2 = F (2,3725) = 33% 2 H0: A: σ = σ0 σ < σ0 X1, X2, … , Xn S= Prüfgröße n 1 2 ⋅ ∑ (X i − X ) n − 1 i =1 Verwerfungsbereich für H0 C 0 σ0 S Entscheidungsregel: H0 wird verworfen, wenn S < C α = vorgegebene Signifikanzzahl P(S < C | H 0 ) = α ⇒ C =σ0 ⋅ χα2; n −1 (n − 1) β (λ ) = P(S ≥ C | A) β (λ ) = P(S ≥ C | σ = λ ⋅ σ 0 mit λ > 1) β (λ ) = 1 − P(S < C | σ = λ ⋅ σ 0 mit λ > 1) χ 2α ; n −1 β (λ ) = 1 − F 2 λ Seite 132