II. Wahrscheinlichkeitsrechnung Vorlesungsmitschrift - Kurzfassung Prof. Dr. rer. nat. B. Grabowski © HTW des Saarlandes 2005 Inhalt INHALTSVERZEICHNIS II. Wahrscheinlichkeitsrechnung 1 GRUNDLAGEN / DEFINITION DER WAHRSCHEINLICHKEIT ......................................................................................................3 1.1 ZUFÄLLIGES EREIGNIS / ZUFÄLLIGER VERSUCH ...............................................................3 1.2 DEFINITION DER WAHRSCHEINLICHKEIT VON EREIGNISSEN ..................................5 1.2.1 1.2.2 Relative Häufigkeit von Ereignissen ...............................................................................................6 Axiomatische Definition der Wahrscheinlichkeit .....................................................................8 1.3 DIE KLASSISCHE WAHRSCHEINLICHKEIT ...............................................................................9 1.4 BEDINGTE WAHRSCHEINLICHKEIT UND BERECHNEN VON VERBUNDWAHRSCHEINLICHKEITEN ......................................................................................................12 1.5 UNABHÄNGIGKEIT VON EREIGNISSEN......................................................................................16 1.6 SATZ VON BAYES UND FORMEL DER TOTALEN WAHRSCHEINLICHKEIT .......18 1.7 ÜBUNGSAUFGABEN 2 ..........................................................................................................................22 ZUFALLSGRÖßEN UND IHRE VERTEILUNGEN........24 2.1 ZUFALLSGRÖßEN (WIEDERHOLUNG)........................................................................................24 2.2 WAHRSCHEINLICHKEITSVERTEILUNG DISKRETER ZUFALLSGRÖßEN .............24 2.3 PARAMETER DISKRETER VERTEILUNGEN .............................................................................28 2.3.1 2.3.2 Erwartungswert, Varianz und Verteilungsfunktion...............................................................28 Quantile diskreter Verteilungen ......................................................................................................30 2.4 STETIGE ZUFALLSGRÖßEN UND IHRE VERTEILUNGEN, VERTEILUNGSFUNKTION UND VERTEILUNGSDICHTE ................................................................30 2.5 PARAMETER STETIGER VERTEILUNGEN .................................................................................34 2.5.1 2.5.2 Erwartungswert und Varianz ...........................................................................................................34 Quantile .....................................................................................................................................................35 2.6 EIGENSCHAFTEN VON ERWARTUNGSWERTEN UND VARIANZ VON ZUFALLSGRÖßEN....................................................................................................................................................37 2.7 DIE TSCHEBYSCHEFF-UNGLEICHUNG......................................................................................39 2.8 HAUPTSATZ DER STATISTIK .............................................................................................................39 2.9 ÜBUNGSAUFGABEN ........................................................................................................................40 3 MEHRDIMENSIONALE (“ZWEIDIMENSIONALE”) VERTEILUNGEN ...................................................................................................................................41 3.1 ZWEIDIMENSIONALE DISKRETE VERTEILUNGEN.............................................................41 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) I Inhalt 3.2 ZWEIDIMENSIONALE STETIGE VERTEILUNGEN ................................................................42 3.3 PARAMETER ZWEIDIMENSIONALER VERTEILUNGEN ...................................................45 3.3.1 3.3.2 Erwartungswert und Varianz ...........................................................................................................45 Kovarianz und Korrelation................................................................................................................46 3.4 ZUSAMMENFASSUNG ..............................................................................................................................47 3.5 ÜBUNGSAUFGABEN .....................................................................................................................48 4 SPEZIELLE WAHRSCHEINLICHKEITSVERTEILUNGEN .................................49 4.1 DISKRETE VERTEILUNGEN................................................................................................................49 4.1.1 4.1.2 4.1.3 4.1.4 Zweipunktverteilung.............................................................................................................................49 Diskrete Gleichverteilung...................................................................................................................49 Binomialverteilung ...............................................................................................................................50 Die Poissonverteilung ..........................................................................................................................54 4.2 SPEZIELLE STETIGE VERTEILUNGEN.........................................................................................58 4.2.1 4.2.2 4.2.3 Die stetige Gleichverteilung ..............................................................................................................60 Die Exponentialverteilung .................................................................................................................60 Die Normalverteilung (Gauß-Verteilung)...................................................................................63 4.3 ÜBUNGSAUFGABEN 5 .....................................................................................................................70 REPRODUKTIONS- UND GRENZWERTSÄTZE .............72 5.1 REPRODUKTIONSSÄTZE .......................................................................................................................72 5.2 GRENZWERTSÄTZE .................................................................................................................................74 5.3 ÜBUNGSAUFGABEN 6 ....................................................................................................................................78 ZAHLENTABELLEN ..........................................................................................................79 6.1 VERTEILUNGSFUNKTION DER STANDARDNORMALVERTEILUNG .........................79 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) II Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen II. Wahrscheinlichkeitsrechnung 1 Grundlagen / Definition der Wahrscheinlichkeit 1.1 Zufälliges Ereignis / zufälliger Versuch Def.: Zufälliger Versuch = Ein beliebig oft wiederholbarer Vorgang mit unbestimmtem Ausgang Zufälliges Ereignis = Ergebnis eines zufälligen Versuchs Beispiel 1: Zufälliger Versuch: Zufälliges Ereignis: 1 x Würfeln A1 = “Würfeln einer geraden Zahl” A2 = “Würfeln einer 6” Wir beschreiben zufällige Ereignisse nicht nur durch Aussagen, sondern (und das ist die Regel) durch Mengen: ⇒ A 1 = {2,4,6} A 2 = {6} ⇒ Wir können weitere zufällige Ereignisse zu diesem Versuch definieren, die sich durch Aussagenverknüpfungen (∧, ∨, ¬) oder Mengenoperationen (∩, ∪, \) bilden lassen. A3 – Würfeln von 2 oder 4 A3 = A1 \ A2 bzw. A 3 = {2} ∪ {4} Bedeutungen: Mengenlehre A∪B A∩B Aussagen-Logik A∨B A∧B Bedeutung A oder B treten ein A und B treten ein A\B A ∧ (¬B) A und nicht B treten ein ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 3 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Unterschiedliche Ereignistypen: Def.: Die Ereignisse, die man unmittelbar in einem Versuch beobachtet, heißen Elementarereignisse (Bezeichnung: {ω}). Ereignisse, die sich als Mengenoperationen aus den Elementarereignissen bilden lassen, heißen zusammengesetzte Ereignisse. Beispiel 2: Versuch: 1 x Würfeln Elementarereignisse: {1}, {2},...,{6} Zusammengesetzte Ereignisse: {123 2,4,6} gerade Augenzahl {112 ,3,5} 3 , , {3,4,5,6} 1 424 3 ungerade Augenzahl Augenzahl> 2 Seien {ω1}, {ω2},..., {ωm},... alle Elementarereignisse zu einem Versuch. Sei Ω:={ω1, ω2,..., ωm,...} = {ω1}∪ {ω2}∪ ... ∪{ωm}∪... die Menge aller Elementarereignisse. Def.: Ω heißt sicheres Ereignis (tritt immer ein!). Ein Ereignis, das nie eintritt Ω bzw. ¬Ω heißt unmögliches Ereignis. ( ) Bezeichnung für das unmögliche Ereignis: Φ ( Φ = Ω = Ω \ Ω) Def.: A = Ω \ A heißt komplementäres Ereignis zu A und bedeutet: "A tritt nicht ein". Def.: Zwei Ereignisse A und B heißen unvereinbar bzw. disjunkt, falls sie nicht gemeinsam eintreten, d.h., falls gilt: A∩B=∅. Alle zu einem zufälligen Versuch definierbaren Ereignisse sind Teilmengen von Ω. Def.: Die Potenzmenge ℘(Ω) = {A | A ⊆ Ω} von Ω heißt Ereignisfeld zum zufälligen Versuch V mit der Menge von Elementarereignissen Ω. Def: Sei V ein zufälliger Versuch mit der Menge Ω der Elementarereignisse und dem Ereignisfeld E. Eine Menge von n Ereignissen A1, A2, ..., An (Ai ⊆Ω ) heißt vollständiges Ereignissystem in E, falls gilt: a) Ai ∩ A j = ∅ für i≠j und b) n UA i =Ω i =1 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 4 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Sei V der zufällige Versuch: "1x Würfeln". a) Geben Sie Ω an! b) Geben Sie einige Ereignisse des Ereignisfeldes zu V an! c) Wieviele Ereignisse enthält das Ereignisfeld zu V? d) Geben Sie mindestens zwei vollständige Ereignis-Systeme zu V an! Ziel: Gesucht ist eine Funktion P: A ⊆ Ω → P(A ) , die jedem Ereignis A, welches man zu einem Versuch definieren kann, eine Wahrscheinlichkeit (Chance) P(A) des Eintretens von A zuordnet. Es soll gelten: a) Φ – unmögliches Ereignis → P( Φ) = 0 (0 % Chance des Eintretens) b) Ω – sicheres Ereignis -> P(Ω) = 1 (100% Chance des A Eintretens) c) A ⊆ Ω Ω 0 ≤ P ( A) ≤ 1 -> Bedeutung der Wahrscheinlichkeit: Sei A ⊆ Ω beliebig: P: A → P(A) heißt P( A) ⋅ 100% = Prozentualer Anteil des Eintretens von A bei n Versuchen Beispiel 3: Versuch: 2 × Münzwurf ω = (w1 , w2 ), { ω i ∈ {K , Z } für i=1,2. } Ω = ( K, K), ( K, Z), ( Z, K), ( Z, Z) Ereignisfeld: (K4, 4 ), (4 )},{1 (K4, 4 ), (4 )}, ℘(Ω) = {∅, {(K , K )},{(K , Z )},{(Z , K )},{(Z , Z )},{1 K2 K ,4 Z3 K2 Z ,4 K3 {1 (K4, 4 ), (4 )},{1 (K4,4 ), (4 )},...} usw. K2 Z ,4 Z3 Z2 Z ,4 K3 2× das gleiche 1. Versuch = K 2. Versuch = K 2× versch. Ergebnisse Ich weiß: P(Φ ) = 0, P (Ω ) = 1 Aber wie groß ist zum Beispiel: P ({(K, K), (Z, Z)}) ? 1.2 Definition der Wahrscheinlichkeit von Ereignissen ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 5 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 1.2.1 Relative Häufigkeit von Ereignissen Ich möchte wissen, wie groß die Chance des Eintretens eines Ereignisses A bei Durchführung eines zufälligen Versuchs ist. Dazu führe ich den Versuch n mal durch und berechne die relative Häufigkeit des Eintretens von A: h n (A ) = Anzahl der Versuche, in denen A eingetreten ist Anzahl der Versuche ( n) Kann man dieses Maß als Wahrscheinlichkeit P(A) verwenden? Münzwurf: Beispiel 4: A = “Kopf tritt auf” = {K} hn(K) 1 0,5 n 1 2 3 10 1000 1.000.000 Ergebnisfolge: K, Z, Z, K, Z, K, Z, Z, Z, Z,... h 1 ( K) = 1 h 2 ( K) = relative Häufigkeiten in Abhängigkeit von n 1 2 h 3 ( K) = h 10 ( K) = 1 3 3 10 Stellen wir die relative Häufigkeit hn(K) in Abhängigkeit von n dar, so sehen wir, daß sich 1 diese bei wachsendem n stets auf den Wert p = einpegelt. 2 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 6 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Würfeln A = {6} Beispiel 5: hn(A) 1 1, 2, 2, 5, 3, 6, 1, 6,..... ( ) h n {6} n → p = →∞ 1 6 1 6 n Vorschlag: a) Wir definieren den Grenzwert p als Wahrscheinlichkeit, also p(A ): = lim h n (A ) n →∞ → nicht praktisch verwendbar, da er nicht berechenbar ist. b) P(A ): = h 100 (A ) (Wir legen n auf 100 fest) → ist zufallsbehaftet ⇒ geht auch nicht! Trick: Wir untersuchen, welche Eigenschaften die relative Häufigkeit hat und definieren P so, daß P die gleichen Eigenschaften wie die relative Häufigkeit hat! Eigenschaften der relativen Häufigkeit: 1. 0 ≤ h n (A ) ≤ 1, 0 n = 0, h n (Ω) = = 1 n n 2. A ⊆ B ⇒ h n (A ) ≤ h n ( B) 3. h n (∅ ) = (Normiertheit) (Monotonie) hn ( A ∪ B ) = hn ( A) + hn (B ) − hn ( A ∩ B ) Beispiel 6: Würfeln: A 1 = {2,4,6} (Additivität) – gerade Zahl A 2 = {6} A 3 = {4,5,6} – Zahl ≥ 4 n = 10 Versuche: 2, 5, 3, 4, 6, 2 5, 6 4 1 Zu 2.) A 2 ⊆ A 1 , h n (6) = 2 6 , h n (2 ∪ 4 ∪ 6) = 10 10 Zu 3.) h n (A 1 ∪ A 3 ) = h n ( A 1 ) + h n (A 3 ) − h n ( A 1 ∩ A 3 ) f 14243 { 2 ,4 ,5,6} 8 10 = 6 10 + 6 10 ©Prof. Dr. rer. nat. B. Grabowski − 4 10 HTW des Saarlandes (2005) 7 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 1.2.2 Axiomatische Definition der Wahrscheinlichkeit Def.: Sei V ein zufälliger Versuch mit der Ereignismenge Ω und sei ℘(Ω) = {A| A ⊆ Ω} das Ereignisfeld zu V. Dann heißt jede Abbildung P :℘(Ω) → [0,1] Wahrscheinlichkeitsmaß auf ℘(Ω) , falls P folgende Eigenschaften erfüllt: 1. 0 ≤ P(A ) ≤ 1 , P(∅) = 0 , P(Ω) = 1 2. A ⊆ B → P(A ) ≤ P( B) 3. P ( A ∪ B ) = P ( A) + P (B ) − P ( A ∩ B ) ∞ (Normiertheit) (Monotonie) (Additivität) ∞ U A ) = ∑ P( A ) , falls A ∩A =∅ für i≠j 4. P ( i i =1 i =1 i i (σ-Additivität) j Bemerkungen: 1.) Verallgemeinerung von 3: Seien A 1 ,..., A n paarweise disjunkt, d.h. A i ∩ A j = ∅ , für i ≠ j. Dann gilt: P( A 1 ∪ A 2 ∪L∪A n ) = n ∑ P(A ) i i =1 2.) Das Axiom 4 ist eine weitere Verallgemeinerung von Axiom 3 auf abzählbar viele paarweise disjunkte Ereignisse. Wenn A ∩ B = ∅ (disjunkt) ( A ∩ B treten nicht gemeinsam auf), dann folgt aus 3: Folgerungen: 1. P(A ∪ B) = P(A ) + P( B) 2. ( ) P A = 1 − P (A ) ( () ) Beweis: Zu 2.) P(Ω) = P(A ∪ (Ω \ A )) = P A ∪ A = P ( A) + P A ( ) ⇒ P A = 1 − P (A ) qed. Bei der Herstellung eines Produktes treten 2 Fehler "nicht maßhaltig" (A1) und "nicht funktionsfähig" (A2) mit den Wahrscheinlichkeiten 0,1 bzw. 0,15 auf. Beide Fehler treten gleichzeitig bei 5% aller Produkte auf. Ein Produkt ist nur dann verkäuflich, wenn es keinen der beiden Fehler hat. Mit welcher Wahrscheinlichkeit ist ein Produkt verkäuflich? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 8 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 1.3 Die klassische Wahrscheinlichkeit { Def.: Sei V ein zufälliger Versuch. Wenn für die Menge Ω = ω1 ,..., ω m Elementarereignisse gilt: 1. Ω = m < ∞ (Ω = endlich) 2. P({ω i }) = p ∀i = 1...m } aller (alle {ωi } sind gleichwahrscheinlich) dann heißt V Laplace-Versuch. (Laplace-Versuche: typisch für Glücksspiele) Satz: Sei V ein Laplace-Versuch, Ω = {ω 1 ,..., ω m } und sei A ⊆ Ω mit A = {ω i1 ,... ω il } (i, j ∈{1,..., m}) . Dann gilt: 1. P ({ω i }) = 1 ∀i = 1,..., m m 2. P(A ) = l : m = A (Chance für das Eintreten von A) Ω ( ) ( = P({ω }) + P({ω }) +L+ P({ω }) ) Beweis: Zu 1: P(Ω) = 1 = P {ω 1 ,..., ω m } = P {w 1 } ∪ {ω 2 }∪L∪{ω m } 1 = ⇒ p= p 2 + p m +L+ p = m⋅p 1 m ( ) ( ) Zu 2: P(A ) = P {ω i1 ,..., ω il } = P {ω i1} ∪ {ω i 2 }∪L∪{ω il } 1 1 l = P({ω i1 }) + L + P({ω il }) = + L + = m m m ged. Beispiel 7: 2× Werfen einer Münze Ω = ( K, K), ( K, Z), ( Z, K), ( Z, Z) { P(“2 gleiche Ergebnisse”) = P } ({(K, K), (Z, Z)}) = 2 : 4 = 21 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 9 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Beispiel 8: Spiel: 5DM Einsatz, eine Zahl zwischen 0 und 50 zufällig ziehen. Ist die Zahl durch 6 oder 8 teilbar, bekommen Sie 20 DM. Würden Sie dieses Spiel spielen? Lösung: A6: Zahl ist durch 6 teilbar A8: Zahl ist durch 8 teilbar Ω = {1,...,50} ⇒ A6 = {6, 12, 18, 24, 30, 36, 42, 48} A8 = {8, 16, 24, 32, 40, 48} AG = A8 ∪ A6 AG = 12 P( A G ) = 12 50 12 = − 0,2 50 Wie groß muß der Gewinn sein, damit der Spieler (im Schnitt) keinen Verlust macht? 12 − 5DM + xDM ⋅ = 0DM 50 50 xDM = 5DM ⋅ 12 x = 20,83 DM Wahrscheinlicher Gewinn pro Spiel: − 5DM + 20DM ⋅ Beispiel 9: Ich merke mir 6-stellige Zahl z= z1z2z3z4z5z6, z i ∈{1,...,9} z i ≠ z j für alle i ≠ j Wie hoch ist die Wahrscheinlichkeit, diese Zahlen zu erraten? 9! Ω = 9 ⋅8⋅ 7 ⋅ 6⋅5⋅ 4 = 3! A =1 A: “richtige Zahl tippen” P( A ) = A Ω = 1 3! = = 0,0000165 9! 9! 3! Nützliche kombinatorische Formeln n n! Möglichkeiten eine k-elementige Teilmenge aus n Satz: a) Es gibt = k (n − k )!⋅k! Elementen auszuwählen. b) Es gibt genau n! Vertauschungen von n Elementen auf n Plätzen. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 10 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Beispiel 10: 32 Spielkarten (8 × 4 Farben). Spieler zieht 2 Karten, ohne Zurücklegen. Wie groß ist die Wahrscheinlichkeit dafür, A1: 2 Buben A2: 1 Bube A3: 0 Buben zu ziehen? Elementarereignis ω = {K 1 , K 2 } , i ∈{1,...,32} K 1 ≠ K 2 Ω = Menge aller 2-elementigen Teilmengen aus {K1,...,K32} 32 31 ⋅ 32 → Ω = = = 496 2 2 Beispiel 11: 4 4! A1 = = =6 2 2 ! 2 ! ⇒ P( A 1 ) = 6 = 0,012 496 4 28 A 2 = ⋅ = 4 ⋅ 28 = 112 1 1 ⇒ P( A 2 ) = 112 = 0,226 496 28 28! A3 = = = 378 2 26! 2 ! ⇒ P( A 3 ) = 378 = 0,762 496 4 × “i” 4 × “s” 2 × “p” 1 × “m” 11 Buchstaben werden der Reihe nach aus der Urne gezogen und zu einem Wort angelegt. Wie groß ist die Wahrscheinlichkeit dafür , daß das Wort “mississippi” entsteht? Ω = b 1 ,..., b 11 | b i ∈{4 × i, 4 × s, 2 × p, 1 × m} { } Ω = 11! A = {b 1 ,..., b 11 | b 1 ,..., b 11 = m i s s i s s i p p i} A = 1 ⋅ 4! ⋅ 4! ⋅ 2! 4! 4! 2! 1! Möglichkeiten i auf 4 Plätzen anzuordnen Möglichkeiten s auf 4 Plätzen anzuordnen Möglichkeiten p auf 2 Plätzen anzuordnen Möglichkeiten für m 1 4 ! ⋅ 4 ! ⋅ 2 ! ⋅ 1! = ⇒ P( A ) = Ω 11! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 11 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 1.4 Bedingte Wahrscheinlichkeit und Berechnen von Verbundwahrscheinlichkeiten Beispiel 12: Wir betrachten eine Urne mit 2 weißen und 3 schwarzen Kugeln aus der nacheinander Kugeln zufällig entnommen werden. Gezogene Kugeln werden nicht zurückgelegt. W i: weiß im i-ten Versuch Si: schwarz im i-ten Versuch P(W2 / W1 ) = 1 (W2 unter der Voraussetzung, daß im 1. Versuch weiß gezogen wurde ) 4 2 P(W2 / S1 ) = 4 Def.: Sei V ein zufälliger Versuch mit der Menge der Elementarereignisse Ω und seien A ⊆ Ω und B ⊆ Ω zwei Ereignisse zu diesem Versuch. P(A ∩ B) Dann heißt die Wahrscheinlichkeit P(A / B): = bedingte Wahrscheinlichkeit P( B) von A unter der Bedingung (Zusatzinfo), daß B eingetreten ist. Das folgende Beispiel macht die Definition der bedingten Wahrscheinlichkeit plausibel: Beispiel 13: Kasten ● ∇ ∇ ← 300 LED’s Farbe: rot/grün Form: /∇ ∇ grün rot ∑ Seien B= 40 120 160 und ∇ 60 80 140 A = grün ∑ 100 200 n = 300 zwei Ereignisse. Dann gilt : P(grün) = 100 300 P() = 160 300 ©Prof. Dr. rer. nat. B. Grabowski P(grün ∩ ) = 40 300 HTW des Saarlandes (2005) 12 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen P(A/B) = P(grün / ) = 40 = 160 P(A ∩ B) P( B) 40 = 300 160 300 analog: P(∇ ∇ / rot) = 80 P(∇ ∩ rot ) = 200 P( rot ) Interpretation der bedingten Wahrscheinlichkeit: A∩B Ω A P(A ) = B A Ω ; P(A / B) = A∩B⋅ B⋅ 1 Ω 1 Ω = A∩B B P(A / B) ⇒ Ω wird auf die Menge B eingeschränkt. Berechnen Sie zum Beispiel 13 folgende Wahrscheinlichkeiten: P( grün/∇), P(/rot) ! Satz : Es gilt : Das Maß PA():= P( / A) ist für festes A∈Ω ein Wahrscheinlichkeitsmaß auf der Potenzmenge von Ω, d.h. P( / A) erfüllt für jedes festes A∈Ω die 4 Axiome der Wahrscheinlichkeit. Insbesondere gilt dann auch : P ( B / A) = 1 − P ( B / A) Achtung: Es gilt nicht !!! : P ( B / A ) = 1 − P ( B / A) a) Berechnen Sie zur vorigen -Aufgabe die Wahrscheinlichkeit dafür, daß ein zufällig ausgewähltes Produkt auch den Fehler A2 besitzt, wenn bekannt ist, daß es den Fehler A1 hat! b) Wie groß ist die Wahrscheinlichkeit, daß das Produkt den Fehler A2 nicht hat, wenn bekannt ist, daß es bereits den Fehler A1 hat? Berechnen von Verbundwahrscheinlichkeiten: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 13 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Die Berechnung von P(A ∩ B) nach der klassischen Methode ( P(A ∩ B) = A∩B Ω ) ist manchmal sehr aufwendig. P(A ∩ B) kann man wesentlich leichter unter Verwendung der bedingten Wahrscheinlichkeiten berechnen. Es gilt offensichtlich: P(A ∩ B) = P( B / A ) ⋅ P(A ) Satz: (Multiplikationssatz) Sei Ω die Menge der Elementarereignisse zu einem zufälligen Versuch. Seien A1, A2,...,An mit Ai ∈ Ω beliebige Ereignisse. Dann gilt: a) P(A 1 ∩ A 2 ) = P(A 2 / A 1 ) ⋅ P(A 1 ) b) P(A 1 ∩ A 2 ∩ A 3 ) = P(A 1 ) ⋅ P(A 2 / A 1 ) ⋅ P( A 3 / (A 1 ∩ A 2 )) ( c) P( A 1 ∩ A 2 ∩ A 3 ∩L∩A n ) = P( A 1 ) ⋅ P(A 2 / A 1 ) ⋅ P A 3 / ( A 1 ∩ A 2 ) ( ) ( ) ⋅ P A 4 / ( A 1 ∩ A 2 ∩ A 3 ) ⋅ P A n / ( A 1 ∩ A 2 ∩L∩A n −1 ) ) Beweis: Vollständige Induktion über n! P( A1 ∩ A2 ) = P( A2 / A1 ) P( A1 ) IA: a) Es gilt: IS: vor: ⇒ c) gilt für A 1 ,..., A n −1 c) gilt auch für A 1 ,..., A n stellvertretend zeigen wir b): = P( B / A ) ⋅ P ( A ) P (A 1 ∩ A 2 ) ∩ A 14243 {3 B A ( = P A 3 / (A 1 ∩ A 2 )) ⋅ P(A 1 ∩ A 2 ) 14243 IA a ) = P( A 3 / (A 1 ∩ A 2 )) ⋅ P(A 2 / A 1 ) ⋅ P(A 1 ) qed. Beispiel 14: Wi– weiß bei i-ter Ziehung si – schwarz bei i-ter Ziehung P( w 1 ∩ s 2 ∩ s 3 ∩ w 4 ) ( ) ( = P( w 1 ) ⋅ P ( s 2 / w 1 ) ⋅ P s 3 / ( w 1 ∩ s 2 ) ⋅ P w 4 / ( w 1 ∩ s 2 ∩ s 3 ) ©Prof. Dr. rer. nat. B. Grabowski ) HTW des Saarlandes (2005) 14 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen = = 2 5 3 4 ⋅ 2 3 ⋅ 1 2 ⋅ 1 10 Beispiel 15: Zustandsautomat (Markowgraph) 1 2 1 2 1 4 1 2 1 1 2 2 1 4 3 1 2 Zustände:1 – Leitung frei 2 – Leitung belegt 3 – Leitung gestört Leitung ändert Zustände taktweise n - Takt X( n) ∈{1,2,3} – Zustand der Leitung im Takt n Vor.: P(X(0)= 1) = 1 (Leitung ist zu Beginn frei) Taktweise werden die Zustände gemäß Zustandsautomat mit den angegebenen Zustandsübergangswahrscheinlichkeiten geändert. Offensichtlich gilt: P( X (n) = i n / X (0) = 1, X (1) = i1 ,..., X (n − 1) = in − 1) = P( X (n) = i / X (n − 1) = in − 1) = pi ,in −1 d.h. der Zustand imTakt n hängt nur vom Zustand im Takt n-1 ab und nicht von der ganzen Vergangenheit! Die sogenannten (Zustands-) Übergangswahrscheinlichkeiten hängen nicht vom Takt n ab. (X(n), n=0,1,..., wird auch als homogene Markowkette bezeichnet) Wie groß ist die Wahrscheinlichkeit für folgenden Zustandsverlauf: n i 0 1 1 1 2 2 ©Prof. Dr. rer. nat. B. Grabowski 3 2 4 1 HTW des Saarlandes (2005) 15 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Nach Multiplikationssatz gilt: P(X(0)=1 ∩ X(1) = 1 ∩ X(2) = 2 ∩ X(3) = 2 ∩ X(4) = 1) = P(X(0) = 1) ⋅ P(X(1) = 1 / X(0) = 1) ⋅ P(X(2) = 2 / X(0) = 1 ∩ X(1) = 1) • P(X(3) = 2 / X(0) = 1 ∩ X(1) = 1 ∩ X(2) = 2) ⋅ P(X(4) = 1 / X(0) = 1 ⋅⋅⋅ X(3) = 2) = P(X(0) = 1) ⋅ P(X(1) = 1 / X(0) = 1) ⋅ P(X(2) = 2 / X(1) = 1) • P(X(3) = 2 / X(2) = 2) ⋅ P(X(4) = 1 / X(3) = 2) = 1⋅ = 1 1 1 1 ⋅ ⋅ ⋅ 2 2 4 2 1 32 1.5 Unabhängigkeit von Ereignissen 1 P( w 2 / w 1 ) = 4 Ziehen ohne Zurücklegen 1 P( w 2 / s 1 ) = 2 2 P( w 2 / w 1 ) = 5 Ziehen mit Zurücklegen P w = 2 ( 2) 5 2 P( w 2 / s 1 ) = 5 Def.: Zwei Ereignisse A und B heißen stochastisch unabhängig, falls gilt: P( A ∩ B ) = P( A) P(B ) Folgerung: Seien A und B stochastisch unabhängig, dann gelten folgende Beziehungen: a) P ( A / B ) = P( A) ⋅ P (B ) b) P A / B = P( A) ⋅ P B , ( ) ( ) ( ) d) P (A / B ) = P (A ) ⋅ P (B ) ( ) c) P A / B = P A ⋅ P (B ) (d.h. die Wahrscheinlichkeit für das Eintreten von A bzw. A hängt nicht von B und B ab!) Def.: A 1 , A 2 ,..., A n heißen gegenseitig stochastisch unabhängig ⇔ ∀ Teilmengen {A i1 ,..., A il } ⊆ {A 1 ,..., A n } gilt: P(A i1 ∩ A i 2 ∩L∩A il ) = P(A in ) ⋅ P(A i 2 )⋅L⋅P(A il ) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 16 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Beispiel 16: Zwei Studenten versuchen unabhängig voneinander die gleiche StatistikAufgabe zu lösen. Jeder löst die Aufgabe mit Wahrscheinlichkeit 0,6. Wie groß ist die Wahrscheinlichkeit dafür, daß mindestens einer der beiden die Augabe löst? , i = 1,2 Si – Student i löst Ausgabe P(S i ) = 0,6 P (mindestens einer löst die Aufgabe) = P(S1 ∪ S 2 ) = P(S1 ) + P(S 2 ) − P(S1 ∩ S 2 ) = P(S1 ) + P(S 2 ) − P(S1 ) ⋅ P(S 2 ) = 0,6 + 0,6 − 0,6 ⋅ 0,6 = 1,2 − 0,36 = 0,84 Beispiel 17: Statistik-Klausur, 10 Aufgaben Jede Aufgabe hat 3 Antwortalternativen, von denen genau eine richtig ist. Wie groß ist die Wahrscheinlichkeit dafür, daß ein Student, der rät, alle Aufgaben richtig löst? Ai – Aufgabe i richtig geraten 10 1 P(A 1 ∩ A 2 ∩L∩A 10 ) = P(A 1 ) ⋅ P(A 2 )⋅L⋅P(A 10 ) = 3 (Aufgaben werden unabhängig voneinander geraten Ratewahrscheinlichkeit = P( Ai ) = 1 / 3 ) Gerät: Beispiel 18: E1 E2 E3 E4 Seien folgende Ereignisse definiert : G - Gerät ist OK, G -Gerät ist nicht OK, Ei - Bauelement Ei ist OK, E i - Bauelement Ei ist nicht OK. Ziel: von Ausfallhäufigkeit q des Geräts G auf Ausfallhäufigkeit einer bestimmten Baugruppe Ei (Bauelement) schließen. Wir vereinfachen dazu unser Modell und treffen folgende Annahmen: 1. Alle Bauelemente sind identisch 2. Alle Bauelemente fallen unabhängig voneinander und mit der gleichen Wahrscheinlichkeit p aus: P( E i )=p, i=1,2,3,4. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 17 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 3. Funktionsweise des Gerätes : Reihe funktioniert, falls beide Baugruppen funktionieren, Gerät funktioniert, falls eine Reihe funktioniert. Gegeben ist nun q=P( G ). Gesucht ist p. Lösung: Wir stellen einen Zusammenhang zwischen p und q her: ( ) P G = P( Reihe 1 not OK ∩ Reihe 2 not OK) = P( Reihe 1 not OK) ⋅ P( Reihe 2 not OK) ( = 1 − P( Reihe 1 OK) ⋅ 1 − P( Reihe 2 OK)) = (1 − P( E 1 ∩ E 2 )) ⋅ (1 − P( E 3 ∩ E 4 )) ( )( = 1 − (1 − p) ⋅ 1 − (1 − p) 2 ( ⇒ q = 1 − (1 − p) 2 )=q ) 2 2 ⇔ 1− 1− q = p Sei q = 0,1: ⇒ 1 − 1 − 0,1 = 1 − 0,827 = 0,173 D.h., die Ausfallwahrscheinlichkeit der Bauelemente darf 17,3% nicht überschreiten, damit das Gerät mit 90%tiger Wahrscheinlichkeit nicht ausfällt. 1.6 Satz von Bayes und Formel der totalen Wahrscheinlichkeit Beispiel 19: wi – weiß in i-ter Ziehung si – schwarz in i-ter Ziehung (ohne Zurücklegen) offensichtlich ist: 3 P(w2 / s1 ) = , 4 1 P(w2 / w1 ) = , 2 P(s1 ) = 2 5 3 P(w1 ) = 5 Wie groß ist aber die Wahrscheinlichkeit dafür, 'Weiß' in der zweiten Ziehung zu ziehen (unabhängig davon, was beim ersten Mal gezogen wurde)? Es gilt: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 18 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen P(w2 ) = P((w2 ∩ w1 ) ∪ (w2 ∩ s1 )) = P(w2 ∩ w1 ) + P(w2 ∩ s1 ) = P(w2 / w1 ) ⋅ P(w1 ) + p(w2 / s1 ) ⋅ P(s1 ) = 1 3 3 2 3 ⋅ + ⋅ = 2 5 4 5 5 Satz.: Sei V ein zufälliger Versuch mit der Menge Ω von Elementarereignissen, sei E das Ereignisfeld zu V. Seien weiterhin B⊆Ω ein beliebiges Ereignis zu V und A1,...,An ein vollständiges Ereignissystem in E (d.h., Ai ⊆ Ω∀i = 1,..., n , A i ∩ A j = ∅ für i ≠ j und A 1 ∪ A 2 ∪L∪A n = Ω ). Dann gilt: P( B) = P( B / A 1 ) ⋅ P(A 1 ) + P( B / A 2 ) ⋅ P(A 2 )+L+ P( B / A n ) ⋅ P(A n ) (Formel der totalen Wahrscheinlichkeit). Beweis: A1 Ω A2 B A3 An P(B ) = P((B ∩ A1 ) ∪ (B ∩ A2 ) ∪ L ∪ (B ∩ An )) = P(B ∩ A1 ) + L+ P(B ∩ An ) = P(B / A1 ) ⋅ P( A1 ) +L+ P(B / An ) ⋅ P( An ) qed. Satz: (von Bayes) a) Es gilt: P(A / B) = P (A ) ⋅ P ( B / A ) P( B) b) (Verallgemeinerung): Seien A i ⊆ Ω i = 1,..., n Ereignisse mit A i ∩ A j und A 1 ∪ A 2 ∪L∪A n = Ω . Sei B⊆Ω. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 19 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen Dann gilt: P(A i / B) = P(A i ) ⋅ P( B / A i ) P( B) = P(A i ) ⋅ P( B / A i ) n ∑ P( A ) ⋅ P( B / A ) j j j=1 Beweis: zu a) P(A / B) = P(A ∩ B) = P( B) P( B / A ) ⋅ P(A ) P( B) zu b) analog qed. Anwendung der Sätze zu folgenden Fällen: P(A ) Gegeben: P(A / B) Gesucht: , P( B / A ) Beispiel 20: Sei A – technische Fehlerart, die mit 10 % bei allen Geräten eines bestimmten Typs vorkommt B – Merkmal, anhand dessen die Fehlerart A diagnostiziert werden kann Merkmal TechB niker B Entscheidung A (defekt) A (nicht defekt) Fehlentscheidung: Das Merkmal tritt nicht auf ( B ), aber Gerät ist trotzdem defekt (A). Das Merkmal B tritt auf, aber die Gerät ist O.K ( A ) Wirklichkeit O.K A - --- Ent- O.K B scheidung defekt B P( A /B) Fehlentscheidungswahrscheinlichkeiten: ( ---- ) – Wahrscheinlichkeit dafür, dass ein Gerät defekt ist, welches als ) gesund eingestuft wurde. – Wahrscheinlichkeit dafür, dass ein Gerät O.K ist, welches als defekt PA/B ( defekt A P(A/ B ) P A/B eingestuft wurde. Ziel: Ein solches Merkmal B finden, dass die Wahrscheinlichkeit für Fehlentscheidungen ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 20 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen gering ist! geg.: P( B / A ) = 0,8 ( ) ( ) P B / A = 0,3 ( ) P(A ) = 0,1 ges.: P A / B , P A / B Wie groß sind die Fehlerwahrscheinlichkeiten für unser Merkmal? Anwendung des Satzes von Bayes und “totaler Wahrscheinlichkeit”: ( ) ( ) Es gilt: P A / B = ( ) P B / A ⋅ P(A ) ( ) P B NR: P B / A = 1 − P( B / A ) = 0,2 und P( B) = P( B / A ) ⋅ P(A ) + P B / A ⋅ P A = 0,8 ⋅ 0,1 + 0,3 ⋅ 0,9 = 0,35 P B P B , ⇒ = − = 1 0 65 ( ) ( ) ( ) ( ) 0,2 ⋅ 0,1 0,02 2 = = = 0,03 0,65 0,65 65 ⇒ In 3 % aller Diagnosen wird ein defektes Gerät als O.K eingestuft! ( ) ⇒P A/ B = ( ) Berechnen Sie zu Beispiel 20 die Irrtumswahrscheinlichkeit P A / B ! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 21 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen 1.7 Übungsaufgaben 1. Ein zufälliger Versuch bestehe im Werfen zweier Würfel. Man berechne die Wahrscheinlichkeit dafür, daß die Summe 6, 7 oder 8 ist! (Hinweis: Klassische Wahrscheinlichkeitsdefinition benutzen!) 2. Jemand bewirbt sich bei zwei Firmen A und B. Die Wahrscheinlichkeit der Annahme seiner Bewerbung schätzt er bei Firma A mit 0,5 und bei Firma B mit 0,6 ein. Weiterhin rechnet er mit einer Wahrscheinlichkeit von 0,3 von beiden Firmen angenommen zu werden. Wie groß ist die Wahrscheinlichkeit dafür, von wenigstens einer der beiden Firmen eine Zusage zu erhalten? (Hinweis: Axiom 3 benutzen!) 3. (Aus einer USA-Studie über den Zusammenhang zwischen Hautfarbe und Beschäftigungsstatus) Es werden folgende Symbole benutzt: F – Farbig, W–Weiß, B – Beschäftigt, U – Arbeitslos. Bei einer Untersuchung der Bevölkerung auf Hautfarbe und Beschäftigungsstatus ergab sich folgende Häufigkeitstabelle: U B W 6.604.000 F 1.418.000 Total 8.022.000 83.549.000 8.838.000 92.387.000 a) Vervollständigen Sie die Tabelle! b) Berechnen Sie für ein zufälliges Individuum die Wahrscheinlichkeiten: P(U), P(F), P(U/F)! c) Sind dei Ereignisse "die Hautfarbe ist weiß" und " Beschäftigt" stochastisch unabhängig voneinander? 4. G sei ein Gerät mit 2n parallel geschalteten Bauelementen gleichen Typs. Dabei sind jeweils 2 Bauelemente in Reihe geschaltet. Das Gerät fällt aus, falls die Reihe ausfallen. Eine Reihe fällt aus, falls eines der beiden Bauelemente ausfällt. Die Bauelemente Ei j fallen unabhängig voneinander mit der gleichen Wahrscheinlichkeit P(Ei j = not OK) = 0,1 für alle i = 1,...,n; j = 1, 2, aus. Wieviele Reihen muß das Gerät haben, damit die Ausfallwahrscheinlichkeit p des Gerätes 0,1 % nicht überschreitet, d.h. damit gilt p = P(G = not OK) ≤ 0,001 ? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 22 Kapitel II Wahrscheinlichkeitsrechnung-Grundlagen G E11 E12 E21 E22 En1 En2 5. 50 % einer bestimmten Population seien Frauen, 30 % Männer, 20 % Kinder. 5 % der Männer, 1 % der Frauen und 0,5 % der Kinder seien zuckerkrank. a) Wie groß ist die Wahrscheinlichkeit dafür, daß eine zufällig ausgewählte Person zuckerkrank ist? b) Sind die Ereignisse “Die Person ist zuckerkrank” und “Die Person ist weiblich” stochastisch unabhängig voneinander? c) Eine zufällig ausgewählte Person ist zuckerkrank. Mit welcher Wahrscheinlichkeit ist diese Person ein Mann? (Hinweis: Satz von Bayes, Formel der totalen Wahrscheinlichkeit) 6. Ein Arzt hat es sich zur Lebensaufgabe gemacht, zu diagnostizieren, ob eine von zwei Krankheiten A1 oder A2 oder keine von beiden bei einem Patienten vorliegen. Der Arzt diagnostiziert dabei anhand der Beobachtung eines bestimmten Blutwertes, ob der Patient eine der beiden Krankheiten hat oder nicht; d.h. die Diagnoseregel des Arztes lautet: Blutwert erhöht entweder nur A1 oder nur A2 oder beide Krankheiten liegen vor Blutwert nicht erhöht weder A1 noch A2 liegen vor. Es sei bekannt, daß bei 90% aller Personen, die sowohl A1 als auch A2 haben der Blutwert erhöht ist; sowie bei 80% aller Personen, die nur die Krankheit A1 haben (und nicht A2), bei 70% aller Personen, die nur A2 haben (und nicht A1) und in 10% aller Fälle, die weder A1 noch A2 haben. Weiterhin sei bekannt, daß A2 mit 5%iger Wahrscheinlichkeit und A1 mit 2%iger Wahrscheinlichkeit in der Bevölkerung vorkommen, und 20% der Personen, die A1 haben, auch die Krankheit A2 haben. Berechnen Sie die Wahrscheinlichkeit dafür, a) daß eine Person einen erhöhten Blutwert und die Krankheit A1 hat, b) daß eine Person, die einen erhöhten Blutwert aufweist, die Krankheit A1 hat! c) daß eine Person, die einen erhöhten Blutwert hat, weder A1 noch A2 hat! Hinweis: Berechnen Sie zunächst die Wahrscheinlichkeiten für folgende 4 Fälle: - A1 und A2 liegen vor - A1 und nicht A2 liegt vor - A2 und nicht A1 liegt vor - Weder A1 noch A2 liegt vor ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 23 Kapitel II Zufallsgrößen und ihre Verteilungen 2 Zufallsgrößen und ihre Verteilungen 2.1 Zufallsgrößen (Wiederholung) Def.: Zufallsgrößen sind zufällige Merkmale, die in einem zufälligen Versuch beobachtet werden und deren Merkmalsausprägungen (Realisierungen) durch Zahlenwerte (direkt oder durch Skalierung) charakterisiert werden. X – Zufallsgröße x – Realisierung, Beobachtung X – Wertebereich von X, X = {a 1 ,..., a k ,...} ∃ [ a , b] ⊆ X Zufallsgröße X – Blutgruppe X – Anzahl der Wappen bei 2× Münzwurf → diskret → X stetig Merkmalswerte A, B, AB, ∅ ω = (M1 , M 2 ) Realisierung 0, 1, 2, 3 0, 1, 2 (K, K) (K, Z) 2 M i ∈{K, Z} Typ diskret (nominal) diskret (ordinal) (festgelegte Bedeutung der Zahlen) 1 (Z, K) (Z, Z) 0 [0, ) T – zufällige Lebensdauer stetig (proportional) Uns interessieren folgende Wahrscheinlichkeiten: 1. P(X = x) – Wahrscheinlichkeit dafür, daß X den Wert x annimmt 2. P(a ≤ X ≤ b) – Wahrscheinlichkeit dafür, daß X ∈ [a, b] 3. P(X ≥ a), P(X ≤ a) 2.2 Wahrscheinlichkeitsverteilung diskreter Zufallsgrößen Sei X – diskret, X = {a 1 ,..., a k ,...} . Wir benötigen nur pi = P(X = ai) für i = 1,..., k ,... Mit Hilfe der pi können Sie alle Wahrscheinlichkeiten 1.–3. berechnen: P(5 ≤ X ≤ 8) = P(X = 5 ∨ X = 6 ∨ X = 7 ∨ X = 8) = P(X = 5) + P(X = 6) + P(X = 7) + P(X = 8) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 24 Kapitel II Zufallsgrößen und ihre Verteilungen ⇒ P(a ≤ X ≤ b) = ∑ P( X = a ) P(X ≥ a) = und i ai :a ≤ ai ≤b ∑ P(X = ai) a i :a i ≥ a Def.: Die Gesamtheit ((pi = P(X = ai), ai ∈ X )) heißt Wahrscheinlichkeitsverteilung von X. Darstellung: grafisch: Pi Pi p3 ..... p1 X a1 a2 ak p2 X tabellarisch: X pi a1 p1 a2 p2 ak pk analytisch als Funktion: p i = f (i, a i ) Beispiel 25: Zufallsexperiment: Werfen zweier Münzen X – “Anzahl K”, X = {0,1,2,3} , Ω= {( K, K), (K, Z), ( Z, K), ( Z, Z)} X X={ 2 1 0 } Gesucht: Wahrscheinlichkeitsverteilung von X X pi 0 p0 1 p1 p0 = P(X = 0) = P((Z, Z)) = p1 = P(X = 1) = P X pi 2 p2 1 4 ( {(K, Z), (Z, K)} ) = 42 = 21 0 1 2 1 4 1 2 1 4 Verallgemeinerung: (Berechnung der pi) Man betrachte die Zufallsgröße X als Abbildung von Ω in X: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 25 Kapitel II Zufallsgrößen und ihre Verteilungen X⊆ℜ X:Ω → Äquivalenz von Ereignissen: { } ' X = x' ⇔ A = ω ∈ Ω | X(ω ) = x ⊆ Ω ⇒ P( X = x ) = P( A ) = A Ω Beispiel 26: Versuch: Würfeln mit 2 Würfeln X – Summe der Augenzahlen ges.: Wahrscheinlichkeitsverteilung von X: X pi 2 p2 3 p3 4 p4 ... ... 12 p12 pi = P( X = i ) , i = 2,...,12 i ω 2 X( ω ) = i A (11,) pi Wahrscheinlichkeitsverteilung von X 1 3 (1,2) ( 2,1) 2 4 (1,2) ( 2,2) ( 3,1) 3 5 (1,4) ( 3,2) ( 2,3) ( 4,1) 4 6 (1,5) ( 2,4) ( 3,3) ( 4,2) (5,1) 5 7 (1,6) ( 2,5) ( 3,4) ( 4,3) (5,2) ( 6,1) 6 8 ( 2,6) ( 3,5) ( 4,4) (5,3) ( 6,2) 5 9 ( 3,6) ( 4,5) (5,4) ( 6,3) 4 10 ( 4,6) (5,5) ( 6,4) 3 11 (5,6) ( 6,5) 2 12 ( 6,6) 1 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 allgemein: mit (i − 1) p i = 36 (13 − i) 36 ω = ( w1 , w2 ) w i ∈ {1,...,6} X( ω ) = w 1 + w 2 Ω = 36 i = 2,3,...,7 i = 8,9,...,12 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 26 Kapitel II Zufallsgrößen und ihre Verteilungen Beispiel 27: (Anwendung der Gesetze zum Rechnen mit Wahrscheinlichkeiten) k Schlüssel nur einer ist richtig! a) Besoffen: Auswahl (Probieren) eines Schlüssels mit Zurücklegen b) Nüchtern: Auswahl (Probieren) eines Schlüssels ohne Zurücklegen Frage: Wie groß ist die mittlere Zahl der Versuche bis zum Finden des richtigen Schlüssels? Lösung: Wir berechnen zunächst die Wahrscheinlichkeitsverteilung für die Anzahl X der Versuche bis zum Finden des richtigen Schlüssels: 1 0 Sei X i = Schlüssel nicht gefunden das Ergebnis im i.-ten Versuch. Schlüssel gefunden zu a) X = {1,2,..., k} pi = P( X = i ) = P(X 1 = 0 ∧ X 2 = 0 ∧ L∧ X i −1 = 0∧ X i = 1) = P(X 1 = 0) ⋅ P( X 2 = 0) ⋅ L ⋅ P( X i −1= 0) ⋅ P( X i = 1) k −1 ⋅ k = i −1 k − 1) ( p := i ,k ≥ 2 ki Bsp.: k = 4 p1 = 1 , 4 k −1 ⋅L⋅ k k −1 k ⋅ k k = ( k − 1) i −1 ki ∀ i = 1,2,... p2 = (3) , 4 p3 = 32 42 3 L pi = 4 i −1 ⋅ 1 4 zu b) X = {1,2,..., k} pi = P( X = i ) = P(X 1 = 0∧ X 2 = 0∧L∧ X i −1 = 0∧ X i = 1) = P(X 1 = 0 ) ⋅ P(X 2 = 0/X1 = 0) ⋅ P( X 3 = 0/(X 1 = 0∧ X 2 = 0) ) ⋅ L ⋅ P( X i −1 = 0 /( X 1 = 0 ∧ ... ∧ X i − 2 = 0) ⋅ P(X i = 1/(X 1 = 0 ∧ ... ∧ X i −1 = 0) ) k −1 ⋅ k = = ⇒ pi = 1 k k−2 ⋅L⋅ k −1 k−3 ⋅ k−2 k − (i − 1) k − (i − 1) + 1 ⋅ 1 k − (i − 1) 1 k ∀ i = 1,..., k ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 27 Kapitel II Zufallsgrößen und ihre Verteilungen Um die o.g.Frage nach der mittleren Anzahl der Versuche bis zum Finden des richtigen Schlüssels zu beantworten, benötigen wir den Begriff des Erwartungswertes einer Zufallsgröße, der im nächsten abschnitt eingeführt wird. 2.3 Parameter diskreter Verteilungen 2.3.1 Erwartungswert, Varianz und Verteilungsfunktion X = {a 1 , a 2 ,..., a k } Sei X – diskret, Wahrscheinlichkeitsrechnung deskriptive Statistik ai a1 a2 hn(ai) hn(a1) hn(a2) ak hn(ak) → n →∞ hn (ai ) → pi n →∞ ai a1 pi = P(X = ai) p1 ak pk rel. Häufigkeitsverteilung Wahrscheinlichkeitsverteilung Aus der Konvergenz der relativen Häufigkeit gegen die Wahrscheinlichkeit ergibt sich: arithm. Mittel: 1 k x= xi n i =1 ∑ = n → →∞ k ∑ a h (a ) i n EX = k ∑a p i i – Erwartungswert von X i =1 i i =1 Streuung: s2 = 1 n ( x i − x )2 ∑ n − 1 i =1 = 1 k 2 ∑ (ai − x ) ⋅ H n (ai ) n − 1 i =1 = n n −1 k ∑ (a i =1 − x ) ⋅ h n (a i ) 2 i n → →∞ ( X ) = Var k ∑ (a i =1 − EX) ⋅ p i - Varianz von X 2 i Empirische Verteilungsfunktion: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 28 Kapitel II Zufallsgrößen und ihre Verteilungen Fn ( x ) = ∑ h (a ) i:ai ≤ x n n → F( x) = →∞ i ∑p i i:a i ≤ x = P( X ≤ x ) – Verteilungsfunktion von X – Anteil aller Beobachtungen x j , j = 1,..., n mit xj ≤ x Def.: Sei X diskret, X = {a 1 , a 2 ,..., a k ,...} und sei p i = P( X = a i ), i = 1,2,... Dann heißt: ∞ EX := ∑ ai pi - Erwartungswert von X i =1 ∞ Var (X) := ∑ (ai − EX ) ⋅ pi - Varianz von X 2 i =1 F(x ) = P( X ≤ x ) - Verteilungsfunktion von X Zu Beispiel 27: k = 4, sei X – Zahl Versuche bis Finden des richtigen Schlüssels (ohne Zurücklegen) p i = P( X = i ) = 1 i = 1,2,3,4 4 Wieviel Versuche brauche ich im Mittel? 1 1 1 1 EX = 1 ⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ = 1 ⋅ 0,25 + 2 ⋅ 0,25 + 3 ⋅ 0,25 + 4 ⋅ 0,25 = 2,5 4 4 4 4 Zeigen Sie für das Beispiel 27 Fall a) daß für die erwartete Anzahl von Versuchen bis zum Finden des richtigen Schlüssels gilt ∞ k − 1 i −1 1 ⋅ = k EX := ∑ i ⋅ pi = ∑ i ⋅ i =1 k k i =1 ∞ : Würfeln mit 2 Würfeln, Spiel: 1 DM Einsatz Beispiel 28: Gewinn: 10 DM – Summe der Augenzahlen = 12 5 DM – Summe der Augenzahlen = 6 1 DM – Summe der Augenzahlen = 2 Würden Sie dieses Spiel spielen? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 29 Kapitel II Zufallsgrößen und ihre Verteilungen ⇒ Berechnung des erwarteten Gewinns pro Spiel: p i = P( X = i ) Sei X – Summe der Augenzahlen und Y Gewinn bei Augenzahl X, Gewinn X pi ⇒ 2 1 36 1 3 4 5 6 5 36 5 7 8 9 10 11 0 0 0 0 0 0 0 0 Gewinn Y 5 1 29 1 P(Y = 1) = , P (Y = 5) = , P (Y = 10 ) = , P (Y = 0 ) = . 36 36 36 36 EY = 1 ⋅ 12 1 36 10 1 5 1 29 + 5⋅ + 10 ⋅ + 0⋅ = 1 DM 36 36 36 36 Erwarteter realer Gewinn: EY – Einsatz = 0 DM 2.3.2 Quantile diskreter Verteilungen Def.: Sei X diskret, X = {a 1 ,..., a k ,...} und sei p i = P( X = a i ), i = 1,2,..., k ,... die Wahrscheinlichkeitsverteilung von X und sei F ( x) = P ( X ≤ x ) = ∑p ai ≤ x Verteilungsfunktion von X. Dann heißt xα mit F( x α ) ≤ α < F( x α + ε ) α-Quantil der Verteilung X. i die ∀ ε > 0, 2.4 Stetige Zufallsgrößen und ihre Verteilungen, Verteilungsfunktion und Verteilungsdichte X – stetig, d.h. ∃ [a , b] ⊆ X . Die Wahrscheinlichkeiten stetiger Zufallsgrößen werden mit Hilfe der Verteilungsfunktion F(x) berechnet. Die Gestalt der Verteilungsfunktion für stetige Zufallsgrößen erhalten wir, indem wir den Übergang eines endlichen Wertebereich X = {a 1 ,..., a k } zu einem kontinuierlichen Bereich betrachten (siehe folgende Abbildungen!). ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 30 Kapitel II Zufallsgrößen und ihre Verteilungen X ∈ X = {a 1 ,..., a k } Diskrete Verteilungsfunktion: F(x) [ 1 { [ P2 { [ P1 ) ) ) a1 X a2 a3 ak F(x) 1 X a1 k groß ak Übegang zur stetigen Verteilungsfunktion: F(x) 1 Stetiges F(x) X X stetig kontinuierliches X Def.: Wir bezeichnen jede Funktion F(x) mit folgenden Eigenschaften als Verteilungsfunktion F ( x) = P ( X ≤ x ) von X: 0 ≤ F ( x) ≤ 1 1. ∀ x ∈ X : 2. x 1 ≤ x 2 → F( x 1 ) ≤ F( x 2 ) (F: monoton wachsend) 3. lim F ( x) = 0, lim F ( x) = 1 x → −∞ x → +∞ 4. F(x) ist überall stetig ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 31 Kapitel II Zufallsgrößen und ihre Verteilungen Folgerung: 1.–4. ⇒ F(x) ist bis auf höchstens endlich viele Stellen differenzierbar, und die Ableitungen f ( x) = F ′( x) sind bis auf endlich viele Stellen auch stetig. Def.: Die Ableitung F ′( x) = f ( x), x ∈ X heißt Wahrscheinlichkeitsdichte (Dichtefunktion) von X. x F ( x) = Es gilt: ∫ f (t )dt −∞ Die Dichtefunktion hat folgende Eigenschaften: 1. f ( x) ≥ 0 ∞ 2. ∫ f ( x)dx = 1 −∞ Überlegen Sie sich anhand einer Grafik, wie die Wahrscheinlichkeitsverteilung einer diskreten Zufallsgröße bei Übergang zu einem kontinuierlichen Wertebereich (zu einer stetigen Zufallsgröße) aussieht ! Wie kann man Wahrscheinlichkeiten, z.B. P(a<X<b), im stetigen Fall berechnen? Berechnung von Wahrscheinlichkeiten: 1. P ( X ≤ b ) = F (b) = b ∫ f ( x)dx −∞ 2. P ( X ≥ a ) = 1 − P ( X ≤ a ) = 1 − F (a ) = ∞ ∫ f ( x)dx a 3. P (a ≤ X ≤ b ) = F (b) − F (a ) Graphisch: f (x) F (b) = P (X ≤ b) X b ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 32 Kapitel II Zufallsgrößen und ihre Verteilungen f (x) P (X ≥ a) X a f(x) P(a ≤ X ≤ b) X a b Zu 3.) F (b) = P ( X ≤ b ) = P ( X < a ∨ X ∈ [a, b]) = P( X < a ) + P( a ≤ X ≤ b ) ⇒ P( a ≤ X ≤ b ) = P( X ≤ b ) − P ( X < a ) = P( X ≤ b ) − P ( X ≤ a ) Es gilt weiterhin: 1 4. P( X = a ) = = 0 ∞ 5. P( X ≤ a ) = P( X < a ∨ X = a ) = P( X < a ) + P( X = a ) = P( X < a ) ⇒ Zur Berechnung von Wahrscheinlichkeiten stetiger Zufallsgrößen benötigen wir “nur” die Kenntnis von F(x) bzw. f(x). Beispiel 29: Sei X die Verspätung der U-Bahn an einer bestimmten Haltestelle. X besitze folgende Dichtefunktion: 0,5 − 0,125 x für 0 ≤ x ≤ 4 f ( x) = 0 für x ∉ [0,4] ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 33 Kapitel II Zufallsgrößen und ihre Verteilungen f(x) 0,5 X 2 1 3 5 4 Gesucht.: Wahrscheinlichkeit dafür, daß die Verspätung zwischen 1 und 2 Minuten liegt! Lös.: P ( X ≤ 2 ) = 2 ∫ f ( x)dx 1 2 = ∫ (0,5 − 0,125x)dx 1 2 1 5 1 = 0,312 = x − x2 = 16 1 16 2 2.5 Parameter stetiger Verteilungen 2.5.1 Erwartungswert und Varianz Übergang zu kontinuierlichem Wertebereich: k ∑ (a i =1 ∞ i =1 −∞ ∞ EX = ∑ a i pi → X – diskret Var ( X) = k − EX) p i 2 i ∫ x ⋅ f ( x)dx = EX ∫ (x − EX ) → 2 ⋅ f ( x)dx =Var(X) −∞ Def.: Sei X eine stetige Zufallsgröße. Dann heißen EX = ∞ ∫ x ⋅ f ( x)dx Erwartungswert von X −∞ und Var ( X ) = ∞ ∫ (x − EX ) 2 ⋅ f ( x)dx Varianz von X. −∞ ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 34 Kapitel II Zufallsgrößen und ihre Verteilungen Beispiel 30: U-Bahn ges.: Erwartete Verspätung der U-Bahn EX = ∞ 4 −∞ 0 1 1 ∫ x ⋅ f ( x)dx = ∫ x 2 − 8 x dx 4 64 4 1 3 1 = ≈ 1 min 20 sek = x2 − x = 4− 24 3 24 0 4 2.5.2 Quantile Def.: Sei X eine stetige Zufallsgröße mit der Verteilungsfunktion F(x) und Verteilungsdichte f(x). xα Der Wert xα ∈ X, für den gilt: F(xα) = α bzw. ∫ f ( x)dx = P( X ≤ xα ) = α heißt (unteres) −∞ α–Quantil. X xα Beispiel 31: Sei X die zufällige Dauer von Telefongesprächen und sei die Dichte von X 1 1 − x durch f ( x) = e 5 gegeben. 5 a) Wie groß ist die mittlere Gesprächsdauer? b) Welche Zeit überschreiten 80 % der Gespräche nicht? c) Wie groß ist die Wahrscheinlichkeit dafür, daß die zufällige Gesprächsdauer > 10 min ist? (Wie groß ist der Anteil aller Gespräche, die länger als 10 min. dauern?) Zu a) Mit α = 1/5 gilt: EX = ∞ ∞ −∞ 0 −αx ∫ x ⋅ f ( x)dx = ∫ x ⋅ αe dx ∞ =α ⋅∫ x⋅e −αx → partielle Integration dx 0 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 35 Kapitel II Zufallsgrößen und ihre Verteilungen − x −αx ∞ 1 ∞ −αx = [ ⋅ e ]0 + ∫ e dx ⋅ α α α0 ∞ 1 − x −αx = ⋅ e − 2 e −αx dx ⋅ α α α 0 1 1 = + 2 ⋅α = α α 1 Ergebnis: f ( x) = 1 −5x 1 1 EX = = = 5 min. ⋅e α 1 5 5 Zu b) 0,8 80 % t ⇒ Wir müssen das 80 % Quantil t0,8 berechnen! t0,8 t 0,8 : ∫ f ( x)dx = 0,8 0 t0,8 ↔ ∫ 5⋅e 1 − x 5 diese Gleichung ist nach t0,8 aufzulösen! dx = 0,8 0 t0 , 8 −1 x ↔ − e 5 = 0,8 0 ↔ 1− e 1 − t0 , 8 5 = 0,8 ↔ 1 − 0,8 = e − t0 , 8 5 ↔ ln(1 − 0,8) = − |ln t 0 ,8 5 ⇒ t 0,8 = −5 ⋅ ln(0,2) = −5 ⋅ ( − 1,6) = 8 min. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 36 Kapitel II Zufallsgrößen und ihre Verteilungen 1 10 1 − x P( X > 10 ) = 1 − ∫ ⋅ e 5 dx 5 0 Zu c) 10 − 15 x − 15 x = 1 − − e = 1 − − e − (− 1) 0 = 1 + e −2 − 1 = e −2 = 0,135 = 13,5% 2.6 Eigenschaften von Erwartungswerten und Varianz von Zufallsgrößen X – diskret oder stetig (beliebig) Satz: 1.) E(aX) = aEX 2.) E(a ) = a 3.) E( X + Y) = EX + EY 4.) E( X ⋅ Y) = ( EX) ⋅ ( EY) Beweis.: falls X und Y stochastisch unabhängig Zu 4.) Seien X und Y diskret, Z = X⋅Y ( { k ∈ Z = a i ⋅ b j | ij==11,..., ,...,l ) ( } → P Z = ai ⋅ b j = P X = ai ∧ Y = b j = stoch. unabh. ⇒ EZ = E( X ⋅ Y) = X = {a 1 ,..., a k } , Y = {b 1 ,..., b k } ) P( X = a i ) ⋅ P ( Y = b i ) ∑a i ( ⋅ b j ⋅ P Z = ai ⋅ b j ) i, j = k l ∑∑a i =1 j=1 = i ( ⋅ b j ⋅ P( X = a i ) ⋅ P Y = b j k ) l ∑ a ⋅ P( X = a ) ⋅ ∑ b ⋅ P( Y = b ) i i j i =1 = j j=1 EX ⋅ EY Satz: Es gilt: 2 2 1.) Var ( X ) = E X 2 − E [X ] = E ( X − EX ) 2.) Var (a ) = 0 [ ] 3.) Var (aX + b ) = a 2 ⋅ Var ( X ) 4.) Var (aX + bY ) = a 2 ⋅ Var ( X ) + b 2 ⋅ Var (Y ) , falls X und Y stochastisch unabhängig sind ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 37 Kapitel II Zufallsgrößen und ihre Verteilungen Beweis: Zu 3.) X stetig Var (aX + b ) = ∞ ∫ (ax + b − E (aX + b )) 2 ⋅ f ( x)dx −∞ = ∞ ∫ (ax − a ⋅ EX ) 2 ⋅ f ( x)dx −∞ = ∞ ∫ a (x − EX ) 2 2 ⋅ f ( x)dx −∞ = a 2 ⋅ Var ( X ) Seien X und Y Zufallsgrößen mit EX = 3 und Var (X) = 1 bzw. EY = 10 und Beispiel 32: Var (Y) = 2. Gesucht: Lineare Transformation Y ′ = aY + b von Y so, daß EY ′ = EX und Var Y ′ = Var X . Lösung: EY ′ = EX ↔ E(aY + b) = 3 ↔ a ⋅ EY + b = 3 Var (Y ′) = Var ( X) ↔ Var (aY + b) = 1 ↔ a 2 ⋅ Var (Y) = 1 ⇒a=± Ergebnis: Beispiel 33: 1 = ±0,707 2 Y ′ = 0,707 X − 4,07 ↔ a ⋅ 10 + b = 3 ↔ a2 ⋅ 2 = 1 b1 = 3 − 7,07 = −4,07 oder b2 = 3 + 7,07 = 10,07 Y ′ = −0,707 X + 10,07 Seien µ: = EX, σ 2 = Var ( X) 1 1 X − µ 1 E = ⋅ E( X − µ ) = ⋅ ( EX − Eµ ) = ⋅ ( EX − µ ) = 0 σ σ σ σ 1 1 X − µ Var ⋅ Var ( X − µ ) = 2 ⋅ Var ( X) = 1 = σ σ2 σ Def.: Eine Zufallsgröße X mit EX = 0 und Var (X)=1 heißt Standardisierte Zufallsgröße X − EX X→ – Standardisierung einer Zufallsgröße Var ( X) Def.: Var ( X) – Standardabweichung von X. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 38 Kapitel II Zufallsgrößen und ihre Verteilungen 2.7 Die Tschebyscheff-Ungleichung Satz: Es gilt: (( ) ) (( ) ) a ) P X − EX > ε ≤ Var ( X) ε b) P X − EX ≤ ε ≥ 1 − ∀ ε > 0 2 Var ( X) ε2 Wir können also Wahrscheinlichkeiten ohne Kenntnis der Verteilung abschätzen, nur durch Verwendung von EX, Var(X). Beispiel 34: Produktion von Schrauben (∅ = 5mm – Norm! =: nd) X – zufälliger Schraubendurchmesser Es gilt: EX = nd und Var X = 0,0025 mm2 Ausschuß: Jede Schraube, die um mehr als 0,12 mm vom nd abweicht. Ges.: Ausschußrate der Produktion ( Lös.: P X − nd > 012 mm) ≤ Satz a) Var ( X) (0,12) 2 mm 2 = 0,0025 (0,12) 2 = 0,173 = 17,3% ⇒ Ausschußrate überschreitet 17,3 % nicht! 2.8 Hauptsatz der Statistik → p i = P( X = a i ) beruht auf dem Hauptsatz der Statistik. Die Konvergenz von h n (a i ) n →∞ Satz: (Hauptsatz der Statistik) Es gilt: P lim sup Fn ( x) − F( x) = 0 = 1 n→∞ x∈ℵ ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 39 Kapitel II 2.9 Übungsaufgaben Zufallsgrößen und ihre Verteilungen 1. In einer Sendung von 8 Stück befinden sich 2 fehlerhafte Stücke. Es werden zufällig n = 3 Stück nacheinander ohne Zurücklegen entnommen. X sei die zufällige Anzahl der fehlerhaften Stücke unter diesen 3 entnommenen. a) Berechnen Sie die Wahrscheinlichkeitsverteilung von X und stellen Sie diese grafisch dar! b) Berechnen Sie EX und Var(X). 2. für x < 1 0 Sei F ( x) = x − 1 für1 ≤ x < 2 1 für x ≥ 2 a) Zeigen Sie, daß F(x) )eine Verteilungsfunktion einer Zufallsgröße X ist! b) Stellen Sie die Verteilungsfunktion und die Dichtefunktion grafisch dar! c) Bestimmen Sie die Dichtefunktion, den Erwartungswert und den Median! 3 d) Berechnen Sie P(0 < X < 1,5) und P X > ! 4 3. Bei der Herstellung von Wellen sind alle Wellen Ausschuß, die 1mm oder mehr vom Sollmaß von 100mm Länge abweichen. Die zufällig schwankende Länge hat den Erwartungswert 100mm und die Standardabweichung Var ( X) = 0,1mm . Wie groß ist der Ausschußanteil höchstens? 4. Sei X eine Zufallsgröße mit EX = 0 und Var(X) = 4. Wie muß man X transformieren, damit für die transformierte Zufallsgröße Y gilt: EY = 10, Var(Y) = 1? 5. Sei X eine stetige Zufallsgröße mit um x=c symmetrischer Verteilungsdichte f(x), d.h. es gelte: f(c-x) = f(c+x) für alle x∈R. a) Zeigen Sie: EX=c ! b) Sei Var(X)=d. Berechnen Sie in Abhängigkeit von c und d ein möglichst kleines Intervall I=[c-h, c+h] mit h>0 (also h) , in welchem X mit mindestens 80% iger Wahrscheinlichkeit liegt ! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 40 Kapitel II Zweidimensionale Verteilungen 3 Mehrdimensionale (“zweidimensionale”) Verteilungen 3.1 Zweidimensionale diskrete Verteilungen Seien X, Y zwei diskrete Zufallsgrößen mit den Wertebereichen X = {a 1 ,..., a k } , Y = {b 1 ,..., b l } . Def.: Die zweidimensionale Wahrscheinlichkeitsverteilung von X und Y ist die Gesamtheit aller Wahrscheinlichkeiten p i j : = P X = a i ∧ Y = b j , i = 1,..., k; j = 1,..., l ( ) Es gilt: 1.) 0 ≤ p ij = 1 k 2.) l ∑∑p ij =1 i =1 j =1 Beispiel 35: Sei M eine Maschine mit 2 empfindlichen Bauelementen B1, B2. X, Y - Anzahl { } der Ausfälle von B1 bzw. B2 pro Tag. Sei X = 0, 1, ≥ 2 , Y = {0,1, ≥ 2} . Die gemeinsame Ausfallverteilung sei: X/Y 0 1 ≥2 ∑ 0 0,3 0,18 0,12 0,6 p ij = P( X = i ∧ Y = j) ≥2 0,14 0,1 0,06 0,3 1 0,02 0,02 0,06 0,1 ∑ 0,46 0,3 0,24 1 z.B.: p 01 = 0,02 Def.: Die bedingte Verteilung von X unter der Bedingung Y = bj ist die Gesamtheit aller Wahrscheinlichkeiten. ( ) Pi / j : = P X = ai / Y = b j = ( P X = ai / Y = b j ( P Y = bj ) )= Pij P• j ∀ i = 1,..., k . Def.: X ∈ X = {a 1 ,..., a k } , Y ∈ Y = {b 1 ,..., b l } . X und Y heißen stochastisch unabhängig, falls gilt: p i / j = Pi• Folgerung: ∀ j = 1,..., k , ∀ j = 1,..., l. X und Y stochastisch unabhängig ⇔ Pij = p i• ⋅ p • j für alle i=1,...,k und j=1,...,l. ( P( X = a i ) ( ∧ Y = b j = P( X = a i ) ⋅ P Y = b j ©Prof. Dr. rer. nat. B. Grabowski )) HTW des Saarlandes (2005) 41 Kapitel II Zweidimensionale Verteilungen Zu Beispiel 35: Sind die Ausfälle B1 und B2 voneinander unabhängig? ? P00 = P( X = 0 ∧ Y = 0) = 0,3 = P0• ⋅ P•0 = P( X = 0) ⋅ P(Y = 0) = 0,46 ⋅ 0,6 ≠ 0,3 ⇒ X und Y sind nicht stochastisch unabhängig. 3.2 Zweidimensionale stetige Verteilungen Seien X, Y zwei stetige Zufallsgrößen Def.: Die Funktion F ( x, y ) := P ( X < x ∧ Y < y ), x, y ∈ ℜ heißt zweidimensionale Verteilungsfunktion von X und Y. Die Funktion f(x,y) mit den Eigenschaften 1. f ( x, y ) ≥ 0 ∀ x ∈ ℜ, ∀ y ∈ ℜ x y 2. F ( x, y ) = ~ ~ ~ ~ ∫ ∫ f ( x , y ) dx d v − ∞∞ ∞∞ ∫ ∫ f ( x, y )dxdy = 1 3. − ∞∞ heißt zweidimensionale Verteilungsdichte von X und Y. Def.: Rand-Dichten (bzw. Rand-Verteilungen) für X und Y f X ( x) := ∞ ∫ f ( x, y)dy – heißt (Rand-) Dichte von X. −∞ b P(a < X < b) = f X ( x)dx a ∫ f Y ( y ) := ∞ ∫ f ( x, y )dx – heißt (Rand-) Dichte von Y. −∞ b P(a < Y < b) = f Y ( x)dy a ∫ Def.: X und Y stetig mit der Dichtefunktion f(x, y). Dann heißen X und Y stochastisch unabhängig genau dann wenn gilt: f ( x, y ) = f X ( x) ⋅ f y (Y ) ∀ x ∈ R, ∀ y ∈ R . ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 42 Kapitel II Zweidimensionale Verteilungen Folgerung: X,Y seien stetig. X und Y sind stochastisch unabhängig. Dann gilt: F ( x, y ) = FX ( x) ⋅ Fy (Y ) ( P( X < x ) ∧ Y < y ) = P ( X < x ) ⋅ P( Y = y ) X Y Beweis: F ( x, y ) = ∫∫ X Y f (~ x, ~ y )d~ x d~ y = unabh . − ∞− ∞ ∫∫f y ∫ ∫ ~ ⋅ f (~ ~ f X (~ x ) dx Y y ) dy −∞ = (~ x ) ⋅ fY ( ~ y )d~ x d~ y X − ∞− ∞ x = @ −∞ ⋅ FY ( y) FX ( x) Beispiel 36: Seien X, Y zwei Zufallsgrößen mit der gemeinsamen Dichtefunktion f(x,y) e − x ⋅ e − y für x ≥ 0 ∧ y ≥ 0 f ( x, y ) = 0 sonst a) ges.: EX, EY ∞ Lös.: EX = ∫ ∞ x ⋅ f X ( x)dx, EY = −∞ ∫ y⋅f Y ( y) dy −∞ (X ∈ X ⊆ ℜ) ∞ ∞ ∞ −x − y −x −y −x −y ∫ f ( x, y )dy = ∫ e e dy = e ⋅ ∫ e dy = e − e f X ( x ) = − ∞ 0 0 0 für x < 0 [ e − y f Y ( y) = 0 ∞ ⇒ EX = ∫ ∞ 0 = e − x für x ≥ 0 für y ≥ 0 für y < 0 [ ∞ x ⋅ f X ( x)dx = x ⋅ e − x dx = − x ⋅ e − x + e − x dx ∫ −∞ analog: ] 0 ∫ ] ∞ =1 0 ⇒ EY = 1 b) ges.: P( X < 2 ∧ Y < 3) Lös.: P ( X < 2 ∧ Y < 3) = F (2,3) 2 3 = ∫ ∫ f ( x, y)dxdy − ∞− ∞ 2 = 3 ∫ ∫e −x ⋅ e − y dx dy x=0 y=0 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 43 Kapitel II Zweidimensionale Verteilungen 2 3 [ = e − x dx e − y dy = − e − x ∫ ∫ 0 0 ( )( = 1 − e −2 1 − e −3 ] ⋅ [− e ] 2 −y 3 0 0 ) c) Sind X und Y stochastisch unabhängig? ? f ( x, y ) = f X ( x ) ⋅ f Y ( y ) e −x ⋅ e −y = e −x ⋅ e −y ∀ x, y ≥ 0 ⇒ X und Y sind stochastisch unabhängig! Beispiel 37: B1 B2 B3 B4 Sei Xi die zufällige Lebensdauer von Bauelement Bi, i = 1,....,4 mit der jeweiligen Dichte: ( X1 ): f1 ( x) = 5 ⋅ e −5x ( X 2 ): f 2 ( x) = 6 ⋅ e −6 x ( X 3 ): f 3 ( x) = e − x x ≥ 0 1 1 −2x ( X 4 ): f 4 ( x) = 2 ⋅ e Voraussetzung: Lebensdauern der Bauelemente sind unabhängig! Berechnen Sie die Wahrscheinlichkeit dafür, daß das Gerät länger als 10 Jahre funktioniert! Ges.: P (G > 10 ) , G - zufällige Lebensdauer des Gerätes. Lös.: P (G > 10 ) = P (1. Reihe > 10 ∨ 2.Reihe > 10 ) = P(1.Reihe > 10 ) + P(2.Reihe > 10 ) − P(1.Reihe > 10∧2.Reihe > 10 ) Ax . 3 = P(1.Reihe > 10 ) + P(2.Reihe > 10) − P(1.Reihe > 10) ⋅ P(2. Reihe > 10) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 44 Kapitel II Zweidimensionale Verteilungen P(1. Re ihe > 10) = P( B1 > 10 ∧ B2 > 10) = P( B1 > 10) ⋅ P( B2 > 10) ( )( = 1 − FX1 (10) ⋅ 1 − FX 2 (10) ) 10 10 = 1 − f1 ( x) dx ⋅ 1 − f 2 ( x) dx 0 0 ∫ ∫ = L Berechnen Sie zu Beispiel 37 die Wahrscheinlichkeit P(G>10) ! 3.3 Parameter zweidimensionaler Verteilungen 3.3.1 Erwartungswert und Varianz Seien (X, Y) – 2 Zufallsgrößen. Zur Berechnung der Erwartungswerte EX, EY und Varianzen Var(X), Var(Y) sind definitionsgemäß die (Rand-) Verteilungen von X und Y zu berechnen: { } Seien X bzw. Y diskret mit den Wertebereichen X = {a 1 ,..., a k } bzw. Y = b 1 ,..., b j mit der ( ) Wahrscheinlichkeitsverteilung p ij = P X = a i ∧ Y = b j , i = 1,..., k , j = 1,..., l . Dann gilt: EX = k ∑a i ⋅ p i• j ⋅ p•j i =1 bzw. EY = l ∑b ′ j=1 und Var ( X) = Var ( Y) = k ∑ (a i − EX) p i• j − EY p • j 2 i =1 l ∑ (b j=1 ) 2 wobei p i• bzw. p • j die Randverteilungen der gemeinsamen Wahrscheinlichkeitsverteilung (p ij , i = 1,..., k , ) j = 1,..., l sind. Seien X und Y stetig mit der gemeinsamen Dichtefunktion f(x,y). Dann gilt: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 45 Kapitel II Zweidimensionale Verteilungen ∞ EX = ∫x⋅f x ( x) dx ∫y⋅f y ( y) dy −∞ ∞ EY = −∞ Var ( X) = Var (Y) = ∞ ∫ (x − EX) 2 ⋅ f x ( x) dx ∫ (y − EY) 2 ⋅ f y ( y) dy −∞ ∞ −∞ wobei fx(x) und fy(y) die Randdichten von f(x,y) sind. 3.3.2 Kovarianz und Korrelation [ ] Def.: Cov( X, Y): = E ( X − EX) ⋅ (Y − EY) = E[ X ⋅ Y] − [ EX] ⋅ [ EY] heißt Kovarianz zwischen X und Y. Satz: 1.) Cov( X, X) = Var ( X) 2.) Cov( X, Y) = 0 falls X und Y stochastisch unabhängig 3.) Cov( X, Y + Z) = Cov( X, Y) + Cov( X, Z) 4.) Cov(a + bX, Y) = b ⋅ Cov( X, Y) Def.: Unter der Korrelation zwischen X und Y verstehen wir den Term R: = Cov( X, Y) Var ( X) ⋅ Var (Y) Satz: Es gilt: 1.) R ≤ 1 1 2.) R = − 1 0 (− 1 ≤ R ≤ 1) falls Y = aX + b falls Y = aX + b ,a > 0 ,a < 0 falls X und Y stochastisch unabhängig ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 46 Kapitel II Zweidimensionale Verteilungen Beweisen Sie den Satz ! 3.4 Zusammenfassung deskriptive Statistik X x1 xn L Y y1 yn Wahrscheinlichkeitsrechnung − Stichprobe Stichprobenkovarianz: 1 n s xy : = (x i ⋅ x)( y i ⋅ y) n − 1 i =1 ∑ sx x sy y Pearsonsche Korrelation: s xy rxy : = s xx ⋅ s yy n → →∞ → → ©Prof. Dr. rer. nat. B. Grabowski E( X − EX) ⋅ (Y − EY) = Cov( X, Y) Var (X) Var (Y) R= Cov( X, Y) Var ( X) ⋅ Var (Y) HTW des Saarlandes (2005) 47 Kapitel II Zweidimensionale Verteilungen 3.5 Übungsaufgaben 1. Ein Gerät bestehe aus 4 Bauelementen B1, B2, B3, B4 gemäß folgender Schaltung: B1 B2 B3 B4 Xi sei die zufällige Lebensdauer des Bauelements Bi. Die Zufallsgrößen Xi besitzen folgende Dichtefunktionen fi(x): x − 1 ⋅ e 4+ i für x ≥ 0 f i ( x) = 4 + i 0 für x < 0 i = 1, 2, 3, 4 Die Bauelemente fallen unabhängig voneinander aus. Berechnen Sie die Wahrscheinlichkeit dafür, daß das Gerät eine Lebensdauer von mindestens 10 Jahren besitzt! 2. Eine Maschine habe zwei besonders empfindliche Bauteile B1 und B2, die häufig - aber höchstens 2 mal pro Tag - ausfallen. Seien X bzw. Y die zufällige Anzahl der Ausfälle von B1 bzw. B2 pro Tag. Die gemeinsame Wahrscheinlichkeitsverteilung von X und Y sei in folgender Tabelle gegeben: X/Y 0 1 2 0 1 2 0,3 0,2 0,05 0,2 0,05 0,05 0,1 0,05 0 a) Berechnen Sie P( X > 1 und Y ≥ 1) ! b) Berechnen Sie die erwartete Zahl EX und EY der Ausfälle von B1 und B2! c) Fallen B1 und B2 stochastisch unabhängig voneinander aus? 3. Aus einer Gruppe von Ehepaaren, bei denen beide Partner berufstätig sind, wird ein Paar zufällig ausgewählt. Wie groß ist die Korrelation zwischen dem Einkommen der beiden Partner, wenn bekannt ist, daß für das Einkommen X des Mannes EX = 2600 DM, Var(X) = 250 DM2 gilt, und für das Einkommen Y der Frau EY = 1850 DM, Var(Y) = 300 DM2 gilt, sowie die Kovarianz zwischen X und Y Cox(X,Y) = 136 DM2 beträgt? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 48 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret 4 Spezielle Wahrscheinlichkeitsverteilungen 4.1 Diskrete Verteilungen Voraussetzung: X diskret, p i = P( X = a i ), X ∈ X = {a 1 ,..., a k ,...} i = 1,2,... ⇒ Wir können bei diskreten Zufallsgrößen die Wahrscheinlichkeitsverteilung aus der Versuchsanordnung bestimmen! 4.1.1 Zweipunktverteilung X, X = {a 1 , a 2 } a1 = p, a2 = (1 – p) p 1 = P( X = a 1 ) = p p 2 = P( X = a 2 ) = 1 − p Def: Eine Zufallsgröße X, deren Wertebereich nur zwei Werte a1, a2 umfaßt, heißt zweipunktverteilt. a Mißerfolg (1 − p) Schreibweise: X = 1 Erfo lg p a 2 Üblicherweise werden Zweipunktverteilungen wie folgt skaliert: a1 = 0, a2 = 1 Def: Eine zweipunktverteilte Zufallsgröße mit dem Wertebereich X = {0,1} heißt Bernoulli-Variable. Für eine Bernoulli-Variable gilt offensichtlich: EX = p, Beispiel: Münzwurf! Var ( X) = p ⋅ (1 − p) 4.1.2 Diskrete Gleichverteilung Def.: Eine diskrete Zufallsgröße X mit endlichem Wertebereich X = {a 1 ,..., a k } heißt gleichverteilt auf X, falls gilt: P( X = a i ) = ( 1 k für alle i=1,2,...,k. ) Bezeichnung: X ~ G {a 1 ,..., a k } [∼ bedeutet: „ist verteilt wie“ (X ∼ F bedeutet: X besitzt die Verteilungsfunktion F)] ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 49 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret pi = Beispiele: a) Würfeln, ai = i, i = 1,...,6, 1 6 b) Simulation: 1 4 1 1 4 2 gleichwahrscheinlich: Routing 3 1 4 4 1 4 4.1.3 Binomialverteilung Beispiel 38: Ich würfele 3 mal unabhängig voneinander. Sei X die zufällige Anzahl der gewürfelten Sechsen. Gesucht: Verteilung von X Lösung: Wir berechnen stellvertretend die Wahrscheinlichkeit P( X = 2) . Sei wi - Würfelergebnis von Wurf i, i=1,2,3 ( = P(( w = 6, w = 6, w ≠ 6)) + P( w P(( w ≠ 6, w = 6, w = 6)) P( X = 2) = P ( w 1 = 6, w 2 = 6, w 3 ≠ 6) ∨ ( w 1 = 6, w 2 ≠ 6, w 3 = 6) ∨ ( w 1 ≠ 6, w 2 = 6, w 3 = 6)) 1 1 2 2 3 1 = 6, w 2 ≠ 6, w 3 = 6) + 3 = P( w 1 = 6) ⋅ P( w 2 = 6) ⋅ P( w 3 ≠ 6) + P( w 1 = 6) ⋅ P( w 2 ≠ 6) ⋅ P( w 3 = 6) + P( w 1 ≠ 6) ⋅ P( w 2 = 6) ⋅ P( w 3 = 6) = p ⋅ p ⋅ (1 − p) + p ⋅ (1 − p) ⋅ p + (1 − p) ⋅ p ⋅ p = 32 ⋅ p 2 ⋅ (1 − p) Verallgemeinerung: 3 3− i P( X = i) = ⋅ p i ⋅ (1 − p) i i = 0,1,2,3 Def.: Sei X eine Zufallsgröße (diskret) mit dem Wertebereich X = {0,1,..., n} . Wenn die Wahrscheinlichkeitsverteilung von X die Gestalt n n−i p i = P( X = i) = ⋅ p i ⋅ (1 − p) ∀ i = 0,..., n i besitzt, nennt man X binomialverteilt mit den Parametern n und p. Schreibweise: X ~ B( n, p) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 50 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret Typisches Versuchsschema bei der Binomialverteilung: (Bernoulli'sches Versuchsschema) Ich wiederhole n mal unabhängig voneinander einen zweipunktverteilten Bernoulli-Versuch mit der Erfolgswahrscheinlichkeit p: 1 Xi = 0 p Erfo lg (1 − p) Mißerfo lg i= 1,...,n ⇒ X-Anzahl der Erfolge (der “1”) bei diesen n Wiederholungen → X = n ∑X i i =1 Dann gilt: X ~ B( n, p) Beispiel 39: Ich würfele 3 mal, X – zufällige Anzahl der 6 en, Zweipunktverteilter Versuch: 1 Würfeln einer 6 p= 1 6 Xi = 5 0 Würfeln keiner 6 p = 6 1 , n=3 6 1 → X ~ B n = 3, p = 6 → p= Beispiel 40: Eine Statistikklausur umfasse 10 Aufgaben mit je 4 Antwortalternativen, von denen nur eine richtig ist. Wie groß ist die Wahrscheinlichkeit dafür, nur durch Raten wenigstens 4 Aufgaben zu lösen? Lös.: 1 Aufgabe ist richtig geraten p= 1 4 Xi = 3 0 falsch (1 − p) = 4 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 51 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret X – Anzahl richtig geratener Aufgaben P( X ≥ 4) = 1 − p( X ≤ 4) = 1 − 0 10 1 3 P( X = 0) = ⋅ ⋅ 0 4 4 1 1 → X ~ B n = 10, p = 4 4 ∑ P( X = i ) i =0 10 = 310 4 10 9 10 1 3 10 ⋅ 39 P( X = 1) = ⋅ ⋅ = 10 1 4 4 4 M M Berechnung von EX und Var(X) der Binomialverteilung: Satz : Sei X~B(n,p). Dann gilt: EX = np und Var(X) = np(1-p) Beweis: Es gilt: X = n ∑X i =1 i (1 − p) , 0 , wobei X i ~ 1 i = 1,...,n. p Unter Verwendung der Eigenschaften von Erwartungswert und Varianz erhalten wir: n ⇒ EX = E X i = i =1 ∑ n ∑ EX i = i =1 n ∑p = n⋅p i =1 ⇒ Var ( X) = Var X i = i =1 n ∑ = n ∑ Var(X ) i i =1 n ∑ p ⋅ (1 − p) = n ⋅ p ⋅ (1 − p) i =1 qed. 20 Personen werden gleichwahrscheinlich in 2 Gruppen G1, G2 Beispiel 41: eingeordnet. Wie groß ist die Wahrscheinlichkeit dafür, daß am Ende in beiden Gruppen gleichviele Personen sind? X – Anzahl der Personen in G1 ges.: P( X = 10) X ~ B n = 20, p = 1 2 Zweipunktverteilter Versuch: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 52 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret 1 → G 1 ( K) Xi = 0 → G 2 ( Z) 20 1 P( X = 10) = ⋅ 10 2 10 20 1 = ⋅ 10 2 20 1 ⋅ 2 p= 1 2 1 (1 − p) = 2 i = 1,...,20 = n (Münzwurf) 20 −10 n n! = k k !⋅ ( n − k )! Beispiel 42: Die Wahrscheinlichkeit bei einer U-Bahn-Fahrt kontrolliert zu werden beträgt 10 %. Wie groß ist die Wahrscheinlichkeit dafür, innerhalb von 20 Fahrten P( X ≤ 3) = P( X = 0 ∨ X = 1 ∨ X = 2 ∨ X = 3) = p 0 + p 1 + p 2 + p 3 a) höchstens 3x P( X > 3) = 1 − P( X ≤ 3) b) mehr als 3x Ax .3 P( X < 3) = p 0 + p 1 + p 2 c) weniger als 3x P( X = 3) = p 3 d) genau 3x P( X ≥ 3) = 1 − P( X < 3) e) mindestens 3x P( X > 1 ∧ X < 4 ) = p 2 + p 3 f) mehr als 1x und weniger als 4x kontrolliert zuwerden? X – Anzahl der Kontrollen innerhalb von 20 Fahrten X = {0,1,...,20} 1 0 Xi – Kontrolle bei Fahrt i = p = 0,1 (1 − p) = 0,9 ⇒ X ~ B(20; 0,1) 20 i 20 − i p i = P = ( X = i) = ⋅ (0,1) ⋅ (0,9) i Rechnen Sie zu Beispiel 42 eine der Teilaufgaben a)-f) aus! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 53 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret 4.1.4 Die Poissonverteilung Sei X ~ B( n, p) n n−i Wenn n sehr groß, p sehr klein, dann führt die Berechnung von p i = ⋅ p i ⋅ (1 − p) i manchmal zu “numerischen” Problemen. Man kann pi durch einen anderen Ausdruck approximieren: Satz: Es gilt: (λ ) ⋅ e − λ n i n−i ⋅ p 0 ⋅ (1 − p) = i! i i lim p→ 0 n →∞ n⋅p = λ = konst . (ohne Beweis!) Für n ≥ 20, p ≤ 0,01 ist die Approximation: n i λi − λ n−i ⋅ p (1 − p) ≈ ⋅ e i! i mit λ = n ⋅ p ausreichend gut. Beispiel 43: 1000 Sandkörner, von einer Sorte keimen in der Regel 1 % nicht. Wie groß ist die Wahrscheinlichkeit dafür, daß von diesen 1000 Körnern mehr als 4 nicht keimen? Lösung: Sei X – Anzahl der nicht keimenden Samenkörner. Dann gilt: X ~ B( n = 1000, p = 0,01) 1000 1000 − i i ⇒ pi = ⋅ (0,01) (0,09) i ≈ 10 i −10 ⋅e i! i = 0,...,4 Gesucht : P(X>4). Es gilt: P( X > 4) = 1 − P( X ≤ 4) = 1 − p 0 − p 1 − p 2 − p 3 − p 4 λ2 − λ λ3 − λ λ4 − λ ⋅e − ⋅e − ⋅e 2! 3! 4! = 1 − e − λ (1 − λ − λ2 / 2 − λ3 / 3!− λ4 / 4 !) wobei λ = n ⋅ p = 10 . Rechnen Sie die gesuchte Wahrscheinlichkeit zu Beispiel 43 aus! = 1 − e −λ − λ ⋅ e −λ − ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 54 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret Rekursionsformel zur Berechnung der Wahrscheinlichkeiten p i = p 0 = e −λ , pi = λ i λi − λ ⋅e i! ⋅ pi −1 , i =1,2,.... → p 0 = e −λ λ λ p1 = ⋅ e −λ = ⋅ p 0 1 1 2 λ λ p2 = ⋅ e −λ = ⋅ p1 2! 2 Bemerkung: Bei einer B(n, p) - verteilten Zufallsgröße X gilt: EX = n ⋅ p = λ Var ( X) = n ⋅ p ⋅ (1 − p) Es gibt oft Situationen, in denen n und p unbekannt sind, aber n ⋅ p = λ bekannt ist. In diesen Situationen könne wir die Wahrscheinlichkeiten n n−i p i = P( X = i) = ⋅ p i ⋅ (1 − p) nicht berechnen, aber die diese i approximierende Größe λi − λ ⋅e ! i! Beispiel 44: In einer Vermittlungsstelle gehen im Schnitt 5 Anrufe pro µs ein. Maximal schafft die Vermittlungsstelle 10 Anrufe pro µs. Wie groß ist die Wahrscheinlichkeit dafür, daß die Kapazität der Vermittlungsstelle überschritten wird? (Merke: Anzahl ist hier immer binomialverteilt!) Anschlüsse Vermittlungsstelle ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 55 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret Lösung: X – Anzahl von Anrufen pro µs. Dann ist gesucht: P( X > 10) . Sei Es gilt: X ~ B( n, p) EX = n ⋅ p = 5 n = Anzahl der eingehenden Teilnehmer p = Wahrscheinlichkeit für den Anruf eines Teilnehmers in einer µs. n, p unbekannt aber n > 20, p < 0,01 und n ⋅ p = λ = 5 bekannt ⇒ P( X > 10) = 1 − P( X ≤ 10) =1− 10 ∑p i i =0 ≈1− 10 ∑ i=0 10 5i −5 λi − λ ⋅e =1− ⋅e i! i =0 i ! ∑ Def.: X sei eine Zufallsgröße mit dem Wertebereich X = {0,1,2,...} = N 0 . Dann heißt X poisson-verteilt mit dem Parameter λ, falls gilt: P( X = i) i λ) ( = ⋅ e −λ i! für i=0,1,2,.... Bezeichnung : X ~ P(λ ) Satz: Sei X ~ P(λ ) . Dann gilt: EX = λ, Var(X) = λ. Beweis: (Taylorreihe der e-Funktion) EX = ∞ ∑ i ⋅ pi = i=0 ∞ ∑ i=0 i⋅ ∞ ∞ λi λi − λ λ( i −1) ⋅ e = e −λ ⋅ λ ⋅ = e −λ ⋅ λ ⋅ = e −λ ⋅ λ ⋅ e λ = λ i! i i − 1 ! ! ( ) i=0 i=0 ∑ ∑ Zur Var(X): ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 56 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-diskret X ~ B( n, p) Var ( X) = n ⋅ p ⋅ (1 − p) → n →∞ p→ 0 n⋅p = λ n →∞ p→ 0 n⋅p = λ X ~ P(λ ) → Var(X) = λ ged. Beispiel 45: Die mittlere Anzahl eintreffender Kunden bei Aldi sei 5 pro 10 Minuten (½ Kunde pro Minute). Wie groß ist die Wahrscheinlichkeit dafür, daß innerhalb von 10 Minuten genau 1 Kunde eintrifft? Lösung: Sei X zufällige Anzahl eintreffender Kunden pro Minute → X ~ P λ = 1 2 1 1 − → P( X = 1) = ⋅ e 2 = 0,303 = 30,3 % 2 ⇒ in 30,3 % aller Minutenintervallen kommt genau ein Kunde an! Typische Anwendungen der Poissonverteilung: − X – Anzahl eintreffender Signale in einer Empfängerstation pro Zeiteinheit − X – Anzahl eintreffender Kunden in einer Verkaufseinrichtung pro Zeiteinheit − X – Anzahl eintreffender Autos an einer Kreuzung pro Zeiteinheit ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 57 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig 4.2 Spezielle stetige Verteilungen Sei X stetig, X ⊆ ℜ . Die Wahrscheinlichkeitsverteilung wird hier durch die Dichtefunktion f(x) bzw. Verteilungsfunktion F(x) beschrieben. b P(a ≤ X ≤ b ) = ∫ f ( x)dx = F (b) − F (a) a f(x) P( a ≤ X ≤ b ) X a b gesucht: f Man unterscheidet verschiedene Typen von f. Diese entsprechen typischen beobachteten Verläufen der Histogramme. Beispiel 46: a) X – Lebensdauer von Kühlschränken, Beobachtungen: x1,...,xn ⇒ Klasseneinteilung K1,...,Kk, grafische Darstellung der relativen Häufigkeitsdichte h n (K i ) = h *n ( K i ) ∆K i Hn(Ki) P(X ∈ K1) n→∞ K1 Kk X X α ⋅ e −αx , x ≥ 0 f ( x) = 0 , x < 0 Weisen Sie nach, daß die Fläche unter der Funktion βe −αx , x ≥ 0 f ( x) = 0 , x < 0 α > 0, β > 0 nur dann gleich 1 ist, wenn gilt: α = β ! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 58 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig a) X – zufällige Körpergröße von Personen h *n ( K i ) x1,...,xn n→∞ ∆Ki → 0 X X µ µ–σ → f ( x) = 1 2π ⋅ σ µ+σ ⋅e − ( x − µ )2 σ2 ,x ∈ ℜ Bemerkung: Die Gestalt der Dichtefunktion ist zunächst vom Typ: f ( x) = c ⋅ e − ( x − µ )2 σ2 ,x ∈ ℜ Man kann zeigen, daß c= 1 2π ⋅ σ sein muß, damit die Fläche unter der Funktion f(x) gleich 1 ist; d.h., damit f(x) eine Verteilungsdichte ist! c) X – zufällige Zeit zwischen Eintreffen zweier Autos an einer Kreuzung h *n ( K i ) x1,...,xn f(x) n→∞ X X a b 1 , für x ∈ [a, b ] f ( x) = b − a 0 sonst Begründen Sie diese Wahl von f(x) als Verteilungsdichte für X! Bemerkung: Im Unterschied zu Verteilungen diskreter Zufallsgrößen, die aus dem Versuchsaufbau theoretisch hergeleitet werden, werden Verteilungen stetiger Zufallsgrößen aus der Gestalt des Histogramms, also experimentell, bestimmt. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 59 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig 4.2.1 Die stetige Gleichverteilung Def.: Sei X stetig. X heißt auf dem Intervall [ a , b] ⊆ ℜ gleichverteilt, falls X die Dichtefunktion 1 , für x ∈[ a , b] f ( x) = b − a 0 , für x ∉[ a , b] besitzt. Bezeichnung: X ~ R[ a , b] Es gilt: 0 für x<a x − a für x ∈ [ a, b] F ( x) = ∫ f (u )du = −∞ b − a für x>b 1 ∞ b x b2 − a2 a + b = = EX = ∫ x ⋅ f ( x)dx = ∫ b − a 2(b − a ) 2 −∞ a x 2 ( b − a) Var ( X ) = ∫ ( x − EX ) ⋅ f ( x)dx = ∞ 2 12 −∞ Weisen Sie das Ergebnis für die Varianz nach! Anwendung: Systemtechnik II (Simulation) 4.2.2 Die Exponentialverteilung Def.: Sei X stetig. X heißt exponentialverteilt mit dem Paramater α, falls die Dichtefunktion die Gestalt α ⋅ e − αx ,x ≥ 0 f ( x) = ,x < 0 0 α α1 X besitzt. α–Intensitätsparameter (Geschwindigkeit des Abklingens gegen 0) Bezeichnung: X ∼ ε(α) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 60 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig Satz: Es gilt: 1 − e −αx , x ≥ 0 0 , x < 0 a) F ( x) = b) EX = 1 α c) Var ( X) = 1 α2 Beweis: Zu a) x F ( x) = ∫ f (u)du −∞ x = ∫ α ⋅ e −α ⋅u du 0 x 1 = α ⋅ − e − α⋅u = − e − α⋅x − ( − 1) = 1 − e − α⋅x 0 2 qed. Weisen Sie die Aussagen b) und c) des Satzes nach! Wie kann man bei einer exponentialverteilten Zufallsgröße den Parameter α zumindest näherungsweise ermitteln ? Typische Anwendungsgebiete: − − − − − X – zufällige Lebensdauer von Bauelementen X – zufällige Gesprächsdauer von Telefonaten X – zufälliger Zeitabstand zwischen 2 Signalen (,die in einer Empfangsstation eintreffen) X - zufälliger Zeitabstand zwischen 2 Kunden (, die in einem Supermarkt eintreffen) X – Abbauzeit von Drogen im menschlichen Blut Beispiel 47: Die zufällige Lebensdauer von Kühlschränken sei exponentialverteilt. Im Mittel beträgt sie 10 Jahre: a) Wieviel % aller Kühlschränke werden diese 10 Jahre überschreiten? b) Nach welcher Zeit haben 80% aller Kühlschränke 'ihr Leben ausgehaucht'? Lösung: 1 Jahre -1 X – zufällige Lebensdauer, X ∼ ε α = 10 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 61 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig Zu a) P( X > 10) = 1 − P( X ≤ 10) = 1 − F (10) 1 − ⋅10 10 = 1 − 1 − e = e −1 = 1 = 0,31 e ⇒ 31% aller Kühlschränke werden älter als 10 Jahre. Zu b) P( X ≤ t 0,8 ) = 0,8 ⇔ F( 0,8) = 0,8 ⇔1− e ⇔e − − 1 ⋅t 0 , 8 10 = 0,8 t 0,8 10 = 0,2 / ln t 0,8 = ln(0,2) 10 ⇔ t 0,8 = −10 ⋅ ln(0,2) = 16,09 ≈ 16 Jahre ⇔− 0,8 t ⇒ Ca. 20% aller Kühlschränke überschreiten eine Lebensdauer von 16 Jahren. Satz: (Zusammenhang zwischen der Poisson- und der Exponentialverteilung) Sei X die zufällige Anzahl eintreffender Signale pro Zeiteinheit und sei T die zufällige Zeit zwischen zwei Signalen. Dann gilt: X ~ P(λ ) ⇔ T ∼ ε (λ) Beweis und Anwendungen: -> Vorlesung: Diskrete Simulation Die zufällige Zeit T zwischen dem Eintreffen zweier Studenten zur Vorlesung sei exponentialverteilt mit dem Erwartungswert ET=2 min. a) Wie groß ist die Wahrscheinlichkeit dafür, daß mehr als 1 Student pro Minute eintrifft? b) Wieviele Studenten werden im Mittel pro Minute eintreffen? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 62 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig 4.2.3 Die Normalverteilung (Gauß-Verteilung) ( ) Def.: X sei stetig. X heißt normalverteilt mit den Parametern µ , σ 2 , falls die Dichtefunktion f(x) folgende Gestalt besitzt: f ( x) = ( 1 ⋅e 2π ⋅ σ Bezeichnung: X ~ N µ , σ 2 − ( x − µ )2 2⋅σ 2 x ∈ℜ. ) f (x ) sy m m e trisch µ – σ, µ + σ X = ℜ µ – 3σ µ – 2σ µ µ – σ µ + σ µ – L a g e p a ra m e te r µ µ σ1 > σ µ – σ1 µ µ–σ µ+σ µ + σ1 σ – Streuungsparameter Vervollständigen Sie diese Grafik, indem Sie die Dichte der 2 Normalverteilung N µ , σ 1 für σ1 > σ einzeichnen ! Wird diese steiler oder flacher als die bereits eingezeichnete Dichte? ( ) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 63 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig ( ) Var ( X) = σ 2 Satz: Sei X ~ N µ , σ 2 . Dann gilt: EX = µ , (ohne Beweis!). Def.: Unter der Standardnormalverteilung versteht man die Verteilung N(0, 1), also die Normalverteilung mit Erwartung 0 und Varianz 1. Bezeichnungen: ϕ (x) :=f(x) – Dichtefunktion der Standardnormalverteilung Φ(x) :=F(x) – Verteilungsfunktion der Standardnormalverteilung Berechnung der Wahrscheinlichkeiten: ( ) Sei X ~ N µ , σ 2 . Gesucht P ( X < a ) = F (a ) = a ∫ f ( x)dx = −∞ a 1 2π ⋅ σ ⋅ ∫e − ( x − µ )2 2⋅σ 2 dx −∞ Analytisch nicht lösbar → numerisch lösen → zu aufwendig für uns µ a → Wir führen F(a) auf die Standardnormalverteilungsfunktion Φ zurück . Die Funktion Φ ist tabelliert. ( ) Satz: Sei X ~ N µ , σ 2 . Sei F die Verteilungsfunktion von X. Dann gilt: a−µ F (a) = Φ ⋅ σ ( Φ - Verteilungsfunktion von N(0, 1)) Beweis des Satzes: Es gilt: Substitution: u= x: − ∞ → a ( x − µ) σ → du 1 = dx σ → dx = σdu a − µ u: − ∞ → σ ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 64 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig (a − µ ) ⇒ F (a) = 1 (a − µ ) = ⋅ 2π ⋅ σ σ ∫ e − u2 2 (a − µ ) ⋅ σ dx = −∞ σ 1 ∫ −∞ 2π ( ) ⋅e − u2 2 du a−µ σ σ ∫ ϕ (u )du = Φ ⋅ −∞ qed. Bedeutung: Wir können jede beliebige N µ , σ 2 auf die Standardnormalverteilung zurückführen. Wir brauchen nur die Werte Φ(x) . Diese sind tabelliert (numerische Lösung des Integrals) x Φ( x) = ∫ ϕ (u )du = −∞ 1 2π x ⋅ ∫e − u2 2 du . −∞ Arbeit mit der Tabelle der Standardnormalverteilung (Anhang, Tabelle 1.1): 0 1 9 0,0 0,1 φ(1.01) 1,0 1,1 φ(3,09) 3,0 -3 x 3 φ(x) ist ∀ x in diesem Bereich ([0,3.09]) tabelliert Begründen Sie, warum dieser Bereich ausreicht ! Welche Eigenschaften besitzt die Normalverteilung N(0,1) ? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 65 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig Es gilt: φ(-a) = 1 –Φ(a) 1. Die N(0,1)-Verteilung ist symmetrisch ! φ(-a) 1 – φ(a) –a a 2. Es gilt: φ(x)=1 für alle x>3.09 ! Bemerkung : Wir können sogar zeigen, daß für eine beliebige Normalverteilung gilt: F(x) = 1 für x > 3σ (siehe unten, 1-,2-,3-σ-Bereiche). Rechenbeispiele: u 0,0 : 1,0 : 2,0 : 3,0 0 1 2 ... 9 0,8438 u } 1) Φ (1,01) = 0,8438 2) Φ(2,73) = 0,9968 3) Φ(− 2) = 1 − Φ(2) = 1 − 0,9772 = 0,0228 ( Beispiel 48: Sei X der zufällige IQ eines Saarländers, X ~ N 100, (15) Ges.: P( X > 70) Lös.: P ( X ≥ 70 ) = 1 − P ( X ≤ 70 ) = 1 − F (70) = 1 − Φ ( = 1 − Φ(− 2) = Φ (2) = 0,9772 2 ) 70 − 100 ) 15 ⇒ 97,72 % der Saarländer haben IQ ≥ 70 2,28 % der Saarländer haben IQ < 70 Beispiel 49: Sägewerk: Bretter: Normallänge: n = 20 Meter ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 66 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig Aufgrund der Produktionstechnologie wird die Normlänge n nicht immer genau erreicht, sondern die produzierte Länge schwankt zufällig um n. ( Sei X – zufällige Länge mit X ~ N n = 20m, (2 mm) 2 ) Alle Bretter sind Ausschuß, für die gilt, daß ihre Länge um mehr als 3,6mm von n = 20m abweicht. a) Wieviel % der Werkstücke werden mit der gewünschten Qualität produziert? b) Wieviel % der Bretter sind Ausschuß? c) Wie groß darf die Abweichung von der Normlänge n maximal sein, damit höchstens 5% aller Bretter Ausschuß sind ? Lös.: a) ( ) P X − 20000mm < 3,6mm n − 3,6 ≤ X ≤ n123 = P 123 + 3,6 a b = F(n+3,6) - F(n - 3,6) n − 3,6 − n n + 3,6 − n = Φ − Φ 2 2 ( = Φ(1,8) − Φ( − 1,8) = Φ(1,8) − 1 − Φ(1,8)) = 2 ⋅ Φ(1,8) − 1 = 2 ⋅ 0,9641 − 1 = 1,9282 − 1 = 0,9282 = 92,82% b) 7,18 % sind Ausschuß! Lösen Sie c) ! Veranschaulichen Sie sich die Lösungen zu a), b), c) grafisch anhand der Dichte der Normalverteilung von X ! 1, 2 und 3-σ σ-Bereiche der Normalverteilung: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 67 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig ( X ~ N µ, σ 2 µ – 3σ µ – 2σ µ µ–σ µ+σ µ + 2σ ) µ + 3σ 1-σ-Bereich 2-σ-Bereich 3-σ-Bereich ( ) Satz: Sei X ~ N µ , σ 2 . Dann gilt: 1.) P(µ − σ ≤ X ≤ µ + σ ) = 0,68 2.) P(µ − 2σ ≤ X ≤ µ + 2σ ) = 0,955 3.) P(µ − 3σ ≤ X ≤ µ + 3σ ) = 0,998 Beweis des Satzes: P(µ − iσ ≤ X ≤ µ + iσ ) = F(µ + iσ ) − F(µ − iσ ) µ + iσ/ − µ/ µ/ − iσ/ − µ/ = Φ / − Φ σ/ σ/ = Φ( i ) − Φ ( − i ) = 2 ⋅ Φ(i) − 1 Nun gilt: 1.) Φ(1) = 0,8413 ,i = 1, 2, 3 ⇒ P(µ − σ ≤ X ≤ µ + σ ) = 2 ⋅ 0,8413 − 1 = 0,68 2.) Φ(2) = 0,9772 ⇒ P(µ − 2σ ≤ X ≤ µ + 2σ ) = 2 ⋅ 0,9772 − 1 = 0,955 3.) Φ(3) = 0,9987 ⇒ P(µ − 3σ ≤ X ≤ µ + 3σ ) = 2 ⋅ 0,9987 − 1 = 0,998 q.e.d 2 aller beobachtbaren Werte von X liegen im 1-σ-Bereich. 3 – Fast alle beobachteten Werte von X liegen im 3-σ-Bereich. Bedeutung: – Ca. ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 68 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig Für die Praxis: ( ) X → Beobachtungen x1,...,xn über den Typ der Verteilung X ~ N µ , σ 2 . Schätzung der Paramater: µ ≈ x , σ 2 ≈ s2 ( ⇒ N ≈ N x, s 2 ) Schluß von Stichprobe auf Gg: 68 % aller Werte von X sind ∈[ x − s, x + s] fast alle (99,8 %) Werte von X sind ∈[ x − 3s, x + 3s] ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 69 Kapitel II 4.3 Übungsaufgaben Spezielle Wahrscheinlichkeitsverteilungen-stetig 1. Ein Versicherungsvertreter schließt mit 5 Kunden, die das gleiche Alter besitzen, Lebensversicherungsverträge ab. Nach der Sterbetafel beträgt die Wahrscheinlichkeit für jeden der 5 Kunden, die nächsten 30 Jahre zu überleben, 0.60. Berechnen Sie die Wahrscheinlichkeit dafür, daß nach 30 Jahren a) genau 2 Kunden b) alle 5 Kunden c) wenigstens 2 Kundennoch am Leben sind! d) Wieviele Kunden sind im Mittel nach 30 Jahren noch am Leben? 2. In einer Vermittlungsstelle werden im Durchschnitt 100 Anrufe pro Stunde gezählt. Die maximale Kapazität der Vermittlungsstelle erlaubt die Vermittlung von höchstens 10 Anrufen pro Minute. a)Wie groß ist die Wahrscheinlichkeit dafür, die maximale Kapazität zu überschreiten? b) Wie groß ist die Wahrscheinlichkeit dafür, daß die Zeit zwischen dem Eintreffen zweier Anrufe 20 Sekunden überschreitet? 3. In einem Experiment wurde die Zeit T für die Lösung einer Denkaufgabe gemessen. Sie entspricht einer normalverteilten Zufallsgröße mit dem Mittelwert m = 20 Sekunden und der Varianz = 25 (Sekunden)2. Man bestimme a) die Wahrscheinlichkeit dafür, daß die Lösungszeit 25 Sekunden nicht überschreitet. b) den prozentualen Anteil der Personen, deren Lösungen zwischen 11 und 22 Sekunden liegt. c) Welche Lösungszeit wird von 95 % aller Personen nicht überschritten? 4. Die zufällige Zeit, die ein Organismus benötigt, um eine Droge abzubauen sei exponentialverteilt mit dem Parameter α = 0,25 (Stunde)-1. Die Fahrtüchtigkeit der Person ist erst hergestellt, wenn die Droge in ihrem Organismus vollständig abgebaut ist. a) Wie groß ist die mittlere Abbauzeit? b) Wie groß ist die Wahrscheinlichkeit dafür, daß eine Person, der die Droge verabreicht wurde, nach mindestens 4 und höchstens 6 Stunden wieder fahrtüchtig ist? c) Nach welcher Zeit ist in 80 % der Fälle die Droge abgebaut? 5. Auf einem Markt wird an einer Würfelbude für 1 DM Einsatz folgendes Spiel angeboten: Der Spieler würfelt gleichzeitig mit 3 Würfeln. Hat er 3 Sechsen gewürfelt, so bekommt er 200 DM zurück. Hat er 2 Sechsen gewürfelt, so bekommt er 50 DM und bei einer Sechs nur den Einsatz von 1 DM zurück. In jedem anderen Fall bekommt er nichts. Wie hoch ist der erwartete Gewinn (Erwartete Einnahme pro Spiel – Einsatz)? Würden Sie dieses Spiel spielen? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 70 Kapitel II Spezielle Wahrscheinlichkeitsverteilungen-stetig 6. Zwei Spieler A und B überlegen sich folgendes Glücksspiel: B merkt sich eine natürliche Zahl zwischen 0 und 2 ( x ∈{0,1,2} ). A muß sie erraten. A hat das Spiel gewonnen, falls er die Zahl richtig rät. Andernfalls hat B gewonnen. A und B wollen nun 2 Spielserien unter folgenden Bedingungen austragen: − Jede Serie besteht aus mehreren einzelnen unabhängigen Spielen: Die 1. Serie wird über 4 Spiele, die 2. Serie über 2 Spiele ausgetragen. − A hat eine Serie gewonnen, wenn er in dieser Serie mehr Spiele als B gewonnen hat. − A setzt vor jedem Spiel 1 DM als Einsatz ein. Gewinnt A ein Spiel, dann erhält er 2 DM zurück. Man berechne a) die Wahrscheinlichkeit dafür, daß der Spieler A die 1. Serie gewinnt! b) die erwartete Zahl der durch A gewonnenen Spiele nach beiden Spielserien! c) Wie groß ist der erwartete Gewinn von A (Erwartete Einnahme pro Spiel – Einsatz) nach einem Spiel? (Beachten Sie den Unterschied zwischen “Spiel” und “Spielserie”! 7. Ein Forstbetrieb liefert Stangenholz, dessen Länge normalverteilt mit N(20; (0,09)) (Angaben in Metern) um 20 Meter schwankt. Alle Stangen mit einer Länge von weniger als 19,6 und mehr als 20,4 Metern gelten als Ausschuß! a) Berechnen Sie die Ausschußrate der Produktion! b) Wie groß ist die Wahrscheinlichkeit dafür, daß sich in einer Menge von 4 Stangenhölzern mindestens zwei Ausschußstangen befinden? c) Wieviele Ausschußstangen muß man in einer Serie von 100000 Stück erwarten? d) Berechnen Sie den Toleranzbereich um 20 herum, d.h. das ε, so daß genau 5% aller Stangen außerhalb des Toleranzbereiches [20 - ε, 20 + ε] liegen! 8. Eine Schaltung besteht in der in der Skizze dargestellten Weise aus 3 Bauelementen. Das Gerät fällt aus, wenn beide Reihen ausfallen. Eine Reihe fällt aus, wenn mindestens eines der in Reihe geschalteten Elemente ausfällt. Die zufällige Zeit bis zum Ausfall eins Bauelements ist wie folgt gegeben: Bauelement B1 : T1∼ N(100, 4) Bauelement B2 : T2∼ N(200, 9) Bauelement B3 : T3 ∼ E(0,01) (alle Angaben in Stunden) Die Elemente B1, B2, B3 fallen unabhängig voneinander aus, d.h., T1, T2, T3 sind stochastisch unabhängig. Berechnen Sie die Wahrscheinlichkeit dafür, daß die Lebensdauer des Gerätes 100 Stunden nicht überschreitet ! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 71 Kapitel II Reproduktions- und Grenzwertsätze 5 Reproduktions- und Grenzwertsätze 5.1 Reproduktionssätze Beispiel 50: Der Aufzug in einer Firma ist zugelassen für 12 Personen bzw. 1000 kg. Das Durchschnittsgewicht der Angestellten der Firma ist µ = 80 kg mit σ = 4 kg und ist normalverteilt. Wie groß ist die Wahrscheinlichkeit dafür, daß 12 Personen mehr als 1000 kg wiegen? Xi – zufälliges Gewicht von Person i Xi ~ N(80, (4)2) , i=1,...,12 X = X 1 + L + X 12 ges.: P( X > 1000kg) Zufallsgrößen. ⇒ Wir benötigen die Verteilung der Summe von Beispiel 51: Berlin X Vst. Saarbrücken Y Vermittlungsstelle X – Anzahl eintreffender Signale pro µs aus Berlin Y – Anzahl eintreffender Signale pro µs aus Saarbrücken ( ) Es seien X ~ P(λ x ) und Y ~ P λ y ges.: Wahrscheinlichkeit dafür, daß X + Y > c , c – Kapazität der Vst. → Wir benötigen die Kenntnis der Verteilung von X + Y! ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 72 Kapitel II Reproduktions- und Grenzwertsätze Beispiel 52: A2 A1 Ankunftsstrom aus Richtung A1: Xi – zufällige Anzahl von eintreffenden Autos in aus Richtung Ai pro min. Sei X 1 ~ P(λ 1 ) , X 2 ~ P( λ 2 ) , λ i = EX i . Ges.: Wahrscheinlichkeitsverteilung für die Gesamtzahl X =X1 +X2 der an der Kreuzung eintreffenden Autos. X ~ F1 Allgemeine Problemstellung: geg.: Y ~ F2 ges.: X + Y ∼ ? Satz: (Reproduktionssatz) Seien X und Y zwei stochastisch unabhängige Zufallsgrößen. Dann gelten folgende Aussagen: ( ( ) 1.) X ~ N µ , σ 2 ⇒ aX + b ~ N aµ + b, a 2 σ 2 ) (Typ der Normalverteilung bleibt bei linearen Transformationen erhalten.) ( ( ) ) 2 2.) X ~ N µ 1 , σ 1 2 2 ⇒ X + Y ~ N µ 1 + µ 2 , σ1 + σ 2 2 Y ~ N µ2 ,σ2 ( ) 3.) X ~ B(n1 , p ) ⇒ X + Y ~ B(n1 + n2 , p ) Y ~ B(n2 , p ) 3.) X ~ P(λ 1 ) ⇒ X + Y ~ P( λ 1 + λ 2 ) Y ~ P(λ 2 ) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 73 Kapitel II Reproduktions- und Grenzwertsätze Anwendung: (zum Beispiel 50) ( ) geg.: X i ~ N 80, (4) 2 , i = 1,...,12 ges.: P ( X > 1000 ) mit X ges = X 1 +L+ X 12 ⋅3 80, (12) ⋅ (4) 2 Es folgt: X ges ~ N 12 12 960 Daraus folgt: 1000 − 960 P (X ges > 1000) = 1 − P(X ges ≤ 1000) = 1 − F (1000) = 1 − Φ 12 ⋅ 4 40 = 1 − Φ = 1 − Φ(2,89) = 1 − 0,998 = 0,002 192 Achtung: Es gilt nicht: Xges = X1 + X2 +...+ X12 = 12 X1 !! Definition : Sei X eine Zufallsgröße mit der Verteilungsfunktion F(x). Wir bezeichnen X1,...,Xn als (mathematische) Stichprobe von X, falls gilt: a) X1,..., Xn sind gegenseitig stochastisch unabhängig b) Xi hat die gleiche Verteilung (Verteilungsfunktion F) wie X. (Xi ist die i.te (zufällige) Beobachtung von X) Sei X ~N(µ, σ2) eine normalverteilte Zufallsgröße und X1, ...,Xn eine Stichprobe von X. Welche Verteilung besitzt das arithmetische Mittel X = 1 n ∑ Xi ? n i =1 5.2 Grenzwertsätze n n−i Wir kennen: ⋅ p i ⋅ (1 − p) i ( B( n, p) ≈ P( n ⋅ p)) → n →∞ p →∞ n⋅p = λ = const . λi − x ⋅e i! Wir können die Binomialverteilung auch durch eine Normalverteilung approximieren: ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 74 Kapitel II Reproduktions- und Grenzwertsätze Satz: (Grenzwertsatz von Moivre – Laplace) Sei X ~ B( n, p) . Dann gilt: X − EX Var ( X) X − n⋅p = n ⋅ p(1 − p) ist für n → ∞ Standardnormalverteilt. Dieser Satz besagt: Y = X − n⋅p n ⋅ p(1 − p) ≈ N(0,1) n groß bzw. ( wegen X = Y ⋅ n ⋅ p(1 − p) + n ⋅ p und Reproduktionssatz a)) ( X ~ B( n, p) ≈ N n ⋅ p, n ⋅ p(1 − p)) n groß Beispiel 53: Versuch: 600x Würfeln Gesucht: Wie groß ist die Wahrscheinlichkeit dafür, daß die Anzahl gewürfelter “6” bei 600 Würfeln zwischen 95 und 105 liegt? Lösung: Sei X – zufällige Anzahl gewürfelter “6” bei 600 Versuchen. 1 X ~ B n = 600, p = 6 P(95 ≤ X ≤ 105) = i 600 1 5 ⋅ ⋅ i 6 6 i = 95 105 ∑ 600 − i Verwendung des obigen Satzes: 1 1 5 ⇒ Es gilt: X ≈ N 600 ⋅ , 600 ⋅ ⋅ 6 6 6 ⇒ P(95 ≤ X ≤ 105) = F(105) − F( 95) 95 − 100 105 − 100 =Φ −Φ 5 5 10 ⋅ 10 ⋅ 6 6 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 75 Kapitel II Reproduktions- und Grenzwertsätze 5 5 −5 Φ − Φ = 2 ⋅ Φ −1 5 5 5 10 ⋅ 10 ⋅ 10 ⋅ 6 6 6 = 2 ⋅ Φ(0,55) − 1 = 2 ⋅ 0,7088 − 1 = 0,417 Verteilung der relativen Häufigkeit hn(A) eines Ereignisses A: Sei A ein Ereignis mit der Eintrittswahrscheinlichkeit p:=P(A) und X das Ergebnis des zufälligen Versuchs V in welchem das Eintreten von A beobachtet wird: 1 X = 0 A A tritt tritt nicht ein ein p 1− p n Sei Xi , i=1,...,n, eine Stichprobe von X. Dann gilt offensichtlich: hn ( A) = ∑X i =1 n i . Wie ist hn ( A) verteilt? Aus dem Satz von Moivre-Laplace folgt: n nhn ( A) = ∑ X i ~ B(n, p ) ≈ N (np, np (1 − p )) . i =1 Aus dem Reproduktionssatz ergibt sich dann: hn ( A) ≈ N ( p, p (1 − p ) ). n Sei W Wahrscheinlichkeit dafür, daß bei n= 150 Beobachtungen hn ( A) von der Wahrscheinlichkeit p=P(A) um nicht mehr als 0,01 abweicht. a) Geben Sie unter Verwendung der Abschätzung : p(1-p)≤ ¼ für alle p∈[0,1] eine untere Schranke für die Wahrscheinlichkeit W an! b) Wie viele Versuche muß man mindestens durchführen (d.h., wie groß muß n mindestens sein), um P(A) durch die relative Häufigkeit hn ( A) mit mindestens 99 % iger Sicherheit mit einer Abweichung von höchstens ± 0,002 genau zu schätzen ? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 76 Kapitel II Reproduktions- und Grenzwertsätze Satz: (Zentraler Grenzwertsatz (ZGWS)) n unabhängige Zufallsgrößen mit EX i = µ i und = 1,...,n. Seien X1,...,Xn Dann gilt: n ∑ (X i i =1 − µi ) ist für große n standardnormalverteilt. n ∑σ 2 i i =1 n ∑ (X Bemerkung: i i =1 − µi ) n ∑σ ≈ N(0, 1) 2 i i =1 n n 2 X i ≈ N µ i , σ i i =1 i =1 i =1 n ⇔ ∑ ∑ ∑ Wenn man n stochastisch unabhängige Zufallsgrößen additiv überlagert, ist die entstehende Summe approximativ normalverteilt. Spezialfälle des ZGWS 1. Xi sind stochastisch unabhängige Bernouilli-verteilte Zufallsgrößen mit der Erfolgswahrscheinlichkeit p. Aus dem ZGWS erhält man in diesem Fall den Satz von Moivre-Laplace. 2. Xi sind stochastisch unabhängige identisch verteilte Zufallsgrößen Var ( X i ) = σ 2 ,i=1,...,n (Stichprobe einer Zufallsgröße X mit mit EX i = µ , EX=µ, Var(X)=σ2) a) Zeigen Sie, daß der Satz von Moivre-Laplace aus dem Zentralen Grenzwertsatz folgt! b) Überlegen Sie sich, wie im 2. Fall das arithmetische Mittel X = 1 n ∑ Xi n i =1 für große n verteilt ist (Angabe der Parameter der Verteilung!) ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 77 Kapitel II Reproduktions- und Grenzwertsätze 5.3 Übungsaufgaben 1. Eine Maschine packt X Gramm pulverförmiges Desinfektionsmittel in Y Gramm schwere Schachteln. X und Y seien normalverteilt gemäß X ~ N 100g, 1g 2 ; Y ~ N 5g, 0,5g 2 . ( ) ( ) Mit wieviel % fertiger Packungen zwischen 104 g und 106 g ist dann zu rechnen? 2. Die Sterbewahrscheinlichkeit bei einer bestimmten Krankheit ist 5 %. Wie groß ist die Wahrscheinlichkeit dafür, daß von 10000 Fällen mehr als 500 sterben? 3. Ein Marktforschungsinstitut soll eine Angabe über den durchschnittlichen Wasserverbrauch µ aller Haushalte der BRD im Monat August machen. Angenommen, es sei bekannt, daß der Wasserverbrauch im August über alle Haushalte gesehen normalverteilt ist mit einer Standardabweichung von σ=3l. a) Wie groß ist die Wahrscheinlichkeit dafür, daß das arithmetische Mittel einer Stichprobe von n=40 Haushalten vom Mittel aller Haushalte höchstens um 2 l abweicht? b) Bei einer Stichprobe von n=40 Haushalten ergab sich in diesen Haushalten ein arithmetisches Mittel von x = 100l . Geben Sie ein symmetrisches Intervall um x an, in welchem µ mit 95% iger Sicherheit liegt! c) Wieviele Haushalte müßte man unter der Annahme σ=3l untersuchen, damit die Abweichung des Stichprobenmittels vom gesuchten Mittel aller Haushalte mit mindestens 99% Sicherheit höchstens um 4 l abweicht? 4. Nach dem Verlieren eines Würfelspiels behauptet der verlierende Student wutentbrannt, daß bei dem verwendeten Würfel die Wahrscheinlichkeit eine 6 zu würfeln nicht 1/6, sondern 1/4 beträgt. Um seine Hypothese zu bekräftigen, schlägt er vor, n Versuche (Versuch = 1 mal Würfeln) durchzuführen und die Wahrscheinlichkeit p:=P(A) des Ereignisses A=“Würfeln einer 6“ durch die relative Häufigkeit hn ( A) zu schätzen. a) Sei W Wahrscheinlichkeit dafür, daß bei n= 300 Beobachtungen hn ( A) von der Wahrscheinlichkeit P(A) um nicht mehr als 0,01 abweicht. Geben Sie unter Verwendung der Abschätzung : p(1-p)≤ ¼ für alle p∈[0,1] eine untere Schranke für die Wahrscheinlichkeit W an! b) Wieviele Versuche muß man mindestens durchführen (d.h., wie groß muß n mindestens sein), um P(A) durch die relative Häufigkeit hn ( A) mit mindestens 99 % iger Sicherheit mit einer Abweichung von höchstens ± 0,005 genau zu schätzen ? ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 78 Anhang 6 Zahlentabellen 6.1 Verteilungsfunktion der Standardnormalverteilung Verteilungsfunktion und Quantile der Standardnormalverteilung Beispiele: u=1,67 ⇒ Φ(u) = 0,9525; u=1,673 ⇒ Φ(u) = 0,9528; u=-0,82 ⇒ Φ(u) = 1-Φ(-u) = 1-0,7939 = 0,2061 ©Prof. Dr. rer. nat. B. Grabowski HTW des Saarlandes (2005) 79