Wahrscheinlichkeitstheorie Mitschrift nach der VO von Korrekturen bitte an Stefan Lendl <[email protected]> WS 2011/12 Inhaltsverzeichnis 1 Fundamentale Begriffe 2 2 Kombinatorik 2.1 Multiplikations-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Kombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 4 3 Mengenalgebra 5 4 Bedingte Wahrscheinlichkeiten 6 5 Klassische Verteilungen 5.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Zweidimensionale Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 11 11 16 19 1 Fundamentale Begriffe Beispiel. 2 Würfel 6 1 = 36 6 Definition. Der Ergebnisraum Ω ist die Menge aller möglichen Resultate eines Experiments. P {Summe von Augenzahlen = 7} = Beispiel. 3 Urnen, 3 Kugeln 27 Möglichkeiten Definition. Ein Ereignis ist eine Teilmenge A ⊂ Ω. Definition. Ein Ergebnis eines Experemts ist ω ∈ Ω. Jedes Ergebnis hat die gleiche Eintrittswahrscheinlichkeit (nicht immer?). Beispiel. A = {Erste Augenzahl ist 6}, B = {Zweite Augenzahl ist 6} P (A oder B) Definition. Die Wahrscheinlichkeit vom Ereignis A nennt man das Maß der Teilmenge A. P (A oder B) = P (A ∪ B) P (A und B) = P (A ∩ B) P (A tritt nicht ein) = P (AC ) Beispiel. Wähle Punkte x, y auf Intervall [0, 1] zufällig. Wie groß ist die Wahrscheinlichkeit, dass P {|x − y| ≤ 21 }? Ω = {(x, y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1} A= 1 (x, y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, |x − y| ≤ 2 − 1 1 <y−x< 2 2 x− 1 1 ≤y ≤x+ 2 2 1 1 y = x + ,y = x − 2 2 ⇒ P (A) = 3 4 Beispiel. 3 Münzen P (Kopf) = 0.8 3-Mal werfen P (Genau 2 Köpfe) KKK: 0.512 ZZZ: 0.128 KZK: 0.128 KZZ: 0.032 ZKK: 0.128 ZKZ: 0.032 ZZK: 0.032 ZZZ: 0.008 2 Beispiel. 3 Urnen, 3 Kugeln P {keine leere Urnen} = 6 27 P {keine leere Urnen} = 1 10 Ununterscheidbare Kugeln Definition. F ist Algebra wenn A, B ∈ F ⇒ A ∪ B, A ∩ B, Ac ∈ F F ist σ−Algebra wenn diese Relationen für unendliche viele Ereignisse gültig sind. A1 , A2 , · · · ∈ F ⇒ A1 ∪ A2 ∪ . . . , A1 ∩ A2 ∩, · · · ∈ F Definition. (Axiome von Kolmogorov) Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, A, P ). Dabei ist Ω eine nicht leere Menge, A eine σ−Algebra von Teilemen aus Ω und P ein durch P (Ω) = 1 normiertes Maß, das Wahrscheinlichkeitsmaß. Definition. (Laplace Situation) Alle Ausgänge A ⊆ Ω sind gleich wahrscheinlich. 2 Kombinatorik Geg.: n-elementige Menge M , |M | = n. Frage: Wie viele Möglichkeiten gibt es aus M k Elemente zu ziehen. Beispiel. M = {1, 2, 3}, n = 3, k = 2 |M | = n, k Elemente mit zurücklegen ohne zurücklegen geordnet (1,1) (1,2) (1,3) (2,1) (2,2) (2,3) (3,1) (3,2) (3,3) (1,2) (1,3) (2,1) (2,3) (3,1) (3,2) Formeln zur Berechnung: |M | = n, k Elemente geordnet mit zurücklegen nk n! k ohne zurücklegen n = (n−k)! 2.1 nk k! nicht geordnet k+n−1 k n! = k!(n−k)! = nk Multiplikations-Regel Betrachte folgende Mengen A,B: A = {a1 , . . . , am }, B = {b1 , . . . , bn } Die Anzahl von Paaren (ai , bj ), i, j ∈ {1, 2, 3, . . . } ist m × n. 2.2 Permutationen Beispiel. (Geburtstagsproblem) n = 25 P {kein Paar} = 365364363 . . . 341 ≈ 0.48 365365 . . . 365 3 nicht geordnet {1,1} {1,2} {1,3} {2,2} {2,3} {3,3} {1,2} {1,3} {2,3} ⇒ P {Es gibt ein Paar} = 0.52 Trick: 1 2 24 P =1 1− 1− ... 1 − 365 365 365 1 2 24 log P = log 1 − + log 1 − + · · · + log 1 − 365 365 365 log(1 + x) ≈ x für kleines x ⇒ log P ≈ − 2.3 1 + 2 + · · · + 24 600 =− 365 730 Kombination Beispiel. (Lotto) 45 Zahlen, 6 ziehen 45 6 Möglichkeiten n n! = k!(n − k)! k Beispiel. (Kombination mit Wiederholung) 45 + 6 − 1 6 Beispiel. (Poker) 5 Karten aus 52 AAAA* Poker Straight mit gleicher Farbe: Straight Flush AAAKK Full House 5 mit gleicher Farbe: Flush 23456 Straight AAA*x Trippel AAKK 2 Paare P {Full House} = P {2 Paare} = 13 · 12 2 4 4 2 2 52 5 9 · 45 52 5 P {13 Sechser} =? # Günstigen # Alle wenn alle Ausgänge gleich wahrscheinlich sind. 100 87 13 5 6100 4 2 Beispiel. 100 Würfel P = 4 52 5 P {Straight} = P = 4 2 13 · 12 · 44 Beispiel. Lotto 5 aus 90 5 3 85 2 90 5 P {3-er} = Beispiel. A = {1, 2, . . . , 100} Wie viele Teilmengen? 100 100 100 100 + + + ··· + = 2100 0 1 2 100 Beispiel. BALLROOM 8! 2! · 2! Multinomialkoeffizient Beispiel. 10 Kugeln in 3 Urnen unterscheidbar: 310 ununterscheidbar: (2 Trennwände aufstellen) 3 12 2 Mengenalgebra A ∪ B, A ∩ B, AC , A \ B := A ∩ B C = {x : x ∈ A und x ∈ / B} A ◦ B := (A \ B) ∪ (B \ A) (symmetrische Differenz) Beispiel. (Identitäten) (X, ∪, ∩) bilden einen Verband. (A ∩ B)C = AC ∪ B C , (A ∪ B)C = AC ∩ B C DeMorgan Definition. (Axiome) 0 ≤ P (A) ≤ 1 P (A ] B) = P (A) + P (B) P (Ω) = 1 Satz 3.1. (Inklusions-Exklusions-Prinzip) P (A + B) = P (A) + P (B) − P (A ∩ B) P (A + B + C) = P (A) + P (B) + P (C) − P (AB) − P (BC) + P (ABC) Seien A1 , A2 , . . . An Mengen. Es gilt n n [ X (−1)r−1 Ai = i=1 r=1 r n \ X \ X r−1 Ai j = (−1) Ai r=1 1≤i1 <i2 <...ir ≤n j=1 I∈({1,2,...,n} ) i∈I r X Beweis. Diskrete Mathematik 5 Beispiel. (Matching) 100 Männer, 100 Frauen zufällige Zuordnung von Frauen zu Männern. Matching, falls Frau=Mann. P {∃Matching} =? A1 = Matching an der Stelle 1 A2 = Matching an der Stelle 2 .. . A100 = Matching an der Stelle 100 P (A1 +· · ·+A100 ) = P (A1 )+· · ·+P (A100 −(P (A1 A2 )+. . . )+(Trippel)−(Quadrupel) · · ·−P (A1 A2 . . . A100 ) 1 ∀i = 1 . . . 100 100 X Einzelne = 1 P X 1 100 1 P Paare = = 99 · 100 2 2! X 1 100 1 Trippel = P = 98 · 99 · 100 3 3! P (Ai ) = .. . P =1− 1 1 1 1 + + ··· + − 2! 3! 99! 100! P ≈1− 4 1 ≈ 0.64 e Bedingte Wahrscheinlichkeiten Beispiel. Ziehe 2 Karten ohne Zurücklegen: P {H} = 13 1 = 52 4 P {H2 |H1 } = 12 51 Definition. (Bedingte Wahrscheinlichkeit) P (A|B) = P (AB) P (A ∩ B) = P (B) P (B) Intutitive Definition: Unter-Experimente wo A eintritt. Wie viele Male wird B eintreten? 6 Beispiel. n Experimente nA mal A nB mal B nAB mal A und B P (A) ≈ nA n P (B) ≈ nB n P (AB) ≈ P (A|B) ≈ nAB n nAB nAB /n P (AB) = ≈ nB nB /n P (B) Beispiel. Es gibt Karten RW, RR, WW. Ziehe eine Karte und lege sie auf den Tisch (Seite zufällig). Ich sehe rot. Wie hoch ist die Wahrscheinlichkeit, dass unten wieder rot ist. P {RU |RO} = P (RO und RU ) = P (RO) 1 3 1 2 = 2 3 1000 RR gezogen → 1000x RO,RU 1000 WW gezogen → 1000x WO,WU 1000 RW gezogen → 500x RO,WU und 500x WO,RU ⇒ 2 1000 = 1500 3 Beispiel. 1 1 , P (Mädchen) = 2 2 Aus einem Haus läuft ein Bub. Es gibt ein zweites Kind. 2 Kinder (Möglichkeiten): BB, BM, MB P (Bub) = 1 3 Beispiel. Ziehe Karte und entferne ohne zu betrachten. Gesucht ist die Wahrscheinlichkeit, dass bei 2. Karte Herz kommt. P (zweiter Bub|1. Bub bekannt) = P (H2 ) = 1 4 Satz 4.1. (Multiplikationssatz) P (A ∩ B) = P (A)P (B|A) P (A ∩ B ∩ C) = P (A)P (B|A)P (C|A, B) Beweis. P (A ∩ B) = P (A) 7 P (AB) P (A) Satz 4.2. (Satz von der totalen Wahrscheinlichkeit) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, und S (Bj ) eine disjunkte Zerlegung von Ω mit P (Bj ) > 0 für alle j, d.h. Bj ∈ A disjunkt mit j Bj = Ω. Dann gilt X P (A) = P (A|Bj )P (Bj ) j für A ∈ A. Beweis. P (A) = P (A|B1 )P (B1 ) + · · · + P (A|Bn )P (Bn ) P (A) = P (AB) + P (AB2 ) + · · · + P (A|Bn ) Beispiel. Wähle eine von 2 Urnen und ziehe eine Kugel (weiß oder schwarz). Urne 1: 3 weiß, 2 schwarz Urne 2: 1 weiß, 5 schwarz P (weiß) =? A weiß gezogen, B1 erste Urne, B2 zeite Urne 2 1 5 1 · + · 5 2 6 2 Beispiel. Kartenpaket, 2 Karten ziehen, ohne zurücklegen. (zeite Karte Herz?) B1 erste ist Herz B2 zweite ist kein Herz P (A) = P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) = P (H2 ) = P (H2 |B1 )P (B1 ) + P (H2 |B2 )P (B2 ) = 12 1 13 3 51 1 + = = 51 4 51 4 51 · 4 4 Definition. (Polya Urnenmodell) Ziehe eine Kugel und lege sie mit einer Extra-Kugel gleicher Farbe zurück. Beginne z.B. mit Urne mit 1 weißen und schwarzen Kugel. vn = #Weiße #Alle Gefragt ist häufig wohin vn konvergiert. Bemerkung. Das Polya Urnenmodell ist ein Modell für eine Epidemie. Beispiel. Es gilt das Polya Urnenmodell. P (W SW ) = P (W )P (S|W )P (W |W S) = 112 1 = 234 12 P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |S2 )P (S1 ) = 21 11 + 32 32 Beispiel. (Falsch positiv Paradox) 1% falsch positiv 1% falsch negativ P (krank) = 0.5% A = krank B1 = + B2 = - P (A|+) = P (A ∧ +) P (A)P (+|A) 0.005 · 0.99 = = = 0.33 P (+) P (+|A)P (A) + P (+|AC )P (AC ) 0.99 · 0.005 + 0.01 · 0.995 8 100000 Personen, davon 500 AIDS, 99500 gesund von 500 AIDS: 5 -, 495 + von 99500 gesund: 995 +, . . . Beispiel. 3 Türen. Hinter 1 Tür ist Auto. Markiere zuerst 1 Tür. Öffne eine der beiden anderen Türen, hinter der kein Auto steht. Soll man Tür wechseln? M = mittlere Tür gewählt vom Freund 1 = selbst gewählte Tür 1 P (1|M ) = P (1)P (M |1) P (1M ) = = C P (M ) P (M |1)P (1) + P (M |1 )P (1C ) + P (M |2)P (2) + P (M |3)P (3) 11 32 11 32 +0+ 1 13 Beispiel. (Unendlich viele Möglichkeiten) Münze mit beliebiger Kopfwahrscheinlichkeit. Werfe Münze n mal und erhalte jedes mal Kopf. Wahrscheinlichkeit für erneut Kopf? Betrachte n = 4. P (KKKK) = P (KKKK|p = 0)P (p = 0) + P (KKKK|p = 0.1)P (0.1) + · · · = Z 1 Z 1 1 = P (KKKK|p) dp = p4 dp = 5 0 0 P (KKKKK) = ⇒ P (K|KKKK) = 1 6 5 P (KKKKK) = P (KKKK) 6 Es gilt also allgemein: P (Kn+1 |K1 K2 . . . Kn ) = n+1 n+2 P (K|KKKKZZ) =? Satz 4.3. (Formel von Bayes) P (Bi |A) = P (A|Bi )P (Bi ) P (A|Bj )P (Bj ) für A ∈ (A), P (A) > 0. Beispiel. 2 Urnen Urne 1: 2 S, 4 W Urne 2: 4 S, 1 W Wähle eine Urne und ziehe eine Kugel. P (1|W ) =? B1 Urne 1, B2 Urne 2, A = Weiß P (1|W ) = 14 P (1W ) 26 = = P (W ) P (W |1)P (1) + P (W |2)P (2) Definition. A und B sind unabhängig, wenn P (A|B) = P (A). 9 14 26 41 62 + 11 52 = 1 3 Satz 4.4. Seien A und B unabhängig. Dann gelten: P (AB) = P (A) P (B) P (AB) = P (A)P (B) Beispiel. Kartenpaket. Ziehe 1 Karte. Ich weiß dass Karte Herz war. Was ist die Wahrscheinlichkeit dass die Karte ein König ist. Unabhängigkeit? 1 52 1 1 1 = P (A)P (B) = = 4 13 52 P (KH) = ⇒ P (K|H) = 1 13 TODO: insert Beispiel. Wähle Sub-Intervall [x, y] aus [0, 1]. P {|x − y| < 1 } =?} 2 1. x,y gleichverteilt, x,y unabhängig. Ω = {(x, y) : 0 ≤ x, y, ≤ 1} 2. y ist gleichverteilt auf dem längeren Interval nach dem ersten Brauch Erster Punkt ist x mit x ≥ 21 . Zweiter Punkt ist xy mit 0 ≤ y ≤ 1. Damit x, y wieder unabhängiges Problem. 1 Betrachte jetzt |x − xy| < 12 ⇒ y > 1 − 2x , x ≥ 21 1 P = − 2 Z 1 1− 1/2 1 1 1 dx = − log(2) + ≈ 0.15 2x 2 2 Definition. (Zufallsvariable) Zufällige Zahl/Größe Eine Zufallsvariable ist eine meßbare Funktion von Ω → R Es gibt diskrete und stetige Zufallsvariablen. X = Summe von Augenzahlen ist eine diskrete Zufallsvariable. Punkte zwischen 0 und 1 wählen. D ist der Abstand dieser Punkt. Dann ist D eine stetige Zufallsvariable. Die Verteilung einer ZV ist die Tabelle mit Werten und entsprechenden Wahrscheinlichkeiten. Beispiel. Zum beispiel im Wahrscheinlichkeitsraum 2x Würfeln wird jedes Experiment auf die Summe der Augenzahlen abgebildet. Wähle 2 Punkte auf Strecke. Ω = {(x, y)0 ≤ x, y ≤ 1} D = |x − y| Diesmal sogar explizite Funktion. 10 Beispiel. Poker: 5 Karten aus 52. Y = # Herzkarten, Y = 0, 1, . . . , 5 Ω= H2,3,4,5,6 → 5 H2,3C9,10,J → 2 usw., dann hat man eine Funktion. Bemerkung. Bei ununterscheidbaren Würfeln ist (1,2) und (2,1) nicht beobachtbar. X = Zahl auf dem ersten Würfel (1, 2) → 1 nicht unterscheidbar von (2, 1). Deswegen nicht meßbar. Beispiel. Würfle 120 Mal. X = # Sechser X kann 0 bis 120 sein. Wahrscheinlichkeit für 37 6er: 37 83 5 120 1 6 6 37 5 Klassische Verteilungen 1. Binomial 2. Poisson 3. Geometrisch 4. Negativ binomial 5. Hypergeometrisch 5.1 Diskrete Verteilungen Definition. (Binomialverteilung) Anzahl der Erfolge in Bernoulli-Experiment B(n, p). n k B(n, k, p) = P (X = k) = p (1 − p)n−k k Beispiel. Roulett: Setze immer auf 7 p= 1 37 n = 100 k = 10 P = 100 10 1 37 10 36 37 90 Beispiel. Erfolgswahrscheinlichkeit, dass ein Flugzeug abstürzt. 2 n = 100000, p = 100000 Wieder Binomialverteilung. Beispiel. n = 120, p = 16 X = # Sechser Wo nimmt die Wahrscheinlihckeit das Maximum an / Erwartungswert? np = 20 11 Bemerkung. n X n k=0 k pk (1 − p)n−k = 1, weil die Summe der Wahrscheinlichkeiten 1 sein muss. Beispiel. Betrachte: n = 100000 2 p = 100000 k=5 5 99995 100000 2 99995 = 5 100000 100000 100000 10000 · 99999 . . . 999996 1000005 = ≈ 5 5! 5! P = 100000 25 5! 1000005 100000 2 ⇒≈ 1 − 100000 n xn ex = lim 1 + n→∞ n ⇒≈ ⇒P ≈ 25 −2 e 5! ⇒ P (k Katastrophen) ≈ 2k −2 e k! Poisson-Verteilung Definition. (Poisson-Verteilung) Für k = 0, 1, 2, . . . gilt P (X = k) = λk −k e k! |{z} eλ λ entspricht dem Durchschnittswert. Bemerkung. Es gilt ∞ X λk k=0 k! e−λ = 1 Satz 5.1. (Poisson-Prinzip) n k n−k λk −λ p q ≈ e k k! wenn n groß und p klein. λ = np. Beweis. n groß, p klein, λ = np, p = n k n−k p q k λ n 12 n−k n−k n(n − 1) . . . (n − k + 1) k nk k λ (np)k λ n−k p (1 − p) ≈ p 1− = 1− k! k! n k! k | {z } ≈e−λ 1− λ n n → e−λ Beispiel. (Tippfehler) 1 P (Tippfehler) = 1000 , eine Seite = 3000 Zeichen ⇒ λ = 3 P (TF = 0) ≈ 30 −3 e = e−3 0! P (TF = 5) ≈ 35 −3 e 5! P (M = k) = λk −λ e k! Beispiel. (Matching) M = # Matchings 1 ⇒λ=1 n = 1000, p = 1000 1 −1 e = e−1 0! 1 P (M = 5) = e−1 5! Problem: Die Ereignisse sind nicht unabhängig, aber Abhängigkeit nur sehr schwach. P (M = 0) = Beispiel. London im Jahr 1940. Verteilung der Bombeneinschläge Größe von London: 144km2 Betrachte Zellen der Größe 1/4km2 1 ⇒ λ = np = 0.93 n = 537 Bomben, p = 576 P (k Hits) = 0.93k −0.93 e k! P (k = 0) = e−0.93 = 0.39 k 0 229 1 211 2 93 3 35 ≥5 1 4 7 Pemp = 299 = 0.39 537 Satz 5.2. (Gesetz der großen Zahlen, Bernoulli 1713) In n-maliger Wiederholung eines Experimentes bezeichnet Sn die Anzahl der Erfolge. Dann gilt für jedes > 0 lim P (n(p − ) < Sn < n(p + )) = 1 n→∞ Beweis. Äquivalent ist die Formulierung: n k n−k p q →1 k n(p−)≤k≤n(p+) | {z } X b(k,n,p) 13 ∀ > 0, n → ∞ Berechne um Maximum zu finden: k+1 n−k−1 n q b(k + 1) n!k!(n − k)! p n−kp k+1 p = = = n k n−k b(k) (k + 1)!(n − k − 1)!n! q k+1 q p q k Wo wächst obige Funktion? (n − k)p > (k + 1)q np − kp < kq + q np − q > k(p + q) k < np − q Sie fällt bei: k > np − q Daher wächst die Verteilung bis np und fällt danach, für größe Werte von n. Definiere k0 = n(k +) und zeige: X (k) ≈ 0 k≥k0 n−kp b(k + 1) = b(k) k+1 q Wähle k = np + x. Da k ≥ n(p + ) = np + n ist folgendes interessant: x ≥ n n−kp n − np − x p nq − x p npq − xp x b(k + 1) = = = ≤ =1− b(k) k+1 q np + x + 1 q np + x + 1 q npq nq x n b(k + 1) ≤1− ≤1− =1− b(k) nq nq q Also: b(k + 1) ≤ (1 − )b(k) q Der Term vor b(k) ist kleiner als 1, daher eine geometrische Reihe aufsummiert: X b(k) ≤ b(k0 ) k≥k0 1 q = b(k0 ) 1 − (1 − q ) Wir müssen nur noch b(k0 ) abschätzen: b(k0 )n ≤ k0 X b(k) ≤ 1 np Also: b(k0 ) ≤ 1 n Daher folgt: q 1 q 1 b(k0 ) ≤ ≤ 2 →0 n n Zusammenfassend wissen wir also: P {n(p − ) < Sn < n(p + )} ≥ 1 − 14 2 n2 Weiter mit Poisson-Verteilung: Beispiel. 1 p = 45 , n = 6 45 ,λ = 1 6 P (X = k) ≈ 1k −1 e k! P (X = 0) = e−1 = 1 = 0.3 e 13 ≈ 5% 3!e Beispiel. Autobahn. Anzahl von Autos um 1:34 zwischen Kilometer 100 und 101? n = 7000000 Menschen in Österreich Jede Person hat kleine Wahrscheinlichkeit p dort zu sein. λ = np ≈ 54 P (X = 3) = P (X = 300) = 54300 −54 e ≈0 300! Definition. (Geometrische Verteilung) Warten auf ersten Erfolg“ ” P (Ereignis) = p, q = 1 − p X = Anzahl der Ausführungen bis zum ersten Eintritt des Ereignisses. P (X = 1) = p, P (X = 2) = qp, P (X = 3)qqp, P (X = k)pq k−1 , k = 1, 2, . . . ∞ X pq k−1 = p k=1 1 1 =p =1 1−q p Beispiel. 1 P (X = k) = 6 k−1 5 6 Höchste Wahrscheinlichkeit bei X = 1. Definition. (Negative binomiale Verteilung) Warten auf den r-ten Erfolg“ ” X = Wartezeit p = Wahrscheinlichkeit für Erfolg bei 1 Versuch q =1−p r+k−1 r k P (X = r + k) = p q r−1 Beispiel. p = 61 , r = 3 Würfeln, warten auf den dritten Sechser: 3 14 16 1 5 P (X = 17) = 6 6 2 15 Beispiel. X = Länge vom Spiel 21. Erfolg im 40ten Spiel r = 21, r + k = 40, k = 19 P (X = 40) = Satz 5.3. ∞ X r+k−1 k=0 Beweis. 39 21 19 p q 20 r−1 pr q k = 1 r+k−1 r k −r r p q = p (−q)k r−1 k ∞ ∞ X X −r r −r k r p (−q) = p (−q)k = pr p−r = 1, k k k=0 k=0 weil ∞ X α k (1 + x) = x k α k=0 (1 + x)−r = ∞ X = k=0 −r k x k Setze x = −q, dann gilt p−r = (1 − q)−r = ∞ X −r (−q)k k k=0 5.2 Stetige Verteilungen Folgende Verteilungen sind stetige Verteilungen: 1. Gleichverteilung 2. Exponentialverteilung 3. Normalverteilung Definition. (stetige Verteilung) Eine stetige Verteilung ist definiert durch eine Dichtefunktion f (x) ≥ 0, sodass Z ∞ f (x) dx = 1 −∞ Z P (a ≤ X ≤ b) = b f (x) dx a Definition. (Gleichverteilung) Die Gleichverteilung auf dem Intervall [a, b], U (a, b) ist definiert durch: 1 a<x<b b−a f (x) = 0 sonst 16 Beispiel. Gleichverteilung auf dem Intervall [2, 5]: P (2 ≤ X ≤ 5) = 1 1 3 1 P (3 ≤ X ≤ 4) = 3 1 P (4 ≤ X ≤ 5) = 3 P (6 ≤ X ≤ 7) = 0 P (2 ≤ X ≤ 3) = Beispiel. 1 x≥1 x2 0 sonst Z ∞ 1 ∞ 1 dx = − =1 x2 x 1 1 Z 4 1 3 P (0 < X < 4) = dx = 2 4 1 x f (x) = Definition. (Exponentialverteilung) Die Dichtefunktion der Exponentialverteilung lautet: λe−λx x ≥ 0 f (x) = 0 sonst Satz 5.4. Die Exponentialverteilung ist eine stetige Verteilung. Beweis. Z ∞ λe−λx dx = e−λx |∞ 0 =0+1=1 0 Beispiel. λ = 1 70 Lebenslänge 1 −x/70 e I(0,∞) (x) 70 Z ∞ 1 −x/70 −x/70 ∞ P (X ≥ 80) = f (x) dx = e = −e |80 = e−8/7 70 80 f (x) = P (X ≥ 90|X ≥ 70) = Für λ = 1 70 P (X ≥ 90) e−λ90 = −λ70 = e−20λ P (X ≥ 70) e gilt: P (X ≥ 90|X ≥ 70) = e−20/70 ≈ 75% P (X ≥ 20) = e−λ20 = e−20/70 ≈ 75% Definition. Die Verteilungsfunktion einer (beliebigen) Verteilung ist definiert als F (x) = P (X ≤ x) Definition ist also auch für nicht stetige Verteilungen gültig. Für eine Verteilungsfunktion muss gelten: 17 Satz 5.5. Für eine Verteilungsfunktion gilt: 0 ≤ F (x) ≤ 1, lim F (x) = 1, lim F (x) = 0, F (x) ist rechtsstetig x→∞ x→−∞ Beweis. Übung! Satz 5.6. (Zusammenhang von Dichte- und Verteilungsfunktion) Seien fX (x) die Dichtefunktion und FX (x) die VErteilungsfunktion der selben Verteilung. Es gelten 0 fX (x) = FX (x) in Stetigkeitspunkten x Z FX (x) = fX (t) dt −∞ Beispiel. f (x) = 0 1 x2 Z x F (x) = 1 x≤1 x≥1 1 1 dt = 1 − 2 t x −x Beispiel. fX (x) = e , x ≥ 0 Y = X2 Gesucht ist nun fY (x). Berechne zunächst FY (t) = P (Y ≤ t) = P (X 2 ≤ t) = P (X ≤ √ √ t) = FX ( t) √ √ 1 1 √ 1 0 ⇒ fY (t) = FX ( t) = fX ( t) t− 2 = e− t √ , t > 0 2 2 t Beispiel. x2 1 X = N (0, 1), fX (x) = √ e− 2 2π Y = X 3 , fY (t) =? FY (t) = P (Y ≤ t) = P (X 3 ≤ t) = P (X ≤ t1/3 ) = FX (t1/3 ) 1 1 t2/3 1 −2/3 fY (t) = fX (t1/3 ) t−2/3 = √ exp(− ) t ∀t 3 2 3 2π Satz 5.7. Gegeben seien X, Y = g(X), fX (x). Gesucht ist fY Dann gilt fY (t) = fX (g −1 (t))(g −1 (t)) wenn g −1 existiert, also g monoton ist. Beweis. FY (t) = P (Y ≤ t) = P (g(X) ≤ t) = P (X ≤ g −1 (t)) = FX (g −1 (t)) 18 Beispiel. X = N (0, 1), Y = X 2 √ √ √ √ FY (t) = P (X 2 ≤ t) = P (− t ≤ X ≤ t) = FX ( t) − FX (− t) 1 fY (t) = e−t/2 √ , t > 0 t 1 ⇒ fY (t) = e−t/2 √ I(0,∞) (t) t 5.3 Zweidimensionale Verteilungen Beispiel. (X, Y ) mit X = # Zigaretten/Tag, Y = Lebenslänge Beispiel. Urne: 2W, 3B, 4R Ziehe 3 Kugeln (ohne zurücklegen) X = #W, Y = #R Y/X 0 1 2 3 (33) (21)(32) 0 (93) (93) (22)(41) 1 0 (93) 2 0 0 3 0 0 0 Y/X 0 1 2 3 0.1 0.2 0.1 0.4 8 0.3 0.15 0.15 0.6 0.4 0.35 0.25 X 0 1 2 0.4 0.35 0.25 Y 3 8 0.4 0.6 X, Y sind Randverteilungen Definition. (Zweidimensionale Dichtefunktion) f (x, y) ZZ P ((X, y) ∈ A) = f (x, y) dx dy A ZZ ∞ f (x, y) dx dy = 1 −∞ Definition. P (X ≥ Y ) = P ((X, Y ) ∈ A) für A = {(X, y) : y ≥ X} Beispiel. f (x, y) = e−(x+y) , x, y ≥ 0 Z 0 ∞ Z ∞ e−(x+y) dx dy = 1 0 ZZ e−(x+y) dx dy = P (Y ≥ X) = A 19 1 2 Beispiel. Sei K der Einheitskreis. 1 π f (x, y) = ZZ (x, y) ∈ K sonst 0 ∞ f (x, y) dx dy = 1 −∞ Praktische Bedeutung: Zielen auf Zielscheibe. Jeder Teil der Zielscheibe wird mit gleicher Wahrscheinlichkeit getroffen. Gleichverteilung auf K. Sei A = {(x, y) ∈ K : x ≥ 21 } ZZ ZZ 2 1 f (x, y) dx dy = dx dy = ≈ 0.2 π A A π Beispiel. e−y 0 < x < y < ∞ 0 sonst ZZ P (X ≤ 1) = e−y dx dy = f (x, y) = A Beispiel. ZZ P {(X, Y ) ∈ A} = f (x, y)dxdy A f (x, y) = e −(x+y) x, y ≥ 0 P (X ≥ 2Y ) = P {(X, Y ) ∈ A} A = {(X, Y ) : X ≥ 2Y, y ≤ X } 2 X ZZ e−(x+y) dxdy = Z2 Z∞ . . . dydx 0 A 0 Beispiel. Seien X,Y wie folgt verteilt: Randverteilung von Y (Summe): Y \X 4 6 0 0.1 0.5 4 0.4 6 0.6 1 0.2 0.05 2 0.1 0.05 Randverteilung für stetige Verteilungen: Z∞ fX (x) = e−(x+y) dx = . . . −∞ Z∞ fY (x) = e−(x+y) dy = . . . −∞ Beachte: fX,Y (x, y) = fX (x)fY (y) 20 Definition. (Unabhängigkeit der Zufallsvariablen) Sei P (AB) = P (A)P (B). Dann sind X und Y unabhängig, wenn P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) Beispiel. Sei f (x, y) = e−y 0 0<x<y<∞ sonst Bestimme Randverteilung (Skizze hilft!): Z∞ fX (x) = e−y dy = e−x x Zy fY (x) = e−y dx = e−y y 0 Bemerkung. Beispiel darüber ist gutes Modell für Temperaturen : Sei X die Temperatur in Graz und Y die Temperatur in Rom. X ≤ Y Satz 5.8. (Bedingte Dichtefunktion) Sei fX,Y (x, y) eine Dichtefunktion. Man beobachte eine Zufallsvariable y. Was ist fX (x|Y = y). Daher die Dichtefunktion von X gegeben y. fX (x|y ≤ Y ≤ y + ∆y), ∆y → 0 fX (x|Y = y) = 21 fX,Y (x, y) fY (y)