Vorlesung 4a Geometrische Verteilung und Poissonverteilung 1 Warten auf den ersten Erfolg beim Münzwurf: Die geometrische Verteilung 2 Sei (Z1, Z2, . . .) ein fortgesetzter Münzwurf mit Erfolgswahrscheinlichkeit p ∈ (0, 1), d.h. P{Z1 = z1, . . . , Zt = zt} = pk (1 − p)t−k für alle t ∈ N und alle 0-1 Folgen z1, . . . , zt mit k Einsen und t − k Nullen. T := inf{j | j ∈ N, Zj = 1} ist der Zeitpunkt des ersten Erfolges. Wie sieht sie Verteilung von T aus? 3 P{T = t} =? {T = t} = {Z1 = 0, . . . Zt−1 = 0, Zt = 1} Also P{T = t} = P{Z1 = 0, . . . Zt−1 = 0, Zt = 1} = q t−1 p mit q := 1 − p. 4 Alternativ: {T ≥ t} = {Z1 = 0, . . . , Zt−1 = 0} Also P{T ≥ t} = q t−1. 5 P{T = t} = q t−1 p P{T ≥ t} = q t−1 Das passt zusammen: P{T = t} = P{T ≥ t} − P{T ≥ t + 1} = q t−1 − q t = q t−1 (1 − q) = q t−1 p. 6 Definition Sei p ∈ (0, 1). Eine Zufallsvariable T mit Zielbereich N heißt geometrisch verteilt mit Parameter p, kurz Geom(p)-verteilt, wenn P{T ≥ t} = q t−1, t = 1, 2 . . . , mit q := 1 − p. 7 E[T ] =? Anschaulich ist klar: Beim gewöhnlichen Würfeln kommt im Mittel jedes 6-te Mal eine Sechs. Beim Münzwurf mit Erfolgswahrscheinlichkeit p kommt im Mittel jedes (1/p)-te Mal ein Erfolg. Also wird gelten (vgl Vorlesung 3b): 1 E[T ] = . p 8 Das beweist man auch schnell mit dem folgenden nützlichen und hübschen Lemma Ist X eine Zufallsvariable mit Zielbereich N oder N0, dann ist E[X] = X P{X ≥ i} i≥1 9 Beweis. ν(j) seinen die Verteilungsgewichte von X. E[X] = X jν(j) = j≥1 X i≥1 P{X ≥ i} = X j X ν(j) j≥1 i=1 ∞ X X ν(j) i≥1 j=i Warum ist das gleich? 10 Wie sieht man die Gleichheit X j X j≥1 i=1 ν(j) = ∞ X X ν(j) ? i≥1 j=i 11 j i X j X j≥1 i=1 ν(j)= ∞ X X a(i, j) i≥1 j=i 12 j i X j X j≥1 i=1 a(i, j) = ∞ X X ν(j) i≥1 j=i 13 j i Es kommt nicht auf die Reihenfolge der Summation an 14 j i X j X j≥1 i=1 ν(j) = ∞ X X ν(j) i≥1 j=i 15 Fazit Für eine Geom(p)-verteilte Zufallsvariable T ergibt sich: E[T ] = X P{X ≥ i} = i≥1 X i≥1 q i−1 1 = . p 1 E[T ] = p 16 Kleine Erfolgswahrscheinlichkeit: Wie lange dauert es bis zum ersten Erfolg? Sei p eine kleine positive Zahl und T eine Geom(p)-verteilte Zufallsvariable. Was kann man über T aussagen, außer dass es tendenziell groß ist? 17 Betrachten wir T auf der Skala seines Erwartungswertes: T = pT . T := E[T ] f Für t ∈ R+ ist t P{T ≥ t} = P{T ≥ } p f t p = 1−p 1 p t p p = 1−p ≈ (e−1)t = e−t. 18 Diese Tatsache formulieren wir als einen Grenzwertsatz: Satz Sei X1, X2, . . . eine Folge von geometrisch verteilten Zufallsvariablen mit der Eigenschaft E[Xn] → ∞. Dann gilt mit n → ∞ Xn ≥ t → e−t P E[Xn] für alle t ≥ 0. 19 Kleine Erfolgswahrscheinlichkeit: Wie viele Erfolge gibt es bei vielen Versuchen? Sei n eine große natürliche Zahl, p = pn eine kleine positive Zahl, und Xn eine Bin(n, p)-verteilte Zufallsvariable. Man kann dann die Verteilungsgewichte von Xn approximativ als Funktion von E[Xn] = n pn ausdrücken, wie der folgende Grenzwertsatz zeigt: 20 Satz (Gesetz der seltenen Ereignisse) Sei λ > 0 und sei Xn, n = 1, 2, . . ., eine Folge von Bin(n, pn)-verteilten Zufallsvariablen, so dass für n → ∞ E[Xn] → λ , λ d. h. pn ∼ . n Dann gilt für jedes k = 0, 1, 2, . . . k λ . P{Xn = k} → e−λ k! 21 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n k −k ·(np ) · 1− ·(1−p ) . · n n k n k! n 22 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n k −k · ·(np ) · 1− ·(1−p ) n n n{zk n } k! | →1 23 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n k −k · ·(np ) ·(1−p ) 1− n n | {z } n{zk n } k! | k →1 →λ 24 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n −k k (1 − p ) (np ) 1 − n n | {z } n{zk } k! {z n } | k | →1 →λ →e−λ 25 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n −k k (1 − p ) (np ) 1 − n n | | {z } {z } n{zk n } k! {z } | | k →1 →1 →λ →e−λ 26 Beweis: n k pn(1 − pn)n−k = k n n(n − 1) · · · (n − k + 1) 1 np n −k k (1 − p ) (np ) 1 − n n | | {z } {z } n{zk n } k! {z } | | k →1 →1 →λ 1 k −λ . → λ e k! →e−λ 27 Definition (Poissonverteilung) Sei λ ∈ R+. Eine Zufallsvariable X mit Zielbereich N0 heißt Poissonverteilt mit Parameter λ, kurz Pois(λ)-verteilt, wenn k λ , P{X = k} = e−λ k! k = 0, 1, 2, . . . . 28 0.20 0.15 0.10 0.05 0.00 0 5 10 15 20 Binomialgewichte zu n = 100 und p = 0.03 0.20 0.15 0.10 0.05 0.00 0 5 10 15 20 Poissongewichte zum Parameter λ =3 00 55 10 10 15 15 20 20 0.00 0.00 0.05 0.05 0.10 0.10 0.15 0.15 0.20 0.20 Satz. Der Erwartungswert einer Pois(λ)-verteilten Zufallsvariablen X ist E[X] = λ. Beweis: k λ k e−λ E[X] = k! k=0 ∞ X k−1 λ e−λ =λ =λ·1 (k − 1)! k=1 ∞ X 32