Vorlesung 3b Versuche, Erfolge, Wartezeiten: Die Welt des p

Werbung
Vorlesung 3b
Versuche, Erfolge, Wartezeiten:
Die Welt des p-Münzwurfs von Bernoulli zu Poisson
1
Unser heutiger Rahmen:
p- Münzurf alias Bernoulli-Folge
2
Jacob Bernoulli (1654-1705)
3
Sei p ∈ (0, 1),
q := 1 − p, und
(Z1, Z2, . . .) ein fortgesetzter p-Münzwurf
(eine Bernoulli-Folge zum Parameter p) :
Für jede endliche 01-Folge (a1, . . . , an)
mit k Einsen und n − k Nullen ist
P(Z1 = a1, . . . , Zn = an) = pk q n−k .
4
Zur Erinnerung:
Für jedes n ist
die Anzahl der Einsen in (Z1, . . . , Zn)
(die “Anzahl der Erfolge in n Versuchen”)
binomial(n, p)-verteilt:
n k n−k
p q
.
P(Z1 + · · · + Zn = k) =
k
5
Teil 1:
Der Zeitpunkt des ersten Erfolgs
und
die geometrische Verteilung
6
T := inf{i : i ∈ N, Zi = 1}
ist der Zeitpunkt des ersten Erfolges.
Wie sieht die Verteilung von T aus?
7
P(T = n) =?
{T = n} = {Z1 = 0, . . . Zn−1 = 0, Zn = 1}
Also
P(T = n) = P(Z1 = 0, . . . Zn−1 = 0, Zn = 1)
= q n−1 p.
8
Alternativ:
{T > n} = {Z1 = 0, . . . , Zn = 0}
Also
P(T > n) = q n.
9
P(T = n) = q n−1 p
P(T > n) = q n
Das passt zusammen:
P(T = n) = P(T > n − 1) − P(T > n)
= q n−1 − q n
= q n−1 (1 − q)
= q n−1 p.
10
Definition
Sei p ∈ (0, 1). Eine Zufallsvariable T mit Zielbereich N heißt
geometrisch verteilt mit Parameter p,
kurz Geom(p)-verteilt,
wenn
P(T > a) = q a,
a = 0, 1, 2 . . . ,
mit q := 1 − p.
11
E[T ] =?
Anschaulich ist klar:
Beim gewöhnlichen Würfeln kommt im Mittel
jedes 6-te Mal eine Sechs.
Beim Münzwurf mit Erfolgswahrscheinlichkeit p
kommt im Mittel jedes (1/p)-te Mal ein Erfolg.
Also wird gelten:
1
E[T ] = .
p
12
Das beweist man auch schnell
mit dem folgenden
Lemma
(Buch S. 34)
Ist X eine Zufallsvariable mit Zielbereich N oder N0, dann ist
E[X] =
X
P(X > i)
i≥0
13
Beweis.
ρ(j) seien die Verteilungsgewichte von X.
E[X] =
X
jρ(j) =
i≥0
P{X > i} =
ρ(j)
j≥1 i=0
j≥1
X
X j−1
X
X
∞
X
ρ(j)
i≥0 j=i+1
Warum ist das gleich?
14
Wie sieht man die Gleichheit
X j−1
X
j≥1 i=0
ρ(j) =
X
∞
X
ρ(j)
?
i≥0 j=i+1
15
j
i
X j−1
X
j≥1 i=0
ρ(j)=
∞
X X
a(i, j)
i≥1 j=i
16
j
i
X
j
X
j≥1 i=1
a(i, j) =
X
∞
X
ρ(j)
i≥0 j=i+1
17
j
i
Es kommt nicht auf die Reihenfolge
der Summation an
18
j
i
X j−1
X
j≥1 i=0
ρ(j) =
X
∞
X
ρ(j)
i≥0 j=i+1
19
Fazit
Für eine Geom(p)-verteilte Zufallsvariable T ergibt sich:
E[T ] =
X
P(T > i) =
i≥0
X
i≥0
qi
1
= .
p
1
E[T ] =
p
20
Teil 2
Münzwurf mit kleiner Erfolgswahrscheinlichkeit:
Wie lange dauert es bis zum ersten Erfolg?
Wieder sei
T
der zufällige Zeitpunkt des ersten Erfolgs
in einem fortgesetzten p-Münzwurf.
21
Beispiel:
1
p=
1000
P(T > 2000) ≈ e−2.

P

T
> 2 ≈ e−2.
E[T ]
22
Betrachten wir T auf der Skala seines Erwartungswertes:
T
T :=
= pT .
E[T ]
f
Für t ∈ R+ und kleines p ist
f
P(T > t) =

P T

 
 
t
 
t
= P T >
>
p j k
p
= 1−p

= 1−p
t
p
j k
1 p t
p
p
≈ (e−1)t = e−t.
23
Diese Tatsache formulieren wir als einen Grenzwertsatz:
(vgl. Buch S. 42)
Satz Sei X1, X2, . . . eine Folge von
geometrisch verteilten Zufallsvariablen mit der Eigenschaft
→ ∞.
E[Xm] m→∞
Dann gilt für jedes c ≥ 0:

P

Xm
→ e−c
≥ c m→∞
E[Xm]
24
Teil 3:
Münzwurf mit kleiner Erfolgswahrscheinlichkeit:
Wie viele Erfolge gibt es
bei einer großen Zahl von Versuchen?
Die Poisson-Näherung.
25
p klein,
n groß
X := Z1 + Z2 + . . . + Zn
P(X = k) ≈?
26
Beispiel:
1 ,
p = 1000
P(X = 0) =
qn
n = 3000
= 1−
≈ e−3
3000
1
1000
P(X = 1) = npq n−1 ≈ 3e−3
2q n−2 ≈ 1 (np)2q n ≈ 1 32e−3
P(X = 2) = n
p
2
2
2
27
Clou:
p klein, n groß:
q n = (1 − p)n ≈ e−np
1 k k n
n k n−k
1
p q
≈ n p q ≈ (np)k e−np
k
k!
k!
28
Fazit
Sei p eine kleine positive Zahl,
n eine große natürliche Zahl
und X eine Bin(n, p)-verteilte Zufallsvariable.
Man kann dann die Verteilungsgewichte von X
approximativ als Funktion von E[X] = n p ausdrücken.
Rigoros fasst man diese Behauptung im folgenden
Grenzwertsatz:
29
Satz (Poissons Gesetz der seltenen Ereignisse)
(vgl. Buch S. 30)
Sei λ > 0 und sei Xn, n = 1, 2, . . .,
eine Folge von Bin(n, pn)-verteilten Zufallsvariablen,
so dass für n → ∞
E[Xn] → λ ,
λ
d. h. pn ∼ .
n
Dann gilt für jedes k = 0, 1, 2, . . .
λk −λ
P(Xn = k) → e .
k!
30
Siméon Denis Poisson (1781-1840)
31
Beweis:
n k
pn(1 − pn)n−k =
k
n
1 n(n − 1) · · · (n − k + 1)
np
n
k
−k
(np
)
(1
−
p
)
1
−
n
n
| {z }
|
{z
}
k! |
n{zk
n
}
{z
}
|
k
→1
→1
→λ
1 k −λ
.
→ λ e
k!
→e−λ
32
Definition (Poissonverteilung)
(Buch S. 29)
Sei λ ∈ R+.
Eine Zufallsvariable X mit Zielbereich N0 heißt
Poissonverteilt mit Parameter λ,
kurz Pois(λ)-verteilt,
wenn
λk −λ
P(X = k) = e ,
k!
k = 0, 1, 2, . . . .
33
0.20
0.15
0.10
0.05
0.00
0
5
10
15
20
Binomialgewichte zu n = 100 und p = 0.03
0.20
0.15
0.10
0.05
0.00
0
5
10
15
20
Poissongewichte zum Parameter λ =3
00
55
10
10
15
15
20
20
0.00
0.00
0.05
0.05
0.10
0.10
0.15
0.15
0.20
0.20
Satz.
Der Erwartungswert
einer Pois(λ)-verteilten Zufallsvariablen X ist
E[X] = λ.
Beweis:
λk −λ
k e
E[X] =
k=0 k!
∞
X
λk−1 −λ
=λ
e
=λ·1
k=1 (k − 1)!
∞
X
37
Zusammenfassung:
1. Im p-Münzwurf ist die Wartezeit auf den ersten Erfolg
Geom(p)-verteilt:
2. Für kleine p gilt:
P(T > n) = q n.

P

T
> t ≈ e−t
E[T ]
3. Für kleine p und große n ist die Anzahl der Erfolge
in n Versuchen approximativ Pois(np)-verteilt.
Für eine Pois(λ)-verteilte Zufallsvariable gilt:
λk −λ
P(X = k) = e , k = 0, 1, 2, . . . .
k!
38
Nachtrag zur Vorlesung 3a:
Eine Bedingung für die Existenz des Erwartungswertes
(wenn man mit unendlich vielen Ausgängen rechnen muss):
Damit die Summe
X
a P(X = a) exisitiert, muss gelten:
a∈S
X
a∈S, a>0
a P(X = a) < ∞
oder
X
a∈S, a<0
a P(X = a) > −∞
Damit die Summe
X
a P(X = a) exisitiert, muss gelten:
a∈S
X
a∈S, a>0
a P(X = a) < ∞
oder
X
a P(X = a) > −∞
a∈S, a<0
∞ ist als Summenwert erlaubt, −∞ auch.
Aber ∞ − ∞ gibt keinen Sinn.
Beispiele:
1.
P(X = 2j) = 2−j,
j = 1, 2, . . .:
Beispiele:
1.
P(X = 2j) = 2−j,
E[X] = ∞
j = 1, 2, . . .:
Beispiele:
1.
2.
P(X = 2j) = 2−j,
E[X] = ∞
P X = (−2)j = 2−j,
j = 1, 2, . . .:
j = 1, 2, . . .:
Beispiele:
1.
2.
P(X = 2j) = 2−j,
E[X] = ∞
P X = (−2)j = 2−j,
j = 1, 2, . . .:
j = 1, 2, . . .:
E[X] exisitiert nicht.
Herunterladen