Poisson-Prozess

Werbung
Poisson-Prozess
Punktförmige Signale werden in zufälliger Aufeinanderfolge ausgesendet.
Wir wollen diese Punktverteilungen auf der Zeitachse untersuchen.
•
•
0
•
1
•
•
2
•
3
• •
4
5
6
t
Das Intervall I = [ 0 | t ] teilen wir in n gleiche Teile und wählen n so groß, dass jeder Abschnitt höchstens
einen Punkt enthält. Wir nehmen an, dass pro Zeiteinheit im Schnitt λ Signale gesendet werden. Der
Erwartungswert für I beträgt daher µ = λ · t Punkte. Pro Abschnitt wird mit der Wahrscheinlichkeit
ein Signal gesendet. Der Prozess ist zeitinvariant, also von der Lage von I unabhängig.
p = λ·t
n
Für große n (n ≥ 100) und kleine p (p ≤ 0,1) fand Poisson eine überraschend gute Näherung für die
Binomialverteilung (siehe Poisson-Verteilung). Dies führte zu der Definition:
Eine Zufallsgröße X heißt poissonverteilt, falls die Wahrscheinlichkeiten für k = 0, 1, 2, . . . Treffer mit
P (X = k) =
µk −µ
·e
berechnet werden, µ = n · p.
k!
Auf unsere Modellierung angewendet gilt dann:
Pt (X = k) =
t = 10
λ = 1,2
0,10
×
×
×
0,08
×
×
×
0,06
×
×
0,04
0,02
× ×
×
× × × × ×
1
2
3
4
5
×
×
6
7
8
0,08
0,06
0,04
0,02
× ×
× × × × × × × × × × ×
1
2
3
4
5
6
7
8
×
× ×
× × × × × × × × × × × × × × × k
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
t = 10
λ=2
0,10
(λ · t)k −λ·t
·e
k!
×
×
×
×
×
× × × × ×
×
×
×
×
× ×
× × ×
× × × × k
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
c Roolfs
1
Poisson-Prozess
Die Wahrscheinlichkeit für kein Signal in einem Intervall der Länge t beträgt
Pt (X = 0) = e−λt
und für mindestens ein Signal
Pt (X ≥ 1) = 1 − e−λt .
Diese Wahrscheinlichkeiten sind Funktionen von t.
λ = 1,2
1,2
1,1
F (t) = 1 − e−λ t
1,0
0,9
0,8
0,7
0,6
0,5
0,4
f (t) = λe−λ t (Dichte)
0,3
0,2
0,1
1
Betrachten wir nun auch
Pk (t) =
2
3
4
(λ · t)k −λ·t
·e
k!
5
6
7
8
t
9
als Funktion von t, k ist der Parameter.
Die Ableitung nach t ergibt Pk′ (t) = λPk−1 (t) − λPk (t), k ≥ 1
λdt
0
1 − λdt
1
1 − λdt
λdt
2
λdt
1 − λdt
k−1
1 − λdt
λdt
k
1 − λdt
λdt
k+1
1 − λdt
Pk′ kann veranschaulicht werden.
Die Wahrscheinlichkeit für ein Signal in der Zeit dt ist P1 (dt) = λdt.
Pk (t + dt) = Pk (t) · P0 (dt) + Pk−1 (t) · P1 (dt)
= Pk (t) · (1 − λdt) + Pk−1 (t) · λdt
Pk (t + dt) − Pk (t) = −Pk (t) · λdt + Pk−1 (t) · λdt
Pk′ (t) = Pk−1 (t) · λ − Pk (t) · λ
Die Änderung dPk besteht aus einem Zufluss Pk−1 (t) · λdt von k − 1 vermindert um
einen Abfluss Pk (t) · λdt nach k + 1.
c Roolfs
2
...
Poisson-Prozess
Pk (t) =
(λ · t)k −λ·t
·e
k!
Pk′ (t) = λPk−1 (t) − λPk (t), k ≥ 1
0,30
λ · Pk−1 (t)
0,25
0,20
λ · Pk (t)
λ=2
k=8
0,15
Pk (t)
0,10
0,05
Pk′ (t)
1
2
3
4
5
6
-0,05
c Roolfs
3
7
8
9
10
t
Wartezeit
Aus
Pk (t) =
(λ · t)k −λ·t
·e
k!
P0 (t) = e−λ·t .
folgt
λ = 0,6
1,0
0,9
0,8
0,7
0,6
0,5
0,4
P0 (t) = e−λ t
0,3
0,2
0,1
1
2
3
4
5
6
7
8
t
P0 (t) (t fest) ist die Wahrscheinlichkeit, dass ein Intervall der Länge t ohne Signal ist.
Sei T die Wartezeit bis zum ersten Signal. T ist eine stetige Zufallsvariable, sie gibt auch die Wartezeit
zwischen zwei aufeinanderfolgenden Signalen an. Es gilt P (T > t) = e−λ t . Die Verteilungsfunktion von T
lautet dann F (t) = P (T ≤ t) = 1 − e−λ t und besitzt die Dichte f (t) = F ′ (t) = λe−λ t .
Erwartungswert und Varianz von T
Z∞
∞ Z∞
µ = E(X) = tλe−λ t dt = t (− λλ e−λ t ) + e−λ t dt
0
0 ↓ ↑
0
∞
= 0 − 0 − λ1 e−λ t = λ1
lim (te−λ t ) = 0
t→∞
0
Z∞
∞ Z∞
µ = E(X) = tf (t) dt = −t (1 − F (t)) + (1 − F (t)) dt
0
|
{z
} 0
0 ↓ ↑
0
σ2
= E(X −
µ)2
Z∞
∞ Z∞
2 −λ t
2
2 −λ t = t λe
dt − µ =−t e − 2t(−e−λ t )dt − λ12
0
0 ↓ ↑
0
Z∞
= 0− 0 +
tλe−λ t dt − λ12 = λ22 − λ12 = λ12
2
λ
0
c Roolfs
4
lim t(1 − F (t)) dt = 0
t→∞
Poisson-Prozess
Die Wartezeit T bis zum ersten Signal ist exponentiell verteilt mit P (T > t) = e−λ t ,
desgleichen die Wartezeit vom ersten zum zweiten Signal, usw.
z
0
T
}|
T
{ z }| { z
•
•
1
T
}|
{z
•
2
T
}|
1
T
{ z }| {
•
•
t
3
1
λ Signale pro Zeiteinheit, E(T ) = λ , σ = λ
Andere Sichtweise des Poisson-Prozesses
0
1
2
3
4
Ein Teilchen startet in 0, verweilt dort die Zeit T1 und springt dann nach 1.
Im Zustand 1 verweilt es die Zeit T2 und springt dann nach 2 usw.
Die Verweilzeiten T sind exponentiell verteilt, siehe oben.
5
5
...
Poisson-Prozess
Simulation
λ=2
••
0
•
1
• • • • •• • •
2
3
• • • •
4
5
•
6
• • •• •
7
8
•
9
• ••
10
11
•• • •
12
13
14
• •
15
Exponentiell verteilte Wartezeiten lassen sich überraschend leicht simulieren.
Ist X gleichverteilt in (0, 1), dann ist Y = − λ1 ln X exponentiell verteilt mit dem Parameter λ
(und umgekehrt).
Y = − λ1 ln X
X sei gleichverteilt auf (0, 1)
P (Y ≤ t) = P (− λ1 ln X ≤ t)
= P (X ≥ e−λ t ) = 1 − e−λ t nach Voraussetzung über X
Y ist damit exponentiell verteilt.
Geogebra
N = 50
λ =2
L1=Folge[−1/λ ln(ZufallszahlGleichverteilt[0, 1]), n, 1, N]
L2=Folge[(Summe[L2, n], 0), n, 1, N]
y
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
b
1
b
b
2
b
b
3
b
b
b
b
4
b
b
5
6
c Roolfs
6
b
bb
b b b
7
8
b
9
b
b
10
t
Inhomogener Poisson-Prozess
Ein inhomogener Poisson-Prozess liegt dann vor, wenn λ von der Zeit abhängt, z. B. λ = 0,25t + 1.
y
38
37
36
35
34
33
32
31
30
29
28
27
26
25
24
23
22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
b
b
b
b
1
b
2
b
3
bb
4
5
b
b
b
b
6
7
c Roolfs
7
b b
8
bb
9
b
b
b
b
10
b
b
11
12
b b
b
b
b
b
13
b
b
b b
bb
14
b
b
t
Poisson-Prozess
Wir betrachten einen vom Zufall gesteuerten Sender, der punktförmige Signale aussendet.
Die Zeitpunkte markieren wir auf der Zeitachse. Ein Poisson-Prozess liegt vor,
falls folgende Eigenschaften angenommen werden können:
a) Die Wahrscheinlichkeit pn (t) für genau n Signale im Zeitintervall der Länge t hängt nicht
von der Lage des Intervalls auf der Zeitachse ab.
b) Die Anzahlen von Signalen in disjunkten Zeitintervallen sind paarweise unabhängige Zufallsvariable.
c) Die Wahrscheinlichkeit für mehr als ein Signal in einem kleinen Zeitintervall der Länge h ist von
kleinerer Größenordnung als h, d. h. diese Wahrscheinlichkeit ist o(h) für h −→ 0.
Die Punkte liegen also isoliert auf der Achse.
o(h) ist eine Funktion, für die
o(h)
h −→ 0
für h → 0 gilt, z. B. o(h) = t2 oder o(h) = t1,5 .
Wir leiten eine Formel für die Verteilung pn (t) = P (Z(t) = n), n = 0, 1, 2, 3, . . .
der Zufallsvariablen Z(t), Anzahl der Punkte im Intervall [0, t), her. a) und b) liefern für t und h
p0 (t + h) = p0 (t)p0 (h)
(1)
p0 (t) = e−λt , λ > 0
(einzige) Lösung, p0 (t) monoton fallend
(2)
p0 (h) = 1 − λh + o(h)
Tangente an der Stelle h = 0
(3)
p1 (h) = 1 − p0 (h) + o(h) = λh + o(h)
c), (2)
Das Ereignis des Eintretens von n Signalen im Zeitintervall [0, t + h) kann in die drei Pfade zerlegt werden.
pn (t)
n Signale
in [0, t)
(4)
pn−1 (t)
n − 1 Signale
in [0, t)
p0 (h)
p1 (h)
kein Signal
in [t, t + h)
ein Signal
in [t, t + h)
o(h)
mehr als ein
Signal in [t, t + h)
pn (t + h) = p0 (h)pn (t) + p1 (h)pn−1 (t) + o(h),
= (1 − λh)pn (t) + λhpn−1 (t) + o(h)
n≥1
b), c)
(2), (3)
pn (t + h) − pn (t)
o(h)
= λ[pn−1 (t) − pn (t)] +
h
h
(5)
p′n (t) = λ[pn−1 (t) − pn (t)]
8
h→0
(5)
p′n (t) = λ[pn−1 (t) − pn (t)]
(6)
qn′ (t) = λqn−1 (t)
Ansatz pn (t) = e−λt qn (t)
q0 (t) = 1
(1) p0 (t) = e−λt
qn (0) = 0
pn (0) = 0
q1 (t) = λt
(6)
q2 (t) =
(λt)2
2!
qn (t) =
(λt)n
n!
Induktion
Mit dem Ansatz erhalten wir die Poisson-Verteilung
pn (t) =
(λt)n −λt
e ,
n!
λ > 0, n = 0, 1, 2, 3, . . .
Die erzeugende Funktion lautet dann
G(s, t) =
X (λt)n
n≥0
n!
e−λt = e−λt eλts = e−λt(1−s)
G′ (s, t) = λtG(s, t)
Ableitung nach s
G′′ (s, t) = (λt)2 G(s, t)
µ = λt,
σ 2 = λt
beachte G(1, t) = 1
9
Produktregel
Erzeugende Funktion
G(s, t) = e−λt(1−s)
G(1, t) = 1
G′ (s, t) = −λ(1 − s)G(s, t)
Ableitung nach t
G(s, t + h) − G(s, t)
= −λ(1 − s)G(s, t) + o(h)
h
G(s, t) = G(s, t + h) + λh(1 − s)G(s, t) + o(h)
= G(s, t) · G(t, h) + λh(1 − s)G(s, t) + o(h)
∗
= G(s, t) · (1 − λh + λhs) + (λh − λhs)G(s, t) + o(h)
beachte G(s, h) = 1 − λh + λhs + o(h)
= G(s, t)
Es ist also auch ein (trickreicher) Weg von unten nach oben zur erzeugenden Funktion
und damit zur Verteilung möglich.
c Roolfs
10
(2), (3)
Herunterladen