Poisson-Prozess Punktförmige Signale werden in zufälliger Aufeinanderfolge ausgesendet. Wir wollen diese Punktverteilungen auf der Zeitachse untersuchen. • • 0 • 1 • • 2 • 3 • • 4 5 6 t Das Intervall I = [ 0 | t ] teilen wir in n gleiche Teile und wählen n so groß, dass jeder Abschnitt höchstens einen Punkt enthält. Wir nehmen an, dass pro Zeiteinheit im Schnitt λ Signale gesendet werden. Der Erwartungswert für I beträgt daher µ = λ · t Punkte. Pro Abschnitt wird mit der Wahrscheinlichkeit ein Signal gesendet. Der Prozess ist zeitinvariant, also von der Lage von I unabhängig. p = λ·t n Für große n (n ≥ 100) und kleine p (p ≤ 0,1) fand Poisson eine überraschend gute Näherung für die Binomialverteilung (siehe Poisson-Verteilung). Dies führte zu der Definition: Eine Zufallsgröße X heißt poissonverteilt, falls die Wahrscheinlichkeiten für k = 0, 1, 2, . . . Treffer mit P (X = k) = µk −µ ·e berechnet werden, µ = n · p. k! Auf unsere Modellierung angewendet gilt dann: Pt (X = k) = t = 10 λ = 1,2 0,10 × × × 0,08 × × × 0,06 × × 0,04 0,02 × × × × × × × × 1 2 3 4 5 × × 6 7 8 0,08 0,06 0,04 0,02 × × × × × × × × × × × × × 1 2 3 4 5 6 7 8 × × × × × × × × × × × × × × × × × × k 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 t = 10 λ=2 0,10 (λ · t)k −λ·t ·e k! × × × × × × × × × × × × × × × × × × × × × × × k 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 c Roolfs 1 Poisson-Prozess Die Wahrscheinlichkeit für kein Signal in einem Intervall der Länge t beträgt Pt (X = 0) = e−λt und für mindestens ein Signal Pt (X ≥ 1) = 1 − e−λt . Diese Wahrscheinlichkeiten sind Funktionen von t. λ = 1,2 1,2 1,1 F (t) = 1 − e−λ t 1,0 0,9 0,8 0,7 0,6 0,5 0,4 f (t) = λe−λ t (Dichte) 0,3 0,2 0,1 1 Betrachten wir nun auch Pk (t) = 2 3 4 (λ · t)k −λ·t ·e k! 5 6 7 8 t 9 als Funktion von t, k ist der Parameter. Die Ableitung nach t ergibt Pk′ (t) = λPk−1 (t) − λPk (t), k ≥ 1 λdt 0 1 − λdt 1 1 − λdt λdt 2 λdt 1 − λdt k−1 1 − λdt λdt k 1 − λdt λdt k+1 1 − λdt Pk′ kann veranschaulicht werden. Die Wahrscheinlichkeit für ein Signal in der Zeit dt ist P1 (dt) = λdt. Pk (t + dt) = Pk (t) · P0 (dt) + Pk−1 (t) · P1 (dt) = Pk (t) · (1 − λdt) + Pk−1 (t) · λdt Pk (t + dt) − Pk (t) = −Pk (t) · λdt + Pk−1 (t) · λdt Pk′ (t) = Pk−1 (t) · λ − Pk (t) · λ Die Änderung dPk besteht aus einem Zufluss Pk−1 (t) · λdt von k − 1 vermindert um einen Abfluss Pk (t) · λdt nach k + 1. c Roolfs 2 ... Poisson-Prozess Pk (t) = (λ · t)k −λ·t ·e k! Pk′ (t) = λPk−1 (t) − λPk (t), k ≥ 1 0,30 λ · Pk−1 (t) 0,25 0,20 λ · Pk (t) λ=2 k=8 0,15 Pk (t) 0,10 0,05 Pk′ (t) 1 2 3 4 5 6 -0,05 c Roolfs 3 7 8 9 10 t Wartezeit Aus Pk (t) = (λ · t)k −λ·t ·e k! P0 (t) = e−λ·t . folgt λ = 0,6 1,0 0,9 0,8 0,7 0,6 0,5 0,4 P0 (t) = e−λ t 0,3 0,2 0,1 1 2 3 4 5 6 7 8 t P0 (t) (t fest) ist die Wahrscheinlichkeit, dass ein Intervall der Länge t ohne Signal ist. Sei T die Wartezeit bis zum ersten Signal. T ist eine stetige Zufallsvariable, sie gibt auch die Wartezeit zwischen zwei aufeinanderfolgenden Signalen an. Es gilt P (T > t) = e−λ t . Die Verteilungsfunktion von T lautet dann F (t) = P (T ≤ t) = 1 − e−λ t und besitzt die Dichte f (t) = F ′ (t) = λe−λ t . Erwartungswert und Varianz von T Z∞ ∞ Z∞ µ = E(X) = tλe−λ t dt = t (− λλ e−λ t ) + e−λ t dt 0 0 ↓ ↑ 0 ∞ = 0 − 0 − λ1 e−λ t = λ1 lim (te−λ t ) = 0 t→∞ 0 Z∞ ∞ Z∞ µ = E(X) = tf (t) dt = −t (1 − F (t)) + (1 − F (t)) dt 0 | {z } 0 0 ↓ ↑ 0 σ2 = E(X − µ)2 Z∞ ∞ Z∞ 2 −λ t 2 2 −λ t = t λe dt − µ =−t e − 2t(−e−λ t )dt − λ12 0 0 ↓ ↑ 0 Z∞ = 0− 0 + tλe−λ t dt − λ12 = λ22 − λ12 = λ12 2 λ 0 c Roolfs 4 lim t(1 − F (t)) dt = 0 t→∞ Poisson-Prozess Die Wartezeit T bis zum ersten Signal ist exponentiell verteilt mit P (T > t) = e−λ t , desgleichen die Wartezeit vom ersten zum zweiten Signal, usw. z 0 T }| T { z }| { z • • 1 T }| {z • 2 T }| 1 T { z }| { • • t 3 1 λ Signale pro Zeiteinheit, E(T ) = λ , σ = λ Andere Sichtweise des Poisson-Prozesses 0 1 2 3 4 Ein Teilchen startet in 0, verweilt dort die Zeit T1 und springt dann nach 1. Im Zustand 1 verweilt es die Zeit T2 und springt dann nach 2 usw. Die Verweilzeiten T sind exponentiell verteilt, siehe oben. 5 5 ... Poisson-Prozess Simulation λ=2 •• 0 • 1 • • • • •• • • 2 3 • • • • 4 5 • 6 • • •• • 7 8 • 9 • •• 10 11 •• • • 12 13 14 • • 15 Exponentiell verteilte Wartezeiten lassen sich überraschend leicht simulieren. Ist X gleichverteilt in (0, 1), dann ist Y = − λ1 ln X exponentiell verteilt mit dem Parameter λ (und umgekehrt). Y = − λ1 ln X X sei gleichverteilt auf (0, 1) P (Y ≤ t) = P (− λ1 ln X ≤ t) = P (X ≥ e−λ t ) = 1 − e−λ t nach Voraussetzung über X Y ist damit exponentiell verteilt. Geogebra N = 50 λ =2 L1=Folge[−1/λ ln(ZufallszahlGleichverteilt[0, 1]), n, 1, N] L2=Folge[(Summe[L2, n], 0), n, 1, N] y 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 b 1 b b 2 b b 3 b b b b 4 b b 5 6 c Roolfs 6 b bb b b b 7 8 b 9 b b 10 t Inhomogener Poisson-Prozess Ein inhomogener Poisson-Prozess liegt dann vor, wenn λ von der Zeit abhängt, z. B. λ = 0,25t + 1. y 38 37 36 35 34 33 32 31 30 29 28 27 26 25 24 23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 b b b b 1 b 2 b 3 bb 4 5 b b b b 6 7 c Roolfs 7 b b 8 bb 9 b b b b 10 b b 11 12 b b b b b b 13 b b b b bb 14 b b t Poisson-Prozess Wir betrachten einen vom Zufall gesteuerten Sender, der punktförmige Signale aussendet. Die Zeitpunkte markieren wir auf der Zeitachse. Ein Poisson-Prozess liegt vor, falls folgende Eigenschaften angenommen werden können: a) Die Wahrscheinlichkeit pn (t) für genau n Signale im Zeitintervall der Länge t hängt nicht von der Lage des Intervalls auf der Zeitachse ab. b) Die Anzahlen von Signalen in disjunkten Zeitintervallen sind paarweise unabhängige Zufallsvariable. c) Die Wahrscheinlichkeit für mehr als ein Signal in einem kleinen Zeitintervall der Länge h ist von kleinerer Größenordnung als h, d. h. diese Wahrscheinlichkeit ist o(h) für h −→ 0. Die Punkte liegen also isoliert auf der Achse. o(h) ist eine Funktion, für die o(h) h −→ 0 für h → 0 gilt, z. B. o(h) = t2 oder o(h) = t1,5 . Wir leiten eine Formel für die Verteilung pn (t) = P (Z(t) = n), n = 0, 1, 2, 3, . . . der Zufallsvariablen Z(t), Anzahl der Punkte im Intervall [0, t), her. a) und b) liefern für t und h p0 (t + h) = p0 (t)p0 (h) (1) p0 (t) = e−λt , λ > 0 (einzige) Lösung, p0 (t) monoton fallend (2) p0 (h) = 1 − λh + o(h) Tangente an der Stelle h = 0 (3) p1 (h) = 1 − p0 (h) + o(h) = λh + o(h) c), (2) Das Ereignis des Eintretens von n Signalen im Zeitintervall [0, t + h) kann in die drei Pfade zerlegt werden. pn (t) n Signale in [0, t) (4) pn−1 (t) n − 1 Signale in [0, t) p0 (h) p1 (h) kein Signal in [t, t + h) ein Signal in [t, t + h) o(h) mehr als ein Signal in [t, t + h) pn (t + h) = p0 (h)pn (t) + p1 (h)pn−1 (t) + o(h), = (1 − λh)pn (t) + λhpn−1 (t) + o(h) n≥1 b), c) (2), (3) pn (t + h) − pn (t) o(h) = λ[pn−1 (t) − pn (t)] + h h (5) p′n (t) = λ[pn−1 (t) − pn (t)] 8 h→0 (5) p′n (t) = λ[pn−1 (t) − pn (t)] (6) qn′ (t) = λqn−1 (t) Ansatz pn (t) = e−λt qn (t) q0 (t) = 1 (1) p0 (t) = e−λt qn (0) = 0 pn (0) = 0 q1 (t) = λt (6) q2 (t) = (λt)2 2! qn (t) = (λt)n n! Induktion Mit dem Ansatz erhalten wir die Poisson-Verteilung pn (t) = (λt)n −λt e , n! λ > 0, n = 0, 1, 2, 3, . . . Die erzeugende Funktion lautet dann G(s, t) = X (λt)n n≥0 n! e−λt = e−λt eλts = e−λt(1−s) G′ (s, t) = λtG(s, t) Ableitung nach s G′′ (s, t) = (λt)2 G(s, t) µ = λt, σ 2 = λt beachte G(1, t) = 1 9 Produktregel Erzeugende Funktion G(s, t) = e−λt(1−s) G(1, t) = 1 G′ (s, t) = −λ(1 − s)G(s, t) Ableitung nach t G(s, t + h) − G(s, t) = −λ(1 − s)G(s, t) + o(h) h G(s, t) = G(s, t + h) + λh(1 − s)G(s, t) + o(h) = G(s, t) · G(t, h) + λh(1 − s)G(s, t) + o(h) ∗ = G(s, t) · (1 − λh + λhs) + (λh − λhs)G(s, t) + o(h) beachte G(s, h) = 1 − λh + λhs + o(h) = G(s, t) Es ist also auch ein (trickreicher) Weg von unten nach oben zur erzeugenden Funktion und damit zur Verteilung möglich. c Roolfs 10 (2), (3)