bis KW51

Werbung
Markovprozesse und Warteschlangensysteme
M Gruber
WS 2012/13, Version vom 10. Dezember 2012
Inhaltsverzeichnis
1 Zeitdiskrete Markovketten
1.1
1.2
1.3
1.4
5
Denitionen und Grundeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.1.1
. . . . . . . . . . . . . . . . . . . . . . .
5
Ein Beispiel mit zwei Zuständen
1.1.2
(; P )-Markovkette (Denition) .
. . . . . . . . . . . . . . . . . . . . . . .
7
1.1.3
Ein Beispiel mit drei Zuständen
. . . . . . . . . . . . . . . . . . . . . . .
9
Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2.1
Stoppzeiten (Denition) . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2.2
Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.2.3
Mittlere Eintrezeiten (mean hitting times)
. . . . . . . . . . . . . . . .
16
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
1.3.1
Klasseneigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
1.3.2
Rekurrenz und Transienz
. . . . . . . . . . . . . . . . . . . . . . . . . . .
18
1.3.3
Endliche Kommunikationsklassen . . . . . . . . . . . . . . . . . . . . . . .
20
1.3.4
Unendliche Kommunikationsklassen
. . . . . . . . . . . . . . . . . . . . .
21
1.3.5
Irrfahrten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
Kommunikationsklassen
Stationäre (invariante) Verteilungen
. . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1
Existenz und Eindeutigkeit stationärer Verteilungen
1.4.2
Positive Rekurrenz, Nullrekurrenz
24
. . . . . . . . . . . .
24
. . . . . . . . . . . . . . . . . . . . . .
27
2 Warteschlangen
2.1
Einige Eigenschaften der Exponentialverteilung
2.2
Der Poissonprozess
E ()
29
. . . . . . . . . . . . . . . .
29
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
2.2.1
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
2.2.2
Eine Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
2.2.3
Faltung von Verteilungen
. . . . . . . . . . . . . . . . . . . . . . . . . . .
34
2.2.4
n-fache Faltung .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.3
Der Satz von Little . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.4
M/M/1-Warteschlangen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.4.1
Übergänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.4.2
Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
2.4.3
Beispiel
42
((t))t0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
Inhaltsverzeichnis
2.5
2.6
2.7
4
M/M/1 mit Warteschlangenbeschränkung
. . . . . . . . . . . . . . . . . . . . . .
42
2.5.1
Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
2.5.2
Ankunftsrate bedienter Kunden . . . . . . . . . . . . . . . . . . . . . . . .
43
Geburts-Todes-Prozesse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
2.6.1
Abhängigkeiten der Raten . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
2.6.2
Gleichgewichtsgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
1-Warteschlangen
M/M/
1 Zeitdiskrete Markovketten
1.1 Denitionen und Grundeigenschaften
lec01
1.1.1 Ein Beispiel mit zwei Zuständen
Beispiel 1.1
([Nor97], Example 1.1.4)
Ein dynamisches System kann im Zustand 1 oder
im Zustand 2 sein. Ist es im Zustand 1, geht es beim nächsten Schritt mit Wahrscheinlich-
2 [0; 1] in den Zustand 2 über; mit Wahrscheinlichkeit 1 bleibt es im Zustand 1.
Ist es im Zustand 2, geht es beim nächsten Schritt mit Wahrscheinlichkeit 2 [0; 1] in den
Zustand 1 über; mit Wahrscheinlichkeit 1
bleibt es im Zustand 2.
keit
Im Weiteren betrachten wir nur den nichttrivialen Fall
+ > 0.
Die Systemdynamik beschreibt man am besten mit Hilfe einer stochastischen Matrix:
"
#
1 P=
:
1 Stochastische Matrizen haben nichtnegative Komponenten, die sich zeilenweise zu
1 sum-
mieren.
Angenommen, das System bendet sich mit Wahrscheinlichkeit
mit Wahrscheinlichkeit
2
1
im Zustand 1 und
h
Dann ist es nach dem nächsten Übergang mit Wahrscheinlichkeit
1 + 2 (1 ) im Zustand 2. Das
Anfangsverteilung mit der Übergangsmatrix P liefert genau diese Werte:
Zustand 1 und mit Wahrscheinlichkeit
h
1 2
i
"
i
= 1 2 .
1 (1 ) + 2 im
im Zustand 2, d.h. es hat die Anfangsverteilung
Produkt der
#
h
i
1 = 1 (1 ) + 2 1 + 2 (1 )
1 (1.1)
Die Wahrscheinlichkeitsverteilung auf der rechten Seite von (1.1) ist wiederum die Anfangsverteilung für den darauolgenden Übergang das Systems.
Die Wahrscheinlichkeiten dafür, dass das System nach insgesamt
n
Schritten im Zu-
5
1 Zeitdiskrete Markovketten
stand 1 bzw. Zustand 2 ist, stehen im Wahrscheinlichkeitvektor
h
1 2
Um die Matrixpotenzen
Pn
i
"
#n
1 :
1 ezient berechnen, diagonalisiert man
P
am besten vorher.
Wie man Matrizen diagonalisiert, lernt man in der Linearen Algebra. (Ich empfehle
sehr [Str09] und die zugehörigen Videolektionen1 .)
Wenn
P
die Diagonalisierung
"
1
P =U
hat, ist
Pn
Die Gröÿen
=U
1
"
1 ; 2
#
1 0
U
0 2
#
n1 0
U:
0 n2
sind die Eigenwerte von
hörige Eigenvektoren2 .
P.
Die Matrix
U
enthält zeilenweise zuge-
Eine Besonderheit stochastischer Matrizen ist, dass immer mindestens ein Eigenwert
gleich
1
ist. Nehmen wir also
1 = 1
an. Die Summe der Diagonalelemente von
P , ist stets gleich der Summe der Eigenwerte.
2 = 1 + 2 = 1 + 2 . Also ist 2 = 1 und
die Spur von
Pn
=U
1
"
+
+
i
"
1
2
"
In unserem Fall heiÿt das
#
#
1 = 1:
h
1 = + 1 Und hier ein linksseitiger Eigenvektor zum Eigenwert
h
d.h.
1
0
U:
0 (1 )n
Hier ist ein linksseitiger(!) Eigenvektor zum Eigenwert
h
P,
+
i
:
2 = 1 :
#
h
i
1 = (1 ) 1 1 :
1 1
1 i
http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/
Bei Markovketten betrachtet man Eigenvektoren als Zeilenvektoren, die man von links an die Übergangsmatrix
multipliziert. Das ist vielleicht etwas ungewohnt. Wenn Sie lieber mit der üblichen Darstellung Matrix mal
Spaltenvektor arbeiten möchten, brauchen Sie nur alles zu transponieren.
6
1.1 Denitionen und Grundeigenschaften
Tragen wir diese Eigenvektoren zeilenweise in eine Matrix ein, erhalten wir
3
2
U
Die Inverse von
U
ist
= 4 +
1
U 1=4
1
Die stochastische Matrix
Pn
1
3
+ 5 :
+
hat somit die Darstellung
3
2
+ 5 :
1
2
U:
2
3
2
3
#
"
0
+ 5 1
4 +
n
1
+ 0 (1 )
2
3
( +1)n + ( +1)n
n 5:
= 4 ( ++1)n ( ++1)
+
+
+
p(n) p(12n) 5 41
=
P n = 4 11
1
p(21n) p(22n)
p(ijn) geben darüber Auskunft, mit welcher
vom Zustand i aus nach n Schritten erreicht wird.
Die Gröÿen
+ 5
1
Wahrscheinlichkeit der Zustand
h
Zum Abschluss sei noch bemerkt, dass der Eigenvektor
+
+
j
i
einen Gleichge-
wichtszustand des Systems beschreibt:
h
+
+
i
"
#
h
1 = + 1 +
i
:
1.1.2 (; P )-Markovkette (Denition)
Im allgemeinen betrachten wir stochastische Prozesse
(Xn )n0
auf einem Wahrscheinlichkeits-
(
; F ; P) mit Werten in einem endlichen oder abzählbar undendlichen Zustandsraum I .
Die Zufallsvariable Xn beschreibt die Position des Prozesses im Zustandsraum I zur Zeit n.
raum
Denition 1.1
Der Prozess
(Xn )nn ist eine (; P )-Markovkette (kurz: (; P )-markovsch),
wenn
1. der Prozess mit der Wahrscheinlichkeitsverteilung
P(X0 = i) = i
für
i2I
= (i )i2I
startet, d.h. wenn
gilt und
2. und wenn der Prozess gedächtnislos ist, d.h. wenn
P(Xn+1 = ii
für
i0 ; : : : ; in+1 2 I
gilt, wobei
+1
n
j X0 = i0; : : : ; Xn = in) = pi
P = (pij )i;j 2I
i +1
n n
(1.2)
eine stochastische Matrix ist.
7
1 Zeitdiskrete Markovketten
Das Besondere an (1.2) ist, dass die bedingte Wahrscheinlichkeit für den Übergang vom Zustand
in zum Zustand in+1 nicht von der Entwicklung des Prozesses bis zur Erreichung des Zustands
in abhängt. Das ist die für Markovprozesse bezeichnende Gedächtnislosigkeit des Prozesses.
Eine alternative Charakterisierung für Satz 1.1
([Nor97], Theorem 1.1.1.)
(; P )-markovsch
Der Prozess
gibt folgender
(Xn )n0 ist genau dann (; P )-markovsch,
wenn für seine Pfade gilt:
P(X0 = i0 ; : : : ; Xn = in ) = i0 pi0 i1 pi
n
Beweis
1 in :
Siehe [Nor97].
I sind die, bei denen die Wahrscheinlichkeitsmasse 1 auf einen Zustand i 2 I konzentriert ist. Wir bezeichnen sie mit i . Für
i = (ij )j 2I gilt ij = [i = j ] (Iversonklammer3 ).
Spezielle Wahrscheinlichkeitsverteilungen auf dem Zustandsraum
(; P )-markovschen Prozess (Xn )n0 unter der bedingten Wahrscheinlichkeit P(: : : j Xm = i) (mit festem m und festem i 2 I ) betrachten. Man konzentriert
dann die Wahrscheinlichkeit auf Pfade, die sich zur Zeit m im Zustand i benden. Unter der
bedingten Wahrscheinlichkeit P(: : : j Xm = i) sind die restlichen Pfadstücke ab dem Zeitpunkt
m die Pfade einer (i ; P )-Markovkette. Man nennt diese Eigenschaft die Markov-Eigenschaft:
Man kann die Pfade eines
Satz 1.2 (Markov-Eigenschaft)
(; P )-markovschscher Prozess.
Dann ist der Prozess (Xm+n )n0 unter der bedingten Wahrscheinlichkeit P(: : : j Xm = i)
eine (i ; P )-Markovkette, die unabhängig von den Zufallsvariablen X0 ; : : : ; Xm ist.
Formal: Für Ereignisse A aus der -Algebra F (X0 ; : : : ; Xm ) gilt
Sei
(Xn )n0
([Nor97], Theorem 1.1.2.)
ein
P(fXm = im ; : : : ; Xm+n = im+n g \ A j Xm = i) = ii pi
m
i +1 pim+n 1 im+n P(A j Xm
m m
= i):
Bemerkung 1.1 Es trägt zum Verständnis bei, wenn Sie in Satz 1.2 speziell A = setzen
und P(Xm = i) > 0 annehmen. Dann ist nämlich P(A j Xm = i) = 1 und es steht
P(Xm = im ; : : : ; Xm+n = im+n j Xm = i) = ii pi
m
i +1 pim+n 1 im+n
m m
da.
Man beachte auch, dass die rechte Seite in Wirklichkeit nicht von
m abhängt:
P(Xm = im ; : : : ; Xm+n = im+n j Xm = i)
3
8
Die Iversonklammer hat den Wert
1,
wenn das Prädikat in der Klammer wahr ist, sonst
0.
1.1 Denitionen und Grundeigenschaften
und
P(X0 = im ; : : : ; Xn = im+n j X0 = i)
stellen die gleichen Werte dar, falls
i > 0 und P(Xm = i) > 0 sind.
Es ist daher sinnvoll, folgende Bezeichnung einzuführen:
Pi (A) := P(A j X0 = i)
Bemerkung 1.2
für
A 2 F (X0 ; X1 ; : : :):
(Xn )n0 den Prozess (Xm+n )n0 betrachtet, stellt
0 zurück und startet die Markovkette im Zustand i neu.
Indem man anstelle von
man die Prozessuhr von
m
auf
Der Übergangsmechanismus bleibt gleich (sagt der Satz).
n Schritte in der
in der i-ten Zeile und
In Beispiel 1.1 hat man gesehen, dass die Übergangswahrscheinlichkeiten für
Matrix
Pn
stehen. Bezeichnen wir mit
j -ten Spalte.
Satz 1.3
([Nor97], Theorem 1.1.3.)
p(ijn)
=
die Komponente von
Der Prozess
(Xn )n0
sei
Pn
(; P )-markovsch.
Dann gilt
P(Xn = j ) = (P n )j (j -te Komponente von P n );
( n)
2. Pi (Xn = j ) = P(Xn+m = j j Xm = i) = pij
für alle m; n 0.
1.
1.1.3 Ein Beispiel mit drei Zuständen
Beispiel 1.2
([Nor97], Example 1.1.6)
lec 02
Die Übergangsmatrix sei
2
3
0 1 07
6
6
P = 4 0 1=2 1=275 :
1=2 0 1=2
Als stochastische Matrix hat
werte
2
und
3
P
sicher einen Eigenwert
1 = 1.
Um die weiteren Eigen-
zu bestimmen, greifen wir auf die Tatsache (Lineare Algebra) zurück,
dass die Spur bzw. Determinante einer Matrix gleich der Summe bzw. dem Produkt ihrer
Eigenwerte ist:
1 = trace P = 1 + 2 + 3
Aus diesen Gleichungen folgt
2 = i=2
und
und
1=4 = det P = 2 3 :
3 = i=2 = 2
(mit
:
kennzeichnen wir das
Konjugiertkomplexe).
9
1 Zeitdiskrete Markovketten
Wir schreiben die Eigenwerte in die Eigenwertematrix
3
2
1 0
6
6
= 40 i=2
0 0
0 7
0 75 :
i=2
Zgehörigen Eigenvektoren sind
h
i
u1 = 12 1 1 ; u2 =
h
i
h
i
1 i 1 = u2 :
1 + i 1 ; u3 = i
i
Wir schreiben die Eigenvektoren zeilenweise in die Eigenvektorenmatrix
2
6
1
2
U = 64 i
i
3
1
17
1 + i 175 :
1 i 1
(Da man Eigenvektoren verschieden skalieren kann, ist unsere Eigenvektormatrix nur eine
von vielen möglichen. Das macht aber nichts.)
Die Beziehung zwischen Eigenwerten und Eigenvektoren wird in kompakter Form durch
die Gleichung
UP = U
beschrieben. Auösung nach
P
liefert
P 's Diagonalisierung:
P = U 1 U:
Die Berechung von
Pn
ist nun einfach:
P n = P = U 1 n U:
h
Die Entwicklung des Systems mit der Anfangsverteilung
P n
von
i
wird duch
beschrieben. Es ist von Vorteil, die Anfangsverteilung mit Hilfe der Eigenvektoren
P
= xU mit geeignetem Zeilenvektor x = U 1 . Dann
P n = xUU 1 n U = xn U zu dieser schönen und nützlichen
darzusellen, also in der Form
kommt man nämlich wegen
Formel:
P n = x1 n1 u1 + x2 n2 u2 + x3 n3 u3 :
In unserem konkreten Fall ist
2
U
10
= 1 2 3
2
5
6
1 = 62
45
2
5
1
5
1
5
3
10
+ 25i
i
10
i
10
3
1 2i
5 57
1 + i 7:
5 10 5
3 + i
10 10
(1.3)
1.1 Denitionen und Grundeigenschaften
Betrachten wir nun drei elementare Anfangsverteilungen:
h
1.
i
Fall = 1 0 0 .
x die erste Zeile von U 1
In diesem Fall ist
i
h
h
1+2i
5
x = x1 x2 x3 = 25
1 2i
5
i
und wir haben
h
i
h
i ( i )n i
x1 n1 u1 = 15 25 25 ; x2 n2 u2 = 1+2
5 2
i
1 + i 1 ; x3 n3 u3 = (x2 n2 u2 ) :
Da die beiden letzten Ausdrücke zueinander konjugiert komplex sind, vereinfacht sich
(1.3) zu
P n = x1 n1 u1 + 2 Re(x2 n2 u2 ):
Es ist
n
n2 = ( 2i )n = ( 12 )n cos n
2 + i sin 2
und
h
i
h
(1.4)
i
x2 u2 = 52 ; 15 ; 15 + i 15 ; 53 ; 25 ;
folglich
h
Re(x2 n2 u2 ) = ( 12 )n cos n2 25 ;
1; 1
5 5
i
+ ( 12 )n sin n2
h
1 3 2
5; 5; 5
i
:
Insgesamt hat man also
h
i
1 0 0 Pn =
h
1
5
2
5
2
5
i
h
+ ( 21 )n 1 cos n2 25 ;
Man sieht hier schön, wie das System für
strebt:
h
n!1
i
lim
Pn =
n!1 1 0 0
h
2.
1; 1
5 5
h
1
5
i
+ ( 21 )n 1 sin n2
h
1; 3; 2
5 5 5
i
:
gegen den Gleichgewichtszustand
2
5
2
5
i
:
i
Fall = 0 1 0 .
Nun ist
x die zweite Zeile von U 1
h
i
h
x = x1 x2 x3 = 25
2 i
10
2+i
10
i
und wir haben
i
h
h
x1 n1 u1 = 51 25 52 ; x2 n2 u2 = 25 i ( 2i )n i
i
1 + i 1 ; x3 n3 u3 = (x2 n2 u2 ) :
11
1 Zeitdiskrete Markovketten
Es ist
x2 u2 =
h
1 3
1
10 ; 10 ; 5
i
h
+ i 15 ;
1
1
10 ; 10
i
;
folglich
Re(x2 n2 u2 ) = ( 12 )n cos n2
h
1 3
1
10 ; 10 ; 5
i
+ ( 12 )n sin n2
h
1 1 1
5 ; 10 ; 10
i
:
Insgesamt hat man nun
h
i
0 1 0 Pn =
h
3.
h
1
5
2
5
2
5
i
+ ( 12 )n 1 cos n2
h
1 3
1
10 ; 10 ; 5
i
+ ( 21 )n 1 sin n2
h
1; 1 ; 1
5 10 10
i
:
i
Fall = 0 0 1 .
Nun ist
x die dritte Zeile von U 1
i
h
h
i
x = x1 x2 x3 = 25 310i 3+
10
i
und wir haben
h
i
h
i
1 i 1 ; x3 n3 u3 = (x2 n2 u2 ) :
x1 n1 u1 = 15 52 25 ; x2 n2 u2 = 310i ( 2i )n i
Es ist
x2 u2 =
h
1
1 3
10 ; 5 ; 10
i
+i
h
3 2
1
10 ; 5 ; 10
i
;
folglich
Re(x2 n2 u2 ) = ( 12 )n cos n2
h
1
1 3
10 ; 5 ; 10
i
+ ( 12 )n sin n2
h
3
2 1
10 ; 5 ; 10
i
:
Insgesamt hat man
h
i
0 0 1 Pn =
h
1
5
2
5
2
5
i
+ ( 12 )n 1 cos n2
h
1
1 3
10 ; 5 ; 10
i
+ ( 21 )n 1 sin n2
h
3
2 1
10 ; 5 ; 10
i
:
Alle weiteren Fälle sind Konvexkombinationen dieser drei Elementarfälle.
1.2 Stoppzeiten
1.2.1 Stoppzeiten (Denition)
Denition 1.2 (Stoppzeit)
zeit zu (Xn )n0 , wenn gilt
Die Zufallsvariable
T : ! f0; 1; 2; : : :g [ f1g ist eine Stopp-
fT = ng 2 F (X0; : : : ; Xn)
12
für alle
n 0:
1.2 Stoppzeiten
Für eine Stoppzeit
T
bezeichnet
F (X0; : : : XT ) die -Algebra der Ereignisse B mit
B \ fT = mg 2 F (X0 ; : : : Xm )
für alle
m:
F (X0; : : : XT ) die T -Vergangenheit des Prozesses.
Für ! 2 mit T (! ) < 1 interessiert typischerweise die gestoppte Zufallsvariable
Man nennt
! 7! XT (!) (!);
die wir als
XT
notieren.
Satz 1.4 (Starke Markoveigenschaft) ([Nor97], Theorem 1.4.2.) Sei T eine Stoppzeit
zum Markovprozess (Xn )n0 . Dann ist unter der Bedingung T < 1 und XT = i der
Prozess (XT +n )n0 ebenfalls ein Markovprozess.
M.a.W.: Für
B 2 F (X0 ; : : : ; XT ) gilt
P(fXT = j0 ; : : : ; XT +n = jn g \ B j T < 1; XT = i)
:
= Pi (X0 = j0 ; : : : ; Xn = jn ) P(B j T < 1; XT = i)
Beweis
[Nor97], pp.20.
Bemerkung 1.3 Es trägt zum Verständnis bei, wenn Sie in Satz 1.4 speziell B = setzen
und P(T < 1; XT = i) > 0 annehmen. Dann ist nämlich P(B j T < 1; XT = i) = 1 und es
steht
P(XT = j0 ; : : : ; XT +n = jn j T < 1; XT = i) = Pi (X0 = j0 ; : : : ; Xn = jn )
da.
Bemerkung 1.4
Indem man anstelle von
man die Prozessuhr von
T
auf
0
zurück
(Xn )n0 den Prozess (XT +n )n0 betrachtet, stellt
und startet die Markovkette im Zustand i neu.
Der Übergangsmechanismus bleibt gleich (sagt der Satz).
Denition 1.3 (Eintrezeit)
fallsvariable
mit der Konvention
1 an).
Sei
A I.
Die Eintrezeit (hitting time) bei
A
ist die Zu-
H A = inf fn 0 j Xn 2 Ag
inf ; = 1 (d.h. für Pfade !, die A nie treen, nimmt H A (!) den Wert
13
1 Zeitdiskrete Markovketten
Bemerkung 1.5 H A
ist eine Stoppzeit, denn
fT = ng = fX0 2= A; : : : ; Xn 1 2= A; Xn 2 Ag 2 F (X0; : : : ; Xn):
Bemerkung 1.6 LA = supfn 0 j Xn 2 Ag (last exit time)
Sei
hAi := Pi (H A < 1) = P(H A < 1 j X0 = i):
die Wahrscheinlichkeit, dass der in
i startende Prozess die Zustandsmenge A in endlicher Zeit
trit und sei
hA := (hAi )i2I
der Vektor dieser Wahrscheinlichkeiten.
Bemerkung 1.7
Satz 1.5
hA ist i.a. keine Wahrscheinlichkeitsverteilung!
Eine Konsequenz der Markov-Eigenschaft ist
hAi = 1 für i 2 A
([Nor97], Theorem 1.3.2.)
Lösung des Systems
Beweis
ist keine Stoppzeit.
und
hA
hAi =
X
j 2I
hAj pij
für
i 2= A:
ist komponentenweise die kleinste nichtnegative
hAi = 1
P
hAi = j 2I hAj pij
i 2 A;
für i 2
= A:
für
[Nor97], pp.13.
1.2.2 Beispiele
Beispiel 1.3
Sei
P=
"
1 0 0 0 #
1=2 0 1=2 0 .
0 1=2 0 1=2
0 0 0 1
Beispiel 1.4 (Gambler's ruin)
Es ist
hf24g = 1=3 und hf14g = 0
([Nor97] Example 1.3.3)
0 < p = 1 q < 1, p00 = 1, pi;i+1 = p und pi;i 1 = q
Für die Ruinwahrscheinlichkeit hi = Pi (H f0g < 1) gilt
Seien
für
h0 = 1
hi = phi+1 + qhi 1 i = 1; 2; : : :
Es liegt eine lineare Rekursion vor (homogner Fall).
14
i = 1; 2; : : :.
1.2 Stoppzeiten
Die charakteristische Gleichung
Im Fall
p 6= q
q
1
px + p
x2
= 0 hat die Lösungen x 2 f pq ; 1g.
(verschiedene Wurzeln) setzt man
hi = A + B ( pq )i
an und bestimmt
Im Fall
p<q
A und B .
ist das Casino im Vorteil. Da
sein. Daraus folgt
hi 1
für alle
i
A = 1 und hi = 1 für alle i, der sichere Ruin.
gelten muss, muss
B=0
p > q ist der Spieler im Vorteil. Da h0 = 1 sein muss, ist A + B = 1. Also
ist hi = A + (1
A)( pq )i = ( pq )i + A(1 ( pq )i ). Man sieht, dass A 0 sein muss, denn
andernfalls gibt es negative Werte für gewisse hi . Wegen der Minimalitätseigenschaft der
hi folgt A = 0, also ist hi = ( pq )i .
Im Fall
Im Fall
p=q
(Doppelwurzel
1) setzt man
hi = A + Bi
hi = (A + Bi)1i ) und bestimmt hieraus A und B .
hier A = 1; B = 0, also hi = 1, also auch hier der sichere Ruin.
an (eigentlich:
Beispiel 1.5 (Birth-and-death-chain) ([Nor97] Example
und pi;i+1 = pi 0 mit pi + qi = 1 für i = 1; 2; : : :.
Für
Wegen
1.3.4)
0 hi 1
Seien
folgt
pi;i 1 = qi 0
hi = Pi (H f0g < 1) gilt (Markov-Eigenschaft!)
h0 = 1; hi = pi hi+1 + qi hi 1 ; i = 1; 2; : : : :
ui = hi 1 hi .
Für pi ui+1 = pi hi
pi hi+1
Betrachte
und
qi ui = qi hi 1 qi hi
gilt
pi ui+1 qi ui = 0, d.h.
pi ui+1 = qi ui :
(Dies lässt sich als Balancegleichung für den Zustand
i
interpretieren: Was von ihm nach links
ausströmt und was von ihm nach rechts ausströmt, aber wieder zurückkommt, muss gleich sein.)
Daraus lässt sich eine Formel für die
ui+1 =
mit
ui
gewinnen:
qi
q q1
ui = : : : = i
u =: i u1
pi
pi p1 1
q
qq
q q1
0 = 1; 1 = 1 ; 2 = 2 1 ; : : : ; i = i
:
p1
p2 p1
pi p1
15
1 Zeitdiskrete Markovketten
Wegen
X
1ki
uk = h0 hi (\teleskopischeSumme00 )
gilt
hi = 1 u1
mit
X
0k<i
k
u1 0.
Es geht nun darum, den richtigen Wert für
u1
zu nden.
Zwei Fälle müssen unterschieden werden:
1.
2.
P
P
k k
= 1: Dann muss u1 = 0 und damit hi = 1 sein.
P
< 1: Dann muss hi = 1 u1 0k<i k 0 und minimal sein.
P
P
j i k
P
Dies ist für u1 = 1= k k der Fall. Also ist hi = 1
.
k k
k k
1.2.3 Mittlere Eintrezeiten (mean hitting times)
Denition 1.4 (Mittlere Eintrezeit) Sei A I und i 2 I . Die mittlere
der Zustandsmenge A bei Start in i ist der bedingte Erwartungswert
kiA := Ei H A :=
mit der Konvention
X
n
Eintrezeit bei
n Pi (H A = n) + 1 Pi (H A = 1)
1 0 = 0.
Sei
kA = (kiA )i2I
der Vektor der mittleren Eintrezeiten.
Satz 1.6
([Nor97], Theorem 1.3.5)
kA
die minimale nichtnegative Lösung des Systems
kiA = 0 für i 2 A
X
kiA = 1 + kjA pij
j 2= A
Beweis
16
[Nor97], pp.17.
für
i 2= A
1.3 Kommunikationsklassen
1.3 Kommunikationsklassen
1.3.1 Klasseneigenschaften
Der Zustandsraum der Markovkette
Für Zustände
i; j 2 I; i 6= j
(Xn )n0 sei I N.
denieren wir
i ! j : , es existiert n 2 N mit p(ijn) > 0:
i $ j : , i ! j und j ! i:
Für
i ! j sagt man von i erreicht man j und für
i $ j i und j kommunizieren.
Man hat die Eigenschaften
i$j) j$i
i $ j und j $ k ) i $ k
i$i
(Symmetrie)
(Transitivität)
(Reexivität)
Die drei Eigenschaften Symmetrie, Transitivität und Reexivität denieren eine Beziehung, die
man Äquivalenzrelation nennt.
Mit Äquivalenzrelationen deniert man sogenannte Äquivalenzklassen . In unserem Falle sind
diese Äquivalenzklassen (oder kurz: Klassen) so deniert:
[i] : = fj 2 I j i $ j g
(1.5)
Man nennt sie kommunizierende Klassen . Die kommunizierenden Klassen sind entweder identisch oder disjunkt: Es gilt
[i] = [j ] genau dann, wenn i $ j und
[i] \ [j ] = ; genau dann, wenn i 6$ j . Der Zustandsraum zerfällt somit in kommunizierende
Klassen.
Sei
C
eine beliebige Teilmenge des Zustandsraums
i, den es
Zustand j enthält, der von i aus erreichbar ist (i 2 C ^ i ! j ) j 2 C ).
Wir sagen,
C
Wenn
C
ist abgeschlossen , wenn
C
mit jedem Zustend
ist genau dann abgeschlossen, wenn für alle
Wir sagen,
in
C
I.
C
ist oen , wenn
C
i2C
und alle
j 2= C
gilt:
enthält, auch jeden
pij = 0.
nicht abgeschlossen ist.
C oen ist, gibt es mindestens einen Zustand auÿerhalb C der von von einem Zustand
aus erreichbar ist.
17
1 Zeitdiskrete Markovketten
Wir sagen, eine Markovkette ist irreduzibel , wenn ihr Zustandsraum aus einer einzigen kommunizierenden Klasse besteht.
Wenn eine Markovkette irreduzibel ist, gibt es keine echte Teilmenge des Zustandsraums, die
abgeschlossen ist.
1.3.2 Rekurrenz und Transienz
T
S
Xn (!) = i für unendlich viele n ist, ist 0n<1 nk<1 fXk = ig. Man
ndet dafür auch oft die Schreibweise fXn = i
i.o.g (i.o. steht für innitely often ).
Die Pfadmenge, auf der
(Xn )n0 eine Markovkette.
Ein Zustand i 2 I ist rekurrent, wenn Pi (Xn = i
Ein Zustand i 2 I ist transient, wenn Pi (Xn = i
Denition 1.5
Sei
) = 1 ist.
i.o.) = 0 ist.
i.o.
Denition 1.6 (rte Durchgangszeit, rth passage time )
Sei
(Xn )n0
eine Markovkette und
i2I
ein Zustand.
Die induktiv denierten Zufallsvariablen
Ti(0) (!) = 0; Ti(r) (!) = inf fn > Ti(r 1) (!) j Xn (!) = ig
heiÿen
rte Durchgangszeiten beim Zustand i.
Für die erste Durchgangszeit schreibt man oft einfach
Satz 1.7
([Nor97], Theorem 1.5.3.)
Sei
Ti .
(Xn )n0 eine Markovkette und i 2 I ein Zustand.
Es gilt folgende Alternative:
1.
2.
Pi (Ti < 1) = 1; es ist dann i rekurrent und 0n<1 p(iin) = 1;
P
Pi (Ti < 1) < 1; es ist dann i transient und 0n<1 p(iin) < 1.
P
Beweis
Sei
Vi
=
X
die Zufallsvariable, die zählt, wie oft der Prozess
Es ist
Sei
V~i
Pi (Vi > 0) = Pi (Ti < 1).
die zu
Vi
[Xk = i]
0<k<1
(Xn )n0 zum Zustand i nach dem Start aufsucht.
analoge Zählfunktion für den Prozess
Wegen der starken Markoveigenschaft ist für
(XT +n )n0 .
i
k>0
Pi (Vi > k) = Pi (V~i > k 1; Ti < 1) = Pi (V~i > k 1) Pi (Ti < 1) = Pi (Vi > k 1) Pi (Ti < 1)
18
1.3 Kommunikationsklassen
und damit
Pi (Vi > k) = Pi (Ti < 1)k+1 :
Pi (Ti < 1) = 1 ist, dann ist Pi (Vi = 1) = limk!1 Pi (Vi > k) = 1, d.h. (Xn )n0
ist rekurrent. Ist dagegen Pi (Ti < 1) < 1, dann ist Pi (Vi = 1) = 0 und (Xn )n0 transient.
Man sieht hier: Wenn
Die Zufallsvariable
Ei Vi = Ei
Vi
hat den Erwartungswert
X
[Xk = i] =
0<k<1
X
0<k<1
Ei [Xk = i] =
X
0<k<1
Pi (Xk = i) =
X
0<k<1
( n)
pii :
Für diesen Erwartungswert gilt aber auch
Ei Vi =
=
=
=
=
Wegen
X
0<k<1
X
k Pi (Vi
X
0<k<1 0r<k
X
Pi (Vi = k)
X
[r < k] Pi (Vi = k)
0<k<1 0r<1
X
X
0r<1 r<k<1
X
0r<1
= k)
Pi (Vi = k)
Pi (Vi > r):
Pi (Vi > k) = Pi (Ti < 1)k+1 ist damit
Ei Vi = Pi (Ti < 1) :
1 Pi (Ti < 1)
Hiervon liest man ab: Im Rekurrenzfall ist
P
(n)
0n<1 pii
= 1, im Transienzfall
P
( n)
0n<1 pii < 1. Satz 1.8 (Class Property Theorem) ([Nor97], Theorem 1.5.4.) Die Zustände einer kommunizierenden Klasse C sind entweder alle rekurrent oder alle transient.
Beweis
Wir zeigen, wie sich die Eigenschaft transient von einem Zustand auf den anderen überträgt,
wenn die beiden Zustände kommunizieren.
Angenommen, der Zustand
j
ist transient und kommuniziert mit dem Zustand
k.
2 N mit p(jkJ ) > 0.
(K )
Und da j von k aus erreichbar ist, gibt es auch eine Zahl K 2 N mit pkj > 0.
Da
k
von
j
aus erreichbar ist, gibt es auch eine Zahl
Es gilt nun die Ungleichung
(J +n+K )
pjj
J
p(jkJ ) p(kkn) p(kjK ) :
(1.6)
Auf beiden Seiten der Ungleichung stehen nämlich Wahrscheinlichkeiten dafür, vom Zustand
J
+n+K
Schritten wieder zum Zustand
j
j
nach
zurückzukehren. Während aber links keine Bedingung an
die Pfade gestellt wird, besteht rechts die Einschränkung auf Pfade, die in
J
Schritten zu
k
und in
K
19
1 Zeitdiskrete Markovketten
Schritten wieder von dort zurückführen. Also ist die Wahrscheinlichkeit auf der rechten Seite nicht gröÿer
als die auf der linken Seite.
Summiert man nun in (1.6) über alle
n,
erhält man links einen endlichen Wert, da
Der Wert auf der rechten Seite ist dann auch endlich, d.h. der Zustand
Satz 1.9
Beweis
(indirekt)
Angenommen,
C
muss auch transient sein.
i2C
sei eine oene rekurrente Klasse.
und ein Zustand
Pi (Xm = j ) > 0
i
transient ist.
([Nor97], Theorem 1.5.5.) Rekurrente Klassen sind abgeschlossen.
Es existiert dann ein Zustand
Da
k
j
von
j
j2
= C,
für ein
i
aus erreichbar ist:
m 1:
aus nicht erreichbar ist, gilt
Pi (fXm = j g \ fXn = i
Das ist unmöglich, wenn
Also muss
der von
Pi (Xn = i
Folgerung 1.1
Pi (Xn = i
g) = 0:
i.o
) = 1 ist.
i.o
) < 1 sein, d.h. Pi (Xn = i
i.o
) = 0 und i ist transient; Widerspruch!
i.o
Oene Klassen sind transient.
Bemerkung 1.8
Abgeschlossene Klassen können transient oder rekurrent sein.
1.3.3 Endliche Kommunikationsklassen
Wir betrachten nun endliche Kommunikationsklasse, also solche, die nur endlich viele Elemente
enthalten.
Satz 1.10
Beweis
[Nor97], Theorem 1.5.6.) Endliche abgeschlossene Klassen sind rekurrent.
Die Klasse
C
sei abgeschlossen und endlich.
Wegen der Endlichkeit von
Dann muss aber
20
Pi (Xn = i
C
gibt es ein
i2C
mit
Pi (Xn = i
) = 1 sein und C rekurrent.
i.o.
) > 0.
i.o.
1.3 Kommunikationsklassen
Folgerung 1.2
Eine Markovkette mit endlichem Zustandsraum kann nur dann einen tran-
sienten Zustand
i
haben, wenn ein
j
existiert mit
i!j
aber
j 6! i
(d.h. wenn es eine
oene Kommunikationsklasse gibt).
Beispiel 1.6
3
2
0 0 0 07
6
0 0 1 0 0 077
0 0 0 0 777
P=
0 0 0 0777
0 0 0 0 75
0 1 0 0 0 0
steht für eine Zahl zwischen 0 und 1, die Zeilensummen von P
6
6
6
6
6
6
6
6
6
4
sind
1.
A = f0; 1; 2; 3; 4; 5g.
[0] = f0; 4g ist oen, also transient.
[1] = f1; 2; 5g ist abgeschlossen und endlich, also rekurrent.
[3] = f3g ist oen, also transient.
1.3.4 Unendliche Kommunikationsklassen
Unendliche Kommunikationsklassen können sowohl rekurrent als auch transient sein (siehe
Übungen).
Satz 1.11
Eine rekurrente irreduzible Markovkette erreicht mit Sicherheit jeden Zustand,
egal von wo aus gestartet wird; genauer: Ist eine Markovkette
j2I
irreduzibel, so gilt für jeden beliebigen Zustand
(Xn )n0
rekurrent und
P(Tj < 1) = 1:
Beweis
Sei
Es ist
= (i )i2I
P(Tj < 1) =
P
eine beliebige Startverteilung für den Prozess.
i2I i Pi (Tj <
1).
Um (1.7) zu zeigen, genügt es daher nachzuweisen, dass
Wähle
i; j
(1.7)
Pi (Tj < 1) für beliebige i; j 2 I
ist.
2 I . Da i von j aus erreichbar ist, ist p(jim) > 0 für ein m 2 N. Wir halten m fest.
Pj (Xn = j
Da
j
Da
Pj (Xn = j für ein n m + 1) Pj (Xn = j
ein rekurrenter Zustand ist, ist
Pfade mit der Eigenschaft Xn
) = 1.
i.o.
) ist, ist auch Pj (Xn = j für ein n m + 1) = 1.
i.o.
= j für ein n m +1 durchlaufen zur Zeit m verschiedene Zustände k.
21
1 Zeitdiskrete Markovketten
Wir können dies foldendermaÿen ausdrücken:
Pj (Xn = j für ein n m + 1) =
X
k 2I
Pj (Xn = j für ein n m + 1 j Xm = k) Pj (Xm = k):
Wegen der Markoveigenschaft sind in (1.8) alle
Ferner sind in (1.8) alle
Pj (Xm = k) = p(kjm) .
Zusammen hat man also
Da
P
Für
(m )
k2I pjk
k=i
P
k2I Pk (Tj <
(1.8)
Pj (Xn = j für ein n m +1 j Xm = k) = Pk (Tj < 1).
1)p(jkm) = 1.
= 1 ist, muss Pk (Tj < 1) = 1 zumindest für solche k; j 2 I gelten, für die p(jkm) > 0 ist.
ist das der Fall. Also ist
Pi (Tj < 1) = 1.
1.3.5 Irrfahrten
Beispiel 1.7 (1-dimensionale Irrfahrt) ([Nor97], Ex. 1.6.1) Der
Für alle i 2 Z sei pi;i+1 = p > 0 und pi;i 1 = q > 0 mit p + q = 1.
Es ist klar, dass
I
Zustandsraum sei
Z.
eine einzige (abgeschlossene) kommunizierende Klasse darstellt. Die
Markovkette ist also irreduzibel. Ist sie rekurrent oder transient?
0. Da er nur nach einer geraden Anzahl Schritte zur 0
= 0 für alle n.
Der Prozess starte im Zustand
zurückkehren kann, ist
n+1)
p(2
00
Bei gerader Schrittzahl
Das ist auf
keit
(pg)n :
2n
n
2n
gibt es
n
Schritte nach rechts und
n
Schritte nach links.
verschiedene Weisen möglich. Jeder Pfad hat dabei die Wahrscheinlich-
n)
p(2
00
!
= 2n (pq)n
n
(1.9)
Zur Entscheidung über Rekurrenz oder Transienz ziehen wir die Summierbarkeit der
(2n)
p00
heran. Dabei hilft die asymptotische Beziehung (siehe [Nor97], p.30)
p
n! C 2n(n=e)n :
Mit deren Hilfe erhalten wir
n)
p(2
00 =
Im Fall
p = q = 1=2 ist 4pq = 1 und
Im Fall
p 6= q
22
ist
4pq < 1 und
P
(2n)! (pq)2n (4ppq)n :
(n!)2
C n=2
P
(2n)
n p00
(2n)
n p00
= 1, d.h. wir haben Rekurrenz.
< 1, d.h. wir haben Transienz.
(1.10)
1.3 Kommunikationsklassen
Beispiel 1.8 (2-dimensionale symmetrische Irrfahrt)
Der Zustandsraum sei
Z Z.
([Nor97], Example 1.6.2)
Der Prozess starte im Nullpunkt. Bei jedem Schritt gehe
der Prozess mit Wahrscheinlichkeit
1=4 zu einem der vier benachbarten Gitterpunkte über.
Wir betrachten die Projektionen der Irrfahrt auf die beiden Diagonalen der Ebene
R R.
Die Projektionsmatrizen sind
P+ =
1
2
"
1 1
1 1
#
P =
und
1
2
"
1
1
1 1
#
mit den Wirkungen
[ 10 ]
1 [1]
2 1
Xn+1 Xn
P+ (Xn+1 Xn )
P (Xn+1 Xn )
1 1 2 1
Wir identizieren die Projektionen von
fahrten
(Xn+ )n0
und
(Xn )n0
auf
1
0
h
i
1 1
2 1
1 1
2 1
(Xn )n0
[ 01 ]
1 [1]
2 1
1 1
2 1
0 1 i
h
1 1
2 1
1 1
2 1
:
folgendermaÿen mit symmetrischen Irr-
Z:
Xn+1 Xn [ 10 ]
Xn++1 Xn+ = 1
Xn+1 Xn = 1
1
0
1
1
[ 01 ]
1
1
0 1
1 :
1
(Xn+ )n0 und (Xn )n0 sind unabhängig (nachprüfen!).
+ )n0
Der Prozess (Xn )n0 kehrt genau dann zum Nullpunkt zurück, wenn die Prozesse (Xn
und (Xn )n0 gleichzeitig zum Nullpunkt zurückkehren. Daher ist die Wahrscheinlichkeit
für die Rückkehr nach 2n Schritten
Die Prozesse
n)
p(2
00
Somit ist
P
(2n)
n>0 p00
=
2n
n
! !2
2n
1
2
C22n :
= 1 (harmonische Reihe!) und der Prozess (Xn )n0
Beispiel 1.9 (3-dimensionale symmetrische Irrfahrt)
Die
([Nor97], Example 1.6.3)
3-dimensionale symmetrische Irrfahrt ist transient.
Beweis
siehe [Nor97], Example 1.6.3.
Beispiel 1.10 (4-dimensionale symmetrische Irrfahrt)
Die
rekurrent
([Nor97], Exercise 1.6.2)
4-dimensionale symmetrische Irrfahrt ist transient.
23
1 Zeitdiskrete Markovketten
Beweis
Übungsaufgabe.
1.4 Stationäre (invariante) Verteilungen
1.4.1 Existenz und Eindeutigkeit stationärer Verteilungen
Denition 1.7 (stationär (invariant)) Sei = (i )i2I ein nichtnegatives
P
Zustandsraum I , d.h. alle i seien nichtnegativ und es gelte
i 2 I i 1 .
Wir sagen, ist stationär (invariant), wenn
j =
ist (wenn also
= P
X
i 2I
i pij
für alle
Maÿ auf dem
j2I
gilt).
Satz 1.12 ([Nor97] Theorem 1.7.2) Der Zustandsraum I sei endlich. Es gebe ein i 2 I
( n)
mit pij ! j für alle j 2 I . Dann ist = (j )j 2I eine invariante Wahrscheinlichkeitsverteilung (d.h. die j summieren sich zu 1 und es ist = P ).
Beweis
Die
j
(P )j =
( n)
limn!1 pij = j .
Ferner ist
P
k2I k pkj
P
P
P
1, denn es ist j 2I j = j 2I limn!1 p(ijn) = limn!1 j 2I p(ijn) = 1.
P
P
= k2I (limn!1 p(ikn) )pkj = limn!1 k2I p(ikn) pkj = limn!1 (P n P )ij =
summieren sich zu
Bemerkung 1.9 Bei der eindimensionalen Irrfahrt (unendlicher Zustandsraum!) ist im
( n)
(n)
Transienzfall limn!1 pij = 0. In diesem Fall esistieren also zwar die Grenzwerte limn!1 pij ,
aber sie sind nicht die Komponenten einer Wahrscheinlichkeitsverteilung.
Wir werden gleich sehen: Liegt eine irreduzible rekurrente Markovklette vor, so gibt es zu
deren Übergangsmatrix
P
ein positives stationäres Maÿ auf dem Zustandsraum. Dieses Maÿ
lässt sich konstruieren, nämlich als
k = (ik )k2I
ik = Ek
Die Gröÿe
Zustand
ik
gibt die Zeit an, die der in
X
0nTk 1
k
[Xn = i]:
(1.11)
startende Prozess im Mittel (Erwartungswert) im
i verbringt, bevor er zu k zurückkkehrt. Man kann sie auch in folgender Form schreiben:
ik =
24
mit
X
0n<1
Pk (Xn = i; Tk > n):
(1.12)
1.4 Stationäre (invariante) Verteilungen
Satz 1.13
([Nor97], Theorem 1.7.5)
1.
kk = 1,
2.
k = (ik )i2I
3. für alle
ist
P
irreduzibel und rekurrent. Dann gilt
k = kP
ist invariant, d.h.
i2I
Sei
und
0 < ik < 1.
Beweis
1. Der Prozess hält sich vor der ersten Rückkehr zum Zustand
0.
nämlich zur Startzeit
2. Wir wählen ein
k genau einmal in diesem Zustand auf,
2 I und zeigen jk = Pi2I ik pij .
j
a) Es ist
jk
= Ek
X
[Xn = j ] = Ek
0nTk 1
denn anstelle des Startpunkts
zur Berechnung von
jk
k
X
0<nTk
[Xn = j ] = Ek
X
[Xn = j; n Tk ];
0<n<1
0) kann man auch den Endpunkt k (zur Zeit Tk )
(zur Zeit
heranziehen.
b) Vertauschung von Erwartungswert- und Summationsoperator:
jk
=
X
0<n<1
Pk (Xn = j; n Tk ):
c) Formaler Einbau der Prozesspositionen zur Zeit
jk
X X
=
0<n<1 i2I
1:
n
Pk (Xn 1 = i; Xn = j; n Tk ) =
X X
0<n<1 i2I
Pk (Xn 1 = i; n Tk )pij :
d) Vertauschung der Summationen:
jk
=
X
i2I
pij
X
0<n<1
Pk (Xn 1 = i; n Tk ):
e) Transformation der Summationsvariablen:
jk
f) Es ist
3. Sei
i2I
=
X
i2I
pij
X
0m<1
P
0m<1 Pk (Xm
Pk (Xm = i; m Tk 1) =
a) Positivität:
ik
X
0m<1
Pk (Xm = i; Tk > m):
P
gibt es
P
k
i2I i pij
gezeigt .
(m )
(n )
n; m 2 N mit pki > 0 und pik > 0.
positiv und endlich ist.
0 < kk p(kim) b) Endlichkeit:
i2I
pij
= i; Tk > m) = ik , also haben wir hiermit jk =
beliebig. Aufgrund der Irreduzibilität von
Wir zeigen, dass
X
(n )
ik pik
P
k (m )
j 2I j pji
= ik .
Pj2I jk p(jkn) = kk = 1.
25
1 Zeitdiskrete Markovketten
Satz 1.14 ([Nor97],
= P ) mit k = 1.
Dann ist
Ist
P
Theorem 1.7.6)
Sei
irreduzibel und
ein invariantes Maÿ (d.h.
k.
= k.
zusätzlich rekurrent, dann ist
Beweis
P
Sei
j
2 I beliebig.
1. Wegen der Invarianz von
ist
j
Den Summanden
k pkj
X
=
i1 2I
i1 pi1 j
=
X
i1 2I
i1 6=k
i1 pi1 j
+ k pkj :
haben wir für spätere Zwecke abgespalten.
2. Wir wiederholen des Invarianzargument und spalten Summanden, die
=
j
X X
i1 2I i2 2I
i1 6=k i2 6=k
i2 pi2 i1 pi1 j
3. Wir wiederholen des Invarianzargument
ab:
j
=
X
i1 2I
i1 6=k
:::
X
in 2I
in 6=k
in pin in
1
n
+ k pkj +
X
i1 2I
i1 6=k
k
enthalten, wieder ab:
k pki1 pi1 j :
mal und spalten jeweils Summanden, die
pi1 j + k pkj + : : : +
X
i1 2I
i1 6=k
:::
X
in 1 2I
in 1 6=k
k pkin
1
k pkj + : : : +
5. Die verbliebenen Gröÿen stellen im Fall
X
i1 2I
i1 6=k
6. Für
j
(Für
7. Ist
P
6= k ist damit
j
X
in 1 2I
in 1 6=k
j
0<n<1
X
in 1 2I
in 1 6=k
rekurrent, so ist
k
1
=
1
pi1 j :
pi1 j = Pk (Xn = j; Tk > n):
Pk (Xn = j; Tk > n) = jk :
nach Satz 1.13 invariant.
invariant ist, ist dann
k pkin
6= k folgende Werte dar (beachte k = 1):
k pkin
X
i1 2I
i1 6=k
:::
= k ist k = 1 = kk .)
Da auch
26
:::
j
X
k
invariant.
enthalten,
pi1 j :
4. Wir lassen die erste Mehrfachsumme weg und erhalten die Ungleichung
j
k
1.4 Stationäre (invariante) Verteilungen
Wegen
k
Wir zeigen:
Sei
i2I
0.
ist
Und wegen
k
= kk = 1 ist k = 0.
= 0.
( n)
pik > 0 für ein n N (P ist irreduzibel,
P
( n)
(n)
i pik . Also ist i = 0.
j 2I j pjk
ein beliebiger Zustand und
erreichbar). Es ist
0 = k =
2
also ist
k
von
i
aus
1.4.2 Positive Rekurrenz, Nullrekurrenz
k ist Pk (Tk < 1) = 1, d.h. der Zustand k wird mit Sicherheit
wieder aufgesucht. Es ist aber oen, ob der Erwartungswert der ersten Druchgangszeit Tk endlich
Für einen rekurrenten Zustand
oder unendlich ist.
Bemerkung 1.10
X
i 2I
ik =
X
X
i2I 0n<1
Es ist
Ek T k =
P
k
i 2I i ,
Pk (Xn = i; n < Tk ) =
denn
X
X
0n<1 i2I
Pk (Xn = i; n < Tk ) =
X
0n<1
Pk (n < Tk ) = Ek Tk :
Denition 1.8 Der Zustand k heiÿt positiv rekurrent, wenn Ek Tk < 1 ist und nullrekurrent, wenn Ek Tk = 1 ist.
Wie kann man diese beiden Situationen unterscheiden?
Satz 1.15
([Nor97], Theorem 1.7.7)
Ist
P
irreduzibel, so sind folgende Aussagen äqui-
valent:
1. Alle Zustände sind positiv rekurrent.
2. Es gibt einen positiv rekurrenten Zustand.
3. Es gibt eine invariante Wahrscheinlichkeitsverteilung auf dem Zustandsraum.
Existiert eine invariante Wahrscheinlichkeitsverteilung
1=k .
gemäÿ Aussage 3, so gilt Ek Tk =
Beweis
) Aussage 2:
Aussage 2 ) Aussage 3:
1. Aussage 1
trivial.
2.
Wenn
(Satz 1.13). Da
k
k
rekurrent ist, ist
positiv rekurrent ist, ist
mk
=
P
k
ein invariantes Maÿ auf dem Zustandsraum
k
j 2I j <
1. Die Gröÿen j = jk =mk denieren
daher eine invariante Wahrscheinlichkeitsverteilung auf dem Zustandsraum.
27
1 Zeitdiskrete Markovketten
3. Aussage 3
) Aussage 1:
= (i )i2I
Sei
eine invariante Wahrscheinlichkeitsverteilung auf dem
Zustandsraum. Wähle einen beliebigen Zustand
= (i )i2I
Satz 1.13 ist
i = i =k . k . Wegen
mit
ist ein invariantes Maÿ auf
Ek Tk =
ist
k
X
i2I
ik
X
i =k
i2I
P
(n )
i2I i pik > 0 für ein n. Betrachte
dem Zustandsraum mit k = 1. Nach
=
= 1=k < 1
(1.13)
positiv rekurrent.
Wegen der Irreduzibilität von
dass
k. Es ist k
= k
P
sind damit alle Zustände rekurrent. Satz 1.13 sagt in diesem Fall,
ist. In (1.13) gilt also das Gleichheitszeichen, d.h. wir haben
Ek Tk =
X
i2I
ik
=
X
i2I
i =k
= 1=k < 1:
Beispiel 1.11 (Symmetrische Irrfahrt auf Z)
sche Irrfahrt auf
Z
([Nor97] Example 1.7.8)
Die symmetri-
ist irreduzibel und rekurrent.
Ist sie positiv rekurrent oder nullrekurrent?
Das Maÿ
= (i )i2Z
mit
i = 1 für alle i ist invariant:
2
h
i
h
::: 1 1 1 ::: = ::: 1 1 1
..
6 .
6.
6 ..
i6
6
: : : 66
6
6
6
4
..
3
.
0 1=2
1=2 0 1=2
1=2 0
..
.
7
7
7
7
7
7:
7
7
.. 7
.7
5
..
.
= 0 das einzige invariante Maÿ bezüglich P auf Z. Es gibt also keine
invariante Wahrscheinlichkeitsverteilung auf Z bezüglich P . Die symmetrische Irrfahrt auf
Nach Satz 1.14 ist
Z
28
ist nach Satz 1.15 nullrekurrent.
2 Warteschlangen
E
2.1 Einige Eigenschaften der Exponentialverteilung ()
Dichte
f (x) = [0 x]e
Verteilungsfunktion
x :
F (x) = [0 x](1 e
x ):
Momenterzeugende Funktion
F~ (s) = E e
Momente
sX
=
Z
0
1
e
sx e x dx =
Z
0
1
e x(s+) dx =
x(s+) x=1
e
= :
s+
s+
x=0
= 1:
(s + )2 s=0
2 = 2( 1 )2 :
F~ 00 (s) = E X 2 e sX ; F~ 00 (0) = E X 2 =
(s + )3 s=0
F~ 0 (s) = E Xe
Erwartungswert
Varianz
sX ;
F~ 0 (0) = E X =
E X = F~ 0 (0) = 1 :
Var X = E X 2 (E X )2 = F~ 00 (0) F~ 0 (0)2 = ( 1 )2 :
Gedächtnislosigkeit
P(X > t + s j X > t) = P(fX > t + sg ^ fX > tg) = P(X > t + s) ;
P(X > t)
P(X > t)
P(X > t + s) = F c (t + s) = e (t+s) = e
P(X > t)
F c (t)
e t
s
= F c (s) = P(X > s):
29
2 Warteschlangen
2.2 Der Poissonprozess ((t))t0
2.2.1 Eigenschaften
1.
((t))t0 ist ein Zählprozess. Die Zufallsvariablen (t) 2 N geben
an, wieviele punktuelle Ereignisse im Zeitintervall [0; t] stattgefunden haben.
Seine Pfade t 7! (t; ! ) sind monoton wachsende Treppenfunktionen.
Die Zunahmen (t + h)
(t) auf ]t; t + h] heiÿen Inkremente.
a) Der Poissonprozess
b)
c)
2. (P1) Inkremente disjunkter Zeitabschnitte sind unabhängig:
(t + h) (t) und (t0 + h0 ) (t0 ) sind unabhängig, falls ]t; t + h]\]t0 ; t0 + h0 ] = ;:
3. (P2) Die Wahrscheinlichkeitsverteilung der
(t) ist
P((t) = j ) = e
j
t (t) :
j!
Die mittlere Zahl (Erwartungswert) von Ankünften im Intervall
[0; t] ist
E (t) = t = Ankunftsrate mal Intervalllänge:
P((0) = 0) = 1.
Damit folgt aus (P1): (t + h) (t) und (t) sind unabhängig, denn (t) = (0+ t) (0).
Wie sind die Inkremente (t + h)
(t) verteilt?
4. Aus (P2) folgt:
5.
Zur Klärung vergleichen wir momenterzeugende Funktionen (momenterzeugende Funktionen identizieren Verteilungen):
E z (t) =
X
j 2N
zj e
t (t)j
j!
=e
t X (tz )j
j!
j 2N
E z (t+h) = e(t+h)(z
=e
t etz
= et(z
1) ;
(2.1)
1) :
Wegen der Unabhängigkeit der Inkremente ist
E z (t+h) = E z (t) z ((t+h)
Folglich ist
E z (t+h)
(t)
(t))
= e(t+h)(z
= E z (t) E z ((t+h)
1) t(z 1)
= eh(z
(t)) :
1) :
(2.2)
(2.3)
Vergleicht man (2.1) mit (2.3), erkennt man: in (2.1) hat man eine momenterzeugende
Funktion einer poissonverteilten Zufallsvariable mit Erwartungswert
30
t.
Somit liegt in
2.2 Der Poissonprozess ((t))t0
(2.3) eine momenterzeugende Funktion einer poissonverteilten Zufallsvariable mit Erwartungswert
h vor, kurz:
(t + h) (t) P (h)
Die Verteilung der Inkremente
(2.4)
(t + h) (t) hängt nicht von t ab.
Man sagt:
(P3) Die Inkremente
(t + h) (t) sind stationär.
6. Gibt es gleichzeitige Ankünfte? Nein!
(P4) Ankünfte geschehen nacheinander (orderliness) :
lim 1 P((t + h)
h!0 h
(t) 2) = 0:
Beweis
1 P((t + h)
lim
h!0 h
(t) 2)
1 (1 P((t + h) (t) = 0) P((t + h) (t) = 1))
= hlim
!0 h
1 (1
= hlim
!0 h
= hlim
(e
!0
e h
he h )
h + 2 he h
e h )
=0
7. (P5)
P((t + h) (t) = 1) h ;
genauer:
lim 1 P((t + h)
h!0 h
1 he
(t) = 1) = hlim
!0 h
h
= :
,: Poisson (1.Def.).
Für Minimalisten/Puristen:
(P1)+(P3)+(P4) ,: Poisson (2.Def.).
Es gilt nämlich: (P1)+(P2)+(P3)+(P4)+(P5) ) (P2) und (P3)+(P4) ) (P5).
8. Für Pragmatiker:
9.
(P1)+(P2)+(P3)+(P4)+(P5)
((t))t0 ist ein Ankunftsprozess. Die Ankunftsepochen 0 < t1 < t2 < : : : markieren seine
Sprungstellen. Wir studieren die Zwischenankunftszeiten (inter-arrival-times) . Wie sind
sie verteilt?
Zwischenzeiten:
1 = t1 ; 2 = t2 t1 ; : : : :
31
2 Warteschlangen
1 > t , (t) = 0, daher ist P(1 > t) = P((t) = 0) = e
t ,
d.h.
1 E ():
Wie ist
2 verteilt?
P(2 > t j 1 2 [x; x + h]) = P(2 > t ^ 1 2 [x; x + h])
P(1 2 [x; x + h])
P((
t + x + h) (x + h) = 0 ^ (x + h) (x) = 1)
=
P((x + h) (x) = 1)
= P((t + x + h) (x + h) = 0) P((x + h) (x) = 1)
P((x + h) (x) = 1)
= P((t + x + h) (x + h) = 0)
= e t :
Folglich ist
lim
P(2 > t j 1 2 [x; x + h]) = P(2 > t j 1 = x) = e
h#0
Davon liest man ab:
t :
2 ist unabhängig von 1 und verteilt wie 1 .
Vollständige Induktion liefert:
(j )j 2N
ist eine Familie unabhängiger, mit Parameter
exponentialverteilter Zuvallsvariabler.
10. 3.Denition eines Poissonprozesses: Ein Poissonprozess ist ein Ankunftsprozess mit exponentialverteilten Zwischenankunftszeiten.
(t) = n. Wie groÿ ist unter dieser Voraussetzung die Wahrscheinlichkeit für (u) = x,
wenn x 2 f0; 1; : : : ; ng und u 2 [0; t] ist?
11. Sei
Man hat
P((u) = x ^ (t) = n) = P((u) = x ^ (t) (u) = n x)
= P((u) = x) P((t) (u) = n x)
= e u (ux!) e (t u) (((tn ux)))!
x
und
P((t) = n) = e
32
t (t)n ;
n!
n x
2.2 Der Poissonprozess ((t))t0
also ist
x^(t)=n)
P((u) = x j (t) = n) = P((u)=
(t)=n
= nx u (t t u)
= nx ( ut )x (1 ux )n
x
n x
n
Das Resultat hängt nicht von
lichkeit, bei
Einzelerfolg
12.
n
u
t
Versuchen
x
ab. Man kann das Resultat interpretieren als Wahrschein-
x-mal
Erfolg zu haben, wenn die Wahrscheinlichkeit für einen
ist. Die Wahrscheinlichkeit
u
t
ist das Verhältnis der Intervall-Längen.
t1 ist die erste Ankunftsepoche. Wie ist sie verteilt, wenn (t) = 1 ist?
P(t1 u j (t) = 1) = P((u) = 1 j (t) = 1)
= 11 ( ut )1 (1 ut )0
= ut :
Interpretation: Unter der Bedingung, dass genau eine Ankunft in
Ankunftszeit gleichverteilt auf
[0; t].
[0; t] stattndet, ist die
2.2.2 Eine Anwendung
Beispiel 2.1
([Wol89], Example 2-7) Wir betrachten folgende Situation: Fahrgäste kom-
men an einem Bahnhof an. Ihre Ankünfte stellen einen Poissonprozess mit Ankunftsrate
dar. Am Bahnhof kommen Züge an. Ihre Ankünfte bilden einen Ankunftsprozess mit Zwi-
P(Xj t) = F (t)
Verteilungsfunktion. Es gelte E Xj = 1=.
schenankunftszeiten
Xj ,
wobei
ist.
F
ist eine nicht näher spezizierte
Gesucht ist der Anteil der Fahrgäste, deren Wartezeit einen Wert
y nicht überschreitet.
Mit anderen Worten: Wir wollen wissen, wie sich die verschiedenen Wartezeiten auf die
Fahrgäste verteilen.
Sei
Kj
die Anzahl der Fahrgäste, die in der Zeit
der Fahrgäste, deren Wartezeit
y
Xj
ankommen. Sei
Kj (y)
die Anzahl
nicht übersteigt.
Der bedingte Erwartungswert für
Kj
unter der Bedingung
Xj
ist
E(Kj j Xj ) = Xj :
Erwartungswerte bedingter Erwartungswerte stimmen mit den entsprechenden unbedingten Ertwartungswerten überein:
E Kj = E(E(Kj j Xj )) = E Xj = E Xj = :
33
2 Warteschlangen
Ist
Xj y, so ist Kj (y) = Kj
und
E(Kj (y) j Xj ) = Xj .
Ist
Xj > y , so ist Kj (y) Kj
und
E(Kj (y) j Xj ) = y.
Also ist
E(Kj (y) j Xj )) = min(Xj ; y) und damit
E(Kj (y)) = E min(Xj ; y) = Z
y
0
F c (x) dx;
denn
E min(Xj ; y) =
1
Z
0
P(min(Xj ; y) > x) dx =
Z
0
y
P(Xj > x) dx =
Nun können wir den Anteil der Fahrgäste mit Wartezeit
P
1j n Kj (y )
P
lim
n!1
1j n Kj
Z
y
0
F c (x) dx:
y berechnen:
1P
1j n Kj (y )
n
= nlim
P
1
!1 n 1j n Kj
P
limn!1 n1 1j n Kj (y)
=
P
limn!1 n1 1j n Kj
= E Kj (y)
E Kj
Z y
= F c (x) dx =: Fe (y):
0
Fe (y) steht für die Gleichgewichtsverteilung (equilibrium distribution)
von
F.
2.2.3 Faltung von Verteilungen
Wenn man die Verteilungen von Zufallsvariablen kennt, kennt man dann auch die Verteilungen
ihrer Summe? Antwort: Faltung der Verteilungen.
1. Uns interessiert z.B. die Verteilung von
X1 und X2 diskrete Werte annehmen: P(X1 = i) = ai 0
P
i2N ai = 1 und P(X2 = i) = fi 0 mit i2N fi = 1.
Nehmen wir zunächst an, dass
mit
34
P
Z2 = X1 + X2 .
2.2 Der Poissonprozess ((t))t0
P(Z2 t) =
X
=
X
=
X
=
X
=
X
k t
k t
k t
k t
k t
P(X2 = k; X1 + X2 t)
(2.5)
P(X2 = k; X1 t k)
(2.6)
P(X2 = k) P(X1 t k)
(2.7)
P(X2 = k)A(t k)
(2.8)
A(t k)fk
(2.9)
=: (A F )(t):
In (2.7) wurde die stochastische Unabhängigkeit von
(2.10) deniert die Faltung von
(2.10)
X1 und X2 benutzt.
A und F .
2. Überlegen Sie, warum folgende Gleichheit gilt:
(A F )(t) = (F A)(t):
3. Nehmen wir nun an, dass
Die Verteilungsfunktion
te(funktion) zu
Die Faltung
A
X1
und
X2
Werte in einem Kontinuum annehmen. Genauer:
sei dierenzierbar und es gelte
A. Analog sei f
die Dichte zu
F.
A0 (t) = a(t); a
ist die Dich-
A F = F A hat dann folgende Formen:
P(Z2 t) =
=
In diesem Fall hat
Z
t
0
Z
t
0
A(t u)f (u) du
(2.11)
F (t u)a(u) du:
(2.12)
A F = F A auch eine Dichte. Sie hat die Formen
d
dt P(Z2
t) =
=
Man bezeichnet sie mit
af
oder
Z
Z
t
0
0
t
a(t u)f (u) du
f (t u)a(u) du:
f a.
Bei der Dierentiation z.B. von (2.11) nach
t muss man nur den Integranden A(t u)f (u)
t dierenzieren; die Grenzen des Integrationsbereichs spielen nicht mit, weil auÿerhalb des Integrationsbereichs der Integrand sowieso 0 ist.
nach
35
2 Warteschlangen
2.2.4 n-fache Faltung
1.
F 2 (t) := (F F )(t)
F n (t) := (F (n 1) F )(t)
f n (t) := dtd F n (t):
2. Die Verteilung von
Zn = X1 + (X2 + : : : + Xn ) ist
P(Zn t) := A F (n 1) :
2.3 Der Satz von Little
1. Bezeichnungen
Cj ; j = 1; 2; : : :
tj ; j = 0; 1; : : :
Tj = tj +1 tj
Dj ; j = 1; 2; : : :
Sj ; j = 1; 2; : : :
Wj = Dj + Sj
tj + W j
Kunden (in der Reihenfolge ihres Eintreens)
Ankunftszeit des Kunden
Cj (0 = t0 t1 : : : < 1)
Zwischenzeiten
Zeit, die Kunde
Cj
auf Bedienung wartet (in queue )
Bedienzeit für Kunde
Cj
(in service )
Verweilzeit: Zeit, die Kunde
Austrittszeit des Kunden
Cj
Cj
im System verweilt
aus dem System
Alle Gröÿen sind zufällig.
2. Durchschnittszeiten
durchschnittliche Wartezeit (delay ) pro Kunde
lim 1
n!1 n
X
1j n
Dj =: d
durchschnittliche Bedienzeit pro Kunde
lim 1
n!1 n
X
1j n
Sj =: 1
( = Servicerate)
durchschnittliche Systemverweilzeit pro Kunde
lim 1
n!1 n
3. Kunden-Zählprozesse
36
X
1j n
Wj =: w = d + 1
2.3 Der Satz von Little
# Kunden in queue :
Nq (t) =
X
1j 1
[tj t < tj + Dj ]
# Kunden in service :
X
Ns (t) =
[tj + Dj t < tj + Wj ]
1j 1
# Kunden im System:
N (t) = Nq (t) + Ns (t) =
X
1j 1
[tj t < tj + Wj ]
4. Durchschnittswerte der Kunden-Zählprozesse
durchschnittliche # Kunden in queue :
lim 1
t!1 t
Z
t
0
Nq (u) du =: Q
durchschnittliche # Kunden in service :
Z
lim 1
t!1 t 0
t
Ns (u) du =: Ls
durchschnittliche # Kunden im System:
lim 1
t!1 t
Z
t
0
N (u) du =: L = Q + Ls
5. Ankunfts- und Austritts-Zählprozesse, Ankunftsrate
# Ankünfte bis zur Zeit
t:
# Austritte bis zur Zeit:
Ankunftsrate:
(t) = maxfj j tj tg
(t) = (t) N (t)
lim 1 (t) =: t!1 t
6. Der Satz von Little
Satz 2.1 (Satz von Little)
so gilt
Existieren die Grenzwerte
und w und sind sie endlich,
L = w :
37
2 Warteschlangen
Abbildung 2.1: Zum Beweis des Satzes von Little (aus [Wol89], p.235); in der dargestellten
Situation ist
N (t) = 2; N (T ) = 0; (T ) = 4.
Existiert der Grenzwert
d und ist er endlich, so gilt
Q = d :
Existiert der Grenzwert
1
und ist er endlich, so gilt
Ls = :
Beweis
Für
j
Kein echter Beweis, nur eine Ideenskizze anhand der in Abb. 2.1 gezeigten Situation.
= 1; 2; 3; 4 ist
Wj
X
1j (T )
R
R
= 01 [tj u < tj + Wj ] du = 0T [tj u < tj + Wj ] du, folglich
Wj
=
=
Z T
X
1j (T ) 0
Z T
X
0 1j (T )
[tj u < tj + Wj ] du
[tj u < tj + Wj ] du =
(2.13)
Z T
0
N (u) du :
(2.14)
Im allgemeinen Fall hat man
Z t
0
N (u) du =
wobei der Nachweis des
Aus (2.15) folgt
38
X
1j (t)
o(t)-Terms
Wj
+ o(t)
(2.15)
die Sache anspruchsvoll macht.
Wj
1 R t N (u) du = 1 (t) P
1
1j (t) (t) + t o(t) und mit t ! 1 die Little-Formel. t 0
t
2.4 M/M/1-Warteschlangen
2.4 M/M/1-Warteschlangen
2.4.1 Übergänge
1. Erklärung der Schreibweise M/M/1:
a) Erste Stelle: Wie sind die Ankunftszwischenzeiten
b) Zweite Stelle: Wie sind die Bedienzeiten
Sj
Tj
verteilt?
verteilt?
c) Dritte Stelle: Wieviele Bedienstellen (Server, Kanäle) gibt es?
d) M steht für exponentialverteilt.
2. Folgender Zusammenhang zwischen Poissonverteilung
P ()
und Exponentialverteilung
E () ist bereits bekannt: Ist ein Ankunftsprozess poissonverteilt mit Parameter , so sind
die Zwischenankunftszeiten exponentialvereilt mit dem selben Parameter
.
3. Ist ein Kunde im Service, dann ist seine Bedienzeit exonentialvereilt mit, sagen wir, Parameter
.
4. Wir betrachten den Prozess
(N (t))t0 , der die Anzahl der Kunden im System zur Zeit t
t sind folgende Übergänge möglich: Ein Sprung an der Stelle
t um um den Wert 1 nach oben (wenn zur Zeit t ein Kunde eintrit), oder ein Sprung an
der Stelle t um den Wert 1 nach unten (wenn ein Kunde das System zur Zeit t verlässt).
Es kann natürlich auch sein, dass zur Zeit t kein Sprung stattndet.
beschreibt. Zum Zeitpunkt
P(2; t) die Wahrscheinlichkeit, dass zwei oder mehr Übergänge im Zeitintervall [0; t]
stattnden. Es gelte limt!0 P(2; t)=t = 0. Mit dem Landausymbol klein o lässt sich diese
Eigenschaft auch schreiben als P(2; t)=t = o(t). (Wir haben schon eine ähnliche Eigenschaft
5. Sei
beim Poissonprozess kennengelernt (orderliness ).
6. Wie groÿ ist die Übergangsrate des M/M/1-Systems für den Übergang von
0 auf 1?
Es ist
P(N (t) = 0 j N (0) = 0) = e
t
und
P(N (t) = 0 j N (0) = 0) = 1 P(N (t) > 0 j N (0) = 0)
= 1 P(N (t) = 1 j N (0) = 0) P(N (t) 2 j N (0) = 0)
= 1 P(N (t) = 1 j N (0) = 0) + o(t);
39
2 Warteschlangen
folglich
lim P(N (t) > 0 j N (0) = 0)=t = tlim
(1 e
!0
t!0
t )=t = :
7. Wie groÿ ist die Übergangsrate des M/M/1-Systems für den Übergang von
fn 1; n + 1g?
n>0
auf
E ()-verteilt, die Zeit bis zum nächsten
Abwärtssprung E ()-verteilt. Somit ist die Zeit bis zum nächsten Übergang E ( + )-
Die Zeit bis zum nächsten Aufwärtssprung ist
verteilt:
P(kein Übergang in [0; t] j N (0) = n) = e
t e t
=e
(+)t ;
folglich
P(ein Übergang in [0; t] j N (0) = n) = 1 e
(+)t :
8. Wie groÿ die Wahrscheinlichkeit dafür, dass der nächste Übergang eine Ankunft ist (Voraussetzung ist wieder, dass
n > 0 Kunden im System sind)?
P(nächster Übergang ist eine Ankunft) = =( + ):
Beweis
limt!0 P(ein Übergang in [0; t] j N (0) = n)=t = + .
limt!0 P(eine Ankunft (und ein Übergang) in [0; t] j N (0) = n)=t = .
2.4.2 Gleichgewicht
Sei
pn = tlim
P(N (t) = n)
!1
der zeitliche Anteil des Zustands n Kunden sind im System.
Das System ist im Gleichgewicht, wenn diese
pn existieren und
P
n pn
= 1 ist.
1. Wenn das System im Gleichgewicht ist, bleibt es bei Übergängen mit den Raten
auch weiterhin im Gleichgewicht:
p0 = p1
( + )pn = pn 1 + pn+1
40
für
n > 0:
und 2.4 M/M/1-Warteschlangen
Diese Gleichungen sind äquivalent zu den scheinbar simpleren Gleichungen
p0 = p1
pn 1 = pn
Mit
= = hat man
Da sich die
für
n > 0:
pn = n p0 :
P
pn zu 1 summieren, ist p0 0n<1 n = 1. Folglich ist < 1 und p0 = 1 .
Bei Gleichgewicht ist also
pn = (1 )n :
2. Wenn das System im Gleichgewicht ist, ist
a) die durchschnittliche Anzahl der Kunden im System
L=
X
0n<1
npn =
=
=
X
0n<1
X
0n<1
X
0n<1
n(1 )n
nn
nn
= =(1 );
X
0n<1
X
nn+1
(n + 1)n+1 +
0n<1
X
0n<1
n+1
b) die durchschnittliche Anzahl der Kunden in der Warteschlange
Q=
X
(n 1)pn = =(1 )
1n<1
= =(1
= =(1
= =(1
= 2 =(1
X
1n<1
pn
) (1 p0 )
) (1 (1 ))
) ) = L;
c) die durchschnittliche Anzahl der Kunden im Service
Ls = L Q = =(1 ) 2 =(1 ) = ;
d) die durchschnittliche Verweilzeit
w = L= = (=(1 ))= = 1=( );
41
2 Warteschlangen
e) die durchschnittliche Wartezeit in der Warteschlange
d = Q= = L= = w = (=)=( ) = 1=( ) 1=:
3. Das System ist nicht im Gleichgewicht, wenn
ist. Es ist dann
a)
1,
b)
limt!1 P(N (t) = n) = 0 für alle n,
c)
limt!1 P(N (t) > n) = 1 für alle n,
d)
L = Q = 1 (die Warteschlange wächst unbeschränkt).
2.4.3 Beispiel
[Wol89] Ex. 5-4.
Ankunftsrate
= 80.
Serviceraten: Modell 1:
1 = 100, Modell 2: 2 = 200.
Mietkosten: Modell 1: 5 e pro Zeiteinheit, Modell 2: 9 e pro Zeiteinheit.
Kosten für Kunden-Verweilzeit: 1 e pro Zeiteinheit.
Welches Modell ist kostengünstiger?
Modell 1:
= 0:8, L = 0:8=(1 0:8) = 4,
Mietkosten plus Kosten für Verweilzeit pro Zeiteinheit: 5 e+4 e=9 e.
Modell 2:
= 0:4, L = 0:4=(1 0:4) = 2=3,
Mietkosten plus Kosten für Verweilzeit pro Zeiteinheit: 9 e+0.66 e=9.66 e.
Modell 1 ist kostengünstiger.
2.5 M/M/1 mit Warteschlangenbeschränkung
Bei diesem Modell kann eine Maximalzahl
l von Kunden nicht überschritten werden. Sind bereits
l Kunden im System und kommt ein weiterer Kunde an, so geht er verloren.
Setzen wir wieder
42
pn = tlim
P (N (t) = n)
!1
für
0 n l:
2.5 M/M/1 mit Warteschlangenbeschränkung
Diese Wahrscheinlichkeite müssen sich zu
1 addieren:
p0 + p1 + : : : + pn = 1:
(2.16)
2.5.1 Gleichgewicht
Der Gleichgewichtszustand wird durch
l Gleichungen beschrieben:
p0 = p1 ; p1 = p2 ; : : : ; pl 1 = pl :
Mit
= = gilt
Wegen (2.16) gilt
Im Falle
p0 = 0 p0 ; p1 = 1 p0 ; : : : ; pl = l p0 :
P
0nl pn
= p0
P
0nl n
= p0 (1 l+1 )=(1 ) = 1.
= ist = 1 und wir haben Gleichverteilung der Zustände:
p0 = p1 = : : : = pl = 1=(l + 1):
Im Falle
(2.17)
6= ist 6= 1 und wir haben
p0 = (1 )=(1 l+1 ):
Die mittlere Anzahl Kunden im System ist
L = p0
Dieser Wert kann explizit berechnet werden:
X
0nl
nn :
L = (1 (l + 1)l + ll+1 )=((1 )(1 k+1 )). Die
beste Referenz für Methoden zur expliziten Berechnung von endlichen Summen ist das Kapitel
2 (Sums) in [GKP89].
2.5.2 Ankunftsrate bedienter Kunden
Bei Warteschlangenbegrenzung gibt es neben der Ankunftsrate
nämlich die Ankunftsrate bedienter Kunden
s :
eine weitere Ankunftsrate,
s = (1 pl ):
Die durschnittliche Wartezeit von Kunden im System ist die durschnittliche Wartezeit bedienter
Kunden und errechnet sich aus
s :
w = L=s :
43
2 Warteschlangen
Wenn die Kosten für einen verlorenen Kunden C e betragen, betragen die Durchschnittskosten
pro Zeiteinheit
pl C:
2.6 Geburts-Todes-Prozesse
2.6.1 Abhängigkeiten der Raten
Geburts-Todes-Prozesse beschreiben populationsdynamische Phänomene. Wenn man sich Geburten als Ankünfte in einem System und Tode als verlassen eines Systems vorstellt, hat man
die Verbindung zu Warteschlangen. Eine Besonderheit von Geburts-Todes-Prozessen ist allerdings, dass Ankunfts- und Serviceraten nicht konstant sind. Sie können von der Anzahl der
vorhandenen Individuen abhängen.
2.6.2 Gleichgewichtsgleichungen
Die allgemeinen Gleichgewichtsgleichungen eines Geburts-Todes-Prozesses lauten
0 p0 = 1 p1 ; 1 p1 = 2 p2 ; : : : ; n 1 pn 1 = n pn ; : : :
Deniert man
bn =
so gilt
(2.18)
i 1
;
1in i
Y
pn = bn p0
und man hat die Alternativen
entweder ist
P
P
Im Falle
0n<1 pn
Im Falle
0n<1 bn
= 1.
P
0n<1 bn
< 1
X
0n<1
ist
bn < 1
oder
es gilt
P
p0 = 1= 0n<1 bn
und
X
0n<1
bn = 1:
pn = limt!1 P(N (t) = n)
mit
= 1 gibt es keine Lösung von (2.18) und pn = limt!1 P(N (t) = n) = 0.
1
2.7 M/M/ -Warteschlangen
Bei diesem Warteschlangenmodell sind immer genügend Bedienstellen vorhanden. Es kann sich
keine Warteschlange aufbauen, jeder kommt sofort dran.
44
2.7 M/M/1-Warteschlangen
Die Gleichgewichtsgleichungen sehen so aus:
pn 1 = npn
Man hat also
pn =
Da die Summe der
( )n
p
n! 0
für
für
n = 1; 2; : : : :
n = 0; 1; : : : :
pn den Wert 1 ergeben muss, muss
p0 = e
sein. Es gilt also
pn = e
d.h. die Anzahl der Kunden im System ist
=
n
= ( ) ;
n!
P (=)-verteilt.
45
Literaturverzeichnis
[GKP89] Ronald L. Graham, Donald E. Knuth, and Oren Patashnik. Concrete mathematics: a foun-
dation for computer science. Addison-Wesley Longman Publishing Co., Inc., Boston, MA,
USA, 1989.
[Nor97]
James R. Norris. Markov Chains. Cambridge University Press, rst edition, 1997.
[Str09]
Gilbert Strang. Introduction to Linear Algebra. Wellesley-Cambridge Press, fourth edition,
2009.
[Wol89]
Ronald W. Wol. Stochastic Modeling and the Theory of Queues. Prentice Hall, 1989.
47
Herunterladen