Warteschlangen

Werbung
Warteschlangentheorie
Frühjahrstrimester 2016
HSU Hamburg
Andreas Löpker
1. Einführung
1.1. Einfaches Warteschlangenmodell
Der Ankunftsprozess beschreibt die zufällige Ankunft von Kunden.
Ist die Bedienstation besetzt, so müssen die Kunden in der
Warteschlange warten.
An der Bedienstation ergibt sich für jeden Kunden, der bedient wird,
eine zufällige Bediendauer.
Nach der Bedienung verlassen die Kunden das System und bilden den
Abgangsprozess.
–1–
Kendall-Notation
Warteschlangen werden häufig durch vier Parameter A, B, c und K klassifiziert. Man verwendet die Kendall-Notation:
A/B/c/K
A beschreibt den Ankunftsprozess:
M=Exponentiell, G=Allgemein,
D=Deterministisch.
B beschreibt die Bedienungszeit:
M=Exponentiell, G=Allgemein,
D=Deterministisch.
c gibt Auskunft über die Anzahl der Bedienstationen (Server),
K entspricht der Warteschlangenkapazität.
–2–
In dieser Vorlesung:
M/M/1 - Exponentielle Ankünfte und Bedienzeiten, ein Server.
M/M/1/K - Exponentielle Ankünfte und Bedienzeiten, ein Server,
aber nur maximal K freie Plätze in der Warteschlange. Es bedarf einer
Vereinbarung, was mit abgewiesenen Kunden passiert.
M/M/∞ - Exponentielle Ankünfte und Bedienzeiten. Es ist immer ein
Server frei.
M/M/m - Exponentielle Ankünfte und Bedienzeiten, m Server.
M/M/m/m - Exponentielle Ankünfte und Bedienzeiten, m Server,
Kapazität m.
M/G/1 - Exponentielle Ankünfte und beliebige Bedienzeiten, ein
Server.
Netzwerke von Warteschlangen.
–3–
Meistens werden folgende Eigenschaften des Modells angenommen:
die Zwischenankunftszeiten besitzen dieselbe Verteilung und sind
voneinander unabhängig (kurz: i.i.d. engl. ”independent and identically
distributed”),
die Bedienzeiten sind ebenfalls i.i.d.,
die Zwischenankunftszeiten und die Bedienzeiten sind unabhängig
voneinander,
Kunden, die zuerst ankommen, werden auch zuerst bedient (FIFOoder FCFS-Disziplin).
–4–
1.2. Beispiele
Bankschalter
Kunden kommen zu zufälligen Zeitpunkten in die Bank und werden dort
an einem Schalter bedient. Vor dem Schalter bildet sich eine Warteschlange.
Befahren eines Streckenabschnitts durch Züge
Die Züge sind die Kunden, der Streckenabschnitt ist der Server. Die
Warteschlange wird durch die vorgelagerten Streckenabschnitte gebildet.
Produktionsanlagen
Die Kunden sind Produkte, die in einer Maschine bearbeitet werden
müssen.
–5–
1.3. Erweiterte Modelle
Andere Warteschlangendisziplinen
Es gibt verschiedene weitere Abfertigungsmechanismen:
LIFO (LCFS): Ein ankommender Kunde wird sofort bedient, die Bedienung des aktuellen Kunden wird unterbrochen.
SIRO: Sobald der Server ohne Arbeit ist wird zufällig ein Kunde aus
der Schlange ausgewählt.
Prioritäten: Kunden haben verschiedene Prioritäten und werden je
nach Priorität ausgewählt.
–6–
Mehrere Server
Parallel:
In Serie (Tandem-Warteschlange):
–7–
Netzwerke
In Warteschlangennetzen muss es Regeln für die Verteilung auf die verschiedenen Server geben (Routing).
–8–
1.4. Interessante Größen
Uns interessieren u.a. folgende Größen:
Verteilung (oder Erwartungswert) der Wartezeiten,
Verteilung (oder Erwartungswert) der Aufenthaltsdauer im System,
Verteilung (oder Erwartungswert) der Anzahl von Kunden in der
Warteschlange,
Verteilung (oder Erwartungswert) der Zeiten, in denen der Server
arbeitet (bzw. nicht arbeitet),
Auslastung des Systems,
Verhalten des Systems, wenn die Zeit gegen unendlich strebt.
–9–
2. Stochastik
2.1. Zufallsvariablen und ihre Verteilung
Zufallsvariablen
Zufallsvariablen sind mathematische Größen, die einen zufälligen
Zahlenwert annehmen.
Es gibt diskrete Zufallsvariablen, die nur abzählbar viele Werte
x1 , x2 , . . . annehmen und stetige Zufallsvariablen mit Werten z.B. in
einem Intervall [a, b].
– 10 –
Beispiel: Diskrete Zufallsvariable
Die Augenzahl beim Würfeln ist eine diskrete Zufallsvariable, denn sie
nimmt nur die Werte 1 bis 6 an.
Beispiel: Diskrete Zufallsvariable
Die Anzahl von Kunden in der Wartschlange ist eine weitere diskrete
Zufallsvariable mit Werten in der Menge N ∪ {0} = {0, 1, 2, . . .}.
Beispiel: Stetige Zufallsvariable
Die Ankunftszeit eines Kunden kann durch eine stetige Zufallsvariable
beschrieben werden.
– 11 –
Verteilung
Zufallsvariablen werden durch ihre Verteilung beschrieben. Das geschieht meistens, indem man ihre Verteilungsfunktion angibt:
F (x) = P(X ≤ x).
Die Funktion F ist nicht-fallend, rechtsseitig stetig, hat Werte im
Intervall [0, 1] und es gilt
lim F (x) = 0,
x→−∞
– 12 –
lim F (x) = 1.
x→∞
Wahrscheinlichkeitsfunktion
Bei diskreten Zufallsvariablen kann man die Verteilung am besten
durch Angabe der Wahrscheinlichkeitsfunktion
f (xk ) = P(X = xk )
angeben.
Beispiel
Beim Würfeln ist die Augenzahl eine Zufallsvariable X mit
1
1
1
f (1) = , f (2) = , f (3) = ,
6
6
6
1
1
1
f (4) = , f (5) = , f (6) = .
6
6
6
– 13 –
Verteilungsfunktion und Wahrscheinlichkeit
Die Verteilungsfunktion F (x) einer diskreten Zufallsvariable X besitzt
Sprünge der Höhe f (xi ) an den Stellen xi :
Es gilt
P(X ∈ (a, b]) = F (b) − F (a) =
X
xi ∈[a,b]
– 14 –
f (xi ).
Dichtefunktion
Bei stetigen Zufallsvariablen beschreibt man die Verteilung durch die
Angabe der Verteilungsfunktion F (x) oder ihrer Ableitung, der Dichtefunktion:
d
F (x).
f (x) =
dx
Für stetige Zufallsvariablen gilt
P X ∈ (a, b] = F (b) − F (a) =
Z
f (u) du.
a
– 15 –
b
2.2. Erwartungswerte
Erwartungswert
Als Erwartungswert E (X ) bezeichnet man eine theoretische Größe,
die eine Art Mittelwert der Zufallsvariablen angibt.
Für eine diskrete Zufallsvariable ist
X
E (X ) =
xi · f (xi ).
xi
Für eine stetige Zufallsvariable ist
Z ∞
E (X ) =
x · f (x) dx
−∞
– 16 –
Allgemeine Erwartungswerte
Ist g (x) eine Funktion, so kann man den Erwartungswert von E (g (X ))
wie folgt berechnen:
Für eine diskrete Zufallsvariable ist
X
E (g (X )) =
g (xi ) · f (xi ).
xi
Für eine diskrete Zufallsvariable ist
Z ∞
g (x) · f (x) dx
E (g (X )) =
−∞
– 17 –
Varianz
Die Varianz ist ein Maß für die Streuung einer Zufallsvariablen. Sie
ergibt sich als Erwartungswert des quadratischen Abstands vom Erwartungswert:
Var(X ) = E ((X − E (X ))2 ).
Alternative Berechnungsmethode:
Var(X ) = E (X 2 ) − E (X )2 .
Beispiel: Augenzahl
Es ist
E (X 2 ) =
1 2 1 2
1
91
1 + 2 + . . . + 62 =
.
6
6
6
6
Also ist
Var(X ) = E (X 2 ) − E (X )2 =
– 18 –
35
91 49
−
=
.
6
4
12
2.3. Das Gesetz der großen Zahlen
Ein Würfel wird 10 mal geworfen. Die jeweilige Augenzahl Xk und der
aktuellen Mittelwert Mk = (X1 + X2 + . . . + Xk )/k werden notiert:
i
1
2
3
4
5
6
7
8
9
10
Xi
5
2
5
2
4
4
3
2
6
4
Mi
5
7/2
4
7/2
18/5
11/3
25/7
27/8
11/3
37/10
– 19 –
Bei 100 Würfen ergibt sich:
(Starkes) Gesetz der großen Zahlen
Sind die Zufallsvariablen X1 , X2 , . . . unabhängig und identisch verteilt
mit E (|X1 |) < ∞, so gilt
X1 + X2 + . . . + Xn
P lim
= E (X1 ) = 1.
n→∞
n
– 20 –
2.4. Wichtige Verteilungen
Bernoulli-Verteilung
X nimmt nur die zwei Werte 0 und 1 an (x1 = 0, x2 = 1).
P(X = 1) = p, P(X = 0) = 1 − p, p ∈ [0, 1], d.h. für die
Wahrscheinlichkeitsfunktion gilt f (x1 ) = 1 − p und f (x2 ) = p.
E (X ) = 1 · p + 0 · (1 − p) = p, k = 0, 1, . . . , n.
Var(X ) = p − p 2 = p(1 − p).
Ein Bernoulli-Experiment ist ein Zufallsexperiment, das nur zwei
Ausgänge (Erfolg und Misserfolg) kennt.
– 21 –
Binomialverteilung
X beschreibt die Anzahl von Versuchen bei n Bernoulli-Experimenten
bei denen Erfolg eintritt.
P(X = k) = kn p k (1 − p)n−k , k = 0, 1, . . . , n
E (X ) = np.
Var(X ) = np(1 − p).
– 22 –
Beispiel
Ein Würfel wird 5 mal geworfen. Es sei X die Anzahl der Würfe mit
einer Augenzahl > 4. Es ist p = 1/3 und 1 − p = 2/3 und damit
5 0
P(X = 0) =
p (1 − p)5 = (2/3)5 ,
0
5 1
P(X = 1) =
p (1 − p)4 = 5(1/3)(2/3)4 ,
1
5 2
P(X = 2) =
p (1 − p)3 = 10(1/3)2 (2/3)3 ,
2
5 3
P(X = 3) =
p (1 − p)2 = 10(1/3)3 (2/3)2 ,
3
5 4
P(X = 4) =
p (1 − p)1 = 5(1/3)4 (2/3)1 ,
4
5 5
P(X = 5) =
p (1 − p)0 = (1/3)5 .
5
– 23 –
Geometrische Verteilung vom Typ I
X beschreibt, nach wie vielen Bernoulli-Experimenten zum ersten mal
Erfolg auftritt.
P(X = k) = (1 − p)k−1 p, k = 1, 2, 3, . . .
E (X ) = p1 .
Var(X ) =
1−p
p2 .
Geometrische Verteilung vom Typ II
X beschreibt die Fehlversuche bis zum ersten Erfolg bei BernoulliExperimenten.
P(X = k) = (1 − p)k p, k = 0, 1, 2, 3, . . .
E (X ) =
1−p
p .
Var(X ) =
1−p
p2 .
– 24 –
Beispiel
Wie lange muss man im Durchschnitt würfeln, bis man eine 6 würfelt?
Es sei X die Anzahl der Würfe, bis eine Augenzahl 6 gewürfelt wird.
Es ist p =
1
6
und daher
E (X ) =
1
= 6.
p
– 25 –
Gleichverteilung
X nimmt Werte in einem Intervall [a, b] an. Dabei ist die Wahrscheinlichkeit in einem Teilintervall I zu liegen, proportional zur Intervalllänge.
F (x) = P(X ≤ x) =
f (x) =
1
b−a ,
E (X ) =
x−a
b−a ,
x ∈ [a, b],
x ∈ [a, b],
a+b
2 ,
Var(X ) =
(b−a)2
12 .
– 26 –
2.5. Die Exponential- und Poisson-Verteilung
Die Exponentialverteilung
Eine Zufallsvariable X ist exponentiell verteilt mit Parameter λ > 0,
wenn F die Exponentialverteilung ist:
(
0
;x < 0
F (x) = P(X ≤ x) =
−λx
1−e
;x ≥ 0
Dichtefunktion:
d
f (x) =
F (x) =
dx
(
– 27 –
0
λe
;x < 0
−λx
;x ≥ 0
Für den Erwartungswert ergibt sich
Z ∞
Z ∞
E (X ) =
xf (x) dx =
xλe −λx dx
0
0
Z ∞
−e −λx ∞
1
−λx
−λx ∞
+
e
dx
=
− xe
=
]0 = .
0
λ
λ
0
Für die Varianz erhält man durch eine ähnliche Rechnung
Var(X ) = 1/λ2 .
Wir berechnen die Wahrscheinlichkeit, dass X größer ist als x + y ,
gegeben, dass X größer ist als y . Wir benötigen dazu die Formel für die
bedingte Wahrscheinlichkeit:
Bedingte Wahrscheinlichkeit
Für zwei Ereignisse A und B mit P(B) > 0 gilt:
P(A|B) =
P(A und B)
.
P(B)
– 28 –
Dann gilt:
P(X > x + y |X > y )
=
=
P(X > x + y , X > y )
P(X > y )
P(X > x + y )
P(X > y )
=
1 − (1 − e −λ(x+y ) )
1 − (1 − e −λy )
=
e −λ(x+y )
e −λx e −λy
=
= e −λx .
−λy
e
e −λy
Gedächtnislosigkeit der Exponentialverteilung
Besitzt X eine exponentielle Verteilung mit Parameter λ, so ist für jedes y > 0 die Verteilung von (X − y ), gegeben X > y , erneut eine
Exponentialverteilung mit demselben Parameter λ:
P(X > x + y |X > y ) = e −λx .
– 29 –
Beispiel
Die Ankunftszeit T eines Kunden sei exponentiell verteilt mit Erwartungswert 10 Minuten (λ = 1/10). Angenommen es kam in den ersten
15 Minuten kein Kunde an.
Die Wahrscheinlichkeit, auf den ersten Kunden noch mindestens weitere
8 Minuten warten zu müssen ist
P(T > 23|T > 15) = P(T > 8)
1
= e − 10 ·8
= e −0.8
≈ 0.45,
unabhängig von den bereits vergangenen 15 Minuten.
– 30 –
Poisson-Verteilung
Interpretation: Siehe Abschnitt ”Der Ankunftsprozess und die Bedienzeiten”.
k
P(X = k) = e −c ck! , k = 0, 1, 2, . . .
E (X ) = c.
Var(X ) = c.
Beispiel
Ist X Poisson-verteilt mit Parameter c = 3, dann gilt
0
P(X = 0) = e −3 30! ≈ 0.05,
1
P(X = 1) = e −3 31! ≈ 0.15,
2
P(X = 2) = e −3 32!
..
..
.
.
– 31 –
≈ 0.22,
..
.
Zusammenfassung – Abschnitt 2
Diskrete und stetige Zufallsvariablen und ihre Verteilungsfunktionen.
Erwartungswerte, bedingte Wahrscheinlichkeit.
Gesetz der großen Zahlen.
Verteilungen: Bernoulli-Verteilung, Binomialverteilung, Geometrische
Verteilung, Gleichverteilung
Wichtig: Exponentialverteilung und Poisson-Verteilung.
– 32 –
3. Der Ankunftsprozess und die Bedienzeiten
3.1. Die Ankunfts- und Zwischenankunftszeiten
Der Ankunftsprozess beschreibt die zufälligen Ankünfte der Kunden.
Die Kunden erreichen das System zu den Ankunftszeitpunkten
T1 , T2 , T3 , . . .. Der k-te Kunde betritt das System zum Zeitpunkt Tk .
Wir setzen T0 = 0.
– 33 –
Die Zwischenankunftszeiten
A1 = T1 − T0
A2 = T2 − T1
..
..
.
.
sind positive unabhängige Zufallsvariablen mit identischer Verteilung.
Der Wert λ =
1
E (Ai )
heißt Ankunftsrate.
– 34 –
Beispiel (Amt)
In einem Bürgeramt werden Wartenummern für die Besucher ausgegeben. Die Ankunftszeiten der ersten zehn Besucher registiert:
Kunde Nr. k:
Ankunftszeit Tk :
1
26
2
67
3
76
4
83
5
125
– 35 –
6
129
7
203
8
211
9
244
10
248
Beispiel (Amt)
Es ergeben sich folgende Zwischenankunftszeiten:
Kunde Nr. k:
Zwischenankunftszeit Ak :
1
26
2
41
3
9
4
7
5
42
6
4
7
74
Geschätzte Ankunftsrate:
λ̃ = 1/24.8 ≈ 0.04 Bürger pro Minute
oder
λ̃ = 60/24.8 = 2.42 Bürger pro Stunde.
– 36 –
8
8
9
33
10
4
Beispiel (Amt)
Kunde Nr. k:
Zwischenankunftszeit Ak :
1
26
2
41
3
9
4
7
5
42
6
4
7
74
8
8
9
33
10
4
Empirische Verteilungsfunktion der Zwischenankunftszeiten und exponentielle Verteilungsfunktion mit λ = 0.04.
– 37 –
3.2. Der Erneuerungsprozess der Ankünfte
Der Zählprozess N(t), der die Ankünfte bis zum Zeitpunkt t zählt,
heißt Erneuerungsprozess.
Den Erwartungswert
U(t) = E (N(t))
nennt man Erneuerungsfunktion.
Die Erneuerungsfunktion ist in den meisten Fällen nur schwer explizit
anzugeben. Es ist im allgemeinen U(t) 6= λ · t.
– 38 –
Beispiel (Amt)
k:
Tk :
Ak :
1
26
26
2
67
41
3
76
9
4
83
7
5
125
42
6
129
4
– 39 –
7
203
74
8
211
8
9
244
33
10
248
4
Beispiel (Amt)
Es werden jetzt weitere zehn Besucherankünfte registiert.
– 40 –
Beispiel (Amt)
100 Ankünfte:
Vermutung: N(t) ≈ λt.
– 41 –
Erneuerungssatz
Es gilt
P
N(t)
= λ = 1.
t→∞
t
lim
und
U(t)
1
=
= λ.
t→∞
t
E (Ai )
lim
Es gilt also annähernd
U(t) ≈ λt
Erwartete Kundenzahl ≈ Ankunftsrate × Zeit.
– 42 –
3.3. Markovsche Ankünfte / Poisson-Prozess
Besitzen die Zwischenankunftszeiten eine exponentielle Verteilung, so
heißt die Warteschlange Markovsch (Kendall-Notation M/ · /·).
Es gilt also
P(Ai ≤ t) = 1 − e −λt ,
und E (Ai ) =
t≥0
1
λ.
In diesem Fall besitzt der Zählprozess N(t) eine Poissonverteilung mit
Parameter λt, d.h.
P(N(t) = k) = e −λt
(λt)k
,
k!
k = 0, 1, 2, . . . .
N(t) heißt dann Poisson-Prozess mit Intensität λ.
Die Erneuerungsfunktion hat dann eine besonders einfache Form:
U(t) = E (N(t)) = λt.
– 43 –
Beobachtung:
Der erste Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < 1 ist.
Der zweite Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < 2 ist.
Der nte Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < n ist.
Es ergibt sich:
Duale Beziehung zwischen Tk und N(t)
Tn > t
⇔
N(t) < n
Es folgt also
P(Tn > t) = P(N(t) < n) = e −λx
n−1
X
(λt)k
k=0
– 44 –
k!
.
Verteilung der Ankunftszeiten beim Poisson-Prozess
Die Ankunftszeiten T1 , T2 , . . . besitzen eine Erlang-Verteilung, d.h.
P(Tn ≤ t) = 1 − e −λx
n−1
X
(λt)k
k=0
k!
Die zugehörige Dichtefunktion ist
f (t) =
(λt)n−1 −λt
λe
,
(n − 1)!
Es gilt
E (Tk ) =
– 45 –
k
.
λ
t ≥ 0.
.
Simulation: Poisson-Prozess
λ = 3, t ∈ (0, 2):
λ = 3, t ∈ (0, 5):
– 46 –
Simulation: Poisson-Prozess
λ = 3, t ∈ (0, 20):
λ = 3, t ∈ (0, 100):
– 47 –
3.4. Bedienzeiten
Der Zeitraum, für den sich ein Kunde in Bedienung befindet heißt
Bedienzeit. Sie hängt, bei konstanter Bearbeitungsgeschwindigkeit,
von der Arbeitsmenge ab, die der Kunde verlangt.
Wir nehmen wieder an, dass die Bedienzeiten B1 , B2 , . . . i.i.d. und
unabhängig von den Ankunftszeiten sind.
Die Bedienrate
Die Bedienrate ist µ = 1/E (B1 ).
Angenommen die Warteschlange wäre immer besetzt, dann bilden
die Abgänge der Kunden einen Erneuerungsprozess. Wenn M(t) die
abgehenden Kunden zählt, dann gilt nach dem Erneuerungssatz
E (M(t))
1
lim
=
= µ.
t→∞
t
E (B1 )
Die Bedienrate gibt also (langfristig) die mittlere Zahl von bedienten
Kunden pro Zeiteinheit in einem voll ausgelasteten System an.
– 48 –
Beispiel
Die Bedienzeiten an einem Schalter besitzen die Verteilungsfunktion
(
0
;x < 1
F (x) = P(B1 ≤ x) =
.
2
1 − 1/x
;x ≥ 1
Dann ist die Dichtefunktion gegeben durch
(
0
;x < 1
f (x) =
.
2/x 3 ; x ≥ 1
Daraus ergibt sich der Erwartungswert
∞
Z ∞
2
1
x 3 dx = 2
E (B1 ) =
= 2.
x
x
1
1
Die Bedienrate ist dann
µ = 1/E (B1 ) = 1/2.
Langfristig werden etwa 0.5 Kunden pro Zeiteinheit bedient, vorausgesetzt die Warteschlange ist immer voll.
– 49 –
3.5. Exponentielle Bedienzeiten
Häufig geht man davon aus, dass die Bedienzeiten eine Exponentielle
Verteilung besitzen, d.h.
P(Bi ≤ x) = 1 − e −µx ,
x ≥ 0.
Die Bedienrate ist dann offenbar
1
= µ,
E (B1 )
d.h. langfristig werden etwa µ Kunden pro Zeiteinheit bedient,
vorausgesetzt es kommen immer genug Kunden an.
Wegen der Gedächtnislosigkeit der Exponentialverteilung ist bei
besetztem Server die Restbedienzeit zum Zeitpunkt t wieder
exponentiell verteilt mit Parameter µ:
P(B1 ≤ t + s|B1 > t) = P(B1 ≤ s) = 1 − e −µs .
– 50 –
Zusammenfassung – Abschnitt 3
Ankunftzeitpunkte und Zwischenankunftszeiten, Ankunftsrate.
Poisson-Prozess: Verteilung von N(t) und Tk .
Bedienzeiten und Bedienrate.
Speziell: Exponentielle Bedienzeiten. Restbedienzeit.
– 51 –
4. Die M/M/1-Warteschlange
4.1. Definition
Wir betrachten ein Warteschlangenmodell mit einem Server und einer
Warteschlange mit unbegrenzter Kapazität.
Ankunftsprozess: Poisson-Prozess mit Rate λ.
Bedienzeiten: Exponentiell mit Bedienrate µ.
– 52 –
4.2. Die Anzahl der Kunden im System
Es sei Xt die Anzahl der Kunden, die sich zum Zeitpunkt t im System
befinden. Xt umfasst alle Kunden in der Warteschlange und ggf. den
Kunden, der gerade in Bedienung ist.
(Xt )t≥0 ist ein sog. stochastischer Prozess.
Da Xt zu jedem Zeitpunkt t eine Zufallsvariable ist, macht es Sinn zu
fragen,
wie die Verteilung von Xt aussieht oder
wie viele Kunden im Mittel in der Warteschlange sind.
Es ist im allgemeinen sehr schwer diese zeitabhängigen Größen zu
bestimmen.
– 53 –
Beispiel
An einer Bedienstation kommen Kunden zu folgenden Zeiten mit entsprechenden Bedienzeiten an:
1
2
3
4
5
6
Ankunftszeit
15:03
15:08
15:11
15:13
15:21
15:23
Bedienzeit (min)
6
6
1
2
5
2
– 54 –
Beispiel (Forts.)
Es bezeichne Dk die Abgangszeit des kten Kunden.
k
1
2
3
4
5
6
Tk
3
8
11
13
21
23
Ak
Beginn der
Bk
Dk
3
5
3
2
8
2
Bedienung
3
9
15
16
21
26
6
6
1
2
5
2
9
15
16
18
26
28
Anzahl Xt der Kunden im System:
– 55 –
Die Zeiten, in denen der Server ruht, heissen Leerzeiten (idle periods).
Die Zeiten, in denen der Server mit einem Kunden besetzt ist, heissen
Belegtzeiten (busy periods).
Beispiel
– 56 –
Wir wollen die Verteilung
πk (t) = P(Xt = k)
der Kundenzahl bestimmen.
Idee: Wir schauen uns πk (t + h) für ein sehr kleines t > 0 an.
Die Zwischenankunftszeiten sind exponentiell mit Parameter λ. Dann
kann man zeigen:
P(keine Ankunft im Intervall [t, t + h]) ≈ 1 − λh.
P(eine Ankunft im Intervall [t, t + h]) ≈ λh.
P(mehr als eine Ankunft im Intervall [t, t + h]) ≈ 0
P(kein Abgang im Intervall [t, t + h]) ≈ 1 − µh
P(ein Abgang im Intervall [t, t + h]) ≈ µh,
P(mehr als ein Abgang im Intervall [t, t + h]) ≈ 0
P(weder Abgänge noch Ankünfte im Intervall [t, t + h])
≈ 1 − (λ + µ)h.
– 57 –
Dann ergibt sich
πk (t + h) ≈ (1 − (λ + µ)h)πk (t)
+λhπk−1 (t) + µhπk+1 (t)
⇔
⇔
πk (t + h) − πk (t) ≈ −(λ + µ)hπk (t) + λhπk−1 (t) + µhπk+1 (t)
πk (t + h) − πk (t)
≈ −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t)
h
⇒ πk0 (t) = −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t).
Mit dem gleichen Argument folgt
π00 (t) = −λπ0 (t) + µπ1 (t)
P∞
Zusätzlich gilt auch noch k=0 πk = 1.
Dieses System von Differentialgleichungen ist sehr schwer zu lösen.
Daher betrachten wir den Prozess Xt für t → ∞ und untersuchen die
Grenzverteilung
πk = lim πk (t),
t→∞
vorausgesetzt der Grenzwert existiert.
– 58 –
4.3. Grenzverteilung / Stationärer Zustand
Die Verteilung πk (t) des Prozesses Xt konvergiert nicht in jedem Fall
gegen eine Grenzverteilung πk .
Es können drei Fälle auftreten:
Transienter Fall: Für jedes K > 0 gilt Xt ∈ [0, K ] nur für einen
endlichen Zeitraum. Es gilt P(Xt → ∞) = 1.
Null-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ]
unendlich oft wieder zurück, die Rückkehrzeiten haben aber einen
unendlichen Erwartungswert.
Positiv-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ]
unendlich oft wieder zurück, die Rückkehrzeiten besitzen einen
endlichen Erwartungswert.
– 59 –
Grenzverteilung / Stationärer Zustand
Im positiv rekurrenten Fall konvergiert die Verteilung der Kundenzahl
πk (t) für t → ∞ gegen eine Grenzverteilung πk .
Es sei X eine Zufallsvariable mit der Verteilung π, d.h.
P(X = k) = πk .
Starten wir die Warteschlange nicht leer, sondern so, dass πk (0) = πk
ist, dann bleibt die Verteilung von t unabhängig, d.h.
P(Xt = k) = πk ,
für jedes t.
Wir sagen dann, dass sich die Warteschlange im stationären Zustand
oder im Gleichgewichtszustand (auch Steady State) befindet.
– 60 –
Wann ist die Warteschlange positiv rekurrent?
Wir verwenden zur Klassifizierung die Verkehrsintensität (”rho”)
λ
%= .
µ
Rekurrenz und Transienz
Für % > 1 (λ < µ) ist Xt transient.
Für % = 1 (λ = µ) ist Xt null-rekurrent.
Für % < 1 (λ > µ) ist Xt positiv rekurrent. In diesem Fall besitzt das
System eine eindeutige Grenzverteilung
lim πk (t) = πk .
t→∞
– 61 –
Transienter Fall: λ = 3, µ = 2
Null-Rekurrenter Fall: λ = 2, µ = 2
– 62 –
Positiv-rekurrenter Fall: λ = 1, µ = 2
– 63 –
Wir haben schon gezeigt:
πk0 (t) = −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t)
π00 (t) = −λπ0 (t) + µπ1 (t)
Wir können annehmen, dass im positiv rekurrenten Fall πk0 (t) → 0 für
t → ∞ gilt. Daher ergibt sich
0 = −(λ + µ)πk + λπk−1 + µπk+1 ,
0 = −λπ0 + µπ1 .
Gleichgewichtsgleichungen
Es gilt
µπ1 = λπ0 ,
(λ + µ)πk = λπk−1 + µπk+1 .
und zusätzlich
∞
X
πk = 1.
k=0
– 64 –
Wie löst man die Gleichgewichtsgleichungen?
λπ0 = µπ1 ,
(λ + µ)πk = λπk−1 + µπk+1 .
Es gilt
π1
=
π2
=
λ
π0 = %π0
µ
(% + 1)π1 − %π0 = (% + 1)%π0 − %π0 = %2 π0
π3 = %3 π0
..
..
.
.
Vermutung: πk = %k π0 . Einsetzen bestätigt die Vermutung.
– 65 –
Da
P∞
k=0
πk = 1 gelten muss, ist
1=
∞
X
%k π0 = π0
k=0
1
1−%
Es folgt: π0 = 1 − %.
Grenzverteilung M/M/1
Die Anzahl der Kunden hat im stationären Zustand folgende Grenzverteilung (geometrische Verteilung Typ II, p = 1 − %):
πk = P(X = k) = 1 − % %k , k ≥ 0
Die erwartete Anzahl von Kunden ist dann:
%
.
E (X ) =
1−%
Die Wahrscheinlichkeit, dass der Server besetzt ist (sog. Auslastung),
beträgt
1 − π0 = %.
– 66 –
Beispiel
In einer M/M/1-Warteschlange betrage die mittlere Zwischenankunftszeit 10 Minuten. Jeder Kunde verlangt eine Bearbeitungszeit von durchschnittlich 9 Minuten.
Die Auslastung beträgt also
λ
1/10
%= =
= 0.9 = 90%.
µ
1/9
Die erwartete Anzahl von Kunden im System ist
0.9
E (X ) =
= 9.
1 − 0.9
Die Wahrscheinlichkeit 10 Kunden im System vorzufinden, ist
P(X = 10) = (1 − %)%10 = 0.1 · 0.95 ≈ 0.035 = 3.5%.
– 67 –
4.4. PASTA
Zur Erinnerung: Wenn die Warteschlange mit der Startverteilung π
gestartet wird (P(X0 = k) = πK ) dann gilt
P(Xt = k) = πk ,
d.h. das System ist stationär und befindet sich im
Gleichgewichtszustand.
Angenommen T ist ein zufälliger Zeitpunkt. Gilt dann auch
P(XT = k) = πk ?
Gegenbeispiel
Es sei T der erste Zeitpunkt, an dem Xt = 6 ist.
Dann ist trivialerweise
P(XT = 6) = 1 6= π6 .
– 68 –
Bei M/ · /1-Warteschlangen gilt aber das
PASTA-Prinzip (Poisson-Arrival-See-Time-Averages)
Eine Warteschlange besitze exponentiellen Zwischenankunftszeiten und
befinde sich im stationären Zustand.
Ist Tn die Ankunftszeit des nten Kunden, so gilt
P(XTn − = k) = πk .
Ein ankommender Kunde das System im Gleichgewicht, d.h. die Verteilung der Anzahl der Kunden zum Ankunftszeitpunkt hat dieselbe Verteilung wie X (der gerade ankommende Kunde wird nicht mitgezählt).
– 69 –
4.5. Die Warte- und Aufenthaltszeit im System
Wir nehmen an, das System befinde sich im Gleichgewicht und
definieren:
die Wartezeit Wn des n-ten Kunden in der Warteschlange,
die totale Aufenthaltszeit Sn des n-ten Kunden im System.
Es gilt offenbar
Sn = Wn + Bn .
– 70 –
Es seien Xn und Rn die Anzahl der Kunden im System und die
Restbedienzeit des Kunden in der Bedienstation zum Zeitpunkt der
Ankunft des n-Ten Kunden.
Es gilt:
Wn
=
(
0
Rn +
; Xn = 0
Pn−1
k=n−Xn +1
Bk
; Xn > 0
Die Wartezeit W hat dieselbe Verteilung, wie eine zufällige Summe von
Xn unabhängigen exponentiellen Zufallsvariablen, wobei Xn unabhängig
von diesen Zufallsvariablen ist.
– 71 –
Es seien C1 , C2 , . . . , Cn unabhängige Zufallsvariablen mit exponentieller
Verteilung mit Erwartungswert 1/µ, unabhängig von Xn .
Dann gilt
d
Wn ∼
Xn
X
Ck
k=1
(eine leere Summe wird als 0 interpretiert).
Damit folgt
P(Wn ≤ x)
=
P(Xn = 0)
+P(Xn = 1 und C1 ≤ x)
+P(Xn = 2 und C1 + C2 ≤ x) + . . .
=
P(Xn = 0)
+P(Xn = 1)P(C1 ≤ x)
+P(Xn = 2)P(C1 + C2 ≤ x) + . . .
– 72 –
P(Wn ≤ x) = P(Xn = 0) +
∞
X
k
X
P(Xn = k)P(
Cj ≤ x)
j=1
k=1
Einsetzen der bekannten Formeln und Verwendung von PASTA ergibt:
∞
k−1
X
X
(µx)j P(Wn ≤ x) = 1 − % +
(1 − %)%k 1 − e −µx
j!
j=0
k=1
|
{z
}
Erlang-Verteilung
Also gilt
P(Wn ≤ x)
=
1−
∞
k−1
X
X
(µx)j
(1 − %)%k e −µx
j!
j=0
k=1
= 1 − (1 − %)e −µx
∞
X
j=1
= 1 − %e −µx
∞
X
(λx)j
j=1
– 73 –
j!
∞
(µx)j X k
%
j!
k=j+1
= 1 − %e −x(µ−λ) ,
x ≥ 0.
Für die Aufenthaltszeit Sn = Wn + Bn erhalten wir genauso:
P(Sn ≤ x)
= P(Xn = 0 und C1 ≤ x)
+P(Xn = 1 und C1 + C2 ≤ x)
+P(Xn = 2 und C1 + C2 + C3 ≤ x)
+...
∞
k+1
X
X
=
P(Xn = k)P(
Cj ≤ x)
j=1
k=0
=
∞
X
(1 − %)%k 1 − e −µx
j=0
k=0
|
=
...
k
X
(µx)j {z
j!
Erlang-Verteilung
}
= 1 − e −(µ+λ)x .
Die Aufenthaltszeit Sn besitzt also eine exponentielle Verteilung mit
Erwartungswert 1/(µ − λ).
– 74 –
Verteilung der Warte- und Aufenthaltszeit
In der M/M/1 Warteschlange gilt im stationären Zustand
P(Wn ≤ x) = 1 − %e −x(µ−λ) ,
x ≥ 0.
und
P(Sn ≤ x) = 1 − e −x(µ−λ) ,
Für die Erwartungswerte gilt
E (Wn ) =
%
µ−λ
E (Sn ) =
1
.
µ−λ
und
– 75 –
x ≥ 0.
Mittelwertmethode
Mit PASTA erhalten wir
E (Sn ) = E (Xn ) E (B) + E (Bn )
| {z } | {z } | {z }
Kunden
im
System
Bearbeitungszeit
Eigene
Bearbeitungszeit
Dementsprechend ergibt sich
E (Sn )
1
1
1
+
E (Xn ) + 1
=
µ µ
µ
1
%
+1
µ 1−%
1
µ(1 − %)
1
.
µ−λ
= E (Xn )
=
=
=
– 76 –
4.6. Littles Gesetz
Wir haben gezeigt:
1
.
µ−λ
E (Xn ) =
%
,
1−%
E (Xn ) =
%
λ
=
= λE (Sn ).
1−%
µ−λ
E (Sn ) =
Es ist also
Littles Gesetz
Für G /G /m-Warteschlangen gilt im Gleichgewichtszustand allgemein
E (Xn ) = λE (Sn ),
d.h. die mittlere Kundenzahl ergibt sich aus dem Produkt der Ankunftsrate mit der mittleren Aufenthaltsdauer.
– 77 –
Zusammenfassung – Abschnitt 4
Definition der M/M/1-Warteschlange.
Stochastischer Prozess Xt =Anzahl der Kunden im System.
Verhalten für t → ∞: Rekurrenz, Transienz.
Grenzverteilung, falls positiv rekurrent (Verkehrsintensität % < 1):
geometrisch.
PASTA: Ein ankommender Kunde sieht die Grenzverteilung.
Wartezeit Wn besitzt beinahe exponentielle Verteilung.
Aufenthaltszeit Sn besitzt exponentielle Verteilung.
Littles Gesetz: E (Xn ) = λE (Sn ).
– 78 –
5. Markovketten
5.1. Markovketten in diskreter Zeit
Eine Markovkette ist ein stochastischer Prozess (Xn )n=1,2,... mit
Werten in einer Menge {x1 , x2 , . . . , xN } (N = ∞ ist hier zugelassen),
für den die Verteilung von Xn nur von Xn−1 , nicht aber von der weiter
zurückliegenden Vergangenheit abhängt.
Genauer: es gilt für jedes n und beliebige j, k0 , k1 , . . . , kn
P(Xn = xj |X0 = xk0 , X1 = xk1 , . . . , Xn−1 = xkn−1 )
= P(Xn = xk |Xn−1 = xkn−1 ).
Eine Markovkette heißt homogen, wenn die
Übergangswahrscheinlichkeiten
P(Xn = xj |Xn−1 = xi )
nicht von n abhängen (sondern nur von i und j).
– 79 –
Wir gehen im folgenden immer von homogenen Markovketten aus und
schreiben kurz
pij = P(Xn = xj |Xn−1 = xi )
für die Übergangswahrscheinlichkeiten.
Dann können wir die Werte pij in
zusammenfassen:

p11
 p21

P=  .
 ..
pN1
einer quadratischen Matrix P = (pij )
p12
p22
..
.
...
...
..
.

p1N
p2N 

..  .
. 
pN2
...
pNN
Für N = ∞ ist diese Matrix unendlich.
Die Matrix P ist eine sog. stochastische Matrix, da die Zeilensummen
PN
j=1 pij für jede Zeile i gleich 1 sind.
– 80 –
Ist P die Übergangsmatrix der Markovkette Xn , so gibt die Matrix
P2 = P · P
die 2-Schritt-Übergangswahrscheinlichkeiten an.
Es gilt dann
(2)
P(Xn = xj |Xn−2 = xi ) = pij ,
(2)
wobei P 2 die Elemente pij besitze.
Genauso gibt die Matrix P k die
k-Schritt-Übergangswahrscheinlichkeiten an, d.h.
(k)
P(Xn = xj |Xn−k = xi ) = pij .
– 81 –
Beispiel
In einer Fabrik arbeitet eine Maschine, deren Zustand jede Stunde
protokolliert wird. Es sei Xn der Zustand der Maschine nach n Stunden.
Mögliche Zustände:
A
B
C
voll funktionstüchtig
fehlerhaft
in Reparatur
Die Maschine geht mit folgenden Wahrscheinlichkeiten von einem Zustand in andere Zustände:
A
B
C
A
0.9
0.2
0.3
B
0.1
0
0
– 82 –
C
0
0.8
0.7
Beispiel (Forts.)
Die Übergangsmatrix ist

0.9
P = 0.2
0.3
0.1
0
0

0
0.8
0.7
Es gilt

P2
 

0.9 0.1 0
0.9 0.1 0
= 0.2 0 0.8 · 0.2 0 0.8
0.3 0 0.7
0.3 0 0.7

 


9 1 0
9 1 0
83
1 
1
42
=
2 0 8 · 2 0 8 =
100
100
3 0 7
3 0 7
48
Zum Beispiel gilt
2
P(X2 = C |X0 = B) = p23
= 56%.
– 83 –
9
2
3

8
56 .
49
5.2. Übergangsdiagramm
Die Übergangswahrscheinlichkeiten stellt man gerne im sog.
Übergangsdiagramm dar.
Dabei werden die Zustände der Markovkette als Knoten, die möglichen
Übergänge als Pfeile gezeichnet.
– 84 –
Fabrikbeispiel (Forts.)
Die Übergangsmatrix für das Fabrikbeispiel war


0.9 0.1 0
P = 0.2 0 0.8
0.3
0
Übergangsdiagramm:
– 85 –
0.7
5.3. Markovketten in stetiger Zeit
Beispiel: Fabrik
In einer Fabrik arbeitet eine Maschine, deren Zustand nun
kontinuierlich beobachtet wird. Ein stochastischer Prozess Xt beschreibe den Zustand der Maschine zum Zeitpunkt t.
In jedem Zustand befinde sich der Prozess jeweils für eine exponentielle Zeitdauer:
A
B
C
Zustand
voll funktionstüchtig
fehlerhaft
in Reparatur
– 86 –
Mittl. Dauer
1 Tag
1 Stunde
3 Stunden
Beispiel (Forts.)
Die Übergangswahrscheinlichkeiten seien:
A
B
C
A
0
1/6
1
B
1
0
0
C
0
5/6
0
Beispiel: Befindet sich der Prozess zu Beginn im Zustand B, dann
bleibt er dort für eine exponentielle Zeitdauer mit Mittelwert 1h.
Danach springt er in den Zustand A mit Wahrscheinlichkeit 1/6 und
in den Zustand C mit Wahrscheinlichkeit 5/6.
– 87 –
Allgemein ist ein Markovkette in stetiger Zeit ein stochastischer
Prozess (Xt )t≥0 mit Zustandsraum S = {x1 , x2 , . . .} (u.U. unendlich),
der wie folgt verläuft:
Der Prozess befindet im Zustand xi jeweils für eine exponentiell
verteilte Zeit mit Parameter λi .
Danach springt der Prozess Xt in den Zustand xj mit
Wahrscheinlichkeit pij .
Die Markovkette (Yn )n=1,2,... , die die Folge der besuchten Zustände
angibt, besitzt die Übergangsmatrix P = (pij ).
– 88 –
5.4. Die Intensitätsmatrix
Xt sei eine zeitstetige Markovkette mit Zustandsraum S = {1, 2, 3, . . .}
und λ = (λ1 , λ2 , λ3 , . . .).
Die Intensitätsmatrix ist gegeben durch die Matrix
Q = (qij )i,j∈{1,2,...,N} mit


−λ1 λ1 p12 λ1 p13 . . .
λ2 p21 −λ2 λ2 p23 . . .


Q = λ p
.
 3 31 λ3 p32 −λ3 . . .
..
..
..
..
.
.
.
.
Die Zeilensummen von Q sind null.
Die Elemente qij der Matrix Q haben keine unmittelbare Bedeutung.
Man kann aus Q sowohl λ als auch P komplett rekonstruieren:
λi = −qii
und pij = −qij /qii .
– 89 –
Beispiel: Fabrik (Forts.)
Es ist N = 3, λ = (1, 24, 8) und

0

P = 1/6
1

1
0
0 5/6
0
0
Die Intensitätsmatrix ist gegeben durch


−1
1
0
Q =  4 −24 20  .
8
0
−8
– 90 –
5.5. Geburts- und Todesprozesse
Ein Geburts- und Todesprozess (GTP) ist eine Markovkette (Xt )t≥0
in stetiger Zeit mit unendlich vielen Zuständen {0, 1, 2, 3, . . .}, für die
lediglich Übergänge vom Zustand i in die Zustände i − 1 und i + 1
möglich sind.
– 91 –
Um die Markov-Kette stochastisch zu beschreiben benötigen wir
die mittleren Aufenthaltsdauern 1/λi im Zustand i und
die Übergangsmatrix

0
p
 10

0
P= 

 0

..
.
p01
0
p21
0
..
.
0
p12
0
p32
..
.
0
0
p23
0
..
.

...
. . .


. . .

. . .

..
.
für die Übergänge zwischen den Zuständen.
Wir schreiben
δi = λi pi,i−1 ,
(Sterberate)
βi = λi pi,i+1 .
(Geburtsrate)
Dann gilt δi + βi = λi .
– 92 –
Für die Intensitätsmatrix ergibt sich dann also


−λ0 λ0 p0,1
0
0
...
λ1 p1,0 −λ1 λ1 p1,2
0
. . .


Q= 0
λ2 p2,1 −λ2 λ2 p2,3 . . .


..
..
..
..
..
.
.
.
.
.


−β0
β0
0
0 ...
 δ1 −(β1 + δ1 )
β1
0 . . .


= 0
.
δ2
−(β2 + δ2 ) β2 . . .


..
..
..
.. . .
.
.
.
.
.
In das Übergangsdiagramm trägt man die Intensitäten, nicht die
Übergangswahrscheinlichkeiten, ein:
– 93 –
Wir wollen den GTP für t → ∞ betrachten. Eine Grenzverteilung
existiert nur dann, wenn der Prozess positiv rekurrent ist.
Dazu müssen die Geburtsraten βk für große Werte von k klein im
Verhältnis zu den Todesraten δk sein.
Rekurrenz und Transienz
Ein GTP ist genau dann rekurrent, wenn
∞
X
δ1 δ2 · · · δk
=∞
β1 β2 · · · βk
(A)
k=1
ist. Endliche Systeme sind immer rekurrent.
Hinreichend für positive Rekurrenz ist
βn
lim
< 1.
n→∞ δn
Gilt
βn
lim
> 1,
n→∞ δn
so ist der GTP transient.
– 94 –
(B)
(B’)
Beispiel: Rekurrenter GTP
Es sei
βk = k + 1,
δk = k + 2.
Wir überprüfen Bedingung (A):
∞
∞
X
X
δ1 δ2 · · · δk
3 · 4 · · · (k + 1) · (k + 2)
=
β1 β2 · · · βk
2 · 3 · · · k · (k + 1)
k=1
k=1
=
∞
X
k +2
= ∞.
2
k=1
Der Geburts- und Todesprozess ist rekurrent.
Die Bedingung (B) ist nicht allerdings nicht erfüllt:
βn
n+1
= 1.
lim
= lim
n→∞ δn
n→∞ n + 2
– 95 –
Für einen rekurrenten GTP Xt muss noch keine Grenzverteilung
πk = lim P(Xt = k),
t→∞
k = 0, 1, 2, . . .
existieren.
Existenz einer Grenzverteilung
Für einen rekurrenten GTP Xt existiert eine Grenzverteilung genau dann,
wenn
∞
X
β0 β1 · · · βk−1
S=
<∞
(C)
δ1 δ2 · · · δk
k=1
ist.
In diesem Fall sagt man, der Prozess sei ergodisch.
– 96 –
Beispiel: Rekurrenter GTP (Fortsetzung)
Es sei wieder
βk = k + 1,
δk = k + 2.
Bedingung (C):
S
=
∞
X
β0 β1 · · · βk−1
k=1
=
∞
X
k=1
δ1 δ2 · · · δk
=
∞
X
k=1
1 · 2···k
3 · 4 · · · (k + 2)
2
<∞
(k + 1)(k + 2)
Die Bedingung ist erfüllt, eine Grenzverteilung existiert.
– 97 –
Ähnlich wie im Fall der M/M/1-Warteschlange erhalten wir für die
Grenzverteilung, falls sie existiert, die Gleichgewichtsgleichungen
β 0 π0 = δ 1 π1
(βk + δk )πk = βk−1 πk−1 + δk+1 πk+1 ,
und
P∞
k=0
Es ist
k ≥ 1.
πk = 1.
π1
=
β0
π0
δ1
π2
=
β0 β1
(β1 + δ1 )π1 − β0 π0
=
π0
δ1 δ2
δ2
Wir raten:
πk =
β0 β1 · · · βk−1
π0 .
δ1 δ2 · · · δk
Die Lösung ist in der Tat richtig (einsetzen!).
Die fehlende Wahrscheinlichkeit π0 = P(X = 0) erhält man aus der
P∞
Gleichung k=0 πk = 1.
– 98 –
Grenzverteilung
Für einen ergodischen GTP ist die Grenzverteilung gegeben durch
β0 β1 · · · βk−1
πk =
π0 .
δ1 δ2 · · · δk
Dabei ist
1
π0 =
.
1+S
Der unendliche Vektor π = (π0 , π1 , . . .) erfüllt die Gleichungen
 
1
1
π · Q = 0,
π ·   = 1.
..
.
– 99 –
Grenzverteilung (endlicher Fall)
Ein endlicher GTP Xt ist immer rekurrent und ergodisch.
Für einen endlichen ergodischen GTP ist die Grenzverteilung gegeben
durch
β0 β1 · · · βk−1
π0 , k = 0, 1, . . . , K
πk =
δ1 δ2 · · · δk
mit
1
π0 =
1+S
und
K
X
β0 β1 · · · βk−1
S=
.
δ1 δ2 · · · δk
k=1
– 100 –
Zusammenfassung – Abschnitt 5
Markov-Ketten in diskreter Zeit:
Übergangsmatrix, Übergangsdiagramm.
Markov-Ketten in stetiger Zeit: Intensitätsmatrix Q.
Geburts- und Todesprozesse, Vorgehensweise:
(1)
Ist der Prozess rekurrent?
Gilt (A)? Falls ja, dann rekurrent. Falls nein, dann transient.
Alternativ: Gilt (B)? Falls ja, dann rekurrent.
Gilt (B’)? Falls ja, dann transient.
(2)
Ist der Prozess ergodisch?
Gilt (C)? Falls ja, dann ergodisch, falls nein, dann nicht
ergodisch.
(3)
Falls ergodisch: Stationäre (Grenz-)Verteilung π bestimmen.
– 101 –
6. M/M-Warteschlangensysteme
6.1. M/M/1
Wir betrachten erneut die einfache M/M/1-Warteschlange.
Der stochastische Prozess Xt (Kundenzahl zum Zeitpunkt t) ist ein
GTP mit folgendem Übergangsdiagramm:
Die Intensitätsmatrix ist dann

−λ
λ
0
0
 µ −(µ + λ)
µ
0

Q= 0
µ
−(µ
+
λ)
λ

..
..
..
..
.
.
.
.

...
. . .

.
. . .

..
.
Also ist
βk = λ,
k = 0, 1, 2, . . .
– 102 –
δk = µ,
k = 1, 2, 3, . . .
Bedingung (A): Die Summe
∞
X
δ1 δ2 · · · δk
k=1
β1 β2 · · · βk
=
∞
X
µk
k=1
λk
∞
X
=
(1/%)k
k=1
ist unendlich, genau dann, wenn % ≤ 1 ist. Dann ist Xt rekurrent.
Bedingung (C): Die Summe
∞
∞
∞
X
X
X
β0 β1 · · · βk−1
λk
S=
=
=
%k
δ1 δ2 · · · δk
µk
k=1
k=1
k=1
ist endlich genau dann, wenn % < 1 ist. Dann existiert eine
%
Grenzverteilung und es ist S = 1−%
.
Grenzverteilung:
πk =
β0 β1 · · · βk−1
π0 = %k π0 .
δ1 δ2 · · · δk
Dabei ist
π0 =
1
= 1 − %.
1+S
– 103 –
Wir betrachten als nächstes allgemeinere Warteschlangenmodelle mit
exponentiellen Zwischenankunftszeiten und exponentiellen Bedienzeiten.
– 104 –
6.2. M/M/1/K - Warteschlange mit beschränkter
Kapazität
Wir gehen jetzt davon aus, dass das Warteschlangensystem nur eine
begrenzte Kapazität von K Plätzen besitzt.
Kunden, die das System besuchen und K Kunden im System (d.h.
K − 1 Kunden in der Warteschlange) vorfinden, verlassen das System
sofort und kommen nicht wieder.
Die Zwischenankunftszeiten und Bedienzeiten seien weiterhin
exponentiell verteilt mit Parametern λ und µ.
– 105 –
Übergangsdiagramm für Xt :
Xt ist ein Geburts- und Todesprozess mit
(
λ ;k ≤ K − 1
βk =
0 ;k ≥ K
und
δk =
(
µ ;k ≤ K
0
;k ≥ K + 1
.
Als endlicher GTP ist der Prozess automatisch rekurrent.
– 106 –
Der Prozess ist ergodisch, da er nur endlich viele Zustände annimmt.
Es ist
S
=
K
X
β0 β1 · · · βk−1
δ1 δ2 · · · δk
k=1
=
K
X
(λ/µ)k
k=1
=
K
X
%k
k=1
(
=
K
% 1−%
1−%
; % 6= 1
K
;% = 1
Die Reihe konvergiert stets, also existiert eine Grenzverteilung.
– 107 –
Die Grenzverteilung ergibt sich dann aus den Formeln
β0 β1 · · · βk−1
πk =
π0
δ1 δ2 · · · δk
1
.
π0 =
1+S
In diesem Fall ist also
(
πk =
%k
;k ≤ K
0
;k > K
,
und

 1−%
1
= 1 − %K +1
π0 =
 1
1+S
K +1
– 108 –
; % 6= 1
;% = 1
.
M/M/1/K-Grenzverteilung
In einer M/M/1/K-Warteschlange mit endlicher Kapazität ist die Grenzverteilung der Kundenzahl gegeben durch

1−% k


% ; % 6= 1
K +1
πk = P(X = k) = 1 −1 %
, k = 0, 1, 2, . . . , K .


;% = 1
K +1
Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann:
(
1−%
K
; % 6= 1,
K +1 %
P(X = K ) = 1−%
1
; % = 1.
K +1
Die Auslastung beträgt
(
P(X > 0) =
%−%K +1
1−%K +1
K
K +1
– 109 –
; % 6= 1
;% = 1
.
Auslastung P(X > 0) in Abhängigkeit von ρ ∈ (0, 1) und
K ∈ {1, 2, . . . , 10} (abnehmender Kontrast).
– 110 –
Wahrscheinlichkeit der Zurückweisung in Abhängigkeit von ρ ∈ (0, 1)
und K ∈ {1, 2, . . . , 10} (abnehmender Kontrast).
– 111 –
Für K → ∞ und % < 1 ergibt sich wie zu erwarten die Verteilung der
M/M/1-Warteschlange:
1−% k
% = (1 − %)%k .
lim πk = lim
K →∞
K →∞ 1 − %K +1
Die Wahrscheinlichkeit einer Zurückweisung strebt für K → ∞
monoton fallend gegen Null (Annäherung an die
M/M/1-Warteschlange).
Für % > 1 strebt die Wahrscheinlichkeit einer Zurückweisung monoton
fallend gegen den Grenzwert
1−% K
lim P(X = K ) = lim
%
K →∞
K →∞ 1 − %K +1
1
1
= (1 − %) lim −K
=1− .
K →∞ %
−%
%
Diese Wahrscheinlichkeit kann auch bei noch so großem Warteraum
nicht unterboten werden.
– 112 –
Beispiel
Bei einem Arzt gibt es 10 Plätze im Wartezimmer. Pro Stunde kommen
im Mittel 5 Patienten an, die durchschnittlich 15 Minuten lang behandelt
werden.
Es ist K = 11, λ = 5 h−1 , µ = 4 h−1 und % = 54 .
Dann gilt für die Patientenzahl in der Praxis
1−% k
5
1/4
P(X = k) =
( )k .
% =
K
+1
K
1−%
(5/4) − 1 4
– 113 –
6.3. Spezialfall: M/M/1/1
Grenzverteilung:
1
,
1+%
%
π1 = P(X = 1) =
.
1+%
π0 = P(X = 0) =
Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann
gleich der Auslastung:
P(X = 1) =
– 114 –
%
.
1+%
Beispiel
Pralinen erreichen eine Verpackungsmaschine als Poisson-Prozess mit
Intensität µ. Erreicht eine Praline die Maschine, ohne dass dort bereits eine Verpackung vorhanden ist, wird sie zur nächsten Maschine
weitergereicht. Die Verpackungen kommen mit konstanter Rate λ an
der Station an und warten dort auf jeweils eine Praline. Ist die Maschine mit einer wartenden Packung besetzt, so wird eine ankommende
Verpackung weitergereicht.
Ist eine Verpackung vorhanden, so wird eine ankommende Praline
unmittelbar verpackt und verlässt die Verpackungsmaschine sofort.
– 115 –
Beispiel (Forts.)
Die Anzahl der Verpackungen im System verhält sich wie die Kundenzahl in einem M/M/1/1-System, weil die Wartezeiten der Verpackungen in der Maschine (=Bedienzeiten) exponentiell verteilt ist.
Die Wahrscheinlichkeit einer ”Zurückweisung” beträgt für die Pralinen
1/(1 + %), für die Verpackungen %/(1 + %).
– 116 –
6.4. M/M/∞ - Beliebig viele Bedienstationen
Es seien jetzt beliebig viele Bedienstationen vorhanden:
In der Praxis ist die Zahl der Bedienstationen meist endlich, aber u.U.
genügend groß, um eine M/M/∞-Modell anzunehmen (siehe auch den
Abschnitt über die M/M/m-Warteschlange).
Die ankommenden Kunden wählen jeweils einen freien Server aus und
können sofort bedient werden, d.h. es ist keine Warteschlange nötig.
– 117 –
Minimum exponentiell verteilter Zufallsvariablen
Es seien X und Y exponentiell verteilt mit Parameter µ.
Dann gilt für die Verteilungsfunktion des Minimums von X und Y
P(min{X , Y } ≤ x)
= 1 − P(min{X , Y } > x)
= 1 − P(X > x, Y > x)
= 1 − P(X > x)P(Y > x)
= 1 − e −µx e −µx
= 1 − e −2µx .
Allgemeiner gilt: Das Minimum von k exponentiell verteilten Zufallsvariablen mit Parameter µ besitzt eine exponentielle Verteilung mit
Parameter kµ.
⇒ Sind k Server besetzt, so besitzt die Wartezeit bis zum nächsten
Abgang eine exponentielle Verteilung mit Parameter kµ.
– 118 –
Für das Übergangsdiagramm des M/M/∞-Systems ergibt sich:
GTP mit βk = λ und δk = k · µ.
Bedingung (A): Es ist
∞
X
δ1 δ2 · · · δk
k=1
β1 β2 · · · βk
∞
X
1 · 2 · · · k · µk
λk
=
k=1
=
∞
X
k=1
Also ist der Prozess Xt immer rekurrent.
– 119 –
k!(1/%)k = ∞
Bedingung (C):
∞
X
β0 β2 · · · βk−1
S=
δ1 δ2 · · · δk
=
∞
X
%k
k=1
k=1
k!
= e % − 1 < ∞,
daher existiert in jedem Fall eine Grenzverteilung.
Es gilt
πk =
β0 β2 · · · βk−1
%k
π0 =
π0 .
δ1 δ2 · · · δk
k!
und
π0 =
1
= e −ρ .
1+S
– 120 –
M/M/∞-Grenzverteilung
Die Grenzverteilung der Kundenzahl eines M/M/∞-Systems ist
%k −%
e ,
k!
d.h. im stationären Zustand besitzt die Kundenzahl eine PoissonVerteilung mit Rate %.
πk = P(X = k) =
Die Auslastung beträgt
P(X > 0) = 1 − e −ρ .
Die erwartete Anzahl von Kunden ist
E (X ) = %,
Var(X ) = %.
Für großes % ist X etwa normalverteilt mit Erwartungswert % und
Varianz %:
(k−%)2
1
P(X = k) ≈ √
e − 2% .
2π%
– 121 –
Beispiel
In Hamburg leben etwa 1.7 Millionen Menschen (≈ ∞). Angenommen jeden Tag infizieren sich durchschnittlich 5 Einwohner mit einer
bestimmten Krankheit, die dann im Mittel eine Woche andauere. Wir
nehmen eine exponentielle Krankheitsdauer an. Wie sieht die Verteilung
der Zahl der Infizierten aus?
Mit λ = 5 d −1 und µ = 1/7 d −1 erhalten wir πk =
Wahrscheinlichkeiten πk
%k −%
k! e
=
35−k
k!
e −35 .
Normalverteilung mit µ = % und σ = % (blau)
– 122 –
6.5. M/M/m - System mit m Bedienstationen
Wir betrachten ein System mit m Bedienstationen mit Bedienrate µ,
Ankunftsrate λ und unbegrenzter Kapazität
Die Verkehrsintensität beträgt nun
%
λ
= .
ξ=
mµ
m
– 123 –
Die Sterberate ist von der Anzahl der in der Bedienstation befindlichen
Kunden abhängig.
GTP mit Übergangsdiagramm:
Dann sind die Geburts- und Sterberaten gegeben durch
βk = λ,
(
kµ ; k < m
δk =
.
mµ ; k ≥ m
– 124 –
Bedingung (A):
∞
X
δ1 δ2 · · · δk
=∞
β1 β2 · · · βk
k=1
Es ist für k ≥ m
µk · 1 · 2 · · · m · m · · · m
λk
µk m!mk−m
=
λk
m k
.
= m!m−m
%
Die obige Reihe divergiert also, wenn m ≥ % also
δ1 δ2 · · · δk
β1 β 2 · · · β k
=
ξ = %/m ≤ 1
ist. Genau dann ist der Prozess rekurrent.
– 125 –
Bedingung (C) für Ergodizität:
∞
X
β0 β1 · · · βk−1
S =
δ1 δ2 · · · δk
k=1
=
m−1
X
k=1
=
m−1
X
k=1
∞
β0 β1 · · · βk−1 X β0 β1 · · · βk−1
+
δ1 δ2 · · · δk
δ1 δ2 · · · δk
k=m
k
%
+
k!
∞
X
k=m
m−1
∞
X %k
%
mm X
=
+
(%/m)k
m!mk−m
k!
m!
k
k=1
k=m
Die Reihe konvergiert für % < m, also ξ = %/m < 1.
Es ist
1+S
=
1+
m−1
X
k=1
=
m−1
X
k=0
%k
1
mm
+
(%/m)m
k!
m!
1 − %/m
%k
%m 1
+
.
k!
m! 1 − ξ
– 126 –
M/M/m-Grenzverteilung
Für ξ = %/m < 1 ist der Kundenzahlprozess einer M/M/mWarteschlange rekurrent und ergodisch. Die Grenzverteilung ist gegeben
durch
 k
%

;k ≤ m
 π0
πk = P(X = k) = k!m
,


 m ξ k π0 ; k > m
m!
−1
m−1
X %k
%m
.
mit
π0 =
+
k!
m!(1 − ξ)
k=0
Der Fall m = 1 entspricht der M/M/1-Warteschlange (geometrische
Grenzverteilung).
Für m → ∞ erhalten wir, wie zu erwarten, die Grenzverteilung der
M/M/∞-Warteschlange (Poisson-Verteilung).
– 127 –
Beispiel: Postfiliale
In einer Postfiliale dauert eine Bedienung am Schalter im Mittel eine
Minute. Die Kunden erreichen die Filiale mit einer konstanten Rate
von 5 Kunden pro Minute. Die Filiale hat eine Warteschlange für 6
Schalter eingerichtet.
m = 6, λ = 5 min−1 , µ = 1 min−1 , % = 5, ξ = 5/6.
Das System ist rekurrent und ergodisch, da ξ < 1 ist.
Wahrscheinlichkeit eines leeren Systems:
!−1
!−1
5
5
X
X
5k
56
5k
55
π0 =
+
=
+
≈ 0.4512%.
k!
6!(1 − 5/6)
k!
4!
k=0
Grenzverteilung:
k=0

k
 (5/6)
8  k!
πk =
k
1765 
 (5/6)
6k−6 6!
– 128 –
;k ≤ 6
.
;k > 6
Grenzwahrschienlichkeit πk , k = 0, 1, 2, . . . 30 für ξ = 5/6 und
m = 1 (rot),
m = 6 (grün) und
m = 20 (blau).
– 129 –
Die Wahrscheinlichkeit, dass ein ankommender Kunde warten muss, die
Wartewahrscheinlichkeit, ist dann (wir verwenden wieder PASTA):
∞
X
P(W > 0) = P(X ≥ m) =
πk
k=m
=
∞
∞
X
mm X k
mm k
ξ
ξ π0 = π0
m!
m!
k=m
k=m
m
=
π0
m m
ξ
m!
∞
X
ξ k = π0
k=0
%m
.
m!(1 − ξ)
Erlang-C-Formel
Die Wahrscheinlichkeit, dass ein ankommender Kunde in einem
M/M/m-Wartesystem warten muss ist
−1
m−1
X %k
%m
%m
P(W > 0) = π0
, π0 =
+
.
m!(1 − ξ)
k!
m!(1 − ξ)
k=0
– 130 –
Für die mittlere Warteschlangenlänge erhalten wir
∞
X
E (L) =
(k − m)πk
k=m+1
=
=
=
∞
π0 m m X
(k − m)ξ k
m!
k=m+1
∞
m m X
π0 m ξ
m!
∞
m X
π0 %
m!
kξ k
k=1
kξ k
k=0
∞
X
k=0
π0 %m
ξ
=
m! (1 − ξ)2
ξ
= P(W > 0)
.
1−ξ
– 131 –
kq k =
q
2
(1 − q)
Es gilt dann für die mittlere Wartezeit:
1
1
E (W ) = P(W > 0)
+ E (L)
mµ
mµ
=
ξ
P(W > 0) + P(W > 0) 1−ξ
mµ
=
P(W > 0)
1
= E (L).
mµ(1 − ξ)
λ
M/M/m - Warteschlangenlänge und Wartezeit
Die mittlere Warteschlangenlänge beträgt
E (L) = P(W > 0)
ξ
.
1−ξ
Für die mittlere Wartezeit gilt
P(W > 0)
1
E (W ) =
= E (L).
mµ(1 − ξ)
λ
(Zweite Version von Littles Gesetz).
– 132 –
Drei Varianten des Littleschen Gesetzes
Allgemein gelten für G /G /n-Warteschlangen im Gleichgewichtszustand
folgende Beziehungen für die zu erwartenden Kundenzahlen und die zu
erwartenden Aufenthaltsdauern:
(1)
E (Kunden System) = λE (Aufenthalt im System)
E (X ) = λE (S).
(2)
E (Kunden Schlange) = λE (Aufenthalt in der Schlange)
E (L) = λE (W )
(3)
E (Kunden Bedienstation) = λE (Aufenthalt in der Bedienstation)
E (Q) = λE (B)
– 133 –
Beispiel: Postfiliale (Forts.)
Wartewahrscheinlichkeit:
P(W > 0) = π0
%m
8 56
=
≈ 0.5902 = 59.02%.
m!(1 − ξ)
1765 5!
Mittlere Warteschlangenlänge:
5/6
ξ
= 0.5902
= 5 · 0.59 ≈ 2.951
E (L) = P(W > 0)
1−ξ
1/6
Mittlere Wartezeit in der Schlange:
P(W > 0)
0.5902
=
= 0.5902.
E (W ) =
mµ(1 − ξ)
6 · 1 · (1 − 5/6)
– 134 –
P(W > 0) und E (L) für ξ ∈ (0, 1) und
m = 1 (rot),
m = 6 (grün) und
m = 100 (blau).
– 135 –
6.6. Erlangsches Verlustmodell (M/M/m/m)
Wir betrachten ein System mit m Bedienstationen aber ohne
Warteschlange (Kapazität m):
Historisch: Call-Center mit m Kanälen, Anrufe mit Rate λ,
Gesprächsdauer im Mittel 1/µ. Wenn alle Kanäle besetzt sind, gehen
die Anrufe verloren (Agner Krarup Erlang).
– 136 –
Übergangsdiagramm:
GTP mit βk = λ und δk = kµ.
Das System ist rekurrent und die Grenzverteilung existiert immer.
Als Grenzverteilung ergibt sich eine ”abgeschnittene”
Poisson-Verteilung
πk =
β0 β2 · · · βk−1
%k
π0 =
π0 ,
δ1 δ2 · · · δk
k!
mit
1
π0 = Pm
%j
j=0 j!
– 137 –
.
k ≤m
M/M/m/m - Erlang-B-Formel
Im Erlangschen Verlustmodell ist die Grenzverteilung gegeben durch
πk =
k!
%k
Pm
%j
j=0 j!
,
k = 0, 1, 2, . . . , m.
Der Fall m = 1 enstpricht der M/M/1/1-Warteschlange.
Für m → ∞ ergibt sich die Poisson-Verteilung des M/M/∞ Systems:
πk = e −%
%k
,
k!
k = 0, 1, 2, . . .
Erlang-B-Formel (Erlangsche Verlustformel)
Die Wahrscheinlichkeit, dass ein ankommender Kunde zurückgewiesen
wird, ist
%m
∗
pm
=
Pm %j .
m! j=0 j!
– 138 –
Wir berechnen die mittlere Kundenzahl:
m
m
m−1
m
X
X
X %k
X
%k
%k−1
k
= %π0
= %π0
E (X ) =
kπk = π0
k!
(k − 1)!
k!
k=1
= %π0
k=1
k=1
k=0
%m πm 1
1
−
= %π0
−
= % 1 − πm .
π0
m!
π0
π0
πk = P(X = k) und E (X ) (vertikale Linien) für ein
M/M/10/10-System, % = 1/2 (rot), % = 5 (grün) und % = 20 (blau).
– 139 –
Beispiel
Ein Autobahnparkplatz wird entworfen, auf dem nach der Fertigstellung
fünf Parkplätze zur Verfügung stehen sollen. Man geht von einer Aufenthaltsdauer der Gäste von durchschnittlich 15 Minuten aus (exponentielle
Verteilung). Autofahrer, die einen komplett besetzten Parkplatz vorfinden fahren weiter zur nächsten Parkgelegenheit. Es fahren im Mittel
stündlich 10 Autos den Parkplatz an.
Es ist m = 5, λ = 10, µ = 4, % = 5/2, also ergibt sich für die Wahrscheinlichkeit einen vollen Parkplatz vorzufinden
p5∗ =
5!
(5/2)5
P5 (5/2)j = 0.0697 ≈ 7%.
j=0
j!
Außerdem erhalten wir für die mittlere Zahl parkender Autos:
5
E (X ) = %(1 − πm ) = (1 − 0.0697) = 2.326
2
– 140 –
6.7. Engset-Modell für eine endliche Population
Beispiel
In einer Firma arbeiten 140 Mitarbeiter Tag und Nacht in verschiedenen
Schichten. Jeder Mitarbeiter geht im Schnitt einmal in drei Stunden zur
Toilette und bleibt dort im Schnitt 4 Minuten. Es gibt K Toiletten.
Es sei X die Anzahl von Mitarbeitern, die sich momentan nicht am
Arbeitsplatz befinden.
Wie groß ist die Wahrscheinlichkeit, dass alle Toiletten besetzt sind?
Wie groß muss man K machen, damit diese Wahrscheinlichkeit kleiner
als 10% wird?
Verteilung von X : Wie groß ist P(X = k) für k = 1, 2, . . . , K ?
– 141 –
Wir nehmen an, es gäbe insgesamt N Kunden und K ≤ N
Bedienstationen.
Beispiel: N = 6 und K = 5:
Jeder Kunde außerhalb der Bedienstation erzeuge einen Eingangsstrom
mit Rate λ (Aktivierung nach einer exponentiellen Zeitperiode).
– 142 –
Alternative Darstellung:
X beschreibe die Anzahl der Kunden, die in der eigentlichen (zweiten)
Bedienstation bedient werden. Im obigen Beispiel ist X = 2.
– 143 –
Dann ist Xn ein GTP mit βk = λ(N − k) und δk = kµ für k ≤ K :
Der Prozess ist, da X nur endlich viele Zustände annimt, rekurrent,
eine Grenzverteilung existiert stets.
Grenzverteilung für 0 ≤ k ≤ K
πk
β0 β2 · · · βk−1
λk N(N − 1) · · · (N − k + 1)
π0 =
π0
δ1 δ2 · · · δk
µk k!
N k
=
% π0 .
k
=
Dabei ist
π0 = P K
1
j=0
– 144 –
N
j
.
%j
Engset-Modell
Im Engset-Modell mit endlicher Population N und K ≤ N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch die EngsetVerteilung:
N k
k %
πk = PK N , k = 0, 1, . . . , K .
j
j=0 j %
Die Wahrscheinlichkeit, dass alle Plätze der Bedienstation besetzt sind
ist
N K
K %
πK = PK N , k = 0, 1, . . . , K .
j
j=0 j %
– 145 –
Beispiel
In einer Firma arbeiten 140 Mitarbeiter Tag und Nacht in verschiedenen
Schichten. Jeder Mitarbeiter geht im Schnitt einmal in drei Stunden zur
Toilette und bleibt dort im Schnitt 4 Minuten. Es gibt K Toiletten.
1
N = 140, λ = 1/3, µ = 60/4, % = 45
.
140
k
45−k
,
140
−j
j 45
πk = PK
j=0
– 146 –
k = 0, 1, . . . , K .
6.8. Sonderfall: Engset-Modell mit K = N
Für die Grenzverteilung gilt dann
N k
k %
πk = P N N ,
j
j=0 j %
k = 0, 1, . . . , N.
Es ist (binomische Formel)
N X
N j
% = (1 + %)N .
j
j=0
– 147 –
Dann gilt
πk
=
N
k
%k
(1 + %)N
% k
N
k
1+%
(1 + %)k
(1 + %)N
N
% k
1 N−k
=
.
k
1+%
1+%
=
Engset-Modell – Spezialfall
Im Engset-Modell mit N Kunden und N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch eine Binomialverteilung mit
Parameter %/(1 + %):
N
% k
1 N−k
πk =
, k = 0, 1, . . . , N.
k
1+%
1+%
– 148 –
6.9. Der Satz von Burke
Wir betrachten zunächst eine M/M/1-Warteschlange und nehmen
wieder % < 1 an, so dass X eine Grenzverteilung besitzt. Das System
befinde sich im stationären Zustand.
Es bezeichne Mt die Anzahl der Kunden, die nach erfolgter Bedienung
das System bis zum Zeitpunkt t verlassen haben (Abgangsprozess).
– 149 –
Ankunftsprozess Nt
(hellblau)
Kundenzahl Xt
(rot)
Abgangsprozess Mt
(dunkelblau)
Es gilt offenbar:
M0 = 0,
Mt ist stückweise konstant und macht Sprünge der Höhe eins.
Ist Mt ein Poisson-Prozess? Wenn ja, wie groß ist seine Intensität?
– 150 –
Die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein Kunde das
System verlässt, ist
≈ (1 − %) ·0 + % ·µ · ∆ = λ · ∆.
|{z}
| {z }
P(X =0)
P(X 6=0)
Die Wahrscheinlichkeit, dass in dem Zeitraum mehr als ein Kunde das
System verlässt, ist verschwindend klein.
Mit etwas mehr Mühe kann man zeigen:
Abgangsprozess der M/M/1-Warteschlange
Der Abgangsprozess Mt einer M/M/1-Warteschlange im Gleichgewichtszustand ist erneut ein Poisson-Prozess mit Rate λ.
– 151 –
Allgemein gilt für einen Geburts- und Todesprozess Xt mit Geburtsraten
βk = λ für die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein
Sprung Xt 7→ Xt − 1 nach unten erfolgt,
∞
X
≈ ∆
πk δ k
k=1
=
∆
∞
X
k=1
=
∆
∞
X
λk
π0 δ k
δ1 δ2 · · · δk
λk
π0
δ1 δ2 · · · δk−1
k=1
∞
X
= λ∆
k=0
= λ∆
∞
X
λk
π0
δ1 δ2 · · · δk
πk = λ · ∆.
k=0
– 152 –
Satz von Burke
Es sei Xt ein rekurrenter und ergodischer Geburts- und Todesprozess mit
Geburtsraten βk = λ. Dann gilt:
1. Der stochastische Prozess Mt , der die Sprünge nach unten (Tode)
zählt, ist ein Poisson-Prozess mit Rate λ.
2. Xt ist unabhängig von {Ms }s<t .
Der Satz gilt natürlich nur im stationären Zustand, also wenn das
System bereits mit der stationären Verteilung startet.
– 153 –
7. Offene Netzwerke
7.1. M/M/1-Tandem-Warteschlange
Eine M/M/1-Tandem-Warteschlange besteht aus einem System von
zwei hintereinander geschalteten M/M/1-Warteschlangen und
Bedienstationen.
Burke: Der Abgangsprozess an der ersten Station ist wieder Poisson mit
Intensität λ.
Die zweite Warteschlange verhält sich genau wie eine
M/M/1-Warteschlange, denn der Poisson-Ankünftsprozess besitzt die
Intensität Λ = λ.
Es sei %i = λ/µi die Verkehrsintensität der i-ten Station.
– 154 –
Der Kundenzahlprozess im gesamten System ist offenbar dann
rekurrent und ergodisch, wenn max{%1 , %2 } < 1 ist.
Wir gehen davon aus, dass sich das System im stationären Zustand
befindet.
Es seien X1 und X2 die Kundenzahlen in den beiden Systemen 1 und 2.
Die Zufallsvariablen X1 und X2 besitzen jeweils eine geometrische
Verteilung
P(X1 = k) = (1 − %1 )%k1 ,
P(X2 = m) = (1 − %2 )%m
2 .
Darüber hinaus sind X1 und X2 sind unabhängig (Burke), so dass für
die gemeinsame stationäre Verteilung eine Produktform vorliegt:
P(X1 = k, X2 = m) = P(X1 = k)P(X2 = m)
= (1 − %1 )(1 − %2 )%k1 %m
2 .
– 155 –
Für die Gesamtzahl X an Kunden im System gilt dann
P(X = n)
=
=
P(X1 + X2 = n)
∞
X
P(X1 = k, X2 = n − k)
k=0
n
X
%k1 %n−k
2
=
(1 − %1 )(1 − %2 )
=
(1 − %1 )(1 − %2 )(%n+1
− %n+1
2
1 )
.
%2 − %1
k=0
– 156 –
M/M/1-Tandem
In einer M/M/1-Tandem-Warteschlange mit max{%1 , %2 } < 1 gilt für
die stationäre Verteilung der Gesamtzahl der Kunden
(1 − %1 )(1 − %2 )(%n+1
− %1n+1 )
2
.
%2 − %1
Die gemeinsame Verteilung von X1 und X2 ist
P(X = n) =
P(X1 = k, X2 = m) = (1 − %1 )(1 − %2 )%k1 %m
2 .
Speziell gilt für die Rand- oder Marginalverteilungen
P(X1 = k) = (1 − %1 )%k1 ,
P(X2 = m) = (1 − %2 )%m
2 .
Die M/M/1-Tandem-Warteschlange ist ein Spezialfall eines offenen
Netzwerks von Warteschlangen.
– 157 –
7.2. Offene Netzwerke
In offenen Netzwerken erreichen Kunden von außen ein System von N
Warteschlangen/Servern und verlassen das System auch wieder.
Ankünfte am Server i von außerhalb des Systems bilden einen
Poisson-Prozess mit Rate λi .
Markov-Routing: Kunden, die die Bedienstation i verlassen, laufen den
Server j mit Wahrscheinlichkeit pij an.
– 158 –
Wir fassen die Wahrscheinlichkeiten pij in einer Matrix zusammen:


p11 p12 . . . p1N
 p21 p22 . . . p2N 


P=  .
..
..
.. 
 ..
.
.
. 
pN1 pN2 . . . pNN
Die Wahrscheinlichkeit, nach dem Server i keine weitere Bedienstation
anzulaufen, sondern das System zu verlassen, sei pi0 .
– 159 –
7.3. Durchsatz
Der Durchsatz Λi beschreibt die effektive Ankunftsrate am Server i.
Erhaltungsprinzip: Im Steady-State sollten eingehende und abgehende
Ströme gleiche Intensitäten aufweisen.
In diesem Beispiel gilt: Λ3 = λ3 + Λ1 · p13 + Λ2 · p23 .
– 160 –
Allgemein ergibt sich
Λi = λi +
N
X
Λj pji
j=1
bzw. in Matrizenschreibweise
Λ = λ + Λ · P,
t
wobei λ = (λ1 , . . . , λN ) ist.
Der Durchsatzvektor Λ = (Λ1 , . . . , ΛN ) ist also eine Lösung des linearen
Gleichungssystems
(I − P)T Λ = λ.
Dann ist γi =
Λi
die (effektive) Verkehrsintensität an der i-ten
µi
Bedienstation.
– 161 –
7.4. Satz von Jackson
Satz von Jackson
Eine Grenzverteilung für die Verteilung von X1 , . . . , Xn existiert, wenn
für jeden Server i = 1, 2, . . . , N gilt:
γi < 1
Es sei Xi die (Steady-State-)Anzahl von Kunden am Server i. Dann
sind die Zufallsvariablen X1 , X2 , . . . , XN unabhängig.
Es gilt P(Xi = k) = (1 − γi )γi k , also (wg. der Unabhängigkeit)
P(X1 = k1 , X2 = k2 , . . . , XN = kN ) =
N
Y
(1 − γi )γi ki .
i=1
Jede einzelne Warteschlange verhält sich also wie ein unabhängiges
M/M/1-Wartesystem.
– 162 –
Beispiel: M/M/1-Tandem-Warteschlange
Gegeben Seien zwei
min{µ1 , µ2 } > λ.
M/M/1-Warteschlangen
in
Serie
mit
Dann ist
λ1 = λ,
λ2 = 0,
P=
0
0
1
,
0
p20 = 1.
(I − P)T Λ = λ:
1
−1
0
1
λ
0
1 0
0 1
λ
⇒ Λ1 = λ,
λ
Λ2 = λ.
Die zweite Warteschlange verhält sich wie eine unabhängige M/M/1Warteschlange:
λ λ k
λ λ k
P(X1 = k) = 1 −
, P(X2 = k) = 1 −
µ1 µ1
µ2 µ2
– 163 –
Beispiel: Tandem-Warteschlange mit Rücklauf
Kunden verlassen mit Wahrscheinlichkeit p den Server 1 in Richtung
Server 2. Mit Wahrscheinlichkeit 1 − p müssen Sie ein weiteres mal
die Bedienstation 1 passieren. Es sei min{pµ1 , µ2 } > λ.
λ1 = λ,
λ2 = 0,
P=
1−p
0
p
,
0
p20 = 1.
(I − P)T Λ = λ:
p
−p
0
1
λ
0
1 0
0 1
λ/p
⇒ Λ1 = λ/p,
λ
λ λ k
P(X1 = k) = 1 −
,
pµ1 pµ1
– 164 –
Λ2 = λ.
λ λ k
P(X2 = k) = 1 −
.
µ2 µ2
Beispiel
Gegeben sei folgendes System:
Es ist

0
P = 1
1


1/3 1/3
1
0
0  , (I − P)T = −1/3
0
0
−1/3
– 165 –
−1
1
0

 
−1
λ
0  , λ = 0
1
0
...
1
−1/3
−1/3
−1
1
0
−1
0
1
λ
0
0
1
0
0
−1
2/3
−1/3
−1
−1/3
2/3
λ
λ/3
λ/3
1 −1 0
0 2/3 0
0
0 1
1
0
0
2λ
2/3λ
λ
Damit ist
Λ = (3λ, λ, λ),
γ = (3%, %, %).
Das System ist ergodisch, wenn % < 1/3 ist.
– 166 –
−1
2/3
0
1
0
0
−1
−1/3
1/2
0
1
0
0
0
1
λ
λ/3
λ/2
3λ
λ
λ
Beispiel
Eine Maschine A produziert Flugzeugbauteile (µ = 1 h−1 ). Diese werden
anschließend an einer Station B geprüft (mittlere Dauer 12 Minuten).
Im Mittel sind 60 Prozent der Bauteile ohne Beanstandung, 30 Prozent
werden in einer zweiten Maschine C bearbeitet (im Mittel 30 Minuten
lang) und verlassen danach das System, 10 Prozent müssen ein weiteres
Mal die Maschine A passieren.
Wie groß darf der Eingangsstrom von Teilen maximal sein, wenn man
ein ergodisches System erhalten möchte?
Wie groß ist die Wahrscheinlichkeit 7 Kunden im System A und 4
Kunden im System B vorzufinden, wenn λ = 0.5 ist?
– 167 –
...
Es ist

 
0
λ
λ =  0  , P = 0.1
0
0


1
1 0
0 0.3 , (I − P)T = −1
0
0 0
Es ergibt sich:
1
−1
0
1
0
0
−0.1 0 λ
1 0 0
−0.3 1 0
−0.1 0
λ
0.9 0
λ
0 1 λ/3
1
0
0
−0.1 0
0.9 0
−0.3 1
λ
λ
0
1 0 0 10/9λ
0 1 0 10/9λ
0 0 1 1/3λ
– 168 –
−0.1
1
−0.3

0
0
1
...
Wir erhalten also


10/9
Λ = 10/9 λ,
1/3


10/9
γ =  2/9  λ
1/6
Bedingung für Ergodizität: 10/9λ < 1, also λ < 0.9.
Für λ = 0.5 ergibt sich


5/9
γ =  1/9 
1/12
und damit
P(X1 = 7, X2 = 4)
=
4 5 7 8 1 4
≈ 10−6 .
9 9 9 9
– 169 –
8. Geschlossene Netzwerke
8.1. Grenzverteilung
In geschlossenen Netzwerken (Gordon-Newell-Netzwerke) gibt es eine
feste Anzahl K von Kunden, die sich im System bewegen.
– 170 –
Grenzverteilung geschlossener Netzwerke
(1)
Eine Grenzverteilung existiert stets.
(2)
Die Zufallsvariablen X1 , X2 , . . . , XN sind im allgemeinen nicht
unabhängig.
(3)
Es sei Λ = (Λ1 , . . . , ΛN ) eine (nicht eindeutige) Lösung des
linearen Gleichungssystems
(I − P)t Λ = 0
und γi = Λi /µi .
Dann gilt für die gemeinsame Verteilung der Kundenzahlen
P(X1 = k1 , X2 = k2 , . . . , XN = kN ) =
N
1 Y ki
γi .
C
i=1
Dabei ist die Konstante C gegeben durch
C=
X
N
Y
k1 +...+kN =K i=1
– 171 –
γi ki .
Wie berechnet man die Summe
X
C=
N
Y
γi ki
?
k1 +...+kN =K i=1
Beispiel: N = 3, K = 4.
k1
0
0
0
0
0
k2
0
1
2
3
4
k3
4
3
2
1
0
Insgesamt gibt es
k1
1
1
1
1
k2
0
1
2
3
k3
3
2
1
0
6
2
K +N−1
N−1
=
k1
2
2
2
3
3
4
k2
0
1
2
0
1
0
k3
2
1
0
1
0
0
= 15 Fälle.
Dann ergibt sich
C = γ34 + γ21 γ33 + γ22 γ33 + γ23 γ31 + γ24
+ γ1 γ33 + γ1 γ21 γ32 + γ1 γ22 γ31 + γ1 γ23
+ γ12 γ2 γ32 + γ12 γ2 γ21 γ31 + γ12 γ2 γ22 + γ13 γ3 + γ13 γ2 + γ14 .
– 172 –
Beispiel
4 Kunden durchlaufen 3 Bedienstationen wie folgt:
Es ist

0

P= 1
1
1/2
0
0
– 173 –

1/2
0 
0
Beispiel (Forts.)
Wir lösen (I − P)t Λ = 0:
1
−1/2
−1/2
−1 −1
1
0
0
1
1
0
0
−1
1/2
−1/2
−1
−1/2
1/2
1 0
0 1
0 0
−2
−1
-1
⇒ Λ = (2, 1, 1) (oder auch z.B. (1, 1/2, 1/2) oder (10, 5, 5)).
Gemeinsame Grenzverteilung:
1
(2/10)k1 (1/5)k2 (1/30)k3
C
6k1 +k2
=
.
304 C
P(X1 = k1 , X2 = k2 , X3 = k3 ) =
– 174 –
Beispiel (Forts.)
K +N−1
N−1
=
5
2
= 15 Kombinationen für 6k1 +k2 :
k1 \k2
0
1
2
3
4
0
1
6
36
216
1296
1
6
36
216
1296
2
36
216
1296
3
216
1296
4
1296
Summe: 7465.
⇒ C=
7465
304
= 0.00921605 bzw. 304 C = 7465.
Es ist beispielsweise
P(X1 = 2, X2 = 1, X3 = 1) = P(X1 = 1, X2 = 2, X3 = 1)
= P(X1 = 0, X2 = 3, X3 = 1)
= P(X1 = 3, X2 = 0, X3 = 1)
=
63
= 0.0289 ≈ 3%.
7465
– 175 –
Beispiel (Forts.)
Übrige Wahrscheinlichkeiten:
k1 \k2
0
1
2
3
4
0
0.0001
0.0008
0.0048
0.0289
0.1736
1
0.0008
0.0048
0.0289
0.1736
0.
2
0.0048
0.0289
0.1736
0.
0.
– 176 –
3
0.0289
0.1736
0.
0.
0.
4
0.1736
0.
0.
0.
0.
Beispiel: 2-Prozessorsystem
Fünf Programme (Jobs) werden in einem Computer abwechselnd in
zwei Prozessoren ausgeführt. Dabei seien die Bearbeitungszeiten exponentiell mit mittlerer Bedienzeit 1s und 4s.
Dann ist µ1 = 1, µ2 = 1/4 und es ergibt sich P =
1
−1
−1
1
1
0
−1
-1
– 177 –
⇒
0
1
Λ1 = Λ2 .
1
0
und
Beispiel: 2-Prozessorsystem (Forts.)
Wir setzen z.B. Λ1 = Λ2 = 1.
Dann gilt
P(X1 = i, X2 = j) =
1 1
.
C µi1 µj2
Also ist
C
=
K
X
i=0
K +1
K i
1 − µµ21
X
1
µ
2
= µ−K
= µ−K
.
2
2
−i
µ
1 − µµ21
µi1 µK
1
2
i=0
Es ergibt sich
P(X1 = i, X2 = K − i) =
– 178 –
µ i
1 − µµ21
2
.
K +1
µ1
µ2
1 − µ1
Beispiel
Es sei folgendes geschlossenes Netzwerk gegeben:
Im System befinden sich 2 Kunden. Die mittleren Bedienzeiten betragen
in den Servern jeweils eine Minute.
Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation
vorzufinden?
– 179 –
..
0
0
P=
0
0.9
1
0
0
0.1

0
0.9
0
0

0
0.1
,
1
0
1
−1
T
(I − P) = 
0
0

0
1
−0.9
−0.1
0
0
1
−1
Gauss-Elimination:
1
0
0
0
0
0 −0.9
1 0
−1
−1 0
1
1 10 −10
1 0
0
0 1
0
0 0 10
0 0
0
−0.9
−1
−9
0
Also ist z.B.
Λ = (0.9, 1, 0.9, 1)
und damit
γ = (0.9, 1, 0.9, 1).
– 180 –
1 0
0 1
0 0
0 0
0
0
0
0
−0.9
−1
−0.9
-1

−0.9
−0.1

0 
1
..
Es ist dann
P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) =
0.9k1 +k3
.
C
Es gibt
K +N −1
5
=
= 10
N −1
3
Kombinationen von ki -Werten:
C = 3 · 0.90+0 + 2 · 0.90+1 + 0.90+2 + 2 · 0.91+0 + 0.91+1 + 0.92+0
= 9.84
Also
P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) =
– 181 –
0.9k1 +k3
.
9.84
..
Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation
vorzufinden?
0.92
,
P(X1 = 2, X2 = 0, X3 = 0, X4 = 0) =
9.84
1
P(X1 = 0, X2 = 2, X3 = 0, X4 = 0) =
,
9.84
0.92
,
P(X1 = 0, X2 = 0, X3 = 2, X4 = 0) =
9.84
1
P(X1 = 0, X2 = 0, X3 = 0, X4 = 2) =
.
9.84
Also ergibt sich die Wahrscheinlichkeit
2
(0.92 + 1) ≈ 36.8%.
9.84
– 182 –
9. Die M/G/1-Warteschlange
9.1. Einführung
Häufig ist es zu restriktiv, exponentielle Bedienzeiten anzunehmen. Wir
betrachten jetzt Warteschlangen mit einer Bedienstation, exponentiellen
Zwischenankunftszeiten und beliebig verteilten Bedienzeiten.
Wie bisher auch beschreiben λ und µ die Ankunftsrate bzw.
Bedienrate. Wir schreiben wieder % = λ/µ für die Verkehrsintensität.
Es bezeichne G die Verteilungsfunktion der Bedienzeiten:
G (x) = P(B ≤ x).
– 183 –
Es sei wie schon zuvor
X Anzahl von Kunden im System,
L Anzahl der Kunden in der Warteschlange,
W die Wartezeit in der Warteschlange,
S die gesamte Aufenthaltszeit im System und
R die restliche Bedienzeit des Kunden in der Bedienstation unter der
Annahme, dass X > 0 ist.
Es gilt nach wie vor das Littlesche Gesetz in seinen drei Varianten:
E (X ) = λE (S),
E (L) = λE (W ),
und
E (Q) = λE (B).
– 184 –
9.2. Kundenzahl
Ergodizität
Gilt % = λ/µ < 1, dann besitzt das M/G/1-Warteschlangensystem für
die Verteilung der Kundenzahl Xt im System eine Grenzverteilung
π = lim P(Xt = k).
t→∞
Die Grenzverteilung besitzt, anders als im M/M/1 System, eine
komplizierte Form (sog. Pollaczeck-Khinchine-Formel). Wir begnügen
uns mit Aussagen über Mittelwerte.
Aus dem 3.Littleschen Gesetz folgt, wie schon beim
M/M/1-Wartesystem
E (Q) = λE (B)
⇔
P(X > 0) = %
⇔
π0 = 1 − %.
– 185 –
9.3. Wartezeit und mittlere Kundenzahl
Es gilt im Augenblick einer Ankunft:
E (W )
PASTA
=
Little
E (L)E (B) + P(X > 0)E (R)
=
λE (W )E (B) + %E (R)
=
%E (W ) + %E (R)
Also gilt
E (W ) = E (R)
ρ
.
1−%
Wir müssen noch E (R) berechnen.
Im Gegensatz zur Situation in der M/M/1-Warteschlange, stimmt die
Verteilung der Restbedienzeit R im allgemeinen nicht überein mit der
Verteilung der Bedienzeiten.
– 186 –
Verteilung der Restbedienzeit
Verteilungsfunktion der Restbedienzeit:
Z x
G ∗ (x) = P(R ≤ x) = µ
(1 − G (x)) dx.
0
G ∗ ist stetig mit Dichtefunktion
g ∗ (x) = µ(1 − G (x)).
Der Erwartungswert ist dann
Z
∞
x(1 − G (x)) dx
Z ∞
1 2
part.Int.
= µ
x g (x) dx
2
0
µ
= E (B 2 ).
2
E (R) = µ
0
– 187 –
Beispiel
Wir betrachten eine Warteschlange mit auf [0, b] gleichverteilten Bedienzeiten, d.h.
(
x
;0 < x ≤ b
G (x) = b
1 ;x > b
Dann ist E (B) = b/2 = 1/µ, E (B 2 ) = b 2 /3.
Für die Dichtefunktion von G ∗ ergibt sich
(
2
(1 − xb ) ; 0 < x ≤ b
g ∗ (x) = b
0
;x > b
– 188 –
Beispiel (Forts.)
Also ist
(
∗
G (x) =
2
b (x
−
x2
2b )
1
;0 < x ≤ b
;x > b
Dichte- und Verteilungsfunktion:
Für den Erwartungswert von R erhalten wir
b
µ
E (R) = E (B 2 ) = .
2
3
– 189 –
Aus
E (W ) = E (R)
ρ
1−%
und
E (R) =
µ
E (B 2 )
2
E (W ) =
λE (B 2 )
.
2(1 − %)
ergibt sich:
Little:
E (X )
= λE (S) = λ E (W ) + E (B)
= %+
λ2 E (B 2 )
.
2(1 − %)
– 190 –
Wartezeit und mittlere Kundenzahl M/G/1
Für die M/G/1-Warteschlange gelten die folgenden Formeln für Erwartungswerte:
λ2 E (B 2 )
,
2(1 − %)
λE (B 2 )
E (W ) =
,
2(1 − %)
λ2 E (B 2 )
E (X ) = % +
,
2(1 − %)
1
λE (B 2 )
E (S) = +
.
µ 2(1 − %)
E (L) =
Zur Berechnung der obigen Erwartungswerte ist also die Kenntnis von
E (B) und E (B 2 ) ausreichend.
– 191 –
Beispiel
In einer Fabrik wird an einer Maschine ein Werkstück gefertigt. Die
Fertigung gelinge beim ersten Versuch nur in 75% der Fälle. Erst dann,
wenn die Fertigung erfolgreich war, kann das nächste Stück gefertigt
werden. Ein Versuch dauert exakt eine Minute. Die Ankunftsrate der
Werkstücke sei λ = 0.5 min−1 .
Die Verteilung der Bedienzeiten ist geometrisch mit Erfolgswahrscheinlichkeit p = 3/4, d.h.
P(B = k) = (1/4)k−1 · 3/4
Dann ist µ = 1/E (B) = p = 3/4, % =
2
3
< 1 und
1
2−p
20
1−p
+ 2 =
=
.
2
2
p
p
p
9
5
5
3
Also gilt: E (L) = , E (W ) = , E (X ) = , E (S) = 3.
6
3
2
E (B 2 ) = Var(B) + E (B)2 =
– 192 –
10. Anhang
10.1. Geschichte der Warteschlangentheorie
Andrei Andreievich Markov (1856-1922)
Russischer Mathematiker
Markov-Prozesse, Markov-Ketten.
Andrei Nikolajewitsch Kolmogorov (1903-1987)
Russischer Mathematiker
Begründer der modernen Wahrscheinlichkeitstheorie.
– 193 –
Agner Krarup Erlang (1878-1929)
Dänischer Mathematiker und Ingenieur
Begründer der Warteschlangentheorie, ”The Theory of
Probabilities and Telephone Conversations” (1909),
Erlang-B/C-Formel,
Erlang-Verteilung der Summer exponentieller
Zufallsvariablen.
Tore Olaus Engset (1865-1943)
Norwegischer Mathematiker und Ingenieur
Engset-Formel
– 194 –
Alexander Jakowlewitsch Khinchin (1894-1959)
Russischer Mathematiker.
Pollaczek-Khinchin-Formel (M/G/1)
Felix Pollaczek (1892-1981)
Österreichisch-französischer Mathematiker
Pollaczek-Khinchin-Formel (M/G/1)
David George Kendall (1918-2007)
Englischer Mathematiker
– 195 –
Dennis Lindley (1923-2013)
Lindleys Gleichung.
James Richard Jackson (1924 – 2011)
Amerikanischer Mathematiker
Jackson-Netzwerke
Achtung Verwechslungsgefahr! Ray R.P. Jackson,
Tandem-Warteschlangen.
John Dutton Conant Little (1928)
Amerikanischer Physiker
Little’s formula.
– 196 –
Leonard Kleinrock (1934)
Amerikanischer Informatiker/Elektroingenieur.
Jacob Willem Cohen (1923-2000)
Retrial queues. Standardwerk: ”The Single Server
Queue”.
Sir John Frank Charles Kingman (1939)
Englischer Mathematiker
Regenerative Prozesse.
– 197 –
10.2. Logarithmus
log(x · y ) = log(x) + log(y )
log(x y ) = y · log(x)
log(1) = 0
Basenumrechnung: loga (x) = log(x)/ log(a).
Lösung von Gleichungen mit der Unbekannten im Exponenten:
qx = r
⇔
x log(q) = log(r )
⇔
x = log(r )/ log(q).
– 198 –
10.3. Potenzen und Wurzeln
b x+y = b x · b y
b x·y = (b x )y
(a · b)x = ax · b x ,
(a/b)x = ax /b x
b0 = 1
1/b = b −1
√
b = b 1/2
√
n
b = b 1/n
(a + b)2 = a2 + 2ab + b 2
(a − b)2 = a2 − 2ab + b 2
(a + b)(a − b) = a2 − b 2
Pn
(a + b)n = k=0 kn ak b n−k
– 199 –
10.4. Exponentialfunktion
e x+y = e x · s y
e x·y = (e x )y
Für jede reelle Zahl x ∈ R gilt
ex =
∞
X
xk
k=0
k!
.
Zum Beispiel ist
e −x =
e=
∞
X
(−1)k
k=0
∞
X
k=0
– 200 –
k!
1
.
k!
,
(1)
(2)
10.5. Geometrische Summe
Es gilt für jedes q ∈ R
n
X
k=0
n
X
k=1
n
X
k=m
qk =
1 − q n+1
1−q
(3)
1 − qn
1−q
(4)
q m − q n+1
1−q
(5)
qk = q
qk =
– 201 –
Für −1 < q < 1 existiert der Grenzwert für n → ∞:
∞
X
1
qk =
,
1−q
k=0
∞
X
qk =
k=m
∞
X
kq k =
qm
.
1−q
∞
X
k=0
∞
X
k=1
∞
X
k=0
k=1
k 2qk =
kq k =
(7)
q
(1 − q)2
k 2qk =
– 202 –
(6)
q(1 + q)
(1 − q)2
(8)
(9)
10.6. Integrale
Partielle Integration:
Z
Z b
b
0
F (x)G (x) dx = [F (x)G (x)]a −
b
F (x)G 0 (x) dx.
a
a
Substitutionsregeln:
Z b
Z
h−1 (b)
f (x) dx =
h0 (u)f (h(u)) du
h−1 (a)
a
und
Z
b
h0 (x)f (h(x)) dx =
a
Z
h(b)
f (u) du.
h(a)
– 203 –
10.7. Literatur zum Weiterlesen
Soren Asmussen
Applied Probability and Queues, Springer
Onno Boxma
Stochastic Performance Modelling, Eindhoven University of Technology
– 204 –
Inhalt
1. Einführung
1.1
1.2
1.3
1.4
1
Einfaches Warteschlangenmodell
Beispiele
Erweiterte Modelle
Interessante Größen
2. Stochastik
2.1
2.2
2.3
2.4
2.5
1
5
6
9
10
Zufallsvariablen und ihre Verteilung
Erwartungswerte
Das Gesetz der großen Zahlen
Wichtige Verteilungen
Die Exponential- und Poisson-Verteilung
– 205 –
10
16
19
21
27
3. Der Ankunftsprozess und die Bedienzeiten
3.1
3.2
3.3
3.4
3.5
Die Ankunfts- und Zwischenankunftszeiten
Der Erneuerungsprozess der Ankünfte
Markovsche Ankünfte / Poisson-Prozess
Bedienzeiten
Exponentielle Bedienzeiten
4. Die M/M/1-Warteschlange
4.1
4.2
4.3
4.4
4.5
4.6
33
33
38
43
48
50
52
Definition
Die Anzahl der Kunden im System
Grenzverteilung / Stationärer Zustand
PASTA
Die Warte- und Aufenthaltszeit im System
Littles Gesetz
– 205 –
52
53
59
68
70
77
5. Markovketten
5.1
5.2
5.3
5.4
5.5
79
Markovketten in diskreter Zeit
Übergangsdiagramm
Markovketten in stetiger Zeit
Die Intensitätsmatrix
Geburts- und Todesprozesse
79
84
86
89
91
6. M/M-Warteschlangensysteme
102
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
6.9
M/M/1
M/M/1/K - Warteschlange mit beschränkter Kapazität
Spezialfall: M/M/1/1
M/M/∞ - Beliebig viele Bedienstationen
M/M/m - System mit m Bedienstationen
Erlangsches Verlustmodell (M/M/m/m)
Engset-Modell für eine endliche Population
Sonderfall: Engset-Modell mit K = N
Der Satz von Burke
– 205 –
102
105
114
117
123
136
141
147
149
7. Offene Netzwerke
7.1
7.2
7.3
7.4
154
M/M/1-Tandem-Warteschlange
Offene Netzwerke
Durchsatz
Satz von Jackson
8. Geschlossene Netzwerke
154
158
160
162
170
8.1 Grenzverteilung
170
9. Die M/G/1-Warteschlange
183
9.1 Einführung
9.2 Kundenzahl
9.3 Wartezeit und mittlere Kundenzahl
– 205 –
183
185
186
Herunterladen