Vorlesungsfolien

Werbung
WARTESCHLANGENTHEORIE
HSU Hamburg, Frühjahrstrimester 2014
Andreas Löpker
1. Einführung
1.1. Einfaches Warteschlangenmodell
Der Ankunftsprozess beschreibt die zufällige Ankunft von Kunden.
Ist die Bedienstation besetzt, so müssen die Kunden in der
Warteschlange warten.
An der Bedienstation ergibt sich für jeden Kunden, der bedient wird,
eine zufällige Bediendauer.
Nach der Bedienung verlassen die Kunden das System und bilden den
Abgangsprozess.
–1–
Kendall-Notation
Warteschlangen werden häufig durch vier Parameter A, B, c und K klassifiziert. Man verwendet die Kendall-Notation:
A/B/c/K
A beschreibt den Ankunftsprozess:
M=Exponentiell, G=Allgemein,
D=Deterministisch.
B beschreibt die Bedienungszeit:
M=Exponentiell, G=Allgemein,
D=Deterministisch.
c gibt Auskunft über die Anzahl der Bedienstationen (Server),
K entspricht der Warteschlangenkapazität.
–2–
In dieser Vorlesung:
M/M/1 - Exponentielle Ankünfte und Bedienzeiten, ein Server.
M/M/1/K - Exponentielle Ankünfte und Bedienzeiten, ein Server,
aber nur maximal K freie Plätze in der Warteschlange. Es bedarf einer
Vereinbarung, was mit abgewiesenen Kunden passiert.
M/M/∞ - Exponentielle Ankünfte und Bedienzeiten. Es ist immer ein
Server frei.
M/M/m - Exponentielle Ankünfte und Bedienzeiten, m Server.
M/M/m/m - Exponentielle Ankünfte und Bedienzeiten, m Server,
Kapazität m.
M/G/1 - Exponentielle Ankünfte und beliebige Bedienzeiten, ein
Server.
Netzwerke von Warteschlangen.
–3–
Meistens werden folgende Eigenschaften des Modells angenommen:
die Zwischenankunftszeiten besitzen dieselbe Verteilung und sind
voneinander unabhängig (kurz: i.i.d. engl. ”independent and identically
distributed”),
die Bedienzeiten sind ebenfalls i.i.d.,
die Zwischenankunftszeiten und die Bedienzeiten sind unabhängig
voneinander,
Kunden, die zuerst ankommen, werden auch zuerst bedient (FIFOoder FCFS-Disziplin).
–4–
1.2. Beispiele
Bankschalter
Kunden kommen zu zufälligen Zeitpunkten in die Bank und werden dort
an einem Schalter bedient. Vor dem Schalter bildet sich eine Warteschlange.
Befahren eines Streckenabschnitts durch Züge
Die Züge sind die Kunden, der Streckenabschnitt ist der Server. Die
Warteschlange wird durch die vorgelagerten Streckenabschnitte gebildet.
Produktionsanlagen
Die Kunden sind Produkte, die in einer Maschine bearbeitet werden
müssen.
–5–
1.3. Erweiterte Modelle
Andere Warteschlangendisziplinen
Es gibt verschiedene weitere Abfertigungsmechanismen:
LIFO (LCFS): Ein ankommender Kunde wird sofort bedient, die Bedienung des aktuellen Kunden wird unterbrochen.
SIRO: Sobald der Server ohne Arbeit ist wird zufällig ein Kunde aus
der Schlange ausgewählt.
Prioritäten: Kunden haben verschiedene Prioritäten und werden je
nach Priorität ausgewählt.
–6–
Mehrere Server
Parallel:
In Serie (Tandem-Warteschlange):
–7–
Netzwerke
In Warteschlangennetzen muss es Regeln für die Verteilung auf die verschiedenen Server geben (Routing).
–8–
1.4. Interessante Größen
Uns interessieren u.a. folgende Größen:
Verteilung (oder Erwartungswert) der Wartezeiten,
Verteilung (oder Erwartungswert) der Aufenthaltsdauer im System,
Verteilung (oder Erwartungswert) der Anzahl von Kunden in der
Warteschlange,
Verteilung (oder Erwartungswert) der Zeiten, in denen der Server
arbeitet (bzw. nicht arbeitet),
Auslastung des Systems,
Verhalten des Systems, wenn die Zeit gegen unendlich strebt.
–9–
2. Stochastik
2.1. Zufallsvariablen und ihre Verteilung
Zufallsvariablen
Zufallsvariablen sind mathematische Größen, die einen zufälligen
Zahlenwert annehmen.
Es gibt diskrete Zufallsvariablen, die nur abzählbar viele Werte
x1 , x2 , . . . annehmen und stetige Zufallsvariablen mit Werten z.B. in
einem Intervall [a, b].
– 10 –
Beispiel: Diskrete Zufallsvariable
Die Augenzahl beim Würfeln ist eine diskrete Zufallsvariable, denn sie
nimmt nur die Werte 1 bis 6 an.
Beispiel: Diskrete Zufallsvariable
Die Anzahl von Kunden in der Wartschlange ist eine weitere diskrete
Zufallsvariable mit Werten in der Menge N ∪ {0} = {0, 1, 2, . . .}.
Beispiel: Stetige Zufallsvariable
Die Ankunftszeit eines Kunden kann durch eine stetige Zufallsvariable
beschrieben werden.
– 11 –
Verteilung
Zufallsvariablen werden durch ihre Verteilung beschrieben. Das geschieht meistens, indem man ihre Verteilungsfunktion angibt:
F (x) = P(X ≤ x).
Die Funktion F ist nicht-fallend, rechtsseitig stetig, hat Werte im
Intervall [0, 1] und es gilt
lim F (x) = 0,
x→−∞
– 12 –
lim F (x) = 1.
x→∞
Wahrscheinlichkeitsfunktion
Bei diskreten Zufallsvariablen kann man die Verteilung am besten
durch Angabe der Wahrscheinlichkeitsfunktion
f (xk ) = P(X = xk )
angeben.
Beispiel
Beim Würfeln ist die Augenzahl eine Zufallsvariable X mit
1
1
1
f (1) = , f (2) = , f (3) = ,
6
6
6
1
1
1
f (4) = , f (5) = , f (6) = .
6
6
6
– 13 –
Verteilungsfunktion und Wahrscheinlichkeit
Die Verteilungsfunktion F (x) einer diskreten Zufallsvariable X besitzt
Sprünge der Höhe f (xi ) an den Stellen xi :
Es gilt
P(X ∈ (a, b]) = F (b) − F (a) =
X
xi ∈[a,b]
– 14 –
f (xi ).
Dichtefunktion
Bei stetigen Zufallsvariablen beschreibt man die Verteilung durch die
Angabe der Verteilungsfunktion F (x) oder ihrer Ableitung, der Dichtefunktion:
d
F (x).
f (x) =
dx
Für stetige Zufallsvariablen gilt
P X ∈ (a, b] = F (b) − F (a) =
Z
f (u) du.
a
– 15 –
b
2.2. Erwartungswerte
Erwartungswert
Als Erwartungswert E (X ) bezeichnet man eine theoretische Größe,
die eine Art Mittelwert der Zufallsvariablen angibt.
Für eine diskrete Zufallsvariable ist
X
E (X ) =
xi · f (xi ).
xi
Für eine stetige Zufallsvariable ist
Z ∞
E (X ) =
x · f (x) dx
−∞
– 16 –
Allgemeine Erwartungswerte
Ist g (x) eine Funktion, so kann man den Erwartungswert von E (g (X ))
wie folgt berechnen:
Für eine diskrete Zufallsvariable ist
X
E (g (X )) =
g (xi ) · f (xi ).
xi
Für eine diskrete Zufallsvariable ist
Z ∞
g (x) · f (x) dx
E (g (X )) =
−∞
– 17 –
Varianz
Die Varianz ist ein Maß für die Streuung einer Zufallsvariablen. Sie
ergibt sich als Erwartungswert des quadratischen Abstands vom Erwartungswert:
Var(X ) = E ((X − E (X ))2 ).
Alternative Berechnungsmethode:
Var(X ) = E (X 2 ) − E (X )2 .
Beispiel: Augenzahl
Es ist
E (X 2 ) =
1 2 1 2
1
91
1 + 2 + . . . + 62 =
.
6
6
6
6
Also ist
Var(X ) = E (X 2 ) − E (X )2 =
– 18 –
35
91 49
−
=
.
6
4
12
2.3. Das Gesetz der großen Zahlen
(
LLN.cdf)
Ein Würfel wird 10 mal geworfen. Die jeweilige Augenzahl Xk und der
aktuellen Mittelwert Mk = (X1 + X2 + . . . + Xk )/k werden notiert:
i
1
2
3
4
5
6
7
8
9
10
Xi
5
2
5
2
4
4
3
2
6
4
Mi
5
7/2
4
7/2
18/5
11/3
25/7
27/8
11/3
37/10
– 19 –
Bei 100 Würfen ergibt sich:
(Starkes) Gesetz der großen Zahlen
Sind die Zufallsvariablen X1 , X2 , . . . unabhängig und identisch verteilt
mit E (|X1 |) < ∞, so gilt
X1 + X2 + . . . + Xn
P lim
= E (X1 ) = 1.
n→∞
n
– 20 –
2.4. Wichtige Verteilungen
Bernoulli-Verteilung
X nimmt nur die zwei Werte 0 und 1 an (x1 = 0, x2 = 1).
P(X = 1) = p, P(X = 0) = 1 − p, p ∈ [0, 1], d.h. für die
Wahrscheinlichkeitsfunktion gilt f (x1 ) = 1 − p und f (x2 ) = p.
E (X ) = 1 · p + 0 · (1 − p) = p, k = 0, 1, . . . , n.
Var(X ) = p − p 2 = p(1 − p).
Ein Bernoulli-Experiment ist ein Zufallsexperiment, das nur zwei
Ausgänge (Erfolg und Misserfolg) kennt.
– 21 –
Binomialverteilung
X beschreibt die Anzahl von Versuchen bei n Bernoulli-Experimenten
bei denen Erfolg eintritt.
P(X = k) = kn p k (1 − p)n−k , k = 0, 1, . . . , n
E (X ) = np.
Var(X ) = np(1 − p).
– 22 –
Beispiel
Ein Würfel wird 5 mal geworfen. Es sei X die Anzahl der Würfe mit
einer Augenzahl > 4. Es ist p = 1/3 und 1 − p = 2/3 und damit
5 0
P(X = 0) =
p (1 − p)5 = (2/3)5 ,
0
5 1
P(X = 1) =
p (1 − p)4 = 5(1/3)(2/3)4 ,
1
5 2
P(X = 2) =
p (1 − p)3 = 10(1/3)2 (2/3)3 ,
2
5 3
P(X = 3) =
p (1 − p)2 = 10(1/3)3 (2/3)2 ,
3
5 4
P(X = 4) =
p (1 − p)1 = 5(1/3)4 (2/3)1 ,
4
5 5
P(X = 5) =
p (1 − p)0 = (1/3)5 .
5
– 23 –
Geometrische Verteilung vom Typ I
X beschreibt, nach wie vielen Bernoulli-Experimenten zum ersten mal
Erfolg auftritt.
P(X = k) = (1 − p)k−1 p, k = 1, 2, 3, . . .
E (X ) = p1 .
Var(X ) =
1−p
p2 .
Geometrische Verteilung vom Typ II
X beschreibt die Fehlversuche bis zum ersten Erfolg bei BernoulliExperimenten.
P(X = k) = (1 − p)k p, k = 0, 1, 2, 3, . . .
E (X ) =
1−p
p .
Var(X ) =
1−p
p2 .
– 24 –
Beispiel
Wie lange muss man im Durchschnitt würfeln, bis man eine 6 würfelt?
Es sei X die Anzahl der Würfe, bis eine Augenzahl 6 gewürfelt wird.
Es ist p =
1
6
und daher
E (X ) =
1
= 6.
p
– 25 –
Gleichverteilung
X nimmt Werte in einem Intervall [a, b] an. Dabei ist die Wahrscheinlichkeit in einem Teilintervall I zu liegen, proportional zur Intervalllänge.
F (x) = P(X ≤ x) =
f (x) =
1
b−a ,
E (X ) =
x−a
b−a ,
x ∈ [a, b],
x ∈ [a, b],
a+b
2 ,
Var(X ) =
(b−a)2
12 .
– 26 –
2.5. Die Exponential- und Poisson-Verteilung
Die Exponentialverteilung
(
Exp.cdf)
Eine Zufallsvariable X ist exponentiell verteilt mit Parameter λ > 0,
wenn F die Exponentialverteilung ist:
(
0
;x < 0
F (x) = P(X ≤ x) =
−λx
1−e
;x ≥ 0
Dichtefunktion:
d
f (x) =
F (x) =
dx
(
– 27 –
0
λe
;x < 0
−λx
;x ≥ 0
Für den Erwartungswert ergibt sich
Z ∞
Z ∞
E (X ) =
xf (x) dx =
xλe −λx dx
0
0
Z ∞
−e −λx ∞
1
−λx
−λx ∞
+
e
dx
=
− xe
=
]0 = .
0
λ
λ
0
Für die Varianz erhält man durch eine ähnliche Rechnung
Var(X ) = 1/λ2 .
Als nächstes wollen wir die Ws. berechnen, dass X größer ist als x + y ,
gegeben, dass X größer ist als y . Wir benötigen dazu die Formel für die
bedingte Wahrscheinlichkeit:
Bedingte Wahrscheinlichkeit
Für zwei Ereignisse A und B mit P(B) > 0 gilt:
P(A|B) =
P(A und B)
.
P(B)
– 28 –
Dann gilt:
P(X > x + y |X > y )
=
=
P(X > x + y , X > y )
P(X > y )
P(X > x + y )
P(X > y )
=
1 − (1 − e −λ(x+y ) )
1 − (1 − e −λy )
=
e −λ(x+y )
e −λx e −λy
=
= e −λx .
−λy
e
e −λy
Gedächtnislosigkeit der Exponentialverteilung
Besitzt X eine exponentielle Verteilung mit Parameter λ, so ist für jedes
y > 0 die Verteilung von X gegeben X > y erneut eine Exponentialverteilung mit demselben Parameter λ.
– 29 –
Beispiel
Die Ankunftszeit T eines Kunden sei exponentiell verteilt mit Erwartungswert 10 Minuten (λ = 1/10). Angenommen es kam in den ersten
15 Minuten kein Kunde an.
Die Wahrscheinlichkeit, auf den ersten Kunden noch mindestens weitere
8 Minuten warten zu müssen ist
P(T > 23|T > 15) = P(T > 8)
1
= e − 10 ·8
= e −0.8
≈ 0.45,
unabhängig von den bereits vergangenen 15 Minuten.
– 30 –
Poisson-Verteilung
Interpretation: Siehe Abschnitt ”Der Ankunftsprozess und die Bedienzeiten”.
k
P(X = k) = e −c ck! , k = 0, 1, 2, . . .
E (X ) = c.
Var(X ) = c.
Beispiel
Ist X Poisson-verteilt mit Parameter c = 3, dann gilt
0
P(X = 0) = e −3 30! ≈ 0.05,
1
P(X = 1) = e −3 31! ≈ 0.15,
2
P(X = 2) = e −3 32!
..
..
.
.
– 31 –
≈ 0.22,
..
.
Zusammenfassung – Abschnitt 2
Diskrete und stetige Zufallsvariablen und ihre Verteilungsfunktionen.
Erwartungswerte, bedingte Wahrscheinlichkeit.
Gesetz der großen Zahlen.
Verteilungen: Bernoulli-Verteilung, Binomialverteilung, Geometrische
Verteilung, Gleichverteilung
Wichtig: Exponentialverteilung und Poisson-Verteilung.
– 32 –
3. Der Ankunftsprozess und die Bedienzeiten
3.1. Die Ankunfts- und Zwischenankunftszeiten
Der Ankunftsprozess beschreibt die zufälligen Ankünfte der Kunden.
Die Kunden erreichen das System zu den Ankunftszeitpunkten
T1 , T2 , T3 , . . .. Der k-te Kunde betritt das System zum Zeitpunkt Tk .
Wir setzen T0 = 0.
– 33 –
Die Zwischenankunftszeiten
A1 = T1 − T0
A2 = T2 − T1
..
..
.
.
sind positive unabhängige Zufallsvariablen mit identischer Verteilung.
Der Wert λ =
1
E (Ai )
heißt Ankunftsrate.
– 34 –
Beispiel (Amt)
In einem Bürgeramt werden Wartenummern für die Besucher ausgegeben. Die Ankunftszeiten der ersten zehn Besucher registiert:
Kunde Nr. k:
Ankunftszeit Tk :
1
26
2
67
3
76
4
83
5
125
– 35 –
6
129
7
203
8
211
9
244
10
248
Beispiel (Amt)
Es ergeben sich folgende Zwischenankunftszeiten:
Kunde Nr. k:
Zwischenankunftszeit Ak :
1
26
2
41
3
9
4
7
5
42
6
4
Geschätzte Ankunftsrate:
λ̃ = 1/24.8
≈ 0.04 Bürger pro Minute
≈ 2.42 Bürger pro Stunde.
– 36 –
7
74
8
8
9
33
10
4
Beispiel (Amt)
Kunde Nr. k:
Zwischenankunftszeit Ak :
1
26
2
41
3
9
4
7
5
42
6
4
7
74
8
8
9
33
10
4
Empirische Verteilungsfunktion der Zwischenankunftszeiten und exponentielle Verteilungsfunktion mit λ = 0.04.
– 37 –
3.2. Der Erneuerungsprozess der Ankünfte
Der Zählprozess N(t), der die Ankünfte bis zum Zeitpunkt t zählt,
heißt Erneuerungsprozess.
Den Erwartungswert
U(t) = E (N(t))
nennt man Erneuerungsfunktion.
Die Erneuerungsfunktion ist in den meisten Fällen nur schwer explizit
anzugeben. Es ist im allgemeinen U(t) 6= λ · t.
– 38 –
Beispiel (Amt)
k:
Tk :
Ak :
1
26
26
2
67
41
3
76
9
4
83
7
5
125
42
6
129
4
– 39 –
7
203
74
8
211
8
9
244
33
10
248
4
Beispiel (Amt)
Es werden jetzt weitere zehn Besucherankünfte registiert.
– 40 –
Beispiel (Amt)
100 Ankünfte:
Vermutung: N(t) ≈ λt.
– 41 –
Erneuerungssatz
Es gilt
P
N(t)
= λ = 1.
t→∞
t
lim
und
U(t)
1
=
= λ.
t→∞
t
E (Ai )
lim
Es gilt also annähernd
U(t) ≈ λt
Erwartete Kundenzahl ≈ Ankunftsrate × Zeit.
– 42 –
3.3. Markovsche Ankünfte / Poisson-Prozess
(
PoissonEvents.cdf)
Besitzen die Zwischenankunftszeiten eine exponentielle Verteilung, so
heißt die Warteschlange Markovsch (Kendall-Notation M/ · /·).
Es gilt also
P(Ai ≤ t) = 1 − e −λt ,
t≥0
und E (Ai ) = λ1 .
In diesem Fall besitzt der Zählprozess N(t) eine Poissonverteilung mit
Parameter λt, d.h.
P(N(t) = k) = e −λt
(λt)k
,
k!
k = 0, 1, 2, . . . .
N(t) heißt dann Poisson-Prozess mit Intensität λ.
Die Erneuerungsfunktion hat dann eine besonders einfache Form:
U(t) = E (N(t)) = λt.
– 43 –
Beobachtung:
Der erste Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < 1 ist.
Der zweite Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < 2 ist.
Der nte Kunde kommt erst nach dem Zeitpunkt t an, genau dann,
wenn N(t) < n ist.
Es ergibt sich:
Duale Beziehung zwischen Tk und N(t)
Tn < t
⇔
N(t) > n
Es folgt also
P(Tn > t) = P(N(t) < n) = e −λx
n−1
X
(λt)k
k=0
– 44 –
k!
.
Verteilung der Ankunftszeiten beim Poisson-Prozess
Die Ankunftszeiten T1 , T2 , . . . besitzen eine Erlang-Verteilung, d.h.
P(Tn ≤ t) = 1 − e −λx
n−1
X
(λt)k
k=0
k!
Die zugehörige Dichtefunktion ist
f (t) =
(λt)n−1 −λt
λe
,
(n − 1)!
Es gilt
E (Tk ) =
– 45 –
k
.
λ
t ≥ 0.
.
Simulation: Poisson-Prozess
(
Poisson.cdf)
λ = 3, t ∈ (0, 2):
λ = 3, t ∈ (0, 5):
– 46 –
Simulation: Poisson-Prozess
λ = 3, t ∈ (0, 20):
λ = 3, t ∈ (0, 100):
– 47 –
3.4. Bedienzeiten
Der Zeitraum, für den sich ein Kunde in Bedienung befindet heißt
Bedienzeit. Sie hängt, bei konstanter Bearbeitungsgeschwindigkeit,
von der Arbeitsmenge, die der Kunde verlangt.
Wir nehmen wieder an, dass die Bedienzeiten B1 , B2 , . . . i.i.d. und
unabhängig von den Ankunftszeiten sind.
Die Bedienrate
Die Bedienrate ist µ = 1/E (B1 ).
Angenommen die Warteschlange wäre immer besetzt, dann bilden
die Abgänge der Kunden einen Erneuerungsprozess. Wenn M(t) die
abgehenden Kunden zählt, dann gilt nach dem Erneuerungssatz
E (M(t))
1
lim
=
= µ.
t→∞
t
E (B1 )
Die Bedienrate gibt also (langfristig) die mittlere Zahl von bedienten
Kunden pro Zeiteinheit in einem voll ausgelasteten System an.
– 48 –
Beispiel
Die Bedienzeiten an einem Schalter besitzen die Verteilungsfunktion
(
0
;x < 1
F (x) = P(B1 ≤ x) =
.
2
1 − 1/x
;x ≥ 1
Dann ist die Dichtefunktion gegeben durch
(
0
;x < 1
f (x) =
.
2/x 3 ; x ≥ 1
Daraus ergibt sich der Erwartungswert
∞
Z ∞
2
1
x 3 dx = 2
E (B1 ) =
= 2.
x
x
1
1
Die Bedienrate ist dann
µ = 1/E (B1 ) = 1/2.
Langfristig werden etwa 0.5 Kunden pro Zeiteinheit bedient, vorausgesetzt die Warteschlange ist immer voll.
– 49 –
3.5. Exponentielle Bedienzeiten
Häufig geht man davon aus, dass die Bedienzeiten eine Exponentielle
Verteilung besitzen, d.h.
P(Bi ≤ x) = 1 − e −µx ,
x ≥ 0.
Die Bedienrate ist dann offenbar
1
= µ,
E (B1 )
d.h. langfristig werden etwa µ Kunden pro Zeiteinheit bedient,
vorausgesetzt es kommen immer genug Kunden an.
Wegen der Gedächtnislosigkeit der Exponentialverteilung ist bei
besetztem Server die Restbedienzeit zum Zeitpunkt t wieder
exponentiell verteilt mit Parameter µ:
P(B1 ≤ t + s|B1 > t) = P(B1 ≤ s) = 1 − e −µs .
– 50 –
Zusammenfassung – Abschnitt 3
Ankunftzeitpunkte und Zwischenankunftszeiten, Ankunftsrate.
Speziell: Poisson-Prozess.
Bedienzeiten und Bedienrate.
Speziell: Exponentielle Bedienzeiten.
– 51 –
4. Die M/M/1-Warteschlange
4.1. Definition
Wir betrachten ein Warteschlangenmodell mit einem Server und einer
Warteschlange mit unbegrenzter Kapazität.
Ankunftsprozess: Poisson-Prozess mit Rate λ.
Bedienzeiten: Exponentiell mit Bedienrate µ.
– 52 –
4.2. Die Anzahl der Kunden im System(
MM.cdf)
Es sei Xt die Anzahl der Kunden, die sich zum Zeitpunkt t im System
befinden. Xt umfasst alle Kunden in der Warteschlange und ggf. den
Kunden, der gerade in Bedienung ist.
(Xt )t≥0 ist ein sog. stochastischer Prozess.
Da Xt zu jedem Zeitpunkt t eine Zufallsvariable ist, macht es Sinn zu
fragen,
wie die Verteilung von Xt aussieht oder
wie viele Kunden im Mittel in der Warteschlange sind.
Es ist im allgemeinen sehr schwer diese zeitabhängigen Größen zu
bestimmen.
– 53 –
Beispiel
An einer Bedienstation kommen Kunden zu folgenden Zeiten mit entsprechenden Bedienzeiten an:
1
2
3
4
5
6
Ankunftszeit
15:03
15:08
15:11
15:13
15:21
15:23
Bedienzeit (min)
6
6
1
2
5
2
– 54 –
Beispiel (Forts.)
Es bezeichne Dk die Abgangszeit des kten Kunden.
k
1
2
3
4
5
6
Tk
3
8
11
13
21
23
Ak
3
5
3
2
8
2
Anzahl Xt der Kunden im System:
– 55 –
Bk
6
6
1
2
5
2
Dk
9
15
16
18
26
28
Die Zeiten, in denen der Server ruht, heissen Leerzeiten (idle periods).
Die Zeiten, in denen der Server mit einem Kunden besetzt ist, heissen
Belegtzeiten (busy periods).
Beispiel
– 56 –
Wir wollen die Verteilung
πk (t) = P(Xt = k)
der Kundenzahl bestimmen.
Die Zwischenankunftszeiten sind exponentiell mit Parameter λ.
Die Anzahl N(t) der bis zum Zeitpunkt t bereits angekommenen
Kunden besitzt eine Poisson-Verteilung, d.h. für ein sehr kleines h > 0
gilt
P(keine Ankunft im Intervall [t, t + h]) = P(N(h) = 0) = e −λh ≈ 1 − λh.
Außer dem gilt
P(eine Ankunft im Intervall [t, t + h]) = e −λh λh ≈ λh,
P(mehr als eine Ankunft im Intervall [t, t + h]) ≈ 0
– 57 –
Die Restbedienzeit eines Kunden in der Bedienstation ist exponentiell
verteilt mit Parameter µ.
Daher gilt
P(kein Abgang im Intervall [t, t + h]) = e −µh ≈ 1 − µh
P(ein Abgang im Intervall [t, t + h]) = e −µh µh ≈ µh,
P(mehr als ein Abgang im Intervall [t, t + h]) ≈ 0
Außerdem gilt
P(weder Abgänge noch Ankünfte im Intervall [t, t + h])
≈ (1 − µh)(1 − λh) ≈ 1 − (λ + µ)h.
– 58 –
Dann ergibt sich
πk (t + h) ≈ (1 − (λ + µ)h)πk (t)
+λhπk+1 (t) + µhπk−1 (t)
⇔
⇔
πk (t + h) − πk (t) ≈ −(λ + µ)hπk (t) + λhπk+1 (t) + µhπk−1 (t)
πk (t + h) − πk (t)
≈ −(λ + µ)πk (t) + λπk+1 (t) + µπk−1 (t)
h
⇒ πk0 (t) = −(λ + µ)πk (t) + λπk+1 (t) + µπk−1 (t).
Mit dem gleichen Argument folgt
π00 (t) = −λπ0 (t) + µπ1 (t)
P∞
Zusätzlich gilt auch noch k=0 πk = 1.
Dieses System von Differentialgleichungen ist sehr schwer zu lösen.
Daher betrachten wir den Prozess Xt für t → ∞ und untersuchen die
Grenzverteilung
πk = lim πk (t),
t→∞
vorausgesetzt der Grenzwert existiert.
– 59 –
4.3. Grenzverteilung / Stationärer Zustand
Die Verteilung πk (t) des Prozesses Xt konvergiert nicht in jedem Fall
gegen eine Grenzverteilung πk .
Es können drei Fälle auftreten:
Transienter Fall: Für jedes K > 0 gilt Xt ∈ [0, K ] nur für einen
endlichen Zeitraum. Es gilt P(Xt → ∞) = 1.
Null-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ]
unendlich oft wieder zurück, die Rückkehrzeiten haben aber einen
unendlichen Erwartungswert.
Positiv-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ]
unendlich oft wieder zurück, die Rückkehrzeiten besitzen einen
endlichen Erwartungswert.
– 60 –
Grenzverteilung / Stationärer Zustand
Im positiv rekurrenten Fall konvergiert die Verteilung der Kundenzahl
πk (t) für t → ∞ gegen eine Grenzverteilung πk .
Es sei X eine Zufallsvariable mit der Verteilung π, d.h.
P(X = k) = πk .
Starten wir die Warteschlange nicht leer, sondern so, dass πk (0) = πk
ist, dann bleibt die Verteilung von t unabhängig, d.h.
P(Xt = k) = πk ,
für jedes t.
Wir sagen dann, dass sich die Warteschlange im stationären Zustand
oder im Gleichgewichtszustand (auch Steady State) befindet.
– 61 –
Wann ist die Warteschlange positiv rekurrent?
Wir verwenden zur Klassifizierung die Verkehrsintensität (”rho”)
λ
%= .
µ
Rekurrenz und Transienz
Für % > 1 (λ < µ) ist Xt transient.
Für % = 1 (λ = µ) ist Xt null-rekurrent.
Für % < 1 (λ > µ) ist Xt positiv rekurrent. In diesem Fall besitzt das
System eine eindeutige Grenzverteilung
lim πk (t) = πk .
t→∞
– 62 –
(
rekurrenz)
Transienter Fall: λ = 3, µ = 2
Null-Rekurrenter Fall: λ = 2, µ = 2
– 63 –
Positiv-rekurrenter Fall: λ = 1, µ = 2
– 64 –
Wir haben schon gezeigt:
πk0 (t) = −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t)
π00 (t) = −λπ0 (t) + µπ1 (t)
Wir können annehmen, dass im positiv rekurrenten Fall πk0 (t) → 0 für
t → ∞ gilt. Daher ergibt sich
0 = −(λ + µ)πk + λπk−1 + µπk+1 ,
0 = −λπ0 + µπ1 .
Gleichgewichtsgleichungen
Es gilt
µπ1 = λπ0 ,
(λ + µ)πk = λπk−1 + µπk+1 .
und zusätzlich
∞
X
πk = 1.
k=0
– 65 –
Wie löst man die Gleichgewichtsgleichungen?
λπ0 = µπ1 ,
(λ + µ)πk = λπk−1 + µπk+1 .
Es gilt
π1
=
π2
=
λ
π0 = %π0
µ
(% + 1)π1 − %π0 = (% + 1)%π0 − %π0 = %2 π0
π3 = %3 π0
..
..
.
.
Vermutung: πk = %k π0 . Einsetzen bestätigt die Vermutung.
– 66 –
Da
P∞
k=0
πk = 1 gelten muss, ist
1=
∞
X
%k π0 = π0
k=0
1
1−%
Es folgt: π0 = 1 − %.
Grenzverteilung M/M/1
(
MM1)
Die Anzahl der Kunden hat im stationären Zustand folgende (geometrische) Grenzverteilung:
πk = P(X = k) = 1 − % %k , k ≥ 0
Die erwartete Anzahl von Kunden ist dann:
%
.
E (X ) =
1−%
Die Wahrscheinlichkeit, dass der Server besetzt ist (sog. Auslastung),
beträgt
1 − π0 = %.
– 67 –
Beispiel
In einer M/M/1-Warteschlange betrage die mittlere Zwischenankunftszeit 10 Minuten. Jeder Kunde verlangt eine Bearbeitungszeit von durchschnittlich 9 Minuten.
Die Auslastung beträgt also
λ
1/10
%= =
= 0.9 = 90%.
µ
1/9
Die erwartete Anzahl von Kunden im System ist
0.9
E (X ) =
= 9.
1 − 0.9
Die Wahrscheinlichkeit 10 Kunden im System vorzufinden, ist
P(X = 10) = (1 − %)%10 = 0.1 · 0.95 ≈ 0.035 = 3.5%.
– 68 –
4.4. PASTA
Zur Erinnerung: Wenn die Warteschlange mit der Startverteilung π
gestartet wird (P(X0 = k) = πK ) dann gilt
P(Xt = k) = πk ,
d.h. das System ist stationär und befindet sich im
Gleichgewichtszustand.
Angenommen T ist ein zufälliger Zeitpunkt. Gilt dann auch
P(XT = k) = πk ?
Gegenbeispiel I
Es sei T der erste Zeitpunkt, an dem Xt = 6 ist.
Dann ist trivialerweise
P(XT = 6) = 1 6= π6 .
– 69 –
Bei M/ · /1-Warteschlangen gilt aber das
PASTA-Prinzip
Eine Warteschlange besitze exponentiellen Zwischenankunftszeiten und
befinde sich im stationären Zustand.
Ist Tn die Ankunftszeit des nten Kunden, so gilt
P(XTn − = k) = πk .
Ein ankommender Kunde das System im Gleichgewicht, d.h. die Verteilung der Anzahl der Kunden zum Ankunftszeitpunkt hat dieselbe Verteilung wie X (der gerade ankommende Kunde wird nicht mitgezählt).
– 70 –
4.5. Die Warte- und Aufenthaltszeit im System
Wir nehmen an, das System befinde sich im Gleichgewicht und
definieren:
die Wartezeit Wn des n-ten Kunden in der Warteschlange,
die totale Aufenthaltszeit Sn des n-ten Kunden im System.
Es gilt offenbar
Sn = Wn + Bn .
– 71 –
Es seien Xn und Rn die Anzahl der Kunden im System und die
Restbedienzeit des Kunden in der Bedienstation zum Zeitpunkt der
Ankunft des n-Ten Kunden.
Es gilt:
Wn
=
(
0
Rn +
; Xn = 0
Pn−1
k=n−Xn +1
Bk
; Xn > 0
Die Wartezeit W hat dieselbe Verteilung, wie eine zufällige Summe von
Xn unabhängigen exponentiellen Zufallsvariablen, wobei Xn unabhängig
von diesen Zufallsvariablen ist.
– 72 –
Es seien C1 , C2 , . . . , Cn unabhängige Zufallsvariablen mit exponentieller
Verteilung mit Erwartungswert 1/µ, unabhängig von Xn .
Dann gilt
(
d
Wn ∼
0
PXn
k=1 Ck
;X = 0
;X > 0
Damit folgt
P(Wn ≤ x)
=
P(Xn = 0)
+P(Xn = 1 und C1 ≤ x)
+P(Xn = 2 und C1 + C2 ≤ x)
+...
=
P(Xn = 0)
+P(Xn = 1)P(C1 ≤ x)
+P(Xn = 2)P(C1 + C2 ≤ x)
+...
– 73 –
P(Wn ≤ x) = P(Xn = 0) +
∞
X
k
X
P(Xn = k)P(
Cj ≤ x)
j=1
k=1
Einsetzen der bekannten Formeln und Verwendung von PASTA ergibt:
∞
k−1
X
X
(µx)j P(Wn ≤ x) = 1 − % +
(1 − %)%k 1 − e −µx
j!
j=0
k=1
|
{z
}
Erlang-Verteilung
Also gilt
P(Wn ≤ x)
=
1−
∞
k−1
X
X
(µx)j
(1 − %)%k e −µx
j!
j=0
k=1
= 1 − (1 − %)e −µx
∞
X
j=1
= 1 − %e −µx
∞
X
(λx)j
j=1
– 74 –
j!
∞
(µx)j X k
%
j!
k=j+1
= 1 − %e −x(µ−λ) ,
x ≥ 0.
Für Sn = Wn + Bn erhalten wir genauso:
P(Sn ≤ x)
= P(C1 ≤ x)
+P(Xn = 1 und C1 + C2 ≤ x)
+P(Xn = 2 und C1 + C2 + C3 ≤ x)
+...
∞
k+1
X
X
=
P(Xn = k)P(
Cj ≤ x)
j=1
k=0
=
∞
X
(1 − %)%k 1 − e −µx
j=0
k=0
|
=
...
k
X
(µx)j {z
j!
Erlang-Verteilung
}
= 1 − e −(µ+λ)x .
Die Aufenthaltszeit Sn besitzt also eine exponentielle Verteilung mit
Erwartungswert 1/(µ − λ).
– 75 –
Verteilung der Warte- und Aufenthaltszeit
In der M/M/1 Warteschlange gilt im stationären Zustand
P(Wn ≤ x) = 1 − %e −x(µ−λ) ,
x ≥ 0.
und
P(Sn ≤ x) = 1 − e −x(µ−λ) ,
Für die Erwartungswerte gilt
E (Wn ) =
%
µ−λ
E (Sn ) =
1
.
µ−λ
und
– 76 –
x ≥ 0.
Mittelwertmethode
Mit PASTA gilt:
E (Sn ) = E (Xn ) E (B) + E (Bn )
| {z } | {z } | {z }
Kunden
im
System
Bearbeitungszeit
Eigene
Bearbeitungszeit
Dementsprechend erhalten wir
E (Sn )
1
1
1
+
E (Xn ) + 1
=
µ µ
µ
1
%
+1
µ 1−%
1
µ(1 − %)
1
.
µ−λ
= E (Xn )
=
=
=
– 77 –
4.6. Littles Gesetz
Wir haben gesehen, dass
E (Xn ) =
%
,
1−%
E (Sn ) =
1
µ−λ
gilt.
Es ist also
E (Xn ) =
%
λ
=
= λE (Sn ).
1−%
µ−λ
Littles Gesetz
Für G /G /n-Warteschlangen gilt im Gleichgewichtszustand
E (Xn ) = λE (Sn ),
d.h. die mittlere Kundenzahl ergibt sich aus dem Produkt der Ankunftsrate mit der mittleren Aufenthaltsdauer.
– 78 –
Zusammenfassung – Abschnitt 4
Definition der M/M/1-Warteschlange.
Stochastischer Prozess Xt =Anzahl der Kunden im System.
Verhalten für t → ∞: Rekurrenz, Transienz.
Grenzverteilung, falls positiv rekurrent (Verkehrsintensität % < 1):
geometrisch.
PASTA: Ein ankommender Kunde sieht die Grenzverteilung.
Wartezeit Wn besitzt beinahe exponentielle Verteilung.
Aufenthaltszeit Sn besitzt exponentielle Verteilung.
Littles Gesetz: E (Xn ) = λE (Sn ).
– 79 –
5. Markovketten in stetiger Zeit
5.1. Markovketten in diskreter Zeit
Eine Markovkette ist ein stochastischer Prozess (Xn )n=1,2,... mit
Werten in einer Menge {x1 , x2 , . . . , xN } (N = ∞ ist hier zugelassen),
für den die Verteilung von Xn nur von Xn−1 , nicht aber von der weiter
zurückliegenden Vergangenheit abhängt.
Genauer gesagt gilt für jedes n und beliebige j, k0 , k1 , . . . , kn
P(Xn = xj |X0 = xk0 , X1 = xk1 , . . . , Xn−1 = xkn−1 )
= P(Xn = xk |Xn−1 = xkn−1 ).
Eine Markovkette heißt homogen, wenn die
Übergangswahrscheinlichkeiten
P(Xn = xj |Xn−1 = xi )
nicht von n abhängen (sondern nur von i und j).
– 80 –
Wir gehen im folgenden immer von homogenen Markovketten aus und
schreiben kurz
pij = P(Xn = xj |Xn−1 = xi )
für die Übergangswahrscheinlichkeiten.
Dann können wir die Werte pij in
zusammenfassen:

p11
 p21

P=  .
 ..
pN1
einer quadratischen Matrix P = (pij )
p12
p22
..
.
...
...
..
.

p1N
p2N 

..  .
. 
pN2
...
pNN
Für N = ∞ ist diese Matrix unendlich.
Die Matrix P ist eine sog. stochastische Matrix, da die Zeilensummen
PN
j=1 pij für jede Zeile i gleich 1 sind.
– 81 –
Beispiel
(
MC.cdf)
In einer Fabrik arbeitet eine Maschine, deren Zustand jede Stunde
protokolliert wird. Es sei Xn der Zustand der Maschine nach n Stunden.
Mögliche Zustände:
A
B
C
voll funktionstüchtig
fehlerhaft
in Reparatur
Die Maschine geht mit folgenden Wahrscheinlichkeiten von einem Zustand in andere Zustände:
A
B
C
A
0.9
0.2
0.3
B
0.1
0
0
– 82 –
C
0
0.8
0.7
Beispiel (Forts.)
Die Übergangsmatrix ist

0.9
P = 0.2
0.3
0.1
0
0

0
0.8
0.7
Es gilt

P2
 

0.9 0.1 0
0.9 0.1 0
= 0.2 0 0.8 · 0.2 0 0.8
0.3 0 0.7
0.3 0 0.7

 


9 1 0
9 1 0
83
1 
1
42
=
2 0 8 · 2 0 8 =
100
100
3 0 7
3 0 7
48
Zum Beispiel gilt
2
P(X2 = C |X0 = B) = p23
= 56%.
– 83 –
9
2
3

8
56 .
49
5.2. Übergangsdiagramm
Die Übergangswahrscheinlichkeiten stellt man gerne im sog.
Übergangsdiagramm dar.
Dabei werden die Zustände der Markovkette als Knoten, die möglichen
Übergänge als Pfeile gezeichnet.
Beispiel
Xn ist eine Markovkette mit 4 Zuständen {I , II , III , IV }:
– 84 –
Fabrikbeispiel (Forts.)
Die Übergangsmatrix für das Fabrikbeispiel war


0.9 0.1 0
P = 0.2 0 0.8
0.3
0
Übergangsdiagramm:
– 85 –
0.7
5.3. Markovketten in stetiger Zeit
Beispiel: Fabrik
In einer Fabrik arbeitet eine Maschine, deren Zustand nun
kontinuierlich beobachtet wird. Ein stochastischer Prozess Xt beschreibe den Zustand der Maschine zum Zeitpunkt t.
In jedem Zustand befinde sich der Prozess jeweils für eine exponentielle Zeitdauer:
A
B
C
Zustand
voll funktionstüchtig
fehlerhaft
in Reparatur
– 86 –
Mittl. Dauer
1 Tag
1 Stunde
3 Stunden
Beispiel (Forts.)
Die Übergangswahrscheinlichkeiten seien:
A
B
C
A
0
1/6
1
B
1
0
0
C
0
5/6
0
Beispiel: Befindet sich der Prozess zu Beginn im Zustand B, dann
bleibt er dort für eine exponentielle Zeitdauer mit Mittelwert 1h.
Danach springt er in den Zustand A mit Wahrscheinlichkeit 1/6 und
in den Zustand C mit Wahrscheinlichkeit 5/6.
– 87 –
Allgemein ist ein Markovkette in stetiger Zeit ein stochastischer
Prozess (Xt )t≥0 mit Zustandsraum S = {x1 , x2 , . . .} (u.U. unendlich),
der wie folgt verläuft:
Der Prozess befindet im Zustand xi jeweils für eine exponentiell
verteilte Zeit mit Parameter λi .
Danach springt der Prozess Xt in den Zustand xj mit
Wahrscheinlichkeit pij .
Die Markovkette (Yn )n=1,2,... , die die Folge der besuchten Zustände
angibt, besitzt die Übergangsmatrix P = (pij ).
– 88 –
5.4. Die Intensitätsmatrix
Xt sei eine zeitstetige Markovkette mit Zustandsraum S = {1, 2, 3, . . .}
und λ = (λ1 , λ2 , λ3 , . . .).
Die Intensitätsmatrix ist gegeben durch die Matrix
Q = (qij )i,j∈{1,2,...,N} mit

−λ1 λ1 p12 λ1 p13
λ2 p21 −λ2 λ2 p23

Q = λ · (P − I ) = λ p
−λ3
 3 31 −λ3
..
..
..
.
.
.

...
. . .

.
. . .

..
.
Die Zeilensummen von Q sind null.
Die Elemente qij der Matrix Q haben keine unmittelbare probabilistische
Bedeutung. Man kann aus ihnen aber λ und P rekonstruieren:
λi = −qii
und pij = −qij /qii .
– 89 –
Beispiel: Fabrik (Forts.)
Es ist N = 3, λ = (1, 24, 8) und

0

P = 1/6
1

1
0
0 5/6
0
0
Die Intensitätsmatrix ist gegeben durch


−1
1
0
Q = λ(P − I ) = (1, 24, 8) 1/6 −1 5/6
1
0 −1


−1
1
0
=  4 −24 20  .
8
0
−8
– 90 –
5.5. Geburts- und Todesprozesse
Ein Geburts- und Todesprozess (GTP) ist eine Markovkette (Xt )t≥0
in stetiger Zeit mit unendlich vielen Zuständen {0, 1, 2, 3, . . .}, für die
lediglich Übergänge vom Zustand i in die Zustände i − 1 und i + 1
möglich sind.
(
GTP.cdf)
– 91 –
Um die Markov-Kette stochastisch zu beschreiben benötigen wir
die mittleren Aufenthaltsdauern 1/λi im Zustand i und
die Übergangsmatrix

0
p
 10

0
P= 

 0

..
.
p01
0
p21
0
..
.
0
p12
0
p32
..
.
0
0
p23
0
..
.

...
. . .


. . .

. . .

..
.
für die Übergänge zwischen den Zuständen.
Wir schreiben
δi = λi pi,i−1 ,
(Sterberate)
βi = λi pi,i+1 .
(Geburtsrate)
Dann gilt δi + βi = λi .
– 92 –
Für die Intensitätsmatrix ergibt sich dann also


−λ0 λ0 p0,1
0
0
...
λ1 p1,0 −λ1 λ1 p1,2
0
. . .


Q= 0
λ2 p2,1 −λ2 λ2 p2,3 . . .


..
..
..
..
..
.
.
.
.
.


−β0
β0
0
0 ...
 δ1 −(β1 + δ1 )
β1
0 . . .


= 0
.
δ2
−(β2 + δ2 ) β2 . . .


..
..
..
.. . .
.
.
.
.
.
Übergangsdiagramm:
– 93 –
Wir wollen den GTP für t → ∞ betrachten. Eine Grenzverteilung
existiert nur dann, wenn der Prozess positiv rekurrent ist.
Dazu müssen die Geburtsraten βk für große k klein sein im Verhältnis
zu den Todesraten δk .
Rekurrenz und Transienz
Ein GTP ist genau dann rekurrent, wenn
∞
X
δ1 δ2 · · · δk
=∞
β1 β2 · · · βk
(A)
k=1
ist. Endliche Systeme (mit βK = 0) sind immer rekurrent.
Hinreichend für positive Rekurrenz ist
βn
lim
< 1.
n→∞ δn
Gilt
βn
lim
> 1,
n→∞ δn
so ist der GTP transient.
– 94 –
(B)
Beispiel: Rekurrenter GTP
Es sei
βk = k + 1,
δk = k + 2.
Wir überprüfen Bedingung (A):
∞
∞
X
X
δ1 δ2 · · · δk
3 · 4 · · · (k + 1) · (k + 2)
=
β1 β2 · · · βk
2 · 3 · · · k · (k + 1)
k=1
k=1
=
∞
X
k +2
= ∞.
2
k=1
Der Geburts- und Todesprozess ist rekurrent.
Die Bedingung (B) ist nicht allerdings nicht erfüllt:
βn
n+1
= 1.
lim
= lim
n→∞ δn
n→∞ n + 2
– 95 –
Für einen rekurrenten GTP Xt muss noch keine Grenzverteilung
πk = lim P(Xt = k),
t→∞
k = 0, 1, 2, . . .
existieren.
Existenz einer Grenzverteilung
Für einen rekurrenten GTP Xt existiert eine Grenzverteilung genau dann,
wenn
∞
X
β0 β1 · · · βk−1
S=
<∞
(C)
δ1 δ2 · · · δk
k=1
ist.
In diesem Fall sagt man, der Prozess sei ergodisch.
– 96 –
Beispiel: Rekurrenter GTP (Fortsetzung)
Es sei wieder
βk = k + 1,
δk = k + 2.
Bedingung (C):
S
=
∞
X
β0 β1 · · · βk−1
k=1
=
∞
X
k=1
δ1 δ2 · · · δk
=
∞
X
k=1
1 · 2···k
3 · 4 · · · (k + 2)
2
<∞
(k + 1)(k + 2)
Die Bedingung ist erfüllt, eine Grenzverteilung existiert.
– 97 –
Ähnlich wie im Fall der M/M/1-Warteschlange erhalten wir für die
Grenzverteilung, falls sie existiert, die Gleichgewichtsgleichungen
β 0 π0 = δ 1 π1
(βk + δk )πk = βk−1 πk−1 + δk+1 πk+1 ,
und
P∞
k=0
Es ist
k ≥ 1.
πk = 1.
π1
=
β0
π0
δ1
π2
=
β0 β1
(β1 + δ1 )π1 − β0 π0
=
π0
δ1 δ2
δ2
Wir raten:
πk =
β0 β1 · · · βk−1
π0 .
δ1 δ2 · · · δk
Die Lösung ist in der Tat richtig (einsetzen!).
Die fehlende Wahrscheinlichkeit π0 = P(X = 0) erhält man aus der
P∞
Gleichung k=0 πk = 1.
– 98 –
Grenzverteilung
Für einen ergodischen GTP ist die Grenzverteilung gegeben durch
β0 β1 · · · βk−1
πk =
π0 .
δ1 δ2 · · · δk
Dabei ist
1
π0 =
.
1+S
Der unendliche Vektor π = (π0 , π1 , . . .) erfüllt die Gleichungen
 
1
1
π · Q = 0,
π ·   = 1.
..
.
– 99 –
Grenzverteilung (endlicher Fall)
Ein endlicher GTP Xt ist immer rekurrent. Gilt
β0 > 0, β1 > 0, . . . , βK = 0,
δ1 > 0, δ2 > 0, . . . , δK > 0.
(C’)
dann ist der Prozess auch ergodisch.
Für einen endlichen ergodischen GTP ist die Grenzverteilung gegeben
durch
β0 β1 · · · βk−1
π0 , k = 0, 1, . . . , K
πk =
δ1 δ2 · · · δk
und
1
π0 =
1+S
mit
K
X
β0 β1 · · · βk−1
S=
.
δ1 δ2 · · · δk
k=1
– 100 –
Zusammenfassung – Abschnitt 5
Markov-Ketten in diskreter Zeit.
Übergangsmatrix.
Übergangsdiagramm.
Markov-Ketten in stetiger Zeit: Intensitätsmatrix Q.
Geburts- und Todesprozesse: Bedingungen (A) und (B) für Rekurrenz.
Bedingung (C) für Ergodizität.
Grenzverteilung π.
– 101 –
6. M/M-Warteschlangensysteme
6.1. M/M/1
Wir betrachten erneut die einfache M/M/1-Warteschlange.
Der stochastische Prozess Xt (Kundenzahl zum Zeitpunkt t) ist ein
GTP mit Übergangsdiagramm:
Die Intensitätsmatrix ist dann

−λ
λ
0
0
 µ −(µ + λ)
µ
0

Q= 0
µ
−(µ
+
λ)
λ

..
..
..
..
.
.
.
.

...
. . .

.
. . .

..
.
Also ist
βk = λ,
k = 0, 1, 2, . . .
– 102 –
δk = µ,
k = 1, 2, 3, . . .
Bedingung (A): Die Summe
∞
X
δ1 δ2 · · · δk
k=1
β1 β2 · · · βk
=
∞
X
µk
k=1
λk
∞
X
=
(1/%)k
k=1
ist unendlich, genau dann, wenn % ≤ 1 ist. Dann ist Xt rekurrent.
Bedingung (C): Die Summe
∞
∞
∞
X
X
X
β0 β1 · · · βk−1
λk
S=
=
=
%k
δ1 δ2 · · · δk
µk
k=1
k=1
k=1
ist endlich genau dann, wenn % < 1 ist. Dann existiert eine
%
Grenzverteilung und es ist S = 1−%
.
Grenzverteilung:
πk =
β0 β1 · · · βk−1
π0 = %k π0 .
δ1 δ2 · · · δk
Dabei ist
π0 =
1
= 1 − %.
1+S
– 103 –
Wir betrachten als nächstes allgemeinere Warteschlangenmodelle mit
exponentiellen Zwischenankunftszeiten und exponentiellen Bedienzeiten.
– 104 –
6.2. M/M/1/K - Warteschlange mit beschränkter
Kapazität
Wir gehen jetzt davon aus, dass das Warteschlangensystem nur eine
begrenzte Kapazität von K Plätzen besitzt.
Kunden, die das System besuchen und K Kunden im System (d.h.
K − 1 Kunden in der Warteschlange) vorfinden, verlassen das System
sofort und kommen nicht wieder.
Die Zwischenankunftszeiten und Bedienzeiten seien weiterhin
exponentiell verteilt mit Parametern λ und µ.
– 105 –
Übergangsdiagramm für Xt :
Xt ist ein Geburts- und Todesprozess mit
(
λ ;k ≤ K − 1
βk =
0 ;k ≥ K
und
δk =
(
µ ;k ≤ K
0
;k ≥ K + 1
.
Als endlicher GTP ist der Prozess automatisch rekurrent.
– 106 –
Der Prozess ist ergodisch, da (C’) erfüllt ist.
Es ist
S
=
K
X
β0 β1 · · · βk−1
δ1 δ2 · · · δk
k=1
=
K
X
(λ/µ)k
k=1
=
K
X
%k
k=1
(
=
K
% 1−%
1−%
; % 6= 1
K
;% = 1
Die Reihe konvergiert stets, also existiert eine Grenzverteilung.
– 107 –
Die Grenzverteilung ergibt sich dann aus den Formeln
β0 β1 · · · βk−1
πk =
π0
δ1 δ2 · · · δk
1
.
π0 =
1+S
In diesem Fall ist also
(
πk =
%k
;k ≤ K
0
;k > K
,
mit

 1−%
1
= 1 − %K +1
π0 =
 1
1+S
K +1
– 108 –
; % 6= 1
;% = 1
.
M/M/1/K-Grenzverteilung
In einer M/M/1/K-Warteschlange mit endlicher Kapazität ist die Grenzverteilung der Kundenzahl gegeben durch

1−% k


% ; % 6= 1
K +1
πk = P(X = k) = 1 −1 %
, k = 0, 1, 2, . . . , K .


;% = 1
K +1
Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann:
(
1−%
K
; % 6= 1,
K +1 %
P(X = K ) = 1−%
1
; % = 1.
K +1
Die Auslastung beträgt
(
P(X > 0) =
%−%K +1
1−%K +1
K
K +1
– 109 –
; % 6= 1
;% = 1
.
Auslastung P(X > 0) in Abhängigkeit von ρ ∈ (0, 1) und
K ∈ {1, 2, . . . , 10} (abnehmender Kontrast).
– 110 –
Wahrscheinlichkeit der Zurückweisung in Abhängigkeit von ρ ∈ (0, 1)
und K ∈ {1, 2, . . . , 10} (abnehmender Kontrast).
– 111 –
Für K → ∞ und % < 1 ergibt sich wie zu erwarten die Verteilung der
M/M/1-Warteschlange:
1−% k
% = (1 − %)%k .
lim πk = lim
K →∞
K →∞ 1 − %K +1
Die Wahrscheinlichkeit einer Zurückweisung strebt für K → ∞
monoton fallend gegen Null (Annäherung an die
M/M/1-Warteschlange).
Für % > 1 strebt die Wahrscheinlichkeit einer Zurückweisung monoton
fallend gegen den Grenzwert
1−% K
lim P(X = K ) = lim
%
K →∞
K →∞ 1 − %K +1
1
1
= (1 − %) lim −K
=1− .
K →∞ %
−%
%
Diese Wahrscheinlichkeit kann auch bei noch so großem Warteraum
nicht unterboten werden.
– 112 –
6.3. Spezialfall: M/M/1/1
Grenzverteilung:
1
,
1+%
%
π1 = P(X = 1) =
.
1+%
π0 = P(X = 0) =
Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann
gleich der Auslastung:
P(X = 1) =
– 113 –
%
.
1+%
Beispiel
Pralinen erreichen eine Verpackungsmaschine als Poisson-Prozess mit
Intensität µ. Erreicht eine Praline die Maschine, ohne dass dort bereits eine Verpackung vorhanden ist, wird sie zur nächsten Maschine
weitergereicht. Die entsprechenden Verpackungen kommen mit konstanter Rate λ an der Verpackungsstation an und warten dort auf
jeweils eine Praline. Ist die Maschine mit einer wartenden Packung
besetzt, so wird die Verpackung ebenfalls weitergereicht.
Ist eine Verpackung vorhanden, so wird eine ankommende Praline
unmittelbar verpackt und verlässt die Verpackungsmaschine sofort.
– 114 –
Beispiel (Forts.)
Es handelt sich um ein M/M/1/1-System, weil die Restwartezeit der
Verpackungen auf die nächste Praline exponentiell ist. Diese Restwartezeit entspricht der Bedienzeit im M/M/1/1-System.
Die Wahrscheinlichkeit einer ”Zurückweisung” beträgt für die Pralinen
1/(1 + %), für die Verpackungen %/(1 + %).
– 115 –
6.4. M/M/∞ - Beliebig viele Server
Es seien jetzt beliebig viele Server vorhanden:
In der Praxis ist die Zahl der Bedienstationen meist endlich, aber u.U.
genügend groß, um eine M/M/∞-Modell anzunehmen (siehe auch den
Abschnitt über die M/M/m-Warteschlange).
Die ankommenden Kunden wählen jeweils einen freien Server aus und
können sofort bedient werden, d.h. es ist keine Warteschlange nötig.
– 116 –
Minimum exponentiell verteilter Zufallsvariablen
Es seien X und Y exponentiell verteilt mit Parameter µ.
Dann gilt für die Verteilungsfunktion des Minimums von X und Y
P(min X , Y ≤ x)
= 1 − P(min{X , Y } > x)
= 1 − P(X > x, Y > x)
= 1 − P(X > x)P(Y > x)
= 1 − e −µx e −µx
= 1 − e −2µx .
Allgemeiner gilt: Das Minimum von k exponentiell verteilten Zufallsvariablen mit Parameter µ besitzt eine exponentielle Verteilung mit
Parameter kµ.
– 117 –
Sind k Server besetzt, so besitzt die Wartezeit bis zum nächsten
Abgang eine exponentielle Verteilung mit Parameter kµ.
Daher ergibt sich für das Übergangsdiagramm:
GTP mit βk = λ und δk = k · µ.
Bedingung (A): Es ist
∞
X
δ1 δ2 · · · δk
k=1
β1 β2 · · · βk
∞
X
1 · 2 · · · k · µk
λk
=
k=1
=
∞
X
k=1
Also ist der Prozess Xt immer rekurrent.
– 118 –
k!(1/%)k = ∞
Bedingung (C):
∞
X
β0 β2 · · · βk−1
S=
δ1 δ2 · · · δk
=
∞
X
%k
k=1
k=1
k!
= e % − 1 < ∞,
daher existiert in jedem Fall eine Grenzverteilung.
Es gilt
πk =
β0 β2 · · · βk−1
%k
π0 =
π0 .
δ1 δ2 · · · δk
k!
und
π0 =
1
= e −ρ .
1+S
– 119 –
M/M/∞-Grenzverteilung
Die Grenzverteilung der Kundenzahl eines M/M/∞-Systems ist
%k −%
e ,
k!
d.h. im stationären Zustand besitzt die Kundenzahl eine PoissonVerteilung mit Rate %.
πk = P(X = k) =
Die Auslastung beträgt
P(X > 0) = 1 − e −ρ .
Die erwartete Anzahl von Kunden ist
E (X ) = %,
Var(X ) = %.
Für großes % ist X etwa normalverteilt mit Erwartungswert % und
Varianz % (Zentraler Grenzwertsatz):
(k−%)2
1
P(X = k) ≈ √
e − 2% .
2π%
– 120 –
Beispiel
In Hamburg leben etwa 1.7 Millionen Menschen (≈ ∞). Angenommen jeden Tag infizieren sich durchschnittlich 5 Einwohner mit einer
bestimmten Krankheit, die dann im Mittel eine Woche andauere. Wir
nehmen eine exponentielle Krankheitsdauer an. Wie viele Einwohner sind
zu einem beliebigen Zeitpunkt infiziert, wenn man von einer konstanten
Ansteckungsrate ausgeht?
Mit λ = 5 d −1 und µ = 1/7 d −1 erhalten wir πk =
Wahrscheinlichkeiten πk
%k −%
k! e
=
35−k
k!
e −35 .
Normalverteilung mit µ = % und σ = % (blau)
– 121 –
6.5. M/M/m - System mit m Bedienstationen
Wir betrachten ein System mit m Bedienstationen mit Bedienrate µ,
Ankunftsrate λ und unbegrenzter Kapazität
Als Verkehrsintensität setzen wir hier
λ
%
ξ=
= .
mµ
m
– 122 –
Die Sterberate ist von der Anzahl der in der Bedienstation befindlichen
Kunden abhängig.
GTP mit Übergangsdiagramm:
Dann sind die Geburts- und Sterberaten gegeben durch
βk = λ,
(
kµ ; k < m
δk =
.
mµ ; k ≥ m
– 123 –
Bedingung (A):
∞
X
δ1 δ2 · · · δk
=∞
β1 β2 · · · βk
k=1
Es ist für k ≥ m
µk · 1 · 2 · · · m · m · · · m
λk
µk m!mk−m
=
λk
m k
.
= m!m−m
%
Die obige Reihe divergiert also, wenn m ≥ % also
δ1 δ2 · · · δk
β1 β 2 · · · β k
=
ξ = %/m ≤ 1
ist. Genau dann ist der Prozess rekurrent.
– 124 –
Bedingung (C) für Ergodizität:
∞
X
β0 β1 · · · βk−1
S =
δ1 δ2 · · · δk
k=1
=
m−1
X
k=1
=
m−1
X
k=1
∞
β0 β1 · · · βk−1 X β0 β1 · · · βk−1
+
δ1 δ2 · · · δk
δ1 δ2 · · · δk
k=m
k
%
+
k!
∞
X
k=m
m−1
∞
X %k
%
mm X
=
+
(%/m)k
m!mk−m
k!
m!
k
k=1
k=m
Die Reihe konvergiert für % < m, also ξ = %/m < 1.
Es ist
1+S
=
1+
m−1
X
k=1
=
m−1
X
k=0
%k
1
mm
+
(%/m)m
k!
m!
1 − %/m
%k
%m 1
+
.
k!
m! 1 − ξ
– 125 –
M/M/m-Grenzverteilung
Für ξ = %/m < 1 ist die Kundenzahl einer M/M/m-Warteschlange
rekurrent und ergodisch. Die Grenzverteilung ist gegeben durch
 k

 % π0
;k ≤ m

,
πk = P(X = k) = k!m


 m ξ k π0 ; k > m
m!
m−1
−1
X %k
%m
π0 =
+
.
k!
m!(1 − ξ)
k=0
Der Fall m = 1 entspricht der M/M/1-Warteschlange (geometrische
Grenzverteilung).
Für m → ∞ erhalten wir, wie zu erwarten, die Grenzverteilung der
M/M/∞-Warteschlange (Poisson-Verteilung).
– 126 –
Beispiel: Postfiliale
In einer Postfiliale dauert eine Bedienung am Schalter im Mittel eine
Minute. Die Kunden erreichen die Filiale mit einer konstanten Rate
von 5 Kunden pro Minute. Die Filiale hat eine Warteschlange für 6
Schalter eingerichtet.
m = 6, λ = 5 min−1 , µ = 1 min−1 , % = 5, ξ = 5/6.
Das System ist rekurrent und ergodisch, da ξ < 1 ist.
Wahrscheinlichkeit eines leeren Systems:
!−1
!−1
5
5
X
X
5k
56
5k
55
π0 =
+
=
+
≈ 0.45%.
k!
6!(1 − 5/6)
k!
4!
k=1
Grenzverteilung:
k=1

k
 (5/6)
8  k!
πk =
k
1765 
 (5/6)
6k−6 6!
– 127 –
;k ≤ 6
.
;k > 6
Grenzwahrschienlichkeit πk , k = 0, 1, 2, . . . 30 für ξ = 5/6 und
m = 1 (rot),
m = 6 (grün) und
m = 20 (blau).
– 128 –
Die Wahrscheinlichkeit, dass ein ankommender Kunde warten muss, die
Wartewahrscheinlichkeit, ist dann (wir verwenden wieder PASTA):
∞
X
P(W > 0) = P(X ≥ m) =
πk
k=m
=
∞
∞
X
mm X k
mm k
ξ
ξ π0 = π0
m!
m!
k=m
k=m
m
=
π0
m m
ξ
m!
∞
X
ξ k = π0
k=0
%m
.
m!(1 − ξ)
Erlang-C-Formel
Die Wahrscheinlichkeit, dass ein ankommender Kunde in einem
M/M/m-Wartesystem warten muss ist
−1
m−1
X %k
%m
%m
P(W > 0) = π0
, π0 =
+
.
m!(1 − ξ)
k!
m!(1 − ξ)
k=1
– 129 –
Für die mittlere Warteschlangenlänge ergibt sich
∞
X
E (L) =
(k − m)πk
k=m+1
=
=
=
∞
π0 m m X
(k − m)ξ k
m!
k=m+1
∞
m m X
π0 m ξ
m!
∞
m X
π0 %
m!
kξ k
k=1
kξ k
k=0
∞
X
k=0
π0 %m
ξ
=
m! (1 − ξ)2
ξ
= P(W > 0)
.
1−ξ
– 130 –
kq k =
q
2
(1 − q)
Es gilt dann für die mittlere Wartezeit:
1
1 E (W ) = P(W > 0)
+ E (L|W > 0)
mµ
mµ
P(W > 0) + E (L|W > 0)P(W > 0)
P(W > 0) + E (L)
=
=
mµ
mµ
=
ξ
P(W > 0) + P(W > 0) 1−ξ
mµ
=
P(W > 0)
1
= E (L).
mµ(1 − ξ)
λ
M/M/m - Warteschlangenlänge und Wartezeit
Die mittlere Warteschlangenlänge beträgt
E (L) = P(W > 0)
ξ
.
1−ξ
Für die mittlere Wartezeit gilt
P(W > 0)
1
E (W ) =
= E (L).
mµ(1 − ξ)
λ
(Zweite Version von Littles Gesetz).
– 131 –
Drei Varianten des Littleschen Gesetzes
Allgemein gelten für G /G /n-Warteschlangen im Gleichgewichtszustand
folgende Beziehungen für die zu erwartenden Kundenzahlen und die zu
erwartenden Aufenthaltsdauern:
(1)
E (Kunden System) = λE (Aufenthalt im System)
E (X ) = λE (S).
(2)
E (Kunden Schlange) = λE (Aufenthalt in der Schlange)
E (L) = λE (W )
(3)
E (Kunden Bedienstation) = λE (Aufenthalt in der Bedienstation)
E (Q) = λE (B)
– 132 –
Beispiel: Postfiliale (Forts.)
Wartewahrscheinlichkeit:
P(W > 0) = π0
%m
8 56
=
≈ 0.5902 = 59.02%.
m!(1 − ξ)
1765 5!
Mittlere Warteschlangenlänge:
5/6
ξ
= 0.5902
= 5 · 0.59 ≈ 2.951
E (L) = P(W > 0)
1−ξ
1/6
Mittlere Wartezeit in der Schlange:
P(W > 0)
0.5902
=
= 0.5902.
E (W ) =
mµ(1 − ξ)
6 · 1 · (1 − 5/6)
– 133 –
P(W > 0) und E (L) für ξ ∈ (0, 1) und
m = 1 (rot),
m = 6 (grün) und
m = 100 (blau).
– 134 –
6.6. Erlangsches Verlustmodell (M/M/m/m)
Wir betrachten ein System mit m Bedienstationen aber ohne
Warteschlange (Kapazität m):
Historisch: Call-Center mit m Kanälen, Anrufe mit Rate λ,
Gesprächsdauer im Mittel 1/µ. Wenn alle Kanäle besetzt sind, gehen
die Anrufe verloren (Agner Krarup Erlang).
– 135 –
Übergangsdiagramm:
GTP mit βk = λ und δk = kµ.
Das System ist rekurrent und die Grenzverteilung existiert immer.
Grenzverteilung: ”abgeschnittene” Poisson-Verteilung
πk =
β0 β2 · · · βk−1
%k
π0 =
π0 ,
δ1 δ2 · · · δk
k!
mit
1
π0 = Pm
%j
j=0 j!
– 136 –
.
k ≤m
M/M/m/m - Erlang-B-Formel
Im Erlangschen Verlustmodell ist die Grenzverteilung gegeben durch
πk =
k!
%k
Pm
%j
j=0 j!
,
k = 0, 1, 2, . . . , m.
Die Wahrscheinlichkeit, dass Kunden zurückgewiesen werden, ist durch
die Erlang-B-Formel (Erlangsche Verlustformel) gegeben:
%m
πm =
Pm %j .
m! j=0 j!
Der Fall m = 1 enstpricht der M/M/1/1-Warteschlange.
Für m → ∞ ergibt sich die Poisson-Verteilung des M/M/∞ Systems:
πk = e −%
%k
,
k!
k = 0, 1, 2, . . .
– 137 –
Beispiel
Ein Autobahnparkplatz wird entworfen. Es stehen nach der Fertigstellung
5 Parkplätze zur Verfügung. Man geht von einer Aufenthaltsdauer der
Gäste von durchschnittlich 15 Minuten aus (exponentielle Verteilung).
Autofahrer, die einen komplett besetzten Parkplatz vorfinden fahren weiter zur nächsten Parkgelegenheit. Es fahren im Mittel stündlich 10 Autos
den Parkplatz an.
Es ist m = 5, λ = 10, µ = 4, % = 5/2, also ergibt sich für die Wahrscheinlichkeit einen vollen Parkplatz vorzufinden
π5 =
5!
(5/2)5
P5 (5/2)j
j=0
j!
= 0.0697 ≈ 7%.
– 138 –
Wir berechnen die mittlere Kundenzahl:
∞
∞
X
X
kπk =
kπk
E (X ) =
k=0
k=1
m
X
%k
= π0
k
k!
k=1
m
X
= %π0
k=1
= %π0
m−1
X
k=0
%k−1
(k − 1)!
%k
k!
1
%m −
π0
m!
1
πm = %π0
−
π0
π
0
= % 1 − πm .
= %π0
– 139 –
Grenzwahrscheinlichkeiten πk und E (X ) (vertikale Linien) für ein
M/M/10/10-System,
% = 1/2 (rot),
% = 5 (grün) und
% = 20 (blau).
– 140 –
6.7. Engset-Modell für endliche Population
Wir nehmen jetzt an, es gäbe insgesamt N Kunden und K ≤ N
Bedienstationen.
Beispiel: N = 6 und K = 5:
Jeder Kunde außerhalb der Bedienstation erzeuge einen Eingangsstrom
mit Rate λ (Aktivierung nach einer exponentiellen Zeitperiode).
– 141 –
Alternative Darstellung:
– 142 –
Es beschreibe X die Anzahl der Kunden, die in der eigentlichen
Bedienstation bedient werden.
Dann ist X ein GTP mit βk = λ(N − k) und δk = kµ für k ≤ K :
Der Prozess ist rekurrent, eine Grenzverteilung existiert stets.
Grenzverteilung für 0 ≤ k ≤ K
πk
β0 β2 · · · βk−1
λk N(N − 1) · · · (N − k + 1)
π0 =
π0
δ1 δ2 · · · δk
µk k!
N k
=
% π0
k
=
mit
π0 =
K −1
X
N j
%
.
j
j=0
– 143 –
Engset-Modell
Im Engset-Modell mit endlicher Population N und K ≤ N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch die EngsetVerteilung:
N k
k %
πk = PK N , k = 0, 1, . . . , K .
j
j=0 j %
– 144 –
Beispiel
Bei einem kleinen Online-Buchversand gibt es 250 registrierte Kunden, die, insofern sie nicht auf laufenden Bestellungen warten, durchschnittlich einmal in 50 Tagen ein Buch bestellen.
Es gibt 3 Mitarbeiter, die durchschnittlich 2 Aufträge pro Tag abwickeln.
Wie groß ist die Wahrscheinlichkeit, dass alle drei Mitarbeiter
beschäftigt sind?
Es ist λ = 1/50, µ = 2, % = 1/100, N = 250, K = 3, also gilt
250
3
3 (1/100)
π3 =
250
2
1 + 250(1/100) + 2 (1/100)2 + 250
3 (1/100)
≈ 0.28 = 28%.
– 145 –
6.8. Sonderfall: Engset-Modell mit K = N
Für die Grenzverteilung gilt dann
N k
k %
πk = P N N ,
j
j=0 j %
k = 0, 1, . . . , N.
Es ist (binomische Formel)
N X
N j
% = (1 + %)N .
j
j=0
– 146 –
Dann gilt
πk
=
N
k
%k
(1 + %)N
% k
N
k
1+%
(1 + %)k
(1 + %)N
N
% k
1 N−k
=
.
k
1+%
1+%
=
Engset-Modell – Spezialfall
Im Engset-Modell mit N Kunden und N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch eine Binomialverteilung mit
Parameter %/(1 + %):
N
% k
1 N−k
πk =
, k = 0, 1, . . . , N.
k
1+%
1+%
– 147 –
7. Offene Netzwerke
7.1. Der Satz von Burke
Wir betrachten zunächst eine M/M/1-Warteschlange und nehmen
wieder % < 1 an, so dass X eine Grenzverteilung besitzt. Das System
befinde sich im stationären Zustand.
Es bezeichne Mt die Anzahl der Kunden, die nach erfolgter Bedienung
das System bis zum Zeitpunkt t verlassen haben (Abgangsprozess).
– 148 –
Ankunftsprozess Nt
(hellblau)
Kundenzahl Xt
(rot)
Abgangsprozess Mt
(dunkelblau)
Es gilt offenbar:
M0 = 0,
Mt ist stückweise konstant und macht Sprünge der Höhe eins.
Ist Mt ein Poisson-Prozess? Wenn ja, wie groß ist seine Intensität?
– 149 –
Die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein Kunde das
System verlässt, ist
≈ (1 − %) ·0 + % ·µ · ∆ = λ · ∆.
|{z}
| {z }
P(X =0)
P(X 6=0)
Die Wahrscheinlichkeit, dass in dem Zeitraum mehr als ein Kunde das
System verlässt, ist verschwindend klein.
Mit etwas mehr Mühe kann man zeigen:
Abgangsprozess der M/M/1-Warteschlange
Der Abgangsprozess Mt einer M/M/1-Warteschlange im Gleichgewichtszustand ist erneut ein Poisson-Prozess mit Rate λ.
– 150 –
Allgemein gilt für einen Geburts- und Todesprozess Xt mit Geburtsraten
βk = λ für die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein
Sprung Xt 7→ Xt − 1 nach unten erfolgt,
∞
X
≈
πk δ k · ∆
k=1
=
∞
X
k=1
=
∞
X
λk
π0 δ k · ∆
δ1 δ2 · · · δk
λk
π0 · ∆
δ1 δ2 · · · δk−1
k=1
∞
X
= λ
k=0
= λ
∞
X
λk
π0 · ∆
δ1 δ2 · · · δk
πk · t = λ · ∆.
k=0
– 151 –
Satz von Burke
Es sei Xt ein rekurrenter und ergodischer Geburts- und Todesprozess mit Geburtsraten βk = λ.
Dann gilt:
(1) Der stochastische Prozess
Mt , der die Sprünge nach
unten (Tode) zählt, ist ein
Poisson-Prozess mit Rate λ.
(2) {Ms |s ≤ t} ist unabhängig
von Xt .
{Ms |s < t} ist natürlich keinesfalls
unabhängig von {Xs |s ≤ t}.
Der Satz gilt selbstverständlich nur
im stationären Zustand, also wenn
das System bereits mit der stationären Verteilung startet.
– 152 –
7.2. M/M/1-Tandem-Warteschlange
Eine M/M/1-Tandem-Warteschlange besteht aus einem System von
zwei hintereinander geschalteten M/M/1-Warteschlangen und
Bedienstationen.
Der Abgangsprozess an der ersten Station ist wieder Poisson mit
Intensität λ.
Demnach verhält sich die zweite Warteschlange genau wie eine
M/M/1-Warteschlange. Der Poisson-Ankünftsprozess besitzt die
Intensität Λ = λ.
Es sei %i = λ/µi die Verkehrsintensität der i-ten Station.
– 153 –
Der Kundenzahlprozess im gesamten System ist offenbar dann
rekurrent und ergodisch, wenn max{%1 , %2 } < 1 ist.
Wir gehen davon aus, dass sich das System im stationären Zustand
befindet.
Es seien X1 und X2 die Kundenzahlen in den beiden Systemen 1 und 2.
Die Zufallsvariablen X1 und X2 besitzen jeweils eine geometrische
Verteilung
P(X1 = k) = (1 − %1 )%k1 ,
P(X2 = m) = (1 − %2 )%m
2 .
Darüber hinaus sind X1 und X2 sind unabhängig (Burke), so dass für die
gemeinsame stationäre Verteilung gilt eine Produktform vorliegt:
P(X1 = k, X2 = m) = P(X1 = k)P(X2 = m)
= (1 − %1 )(1 − %2 )%k1 %m
2 .
– 154 –
Für die Gesamtzahl X an Kunden im System gilt dann
P(X = n)
=
P(X1 + X2 = n)
∞
X
=
P(X1 + X2 = n und X1 = k)
k=0
=
=
n
X
k=0
∞
X
P(X1 + X2 = n|X1 = k)P(X1 = k)
P(X2 = n − k|X1 = k)(1 − %1 )%k1
k=0
=
(1 − %1 )
n
X
P(X2 = n − k)%k1
k=0
=
(1 − %1 )(1 − %2 )
n
X
%n−k
%k1
2
k=0
=
(1 − %1 )(1 − %2 )%n2
– 155 –
1 − (%1 /%2 )n+1
.
1 − %1 /%2
M/M/1-Tandem
In einer M/M/1-Tandem-Warteschlange mit max{%1 , %2 } < 1 gilt für
die stationäre Verteilung der Gesamtzahl der Kunden
%n+1
− %1n+1
2
.
%2 − %1
Die gemeinsame Verteilung von X1 und X2 ist
P(X = n) = (1 − %1 )(1 − %2 )
P(X1 = k, X2 = m) = (1 − %1 )(1 − %2 )%k1 %m
2 .
Speziell gilt für die Marginalverteilungen
P(X1 = k) = (1 − %1 )%k1 ,
P(X2 = m) = (1 − %2 )%m
2 .
Die M/M/1-Tandem-Warteschlange ist ein Spezialfall eines offenen
Netzwerks von Warteschlangen.
– 156 –
7.3. Offene Netzwerke
In offenen Netzwerken erreichen Kunden von außen ein System von N
Warteschlangen/Servern und verlassen das System auch wieder.
Ankünfte am Server i von außerhalb des Systems bilden einen
Poisson-Prozess mit Rate λi .
Markov-Routing: Kunden, die die Bedienstation i verlassen, laufen den
Server j mit Wahrscheinlichkeit pij an.
– 157 –
Wie üblich fassen wir die Wahrscheinlichkeiten pij zu einer Matrix
zusammen:


p11 p12 . . . p1N
 p21 p22 . . . p2N 


P=  .
..
..
.. 
 ..
.
.
. 
pN1
pN2
...
pNN
Die Wahrscheinlichkeit, nach dem Server i keine weitere Bedienstation
anzulaufen, sondern das System zu verlassen, sei pi0 .
Achtung: P ist keine stochastische Matrix, da die Zeilensummen nicht
eins, sondern 1 − pi0 sind.
– 158 –
7.4. Durchsatz
Der Durchsatz Λi beschreibt die effektive Ankunftsrate am Server i.
Erhaltungsprinzip:
In diesem Beispiel gilt: Λ3 = λ3 + Λ1 · p13 + Λ2 · p23 .
– 159 –
Allgemein ergibt sich
Λi = λi +
N
X
Λj pji
j=1
bzw. in Matrizenschreibweise
Λ = λ + Λ · P,
t
wobei λ = (λ1 , . . . , λN ) ist.
Der Durchsatzvektor Λ = (Λ1 , . . . , ΛN ) ist also eine Lösung des linearen
Gleichungssystems
(I − P)T Λ = λ.
Dann ist γi =
Λi
die (effektive) Verkehrsintensität an der i-ten
µi
Bedienstation.
– 160 –
7.5. Satz von Jackson
Satz von Jackson
Eine Grenzverteilung für die Verteilung von X1 , . . . , Xn existiert, wenn
γi < 1 für jeden Server i = 1, 2, . . . , N gilt.
Es sei Xi die Anzahl von Kunden am Server i im Gleichgewicht. Dann
sind die Zufallsvariablen X1 , X2 , . . . , XN unabhängig.
Es gilt P(Xi = k) = (1 − γi )γi k , also (wg. der Unabhängigkeit)
N
Y
P(X1 = k1 , X2 = k2 , . . . , XN = kN ) =
(1 − γi )γi ki .
i=1
Jede einzelne Warteschlange verhält sich also wie ein unabhängiges
M/M/1-Wartesystem.
– 161 –
Beispiel: M/M/1-Tandem-Warteschlange
Gegeben Seien zwei
min{µ1 , µ2 } > λ.
M/M/1-Warteschlangen
in
Serie
mit
Dann ist
λ1 = λ,
λ2 = 0,
P=
0
0
1
,
0
p20 = 1.
(I − P)T Λ = λ:
1
−1
0
1
λ
0
1 0
0 1
λ
⇒ Λ1 = λ,
λ
Λ2 = λ.
Die zweite Warteschlange verhält sich wie M/M/1:
λ λ k
λ λ k
P(X1 = k) = 1 −
, P(X2 = k) = 1 −
µ1 µ1
µ2 µ2
– 162 –
Beispiel: Tandem-Warteschlange mit Rücklauf
Kunden verlassen mit Wahrscheinlichkeit p den Server 1 in Richtung
Server 2. Mit Wahrscheinlichkeit 1 − p müssen Sie ein weiteres mal
die Bedienstation 1 passieren. Es sei min{pµ1 , µ2 } > λ.
λ1 = λ,
λ2 = 0,
P=
1−p
0
p
,
0
p20 = 1.
(I − P)T Λ = λ:
p
−p
0
1
λ
0
1 0
0 1
λ/p
⇒ Λ1 = λ/p,
λ
λ λ k
P(X1 = k) = 1 −
,
pµ1 pµ1
– 163 –
Λ2 = λ.
λ λ k
P(X2 = k) = 1 −
.
µ2 µ2
Beispiel
Gegeben sei folgendes System:
Es ist

0
P = 1
1


1/3 1/3
1
0
0  , (I − P)T = −1/3
0
0
−1/3
– 164 –
−1
1
0

 
−1
λ
0  , λ = 0
1
0
...
1
−1/3
−1/3
−1
1
0
−1
0
1
λ
0
0
1
0
0
−1
2/3
−1/3
−1
−1/3
2/3
λ
λ/3
λ/3
1 −1 0
0 2/3 0
0
0 1
1
0
0
2λ
2/3λ
λ
Damit ist
Λ = (3λ, λ, λ),
γ = (3%, %, %).
Das System ist ergodisch, wenn % < 1/3 ist.
– 165 –
−1
2/3
0
1
0
0
−1
−1/3
1/2
0
1
0
0
0
1
λ
λ/3
λ/2
3λ
λ
λ
Beispiel
Eine Maschine A produziert Flugzeugbauteile (µ = 1 h−1 ). Diese werden
anschließend an einer Station B geprüft (mittlere Dauer 12 Minuten).
Im Mittel sind 60 Prozent der Bauteile ohne Beanstandung, 30 Prozent
werden in einer zweiten Maschine C bearbeitet (im Mittel 30 Minuten
lang) und verlassen danach das System, 10 Prozent müssen ein weiteres
Mal die Maschine A passieren.
Wie groß darf der Eingangsstrom von Teilen maximal sein, wenn man
ein ergodisches System erhalten möchte?
Wie groß ist die Wahrscheinlichkeit im System A 7 Kunden und im
System B 4 Kunden vorzufinden, wenn λ = 0.5 ist?
– 166 –
...
Es ist

 
0
λ
λ =  0  , P = 0.1
0
0


1 0
1
0 0.3 , (I − P)T = −1
0 0
0
– 167 –
−0.1
1
−0.3

0
0
1
...
1
−1
0
1
0
0
−0.1 0 λ
1 0 0
−0.3 1 0
−0.1 0
λ
0.9 0
λ
0 1 λ/3
1
0
0
−0.1 0
0.9 0
−0.3 1
λ
λ
0
1 0 0 10/9λ
0 1 0 10/9λ
0 0 1 1/3λ
Wir erhalten also
Λ = (10/9λ, 10/9λ, 1/3λ),
γ = (10/9λ, 2/9λ, 1/6λ).
Bedingung für Ergodizität: 10/9λ < 1, also λ < 0.9. Mit λ = 0.5 ergibt
sich γ = (5/9, 1/9, 1/12):
4 5 7 8 1 4
32 · 57
P(X1 = 7, X2 = 4) =
=
= 9.8 · 10−7 ≈ 10−6 .
9 9 9 9
913
– 168 –
8. Geschlossene Netzwerke
8.1. Grenzverteilung
In geschlossenen Netzwerken (Gordon-Newell-Netzwerke) gibt es eine
feste Anzahl K von Kunden, die sich im System bewegen.
Wir nehmen an, dass sich K Kunden im System befinden.
– 169 –
Grenzverteilung geschlossener Netzwerke
(1)
Eine Grenzverteilung existiert stets.
(2)
Die Zufallsvariablen X1 , X2 , . . . , XN sind im allgemeinen nicht
unabhängig.
(3)
Es sei Λ = (Λ1 , . . . , ΛN ) eine (nicht eindeutige) Lösung des
linearen Gleichungssystems
(I − P)t Λ = 0
und γi = Λi /µi .
Dann gilt für die gemeinsame Verteilung der Kundenzahlen
P(X1 = k1 , X2 = k2 , . . . , XN = kN ) =
N
1 Y ki
γi .
C
i=1
Dabei ist die Konstante C gegeben durch
C=
X
N
Y
k1 +...+kN =K i=1
– 170 –
γi ki .
Wie berechnet man die Summe
X
C=
N
Y
γi ki
?
k1 +...+kN =K i=1
Beispiel: N = 3, K = 4.
k1
0
0
0
0
0
k2
0
1
2
3
4
k3
4
3
2
1
0
Insgesamt gibt es
k1
1
1
1
1
k2
0
1
2
3
k3
3
2
1
0
6
2
K +N−1
N−1
=
k1
2
2
2
3
3
4
k2
0
1
2
0
1
0
k3
2
1
0
1
0
0
= 15 Fälle.
Dann ergibt sich
C = γ34 + γ21 γ33 + γ22 γ33 + γ23 γ31 + γ24
+ γ1 γ33 + γ1 γ21 γ32 + γ1 γ22 γ31 + γ1 γ23
+ γ12 γ2 γ32 + γ12 γ2 γ21 γ31 + γ12 γ2 γ22 + γ13 γ3 + γ13 γ2 + γ14 .
– 171 –
Beispiel
4 Kunden durchlaufen die Server 1,2 und 3 wie folgt:
Es ist

0

P= 1
1
1/2
0
0
– 172 –

1/2
0 
0
Beispiel (Forts.)
Wir lösen (I − P)t Λ = 0:
1
−1/2
−1/2
−1 −1
1
0
0
1
1
0
0
−1
1/2
−1/2
−1
−1/2
1/2
1 0
0 1
0 0
−2
−1
-1
⇒ Λ = (2, 1, 1) (oder auch z.B. (1, 1/2, 1/2) oder (10, 5, 5)).
Gemeinsame Grenzverteilung:
1
(2/10)k1 (1/5)k2 (1/30)k3
C
6k1 +k2
=
.
304 C
P(X1 = k1 , X2 = k2 , X3 = k3 ) =
– 173 –
Beispiel (Forts.)
K +N−1
N−1
=
5
2
= 15 Kombinationen für 6k1 +k2 :
k1 \k2
0
1
2
3
4
0
1
6
36
216
1296
1
6
36
216
1296
2
36
216
1296
3
216
1296
4
1296
⇒ 304 C = 7465.
Dann ist z.B.
P(X1 = 2, X2 = 1, X3 = 1) =
– 174 –
63
= 0.0289.
7465
Beispiel (Forts.)
Übrige Wahrscheinlichkeiten:
k1 \k2
0
1
2
3
4
0
0.0001
0.0008
0.0048
0.0289
0.1736
1
0.0008
0.0048
0.0289
0.1736
0.
2
0.0048
0.0289
0.1736
0.
0.
– 175 –
3
0.0289
0.1736
0.
0.
0.
4
0.1736
0.
0.
0.
0.
Beispiel: 2-Prozessorsystem
Fünf Programme (Jobs) werden in einem Computer abwechselnd in
zwei Prozessoren ausgeführt. Dabei seien die Bearbeitungszeiten exponentiell mit mittlerer Bedienzeit 1s und 4s.
Dann ist µ1 = 1, µ2 = 1/4 und es ergibt sich P =
1
−1
−1
1
1
0
−1
-1
– 176 –
⇒
0
1
Λ1 = Λ2 .
1
0
und
Beispiel: 2-Prozessorsystem (Forts.)
Wir setzen z.B. Λ1 = Λ2 = 1.
Dann gilt
P(X1 = i, X2 = K − i) =
1
1
1 1 µ2 i
=
−i
C µi1 µK
C µK
µ1
2
2
Dann ist
C
=
K
X
i=0
K +1
K i
1 − µµ21
X
1
µ
2
= µ−K
= µ−K
.
2
2
−i
µ
1 − µµ21
µi1 µK
1
2
i=0
Es ergibt sich
P(X1 = i, X2 = K − i) =
– 177 –
µ i
1 − µµ21
2
.
K +1
µ
µ2
1
1 − µ1
Beispiel
Es sei folgendes geschlossenes Netzwerk gegeben:
Im System befinden sich 2 Kunden. Die mittleren Bedienzeiten betragen
in den Servern jeweils eine Minute.
Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation
vorzufinden?
– 178 –
..
0
0
P=
0
0.9
1
0
0
0.1

0
0.9
0
0

0
0.1
,
1
0
1
−1
T
(I − P) = 
0
0

0
1
−0.9
−0.1
0
0
1
−1
Gauss-Elimination:
1
0
0
0
0
0 −0.9
1 0
−1
−1 0
1
1 10 −10
1 0
0
0 1
0
0 0 10
0 0
0
−0.9
−1
−9
0
Also ist z.B.
Λ = (0.9, 1, 0.9, 1)
und damit
γ = (0.9, 1, 0.9, 1).
– 179 –
1 0
0 1
0 0
0 0
0
0
0
0
−0.9
−1
−0.9
-1

−0.9
−0.1

0 
1
..
Es ist dann
P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) =
0.9k1 +k3
.
C
Es gibt
K +N −1
5
=
= 10
N −1
3
Kombinationen von ki -Werten:
C = 3 · 0.90+0 + 2 · 0.90+1 + 0.90+2 + 2 · 0.91+0 + 0.91+1 + 0.92+0
= 9.84
Also
P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) =
– 180 –
0.9k1 +k3
.
9.84
..
Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation
vorzufinden?
0.92
,
P(X1 = 2, X2 = 0, X3 = 0, X4 = 0) =
9.84
1
P(X1 = 0, X2 = 2, X3 = 0, X4 = 0) =
,
9.84
0.92
,
P(X1 = 0, X2 = 0, X3 = 2, X4 = 0) =
9.84
1
P(X1 = 0, X2 = 0, X3 = 0, X4 = 2) =
.
9.84
Also ergibt sich die Wahrscheinlichkeit
2
(0.92 + 1) ≈ 36.8%.
9.84
– 181 –
9. Die M/G/1-Warteschlange
9.1. Einführung
Häufig ist es zu restriktiv, exponentielle Bedienzeiten anzunehmen. Wir
betrachten jetzt Warteschlangen mit einer Bedienstation, exponentiellen
Zwischenankunftszeiten und beliebig verteilten Bedienzeiten.
Wie bisher auch beschreiben λ und µ die Ankunftsrate bzw.
Bedienrate. Wir schreiben wieder % = λ/µ für die Verkehrsintensität.
Es bezeichne G die Verteilungsfunktion der Bedienzeiten:
G (x) = P(B ≤ x).
– 182 –
Es sei
X Anzahl von Kunden im System,
L Anzahl der Kunden in der Warteschlange,
W die Wartezeit in der Warteschlange,
S die gesamte Aufenthaltszeit im System und
R die restliche Bedienzeit des Kunden in der Bedienstation unter der
Annahme, dass X > 0 ist.
Es gilt nach wie vor das Littlesche Gesetz in seinen drei Varianten:
E (X ) = λE (S),
E (L) = λE (W ),
E (Q) = λE (B).
– 183 –
9.2. Kundenzahl
Ergodizität
Gilt % = λ/µ < 1, dann besitzt die M/G/1 für die Verteilung der
Kundenzahl Xt im System eine Grenzverteilung π = limt→∞ P(Xt = k).
Die Grenzverteilung besitzt, anders als im M/M/1 System, eine
komplizierte Form (sog. Pollaczeck-Khinchine-Formel). Wir begnügen
uns mit Aussagen über Mittelwerte.
Aus dem 3.Littleschen Gesetz folgt, wie schon beim
M/M/1-Wartesystem
E (Q) = λE (B)
⇔
P(X > 0) = %
⇔
π0 = 1 − %.
– 184 –
9.3. Wartezeit und mittlere Kundenzahl
Es gilt im Augenblick einer Ankunft:
E (W )
PASTA
=
Little
E (L)E (B) + E (R)P(X > 0)
=
λE (W )E (B) + E (R)P(X > 0)
=
%E (W ) + %E (R)
Also gilt
E (W ) = E (R)
ρ
.
1−%
Wir müssen noch E (R) berechnen.
Im Gegensatz zur Situation in der M/M/1-Warteschlange, stimmt die
Verteilung der Restbedienzeit R im allgemeinen nicht überein mit der
Verteilung der Bedienzeiten.
– 185 –
Verteilung der Restbedienzeit
Verteilungsfunktion der Restbedienzeit:
Z x
G ∗ (x) = P(R ≤ x) = µ
(1 − G (u)) du.
0
G ∗ ist stetig mit Dichtefunktion
g ∗ (x) = µ(1 − G (x)).
Der Erwartungswert ist dann
Z
∞
x(1 − G (x)) dx
Z ∞
1 2
part.Int.
= µ
x g (x) dx
2
0
µ
= E (B 2 ).
2
E (R) = µ
0
– 186 –
Beispiel
Wir betrachten eine Warteschlange mit auf [0, b] gleichverteilten Bedienzeiten, d.h.
(
x
;0 < x ≤ b
G (x) = b
1 ;x > b
Dann ist E (B) = b/2 = 1/µ, E (B 2 ) = b 2 /3.
Für die Dichtefunktion von G ∗ ergibt sich
(
2
(1 − xb ) ; 0 < x ≤ b
g ∗ (x) = b
0
;x > b
– 187 –
Beispiel (Forts.)
Also ist
(
∗
G (x) =
2
b (x
−
x2
2b )
1
;0 < x ≤ b
;x > b
Dichte- und Verteilungsfunktion:
Für den Erwartungswert von R erhalten wir
b
µ
E (R) = E (B 2 ) = .
2
3
– 188 –
Aus
E (W ) = E (R)
ρ
1−%
und
E (R) =
µ
E (B 2 ).
2
E (W ) =
λE (B 2 )
.
2(1 − %)
ergibt sich:
Little:
E (X )
= λE (S) = λ E (W ) + E (B)
= %+
λ2 E (B 2 )
.
2(1 − %)
– 189 –
Wartezeit und mittlere Kundenzahl M/G/1
Für die M/G/1-Warteschlange gelten die folgenden Formeln für Erwartungswerte:
λ2 E (B 2 )
,
2(1 − %)
λE (B 2 )
E (W ) =
,
2(1 − %)
λ2 E (B 2 )
E (X ) = % +
,
2(1 − %)
1
λE (B 2 )
E (S) = +
.
µ 2(1 − %)
E (L) =
Zur Berechnung der obigen Erwartungswerte ist also die Kenntnis von
E (B) und E (B 2 ) ausreichend.
– 190 –
Beispiel
In einer Fabrik wird an einer Maschine ein Werkstück gefertigt. Die
Fertigung gelinge beim ersten Versuch nur in 75% der Fälle. Erst dann,
wenn die Fertigung erfolgreich war, kann das nächste Stück gefertigt
werden. Ein Versuch dauert exakt eine Minute. Die Ankunftsrate der
Werkstücke sei λ = 0.5 min−1 .
Die Verteilung der Bedienzeiten ist geometrisch mit Erfolgswahrscheinlichkeit p = 3/4, d.h.
P(B = k) = (1/4)k−1 · 3/4
Dann ist µ = 1/E (B) = p = 3/4, % =
2
3
< 1 und
1
2−p
20
1−p
+ 2 =
=
.
2
2
p
p
p
9
5
5
3
Also gilt: E (L) = , E (W ) = , E (X ) = , E (S) = 3.
6
3
2
E (B 2 ) = Var(B) + E (B)2 =
– 191 –
10. Anhang
10.1. Geschichte der Warteschlangentheorie
Andrei Andreievich Markov (1856-1922)
Russischer Mathematiker
Markov-Prozesse, Markov-Ketten.
Andrei Nikolajewitsch Kolmogorov (1903-1987)
Russischer Mathematiker
Begründer der modernen Wahrscheinlichkeitstheorie.
– 192 –
Agner Krarup Erlang (1878-1929)
Dänischer Mathematiker und Ingenieur
Begründer der Warteschlangentheorie, ”The Theory of
Probabilities and Telephone Conversations” (1909),
Erlang-B/C-Formel,
Erlang-Verteilung der Summer exponentieller
Zufallsvariablen.
Tore Olaus Engset (1865-1943)
Norwegischer Mathematiker und Ingenieur
Engset-Formel
– 193 –
Alexander Jakowlewitsch Khinchin (1894-1959)
Russischer Mathematiker.
Pollaczek-Khinchin-Formel (M/G/1)
Felix Pollaczek (1892-1981)
Österreichisch-französischer Mathematiker
Pollaczek-Khinchin-Formel (M/G/1)
David George Kendall (1918-2007)
Englischer Mathematiker
– 194 –
Dennis Lindley (1923-2013)
Lindleys Gleichung.
James Richard Jackson (1924 – 2011)
Amerikanischer Mathematiker
Jackson-Netzwerke
Achtung Verwechslungsgefahr! Ray R.P. Jackson,
Tandem-Warteschlangen.
John Dutton Conant Little (1928)
Amerikanischer Physiker
Little’s formula.
– 195 –
Leonard Kleinrock (1934)
Amerikanischer Informatiker/Elektroingenieur.
Jacob Willem Cohen (1923-2000)
Retrial queues. Standardwerk: ”The Single Server
Queue”.
Sir John Frank Charles Kingman (1939)
Englischer Mathematiker
Regenerative Prozesse.
– 196 –
10.2. Logarithmus
log(x · y ) = log(x) + log(y )
log(x y ) = y · log(x)
log(1) = 0
Basenumrechnung: loga (x) = log(x)/ log(a).
Lösung von Gleichungen mit der Unbekannten im Exponenten:
qx = r
⇔
x log(q) = log(r )
⇔
x = log(r )/ log(q).
– 197 –
10.3. Potenzen und Wurzeln
b x+y = b x · b y
b x·y = (b x )y
(a · b)x = ax · b x ,
(a/b)x = ax /b x
b0 = 1
1/b = b −1
√
b = b 1/2
√
n
b = b 1/n
(a + b)2 = a2 + 2ab + b 2
(a − b)2 = a2 − 2ab + b 2
(a + b)(a − b) = a2 − b 2
Pn
(a + b)n = k=0 kn ak b n−k
– 198 –
10.4. Exponentialfunktion
e x+y = e x · s y
e x·y = (e x )y
Für jede reelle Zahl x ∈ R gilt
ex =
∞
X
xk
k=0
k!
.
Zum Beispiel ist
e −x =
e=
∞
X
(−1)k
k=0
∞
X
k=0
– 199 –
k!
1
.
k!
,
(1)
(2)
10.5. Geometrische Summe
Es gilt für jedes q ∈ R
n
X
k=0
n
X
k=1
n
X
k=m
qk =
1 − q n+1
1−q
(3)
1 − qn
1−q
(4)
q m − q n+1
1−q
(5)
qk = q
qk =
– 200 –
Für −1 < q < 1 existiert der Grenzwert für n → ∞:
∞
X
1
qk =
,
1−q
k=0
∞
X
qk =
k=m
∞
X
kq k =
qm
.
1−q
∞
X
k=0
∞
X
k=1
∞
X
k=0
k=1
k 2qk =
kq k =
(7)
q
(1 − q)2
k 2qk =
– 201 –
(6)
q(1 + q)
(1 − q)2
(8)
(9)
10.6. Integrale
Partielle Integration:
Z
Z b
b
0
F (x)G (x) dx = [F (x)G (x)]a −
b
F (x)G 0 (x) dx.
a
a
Substitutionsregeln:
Z b
Z
h−1 (b)
f (x) dx =
h0 (u)f (h(u)) du
h−1 (a)
a
und
Z
b
h0 (x)f (h(x)) dx =
a
Z
h(b)
f (u) du.
h(a)
– 202 –
10.7. Literatur zum Weiterlesen
Soren Asmussen
Applied Probability and Queues, Springer
Onno Boxma
Stochastic Performance Modelling, Eindhoven University of Technology
– 203 –
Inhalt
1. Einführung
1.1
1.2
1.3
1.4
1
Einfaches Warteschlangenmodell
Beispiele
Erweiterte Modelle
Interessante Größen
2. Stochastik
2.1
2.2
2.3
2.4
2.5
1
5
6
9
10
Zufallsvariablen und ihre Verteilung
Erwartungswerte
Das Gesetz der großen Zahlen ( LLN.cdf)
Wichtige Verteilungen
Die Exponential- und Poisson-Verteilung
– 204 –
10
16
19
21
27
3. Der Ankunftsprozess und die Bedienzeiten
3.1
3.2
3.3
3.4
3.5
Die Ankunfts- und Zwischenankunftszeiten
Der Erneuerungsprozess der Ankünfte
Markovsche Ankünfte / Poisson-Prozess (
Bedienzeiten
Exponentielle Bedienzeiten
4. Die M/M/1-Warteschlange
4.1
4.2
4.3
4.4
4.5
4.6
PoissonEvents.cdf)
33
33
38
43
48
50
52
Definition
Die Anzahl der Kunden im System( MM.cdf)
Grenzverteilung / Stationärer Zustand
PASTA
Die Warte- und Aufenthaltszeit im System
Littles Gesetz
– 204 –
52
53
60
69
71
78
5. Markovketten in stetiger Zeit
5.1
5.2
5.3
5.4
5.5
80
Markovketten in diskreter Zeit
Übergangsdiagramm
Markovketten in stetiger Zeit
Die Intensitätsmatrix
Geburts- und Todesprozesse
80
84
86
89
91
6. M/M-Warteschlangensysteme
102
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
M/M/1
M/M/1/K - Warteschlange mit beschränkter Kapazität
Spezialfall: M/M/1/1
M/M/∞ - Beliebig viele Server
M/M/m - System mit m Bedienstationen
Erlangsches Verlustmodell (M/M/m/m)
Engset-Modell für endliche Population
Sonderfall: Engset-Modell mit K = N
– 204 –
102
105
113
116
122
135
141
146
7. Offene Netzwerke
7.1
7.2
7.3
7.4
7.5
148
Der Satz von Burke
M/M/1-Tandem-Warteschlange
Offene Netzwerke
Durchsatz
Satz von Jackson
8. Geschlossene Netzwerke
148
153
157
159
161
169
8.1 Grenzverteilung
169
9. Die M/G/1-Warteschlange
182
9.1 Einführung
9.2 Kundenzahl
9.3 Wartezeit und mittlere Kundenzahl
– 204 –
182
184
185
Herunterladen