Warteschlangentheorie Frühjahrstrimester 2016 HSU Hamburg Andreas Löpker 1. Einführung 1.1. Einfaches Warteschlangenmodell Der Ankunftsprozess beschreibt die zufällige Ankunft von Kunden. Ist die Bedienstation besetzt, so müssen die Kunden in der Warteschlange warten. An der Bedienstation ergibt sich für jeden Kunden, der bedient wird, eine zufällige Bediendauer. Nach der Bedienung verlassen die Kunden das System und bilden den Abgangsprozess. –1– Kendall-Notation Warteschlangen werden häufig durch vier Parameter A, B, c und K klassifiziert. Man verwendet die Kendall-Notation: A/B/c/K A beschreibt den Ankunftsprozess: M=Exponentiell, G=Allgemein, D=Deterministisch. B beschreibt die Bedienungszeit: M=Exponentiell, G=Allgemein, D=Deterministisch. c gibt Auskunft über die Anzahl der Bedienstationen (Server), K entspricht der Warteschlangenkapazität. –2– In dieser Vorlesung: M/M/1 - Exponentielle Ankünfte und Bedienzeiten, ein Server. M/M/1/K - Exponentielle Ankünfte und Bedienzeiten, ein Server, aber nur maximal K freie Plätze in der Warteschlange. Es bedarf einer Vereinbarung, was mit abgewiesenen Kunden passiert. M/M/∞ - Exponentielle Ankünfte und Bedienzeiten. Es ist immer ein Server frei. M/M/m - Exponentielle Ankünfte und Bedienzeiten, m Server. M/M/m/m - Exponentielle Ankünfte und Bedienzeiten, m Server, Kapazität m. M/G/1 - Exponentielle Ankünfte und beliebige Bedienzeiten, ein Server. Netzwerke von Warteschlangen. –3– Meistens werden folgende Eigenschaften des Modells angenommen: die Zwischenankunftszeiten besitzen dieselbe Verteilung und sind voneinander unabhängig (kurz: i.i.d. engl. ”independent and identically distributed”), die Bedienzeiten sind ebenfalls i.i.d., die Zwischenankunftszeiten und die Bedienzeiten sind unabhängig voneinander, Kunden, die zuerst ankommen, werden auch zuerst bedient (FIFOoder FCFS-Disziplin). –4– 1.2. Beispiele Bankschalter Kunden kommen zu zufälligen Zeitpunkten in die Bank und werden dort an einem Schalter bedient. Vor dem Schalter bildet sich eine Warteschlange. Befahren eines Streckenabschnitts durch Züge Die Züge sind die Kunden, der Streckenabschnitt ist der Server. Die Warteschlange wird durch die vorgelagerten Streckenabschnitte gebildet. Produktionsanlagen Die Kunden sind Produkte, die in einer Maschine bearbeitet werden müssen. –5– 1.3. Erweiterte Modelle Andere Warteschlangendisziplinen Es gibt verschiedene weitere Abfertigungsmechanismen: LIFO (LCFS): Ein ankommender Kunde wird sofort bedient, die Bedienung des aktuellen Kunden wird unterbrochen. SIRO: Sobald der Server ohne Arbeit ist wird zufällig ein Kunde aus der Schlange ausgewählt. Prioritäten: Kunden haben verschiedene Prioritäten und werden je nach Priorität ausgewählt. –6– Mehrere Server Parallel: In Serie (Tandem-Warteschlange): –7– Netzwerke In Warteschlangennetzen muss es Regeln für die Verteilung auf die verschiedenen Server geben (Routing). –8– 1.4. Interessante Größen Uns interessieren u.a. folgende Größen: Verteilung (oder Erwartungswert) der Wartezeiten, Verteilung (oder Erwartungswert) der Aufenthaltsdauer im System, Verteilung (oder Erwartungswert) der Anzahl von Kunden in der Warteschlange, Verteilung (oder Erwartungswert) der Zeiten, in denen der Server arbeitet (bzw. nicht arbeitet), Auslastung des Systems, Verhalten des Systems, wenn die Zeit gegen unendlich strebt. –9– 2. Stochastik 2.1. Zufallsvariablen und ihre Verteilung Zufallsvariablen Zufallsvariablen sind mathematische Größen, die einen zufälligen Zahlenwert annehmen. Es gibt diskrete Zufallsvariablen, die nur abzählbar viele Werte x1 , x2 , . . . annehmen und stetige Zufallsvariablen mit Werten z.B. in einem Intervall [a, b]. – 10 – Beispiel: Diskrete Zufallsvariable Die Augenzahl beim Würfeln ist eine diskrete Zufallsvariable, denn sie nimmt nur die Werte 1 bis 6 an. Beispiel: Diskrete Zufallsvariable Die Anzahl von Kunden in der Wartschlange ist eine weitere diskrete Zufallsvariable mit Werten in der Menge N ∪ {0} = {0, 1, 2, . . .}. Beispiel: Stetige Zufallsvariable Die Ankunftszeit eines Kunden kann durch eine stetige Zufallsvariable beschrieben werden. – 11 – Verteilung Zufallsvariablen werden durch ihre Verteilung beschrieben. Das geschieht meistens, indem man ihre Verteilungsfunktion angibt: F (x) = P(X ≤ x). Die Funktion F ist nicht-fallend, rechtsseitig stetig, hat Werte im Intervall [0, 1] und es gilt lim F (x) = 0, x→−∞ – 12 – lim F (x) = 1. x→∞ Wahrscheinlichkeitsfunktion Bei diskreten Zufallsvariablen kann man die Verteilung am besten durch Angabe der Wahrscheinlichkeitsfunktion f (xk ) = P(X = xk ) angeben. Beispiel Beim Würfeln ist die Augenzahl eine Zufallsvariable X mit 1 1 1 f (1) = , f (2) = , f (3) = , 6 6 6 1 1 1 f (4) = , f (5) = , f (6) = . 6 6 6 – 13 – Verteilungsfunktion und Wahrscheinlichkeit Die Verteilungsfunktion F (x) einer diskreten Zufallsvariable X besitzt Sprünge der Höhe f (xi ) an den Stellen xi : Es gilt P(X ∈ (a, b]) = F (b) − F (a) = X xi ∈[a,b] – 14 – f (xi ). Dichtefunktion Bei stetigen Zufallsvariablen beschreibt man die Verteilung durch die Angabe der Verteilungsfunktion F (x) oder ihrer Ableitung, der Dichtefunktion: d F (x). f (x) = dx Für stetige Zufallsvariablen gilt P X ∈ (a, b] = F (b) − F (a) = Z f (u) du. a – 15 – b 2.2. Erwartungswerte Erwartungswert Als Erwartungswert E (X ) bezeichnet man eine theoretische Größe, die eine Art Mittelwert der Zufallsvariablen angibt. Für eine diskrete Zufallsvariable ist X E (X ) = xi · f (xi ). xi Für eine stetige Zufallsvariable ist Z ∞ E (X ) = x · f (x) dx −∞ – 16 – Allgemeine Erwartungswerte Ist g (x) eine Funktion, so kann man den Erwartungswert von E (g (X )) wie folgt berechnen: Für eine diskrete Zufallsvariable ist X E (g (X )) = g (xi ) · f (xi ). xi Für eine diskrete Zufallsvariable ist Z ∞ g (x) · f (x) dx E (g (X )) = −∞ – 17 – Varianz Die Varianz ist ein Maß für die Streuung einer Zufallsvariablen. Sie ergibt sich als Erwartungswert des quadratischen Abstands vom Erwartungswert: Var(X ) = E ((X − E (X ))2 ). Alternative Berechnungsmethode: Var(X ) = E (X 2 ) − E (X )2 . Beispiel: Augenzahl Es ist E (X 2 ) = 1 2 1 2 1 91 1 + 2 + . . . + 62 = . 6 6 6 6 Also ist Var(X ) = E (X 2 ) − E (X )2 = – 18 – 35 91 49 − = . 6 4 12 2.3. Das Gesetz der großen Zahlen Ein Würfel wird 10 mal geworfen. Die jeweilige Augenzahl Xk und der aktuellen Mittelwert Mk = (X1 + X2 + . . . + Xk )/k werden notiert: i 1 2 3 4 5 6 7 8 9 10 Xi 5 2 5 2 4 4 3 2 6 4 Mi 5 7/2 4 7/2 18/5 11/3 25/7 27/8 11/3 37/10 – 19 – Bei 100 Würfen ergibt sich: (Starkes) Gesetz der großen Zahlen Sind die Zufallsvariablen X1 , X2 , . . . unabhängig und identisch verteilt mit E (|X1 |) < ∞, so gilt X1 + X2 + . . . + Xn P lim = E (X1 ) = 1. n→∞ n – 20 – 2.4. Wichtige Verteilungen Bernoulli-Verteilung X nimmt nur die zwei Werte 0 und 1 an (x1 = 0, x2 = 1). P(X = 1) = p, P(X = 0) = 1 − p, p ∈ [0, 1], d.h. für die Wahrscheinlichkeitsfunktion gilt f (x1 ) = 1 − p und f (x2 ) = p. E (X ) = 1 · p + 0 · (1 − p) = p, k = 0, 1, . . . , n. Var(X ) = p − p 2 = p(1 − p). Ein Bernoulli-Experiment ist ein Zufallsexperiment, das nur zwei Ausgänge (Erfolg und Misserfolg) kennt. – 21 – Binomialverteilung X beschreibt die Anzahl von Versuchen bei n Bernoulli-Experimenten bei denen Erfolg eintritt. P(X = k) = kn p k (1 − p)n−k , k = 0, 1, . . . , n E (X ) = np. Var(X ) = np(1 − p). – 22 – Beispiel Ein Würfel wird 5 mal geworfen. Es sei X die Anzahl der Würfe mit einer Augenzahl > 4. Es ist p = 1/3 und 1 − p = 2/3 und damit 5 0 P(X = 0) = p (1 − p)5 = (2/3)5 , 0 5 1 P(X = 1) = p (1 − p)4 = 5(1/3)(2/3)4 , 1 5 2 P(X = 2) = p (1 − p)3 = 10(1/3)2 (2/3)3 , 2 5 3 P(X = 3) = p (1 − p)2 = 10(1/3)3 (2/3)2 , 3 5 4 P(X = 4) = p (1 − p)1 = 5(1/3)4 (2/3)1 , 4 5 5 P(X = 5) = p (1 − p)0 = (1/3)5 . 5 – 23 – Geometrische Verteilung vom Typ I X beschreibt, nach wie vielen Bernoulli-Experimenten zum ersten mal Erfolg auftritt. P(X = k) = (1 − p)k−1 p, k = 1, 2, 3, . . . E (X ) = p1 . Var(X ) = 1−p p2 . Geometrische Verteilung vom Typ II X beschreibt die Fehlversuche bis zum ersten Erfolg bei BernoulliExperimenten. P(X = k) = (1 − p)k p, k = 0, 1, 2, 3, . . . E (X ) = 1−p p . Var(X ) = 1−p p2 . – 24 – Beispiel Wie lange muss man im Durchschnitt würfeln, bis man eine 6 würfelt? Es sei X die Anzahl der Würfe, bis eine Augenzahl 6 gewürfelt wird. Es ist p = 1 6 und daher E (X ) = 1 = 6. p – 25 – Gleichverteilung X nimmt Werte in einem Intervall [a, b] an. Dabei ist die Wahrscheinlichkeit in einem Teilintervall I zu liegen, proportional zur Intervalllänge. F (x) = P(X ≤ x) = f (x) = 1 b−a , E (X ) = x−a b−a , x ∈ [a, b], x ∈ [a, b], a+b 2 , Var(X ) = (b−a)2 12 . – 26 – 2.5. Die Exponential- und Poisson-Verteilung Die Exponentialverteilung Eine Zufallsvariable X ist exponentiell verteilt mit Parameter λ > 0, wenn F die Exponentialverteilung ist: ( 0 ;x < 0 F (x) = P(X ≤ x) = −λx 1−e ;x ≥ 0 Dichtefunktion: d f (x) = F (x) = dx ( – 27 – 0 λe ;x < 0 −λx ;x ≥ 0 Für den Erwartungswert ergibt sich Z ∞ Z ∞ E (X ) = xf (x) dx = xλe −λx dx 0 0 Z ∞ −e −λx ∞ 1 −λx −λx ∞ + e dx = − xe = ]0 = . 0 λ λ 0 Für die Varianz erhält man durch eine ähnliche Rechnung Var(X ) = 1/λ2 . Wir berechnen die Wahrscheinlichkeit, dass X größer ist als x + y , gegeben, dass X größer ist als y . Wir benötigen dazu die Formel für die bedingte Wahrscheinlichkeit: Bedingte Wahrscheinlichkeit Für zwei Ereignisse A und B mit P(B) > 0 gilt: P(A|B) = P(A und B) . P(B) – 28 – Dann gilt: P(X > x + y |X > y ) = = P(X > x + y , X > y ) P(X > y ) P(X > x + y ) P(X > y ) = 1 − (1 − e −λ(x+y ) ) 1 − (1 − e −λy ) = e −λ(x+y ) e −λx e −λy = = e −λx . −λy e e −λy Gedächtnislosigkeit der Exponentialverteilung Besitzt X eine exponentielle Verteilung mit Parameter λ, so ist für jedes y > 0 die Verteilung von (X − y ), gegeben X > y , erneut eine Exponentialverteilung mit demselben Parameter λ: P(X > x + y |X > y ) = e −λx . – 29 – Beispiel Die Ankunftszeit T eines Kunden sei exponentiell verteilt mit Erwartungswert 10 Minuten (λ = 1/10). Angenommen es kam in den ersten 15 Minuten kein Kunde an. Die Wahrscheinlichkeit, auf den ersten Kunden noch mindestens weitere 8 Minuten warten zu müssen ist P(T > 23|T > 15) = P(T > 8) 1 = e − 10 ·8 = e −0.8 ≈ 0.45, unabhängig von den bereits vergangenen 15 Minuten. – 30 – Poisson-Verteilung Interpretation: Siehe Abschnitt ”Der Ankunftsprozess und die Bedienzeiten”. k P(X = k) = e −c ck! , k = 0, 1, 2, . . . E (X ) = c. Var(X ) = c. Beispiel Ist X Poisson-verteilt mit Parameter c = 3, dann gilt 0 P(X = 0) = e −3 30! ≈ 0.05, 1 P(X = 1) = e −3 31! ≈ 0.15, 2 P(X = 2) = e −3 32! .. .. . . – 31 – ≈ 0.22, .. . Zusammenfassung – Abschnitt 2 Diskrete und stetige Zufallsvariablen und ihre Verteilungsfunktionen. Erwartungswerte, bedingte Wahrscheinlichkeit. Gesetz der großen Zahlen. Verteilungen: Bernoulli-Verteilung, Binomialverteilung, Geometrische Verteilung, Gleichverteilung Wichtig: Exponentialverteilung und Poisson-Verteilung. – 32 – 3. Der Ankunftsprozess und die Bedienzeiten 3.1. Die Ankunfts- und Zwischenankunftszeiten Der Ankunftsprozess beschreibt die zufälligen Ankünfte der Kunden. Die Kunden erreichen das System zu den Ankunftszeitpunkten T1 , T2 , T3 , . . .. Der k-te Kunde betritt das System zum Zeitpunkt Tk . Wir setzen T0 = 0. – 33 – Die Zwischenankunftszeiten A1 = T1 − T0 A2 = T2 − T1 .. .. . . sind positive unabhängige Zufallsvariablen mit identischer Verteilung. Der Wert λ = 1 E (Ai ) heißt Ankunftsrate. – 34 – Beispiel (Amt) In einem Bürgeramt werden Wartenummern für die Besucher ausgegeben. Die Ankunftszeiten der ersten zehn Besucher registiert: Kunde Nr. k: Ankunftszeit Tk : 1 26 2 67 3 76 4 83 5 125 – 35 – 6 129 7 203 8 211 9 244 10 248 Beispiel (Amt) Es ergeben sich folgende Zwischenankunftszeiten: Kunde Nr. k: Zwischenankunftszeit Ak : 1 26 2 41 3 9 4 7 5 42 6 4 7 74 Geschätzte Ankunftsrate: λ̃ = 1/24.8 ≈ 0.04 Bürger pro Minute oder λ̃ = 60/24.8 = 2.42 Bürger pro Stunde. – 36 – 8 8 9 33 10 4 Beispiel (Amt) Kunde Nr. k: Zwischenankunftszeit Ak : 1 26 2 41 3 9 4 7 5 42 6 4 7 74 8 8 9 33 10 4 Empirische Verteilungsfunktion der Zwischenankunftszeiten und exponentielle Verteilungsfunktion mit λ = 0.04. – 37 – 3.2. Der Erneuerungsprozess der Ankünfte Der Zählprozess N(t), der die Ankünfte bis zum Zeitpunkt t zählt, heißt Erneuerungsprozess. Den Erwartungswert U(t) = E (N(t)) nennt man Erneuerungsfunktion. Die Erneuerungsfunktion ist in den meisten Fällen nur schwer explizit anzugeben. Es ist im allgemeinen U(t) 6= λ · t. – 38 – Beispiel (Amt) k: Tk : Ak : 1 26 26 2 67 41 3 76 9 4 83 7 5 125 42 6 129 4 – 39 – 7 203 74 8 211 8 9 244 33 10 248 4 Beispiel (Amt) Es werden jetzt weitere zehn Besucherankünfte registiert. – 40 – Beispiel (Amt) 100 Ankünfte: Vermutung: N(t) ≈ λt. – 41 – Erneuerungssatz Es gilt P N(t) = λ = 1. t→∞ t lim und U(t) 1 = = λ. t→∞ t E (Ai ) lim Es gilt also annähernd U(t) ≈ λt Erwartete Kundenzahl ≈ Ankunftsrate × Zeit. – 42 – 3.3. Markovsche Ankünfte / Poisson-Prozess Besitzen die Zwischenankunftszeiten eine exponentielle Verteilung, so heißt die Warteschlange Markovsch (Kendall-Notation M/ · /·). Es gilt also P(Ai ≤ t) = 1 − e −λt , und E (Ai ) = t≥0 1 λ. In diesem Fall besitzt der Zählprozess N(t) eine Poissonverteilung mit Parameter λt, d.h. P(N(t) = k) = e −λt (λt)k , k! k = 0, 1, 2, . . . . N(t) heißt dann Poisson-Prozess mit Intensität λ. Die Erneuerungsfunktion hat dann eine besonders einfache Form: U(t) = E (N(t)) = λt. – 43 – Beobachtung: Der erste Kunde kommt erst nach dem Zeitpunkt t an, genau dann, wenn N(t) < 1 ist. Der zweite Kunde kommt erst nach dem Zeitpunkt t an, genau dann, wenn N(t) < 2 ist. Der nte Kunde kommt erst nach dem Zeitpunkt t an, genau dann, wenn N(t) < n ist. Es ergibt sich: Duale Beziehung zwischen Tk und N(t) Tn > t ⇔ N(t) < n Es folgt also P(Tn > t) = P(N(t) < n) = e −λx n−1 X (λt)k k=0 – 44 – k! . Verteilung der Ankunftszeiten beim Poisson-Prozess Die Ankunftszeiten T1 , T2 , . . . besitzen eine Erlang-Verteilung, d.h. P(Tn ≤ t) = 1 − e −λx n−1 X (λt)k k=0 k! Die zugehörige Dichtefunktion ist f (t) = (λt)n−1 −λt λe , (n − 1)! Es gilt E (Tk ) = – 45 – k . λ t ≥ 0. . Simulation: Poisson-Prozess λ = 3, t ∈ (0, 2): λ = 3, t ∈ (0, 5): – 46 – Simulation: Poisson-Prozess λ = 3, t ∈ (0, 20): λ = 3, t ∈ (0, 100): – 47 – 3.4. Bedienzeiten Der Zeitraum, für den sich ein Kunde in Bedienung befindet heißt Bedienzeit. Sie hängt, bei konstanter Bearbeitungsgeschwindigkeit, von der Arbeitsmenge ab, die der Kunde verlangt. Wir nehmen wieder an, dass die Bedienzeiten B1 , B2 , . . . i.i.d. und unabhängig von den Ankunftszeiten sind. Die Bedienrate Die Bedienrate ist µ = 1/E (B1 ). Angenommen die Warteschlange wäre immer besetzt, dann bilden die Abgänge der Kunden einen Erneuerungsprozess. Wenn M(t) die abgehenden Kunden zählt, dann gilt nach dem Erneuerungssatz E (M(t)) 1 lim = = µ. t→∞ t E (B1 ) Die Bedienrate gibt also (langfristig) die mittlere Zahl von bedienten Kunden pro Zeiteinheit in einem voll ausgelasteten System an. – 48 – Beispiel Die Bedienzeiten an einem Schalter besitzen die Verteilungsfunktion ( 0 ;x < 1 F (x) = P(B1 ≤ x) = . 2 1 − 1/x ;x ≥ 1 Dann ist die Dichtefunktion gegeben durch ( 0 ;x < 1 f (x) = . 2/x 3 ; x ≥ 1 Daraus ergibt sich der Erwartungswert ∞ Z ∞ 2 1 x 3 dx = 2 E (B1 ) = = 2. x x 1 1 Die Bedienrate ist dann µ = 1/E (B1 ) = 1/2. Langfristig werden etwa 0.5 Kunden pro Zeiteinheit bedient, vorausgesetzt die Warteschlange ist immer voll. – 49 – 3.5. Exponentielle Bedienzeiten Häufig geht man davon aus, dass die Bedienzeiten eine Exponentielle Verteilung besitzen, d.h. P(Bi ≤ x) = 1 − e −µx , x ≥ 0. Die Bedienrate ist dann offenbar 1 = µ, E (B1 ) d.h. langfristig werden etwa µ Kunden pro Zeiteinheit bedient, vorausgesetzt es kommen immer genug Kunden an. Wegen der Gedächtnislosigkeit der Exponentialverteilung ist bei besetztem Server die Restbedienzeit zum Zeitpunkt t wieder exponentiell verteilt mit Parameter µ: P(B1 ≤ t + s|B1 > t) = P(B1 ≤ s) = 1 − e −µs . – 50 – Zusammenfassung – Abschnitt 3 Ankunftzeitpunkte und Zwischenankunftszeiten, Ankunftsrate. Poisson-Prozess: Verteilung von N(t) und Tk . Bedienzeiten und Bedienrate. Speziell: Exponentielle Bedienzeiten. Restbedienzeit. – 51 – 4. Die M/M/1-Warteschlange 4.1. Definition Wir betrachten ein Warteschlangenmodell mit einem Server und einer Warteschlange mit unbegrenzter Kapazität. Ankunftsprozess: Poisson-Prozess mit Rate λ. Bedienzeiten: Exponentiell mit Bedienrate µ. – 52 – 4.2. Die Anzahl der Kunden im System Es sei Xt die Anzahl der Kunden, die sich zum Zeitpunkt t im System befinden. Xt umfasst alle Kunden in der Warteschlange und ggf. den Kunden, der gerade in Bedienung ist. (Xt )t≥0 ist ein sog. stochastischer Prozess. Da Xt zu jedem Zeitpunkt t eine Zufallsvariable ist, macht es Sinn zu fragen, wie die Verteilung von Xt aussieht oder wie viele Kunden im Mittel in der Warteschlange sind. Es ist im allgemeinen sehr schwer diese zeitabhängigen Größen zu bestimmen. – 53 – Beispiel An einer Bedienstation kommen Kunden zu folgenden Zeiten mit entsprechenden Bedienzeiten an: 1 2 3 4 5 6 Ankunftszeit 15:03 15:08 15:11 15:13 15:21 15:23 Bedienzeit (min) 6 6 1 2 5 2 – 54 – Beispiel (Forts.) Es bezeichne Dk die Abgangszeit des kten Kunden. k 1 2 3 4 5 6 Tk 3 8 11 13 21 23 Ak Beginn der Bk Dk 3 5 3 2 8 2 Bedienung 3 9 15 16 21 26 6 6 1 2 5 2 9 15 16 18 26 28 Anzahl Xt der Kunden im System: – 55 – Die Zeiten, in denen der Server ruht, heissen Leerzeiten (idle periods). Die Zeiten, in denen der Server mit einem Kunden besetzt ist, heissen Belegtzeiten (busy periods). Beispiel – 56 – Wir wollen die Verteilung πk (t) = P(Xt = k) der Kundenzahl bestimmen. Idee: Wir schauen uns πk (t + h) für ein sehr kleines t > 0 an. Die Zwischenankunftszeiten sind exponentiell mit Parameter λ. Dann kann man zeigen: P(keine Ankunft im Intervall [t, t + h]) ≈ 1 − λh. P(eine Ankunft im Intervall [t, t + h]) ≈ λh. P(mehr als eine Ankunft im Intervall [t, t + h]) ≈ 0 P(kein Abgang im Intervall [t, t + h]) ≈ 1 − µh P(ein Abgang im Intervall [t, t + h]) ≈ µh, P(mehr als ein Abgang im Intervall [t, t + h]) ≈ 0 P(weder Abgänge noch Ankünfte im Intervall [t, t + h]) ≈ 1 − (λ + µ)h. – 57 – Dann ergibt sich πk (t + h) ≈ (1 − (λ + µ)h)πk (t) +λhπk−1 (t) + µhπk+1 (t) ⇔ ⇔ πk (t + h) − πk (t) ≈ −(λ + µ)hπk (t) + λhπk−1 (t) + µhπk+1 (t) πk (t + h) − πk (t) ≈ −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t) h ⇒ πk0 (t) = −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t). Mit dem gleichen Argument folgt π00 (t) = −λπ0 (t) + µπ1 (t) P∞ Zusätzlich gilt auch noch k=0 πk = 1. Dieses System von Differentialgleichungen ist sehr schwer zu lösen. Daher betrachten wir den Prozess Xt für t → ∞ und untersuchen die Grenzverteilung πk = lim πk (t), t→∞ vorausgesetzt der Grenzwert existiert. – 58 – 4.3. Grenzverteilung / Stationärer Zustand Die Verteilung πk (t) des Prozesses Xt konvergiert nicht in jedem Fall gegen eine Grenzverteilung πk . Es können drei Fälle auftreten: Transienter Fall: Für jedes K > 0 gilt Xt ∈ [0, K ] nur für einen endlichen Zeitraum. Es gilt P(Xt → ∞) = 1. Null-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ] unendlich oft wieder zurück, die Rückkehrzeiten haben aber einen unendlichen Erwartungswert. Positiv-rekurrenter Fall: Der Prozess kehrt in jedes Intervall [0, K ] unendlich oft wieder zurück, die Rückkehrzeiten besitzen einen endlichen Erwartungswert. – 59 – Grenzverteilung / Stationärer Zustand Im positiv rekurrenten Fall konvergiert die Verteilung der Kundenzahl πk (t) für t → ∞ gegen eine Grenzverteilung πk . Es sei X eine Zufallsvariable mit der Verteilung π, d.h. P(X = k) = πk . Starten wir die Warteschlange nicht leer, sondern so, dass πk (0) = πk ist, dann bleibt die Verteilung von t unabhängig, d.h. P(Xt = k) = πk , für jedes t. Wir sagen dann, dass sich die Warteschlange im stationären Zustand oder im Gleichgewichtszustand (auch Steady State) befindet. – 60 – Wann ist die Warteschlange positiv rekurrent? Wir verwenden zur Klassifizierung die Verkehrsintensität (”rho”) λ %= . µ Rekurrenz und Transienz Für % > 1 (λ < µ) ist Xt transient. Für % = 1 (λ = µ) ist Xt null-rekurrent. Für % < 1 (λ > µ) ist Xt positiv rekurrent. In diesem Fall besitzt das System eine eindeutige Grenzverteilung lim πk (t) = πk . t→∞ – 61 – Transienter Fall: λ = 3, µ = 2 Null-Rekurrenter Fall: λ = 2, µ = 2 – 62 – Positiv-rekurrenter Fall: λ = 1, µ = 2 – 63 – Wir haben schon gezeigt: πk0 (t) = −(λ + µ)πk (t) + λπk−1 (t) + µπk+1 (t) π00 (t) = −λπ0 (t) + µπ1 (t) Wir können annehmen, dass im positiv rekurrenten Fall πk0 (t) → 0 für t → ∞ gilt. Daher ergibt sich 0 = −(λ + µ)πk + λπk−1 + µπk+1 , 0 = −λπ0 + µπ1 . Gleichgewichtsgleichungen Es gilt µπ1 = λπ0 , (λ + µ)πk = λπk−1 + µπk+1 . und zusätzlich ∞ X πk = 1. k=0 – 64 – Wie löst man die Gleichgewichtsgleichungen? λπ0 = µπ1 , (λ + µ)πk = λπk−1 + µπk+1 . Es gilt π1 = π2 = λ π0 = %π0 µ (% + 1)π1 − %π0 = (% + 1)%π0 − %π0 = %2 π0 π3 = %3 π0 .. .. . . Vermutung: πk = %k π0 . Einsetzen bestätigt die Vermutung. – 65 – Da P∞ k=0 πk = 1 gelten muss, ist 1= ∞ X %k π0 = π0 k=0 1 1−% Es folgt: π0 = 1 − %. Grenzverteilung M/M/1 Die Anzahl der Kunden hat im stationären Zustand folgende Grenzverteilung (geometrische Verteilung Typ II, p = 1 − %): πk = P(X = k) = 1 − % %k , k ≥ 0 Die erwartete Anzahl von Kunden ist dann: % . E (X ) = 1−% Die Wahrscheinlichkeit, dass der Server besetzt ist (sog. Auslastung), beträgt 1 − π0 = %. – 66 – Beispiel In einer M/M/1-Warteschlange betrage die mittlere Zwischenankunftszeit 10 Minuten. Jeder Kunde verlangt eine Bearbeitungszeit von durchschnittlich 9 Minuten. Die Auslastung beträgt also λ 1/10 %= = = 0.9 = 90%. µ 1/9 Die erwartete Anzahl von Kunden im System ist 0.9 E (X ) = = 9. 1 − 0.9 Die Wahrscheinlichkeit 10 Kunden im System vorzufinden, ist P(X = 10) = (1 − %)%10 = 0.1 · 0.95 ≈ 0.035 = 3.5%. – 67 – 4.4. PASTA Zur Erinnerung: Wenn die Warteschlange mit der Startverteilung π gestartet wird (P(X0 = k) = πK ) dann gilt P(Xt = k) = πk , d.h. das System ist stationär und befindet sich im Gleichgewichtszustand. Angenommen T ist ein zufälliger Zeitpunkt. Gilt dann auch P(XT = k) = πk ? Gegenbeispiel Es sei T der erste Zeitpunkt, an dem Xt = 6 ist. Dann ist trivialerweise P(XT = 6) = 1 6= π6 . – 68 – Bei M/ · /1-Warteschlangen gilt aber das PASTA-Prinzip (Poisson-Arrival-See-Time-Averages) Eine Warteschlange besitze exponentiellen Zwischenankunftszeiten und befinde sich im stationären Zustand. Ist Tn die Ankunftszeit des nten Kunden, so gilt P(XTn − = k) = πk . Ein ankommender Kunde das System im Gleichgewicht, d.h. die Verteilung der Anzahl der Kunden zum Ankunftszeitpunkt hat dieselbe Verteilung wie X (der gerade ankommende Kunde wird nicht mitgezählt). – 69 – 4.5. Die Warte- und Aufenthaltszeit im System Wir nehmen an, das System befinde sich im Gleichgewicht und definieren: die Wartezeit Wn des n-ten Kunden in der Warteschlange, die totale Aufenthaltszeit Sn des n-ten Kunden im System. Es gilt offenbar Sn = Wn + Bn . – 70 – Es seien Xn und Rn die Anzahl der Kunden im System und die Restbedienzeit des Kunden in der Bedienstation zum Zeitpunkt der Ankunft des n-Ten Kunden. Es gilt: Wn = ( 0 Rn + ; Xn = 0 Pn−1 k=n−Xn +1 Bk ; Xn > 0 Die Wartezeit W hat dieselbe Verteilung, wie eine zufällige Summe von Xn unabhängigen exponentiellen Zufallsvariablen, wobei Xn unabhängig von diesen Zufallsvariablen ist. – 71 – Es seien C1 , C2 , . . . , Cn unabhängige Zufallsvariablen mit exponentieller Verteilung mit Erwartungswert 1/µ, unabhängig von Xn . Dann gilt d Wn ∼ Xn X Ck k=1 (eine leere Summe wird als 0 interpretiert). Damit folgt P(Wn ≤ x) = P(Xn = 0) +P(Xn = 1 und C1 ≤ x) +P(Xn = 2 und C1 + C2 ≤ x) + . . . = P(Xn = 0) +P(Xn = 1)P(C1 ≤ x) +P(Xn = 2)P(C1 + C2 ≤ x) + . . . – 72 – P(Wn ≤ x) = P(Xn = 0) + ∞ X k X P(Xn = k)P( Cj ≤ x) j=1 k=1 Einsetzen der bekannten Formeln und Verwendung von PASTA ergibt: ∞ k−1 X X (µx)j P(Wn ≤ x) = 1 − % + (1 − %)%k 1 − e −µx j! j=0 k=1 | {z } Erlang-Verteilung Also gilt P(Wn ≤ x) = 1− ∞ k−1 X X (µx)j (1 − %)%k e −µx j! j=0 k=1 = 1 − (1 − %)e −µx ∞ X j=1 = 1 − %e −µx ∞ X (λx)j j=1 – 73 – j! ∞ (µx)j X k % j! k=j+1 = 1 − %e −x(µ−λ) , x ≥ 0. Für die Aufenthaltszeit Sn = Wn + Bn erhalten wir genauso: P(Sn ≤ x) = P(Xn = 0 und C1 ≤ x) +P(Xn = 1 und C1 + C2 ≤ x) +P(Xn = 2 und C1 + C2 + C3 ≤ x) +... ∞ k+1 X X = P(Xn = k)P( Cj ≤ x) j=1 k=0 = ∞ X (1 − %)%k 1 − e −µx j=0 k=0 | = ... k X (µx)j {z j! Erlang-Verteilung } = 1 − e −(µ+λ)x . Die Aufenthaltszeit Sn besitzt also eine exponentielle Verteilung mit Erwartungswert 1/(µ − λ). – 74 – Verteilung der Warte- und Aufenthaltszeit In der M/M/1 Warteschlange gilt im stationären Zustand P(Wn ≤ x) = 1 − %e −x(µ−λ) , x ≥ 0. und P(Sn ≤ x) = 1 − e −x(µ−λ) , Für die Erwartungswerte gilt E (Wn ) = % µ−λ E (Sn ) = 1 . µ−λ und – 75 – x ≥ 0. Mittelwertmethode Mit PASTA erhalten wir E (Sn ) = E (Xn ) E (B) + E (Bn ) | {z } | {z } | {z } Kunden im System Bearbeitungszeit Eigene Bearbeitungszeit Dementsprechend ergibt sich E (Sn ) 1 1 1 + E (Xn ) + 1 = µ µ µ 1 % +1 µ 1−% 1 µ(1 − %) 1 . µ−λ = E (Xn ) = = = – 76 – 4.6. Littles Gesetz Wir haben gezeigt: 1 . µ−λ E (Xn ) = % , 1−% E (Xn ) = % λ = = λE (Sn ). 1−% µ−λ E (Sn ) = Es ist also Littles Gesetz Für G /G /m-Warteschlangen gilt im Gleichgewichtszustand allgemein E (Xn ) = λE (Sn ), d.h. die mittlere Kundenzahl ergibt sich aus dem Produkt der Ankunftsrate mit der mittleren Aufenthaltsdauer. – 77 – Zusammenfassung – Abschnitt 4 Definition der M/M/1-Warteschlange. Stochastischer Prozess Xt =Anzahl der Kunden im System. Verhalten für t → ∞: Rekurrenz, Transienz. Grenzverteilung, falls positiv rekurrent (Verkehrsintensität % < 1): geometrisch. PASTA: Ein ankommender Kunde sieht die Grenzverteilung. Wartezeit Wn besitzt beinahe exponentielle Verteilung. Aufenthaltszeit Sn besitzt exponentielle Verteilung. Littles Gesetz: E (Xn ) = λE (Sn ). – 78 – 5. Markovketten 5.1. Markovketten in diskreter Zeit Eine Markovkette ist ein stochastischer Prozess (Xn )n=1,2,... mit Werten in einer Menge {x1 , x2 , . . . , xN } (N = ∞ ist hier zugelassen), für den die Verteilung von Xn nur von Xn−1 , nicht aber von der weiter zurückliegenden Vergangenheit abhängt. Genauer: es gilt für jedes n und beliebige j, k0 , k1 , . . . , kn P(Xn = xj |X0 = xk0 , X1 = xk1 , . . . , Xn−1 = xkn−1 ) = P(Xn = xk |Xn−1 = xkn−1 ). Eine Markovkette heißt homogen, wenn die Übergangswahrscheinlichkeiten P(Xn = xj |Xn−1 = xi ) nicht von n abhängen (sondern nur von i und j). – 79 – Wir gehen im folgenden immer von homogenen Markovketten aus und schreiben kurz pij = P(Xn = xj |Xn−1 = xi ) für die Übergangswahrscheinlichkeiten. Dann können wir die Werte pij in zusammenfassen: p11 p21 P= . .. pN1 einer quadratischen Matrix P = (pij ) p12 p22 .. . ... ... .. . p1N p2N .. . . pN2 ... pNN Für N = ∞ ist diese Matrix unendlich. Die Matrix P ist eine sog. stochastische Matrix, da die Zeilensummen PN j=1 pij für jede Zeile i gleich 1 sind. – 80 – Ist P die Übergangsmatrix der Markovkette Xn , so gibt die Matrix P2 = P · P die 2-Schritt-Übergangswahrscheinlichkeiten an. Es gilt dann (2) P(Xn = xj |Xn−2 = xi ) = pij , (2) wobei P 2 die Elemente pij besitze. Genauso gibt die Matrix P k die k-Schritt-Übergangswahrscheinlichkeiten an, d.h. (k) P(Xn = xj |Xn−k = xi ) = pij . – 81 – Beispiel In einer Fabrik arbeitet eine Maschine, deren Zustand jede Stunde protokolliert wird. Es sei Xn der Zustand der Maschine nach n Stunden. Mögliche Zustände: A B C voll funktionstüchtig fehlerhaft in Reparatur Die Maschine geht mit folgenden Wahrscheinlichkeiten von einem Zustand in andere Zustände: A B C A 0.9 0.2 0.3 B 0.1 0 0 – 82 – C 0 0.8 0.7 Beispiel (Forts.) Die Übergangsmatrix ist 0.9 P = 0.2 0.3 0.1 0 0 0 0.8 0.7 Es gilt P2 0.9 0.1 0 0.9 0.1 0 = 0.2 0 0.8 · 0.2 0 0.8 0.3 0 0.7 0.3 0 0.7 9 1 0 9 1 0 83 1 1 42 = 2 0 8 · 2 0 8 = 100 100 3 0 7 3 0 7 48 Zum Beispiel gilt 2 P(X2 = C |X0 = B) = p23 = 56%. – 83 – 9 2 3 8 56 . 49 5.2. Übergangsdiagramm Die Übergangswahrscheinlichkeiten stellt man gerne im sog. Übergangsdiagramm dar. Dabei werden die Zustände der Markovkette als Knoten, die möglichen Übergänge als Pfeile gezeichnet. – 84 – Fabrikbeispiel (Forts.) Die Übergangsmatrix für das Fabrikbeispiel war 0.9 0.1 0 P = 0.2 0 0.8 0.3 0 Übergangsdiagramm: – 85 – 0.7 5.3. Markovketten in stetiger Zeit Beispiel: Fabrik In einer Fabrik arbeitet eine Maschine, deren Zustand nun kontinuierlich beobachtet wird. Ein stochastischer Prozess Xt beschreibe den Zustand der Maschine zum Zeitpunkt t. In jedem Zustand befinde sich der Prozess jeweils für eine exponentielle Zeitdauer: A B C Zustand voll funktionstüchtig fehlerhaft in Reparatur – 86 – Mittl. Dauer 1 Tag 1 Stunde 3 Stunden Beispiel (Forts.) Die Übergangswahrscheinlichkeiten seien: A B C A 0 1/6 1 B 1 0 0 C 0 5/6 0 Beispiel: Befindet sich der Prozess zu Beginn im Zustand B, dann bleibt er dort für eine exponentielle Zeitdauer mit Mittelwert 1h. Danach springt er in den Zustand A mit Wahrscheinlichkeit 1/6 und in den Zustand C mit Wahrscheinlichkeit 5/6. – 87 – Allgemein ist ein Markovkette in stetiger Zeit ein stochastischer Prozess (Xt )t≥0 mit Zustandsraum S = {x1 , x2 , . . .} (u.U. unendlich), der wie folgt verläuft: Der Prozess befindet im Zustand xi jeweils für eine exponentiell verteilte Zeit mit Parameter λi . Danach springt der Prozess Xt in den Zustand xj mit Wahrscheinlichkeit pij . Die Markovkette (Yn )n=1,2,... , die die Folge der besuchten Zustände angibt, besitzt die Übergangsmatrix P = (pij ). – 88 – 5.4. Die Intensitätsmatrix Xt sei eine zeitstetige Markovkette mit Zustandsraum S = {1, 2, 3, . . .} und λ = (λ1 , λ2 , λ3 , . . .). Die Intensitätsmatrix ist gegeben durch die Matrix Q = (qij )i,j∈{1,2,...,N} mit −λ1 λ1 p12 λ1 p13 . . . λ2 p21 −λ2 λ2 p23 . . . Q = λ p . 3 31 λ3 p32 −λ3 . . . .. .. .. .. . . . . Die Zeilensummen von Q sind null. Die Elemente qij der Matrix Q haben keine unmittelbare Bedeutung. Man kann aus Q sowohl λ als auch P komplett rekonstruieren: λi = −qii und pij = −qij /qii . – 89 – Beispiel: Fabrik (Forts.) Es ist N = 3, λ = (1, 24, 8) und 0 P = 1/6 1 1 0 0 5/6 0 0 Die Intensitätsmatrix ist gegeben durch −1 1 0 Q = 4 −24 20 . 8 0 −8 – 90 – 5.5. Geburts- und Todesprozesse Ein Geburts- und Todesprozess (GTP) ist eine Markovkette (Xt )t≥0 in stetiger Zeit mit unendlich vielen Zuständen {0, 1, 2, 3, . . .}, für die lediglich Übergänge vom Zustand i in die Zustände i − 1 und i + 1 möglich sind. – 91 – Um die Markov-Kette stochastisch zu beschreiben benötigen wir die mittleren Aufenthaltsdauern 1/λi im Zustand i und die Übergangsmatrix 0 p 10 0 P= 0 .. . p01 0 p21 0 .. . 0 p12 0 p32 .. . 0 0 p23 0 .. . ... . . . . . . . . . .. . für die Übergänge zwischen den Zuständen. Wir schreiben δi = λi pi,i−1 , (Sterberate) βi = λi pi,i+1 . (Geburtsrate) Dann gilt δi + βi = λi . – 92 – Für die Intensitätsmatrix ergibt sich dann also −λ0 λ0 p0,1 0 0 ... λ1 p1,0 −λ1 λ1 p1,2 0 . . . Q= 0 λ2 p2,1 −λ2 λ2 p2,3 . . . .. .. .. .. .. . . . . . −β0 β0 0 0 ... δ1 −(β1 + δ1 ) β1 0 . . . = 0 . δ2 −(β2 + δ2 ) β2 . . . .. .. .. .. . . . . . . . In das Übergangsdiagramm trägt man die Intensitäten, nicht die Übergangswahrscheinlichkeiten, ein: – 93 – Wir wollen den GTP für t → ∞ betrachten. Eine Grenzverteilung existiert nur dann, wenn der Prozess positiv rekurrent ist. Dazu müssen die Geburtsraten βk für große Werte von k klein im Verhältnis zu den Todesraten δk sein. Rekurrenz und Transienz Ein GTP ist genau dann rekurrent, wenn ∞ X δ1 δ2 · · · δk =∞ β1 β2 · · · βk (A) k=1 ist. Endliche Systeme sind immer rekurrent. Hinreichend für positive Rekurrenz ist βn lim < 1. n→∞ δn Gilt βn lim > 1, n→∞ δn so ist der GTP transient. – 94 – (B) (B’) Beispiel: Rekurrenter GTP Es sei βk = k + 1, δk = k + 2. Wir überprüfen Bedingung (A): ∞ ∞ X X δ1 δ2 · · · δk 3 · 4 · · · (k + 1) · (k + 2) = β1 β2 · · · βk 2 · 3 · · · k · (k + 1) k=1 k=1 = ∞ X k +2 = ∞. 2 k=1 Der Geburts- und Todesprozess ist rekurrent. Die Bedingung (B) ist nicht allerdings nicht erfüllt: βn n+1 = 1. lim = lim n→∞ δn n→∞ n + 2 – 95 – Für einen rekurrenten GTP Xt muss noch keine Grenzverteilung πk = lim P(Xt = k), t→∞ k = 0, 1, 2, . . . existieren. Existenz einer Grenzverteilung Für einen rekurrenten GTP Xt existiert eine Grenzverteilung genau dann, wenn ∞ X β0 β1 · · · βk−1 S= <∞ (C) δ1 δ2 · · · δk k=1 ist. In diesem Fall sagt man, der Prozess sei ergodisch. – 96 – Beispiel: Rekurrenter GTP (Fortsetzung) Es sei wieder βk = k + 1, δk = k + 2. Bedingung (C): S = ∞ X β0 β1 · · · βk−1 k=1 = ∞ X k=1 δ1 δ2 · · · δk = ∞ X k=1 1 · 2···k 3 · 4 · · · (k + 2) 2 <∞ (k + 1)(k + 2) Die Bedingung ist erfüllt, eine Grenzverteilung existiert. – 97 – Ähnlich wie im Fall der M/M/1-Warteschlange erhalten wir für die Grenzverteilung, falls sie existiert, die Gleichgewichtsgleichungen β 0 π0 = δ 1 π1 (βk + δk )πk = βk−1 πk−1 + δk+1 πk+1 , und P∞ k=0 Es ist k ≥ 1. πk = 1. π1 = β0 π0 δ1 π2 = β0 β1 (β1 + δ1 )π1 − β0 π0 = π0 δ1 δ2 δ2 Wir raten: πk = β0 β1 · · · βk−1 π0 . δ1 δ2 · · · δk Die Lösung ist in der Tat richtig (einsetzen!). Die fehlende Wahrscheinlichkeit π0 = P(X = 0) erhält man aus der P∞ Gleichung k=0 πk = 1. – 98 – Grenzverteilung Für einen ergodischen GTP ist die Grenzverteilung gegeben durch β0 β1 · · · βk−1 πk = π0 . δ1 δ2 · · · δk Dabei ist 1 π0 = . 1+S Der unendliche Vektor π = (π0 , π1 , . . .) erfüllt die Gleichungen 1 1 π · Q = 0, π · = 1. .. . – 99 – Grenzverteilung (endlicher Fall) Ein endlicher GTP Xt ist immer rekurrent und ergodisch. Für einen endlichen ergodischen GTP ist die Grenzverteilung gegeben durch β0 β1 · · · βk−1 π0 , k = 0, 1, . . . , K πk = δ1 δ2 · · · δk mit 1 π0 = 1+S und K X β0 β1 · · · βk−1 S= . δ1 δ2 · · · δk k=1 – 100 – Zusammenfassung – Abschnitt 5 Markov-Ketten in diskreter Zeit: Übergangsmatrix, Übergangsdiagramm. Markov-Ketten in stetiger Zeit: Intensitätsmatrix Q. Geburts- und Todesprozesse, Vorgehensweise: (1) Ist der Prozess rekurrent? Gilt (A)? Falls ja, dann rekurrent. Falls nein, dann transient. Alternativ: Gilt (B)? Falls ja, dann rekurrent. Gilt (B’)? Falls ja, dann transient. (2) Ist der Prozess ergodisch? Gilt (C)? Falls ja, dann ergodisch, falls nein, dann nicht ergodisch. (3) Falls ergodisch: Stationäre (Grenz-)Verteilung π bestimmen. – 101 – 6. M/M-Warteschlangensysteme 6.1. M/M/1 Wir betrachten erneut die einfache M/M/1-Warteschlange. Der stochastische Prozess Xt (Kundenzahl zum Zeitpunkt t) ist ein GTP mit folgendem Übergangsdiagramm: Die Intensitätsmatrix ist dann −λ λ 0 0 µ −(µ + λ) µ 0 Q= 0 µ −(µ + λ) λ .. .. .. .. . . . . ... . . . . . . . .. . Also ist βk = λ, k = 0, 1, 2, . . . – 102 – δk = µ, k = 1, 2, 3, . . . Bedingung (A): Die Summe ∞ X δ1 δ2 · · · δk k=1 β1 β2 · · · βk = ∞ X µk k=1 λk ∞ X = (1/%)k k=1 ist unendlich, genau dann, wenn % ≤ 1 ist. Dann ist Xt rekurrent. Bedingung (C): Die Summe ∞ ∞ ∞ X X X β0 β1 · · · βk−1 λk S= = = %k δ1 δ2 · · · δk µk k=1 k=1 k=1 ist endlich genau dann, wenn % < 1 ist. Dann existiert eine % Grenzverteilung und es ist S = 1−% . Grenzverteilung: πk = β0 β1 · · · βk−1 π0 = %k π0 . δ1 δ2 · · · δk Dabei ist π0 = 1 = 1 − %. 1+S – 103 – Wir betrachten als nächstes allgemeinere Warteschlangenmodelle mit exponentiellen Zwischenankunftszeiten und exponentiellen Bedienzeiten. – 104 – 6.2. M/M/1/K - Warteschlange mit beschränkter Kapazität Wir gehen jetzt davon aus, dass das Warteschlangensystem nur eine begrenzte Kapazität von K Plätzen besitzt. Kunden, die das System besuchen und K Kunden im System (d.h. K − 1 Kunden in der Warteschlange) vorfinden, verlassen das System sofort und kommen nicht wieder. Die Zwischenankunftszeiten und Bedienzeiten seien weiterhin exponentiell verteilt mit Parametern λ und µ. – 105 – Übergangsdiagramm für Xt : Xt ist ein Geburts- und Todesprozess mit ( λ ;k ≤ K − 1 βk = 0 ;k ≥ K und δk = ( µ ;k ≤ K 0 ;k ≥ K + 1 . Als endlicher GTP ist der Prozess automatisch rekurrent. – 106 – Der Prozess ist ergodisch, da er nur endlich viele Zustände annimmt. Es ist S = K X β0 β1 · · · βk−1 δ1 δ2 · · · δk k=1 = K X (λ/µ)k k=1 = K X %k k=1 ( = K % 1−% 1−% ; % 6= 1 K ;% = 1 Die Reihe konvergiert stets, also existiert eine Grenzverteilung. – 107 – Die Grenzverteilung ergibt sich dann aus den Formeln β0 β1 · · · βk−1 πk = π0 δ1 δ2 · · · δk 1 . π0 = 1+S In diesem Fall ist also ( πk = %k ;k ≤ K 0 ;k > K , und 1−% 1 = 1 − %K +1 π0 = 1 1+S K +1 – 108 – ; % 6= 1 ;% = 1 . M/M/1/K-Grenzverteilung In einer M/M/1/K-Warteschlange mit endlicher Kapazität ist die Grenzverteilung der Kundenzahl gegeben durch 1−% k % ; % 6= 1 K +1 πk = P(X = k) = 1 −1 % , k = 0, 1, 2, . . . , K . ;% = 1 K +1 Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann: ( 1−% K ; % 6= 1, K +1 % P(X = K ) = 1−% 1 ; % = 1. K +1 Die Auslastung beträgt ( P(X > 0) = %−%K +1 1−%K +1 K K +1 – 109 – ; % 6= 1 ;% = 1 . Auslastung P(X > 0) in Abhängigkeit von ρ ∈ (0, 1) und K ∈ {1, 2, . . . , 10} (abnehmender Kontrast). – 110 – Wahrscheinlichkeit der Zurückweisung in Abhängigkeit von ρ ∈ (0, 1) und K ∈ {1, 2, . . . , 10} (abnehmender Kontrast). – 111 – Für K → ∞ und % < 1 ergibt sich wie zu erwarten die Verteilung der M/M/1-Warteschlange: 1−% k % = (1 − %)%k . lim πk = lim K →∞ K →∞ 1 − %K +1 Die Wahrscheinlichkeit einer Zurückweisung strebt für K → ∞ monoton fallend gegen Null (Annäherung an die M/M/1-Warteschlange). Für % > 1 strebt die Wahrscheinlichkeit einer Zurückweisung monoton fallend gegen den Grenzwert 1−% K lim P(X = K ) = lim % K →∞ K →∞ 1 − %K +1 1 1 = (1 − %) lim −K =1− . K →∞ % −% % Diese Wahrscheinlichkeit kann auch bei noch so großem Warteraum nicht unterboten werden. – 112 – Beispiel Bei einem Arzt gibt es 10 Plätze im Wartezimmer. Pro Stunde kommen im Mittel 5 Patienten an, die durchschnittlich 15 Minuten lang behandelt werden. Es ist K = 11, λ = 5 h−1 , µ = 4 h−1 und % = 54 . Dann gilt für die Patientenzahl in der Praxis 1−% k 5 1/4 P(X = k) = ( )k . % = K +1 K 1−% (5/4) − 1 4 – 113 – 6.3. Spezialfall: M/M/1/1 Grenzverteilung: 1 , 1+% % π1 = P(X = 1) = . 1+% π0 = P(X = 0) = Die Wahrscheinlichkeit als Kunde zurückgewiesen zu werden ist dann gleich der Auslastung: P(X = 1) = – 114 – % . 1+% Beispiel Pralinen erreichen eine Verpackungsmaschine als Poisson-Prozess mit Intensität µ. Erreicht eine Praline die Maschine, ohne dass dort bereits eine Verpackung vorhanden ist, wird sie zur nächsten Maschine weitergereicht. Die Verpackungen kommen mit konstanter Rate λ an der Station an und warten dort auf jeweils eine Praline. Ist die Maschine mit einer wartenden Packung besetzt, so wird eine ankommende Verpackung weitergereicht. Ist eine Verpackung vorhanden, so wird eine ankommende Praline unmittelbar verpackt und verlässt die Verpackungsmaschine sofort. – 115 – Beispiel (Forts.) Die Anzahl der Verpackungen im System verhält sich wie die Kundenzahl in einem M/M/1/1-System, weil die Wartezeiten der Verpackungen in der Maschine (=Bedienzeiten) exponentiell verteilt ist. Die Wahrscheinlichkeit einer ”Zurückweisung” beträgt für die Pralinen 1/(1 + %), für die Verpackungen %/(1 + %). – 116 – 6.4. M/M/∞ - Beliebig viele Bedienstationen Es seien jetzt beliebig viele Bedienstationen vorhanden: In der Praxis ist die Zahl der Bedienstationen meist endlich, aber u.U. genügend groß, um eine M/M/∞-Modell anzunehmen (siehe auch den Abschnitt über die M/M/m-Warteschlange). Die ankommenden Kunden wählen jeweils einen freien Server aus und können sofort bedient werden, d.h. es ist keine Warteschlange nötig. – 117 – Minimum exponentiell verteilter Zufallsvariablen Es seien X und Y exponentiell verteilt mit Parameter µ. Dann gilt für die Verteilungsfunktion des Minimums von X und Y P(min{X , Y } ≤ x) = 1 − P(min{X , Y } > x) = 1 − P(X > x, Y > x) = 1 − P(X > x)P(Y > x) = 1 − e −µx e −µx = 1 − e −2µx . Allgemeiner gilt: Das Minimum von k exponentiell verteilten Zufallsvariablen mit Parameter µ besitzt eine exponentielle Verteilung mit Parameter kµ. ⇒ Sind k Server besetzt, so besitzt die Wartezeit bis zum nächsten Abgang eine exponentielle Verteilung mit Parameter kµ. – 118 – Für das Übergangsdiagramm des M/M/∞-Systems ergibt sich: GTP mit βk = λ und δk = k · µ. Bedingung (A): Es ist ∞ X δ1 δ2 · · · δk k=1 β1 β2 · · · βk ∞ X 1 · 2 · · · k · µk λk = k=1 = ∞ X k=1 Also ist der Prozess Xt immer rekurrent. – 119 – k!(1/%)k = ∞ Bedingung (C): ∞ X β0 β2 · · · βk−1 S= δ1 δ2 · · · δk = ∞ X %k k=1 k=1 k! = e % − 1 < ∞, daher existiert in jedem Fall eine Grenzverteilung. Es gilt πk = β0 β2 · · · βk−1 %k π0 = π0 . δ1 δ2 · · · δk k! und π0 = 1 = e −ρ . 1+S – 120 – M/M/∞-Grenzverteilung Die Grenzverteilung der Kundenzahl eines M/M/∞-Systems ist %k −% e , k! d.h. im stationären Zustand besitzt die Kundenzahl eine PoissonVerteilung mit Rate %. πk = P(X = k) = Die Auslastung beträgt P(X > 0) = 1 − e −ρ . Die erwartete Anzahl von Kunden ist E (X ) = %, Var(X ) = %. Für großes % ist X etwa normalverteilt mit Erwartungswert % und Varianz %: (k−%)2 1 P(X = k) ≈ √ e − 2% . 2π% – 121 – Beispiel In Hamburg leben etwa 1.7 Millionen Menschen (≈ ∞). Angenommen jeden Tag infizieren sich durchschnittlich 5 Einwohner mit einer bestimmten Krankheit, die dann im Mittel eine Woche andauere. Wir nehmen eine exponentielle Krankheitsdauer an. Wie sieht die Verteilung der Zahl der Infizierten aus? Mit λ = 5 d −1 und µ = 1/7 d −1 erhalten wir πk = Wahrscheinlichkeiten πk %k −% k! e = 35−k k! e −35 . Normalverteilung mit µ = % und σ = % (blau) – 122 – 6.5. M/M/m - System mit m Bedienstationen Wir betrachten ein System mit m Bedienstationen mit Bedienrate µ, Ankunftsrate λ und unbegrenzter Kapazität Die Verkehrsintensität beträgt nun % λ = . ξ= mµ m – 123 – Die Sterberate ist von der Anzahl der in der Bedienstation befindlichen Kunden abhängig. GTP mit Übergangsdiagramm: Dann sind die Geburts- und Sterberaten gegeben durch βk = λ, ( kµ ; k < m δk = . mµ ; k ≥ m – 124 – Bedingung (A): ∞ X δ1 δ2 · · · δk =∞ β1 β2 · · · βk k=1 Es ist für k ≥ m µk · 1 · 2 · · · m · m · · · m λk µk m!mk−m = λk m k . = m!m−m % Die obige Reihe divergiert also, wenn m ≥ % also δ1 δ2 · · · δk β1 β 2 · · · β k = ξ = %/m ≤ 1 ist. Genau dann ist der Prozess rekurrent. – 125 – Bedingung (C) für Ergodizität: ∞ X β0 β1 · · · βk−1 S = δ1 δ2 · · · δk k=1 = m−1 X k=1 = m−1 X k=1 ∞ β0 β1 · · · βk−1 X β0 β1 · · · βk−1 + δ1 δ2 · · · δk δ1 δ2 · · · δk k=m k % + k! ∞ X k=m m−1 ∞ X %k % mm X = + (%/m)k m!mk−m k! m! k k=1 k=m Die Reihe konvergiert für % < m, also ξ = %/m < 1. Es ist 1+S = 1+ m−1 X k=1 = m−1 X k=0 %k 1 mm + (%/m)m k! m! 1 − %/m %k %m 1 + . k! m! 1 − ξ – 126 – M/M/m-Grenzverteilung Für ξ = %/m < 1 ist der Kundenzahlprozess einer M/M/mWarteschlange rekurrent und ergodisch. Die Grenzverteilung ist gegeben durch k % ;k ≤ m π0 πk = P(X = k) = k!m , m ξ k π0 ; k > m m! −1 m−1 X %k %m . mit π0 = + k! m!(1 − ξ) k=0 Der Fall m = 1 entspricht der M/M/1-Warteschlange (geometrische Grenzverteilung). Für m → ∞ erhalten wir, wie zu erwarten, die Grenzverteilung der M/M/∞-Warteschlange (Poisson-Verteilung). – 127 – Beispiel: Postfiliale In einer Postfiliale dauert eine Bedienung am Schalter im Mittel eine Minute. Die Kunden erreichen die Filiale mit einer konstanten Rate von 5 Kunden pro Minute. Die Filiale hat eine Warteschlange für 6 Schalter eingerichtet. m = 6, λ = 5 min−1 , µ = 1 min−1 , % = 5, ξ = 5/6. Das System ist rekurrent und ergodisch, da ξ < 1 ist. Wahrscheinlichkeit eines leeren Systems: !−1 !−1 5 5 X X 5k 56 5k 55 π0 = + = + ≈ 0.4512%. k! 6!(1 − 5/6) k! 4! k=0 Grenzverteilung: k=0 k (5/6) 8 k! πk = k 1765 (5/6) 6k−6 6! – 128 – ;k ≤ 6 . ;k > 6 Grenzwahrschienlichkeit πk , k = 0, 1, 2, . . . 30 für ξ = 5/6 und m = 1 (rot), m = 6 (grün) und m = 20 (blau). – 129 – Die Wahrscheinlichkeit, dass ein ankommender Kunde warten muss, die Wartewahrscheinlichkeit, ist dann (wir verwenden wieder PASTA): ∞ X P(W > 0) = P(X ≥ m) = πk k=m = ∞ ∞ X mm X k mm k ξ ξ π0 = π0 m! m! k=m k=m m = π0 m m ξ m! ∞ X ξ k = π0 k=0 %m . m!(1 − ξ) Erlang-C-Formel Die Wahrscheinlichkeit, dass ein ankommender Kunde in einem M/M/m-Wartesystem warten muss ist −1 m−1 X %k %m %m P(W > 0) = π0 , π0 = + . m!(1 − ξ) k! m!(1 − ξ) k=0 – 130 – Für die mittlere Warteschlangenlänge erhalten wir ∞ X E (L) = (k − m)πk k=m+1 = = = ∞ π0 m m X (k − m)ξ k m! k=m+1 ∞ m m X π0 m ξ m! ∞ m X π0 % m! kξ k k=1 kξ k k=0 ∞ X k=0 π0 %m ξ = m! (1 − ξ)2 ξ = P(W > 0) . 1−ξ – 131 – kq k = q 2 (1 − q) Es gilt dann für die mittlere Wartezeit: 1 1 E (W ) = P(W > 0) + E (L) mµ mµ = ξ P(W > 0) + P(W > 0) 1−ξ mµ = P(W > 0) 1 = E (L). mµ(1 − ξ) λ M/M/m - Warteschlangenlänge und Wartezeit Die mittlere Warteschlangenlänge beträgt E (L) = P(W > 0) ξ . 1−ξ Für die mittlere Wartezeit gilt P(W > 0) 1 E (W ) = = E (L). mµ(1 − ξ) λ (Zweite Version von Littles Gesetz). – 132 – Drei Varianten des Littleschen Gesetzes Allgemein gelten für G /G /n-Warteschlangen im Gleichgewichtszustand folgende Beziehungen für die zu erwartenden Kundenzahlen und die zu erwartenden Aufenthaltsdauern: (1) E (Kunden System) = λE (Aufenthalt im System) E (X ) = λE (S). (2) E (Kunden Schlange) = λE (Aufenthalt in der Schlange) E (L) = λE (W ) (3) E (Kunden Bedienstation) = λE (Aufenthalt in der Bedienstation) E (Q) = λE (B) – 133 – Beispiel: Postfiliale (Forts.) Wartewahrscheinlichkeit: P(W > 0) = π0 %m 8 56 = ≈ 0.5902 = 59.02%. m!(1 − ξ) 1765 5! Mittlere Warteschlangenlänge: 5/6 ξ = 0.5902 = 5 · 0.59 ≈ 2.951 E (L) = P(W > 0) 1−ξ 1/6 Mittlere Wartezeit in der Schlange: P(W > 0) 0.5902 = = 0.5902. E (W ) = mµ(1 − ξ) 6 · 1 · (1 − 5/6) – 134 – P(W > 0) und E (L) für ξ ∈ (0, 1) und m = 1 (rot), m = 6 (grün) und m = 100 (blau). – 135 – 6.6. Erlangsches Verlustmodell (M/M/m/m) Wir betrachten ein System mit m Bedienstationen aber ohne Warteschlange (Kapazität m): Historisch: Call-Center mit m Kanälen, Anrufe mit Rate λ, Gesprächsdauer im Mittel 1/µ. Wenn alle Kanäle besetzt sind, gehen die Anrufe verloren (Agner Krarup Erlang). – 136 – Übergangsdiagramm: GTP mit βk = λ und δk = kµ. Das System ist rekurrent und die Grenzverteilung existiert immer. Als Grenzverteilung ergibt sich eine ”abgeschnittene” Poisson-Verteilung πk = β0 β2 · · · βk−1 %k π0 = π0 , δ1 δ2 · · · δk k! mit 1 π0 = Pm %j j=0 j! – 137 – . k ≤m M/M/m/m - Erlang-B-Formel Im Erlangschen Verlustmodell ist die Grenzverteilung gegeben durch πk = k! %k Pm %j j=0 j! , k = 0, 1, 2, . . . , m. Der Fall m = 1 enstpricht der M/M/1/1-Warteschlange. Für m → ∞ ergibt sich die Poisson-Verteilung des M/M/∞ Systems: πk = e −% %k , k! k = 0, 1, 2, . . . Erlang-B-Formel (Erlangsche Verlustformel) Die Wahrscheinlichkeit, dass ein ankommender Kunde zurückgewiesen wird, ist %m ∗ pm = Pm %j . m! j=0 j! – 138 – Wir berechnen die mittlere Kundenzahl: m m m−1 m X X X %k X %k %k−1 k = %π0 = %π0 E (X ) = kπk = π0 k! (k − 1)! k! k=1 = %π0 k=1 k=1 k=0 %m πm 1 1 − = %π0 − = % 1 − πm . π0 m! π0 π0 πk = P(X = k) und E (X ) (vertikale Linien) für ein M/M/10/10-System, % = 1/2 (rot), % = 5 (grün) und % = 20 (blau). – 139 – Beispiel Ein Autobahnparkplatz wird entworfen, auf dem nach der Fertigstellung fünf Parkplätze zur Verfügung stehen sollen. Man geht von einer Aufenthaltsdauer der Gäste von durchschnittlich 15 Minuten aus (exponentielle Verteilung). Autofahrer, die einen komplett besetzten Parkplatz vorfinden fahren weiter zur nächsten Parkgelegenheit. Es fahren im Mittel stündlich 10 Autos den Parkplatz an. Es ist m = 5, λ = 10, µ = 4, % = 5/2, also ergibt sich für die Wahrscheinlichkeit einen vollen Parkplatz vorzufinden p5∗ = 5! (5/2)5 P5 (5/2)j = 0.0697 ≈ 7%. j=0 j! Außerdem erhalten wir für die mittlere Zahl parkender Autos: 5 E (X ) = %(1 − πm ) = (1 − 0.0697) = 2.326 2 – 140 – 6.7. Engset-Modell für eine endliche Population Beispiel In einer Firma arbeiten 140 Mitarbeiter Tag und Nacht in verschiedenen Schichten. Jeder Mitarbeiter geht im Schnitt einmal in drei Stunden zur Toilette und bleibt dort im Schnitt 4 Minuten. Es gibt K Toiletten. Es sei X die Anzahl von Mitarbeitern, die sich momentan nicht am Arbeitsplatz befinden. Wie groß ist die Wahrscheinlichkeit, dass alle Toiletten besetzt sind? Wie groß muss man K machen, damit diese Wahrscheinlichkeit kleiner als 10% wird? Verteilung von X : Wie groß ist P(X = k) für k = 1, 2, . . . , K ? – 141 – Wir nehmen an, es gäbe insgesamt N Kunden und K ≤ N Bedienstationen. Beispiel: N = 6 und K = 5: Jeder Kunde außerhalb der Bedienstation erzeuge einen Eingangsstrom mit Rate λ (Aktivierung nach einer exponentiellen Zeitperiode). – 142 – Alternative Darstellung: X beschreibe die Anzahl der Kunden, die in der eigentlichen (zweiten) Bedienstation bedient werden. Im obigen Beispiel ist X = 2. – 143 – Dann ist Xn ein GTP mit βk = λ(N − k) und δk = kµ für k ≤ K : Der Prozess ist, da X nur endlich viele Zustände annimt, rekurrent, eine Grenzverteilung existiert stets. Grenzverteilung für 0 ≤ k ≤ K πk β0 β2 · · · βk−1 λk N(N − 1) · · · (N − k + 1) π0 = π0 δ1 δ2 · · · δk µk k! N k = % π0 . k = Dabei ist π0 = P K 1 j=0 – 144 – N j . %j Engset-Modell Im Engset-Modell mit endlicher Population N und K ≤ N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch die EngsetVerteilung: N k k % πk = PK N , k = 0, 1, . . . , K . j j=0 j % Die Wahrscheinlichkeit, dass alle Plätze der Bedienstation besetzt sind ist N K K % πK = PK N , k = 0, 1, . . . , K . j j=0 j % – 145 – Beispiel In einer Firma arbeiten 140 Mitarbeiter Tag und Nacht in verschiedenen Schichten. Jeder Mitarbeiter geht im Schnitt einmal in drei Stunden zur Toilette und bleibt dort im Schnitt 4 Minuten. Es gibt K Toiletten. 1 N = 140, λ = 1/3, µ = 60/4, % = 45 . 140 k 45−k , 140 −j j 45 πk = PK j=0 – 146 – k = 0, 1, . . . , K . 6.8. Sonderfall: Engset-Modell mit K = N Für die Grenzverteilung gilt dann N k k % πk = P N N , j j=0 j % k = 0, 1, . . . , N. Es ist (binomische Formel) N X N j % = (1 + %)N . j j=0 – 147 – Dann gilt πk = N k %k (1 + %)N % k N k 1+% (1 + %)k (1 + %)N N % k 1 N−k = . k 1+% 1+% = Engset-Modell – Spezialfall Im Engset-Modell mit N Kunden und N Bedienstationen ist die Grenzverteilung der Kundenzahl gegeben durch eine Binomialverteilung mit Parameter %/(1 + %): N % k 1 N−k πk = , k = 0, 1, . . . , N. k 1+% 1+% – 148 – 6.9. Der Satz von Burke Wir betrachten zunächst eine M/M/1-Warteschlange und nehmen wieder % < 1 an, so dass X eine Grenzverteilung besitzt. Das System befinde sich im stationären Zustand. Es bezeichne Mt die Anzahl der Kunden, die nach erfolgter Bedienung das System bis zum Zeitpunkt t verlassen haben (Abgangsprozess). – 149 – Ankunftsprozess Nt (hellblau) Kundenzahl Xt (rot) Abgangsprozess Mt (dunkelblau) Es gilt offenbar: M0 = 0, Mt ist stückweise konstant und macht Sprünge der Höhe eins. Ist Mt ein Poisson-Prozess? Wenn ja, wie groß ist seine Intensität? – 150 – Die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein Kunde das System verlässt, ist ≈ (1 − %) ·0 + % ·µ · ∆ = λ · ∆. |{z} | {z } P(X =0) P(X 6=0) Die Wahrscheinlichkeit, dass in dem Zeitraum mehr als ein Kunde das System verlässt, ist verschwindend klein. Mit etwas mehr Mühe kann man zeigen: Abgangsprozess der M/M/1-Warteschlange Der Abgangsprozess Mt einer M/M/1-Warteschlange im Gleichgewichtszustand ist erneut ein Poisson-Prozess mit Rate λ. – 151 – Allgemein gilt für einen Geburts- und Todesprozess Xt mit Geburtsraten βk = λ für die Wahrscheinlichkeit, dass im Zeitintervall [t, t + ∆] ein Sprung Xt 7→ Xt − 1 nach unten erfolgt, ∞ X ≈ ∆ πk δ k k=1 = ∆ ∞ X k=1 = ∆ ∞ X λk π0 δ k δ1 δ2 · · · δk λk π0 δ1 δ2 · · · δk−1 k=1 ∞ X = λ∆ k=0 = λ∆ ∞ X λk π0 δ1 δ2 · · · δk πk = λ · ∆. k=0 – 152 – Satz von Burke Es sei Xt ein rekurrenter und ergodischer Geburts- und Todesprozess mit Geburtsraten βk = λ. Dann gilt: 1. Der stochastische Prozess Mt , der die Sprünge nach unten (Tode) zählt, ist ein Poisson-Prozess mit Rate λ. 2. Xt ist unabhängig von {Ms }s<t . Der Satz gilt natürlich nur im stationären Zustand, also wenn das System bereits mit der stationären Verteilung startet. – 153 – 7. Offene Netzwerke 7.1. M/M/1-Tandem-Warteschlange Eine M/M/1-Tandem-Warteschlange besteht aus einem System von zwei hintereinander geschalteten M/M/1-Warteschlangen und Bedienstationen. Burke: Der Abgangsprozess an der ersten Station ist wieder Poisson mit Intensität λ. Die zweite Warteschlange verhält sich genau wie eine M/M/1-Warteschlange, denn der Poisson-Ankünftsprozess besitzt die Intensität Λ = λ. Es sei %i = λ/µi die Verkehrsintensität der i-ten Station. – 154 – Der Kundenzahlprozess im gesamten System ist offenbar dann rekurrent und ergodisch, wenn max{%1 , %2 } < 1 ist. Wir gehen davon aus, dass sich das System im stationären Zustand befindet. Es seien X1 und X2 die Kundenzahlen in den beiden Systemen 1 und 2. Die Zufallsvariablen X1 und X2 besitzen jeweils eine geometrische Verteilung P(X1 = k) = (1 − %1 )%k1 , P(X2 = m) = (1 − %2 )%m 2 . Darüber hinaus sind X1 und X2 sind unabhängig (Burke), so dass für die gemeinsame stationäre Verteilung eine Produktform vorliegt: P(X1 = k, X2 = m) = P(X1 = k)P(X2 = m) = (1 − %1 )(1 − %2 )%k1 %m 2 . – 155 – Für die Gesamtzahl X an Kunden im System gilt dann P(X = n) = = P(X1 + X2 = n) ∞ X P(X1 = k, X2 = n − k) k=0 n X %k1 %n−k 2 = (1 − %1 )(1 − %2 ) = (1 − %1 )(1 − %2 )(%n+1 − %n+1 2 1 ) . %2 − %1 k=0 – 156 – M/M/1-Tandem In einer M/M/1-Tandem-Warteschlange mit max{%1 , %2 } < 1 gilt für die stationäre Verteilung der Gesamtzahl der Kunden (1 − %1 )(1 − %2 )(%n+1 − %1n+1 ) 2 . %2 − %1 Die gemeinsame Verteilung von X1 und X2 ist P(X = n) = P(X1 = k, X2 = m) = (1 − %1 )(1 − %2 )%k1 %m 2 . Speziell gilt für die Rand- oder Marginalverteilungen P(X1 = k) = (1 − %1 )%k1 , P(X2 = m) = (1 − %2 )%m 2 . Die M/M/1-Tandem-Warteschlange ist ein Spezialfall eines offenen Netzwerks von Warteschlangen. – 157 – 7.2. Offene Netzwerke In offenen Netzwerken erreichen Kunden von außen ein System von N Warteschlangen/Servern und verlassen das System auch wieder. Ankünfte am Server i von außerhalb des Systems bilden einen Poisson-Prozess mit Rate λi . Markov-Routing: Kunden, die die Bedienstation i verlassen, laufen den Server j mit Wahrscheinlichkeit pij an. – 158 – Wir fassen die Wahrscheinlichkeiten pij in einer Matrix zusammen: p11 p12 . . . p1N p21 p22 . . . p2N P= . .. .. .. .. . . . pN1 pN2 . . . pNN Die Wahrscheinlichkeit, nach dem Server i keine weitere Bedienstation anzulaufen, sondern das System zu verlassen, sei pi0 . – 159 – 7.3. Durchsatz Der Durchsatz Λi beschreibt die effektive Ankunftsrate am Server i. Erhaltungsprinzip: Im Steady-State sollten eingehende und abgehende Ströme gleiche Intensitäten aufweisen. In diesem Beispiel gilt: Λ3 = λ3 + Λ1 · p13 + Λ2 · p23 . – 160 – Allgemein ergibt sich Λi = λi + N X Λj pji j=1 bzw. in Matrizenschreibweise Λ = λ + Λ · P, t wobei λ = (λ1 , . . . , λN ) ist. Der Durchsatzvektor Λ = (Λ1 , . . . , ΛN ) ist also eine Lösung des linearen Gleichungssystems (I − P)T Λ = λ. Dann ist γi = Λi die (effektive) Verkehrsintensität an der i-ten µi Bedienstation. – 161 – 7.4. Satz von Jackson Satz von Jackson Eine Grenzverteilung für die Verteilung von X1 , . . . , Xn existiert, wenn für jeden Server i = 1, 2, . . . , N gilt: γi < 1 Es sei Xi die (Steady-State-)Anzahl von Kunden am Server i. Dann sind die Zufallsvariablen X1 , X2 , . . . , XN unabhängig. Es gilt P(Xi = k) = (1 − γi )γi k , also (wg. der Unabhängigkeit) P(X1 = k1 , X2 = k2 , . . . , XN = kN ) = N Y (1 − γi )γi ki . i=1 Jede einzelne Warteschlange verhält sich also wie ein unabhängiges M/M/1-Wartesystem. – 162 – Beispiel: M/M/1-Tandem-Warteschlange Gegeben Seien zwei min{µ1 , µ2 } > λ. M/M/1-Warteschlangen in Serie mit Dann ist λ1 = λ, λ2 = 0, P= 0 0 1 , 0 p20 = 1. (I − P)T Λ = λ: 1 −1 0 1 λ 0 1 0 0 1 λ ⇒ Λ1 = λ, λ Λ2 = λ. Die zweite Warteschlange verhält sich wie eine unabhängige M/M/1Warteschlange: λ λ k λ λ k P(X1 = k) = 1 − , P(X2 = k) = 1 − µ1 µ1 µ2 µ2 – 163 – Beispiel: Tandem-Warteschlange mit Rücklauf Kunden verlassen mit Wahrscheinlichkeit p den Server 1 in Richtung Server 2. Mit Wahrscheinlichkeit 1 − p müssen Sie ein weiteres mal die Bedienstation 1 passieren. Es sei min{pµ1 , µ2 } > λ. λ1 = λ, λ2 = 0, P= 1−p 0 p , 0 p20 = 1. (I − P)T Λ = λ: p −p 0 1 λ 0 1 0 0 1 λ/p ⇒ Λ1 = λ/p, λ λ λ k P(X1 = k) = 1 − , pµ1 pµ1 – 164 – Λ2 = λ. λ λ k P(X2 = k) = 1 − . µ2 µ2 Beispiel Gegeben sei folgendes System: Es ist 0 P = 1 1 1/3 1/3 1 0 0 , (I − P)T = −1/3 0 0 −1/3 – 165 – −1 1 0 −1 λ 0 , λ = 0 1 0 ... 1 −1/3 −1/3 −1 1 0 −1 0 1 λ 0 0 1 0 0 −1 2/3 −1/3 −1 −1/3 2/3 λ λ/3 λ/3 1 −1 0 0 2/3 0 0 0 1 1 0 0 2λ 2/3λ λ Damit ist Λ = (3λ, λ, λ), γ = (3%, %, %). Das System ist ergodisch, wenn % < 1/3 ist. – 166 – −1 2/3 0 1 0 0 −1 −1/3 1/2 0 1 0 0 0 1 λ λ/3 λ/2 3λ λ λ Beispiel Eine Maschine A produziert Flugzeugbauteile (µ = 1 h−1 ). Diese werden anschließend an einer Station B geprüft (mittlere Dauer 12 Minuten). Im Mittel sind 60 Prozent der Bauteile ohne Beanstandung, 30 Prozent werden in einer zweiten Maschine C bearbeitet (im Mittel 30 Minuten lang) und verlassen danach das System, 10 Prozent müssen ein weiteres Mal die Maschine A passieren. Wie groß darf der Eingangsstrom von Teilen maximal sein, wenn man ein ergodisches System erhalten möchte? Wie groß ist die Wahrscheinlichkeit 7 Kunden im System A und 4 Kunden im System B vorzufinden, wenn λ = 0.5 ist? – 167 – ... Es ist 0 λ λ = 0 , P = 0.1 0 0 1 1 0 0 0.3 , (I − P)T = −1 0 0 0 Es ergibt sich: 1 −1 0 1 0 0 −0.1 0 λ 1 0 0 −0.3 1 0 −0.1 0 λ 0.9 0 λ 0 1 λ/3 1 0 0 −0.1 0 0.9 0 −0.3 1 λ λ 0 1 0 0 10/9λ 0 1 0 10/9λ 0 0 1 1/3λ – 168 – −0.1 1 −0.3 0 0 1 ... Wir erhalten also 10/9 Λ = 10/9 λ, 1/3 10/9 γ = 2/9 λ 1/6 Bedingung für Ergodizität: 10/9λ < 1, also λ < 0.9. Für λ = 0.5 ergibt sich 5/9 γ = 1/9 1/12 und damit P(X1 = 7, X2 = 4) = 4 5 7 8 1 4 ≈ 10−6 . 9 9 9 9 – 169 – 8. Geschlossene Netzwerke 8.1. Grenzverteilung In geschlossenen Netzwerken (Gordon-Newell-Netzwerke) gibt es eine feste Anzahl K von Kunden, die sich im System bewegen. – 170 – Grenzverteilung geschlossener Netzwerke (1) Eine Grenzverteilung existiert stets. (2) Die Zufallsvariablen X1 , X2 , . . . , XN sind im allgemeinen nicht unabhängig. (3) Es sei Λ = (Λ1 , . . . , ΛN ) eine (nicht eindeutige) Lösung des linearen Gleichungssystems (I − P)t Λ = 0 und γi = Λi /µi . Dann gilt für die gemeinsame Verteilung der Kundenzahlen P(X1 = k1 , X2 = k2 , . . . , XN = kN ) = N 1 Y ki γi . C i=1 Dabei ist die Konstante C gegeben durch C= X N Y k1 +...+kN =K i=1 – 171 – γi ki . Wie berechnet man die Summe X C= N Y γi ki ? k1 +...+kN =K i=1 Beispiel: N = 3, K = 4. k1 0 0 0 0 0 k2 0 1 2 3 4 k3 4 3 2 1 0 Insgesamt gibt es k1 1 1 1 1 k2 0 1 2 3 k3 3 2 1 0 6 2 K +N−1 N−1 = k1 2 2 2 3 3 4 k2 0 1 2 0 1 0 k3 2 1 0 1 0 0 = 15 Fälle. Dann ergibt sich C = γ34 + γ21 γ33 + γ22 γ33 + γ23 γ31 + γ24 + γ1 γ33 + γ1 γ21 γ32 + γ1 γ22 γ31 + γ1 γ23 + γ12 γ2 γ32 + γ12 γ2 γ21 γ31 + γ12 γ2 γ22 + γ13 γ3 + γ13 γ2 + γ14 . – 172 – Beispiel 4 Kunden durchlaufen 3 Bedienstationen wie folgt: Es ist 0 P= 1 1 1/2 0 0 – 173 – 1/2 0 0 Beispiel (Forts.) Wir lösen (I − P)t Λ = 0: 1 −1/2 −1/2 −1 −1 1 0 0 1 1 0 0 −1 1/2 −1/2 −1 −1/2 1/2 1 0 0 1 0 0 −2 −1 -1 ⇒ Λ = (2, 1, 1) (oder auch z.B. (1, 1/2, 1/2) oder (10, 5, 5)). Gemeinsame Grenzverteilung: 1 (2/10)k1 (1/5)k2 (1/30)k3 C 6k1 +k2 = . 304 C P(X1 = k1 , X2 = k2 , X3 = k3 ) = – 174 – Beispiel (Forts.) K +N−1 N−1 = 5 2 = 15 Kombinationen für 6k1 +k2 : k1 \k2 0 1 2 3 4 0 1 6 36 216 1296 1 6 36 216 1296 2 36 216 1296 3 216 1296 4 1296 Summe: 7465. ⇒ C= 7465 304 = 0.00921605 bzw. 304 C = 7465. Es ist beispielsweise P(X1 = 2, X2 = 1, X3 = 1) = P(X1 = 1, X2 = 2, X3 = 1) = P(X1 = 0, X2 = 3, X3 = 1) = P(X1 = 3, X2 = 0, X3 = 1) = 63 = 0.0289 ≈ 3%. 7465 – 175 – Beispiel (Forts.) Übrige Wahrscheinlichkeiten: k1 \k2 0 1 2 3 4 0 0.0001 0.0008 0.0048 0.0289 0.1736 1 0.0008 0.0048 0.0289 0.1736 0. 2 0.0048 0.0289 0.1736 0. 0. – 176 – 3 0.0289 0.1736 0. 0. 0. 4 0.1736 0. 0. 0. 0. Beispiel: 2-Prozessorsystem Fünf Programme (Jobs) werden in einem Computer abwechselnd in zwei Prozessoren ausgeführt. Dabei seien die Bearbeitungszeiten exponentiell mit mittlerer Bedienzeit 1s und 4s. Dann ist µ1 = 1, µ2 = 1/4 und es ergibt sich P = 1 −1 −1 1 1 0 −1 -1 – 177 – ⇒ 0 1 Λ1 = Λ2 . 1 0 und Beispiel: 2-Prozessorsystem (Forts.) Wir setzen z.B. Λ1 = Λ2 = 1. Dann gilt P(X1 = i, X2 = j) = 1 1 . C µi1 µj2 Also ist C = K X i=0 K +1 K i 1 − µµ21 X 1 µ 2 = µ−K = µ−K . 2 2 −i µ 1 − µµ21 µi1 µK 1 2 i=0 Es ergibt sich P(X1 = i, X2 = K − i) = – 178 – µ i 1 − µµ21 2 . K +1 µ1 µ2 1 − µ1 Beispiel Es sei folgendes geschlossenes Netzwerk gegeben: Im System befinden sich 2 Kunden. Die mittleren Bedienzeiten betragen in den Servern jeweils eine Minute. Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation vorzufinden? – 179 – .. 0 0 P= 0 0.9 1 0 0 0.1 0 0.9 0 0 0 0.1 , 1 0 1 −1 T (I − P) = 0 0 0 1 −0.9 −0.1 0 0 1 −1 Gauss-Elimination: 1 0 0 0 0 0 −0.9 1 0 −1 −1 0 1 1 10 −10 1 0 0 0 1 0 0 0 10 0 0 0 −0.9 −1 −9 0 Also ist z.B. Λ = (0.9, 1, 0.9, 1) und damit γ = (0.9, 1, 0.9, 1). – 180 – 1 0 0 1 0 0 0 0 0 0 0 0 −0.9 −1 −0.9 -1 −0.9 −0.1 0 1 .. Es ist dann P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) = 0.9k1 +k3 . C Es gibt K +N −1 5 = = 10 N −1 3 Kombinationen von ki -Werten: C = 3 · 0.90+0 + 2 · 0.90+1 + 0.90+2 + 2 · 0.91+0 + 0.91+1 + 0.92+0 = 9.84 Also P(X1 = k1 , X2 = k2 , X3 = k3 , X4 = k4 ) = – 181 – 0.9k1 +k3 . 9.84 .. Wie groß ist die Wahrscheinlichkeit beide Kunden in einer Bedienstation vorzufinden? 0.92 , P(X1 = 2, X2 = 0, X3 = 0, X4 = 0) = 9.84 1 P(X1 = 0, X2 = 2, X3 = 0, X4 = 0) = , 9.84 0.92 , P(X1 = 0, X2 = 0, X3 = 2, X4 = 0) = 9.84 1 P(X1 = 0, X2 = 0, X3 = 0, X4 = 2) = . 9.84 Also ergibt sich die Wahrscheinlichkeit 2 (0.92 + 1) ≈ 36.8%. 9.84 – 182 – 9. Die M/G/1-Warteschlange 9.1. Einführung Häufig ist es zu restriktiv, exponentielle Bedienzeiten anzunehmen. Wir betrachten jetzt Warteschlangen mit einer Bedienstation, exponentiellen Zwischenankunftszeiten und beliebig verteilten Bedienzeiten. Wie bisher auch beschreiben λ und µ die Ankunftsrate bzw. Bedienrate. Wir schreiben wieder % = λ/µ für die Verkehrsintensität. Es bezeichne G die Verteilungsfunktion der Bedienzeiten: G (x) = P(B ≤ x). – 183 – Es sei wie schon zuvor X Anzahl von Kunden im System, L Anzahl der Kunden in der Warteschlange, W die Wartezeit in der Warteschlange, S die gesamte Aufenthaltszeit im System und R die restliche Bedienzeit des Kunden in der Bedienstation unter der Annahme, dass X > 0 ist. Es gilt nach wie vor das Littlesche Gesetz in seinen drei Varianten: E (X ) = λE (S), E (L) = λE (W ), und E (Q) = λE (B). – 184 – 9.2. Kundenzahl Ergodizität Gilt % = λ/µ < 1, dann besitzt das M/G/1-Warteschlangensystem für die Verteilung der Kundenzahl Xt im System eine Grenzverteilung π = lim P(Xt = k). t→∞ Die Grenzverteilung besitzt, anders als im M/M/1 System, eine komplizierte Form (sog. Pollaczeck-Khinchine-Formel). Wir begnügen uns mit Aussagen über Mittelwerte. Aus dem 3.Littleschen Gesetz folgt, wie schon beim M/M/1-Wartesystem E (Q) = λE (B) ⇔ P(X > 0) = % ⇔ π0 = 1 − %. – 185 – 9.3. Wartezeit und mittlere Kundenzahl Es gilt im Augenblick einer Ankunft: E (W ) PASTA = Little E (L)E (B) + P(X > 0)E (R) = λE (W )E (B) + %E (R) = %E (W ) + %E (R) Also gilt E (W ) = E (R) ρ . 1−% Wir müssen noch E (R) berechnen. Im Gegensatz zur Situation in der M/M/1-Warteschlange, stimmt die Verteilung der Restbedienzeit R im allgemeinen nicht überein mit der Verteilung der Bedienzeiten. – 186 – Verteilung der Restbedienzeit Verteilungsfunktion der Restbedienzeit: Z x G ∗ (x) = P(R ≤ x) = µ (1 − G (x)) dx. 0 G ∗ ist stetig mit Dichtefunktion g ∗ (x) = µ(1 − G (x)). Der Erwartungswert ist dann Z ∞ x(1 − G (x)) dx Z ∞ 1 2 part.Int. = µ x g (x) dx 2 0 µ = E (B 2 ). 2 E (R) = µ 0 – 187 – Beispiel Wir betrachten eine Warteschlange mit auf [0, b] gleichverteilten Bedienzeiten, d.h. ( x ;0 < x ≤ b G (x) = b 1 ;x > b Dann ist E (B) = b/2 = 1/µ, E (B 2 ) = b 2 /3. Für die Dichtefunktion von G ∗ ergibt sich ( 2 (1 − xb ) ; 0 < x ≤ b g ∗ (x) = b 0 ;x > b – 188 – Beispiel (Forts.) Also ist ( ∗ G (x) = 2 b (x − x2 2b ) 1 ;0 < x ≤ b ;x > b Dichte- und Verteilungsfunktion: Für den Erwartungswert von R erhalten wir b µ E (R) = E (B 2 ) = . 2 3 – 189 – Aus E (W ) = E (R) ρ 1−% und E (R) = µ E (B 2 ) 2 E (W ) = λE (B 2 ) . 2(1 − %) ergibt sich: Little: E (X ) = λE (S) = λ E (W ) + E (B) = %+ λ2 E (B 2 ) . 2(1 − %) – 190 – Wartezeit und mittlere Kundenzahl M/G/1 Für die M/G/1-Warteschlange gelten die folgenden Formeln für Erwartungswerte: λ2 E (B 2 ) , 2(1 − %) λE (B 2 ) E (W ) = , 2(1 − %) λ2 E (B 2 ) E (X ) = % + , 2(1 − %) 1 λE (B 2 ) E (S) = + . µ 2(1 − %) E (L) = Zur Berechnung der obigen Erwartungswerte ist also die Kenntnis von E (B) und E (B 2 ) ausreichend. – 191 – Beispiel In einer Fabrik wird an einer Maschine ein Werkstück gefertigt. Die Fertigung gelinge beim ersten Versuch nur in 75% der Fälle. Erst dann, wenn die Fertigung erfolgreich war, kann das nächste Stück gefertigt werden. Ein Versuch dauert exakt eine Minute. Die Ankunftsrate der Werkstücke sei λ = 0.5 min−1 . Die Verteilung der Bedienzeiten ist geometrisch mit Erfolgswahrscheinlichkeit p = 3/4, d.h. P(B = k) = (1/4)k−1 · 3/4 Dann ist µ = 1/E (B) = p = 3/4, % = 2 3 < 1 und 1 2−p 20 1−p + 2 = = . 2 2 p p p 9 5 5 3 Also gilt: E (L) = , E (W ) = , E (X ) = , E (S) = 3. 6 3 2 E (B 2 ) = Var(B) + E (B)2 = – 192 – 10. Anhang 10.1. Geschichte der Warteschlangentheorie Andrei Andreievich Markov (1856-1922) Russischer Mathematiker Markov-Prozesse, Markov-Ketten. Andrei Nikolajewitsch Kolmogorov (1903-1987) Russischer Mathematiker Begründer der modernen Wahrscheinlichkeitstheorie. – 193 – Agner Krarup Erlang (1878-1929) Dänischer Mathematiker und Ingenieur Begründer der Warteschlangentheorie, ”The Theory of Probabilities and Telephone Conversations” (1909), Erlang-B/C-Formel, Erlang-Verteilung der Summer exponentieller Zufallsvariablen. Tore Olaus Engset (1865-1943) Norwegischer Mathematiker und Ingenieur Engset-Formel – 194 – Alexander Jakowlewitsch Khinchin (1894-1959) Russischer Mathematiker. Pollaczek-Khinchin-Formel (M/G/1) Felix Pollaczek (1892-1981) Österreichisch-französischer Mathematiker Pollaczek-Khinchin-Formel (M/G/1) David George Kendall (1918-2007) Englischer Mathematiker – 195 – Dennis Lindley (1923-2013) Lindleys Gleichung. James Richard Jackson (1924 – 2011) Amerikanischer Mathematiker Jackson-Netzwerke Achtung Verwechslungsgefahr! Ray R.P. Jackson, Tandem-Warteschlangen. John Dutton Conant Little (1928) Amerikanischer Physiker Little’s formula. – 196 – Leonard Kleinrock (1934) Amerikanischer Informatiker/Elektroingenieur. Jacob Willem Cohen (1923-2000) Retrial queues. Standardwerk: ”The Single Server Queue”. Sir John Frank Charles Kingman (1939) Englischer Mathematiker Regenerative Prozesse. – 197 – 10.2. Logarithmus log(x · y ) = log(x) + log(y ) log(x y ) = y · log(x) log(1) = 0 Basenumrechnung: loga (x) = log(x)/ log(a). Lösung von Gleichungen mit der Unbekannten im Exponenten: qx = r ⇔ x log(q) = log(r ) ⇔ x = log(r )/ log(q). – 198 – 10.3. Potenzen und Wurzeln b x+y = b x · b y b x·y = (b x )y (a · b)x = ax · b x , (a/b)x = ax /b x b0 = 1 1/b = b −1 √ b = b 1/2 √ n b = b 1/n (a + b)2 = a2 + 2ab + b 2 (a − b)2 = a2 − 2ab + b 2 (a + b)(a − b) = a2 − b 2 Pn (a + b)n = k=0 kn ak b n−k – 199 – 10.4. Exponentialfunktion e x+y = e x · s y e x·y = (e x )y Für jede reelle Zahl x ∈ R gilt ex = ∞ X xk k=0 k! . Zum Beispiel ist e −x = e= ∞ X (−1)k k=0 ∞ X k=0 – 200 – k! 1 . k! , (1) (2) 10.5. Geometrische Summe Es gilt für jedes q ∈ R n X k=0 n X k=1 n X k=m qk = 1 − q n+1 1−q (3) 1 − qn 1−q (4) q m − q n+1 1−q (5) qk = q qk = – 201 – Für −1 < q < 1 existiert der Grenzwert für n → ∞: ∞ X 1 qk = , 1−q k=0 ∞ X qk = k=m ∞ X kq k = qm . 1−q ∞ X k=0 ∞ X k=1 ∞ X k=0 k=1 k 2qk = kq k = (7) q (1 − q)2 k 2qk = – 202 – (6) q(1 + q) (1 − q)2 (8) (9) 10.6. Integrale Partielle Integration: Z Z b b 0 F (x)G (x) dx = [F (x)G (x)]a − b F (x)G 0 (x) dx. a a Substitutionsregeln: Z b Z h−1 (b) f (x) dx = h0 (u)f (h(u)) du h−1 (a) a und Z b h0 (x)f (h(x)) dx = a Z h(b) f (u) du. h(a) – 203 – 10.7. Literatur zum Weiterlesen Soren Asmussen Applied Probability and Queues, Springer Onno Boxma Stochastic Performance Modelling, Eindhoven University of Technology – 204 – Inhalt 1. Einführung 1.1 1.2 1.3 1.4 1 Einfaches Warteschlangenmodell Beispiele Erweiterte Modelle Interessante Größen 2. Stochastik 2.1 2.2 2.3 2.4 2.5 1 5 6 9 10 Zufallsvariablen und ihre Verteilung Erwartungswerte Das Gesetz der großen Zahlen Wichtige Verteilungen Die Exponential- und Poisson-Verteilung – 205 – 10 16 19 21 27 3. Der Ankunftsprozess und die Bedienzeiten 3.1 3.2 3.3 3.4 3.5 Die Ankunfts- und Zwischenankunftszeiten Der Erneuerungsprozess der Ankünfte Markovsche Ankünfte / Poisson-Prozess Bedienzeiten Exponentielle Bedienzeiten 4. Die M/M/1-Warteschlange 4.1 4.2 4.3 4.4 4.5 4.6 33 33 38 43 48 50 52 Definition Die Anzahl der Kunden im System Grenzverteilung / Stationärer Zustand PASTA Die Warte- und Aufenthaltszeit im System Littles Gesetz – 205 – 52 53 59 68 70 77 5. Markovketten 5.1 5.2 5.3 5.4 5.5 79 Markovketten in diskreter Zeit Übergangsdiagramm Markovketten in stetiger Zeit Die Intensitätsmatrix Geburts- und Todesprozesse 79 84 86 89 91 6. M/M-Warteschlangensysteme 102 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 M/M/1 M/M/1/K - Warteschlange mit beschränkter Kapazität Spezialfall: M/M/1/1 M/M/∞ - Beliebig viele Bedienstationen M/M/m - System mit m Bedienstationen Erlangsches Verlustmodell (M/M/m/m) Engset-Modell für eine endliche Population Sonderfall: Engset-Modell mit K = N Der Satz von Burke – 205 – 102 105 114 117 123 136 141 147 149 7. Offene Netzwerke 7.1 7.2 7.3 7.4 154 M/M/1-Tandem-Warteschlange Offene Netzwerke Durchsatz Satz von Jackson 8. Geschlossene Netzwerke 154 158 160 162 170 8.1 Grenzverteilung 170 9. Die M/G/1-Warteschlange 183 9.1 Einführung 9.2 Kundenzahl 9.3 Wartezeit und mittlere Kundenzahl – 205 – 183 185 186