Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 1 von 11 1. Einleitung. Warteschlangen begegnen uns im Alltag an vielen Stellen und in vielfältiger Form. Wir erleben sie physisch beim Warten am Postschalter, an einer Kasse im Supermarkt, im Wartezimmer unseres Arztes und in den Warteschleifen, die unser Flugzeug am belebten Himmel drehen muss, bevor es zur Landung ansetzen kann. In eine Warteschlange geraten wir aber auch, wenn wir versuchen, zur Telefonauskunft durchzudringen oder mit einem der neuerdings überall aus dem Boden schiessenden Call–Center verbunden zu werden. Die Beispiele liessen sich beliebig vermehren; gemeinsam ist ihnen, dass sie den Alltag lästiger als nötig machen – es sei denn, man macht, wie die Briten, eine Nationaltugend aus dem Anstellen und Warten. Neben den Wunsch nach einer Analyse der einer Warteschlange zugrunde liegenden Ursachen und der Beschreibung ihres Verlaufs tritt daher auch die Frage, mit welchen Mitteln und Methoden diese lästigen Begleiter unserer zivilisierten Welt im wahrsten Sinne des Wortes "kurz" gehalten werden können: eine Aufgabe, der sich die Mathematiker seit nunmehr fast einem Jahrhundert widmen. Warteschlangen sind "Abfallprodukte" im dynamischen Ablauf von Prozessen, in denen an bestimmten Stellen Irregularitäten entstehen, dann nämlich, wenn "Klienten" (beispielsweise Menschen, zu verarbeitende Objekte, Telefonanrufe etc.) in regelmässigen oder unregelmässigen zeitlichen Abständen an eben diesen Stellen (den Bedienungseingängen) auftauchen und dort auf Einlass, eine Bedienung oder Behandlung warten müssen. Die Unregelmässigkeit des Auftauchens (oder die der Zeit des Bedienens, oder beider) hat zur Folge, dass sich die "Bedienung" u.U. nicht unmittelbar an die "Ankunft" des Klienten anschliessen kann – dann nämlich, wenn noch ein früher angekommener Klient bedient wird. Wesentliches Merkmal eines Prozesses, der zu einer Warteschlange Anlass gibt, ist mithin, dass zumindest eine Komponente nicht–deterministisch abläuft. Daher findet sich die Theorie der Warteschlangen als eine Anwendung in jeder höheren Wahrscheinlichkeitstheorie. Die eingangs angesprochene Häufigkeit von Warteschlangen im alltäglichen Leben lässt es jedoch gerechtfertigt erscheinen, einen elementaren Zugang zu den einfachen Eigenschaften von Warteschlangen anzugeben, aus dem dann auch bereits Strategien zur Vermeidung oder Verkürzung dieser Phänomene entwickelt werden können. Benötigt werden hierzu – bei Verzicht auf einige Beweise und an wenigen Stellen auf absolute mathematische Präzision – neben Grundkenntnissen aus der Analysis nur die einfachsten Aussagen aus der Stochastik, wie sie in Einführungskursen zur elementaren Wahrscheinlichkeitstheorie teilweise schon im Schulunterricht vermittelt werden (eine kompakte Darstellung der Grundlagen der elementaren Wahrscheinlichkeitstheorie findet sich z.B. in [1], eine gute weiterführende Quelle ist [2]). Die wichtigsten benutzten Aussagen sind ohne Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 2 von 11 Beweise im folgenden Teil A notiert. Für die demonstrierten Implementierungen sollten einige Kenntnisse im Programmieren vorhanden sein. A: Elemente der Stochastik (Wdhlg)1. A 1.1 Ereignisse und Wahrscheinlichkeiten. Def.: Die Menge aller möglichen Ergebnisse eines Zufallsexperiments ist die Ergebnismenge . Def.: Ereignisse sind Teilmengen der Ergebnismenge, Elementarereignisse sind einelementige Teilmengen der Ergebnismenge (nicht notwendig alle Teilmengen sind Ereignisse). Def.: Eine Menge A von Teilmengen von heisst Algebra, wenn A, B F A B F Vereinigung A F AC F Komplement F Leere Menge. Bemerkung: Der Durchschnitt ist enthalten, da A, B F A B F A B F AC B C F A B F C Def.: Eine Menge F von Teilmengen von heisst -Algebra, wenn neben den Bedingungen für eine Algebra auch folgendes gilt: A1 , A2 , A3 ,... F Ai F . i 1 Def.: Ein Wahrscheinlichkeitsmaß Pr auf , F ist eine Funktion Pr : F [0,1] mit den Eigenschaften Pr 1 , Ai Pr Ai i 1 i 1 Sind A1 , A2 , A3 ,... F paarweise disjunkt, dann ist Pr Lemma: 1 Der Inhalt dieses Arbeitsblattes beruht in wesentlichen Teilen auf einem Miniskript von F. Stehn. Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 3 von 11 Pr AC 1 Pr A B A Pr B Pr A Pr B \ A Pr A Pr A B Pr A Pr B Pr A B n n u n 1 Pr Ai Pr Ai Pr Ai Aj Pr Ai Aj Ak ... 1 Pr Ai . i j i j k i 1 i 1 i 1 A 1.2 Bedingte Wahrscheinlichkeit Def.: Wenn Pr B 0 dann ist die bedingte Wahrscheinlichkeit von A unter der Bedingung B (Hypothese) gegeben durch: Pr A B : Pr A B Pr B Lemma: Für Ereignisse A, B gilt Pr A Pr A B Pr B Pr A BC Pr BC Folgerung: Ist {Bi }in1 eine Partition von , dann gilt für A n Pr A Pr A Bi Pr Bi i 1 A 1.3 Unabhängigkeit Def.: Die Ereignisse A, B heissen (stochastisch) unabhängig, wenn Pr A B Pr A Pr B Die Familie { Ai }in1 ist unabhängig, wenn Pr Ai Pr Ai iI iI I {1,.., n} Die Familie { Ai }in1 ist paarweise unabhängig, wenn Pr Ai Aj Pr Ai Pr Aj i j A 1.4 Zufallsvariable und Verteilungen Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 4 von 11 Def.: Eine Zufallsvariable auf dem Wahrscheinlichkeitsraum , F , Pr ist eine Abbildung X : R mit { : X x} F für x R Def.: Die Verteilungsfunktion von X ist die Funktion FX : R[0,1] mit FX x Pr X x . Lemma: Für jede Verteilungsfunktion F gilt lim F x 0 , x lim F x 1 x x y F x F ( y) Für x gilt lim F x h F x h0 (rechtsseitige Stetigkeit) Def.: Die Zufallsvariable X heisst diskret, wenn sie nur abzählbar viele Werte annimmt, sie heisst stetig, wenn für F x gilt f mit f : R R+, so dass FX x x f u du . Bemerkung Nicht jede Zufallsvariable ist diskret oder stetig. Def.: Die Dichtefunktion von X ist f : R R+ mit f x Pr X x . Bemerkung: Für die Verteilungsfunktion einer diskreten Zufallsvariablen gilt FX x f u . u x Def.: Der Erwartungswert einer diskreten Zufallsvariablen X : R ist EX xX x Pr X x X Pr k Pr X k , k X Dichtefunktion wenn die rechte Seite konvergiert Hauptlemma [Linearität des Erwartungswertes]: Prof. Dr. Gerhard Berendt SS 2006 Für alle a R Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 5 von 11 ist E a X a E X , E X Y E X E Y . A 1.5 Abweichungen vom Erwartungswert, Varianz Def.: Für eine Zufallsvariable X mit E(X) = definiert man die Varianz als Var(X) = E((X-E(X))²) , die Größe = Var X heißt die Standardabweichung von X. Bemerkung: Es ist E(X-E(X )) = 0. Eigenschaften der Varianz: Var(X)= E((X-E(X))²)= E([X²-2X E(X)+E(X)²]) = E(X²)-2 E(X E(X))+E(E(X)²) = E(X²)-2 E(X)E(X)+E(X)² = E(X²)-E(X)² Varianzen sind niemals negativ. Def.: Die Zufallsvariablen X und Y R sind unabhängig, wenn {X=k} und {Y=l} unabhängig sind für alle k X( ), l Y( ) , d.h. Pr(X=k Y=l) = Pr({X=k} {Y=l}) = Pr(X=k) Pr(Y=l) . Lemma: Sind X,Y unabhängig, dann gilt E(X Y) = E(X) E(Y) Satz: Sind X,Y unabhängig und R, dann gilt Var(X)= 2 Var(X). Var(X+Y)=Var(X)+Var(Y). A 1.6 Binomial– und Poisson–Verteilung. Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 6 von 11 Die Binomialverteilung beschreibt die Situation, dass unter n unabhängigen Versuchen genau k Erfolge auftreten, wobei die Einzelwahrscheinlichkeit für einen Erfolg p sei. Die Wahrscheinlichkeit für das Auftreten dieser Erfolge ist: n P( X k ) p k (1 p) nk , k = 0, 1, ...n . k Der Erwartungswert von X ist E( X ) n k P( X k )n p , k 0 die Varianz V ( x) E ( X 2 ) [ E ( X )]2 n p(1 p) . Für große Werte von n (und ggf. k ) wird die Berechnung der Binomialverteilung durch die auftretenden Binomialkoeffizienten sehr unhandlich; daher verwendet man unterschiedliche Approximationen. Hier soll nur untersucht werden, wie sich die Binomialverteilung für große n und kleine p verhält: Für große n und kleine p so, daß : = n p und k ebenfalls klein gegen n sind, folgt: k k n k k n k n( n 1)...(n k 1) p (1 p ) e . 1 1 k! k! nk n n k n Diese Verteilung wird als Poisson-Verteilung bezeichnet. A 1.7 Stetige Zufallsvariable Def.: X ist eine stetige Zufallsvariable, wenn eine stetige Funktion f : R R x existiert, so dass FX(x)= f (u )du . f heisst die Dichte der Verteilung. Bei stetigen Zufallsvariablen gilt Pr(X=k)=0 für alle k R, aber Pr(X R) = 1 = Wichtige Verallgemeinerung: Pr(a X b) = Pr({ :X( ) b}\{ :X( )<a}) = Pr(X b) – Pr(X a) = F(b) – F(a) b = a f (u )du b f (u )du f (u )du . a f (u )du . Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 7 von 11 Def.: Ist X eine stetige Zufallsvariable mit Dichte f , dann ist der Erwartungswert von X : E(X)= x f ( x )dx . Lemma: Sei X Zufallsvariable mit Dichte f und es gilt f x 0 x 0 , dann ist E(X) = 1 F x dx , 0 wobei F die Verteilungsfunktion von X ist. Beispiele stetiger Zufallsvariablen/Verteilungen sind u.a. – – – Uniform/Gleichverteilung auf [a,b]: 0 f ( x) 1 ba x [ a, b] x [ a, b] 0 F ( x) bx aa 1 xa x [ a, b] xb Exponentialverteilung mit Parameter : f ( x) e x x0 F ( x) 1 e x x0 Ein "Exot", weder diskret noch stetig noch eigentlich überhaupt eine Zufallsvariable ist die "deterministische Zufallsvariable" X = a mit einer reellen Konstanten a : Formal kann sie durch die unstetige Verteilungsfunktion 0 F ( x) 1 xa xa beschrieben werden; ihre Dichtefunktion existiert im Sinne der klassischen Analysis nicht, kann jedoch durch die sogenannte – Distribution f ( x) ( x a ) Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 8 von 11 dargestellt werden. Diese Distribution ergibt nur als Teil eines Integranden einen Sinn; es gilt g (a) g ( x) ( x a) dx , I wenn a im Integrationsintervall I liegt (andernfalls liefert das Integral den Wert 0). Zuweilen – etwa bei der Beschreibung von Warteschlangen mit konstanter Bedienungszeit oder in gleichen Abständen erfolgenden Ankünften – ist es zweckmäßig, diese pathologische "Zufallsvariable" formal zu benutzen, um die allgemeinen Formeln verwenden zu können. A 1.8 Summe von Zufallsvariablen Die Summe Z zweier Zufallsvariablen X und Y ist wieder eine Zufallsvariable. Falls X und Y unabhängig voneinander sind, kann die Verteilung von Z aus den Verteilungen von X und Y ermittelt werden. Sind X und Y voneinander unabhängige diskrete Zufallsvariable mit N0 als Wertebereich, dann ist (vgl. dazu auch die Herleitung im folgenden Abschnitt) n Pr( X Y n) Pr( X i ) Pr(Y n i ) . i 0 Sind X und Y voneinander unabhängige stetige Zufallsvariable mit R+ als Wertebereich, dann ist die Dichtefunktion fZ von Z = X + Y als f Z ( x) f X (t ) fY ( z t ) dt 0 darstellbar. A 1.9 Erzeugende Funktionen Die Werte für die Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen mit dem Wertebereich N0 oder einer Teilmenge davon lassen sich häufig in geschlossener Form angeben. Dem liegt die folgende (bereits von EULER benutzte) Argumentation zugrunde: Gelte für eine diskrete Zufallsvariable X , dass Pr(X = n) = pn für n N0 . Dann konvergiert die Potenzreihe in der reellen Veränderlichen z mit G ( z ) : pn z n n 0 absolut und gleichmässig für alle | z | < 1 und für z = 1, da die pn alle nicht negativ sind, und ihre Summe gleich 1 ist. G(z) heisst dann die erzeugende Funktion von X. Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 9 von 11 Die Reihe ist für | z | < 1 gliedweise beliebig oft differenzierbar (allerdings ist a priori nicht gesichert, dass die differenzierten Reihen auch bei z = 1 konvergieren). Da die Ableitungen von G an der Stelle z=0 bis auf einen Faktor identisch mit den pn sind, wird die Verteilung durch die erzeugende Funktion eineindeutig bestimmt. Erwartungswert und Varianz von X lassen sich – wenn sie existieren - sofort aus der erzeugenden Funktion ermitteln: Es ist nämlich n 0 n 0 G ' (1) n pn E ( X ) , G ' ' (1) n(n 1) pn E ( X 2 ) E ( X ) , und damit E(X) = G' (1) , V(X) = G'(1) + G''(1) – (G'(1) )2 . Beispiele: a) b) Für die BERNOULLI -Verteilung ist p0 = p, p1 = q = 1 – p, pn = 0 für n > 1. Daraus ergibt sich die erzeugende Funktion G(z) = p + (1 – p) z und damit E(XBernoulli) = 1 – p , V(XBernoulli) = 1 - p. N Für die Binomialverteilung mit Parameter N ist pn p n (1 p) N n . Für n die erzeugende Funktion folgt G ( z ) ( p z 1 p) N und damit E(XBinomial) = N p , V(XBinomial) = N p (1- p). c) Die POISSON –Verteilung zum Parameter hat die Wahrscheinlichkeiten pn n n! e . Die erzeugende Funktion ist daher G(z) = e – (1 – z), mithin E ( X Poisson ) , V ( Poisson ) . Auch für die Beantwortung von Fragestellungen, die bei der Kombination von Zufallsvariablen auftauchen (s.o), eignet sich das Konzept der erzeugenden Funktionen. Angenommen, X und Y seien zwei stochastisch unabhängige diskrete Zufallsvariable mit den erzeugenden Funktionen GX und GY . Sei G die Funktion, die durch die Multiplikation der Reihen für GX und GY entsteht. Dann gilt der folgende Satz: Die Funktion G(z) : = GX (z) GY (z) ist erzeugende Funktion der Zufallsvariablen X + Y . Beweis: Sei n 0 n 0 G X ( z ) an z n , GY ( z ) bn z n und G ( z ) cn z n , n 0 Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 10 von 11 n dann ist also im Konvergenzbereich der Reihen cn ai bni nach dem i 0 Multiplikationssatz für unendliche Reihen. Mithin ist n cn Pr( X i) Pr(Y n i) . i 0 Andererseits ist Pr( X Y n) Pr( X i ) Pr( X Y n | X i ) i 0 Pr( X i ) Pr(Y n i | X i ) i 0 n Pr( X i ) Pr(Y n i ) i 0 cn da X und Y unabhängig sind und X + Y = n unter der Bedingung X = i genau dann gilt, wenn Y = n – i ist und Y keine negativen Werte annehmen kann. A 1.10 Laplace–Transformation In gewisser Weise ist die Laplace-Transformation im Falle stetiger Zufallsvariablen das Gegenstück zur erzeugenden Funktion bei diskreten Zufallsvariablen. Die ~ Laplace–Transformierte f ( s ) zu einer stetigen Funktion f(x) ist als ~ f ( s) : f ( x) e s x dx s0 0 definiert; sie existiert in jedem Fall, wenn f(x) die Dichtefunktion einer stetigen Zufallsvariablen ist. Erwartungswert und Varianz der Zufallsvariablen X mit der Dichtefunktion ergeben sich unmittelbar aus der Definition: 2 2 ~ ~ ~ E ( X ) dsd f ( s) s 0 , V ( X ) d 2 f ( s) s 0 dsd f ( s) s 0 , ds ~ weiterhin ist natürlich f (0) 1 . f Prof. Dr. Gerhard Berendt SS 2006 Modellierung und Simulation von Warteschlangen Arbeitsblatt 1 / S. 11 von 11 Analog zu den Betrachtungen in A 1.9 folgt für die Summe von zwei voneinander unabhängigen stetigen Zufallsvariablen mit dem gleichen Wertebereich der Satz: Seien X und Y stochastisch unabhängige stetige Zufallsvariable mit gleichem Wertebereich und den Dichtefunktionen f(x) und g(x) . Dann gilt für die Dichtefunktion h(x) der Zufallsvariablen Z = X + Y die Relation (vgl. auch A 1.8) ~ ~ h ( s) f ( s ) g~ ( s ) . A 1.11 Zufallsvariable und Zufallsprozesse Bestimmte Aspekte eines Zufallsexperiments können, wie gesehen, kompakt durch die Einführung von Zufallsvariablen beschrieben werden. Sollen verschiedene solcher miteinander verknüpfter Experimente zusammenfassend beschrieben werden, dann hat man es also mit einer Familie von Zufallsvariablen zu tun, die je nach vorliegender Ergebnismenge und nach ihrer durch einen Index festgelegten Position klassifiziert werden. Ergebnismenge und Position können diskret oder kontinuierlich sein; die einzelnen Zufallsvariablen sind im einfachsten Fall gleichverteilt (aber in der Regel nicht unabhängig voneinander). Beispielsweise kann ein Nutzer eines gemeinsamen Druckers in einer Gruppe Experimente machen, die als Zufallsvariable die Zeit enthalten, die er benötigt, um einen Druckauftrag auszuführen; der Administrator des Druckers kann als Zufallsprozess die Familie der entsprechenden Zufallsvariablen aus der Nutzergruppe, die den Drucker beschäftigen, im Hinblick auf Ausnutzung, vertretbare Wartezeiten u.ä. betrachten. Warteschlangen sind typische Phänomene, die auf Zufallsprozessen beruhen. Literatur zu A: [1] G. Berendt, "Mathematik für Informatiker", BI–Wissenschaftsverlag 1994 [2] G.R. Grimmett, D.R. Stirzaker, "Probability and Random Processes", Oxford Science Publications 1982