ablatt01

Werbung
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 1 von 11
1. Einleitung.
Warteschlangen begegnen uns im Alltag an vielen Stellen und in vielfältiger Form.
Wir erleben sie physisch beim Warten am Postschalter, an einer Kasse im
Supermarkt, im Wartezimmer unseres Arztes und in den Warteschleifen, die unser
Flugzeug am belebten Himmel drehen muss, bevor es zur Landung ansetzen kann. In
eine Warteschlange geraten wir aber auch, wenn wir versuchen, zur Telefonauskunft
durchzudringen oder mit einem der neuerdings überall aus dem Boden schiessenden
Call–Center verbunden zu werden.
Die Beispiele liessen sich beliebig vermehren; gemeinsam ist ihnen, dass sie den
Alltag lästiger als nötig machen – es sei denn, man macht, wie die Briten, eine
Nationaltugend aus dem Anstellen und Warten. Neben den Wunsch nach einer
Analyse der einer Warteschlange zugrunde liegenden Ursachen und der Beschreibung
ihres Verlaufs tritt daher auch die Frage, mit welchen Mitteln und Methoden diese
lästigen Begleiter unserer zivilisierten Welt im wahrsten Sinne des Wortes "kurz"
gehalten werden können: eine Aufgabe, der sich die Mathematiker seit nunmehr fast
einem Jahrhundert widmen.
Warteschlangen sind "Abfallprodukte" im dynamischen Ablauf von Prozessen, in
denen an bestimmten Stellen Irregularitäten entstehen, dann nämlich, wenn
"Klienten" (beispielsweise Menschen, zu verarbeitende Objekte, Telefonanrufe etc.)
in regelmässigen oder unregelmässigen zeitlichen Abständen an eben diesen Stellen
(den Bedienungseingängen) auftauchen und dort auf Einlass, eine Bedienung oder
Behandlung warten müssen. Die Unregelmässigkeit des Auftauchens (oder die der
Zeit des Bedienens, oder beider) hat zur Folge, dass sich die "Bedienung" u.U. nicht
unmittelbar an die "Ankunft" des Klienten anschliessen kann – dann nämlich, wenn
noch ein früher angekommener Klient bedient wird.
Wesentliches Merkmal eines Prozesses, der zu einer Warteschlange Anlass gibt, ist
mithin, dass zumindest eine Komponente nicht–deterministisch abläuft. Daher findet
sich die Theorie der Warteschlangen als eine Anwendung in jeder höheren
Wahrscheinlichkeitstheorie. Die eingangs angesprochene Häufigkeit von
Warteschlangen im alltäglichen Leben lässt es jedoch gerechtfertigt erscheinen, einen
elementaren Zugang zu den einfachen Eigenschaften von Warteschlangen anzugeben,
aus dem dann auch bereits Strategien zur Vermeidung oder Verkürzung dieser
Phänomene entwickelt werden können. Benötigt werden hierzu – bei Verzicht auf
einige Beweise und an wenigen Stellen auf absolute mathematische Präzision – neben
Grundkenntnissen aus der Analysis nur die einfachsten Aussagen aus der Stochastik,
wie sie in Einführungskursen zur elementaren Wahrscheinlichkeitstheorie teilweise
schon im Schulunterricht vermittelt werden (eine kompakte Darstellung der
Grundlagen der elementaren Wahrscheinlichkeitstheorie findet sich z.B. in [1], eine
gute weiterführende Quelle ist [2]). Die wichtigsten benutzten Aussagen sind ohne
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 2 von 11
Beweise im folgenden Teil A notiert. Für die demonstrierten Implementierungen
sollten einige Kenntnisse im Programmieren vorhanden sein.
A: Elemente der Stochastik (Wdhlg)1.
A 1.1 Ereignisse und Wahrscheinlichkeiten.
Def.: Die Menge aller möglichen Ergebnisse eines Zufallsexperiments ist die
Ergebnismenge .
Def.: Ereignisse sind Teilmengen der Ergebnismenge, Elementarereignisse sind
einelementige Teilmengen der Ergebnismenge (nicht notwendig alle
Teilmengen sind Ereignisse).
Def.: Eine Menge A von Teilmengen von  heisst Algebra, wenn
A, B  F  A  B  F
Vereinigung
A  F  AC  F
Komplement
 F
Leere Menge.
Bemerkung: Der Durchschnitt ist enthalten, da
A, B  F  A  B  F   A  B   F  AC  B C  F  A  B  F
C
Def.: Eine Menge F von Teilmengen von  heisst -Algebra, wenn neben den
Bedingungen für eine Algebra auch folgendes gilt:
A1 , A2 , A3 ,...  F 

Ai  F .
i 1
Def.: Ein Wahrscheinlichkeitsmaß Pr auf  , F  ist eine Funktion Pr : F  [0,1]
mit den Eigenschaften
Pr    1 ,

 
Ai    Pr  Ai 
 i 1  i 1
Sind A1 , A2 , A3 ,...  F paarweise disjunkt, dann ist Pr 

Lemma:
1
Der Inhalt dieses Arbeitsblattes beruht in wesentlichen Teilen auf einem Miniskript von F. Stehn.
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 3 von 11
 
Pr AC  1  Pr  A 
B  A  Pr  B   Pr  A  Pr  B \ A  Pr  A
Pr  A  B   Pr  A  Pr  B   Pr  A  B 
 n  n
 u 
n 1
Pr  Ai    Pr  Ai    Pr  Ai  Aj    Pr  Ai  Aj  Ak   ...  1 Pr  Ai  .
i j
i  j k
 i 1  i 1
 i 1 
A 1.2 Bedingte Wahrscheinlichkeit
Def.: Wenn Pr  B   0 dann ist die bedingte Wahrscheinlichkeit von A unter der
Bedingung B (Hypothese) gegeben durch:
Pr  A B  :
Pr  A  B 
Pr  B 
Lemma:
Für Ereignisse A, B gilt


Pr  A  Pr  A B  Pr  B   Pr A BC Pr  BC 
Folgerung:
Ist {Bi }in1 eine Partition von  , dann gilt für A
n
Pr  A    Pr  A Bi  Pr  Bi 
i 1
A 1.3 Unabhängigkeit
Def.: Die Ereignisse A, B heissen (stochastisch) unabhängig, wenn
Pr  A  B   Pr  A Pr  B 
Die Familie { Ai }in1 ist unabhängig, wenn


Pr  Ai    Pr  Ai 
 iI  iI
I  {1,.., n}
Die Familie { Ai }in1 ist paarweise unabhängig, wenn
Pr  Ai  Aj   Pr  Ai  Pr  Aj 
i  j
A 1.4 Zufallsvariable und Verteilungen
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 4 von 11
Def.: Eine Zufallsvariable auf dem Wahrscheinlichkeitsraum  , F , Pr  ist eine
Abbildung X :   R mit {  : X    x} F für  x  R
Def.: Die Verteilungsfunktion von X ist die Funktion FX : R[0,1] mit
FX  x   Pr  X  x  .
Lemma: Für jede Verteilungsfunktion F gilt
lim F  x   0 ,
x 
lim F  x   1
x
x  y  F  x   F ( y)
Für x gilt lim F  x  h   F  x 
h0
(rechtsseitige Stetigkeit)
Def.: Die Zufallsvariable X heisst diskret, wenn sie nur abzählbar viele Werte
annimmt, sie heisst stetig, wenn für F  x  gilt
 f mit f : R  R+, so dass FX  x  
x
 f  u  du .

Bemerkung
Nicht jede Zufallsvariable ist diskret oder stetig.
Def.: Die Dichtefunktion von X ist
f : R  R+ mit f  x   Pr  X  x  .
Bemerkung:
Für die Verteilungsfunktion einer diskreten Zufallsvariablen gilt
FX  x    f  u  .
u x
Def.: Der Erwartungswert einer diskreten Zufallsvariablen X :   R ist
EX  

xX   
x Pr  X  x  
 X   Pr     k Pr  X    k  ,
  
k X 

Dichtefunktion
wenn die rechte Seite konvergiert
Hauptlemma [Linearität des Erwartungswertes]:
Prof. Dr. Gerhard Berendt
SS 2006
Für alle a  R
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 5 von 11
ist
E a  X   a  E  X  ,
E  X  Y   E  X   E Y  .
A 1.5 Abweichungen vom Erwartungswert, Varianz
Def.: Für eine Zufallsvariable X mit E(X) =  definiert man die Varianz als
Var(X) = E((X-E(X))²) ,
die Größe  = Var  X  heißt die Standardabweichung von X.
Bemerkung:
Es ist E(X-E(X )) = 0.
Eigenschaften der Varianz:
Var(X)= E((X-E(X))²)= E([X²-2X E(X)+E(X)²])
= E(X²)-2 E(X E(X))+E(E(X)²)
= E(X²)-2 E(X)E(X)+E(X)²
= E(X²)-E(X)²
Varianzen sind niemals negativ.
Def.: Die Zufallsvariablen X und Y   R sind unabhängig, wenn {X=k} und
{Y=l} unabhängig sind für alle k X(  ), l  Y(  ) ,
d.h.
Pr(X=k  Y=l) = Pr({X=k}  {Y=l}) = Pr(X=k) Pr(Y=l) .
Lemma:
Sind X,Y unabhängig, dann gilt E(X Y) = E(X) E(Y)
Satz: Sind X,Y unabhängig und  R, dann gilt
Var(X)=  2 Var(X).
Var(X+Y)=Var(X)+Var(Y).
A 1.6 Binomial– und Poisson–Verteilung.
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 6 von 11
Die Binomialverteilung beschreibt die Situation, dass unter n unabhängigen
Versuchen genau k Erfolge auftreten, wobei die Einzelwahrscheinlichkeit für einen
Erfolg p sei. Die Wahrscheinlichkeit für das Auftreten dieser Erfolge ist:
 n
P( X  k )    p k (1  p) nk , k = 0, 1, ...n .
k 
Der Erwartungswert von X ist
E( X ) 
n
 k P( X  k )n p ,
k 0
die Varianz
V ( x)  E ( X 2 )  [ E ( X )]2 n p(1  p) .
Für große Werte von n (und ggf. k ) wird die Berechnung der Binomialverteilung
durch die auftretenden Binomialkoeffizienten sehr unhandlich; daher verwendet man
unterschiedliche Approximationen. Hier soll nur untersucht werden, wie sich die
Binomialverteilung für große n und kleine p verhält:
Für große n und kleine p so, daß  : = n p und k ebenfalls klein gegen n
sind, folgt:
k
k
n k
  
 k 
n  k  n( n  1)...(n  k  1) 
  p (1  p ) 
e .
1    1   
k!
k!
nk
 n  n
k 
n
Diese Verteilung wird als Poisson-Verteilung bezeichnet.
A 1.7 Stetige Zufallsvariable
Def.: X ist eine stetige Zufallsvariable, wenn eine stetige Funktion f : R  R
x
existiert, so dass FX(x)=  f (u )du . f heisst die Dichte der Verteilung.

Bei stetigen Zufallsvariablen gilt
Pr(X=k)=0 für alle k  R, aber Pr(X  R) = 1 =



Wichtige Verallgemeinerung:
Pr(a  X  b) = Pr({  :X(  )  b}\{  :X(  )<a})
= Pr(X  b) – Pr(X  a) = F(b) – F(a)
b
=


a
f (u )du 


b
f (u )du   f (u )du .
a
f (u )du .
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 7 von 11
Def.: Ist X eine stetige Zufallsvariable mit Dichte f , dann ist der Erwartungswert
von X :

E(X)=
x
f ( x )dx .

Lemma:
Sei X Zufallsvariable mit Dichte f und es gilt f  x   0 x  0 , dann ist

E(X) =  1  F  x  dx ,
0
wobei F die Verteilungsfunktion von X ist.
Beispiele stetiger Zufallsvariablen/Verteilungen sind u.a.
–
–
–
Uniform/Gleichverteilung auf [a,b]:
0
f ( x)   1
ba
x  [ a, b]
x  [ a, b]
0

F ( x)   bx  aa
1

xa
x  [ a, b]
xb
Exponentialverteilung mit Parameter  :
f ( x)   e   x
x0
F ( x)  1  e   x
x0
Ein "Exot", weder diskret noch stetig noch eigentlich überhaupt eine
Zufallsvariable ist die "deterministische Zufallsvariable" X = a mit einer
reellen Konstanten
a : Formal kann sie durch die unstetige
Verteilungsfunktion
0
F ( x)  
1
xa
xa
beschrieben werden; ihre Dichtefunktion existiert im Sinne der klassischen
Analysis nicht, kann jedoch durch die sogenannte  – Distribution
f ( x)   ( x  a )
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 8 von 11
dargestellt werden. Diese Distribution ergibt nur als Teil eines Integranden
einen Sinn; es gilt
g (a)   g ( x)  ( x  a) dx ,
I
wenn a im Integrationsintervall I liegt (andernfalls liefert das Integral den
Wert 0). Zuweilen – etwa bei der Beschreibung von Warteschlangen mit
konstanter Bedienungszeit oder in gleichen Abständen erfolgenden Ankünften
– ist es zweckmäßig, diese pathologische "Zufallsvariable" formal zu benutzen,
um die allgemeinen Formeln verwenden zu können.
A 1.8 Summe von Zufallsvariablen
Die Summe Z zweier Zufallsvariablen X und Y ist wieder eine Zufallsvariable. Falls X
und Y unabhängig voneinander sind, kann die Verteilung von Z aus den Verteilungen
von X und Y ermittelt werden.
Sind X und Y voneinander unabhängige diskrete Zufallsvariable mit N0 als Wertebereich, dann ist (vgl. dazu auch die Herleitung im folgenden Abschnitt)
n
Pr( X  Y  n)   Pr( X  i ) Pr(Y  n  i ) .
i 0
Sind X und Y voneinander unabhängige stetige Zufallsvariable mit R+ als Wertebereich, dann ist die Dichtefunktion fZ von Z = X + Y als

f Z ( x)   f X (t ) fY ( z  t ) dt
0
darstellbar.
A 1.9 Erzeugende Funktionen
Die Werte für die Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen mit
dem Wertebereich N0 oder einer Teilmenge davon lassen sich häufig in geschlossener
Form angeben. Dem liegt die folgende (bereits von EULER benutzte) Argumentation
zugrunde:
Gelte für eine diskrete Zufallsvariable X , dass Pr(X = n) = pn für n  N0 . Dann
konvergiert die Potenzreihe in der reellen Veränderlichen z mit

G ( z ) :   pn z n
n 0
absolut und gleichmässig für alle | z | < 1 und für z = 1, da die pn alle nicht negativ
sind, und ihre Summe gleich 1 ist. G(z) heisst dann die erzeugende Funktion von X.
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 9 von 11
Die Reihe ist für | z | < 1 gliedweise beliebig oft differenzierbar (allerdings ist a
priori nicht gesichert, dass die differenzierten Reihen auch bei z = 1 konvergieren).
Da die Ableitungen von G an der Stelle z=0 bis auf einen Faktor identisch mit den
pn sind, wird die Verteilung durch die erzeugende Funktion eineindeutig bestimmt.
Erwartungswert und Varianz von X lassen sich – wenn sie existieren - sofort aus der
erzeugenden Funktion ermitteln: Es ist nämlich


n 0
n 0
G ' (1)   n pn  E ( X ) , G ' ' (1)   n(n  1) pn  E ( X 2 )  E ( X ) ,
und damit
E(X) = G' (1) ,
V(X) = G'(1) + G''(1) – (G'(1) )2 .
Beispiele:
a)
b)
Für die BERNOULLI -Verteilung ist p0 = p, p1 = q = 1 – p, pn = 0 für n > 1.
Daraus ergibt sich die erzeugende Funktion G(z) = p + (1 – p) z und damit
E(XBernoulli) = 1 – p , V(XBernoulli) = 1 - p.
N
Für die Binomialverteilung mit Parameter N ist pn    p n (1  p) N n . Für
n
die erzeugende Funktion folgt G ( z )  ( p z  1  p) N und damit
E(XBinomial) = N p , V(XBinomial) = N p (1- p).
c)
Die POISSON –Verteilung zum Parameter  hat die Wahrscheinlichkeiten
pn 
n
n!
e   . Die erzeugende Funktion ist daher G(z) = e –  (1 – z), mithin
E ( X Poisson )   , V ( Poisson )   .
Auch für die Beantwortung von Fragestellungen, die bei der Kombination von
Zufallsvariablen auftauchen (s.o), eignet sich das Konzept der erzeugenden
Funktionen. Angenommen, X und Y seien zwei stochastisch unabhängige diskrete
Zufallsvariable mit den erzeugenden Funktionen GX und GY . Sei G die Funktion,
die durch die Multiplikation der Reihen für GX und GY entsteht. Dann gilt der
folgende
Satz:
Die Funktion G(z) : = GX (z) GY (z) ist erzeugende Funktion der
Zufallsvariablen X + Y .
Beweis:
Sei


n 0
n 0
G X ( z )   an z n , GY ( z )   bn z n und

G ( z )   cn z n ,
n 0
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 10 von 11
n
dann ist also im Konvergenzbereich der Reihen cn   ai bni nach dem
i 0
Multiplikationssatz für unendliche Reihen. Mithin ist
n
cn   Pr( X  i) Pr(Y  n  i) .
i 0
Andererseits ist

Pr( X  Y  n)   Pr( X  i ) Pr( X  Y  n | X  i )
i 0

  Pr( X  i ) Pr(Y  n  i | X  i )
i 0
n
  Pr( X  i ) Pr(Y  n  i )
i 0
 cn
da X und Y unabhängig sind und X + Y = n unter der Bedingung X = i
genau dann gilt, wenn Y = n – i ist und Y keine negativen Werte annehmen
kann.
A 1.10 Laplace–Transformation
In gewisser Weise ist die Laplace-Transformation im Falle stetiger Zufallsvariablen
das Gegenstück zur erzeugenden Funktion bei diskreten Zufallsvariablen. Die
~
Laplace–Transformierte f ( s ) zu einer stetigen Funktion f(x) ist als

~
f ( s) :  f ( x) e  s x dx
s0
0
definiert; sie existiert in jedem Fall, wenn f(x) die Dichtefunktion einer stetigen
Zufallsvariablen ist.
Erwartungswert und Varianz der Zufallsvariablen X mit der Dichtefunktion
ergeben sich unmittelbar aus der Definition:
2
2 ~
~
~
E ( X )   dsd f ( s) s  0 ,
V ( X )  d 2 f ( s) s  0  dsd f ( s) s  0 ,
ds
~
weiterhin ist natürlich f (0)  1 .


f
Prof. Dr. Gerhard Berendt
SS 2006
Modellierung und Simulation von Warteschlangen
Arbeitsblatt 1 / S. 11 von 11
Analog zu den Betrachtungen in A 1.9 folgt für die Summe von zwei voneinander
unabhängigen stetigen Zufallsvariablen mit dem gleichen Wertebereich der
Satz:
Seien X und Y stochastisch unabhängige stetige Zufallsvariable mit gleichem
Wertebereich und den Dichtefunktionen f(x) und g(x) . Dann gilt für die
Dichtefunktion h(x) der Zufallsvariablen Z = X + Y die Relation (vgl. auch A
1.8)
~
~
h ( s)  f ( s )  g~ ( s ) .
A 1.11 Zufallsvariable und Zufallsprozesse
Bestimmte Aspekte eines Zufallsexperiments können, wie gesehen, kompakt durch
die Einführung von Zufallsvariablen beschrieben werden. Sollen verschiedene
solcher miteinander verknüpfter Experimente zusammenfassend beschrieben werden,
dann hat man es also mit einer Familie von Zufallsvariablen zu tun, die je nach
vorliegender Ergebnismenge und nach ihrer durch einen Index festgelegten Position
klassifiziert werden. Ergebnismenge und Position können diskret oder kontinuierlich
sein; die einzelnen Zufallsvariablen sind im einfachsten Fall gleichverteilt (aber in
der Regel nicht unabhängig voneinander).
Beispielsweise kann ein Nutzer eines gemeinsamen Druckers in einer Gruppe
Experimente machen, die als Zufallsvariable die Zeit enthalten, die er benötigt, um
einen Druckauftrag auszuführen; der Administrator des Druckers kann als
Zufallsprozess die Familie der entsprechenden Zufallsvariablen aus der
Nutzergruppe, die den Drucker beschäftigen, im Hinblick auf Ausnutzung,
vertretbare Wartezeiten u.ä. betrachten. Warteschlangen sind typische Phänomene,
die auf Zufallsprozessen beruhen.
Literatur zu A:
[1]
G. Berendt, "Mathematik für Informatiker", BI–Wissenschaftsverlag 1994
[2]
G.R. Grimmett, D.R. Stirzaker, "Probability and Random Processes", Oxford Science Publications 1982
Herunterladen