OR Methoden in Produktion & Logistik II Warteschlangentheorie

Werbung
OR Methoden in Produktion & Logistik II
Warteschlangentheorie und Zuverlässigkeit
Version 2.1
25. Februar 2005
Warteschlangentheorie
⇒ Warteschlangen treten auf, wenn die momentane Nachfrage nach einem Service oder einer
Bedienung die momentane Kapazität dieser Serviceeinrichtung übersteigt.
⇒ Da Nachfrage und Servicedauer meist nicht vorhersagbar sind, ist eine Entscheidung über
den vorzusehende Kapazitätsumfang schwierig:
zu viele Bedienungsstationen
zu wenig Bedienungsstationen
⇒ hohe Kosten, kurze Warteschlange
⇒ lange Warteschlange, hohe Kosten
Lange Warteschlangen verursachen auch hohe Kosten, z.B. soziale Kosten, verlorengegangene Kunden, etc.
⇒ Ein ökonomisches Gleichgewicht zwischen den Servicekosten und den Kosten, die mit dem
Warten auf die Bedienung entstehen ist zu suchen.
⇒ Die Warteschlangentheorie löst dieses Problem nicht direkt. Aber sie liefert wichtige Informationen über die Eigenschaften von Warteschlangensystemen, z.B. die mittlere Wartezeit.
Beispiele für reale Warteschlangensysteme:
kommerzielle Servicesysteme: Friseurgeschäft, Kassenschalter einer Bank, Essensausgabe und
Kassa in der Mensa, Tankstelle, Kassa im Supermarkt, · · ·
Transportsysteme: Aufzug, Startbahn am Flughafen, Mautstelle, Parkplatz, · · ·
interne Servicestelle: Schreibbüro, Qualitätskontrolle, Instandhaltung von Maschinen, · · ·
soziale Systeme: Arztpraxis, Spital, Gericht, · · ·
···
Bsp: Notaufnahme im Spital:
Situation:
• rund um die Uhr hat ein Arzt Dienst in der Notaufnahme
• Anzahl der eingelieferten Notfälle nimmt jedes Jahr kontinuierlich zu
⇒ Patienten, die zu Spitzenzeiten ankommen, müssen oft warten
Vorschlag: während der Spitzenzeiten soll ein zweiter Arzt der Notaufnahme zugewiesen
werden.
⇒ mittels Warteschlangentheorie kann die Warteeigenschaft des Systems mit einem bzw. zwei
Ärzten untersucht werden.
1
Grundstruktur der Warteschlangenmodelle
• Eine Inputquelle generiert Kunden, die eine Bedienung wünschen
• Die Kunden betreten das Warteschlangensystem und reihen sich in die Warteschlange.
• Nach einer Auswahlordnung wird ein Kunde aus der Warteschlange für die Bedienung
ausgewählt.
• Der Servicemechanismus führt die Bedienung durch, nach der der Kunde das Warteschlangensystem verlässt.
Inputquelle:
Größe · · · Anzahl der potentiellen Kunden, die ein Service benötigen könnten.
unendliche Größe: mathematisch einfacher, kann auch für endliche, aber hinreichend große
Inputquellen angenommen werden.
endliche Größe: muss angenommen werden, wenn die Rate, mit der neue Kunden generiert
werden, signifikant von der Anzahl der Kunden im Warteschlangensystem abhängt.
Generierung der Kunden: statistischer Prozess, nach dem Kunden in das Warteschlangensystem eintreten.
häufige Annahme: Anzahl der Kunden, die bis zu einem bestimmten Zeitpunkt generiert wurden, gehorcht einer Poisson-Verteilung.(Die Zeitdauer zwischen aufeinanderfolgenden Ankünften
gehorcht einer Exponentialverteilung.)
Sonderfälle: z.B., Kunden, die in das Warteschlangensystem nicht eintreten, falls Schlange
zu lang ist.
Warteschlange:
Meist wird angenommen, dass ein unendlich großer Warteraum vorliegt, d.h. dass die Warteschlange
beliebig groß werden kann (mathematisch einfacher). Bei Warteschlangensystemen, bei denen der
Warteraum so klein ist, das dessen Kapazität mit einiger Häufigkeit nicht ausreicht, muss dieser
begrenzte Warteraum berücksichtigt werden.
Auswahlordnung:
• first-come-first-served
• zufällig
• Prioritätsregel
Servicemechanismus: Der Servicemechanismus besteht aus einer oder mehreren (seriellen)
Serviceeinrichtungen. Jede Serviceeinrichtung besteht aus einer oder mehreren (parallelen) Bedienerstellen.
(meist: eine Serviceeinrichtung mit endlich vielen Bedienerstellen)
2
Kendall-Notation:
X/Y /s
X · · · Verteilung der Zeiten zwischen zwei Ankünften
Y · · · Verteilung der Servicezeiten
s · · · Anzahl der Bedienerstellen
wobei X, Y ∈ {M, D, Ek , G}
M
D
Ek
Hk
G (oder GI)
···
···
···
···
···
Exponentialverteilung (Markov-Eigenschaft)
Deterministische Verteilung, i.e. konstante Zeitdauer
k− stufige Erlangverteilung
k− stufige Hyperexponentialverteilung
beliebige Verteilung (Generalized (independent) distribution )
Bsp:
M/M/s : ⇒ Zwischenankunftszeiten exponentialverteilt
Servicezeiten exponentialverteilt
s Bedienerstellen
erweitere Notation: X/Y /s/K− Modell ≡ X/Y /s− Modell, wobei nicht mehr als K Kunden im
System sein dürfen.
Terminologie und Notation:
Systemzustand: Anzahl der Kunden im Warteschlangensystem
Länge der Warteschlange: Anzahl der Kunden, die auf die Bedienung warten
=Systemzustand minus Anzahl der gerade bedienten Kunden
N(T ) = Anzahl der Kunden, die zum Zeitpunkt t ≥ 0 im Warteschlangensystem sind
Pn (t) =Wahrscheinlichkeit, dass genau n Kunden zum Zeitpunkt t im Warteschlangensystem sind
(bei vorgegebener Anzahl zum Zeitpunkt 0.)
s = Anzahl der Bedienerstellen (parallele Servicekanäle)
λn =mittlere Ankunftsrate (erwartete Anzahl der Ankünfte pro Zeiteinheit) der neuen Kunden,
wenn n Kunden im System sind.
µn =mittlere Abfertigungsrate für das Gesamtsystem (erwartete Anzahl der Kunden pro Zeiteinheit, bei denen die Bedienung beendet wird), wenn n Kunden im System, sind.
λ: ist die mittlere Ankunftsrate λn für alle n konstant, dann wird sie mit λ bezeichnet.
µ: ist die mittlere Abfertigungsrate pro beschäftigter Bedienerstation für alle n konstant,
bezeichnet man diese mit µ. In diesem Fall gilt:
µn =
sµ
nµ
3
falls
falls
n≥s
n<s
Stationärer Zustand:
Pn = Wahrscheinlichkeit, dass sich genau n Kunden im System befinden
L =erwartete Anzahl der Kunden im Warteschlangensystem
Lq = erwartete Warteschlangenlänge
W = Verweilzeit eines einzelnen Kunden im System (inkl. der Servicezeit)
W = E(W), durchschnittliche Verweilzeit
Wq = Wartezeit eines einzelnen Kunden in der Warteschlange (ohne Servicezeit)
Wq = E(Wq ), durchschnittliche Wartezeit
Little’sche Formel
Ist λn = λ für alle n, und befindet sich das System in einem stationären Zustand, so gilt:
L = λW,
Lq = λWq
W = Wq + 1/µ,
L = Lq + λ/µ
1
· · · mittlere Servicezeit
µ
Bemerkung: Diese Formeln gelten unter sehr allgemeinen Voraussetzungen. Sind die λn nicht
gleich, kann λ in obigen Gleichungen durch die ”durchschnittliche” Ankunftsrate ersetzt werden.
Die Rolle der Exponentialverteilung
T · · · Zwischenankunftszeit (Zufallsvariable) sei exponentialverteilt mit Parameter λ.
Dichtefunktion f (t) =
λ exp[−λt]
0
für
für
t≥0
t<0
Verteilungsfunktion F (t) = P{T ≤ t} = 1 − e−λt für t ≥ 0.
Überlebensfunktion P{T > t} = e−λt für t ≥ 0.
1
Erwartungswert E(T ) =
λ
1
Varianz Var(T ) = 2
λ
Eigenschaft 1:
)
] und
Die Dichte fällt monoton; je ca. 40% Wahrscheinlichkeit sind in den Intervallen [0, E(T
2
E
(T ) 3E(T )
[ 2 , 2 ] konzentriert, es ist also sehr wahrscheinlich, dass T einen kleinen Wert nahe 0 annimmt, während sehr große Werte extrem unwahrscheinlich sind.
Es gilt:
1
1
3
= 0.393,
P
= 0.383.
P 0≤T ≤
≤T ≤
2λ
2λ
2λ
Eigenschaft 2: ”Gedächtnislosigkeit”
4
Die Wartezeit bis zum nächsten Ereignis ist unabhängig davon, wann das letzte Ereignis
stattgefunden hat:
P (T > t + ∆|T > ∆) =
=
P (T > t + ∆ und T > ∆)
P (T > t + ∆)
=
=
P (T > ∆)
P (T > ∆)
exp[−λ(t + ∆)]
= exp[−λt] = P (T > t)
exp[−λ∆]
Bemerkung:
• Man kann zeigen, dass die Exponentialverteilung die einzige Verteilung ist, die (in diesem
Sinn) gedächtnislos ist.
• Bei Zwischenankunftszeiten ist diese ”Gedächtnislosigkeit” eine realistische Annahme, bei
Servicezeiten jedoch schwer interpretierbar.
Eigenschaft 3:
Das Minimum von mehreren unabhängigen exponentialverteilten Zufallsvariablen ist ebenfalls
exponentialverteilt.
Gegeben: n exponentialverteilte Zufallsvariable Ti , i = 1, · · · n, mit Parameter λi , i = 1, . . . n.
Gesucht: Verteilung von min{T1 , · · · , Tn }.
P {min{T1 , · · · , Tn } > t} = P {T1 > t, · · · , Tn > t} = P {T1 > t} · · · P {Tn > t} =
= exp[−λ1 t] · · · exp[−λn t] = exp[−(λ1 + · · · + λn )t]
min{T1 , · · · , Tn } ist also exponentialverteilt mit Parameter λ1 + · · · + λn .
Bsp:
• Mehrere Typen von Kunden. Zwischenankunftszeit der Kunden vom Typ i ist exponentialverteilt mit Parameter λi . Dann ist die Zeit, bis der erste Kunde kommt (egal welcher
Typ) exponentialverteilt mit Parameter λ1 + · · · + λn .
• s Kunden werden gerade bedient, wobei die restliche Servicezeit jedes Kunden exponentialverteilt mit Parameter λ sei. Dann ist die Zeit, bis der erste Kunde fertig ist (d.h. die
Zeit, bis ein Bedienungskanal frei wird) exponentialverteilt mit Parameter sλ.
Eigenschaft 4: ”Zusammenhang zur Poisson-Verteilung”
Sei Ti die Zwischenankunftszeit zwischen dem i − 1-ten und dem i−ten Kunden
Sei die Zufallsvariable A die Anzahl der Ankünfte im Intervall [0, t].
Dann gilt: Die Zwischenankunftszeiten Ti seien unabhängig und exponentialverteilt mit Parameter λ ⇒ die Anzahl der Ankünfte in einem Zeitintervall der Länge t sind poissonverteilt mit
Parameter λt.
Poisson-verteilung:
P{A = n} =
(λt)n e−λt
,
n!
Erwartungswert:
n = 0, 1, 2, · · ·
E(A) = λt
Lemma: Seien X und Y zwei stetige Zufallsvariable mit den Dichten f bzw. g. Dann ist die
Dichte h der Summe X + Y gegeben durch
h(z) =
∞
−∞
f (x)g(z − x)dx ”Konvolution von f mit g”
5
Dichte von T1 :
f (1) (z) = λe−λz
Dichte von T1 + T2 :
f
(2)
(z) =
z
=
0
∞
−∞
für z ≥ 0
f (x)f (z − x)dx =
z
0
λe−λx λe−λ(z−x) dx =
x=z
λ2 exp[−λz]dx = λ2 x exp[−λz]
x=0
= λ2 z exp[−λz]
allgemein: Dichte von T1 + · · · + Tn :
f (n) (z) = λn
z n−1
exp[−λz]
(n − 1)!
Erlang-Verteilung
(Beweis zB durch vollständige Induktion möglich)
============================================================
• Zeige Formel für n = 1 :
f (1) (z) = λ1
z0
exp[−λz] = λ exp[−λz]
0!
• Nehme an, dass die Formel für n gilt.
• Zeige: unter dieser Annahme gilt sie auch für n + 1 :
f (n+1) (z) =
z
=
0
∞
−∞
λn+1
f (n) (x)f (1) (z − x)dx =
z
0
λn
xn−1
exp[−λx]λ exp[−λ(z − x)]dx =
(n − 1)!
x=z
xn−1
xn
zn
exp[−λz]dx = λn+1 exp[−λz]
= λn+1 exp[−λz]
(n − 1)!
n!
n!
x=0
================================================================
Verteilungsfunktion von T1 + · · · + Tn :
P(T1 + · · · + Tn ≤ z) = F
(n)
−λz
(z) = 1 − e
n−1
i=0
(λz)i
i!
Erwartungswert und Varianz von T1 + · · · + Tn :
E(T1 + · · · + Tn ) =
n
,
λ
V ar(T1 + · · · + Tn ) =
n
λ2
Dann gilt:
P {A ≥ n} = P { ni=1 Ti ≤ t}
z n−1
⇒ P {A ≥ n} = 0t λn (n−1)!
exp[−λz]dz
Die erste Gleichung bedeutet: wenn die Summe der ersten n Zwischenankunftszeiten kleiner oder
gleich t ist, so haben mindestens n Ankünfte im Zeitintervall [0, t] stattgefunden (und umgekehrt.)
P {A ≥ n} = P {A = n} + P {A ≥ n + 1}
⇒ P {A = n} = P {A ≥ n} − P {A ≥ n + 1}
6
Zur Erinnerung: partielles Integrieren
b
a
P {A = n} =
f (x)g(x)dx =
t
0
λn
f (x)g(x)|ba
−
z n−1
exp[−λz] dz −
(n − 1)! f
g
b
a
t
0
f (x)g (x)dx
λ(n+1)
zn
exp[−λz]dz =
n!
t
t
n
n
t
zn
(n+1) z
(n+1) z
λ
λ
λ
exp[−λz] +
exp[−λz]dz −
exp[−λz]dz
n!
n!
n!
0
0
0
n
nt
exp[−λt]
⇒ P {A = n} = λ
n!
n
Es gilt auch die Umkehrung: Sind die Anzahl der Ankünfte in disjunkten Zeitintervallen
voneinander unabhängig und poissonverteilt mit Parameter λt so sind die Zwischenankunftszeiten
exponentialverteilt mit Parameter λ.
P{T > t} = P{A = 0} =
(λt)0 −λt
e
= e−λt
0!
Folgerung aus Eigenschaft 4: λt ist die mittlere Anzahl von Ereignissen im Intervall [0, t]. λ ist
also die mittlere Rate des Auftretens der Ereignisse.
Eigenschaft 5: ”konstante Ausfallsrate”
Betrachten die bedingte Wahrscheinlichkeit, dass ein Ereignis im Intervall [t, t + ∆] auftritt,
gegeben dass es davor nicht aufgetreten ist, i.e.
P (T ≤ t + ∆|T > t] =
F (t + ∆) − F (t)
1 − F (t)
Die Hazard-rate (failure rate, Ausfallsrate) ist definiert als
f (t)
P (T ≤ t + ∆|T > t]
F (t + ∆) − F (t)
= lim
=
∆→0
∆→0
∆
∆(1 − F (t))
1 − F (t)
lim
Für die Exponentialverteilung:
λe−λt
f (t)
= −λt = λ
1 − F (t)
e
⇒ Die bedingte Wahrscheinlichkeit, dass das Ereignis in [t, t + ∆] auftritt, gegeben es ist nicht
vor t aufgetreten ist etwa λ∆.
Der Geburts- und Sterbeprozess
Die wichtigsten Warteschlangenmodelle gehen davon aus, dass ankommende bzw. sich entfernende
Kunden des Warteschlangensystems entsprechend einem Geburts- und Sterbeprozess auftreten.
”Geburt” · · · Ankunft eines neuen Kunden
”Sterben” · · · Ausscheiden eines bedienten Kunden
Annahme 1: bei gegebenem N(t)=n ist die (Rest-Dauer bis zur nächsten ”Geburt” exponentialverteilt mit Rate λn , d.h. die Wahrscheinlichkeit einer Geburt im Intervall [t, t + ∆] ist
λn ∆ + o(∆).
7
Annahme 2: bei gegebenem N(t)=n ist die (Rest-Dauer bis zum nächsten ”Todesfall” exponentialverteilt mit Rate µn , d.h. die Wahrscheinlichkeit eines Todesfalls im Intervall [t, t + ∆]
ist µn ∆ + o(∆).
Annahme 3: Die Wahrscheinlichkeit, dass mehr als ein Ereignis im Intervall
[t, t + ∆] auftritt ist o(∆).
o(∆) bezeichnet eine Größe, für die
o(∆)
= 0 gilt.
∆→0 ∆
lim
Pn (t) · · · Wahrscheinlichkeit, dass zur Zeit t das System im Zustand n ist, d.h. dass n Kunden
im System sind.
Pn (t + ∆) = Pn (t) + (λn−1 ∆ + o(∆))Pn−1 (t) + (µn+1∆ + o(∆))Pn+1 (t)−
− Pn (t)(λn ∆ + µn ∆ + o(∆)) + o(∆)
P0 (t + ∆) = P0 (t) + (µ1 ∆ + o(∆))P1 (t) − (λ0 ∆ + o(∆))P0 (t) + o(∆)
Pn (t + ∆) − Pn (t)
o(∆)
= λn−1 Pn−1 (t) + µn+1 Pn+1 (t) − (λn + µn )Pn (t) +
∆
∆
P0 (t + ∆) − P0 (t)
o(∆)
= µ1 P1 (t) − λ0 P0 (t) +
∆
∆
Für ∆ → 0 erhält man dann folgendes Differentialgleichungssystem:
dPn (t)
= λn−1 Pn−1 (t) + µn+1 Pn+1 (t) − (λn + µn )Pn (t)
dt
dP0 (t)
= µ1 P1 (t) − λ0 P0 (t)
dt
Beschränken uns auf die Analyse der Gleichgewichtswahrscheinlichkeiten Pn :
λ0
dP0 (t)
= 0 ⇒ P1 = P0
dt
µ1
(λn + µn )Pn − λn−1 Pn−1
dPn (t)
= 0 ⇒ Pn+1 =
dt
µn+1
⇒ Pn+1 =
n = 1 ⇒ P2 =
λn
µn Pn − λn−1 Pn−1
Pn +
µn+1
µn+1
λ1
µ 1 P1 − λ0 P0
λ1
λ1 λ0
P1 +
= P1 =
P0
µ2
µ2
µ2
µ2 µ1
n = 2 ⇒ P3 =
=0
λ2
µ 2 P2 − λ1 P1
λ2
λ2 λ1 λ0
P2 +
= P2 =
P0
µ3
µ3
µ3
µ3 µ2 µ1
=0
8
Pn =
λn−1 λn−2 · · · λ0
P0 = Cn P0
µn µn−1 · · · µ1
Cn
Weiters gilt: (Beachte C0 = 1)
∞
i=0
Pi = P0
∞
i=0
Ci = 1 ⇒ P0 =
1
1+
∞
i=1
Ci
Daraus lässt sich berechnen:
• mittlere Anzahl von Kunden im System
L=
∞
nPn
n=0
• mittlere Warteschlangenlänge
Lq =
∞
n=s
(n − s)Pn
• mittlere Ankunftsrate
mittlere Ankunftsrate: λ̄ =
∞
λn Pn
n=0
• mittlere Verweilzeit W sowie mittlere Wartezeit Wq
W =
L
λ̄
Wq =
Lq
λ̄
Bemerkung: Diese Ergebnisse für den stationären Zustand wurden unter der Annahme
hergeleitet, dass der Prozess überhaupt einen stationären Zustand erreicht und die Warteschlange
nicht unendlich lang wird.
Formal bedeutet dies: Cn < ∞. Dies trifft zu wenn z.B.:
• λn = 0 ∀n ≥ N, i.e. nur eine endliche Anzahl von Zuständen 0, 1, · · · N auftreten kann.
• wenn λ und µ als Durchschnittsgrößen definiert sind und wenn ρ :=
λ
sµ
< 1 gilt.
Das M/M/1− Modell
Annahmen:
1. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der
Ankunftsprozess ist ein Poissonprozess mit Rate λ.)
2. Alle Servicezeiten sind voneinander unabhängig und besitzen die gleiche Exponentialverteilung
mit Parameter µ.
3. Die Anzahl der Bedienerstellen beträgt s = 1.
9
Ist die mittlere Servicerate µ größer als die mittlere Ankunftsrate λ, also
ρ=
λ
<1
µ
wird das Warteschlangensystem einen stationären Zustand erreichen.
Für die Faktoren Cn im Geburts- und Sterbeprozess gilt:
n
Cn =
λ
µ
= ρn
und daher: Pn = ρn P0 für n = 1, 2, · · · sowie
P0 =
1
1+
∞
n=1
ρn
1
= ∞
n=0
ρn
=
1
1
1−ρ
= 1−ρ
Daher gilt: Pn = (1 − ρ)ρn ,für n = 0, 1, 2, · · ·
Für die mittlere Anzahl der Kunden im System gilt:
L=
∞
nPn =
n=0
d
(1 − ρ)ρ
dρ
∞
n(1 − ρ)ρn = (1 − ρ)ρ
n=0
∞
n
ρ
n=1
∞
n=1
d
= (1 − ρ)ρ
dρ
ρ
1−ρ
nρn−1 =
d n
= dρ
ρ
= (1 − ρ)ρ
1
(1 − ρ)2
Also gilt:
L=
ρ
λ
=
1−ρ
µ−λ
Weiters ergibt sich:
Lq =
∞
(n − 1)Pn =
n=1
W =
nPn −
n=1
Lq =
Formel von Little ⇒
∞
∞
n=1
Pn = L − (1 − P0 )
=ρ
ρ2
λ2
ρ
−ρ=
=
1−ρ
1−ρ
µ(µ − λ)
Lq
L
1
λ
=
und Wq =
=
λ
µ−λ
λ
µ(µ − λ)
Bemerkung: Es muss für die Berechnung von P0 tatsächlich λ < µ verlangt werden, da die
geometrische Reihe sonst nicht konvergiert. Selbst wenn Ankunftsrate λ und Servicerate µ gleich
sind, wächst die Warteschlange im Mittel immer stärker an und strebt gegen unendlich.
Verteilung der Verweilzeit und der Wartezeit
Das M/M/1−Model ist so einfach, dass man nicht nur die Erwartungswerte von Verweil- und
Wartezeit ausrechnen kann, sondern auch deren Verteilungen, sofern man die Auswahlordnung
”first-come-first-served” voraussetzt.
W = Verweilzeit eines ankommenden Kunden im System (inkl. der Servicezeit)
Findet der ankommende Kunde schon n Kunden im System vor, muss er (n + 1) exponentialverteilte Servicezeiten (einschließlich seiner eigenen) abwarten, bis er das System wieder
verlässt.
(Für den Kunden, der gerade bedient wird, ist gemäss Eigenschaft 2 die Restservicezeit exponentialverteilt mit demselben Parameter µ.)
10
Seien T1 , T2 , · · · Tn+1 unabhängige Zufallsvariable, die die n + 1 Servicezeiten repräsentieren
und alle eine Exponentialverteilung mit demselben Parameter µ besitzen.
Bilden Sn+1 = T1 + T2 + · · · + Tn+1 , für alle n = 0, 1, 2, · · ·. Sn+1 ist die bedingte Verweilzeit
eines neu ankommenden Kunden, wenn n Kunden bereits im System sind.
Dichte von Sn+1 :
f
(n+1)
(z) = µ
n+1 z
n
exp[−µz]
n!
Erlang-Verteilung
Verteilungsfunktion von Sn+1 :
−µz
P(Sn+1 ≤ z) = 1 − e
∞
P{W > t} =
n
(µz)i
i!
i=0
Pn P{W > t|n Kunden im System} =
n=0
∞
Pn P{Sn+1 ≥ t}
n=0
P{W > t} =
∞
n=0
n
(1 − ρ)ρ
=Pn
−µt
e
n
(µt)i
= e−µ(1−ρ)t
i=0 i!
=P{Sn+1 ≥t}
============================================================
∞
n
(1 − ρ)ρ
n=0
∞
n
ρ
n=0
n
−µt
e
n
∞
n
(µt)i
(µt)i
−µt
n
= e (1 − ρ)
ρ
n=0
i=0 i!
i=0 i!
∞
∞
∞
(µt)i
ρn (µt)n ρn (µt)n−1 ρn (µt)n−2
=
+
+
+···
n=0 n!
n=2 (n − 2)!
i=0 i!
n=1 (n − 1)!
i=n
i=n−1
i=n−2
∞
∞
∞
ρn (µt)n ρn+1 (µt)n ρn+2 (µt)n
+
+
+···
=
n!
n!
n!
n=0
n=0
n=0
=
∞
∞
∞
(ρµt)n
(ρµt)n
(ρµt)n
eρµt
+ ρ2
+ · · · = eρµt
+ρ
ρi =
n!
n!
n!
1−ρ
n=0
n=0
n=0
i=0
∞
=exp[ρµt]
============================================================
W ist also exponentialverteilt mit Parameter µ(1 − ρ) = µ − λ. Für den Erwartungswert erhält
man:
1
W = E(W) =
µ−λ
Ähnliche Überlegungen können für die Wartezeit Wq (i.e. ohne Servicezeit) eines zufällig
ankommenden Kunden angestellt werden.
Findet dieser ankommende Kunde keinen Kunden im System vor, wird er sofort bedient. Es
gilt also
11
P{Wq = 0} = P0 = 1 − ρ
Findet er hingegen n > 0 Kunden vor, muss er n exponentialverteilte Servicezeiten abwarten,
bis sein eigener Service beginnt. Es gilt:
P{Wq > t} =
∞
Pn P{Sn > t} =
n=1
=
∞
∞
(1 − ρ)ρn P{Sn > t}
n=1
(1 − ρ)ρn+1 P{Sn+1 > t} = ρ
n=0
∞
Pn P{Sn+1 > t} = ρe−µ(1−ρ)t
n=0
Für den Erwartungswert erhält man
Wq = E(Wq ) =
λ
µ(µ − λ)
Das M/M/s− Modell
Annahmen:
1. Die Anzahl der Bedienerstellen beträgt s > 1.
2. Alle Servicezeiten sind voneinander unabhängig. Jede Servicezeit jeder einzelnen Bedienerstelle ist exponentialverteilt mit Parameter µ.
3. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der
Ankunftsprozess ist ein Poissonprozess mit Rate λ.)
Man muss nun folgende Fälle unterscheiden:
1. Es sind alle s Bedienerstellen besetzt: Die Zeitdauer, bis der erste Kunde fertig ist, ist
exponentialverteilt mit Parameter sµ (siehe Eigenschaft 3 der Exponentialverteilung). Die
Abfertigungsrate in einem Zustand n ≥ s beträgt daher µn = sµ.
2. Es ist n < s und daher sind nur n Bedienerstellen besetzt. Die Abfertigungsrate ist daher
µn = nµ.
Für die Faktoren Cn im Geburts- und Sterbeprozess gilt daher:
Cn =
sowie
Cn =
λs
s!µs
λ
sµ
λn
n!µn
n−s
für n = 1, 2, · · · , s
1
=
s!sn−s
n
λ
µ
für n = s + 1, s + 2, · · ·
Ist der maximale Ausnutzungsgrad ρ = λ/(sµ) echt kleiner als 1, so erreicht das System einen
stationären Zustand.
Entsprechend dem allgemeinen Geburts- und Sterbeprozess erhält man dann:
Pn =
λn
P0 für n = 1, 2, · · · , s
n!µn
12
und
1
Pn =
s!sn−s
n
λ
µ
P0 für n = s + 1, s + 2, · · ·
wobei P0 durch

1
P0 = ∞
n=0
=
Cn
−1
 s−1 ∞ n−s 


λn
λs λ




+
n
s


n!µ
s!µ
sµ
n=s
n=0

=1/(1−ρ)
Für die erwartete Länge der Warteschlange erhält man:
Lq =
∞
∞
(n − s) Pn =
n=s jPs+j =
j=0
=:j
∞
j
j=0
λs j
ρ P0
s!µs


∞
∞
λs λs d = P0 s ρ
jρj−1 = P0 s ρ  ρj 
s!µ j=1 s!µ dρ j=1
d(ρj )
dρ
=ρ/(1−ρ)
⇒ Lq = P0
λs
ρ
s
s!µ (1 − ρ)2
Aufgrund der Formeln von Little ergibt sich:
Lq
Wq =
,
λ
1
W = Wq + ,
µ
1
λ
L = λ Wq +
= Lq +
λ
µ
Ähnlich wie im M/M/1− Modell kann man die Verteilung der Verweilzeit und der Wartezeit
herleiten. (siehe Hillier und Liebermann.)
Das M/M/s−Modell mit endlicher Warteschlange
Es wird angenommen, dass die Anzahl der Kunden im Gesamtsystem eine vorgegebene Schranke
K nicht übersteigen darf.
Für die mittlere Inputrate gilt dann:
λn =
λ
0
für
für
n = 0, 1, 2, . . . K − 1
n≥K
In diesem Fall wird das Warteschlangensystem immer einen stationären Zustand erreichen.
Für der Ein-Bediener-Fall (s = 1) erhält man:
Cn =
und demnach
(λ/µ)n = ρn
0
1
P0 = K
n=0
für
für
ρn
13
=
n = 0, 1, 2, . . . K
n>K
1−ρ
1 − ρK+1
und daher
1−ρ n
ρ ,
1 − ρK+1
Für die erwartete Anzahl von Kunden gilt:
für n = 0, 1, 2, · · · K.
Pn =
K
K
K
d(ρn )
1−ρ
1−ρ
n−1
L=
=
nPn =
ρ
nρ
=
ρ
1 − ρK+1 n=1
1 − ρK+1 n=1 dρ
n=0
K
1−ρ
d 1−ρ
d
1 − ρK
n
=
ρ
ρ
=
ρ
ρ
1 − ρK+1 dρ n=1
1 − ρK+1 dρ
1−ρ
=
(K + 1)ρK+1
ρ
−
1−ρ
1 − ρK+1
Für die erwartete Warteschlangenlänge gilt wieder:
=
Lq =
K
(n − 1)Pn =
n=1
K
nPn −
n=1
=L
K
n=1
Pn = L − (1 − P0 )
=1−P0
Für die Berechnung der erwarteten Verweilzeit bzw. Servicezeit braucht man die mittlere
Ankunftsrate λ̄ da die λn nicht alle gleich groß sind.
λ̄ =
∞
λn Pn =
n=0
K−1
λPn = λ(1 − PK )
n=0
und aus der Formel von Little erhält man dann:
W =
L
λ̄
und Wq =
Lq
λ̄
Bemerkung:
1. Ist ρ < 1 so konvergieren für K → ∞ die Ergebnisse gegen die entsprechenden Ergebnisse
des M/M/1−Modells.
2. Es ist möglich, die Verteilung der Verweilzeiten und Wartezeiten auszurechnen.
3. Es ist möglich, entsprechende Ergebnisse für s Bedienerstellen (s > 1) herzuleiten.
Das M/M/s−Modell mit endlicher Input-Quelle
(Maschinenreparatur-Problem)
N · · · Größe des Abrufbestandes
Befinden sich n Kunden im Warteschlangensystem (n = 0, 1, · · · N) dann gibt es nur mehr
(N − n) potentielle Kunden, die in der Inputquelle verbleiben.
Bsp: In einer Fabrik befinden sich N Maschinen. Fällt eine Maschine aus, so reiht sie sich in
eine Warteschlange, und wartet darauf vom Servicepersonal repariert zu werden. Sind n Maschinen
nun nicht in Betrieb (werden gerade repariert bzw. warten auf Reparatur) so sind nur mehr N − n
in Betrieb.
Ist nun die Zeit bis eine Maschinen ausfällt exponentialverteilt mit Parameter λ, so ist die Zeit,
bis die nächste der N − n Maschinen ausfällt, exponentialverteilt mit Parameter (N − n)λ. (Die
14
Zeit bis zum nächsten Ausfall ist das Minimum von N − n unabhängigen exponentialverteilten
Zufallsvariablen. Siehe Eigenschaft 3 der Exponentialverteilung.)
Als Ausfallsrate bekommt man daher: λn = (N − n)λ
Ergebnisse für den Ein-Bediener Fall (s = 1):
n
λ
Cn = N(N − 1) · · · (N − n + 1)
µ
N!
=
(N − n)!
n
λ
µ
für n = 1, 2, · · · , N
Wie gewohnt berechnet man die stationären Zustandswahrscheinlichkeiten:
N
N!
P0 =
n=0 (N − n)!
N!
Pn =
(N − n)!
n −1
λ
µ
n
λ
µ
P0
Für die erwartete Warteschlangenlänge ergibt sich:
Lq =
N
(n − 1)Pn = N −
n=1
λ+µ
(1 − P0 )
λ
und weiters:
L=
N
n=0
nPn = Lq + (1 − P0 ) = N −
µ
(1 − P0 )
λ
Für die mittlere Ankunftsrate gilt:
λ̄ =
∞
λn Pn =
n=0
N
(N − n)λPn = λ(N − L)
n=0
Die Formel von Little liefert dann:
W =
L
λ̄
und Wq =
Lq
λ̄
Bemerkung:
1. Analoge Ergebnisse für das Maschinenreparaturproblem kann man auch für der Mehr-BedienerFall (s > 1) herleiten. Siehe z.B. Hillier & Liebermann.
2. Die Formeln für Pn , P0 (und daher auch für L, Lq , W, Wq ) gelten auch dann, wenn die Zeiten,
die die Mitglieder des Abrufbestandes ausserhalb des Warteschlangensystems verbringen,
keiner Exponentialverteilung gehorchen. Diese Zeiten müssen nur dieselbe Verteilung mit
dem Mittelwert 1/λ besitzen. Die Servicezeiten müssen weiterhin exponentialverteilt sein.
15
Modelle mit zustandsabhängiger Servicerate/Ankunftsrate
In realen Warteschlangensystemen ist die Servicezeit oft keine Konstante. Bei langer Warteschlange
werden die Bedienerstellen oft schneller arbeiten.
mögliche Gründe:
• Bedienerstellen (im Fall von Personen) strengen sich mehr an
• Abstriche in der Qualität des Service
• Unterstützung
Einfache theoretische Modellierung im Ein-Bediener-Fall (s = 1):
µn = nc µ1 ,
für n = 1, 2, · · ·
Dabei ist:
n · · · Anzahl der Kunden im System
µn · · · mittlere Servicerate, wenn n Kunden im System sind
c · · · ”Anpassungskoeffizient” - eine positive Konstante, die den Grad angibt, wie die Servicerate
auf den Systemzustand reagiert.
Eine lange Warteschlange kann auch die Ankunftsrate beeinflussen.
Im entsprechenden Modell gilt dann:
λn = (n + 1)−b λ0 ,
für n = 0, 1, 2, · · ·
wobei b ≥ 0 angenommen wird.
Warteschlangenmodelle auf Grundlage anderer
Wahrscheinlichkeitsverteilungen
Das M/G/1− Modell:
Annahmen:
1. Die Anzahl der Bedienerstellen beträgt s = 1.
2. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der
Ankunftsprozess ist ein Poissonprozess mit Rate λ.)
3. Alle Servicezeiten sind voneinander unabhängig und haben die gleiche Wahrscheinlichkeitsverteilung.
Es wird angenommen, dass die ersten beiden Momente existieren.
1/µ · · · Mittelwert
σ 2 · · · Varianz
Unter der Annahme, dass ρ = λ/µ < 1 ist, kann das Warteschlangensystem einen stationären
Zustand erreichen.
Die Ergebnisse für den stationären Zustand lauten:
P0 = 1 − ρ
16
Lq =
ρ2 + λ2 σ 2
2(1 − ρ)
L = Lq + ρ
Lq
λ
1
W = Wq +
µ
Wq =
Bemerkungen:
1. Die Gleichung für Lq (bzw. Wq ) wird häufig als Pollaczek-Khintchine-Formel bezeichnet.
2. Im M/M/1− Modell gilt für die Varianz der Servicezeiten σ 2 = 1/µ2. Einsetzen in obige
Formel für Lq ergibt das schon früher hergeleitete Resultat:
Lq =
ρ2 + λ2 σ 2
2ρ2
ρ2
=
=
2(1 − ρ)
2(1 − ρ)
(1 − ρ)
Das M/D/1− Modell
Wenn der Service für alle Kunden im wesentlichen aus derselben Routinetätigkeit besteht, dann
wird die benötigte Servicezeit nur wenig variieren. Die Annahme einer deterministischen Servicezeit ist daher in diesen Fällen sinnvoll.
Da das M/D/1− Modell ein Sonderfall des M/G/1− Modells mit σ 2 = 0 ist, reduziert sich
die Pollaczek-Khintchine-Formel auf
ρ2
Lq =
2(1 − ρ)
Aus obigen Formeln kann man dann Wq , L sowie W berechnen.
Es ist bemerkenswert, das im Fall von deterministischen Servicezeiten die Warteschlange halb
so lang ist, wie im Fall exponentiell verteilter Servicezeiten.
Das M/Ek /1− Modell (Erlangverteilte Servicezeiten)
Die Dichtefunktion der Erlang-Verteilung lautet
f (t) =
(µk)k k−1
t exp[−kµt]
(k − 1)!
für t ≥ 0
wobei µ und k strikt positive Parameter sind, und k ganzzahlig ist. k wird als Schiefeparameter
bezeichnet.
1
1
Varianz =
Mittelwert =
µ
kµ2
Die Erlang-Verteilung ist aus zwei Gründen für die Warteschlangentheorie wichtig:
1. Sind die k Zeiten T1 , · · · , Tk unabhängige Zufallsvariable mit identischer Exponentialverteilung
mit Mittelwert 1/(kµ), so gehorcht die Summe T1 + · · · + Tk einer Erlangverteilung mit Parameter µ und k.
Bsp: Das Service eines Kunden besteht aus k Arbeitsgängen, deren Zeiten i.i.d. exponentialverteilt sind. Die Gesamtservicezeit ist dann erlang-verteilt.
2. Die Erlang-Verteilungen stellen eine Verteilungsfamilie mit 2 Parametern dar. Empirische
Servicezeitverteilungen können deshalb gewöhnlich durch eine Erlangverteilung gut approximiert werden. Als Spezialfälle erhält man
• die Exponentialverteilung im Fall k = 1
• die deterministische ”Verteilung” im Grenzfall k → ∞.
17
Das M/Hk /1− Modell (Hyperexponentialverteilte Servicezeiten)
Eine (k−stufige) Hyperexponentialverteilung erhält man durch ”Parallel-Schalten” von k Exponentialverteilungen.
Ist die Servicezeit T eines Kunden mit Wahrscheinlichkeit pi durch eine exponentialverteilte
Servicezeit Ti mit Parameter µi gegeben (i = 1, · · · , k), so ist T hyperexponentialverteilt. Für die
Verteilungsfunktion gilt dann:
F (t) = P(T ≤ t) =
k
pi P(Ti ≤ t) =
i=1
k
pi (1 − e−µi t )
i=1
Durch Ableiten erhält man die Dichte
f (t) =
k
pi µi e−µi t
i=1
Für Erwartungswert und Varianz gilt:
E(T ) =
k
pi
i=1
k
k
pi
pi
Var(T ) = 2
−
2
i=1 µi
i=1 µi
µi
2
Näherungsformeln für Wartesysteme mit allgemeinen Ankunftszeiten:
Für den sehr allgemeinen Fall GI/G/1 sind exakte Resultate nicht mehr möglich, jedoch gibt es
Näherungsformeln.
Die Mittelwerte und Varianzen der Zwischenankunftszeiten und der Servicezeiten müssen
bekannt sein:
1
1
· · · Mittelwert der Servicezeit
· · · Mittelwert der Ankunftszeit
µ
λ
σ 2 · · · Varianz der Servicezeit
z 2 · · · Varianz der Ankunftszeit
Definieren die quadratischen Variationskoeffizienten:
c2s = σ 2 µ2 und c2a = z 2 λ2
Dann gilt näherungsweise:
Lq =
c2a + c2s
2
ρ2
1−ρ
Die restlichen Größen kann man aus der Formel von Little berechnen:
1
λ
L = Lq +
L = λW, Lq = λWq W = Wq +
µ
µ
Bemerkung:
Sind die Zwischenankunftszeiten exponentialverteilt, so gilt:
2
1
λ2 = 1
λ
Die obige Näherungsformel liefert dann das exakte Ergebnis:
c2a
Lq =
=z λ =
1 + c2s
2
2 2
ρ2
=
1−ρ
ρ2 + σ 2 µ2 ρ2
2(1 − ρ)
=
18
1 + σ 2 µ2
2
ρ2 + σ 2 λ2
2(1 − ρ)
ρ2
=
1−ρ
Warteschlangenmodelle mit Prioritätsregeln
Warteschlangensysteme, bei denen die Auswahl des Kunden aus der Warteschlange nach einem
Prioritätssystem erfolgt.
Bsp: Im Krankenhaus werden schwere Fälle bevorzugt behandelt.
• Von N Prioritätsklassen hat Klasse 1 die höchste Priorität und Klasse N die niedrigste.
• Für jede Prioritätsklasse wird ein Poisson-Inputprozess und exponentialverteilte Servicezeiten
angenommen.
Es wird angenommen, dass für alle Prioritätsklassen dieselbe mittlere Servicezeit gilt.
Die mittleren Ankunftsraten der einzelnen Prioritätsklassen können unterschiedlich sein.
• Kunden werden in der Reihenfolge der Prioritätsklassen ausgewählt. Innerhalb der Klasse
erfolgt die Auswahl nach der Länge der Wartezeit, i.e. entsprechend ”first-come-first served”.
Prioritäten ohne absoluten Vorrang
Wk · · · erwartete Verweilzeit (im stationären Zustand) für ein Mitglied der Prioritätsklasse k
Wk =
1
ABk−1 Bk
+
1
, fürk = 1, 2, · · · , N
µ
wobei:
ρj
sµ − λ s−1
A = sµ + s!
ρs
j=0 j!
Achtung: Die Formel in Hillier und Liebermann (bis zur 4. Auflage) enthält einen Druckfehler. Dort steht fälschlicherweise im Nenner ρ2 anstatt ρs .
B0 = 1,
Bk = 1 −
k
i=1
sµ
λi
, für k = 1, 2, · · · N
Dabei ist:
s = Anzahl der Bedienerstellen
µ = mittlere Servicerate pro beschäftigter Bedienerstelle
λi = mittlere Ankunftsrate für Prioritätsklasse i
λ= N
i=1 λi
ρ = λ/µ
Dabei wird angenommen, dass das System einen stationären Zustand erreicht.
Formel von Little ⇒ erwartete Anzahl der Mitglieder aus Prioritätsklasse k im Warteschlangensystem:
Lk = λk Wk , k = 1, 2, · · · N
19
Prioritäten mit absolutem Vorrang:
Ein Kunde der niedrigsten Prioritätsklasse der gerade bedient wird, wird in die Warteschlange
zurückverwiesen, wenn ein Kunde einer höheren Prioritätsklasse das System betritt und keine
freie Bedienerstelle vorfindet.
Für den ein-Bediener-Fall (s = 1 erhält man als erwartete Verweilzeit eines Kunden der Prioritätsklasse k:
Wk =
1/µ
, für k = 1, 2, · · · N.
Bk−1 Bk
Für den Mehrbediener-Fall kann Wk durch ein iteratives Verfahren berechnet werden.
Bsp: Notaufnahme im Spital
Die Krankenschwester teilt die Patienten in folgende drei Kategorien:
kritische Fälle: sofortige Behandlung ist für Überleben entscheidend
ernste Fälle: eine frühzeitige Behandlung ist wichtig, um eine Verschlechterung zu verhindern
leichte Fälle: eine Verzögerung der Behandlung hat keine ungünstigen medizinische Folgen für
den Patienten.
10 % der Patienten Fallen in Kategorie 1, 30% in Kategorie 2 und 60% in Kategorie 3. Bei eine
Gesamtankunftsrate von λ = 2 erhält man daher für die Ankunftsraten der einzelnen Klassen:
λ1 = 0.2, λ2 = 0.6, λ3 = 1.2. Die Servicerate, die für alle Klassen gleich ist, beträgt µ = 3.
A
B1
B2
B3
Wq,1
Wq,2
Wq,3
Prioritäten mit
absolutem Vorrang
s=1
s=2
0.933
0.733
0.333
0.00037
0.024
0.154
0.00792
0.06542
1.033
Prioritäten ohne
absoluten Vorrang
s=1
s=2
4.5000 36.000
0.933 0.967
0.733 0.867
0.333 0.667
0.238 0.029
0.325 0.033
0.889 0.048
Die Werte für Prioritäten ohne absoluten Vorrang, sowie mit absolutem Vorrang im Fall s = 1
können nach den bereits bekannten Formeln berechnet werden.
Für Prioritäten mit absolutem Vorrang im Fall s = 2 wurden folgende Überlegungen angestellt:
Die Verweilzeiten für Patienten der Prioritätsklasse 1 ist völlig unbeeinflusst von Patienten
einer niedrigeren Prioritätsklasse. D.h. das Warteschlangensystem für diese Patienten kann durch
ein M/M/s− Modell mit λ = 0.2, µ = 3 und s = 2 beschrieben werden. Dies ergibt:
Wq,1 = 0.00037
Betrachten nun die ersten beiden Prioritätsklassen. Die Patienten in diesen Klassen werden von
Patienten niedrigerer Priorität (hier Klasse 3) nicht beeinflusst. Die mittlere Wartezeit W̄q;1−2 für
einen zufällig ankommenden Kunden aus Prioritätsklasse 1 oder 2 kann durch ein M/M/s−Modell
20
beschrieben werden mit λ = λ1 + λ2 = 0.8, µ = 3, s = 2. (Die mittlere Wartezeit ist unabhängig
von der Auswahlordnung.) Dies ergibt:
W̄q;1−2 = .00603
Da innerhalb der ersten beiden Prioritätsklassen das Verhältnis der ersten zur zweiten Klasse 1:3
beträgt, gilt
1
3
4
1
W̄q;1−2 = Wq;1 + Wq;2 ⇒ Wq;2 = (W̄q;1−2 − Wq;1 ) = 0.00792
4
4
3
4
Für die mittlere Wartezeit W̄q;1−3 eines zufällig ankommenden Patienten, egal welcher Prioritätsklasse er angehört, gilt:
W̄q;1−3 = 0.1Wq;1 + 0.3Wq;2 + 0.6Wq;3 ⇒ Wq,3 =
1
(W̄q;1−3 − 0.1Wq;1 − 0.3Wq,2)
0.6
da die Prioritätsklassen im Verhältnis 1:3:6 besetzt sind.
W̄q;1−3 kann aus einem M/M/s−Modell mit λ = λ1 + λ2 + λ3 = 2, µ = 3, s = 2 berechnet
werden. Man erhält
W̄q;1−3 = 0.04167 und daraus Wq;3 = 0.06542
Warteschlangennetzwerke
Bis jetzt haben wir nur Warteschlangensysteme mit einer Serviceeinrichtung (mit einer oder
mehrerer Bedienerstellen) betrachtet.
In der Praxis treten oft Netzwerke von Serviceeinrichtungen auf. Z.B. in einer Werkstätte
werden Aufträge durch eine Reihe von Maschinengruppen (= Serviceeinrichtungen) geschleust.
Für Warteschlangennetzwerke ist folgenden Äquivalenzeigenschaft von Bedeutung, die einen
Zusammenhang zwischen dem Inputprozess und dem Outputprozess für bestimmte Warteschlangensysteme angibt:
Äquivalenzeigenschaft:
Es wird angenommen, dass eine Serviceeinrichtung mit s Bedienerstellen einen poissonverteilten
Inputprozess mit dem Parameter λ und für jede Bedienerstelle dieselbe Exponentialverteilung der
Servicezeiten mit Parameter µ besitzt (M/M/s−Modell), wobei sµ > λ gelte. Der Output dieser
Serviceeinrichtung im stationären Zustand ist ebenfalls ein Poissonprozess mit Parameter λ.
Bemerkungen:
1. Diese Eigenschaft ist unabhängig von der Auswahlordnung.
2. Angenommen die Kunden bekommen einen Service von einer Reihe von Serviceeinrichtungen. Dann kann mithilfe des M/M/s−Modells jede Serviceeinrichtung unabhängig von den
anderen analysiert werden, da jede dieser Serviceeinrichtungen als Input einen Poissonprozess
mit Parameter λ hat.
3. Diese Eigenschaft gilt nicht für Warteschlangensysteme mit endlichem Warteraum.
21
Anwendungen der Warteschlangentheorie:
Ein großer Teil der Warteschlangenprobleme, die in der Praxis auftreten, beschäftigt sich mit den
folgenden Entscheidungen:
1. Wieviele Bedienerstellen bei einer Serviceeinrichtung: s =?
2. Effizienz der Bedienerstellen: µ =?
3. Anzahl der Serviceeinrichtungen: λ =?
Bsp für Punkt 3: Auf einem Fabriksgelände sollen eine oder mehrere Werkzeugausgaben
errichtet werden. Die Werkzeuge werden von Verwaltern an die Mechaniker ausgegeben bzw.
wieder übernommen. Wieviele Werkzeugausgaben sollen errichtet werden, um einerseits den
Aufwand der Mechaniker zu ihrem Werkzeug zu kommen zu minimieren und andererseits die
Kosten für den Betrieb der Werkzeugausgaben zu minimieren.
Ziel ist es, ein optimales Servicveniveau zu wählen, sodass die erwarteten Gesamtkosten E(T C)
minimiert werden. Diese Gesamtkosten T C setzen sich additiv aus den Servicekosten SC und den
Wartekosten W C zusammen, wobei E(SC) mit zunehmendem Serviceniveau monoton steigt und
E(W C) monoton fällt.
Schätzung der Wartekosten:
1. Die Kunden sind Aussenstehende, deren Inanspruchnahme eines Services zum Gewinn des
Unternehmens beiträgt. Für das Unternehmen entstehen ”Wartekosten” in erster Linie
durch entgangenen Gewinn, da der Kunde entweder das Warteschlangensystem unbedient
wieder verlässt oder in Zukunft zur Konkurrenz geht.
2. Der Service wird aussenstehenden Kunden auf einer nicht gewinnbringenden Basis angeboten. Wartekosten sind eine Art von Sozialkosten, die die Konsequenz des Wartens auf den
Einzelnen/die Gesellschaft bewertet.
3. Die Kunden gehören dem Betrieb an (z.B. Maschinen, Arbeiter). Durch die Wartezeit auf
einen Service und dem damit verbundenen Arbeitsstillstand verringert sich die Produktivität
der Firma.
Formulierung der Wartekostenfunktion:
Meist können die Wartekosten durch eine der beiden Grundformen dargestellt werden:
• Die g(N)−Form: Wird angewendet, wenn die Kunden interne Mitarbeiter sind und die
Wartekosten durch eine entgangene Produktivität hervorgerufen werden. Der entgangene
produktive Output hängt von der Anzahl der (für die Produktion untätigen) Kunden (=Mitarbeiter) im Warteschlangensystem ab. Die entsprechenden Kosten werden durch die Funktion g(n), n = 0, 1, · · · N beschrieben.
Eigenschaften von g(n) : g(0) = 0, g monoton wachsend.
Für die mittleren Wartekosten gilt dann:
E(W C) = E(g(n)) =
∞
i=0
22
g(n)Pn
Sonderfall: g(N) ist linear, i.e. g(N) = Cw N.
Dann ist
∞
E(W C) = Cw
nPn = Cw L
i=0
=L
• Die h(W)−Form: Wird angewendet, wenn es sich um externe Kunden handelt.
kommerzielle Servicesysteme: Wartekosten ≡ entgangener Gewinn aus dem entgangenen
zukünftigen Geschäft.
Transportsysteme und soziale Systeme: Wartekosten ≡ soziale Kosten
In beiden Fällen werden die Wartekosten h(W) durch die Verweilzeit W jedes einzelnen
Kunden bestimmt.
Bemerkung: h(W) kann dadurch bestimmt werden, dass die Wartekosten für einige Werte
von W geschätzt werden. Durch Interpolation mittels Polynome (zB. Splines) kann dann
h(W) approximiert werden.
Sei fW die Wahrscheinlichkeitsdichte von W.
Für den Erwartungswert der Wartekosten pro Kunden bekommt man:
E(h(W)) =
∞
0
h(w)fW (w)dw
Um den Erwartungswert der Wartekosten pro Zeiteinheit E(W C) zu bekommen, multipliziert man noch mit der mittleren Anzahl λ der Kunden, die pro Zeiteinheit das System
betreten:
⇒ E(W C) = λE(h(W)) = λ
∞
0
h(w)fW (w)dw
Sonderfall: h(W) ist linear, i.e. h(W) = Cw W
Dann ist
E(W C) = λE(Cw W) = Cw (λW ) = Cw L
=L
Entscheidungsmodelle:
Modell 1: unbekanntes s
Definition: Cs · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit.
Gegeben: λ, µ, Cs
Entscheidungsvariable: s
Zielfunktion: minimiere E(T C) = sCs + E(W C)
Beispiel:
Situation: In einem Betrieb wird auf 8 identen Maschinen ein Produkt gefertigt. Zusätzlich
stehen zwei Maschinen als Reserve zu Verfügung.
Die Ausfallszeit einer Maschine ist exponentialverteilt mit einem Mittel von 20 Tagen. Ein
Mechaniker (=Bedienerstelle) repariert die kaputten Maschinen (=Kunden), wobei die Servicezeit
exponentialverteilt mit einem Mittel von 2 Tagen ist.
23
Problem: Da oft weniger als 8 Maschinen funktionieren, kommt es zu einer Verringerung der
Produktivität.
Kosten: Ein Mechaniker kostet 70 Euro/Tag. Der Gewinn aus der Produktion beträgt
100Euro/Tag pro arbeitender Maschine. Es können maximal 8 Maschinen gleichzeitig in Betrieb sein. ⇒ Sofern die Anzahl der defekten Maschinen zwei nicht übersteigt, habe ich keine
Verringerung der Produktivität und damit keine Kosten. Für jede zusätzliche Maschine beträgt
der entgangene Gewinn 100 Euro/Tag.
Frage: Soll der Betriebsleiter einen zweiten Mechaniker anstellen um den Gewinn zu maximieren.
Das zugrundeliegende Modell ist ein M/M/s−Modell mit endlichem Abrufbestand.
Im Fall von s = 1 erhält man: λ0 = λ1 = λ2 = 8/20, λ3 = 7/20, λ4 = 6/20, · · · λ9 = 1/20,
sowie µi = 1/2, i = 1, . . . 10.
Im Fall von s = 2 erhält man die selben Werte für λi , sowie µ1 = 1/2, µi = 1, i = 2, . . . 10.
Die stationäre Verteilung ist in folgender Tabelle zusammengefasst:
n
0
1
2
3
4
5
6
7
8
9
10
g(n) Pn für s = 1 Pn für s = 2
0
0.271
0.433
0
0.217
0.346
0
0.173
0.139
100
0.139
0.055
200
0.097
0.019
300
0.058
0.006
400
0.029
0.001
500
0.012
3 × 10−4
600
0.003
4 × 10−5
700
7 × 10−4
4 × 10−6
800
7 × 10−5
2 × 10−7
E(W C) 70Euro/Tag 12 Euro/Tag
Für die Servicekosten gilt: E(SC) = 70 × s. Die erwarteten Gesamtkosten in Abhängigkeit von
s ergeben sich zu
E(W C)
E(SC)
E(T C)
s=1 s=2 s≥3
70
12
≥0
70
140 ≥ 210
140
152 ≥ 210
Es ist also optimal, weiterhin nur einen Mechaniker zu beschäftigen.
Modell 2: unbekanntes µ und s
Definition: f (µ) · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit, wenn mittlere Servicerate µ beträgt.
A · · · Menge zulässiger Werte von µ Gegeben: λ, f (µ), A
Entscheidungsvariable: µ, s
Zielfunktion: minimiere E(T C) = sf (µ) + E(W C) mit µ ∈ A.
Beispiel: Das Rechenzentrum der Emerald-Universität plant, einen neuen Computer für die
Studenten zu mieten. Zur Auswahl stehen zwei Modelle
24
• Firma MBI:
Leasingkosten: Euro 100/Stunde. Die Anzahl der abgeschlossenen Programme pro Stunden
folgen einem Poissonprozess mit einem Mittelwert von 30 Programmen/Stunde, i.e. µ = 30.
• Firma EG:
Leasingkosten: Euro 75/Stunde. Die Anzahl der abgeschlossenen Programme pro Stunden
folgen einem Poissonprozess mit einem Mittelwert von 25 Programmen/Stunde, i.e. µ = 25.
Die zu rechnenden Programme folgen einem Poisson-Inputprozess mit einem Mittel von λ = 20
Programmen/Stunde.
Das Warteschlangenmodell wird durch ein M/M/1−Modell beschrieben. Für die Dichtefunktion der Verweilzeiten gilt:
fW (w) = (µ − λ) exp[−(µ − λ)w]
wobei
µ−λ=
10,
5,
für MBI)
für EG)
Die Kostenfunktion h(W) wird geschätzt durch
h(W) = 10W + 8W 2
Für die erwarteten Kosten pro Studenten
∞
E[h(W)] =
0
(10w + 8w 2 )(µ − λ)e−(µ−λ)w dw
erhält man
E[h(W)] =
1.16,
2.64,
für MBI
für EG
Da λ = 20 Studenten/Stunde ist, ⇒
E[W C] =
Es gilt: A = {25, 30}.
f (µ) =
23.20 Euro/Stunde,
52.80 Euro/Stunde,
100,
75,
für
für
für MBI
für EG
µ = 30 (MBI)
µ = 25 (EG)
Die Anzahl der Bedienerstellen ist mit s = 1 festgelegt. Die erwarteten Gesamtkosten in Abhängigkeit
von s ergeben sich zu
MBI
EG
E(W C) 23.20 52.80
E(SC) = f (µ) 100.00 75.00
E(T C) 123.20 127.80
Es ist also optimal, den Computer der Firma MBI zu leasen.
Das Beispiel mit den Computern der Firma MBI bzw. EG stellt einen Fall dar, wo s = 1 fest
vorgegeben war und nur µ aus einer endlichen Menge von Alternativen gewählt wurde.
Weitere Möglichkeiten:
25
• Die Menge A der möglichen Werte für µ ist endlich und s ist nicht festgelegt:
Schritt 1: Wähle für jeden Wert von µ jene Anzahl von Bedienerstellen s∗ = s∗ (µ), die die
erwarteten Gesamtkosten E(T C) minimiert.
Schritt 2: Wähle jenen Wert von µ, der E(T C) = E(T C)(µ, s∗(µ)) minimiert.
• Die Menge A der möglichen Werte für µ ist unendlich und s ist nicht festgelegt:
Schritt 1: Wähle für jede Anzahl von Bedienerstellen s jenen Wert von µ, µ∗ = µ∗ (s), der
die erwarteten Gesamtkosten E(T C) minimiert. (z.B. analytisch durch Ableiten von
E(T C) nach µ, oder numerisch.)
Schritt 2: Wähle jenen Wert von s, der E(T C) = E(T C)(µ∗ (s), s) minimiert.
Optimalität einer einzelnen Bedienerstelle:
Unter bestimmten Voraussetzungen muss für die optimale Lösung s = 1 gelten, d.h. eine
schnelle Bedienerstelle ist mehreren langsamen vorzuziehen.
Die wesentlichen Voraussetzungen sind:
1. Der Wert von µ, der im Fall von nur einer Bedienerstelle (s = 1) die erwarteten Gesamtkosten
E(T C) minimiert, ist zulässig.
2. Die marginalen Kosten einer Bedienerstelle f (µ) sind eine lineare oder konkave Funktion der
Servicerate µ.
Begründung: Vergleichen eine Mehr-Bediener-Lösung (s∗ , µ∗ ) (mit s∗ > 1) mit der EinBediener-Lösung (1, s∗ µ∗ ). Beide Lösungen haben die selbe Servicekapazität s∗ µ∗ . Diese maximale
Servicekapazität wird bei der Ein-Bediener-Lösung immer voll ausgenützt, sofern Kunden bedient
werden, im Mehr-Bediener-Fall jedoch nur dann, wenn mindestens s∗ Kunden im System sind. ⇒
Die Verweilzeit und damit die mittleren Wartekosten E(W C) sind bei der (s∗ , µ∗ )−Lösung höher
als im (1, s∗ µ∗ )− Fall.
Wegen s∗ f (µ∗ ) ≥ f (s∗ µ∗ )
sind die erwarteten Servicekosten für die (s∗ , µ∗ )−Lösung höher als für die Ein-Bediener-Lösung.
Modell 3: Unbekanntes λ und s Sowohl die Anzahl der Serviceeinrichtungen als auch die
Anzahl der Bedienerstellen ist unbekannt.
Bsp: Auf einem Fabriksgelände sollen eine oder mehrere Werkzeugausgaben errichtet werden.
Die Werkzeuge werden von Verwaltern an die Mechaniker ausgegeben bzw. wieder übernommen.
Wieviele Werkzeugausgaben sollen errichtet werden, um einerseits den Aufwand der Mechaniker
zu ihrem Werkzeug zu kommen zu minimieren und andererseits die Kosten für den Betrieb der
Werkzeugausgaben zu minimieren.
Definition:
Cs · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit
Cf · · · fixe Servicekosten pro Serviceeinrichtung pro Zeiteinheit
λp · · · mittlere Ankunftsrate für den gesamten Abrufbestand
n · · · Anzahl der Serviceeinrichtungen = λp /λ
Gegeben: µ, Cs , Cf , λp
26
Entscheidungsvariable: λ, s
Zielfunktion: minimiere E(T C)
Die Hin- und Rückfahrzeiten der Kunden zu den Serviceeinrichtungen muss berücksichtigt
werden, da sonst eine schnelle Serviceeinrichtung besser als mehrerer langsame wäre!
⇒ E(T C) = n[(Cf + sCs ) + E(W C) + λCt E(T )]
Dabei bezeichnet die Zufallsvariable T die Fahrzeit eines Kunden. Die erwarteten Fahrkosten sind
proportional zur erwarteten Fahrzeit. Die Fahrzeit geht ansonst nicht in die Wartekosten ein.
27
Zuverlässigkeit/Reliabilität
Strukturfunktion eines Systems
Nehmen wir an, ein System (z.B. Auto) kann in n Komponenten zerlegt werden. Der Zustand
jeder dieser Komponenten kann durch die Zufallsvariable Xi beschrieben werden.
Xi =
1 falls Komponente i im Intervall [0, t] funktioniert
0 falls Komponente i im Intervall [0, t] nicht störungsfrei arbeitet
Der Zustand des Gesamtsystems wird dann durch die (dichotome) Zustandsvariable Φ(X1 , X2 , · · · , Xn )
beschrieben, wobei
Φ(X1 , · · · , Xn ) =
1 falls Gesamtsystem im Intervall [0, t] funktioniert
0 falls Gesamtsystem im Intervall [0, t] nicht störungsfrei arbeitet
Φ(X1 , X2 , · · · , Xn ) heisst Strukturfunktion des Systems.
Einige typische Strukturfunktionen sind:
Das Reihenfolge-System
Im Falle des Reihenfolge-Systems ist das System gestört, falls irgendeine Komponente ausfällt,
bzw. das System funktioniert genau dann, wenn jede der Komponenten störungsfrei arbeitet.
Die Strukturfunktion lautet
Φ(X1 , · · · , Xn ) = min{X1 , X2 , · · · , Xn } = X1 X2 · · · Xn
denn es gilt:
Φ(X1 , · · · , Xn ) = 1
⇐⇒
Xi = 1 ∀i = 1, · · · n
Bsp:
Ein Maschine besteht aus zwei Komponenten: Motor (X1 ) und Getriebe (X2 ). Die Maschine
funktioniert im vorgegeben Intervall [0, t] genau dann, wenn sowohl Motor als auch Getriebe
funktionieren:
Φ(X1 , X2 ) = X1 X2 und daher Φ(1, 1) = 1,
Φ(1, 0) = Φ(0, 1) = Φ(0, 0) = 0
Das Parallel-System
Im Falle des Parallel-Systems ist das System nur dann gestört, falls alle Komponenten ausfallen, d.h. das System funktioniert genau dann, wenn mindestens eine der Komponenten
störungsfrei arbeitet.
Die Strukturfunktion lautet
Φ(X1 , · · · , Xn ) = max{X1 , X2 , · · · , Xn } = 1 −
n
(1 − Xi )
i=1
denn es gilt:
Φ(X1 , · · · , Xn ) = 0
⇔
Bsp:
28
Xi = 0 ∀i = 1, · · · n
Das Bremssystem eines Autos besteht aus zwei unabhängig funktionierenden Komponenten,
Scheibenbremsen (X1 ) vorne und Trommelbremsen (X2 ) hinten. Das Bremssystem funktioniert,
wenn entweder die Scheibenbremsen oder die Trommelbremsen (oder beide) funktionieren.
Φ(X1 , X2 ) = 1 − (1 − X1 )(1 − X2 ) = X1 + X2 − X1 X2
und daher Φ(0, 0) = 0,
Φ(1, 0) = Φ(0, 1) = Φ(1, 1) = 1
Das ”k aus n”-System
Ein ”k aus n”-System ist so gestaltet, dass es dann funktionstüchtig ist, wenn mindestens k
von n Komponenten störungsfrei arbeiten.
Spezialfälle:
k=n ⇒
k=1 ⇒
Reihenfolge-System
Parallel-System
Die Strukturfunktion lautet
Φ(X1 , · · · , Xn ) =
1,
0,
falls ni=1 Xi ≥ k
falls ni=1 Xi < k
Bsp:
Die Bereifung eines LKW’s mit 8 Reifen ist ein Beispiel für ein ”4 aus 8”- System. Durch
Ummontage von Rädern kann ein störungsfreier Betrieb gewährleistet werden, sofern mindestens
4 Räder intakt sind.
Zuverlässigkeit eines Systems:
Definition: Die Zuverlässigkeit R eines Systems ist die Wahrscheinlichkeit, dass das System
funktioniert, i.e.
R = P {Φ(X1 , · · · , Xn ) = 1}
Zuverlässigkeit des Reihenfolge-Systems:
R = P {X1X2 · · · Xn = 1} = P {X1 = 1, X2 = 1, · · · , Xn = 1}
Unter Verwendung bedingter Wahrscheinlichkeiten ergibt sich:
R = P {X1}P {X2 = 1|X1 = 1}P {X3 = 1|X1 = 1, X2 = 1} · · ·
· · · P {Xn = 1|X1 = 1, · · · Xn−1 = 1}
Dabei ist beispielsweise P {X2 = 1|X1 = 1} die bedingte Wahrscheinlichkeit dafür, dass Komponente 2 störungsfrei arbeitet, gegeben dass die erste Komponente funktioniert.
Weitere Annahme: die Komponenten sind voneinander unabhängig. Mit der Notation
P {Xi = 1} = pi bzw. P {Xi = 0} = 1 − pi kann man dann die Zuverlässigkeit eines Systems
aus unabhängigen Komponenten als Funktion der pi darstellen, i.e. R = R(p1 , · · · , pn ).
Für die Zuverlässigkeit des Reihenfolge-Systems gilt dann:
R = P {X1 = 1}P {X2 = 1} · · · P {Xn = 1} = p1 p2 · · · pn
29
Bsp: Die Wahrscheinlichkeit für das Funktionieren des Motors sei 0.95 und die Wahrscheinlichkeit für das Funktionieren des Getriebes 0.99. ⇒ die Zuverlässigkeit des Reihenfolgesystems
ist R = 0.95 × 0.99 = 0.94.
Zuverlässigkeit des Parallel-Systems: Da die Strukturform eines Parallelsystems die Form
Φ(X1 , · · · , Xn ) = max{X1 , X2 , · · · , Xn } = 1 −
n
(1 − Xi )
i=1
hat, gilt für die Zuverlässigkeit
R(p1 , · · · , pn ) = P {max(X1 , · · · , Xn ) = 1} = 1 − P {alle Xi = 0} =
= 1 − (1 − p1 )(1 − p2 ) · · · (1 − pn )
Bsp: Falls die Wahrscheinlichkeit, dass die Scheibenbremsen bzw. die Trommelbremsen funktionieren jeweils 0.99 beträgt,ergibt sich für die Zuverlässigkeit des Bremssystems:
R = 1 − (1 − 0.99)(1 − 0.99) = 0.9999
Zuverlässigkeit des ”k aus n”-Systems: Für die Zuverlässigkeit gilt:
R(p1 , p2 , · · · , pn ) = P {
n
Xi ≥ k}
i=1
Die Berechnung dieses Terms ist im allgemeinen schwierig, ausser im Fall identischer Komponenten, sodass p1 = P − 2 = · · · = pn = p gilt.
In diesem Fall ist ni=1 Xi binomialverteilt mit Parametern n und p, i.e.
P{
n
Xi = l} =
i=1
n l
p (1 − p)n−l
l
und daher gilt für die Zuverlässigkeit:
R(p, p, · · · , p) = P {
n
Xi ≥ k} =
i=1
n
i=k
n i
p (1 − p)n−i
i
LKW-Beispiel: Falls jedes Rad mit einer Wahrscheinlichkeit von p = 0.95 funktioniert, so
ergibt sich für die Zuverlässigkeit des ”4 aus 8” Systems:
R=
8
i=4
8
0.95i 0.058−i = 0.9999
i
Berechnung der exakten Systemzuverlässigkeit
• Darstellung eines Systems durch ein Netzwerk
• Das System funktioniert, falls ein Weg von Anfangsknoten zum Endknoten existiert. (bei
unserem Beispiel: die Komponenten (1 und 4) oder (2 und 5), oder (1 und 3 und 5).)
• Fällt eine Komponente aus, so wird der entsprechenden Kante der Wert 0 zugeteit, bzw.
das Netzwerk (der Graph) verliert diese Kante und das System funktioniert nur dann, wenn
im verbleibenden Graphen ein Weg vom Anfangsknoten zum Endknoten existiert.
30
Berechnung der Zuverlässigkeit:
Das Funktionieren jeder Komponente wird durch eine dichotome Zufallsvariable Xi beschrieben,
wobei p(Xi = 1) = pi . Für die Ausprägungen gibt es insgesamt 2n Möglichkeiten, wobei die
Wahrscheinlichkeit jeder dieser Ausprägungen berechnet werden kann und für jede Ausprägung
festgestellt werden kann, ob das Gesamtsysten funktioniert oder nicht. Aufsummieren der Wahrscheinlichkeiten, bei denen das Gesamtsystem funktioniert ergibt die Zuverlässigkeit.
Diese Methode ist relativ aufwendig.
kürzester Weg: kleinste Menge intakter Komponenten, die ein störungsfreies Funktionieren des
Gesamtsystems gewährleistet.
(in unserem Beispiel sind die kürzesten Wege: X1 X4 , X1 X3 X5 , X2 X5 .)
minimaler Schnitt: kleinste Menge nicht funktionierender Komponenten, die genügt, um eine
Störung des Gesamtsystems zu verursachen.
(in unserem Beispiel sind die minimalen Schnitte: X1 X2 , X4 X5 , X2 X3 X4 , X1 X5 .)
Das System funktioniert genau dann, wenn die Komponenten mindestens eines kürzesten
Weges intakt sind.
Daraus ergeben sich zwei Möglichkeiten, die Zuverlässigkeit mithilfe der kürzesten Wege zu
berechnen:
1. Möglichkeit:
R(p1 , p2 , p3 , p4 , p5 ) = P {Φ(X1 , X2 , X3 , X4 , X5 ) = 1} =
P {(X1X4 = 1) ∪ (X1 X3 X5 = 1) ∪ (X2 X5 = 1)} =
P {X1 X4 = 1} + P {X1 X3 X5 = 1} + P {X2X5 = 1}−
−P {X1 X3 X4 X5 = 1} − P {X1 X2 X4 X5 = 1} − P {X1 X2 X3 X5 = 1} + P {X1X2 X3 X4 X5 = 1}
= p1 p4 + p1 p3 p5 + p2 p5 − p1 p3 p4 p5 − p1 p2 p4 p5 − p1 p2 p3 p5 + p1 p2 p3 p4 p5
Dabei wurde ausgenutzt, dass die Komponenten unabhängig sind, z.B.
P {X1X3 X5 = 1} = P {X1 = 1 und X3 = 1 und X5 = 1} = P {X1 = 1} × P {X3 =
1} × P {X5 = 1} = p1 p3 p5 .
2. Möglichkeit: Da das Gesamtsystem funktioniert, wenn mindestens einer der kürzesten Wege
funktioniert, kann das Gesamtsystem als Parallelsystem der kürzesten Wege angesehen werden.
Es gilt also
Φ(X1 , X2 , X3 , X4 , X5 ) = 1 − (1 − X1 X4 )(1 − X1 X3 X5 )(1 − X2 X5 )
Da für dichotome (i.e. solche, die nur den Wert 0 oder 1 annehmen können) Zufallsvariable
Xi2 = Xi gilt, erhält man:
Φ(X1 , X2 , X3 , X4 , X5 ) = X1 X4 + X1 X3 X5 + X2 X5 −
−X1 X3 X4 X5 − X1 X2 X4 X5 − X1 X2 X3 X5 + X1 X2 X3 X4 X5
Da Φ wieder eine dichotome Zufallsvariable ist, gilt für deren Erwartungswert:
31
E{Φ(X1 , X2 , X3 , X4 , X5 )} = 1×P {Φ(X1 , X2 , X3 , X4 , X5 ) = 1} +0×P {Φ(X1 , X2 , X3 , X4 , X5 ) = 0}
=R(p1 ,p2 ,p3 ,p4 ,p5 )
Damit ergibt sich für die Zuverlässigkeit:
R(p1 , p2 , p3 , p4 , p5 ) = E{X1 X4 +X1 X3 X5 +X2 X5 −X1 X3 X4 X5 −X1 X2 X4 X5 −X1 X2 X3 X5 +X1 X2 X3 X4 X5 }
und aufgrund der Unabhängigkeit
R(p1 , p2 , p3 , p4 , p5 ) = p1 p4 + p1 p3 p5 + p2 p5 − p1 p3 p4 p5 − p1 p2 p4 p5 − p1 p2 p3 p5 + p1 p2 p3 p4 p5
Dabei wurde ausgenutz, dass z.B.
E[X1 X4 ] = E[X1 ]E[X4 ] = p1 p4
Berechnung der exakten Zuverlässigkeit mittels minimaler Schnitte:
1. Möglichkeit Das System funktioniert genau dann nicht, wenn alle Komponenten mindestens
eines minimalen Schnittes ausfallen:
Die Wahrscheinlichkeit dafür ist:
P {(X1 = 0, X2 = 0) ∪ (X4 = 0, X5 = 0)∪
∪(X2 = 0, X3 = 0, X4 = 0) ∪ (X1 = 0, X5 = 0)} =
= P {X1 = 0, X2 = 0} + P {X4 = 0, X5 = 0}
+P {X2 = 0, X3 = 0, X4 = 0} + P {X1 = 0, X5 = 0}
−P {X1 = 0, X2 = 0, X4 = 0, X5 = 0}
−P {X1 = 0, X2 = 0, X3 = 0, X4 = 0}
−P {X1 = 0, X2 = 0, X5 = 0}
−P {X2 = 0, X3 = 0, X4 = 0, X5 = 0}
−P {X1 = 0, X4 = 0, X5 = 0}
−P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0}
+P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0}
+P {X1 = 0, X2 = 0, X4 = 0, X5 = 0}
+P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0}
+P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0}
−P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0}
Bezeichnet man mit qi = 1 − pi = P {Xi = 0} so erhält man:
P {Φ(X1 , · · · , X5 ) = 0} = q1 q2 + q4 q5 + q2 q3 q4 + q1 q5
−q1 q2 q3 q4 − q1 q2 q5 − q2 q3 q4 q5 − q1 q4 q5 + q1 q2 q3 q4 q5
32
2. Möglichkeit Das System funktioniert, wenn mindestens eine Komponente eines jeden minimalen Schnittes intakt ist. Einen zum Gesamtsystem äquivalenten Graphen bekommt man
also, indem man die Komponenten eines jeden minimalen Schnittes als Parallelsystem betrachtet, und die minimalen Schnitte dann als Reihenfolgesystem auffasst.
Für die Strukturfunktion bekommt man also
Φ(X1 , X2 , · · · , X5 ) = [1 − (1 − X1 )(1 − X2 )] × [1 − (1 − X4 )(1 − X5 )]×
×[1 − (1 − X2 )(1 − X3 )(1 − X4 )] × [1 − (1 − X1 )(1 − X5 )]
Unter Berücksichtigung von Xi2 = Xi , bzw. (1 − Xi )2 = (1 − Xi ) erhält man
Φ(X1 , X2 , · · · , X5 ) = 1 − (1 − X1 )(1 − X2 ) − (1 − X4 )(1 − X5 )
−(1 − X2 )(1 − X3 )(1 − X4 ) − (1 − X1 )(1 − X5 )+
+(1 − X1 )(1 − X2 )(1 − X3 )(1 − X4 ) + (1 − X1 )(1 − X2 )(1 − X5 )+
+(1 − X2 )(1 − X3 )(1 − X4 )(1 − X5 ) + (1 − X1 )(1 − X4 )(1 − X5 )−
−(1 − X1 )(1 − X2 )(1 − X3 )(1 − X4 )(1 − X5 )
Da nun wieder R(p1 , · · · , p5 ) = P {Φ(X1 , · · · , X5 ) = 1} = E[Φ(X1 , · · · , X5 )] ist, erhält man
unter Berücksichtigung der Unabhängigkeit und wegen E[(1 − Xi )] = qi :
R = 1 − q1 q2 − q4 q5 − q2 q3 q4 − q1 q5 + q1 q2 q3 q4 +
q1 q2 q5 + q2 q3 q4 q5 + q1 q4 q5 − q1 q2 q3 q4 q5
Schranken der Systemzuverlässigkeit
Die exakte Berechnung der Zuverlässigkeit eines Systems ist oft aufwendig. Meist genügt es,
Schranken für die Zuverlässigkeit zu bestimmen.
Hilfsresultat:
Seien X1 , · · · , Xn unabhängige, dichotome Zufallsvariable, die nur den Wert 0 oder 1 annehmen
können, und weiters Yi = k∈Ii Xk , wobei i = 1, · · · , r und Ii eine beliebige Indexmenge mit Indizes
aus {1, · · · , n} ist. (i.e. Yi ist das Produkt einer Teilmenge aus {X1 , · · · , Xn }.)
Dann gilt:
P {Y1 = 0, Y2 = 0, · · · , Yr = 0} ≥ P {Y1 = 0}P {Y2 = 0} · · · P {Yr = 0}
intuitive Begründung:
• Seien A und B zwei beliebige Ereignisse. Für die Wahrscheinlichkeit von A ∩ B gilt dann
folgendes:
A und B sind unabhängig
allgemein gilt
A und B schliessen einander aus
B impliziert A
33
P (A ∩ B) = P (A)P (B)
P (A ∩ B) = P (A|B)P (B)
0 = P (A ∩ B) ≤ P (A)P (B)
P (A ∩ B) = P (B) ≥ P (A)P (B)
Es ist also naheliegend, dass P (A ∩ B) ≥ P (A)P (B) ist, sofern das Eintreten von Ereignis
B die Wahrscheinlichkeit von A erhöht, i.e. falls P (A|B) ≥ P (A) ist.
• Da die Ungleichung für r = 1 klarerweise erfüllt ist, betrachten wir den Fall r = 2, i.e.
P (Y1 = 0 ∩ Y2 = 0) ≥ P (Y1 = 0)P (Y2 = 0).
Tritt in Y1 und Y2 kein gemeinsames Xi auf, so sind Y1 und Y2 unabhängig und es gilt
P (Y1 = 0 ∩ Y2 = 0) = P (Y1 = 0)P (Y2 = 0).
Tritt in Y1 und Y2 ein gemeinsames Xi auf, so ist P (Y1 = 0|Y2 = 0) > P (Y1 = 0), da ja wenn
Y2 = 0 ist mit einer gewissen Wahrscheinlichkeit das gemeinsame Xi = 0 ist, und dies dann
Y1 = 0 impliziert.
• Dies lässt sich leicht (etwa durch vollständige Induktion) auf r Variable Y1 , · · · , Yr verallgemeinern.
Das System arbeitet, wenn alle Komponenten mindestens eines kürzesten Weges intakt
sind.
Für die Zuverlässigkeit erhält man also:
R(p1 , · · · , p5 ) = 1 − P {alle kürzesten Wege sind gestört} =
1 − P {X1X4 = 0, X1 X3 X5 = 0, X2 X5 = 0}
≥P {X1 X4 =0}P {X1 X3 X5 =0}P {X2 X5 =0}
Unter Zuhilfenahme obigen Resultates erhält man die obere Schranke:
R(p1 , · · · , p5 ) ≤ 1 − P {X1X4 = 0}P {X1X3 X5 = 0}P {X2 X5 = 0}
= 1 − (1 − p1 p4 )(1 − p1 p3 p5 )(1 − p2 p5 )
Das System arbeitet, wenn mindestens eine Komponente von jedem minimalen Schnitt
funktioniert, d.h.
R(p1 , · · · , p5 ) = P {(X1 oder X2 funktioniert) und (X4 oder X5 funktioniert)
und (X2 oder X3 oder X4 funktioniert) und (X1 oder X5 funktioniert)} =
P {[1 − (1 − X1 )(1 − X2 ) = 1] und [1 − (1 − X4 )(1 − X5 ) = 1] und
[1 − (1 − X2 )(1 − X3 )(1 − X4 ) = 1] und [1 − (1 − X1 )(1 − X5 ) = 1]} =
P {[(1 − X1 )(1 − X2 ) = 0] und [(1 − X4 )(1 − X5 ) = 0] und
[(1 − X2 )(1 − X3 )(1 − X4 ) = 0] und [(1 − X1 )(1 − X5 ) = 0]}
Nun sind 1−Xi auch unabhängige, dichotome Zufallsvariable, die nur den Wert 0 oder 1 annehmen
können. Daher gilt aufgrund des Hilfsresultats:
R(p1 , · · · , p5 ) ≥ P {(1 − X1 )(1 − X2 ) = 0}P {(1 − X4 )(1 − X5 ) = 0}
P {(1 − X2 )(1 − X3 )(1 − X4 ) = 0}P {(1 − X1 )(1 − X5 ) = 0}
Da nun, z.B. gilt:
P {(1 − X1 )(1 − X2 ) = 0} = 1 − P {(1 − X1 )(1 − X2 ) = 1} =
= 1 − P {(1 − X1 ) = 1}P {(1 − X2 ) = 1} = 1 − (1 − p1 )(1 − p2 )
34
erhält man als untere Schranke
R(p1 , · · · , p5 ) ≥ [1 − (1 − p1 )(1 − p2 )][1 − (1 − p4 )(1 − p5 )]×
×[1 − (1 − p2 )(1 − p3 )(1 − p4 )][1 − (1 − p1 )(1 − p5 )]
Bsp:
Für das Beispiel-Netzwerk mit pi = p = 0.9 erhält man:
untere Schranke:
[1 − (1 − p)2 ]3 [1 − (1 − p)3 ] = [1 − 0.12 ]3 [1 − 0.13 ] = 0.9693
exakte Zuverlässigkeit:
2p2 + p3 − 3p4 + p5 = 2 × 0.12 + 0.13 − 3 × 0.14 + 0.15 = 0.9712
obere Schranke:
1 − (1 − p2 )(1 − p3 )(1 − p2 ) = 1 − (1 − 0.12 )(1 − 0.13 )(1 − 0.12 ) = 0.9902
Ausfallzeit und Ausfallrate
Betrachten nun die Zufallsvariable T , die die ”Zeit bis zur Störung” eines Systems bzw. einer
Komponente angibt.
Sei F die Verteilungsfunktion und f die Dichte von T.
Die Zufallsvariable X nimmt auf dem Intervall [0, t] den Wert 1 an, wenn T ≥ t ist, und X
nimmt den Wert 0 an, wenn T < t ist.
Daher erhält man für die Zuverlässigkeit:
R(t) = P {X = 1} = P {T > t} =
∞
t
f (y)dy = 1 − F (t)
Def: Unter der Ausfallrate (oder Hazard-rate) versteht man den Ausdruck
r(t) =
f (t)
f (t)
=
1 − F (t)
R(t)
r(t)dt gibt die bedingte Wahrscheinlichkeit an, dass das System im Zeitintervall [t, t + dt]
ausfällt, gegeben dass es bis zum Zeitpunkt t funktioniert hat.
Bsp: Die Zeit T bis zum Ausfall sei exponentialverteilt, i.e. die Verteilungsfunktion sei gegeben
durch
F (t) = P {T ≤ t} = 1 − e−t/θ
Für die Dichte und die Hazard-rate gilt dann
f (t) =
e−t/θ
,
θ
r(t) =
35
e−t/θ
1
=
−t/θ
θe
θ
Die Verteilung der Ausfallzeit T und damit die Zuverlässigkeit R(t) ist eindeutig durch die
Hazard-rate r(t) bestimmt.
R(t) = 1 − F (t) = exp −
t
0
r(ζ)dζ
Def: Eine Ausfallrate, die konstant bleibt oder mit der Zeit zunimmt, bezeichnet man als
zunehmende Ausfallrate, eine Ausfallrate, die konstant bleibt oder abnimmt, bezeichnet man als
abnehmende Ausfallrate.
Schranken der Zuverlässigkeit mit zunehmender Ausfallrate
Die Ausfallzeit T habe den Mittelwert µ und sei durch eine zunehmende Ausfallrate charakterisiert. Dann gelten folgende Schranken für die Zuverlässigkeit: (siehe Hillier und Lieberman)
exp[−t/µ] ≤ R(t) ≤ 1
0 ≤ R(t) ≤ exp[−ω(t)t]
wobei ω(t) Lösung der Gleichung 1 − ωµ = exp[−ωt] ist.
36
für t ≤ µ
für µ < t
Herunterladen