OR Methoden in Produktion & Logistik II Warteschlangentheorie und Zuverlässigkeit Version 2.1 25. Februar 2005 Warteschlangentheorie ⇒ Warteschlangen treten auf, wenn die momentane Nachfrage nach einem Service oder einer Bedienung die momentane Kapazität dieser Serviceeinrichtung übersteigt. ⇒ Da Nachfrage und Servicedauer meist nicht vorhersagbar sind, ist eine Entscheidung über den vorzusehende Kapazitätsumfang schwierig: zu viele Bedienungsstationen zu wenig Bedienungsstationen ⇒ hohe Kosten, kurze Warteschlange ⇒ lange Warteschlange, hohe Kosten Lange Warteschlangen verursachen auch hohe Kosten, z.B. soziale Kosten, verlorengegangene Kunden, etc. ⇒ Ein ökonomisches Gleichgewicht zwischen den Servicekosten und den Kosten, die mit dem Warten auf die Bedienung entstehen ist zu suchen. ⇒ Die Warteschlangentheorie löst dieses Problem nicht direkt. Aber sie liefert wichtige Informationen über die Eigenschaften von Warteschlangensystemen, z.B. die mittlere Wartezeit. Beispiele für reale Warteschlangensysteme: kommerzielle Servicesysteme: Friseurgeschäft, Kassenschalter einer Bank, Essensausgabe und Kassa in der Mensa, Tankstelle, Kassa im Supermarkt, · · · Transportsysteme: Aufzug, Startbahn am Flughafen, Mautstelle, Parkplatz, · · · interne Servicestelle: Schreibbüro, Qualitätskontrolle, Instandhaltung von Maschinen, · · · soziale Systeme: Arztpraxis, Spital, Gericht, · · · ··· Bsp: Notaufnahme im Spital: Situation: • rund um die Uhr hat ein Arzt Dienst in der Notaufnahme • Anzahl der eingelieferten Notfälle nimmt jedes Jahr kontinuierlich zu ⇒ Patienten, die zu Spitzenzeiten ankommen, müssen oft warten Vorschlag: während der Spitzenzeiten soll ein zweiter Arzt der Notaufnahme zugewiesen werden. ⇒ mittels Warteschlangentheorie kann die Warteeigenschaft des Systems mit einem bzw. zwei Ärzten untersucht werden. 1 Grundstruktur der Warteschlangenmodelle • Eine Inputquelle generiert Kunden, die eine Bedienung wünschen • Die Kunden betreten das Warteschlangensystem und reihen sich in die Warteschlange. • Nach einer Auswahlordnung wird ein Kunde aus der Warteschlange für die Bedienung ausgewählt. • Der Servicemechanismus führt die Bedienung durch, nach der der Kunde das Warteschlangensystem verlässt. Inputquelle: Größe · · · Anzahl der potentiellen Kunden, die ein Service benötigen könnten. unendliche Größe: mathematisch einfacher, kann auch für endliche, aber hinreichend große Inputquellen angenommen werden. endliche Größe: muss angenommen werden, wenn die Rate, mit der neue Kunden generiert werden, signifikant von der Anzahl der Kunden im Warteschlangensystem abhängt. Generierung der Kunden: statistischer Prozess, nach dem Kunden in das Warteschlangensystem eintreten. häufige Annahme: Anzahl der Kunden, die bis zu einem bestimmten Zeitpunkt generiert wurden, gehorcht einer Poisson-Verteilung.(Die Zeitdauer zwischen aufeinanderfolgenden Ankünften gehorcht einer Exponentialverteilung.) Sonderfälle: z.B., Kunden, die in das Warteschlangensystem nicht eintreten, falls Schlange zu lang ist. Warteschlange: Meist wird angenommen, dass ein unendlich großer Warteraum vorliegt, d.h. dass die Warteschlange beliebig groß werden kann (mathematisch einfacher). Bei Warteschlangensystemen, bei denen der Warteraum so klein ist, das dessen Kapazität mit einiger Häufigkeit nicht ausreicht, muss dieser begrenzte Warteraum berücksichtigt werden. Auswahlordnung: • first-come-first-served • zufällig • Prioritätsregel Servicemechanismus: Der Servicemechanismus besteht aus einer oder mehreren (seriellen) Serviceeinrichtungen. Jede Serviceeinrichtung besteht aus einer oder mehreren (parallelen) Bedienerstellen. (meist: eine Serviceeinrichtung mit endlich vielen Bedienerstellen) 2 Kendall-Notation: X/Y /s X · · · Verteilung der Zeiten zwischen zwei Ankünften Y · · · Verteilung der Servicezeiten s · · · Anzahl der Bedienerstellen wobei X, Y ∈ {M, D, Ek , G} M D Ek Hk G (oder GI) ··· ··· ··· ··· ··· Exponentialverteilung (Markov-Eigenschaft) Deterministische Verteilung, i.e. konstante Zeitdauer k− stufige Erlangverteilung k− stufige Hyperexponentialverteilung beliebige Verteilung (Generalized (independent) distribution ) Bsp: M/M/s : ⇒ Zwischenankunftszeiten exponentialverteilt Servicezeiten exponentialverteilt s Bedienerstellen erweitere Notation: X/Y /s/K− Modell ≡ X/Y /s− Modell, wobei nicht mehr als K Kunden im System sein dürfen. Terminologie und Notation: Systemzustand: Anzahl der Kunden im Warteschlangensystem Länge der Warteschlange: Anzahl der Kunden, die auf die Bedienung warten =Systemzustand minus Anzahl der gerade bedienten Kunden N(T ) = Anzahl der Kunden, die zum Zeitpunkt t ≥ 0 im Warteschlangensystem sind Pn (t) =Wahrscheinlichkeit, dass genau n Kunden zum Zeitpunkt t im Warteschlangensystem sind (bei vorgegebener Anzahl zum Zeitpunkt 0.) s = Anzahl der Bedienerstellen (parallele Servicekanäle) λn =mittlere Ankunftsrate (erwartete Anzahl der Ankünfte pro Zeiteinheit) der neuen Kunden, wenn n Kunden im System sind. µn =mittlere Abfertigungsrate für das Gesamtsystem (erwartete Anzahl der Kunden pro Zeiteinheit, bei denen die Bedienung beendet wird), wenn n Kunden im System, sind. λ: ist die mittlere Ankunftsrate λn für alle n konstant, dann wird sie mit λ bezeichnet. µ: ist die mittlere Abfertigungsrate pro beschäftigter Bedienerstation für alle n konstant, bezeichnet man diese mit µ. In diesem Fall gilt: µn = sµ nµ 3 falls falls n≥s n<s Stationärer Zustand: Pn = Wahrscheinlichkeit, dass sich genau n Kunden im System befinden L =erwartete Anzahl der Kunden im Warteschlangensystem Lq = erwartete Warteschlangenlänge W = Verweilzeit eines einzelnen Kunden im System (inkl. der Servicezeit) W = E(W), durchschnittliche Verweilzeit Wq = Wartezeit eines einzelnen Kunden in der Warteschlange (ohne Servicezeit) Wq = E(Wq ), durchschnittliche Wartezeit Little’sche Formel Ist λn = λ für alle n, und befindet sich das System in einem stationären Zustand, so gilt: L = λW, Lq = λWq W = Wq + 1/µ, L = Lq + λ/µ 1 · · · mittlere Servicezeit µ Bemerkung: Diese Formeln gelten unter sehr allgemeinen Voraussetzungen. Sind die λn nicht gleich, kann λ in obigen Gleichungen durch die ”durchschnittliche” Ankunftsrate ersetzt werden. Die Rolle der Exponentialverteilung T · · · Zwischenankunftszeit (Zufallsvariable) sei exponentialverteilt mit Parameter λ. Dichtefunktion f (t) = λ exp[−λt] 0 für für t≥0 t<0 Verteilungsfunktion F (t) = P{T ≤ t} = 1 − e−λt für t ≥ 0. Überlebensfunktion P{T > t} = e−λt für t ≥ 0. 1 Erwartungswert E(T ) = λ 1 Varianz Var(T ) = 2 λ Eigenschaft 1: ) ] und Die Dichte fällt monoton; je ca. 40% Wahrscheinlichkeit sind in den Intervallen [0, E(T 2 E (T ) 3E(T ) [ 2 , 2 ] konzentriert, es ist also sehr wahrscheinlich, dass T einen kleinen Wert nahe 0 annimmt, während sehr große Werte extrem unwahrscheinlich sind. Es gilt: 1 1 3 = 0.393, P = 0.383. P 0≤T ≤ ≤T ≤ 2λ 2λ 2λ Eigenschaft 2: ”Gedächtnislosigkeit” 4 Die Wartezeit bis zum nächsten Ereignis ist unabhängig davon, wann das letzte Ereignis stattgefunden hat: P (T > t + ∆|T > ∆) = = P (T > t + ∆ und T > ∆) P (T > t + ∆) = = P (T > ∆) P (T > ∆) exp[−λ(t + ∆)] = exp[−λt] = P (T > t) exp[−λ∆] Bemerkung: • Man kann zeigen, dass die Exponentialverteilung die einzige Verteilung ist, die (in diesem Sinn) gedächtnislos ist. • Bei Zwischenankunftszeiten ist diese ”Gedächtnislosigkeit” eine realistische Annahme, bei Servicezeiten jedoch schwer interpretierbar. Eigenschaft 3: Das Minimum von mehreren unabhängigen exponentialverteilten Zufallsvariablen ist ebenfalls exponentialverteilt. Gegeben: n exponentialverteilte Zufallsvariable Ti , i = 1, · · · n, mit Parameter λi , i = 1, . . . n. Gesucht: Verteilung von min{T1 , · · · , Tn }. P {min{T1 , · · · , Tn } > t} = P {T1 > t, · · · , Tn > t} = P {T1 > t} · · · P {Tn > t} = = exp[−λ1 t] · · · exp[−λn t] = exp[−(λ1 + · · · + λn )t] min{T1 , · · · , Tn } ist also exponentialverteilt mit Parameter λ1 + · · · + λn . Bsp: • Mehrere Typen von Kunden. Zwischenankunftszeit der Kunden vom Typ i ist exponentialverteilt mit Parameter λi . Dann ist die Zeit, bis der erste Kunde kommt (egal welcher Typ) exponentialverteilt mit Parameter λ1 + · · · + λn . • s Kunden werden gerade bedient, wobei die restliche Servicezeit jedes Kunden exponentialverteilt mit Parameter λ sei. Dann ist die Zeit, bis der erste Kunde fertig ist (d.h. die Zeit, bis ein Bedienungskanal frei wird) exponentialverteilt mit Parameter sλ. Eigenschaft 4: ”Zusammenhang zur Poisson-Verteilung” Sei Ti die Zwischenankunftszeit zwischen dem i − 1-ten und dem i−ten Kunden Sei die Zufallsvariable A die Anzahl der Ankünfte im Intervall [0, t]. Dann gilt: Die Zwischenankunftszeiten Ti seien unabhängig und exponentialverteilt mit Parameter λ ⇒ die Anzahl der Ankünfte in einem Zeitintervall der Länge t sind poissonverteilt mit Parameter λt. Poisson-verteilung: P{A = n} = (λt)n e−λt , n! Erwartungswert: n = 0, 1, 2, · · · E(A) = λt Lemma: Seien X und Y zwei stetige Zufallsvariable mit den Dichten f bzw. g. Dann ist die Dichte h der Summe X + Y gegeben durch h(z) = ∞ −∞ f (x)g(z − x)dx ”Konvolution von f mit g” 5 Dichte von T1 : f (1) (z) = λe−λz Dichte von T1 + T2 : f (2) (z) = z = 0 ∞ −∞ für z ≥ 0 f (x)f (z − x)dx = z 0 λe−λx λe−λ(z−x) dx = x=z λ2 exp[−λz]dx = λ2 x exp[−λz] x=0 = λ2 z exp[−λz] allgemein: Dichte von T1 + · · · + Tn : f (n) (z) = λn z n−1 exp[−λz] (n − 1)! Erlang-Verteilung (Beweis zB durch vollständige Induktion möglich) ============================================================ • Zeige Formel für n = 1 : f (1) (z) = λ1 z0 exp[−λz] = λ exp[−λz] 0! • Nehme an, dass die Formel für n gilt. • Zeige: unter dieser Annahme gilt sie auch für n + 1 : f (n+1) (z) = z = 0 ∞ −∞ λn+1 f (n) (x)f (1) (z − x)dx = z 0 λn xn−1 exp[−λx]λ exp[−λ(z − x)]dx = (n − 1)! x=z xn−1 xn zn exp[−λz]dx = λn+1 exp[−λz] = λn+1 exp[−λz] (n − 1)! n! n! x=0 ================================================================ Verteilungsfunktion von T1 + · · · + Tn : P(T1 + · · · + Tn ≤ z) = F (n) −λz (z) = 1 − e n−1 i=0 (λz)i i! Erwartungswert und Varianz von T1 + · · · + Tn : E(T1 + · · · + Tn ) = n , λ V ar(T1 + · · · + Tn ) = n λ2 Dann gilt: P {A ≥ n} = P { ni=1 Ti ≤ t} z n−1 ⇒ P {A ≥ n} = 0t λn (n−1)! exp[−λz]dz Die erste Gleichung bedeutet: wenn die Summe der ersten n Zwischenankunftszeiten kleiner oder gleich t ist, so haben mindestens n Ankünfte im Zeitintervall [0, t] stattgefunden (und umgekehrt.) P {A ≥ n} = P {A = n} + P {A ≥ n + 1} ⇒ P {A = n} = P {A ≥ n} − P {A ≥ n + 1} 6 Zur Erinnerung: partielles Integrieren b a P {A = n} = f (x)g(x)dx = t 0 λn f (x)g(x)|ba − z n−1 exp[−λz] dz − (n − 1)! f g b a t 0 f (x)g (x)dx λ(n+1) zn exp[−λz]dz = n! t t n n t zn (n+1) z (n+1) z λ λ λ exp[−λz] + exp[−λz]dz − exp[−λz]dz n! n! n! 0 0 0 n nt exp[−λt] ⇒ P {A = n} = λ n! n Es gilt auch die Umkehrung: Sind die Anzahl der Ankünfte in disjunkten Zeitintervallen voneinander unabhängig und poissonverteilt mit Parameter λt so sind die Zwischenankunftszeiten exponentialverteilt mit Parameter λ. P{T > t} = P{A = 0} = (λt)0 −λt e = e−λt 0! Folgerung aus Eigenschaft 4: λt ist die mittlere Anzahl von Ereignissen im Intervall [0, t]. λ ist also die mittlere Rate des Auftretens der Ereignisse. Eigenschaft 5: ”konstante Ausfallsrate” Betrachten die bedingte Wahrscheinlichkeit, dass ein Ereignis im Intervall [t, t + ∆] auftritt, gegeben dass es davor nicht aufgetreten ist, i.e. P (T ≤ t + ∆|T > t] = F (t + ∆) − F (t) 1 − F (t) Die Hazard-rate (failure rate, Ausfallsrate) ist definiert als f (t) P (T ≤ t + ∆|T > t] F (t + ∆) − F (t) = lim = ∆→0 ∆→0 ∆ ∆(1 − F (t)) 1 − F (t) lim Für die Exponentialverteilung: λe−λt f (t) = −λt = λ 1 − F (t) e ⇒ Die bedingte Wahrscheinlichkeit, dass das Ereignis in [t, t + ∆] auftritt, gegeben es ist nicht vor t aufgetreten ist etwa λ∆. Der Geburts- und Sterbeprozess Die wichtigsten Warteschlangenmodelle gehen davon aus, dass ankommende bzw. sich entfernende Kunden des Warteschlangensystems entsprechend einem Geburts- und Sterbeprozess auftreten. ”Geburt” · · · Ankunft eines neuen Kunden ”Sterben” · · · Ausscheiden eines bedienten Kunden Annahme 1: bei gegebenem N(t)=n ist die (Rest-Dauer bis zur nächsten ”Geburt” exponentialverteilt mit Rate λn , d.h. die Wahrscheinlichkeit einer Geburt im Intervall [t, t + ∆] ist λn ∆ + o(∆). 7 Annahme 2: bei gegebenem N(t)=n ist die (Rest-Dauer bis zum nächsten ”Todesfall” exponentialverteilt mit Rate µn , d.h. die Wahrscheinlichkeit eines Todesfalls im Intervall [t, t + ∆] ist µn ∆ + o(∆). Annahme 3: Die Wahrscheinlichkeit, dass mehr als ein Ereignis im Intervall [t, t + ∆] auftritt ist o(∆). o(∆) bezeichnet eine Größe, für die o(∆) = 0 gilt. ∆→0 ∆ lim Pn (t) · · · Wahrscheinlichkeit, dass zur Zeit t das System im Zustand n ist, d.h. dass n Kunden im System sind. Pn (t + ∆) = Pn (t) + (λn−1 ∆ + o(∆))Pn−1 (t) + (µn+1∆ + o(∆))Pn+1 (t)− − Pn (t)(λn ∆ + µn ∆ + o(∆)) + o(∆) P0 (t + ∆) = P0 (t) + (µ1 ∆ + o(∆))P1 (t) − (λ0 ∆ + o(∆))P0 (t) + o(∆) Pn (t + ∆) − Pn (t) o(∆) = λn−1 Pn−1 (t) + µn+1 Pn+1 (t) − (λn + µn )Pn (t) + ∆ ∆ P0 (t + ∆) − P0 (t) o(∆) = µ1 P1 (t) − λ0 P0 (t) + ∆ ∆ Für ∆ → 0 erhält man dann folgendes Differentialgleichungssystem: dPn (t) = λn−1 Pn−1 (t) + µn+1 Pn+1 (t) − (λn + µn )Pn (t) dt dP0 (t) = µ1 P1 (t) − λ0 P0 (t) dt Beschränken uns auf die Analyse der Gleichgewichtswahrscheinlichkeiten Pn : λ0 dP0 (t) = 0 ⇒ P1 = P0 dt µ1 (λn + µn )Pn − λn−1 Pn−1 dPn (t) = 0 ⇒ Pn+1 = dt µn+1 ⇒ Pn+1 = n = 1 ⇒ P2 = λn µn Pn − λn−1 Pn−1 Pn + µn+1 µn+1 λ1 µ 1 P1 − λ0 P0 λ1 λ1 λ0 P1 + = P1 = P0 µ2 µ2 µ2 µ2 µ1 n = 2 ⇒ P3 = =0 λ2 µ 2 P2 − λ1 P1 λ2 λ2 λ1 λ0 P2 + = P2 = P0 µ3 µ3 µ3 µ3 µ2 µ1 =0 8 Pn = λn−1 λn−2 · · · λ0 P0 = Cn P0 µn µn−1 · · · µ1 Cn Weiters gilt: (Beachte C0 = 1) ∞ i=0 Pi = P0 ∞ i=0 Ci = 1 ⇒ P0 = 1 1+ ∞ i=1 Ci Daraus lässt sich berechnen: • mittlere Anzahl von Kunden im System L= ∞ nPn n=0 • mittlere Warteschlangenlänge Lq = ∞ n=s (n − s)Pn • mittlere Ankunftsrate mittlere Ankunftsrate: λ̄ = ∞ λn Pn n=0 • mittlere Verweilzeit W sowie mittlere Wartezeit Wq W = L λ̄ Wq = Lq λ̄ Bemerkung: Diese Ergebnisse für den stationären Zustand wurden unter der Annahme hergeleitet, dass der Prozess überhaupt einen stationären Zustand erreicht und die Warteschlange nicht unendlich lang wird. Formal bedeutet dies: Cn < ∞. Dies trifft zu wenn z.B.: • λn = 0 ∀n ≥ N, i.e. nur eine endliche Anzahl von Zuständen 0, 1, · · · N auftreten kann. • wenn λ und µ als Durchschnittsgrößen definiert sind und wenn ρ := λ sµ < 1 gilt. Das M/M/1− Modell Annahmen: 1. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der Ankunftsprozess ist ein Poissonprozess mit Rate λ.) 2. Alle Servicezeiten sind voneinander unabhängig und besitzen die gleiche Exponentialverteilung mit Parameter µ. 3. Die Anzahl der Bedienerstellen beträgt s = 1. 9 Ist die mittlere Servicerate µ größer als die mittlere Ankunftsrate λ, also ρ= λ <1 µ wird das Warteschlangensystem einen stationären Zustand erreichen. Für die Faktoren Cn im Geburts- und Sterbeprozess gilt: n Cn = λ µ = ρn und daher: Pn = ρn P0 für n = 1, 2, · · · sowie P0 = 1 1+ ∞ n=1 ρn 1 = ∞ n=0 ρn = 1 1 1−ρ = 1−ρ Daher gilt: Pn = (1 − ρ)ρn ,für n = 0, 1, 2, · · · Für die mittlere Anzahl der Kunden im System gilt: L= ∞ nPn = n=0 d (1 − ρ)ρ dρ ∞ n(1 − ρ)ρn = (1 − ρ)ρ n=0 ∞ n ρ n=1 ∞ n=1 d = (1 − ρ)ρ dρ ρ 1−ρ nρn−1 = d n = dρ ρ = (1 − ρ)ρ 1 (1 − ρ)2 Also gilt: L= ρ λ = 1−ρ µ−λ Weiters ergibt sich: Lq = ∞ (n − 1)Pn = n=1 W = nPn − n=1 Lq = Formel von Little ⇒ ∞ ∞ n=1 Pn = L − (1 − P0 ) =ρ ρ2 λ2 ρ −ρ= = 1−ρ 1−ρ µ(µ − λ) Lq L 1 λ = und Wq = = λ µ−λ λ µ(µ − λ) Bemerkung: Es muss für die Berechnung von P0 tatsächlich λ < µ verlangt werden, da die geometrische Reihe sonst nicht konvergiert. Selbst wenn Ankunftsrate λ und Servicerate µ gleich sind, wächst die Warteschlange im Mittel immer stärker an und strebt gegen unendlich. Verteilung der Verweilzeit und der Wartezeit Das M/M/1−Model ist so einfach, dass man nicht nur die Erwartungswerte von Verweil- und Wartezeit ausrechnen kann, sondern auch deren Verteilungen, sofern man die Auswahlordnung ”first-come-first-served” voraussetzt. W = Verweilzeit eines ankommenden Kunden im System (inkl. der Servicezeit) Findet der ankommende Kunde schon n Kunden im System vor, muss er (n + 1) exponentialverteilte Servicezeiten (einschließlich seiner eigenen) abwarten, bis er das System wieder verlässt. (Für den Kunden, der gerade bedient wird, ist gemäss Eigenschaft 2 die Restservicezeit exponentialverteilt mit demselben Parameter µ.) 10 Seien T1 , T2 , · · · Tn+1 unabhängige Zufallsvariable, die die n + 1 Servicezeiten repräsentieren und alle eine Exponentialverteilung mit demselben Parameter µ besitzen. Bilden Sn+1 = T1 + T2 + · · · + Tn+1 , für alle n = 0, 1, 2, · · ·. Sn+1 ist die bedingte Verweilzeit eines neu ankommenden Kunden, wenn n Kunden bereits im System sind. Dichte von Sn+1 : f (n+1) (z) = µ n+1 z n exp[−µz] n! Erlang-Verteilung Verteilungsfunktion von Sn+1 : −µz P(Sn+1 ≤ z) = 1 − e ∞ P{W > t} = n (µz)i i! i=0 Pn P{W > t|n Kunden im System} = n=0 ∞ Pn P{Sn+1 ≥ t} n=0 P{W > t} = ∞ n=0 n (1 − ρ)ρ =Pn −µt e n (µt)i = e−µ(1−ρ)t i=0 i! =P{Sn+1 ≥t} ============================================================ ∞ n (1 − ρ)ρ n=0 ∞ n ρ n=0 n −µt e n ∞ n (µt)i (µt)i −µt n = e (1 − ρ) ρ n=0 i=0 i! i=0 i! ∞ ∞ ∞ (µt)i ρn (µt)n ρn (µt)n−1 ρn (µt)n−2 = + + +··· n=0 n! n=2 (n − 2)! i=0 i! n=1 (n − 1)! i=n i=n−1 i=n−2 ∞ ∞ ∞ ρn (µt)n ρn+1 (µt)n ρn+2 (µt)n + + +··· = n! n! n! n=0 n=0 n=0 = ∞ ∞ ∞ (ρµt)n (ρµt)n (ρµt)n eρµt + ρ2 + · · · = eρµt +ρ ρi = n! n! n! 1−ρ n=0 n=0 n=0 i=0 ∞ =exp[ρµt] ============================================================ W ist also exponentialverteilt mit Parameter µ(1 − ρ) = µ − λ. Für den Erwartungswert erhält man: 1 W = E(W) = µ−λ Ähnliche Überlegungen können für die Wartezeit Wq (i.e. ohne Servicezeit) eines zufällig ankommenden Kunden angestellt werden. Findet dieser ankommende Kunde keinen Kunden im System vor, wird er sofort bedient. Es gilt also 11 P{Wq = 0} = P0 = 1 − ρ Findet er hingegen n > 0 Kunden vor, muss er n exponentialverteilte Servicezeiten abwarten, bis sein eigener Service beginnt. Es gilt: P{Wq > t} = ∞ Pn P{Sn > t} = n=1 = ∞ ∞ (1 − ρ)ρn P{Sn > t} n=1 (1 − ρ)ρn+1 P{Sn+1 > t} = ρ n=0 ∞ Pn P{Sn+1 > t} = ρe−µ(1−ρ)t n=0 Für den Erwartungswert erhält man Wq = E(Wq ) = λ µ(µ − λ) Das M/M/s− Modell Annahmen: 1. Die Anzahl der Bedienerstellen beträgt s > 1. 2. Alle Servicezeiten sind voneinander unabhängig. Jede Servicezeit jeder einzelnen Bedienerstelle ist exponentialverteilt mit Parameter µ. 3. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der Ankunftsprozess ist ein Poissonprozess mit Rate λ.) Man muss nun folgende Fälle unterscheiden: 1. Es sind alle s Bedienerstellen besetzt: Die Zeitdauer, bis der erste Kunde fertig ist, ist exponentialverteilt mit Parameter sµ (siehe Eigenschaft 3 der Exponentialverteilung). Die Abfertigungsrate in einem Zustand n ≥ s beträgt daher µn = sµ. 2. Es ist n < s und daher sind nur n Bedienerstellen besetzt. Die Abfertigungsrate ist daher µn = nµ. Für die Faktoren Cn im Geburts- und Sterbeprozess gilt daher: Cn = sowie Cn = λs s!µs λ sµ λn n!µn n−s für n = 1, 2, · · · , s 1 = s!sn−s n λ µ für n = s + 1, s + 2, · · · Ist der maximale Ausnutzungsgrad ρ = λ/(sµ) echt kleiner als 1, so erreicht das System einen stationären Zustand. Entsprechend dem allgemeinen Geburts- und Sterbeprozess erhält man dann: Pn = λn P0 für n = 1, 2, · · · , s n!µn 12 und 1 Pn = s!sn−s n λ µ P0 für n = s + 1, s + 2, · · · wobei P0 durch 1 P0 = ∞ n=0 = Cn −1 s−1 ∞ n−s λn λs λ + n s n!µ s!µ sµ n=s n=0 =1/(1−ρ) Für die erwartete Länge der Warteschlange erhält man: Lq = ∞ ∞ (n − s) Pn = n=s jPs+j = j=0 =:j ∞ j j=0 λs j ρ P0 s!µs ∞ ∞ λs λs d = P0 s ρ jρj−1 = P0 s ρ ρj s!µ j=1 s!µ dρ j=1 d(ρj ) dρ =ρ/(1−ρ) ⇒ Lq = P0 λs ρ s s!µ (1 − ρ)2 Aufgrund der Formeln von Little ergibt sich: Lq Wq = , λ 1 W = Wq + , µ 1 λ L = λ Wq + = Lq + λ µ Ähnlich wie im M/M/1− Modell kann man die Verteilung der Verweilzeit und der Wartezeit herleiten. (siehe Hillier und Liebermann.) Das M/M/s−Modell mit endlicher Warteschlange Es wird angenommen, dass die Anzahl der Kunden im Gesamtsystem eine vorgegebene Schranke K nicht übersteigen darf. Für die mittlere Inputrate gilt dann: λn = λ 0 für für n = 0, 1, 2, . . . K − 1 n≥K In diesem Fall wird das Warteschlangensystem immer einen stationären Zustand erreichen. Für der Ein-Bediener-Fall (s = 1) erhält man: Cn = und demnach (λ/µ)n = ρn 0 1 P0 = K n=0 für für ρn 13 = n = 0, 1, 2, . . . K n>K 1−ρ 1 − ρK+1 und daher 1−ρ n ρ , 1 − ρK+1 Für die erwartete Anzahl von Kunden gilt: für n = 0, 1, 2, · · · K. Pn = K K K d(ρn ) 1−ρ 1−ρ n−1 L= = nPn = ρ nρ = ρ 1 − ρK+1 n=1 1 − ρK+1 n=1 dρ n=0 K 1−ρ d 1−ρ d 1 − ρK n = ρ ρ = ρ ρ 1 − ρK+1 dρ n=1 1 − ρK+1 dρ 1−ρ = (K + 1)ρK+1 ρ − 1−ρ 1 − ρK+1 Für die erwartete Warteschlangenlänge gilt wieder: = Lq = K (n − 1)Pn = n=1 K nPn − n=1 =L K n=1 Pn = L − (1 − P0 ) =1−P0 Für die Berechnung der erwarteten Verweilzeit bzw. Servicezeit braucht man die mittlere Ankunftsrate λ̄ da die λn nicht alle gleich groß sind. λ̄ = ∞ λn Pn = n=0 K−1 λPn = λ(1 − PK ) n=0 und aus der Formel von Little erhält man dann: W = L λ̄ und Wq = Lq λ̄ Bemerkung: 1. Ist ρ < 1 so konvergieren für K → ∞ die Ergebnisse gegen die entsprechenden Ergebnisse des M/M/1−Modells. 2. Es ist möglich, die Verteilung der Verweilzeiten und Wartezeiten auszurechnen. 3. Es ist möglich, entsprechende Ergebnisse für s Bedienerstellen (s > 1) herzuleiten. Das M/M/s−Modell mit endlicher Input-Quelle (Maschinenreparatur-Problem) N · · · Größe des Abrufbestandes Befinden sich n Kunden im Warteschlangensystem (n = 0, 1, · · · N) dann gibt es nur mehr (N − n) potentielle Kunden, die in der Inputquelle verbleiben. Bsp: In einer Fabrik befinden sich N Maschinen. Fällt eine Maschine aus, so reiht sie sich in eine Warteschlange, und wartet darauf vom Servicepersonal repariert zu werden. Sind n Maschinen nun nicht in Betrieb (werden gerade repariert bzw. warten auf Reparatur) so sind nur mehr N − n in Betrieb. Ist nun die Zeit bis eine Maschinen ausfällt exponentialverteilt mit Parameter λ, so ist die Zeit, bis die nächste der N − n Maschinen ausfällt, exponentialverteilt mit Parameter (N − n)λ. (Die 14 Zeit bis zum nächsten Ausfall ist das Minimum von N − n unabhängigen exponentialverteilten Zufallsvariablen. Siehe Eigenschaft 3 der Exponentialverteilung.) Als Ausfallsrate bekommt man daher: λn = (N − n)λ Ergebnisse für den Ein-Bediener Fall (s = 1): n λ Cn = N(N − 1) · · · (N − n + 1) µ N! = (N − n)! n λ µ für n = 1, 2, · · · , N Wie gewohnt berechnet man die stationären Zustandswahrscheinlichkeiten: N N! P0 = n=0 (N − n)! N! Pn = (N − n)! n −1 λ µ n λ µ P0 Für die erwartete Warteschlangenlänge ergibt sich: Lq = N (n − 1)Pn = N − n=1 λ+µ (1 − P0 ) λ und weiters: L= N n=0 nPn = Lq + (1 − P0 ) = N − µ (1 − P0 ) λ Für die mittlere Ankunftsrate gilt: λ̄ = ∞ λn Pn = n=0 N (N − n)λPn = λ(N − L) n=0 Die Formel von Little liefert dann: W = L λ̄ und Wq = Lq λ̄ Bemerkung: 1. Analoge Ergebnisse für das Maschinenreparaturproblem kann man auch für der Mehr-BedienerFall (s > 1) herleiten. Siehe z.B. Hillier & Liebermann. 2. Die Formeln für Pn , P0 (und daher auch für L, Lq , W, Wq ) gelten auch dann, wenn die Zeiten, die die Mitglieder des Abrufbestandes ausserhalb des Warteschlangensystems verbringen, keiner Exponentialverteilung gehorchen. Diese Zeiten müssen nur dieselbe Verteilung mit dem Mittelwert 1/λ besitzen. Die Servicezeiten müssen weiterhin exponentialverteilt sein. 15 Modelle mit zustandsabhängiger Servicerate/Ankunftsrate In realen Warteschlangensystemen ist die Servicezeit oft keine Konstante. Bei langer Warteschlange werden die Bedienerstellen oft schneller arbeiten. mögliche Gründe: • Bedienerstellen (im Fall von Personen) strengen sich mehr an • Abstriche in der Qualität des Service • Unterstützung Einfache theoretische Modellierung im Ein-Bediener-Fall (s = 1): µn = nc µ1 , für n = 1, 2, · · · Dabei ist: n · · · Anzahl der Kunden im System µn · · · mittlere Servicerate, wenn n Kunden im System sind c · · · ”Anpassungskoeffizient” - eine positive Konstante, die den Grad angibt, wie die Servicerate auf den Systemzustand reagiert. Eine lange Warteschlange kann auch die Ankunftsrate beeinflussen. Im entsprechenden Modell gilt dann: λn = (n + 1)−b λ0 , für n = 0, 1, 2, · · · wobei b ≥ 0 angenommen wird. Warteschlangenmodelle auf Grundlage anderer Wahrscheinlichkeitsverteilungen Das M/G/1− Modell: Annahmen: 1. Die Anzahl der Bedienerstellen beträgt s = 1. 2. Alle Zwischenankunftszeiten sind unabhängig und exponentialverteilt mit Parameter λ (der Ankunftsprozess ist ein Poissonprozess mit Rate λ.) 3. Alle Servicezeiten sind voneinander unabhängig und haben die gleiche Wahrscheinlichkeitsverteilung. Es wird angenommen, dass die ersten beiden Momente existieren. 1/µ · · · Mittelwert σ 2 · · · Varianz Unter der Annahme, dass ρ = λ/µ < 1 ist, kann das Warteschlangensystem einen stationären Zustand erreichen. Die Ergebnisse für den stationären Zustand lauten: P0 = 1 − ρ 16 Lq = ρ2 + λ2 σ 2 2(1 − ρ) L = Lq + ρ Lq λ 1 W = Wq + µ Wq = Bemerkungen: 1. Die Gleichung für Lq (bzw. Wq ) wird häufig als Pollaczek-Khintchine-Formel bezeichnet. 2. Im M/M/1− Modell gilt für die Varianz der Servicezeiten σ 2 = 1/µ2. Einsetzen in obige Formel für Lq ergibt das schon früher hergeleitete Resultat: Lq = ρ2 + λ2 σ 2 2ρ2 ρ2 = = 2(1 − ρ) 2(1 − ρ) (1 − ρ) Das M/D/1− Modell Wenn der Service für alle Kunden im wesentlichen aus derselben Routinetätigkeit besteht, dann wird die benötigte Servicezeit nur wenig variieren. Die Annahme einer deterministischen Servicezeit ist daher in diesen Fällen sinnvoll. Da das M/D/1− Modell ein Sonderfall des M/G/1− Modells mit σ 2 = 0 ist, reduziert sich die Pollaczek-Khintchine-Formel auf ρ2 Lq = 2(1 − ρ) Aus obigen Formeln kann man dann Wq , L sowie W berechnen. Es ist bemerkenswert, das im Fall von deterministischen Servicezeiten die Warteschlange halb so lang ist, wie im Fall exponentiell verteilter Servicezeiten. Das M/Ek /1− Modell (Erlangverteilte Servicezeiten) Die Dichtefunktion der Erlang-Verteilung lautet f (t) = (µk)k k−1 t exp[−kµt] (k − 1)! für t ≥ 0 wobei µ und k strikt positive Parameter sind, und k ganzzahlig ist. k wird als Schiefeparameter bezeichnet. 1 1 Varianz = Mittelwert = µ kµ2 Die Erlang-Verteilung ist aus zwei Gründen für die Warteschlangentheorie wichtig: 1. Sind die k Zeiten T1 , · · · , Tk unabhängige Zufallsvariable mit identischer Exponentialverteilung mit Mittelwert 1/(kµ), so gehorcht die Summe T1 + · · · + Tk einer Erlangverteilung mit Parameter µ und k. Bsp: Das Service eines Kunden besteht aus k Arbeitsgängen, deren Zeiten i.i.d. exponentialverteilt sind. Die Gesamtservicezeit ist dann erlang-verteilt. 2. Die Erlang-Verteilungen stellen eine Verteilungsfamilie mit 2 Parametern dar. Empirische Servicezeitverteilungen können deshalb gewöhnlich durch eine Erlangverteilung gut approximiert werden. Als Spezialfälle erhält man • die Exponentialverteilung im Fall k = 1 • die deterministische ”Verteilung” im Grenzfall k → ∞. 17 Das M/Hk /1− Modell (Hyperexponentialverteilte Servicezeiten) Eine (k−stufige) Hyperexponentialverteilung erhält man durch ”Parallel-Schalten” von k Exponentialverteilungen. Ist die Servicezeit T eines Kunden mit Wahrscheinlichkeit pi durch eine exponentialverteilte Servicezeit Ti mit Parameter µi gegeben (i = 1, · · · , k), so ist T hyperexponentialverteilt. Für die Verteilungsfunktion gilt dann: F (t) = P(T ≤ t) = k pi P(Ti ≤ t) = i=1 k pi (1 − e−µi t ) i=1 Durch Ableiten erhält man die Dichte f (t) = k pi µi e−µi t i=1 Für Erwartungswert und Varianz gilt: E(T ) = k pi i=1 k k pi pi Var(T ) = 2 − 2 i=1 µi i=1 µi µi 2 Näherungsformeln für Wartesysteme mit allgemeinen Ankunftszeiten: Für den sehr allgemeinen Fall GI/G/1 sind exakte Resultate nicht mehr möglich, jedoch gibt es Näherungsformeln. Die Mittelwerte und Varianzen der Zwischenankunftszeiten und der Servicezeiten müssen bekannt sein: 1 1 · · · Mittelwert der Servicezeit · · · Mittelwert der Ankunftszeit µ λ σ 2 · · · Varianz der Servicezeit z 2 · · · Varianz der Ankunftszeit Definieren die quadratischen Variationskoeffizienten: c2s = σ 2 µ2 und c2a = z 2 λ2 Dann gilt näherungsweise: Lq = c2a + c2s 2 ρ2 1−ρ Die restlichen Größen kann man aus der Formel von Little berechnen: 1 λ L = Lq + L = λW, Lq = λWq W = Wq + µ µ Bemerkung: Sind die Zwischenankunftszeiten exponentialverteilt, so gilt: 2 1 λ2 = 1 λ Die obige Näherungsformel liefert dann das exakte Ergebnis: c2a Lq = =z λ = 1 + c2s 2 2 2 ρ2 = 1−ρ ρ2 + σ 2 µ2 ρ2 2(1 − ρ) = 18 1 + σ 2 µ2 2 ρ2 + σ 2 λ2 2(1 − ρ) ρ2 = 1−ρ Warteschlangenmodelle mit Prioritätsregeln Warteschlangensysteme, bei denen die Auswahl des Kunden aus der Warteschlange nach einem Prioritätssystem erfolgt. Bsp: Im Krankenhaus werden schwere Fälle bevorzugt behandelt. • Von N Prioritätsklassen hat Klasse 1 die höchste Priorität und Klasse N die niedrigste. • Für jede Prioritätsklasse wird ein Poisson-Inputprozess und exponentialverteilte Servicezeiten angenommen. Es wird angenommen, dass für alle Prioritätsklassen dieselbe mittlere Servicezeit gilt. Die mittleren Ankunftsraten der einzelnen Prioritätsklassen können unterschiedlich sein. • Kunden werden in der Reihenfolge der Prioritätsklassen ausgewählt. Innerhalb der Klasse erfolgt die Auswahl nach der Länge der Wartezeit, i.e. entsprechend ”first-come-first served”. Prioritäten ohne absoluten Vorrang Wk · · · erwartete Verweilzeit (im stationären Zustand) für ein Mitglied der Prioritätsklasse k Wk = 1 ABk−1 Bk + 1 , fürk = 1, 2, · · · , N µ wobei: ρj sµ − λ s−1 A = sµ + s! ρs j=0 j! Achtung: Die Formel in Hillier und Liebermann (bis zur 4. Auflage) enthält einen Druckfehler. Dort steht fälschlicherweise im Nenner ρ2 anstatt ρs . B0 = 1, Bk = 1 − k i=1 sµ λi , für k = 1, 2, · · · N Dabei ist: s = Anzahl der Bedienerstellen µ = mittlere Servicerate pro beschäftigter Bedienerstelle λi = mittlere Ankunftsrate für Prioritätsklasse i λ= N i=1 λi ρ = λ/µ Dabei wird angenommen, dass das System einen stationären Zustand erreicht. Formel von Little ⇒ erwartete Anzahl der Mitglieder aus Prioritätsklasse k im Warteschlangensystem: Lk = λk Wk , k = 1, 2, · · · N 19 Prioritäten mit absolutem Vorrang: Ein Kunde der niedrigsten Prioritätsklasse der gerade bedient wird, wird in die Warteschlange zurückverwiesen, wenn ein Kunde einer höheren Prioritätsklasse das System betritt und keine freie Bedienerstelle vorfindet. Für den ein-Bediener-Fall (s = 1 erhält man als erwartete Verweilzeit eines Kunden der Prioritätsklasse k: Wk = 1/µ , für k = 1, 2, · · · N. Bk−1 Bk Für den Mehrbediener-Fall kann Wk durch ein iteratives Verfahren berechnet werden. Bsp: Notaufnahme im Spital Die Krankenschwester teilt die Patienten in folgende drei Kategorien: kritische Fälle: sofortige Behandlung ist für Überleben entscheidend ernste Fälle: eine frühzeitige Behandlung ist wichtig, um eine Verschlechterung zu verhindern leichte Fälle: eine Verzögerung der Behandlung hat keine ungünstigen medizinische Folgen für den Patienten. 10 % der Patienten Fallen in Kategorie 1, 30% in Kategorie 2 und 60% in Kategorie 3. Bei eine Gesamtankunftsrate von λ = 2 erhält man daher für die Ankunftsraten der einzelnen Klassen: λ1 = 0.2, λ2 = 0.6, λ3 = 1.2. Die Servicerate, die für alle Klassen gleich ist, beträgt µ = 3. A B1 B2 B3 Wq,1 Wq,2 Wq,3 Prioritäten mit absolutem Vorrang s=1 s=2 0.933 0.733 0.333 0.00037 0.024 0.154 0.00792 0.06542 1.033 Prioritäten ohne absoluten Vorrang s=1 s=2 4.5000 36.000 0.933 0.967 0.733 0.867 0.333 0.667 0.238 0.029 0.325 0.033 0.889 0.048 Die Werte für Prioritäten ohne absoluten Vorrang, sowie mit absolutem Vorrang im Fall s = 1 können nach den bereits bekannten Formeln berechnet werden. Für Prioritäten mit absolutem Vorrang im Fall s = 2 wurden folgende Überlegungen angestellt: Die Verweilzeiten für Patienten der Prioritätsklasse 1 ist völlig unbeeinflusst von Patienten einer niedrigeren Prioritätsklasse. D.h. das Warteschlangensystem für diese Patienten kann durch ein M/M/s− Modell mit λ = 0.2, µ = 3 und s = 2 beschrieben werden. Dies ergibt: Wq,1 = 0.00037 Betrachten nun die ersten beiden Prioritätsklassen. Die Patienten in diesen Klassen werden von Patienten niedrigerer Priorität (hier Klasse 3) nicht beeinflusst. Die mittlere Wartezeit W̄q;1−2 für einen zufällig ankommenden Kunden aus Prioritätsklasse 1 oder 2 kann durch ein M/M/s−Modell 20 beschrieben werden mit λ = λ1 + λ2 = 0.8, µ = 3, s = 2. (Die mittlere Wartezeit ist unabhängig von der Auswahlordnung.) Dies ergibt: W̄q;1−2 = .00603 Da innerhalb der ersten beiden Prioritätsklassen das Verhältnis der ersten zur zweiten Klasse 1:3 beträgt, gilt 1 3 4 1 W̄q;1−2 = Wq;1 + Wq;2 ⇒ Wq;2 = (W̄q;1−2 − Wq;1 ) = 0.00792 4 4 3 4 Für die mittlere Wartezeit W̄q;1−3 eines zufällig ankommenden Patienten, egal welcher Prioritätsklasse er angehört, gilt: W̄q;1−3 = 0.1Wq;1 + 0.3Wq;2 + 0.6Wq;3 ⇒ Wq,3 = 1 (W̄q;1−3 − 0.1Wq;1 − 0.3Wq,2) 0.6 da die Prioritätsklassen im Verhältnis 1:3:6 besetzt sind. W̄q;1−3 kann aus einem M/M/s−Modell mit λ = λ1 + λ2 + λ3 = 2, µ = 3, s = 2 berechnet werden. Man erhält W̄q;1−3 = 0.04167 und daraus Wq;3 = 0.06542 Warteschlangennetzwerke Bis jetzt haben wir nur Warteschlangensysteme mit einer Serviceeinrichtung (mit einer oder mehrerer Bedienerstellen) betrachtet. In der Praxis treten oft Netzwerke von Serviceeinrichtungen auf. Z.B. in einer Werkstätte werden Aufträge durch eine Reihe von Maschinengruppen (= Serviceeinrichtungen) geschleust. Für Warteschlangennetzwerke ist folgenden Äquivalenzeigenschaft von Bedeutung, die einen Zusammenhang zwischen dem Inputprozess und dem Outputprozess für bestimmte Warteschlangensysteme angibt: Äquivalenzeigenschaft: Es wird angenommen, dass eine Serviceeinrichtung mit s Bedienerstellen einen poissonverteilten Inputprozess mit dem Parameter λ und für jede Bedienerstelle dieselbe Exponentialverteilung der Servicezeiten mit Parameter µ besitzt (M/M/s−Modell), wobei sµ > λ gelte. Der Output dieser Serviceeinrichtung im stationären Zustand ist ebenfalls ein Poissonprozess mit Parameter λ. Bemerkungen: 1. Diese Eigenschaft ist unabhängig von der Auswahlordnung. 2. Angenommen die Kunden bekommen einen Service von einer Reihe von Serviceeinrichtungen. Dann kann mithilfe des M/M/s−Modells jede Serviceeinrichtung unabhängig von den anderen analysiert werden, da jede dieser Serviceeinrichtungen als Input einen Poissonprozess mit Parameter λ hat. 3. Diese Eigenschaft gilt nicht für Warteschlangensysteme mit endlichem Warteraum. 21 Anwendungen der Warteschlangentheorie: Ein großer Teil der Warteschlangenprobleme, die in der Praxis auftreten, beschäftigt sich mit den folgenden Entscheidungen: 1. Wieviele Bedienerstellen bei einer Serviceeinrichtung: s =? 2. Effizienz der Bedienerstellen: µ =? 3. Anzahl der Serviceeinrichtungen: λ =? Bsp für Punkt 3: Auf einem Fabriksgelände sollen eine oder mehrere Werkzeugausgaben errichtet werden. Die Werkzeuge werden von Verwaltern an die Mechaniker ausgegeben bzw. wieder übernommen. Wieviele Werkzeugausgaben sollen errichtet werden, um einerseits den Aufwand der Mechaniker zu ihrem Werkzeug zu kommen zu minimieren und andererseits die Kosten für den Betrieb der Werkzeugausgaben zu minimieren. Ziel ist es, ein optimales Servicveniveau zu wählen, sodass die erwarteten Gesamtkosten E(T C) minimiert werden. Diese Gesamtkosten T C setzen sich additiv aus den Servicekosten SC und den Wartekosten W C zusammen, wobei E(SC) mit zunehmendem Serviceniveau monoton steigt und E(W C) monoton fällt. Schätzung der Wartekosten: 1. Die Kunden sind Aussenstehende, deren Inanspruchnahme eines Services zum Gewinn des Unternehmens beiträgt. Für das Unternehmen entstehen ”Wartekosten” in erster Linie durch entgangenen Gewinn, da der Kunde entweder das Warteschlangensystem unbedient wieder verlässt oder in Zukunft zur Konkurrenz geht. 2. Der Service wird aussenstehenden Kunden auf einer nicht gewinnbringenden Basis angeboten. Wartekosten sind eine Art von Sozialkosten, die die Konsequenz des Wartens auf den Einzelnen/die Gesellschaft bewertet. 3. Die Kunden gehören dem Betrieb an (z.B. Maschinen, Arbeiter). Durch die Wartezeit auf einen Service und dem damit verbundenen Arbeitsstillstand verringert sich die Produktivität der Firma. Formulierung der Wartekostenfunktion: Meist können die Wartekosten durch eine der beiden Grundformen dargestellt werden: • Die g(N)−Form: Wird angewendet, wenn die Kunden interne Mitarbeiter sind und die Wartekosten durch eine entgangene Produktivität hervorgerufen werden. Der entgangene produktive Output hängt von der Anzahl der (für die Produktion untätigen) Kunden (=Mitarbeiter) im Warteschlangensystem ab. Die entsprechenden Kosten werden durch die Funktion g(n), n = 0, 1, · · · N beschrieben. Eigenschaften von g(n) : g(0) = 0, g monoton wachsend. Für die mittleren Wartekosten gilt dann: E(W C) = E(g(n)) = ∞ i=0 22 g(n)Pn Sonderfall: g(N) ist linear, i.e. g(N) = Cw N. Dann ist ∞ E(W C) = Cw nPn = Cw L i=0 =L • Die h(W)−Form: Wird angewendet, wenn es sich um externe Kunden handelt. kommerzielle Servicesysteme: Wartekosten ≡ entgangener Gewinn aus dem entgangenen zukünftigen Geschäft. Transportsysteme und soziale Systeme: Wartekosten ≡ soziale Kosten In beiden Fällen werden die Wartekosten h(W) durch die Verweilzeit W jedes einzelnen Kunden bestimmt. Bemerkung: h(W) kann dadurch bestimmt werden, dass die Wartekosten für einige Werte von W geschätzt werden. Durch Interpolation mittels Polynome (zB. Splines) kann dann h(W) approximiert werden. Sei fW die Wahrscheinlichkeitsdichte von W. Für den Erwartungswert der Wartekosten pro Kunden bekommt man: E(h(W)) = ∞ 0 h(w)fW (w)dw Um den Erwartungswert der Wartekosten pro Zeiteinheit E(W C) zu bekommen, multipliziert man noch mit der mittleren Anzahl λ der Kunden, die pro Zeiteinheit das System betreten: ⇒ E(W C) = λE(h(W)) = λ ∞ 0 h(w)fW (w)dw Sonderfall: h(W) ist linear, i.e. h(W) = Cw W Dann ist E(W C) = λE(Cw W) = Cw (λW ) = Cw L =L Entscheidungsmodelle: Modell 1: unbekanntes s Definition: Cs · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit. Gegeben: λ, µ, Cs Entscheidungsvariable: s Zielfunktion: minimiere E(T C) = sCs + E(W C) Beispiel: Situation: In einem Betrieb wird auf 8 identen Maschinen ein Produkt gefertigt. Zusätzlich stehen zwei Maschinen als Reserve zu Verfügung. Die Ausfallszeit einer Maschine ist exponentialverteilt mit einem Mittel von 20 Tagen. Ein Mechaniker (=Bedienerstelle) repariert die kaputten Maschinen (=Kunden), wobei die Servicezeit exponentialverteilt mit einem Mittel von 2 Tagen ist. 23 Problem: Da oft weniger als 8 Maschinen funktionieren, kommt es zu einer Verringerung der Produktivität. Kosten: Ein Mechaniker kostet 70 Euro/Tag. Der Gewinn aus der Produktion beträgt 100Euro/Tag pro arbeitender Maschine. Es können maximal 8 Maschinen gleichzeitig in Betrieb sein. ⇒ Sofern die Anzahl der defekten Maschinen zwei nicht übersteigt, habe ich keine Verringerung der Produktivität und damit keine Kosten. Für jede zusätzliche Maschine beträgt der entgangene Gewinn 100 Euro/Tag. Frage: Soll der Betriebsleiter einen zweiten Mechaniker anstellen um den Gewinn zu maximieren. Das zugrundeliegende Modell ist ein M/M/s−Modell mit endlichem Abrufbestand. Im Fall von s = 1 erhält man: λ0 = λ1 = λ2 = 8/20, λ3 = 7/20, λ4 = 6/20, · · · λ9 = 1/20, sowie µi = 1/2, i = 1, . . . 10. Im Fall von s = 2 erhält man die selben Werte für λi , sowie µ1 = 1/2, µi = 1, i = 2, . . . 10. Die stationäre Verteilung ist in folgender Tabelle zusammengefasst: n 0 1 2 3 4 5 6 7 8 9 10 g(n) Pn für s = 1 Pn für s = 2 0 0.271 0.433 0 0.217 0.346 0 0.173 0.139 100 0.139 0.055 200 0.097 0.019 300 0.058 0.006 400 0.029 0.001 500 0.012 3 × 10−4 600 0.003 4 × 10−5 700 7 × 10−4 4 × 10−6 800 7 × 10−5 2 × 10−7 E(W C) 70Euro/Tag 12 Euro/Tag Für die Servicekosten gilt: E(SC) = 70 × s. Die erwarteten Gesamtkosten in Abhängigkeit von s ergeben sich zu E(W C) E(SC) E(T C) s=1 s=2 s≥3 70 12 ≥0 70 140 ≥ 210 140 152 ≥ 210 Es ist also optimal, weiterhin nur einen Mechaniker zu beschäftigen. Modell 2: unbekanntes µ und s Definition: f (µ) · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit, wenn mittlere Servicerate µ beträgt. A · · · Menge zulässiger Werte von µ Gegeben: λ, f (µ), A Entscheidungsvariable: µ, s Zielfunktion: minimiere E(T C) = sf (µ) + E(W C) mit µ ∈ A. Beispiel: Das Rechenzentrum der Emerald-Universität plant, einen neuen Computer für die Studenten zu mieten. Zur Auswahl stehen zwei Modelle 24 • Firma MBI: Leasingkosten: Euro 100/Stunde. Die Anzahl der abgeschlossenen Programme pro Stunden folgen einem Poissonprozess mit einem Mittelwert von 30 Programmen/Stunde, i.e. µ = 30. • Firma EG: Leasingkosten: Euro 75/Stunde. Die Anzahl der abgeschlossenen Programme pro Stunden folgen einem Poissonprozess mit einem Mittelwert von 25 Programmen/Stunde, i.e. µ = 25. Die zu rechnenden Programme folgen einem Poisson-Inputprozess mit einem Mittel von λ = 20 Programmen/Stunde. Das Warteschlangenmodell wird durch ein M/M/1−Modell beschrieben. Für die Dichtefunktion der Verweilzeiten gilt: fW (w) = (µ − λ) exp[−(µ − λ)w] wobei µ−λ= 10, 5, für MBI) für EG) Die Kostenfunktion h(W) wird geschätzt durch h(W) = 10W + 8W 2 Für die erwarteten Kosten pro Studenten ∞ E[h(W)] = 0 (10w + 8w 2 )(µ − λ)e−(µ−λ)w dw erhält man E[h(W)] = 1.16, 2.64, für MBI für EG Da λ = 20 Studenten/Stunde ist, ⇒ E[W C] = Es gilt: A = {25, 30}. f (µ) = 23.20 Euro/Stunde, 52.80 Euro/Stunde, 100, 75, für für für MBI für EG µ = 30 (MBI) µ = 25 (EG) Die Anzahl der Bedienerstellen ist mit s = 1 festgelegt. Die erwarteten Gesamtkosten in Abhängigkeit von s ergeben sich zu MBI EG E(W C) 23.20 52.80 E(SC) = f (µ) 100.00 75.00 E(T C) 123.20 127.80 Es ist also optimal, den Computer der Firma MBI zu leasen. Das Beispiel mit den Computern der Firma MBI bzw. EG stellt einen Fall dar, wo s = 1 fest vorgegeben war und nur µ aus einer endlichen Menge von Alternativen gewählt wurde. Weitere Möglichkeiten: 25 • Die Menge A der möglichen Werte für µ ist endlich und s ist nicht festgelegt: Schritt 1: Wähle für jeden Wert von µ jene Anzahl von Bedienerstellen s∗ = s∗ (µ), die die erwarteten Gesamtkosten E(T C) minimiert. Schritt 2: Wähle jenen Wert von µ, der E(T C) = E(T C)(µ, s∗(µ)) minimiert. • Die Menge A der möglichen Werte für µ ist unendlich und s ist nicht festgelegt: Schritt 1: Wähle für jede Anzahl von Bedienerstellen s jenen Wert von µ, µ∗ = µ∗ (s), der die erwarteten Gesamtkosten E(T C) minimiert. (z.B. analytisch durch Ableiten von E(T C) nach µ, oder numerisch.) Schritt 2: Wähle jenen Wert von s, der E(T C) = E(T C)(µ∗ (s), s) minimiert. Optimalität einer einzelnen Bedienerstelle: Unter bestimmten Voraussetzungen muss für die optimale Lösung s = 1 gelten, d.h. eine schnelle Bedienerstelle ist mehreren langsamen vorzuziehen. Die wesentlichen Voraussetzungen sind: 1. Der Wert von µ, der im Fall von nur einer Bedienerstelle (s = 1) die erwarteten Gesamtkosten E(T C) minimiert, ist zulässig. 2. Die marginalen Kosten einer Bedienerstelle f (µ) sind eine lineare oder konkave Funktion der Servicerate µ. Begründung: Vergleichen eine Mehr-Bediener-Lösung (s∗ , µ∗ ) (mit s∗ > 1) mit der EinBediener-Lösung (1, s∗ µ∗ ). Beide Lösungen haben die selbe Servicekapazität s∗ µ∗ . Diese maximale Servicekapazität wird bei der Ein-Bediener-Lösung immer voll ausgenützt, sofern Kunden bedient werden, im Mehr-Bediener-Fall jedoch nur dann, wenn mindestens s∗ Kunden im System sind. ⇒ Die Verweilzeit und damit die mittleren Wartekosten E(W C) sind bei der (s∗ , µ∗ )−Lösung höher als im (1, s∗ µ∗ )− Fall. Wegen s∗ f (µ∗ ) ≥ f (s∗ µ∗ ) sind die erwarteten Servicekosten für die (s∗ , µ∗ )−Lösung höher als für die Ein-Bediener-Lösung. Modell 3: Unbekanntes λ und s Sowohl die Anzahl der Serviceeinrichtungen als auch die Anzahl der Bedienerstellen ist unbekannt. Bsp: Auf einem Fabriksgelände sollen eine oder mehrere Werkzeugausgaben errichtet werden. Die Werkzeuge werden von Verwaltern an die Mechaniker ausgegeben bzw. wieder übernommen. Wieviele Werkzeugausgaben sollen errichtet werden, um einerseits den Aufwand der Mechaniker zu ihrem Werkzeug zu kommen zu minimieren und andererseits die Kosten für den Betrieb der Werkzeugausgaben zu minimieren. Definition: Cs · · · marginale Kosten einer Bedienerstelle pro Zeiteinheit Cf · · · fixe Servicekosten pro Serviceeinrichtung pro Zeiteinheit λp · · · mittlere Ankunftsrate für den gesamten Abrufbestand n · · · Anzahl der Serviceeinrichtungen = λp /λ Gegeben: µ, Cs , Cf , λp 26 Entscheidungsvariable: λ, s Zielfunktion: minimiere E(T C) Die Hin- und Rückfahrzeiten der Kunden zu den Serviceeinrichtungen muss berücksichtigt werden, da sonst eine schnelle Serviceeinrichtung besser als mehrerer langsame wäre! ⇒ E(T C) = n[(Cf + sCs ) + E(W C) + λCt E(T )] Dabei bezeichnet die Zufallsvariable T die Fahrzeit eines Kunden. Die erwarteten Fahrkosten sind proportional zur erwarteten Fahrzeit. Die Fahrzeit geht ansonst nicht in die Wartekosten ein. 27 Zuverlässigkeit/Reliabilität Strukturfunktion eines Systems Nehmen wir an, ein System (z.B. Auto) kann in n Komponenten zerlegt werden. Der Zustand jeder dieser Komponenten kann durch die Zufallsvariable Xi beschrieben werden. Xi = 1 falls Komponente i im Intervall [0, t] funktioniert 0 falls Komponente i im Intervall [0, t] nicht störungsfrei arbeitet Der Zustand des Gesamtsystems wird dann durch die (dichotome) Zustandsvariable Φ(X1 , X2 , · · · , Xn ) beschrieben, wobei Φ(X1 , · · · , Xn ) = 1 falls Gesamtsystem im Intervall [0, t] funktioniert 0 falls Gesamtsystem im Intervall [0, t] nicht störungsfrei arbeitet Φ(X1 , X2 , · · · , Xn ) heisst Strukturfunktion des Systems. Einige typische Strukturfunktionen sind: Das Reihenfolge-System Im Falle des Reihenfolge-Systems ist das System gestört, falls irgendeine Komponente ausfällt, bzw. das System funktioniert genau dann, wenn jede der Komponenten störungsfrei arbeitet. Die Strukturfunktion lautet Φ(X1 , · · · , Xn ) = min{X1 , X2 , · · · , Xn } = X1 X2 · · · Xn denn es gilt: Φ(X1 , · · · , Xn ) = 1 ⇐⇒ Xi = 1 ∀i = 1, · · · n Bsp: Ein Maschine besteht aus zwei Komponenten: Motor (X1 ) und Getriebe (X2 ). Die Maschine funktioniert im vorgegeben Intervall [0, t] genau dann, wenn sowohl Motor als auch Getriebe funktionieren: Φ(X1 , X2 ) = X1 X2 und daher Φ(1, 1) = 1, Φ(1, 0) = Φ(0, 1) = Φ(0, 0) = 0 Das Parallel-System Im Falle des Parallel-Systems ist das System nur dann gestört, falls alle Komponenten ausfallen, d.h. das System funktioniert genau dann, wenn mindestens eine der Komponenten störungsfrei arbeitet. Die Strukturfunktion lautet Φ(X1 , · · · , Xn ) = max{X1 , X2 , · · · , Xn } = 1 − n (1 − Xi ) i=1 denn es gilt: Φ(X1 , · · · , Xn ) = 0 ⇔ Bsp: 28 Xi = 0 ∀i = 1, · · · n Das Bremssystem eines Autos besteht aus zwei unabhängig funktionierenden Komponenten, Scheibenbremsen (X1 ) vorne und Trommelbremsen (X2 ) hinten. Das Bremssystem funktioniert, wenn entweder die Scheibenbremsen oder die Trommelbremsen (oder beide) funktionieren. Φ(X1 , X2 ) = 1 − (1 − X1 )(1 − X2 ) = X1 + X2 − X1 X2 und daher Φ(0, 0) = 0, Φ(1, 0) = Φ(0, 1) = Φ(1, 1) = 1 Das ”k aus n”-System Ein ”k aus n”-System ist so gestaltet, dass es dann funktionstüchtig ist, wenn mindestens k von n Komponenten störungsfrei arbeiten. Spezialfälle: k=n ⇒ k=1 ⇒ Reihenfolge-System Parallel-System Die Strukturfunktion lautet Φ(X1 , · · · , Xn ) = 1, 0, falls ni=1 Xi ≥ k falls ni=1 Xi < k Bsp: Die Bereifung eines LKW’s mit 8 Reifen ist ein Beispiel für ein ”4 aus 8”- System. Durch Ummontage von Rädern kann ein störungsfreier Betrieb gewährleistet werden, sofern mindestens 4 Räder intakt sind. Zuverlässigkeit eines Systems: Definition: Die Zuverlässigkeit R eines Systems ist die Wahrscheinlichkeit, dass das System funktioniert, i.e. R = P {Φ(X1 , · · · , Xn ) = 1} Zuverlässigkeit des Reihenfolge-Systems: R = P {X1X2 · · · Xn = 1} = P {X1 = 1, X2 = 1, · · · , Xn = 1} Unter Verwendung bedingter Wahrscheinlichkeiten ergibt sich: R = P {X1}P {X2 = 1|X1 = 1}P {X3 = 1|X1 = 1, X2 = 1} · · · · · · P {Xn = 1|X1 = 1, · · · Xn−1 = 1} Dabei ist beispielsweise P {X2 = 1|X1 = 1} die bedingte Wahrscheinlichkeit dafür, dass Komponente 2 störungsfrei arbeitet, gegeben dass die erste Komponente funktioniert. Weitere Annahme: die Komponenten sind voneinander unabhängig. Mit der Notation P {Xi = 1} = pi bzw. P {Xi = 0} = 1 − pi kann man dann die Zuverlässigkeit eines Systems aus unabhängigen Komponenten als Funktion der pi darstellen, i.e. R = R(p1 , · · · , pn ). Für die Zuverlässigkeit des Reihenfolge-Systems gilt dann: R = P {X1 = 1}P {X2 = 1} · · · P {Xn = 1} = p1 p2 · · · pn 29 Bsp: Die Wahrscheinlichkeit für das Funktionieren des Motors sei 0.95 und die Wahrscheinlichkeit für das Funktionieren des Getriebes 0.99. ⇒ die Zuverlässigkeit des Reihenfolgesystems ist R = 0.95 × 0.99 = 0.94. Zuverlässigkeit des Parallel-Systems: Da die Strukturform eines Parallelsystems die Form Φ(X1 , · · · , Xn ) = max{X1 , X2 , · · · , Xn } = 1 − n (1 − Xi ) i=1 hat, gilt für die Zuverlässigkeit R(p1 , · · · , pn ) = P {max(X1 , · · · , Xn ) = 1} = 1 − P {alle Xi = 0} = = 1 − (1 − p1 )(1 − p2 ) · · · (1 − pn ) Bsp: Falls die Wahrscheinlichkeit, dass die Scheibenbremsen bzw. die Trommelbremsen funktionieren jeweils 0.99 beträgt,ergibt sich für die Zuverlässigkeit des Bremssystems: R = 1 − (1 − 0.99)(1 − 0.99) = 0.9999 Zuverlässigkeit des ”k aus n”-Systems: Für die Zuverlässigkeit gilt: R(p1 , p2 , · · · , pn ) = P { n Xi ≥ k} i=1 Die Berechnung dieses Terms ist im allgemeinen schwierig, ausser im Fall identischer Komponenten, sodass p1 = P − 2 = · · · = pn = p gilt. In diesem Fall ist ni=1 Xi binomialverteilt mit Parametern n und p, i.e. P{ n Xi = l} = i=1 n l p (1 − p)n−l l und daher gilt für die Zuverlässigkeit: R(p, p, · · · , p) = P { n Xi ≥ k} = i=1 n i=k n i p (1 − p)n−i i LKW-Beispiel: Falls jedes Rad mit einer Wahrscheinlichkeit von p = 0.95 funktioniert, so ergibt sich für die Zuverlässigkeit des ”4 aus 8” Systems: R= 8 i=4 8 0.95i 0.058−i = 0.9999 i Berechnung der exakten Systemzuverlässigkeit • Darstellung eines Systems durch ein Netzwerk • Das System funktioniert, falls ein Weg von Anfangsknoten zum Endknoten existiert. (bei unserem Beispiel: die Komponenten (1 und 4) oder (2 und 5), oder (1 und 3 und 5).) • Fällt eine Komponente aus, so wird der entsprechenden Kante der Wert 0 zugeteit, bzw. das Netzwerk (der Graph) verliert diese Kante und das System funktioniert nur dann, wenn im verbleibenden Graphen ein Weg vom Anfangsknoten zum Endknoten existiert. 30 Berechnung der Zuverlässigkeit: Das Funktionieren jeder Komponente wird durch eine dichotome Zufallsvariable Xi beschrieben, wobei p(Xi = 1) = pi . Für die Ausprägungen gibt es insgesamt 2n Möglichkeiten, wobei die Wahrscheinlichkeit jeder dieser Ausprägungen berechnet werden kann und für jede Ausprägung festgestellt werden kann, ob das Gesamtsysten funktioniert oder nicht. Aufsummieren der Wahrscheinlichkeiten, bei denen das Gesamtsystem funktioniert ergibt die Zuverlässigkeit. Diese Methode ist relativ aufwendig. kürzester Weg: kleinste Menge intakter Komponenten, die ein störungsfreies Funktionieren des Gesamtsystems gewährleistet. (in unserem Beispiel sind die kürzesten Wege: X1 X4 , X1 X3 X5 , X2 X5 .) minimaler Schnitt: kleinste Menge nicht funktionierender Komponenten, die genügt, um eine Störung des Gesamtsystems zu verursachen. (in unserem Beispiel sind die minimalen Schnitte: X1 X2 , X4 X5 , X2 X3 X4 , X1 X5 .) Das System funktioniert genau dann, wenn die Komponenten mindestens eines kürzesten Weges intakt sind. Daraus ergeben sich zwei Möglichkeiten, die Zuverlässigkeit mithilfe der kürzesten Wege zu berechnen: 1. Möglichkeit: R(p1 , p2 , p3 , p4 , p5 ) = P {Φ(X1 , X2 , X3 , X4 , X5 ) = 1} = P {(X1X4 = 1) ∪ (X1 X3 X5 = 1) ∪ (X2 X5 = 1)} = P {X1 X4 = 1} + P {X1 X3 X5 = 1} + P {X2X5 = 1}− −P {X1 X3 X4 X5 = 1} − P {X1 X2 X4 X5 = 1} − P {X1 X2 X3 X5 = 1} + P {X1X2 X3 X4 X5 = 1} = p1 p4 + p1 p3 p5 + p2 p5 − p1 p3 p4 p5 − p1 p2 p4 p5 − p1 p2 p3 p5 + p1 p2 p3 p4 p5 Dabei wurde ausgenutzt, dass die Komponenten unabhängig sind, z.B. P {X1X3 X5 = 1} = P {X1 = 1 und X3 = 1 und X5 = 1} = P {X1 = 1} × P {X3 = 1} × P {X5 = 1} = p1 p3 p5 . 2. Möglichkeit: Da das Gesamtsystem funktioniert, wenn mindestens einer der kürzesten Wege funktioniert, kann das Gesamtsystem als Parallelsystem der kürzesten Wege angesehen werden. Es gilt also Φ(X1 , X2 , X3 , X4 , X5 ) = 1 − (1 − X1 X4 )(1 − X1 X3 X5 )(1 − X2 X5 ) Da für dichotome (i.e. solche, die nur den Wert 0 oder 1 annehmen können) Zufallsvariable Xi2 = Xi gilt, erhält man: Φ(X1 , X2 , X3 , X4 , X5 ) = X1 X4 + X1 X3 X5 + X2 X5 − −X1 X3 X4 X5 − X1 X2 X4 X5 − X1 X2 X3 X5 + X1 X2 X3 X4 X5 Da Φ wieder eine dichotome Zufallsvariable ist, gilt für deren Erwartungswert: 31 E{Φ(X1 , X2 , X3 , X4 , X5 )} = 1×P {Φ(X1 , X2 , X3 , X4 , X5 ) = 1} +0×P {Φ(X1 , X2 , X3 , X4 , X5 ) = 0} =R(p1 ,p2 ,p3 ,p4 ,p5 ) Damit ergibt sich für die Zuverlässigkeit: R(p1 , p2 , p3 , p4 , p5 ) = E{X1 X4 +X1 X3 X5 +X2 X5 −X1 X3 X4 X5 −X1 X2 X4 X5 −X1 X2 X3 X5 +X1 X2 X3 X4 X5 } und aufgrund der Unabhängigkeit R(p1 , p2 , p3 , p4 , p5 ) = p1 p4 + p1 p3 p5 + p2 p5 − p1 p3 p4 p5 − p1 p2 p4 p5 − p1 p2 p3 p5 + p1 p2 p3 p4 p5 Dabei wurde ausgenutz, dass z.B. E[X1 X4 ] = E[X1 ]E[X4 ] = p1 p4 Berechnung der exakten Zuverlässigkeit mittels minimaler Schnitte: 1. Möglichkeit Das System funktioniert genau dann nicht, wenn alle Komponenten mindestens eines minimalen Schnittes ausfallen: Die Wahrscheinlichkeit dafür ist: P {(X1 = 0, X2 = 0) ∪ (X4 = 0, X5 = 0)∪ ∪(X2 = 0, X3 = 0, X4 = 0) ∪ (X1 = 0, X5 = 0)} = = P {X1 = 0, X2 = 0} + P {X4 = 0, X5 = 0} +P {X2 = 0, X3 = 0, X4 = 0} + P {X1 = 0, X5 = 0} −P {X1 = 0, X2 = 0, X4 = 0, X5 = 0} −P {X1 = 0, X2 = 0, X3 = 0, X4 = 0} −P {X1 = 0, X2 = 0, X5 = 0} −P {X2 = 0, X3 = 0, X4 = 0, X5 = 0} −P {X1 = 0, X4 = 0, X5 = 0} −P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0} +P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0} +P {X1 = 0, X2 = 0, X4 = 0, X5 = 0} +P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0} +P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0} −P {X1 = 0, X2 = 0, X3 = 0, X4 = 0, X5 = 0} Bezeichnet man mit qi = 1 − pi = P {Xi = 0} so erhält man: P {Φ(X1 , · · · , X5 ) = 0} = q1 q2 + q4 q5 + q2 q3 q4 + q1 q5 −q1 q2 q3 q4 − q1 q2 q5 − q2 q3 q4 q5 − q1 q4 q5 + q1 q2 q3 q4 q5 32 2. Möglichkeit Das System funktioniert, wenn mindestens eine Komponente eines jeden minimalen Schnittes intakt ist. Einen zum Gesamtsystem äquivalenten Graphen bekommt man also, indem man die Komponenten eines jeden minimalen Schnittes als Parallelsystem betrachtet, und die minimalen Schnitte dann als Reihenfolgesystem auffasst. Für die Strukturfunktion bekommt man also Φ(X1 , X2 , · · · , X5 ) = [1 − (1 − X1 )(1 − X2 )] × [1 − (1 − X4 )(1 − X5 )]× ×[1 − (1 − X2 )(1 − X3 )(1 − X4 )] × [1 − (1 − X1 )(1 − X5 )] Unter Berücksichtigung von Xi2 = Xi , bzw. (1 − Xi )2 = (1 − Xi ) erhält man Φ(X1 , X2 , · · · , X5 ) = 1 − (1 − X1 )(1 − X2 ) − (1 − X4 )(1 − X5 ) −(1 − X2 )(1 − X3 )(1 − X4 ) − (1 − X1 )(1 − X5 )+ +(1 − X1 )(1 − X2 )(1 − X3 )(1 − X4 ) + (1 − X1 )(1 − X2 )(1 − X5 )+ +(1 − X2 )(1 − X3 )(1 − X4 )(1 − X5 ) + (1 − X1 )(1 − X4 )(1 − X5 )− −(1 − X1 )(1 − X2 )(1 − X3 )(1 − X4 )(1 − X5 ) Da nun wieder R(p1 , · · · , p5 ) = P {Φ(X1 , · · · , X5 ) = 1} = E[Φ(X1 , · · · , X5 )] ist, erhält man unter Berücksichtigung der Unabhängigkeit und wegen E[(1 − Xi )] = qi : R = 1 − q1 q2 − q4 q5 − q2 q3 q4 − q1 q5 + q1 q2 q3 q4 + q1 q2 q5 + q2 q3 q4 q5 + q1 q4 q5 − q1 q2 q3 q4 q5 Schranken der Systemzuverlässigkeit Die exakte Berechnung der Zuverlässigkeit eines Systems ist oft aufwendig. Meist genügt es, Schranken für die Zuverlässigkeit zu bestimmen. Hilfsresultat: Seien X1 , · · · , Xn unabhängige, dichotome Zufallsvariable, die nur den Wert 0 oder 1 annehmen können, und weiters Yi = k∈Ii Xk , wobei i = 1, · · · , r und Ii eine beliebige Indexmenge mit Indizes aus {1, · · · , n} ist. (i.e. Yi ist das Produkt einer Teilmenge aus {X1 , · · · , Xn }.) Dann gilt: P {Y1 = 0, Y2 = 0, · · · , Yr = 0} ≥ P {Y1 = 0}P {Y2 = 0} · · · P {Yr = 0} intuitive Begründung: • Seien A und B zwei beliebige Ereignisse. Für die Wahrscheinlichkeit von A ∩ B gilt dann folgendes: A und B sind unabhängig allgemein gilt A und B schliessen einander aus B impliziert A 33 P (A ∩ B) = P (A)P (B) P (A ∩ B) = P (A|B)P (B) 0 = P (A ∩ B) ≤ P (A)P (B) P (A ∩ B) = P (B) ≥ P (A)P (B) Es ist also naheliegend, dass P (A ∩ B) ≥ P (A)P (B) ist, sofern das Eintreten von Ereignis B die Wahrscheinlichkeit von A erhöht, i.e. falls P (A|B) ≥ P (A) ist. • Da die Ungleichung für r = 1 klarerweise erfüllt ist, betrachten wir den Fall r = 2, i.e. P (Y1 = 0 ∩ Y2 = 0) ≥ P (Y1 = 0)P (Y2 = 0). Tritt in Y1 und Y2 kein gemeinsames Xi auf, so sind Y1 und Y2 unabhängig und es gilt P (Y1 = 0 ∩ Y2 = 0) = P (Y1 = 0)P (Y2 = 0). Tritt in Y1 und Y2 ein gemeinsames Xi auf, so ist P (Y1 = 0|Y2 = 0) > P (Y1 = 0), da ja wenn Y2 = 0 ist mit einer gewissen Wahrscheinlichkeit das gemeinsame Xi = 0 ist, und dies dann Y1 = 0 impliziert. • Dies lässt sich leicht (etwa durch vollständige Induktion) auf r Variable Y1 , · · · , Yr verallgemeinern. Das System arbeitet, wenn alle Komponenten mindestens eines kürzesten Weges intakt sind. Für die Zuverlässigkeit erhält man also: R(p1 , · · · , p5 ) = 1 − P {alle kürzesten Wege sind gestört} = 1 − P {X1X4 = 0, X1 X3 X5 = 0, X2 X5 = 0} ≥P {X1 X4 =0}P {X1 X3 X5 =0}P {X2 X5 =0} Unter Zuhilfenahme obigen Resultates erhält man die obere Schranke: R(p1 , · · · , p5 ) ≤ 1 − P {X1X4 = 0}P {X1X3 X5 = 0}P {X2 X5 = 0} = 1 − (1 − p1 p4 )(1 − p1 p3 p5 )(1 − p2 p5 ) Das System arbeitet, wenn mindestens eine Komponente von jedem minimalen Schnitt funktioniert, d.h. R(p1 , · · · , p5 ) = P {(X1 oder X2 funktioniert) und (X4 oder X5 funktioniert) und (X2 oder X3 oder X4 funktioniert) und (X1 oder X5 funktioniert)} = P {[1 − (1 − X1 )(1 − X2 ) = 1] und [1 − (1 − X4 )(1 − X5 ) = 1] und [1 − (1 − X2 )(1 − X3 )(1 − X4 ) = 1] und [1 − (1 − X1 )(1 − X5 ) = 1]} = P {[(1 − X1 )(1 − X2 ) = 0] und [(1 − X4 )(1 − X5 ) = 0] und [(1 − X2 )(1 − X3 )(1 − X4 ) = 0] und [(1 − X1 )(1 − X5 ) = 0]} Nun sind 1−Xi auch unabhängige, dichotome Zufallsvariable, die nur den Wert 0 oder 1 annehmen können. Daher gilt aufgrund des Hilfsresultats: R(p1 , · · · , p5 ) ≥ P {(1 − X1 )(1 − X2 ) = 0}P {(1 − X4 )(1 − X5 ) = 0} P {(1 − X2 )(1 − X3 )(1 − X4 ) = 0}P {(1 − X1 )(1 − X5 ) = 0} Da nun, z.B. gilt: P {(1 − X1 )(1 − X2 ) = 0} = 1 − P {(1 − X1 )(1 − X2 ) = 1} = = 1 − P {(1 − X1 ) = 1}P {(1 − X2 ) = 1} = 1 − (1 − p1 )(1 − p2 ) 34 erhält man als untere Schranke R(p1 , · · · , p5 ) ≥ [1 − (1 − p1 )(1 − p2 )][1 − (1 − p4 )(1 − p5 )]× ×[1 − (1 − p2 )(1 − p3 )(1 − p4 )][1 − (1 − p1 )(1 − p5 )] Bsp: Für das Beispiel-Netzwerk mit pi = p = 0.9 erhält man: untere Schranke: [1 − (1 − p)2 ]3 [1 − (1 − p)3 ] = [1 − 0.12 ]3 [1 − 0.13 ] = 0.9693 exakte Zuverlässigkeit: 2p2 + p3 − 3p4 + p5 = 2 × 0.12 + 0.13 − 3 × 0.14 + 0.15 = 0.9712 obere Schranke: 1 − (1 − p2 )(1 − p3 )(1 − p2 ) = 1 − (1 − 0.12 )(1 − 0.13 )(1 − 0.12 ) = 0.9902 Ausfallzeit und Ausfallrate Betrachten nun die Zufallsvariable T , die die ”Zeit bis zur Störung” eines Systems bzw. einer Komponente angibt. Sei F die Verteilungsfunktion und f die Dichte von T. Die Zufallsvariable X nimmt auf dem Intervall [0, t] den Wert 1 an, wenn T ≥ t ist, und X nimmt den Wert 0 an, wenn T < t ist. Daher erhält man für die Zuverlässigkeit: R(t) = P {X = 1} = P {T > t} = ∞ t f (y)dy = 1 − F (t) Def: Unter der Ausfallrate (oder Hazard-rate) versteht man den Ausdruck r(t) = f (t) f (t) = 1 − F (t) R(t) r(t)dt gibt die bedingte Wahrscheinlichkeit an, dass das System im Zeitintervall [t, t + dt] ausfällt, gegeben dass es bis zum Zeitpunkt t funktioniert hat. Bsp: Die Zeit T bis zum Ausfall sei exponentialverteilt, i.e. die Verteilungsfunktion sei gegeben durch F (t) = P {T ≤ t} = 1 − e−t/θ Für die Dichte und die Hazard-rate gilt dann f (t) = e−t/θ , θ r(t) = 35 e−t/θ 1 = −t/θ θe θ Die Verteilung der Ausfallzeit T und damit die Zuverlässigkeit R(t) ist eindeutig durch die Hazard-rate r(t) bestimmt. R(t) = 1 − F (t) = exp − t 0 r(ζ)dζ Def: Eine Ausfallrate, die konstant bleibt oder mit der Zeit zunimmt, bezeichnet man als zunehmende Ausfallrate, eine Ausfallrate, die konstant bleibt oder abnimmt, bezeichnet man als abnehmende Ausfallrate. Schranken der Zuverlässigkeit mit zunehmender Ausfallrate Die Ausfallzeit T habe den Mittelwert µ und sei durch eine zunehmende Ausfallrate charakterisiert. Dann gelten folgende Schranken für die Zuverlässigkeit: (siehe Hillier und Lieberman) exp[−t/µ] ≤ R(t) ≤ 1 0 ≤ R(t) ≤ exp[−ω(t)t] wobei ω(t) Lösung der Gleichung 1 − ωµ = exp[−ωt] ist. 36 für t ≤ µ für µ < t