Operations Research und Wirtschaftsinformatik Prof. Dr. P. Recht // M.Radermacher, M.Sc. DOOR Mastermodul Operations Research IV: Technisch-Ökonomische Wartesysteme Skriptum zur Veranstaltung im Sommersemester 2016 Stand: 12. Juli 2016 Das Fachgebiet im Internet: • http://www.wiso.tu-dortmund.de/wiso/or/de/ • Inhaltsverzeichnis 1 Einführung 2 Eine 2.1 2.2 2.3 2.4 2 kurze Wiederholung zur Wahrscheinlichkeitstheorie Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . Unabhängigkeit und bedingte Wahrscheinlichkeit . . . . . . Zufallsvariablen und Verteilungen . . . . . . . . . . . . . . . Zusammenstellung von im Weiteren benötigten Sachverhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 13 22 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ 24 4 Das Wartesystem M |M |1 4.1 Stationären Verteilungen in M |M |1-Wartesystemen . . . . . . . . . . . . . . . . 4.1.1 Zeitabhängige Analyse des Systems . . . . . . . . . . . . . . . . . . . . . 4.1.2 Zeitunabhängige Analyse; stationärer Zustand bzw. Gleichgewichtszustand 4.2 Die Pasta-Eigenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Verkehrsintensität; Auslastung eines Wartesystems . . . . . . . . . . . . . . . . 4.4 Little’sche Formeln oder Little’sches Gesetz . . . . . . . . . . . . . . . . . . . . 4.5 Ein M |M |1-System mit einer (speziellen) Prioritätsbedienung . . . . . . . . . . 4.6 Der Austrittsprozess; Burke’sches Gesetz . . . . . . . . . . . . . . . . . . . . . . 4.7 Eine (elementare) Supply Chain als M |M |1-Wartesystem . . . . . . . . . . . . 37 37 38 40 42 42 48 50 51 54 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer systeme 5.1 Homogene Markov-Ketten mit stetiger Zeit, stationäre Markov-Ketten . 5.2 Bestimmung einer stationären Verteilung p∗ . . . . . . . . . . . . . . . . 5.3 Modellierung allgemeinere Ankunfts- und Bedienprozesse . . . . . . . . 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ 6.1 Wartesystem vom Typ M |M |1 mit ungeduldig ankommenden Kunden 6.1.1 Erfassungsrate und effektive Ankunftsrate . . . . . . . . . . . . 6.2 Wartesysteme vom Typ M |M |m . . . . . . . . . . . . . . . . . . . . . 6.3 Ein Wartesystem vom Typ M |M |∞: Selbstbedienung . . . . . . . . . 6.4 Ein Wartesystem vom Typ M |M |m|K . . . . . . . . . . . . . . . . . . 6.5 Wartesysteme vom Typ M |M |m|0 bzw. M |G|m|0 . . . . . . . . . . . . 6.6 Ein spezielles „geschlossenes“ Wartesystem vom Typ M |M |m . . . . . . . . . . . . Warte. . . . . . . . . . . . 58 59 62 66 . . . . . . . 69 69 71 72 78 81 84 87 . . . . . . . . . . . . . . . . . . . . . 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften 93 7.1 Ein Wartesystem vom Typ M |M |1|K mit Gruppenbedienung . . . . . . . . . . 93 7.2 Ein M |M |m|0 Wartesystem mit Gruppenbedienung . . . . . . . . . . . . . . . 96 7.3 Ein M |M |m|K|SIRO Wartesystem mit Gruppenankünften . . . . . . . . . . . . 100 i 7.4 Ein Wartesystem vom Typ M |Erl(µ, r)|1 . . . . . . . . . . . . . . . . . . . . . 103 8 Netzwerke von Wartesystemen 108 8.1 Ein elementares Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 8.2 Offene Netzwerke von Wartesystemen . . . . . . . . . . . . . . . . . . . . . . . 111 9 Wartesysteme mit Prioritäts-Bedienung 117 9.1 Das System M|M|m|K1 = 0, K2 = 0|Prio| – mit Unterbrechung . . . . . . . . . 117 9.2 Das System M|M|m|K1 , K2 |Prio| – mit Unterbrechung . . . . . . . . . . . . . . 119 10 Anhang: Eine kleine Einführung in die Simulation 10.1 Simulation von Zufallsexperimenten . . . . . . . . . . . . . . . . . . . . . 10.2 Verfahren zur Erzeugung gleichverteilter Zufallszahlen . . . . . . . . . . . 10.2.1 Linearer Kongruenz-Generator (Methode der linearen Kongruenz) 10.2.2 Inverser Kongruenzgenerator . . . . . . . . . . . . . . . . . . . . . 10.3 Erzeugung nicht gleichverteilter Zufallsvariablen . . . . . . . . . . . . . . . 10.3.1 Allgemeiner Ansatz/Inversionsmethode . . . . . . . . . . . . . . . 10.3.2 Rejektions-/Verwerfungsmethode . . . . . . . . . . . . . . . . . . . 10.3.3 Verfahren zur Erzeugung spezieller Zufallszahlen . . . . . . . . . . 10.3.4 Gütetests der erzeugten Verteilungen . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 122 123 123 124 125 125 127 127 128 131 ii Kapitel 1 1 1 Einführung In dieser Veranstaltung soll ein Überblick gegeben werden über • Eine Theorie der technisch-ökonomischen Wartesysteme, • ihre Bedeutung innerhalb technisch-ökonomischer Entscheidungsprobleme, • Techniken und Methoden zur Analyse von Wartesystemen. Die Kenntnis des „Funktionierens“ von Wartesystemen ist oft von großem ökonomischen Nutzen, deshalb muss man Informationen gewinnen, die eine effiziente Gestaltung eines Wartesystems zulassen. Beispiele in denen Wartesysteme auftreten: • Kasse im Lebensmittelgeschäft • Tankstelle • Abfüllanlagen • Studentensekretariat • Hotlines • Mensa • Fertigungssysteme • Fußgängerampel • Pannenservice des ADAC • Operationen im Krankenhaus • Organverpflanzungen Definition 1.1 Unter einem technisch-ökonomischen Wartesystem verstehen wir ein technisch-ökonomisches System, bestehend aus einer Menge von „Kunden“, einer Menge von „Bedienstationen“ (an denen die Kunden bedient werden sollen bzw. wollen) und einem Regelwerk, nach welchem die Kunden an die Bedienstationen herantreten („Ankunftsmuster“) bzw. einem Regelwerk, nach welchem die Kunden von den Bedienstationen abgefertigt werden („Bedienungsmuster“). Die Menge von ankommenden Kunden vor der (den) Bedienstation(en), die noch nicht abgefertigt werden, heißt „Warteschlange“. 2 1 Einführung OR II c, Master-Modul IV Beispiel 1.2 Die nachfolgenden Abbildungen 1.1, 1.3 und 1.2 stellen drei technisch-ökonomische Wartesysteme dar, einmal mit einer Warteschlange vor einer Bedienstation, einmal mit einer Warteschlange vor zwei Bedienstationen und einmal mit zwei Warteschlangen vor zwei Bedienstationen. Bedienstation Warteschlange Kunden- Ankunftsquelle muster Bedienungsmuster Systemaustritt Abbildung 1.1: Wartesystem mit einer Warteschlange vor einer Bedienstation Bedienstation 1 Warteschlange 1 Warteschlange 2 Bedienstation 2 Kunden- Ankunftsquelle muster Bedienungsmuster Systemaustritt Abbildung 1.2: Wartesystem mit zwei Warteschlangen vor zwei Bedienstationen Bedienstation 1 Warteschlange Bedienstation 2 Kunden- Ankunftsquelle muster Bedienungsmuster Systemaustritt Abbildung 1.3: “Amerikanische“ Warteschlange: eine Warteschlange vor zwei Bedienstationen; Wir werden in dieser Veranstaltung Modelle technisch-ökonomischer Wartesysteme betrachten, die Abbild gewisser realer Wartesysteme sind. Bei dieser Modellbildung werden wir uns auf die wesentlichen Eigenschaften der organisatorischen Struktur konzentrieren. Bereits im OR I haben wir versucht, eine bestimmte Typisierung vorzunehmen. Wir haben bereits kennengelernt, dass wir technisch-ökonomische Wartesysteme durch folgende fünf wesentlichen Komponenten charakterisieren können. 3 1 Einführung OR II c, Master-Modul IV (i) Das Ankunftsmuster Das Ankunftsmuster, d. h. die Gesetzmäßigkeit, nach der „Kunden“ das technisch-ökonomische Wartesystem „betreten“, wird normalerweise durch die „Zwischenankunftszeiten“ τ = (τi )i=1,2,... , d. h. die Zeit zwischen den aufeinanderfolgenden Ankünften zweier Kunden angegeben. Diese kann deterministisch (d. h. a priori exakt bekannt) sein. Im Allgemeinen ist sie jedoch eine Zufallsvariable, deren Verteilung als bekannt vorausgesetzt wird oder aufgrund von Beobachtungen ermittelt werden kann. Zwischenankunftszeit ¿ Ankunftszeitpunkt des i-ten Kunden ¿1 ¿2 ¿3 ¿4 ¿5 t T=0 Kunden T1 T2 T3 T4 T5 Kunde 1 Kunde 2 Kunde 3 Kunde 4 Kunde 5 τ deterministisch: τ a priori exakt bekannt, d. h. (τi )i=1,2,... bekannt. τ Zufallsvariable: Verteilung von τ bekannt, d. h. P (τ ≤ t) ist bekannt für alle t ∈ R+ . Darüber hinaus kann es auch sein, dass die Kunden nicht einzeln das Wartesystem betreten, sondern in Gruppen zusammengefasst und dann in das Wartesystem aufgenommen werden. (ii) Das Bedienungsmuster Das Bedienungsmuster, d. h. die Gesetzmäßigkeit, nach der die einzelnen Kunden von den Bedienstationen abgefertigt werden, wird durch folgende drei Größen charakterisiert: a) Die „Bedienzeit“ (engl. service) S, d. h. die Zeit, die eine Bedienstation benötigt, um einen Kunden zu bedienen. Kunde Nr. 1 2 3 4 5 Bedienzeit S S1 S2 S3 S4 S5 Auch hier kann S deterministisch sein, d. h. die einzelnen Bedienzeiten der Kunden (Si )i=1,2,... sind a priori exakt bekannt. Dies ist beispielsweise bei bestimmten Fertigungsprozessen der Fall, bei denen etwa die Bearbeitungszeit eines Objektes auf einer Maschine stets die exakt gleiche Zeitdauer benötigt. Meist ist jedoch S eine zufällige Größe. Wir werden voraussetzen, dass für die Dauer der Bedienzeit eines Kunden diese Bedienstation nicht für neu eintreffende Kunden zugänglich ist. b) Die Anzahl m von „Bedienstationen“ (engl. server), die für die Bedienung der Kunden zur Verfügung steht. Wird dabei angenommen, dass ein ankommender Kunde sofort bedient wird, falls er eine freie Service-Station vorfindet, und dass alle freien Geräte in gleicher Weise für alle ankommenden Kunden zugänglich sind, so spricht 4 1 Einführung OR II c, Master-Modul IV man manchmal von einem System mit vollkommener Erreichbarkeit. Dies ist im Allgemeinen bei Kassen, Fahrkartenschaltern, etc. der Fall. Davon zu unterscheiden sind Systeme mit unvollkommener Erreichbarkeit, bei denen die eintreffenden Kunden nach bestimmten Kriterien in „Kundengruppen“ unterteilt werden und jede dieser Kundengruppen ihre eigenen Bedienstationen hat. (Bsp.: Kasse im Supermarkt für Kunden mit geringer Anzahl von Artikeln, Frauenparkplätze im Parkhaus, Klassifikation nach Buchstaben im Studentensekretariat) In bestimmten technisch-ökonomischen Wartesystemen sind die Bedienstationen nach der Beendigung einer Bedienung nicht sofort wieder „servicebereit“ (Pause, Umrüstung, Reparatur). D. h. die Zahl m ist abhängig von t, und die Bedienstationen haben die möglichen Zustände „besetzt“, „frei“ oder „ausgefallen“. c) Die „Bedienungsdisziplin“ (engl. queueing discipline), d. h. die Reihenfolge, in der die Kunden bedient werden. Das Festlegen einer solchen Disziplin ist immer dann notwendig, wenn Kunden keine freien Bedienstationen vorfinden. Mit ihr wird entschieden: „Wer ist der nächste Kunde aus der Warteschlange, der bedient wird?“ • Die Mehrheit der Systeme arbeitet nach der FIFO-Disziplin/FCFS Disziplin (First-In-First-Out /First-Come-First-Serve)) • Manchmal jedoch auch – etwa in Produktionssystemen mit Zwischenlagern, wo Teile auf Bearbeitung warten – nach dem Last-In-First-Out-Prinzip (LIFODisziplin). • In einer weiteren Klasse von technisch-ökonomischen Wartesystemen arbeiten die Bedienstationen nach Prioritätsregeln (PRI-Disziplin). Die Kunden bestehen dabei aus „Teil-Kundengruppen“ K1 , K2 , ..., Kp , die untereinander einen Vorrang genießen. Kundengruppe K1 wird vor allen anderen bedient, und Kunden aus Ki+1 werden nur dann bedient, wenn sich keine Kunden aus Ki in der Warteschlange befinden (z. B. Behandlung von Unfällen in Krankenhäusern, kürzeste Bedienzeit zuerst). • Ebenso ist eine zufällige Auswahl der wartenden Kunden für die einzelnen Bedienstationen möglich. Eine solche SIRO-Disziplin (Service-In-Random-Order) bei der Auswahl des nächsten Kunden für die Bediennung sieht man beispielsweise bei Verarbeitung von Kleinteilen in der Fertigung oder auch innerhalb eines Kollektivs von Versicherungsnehmern bei einer Lebensversicherung. (iii) Die Kapazität K des Systems Die Systemkapazität K ist die maximale Anzahl von Kunden, die gleichzeitig in der Warteschlange zugelassen sind. Diese kann endlich oder unendlich sein. Im Falle K < ∞ wird ein Kunde aus dem technisch-ökonomischen Wartesystem abgewiesen, falls bei seiner Ankunft die Warteschlange die Länge K hat. Man spricht in einem solchen Fall häufig von einem Warte-Verlust-System. Der Spezialfall K = 0 trifft etwa in einem Telefonnetz zu, wenn alle Verbindungsleitungen besetzt sind. 5 1 Einführung OR II c, Master-Modul IV In der Literatur hat sich für die Darstellung der organisatorischen Struktur eines technischökonomischen Wartesystems die sogenannte Kendall’sche Notation durchgesetzt, in der für jedes konkrete Wartesystem die charakteristischen Größen (in einem Fünf-Tupel) zusammengefasst werden. Kendall’sche Notation: τ /S/m/K/Disziplin Die angesprochenen Komponenten für eine Charakterisierung der technisch-ökonomischen Wartesysteme beschreiben also im Wesentlichen die organisatorische Struktur der Systeme. Die Zielsetzung, die wir verfolgen wollen, besteht darin, aus dieser Charakterisierung für konkrete, gegebene technisch-ökonomische Wartesysteme ökonomische Bewertungen zur Einschätzung dieser speziellen organisatorischen Struktur des Systems zu gewinnen (sog. measures of performance). Solche Bewertungen wird man gewinnen können, wenn man bestimmte Vergleichsgrößen ermittelt, die Aussagen darüber erlauben, dass ein Wartesystem „besser arbeitet“ als ein anderes. Erst auf diese Weise erhält man als Entscheider eines Unternehmens die Möglichkeit, Empfehlungen zu einer rationalen Gestaltung von technisch-ökonomischen Wartesystemen zu geben, etwa hinsichtlich: • einer sinnvollen Dimensionierung des technisch-ökonomischen Wartesystems. • einer effizienten Ausnutzung bzw. Steuerung des technisch-ökonomischen Wartesystems. Beispiel 1.3 a) Supermarkt: Um wieviel muss die durchschnittliche Bedienzeit verringert werden, damit pro Zeiteinheit durchschnittlich mindestens 10 Kunden abgefertigt werden? oder Wann und für wie lange sollte eine zusätzliche Kasse geöffnet werden, damit die maximale Wartezeit eines Kunden mindestens 2, höchstens aber 4 Minuten beträgt? b) Dimensionierung eines Parkhauses: Wie viel Parkplätze sollten beim Bau eines Parkhauses für ein Einklaufszentrum vorgesehen werden, damit durchschnittlich mindeseten 80 % der ankommenden Autos einen freien Platz vorfinden können? Wieviele dieser Parkplätze sollen als „Behindertenparkplätze“ ausgewiesen werden, damit mindestens 90% der ankommenden Autofahrer, die behindert sind, einen freien Parkplatz vorfinden? c) Hotlines: Das Call-Center einer Hotline eines Mobilfunkanbieters klassifiziert ankommende Kundenanrufe nach deren Inhalten (etwa: Fragen zur Rechnung, Neuanmeldungen, Technische Unterstützung). Ist für jeden dieser Kundenbereiche genügend Personal vorhanden, damit ein Anrufer im Mittel höchstens 3 Minuten, bei den „Neuanmeldungen“ höchstens 30 Sekunden, warten muss? d) Bearbeitung von Steuererklärungen im Finanzamt: Wie hoch ist die durchschnittliche Zeit, die zwischen Abgabe der Steuererklärung und Erteilung des Steuerbescheides vergeht. Sollten zwei zusätzliche Mitarbeiter für die Bearbeitung der Steuererklärungen eingestellt werden? Wie reduziert sich dadurch die Bearbeitungszeit“? Sollte das Finanzamt den eingehenden Anträge Prioritäten zuweisen? 6 1 Einführung OR II c, Master-Modul IV e) Check-in an Flughäfen: Wegen der aktuellen Terrorwarnungen wurde die durchschnittliche Zeit für den Check- in und für die Sicherheitsüberprüfung jeweils verdoppelt. Reicht die bisherige Empfehlung an die Kunden, spätestens zwei Stunden vor Abflug am Flughafen Ckeck-in einzutreffen noch aus? f) Kreisverkehr: Der Autoverkehr aus 4 verschiedenen Richtungen passiert eine Strassenkreuzung. Derzeit wird der verkerh durch eine Ampelanlage gesteuert. Aus Umweltgründen sollen die ampelbedingten Halte vermieden werden. Daher soll die Kreuzung zu einem Kreisverkehr umgebaut werden. Wie gross muss der „Radius“ des Kreisels im Kreisverkehr sein, damit der Verkehr tatsächlich „flüssig“ läuft? Die Beantwortung von Entscheidungsfragen derartigen Typs lassen sich häufig aufgrund von quantitativen Größen, welche aus den Charakteristika des im jeweilig konkreten Fall vorliegenden technisch-ökonomischen Wartesystems hervorgehen, durchführen. Die Beantwortung von Entscheidungsfragen derartigen Typs lassen sich häufig aufgrund von quantitativen Größen, welche aus den Charakteristika des im konkreten Fall vorliegenden technisch-ökonomischen Wartesystems hervorgehen, durchführen. Solche interessierenden Größen könnten beispielsweise sein: T1 , T2 , T3 , . . . , Ti , . . . Ankunftszeit des i-ten Kunden, i = 1, 2, . . . S 1 , S 2 , . . . , Si , . . . Bedienungsdauer des i-ten Kunden, i = 1, 2, . . . E(S) Durchschnittliche Bedienungsdauer der Kunden ϑ 1 , ϑ 2 , . . . , ϑi , . . . Austrittszeitpunkt des i-ten Kunden aus dem System, i = 1, 2, . . . W 1 , W 2 , . . . , Wi , . . . Wartezeit des i-ten Kunden, bis Bedienung erfolgt, i = 1, 2, . . . E(W ) durchschnittliche Wartezeit der Kunden V1 , V2 , . . . , Vi , . . . Verweildauer des i-ten Kunden im technisch-ökonomischen Wartesystem, i = 1, 2, . . . E(V ) durchschnittliche Verweildauer der Kunden im Wartesystem Ut Arbeitsvorrat der Bedienstationen, also die notwendige Zeit bis zur Abfertigung aller Kunden, welche sich zum Zeitpunkt t im Wartesystem befinden, t ∈ [0, ∞[ αt Anzahl aller bis zum Zeitpunkt t angekommenen Kunden, t ∈ [0, ∞[ δt Anzahl aller bis zum Zeitpunkt t abgefertigten Kunden, t ∈ [0, ∞[ Lt Anzahl der sich zum Zeitpunkt t im System befindenden Kunden, t ∈ [0, ∞[ 7 1 Einführung OR II c, Master-Modul IV E(L) durchschnittliche Anzahl der Kunden im Wartesystem pj relativer zeitlicher Anteil, in dem sich j Kunden im System befinden (j = 0, 1, 2, . . . ,). rj relativer Anteil der neu ankommenden Kunden, die j Kunden im System vorfinden (j = 0, 1, 2, . . . ,). Nt Zahl der wartenden Kunden zum Zeitpunkt t, t ∈ [0, ∞[ E(N ) durchschnittliche Anzahl der wartenden Kunden Y 1 , Y 2 , Y 3 , . . . , Yj , . . . Länge der Perioden, in denen die Bedienungsstation unproduktiv ist Abbildung 1.4 auf Seite 9 stellt für ein Beispiel die Zusammenhänge derartiger Grössen einmal dar. Da wir im Weiteren formale (d. h. mathematische) Modelle bestimmter technisch-ökonomischer Wartesysteme aufstellen wollen, um notwendige Größen für eine ökonomische Bewertung zu ermitteln, müssen wir in die Lage versetzt werden, die Charakteristika der Systeme analytisch zu beschreiben. Dies geschieht zunächst durch eine entsprechende Beschreibung des Ankunftsmusters (d. h. der Zwischenankunftszeiten τ ) und der Bedienzeit S. Nun ist das Ankunftsmuster der Kunden im Allgemeinen eine zufällige Größe, d. h. die einzelnen Kunden treffen zu zufälligen Zeitpunkten Ti , i = 1, 2, . . . im Wartesystem ein. Die Anzahl αt der in einem Zeitintervall [0, t] ankommenden Kunden ist also ebenfalls zufällig und in Abhängigkeit von t ein sogenannter stochastischer Prozess. Ebenso sind etwa die Bedienzeiten der einzelnen Kunden Si , i = 1, 2, . . . zufällige Größen. Also: Zufälligkeit ist ein wesentlicher Aspekt bei der Analyse technisch-ökonomischer Wartesysteme. Es ist deshalb notwendig, dass wir eine Reihe von Grundbegriffen und Sachverhalten aus dem Bereich der Wahrscheinlichkeitstheorie bzw. Statistik wiederholen bzw. bereitstellen. 8 1 Einführung OR II c, Master-Modul IV ¿1 Kundenankunfte Ä T0=0 ¿2 ¿4 ¿3 T3 T2 T1 ¿5 ¿6 T5 T4 T6 t U(t) Arbeitsvorrat im System S2 S1 W1=0 S6 S5 W4 W3 W2 T0=0 Kundenaustritte S4 S3 #1 #2 W5=0 W6 #3 #4 #5 #6 T0=0 t t ®(t) ±(t) akkumulierte Ä Ankunfte und Austritte T0=0 T1 T3 T2 T5 T4 T6 t L(t) Z1 Y1 Z2 Y2 Zahl der Kunden im System T0=0 T1 T2 #1 T3 T4 #2 #3 #4 T5 Abbildung 1.4: Wartesystem mit m = 1, K = ∞ 9 T6 #5 #6 t 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie In diesem kleinen Kapitel sind eine Reihe von Sachverhalten aus dem Bereich der Statistik bzw. der Wahrscheinlichkeitstheorie überblicksmässig zusammengestellt. Diese Zusammenstellung ersetzt natürlich nicht die (für das weitere Verständnis vorausgesetzten !) Kenntnisse einer Einführungsveranstaltung aus dem Bereich der Statistik. Für eine umfangreichere Wiederholung sei hier das Buch [13] (ggf. zum Eigenstudium) empfohlen. 2.1 Begrifflichkeiten Die Wahrscheinlichkeitstheorie beschäftigt sich mit der Bereitstellung von Methoden zur Beschreibung und Analyse von Experimenten mit zufälligem Ausgang. Man interessiert sich hierbei unter anderem für die Beobachtung von „Ereignissen“ bzw. von „Zufallsgrößen“ und deren Wahrscheinlichkeiten. Definition 2.1 Als Zufallsexperiment bezeichnet man einen zufälligen Versuch, wenn dessen Ausgang unter den gegebenen Versuchsbedingungen a priori nicht feststeht und der – zumindest gedanklich – beliebig oft wiederholt werden kann. Die Menge aller möglichen Versuchsergebnisse nennt man Zustandsraum, Merkmalsraum oder Ereignissraum Ω. Definition 2.2 Unter einem zufälligen Ereignis verstehen wir ein Ereignis, das im Rahmen eines Zufallsexperiments eintreten kann, nicht aber eintreten muss. Es wird als Teilmenge des Merkmalsraums Ω aufgefasst. Die einelementigen Teilmengen von Ω nennt man Elementarereignisse ω. Sie repräsentieren die möglichen Versuchsergebnisse des Experiments. Für zwei Ereignisse A und B repräsentiert • Ac das sog. komplementäre Ereignis zu A, • A ∪ B das Ereignis, dass mindestens eines der beiden Ereignisse A oder B eintritt, • A ∩ B das Ereignis, dass sowohl das Ereignis A als auch das Ereignis B eintritt, • A \ B das Ereignis, dass zwar das Ereignis A, nicht aber das Ereignis B eintritt, 10 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV • Ω das sichere Ereignis und • ∅ das unmögliche Ereignis. Die Wahrscheinlichkeitstheorie bezeichnet eine Menge von Teilmengen von Ω als sog. σ-Algebra A, wenn folgende Bedingungen erfüllt sind: (i) Ω ∈ A (ii) A ∈ A ⇒ Ac ∈ A (iii) Für eine abzählbare Familie (Ai )i∈I von Mengen von A gilt S i∈I Ai ∈ A. Ein Ereignis A entspricht demnach einem Element der σ-Algebra A, d. h. A ∈ A. Beispiel 2.3 Die Menge aller möglichen Teilmengen von Ω, die sog. Potenzmenge P(Ω) von Ω, ist stets eine σ-Algebra. Grundlage für alle weiteren Betrachtungen in der Wahrscheinlichkeitstheorie bildet ein sog. Wahrscheinlichkeitsraum (Ω, A, P ). Dabei ist Ω eine beliebige Menge (Merkmalsraum), A eine σ-Algebra in Ω und P ein auf der σ-Algebra A definiertes Wahrscheinlichkeitsmaß, also eine Abbildung P : A → [0, 1] mit den folgenden Eigenschaften: (i) P (Ω) = 1 (ii) P (A) ≥ 0 für alle A ∈ A S P (iii) P ( i Ai ) = i P (Ai ) für jede abzählbare Familie von paarweise disjunkten Ereignissen A1 , A2 , . . . ∈ A. Beispiel 2.4 Bei in der Praxis vorkommenden Problemen hat man es manchmal mit sog. Laplace-Experimenten zu tun. Es handelt sich um Zufallsexperimente mit nur endlich vielen möglichen „elementaren Ereignissen“, deren jeweiliger Eintritt als gleichwahrscheinlich angenommen wird. Das zugehörige mathematische Modell ist ein Wahrscheinlichkeitsraum (Ω, A, P ), der sog. Laplace’scher Wahrscheinlichkeitsraum, mit einer endlichen (n-elementigen) Menge Ω, A = P(Ω) und P als Wahrscheinlichkeitsmaß mit P ({ω}) = 1/n. Mittels einfacher Überlegungen erhält man die Wahrscheinlichkeiten für ein beliebiges Ereigniss A ∈ A als P (A) = 1 · |A|. n 2.2 Unabhängigkeit und bedingte Wahrscheinlichkeit Es sein (Ω, A, P ) ein Wahrscheinlichkeitsraum und A, B ∈ A zwei Ereignisse mit P (B) > 0. Interessiert man sich für die Wahrscheinlichkeit des Eintritts von A unter der Bedingung, dass das Ereignis B eintritt, bzw. schon eingetreten ist, hat man mit den sog. bedingten Wahrscheinlichkeiten zu tun. 11 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV Definition 2.5 Die bedingte Wahrscheinlichkeit P (A|B) des Eintritts von A unter der Bedingung, dass das Ereignis B eintritt bzw. eingetreten ist, wird durch P (A|B) := P (A ∩ B) P (B) definiert. Bemerkung 2.6 Mit der Zuordnung P (A ∩ B) P (B) A 7→ wird ein Wahrscheinlichkeitsmaß PB (·) auf A definiert. Offenbar gilt PB (B) = 1. Durch den Übergang von P zu PB ist B zu einem Ereignis mit Wahrscheinlichkeit 1 geworden. Für jedes A ∈ A bezeichnet man daher PB (A) als die bedingte Wahrscheinlichkeit unter (der Hypothese) B und schreibt PB (A) für P (A|B). Verallgemeinernd führt die Definition der bedingten Wahrscheinlichkeit auf die Formel der totalen Wahrscheinlichkeit: Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Sei weiterhin eine endliche oder abzählbar unendliche Familie (Bi )i∈I gegeben mit paarweise disjunkten EreigS nissen Bi ∈ A, P (Bi ) > 0 für alle i ∈ I und i Bi = Ω („Zerlegung von Ω“). Dann gilt für jedes Ereignis A ∈ A P (A) = X i∈I P (A|Bi ) · P (Bi ). (2.1) Speziell ergibt sich wegen Ω = B ∪ B c : P (A) = P (A|B) · P (B) + P (A|B c ) · P (B c ). Aus der Formel von der totalen Wahrscheinlichkeit ergibt sich unter der Annahme, dass P (A) > 0 die der Satz von Bayes 1 : und wiederum speziell P (B|A) = P (Bk |A) = P P (A|Bk ) · P (Bk ) , i∈I P (A|Bi ) · P (Bi ) P (A|B) · P (B) P (A|B) · P (B) = . P (A) P (A|B) · P (B) + P (A|B c ) · P (B c ) Aufgabe(siehe Übungsblatt 1): Wie jedes Jahr im Semester wird auch diesmal das Blutspendemobil des Roten Kreuzes wieder Station auf dem Martin-Schmeißer-Platz machen. Das 1 Benannt nach dem engl. Mathematiker Th. Bayes, geb. 1702 gest. 1761. 12 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV dort gespendete Blut wird untersucht, unter anderem auch auf das Vorkommen von HIV. Das Testverfahren des hiesigen Blutlabors habe eine Genauigkeit von 99 % und einer von 1 000 Studenten Ihrer Altersgruppe sei HIV-positiv. Außerdem betrage die Rate für falsch positiv erkannte HIV-Infektionen 5 %. Angenommen, die Analyse eines Testes fällt HIV-positiv aus. Mit welcher Wahrscheinlichkeit ist die untersuchte Person wirklich HIV-positiv? Hinweis: Die angegebenen 99 % beziehen sich auf die Wahrscheinlichkeit P(Test ist positiv|Person ist HIVpositiv). Gesucht ist die Wahrscheinlichkeit P (Person ist HIV-positiv|Test ist positiv). Gilt in der Gleichung der bedingten Wahrscheinlichkeit, dass P (A|B) = P (A), so hängt die Wahrscheinlichkeit für das Ereignis A nicht vom Eintritt des Ereignisses B ab. Definition 2.7 Zwei Ereignisse A und B heißen (stochastisch) unabhängig, wenn gilt P (A ∩ B) = P (A) · P (B). Eine (möglicherweise unendliche) Familie von Ereignissen (Ai )i∈I heißt unabhängig, wenn für jede endliche Teilmenge J ⊂ I P( \ Ai ) = Y P (Ai ) i∈J i∈J gilt. Bemerkung 2.8 Aus der Unabhängigkeit der (Ai )i∈I folgt die paarweise Unabhängigkeit je zweier Ereignisse Ai und Aj mit i, j ∈ I und i 6= j. Die Umkehrung gilt jedoch nicht! 2.3 Zufallsvariablen und Verteilungen Bei einem Zufallsexperiment interessiert man sich häufig nicht direkt für den Ausgang des Experiments, sondern für mit dem Ausgang verbundenen Werte, also quantitativen Grössen Definition 2.9 Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Eine (A-messbare) Abbildung X : Ω → R heißt (reelle) Zufallsvariable. Bemerkung 2.10 Die Abbildung X ordnet damit jedem Elementarereignis ω ∈ Ω eines zufälligen Versuchs eine reelle Zahl x = X(ω) zu. Man nennt x ∈ R eine Realisierung von X. Wegen der Messbarkeit gilt für jede (Borelsche) Menge B ⊂ R, dass deren Urbildmenge X −1 (B) in A liegt, also ein Ereignis ist. Für derartige Mengen B ⊂ R setzt man {X ∈ B} := {ω ∈ Ω | X(ω) ∈ B} = X −1 (B) 13 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV und definiert PX (B) := P ({X ∈ B}) = P (X −1 (B)). Man bezeichnet {X ∈ B ∈ B} als das Ereignis „X liegt in B“ und PX (B) als die Wahrscheinlichkeit dieses Ereignisses. Man spricht auch oft von dem durch P induzierten Bildmaß auf (R, B) bzw. der Verteilung der Zufallsvariablen X. . Bemerkung 2.11 Wie schon erwähnt, entspricht der Verteilung von X das Bildmaß X(P ) =: PX . Mit Hilfe der Verteilung PX können somit die Wahrscheinlichkeiten P (X ∈ B) berechnet werden. Von besonderer Bedeutung ist hierbei, dass der im Allgemeinen „komplizierte“ und das zufällige Geschehen beschreibende Wahrscheinlichkeitsraum (Ω, A, P ) nicht explizit bekannt sein muss. Die Verteilung einer Zufallsvariablen X ist vollständig bestimmt, wenn man für jede Zahl x ∈ R den Wert FX (x) := P (X ∈] − ∞, x]) = P (X ≤ x) = P ({ω ∈ Ω | X(ω) ≤ x}) kennt. Definition 2.12 Es sei X eine reelle Zufallsvariable. Dann heißt die Funktion FX : R → R mit FX (x) := PX (x ≤ x) die Verteilungsfunktion von X. In der Praxis unterscheiden wir üblicherwiese zwei Arten von Zufallsvariablen Definition 2.13 Eine reelle Zufallsvariable X : Ω → R heißt diskret verteilt (kurz: diskret), falls sie nur Werte aus einer abzählbaren Menge M ⊂ R annehmen kann (d. h. X(ω) ∈ M = {xk |k ∈ I, I ⊂ N}. Man nennt pk := P (X = xk ) = P ({ω ∈ Ω | X(ω) = xk }) häufig die „Einzelwahrscheinlichkeit“ von X. Manchmal spricht man hier auch von der diskreten Dichte-Funktion. Für diskrete Zufallsvariablen ist die Verteilung von X durch die Dichtefunktion vollständig bestimmt. Die Werte der Verteilungsfunktion FX lassen sich nämlich für jedes x ∈ R über FX (x) = X pk {k|xk ≤x} bestimmen. Beispiele für das Vorkommen diskrete Zufallsvariablen in technisch-ökonomischen Wartesystemen sind: • Länge der Warteschlange (zu einem Zeitpunkt t), • Anzahl der abgewiesenen Kunden (bis zu einem Zeitpunkt t), 14 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV • Anzahl der abgefertigten Kunden (bis zu einem Zeitpunkt t), • Anzahl der ankommenden Kunden (bis zu einen Zeitpunkt t). Definition 2.14 Der Erwartungswert E(X) einer diskreten Zufallsvariablen X wird definiert als E(X) := X k∈I sofern P k xk · pk , |xk · pk | < ∞. Der Erwartungswert der Zufallsvariable X kann dabei als der Sachverhalt interpretiert werden, dass bei „genügend häufiger“ Durchführung des Zufallsexperiments der mit den pk gewichtete Durchschnitt der beobachteten Werte von X „in der Nähe“ von E(X) liegt . Als ein praktisches Maß für die Größe der Abweichungen der Realisierungen wird üblicherweise die Varianz herangezogen. Definition 2.15 Unter der Varianz V ar(X) einer diskreten reellen Zufallsvariablen X wird definiert als V ar(X) := X k∈I sofern P k (xk − E(X))2 · pk x2k · pk < ∞. Die Grösse p V ar(X) wird als Standardabweichung √ oder Streuung von X bezeichnet. V ar(X) Falls E(X) 6= 0, dann heisst die Grösse cX := E(X) der Variationskoeffizient von X. Der Variationskoeffizient ist eine dimensionslose Grösse, die die Standardabweichung durch den Erwartungswert „relativiert“ wird. Ist die Standardabweichung größer als der der Erwartungswert, so ist der Variationskoeffizient offenbar größer 1, im entgegengesetzten fall kleiner 1. Beispiel 2.16 (i) Binomialverteilung: Gegeben seien zwei Parameter p, 0 < p < 1 und n ∈ N sowie eine diskrete Zufallsvariable X : Ω → {0, . . . , n}. Dan heisst X binomial-verteilt mit Parametern n und p, kurz: X ∼ B(n, p) falls die Wahrscheinlichkeitsverteilung von X durch ! n k P (X = k) = p (1 − p)n−k , k = 0, 1, . . . , n, k gegeben ist. Für eine mit den Parametern n und p binomial-verteilte Zufallsvariable X gilt 1−p . E(X) = n · p, V ar(X) = n · p · (1 − p), c2X = n·p 15 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV Die Dichte und die Verteilungsfunktion der Binomialverteilung ist in Abb. 2.1 dargestellt. Verwendung: Tritt als Folge eines Zufallsexperiments ein bestimmtes Ereignis A mit Wahrscheinlichkeit 0 < p < 1 auf, und wird das Experiment n-mal unabhängig voneinander wiederholt, dann lässt sich die „Anzahl k des Auftretens des Ereignisses A in diesem n Experimenten“ (offenbar ist 0 ≤ k ≤ n) durch eine eine Zufallsvariable X darstellen, die der Binomialverteilung mit den Parametern p und n folgt. 0.5 1 0.4 0.8 0.3 0.6 0.2 0.4 0.1 0.2 0 0 0 5 10 15 0 5 10 15 Abbildung 2.1: Dichte und Verteilungsfunktion von B(15, 0.5) Hat man zwei Zufallsvariablen X und Y , wobei X ∼ B(n1 , p) und Y ∼ B(n2 , p) (der Parameter p ist also bei beiden derselbe), so gilt für die Zufallsvariable Z = X + Y : Z ∼ B(n1 + n2 , p). (ii) Geometrische Verteilung: Es sei 0 < p < 1. Eine diskrete Zufallsvariable X : Ω → {0, 1, . . .} = N0 heisst geometrisch -verteilt mit Parameter p (kurz: X ∼ G(p)), falls pk = P (X = k) = p · (1 − p)k−1 . Für die Verteilungsfunktion von FX ergibt sich: FX (n) = P (X ≤ n) = 1 − P (X > n) = 1 − (1 − p)n , Erwartungswert, Varianz und Variationskoeffizient errechnen sich als 1 E(X) = , p V ar(X) = 1−p , p2 c2X = 1 . p Anwendung: geometrisch-verteilte Zufallsvariable werden typischerweise für die Beschreibung des „Wartens auf den ersten Erfolg“ benutzt. Es sei A ein Ereignis, welches innerhalb eines Experimentes mit Wahrscheinlichkeit p eintritt („Erfolgswahrscheinlichkeit“). Die Zufallsvariable X beschreibe die Anzahl der (unabhängigen) Versuche im Experiment, die durchgeführt werden, bis zum ersten mal A eintritt. Dann wird die Wahrscheinlichkeit, dass dies genau im k-ten Versuch geschieht durch p · (1 − p)k−1 beschrieben, d.h. X ∼ G(p). 16 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV 1 0.25 0.2 0.8 0.15 0.6 0.1 0.4 0.05 0.2 0 −0.05 0 0 10 20 30 0 10 20 30 Abbildung 2.2: Dichte und Verteilungsfunktion von P o(6) Satz 2.17 Eine diskrete Zufallsvariable X : Ω → {0, 1, 2, . . .} ist geometrisch-verteilt genau dann, wenn sie folgender Bedingung („Gedächtnislosigkeit“) genügt: P (X = n + k | X > n) = P (X = k) für alle n, k ≥ 1. (iii) Poisson-Verteilung 2 : Es sei λ > 0. Eine diskrete Zufallsvariable X : Ω → {0, 1, . . .} heisst Poisson-verteilt mit Parameter λ (kurz: X ∼ P o(λ)), falls pk = P (X = k) = λk −λ e . k! Für den Erwartungswert, Varianz und Variationskoeffizient rechnet man aus: E(X) = λ, V ar(X) = λ, c2X = 1 . λ Abb. 2.2 auf Seite 17 zeigt die Dichte und Verteilungsfunktion der Poisson-Verteilung. Anwendung: Poisson-verteilte Zufallsvariable werden typischerweise für eine Beschreibung von „Zähl-Ereignissen“ innerhalb eines bestimmten festgelegten Zeitintervalls benutzt. Sind innerhalb dieses Zeitintervalls die Auftritte dieses Ereignisses unabhängig voneinander und tritt es dort durchschnittlich λ-mal auf, so ist die Wahrscheinlichkeit, k dass das Ereignis während dieser Zeit k-mal auftritt gerade λk! e−λ . Im Zusammenhang mit technisch-ökonomischen Wartesystemen werden typischerweise „Ankunft eines Kunden (im Intervall [0, t])“ oder „Verlassen eines Kunden (im Intervall [0, t])“ als solche angesehen und und das „Zählen“ des Auftretens durch Poisson-verteilte Zufallsvariable beschrieben. Wichtig ist auch noch der folgende Sachverhalt 2 Benannt nach dem frz. Mathematiker S.D. Poisson, geb. 1781 gest. 1840. 17 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV Satz 2.18 Es seien X1 ∼ P o(λ1 ) und X2 ∼ P o(λ2 ). Dann ist die Zufallsvariable Z = X1 + X2 Poisson-verteilt mit Parameter λ1 + λ2 . Also X1 + X2 ∼ P o(λ1 + λ2 ). Beweis: Als Übungsaufgabe Die Summe zweier Poisson-verteilter Zufallsvariablen ist also ebenfalls Poisson-verteilt und die Parameter addieren sich. Definition 2.19 Eine Zufallsvariable X : Ω → R heißt stetig verteilt (oder kurz: stetig), falls es eine integrierbare Funktion f : R → R+ gibt, derart, dass für die Verteilungsfunktion FX gilt FX (x) = Z x f (s)ds. −∞ In einem solchen Fall heißt f die Wahrscheinlichkeitsdichte oder Dichte der Zufallsvariablen X. Bemerkung 2.20 Im diskreten Fall entspricht der Wahrscheinlichkeitsdichte der diskrete Funktion f : R → R+ P P mit f (xk ) = pk . Es gilt weiterhin, dass k pk = k f (xk ) = 1. Im stetigen Fall gilt wegen 1 = P (Ω) = P (X ∈ R) = lim FX (x) = lim x→∞ für die Dichte der Zufallsvariablen X, dass Z x x→∞ −∞ R∞ −∞ f (s)ds f (s)ds = 1. Definition 2.21 Der Erwartungswert E(X) bzw. die Varianz V ar(X) einer stetigen reellen Zufallsvariablen wird definiert als E(X) := V ar(X) := Z ∞ −∞ Z ∞ −∞ s · f (s)ds (s − E(X))2 · f (s)ds sofern die jeweiligen Integrale existieren. Auch für stetige Zufallszahlen versteht man unter p V ar(X) die √ Standardabweichung oder V ar(X) Streuung von X. Falls E(X) = 6 0, dann heisst die Grösse cX := E(X) auch hier der Variationskoeffizient von X. Beispiele für stetige Zufallsvariablen in technisch-ökonomischen Wartesystemen sind: 18 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV • Zwischenankunftszeit τi des i-ten Kunden, • Bedienzeit Si des i-ten Kunden, • zeitlicher Arbeitsvorrat Ut einer Bedienstation, • Betriebszeiten Zk der Bedienstation, • Leerlaufzeiten Yk der Bedienstation. Beispiel 2.22 (i) Stetige Gleichverteilung (Rechteckverteilung): Es sei eine stetige reelle Zufallsvariable X : Ω → [a, b] ⊂ R gegeben. Man nennt X gleichverteilt auf dem Intervall [a, b], kurz X ∼ U (a, b), falls für die Dichtefunktion gilt, dass f (x) = 1 , a≤x≤b b−a 0, sonst. Die Dichte einer gleichverteilten Zufallsvariablen ist also auf dem Intervall [a, b] konstant. Für den Erwartungswert und die Varianz einer gleichverteilten Zufallsvariable rechnet man aus: (b − a)2 a+b und V ar(X) = . E(X) = 2 12 Anwendung: Gleichverteilte Zufallsvariable sind grundlegend für den Bereich der „Simulationsverfahren“ (siehe späteres Kapitel ??). Im Rahmen einer solchen Simulation wird dann gefordert dass zu generierenden „Zufallszahlen“ einer bestimmten Verteilung gehorchen sollen. Diese Verteilung erhält man durch Transformation von Zufallszahlen, die auf dem Einheitsintervall [0, 1] gleichverteilt sind (X ∼ U (a, b)). (ii) Gauß’sche Normalverteilung: Es sei µ ∈ R und σ 2 > 0„Eine stetige Zufallsvariable X : Ω → R heisst normal-verteilt mit Parametern µ und σ 2 (kurz: X ∼ N (µ, σ 2 )), falls X die Dichtefunktion 1 2 2 f (x) = √ e−(x−µ) /2σ 2πσ besitzt. Für den Erwartungswert bzw Varianz erhält man E(X) = µ und V ar(X) = σ 2 . Für den Spezialfall µ = 0 und σ 2 = 1 heisst X ∼ N (0, 1) standard-normalverteilt. Abb. 2.3 zeigt die als Gauß’sche Glockenkurve bekannte Dichte und die Verteilungsfunktion der Normalverteilung graphisch. Die Normalverteilung stellt eine äusserst wichtige Verteilung dar. Ihre Bedeutung erhält sie durch den Zentralen Grenzwertsatz, der besagt, dass die Summe unabhängiger und identisch verteilter Zufallsvariablen beliebiger Verteilungen annähernd normal-verteilt sind (Konvergenz in Verteilung gegen eine normal-verteilte Zufallsvariable). Anwendung: Die Normalverteilung tritt häufig im Zusammenhang mit der Beschreibung von zufälligen Meßfehlern und Fabrikationsfehlern auf. 19 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV 0.5 1 0.4 0.8 0.3 0.6 0.2 0.4 0.1 0.2 0 0 −2 0 2 −2 0 2 Abbildung 2.3: Dichte und Verteilungsfunktion von N (0, 1) (iii) Exponentialverteilung: Es sei λ > 0. Eine stetige Zufallsvariable X : Ω → [0, ∞[ heisst exponential-verteilt mit Parameter λ (kurz: X ∼ E(λ), falls X die Dichte f (x) = ( 0, x<0 −λx λ·e , x≥0 besitzt. Für die Verteilungsfunktion von FX gilt dann für t > 0: FX (t) = P (X ≤ t) = 1 − P (X > t) = 1 − e−λt , d.h. P (X > t) = 1 − FX (t) = e−λt . Für den Erwartungswert, die Varianz bzw. den Variationskoeffizienten erhält man E(X) = 1/λ, V ar(X) = 1/λ2 , cX = 1. Die Dichte und die Verteilungsfunktion der Exponentialverteilung ist in Abb. 2.4 graphisch dargestellt. 2.5 1 2 0.8 1.5 0.6 1 0.4 0.5 0.2 0 0 0 2 4 0 2 4 Abbildung 2.4: Dichte und Verteilungsfunktion von E(2) Anwendung: Die Exponentialverteilung gehört zu den wichtigen und häufig anzutreffenden Verteilungen. Sie wird oft genutzt, um die Lebensdauer von Objekten zu modellieren, die „nicht altern“, also immer „wie neu“ sind. Dies wird bspw. oft von elektronischen Bauteilen angenommen. Auch zur Beschreibung von Zwischenankunftszeiten bzw. Bedienzeiten wird sie herangezogen. Es gilt nämlich der fundamentale Zusammenhang: 20 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV Satz 2.23 Eine reelle Zufallsvariable X : Ω → [0, ∞[ ist exponential-verteilt genau dann, wenn sie folgender Bedingung („Gedächtnislosigkeit“) genügt: P (X > s + t | X > s) = P (X > t) für alle s, t ≥ 0. Die zufällige Lebensdauer von Glühbirnen oft mit Hilfe der Exponentialverteilung modelliert. Die damit unterstellt Gedächtnislosigkeit weist darauf hin, dass es nicht viel Sinn ergibt, eine funktionierende Glühbirne durch eine neue zu ersetzen. Die Eigenschaft besagt nämlich, dass die Wahrscheinlichkeit dafür, dass eine Glühbirne, die bisher s Stunden funktionsfähig war, noch t weitere Stunden funktioniert, genauso groß ist wie die Wahrscheinlichkeit, dass eine neue Glühbirne t Stunden funktioniert. Die Eigenschaft der Gedächtnislosigkeit einer Exponentialverteilung führt – wie wir noch sehen werden – zu der sog. „Markov-Eigenschaft“ von Poisson-Prozessen. Eine weitere wichtige Eigenschaft von exponentialverteilten Zufallsvariablen ist die folgende Satz 2.24 Es seinen X1 , X2 , . . . , Xk k voneinander stochastisch unabhängige, exponentialverteilte Zufallsvariablen mit den Parametern λ1 , λ2 , . . . , λk Dann ist die Zufallsvariable X = min{X1 , X2 , . . . Xk } exponentialverteilt mit Parameter λ = λ1 + λ2 + · · · + λk Beweis: In der Übung als Übungsaufgabe. (iv) Erlang-Verteilung 3 : Es sein λ > 0 und r ∈ N, r ≥ 2. Eine stetige Zufallsvariable X : Ω → [0, ∞[ heisst Erlang-verteilt mit Parameter λ und r (kurz: X ∼ Erl(λ, r), falls X die Dichte ( 0, x<0 f (x) = λn ·xr−1 −λx , x≥0 (r−1)! · e besitzt. Als Verteilungsfunktion von FX ergibt sich dann für t > 0: −λt FX (t) = P (X ≤ t) = 1 − P (X > t) = 1 − e d.h. −λt P (X > t) = 1 − FX (t) = e 3 · r−1 X i=0 · r−1 X i=0 (λ · t)i i! ! (λ · t)i i! ! , . Benannt nach dem dänischen Mathematiker und Ingenieur A.K. Erlang, geb. 1878 gest. 1929. 21 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV Für den Erwartungswert, die Varianz bzw. den Variationskoeffizienten erhält man hier r , λ E(X) = V ar(X) = r , λ2 c2x = 1 . r Anwendung: Erlang-Verteilungen gehören bei der Modellierung von Bedienzeiten ebenfalls zu wichtigen und häufig anzutreffenden Verteilungen. In der Realität besteht ein „Bedienungsvorgang“ häufig aus mehreren einzelnen (also etwa n ≥ 1) "Bedienungsschritten“. Sind die Dauern Si , i = 1, 2, . . . r dieser einzelnen Bedienungsschritte voneinander unabhängig und exponential-verteilt mit gleichem Parameter λ, so ist die Dauer S des gesamten Bedienungvorgangs Erl(λ, r)-verteilt. 2.4 Zusammenstellung von im Weiteren benötigten Sachverhalte a) Es ist (i) Reihenentwicklung für die Exponentialfunktion: ea·x = ∞ X (a · x)i i! i=0 , für alle a, x ∈ R • ∞ X xi = i=0 1 , für |x| < 1 1−x • n X 1 − xn+1 für |x| < 1. 1−x xi = i=0 • ∞ X i=0 i · xi = x , für |x| < 1 (1 − x)2 • ∞ X i=0 i2 · xi = x · (1 + x) , für |x| < 1 (1 − x)3 b) Abschätzung von Wahrscheinlichkeiten: Es sei X eine nicht-negative Zufallsvariable, dann gilt für alle t > 0: P (X ≥ t) ≤ E(X) t 22 (Markov-Ungleichung). 2 Eine kurze Wiederholung zur Wahrscheinlichkeitstheorie OR II c, Master-Modul IV c) Satz vom totalen Erwartungswert Satz 2.25 Es sei X eine integrierbare Zufallsvariable und (Bi )i∈I eine endliche oder abzählbar unS endliche Familie von Teilmmengen Bi ⊂ R, P (Bi ) > 0, paarweise disjunkt und i Bi = Ω („Zerlegung von R“). Dann gilt E(X) = X i∈I E(X|Bi ) · P (Bi ). d) Faltungssatz (siehe etwa [13]): Satz 2.26 (Faltungssatz) Es seien X1 und X2 zwei unabhängige Zufallsvariablen mit Dichtefunktionen fX1 bzw. fX2 . Dann ergibt sich die Dichtefunktion fX der Zufallsvariablen X = X1 + X2 als: fX (t) = fX1 ∗ fX2 (t) = Z +∞ −∞ fX1 (t − s) · fX2 (s)ds. Der Ausdruck fX1 ∗ fX2 (t) heißt Faltung von fX1 und fX2 . 23 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ Die meisten zufälligen Größen in einem technisch-ökonomischen Wartesystem unterliegen zeitlichen Veränderungen. Beispiele hierfür sind: • Die Anzahl αt von Kunden, die bis zum Zeitpunkt t an einer Bedienstation angekommen sind. • Die Anzahl δt von Kunden, die bis zum Zeitpunkt t an einer Bedienstation bedient worden sind. Diese, vom zufälligen Eintreten der Kunden in das Wartesystem und von seiner (zufälligen) Bedienzeit abhängige, Zahl ist mit t veränderlich. • Die Anzahl Bk der am Tag Nr. k insgesamt bearbeiteten Einkommensteuerbescheide in einem Finanzamt. Statt einer einzelnen Zufallsvariablen zu einem bestimmten Moment hat man also eine Familie von Zufallsvariablen, die zu jedem Zeitpunkt (t ≥ 0, oder k ∈ N) bestimmte (zufällige) Werte annehmen. Definition 3.1 Es sei T = [0, ∞[ oder T = {0, 1, . . .}. Für jedes t ∈ T sei eine Zufallsvariable Xt : Ω → R gegeben. Dann nennen wir die Gesamtheit der Zufallsgrößen (Xt )t∈T einen stochastischen Prozess. Ist T = [0, ∞[, so heißt (Xt )t∈T ein stochastischer Prozess mit stetigem oder kontinuierlichem (Zeit-) Parameter, im Falle T = {0, 1, . . .} ein stochastischer Prozess mit diskretem (Zeit-) Parameter. Oft spricht man auch salopp von einem stochastischen Prozess mit stetiger (bzw. diskreter) Zeit. Beispiele für das Auftreten stochastischer Prozesse im Zusammenhang mit technisch-ökonomischen Wartesystemen sind beispielsweise: (i) mit diskretem (Zeit-)Parameter: • Zwischenankunftszeit τk := Tk −Tk−1 , k = 1, 2, . . . zwischen Kunde k −1 und Kunde k • Bedienzeit des k-ten Kunden, Sk , k = 1, 2, . . . • Ankunftszeitpunkte des k-ten Kunden, Tk , k = 1, 2, . . . • Zeitpunkt sk an dem der k-te Kunde das Wartesystem verlässt 24 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV • Dauer bis zum Zeitpunkt, in dem die Warteschlange zum ersten Mal k Kunden lang ist (ii) mit stetigem (Zeit-)Parameter: • Länge der Warteschlange Nt zum Zeitpunkt t • Anzahl der Kunden Lt , die sich zum Zeitpunkt t im Wartesystem befinden • Anzahl der abgefertigten Kunden δt bis zum Zeitpunkt t • Anzahl der zurückgewiesenen Kunden bis zum Zeitpunkt t • Anzahl der zum Zeitpunkt t eintreffenden Kunden Xt Um Kenngrössen für das Wartesystem zu ermitteln, wird es also notwendig sein, bestimmte stochastische Prozesse des Systems zu untersuchen. Beispiel 3.2 (Stochastische Prozesse an einem Ski-Lift:) Wir betrachten als Wartesystem einen Ski-Teller-Lift innerhalb eines Skigebietes. Dieser Teller-Lift befördert die Skifahrer, die bei ihm ankommen, wieder „nach oben“ und zwar jeweils einen Skifahrer im Abstand von einer Zeiteinheit (z. B. 10 Sek.). Auf Grund von statistischen Untersuchungen hat man festgestellt, dass ein Anteil von α (0 < α < 1) aller abfahrenden Skifahrer den Teller-Lift benutzen wollen und der übrige Anteil der Skifahrer , also (1 − α), an der Teller-Lift-Station vorbei fährt. Diese Information interpretieren wir so, dass mit Wahrscheinlichkeit α das Ereignis „ein abfahrender Skifahrer hält am Lift und will wieder „nach oben“ befördert werden“ eintritt. Mit Wahrscheinlichkeit (1 − α) fährt er vorbei. Wir bezeichnen mit {0, 1, . . .} die einzelnen Zeitpunkte, zu denen der Tellerlift bedienen kann, betrachten die Zeitintervalle zwischen zweier solcher Bedienungen und nummerieren diese durch. Während eines Zeitintervalles [k, k − 1[ kommt also eine vom Zufall abhängige Anzahl, nämlich Xk , von Skifahrern am Tellerlift an, um bedient zu werden. Ein ankommender Skifahrer stellt sich, falls er nicht sofort befördert werden kann, in einer Warteschlange an. Die Beförderungsdisziplin sei zunächst unerheblich. Die Grösse Xk (also die Anzahl der im Zeitintervall [k − 1, k[ (k = 1, 2, . . .) am Tellerlift ankommenden Skifahrer) ist also eine Zufallsvariable und (Xk )k∈{1,2,...} ein stochastischer Prozess mit diskreter Zeit. Nehmen wir nun an, dass diese Zufallsvariablen Xk identisch verteilt (d. h. ihre Verteilung ist unabhängig vom Zeitintervall k immer dieselbe) und voneinander unabhängig seien (d. h. die Ankünfte der innerhalb zweier verschiedenen Zeitintervalle ankommenden Kunden seien voneinander unabhängig). Für die Verteilung gelte pn := P (Xk = n) = (1 − α) · αn , n ≥ 0, 0 < α < 1, d.h. die Zuvallsvariablen Xk sind jeweils gemäss einer geometrischen Verteilung mit Parameter α verteilt.1 Wenn wir wissen, dass die Ankünfte Xk auf diese Weise verteilt sind, so können wir beispielsweise als eine Kenngrösse des Wartesystems die durchschnittliche Anzahl der 1 Dies entspricht der Wahrscheinlichkeit, dass die ersten n Skifahrer am Lift ankommen, bevor zum ersten Mal ein Skifahrer vorbeifährt. 25 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV ankommenden Skifahrer am Lift, also die mittlere Anzahl der im Zeitintervall [k − 1, k[ (bzw. der in irgendeinem Zeitintervall) ankommenden Skifahrer, berechnen als: E(Xk ) = ∞ X n=0 = n · P (Xk = n) = (1 − α) · α . 1−α ∞ X n=0 n · αn Kennen wir also den Anteil α aller Skifahrer, die den Lift überhaupt benutzen wollen, so haben wir auch bereits Kenntnis über die erwartungsgemäss in einem Zeitintervall [k − 1, k[ dort ankommenden Skifahrer! Ein weiterer, sich aus dem Prozess (Xk )k∈{1,2,...} ergebender, stochastischer Prozess mit diskreter Zeit ist der Prozess (Nk )k∈{1,2,...} der Länge der Warteschlange (= Anzahl der Wartenden) zum Zeitpunkt k (am Ende des Zeitintervalls [k − 1, k[ nach Ankunft der X Skifahrer, aber vor Abfahrt des k-ten Tellers). Dieser Prozess lässt sich durch Nk+1 = ( Nk − 1 + Xk , falls Nk ≥ 1 X, falls Nk = 0 beschreiben. Wir sehen, dass bei diesem stochastischen Prozess die (zufällige) Warteschlangenlänge Nk+1 unmittelbar vor dem Zeitpunkt k + 1 nur von der Länge der Warteschlange zum Zeitpunkt k und von X, also den im Zeitintervall [k, k + 1[ ankommenden Skifahrern abhängig ist, nicht jedoch davon, wie sich die Warteschlange in den Zeitpunkten vor k verhalten hat. Stochastische Prozesse mit diskreter Zeit, bei denen der Wert zum Zeitpunkt k + 1 ausschließlich vom Wert zum Zeitpunkt k abhängt (und nicht von noch früheren Werten), haben die sogenannte Markov-Eigenschaft. Für den Prozess (Nk )k∈{1,2,...} könnten wir nun beispielsweise die Frage stellen, wie wahrscheinlich es ist, dass wir am Ende von Intervall [k, k + 1[ genau j Skifahrer in der Warteschlange sehen, sofern wir zum Ende des vorhergehenden Zeitintervalls [k − 1, k[ i wartende Skifahrer beobachtet haben. Um diese Wahrscheinliochkeite zu beschreiben überlegen wir uns, welches Ereignis im Intervall [k, k + 1[ stattgefunden haben muss. Damit rechnen wir dann die sog. „Übergangswahrscheinlichkeiten“, d. h. die bedingten Wahrscheinlichkeiten der Warteschlangenlänge Pij := P (Nk+1 = j | Nk = i) = P (im Zeitintervall [k, k + 1[ stehen j Skifahrer in der Warteschlange | im Zeitintervall [k − 1, k[ standen i Skifahrer in der Warteschlange) aus. Wir überlegen uns: – 0 ≤ j < i − 1: da zu jedem Zeitpunkt k nur ein Teller für die Beförderung zur Verfügung steht, kann nicht mehr als eine Person abgefertigt werden, also Pij = 0. – Falls j ≥ i−1 ≥ 0, so entspricht diese Situation dem Ereignis: „Im Intervall [k, k+1[ kommen j − i + 1 Personen an, eine Person wird befördert“). Also: Pij = (1 − α) · αj−i+1 . 26 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV – Falls i = 0, j ≥ 1, heisst das „Im Intervall [k, k + 1[ kommen j Personen an“. ) Daher P0j = P (Xk = j) = (1 − α) · αj . – Für i = 0, j = 0, liegt das Ereignis vor „Im Intervall [k, k + 1[ kommen 0 Personen an“). D.h. P00 = P (Nk+1 = 0 | Nk = 0) = P (X = 0) = p0 = (1 − α). Wir bezeichnen eine nicht-negative, ganzzahlige Zufallsvariable Z als gedächtnislos, falls P (Z ≥ n + i|Z > n) = P (Z ≥ i), für alle n, i gilt. Interpretation: Wenn man weiß, dass Z den Wert n überschritten hat, so ist die Wahrscheinlichkeit, dass Z diesen Wert n auch noch um den Wert i überschreitet, genau so gross wie die Wahrscheinlichkeit, dass Z den Wert i überschreitet. Der Wert ist also unabhängig von n, die Zufallsvariable Z „merkt“ sich also den Wert n nicht . Daher kommt der Begriff der „Gedächtnislosigkeit“. Achtung: „gedächtnislos“ heisst nicht: P (Z ≥ n + i|Z ≥ n) = P (Z ≥ n + i). Die Eigenschaft der Gedächtnislosigkeit spielt bei der Modellierung und Analyse technischökonomischer Wartesysteme eine sehr wichtige Rolle, da sie (zumindest idealisiert) häufig in der Realität beobachtet werden kann. (Natürlich haben nicht alle stochastischen Prozesse eine derartige Eigenschaft.) Übung: Zeigen Sie, die Eigenschaft der Gedächtnislosikteit für eine geoemetrisch verteilte Zufallsvariable. Interessant dabei ist nämlich, dass für ganzzahlige, nicht-negative Zufallsvariablen die geometrische Verteilung die einzige Verteilung ist, welche die Eigenschaft der Gedächtnislosigkeit besitzt. Kann man also die Gedächtnislosigkeit einer diskreten, nicht-negativen Zufallsvariable Z beobachten, so muss diese Zufallsvariable Z geometrisch verteilt sein. Wenn man dies also weiß (beobachtet hat) , geht es nun „nur noch“ darum, den Parameter α zu „ermitteln“. Die „Gedächtnislosigkeit“ von Zufallsgrössen kann auch im Falle stetiger Zufallsvariablen beobachtet werden. 27 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV Definition 3.3 Eine nicht-negative (rellwertige) Zufallsvariable Z heisst exponential-verteilt mit Parameter λ > 02 , falls für alle t ≥ 0 P (Z ≤ t) = P (Z < t) = 1 − e−λt gilt. Die Exponentialverteilung ist deshalb von so großer Bedeutung bei der Analyse technischökonomischer Wartesysteme, weil sie die einzige Verteilung ist, die für stetige, nicht-negative Zufallsgrössen Z die sog. „Markov-Eigenschaft“ (oft als Eigenschaft der „Gedächtnislosigkeit“ bezeichnet) besitzt. Wir nennen eine nicht-negative Zufallsvariable Z als gedächtnislos, falls P (Z ≥ t + s|Z ≥ t) = P (Z ≥ s), für alle t, s gilt. Interpretation: Wenn man weiß, dass Z den Wert t überschritten hat, so ist die Wahrscheinlichkeit, dass Z diesen Wert t auch noch um weitere s überschreitet, genau so gross wie die Wahrscheinlichkeit, dass Z den Wert s überschreitet. Der Wert ist also unabhängig von t, die Zufallsvariable Z „merkt“ sich also den Wert t nicht . Daher kommt der Begriff der „Gedächtnislosigkeit“. Achtung auch hier: „gedächtnislos“ heisst nicht: P (Z ≥ t + s|Z ≥ t) = P (Z ≥ t + s). Für eine exponentialverteilte Zufallsvariable gilt: P (Z ≥ t + s | Z ≥ t) = = P (Z ≥ t + s und Z ≥ t) P (Z ≥ t) P (Z ≥ t + s) e−λ·(t+s) = = e−λ·s = P (Z ≥ s). P (Z ≥ t) e−λ·t Exponentialverteilte Zufallsvariablen werden typischerweise zur Modellierung von Lebensdauern von Objekten herangezogen, die „nicht altern“, die also stets „so gut, wie neu“ sind. Beispielsweise wird sie oft für eine adäquate Beschreibung i. der Länge von Telefongesprächen, ii. der Zeit, welche zwischen zwei aufeinander folgenden eingehenden (ausgehenden) Anrufen vergeht, iii. der Lebensdauern von Bauteilen, bei denen Verschleisserscheinungen nicht berücksichtigt werden (müssen), siehe etwa „LED-Leuchtmittel“, 2 In der Literatur findet man auch manchmal die Bezeichnung „negativ exponential-verteilt“. 28 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV herangezogen. Die obige Formel zeigt dies gerade: denn beschreibt Z etwa das Alter eines „nicht alternden“ Objektes, so sagt die Formel aus, dass im Falle einer Exponentialverteilung die Verteilung der „Restlebensdauer“ s, gilt P (Z ≤ s) = P (Z ≤ t + s | Z > t), sie also unabhängig vom jetzigen Alter t ist. „Die Überlebenswahrscheinlichkeit des Objektes in Bezug auf einen bestimmten Zeitpunkt ist also unabhängig vom bisher erreichten Alter“. Bei vielen in der Praxis vorkommenden, technisch-ökonomischen Wartesystemen kann man nun (zumindest idealisiert) qualitativ beobachten, dass (i) a) die Zwischenankunftszeiten τk := Tk − Tk−1 , k = 1, 2, . . . jeweils stochastisch unabhängige Zufallsvariablen sind, b) die Zufallsvariablen τk identisch verteilt sind (also die Verteilung unabhängig von k ist) und daher durch eine Zufallsvariable τ beschrieben werden kann c) die Zufallsvariable τ die Eigenschaft der Gedächtnislosigkeit besitzt (ii) a) die Bedienzeiten Sk , k = 1, 2, . . . stochastisch unabhängige Zufallsvariablen sind. b) die Zufallsvariablen Sk identisch verteilt sind (also die Verteilung unabhängig von k ist) und daher durch eine Zufallsvariable S beschrieben werden kann c) die Zufallsvariable S die Eigenschaft der Gedächtnislosigkeit besitzt Kann man dies also für die einzelnen Zufallsvariablen „Zwischenankunftszeiten“ τ bzw. „Bedienzeiten“ S – zumindest idealisiert – feststellen, so muss die entsprechende Zufallsvariable exponentialverteilt sein, d.h. P (τ ≤ t) = 1 − e−λt , für geeignetes λ > 0, bzw. P (S ≤ t) = 1 − e−µt , für geeignetes µ > 0, Damit geht es also nun aber „nur noch“ darum, die geeigneten Parameter λ ( bzw. µ) zu „ermitteln“. Hierzu macht man sich das Folgende zunutze: ist Z eine exponential-verteilte Zufallsvariable (also P (Z ≤ t) = 1 − e−λt ), dann gilt für den Erwartungswert: E(Z) = 1 . λ Die Grösse λ kann also angegeben werden, sofern man den Erwartungswert der Zufallsvariablen kennt. Bei der Analyse eines konkreten Wartesystems könnte man daher also etwa so vorgehen, und die beiden Erwartungswerte E(τ ) bzw. E(S) schätzen (bzw. experimentell bestimmen), und auf diese Weise die Parameter λ bzw. µ ermitteln. Bemerkung 3.4 Für eine exponential-verteilte Zufallsvariable Z mit Erwartungswert E(Z) = aus : 29 1 λ rechnen wir 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ • 1 − E(Z) ·E(Z) P (Z ≤ E(Z)) = 1 − e • = 1 − e−1 = 1 − 0, 367 ≈ 0, 63 1 ·0,5·E(Z) − E(Z) P (Z ≤ 0, 5 · E(Z)) = 1 − e OR II c, Master-Modul IV = 1 − e−0,5 = 1 − 0, 6065 ≈ 0, 40 Die Wahrscheinlichkeit, dass eine exponential-verteilte Zufallsvariable Z einen Wert annimmt, der kleiner als ihr Mittelwert E(Z) ist, beträgt also mehr als 60%, und die Wahrscheinlichkeit, dass sie einen Wert annimmt, der kleiner als 12 · E(Z) ist, beträgt immer noch ungefähr 40%. Exponentialverteilte Zufallsvariabeln „bevorzugen“ also (gemessen am Mittelwert) kleinere Zwischenankunftszeiten. Beispiel 3.5 In einer ALDI-Filiale wird im Rahmen einer Service-Analyse das Bedienverhalten an einer der Kassen Kasse untersucht. Es wird dabei festgestellt, dass sich die Bedienzeiten der Kunden „gedächtnislos“ verhalten und eine Bedienung im Durchschnitt 1 min 40 sec (= 100 sec) dauert. Der Filialleiter gewinnt daraus folgende Informationen: • die Bedienzeit S eines Kunden ist exponential-verteilt, d.h. P (S ≤ t) = 1 − e−µt • Um µ zu bestimmen, führt man den Ansatz durch: 100 sec = E(S) = 1 1 ⇔µ= sec−1 µ 100 . Mit diesen Daten kann man nun beispielsweise die Wahrscheinlichkeit berechnen, dass die Bedienzeit eines Kunden nicht länger als 10 sec dauert: −1 P (S ≤ 10 sec ) = 1 − e−0,01 sec ·10 sec = 1 − e−0,1 = 0, 0951 ≈ 0, 1 Oder die Wahrscheinlichkeit, dass sie länger als 80 sec ist : −1 P (S ≥ 80 sec ) = 1 − P (S ≤ 80 sec ) = 1 − (1 − e−0,01 sec ·80 sec ) = e−0,8 = 0, 449 ≈ 0, 45 Der Filialleiter interpretiert diese Größen nun so, dass bei ca. 10 % der Kunden der Kassiervorgang nicht länger als 10 Sekunden benötigt und ca. 45 % der Kunden länger als 80 Sekunden an der Kasse stehen. Übung In einer Zahnarztpraxis befinden sich 2 Behandlungsstühle. Die Behandlungszeiten der einzelnen Patienten sind voneinander unabhängig und exponential-verteilt mit Mittelwert 20 Minuten. Innerhalb der den nächsten 30 Minuten kommen genau 3 Patienten, nämlich A (zum Zeitpunkt 0), B (zum Zeitpunkt 15 min) und C ( zum Zeitpunkt 30 min) in der Praxis an, um dort behandelt zu werden. Zum Zeitpunkt 0 wird kein Patient behandelt. Wenn B ankommt, wird A noch behandelt, wenn C ankommt befinden sich beide, A und B, noch in Behandlung. • Wie gross ist die Wahrscheinlichkeit, dass A vor B mit der Behandlung fertig ist? 30 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV • Wie gross ist die Wahrscheinlichkeit, dass C vor A mit der Behandlung fertig ist? • Wie gross ist die Wahrscheinlichkeit, dass C vor B mit der Behandlung fertig ist? Überlegen Sie sich dies bitte selbst. Im Weiteren werden wir nun zunächst davon ausgehen, dass alle betrachteten Wartesysteme exponentialverteilte Zwischenankunftszeiten (Parameter λ) und exponentialverteilte Bedienzeiten (Parameter µ) besitzen. In diese4m Fall so können wir dann auch eine Aussage über die „Anzahl der Ankünfte“ in einem bestimmten Beobachtungsintervall [0, t] treffen. Wir machen dazu zunächst die folgende allgemeine Definition: Definition 3.6 Es sei (Zk )k∈N0 ist ein stochastischer Prozess mit diskreter Zeit, 0 = Z0 ≤ Z1 ≤ Z2 ≤ . . ., so dass die Differenzen zk := Zk − Zk−1 , k = 1, 2, . . . voneinander unabhängige Zufallsvariable sind, welche alle mit demselben Parameter λ > 0 exponentialverteilt sind. Für t ≥ 0 sei die Zufallsvariable Xt definiert als Xt := j, falls Zj ≤ t < Zj+1 . Dann nennen wir den stochastischen Prozess mit stetiger Zeit (Xt )t∈[0,∞[ einen Poisson-Prozess mit Intensität λ. Bemerkung 3.7 (i) Beschreibt der stochastische Prozess (Zk )k∈N0 speziell die Ankunftszeitpunkte Tk (wir haben also den Prozess (Tk )k∈N0 ), so spricht bei dem zugehörigen stochastischen Prozess (Xt )t∈[0,∞[ auch häufig von einem Poisson’schen Ankunftsprozess mit Intensität λ. Statt Xt schreibt man in diesem Fall αt . Die Zufallsvariable αt zählt also gerade die im Intervall [0, t[ am Wartesystem angekommenen Kunden. Xt=®t 5 4 3 2 1 T1 T2 T3 T4 T5 t (ii) Der Begriff „Poisson-Prozess“ rührt daher, dass sich aus der Exponentialverteilung der Differenzen zk = Tk −Tk−1 (also P (zk ≤ t) = 1−e−λt ) die Verteilung der Zufallsvariablen αt im stochastischen Prozess (Xt )t∈T ergibt als P (αt = k) = 31 (λ · t)k −λt ·e . k! 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV Für einen festen Zeitpunkt t ist die Zufallsvariable Xt also Poisson-verteilt mit Parameter λ · t. (siehe Übung) (iii) Wir haben genauer (siehe bspw. [30]): (αt )t≥0 Poisson-verteilt mit Intensität λ ⇔ τ exponentialverteilt mit Parameter λ. Sind in einem Wartesystem die Zwischenankunftszeiten der Kundenankünfte exponentialverteilt mit Parameter λ, dann ist die Zufallsvariable αt , die die Anzahl der Ankünfte beschreibt, die im Zeitintervall [0, t[ stattfinden, Poisson-verteilt mit Parameter λ · t. Und umgekehrt. (iv) Ist (Xt )t∈[0,∞[ ein Poisson-Prozess mit Intensität λ, so gilt (bekanntlich) für den Erwartungswert und die Varianz der Zufallsvariablen Xt : E(Xt ) = ∞ X k=0 k · P (Xt = k) = λ · t und Var(Xt ) = λ · t. Beschreibt (αt )t∈[0,∞[ einen Poisson’schen Ankunftsprozess mit Intensität λ, so ist die „durchschnittliche Anzahl“ von Kunden, die bis zum Zeitpunkt t in das System eingetreten sind, also gleich λ · t. Die Größe λ entspricht also gerade der „durchschnittlichen Anzahl“ von Kunden, die pro Zeiteinheit in das System eintreten, d. h. der Ankunftsrate für das technischökonomische Wartesystems. (v) Durch Satz 2.18 (siehe Seite 18) wissen wir, dass sich Poisson-Prozesse „addieren“. Haben wir beispielsweise „Kunden eines Typs I“, deren Ankunftsprozess am System durch einen Poisson-Prozess (αIt )t∈[0,∞[ einen mit Ankunftsrate λI , beschrieben werden kann und „Kunden eines Typs II“, deren Ankunftsprozess am System durch einen II Poisson-Prozess (αII t )t∈[0,∞[ mit Ankunftsrate λ , erfolgt, so ist der gemeinsame Ankunftsprozess beider Kundentypen ebenfalls ein Poisson-Prozess mit der Ankunftsrate λ = λI + λII . Eine analoge Aussage gilt natürlich auch für mehr als zwei „Kundentypen“. (vi) Betrachten wir die „umgekehrte“ Situation: Gegeben sei ein Poisson’scher Ankunftsprozess mit Ankunftsrate λ. Angenommen jeder Kunde, der ankommt, gehört zu einem von zwei Kundentypen („Typ 1“ bzw „Typ II“). Mit Wahrscheinlichkeit p ist er „Kunde des Typs I“, mit Wahrscheinlichkeit 1− p „Kunde des Typs II“. Die die Ankünfte der beiden Typen sind unabhängig voneinander. Dann sind die so aufgeteilten Ankunftsprozesse (αIt )t∈[0,∞[ bzw. (αII t )t∈[0,∞[ der jeweiligen Kundentypen ebenfalls Poisson’sche Ankunftsprozesse mit den Parametern λI = p · λ bzw. λII = (1 − p) · λ. Diese „Splitting-Eigenschaft“ gilt auch hier für mehr als zwei solcher Aufteilungen. Beispiel 3.8 Bei der Situation in Beispiel 3.5 werde zudem festgestellt, dass durchschnittlich alle 10 Sekunden ein Kunde an die Kasse herantritt, wobei die Zeit, die zwischen dem Herantreten vergeht sich gedächnislos verhält. Der Filialleiter ist daran interessiert, zu erfahren 32 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV • wie gross die Wahrscheinlichkeit ist, dass innerhalb einer Minute mehr als 6 Kunden an die Kasse herantreten • wie gross die Wahrscheinlichkeit ist, dass innerhalb einer Minute genau 3 Kunden an die Kasse herantreten Um dies zu ermitteln, schliesst er aus der Gedächtnislosigkeit der Zwischenankunfstzeit τ zunächst, dass diese exponentialverteilt sind (mit Parameter λ). Wenn er die Zeiteinheit als „Minute“ festlegt, beobachtet er also durchschnittlich 6 Personenankünfte pro Minute erhält 6 = 6 · min−1 . so die Ankunftsrate λ = min Nun ermittelt er für das Intervall [0, 1] (also t = 1 min) die Wahrscheinlichkeiten P (α1 = k) = (6 · t)k −6·t ·e . k! Er erhält Kunden k 0 1 2 3 4 5 6 7 8 usw. P (α1 = k) 0,0025 0,015 0,0446 0,0892 0,1339 0,1606 0,1606 0,1307 0,1033 usw. Damit haben wir dann P (α1 > 6) = 1 − 6 X i=0 P (α1 = i) ≈ 1 − 0, 604 = 0, 396 und P (α1 = 3) ≈ 0, 09. Für die Untersuchung von Wartesystemen benötigt man – wie wir sehen werden – auch den Zuwachs αt − αs der innerhalb eines bestimmten Zeitintervalls [s, t] in das System eingetretenen Kunden. Die zufällige Größe ∆s,t = αt − αs , welche diesen beschreibt, kann offenbar nur die Werte 0, 1, . . . annehmen. Eine Eigenschaft, die für man für die Beschreibung dieser Zuwächse ausnutzt, wird durch den folgenden wichtigen allgemeinen Sachverhalt beschrieben (siehe [30]). Satz 3.9 Ein monoton wachsender, stochastischer Prozess (Xt )t∈[0,∞[ ist ein Poisson-Prozess mit der Intensität λ > 0 genau dann, wenn die beiden folgenden „Prozess-Eigenschaften“ vorliegen: 33 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV (i) („Prozess mit unabhängigen Zuwächsen“) Es gilt X0 = 0, und für jedes s ∈ [0, t[ sind die Zufallsvariablen ∆s,t = Xt −Xs voneinander stochastisch unabhängig . (ii) („Prozess mit Poisson-verteilten Zuwächsen“) Für alle festen s, t mit 0 ≤ s < t ist ∆s,t = Xt − Xs eine Poisson-verteilte Zufallsvariable mit dem Parameter λ · (t − s), d. h. P (∆s,t = k) = P (Xt − Xs = k) = (λ(t − s))k −λ(t−s) ·e k! Bemerkung 3.10 Aus der Tatsache, dass ein Poisson-Prozess auch Poisson-verteilte Zuwächse besitzt, ergibt sich zunächst P (αt+h − αs+h = k) = P (αt − αs = k) = P (αt−s = k) für alle k ≥ 0. Diese Eigenschaft beschreibt die sog. Stationarität bzw. die zeitliche Homogenität des Prozessen (αt )t∈[0,∞[ . Nutzt man nun die Reihendarstellung der e-Funktion (siehe Kap. 2.4), d.h. ∞ X e−x = i=0 (−1)i · xi x1 x2 x3 =1− + − ..., i! 1! 2! 3! dann schliesst man für s = t + h und h „klein“: (i) P (αt+h − αt = 1) = (λ·h)1 1! · e−λ·h = λ · h · (1 − λ · h + (ii) P (αt+h − αt = 0) = (λ·h)0 0! · e−λ·h = 1 · (1 − λ · h + (iii) P (αt+h − αt = k ≥ 2) = (λ·h)k k! · e−λ·h = (λ·h)k k! (λ·h)2 2! (λ·h)2 2! − · (1 − λ · h + − (λ·h)3 3! (λ·h)3 3! (λ·h)2 2! . . .) = λ · h + o(h) . . .) = 1 − λ · h + o(h) − (λ·h)3 3! . . .) = o(h) Beispiel 3.11 Als Fan des Fussball-Vereins „Borussia Dortmund“ gehen Sie durchschnittlich einmal im Monat (= 30 Tage) in das heimische Stadion, besuchen dort ein Bundesligaspiel, schauen sich Trainings an oder besuchen die Vereins-Kneipe, um dort gegebenenfalls Spieler zu treffen, etc. Sie haben festgestellt, dass die Zeit zwischen zwei solcher Besuche exponentialverteilt ist. Beantworten Sie bitte die folgenden Fragen: • Wie groß ist die Wahrscheinlichkeit, dass Sie in einer Zweimonatsperiode das Stadion nicht besucht haben? • Wie groß ist die Wahrscheinlichkeit, dass Sie mehr als 6 mal im Jahr das Stadion besucht haben? • Wie groß ist die Wahrscheinlichkeit, dass zwischen 2 Besuchen mehr als 3 Monate vergangen sind? 34 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV • Wie gross ist die Wahrscheinlichkeit, dass Sie innerhalb der nächsten beiden Tage zweimal das Stadion besuchen? • Wie groß ist die Wahrscheinlichkeit, dass Sie sowohl heute als auch morgen einmal ins Stadion gehen? • Wie groß ist die Wahrscheinlichkeit, dass Sie während eines gesamten Jahres nicht im Stadion waren? Siehe auch Übungsblatt 2. Zusammenstellung der Eigenschaften des Ankunftsprozesses (αt )t∈[0,∞[ mit Intensität λ Wenn die Zwischenankuftszeiten τ mit Parameter λ exponentialverteilt sind, dann gilt: (i) Für festes t ist die Zufallsvariable αt Poisson-verteilt mit Parameter λ · t P (αt = k) = (λ · t)k −λt ·e k! (ii) Als durchschnittliche Anzahl der bis zum Zeitpunkt t angekommenen Kunden ergibt sich: E(αt ) = λ · t (iii) Die durchschnittliche Anzahl der pro Zeiteinheit angekommenen Kunden entspricht der Ankunftsrate = E(αt ) =λ t (iv) Als Wahrscheinlichkeitsverteilung für die Anzahl der „Neukunden“ im Intervall [t, s] erhält man: (λ(s − t))k −λ(s−t) P (αs − αt = k) = ·e k! (v) Speziell für s = t + h und h „klein“, d. h. h → 0 gilt † : P (αt+h − αt = 1) = P (αh = 1) = λ · h + o(h) P (αt+h − αt = 0) = P (αh = 0) = 1 − λ · h + o(h) P (αt+h − αt ≥ 2) = P (αh ≥ 2) = o(h) (vi) Markov-Eigenschaft des Ankunftsprozesses, d. h. für festes t hängt der weitere Ankunftsprozess αt+h nur von αt , nicht von der Vergangenheit ab: P (αt+h = k | αt = i, αt1 = i1 , . . . , αtk = ik ) = P (αt+h = k | αt = i) für alle t > t1 > t2 > . . . > 0, h > 0 35 3 Stochastische Prozesse in Wartesystemen, „Gedächtnislosigkeit“ OR II c, Master-Modul IV Konvention: Sind in einem technisch-ökonomischen Wartesystem die Zwischenankunftszeiten bzw. Bedienzeiten exponentialverteilt (mit Parameter λ bzw. µ), so wird in der Kendall’schen Notation für die Symbole τ und S der Buchstabe M gesetzt. M steht für „Markov-Eigenschaft“ der zugehörigen Ankunfts- bzw. Bedienmuster, z. B. M |M |m|K|FIFO. 36 4 Das Wartesystem M |M |1 Als Motivation für dieses Kapitel betrachten wir das folgende Beispiel. Beispiel 4.1 Die Hausdruckerei eines Marketingdienstleisters möchte einen neuen Drucker kaufen. Fünf verschiedene Modelle hat sie zur Auswahl. In der folgenden Tabelle sind für die Modelle jeweils die Druckerkosten (pro Stunde, in der der Drucker arbeitet) und die jeweilige Druckgeschwindigkeit (in „Seiten pro Minute“) angegeben. Drucker Drucker Drucker Drucker Drucker 1 2 3 4 5 Druckerkosten [e pro Stunde] 40 e 50 e 60 e 70 e 80 e Druckgeschwindigkeit [Seiten pro Minute] 30 Seiten 35 Seiten 40 Seiten 45 Seiten 50 Seiten Aus der Vergangenheit weiß man, dass die Druckaufträge, die elektronisch aus den einzelnen Abteilungen an den Drucker gesendet werden, als Poisson-Prozess mit der Intensität von 4 Aufträgen pro Stunde eingehen und die jeweilige Druckumfänge exponential-verteilt sind mit einer durchschnittlichen Auftragsgröße von 400 Seiten. Bei der Entscheidung welcher Drucker ausgewählt werden soll, rechnet die Druckerei – neben den Druckerkosten – mit „internen Strafkosten“ in Höhe von EUR 25,– für jeden Druckauftrag, der an einem Tag nicht erledigt werden kann. Es soll nun derjenige Drucker ausgewählt werden, dessen durchschnittliche Gesamtkosten eines Tages möglichst gering ist. Es wird davon ausgegangen, dass die Drucker ohne Unterbrechung arbeiten können. Wir werden sehe, dass wir ein derartiges Entscheidungsproblem durch die Analyse geeigneter Wartesysteme eines bestimmten Typs behandeln können. 4.1 Stationären Verteilungen in M|M|1-Wartesystemen Wir betrachten folgendes technisch-ökonomische Wartesystem, bei dem wir folgende Beobachtungen gemacht haben: 37 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV a) Die Zwischenakunftszeiten der Kunden sind von einander unabhängig und verhalten sich gedächtnislos: ⇒ τ exponentialverteilt mit Parameter λ (= ˆ Ankunftsrate) ⇒ Ankunftsprozess (αt )t∈[0,∞[ ist ein Poisson’scher Ankunftsprozess. b) Die Bedienzeiten der Kunden sind von einander unabhängig und verhalten sich gedächtnislos: S exponentialverteilt mit Parameter µ ( µ1 = ˆ durchschnittliche Bedienzeit) c) Das Wartesystem hat eine Bedienstation d) die Kapazität der Warteplätze ist beliebig gross. e) Die Bedienungsdisziplin ist FIFO. 4.1.1 Zeitabhängige Analyse des Systems Es handelt sich also um ein M |M |1-Wartesystem. Dieses wollen wir nun genauer untersuchen. Dazu betrachten wir die Grösse Lt die Anzahl der Kunden im Wartesystem zum Zeitpunkt t (also die Länge der Warteschlange plus den Kunden, der gerade bedient wird). (Lt )t∈[0,∞[ beschreibt also einen stochastischen Prozess mit stetigem Zeitparameter, der sowohl das Ankunftsmuster als auch die Bedienung berücksichtigt. Die Grösse Lt ist eine erste „elementare“ Kenngröße eines Wartesystems. Wir wollen uns daher für ihre Verteilung interessiert. Offenbar ist Lt eine diskrete Zufallsvariable, die Werte in {0, 1, 2, . . . , j, j + 1, . . .} annimmt. Die Verteilung P (Lt = j), j = 0, 1, 2, . . . dieser Zufallsvariablen Lt können wir herleiten, indem wir für die beiden Zeitpunkte t und t + h (h „klein“) Lt bzw. Lt+h beobachten und überlegen, was aufgrund dieser beiden Beobachtungen im Intervall [t, t+h] im Wartesystem alles „passiert sein muss“. Wir halten also einen (beliebigen) Zeitpunkt t fest und schauen uns Lt und Lt+h an. Indem wir die Erkenntnisse aus Bemerkung 3.10 nutzen, erhalten wir die folgende Übersicht: 38 4 Das Wartesystem M |M |1 Zustand, in dem sich Lt befinden kann OR II c, Master-Modul IV Zustand, in dem sich Lt+h befinden kann Lt = 0 Lt+h = 0 Lt = 1 Lt+h = 0 für i ≥ 1 : Lt = i − 1 Lt+h = i Lt = i Lt+h = i Lt = i + 1 Lt+h = i Wahrscheinlichkeit für dieses Ereignis (jeweils +o(h)) Welches Ereignis hat in [t, t + h] stattgefunden? kein neuer Kunde angekommen; ein Kunde wurde bedient; 1 − λh ein neuer Kunde ist angekommen; kein neuer Kunde angekommen, und kein Kunde abgefertigt oder λh µh 1 − (λh + µh) ein neuer Kunde angekommen und ein Kunde abgefertigt; ein Kunde wurde abgefertigt; 0 µh Wir können uns das Verhalten in [t, t + h[ auch an einem (unendlichen) bewerteten Digraphen ~ = (V, E, c) klarmachen. Dabei seien die Größen wie folgt gegeben: G = b Menge der möglichen Zustände von Lt bzw. Lt+h (also mögliche Anzahl von Kunden im Wartesystem während unseres „kleinen“ Beobachtungszeitraumes) E = b Menge der möglichen Übergänge von Lt nach Lt+h V c = b Wahrscheinlichkeitsintensitäten der Übergänge (der Faktor h wurde weggelassen). λ 0 λ ... 1 µ µ λ λ λ i i−1 µ µ λ ... i+1 µ µ Um für festes t die Verteilung der Zufallsvariablen Lt zu bestimmen, müssen wir also P (Lt = i) für i = 0, 1, 2, . . . ermitteln. Die Ermittlung überlegen wir uns folgendermaßen: Schreiben wir wir pi (t) := P (Lt = i), so haben nach den obigen Überlegungen für den „kleinen“ Beobachtungszeitraum [t, t + h[ folgende Bedingungen: p0 (t + h) = (1 − λ · h) · p0 (t) + µ · h · p1 (t) pi (t + h) = λ · h · pi−1 (t) + (1 − λ · h − µ · h)pi (t) + µ · h · pi+1 (t) 39 für i ≥ 1. (4.1) 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Durch Umformung des Gleichungssystems (4.1) erhalten wir dann: p0 (t + h) − p0 (t) h pi (t + h) − pi (t) h = −λ · p0 (t) + µ · p1 (t) = λ · pi−1 (t) − (λ + µ) · pi (t) + µ · pi+1 (t) für j ≥ 1. Nun lassen wir das Intervall [t, t + h[ immer „kleiner“ werden. Für h → 0 erhält man dann das sog. Chapman-Kolmogorov-Differentialgleichungs-System p′0 (t) = −λ · p0 (t) + µ · p1 (t) p′i (t) = λ · pi−1 (t) − (λ + µ) · pi (t) + µ · pi+1 (t) für i = 1, 2, . . . , (4.2) welches durch die Angabe einer Anfangsbedingung (für den Zeitpunkt t = 0) pi (0) für i = 0, 1, . . . eindeutig gelöst werden könnte. Die Lösung p0 (t), p1 (t), . . . würde dann dann gerade wegen P (Lt = i) = pi (t) für i = 0, 1, . . . die Verteilung für die Zufallsvariable Lt bei festem aber beliebigem Zeitpunkt t liefern. Dieses Differentialgleichungssystem wollen wir allerdings hier nicht lösen, sonder uns stattdessen mit einer vom Zeitpunkt t unabhängigen Analyse des Systems beschäftigen. 4.1.2 Zeitunabhängige Analyse; stationärer Zustand bzw. Gleichgewichtszustand Bei der Analyse von Wartesystemen interessiert man sich oft nicht für das „ momentane Verhalten“ von Lt zu einem bestimmten Zeitpunkt t, sondern stellt sich die Frage, was über das System ausgesagt werden kann, wenn man es sich „lange genug selbst überlassen“ hat. Oft „schwingt sich ein solches System nämlich ein“ und befindet sich dann in einem sog. „stationären Zustand“ oder auch „Gleichgewichtszustand“ (steady state, ). Wir wollen deshalb im weiteren nur derartige Situationen, also Wartesysteme im stationären Zustand betrachten. Formal bedeutet dies, dass wir von den Verteilungen pi (t) des Prozesses (Lt )t∈[0,∞[ fordert, dass diese unabhängig von t werden, wenn t hinreichend groß ist (also nach der „Einschwingzeit“). Dies wiederum heisst, dass in einem solchen „stationären Zustand“ aus dem stochastischen Prozess (Lt )t∈T eine (von t unabhängige) Zufallsvariable L wird. Diese Zufallsvariable L beschreibt dann gerade die „Anzahl der Kunden im Wartesystem im stationären Zustand“. Für diesem Fall heisst das dann pi (t) = p∗i , für t ≥ t0 , pi (t) ist also für jedes i eine Konstante. Damit ist also p′i (t) ≡ 0. Dies führt für das M |M |1 System dann zu λ · p∗0 µ p′i (t) ≡ 0 = λ · p∗i−1 − (λ + µ) · p∗i + µ · p∗i+1 , i ≥ 1. p′0 (t) ≡ 0 = −λ · p∗0 + µ · p∗1 ⇐⇒ p∗1 = Daraus ergibt sich die folgende rekursive Berechnungsvorschrift: 40 (4.3) 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV λ · p∗i = µ · p∗i+1 , und damit λ p∗i = ( )i · p∗0 , µ (Machen Sie sich dies bitte klar). Da aber auch ∞ X 1= p∗i = p∗0 i=0 sofern λ µ i = 0, 1, . . . · i ∈ N0 . P∞ ∗ i=0 pi ∞ i X λ i=0 µ = 1 gelten muss, hat man = p∗0 · 1 1− λ µ , < 1 gilt. Man erhält also insgesamt p∗0 = 1 − λ µ und p∗i = λ ∗ λ ·p = ( )i · p∗0 , µ i−1 µ i = 1, 2, . . . . (4.4) Die Grössen (p∗i )i∈N0 heißen stationäre Zustandswahrscheinlichkeiten des Prozesses (Lt )t∈[0,∞[ , d. h. es ist p∗i = P (L = i). In der Praxis werden die Zustandswahrscheinlichkeiten oft als p∗i = ˆ zeitlicher Anteil, in dem sich das Wartesystem im Zustand L = i befindet interpretiert. Die spezielle Grösse p∗0 als ein Mass dafür, dass ein ankommender Kunde sofort bedient werden kann, wird oft als „Servicegrad“ bezeichnet. Man erkennt aus den Gleichungen 4.3 auch eine Art „Flusserhaltung“. In jedem Zustand Nr. i ≥ 1 (in der Graphik ist i ≥ 1) entspricht der „Fluss“ auf denjenigen Kanten, die aus dem Zustand Nr. i heraus zu anderen Zuständen verlaufen (λ + µ) · p∗i dem „Fluss“ auf den Kanten, die von anderen Zuständen in den Zustand Nr. i hinein verlaufen λ · p∗i−1 + µ · p∗i+1 . λ · p∗i−1 λ · p∗i i „=“ i µ · p∗i „+“ i µ · p∗i+1 41 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV 4.2 Die Pasta-Eigenschaft Die sog. Pasta-Eigenschaft liefert eine weitere Interpretation der stationären Zustandswahrscheinlichkeiten p∗i . Wir überlegen uns dazu, wie wahrscheinlich es ist, dass ein neu ankommender Kunde im System genau j Kunden vorfindet. Wie bereits vorher, schauen wir uns dazu zunächst die zeitabhängige Formulierung an. Dazu fixieren wir wieder t und schreiben ri (t) := P [Ein zum Zeitpunkt t neu ankommener Kunde findet genau Lt = i Kunden vor]. Wir rechnen ri (t) = limh→0 P [Lt−h = i | αt − αt−h = 1] P [Lt−h = i ∧ αt − αt−h = 1] = limh→0 P [αt − αt−h = 1] P [Lt−h = i] · P [αt − αt−h = 1] = limh→0 P [αt − αt−h = 1] = limh→0 P [Lt−h = i] = P [Lt = i] = pi (t). Auch hier kann man nun wieder den stationären Zustand des Wartesystems betrachten und erhält: ri∗ = P [Ein neu ankommener Kunde findet genau L = i Kunden vor] = p∗i . Diese Eigenschaft ri∗ = p∗i wird oft als Pasta-Eigenschaft bezeichnet(„Poisson arrivals see time averages“, siehe [33]). Pasta-Eigenschaft: Im Gleichgewichtszustand eines M |M |·-Systems entspricht der Anteil ri∗ derjenigen neu ankommender Kunden, welche das Wartesystem in einem bestimmten Zustand (hier: L = i) vorfinden, dem zeitlichen Anteil = p∗i , in dem sich das Wartesystem in diesem bestimmten Zustand befindet Diese Eigenschaft gilt allerdings nicht in jedem Wartesystem. Übung: Geben Sie bitte ein D|D|1-Wartesystem (mit geeignet gewählten Zwischenankunftszeiten bzw. Bedienzeiten) an, bei dem die Pasta-Eigenschaft nicht gilt. 4.3 Verkehrsintensität; Auslastung eines Wartesystems Bei der Bestimmung der stationären Verteilung (p∗i )j∈N0 in 5.4 spielt offenbar die (formale) Bedingung µλ < 1 eine wesentliche Rolle. Das dies nicht nur eine formale Anforderung ist, sonder auch inhaltlich interpretiert werden kann zeigt folgende Überlegung, die auch für ein beliebiges Wartesystem angestellt werden. In einem Wartesystem beschreibe λ die Ankunftsrate der Kunden und E(S) die mittlere Bedienzeit, d.h. pro Zeiteinheit kommen durchschnittlich λ Kunden an, und um einen Kunden zu bedienen dauert es durchschnittlich E(S) Zeiteinheiten. Über die Verteilung der Ankünfte 42 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV bzw der Bedienzeiten ist hier nichts weiter ausgesagt (also nicht notwendig nur M |M |1). Die Grösse λ · E(S) beschreibt also dann (im Mittel) die Anzahl der Kunden, die in dem Zeitraum ankommen, während dessen durchschnittlich ein Kunde bedient wird. Sie wird Verkehrsintensität des Wartesystems genannt. Ist in einem Wartesystem mit einer Bedeinstation λ · E(S) > 1, so nimmt dieses Wartesystem (auf Dauer) mehr Kunden auf, als es abfertigen kann. Die Warteschlange wird also immer grösser und die Bedienstation(en) müssten intensiver arbeiten (Verringerung der durchschnittlichen Bedienzeit), damit die Warteschlange nicht (noch) größer wird). Im umgekehrten Falle ̺ < 1, kann eine immer grösser werdenden Warteschlange nicht eintreten. In einem solchen Falle heißt das Wartesystem stabil. Interpretiert wird die Grösse ̺, als dermittlere zeitliche Anteil in dem die Bedienstation(en) arbeiten und stellt ein Maß für die mittlere zeitliche Auslastung der Bedienstation(en) dar. In einem M |M |1-System ist λ · E(S) = λ := ̺. µ Nur wenn sicher gestellt werden kann, dass die Warteschlange nicht immer grösser wird (d.h. ̺ = µλ < 1) kann eine stationäre Verteilung von L bestimmt werden. Zusammenfassend kann man nun für das Wartesystem M |M |1 die folgenden Aussagen formulieren (wir kommen auf die dort formulierten Sachverhalte später noch einmal etwas allgemeiner zurück). Dieser Satz beschreibt die für die Beurteilung der Effektivität des Systems wesentlichen Größen. Satz 4.2 Gegeben sei ein technisch-ökonomisches Wartesystem vom Typ M |M |1 mit Ankunftsrate λ und Bedienrate µ. Es sei ̺ = µλ < 1. (i) Es existieren die eindeutig bestimmten stationären Zustandswahrscheinlichkeiten (p∗i )i∈N0 mit p∗0 = (1 − ̺), p∗i = ̺i · (1 − ̺). (ii) Es beschreibe E(L) die durchschnittliche Anzahl der Kunden im System im stationären Zustand. Dann gilt: E(L) = ∞ X i=0 i · p∗i = ∞ X i=0 i · (1 − ̺) · ̺i = ̺ . 1−̺ (iii) Es beschreibe E(N ) die durchschnittliche Anzahl der Kunden in der Warteschlange im stationären Zustand. Dann gilt: E(N ) = ∞ X i=0 i · P (N = i) = ∞ X i=0 i · P (L = i + 1) = 43 ∞ X i=1 (i − 1) · p∗i = E(L) · ̺ = ̺2 . 1−̺ 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV (iv) Für die durchschnittliche Anzahl E(δT ) der im Intervall [0, T ] abgefertigten Kunden gilt E(δT ) = µ · T · ∞ X i=1 p∗i = µ · T · (1 − p∗0 ) = µ · T · ̺. (v) Es beschreibe E(V ) die durchschnittliche Zeit, welche ein Kunde im Wartesystem verbringt (d. h. die durchschnittliche Verweilzeit), wenn das Wartesystem im stationären Zustand vorliegt. Dann gilt: E(V ) = 1 1 1 · E(L) = = λ µ−λ µ(1 − ̺) ( also E(L) = λ · E(V )). (vi) Es sei E(W ) die durchschnittliche Zeit, welche ein Kunde in der Warteschlange verbringt (d. h. die durchschnittliche Wartezeit), wenn der stationäre Zustand vorliegt. Dann gilt: E(W ) = ̺ ̺ 1 · E(N ) = = λ µ−λ µ · (1 − ̺) ( also E(N ) = λ · E(W )). (vii) Es sei E(C) die mittlere Länge eines Arbeitstaktes. d.h. des Zeitraums C, der zwischen der Ankunft eines Kunden vergeht, der das System „leer“ vorfindet (L = 0) und dem Zeitpunkt, bei dem es zum nächsten mal wieder “leer“ vorgefunden wird. Dann gilt E(C) = 1 + E(V ). λ (viii) Es sei E(W |L ≥ 1) die durchschnittliche Zeit, welche ein Kunde in der Warteschlange verbringt, sofern er überhaupt warten muss. Dann gilt mit dem Satz 2.25, Seite 23 )im stationären Zustand E(W |L ≥ 1) = 1 1 · (E(W ) − E(W |L = 0) · P (L = 0)) = · E(W ) = E(V ). ∗ 1 − p0 1 − p∗0 (ix) Beschreibt P (V ≥ s) die Wahrscheinlichkeit, dass ein Kunde mehr als s Zeiteinheiten im Wartesystem verbringt, so gilt: s − E(V ) P (V ≥ s) = e = e−s·(µ−λ) . (x) Es beschreibe P (W ≥ s) die Wahrscheinlichkeit, dass ein Kunde mehr als s Zeiteinheiten in der Warteschlange verbringt. Dann gilt: s −̺ E(W ) P (W ≥ s) = ̺ · e = ̺ · e−s·(µ−λ) . Natürlich lassen sich aus der Tatsache, dass die stationären Zustandswahrscheinlichkeiten (p∗i )i∈N0 bekannt sind, auch noch weitere, als die im Satz beschriebenen Größen bestimmen, um sie dann zur Beurteilung der Effektivität des M |M |1-Systems zu verwenden. 44 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Man beachte auch: Die stationären Zustandswahrscheinlichkeiten p∗i sind offenbar unabhängig von der Bedienungsdisziplin. Daher haben auch die Erwartungswerte E(L), E(N ), E(V ) und E(W ) diese Eigenschaft. Bemerkung 4.3 (i) Aus (vi) und (ii) sehen wir sofort, dass E(W ) = 1 1 ̺ · = E(L) · = E(L) · E(S) (1 − ̺) µ µ gilt. Die durchschnittliche Wartezeit eines (ankommenden) Kunden ergibt sich – wie nicht anders zu erwarten – als die Zeit, die benötigt wird, um die (durchschnittliche) Anzahl der Kunden E(L), die sich bereits im System befinden, zu bedienen. Jeder einzelne dieser Kunden braucht durchschnittlich µ1 = E(S) Zeiteinheiten. (ii) Wegen E(V ) = E(W ) + E(S) ist dann natürlich E(V ) = E(L) · E(S) + E(S) = E(L) · 1 1 + . µ µ (iii) Zur Herleitung von (vii) Um die mittlere Länge E(C) zu berechnen, überlegen wir folgendermassen: Der Zeitraum, der zwischen zwei solchen Arbeitstakten vergeht, setzt sich offenbar zusammen aus der Zeitspanne C0 , in der die Bedienstation frei ist (L = 0) und dem Zeitraum C1 , an dem zum ersten mal die Bedienstation wieder frei wird. Da aber offensichtlich C0 = τ gilt, ergibt sich E(C) = E(C0 ) + E(C1 ) = 1 + E(C1 ). λ Das Verhältnis der Zeiträume E(C1 ) E(C) entspricht aber auch gerade dem zeitlichen Anteil ̺, in dem die Bedienstation arbeitet. Wir erhalten so E(C1 ) = E(C0 ) + E(C1 ) Es ergibt sich E(C1 ) = 1 λ E(C1 ) = ̺, + E(C1 ) 1 . µ · (1 − ̺) und somit für die mittlere Länge eines Arbeitstaktes im M |M |1-System E(C) = 45 1 + E(V ). λ 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV (iv) Zur Herleitung von (viii): Falls ein ankommender Kunde keinen weiteren Kunden vorfindet, so gilt P (W > s) = 0. Andernfalls findet er i ≥ 1 Kunden im System vor. In diesem Fall ist also W = S1 + S2 + . . . + Si . Also gilt P (W > s) = 1 − P (W ≤ s) = 1− p∗0 · P (0 ≤ s) + ∞ X ! p∗i · P (S1 + S2 + . . . + Si ≤ s | L = i) . i=1 Jeder einzelne Summand dieser Reihe beschreibt die Verteilung der Summe von i unabhängigen Zufallsvariablen, die alle mit dem Parameter µ exponentialverteilt sind. Diese Verteilung eines Summanden entspricht dann gerade einer Erlang-Verteilung mit den Parametern µ und i (Erl(λ, i), siehe Kap. 2.3). Also berechnen wir: P (S1 + S2 + . . . + Si ≤ s | L = i) = s Z i i−1 −µx µx e (i − 1)! 0 dx i ≥ 1 1 i=0 Daraus ergibt sich dann unter Benutzung von (i) für die Darstellung der p∗i und der Reihendarstellung für die Exponentialfunktion (siehe Kap. 2.4): P (W > s) = 1 − (1 − ̺) + = ̺ + (1 − ̺) · = ̺ + (1 − ̺) · ∞ X i=1 Zs X ∞ 0 i=1 Zs ∞ ̺i (1 − ̺) ̺i · Zs 0 µi xi−1 e−µx dx (i − 1)! X ̺i · µi xi−1 (i − 1)! 0 i=1 = ̺ + (1 − ̺) · ρ · µ · = ̺ − ̺ · µ · (1 − ̺) Zs X ∞ 0 i=0 Zs µi xi−1 e−µx dx (i − 1)! · e−µx dx ̺i · µi xi −µx ·e dx (i)! e−µ(1−̺)x dx 0 −µ(1−̺)s = ̺·e = ̺ · e−(µ−λ)s . Beispiel 4.4 Wir betrachten ein französisches Delikatessengeschäft, das von einem Gourmet-Koch betrieben wird. Samstags vormittags kommen die Kunden entsprechend einem Poisson’schen Ankunftsprozess mit einer mittleren Ankunftsrate von 10 Personen pro Stunde. Sie werden nach der FIFO-Disziplin bedient und sind – da die Reputation des Geschäftes so exzellent ist – bereit, so lange zu warten, bis sie bedient werden. Die Zeit, einen Kunden zu bedienen, ist dabei exponentialverteilt mit einer durchschnittlichen Bedienzeit von 4 Minuten. Es handelt sich um ein M |M |1-System mit • λ = 10 Personen pro Stunde = 1 6 [Personen pro Minute] 46 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV • µ = 1 Person pro 4 Minuten = 1 4 [Personen pro Minute]. Die Verkehrsintensität des Geschäftes ist ̺ = 32 , d. h. das Geschäft, als Wartesystem betrachtet, ist stabil. Es existieren somit stationäre Zustandswahrscheinlichkeiten. Wir haben: • Durchschnittliche Anzahl von Kunden im Geschäft (im stationären Zustand): E(L) = 2·3 ̺ = = 2 [Personen] 1−̺ 3·1 • Durchschnittliche Anzahl der Kunden in der Warteschlange (im stationären Zustand): E(N ) = ̺2 4·3 4 = = 1−̺ 9·1 3 [Personen] • Durchschnittliche Verweilzeit eines Kunden im Geschäft (im stationären Zustand): E(V ) = 1 = µ−λ 1 4 1 − 1 6 = 24 = 12 2 [Minuten] • Durchschnittliche Wartezeit eines Kunden im Geschäft (im stationären Zustand): E(W ) = 2 · 24 ̺ = = 8 [Minuten] µ−λ 3·2 • Die Wahrscheinlichkeit, dass ein Kunde mehr als 30 Minuten im Geschäft verbringt: 30 5 P (V ≥ 30) = e− 12 = e− 2 ≈ 0, 0821. Interpretation: durchschnittlich sind ca. 8 % der Kunden länger als 30 Minuten im Geschäft • Die Wahrscheinlichkeit, dass ein Kunde weniger als 6 Minuten auf seine Bedienung warten muss: 6 1 2 2 P (W ≤ 6) = 1 − · e− 12 = 1 − · e− 2 ≈ 0, 596. 3 3 Interpretation (Pasta): Für durchschnittlich ca. 60 % der Kunden startet die Bedienung innerhalb von 6 Minuten nach ihrer Ankunft. Beispiel 4.5 In einem M |M |1 - Wartesysteme erfolgt der Eingang der Aufträge gemäss eines Poisson’schen Ankunftsprozesses mit Intensität λ = 4. Der Betreiber der Bedienstation hat die Möglichkeit, die Geschwindigkeit der Auftragsbearbeitung durch geeignete technische Massnahmen an der Bedienstation zu beeinflussen. Allerdings entstehen ihm –abhängig von der eingestellten Bedienrate µ– Kosten in Höhe von Kµ = 5 · µ GE. Eine weitere Kostenkomponente KW hat er zu beachten, welche durch das Warten der Auftrage in der Warteschlange entsteht und die sich als proportional zur mittleren Wartezeit E(W ) erweist. (KW = 6 · E(W )) GE. Der Betreiber will die Bearbeitungsgeschwindigkeit an der Bedienstation so einstellen, dass die erwarteten Gesamtkosten K = Kµ + KW möglichst klein sind. Wie ist dazu µ zu wählen? 47 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV 4.4 Little’sche Formeln oder Little’sches Gesetz Die Darstellungen E(L) = λ·E(V ) in (v) bzw. E(N ) = λ·E(W ) in (vi) werden in der Literatur auch als „Little’sche Formeln“ oder als das „Little’sche Gesetz “bezeichnet (siehe dazu [23]): „Durchschnittliche Anzahl der Kunden im System“ = „Kunden-Ankunftsrate mal durchschnittliche Verweilzeit eines Kunden“. bzw. „Durchschnittliche Anzahl der Kunden in der Wartschlange“ = „Kunden-Ankunftsrate mal durchschnittliche Wartezeit eines Kunden“. Diese Little’sche Formeln gelten allgemein, sofern sich ein technisch-ökonomisches Wartesystem im Gleichgewichtszustand befindet. Sie sind unabhängig von Annahmen über Verteilungen von Zwischenankunftszeit bzw. Bedienzeit. Zur Herleitung etwa der Formel E(L) = λ · E(V ) betrachte man das Intervall [0, t0 ]. Dann beträgt die „Mittlere Kunden-Ankunftsrate“ in diesem Zeitraum α(t0 ) . t0 λ̄t0 = Definieren wir eine Funktion Vi : T → [0, 1] mit Vi (t) = ( 1, t ∈ [Ti , ϑi ] 0, sonst, die für jeden Zeitpunkt t angibt, ob sich der i-te Kunde im System befindet oder nicht, dann erhält man durch Z n0 X t0 i=1 0 Vi (t)dt die Summe der Verweildauern aller Kunden bis zum Zeitpunkt t0 , wobei mit n0 die Gesamtzahl aller bis t0 beobachteten Kunden gemeint ist. Bezeichnet man als V̄t0 die durchschnittliche Verweildauer eines jeden Kunden bis zum Zeitpunkt t0 , so gilt mit dem vorher Gesagten, dass V̄t0 = n0 Rt0 P i=1 0 Vi (t)dt . α(t0 ) Andererseits gilt für die durchschnittliche Anzahl der Kunden L̄t0 im System bis zum Zeitpunkt t0 , dass L̄t0 = Rt0 0 48 Lt dt t0 . 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Die Zähler der beiden vorhergehenden Ausdrücke stimmen nun aber überein. , d. h. t0 γ(t0 ) := n0 Z X Vi (t)dt = i=1 0 Zt0 Lt dt. 0 Die beiden Zähler beschreiben nämlich jeweils die Summe der Verweilzeiten aller Kunden, die bis zum Zeitpunkt t0 eingetroffen sind. Dass dies so ist, verdeutlicht die Abbildung 4.1. Die Integrale (also die Flächeninhalte) stimmen überein, sie werden nur „unterschiedlich“ berechnet. P R t0 i 0 R t0 Vi (t)dt 0 t0 Lt dt t0 t Abbildung 4.1: Darstellung für P Rt0 i 0 Vi (t)dt bzw. Rt0 0 t Lt dt Man erhält somit also insgesamt L̄t0 = Rt0 0 Lt dt t0 γ(t0 ) α(t0 γ(t0 ) = = · = λ̄t0 · t0 t0 α(t0 ) n0 Rt0 P i=1 0 Vi (t)dt α(t0 ) = λ̄t0 · V̄t0 . Nun betrachtet man einen „sehr langen“ Zeitraum (d. h. t0 → ∞). Dann erhält man also für t → ∞: L̄t0 V̄t0 λ̄t0 → E(L) → E(V ) → λ und konsequenterweise: E(L) = λ · E(V ). Die Formel (iv) lässt sich auch intuitiv klar machen: Auch während der durchschnittlichen Aufenthaltszeit E(V ) eines „durchschnittlichen Kunden“ im Wartesystem kommen die Neukunden mit Rate λ an. D. h. am Ende von E(V ) Zeiteinheiten können λ · E(V ) Neukunden erwartet werden. Das wiederum heißt, dass dieser „durchschnittliche Kunde“ vom Zeitpunkt seines Eintritts in das System bis zum Zeitpunkt seines Austritts (er hat dann also E(V ) Zeiteinheiten im System verbracht) erwarten kann, λ · E(V ) Kunden im System vorzufinden: E(L) = λ · E(V ) (Pasta!!). 49 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV 4.5 Ein M|M|1-System mit einer (speziellen) Prioritätsbedienung Wir betrachten hier ein M |M |1-System mit zwei verschiedene Klassen von Kunden . Beide Typen von Kunden kommen jeweils entsprechend einem Poisson’schen Ankunftsprozess mit Rate λ1 bzw. λ2 am System an. Die Ankünfte sind voneinander unabhängig. Die mittlere Bedienzeit E(S) ist für beide Kunden dieselbe und ist durch den Parameter µ bestimmt. Ankommende Kunden werden (prinzipiell) nach der FIFO-Regel bedient, allerdings werden Typ 1-Kunden gegenüber den Typ 2-Kunden in folgendem Sinne bei der Bedienung priorisiert: Prioritätsregel: Typ 1-Kunden werden stets vor Typ 2-Kunden bedient. Findet ein Kunde des Typs 1 bei seiner Ankunft die Situation vor, dass gerade ein Kunde des Typs 2 bedient wird, so wird diese Bedienung sofort unterbrochen und der Typ 1-Kunde wird bedient. Erst wenn sich kein Typ 1-Kunde mehr im Wartesystem befindet, erfolgt die „Restbedienung“ des Kunden vom Typ 2. Um für dieses System eine Reihe von Kenngrössen zu ermitteln, überlegen wir Folgendes: Da die Prioritätsregel die Bedienungsunterbrechung für Typ 1-Kunden fordert, gibt es aus Sicht der Typ 1-Kunden, Kunden vom Typ 2 gar nicht. Für die Kundenklasse 1 können also (1)∗ die zugehörige stationären Verteilung (pi )i∈N0 und sämtliche sonstigen charakteristischen Kenngrössen aus Satz 4.2 unmittelbar mit den Parametern λ1 und µ gewonnen werden. Beschreiben L(i) und V (i) , i = 1, 2 die Anzahl bzw die Verweilzeit der Kunden vom Typ i im System im stationären Zustand, so ist dann bspw. E(L(1) ) = ̺1 1 − ̺1 und E(V (1) ) = 1 . µ · (1 − ̺1 ) Mit dem Satz 2.18 wissen wir auch, dass die Ankünfte sämtlicher Kunden (Typ 1 und Typ 2) am System ebenfalls durch einen Poisson’schen Ankunftsprozess mit dem Parameter λ = λ1 + λ2 beschrieben wird. Also ist λ λ1 + λ2 ̺= = = ̺1 + ̺2 , µ µ d.h. die Gesamtverkerhsintensität setzt sich additiv aus den beiden eizelnen Verkehrsintensitäten zusammen. Wegen der Gedächtnislosigkeit der Exponentialverteilung ist die „Restbedienungszeit“ des Kunden von Typ 2 ebenfalls exponentialverteilt (mit Parameter µ). Daher hängt die Anzahl L(2) der Kunden von Typ 2 im System nicht von der Reihenfolge ihrer Bedienung ab. Mit L = L(1) + L(2) ergibt sich für die erwartet Anzahl E(L(2) ) der Kunden von Typ 2 im System: E(L(2) ) = E(L) − E(L(1) ) = ̺1 ̺2 ̺1 + ̺2 − = . 1 − (̺1 + ̺2 ) 1 − ̺1 (1 − ̺1 ) · (1 − ̺) Mit der Little’schen Formel folgt dann für die durchschnittliche Verweildauer E(V (2) ) eines Kunden von Typ 2: 1 E(L(2) ) = . E(V (2) ) = λ2 µ · (1 − ̺1 ) · (1 − ̺) 50 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Wegen E(W (i) )+E(S) = E(V (i) ) ermittelt man darüber hinaus die durchschnittliche Wartezeit E(W (2) ) eines Kunden vom Typ 2 durch: E(W (2) ) = E(V (2) ) − 1 . µ Für die durchschnittliche Anzahl E(N (2) ) wartender Kunden vom Typ 2 ergibt sich damit dann mit der Little’schen Formel: E(N (2) ) = λ2 · E(W (2) ). Übung: Stellen Sie sich nun vor, dass die obige Prioritätsregel für die Bedienung folgendermassen abgeändert wird: Prioritätsregel modifiziert: Typ 1-Kunden werden stets vor Typ 2-Kunden bedient. Findet ein Kunde des Typs 1 bei seiner Ankunft die Situation vor, dass gerade ein Kunde des Typs 2 bedient wird, so wird diese Bedienung zuerst beendet und danach der Typ 1-Kunde bedient. Aufgabe: Bestimmen Sie bitte für diesen Fall E(L(i) ) und E(V (i) ), i = 1, 2. 4.6 Der Austrittsprozess; Burke’sches Gesetz Nun interessieren wir uns für den „Austrittsprozess“ in einem M |M |1-System. Kenntnisse über diesen Autrittsprozess sind bei der Analyse von Wartesystemen deshalb von grundsätzlicher Bedeutung, weil der Austrittsprozess des einen System oft den Ankunftsprozess für ein unmittelbar darauf folgendes Wartesystem darstellt, in welches der im ersten System bediente Kunde eintritt bzw. eintreten muss. Für eine solche Analyse betrachten wir dazu einen beliebigen Zeitpunkt t0 zu welchem ein Kunde aus den M |M |1-System ausgetreten ist, (o. B. d. A. sei hierbei t0 = 0) und wollen untersuchen, was sich über den Zeitraum sagen lässt, der vergeht bis der nächste Kunde austritt (Zwischenaustrittszeit). Es sei d die Zufallsvariable, die den Zeitpunkt beschreibt, zu dem der nächste Kunde das System verlässt. Dann können die folgenden beiden Situationen beobachtet werden, je nachdem welchen Wert die Zufallsvariable Lt0 = L0 , („Anzahl der Kunden im System zum Zeitpunkt t0 = 0“) annimmt: • L0 = 0: in diesem Fall gilt d = τ + S. • L0 > 0: in diesem Fall ist d = S. Damit ergibt sich für die Wahrscheinlichkeit, dass der Austritt des nächsten Kunden innerhalb der kommenden h Zeiteinheiten stattfindet: P (d1 ≤ h) = p0 · P (τ + S ≤ h) + (1 − p0 ) · P (S ≤ h). 51 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Da τ exponentialverteilt mit Parameter λ und S exponentialverteilt mit Parameter µ ist, kennen wir für beide Verteilungen die Dichten angeben (siehe Kap. 2.3). Da weiterhin die die Zwischenankunftszeiten von den Bedienzeiten unabhängig sind, lässt dann nämlich die Dichte von τ + S über die Faltung der beiden Dichtefunktionen fτ und fS bestimmen und auf diese Weise P (τ + S ≤ h) zu berechnen. Mit den Dichten fτ (t) = λ · e−λt bzw. fS (t) = µ · e−µt machen wir von dem Faltungssatz 2.26 aus Kapitel 2.4 Gebrauch und erhaltenb nach Berechnen des Faltungsintegrals: fτ +S (t) = Z ∞ −∞ fτ (t − s) · fS (s)ds = µ·λ · (e−µt − e−λt ). λ−µ Nun setzen wir, unter Beachtung, dass p0 = 1 − ̺ = 1 − µλ , an: fd (t) = p0 · fτ +S (t) + (1 − p0 ) · fS (t) = (1 − ̺) · fτ +S (t) + ̺ · fS (t) λ µ · λ −µt λ · e − e−λt + · µ · e−µt · = 1− µ λ−µ µ λ µ − λ µ · λ −µt · · e − e−λt + · µ · e−µt = µ λ−µ µ −µt −λt −µt = −λ · (e −e )+λ·e = λ · e−λt . Offenbar ist also fd (t) gerade die Dichte einer Exponentialverteilung mit dem Parameter λ. Also gilt P (d ≤ t) = 1 − e−λt , d. h. d als Austrittszeitpunkt ist exponentialverteilt mit Parameter λ. Daraus schließen wir, dass die Zwischenaustrittszeiten exponentialverteilt sind mit Parameter λ (siehe Kap. 2.3). Dieses Resultat ist als Satz von Burke oder Burkes Gesetz (siehe [9]) bekannt: Satz 4.6 Gegeben sei ein M |M |1-System mit den Parametern λ und µ. Dann ist der Austrittsprozess (δt )t∈T Poisson-verteilt mit Parameter λ. Bemerkung 4.7 • Dieses Ergebnis erscheint zunächst überraschend, da tatsächlich Austritte mit Rate µ (statt mit Rate λ) zu beobachten sind, sofern im Wartesystem bedient wird, d.h. sofern sich mindestens ein Kunde darin befindet (L0 = i > 0). Allerdings wird ja nicht immer bedient (falls L0 = 0). Die Grund, dass im stationären Zustand der Poisson-Prozess der Austritte den Parameter λ besitzt, liegt also darin, dass die Länge der einzelnen Bedienungsperioden (also die Zeitspannen, in denen Bedienstationen arbeiten bzw. nicht arbeiten) und der Austrittsprozess von diesen Perioden nicht unabhängig ist. 52 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV • Das Ergebnis besagt weiterhin, dass wir bei ausschließlicher Betrachtung des Austrittsprozesses (etwa in einem M |M |1-System) zwar Aussagen über λ erhalten, aber nichts über die Bedienrate µ erfahren. • In der obigen Überlegung wurde die Größe µ1 bei der Ermittlung von fd1 (t) „eliminiert“. Man kann nun zeigen, dass dies auch der Fall ist, wenn die Größe µ1 nicht konstant, (1) sondern möglicherweise abhängig vom Zustand L0 = j ist, also µ1 = µ1 (j). In jedem Fall fällt diese Größe bei der Ermittlung von fd1 (t) heraus. Dies hat zur Konsequenz, dass auch für den Fall, dass das Wartesystem v1 ein System vom Typ M |M |m ist, der Austrittsprozess exponentialverteilt mit Parameter λ1 ist. Der Satz von Burke gilt also allgemeiner, als oben formuliert. 53 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV 4.7 Eine (elementare) Supply Chain als M|M|1-Wartesystem Im Folgenden wollen wir ein M |M |1-Wartesystem dazu heranziehen, um eine Verhandlungssituation zwischen einem Produzenten und einem Vorlieferanten innerhalb einer Supply Chain („Lieferkette“) zu beschreiben, diese zu untersuchen und mit ihr zu „experimentieren“ (vgl. dazu [15]). Wir betrachten die folgende Situation: Vorlieferant Hersteller Endverbraucher In diesem Supply Chain System fragt der Endverbraucher beim Hersteller die Lieferung eines bestimmten Gutes (z.B. Fahrrad) zum Preis von π pro Stück nach. Der Hersteller selbst hat dieses Produkt zu Kosten von cH pro Stück gefertigt (zusammengebaut). Es wird angenommen, dass die Nachfragen der Endverbraucher zufällig und einzeln beim Hersteller gemäß eines Poisson-Prozesses mit Ankunftsrate λ eingehen. Der Hersteller verfügt über ein Lager der Kapazität KI . Die Lagerhaltungskosten betragen cI pro Stück, die Fehlmengenkosten, die entstehen, wenn der Hersteller nicht sofort an einen Endverbraucher ausliefern kann, belaufen sich auf cF pro Stück. Eine eingehende Kundennachfrage wird – sofern möglich – aus dem Lager des Herstellers befriedigt. Nach Eingang einer Kundennachfrage ordert der Hersteller bei dem Vorlieferanten unmittelbar die nötigen Komponenten nach, die notwendig sind, um wiederum einen Ersatz für das nachgefragte Produkt bei sich fertigen. Wir gehen davon aus, dass die Fertigungen der Komponenten beim Zulieferer einzeln erfolgen und deren Produktionszeit S exponential-verteilt ist. Die durchschnittliche Fertigungsdauer betrage E(S) = µ1 . Die reinen Produktionskosten des Vorlieferanten betragen cV pro Komponentenset, er verkauft ein solches Set an den Hersteller zum Preis von πV . Die Lieferzeit der Komponenten vom Vorlieferanten(= Zeit zwischen Aufgabe der Order an den Vorlieferanten und Auslieferung des bestellten Komponentenset an den Hersteller) ist eine zentrale Grösse in dieser Supply Chain, da sie letztlich als Maß für den „Lieferservice“ des Herstellers gegenüber dem Endverbraucher angesehen werden kann: je später/früher die Komponenten beim Vorlieferanten gefertigt sind, umso später/früher kann kann dieser die Komponenten an den Hersteller liefern und umso später/früher kann dieser wiederum die Kundennachfrage befriedigen (bzw. das Lager wieder auffüllen). Der Hersteller ist an einem hohen Lieferservice seines Vorlieferanten interesseirt, also an einer kurzen Lieferzeit. Daher besteht sein Wunsch darin, vom Vorlieferanten ein „grosses“ µ einzufordern. Der Vorlieferant ist hingegen nicht unbedingt an einer kurzen Lieferzeit interessiert, da er vielleicht auch andere Unternehmen beliefert und die Garantie einer kurzen Lieferzeit für ihn mit zusätzlichen Kosten verbunden ist (also sein Wunsch: µ eher “klein“). Um diesen „Konflikt“ zwischen Hersteller und Vorlieferant zu verringern und ggf. einen Kompromiss für die gegensätzliche Interessenlage zu finden, ist der Hersteller bereit, sich einen 54 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV „guten Lieferservice“ etwas kosten zu lassen, natürlich nicht zu jedem Preis. Die Grösse T (λ, µ, KI ) soll eine solchen Zahlung beschreiben, welche der Hersteller an den Vorlieferanten für die Garantie eines bestimmten “Service-Levels“ µ zu leisten bereit ist. Um nun zwischen Hersteller und Vorlieferant entsprechende Vertragsverhandlungen über die durchschnittliche Lieferzeit (das heisst über die Grösse µ) aufnehmen zu können, sollen die erwarteten Erträge der beiden Beteiligten ermittelt werden, welche sich unter diesen Bedingungen ergeben. Vor allem interessiert dabei natürlich, wie diese von µ abhängen. Um eine derartige Analyse durchzuführen, wollen wir die Situation als als |M |M |1 Wartesystem auffassen. Wir begreifen in einem solchen System die „Kunden“ als die einzelnen Order des Herstellers an den Vorlieferanten ihm die Komponenten zu liefern. Den Vorlieferanten interpretieren wir als die Bedienstation. Eine Order erreicht das Wartesystem daher ebenfalls mit Ankunftsrate λ und wird vom Vorlieferanten mit Rate µ bedient. Die Grösse L beschreibe„die Anzahl der Order im stationären Zustand“. Diese Grösse L ∈ {j = 0, 1, . . .} entspricht auch genau der Anzahl der Nachfragen der Endverbraucher beim Hersteller (im stationären Zustand). Der folgende Graph verdeutlicht die Zustände bzw. die einzelnen Übergänge für die in diesem Fall interessierende Größe I = KI − j, den Lagerbestand, der natürlich von L abhängt: λ KI λ KI −1 µ λ λ ... KI −2 µ ... µ ... λ 0 λ ... −1 µ µ ... µ ... Für die stationären Zustandswahrscheinlichkeiten haben wir dann mit Satz 4.2: P (I = KI − i) = P (L = i) = p∗i = ̺j · (1 − ̺) für i = 0, 1, . . . Für die erwartete Anzahl von Ordern beim Vorlieferanten ergibt sich E(L) = ∞ X i=0 j · ̺i · (1 − ̺) = ̺ . (1 − ̺) Sofern eine Kundennachfrage nicht unmittelbar befriedigt werden kann, also eine Fehlmenge entsteht liegt der Fall I = KI − i ≤ 0 vor. In einem solchen Fall kommen auf den Hersteller die Fehlmengenkosten cF pro Stück zu. Offenbar gilt P (I ≤ 0) = P (KI − L ≤ 0) = P (L ≥ KI ) = 55 ∞ X j=KI ̺j · (1 − ̺). 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Damit ergibt sich für die zu erwartende Fehlmenge E(R) : E(R) = ∞ X j=KI (j − KI ) · ̺j · (1 − ̺) = ̺KI +1 . (1 − ̺) Für die zu erwartende Größe des „tatsächlichen“ Lagerbestandes (E(I|I ≥ 0)) ergibt sich (unter Benutzung von Formeln für die Partialsumme geometrischer Reihen): E(I|I ≥ 0) = KI X i=0 (KI − j) · p∗i = (1 − ̺) · KI · KI X j=0 ̺j − KI X i=0 i · ̺i 1 − ̺KI +1 KI · ̺KI +2 − (KI + 1) · ̺KI +1 + ̺ = (1 − ̺) · KI · − 1−̺ (1 − ̺)2 = KI − KI · ̺KI +1 − ! KI · ̺KI +2 − (KI + 1) · ̺KI +1 + ̺ (1 − ̺) Für die zu erwartende Lieferzeit des vom Vorlieferanten produzierten Komponentensets (= Verweilzeit der Order beim Vorlieferanten bis zu deren Produktionsende) ergibt sich unter Anwendung der Little’schen Formel (siehe 4.2): E(V ) = 1 . (µ − λ) Für die Funktion GH der (pro Zeiteinheit) zu erwarteten Erträge des Herstellers könnten wir nun beispielsweise ansetzen: GH = (π − cH − πV )λ − cI · E(I|I ≥ 0) − cF · E(R)−T (λ, µ, KI ). Für die zu erwartenden Erträge des Vorlieferanten GV könnte man etwa ansetzen GV = T (λ, µ, KI ) + (πV − cV ) · λ − cµ · µ. Die Größe cµ beschreibt hier die zusätzlichen Produktionsstückkosten, die dem Vorlieferanten dadurch entstehen, dass er das Servicelevel µ garantiert. Die Größen cH , cI , cF und KI i.A. ausschließlich dem Hersteller bekannt sind. Der Vorlieferant kennt natürlich „seine Größen“ cV und cµ , welche der Hersteller i.A. wiederum nicht kennt. Beiden bekannt sind die Größen λ und π. Die Erträge beider Beteiligten werden jeweils essentiell durch λ, µ, KI und T (λ, µ, KI ) beeinflusst. In den Verhandlungen zwischen Produzent und Vorlieferant wird es im Wesentlichen darum gehen, welche Zahlung T (λ, µ, KI ) für welchen Servicelevel µ vereinbart wird, damit beide an der Supply Chain Beteiligten „hinreichend grosse, positive“ Erträge GV , bzw. GH erwarten können. Übung: Erstellen Sie bitte ein geeignetes EXCEL-Blatt und „experimentieren“ Sie hierin. 56 4 Das Wartesystem M |M |1 OR II c, Master-Modul IV Setzen Sie dazu zunächst Kostengrössen cV , cµ , cH , cI , cF und Preise πV , π sinnvoll fest und definieren eine Ankunftsrate λ bzw. die Lagerkapazität KI . Ermitteln Sie jeweils die Wirkung einer Veränderungen der Grösse µ auf die entsprechenden Ertragsgrößen GV bzw. GH der beiden an der Supply Chain Beteiligten. Überlegen Sie sich dazu auch verschiedene Ansätze für eine mögliche Struktur der Funktion T , also etwa T (λ, µ, S) = max{0, c1 · (µ − λ)}, oder, alternativ die etwas kompliziertere Kostenfunktion T (λ, µ, S) = max{0, c1 · µ2 − c2 · λ + c3 · 1 } KI Hierin sind c1 , c2 , c3 geeignet festzulegen. Machen Sie insbesondere jeweils „Verhandlungsvorschäge“ für die Größen µ und T (λ, µ, KI ). 57 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Bei der Untersuchung eines technisch-ökonomischen Wartesystems vom Typ M |M |1 hatten wir bereits intuitiv festgestellt, dass sowohl für den Ankunftsprozess (αt )t∈T als auch für den Bedienprozess (δt )t∈T galt, dass dessen zukünftige Entwicklung nur von der Kenntnis der Gegenwart, nicht aber von der Kenntnis der Vergangenheit abhing. Dies war im Wesentlichen eine unmittelbare Konsequenz aus der Exponentialverteilung von Zwischenankunftszeiten und Bedienzeiten. Ebenso war es bei dem Beispiel der Ski-Fahrer und des Tellerliftes. Hier erwies sich, dass die Länge der Warteschlange der am Tellerlift wartenden Skifahrer zum Zeitpunkt k + 1 nur von der Länge der Warteschlange zum Zeitpunkt k und der zufällig ankommenden Anzahl neuer Skifahrer Xk+1 abhing, nicht jedoch von Ereignissen, die vor dem Zeitpunkt k stattfanden. Eine derartige Eigenschaft hatten wir „Markov-Eigenschaft“ bzw. „Gedächtnislosigkeit“ genannt. Viele Prozesse innerhalb technisch-ökonomischer Wartesysteme haben diese Eigenschaft, so dass es sinnvoll ist, Prozesse mit der Markov-Eigenschaft nun genauer zu untersuchen. Es erweist sich dabei, dass diese Prozesse nicht nur von theoretischer Bedeutung sind, sondern auch für die Praxis „Rezepte“ liefern, wie auch kompliziertere als M |M |1 Wartesysteme modelliert werden können. Beispiele für solche komplizierteren Systeme sind etwa: • M |M |m • M |M |m|K • M |M |m|0 • M |M |m|K und „ungeduldige“ Kunden • M |M |m|K und „zustandsabhängige“ Bedienzeiten • Wartesystem mit „Gruppenbedienungen“ • Wartesysteme mit Prioritätsklassen • „Netzwerke“ von Wartesystemen der obigen Arten Wir erinnern uns, dass wir beim M |M |1-System wir (Lt )t∈[0,∞[ als den für uns wichtigen stochastische Prozess identifiziert hatten und für die interessierenden Kenngrössen des Systems die Zufallsvariable L sowie deren Verteilung 58 p∗ = (p∗0 , p∗1 , . . . , ) 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, abgeleitet hatten. Wesentliches Hilfsmittel dabei war der Digraph auf Seite 39, aus dem wir Informationen über die möglichen Übergänge von L und deren Wahrscheinlichkeit „ablesen“ konnten, Wir werden nun sehen, dass wir uns anhand so genannter Markov-Ketten – ähnlich wie beim Wartesystem vom Typ M |M |1 – das Verhalten von uns interessierenden Grössen mittels eines bewerteten Digraphen, dem sog. Markov-Graphen, klarmachen können, aus dem wir dann wie beim M |M |1-System auch schon • die Verteilung für den stochastischen Prozess, • die Verteilung für den Prozess nach dem „Einschwingen“ des Systems und • daraus resultierende Kenngrößen zur Beschreibung der Effizienz/ Effektivität des Wartesystems ablesen bzw. herleiten können. Dazu betrachten wir einen stochastischen Prozess (Xt )t∈[0,∞[ , bei dem die Zufallsvariablen Xt Werte auf einer höchstens abzählbaren Menge I annehmen. Die einzelnen Werte in I werden wir Zustände nennen. Später wollen wir derartige „Zustände“ in unseren Wartesystemen beobachten und beschreiben, bspw. die Zustände „ein Kunde ist im System“, „zwei Kunden sind im System“ ,... oder etwa die Zustände “eine Bedienstation hat geöffnet und zwei Kunden sind im System “, „zwei Bedienstationen haben geöffnet und 7 Kunden sind im System“,... 5.1 Homogene Markov-Ketten mit stetiger Zeit, stationäre Markov-Ketten Zunächst wollen wir uns klarmachen, was eine Markov-Kette überhaupt ist. Definition 5.1 Ein stochastischer Prozess (Xt )t∈[0,∞[ mit Zufallsvariablen Xt : Ω → I ⊂ N0 heißt MarkovKette (mit stetiger Zeit), falls für k beliebig ausgewählte Zeitpunkte t1 < t2 < . . . < tk ∈ T und beliebig ausgewählte Zustände x1 , . . . , xk ∈ I die Markov-Eigenschaft gilt, d. h. P (Xtk = xk | Xtk−1 = xk−1 , . . . , Xt1 = x1 ) = P (Xtk = xk | Xtk−1 = xk−1 ). Die bedingten Wahrscheinlichkeiten pij (s, t) := P (Xt = xj | Xs = xi ) heißen Übergangswahrscheinlichkeiten der Markov-Kette. Als Anfangsverteilung (pi )i∈I bezeichnet man die Verteilung der Zufallsvariablen X0 , d. h. der Zufallsvariablen des stochastischen Prozesses zum Zeitpunkt t = 0. (Die bedingten Wahrscheinlichkeiten pij (s, t) hängen also nur vom „zuletzt beobachteten“ Zustand xk−1 ab, nicht von der weiteren „Vorgeschichte“) Salopp: In „Markov-Ketten hängt, 59 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, die Zukunft nur von der Gegenwart, nicht von der Vergangenheit ab“. Die Anfangsverteilung (pi )i∈I ist offenbar gegeben durch pi := P (X0 = xi ) für i ∈ I. Beispiel 5.2 (i) Ein Poisson’scher Ankunftsprozess (αt )t∈[0,∞[ ist eine Markov-Kette. (ii) In einem M |M |1-System betrachten wir den stochastischen Prozess (Lt )t∈T , wobei Lt der Anzahl der Kunden im Wartesystem zum Zeitpunkt t entspricht, Lt : Ω → N0 . Nun fixieren wir einen festen Zeitpunkt t0 . Dann wissen wir bereits aus dem letzten Kapitel: a) Berücksichtigt man nur Ankünfte der Kunden für t ≥ t0 , so ist der Verlauf des Prozesses (Lt )t∈T für t ≥ t0 unabhängig vom Verlauf des Prozesses für t < t0 . b) Der durch die Austritte aus dem System bedingte Verlauf des Prozesses für t ≥ t0 ist abhängig von • der Anzahl der Kunden im System zum Zeitpunkt t0 , • der Zahl der Bedienungen für t ≥ t0 , nicht jedoch von der Anzahl der Bedienungen der Kunden für t ≤ t0 . Da die Anzahl der Bedienungen auch unabhängig vom Ankunftsprozess (αt )t≤t0 ist, hängt insgesamt der Verlauf des stochastischen Prozesses (Lt )t∈T für t > t0 nur von Lt0 ab, nicht jedoch von Lt (für t < t0 ). (Lt )t∈T ist also wie (αt )t∈T eine Markov-Kette. Bemerkung 5.3 a) Derartige Überlegungen sind bei der Analyse von technisch-ökonomischen Wartesystemen stets anzustellen, um zu plausibilisieren, ob es sich bei zu untersuchenden stochastischen Prozessen um Markov-Ketten handelt. b) Im Folgenden wollen wir der Übersichtlichkeit halber nicht mehr von „Zustand xi “ sprechen, sondern von „Zustand Nr. i“. Wir identifizieren also den Zustand xi mit seinem Index i. c) Kennt man die Verteilung (pi (s))i∈I , das heißt eine Verteilung pi (s) = P (Xs = i) für alle Zustände mit der Nr. i mit i ∈ I, und die Übergangswahrscheinlichkeiten pij (s, t), so kennt man die Verteilung der Markov-Kette zu jedem beliebigen Zeitpunkt t, da nach der Formel der totalen Wahrscheinlichkeit (2.1) auf Seite 12 gilt: pj (t) = P (Xt = j) = = X i∈I P (Xt = j | Xs = i) · P (Xs = i) i∈I pij (s, t) · pi (s). X Für die Untersuchung allgemeinerer Wartesysteme sind nun spezielle Markov-Ketten von großer Bedeutung, weil sie oft eine „einfache Berechnung“ von Verteilungen zulassen. 60 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, Definition 5.4 Eine Markov-Kette (Xt )t∈[0,∞[ heißt homogen, falls die Übergangswahrscheinlichkeiten pij (s, t) = P (Xt = j | Xs = i) nur von der Differenz (t − s) und nicht von s und t selbst abhängen. Man schreibt dann pij (s, t) = pij (t − s). „Homogenität“ besagt, dass die Wahrscheinlichkeit eines Übergangs von Zustand Nr. i in den Zustand Nr. j während des Zeitintervalls [s, t] nicht von der Lage des Intervalls innerhalb eines Betrachtungszeitraums abhängt. Beispiel 5.5 Ein Poisson’scher Ankunftsprozess (αt )t∈[0,∞[ mit Intensität λ in einem Wartesystem beschreibt eine homogene Markov-Kette. Dann erhält man für j ≥ i pij (s, t) = P (αt = j | αs = i) = P (αt − αs = j − i) = P (Im Intervall [s, t] gibt es j − i „Neu-Kunden“) (λ · (t − s))j−i −λ(t−s) ·e = (j − i)! = P (αt−s = j | α0 = i) = pij (0, t − s). Bei homogenen Markov-Ketten kann man also für einen festen Zeitraum h die Übergangswahrscheinlichkeiten pij (h) := pij (0, h) in einer (möglicherweise unendlich grossen) Übergangsmatrix P (h) := (pij (h))i∈I,j∈I zusammenfassen, d. h. P (h) = p00 (h) p01 (h) p02 (h) p10 (h) p11 (h) p12 (h) p20 (h) p21 (h) p22 (h) .. .. .. . . . ··· ··· ··· .. . . Schreibt man zudem die Wahrscheinlichkeiten pj (t) = P (Xt = j) für alle j ∈ I als (möglicherweise unendlichen) Spaltenvektor p(t) auf, so gilt nach dem eben Gesagten, dass pj (t) = = X i∈I P (Xt = j | Xs = i) · P (Xs = i) i∈I pij (t − s) · pi (s) X und man erhält p(t) = (P (t − s))T · p(0) und speziell für den Fall, das s = 0 p(0) = (P (0))T · p(0). 61 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, Die Bedeutung einer homogenen Markov-Kette liegt darin, dass ihr stochastisches Verhalten nur von der Verteilung zu Beginn, d. h. durch den Vektor (pi (0))i∈I und durch die Matrix (pij (t))i,j∈I = P (t) „gesteuert“ wird. Je nach der Verteilung zu Beginn (s = 0) entwickeln sich bei gleicher „Übergangsmatrix“ P (t) die entsprechenden stochastischen Prozesse unterschiedlich. Wie wir schon bei der Untersuchung der technisch-ökonomischen Wartesysteme vom Typ M |M |1 gesehen haben, können sich bestimmte stochastische Prozesse (Xt )t∈T häufig in einen stationären Zustand einschwingen (steady state). Dies bedeutet, dass der stochastische Prozess unabhängig von der Zeit t ist, und daher eine Zufallsvariable X diesen stationären Zustand beschreibt. Dies wollen wir nun etwas genauer untersuchen. Definition 5.6 Eine Markov-Kette (Xt )t∈[0,∞[ heißt stationär genau dann, wenn die Verteilung von Xt für t ≥ t0 unabhängig von t ist. Die Verteilung p∗ := (p∗i )i∈I , mit p∗i = P (Xt = i) für t ≥ t0 heisst dann stationäre (Anfangs-) Verteilung der Markov-kette. In diesem Sinne bedeutet Stationarität etwa für t0 = 0, dass p(t) = p∗ = P T · p∗ für alle t. 5.2 Bestimmung einer stationären Verteilung p∗ Zu einem technisch-ökonomischen Wartesystem betrachten wir eine homogene Markov-Kette (Xt )t∈[0,∞[ mit stetiger Zeit (z. B. einen Poisson’schen Ankunftsprozess (αt )t∈[0,∞[ oder etwa die Größe (Lt )t∈[0,∞[ ). Es beschreiben wieder pij (h) := P (Xt+h = j | Xt = i) die Übergangswahrscheinlichkeiten. Wir machen folgende, einerseits formale, andererseits aber auch realitätsnahe generelle Voraussetzung: lim pii (h) = 1 für alle i ∈ I. hց0 Diese Annahmne bedeutet, dass die Markov-Kette Xt bei „Start zum Zeitpunkt t im Zustand Nr. i“ eine kurze Zeit später (t + h) immer noch (d. h. mit Wahrscheinlichkeit 1) im Zustand Nr. i verbleibt, also nicht sofort in einen anderen Zustand, etwa Zustand Nr. j, „springt“. Dann hat man für i 6= j wegen 0 ≤ pij (h) ≤ P k∈I,k6=i pik (h) = 1 − pii (h) unmittelbar: lim pij (h) = 0 für alle i, j ∈ I, i 6= j. hց0 Man kann in diesem Fall sogar zeigen, dass die Ableitungen: 62 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV (i) lim hց0 pij (h) h = lim hց0 und (ii) lim hց0 1−pii (h) h pij (h)−0 h = lim hց0 = lim hց0 pii (0)−pii (h) h pij (h)−pij (0) h OR II c, = p′ij (0) =: qij = −p′ii (0) =: qi existieren. Als „Ableitung“ beschreibt die Grösse qij die von h unabhängige (!) Veränderungsrate der Wahrscheinlichkeit eines Übergangs von Zustand Nr. i in den Zustand Nr. j (Übergangsintensität von i nach j). D. h. für ein „kleines Zeitintervall der Länge h“ gilt: pij (h) = qij · h + o(h). Weiterhin gilt für festes i, dass damit folgt, dass X P j∈I p′ij (0) = 0, da p′ij (0) = X j∈I,j6=i j∈I,j6=i P j∈I pij (h) = 1 für alle h ∈ [0, ∞[. Und qij = −p′ii (0) = qi . qi beschreibt also gerade die von h unabhängige Veränderungsrate der Wahrscheinlichkeit, überhaupt aus dem Zustand i in irgendeinen anderen Zustand zu wechseln. Also anders ausgedrückt, dass pii (h) = 1 − qi · h + o(h) für ein kleines Zeitintervall der Länge h. Bemerkung 5.7 Achtung: Die Größen qij bzw. qi sind selbst keine Übergangswahrscheinlichkeiten, sondern beziehen sich auf die Veränderungsraten von Übergangswahrscheinlichkeiten. Beispiel 5.8 Ist (Xt )t∈[0,∞[ ein Poisson-Prozess (z. B. der Ankunftsprozess (αt )t∈[0,∞[ der Kunden, mit Ankunftsrate λ > 0), so ist pi,i+1 (h) 1 = lim · P (Xt+h = i + 1 | Xt = i) hց0 h h 1 1 (λ · h)1 −λh = lim · P (Xt+h − Xt = 1) = lim · ·e hց0 h hց0 h 1! = lim λ · e−λh = λ qi,i+1 = lim hց0 hց0 qij qij = 0, j ≥ i + 2 = 0, j < i qi = X N0,j6=i j∈ qij = λ. Die Veränderungsrate der Wahrscheinlichkeit, vom Zustand Nr. i aus in einen anderen zu gelangen, entspricht also –wie von einem Ankunftsprozess zu erwarten– gerade der Ankunftsrate. Startet eine homogene Markov-Kette (Xt )t∈[0,∞[ zum Zeitpunkt 0 in einem Zustand Nr. i, so bleibt sie zunächst eine bestimmte Zeit dort, bis sie zum Zeitpunkt T1 zum ersten Mal in einen 63 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, Zustand Nr. j (j 6= i) springt. Es gilt dann offenbar: P (T1 > t | X0 = i) = P ((Xs = i) ∧ (s ≤ t) | X0 = i) k · t = i, k = 1, 2, . . . , n | X0 = i = lim P X n→∞ n k k−1 = lim P X ·t =i|X ·t =i n→∞ n n k−2 k−1 ·t =i|X ·t =i ·P X n n 1 ·... · P X · t = i | X0 = i n t t · . . . · pii = lim pii n→∞ n n = lim n→∞ | {z n-mal 1 − qi · n t 1 +o n n = e−qi ·t . } Eine Markov-Kette (mit stetiger Zeit) „verweilt“ somit in jedem Zustand, den sie annimmt, eine exponentialverteilte zufällige Zeit, wobei der Parameter der Exponentialverteilung den Wert qi hat. Diese Charakterisierung des Verhaltens von Markov-Ketten mit stetiger Zeit ermöglicht es, für derartige stochastischen Prozesse einen so genannten Markov-Graphen zu definieren. Definition 5.9 Es sei (Xt )t∈[0,∞[ (Xt : Ω → I ⊂ N) eine homogene Markov-Kette. Es sei V = I, d. h. die Menge der Zustände, die die Markov-Kette annehmen kann. Weiterhin sei E = {(i, j) | i, j ∈ I, qij > 0, i 6= j} ∪ {(i, i) | i ∈ I} und c : E → R, c((i, j)) = ( qij , i 6= j . 1 − qi , i = j ~ = (V, E, c) der zu (Xt )t∈[0,∞[ gehörige Markov-Graph. Dann heißt der bewertete Digraph G Unser Ziel besteht nun darin, aus dem Markov-Graphen einer homogenen Markov-Kette mit stetiger Zeit stationäre Verteilungen p∗ = (p∗i ) = P (X = i) zu finden. Folgendes Vorgehen wäre hier sinnvoll: 64 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, Schritt 1: Aufstellen des DGL-Systems: X pij (t + h) = k∈I X 1 (pij (t + h) − pij (t)) = h =⇒ pik (t) · pkj (h) k∈I,k6=j X p′ij (t) = k∈I,k6=j pik (t) pjj (h) − 1 · pkj (h) + · pij (t) h h (5.1) qkj · pik (t) − qj · pij (t) Schritt 2: Berechnen einer Verteilung P (Xt = i) = pi (t) mit Hilfe des DGL-Systems 5.1 und einer Anfangsverteilung P (X0 = j) =: pj (0): pj (t) = ⇐⇒ p′j (t) = = = X i∈I pi (0) · pij (t) i∈I pi (0) · p′ij (t) i∈I pi (0) · X X X = X k6=j mit der Nebenbedingung P i∈I k∈I,k6=j X k∈I,k6=j i∈I X qkj · pik (t) − qj · pij (t) pik (t)pi (0) qkj − | {z pk (t) } qkj · pk (t) − qj · pj (t) X i∈I | pij (t)pi (0) qj {z pj (t) } pi (t) = 1. Schritt 3: Falls möglich, Ermittlung einer stationären Verteilung P (X = i) = p∗i durch „Nullsetzen“ der Ableitung p′i (t): X qki · p∗k − qi · p∗i , 0= k6=i wobei – daran sei erinnert – (s.o.), dass qi = X qik . k6=i Zur Ermittlung einer stationären Verteilung ist also offenbar ein lineares Gleichungssystem zu lösen, welches sich in der Form Qp∗ = 0 darstellen lässt, wobei die Koeffizienten von Q direkt aus dem Markov-Graphen abgelesen werden können. Für die Zeile Nr. i der Intensitätsmatrix Q gilt qji , j 6= i, qji > 0 Q = Qij = −qi , i = j 0, sonst. 65 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, 5.3 Modellierung allgemeinere Ankunfts- und Bedienprozesse Es sei (Xt )t∈[0,∞[ eine Markov-Kette mit stetiger Zeit, I = {0, 1, . . . , ∞} oder I = {0, 1, . . . , N }. (Xt )t∈[0,∞[ habe die Eigenschaft, innerhalb eines kleinen Zeitintervalls nur in Nachbar-Zustände „springen“ zu können, genauer: qij = 0 falls |i − j| > 1. Mit der Setzung λi := qi,i+1 > 0 und µi := qi,i−1 > 0 hat man dann im Sinne unserer obigen Interpretation den nachfolgend dargestellten zugehörigen Markov-Graphen des Prozesses gegeben. λ0 x0 λ1 x1 λ2 µ2 λm−2 ... x2 µ1 ... µ3 ... λm−1 ... xm xm−1 µm−1 λm µm+1 µm Abbildung 5.1: Markov-Graph zum allgemeinen Ankunfts- und Bedienprozess Vergleichen wir diesen Markov-Graphen mit dem Markov-Graphen, den wir für die Zufallsvariable L für das M |M |1-Wartesystem gewonnen hatten, so erkennen wir zunächst eine große strukturelle Ähnlichkeit. Er ist aber bereits wesentlich allgemeiner als der dortige Graph, da hier die Übergangsintensitäten nicht konstant sind (λ bzw. µ) sondern vom jeweiligen Zustand Nr. i abhängen (λi , µi ). Dies ist – wie wir sehen werden – sehr nützlich für die Beschreibung allgemeiner Wartesysteme. Falls eine stationäre Anfangsverteilung (p∗i )i∈N für die sich aus der Markov-Kette ergebende Zufallsvariable X (= b Markov-Kette im stationären Zustand) gesucht wird, kann man sie entsprechend dem vorherigen „Schritt 3“ mittels des Gleichungssystems Q · p∗ = 0, mit Q= −λ0 µ1 λ0 −(λ1 + µ1 ) µ2 0 λ1 −(λ2 + µ2 ) .. . λi−1 µ3 −(λi + µi ) µi+1 .. . . bestimmen. Die Koeffizienten der Intensitätsmatrix Q liest man aus dem Markov-Graphen ab. Es ergibt sich also für i = 0 p∗0 = (1 − λ0 ) · p∗0 + µ1 · p∗1 , d.h. λ0 · p∗0 = µ1 · p∗1 66 (5.2) 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, und für i ≥ 1 p∗i = (1 − λi − µi ) · p∗i + λi−1 · p∗i−1 + µi+1 · p∗i+1 , d.h. (λi + µi ) · p∗i = λi−1 · p∗i−1 + µi+1 · p∗i+1 . (5.3) Die Frage, unter welchen Bedingungen dieses Gleichungssystem lösbar ist, beantwortet der folgende Satz: Satz 5.10 Es seien λi , µi ≥ 0, i = 1, 2, . . .. Es gebe eine Zahl q mit 0 < q < 1 derart, dass alle k > k0 . Dann besitzt das Gleichungssystem Q · p∗ = 0 eine nicht-triviale Lösung p∗ . Beweis: Siehe [1] λk−1 µk ≤ q für Bemerkung 5.11 λ Die Bedingung µk−1 ≤ q für alle k > k0 ist eine Verallgemeinerung der Stabilitätsbedingung k λ µ < 1, wie wir sie aus dem M |M |1-Wartesystem kennen. Sie sorgt dafür, dass das Wartesystem (auf Dauer) nicht „überläuft“. Wie beim M |M |1-Wartesystem, nennen wir daher ein (allgemeines) Wartesystem mit obigem Markov-Graphen stabil, wenn diese allgemeinere Bedingung erfüllt ist. Bemerkung 5.12 Wie bereits beim speziellen Fall eines M |M |1-Systems lässt sich dieses Gleichungssystem als System von „Gleichgewichts- Gleichungen“ (Gleichungen 5.2 und 5.3) interpretieren. Sie besagen, dass für eine Markov-Kette in jedem Zustand Nr. i der „Fluss“ auf denjenigen Kanten, die aus dem Zustand Nr. i heraus zu anderen Zuständen verlaufen ((λi + µi ) · p∗i ) dem „Fluss“ auf den Kanten, die von anderen Zuständen in den Zustand Nr. i hinein verlaufen (λi−1 · p∗i−1 + µi+1 · p∗i+1 ) entspricht. λi−1 · p∗i−1 λi · p∗i i „=“ i µi · p∗i „+“ i µi+1 · p∗i+1 Diese allgemeine Tatsache lässt sich hier nun speziell nutzen, um die stationäre Anfangsverteilung (p∗i )i∈N rekursiv zu bestimmen. 67 5 Markov-Ketten als Instrumente zur Modellierung technisch-ökonomischer Wartesysteme Master-Modul IV OR II c, Daraus ergibt sich die folgende rekursive Berechnungsvorschrift(machen Sie sich das bitte klar): λi · p∗i = µi+1 · p∗i+1 , d.h. p∗i = λi−1 ∗ · pi−1 , µi i = 0, 1, . . . i = 1, 2, . . . . Kennt man also p∗0 so lassen sich alle übrigen stationären Zustandswahrscheinlichkeiten p∗i (rekursiv) ermitteln. Man hat also Satz 5.13 Unter den Stabilitätsvoraussetzungen des Satzes 5.10 gilt für i = 1, 2, ...: p∗i = λi−1 ∗ · pi−1 = µi wobei sich p∗0 über die Bedingung P∞ ∗ i=0 pi λi−1 · λi−2 · · · λ0 µi · µi−1 · · · µ1 · p∗0 , (5.4) = 1 ermitteln lässt. Beweis: Übungsaufgabe. Per vollständiger Induktion über i. Bemerkung 5.14 Wie beim M |M |1-System interpretieren wir diese Zustandswahrscheinlichkeiten des Wartesystems im stationären Zustand oft als ˆ zeitlicher Anteil, in dem sich das Wartesystem im Zustand Nr. i befindet. • p∗i = bzw. als Pasta-Eigenschaft • p∗i = ˆ Anteil der ankommenden Kunden, die das Wartesystem im Zustand Nr. i vorfinden. 68 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ In diesem Kapitel wollen wir nun spezielle technisch-ökonomische Wartesysteme betrachten. Wir werden dabei im Wesentlichen den am Ende des vorherigen Kapitels hergeleiteten MarkovGraphen für den allgemeineren Ankunfts- und Bedienprozess heranziehen, um die zu untersuchenden Wartesysteme zu modellieren. Generell werden wir hier zunächst annehmen, dass die Kunden „einzeln“ in das Wartesystem eintreten und auch „einzeln“ von der (oder den) vorhandenen Bedienstationen abgefertigt werden. Für die Analyse des Systems wollen wir die bereitgestellten Kenntnisse über homogene MarkovKetten heranziehen und uns dabei konzentrieren auf: • die Aufstellung des Markov-Graphen, • das Bestimmen stationärer Anfangsverteilungen, • das Ermitteln von sich daraus ergebenden charakteristischen Kenngrößen des technischökonomischen Wartesystems. 6.1 Wartesystem vom Typ M|M|1 mit ungeduldig ankommenden Kunden Wir nehmen an, dass wir ein Wartesystem vom Typ M |M |1 mit der Ankunftsrate λ bzw. der Bedienrate µ vorliegen haben. Bei der Ankunft eines neuen Kunden am System reiht sich dieser allerdings nicht unbedingt in die mögliche Warteschlange ein, sondern entscheidet sich, wenn er feststellt, dass i Kunden im System sind, mit einer Wahrscheinlichkeit ai für den tatsächlichen Eintritt (und damit dann für die Einreihung in die möglicherweise vorhandene Warteschlange). Um diese Situation zu beschreiben, betrachtet den zugehörigen homogenen Markov-Prozess (Lt )t∈[0,∞[ (Lt = b Anzahl der Kunden im System) und die Interpretation der Kantengewichte in einem zugehörigen Markov-Graphen. qi,i+1 i pi,i+1 (h)=qi,i+1 ·h+o(h) i+1 Interpretation ⇐⇒ 69 i i+1 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Mit den Überlegungen aus dem Markov-Graphen für das „reinem“ M |M |1 Wartesystem (siehe Seite 39) überlegen für für die vorliegende Situation: pi,i+1 (h) = = = = = (λ · h + o(h)) · P (Übergang von i nach i + 1 kann überhaupt stattfinden) (λ · h + o(h)) · P (ankommender Kunde reiht sich in die Warteschlange ein) (λ · h + o(h)) · ai λ · ai · h + o(h) · ai (λ · ai ) · h + o(h) | {z } λi → λi = λ · ai . Dann führt dies zu dem Markov-Graphen: λ1 =λa1 λ0 =λa0 0 1 µ ... λ2 =λa2 ... 2 µ λk−1 =λak−1 ... k ... µ λk =λak µ µ Um die stationären Verteilungen (p∗i )i∈N0 , p∗i := P (L = i) zu bestimmen, stellt man das entsprechende Gleichungssystem Qp∗ = 0 auf, wobei sich die Intensitätsmatrix Q –wie eben dargestellt– aus dem Markov-Graphen ergibt als: −λ · a0 µ 0 ... λ·a −(λ · a1 + µ) µ 0 ... 0 0 λ · a −(λ · a + µ) µ 0 . . . . 1 2 Q= .. .. .. .. . . . . 0 ... 0 λ · ai −(λ · ai + µ) µ Nach dem im vorherigen Kapitel Gesagten ist also das Gleichungssystem im Fall ̺ = µλ < 1 (d. h. Verkehrsintensität kleiner 1) nicht-trivial lösbar. Man erhält unter Benutzung der Rekursion 5.4 in Satz 5.13 (Seite 68) p∗i = P (L = i) = −1 n−1 ∞ Q P , i=0 aν ̺n 1+ n=1 p∗0 · ̺i · ν=0 i−1 Q ν=0 aν , i ≥ 1. Bemerkung 6.1 Analog zu Satz 4.6 lassen sich nun für das „M |M |1“-System mit ungeduldigen Kunden etwa die Größen E[L], E[N ], E[V ], E[W ], . . . angeben. 70 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV 6.1.1 Erfassungsrate und effektive Ankunftsrate Innerhalb eines Wartesystems mit ungeduldigen Kunden interessiert man sich nun häufig für ein Maß, welches die tatsächlich „bedienten“ Kunden erfasst. Dies erfolgt durch die sogenannte Erfassungsrate. Im stationären Zustand drückt die Erfassungsrate β den Anteil der Kunden aus, die - auf lange Sicht gesehen - tatsächlich in das Wartesystem eintreten, d. h. β= Anzahl der tatsächlich bedienten Kunden . Anzahl der potentiell zu bedienenden Kunden Die Ermittlung einer solchen Erfassungsrate machen wir uns wie folgt klar. Für M |M |1 mit ungeduldigen Kunden: Während eines Zeitintervalls der Länge T ist die Bedienstation durchschnittlich eine Zeitdauer von (1 − p∗0 ) · T in Betrieb, und es werden durchschnittlich (1 − p∗0 ) · T = (1 − p∗0 ) · µ · T E(S) Kunden abgefertigt. In dieser Zeit hätten andererseits – sofern kein Kunde ungeduldig gewesen wäre – λ · T Kunden in das Wartesystem eintreten können. Damit erhält man für β, dass (1 − p∗0 ) · µ · T = (1 − p∗0 ) · ̺−1 . λ·T Die effektive Ankunftsrate λeff der tatsächlich pro Zeiteinheit in das Wartesystem eintretenden Kunden ist dann λeff = β · λ = µ · (1 − p∗0 ). β= Allgemein: Mit einer ähnlichen Überlegung können wir uns die Größe der Erfassungsrate β auch für allgemeinere Wartesysteme mit mehr als einer Bedienstation klarmachen. Dazu betrachten wir einen anderen stochastischen Prozess, nämlich (Barb )t∈[0,∞[ wobei Barb,t der Anzahl der zum Zeitpunkt t bedienenden Stationen entspricht. Wir nehmen an, dass die Bedienzeit S der Kunden an allen Bedienstationen dieselbe sei (E(S) = µ1 ). Befindet sich das Wartesystem im stationären Zustand, so liefert die Zufallsvariable Barb dann die Anzahl der bedienenden Stationen. Angenommen, wir könnten den Erwartungswert E(Barb ) von Barb ermitteln, dann überlegen wir uns – genau wie im Fall einer Bedienstation– folgendes: Während eines Zeitintervalls der Länge T sind die Bedienstationen durchschnittlich T ·E(Barb ) Zeiteinheiten in Betrieb, und es werden im Mittel T · E(Barb ) = T · E(Barb ) · µ E(S) Kunden bedient. In dieser Zeit hätten λ·T Kunden in das Wartesystem eintreten können (bzw. sind eingetreten). Damit hat man in diesen Fall für die Erfassungsrate β und die effektive Ankunftsrate λeff : µ β = E(Barb ) · und λeff = β · λ = E(Barb ) · µ. λ 71 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Bemerkung 6.2 Für die Situation einer Bedienstation gilt offenbar: E(Barb ) = 1 − p∗0 . 6.2 Wartesysteme vom Typ M|M|m Wir betrachten ein Wartesystem mit m Bedienstationen. Die Kunden betreten dabei das Wartesystem entsprechend eines Poisson’schen Ankunftsprozesses mit Intensität λ (Ankunftsrate). Jede der m Bedienstationen kann nur einen Kunden bedienen. Gibt es beim Eintreffen eines Kunden eine freie Bedienstation, so beginnt seine Bedienung sofort, anderenfalls reiht er sich in die Warteschlange ein. Die Bedienzeit der Kunden sei unabhängig von der Station, an der er bedient wird. Sie gehorche bei allen Stationen derselben Exponentialverteilung mit Parameter µ. Weiterhin seien die m Bedienzeiten voneinander unabhängig. ¹ ¹ ¸ ¹ Nun betrachten wir wieder die homogene Markov-Kette mit stetiger Zeit (Lt )t∈[0,∞[ , (Lt entspricht hierbei wie bisher der Anzahl der zum Zeitpunkt t im Wartesystem befindlichen Kunden) und interessieren uns dann wieder für die Zufallsvariable (bzw. deren Verteilung) L, wobei L der Anzahl der im Wartesystem befindlichen Kunden entspricht, wenn das System sich „eingeschwungen“ hat (stationärer Zustand). Offenbar kann Lt , und damit L, die Zustände 0, 1, 2, . . . annehmen. Der Übergang vom Zustand „i Kunden sind im Wartesystem“ in den Zustand „i + 1 Kunden sind im Wartesystem“ wird durch den Parameter des Poisson’schen Ankunftsprozesses λ bestimmt, d. h. für die Übergangsintensität qi,i+1 gilt (siehe Beispiel 5.8): qi,i+1 = λ und qi,j = 0 für j > i + 1. λ i i+1 Wir müssen uns nun die Übergangsintensität qi,i−1 überlegen. Wir wissen, dass wir mit den Übergangsintensitäten die folgende Interpretation verbinden: 72 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV „In einem kleinen Zeitraum h ist die Wahrscheinlichkeit, dass der Prozess Lt+h den Zustand i − 1 annimmt, falls Lt im Zustand i war, genau qi,i−1 · h + o(h), d. h. P (Lt+h = i − 1 | Lt = i) = qi,i−1 · h + o(h).“ Ein Übergang von i nach i − 1 innerhalb von h Zeiteinheiten erfolgt offenbar genau dann, wenn die erste der zum Zeitpunkt t arbeitenden Bedienstationen innerhalb der h Zeiteiheiten frei wird. (Man beachte: wenn Lt = i, i ≥ m, dann arbeiten zum Zeitpunkt t alle m Bedienstationen, wenn i < m, dann arbeiten i Bedienstationen. Die folgende Überlegung kann als Spezialfall des Satzes 2.24 (siehe S. 21) aufgefasst werden. (Machen Sie sich dies bitte klar): Arbeiten j Bedienstationen 1 ≤ j ≤ m, so wird das Freiwerden einer Bedienstation durch die einzelnen (alle mit Parameter µ exponentialverteilten) Bedienzeiten an den j Stationen bestimmt. Da diese unabhängig voneinander arbeiten, erhalten wir für „kleine“ h, dass P (Eine der j Bedienstationen wird innerhalb der nächsten h Zeiteinheiten frei) = P (S (1) ≤ h) oder (S (2) ≤ h) oder . . . oder (S (j) ≤ h) = P min {S (k) k=1,2,...,j = 1−P }≤h min {S (k) k=1,2,...,j }>h = 1 − P (S (k) > h für alle k = 1, 2, . . . j) = 1 − P (S (1) > h) und (S (2) > h) und . . . und (S (j) > h) = 1 − P (S (1) > h) · P (S (2) > h) · · · P (S (j) > h) −µ·h = 1 − (e| −µ·h · e−µ·h {z · · · e }) j-mal −j·µ·h = 1−e . D. h. das Minimum der Bedienzeiten S (1) , . . . , S (j) ist exponentialverteilt mit Parameter j · (j) µ, was wiederum bedeutet, dass der Austritts prozess (δt )t∈[0,∞[ , bei j ≥ 1 bedienenden Stationen ein Poisson-Prozess mit Intensität j · µ ist. Für den Fall, dass 1 ≤ i ≤ m ist, arbeiten i Bedienstationen und es gilt qi,i−1 · h + o(h) = P (Lt+h = i − 1 | Lt = i) = P (In einem Zeitraum der Länge h wird ein Kunde abgefertigt) (i · µ · h)1 −i·µ·h = ·e 1! = i · µ · h · (1 + o(h)) =⇒ qi,i−1 = i · µ i i−1 i·µ 73 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Falls i > m ist, gilt qi,i−1 · h + o(h) = P (Lt+h = i − 1 | Lt = i) = P (In einem Zeitraum der Länge h wird ein Kunde abgefertigt) (m · µ · h)1 −m·µ·h ·e = 1! = m · µ · h · (1 + o(h)) =⇒ qi,i−1 = m · µ Und weiterhin gilt, dass qi′ ,j = 0 für i′ < i − 1 und insgesamt gilt dann: λ i i−1 ( i·µ, falls i ≤ m m·µ, sonst Man erhält somit den Markov-Graphen: λ 0 λ 1 λ 2µ 3µ λ λ ... 2 µ ... m ... mµ λ ... m+1 mµ ... mµ ... Anhand dieses Graphen erkennt man nun wieder unmittelbar die Intensitätsmatrix Q, die man Berechnen einer stationären Verteilung p∗ für die Zufallsvariable L hernaziehen kann. Offenbar ist Q= −λ µ λ −(λ + µ) .. .. . . λ 0 2·µ .. . ... 0 .. . ... −(λ + (m − 1)µ) m·µ 0 ... λ −(λ + mµ) m·µ 0 ... λ −(λ + mµ) m · µ 0 .. .. .. . . . ... Die Anwendung Stabilitätsbedingung des Satzes 5.10 liefert, dass für λ < 1, m·µ dieses Gleichungssystem nicht-trivial lösbar ist, d. h. das Wartesystem ist unter dieser Bedingung stabil und besitzt eine stationäre Verteilung für die Zufallsvariable L. Man erhält unter 74 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV λ µ Benutzung der Rekursion 5.4 in Satz 5.13 (Seite 68) und mit der Setzung ̺ = rung: ̺ = b Verkehrsintensität einer Bedienstation): (zur Erinne- 1 1 · ̺ · p∗i−1 = · ̺i · p∗0 , i = 1, . . . , m i i−mi! P (L = i) = p∗i = ̺ 1 · ̺i · p∗0 , i > m, = p∗m · i−m m! · m m mit p∗0 m−1 X = i=0 1 ̺m ̺i + · i! (m − 1)! m − ̺ !−1 . Die sich aus dieser stationären Verteilung p∗ für den Prozess L (Anzahl der Kunden im System, wenn sich das System im steady state befindet) ergebenden charakteristischen Kenngrößen wollen wir nun zusammenfassen. Satz 6.3 Gegeben sei das oben beschriebene Wartesystem M |M |m mit Ankunftsrate λ, Bedienrate µ und ̺ = µλ . Im stationären Zustand gelten dann folgende Aussagen: (i) Für die Wahrscheinlichkeit, dass alle Bedienstationen frei sind, gilt: P (Alle Bedienstationen sind frei) = P (L = 0) = p∗0 = m−1 X i=0 mit ̺ = λ µ 1 ̺m ̺i + · i! (m − 1)! m − ̺ !−1 . (ii) Für die Wahrscheinlichkeit, dass ein ankommender Kunde warten muss, gilt: P (Ein ankommender Kunde muss warten) = P (L ≥ m) = P ((L = m) ∨ (L = m + 1) ∨ (L = m + 2) ∨ . . . ) ∞ X = p∗i i=m ∞ ̺m ∗ X ̺ = · p0 · m! m k=0 k = p∗m ̺ . 1− m (iii) Für die durchschnittliche Länge E(N ) der Warteschlange gilt: E(N ) = ∞ X (i − m) · p∗i = ∞ X i=m i=m (i − m) · p∗m ̺ · m i−m = p∗m ̺ · · m 1 ̺ 1− m !2 (iv) Für die durchschnittliche Anzahl der Kunden E(L) im Wartesystem gilt: E(L) = m−1 X i=1 i·p∗i + ∞ X p∗m i=0 | ̺ · m {z =p∗m+i i } ·(m+i) = ̺· 75 m−2 X i=0 p∗i +p∗m ·m· 1 ̺ 1 ∗ · ̺ +pm · ̺ 2 1− m m (1 − m ) | {z E(N ) } 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV (v) Für die mittlere Anzahl der arbeitenden Bedienstationen E(Barb ) gilt: E(Barb ) = E(L) − E(N ) = ̺ · m−2 X i=0 p∗i + p∗m · m · 1 ̺ 1− m Alternativ: im M |M |m System mit geduldigen Kunden gilt β = 1 und mit β = E(Barb ) · ̺−1 ⇒ E(Barb ) = ̺ (vi) Für die mittlere Anzahl der freien Bedienstationen E(Bfrei ) gilt: E(Bfrei ) = m − E(Barb ) = m−1 X k=0 (m − k) · p∗k = p∗0 · m−1 X k=0 m−k k ·̺ k! (vii) Die mittlere Wartezeit E(W ) in der Warteschlange bzw. die mittlere Verweilzeit E(V ) im System berechnet sich über die Little’schen Formeln: E(W ) = 1 · E(N ) λ bzw. E(V ) = 1 · E(L). λ Bemerkung 6.4 (i) Grundsätzlich ist es auch in einem M |M |m-Wartesystem möglich, dass die Übergangsintensitäten λ nicht konstant sind, sondern vom Zustand L = i abhängig sind (λi ). Die stationären Zusandswahrscheinlichkeiten lassen sich natürlich auch in einem solchen Fall über die Rekursionsgleichung 5.4 bestimmen. (ii) Eine Möglichkeit, ein solches Wartesystem ökonomisch zu bewerten, wäre etwa durch die folgende Kostenfunktion C(λ, µ, m) = c1 · m + c2 · E(Barb ) + c3 · E(Bfrei ) + c4 · E(N ) gegeben. Hierbei beschreibt c1 die Kosten, die für den Unterhalt einer Bedienstation anfallen, c2 die Kosten, die entstehen, wenn eine Bedienstation „arbeitet“ und c3 die Stillstandskosten einer Bedienstation. Die Größe c4 erfasst die „Kosten“ für einen wartenden Kunden. Beispiel 6.5 Wir betrachten das Kassensystem einer mittelgroßen Aldi-Filiale. Der Manager vor Ort hat folgende „Kassenöffnungspolitik“ vorgegeben: Ist kein Kunde im Kassenbereich, so hat keine Kasse geöffnet; befinden sich zwischen 1 und 4 Kunden im Kassenbereich, so wird eine Kasse geöffnet; befinden sich zwischen 5 und 10 Kunden im Kassenbereich, so werden 2 Kassen besetzt; bei 11 und mehr Kunden sind es alle 3 Kassen. Diese Kassenöffnungspolitik soll nun von Ihnen analysiert werden. 76 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Dazu haben Sie zunächst festgestellt, dass die Kundenankünfte im Kassenbereich gemäß eines Poisson-Prozesses erfolgen und im Mittel 42 Kunden pro Stunde dort eintreffen. Die durchschnittliche, exponentialverteilte Abfertigungszeit an den Kassen beträgt 3 Minuten, wobei alle Kassen gleich schnell arbeiten. Zunächst sollen Sie für diese Situation den zugehörigen Markov-Graphen für die Zufallsgröße L = „Anzahl der Kunden im System“ skizzieren und anschliessend mit der Rekursionsionsgleichung 5.4 die stationäre Verteilung für bestimmen (das alles sollten Sie am Besten in Excel durchführen). Anschliessend sind folgenden Fragen zu beantworten: (i) Wie hoch ist der zeitliche Anteil, an dem eine Kasse (zwei Kassen, alle drei Kassen) besetzt ist? (ii) Wie viele Kassen sind durchschnittlich unbesetzt? (iii) Welche Länge hat die Warteschlange im Mittel? (iv) Wie lange muss ein Kunde durchschnittlich warten, bis er bedient wird? (v) Wie ändern sich alle diese Größen, wenn sich die durchschnittlichen Kundenankünfte um 10 % erhöhen (erniedrigen) sollten? (vi) Wie ändern sich alle diese Größen, wenn sich die durchschnittliche Zeit für den Kassiervorgang von 3 Minuten auf 4 Minuten (auf 2 Minuten) erhöht (erniedrigt)? (vii) Wie ändern sich diese Größen, wenn die dritte Kasse ausfällt, d.h. nicht besetzt werden kann? (viii) Wie ändern sich diese Größen, wenn eine vierte Kasse geöffnet werden kann, die immer dann besetzt wird, wenn sich 14 Kunden und mehr im Kassenbereich befinden? (ix) „Versuchen“ Sie herauszufinden, ob es eine „Kassenöffnungspolitik“ gibt, die dafür sorgt, dass die durchschnittliche Wartezeit eines Kunden nicht größer als 4 Minuten ist. „Experimentieren“ Sie bitte auch selbst ein wenig mit dem Wartesystem (auf Ihrem ExcelBlatt), indem Sie z.B. die Ankunftsrate der Kunden/Servicezeit der Kassen einmal „stark“ erhöhen/erniedrigen. Auch können Sie die Politik, wann bestimmte Kassen geöffnet werden sollten, verändern um die Effekte, die sich damit einstellen, zu erkennen. Beispiel 6.6 Der Kassenbereich einer Aldi-Filiale besteht aus 3 Kassen Durchschnittlich 15 Kunden treten pro Stunde an die Kassen entsprechend einem Poisson-Prozess heran. Die Zeit für das Abkassieren eines Kunden ist exponential-verteilt mit einer durchschnittlichen Dauer von 2 Minuten. Sofern ein Kassiervorgang beendet ist und sich kein weiterer Kunde im Kassenbereich befindet, beginnt die Kassiererin damit, Ware aus den Kisten auszupacken um damit die Regale nachzufüllen. Das Auspacken und Einlagern pro Kiste benötigt eine exponential-verteilte Anzahl an Zeit und dauert durchschnittlich 5 Minuten. Sobald allerdings wieder ein Kunde an eine Kasse herantritt, unterbricht die Mitarbeiterin das Auffüllen der Regale und beginnt mit dem Kassiervorgang. Das weitere Auspacken der Kiste(n) und Auffüllen der Regale setzt sie dann später fort. (i) Skizzieren Sie bitte den zugehörigen Markov-Graphen. 77 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV (ii) Stellen Sie bitte das System der Gleichgewichtsgleichungen auf. (iii) Wie gross ist durchschnittlich die Anzahl der Kassen, die mit einem Kassiervorgang beschäftigt sind? (iv) Wieviele Warenkisten werden durchschnittlich pro Stunde in die Regale aufgefüllt? (v) Wie gross ist die Wahrscheinlichkeit, dass ein Kunde auf den Kassiervorgang warten muss? (vi) Wie lange muss im Mittel ein Kunde auf den Kassiervorgang warten? Beispiel 6.7 Sie erinnern sich vielleicht, dass es – beispielsweise bei der Post – früher üblich war, dass es eine Reihe von Postschaltern gab, und sich hinter jedem einzelnen Postschalter eine separate, eigene Warteschlage bildete. Seit einigen Jahren ist nun zu beobachten, dass man von diesem Typ von mehreren, einzelnen Wartesystemen Abstand genommen hat und stattdessen dafür gesorgt wird, dass sich auch bei mehreren Postschaltern nur eine einzige Warteschlange bilden kann. Die folgende Übungsaufgabe soll Ihnen deutlich machen, dass ein solcher „Wechsel“ der Wartesystem-Typen sinnvoll war. Übung: Betrachten Sie bitte zwei Wartesysteme (1): M |M |1 mit Parametern λ bzw. µ (2): M |M |2 mit Parametern 2 · λ und µ Es beschreibe W (i) die durchschnittliche Wartezeit eines Kunden im Wartesystem i, i = 1, 2. Zeigen Sie mit den obigen Kenngrößen und unter Zuhilfenahme der Little’schen Formel, dass gilt: E(W (2) ) < E(W (1) ). Das Beispiel lässt sich leicht auf m Wartesysteme vom Typ M |M |1 mit Parametern λ bzw. µ einerseits und ein Wartesystem vom Typ M |M |m mit Parametern m · λ und µ übertragen. Interpretieren Sie bitte Ihr Ergebnis vor dem Hintergrund der Änderung der „WartesystemTypen“ bei der Post. 6.3 Ein Wartesystem vom Typ M|M|∞: Selbstbedienung Hier betrachten wir den Spezialfall eines Systems M |M |m, nämlich ein Wartesystem, welches (gedanklich) beliebig viele Bedienstationen besitzt (m = ∞). Der Ankunftsprozess (αt )t∈[0,∞[ der Kunden sei wiederum ein Poisson-Prozess mit Intensität λ (also exponential verteilte Zwischenankunftszeiten). Die Bedienzeiten der Kunden seien exponentialverteilt mit Parameter µ. 78 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Wegen m = ∞ muss keiner der Kunden warten, da er unmittelbar bei Ankunft im Wartesystem auf eine freie Bedienstation trifft. Diese Situation tritt beispielsweise auf, wenn sich der Kunde „selbst“ bedienen kann. Wiederum betrachten wir jetzt die homogene Markov-Kette (Lt )t∈[0,∞[ (Anzahl der Kunden im System zum Zeitpunkt t). Da der Prozess (Nt )t∈[0,∞[ (Anzahl der Kunden in der Warteschlange zum Zeitpunkt t) identisch Null ist, haben wir auch Barb,t = Lt . Der Prozess Lt , und damit auch die Zufallsvariable L (Anzahl der Kunden im System im stationären Zustand), kann offenbar die Werte 0, 1, . . . annehmen. Auf exakt dieselbe Weise wie im M |M |m-Wartesystem überlegen wir uns die Übergangsintensitäten qi,i+1 bzw. qi,i−1 (wir beachten dabei nur, dass m beliebig groß sein kann). Damit erhalten wir qi,i+1 = λ, i = 0, 1, . . . qi,i−1 = i · µ, i = 1, 2, . . . qi,j = 0, |i − j| > 1. Auf diese Weise erhält man den Markov-Graphen dieses „Selbstbedienungssystems“ (wiederum sind die Schleifen nicht eingezeichnet) als λ λ λ 0 1 µ ... ... 2 3µ 2µ λ λ ... k ... ... kµ (k+1)µ ... bzw. das Gleichungssystem Qp∗ = 0 mit der Intensitätsmatrix −λ µ λ −(λ + µ) 0 . . . Q= λ 0 .. . 0 2µ ··· 0 ··· .. . −(λ + 2µ) 3µ .. . 0 λ −(λ + 3µ) .. . kµ 0 λ .. .. .. . . −(λ + kµ) . λ .. . ··· 0 ··· .. . (k + 1)µ .. . −(λ + (k + 1)µ) .. .. . . · λ Dieses Gleichungssystem ist nach 5.10 stets lösbar (das Wartesystem ist also stabil) , da i·µ < 1, falls i hinreichend groß ist, Man erhält unter Benutzung der Rekursion 5.4 in Satz 5.13 (Seite 68) mit ̺ = µλ , dass ( e−̺ , i=0 ∗ pi = P (L = i) = ̺i ∗ p0 · i! , i ≥ 1 also p∗i = ̺i i! · e−̺ , d. h. die Zufallsvariable L ist Poisson-verteilt mit Parameter ̺ = µλ . 79 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Wir fassen wieder zusammen: Satz 6.8 Gegeben sei das oben beschriebene „Selbstbedienungssystem“ M |M |∞ mit den Parametern λ und µ. Dann gelten im stationären Zustand (i) p∗i = P (L = i) = P (Barb = i) = ̺i −̺ i! e , (ii) E(L) = E(Barb ) = ̺ = λµ . Bemerkung 6.9 Auch hier wieder: die Übergangsintensitäten λ müssen nicht konstant sein, sondern können vom Zustand L = i abhängig sein (λi ). Die stationären Zusandswahrscheinlichkeiten lassen sich auch in diesem Fall über die Rekursion 5.4 in Satz 5.13 bestimmen. Die Betrachtung von „Selbstbedienungssystemen“ ist vom ökonomischen Standpunkt vor allem im Vergleich zu Systemen der Form M |M |m bzw. M |M |m|K interessant. In Selbstbedienungssystemen tauchen zwar keine Wartezeiten auf und ein Kunde kann auch nicht abgewiesen werden, da das System eine unendliche Kapazität besitzt, andererseits kann es sein, dass die durchschnittliche Bedienzeit µ1 im Selbstbedienungssystem erheblich größer ist als in Wartesystemen mit „Fremdbedienung“ (Konsequenz: E(L) ist gross). Beispiel 6.10 (vgl.[31]) Ein Investor möchte durchschnittlich einmal pro Monat 1000 EUR in einen speziellen Typ von Pfandbrief investieren. Er wartet bei seinem Kauf allerdings stets auf eine „gute Kaufgelegenheit“, so dass der tatsächliche Kaufzeitpunkt zufällig ist. Die Zeit, die zwischen zwei Käufen vergehnt, ist exponential-verteilt. Nach dem Kauf hält der Investor das Wertpapier noch eine exponential-verteilte Zeit von durchschnittlich 3 Jahren, bevor er es wieder abstößt und verkauft es erst, wenn es eine „gute Verkaufsgelegenheit“ gibt. Aus Statistiken der Vergangenheit weiß der Investor, dass 25 % der Pfandbriefe an Wert verlieren (und zwar 20 % pro Jahr), die übrigen 75 % allerdings gewinnen 12 % pro Jahr. Wie groß ist, auf Dauer gesehen, das durchschnittliche, jährliche Vermögen des Investors? Diese Situation kann als M |M |∞ Wartesystem aufgefasst werden. Der „Kundenquelle“ entspricht hier die Menge an Pfandbriefen, die man kaufen kann. Ein Kunde „betritt“ das Wartesystem dann, wenn der Investor den Pfandbrief kauft. Dies erfolgt durchschnittlich jeden Monat einmal (d.h. λ = 12 pro Jahr). Die „Bedienung“ eines Pfandbriefes besteht im „Liegenlassen“, bis er wieder verkauft wird. Die durchschnittliche Bedienzeit beträgt 3 Jahre (d.h. µ = 13 pro Jahr). Ein solcher Pfandbrief muss bis zu seiner „Bedienung“ natürlich nicht warten, bis ein anderer verkauft ist („bedient“ wurde). Er wird nicht bedient, sondern er bedient sich selbst. Mit diesen Größen erhält man für L = „Anzahl der auf Dauer gehaltenen Pfandbriefe“ und A = „jährliches Vermögen“: λ E(L) = ̺ = = 36, µ 80 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV bzw. E(A) = (0, 25 · E(L) · (1 − 0, 2) + 0, 75 · E(L) · (1 + 0, 12)) · 1000 = 37.440 EUR. 6.4 Ein Wartesystem vom Typ M|M|m|K Im Folgenden betrachten wir ein M |M |m- System wie im vorherigen Abschnitt, jedoch mit den zusätzlichen Bedingungen, dass das System eine Kapazität von K Warteplätzen hat. Sind also m + K Kunden im Wartesystem, wird jeder weitere ankommende Kunde abgewiesen und geht somit für das Wartesystem verloren. Man nennt das System in dieser Situation „blockiert“. Bemerkung 6.11 Es spielt keine Rolle, ob die Kunden abgewiesen werden, weil bereits K Kunden warten, oder ob sie aus eigenem Entschluss gehen, weil die Warteschlange die Länge K hat. Wiederum betrachten wir den stochastischen Prozess (Lt )t∈[0,∞[ , wobei Lt der Anzahl der sich zum Zeitpunkt t im Wartesystem befindenden Kunden entspricht. Offenbar kann Lt nur die Zustände {0, 1, . . . , m+K} annehmen. Die Analyse der Übergangsintensitäten erfolgt wie beim M |M |m-System und ergibt folgenden Markov-Graphen (ohne die Schleifen gezeichnet) λ 0 1 µ λ λ 3µ ... λ ... ... ... (m−1)µ mµ ... mµ λ λ m+ K−1 mµ ... ... mµ ... m+1 81 ... λ m m−1 λ mµ λ λ ... 2 2µ ... ... m+K mµ 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ d. h. λi = λ, λm+K = ( 0 µi = OR II c, Master-Modul IV 0 ≤ i ≤ m+K −1 i · µ, 1 ≤ i ≤ m m · µ, m ≤ i ≤ m + K, aus dem unmittelbar das Gleichungssystem Q · p∗ = 0 für die stationäre Verteilung angegeben werden kann. Die entsprechende Intensitätsmatrix hat das Aussehen −λ µ λ −(λ + µ) 2·µ λ −(λ + 2 · µ) 3 · µ .. Q= . .. . λ −m · µ · Die Stabilitätsvoraussetzungen des Satzes 5.10 sind in diesem Fall übrigens mit beliebigen(!) Werten von λ, µ > 0 stets erfüllt (Warum?). Das heißt: Das Wartesystem ist stets stabil. Damit gibt es stets eine stationäre Verteilung (p∗i )i=0,1,...,m+K . Mit ̺ = µλ kann man sie ebenfalls unter Benutzung der Rekursion 5.4 aus Satz 5.13 (Seite 68) ermitteln. Es ist dann: 1 · ̺i · p ∗ , 1≤i≤m 0 ∗ i! pi = 1 · ̺i · p∗0 , m ≤ i ≤ m + K m! · mi−m Die Grösse p∗0 ergibt sich über die Normalisierungsbediung m−1 P i=0 p∗0 = m−1 P i=0 ̺i i! mi i! + 1 m! + (K + i=0 −1 ̺ K+1 1−( m ) ̺ 1− m −1 m , 1) · mm! · ̺m · Pm+K p∗i = 1: , ̺ 6= m ̺=m Die sich aus dieser stationären Verteilung p∗ für den Prozess L (Anzahl der Kunden im System im stationären Zustand) ergebenden charakteristischen Kenngrößen fassen wir zusammen im Satz 6.12 Gegeben sei das oben beschriebene System mit Ankunfstrate λ, Bedienrate µ und Verkehrsintensität ̺ := µλ . Dann gilt im stationären Zustand: (i) P (Das System ist blockiert) = P (L = m + K) = p∗m+K mit p∗m+K = 1 · ̺K+m · p∗0 m! · mK (ii) P (Alle Bedienstationen sind besetzt) = P (Ein ankommender Kunde muss warten oder wird abgewiesen) = P (Ein ankommender Kunde muss warten) +P (Ein ankommender Kunde wird abgewiesen) = m+K X i=m P (L = i) = m+K X i=m p∗i = p∗m · ̺ K+1 ) 1−( m , ̺ 1− m p∗ · (K + 1), m 82 ̺ 6= m ̺ = m. 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV (iii) Für die durchschnittliche Länge der Warteschlange ergibt sich: E(N ) = m+K X j=m = p∗m · und speziell für ̺ = m: (j − m) K X j=0 j· · p∗j ̺ m E(N ) = p∗m · = m+K X j=m j (j − m) · p∗m · ̺ m j−m K·(K+1) . 2 (iv) Für die durchschnittliche Anzahl der freien Bedienstationen gilt: E(Bfrei ) = m X i=0 (m − i) · p∗i (v) Für die durchschnittliche Anzahl der arbeitenden Bedienstationen gilt: E(Barb ) = m − E(Bfrei ) (vi) Für die durchschnittliche Anzahl der Kunden im System gilt: E(L) = E(Barb ) + E(N ) (vii) Die mittlere Wartezeit E(W ) in der Warteschlange bzw. die mittlere Verweilzeit E(V ) im Wartesystem berechnet sich über die Little’schen Formeln und die effektive Ankunftsrate λeff : 1 1 · E(N ) bzw. E(V ) = · E(L). E(W ) = λeff λeff wobei λeff = λ · β mit Erfassungsrate β = E(Barb ) · ̺−1 ist (siehe Unterkap. 6.1.1). Beispiel 6.13 Wir betrachten die Praxis eines Arztes, bei der beobachtet werden kann, dass der Ankunftsprozess (αt )t∈[0,∞[ ein Poisson-Prozess ist. Durchschnittlich werden 8 nachfragende Patienten pro Stunde gezählt. Die Patienten werden vom Arzt in der Reihenfolge ihres Eintreffens behandelt. Aus Statistiken ergibt sich, dass die Behandlungsdauer der Patienten exponentialverteilt ist und sich der Arzt dabei durchschnittlich 6 Minuten für einen Patienten Zeit nimmt. Ankommende Patienten, welche den aus 5 Plätzen bestehenden Behandlungsraum besetzt vorfinden, ziehen es vor, einen anderen Arzt zu besuchen. a) Es handelt sich offenbar um ein M |M |1|5-System mit λ = 8 Patienten/h, µ = 10 Patienten/h, ̺ = 0, 8. b) Wie groß ist die Wahrscheinlichkeit, dass ein Patient nicht behandelt werden kann und wie viele Patienten gehen dem Arzt im Durchschnitt pro Arbeitstag (=8h) verloren? 83 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Es ist P̄ = P (ein ankommender Kunde wird abgewiesen) = P (Das System ist blockiert) 1 1−̺ = p∗m+K = p∗6 = · ̺m+K · p∗0 = ̺6 · p∗0 = ̺6 · = 0,0663. K m! · m 1 − ̺7 Im Durchschnitt fragen pro Arbeitstag 8 · λ = 64 Patienten den Arzt nach, von denen 8 · λeff = 8 · λ · β tatsächlich „erfasst“ werden, also die Praxis überhaupt betreten. Alle übrigen, d. h. 8 · (λ − λeff ) Patienten gehen der Arztpraxis im Mittel verloren. Mit λeff = µ · (1 − p∗0 ) hat man also 8 · (λ − λeff ) = 64 − 8 · 10 · ̺ · 1 − ̺6 1 − ̺7 ! = 4,25. Alernative Berechnung ohne λef f : P̄ · 64 = 4,25. 6.5 Wartesysteme vom Typ M|M|m|0 bzw. M|G|m|0 Ein Spezialfall eines M |M |m|K-Systems ist das System M |M |m|0. Wiederum kommen die Kunden entsprechend eines Poisson’schen Prozesses mit Parameter λ am Wartesystem an, und die Bedienung (mit Bedienrate µ) an einer der m Bedienstationen beginnt sofort, allerdings nur dann, wenn eine Bedienstation frei ist. Anderenfalls, d. h. wenn alle Bediengeräte besetzt sind, entfernt sich der Kunde wieder. (Es ist dabei gleichgültig, warum er sich entfernt: weil er sich entfernen muss, da das System blockiert ist oder aus eigenem Antrieb, weil er bspw. ungeduldig ist.) ¹ ¹ ¹ Beispiel 6.14 Um die Qualität eines Fertigungsprozesses zu sichern, sind an einem Fließband 2 Qualitätskontrolleure eingesetzt. Entsprechend einem Poisson’schen Ankunftsprozess kommen die zu überprüfenden Teile mit durchschnittlich einem Teil pro Minute bei den Qualitätskontrolleuren an. Sind beide Kontrolleure mit der Inspektion beschäftigt, dann passiert ein ankommendes Teil ungeprüft den Kontrollpunkt. Die Prüfzeit gehorcht bei beiden Kontrolleuren derselben Exponentialverteilung. Für die Überprüfung eines Teil werden (unabhängig vom Prüfer) durchschnittlich 2 Minuten benötigt. 84 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Wir betrachten in diesem Wartesystem wiederum den stochastischen Prozess (Lt )t∈[0,∞[ , wobei Lt der Anzahl der sich zum Zeitpunkt t im Wartesystem befindlichen Kunden entspricht. Lt kann offenbar nur die Zustände 0, 1, 2, . . . , m annehmen. Die Analyse der Übergangsintensitäten ergibt dann unter Verwendung der Ergebnisse des Wartesystems M |M |m|K für K = 0 den Markov-Graphen (hier ohne Schleifen gezeichnet): λ λ 0 λ 1 µ λ λ ... 2 2µ m m−1 3µ mµ (m−1)µ Damit hat man unmittelbar das Gleichungssystem Qp∗ = 0, mit dem eine stationäre Verteilung für die Zufallsvariable L (Anzahl der Kunden im System, wenn sich das System im steady state befindet) angegeben werden kann (Rekursion 5.4 in Satz 5.13 (Seite 68)). Es ist −λ µ λ −(λ + µ) 2µ Q= 0 .. . 0 mµ λ −mµ Damit erhält man die stationäre Anfangsverteilung: P (L = i) = p∗i = Wiederum führt die Bedingung m P i=0 i λ 1 · i! µ · p∗0 , i = 0, 1, . . . , m. p∗i = 1 dazu, dass p∗0 = !−1 m X 1 λ i i=0 i! µ . Bemerkung 6.15 Man kann zeigen, dass die obige Formel für die stationäre Verteilung (p∗i )i=0,1,... der Zufallsvariablen L auch dann Gültigkeit hat, wenn die Bedienzeiten nicht notwendig exponentialverteilt sind. Sie gilt in einem technisch-ökonomischen Wartesystem vom Typ M |G|m|0 immer, wenn wir die durchschnittliche Bedienzeit E[S] darstellen als E[S] = µ1 . Die wesentlichen Kenngrößen für die ökonomische Beurteilung des technisch-ökonomischen Wartesystems vom Typ M |G|m|0 fassen wir im Folgenden wieder zusammen: 85 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Satz 6.16 Gegeben sei ein technisch-ökonomisches Wartesystem vom Typ M |G|m|0 mit Ankunftsrate λ und E(S) = µ1 . Es sei ̺ = λµ . Dann gilt für die Zufallsvariable L (Anzahl der Kunden im System im stationären Zustand): (i) P (Das System ist blockiert) = P (L = m) = p∗m mit p∗m m X ̺i ̺m · = m! i! i=0 !−1 . (ii) Für die durchschnittliche Anzahl arbeitender Bedienstationen gilt: E(Barb ) = E(L) = m X i=0 i · p∗i = ̺ · m X i=1 m−1 X ̺i−1 · p∗0 = ̺ · pi = ̺ · (1 − p∗m ). (i − 1)! i=0 (iii) Für den durchschnittlichen „Auslastungsgrad“ σ einer Bedienstation im stationären Zustand gilt: E(Barb ) ̺ · (1 − p∗m ) σ= = . m m (iv) Für die effektive Ankunftsrate λeff gilt (siehe Unterkap. 6.1.1): λeff = λ · β mit Erfassungsrate β = E(Barb ) · ̺−1 . (v) Die mittlere Verweilzeit E(V ) im Wartesystem berechnet sich über die Little’schen Formeln: 1 E(L) = E(S). E(V ) = λeff Für unser Beispiel erhält man mit λ = 1 und E[S] = p∗0 = 0,2; p∗1 = 0,4; 86 1 µ = 2, d. h. µ = 12 : p∗2 = 0,4 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV (i) P (zu überprüfendes neues Teil kann nicht überprüft werden) = p∗2 = 0,4 (ii) Durchschnittliche Anzahl arbeitender Qualitätsingenieure = ̺ · (1 − p∗2 ) = 2 · 0,6 = 1,2 (iii) Für den Erfassungsrate gilt: β = E(Barb ) · ̺−1 = (iv) Die effektive Ankunftsrate λeff beträgt: 1,2 = 0,6 = b 60% 2 λeff = λ · β = 1 · 0,6 = 0,6. 6.6 Ein spezielles geschlossenes technisch-ökonomisches Wartesystem vom Typ M|M|m Hier wollen wir ein technisch-ökonomisches Wartesystem betrachten, bei dem eine begrenzte Anzahl r von Kunden vorhanden ist, die allerdings mehrfach bedient werden können. Eine solche „Mehrfachbedienung“ gibt es im folgenden Sinne: Nur die r „Kunden“ können potentiell in das Wartesystem mit m Bedienstationen eintreten. Die Eintritte erfolgen unabhängig voneinander. Tritt ein Kunde in das Wartesystem ein und wurde dort (nach einer möglicherweise positiven Wartezeit) bedient, so kann er danach erneut in das System eintreten, um bedient zu werden. ¹ ¹ ¹ Ein derartiges „geschlossenes“ Wartesystem liegt etwa bei der Instandhaltungsabteilung eines Unternehmens vor, welche r Maschinen warten muss. Den Kunden enstprechen die einzelnen der r Maschinen, die im Falle eines Schadens in das System eintreten, dort nach einer möglichen Wartezeit bedient (d. h. repariert) werden, nach der Reparatur wieder eine Zeit lang arbeiten, um dann irgendwann wegen einer erneut fälligen Reparatur wieder in das Wartesystem einzutreten. Die Schadenseintritte der einzelnen Maschinen seien dabei voneinander unabhängig. 87 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV Das Wartesystem bestehe also aus m Bedienstationen, welche jeweils einen Kunden bedienen können. Falls eine Station frei ist, wird ein eintreffender Kunde sofort bedient, ansonsten reiht er sich in die Warteschlange ein. Die Bedienzeit S eines Kunden sei exponentialverteilt mit Bedienrate µ. Die Ankunft eines Kunden kann aufgefasst werden, als sei er von einer eigenen „Kundenquelle“ (also etwa die Kundenquelle Nr. i) erzeugt worden. Nach dem „Erzeugen“ eines Kunden hat diese Kundenquelle dann eine „Pause“, bis der von ihr erzeugte Kunde bedient wurde. Die Zwischenankunftszeiten der Kunden aus den einzelnen Kundenquellen seien jeweils exponentialverteilt, alle mit dem gleichen Parameter λ. Eine „Kundenquelle“ Nr. i induziert also einen (i) Poisson’schen Ankunftsprozess (αt )t∈[0,∞[ mit Intensität λ , d.h. (i) P (αt = n) = (λt)n −λt e , n! i = 1, 2, . . . , r. Dieses Wartesystem soll nun analysiert werden. Wir beachten zunächst: Können k der Kundenquellen noch Kunden erzeugen, 0 ≤ k ≤ r (die übrigen r − k Kunden sind bereits im Wartesystem), so gilt für den stochastischen Prozess (k) (k) (At )t∈[0,∞[ (At beschreibt die Anzahl der aus den k Kundenquellen erzeugten Kunden bis zum Zeitpunkt t), wegen der Unabhängigkeit: (k) P (At = n) = P k X (i) αt =n i=1 ! = (k · λ · t)n −(k·λ)·t ·e . n! D. h. die k Kundenquellen erzeugen Kunden, die gemäß einem Poisson’schen Ankunftsprozess mit Parameter λ · k am Wartesystem eintreffen (siehe auch Satz ?? auf Seite ??). Wir setzen nun r ≥ m voraus (damit überhaupt eine Warteschlange entstehen kann), betrachten wieder die homogene Markov-Kette (Lt )t∈T mit Lt als Anzahl der Kunden im Wartesystem zum Zeitpunkt t und interessieren uns für die Verteilung der Zufallsvariablen L (Anzahl der Kunden im Wartesystem, wenn sich das System eingeschwungen hat). Dies wollen wir wieder mit Hilfe des zugehörigen Markov-Graphen tun. Offenbar kann Lt , und damit L, die Zustände 0, 1, . . . , m, . . . , r annehmen. Wir interessieren uns zunächst wieder für die Übergangsintensitäten qi,i+1 =: λi und qi,i−1 =: µi . Aus den Überlegungen zum M |M |mSystem wissen wir bereits, dass µi = ( i · µ, i = 1, . . . , m m · µ, i = m, . . . , r. Für die λi stellen wir nun eine ähnliche Überlegung an: Befindet sich Lt im Zustand i, d. h. 88 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV i Kunden sind im Wartesystem, so gilt für einen kleinen Zeitraum h: P (Lt+h = i + 1 | Lt = i) = P (im Intervall [0, h] erzeugt genau eine der r − i Kundenquellen genau einen Kunden, etwa den Kunden Nr. 1) (j ∗ ) = P die kleinste der möglichen Zwischenankunftszeiten τ1 (j ∗ ) Kundenquelle j ∗ liegt im Intervall [0, h] und τ1 die übrigen Zwischenankunftszeiten (j ∗ ) = P τ1 = (j ∗ ) ∧ τ1 r−i X n (j ∗ ) + τ2 (j ∗ ) P τ1 j ∗ =1 (j) := min τ1 + τ2 n o (j) (j ∗ ) + τ2 o | j ∈ {1, . . . , r − i} \ {j ∗ } > h > h ∧ min τ1 (j ∗ ) > h und liegen außerhalb von [0, h] | j ∈ {1, . . . , r − i} ≤ h ≤ h ∧ τ1 n (j) τ1 einer (j ∗ ) >h o (j) ∧ min τ1 | j ∈ {1, . . . , r − i} \ {j ∗ } > h = r−i X P τ1 r−i X P τ1 r−i X P τ1 ≤ h ∧ τ1 = 1 | α0 j ∗ =1 = j ∗ =1 = j ∗ =1 = r−i X r−i X (j ∗ ) (j ∗ ) (j ∗ ) (j ∗ ) P αh j ∗ =1 = (j ∗ ) ≤ h ∧ τ1 (j ∗ ) ≤ h ∧ τ1 (j ∗ ) (j ∗ ) (j ∗ ) + τ2 (j ∗ ) + τ2 (j ∗ ) + τ2 r−i Y j=1 j6=j ∗ r−i Y >h · >h · (j) P τ1 >h e−λh j=1 j6=j ∗ > h · e−λ(r−i−1)h = 0 · e−λ(r−i−1)h (λh · e−λh ) · e−λ(r−i−1)h j ∗ =1 = r−i X j ∗ =1 λh · e−λ(r−i)h = λh(r − i) · e−λ·(r−i)·h = λ(r − i)h + o(h). Aus dieser Beziehung überlegen wir uns genauso wie im M |M |m-Fall, dass λi = qi,i+1 = λ · (r − i), i = 0, . . . , r − 1 gilt. Somit haben wir den Markov-Graphen (Schleifen hier nicht eingezeichnet) . . . . . . sind (r−1)λ (r−m)λ (r−2)λ (r−m+1)λ rλ 0 1 µ ... 2 2µ 3µ 89 ... ... m mµ mµ ... 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV ... λ 2λ ... ... r r−1 mµ mµ und das Gleichungssystem Qp∗ = 0, mit dem eine stationäre Verteilung für die Zufallsvariable L bestimmt werden kann. Man erhält: µ · p∗1 − r · λ · p∗0 = 0 (r − i + 1) · λ · p∗i−1 − ((r − i) · λ + i · µ) · p∗i + (i + 1) · µ · p∗i+1 = 0, (r − i + 1) · λ · p∗i−1 − ((r − i) · λ + m · m·µ · p∗r µ) · p∗i =λ +m·µ · p∗r−1 . · p∗i+1 = 0, i = 1, . . . , m − 1 m≤i≤r−1 Das Lösen dieses Gleichungssystems (bzw. Nutzung der Rekursion 5.4 in Satz 5.13, Seite 68) ergibt mit der üblichen Setzung ̺ = µλ p∗i = wobei m X p∗0 = i=0 ! r · ̺i · p∗0 , 1≤i≤m i r! · ̺i · p∗0 , m ≤ i ≤ r i−m m · m! · (r − i)! −1 r X r! · ̺i r! + · ̺i i−m i! · (r − i)! i=m+1 m · m! · (r − i)! . Die wesentlichen Kenngrößen für die ökonomische Beurteilung dieses geschlossenen technischökonomischen Wartesystems fassen wir nun wieder zusammen. Satz 6.17 Gegeben sei ein technisch-ökonomisches Wartesystem vom Typ M |M |m mit Parametern λ und µ, welches im obigen Sinne geschlossen sei. Es sei ̺ = µλ . Dann gilt für das System im stationären Zustand: (i) P (keine Bedienstation arbeitet) = p∗0 mit p∗0 = m X i=0 −1 r X r! r! · ̺i + · ̺i i−m i! · (r − i)! i=m+1 m · m! · (r − i)! (ii) P (Alle Bediengeräte arbeiten) = P (L = m oder L = m + 1 oder . . . oder L = r) = = r X p∗i i=m r X r! · ̺i · p∗0 i−m · m! · (r − i)! m i=m 90 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV (iii) Für die durchschnittliche Anzahl E(Barb ) arbeitender Bedienstationen gilt: E(Barb ) = m X i=1 i · p∗i + m · r X i=m+1 p∗i . (iv) Für die durchschnittliche Anzahl der Kunden im System gilt: E(L) = r X i=1 i · p∗i . (v) Für die durchschnittliche Länge E(N ) der Warteschlange gilt: E(N ) = r X (i − m) · p∗i . i=m+1 (vi) Für den Auslastungsgrad σ einer Bedienstation gilt: m r X i E(Barb ) X ∗ = · pi + p∗i . σ= m m i=1 i=m+1 (vii) Für die durchschnittliche Ankunftsrate E(λ) ergibt sich E(λ) = r X i=0 λi · p∗i = r X i=0 (r − i)λ · p∗i =λ· r X i=0 r · p∗i − r X i=0 i · p∗i ! = λ · (r − E(L)). (viii) Die mittlere Wartezeit E(W ) in der Warteschlange bzw. die mittlere Verweilzeit E(V ) im System berechnet sich mittels der Little’schen Formeln (siehe: Kap. 4.4) E(W ) = 1 · E(N ) E(λ) bzw. E(V ) = 1 · E(L). E(λ) Beispiel 6.18 Der PC-Administrator Olaf E. hat zusammen mit seinem Kollegen Jens W. die Aufgabe, die 400 Rechner der WiSo Fakultät an der TU Dortmund zu warten. Im Falle eines Rechnerproblems erfolgt eine unmittelbare Mitteilung an den PC-Support und einer der beiden Mitarbeiter beginnt sofort damit, sich des Problems anzunehmen. Natürlich nur, sofern er frei ist. Die Zeit, die jeder der beiden gewöhnlich für eine solche Problembehebung benötigt, beträgt – unabhängig vom Rechner – durchschnittlich 1 Stunde und ist exponential verteilt. Die beiden arbeiten pro Arbeitstag 8 Stunden. Durchschnittlich hat jeder der Rechner 2 mal im Jahr (220 Arbeitstage) ein solches Problem, wobei die Zeit zwischen dem Auftreten derartiger Defekte exponential verteilt ist. • Wie groß ist der zeitliche Anteil, an dem beide Mitarbeiter mit Wartungsarbeiten be- 91 6 Wartesysteme mit „Einzelankünften“ und „Einzelbedienungen“ OR II c, Master-Modul IV schäftigt sind? • Wie groß ist der Zeitraum, an dem keiner der beiden Mitarbeiter mit Wartungsarbeiten beschäftigt ist? • Wie stark ist jeder der beiden Mitarbeiter ausgelastet? • Wie viele Rechner machen pro Arbeitstag durchschnittlich Probleme? • Wie groß ist der durchschnittliche „unerledigte Auftragsbestand“ eines Tages? • Wie viel Zeit dürfen die beiden Mitarbeiter durchschnittlich für die Wartung eines Rechners aufwenden, damit dieser „unerledigte Auftragsgsbestand“ (erwartungsgemäss) halbiert werden kann?. • Wie lange dauert es durchschnittlich bis ein gemeldetes Rechnerproblem wieder behoben ist? • Wie ändern sich die obigen Größen, wenn einer der beiden Mitarbeiter ausfällt? • Wie ändern sich die Größen, wenn ein zusätzlicher, gleich qualifizierter Mitarbeiter eingestellt wird, um sich ebenfalls um die Rechnerwartung zu kümmern? • Wie viele (gleich qualifizierte) Mitarbeiter müssten eingestellt werden, damit wahrend 6 Stunden eines Arbeitstages mindestens 90 % der Rechner arbeitsfähig sind? • Wie ändern sich die Größen, wenn der Rechnerpool „aufgerüstet“ wird und statt 400 nun 500 Rechner zu warten sind? • Wie groß ist in allen Fällen die Produktivität des Rechnerpools, wobei wir als Produktivitätsmaß den Quotienten Produktivität = Anzahl verfügbarer Rechner − Anzahl ausgefallener Rechner Anzahl verfügbarer Rechner verstehen ? 92 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften In diesem Kapitel wollen wir bestimmte Typen technisch-ökonomischer Wartesysteme betrachten, welche in der Realität ebenfalls große Bedeutung besitzen. Häufig kommt es nämlich vor, dass Kunden nicht einzeln, sondern „gruppenweise“ ankommen (z.B. Ankunft von Postsendungen eines geleerten Briefkastens in einem Briefverteilzentrum, Ankunft von Daten-Paketen in den einzelnen Knoten eines Informationsnetzes, Warenanlieferung in den einzelnen Filialen eines Supermarktes) und nach ihrer Ankunft dann einzeln oder ebenfalls in Gruppen bedient werden. Auch der Fall, dass die Kunden einzeln in das Wartesystem eintreten und dann gruppenweise von den Bedienstationen abgefertigt werden, kommt in der ökonomischen Wirklichkeit oft vor (Ampeln, Personenbeförderungssysteme, bestimmte Fertigungsvorgänge bei der Produktion von Gütern). Sowohl innerhalb des Ankunftsmusters als auch im Rahmen der Bedienung können die Größen der Gruppen dabei konstant sein oder auch (zufällig) variieren. Wir wollen uns in diesem Abschnitt auf die beispielhafte Analyse solcher Wartesysteme beschränken, auf die wir unsere bisherigen Ergebnisse und Analysemethoden ebenfalls anwenden können. 7.1 Ein Wartesystem vom Typ M|M|1|K mit Gruppenbedienung Betrachtet wird hier ein Wartesystem mit einer Bedienstation und der Kapazität K an Warteplätzen. Die als ein Poisson-Prozess mit Ankunftsrate λ ankommenden Kunden warten dabei auf Bedienung, sofern die Bedienstation arbeitet, aber auch dann, wenn die Bedienstation frei ist und die Warteschlange eine Länge kleiner als r − 1 hat. Sobald wartende Kunden eine „Gruppenstärke“ von r erreicht haben, beginnt die freie Bedienstation mit der Bedienung der gesamten Gruppe. Die Bedienzeit S (für die Gruppe) ist dabei exponentialverteilt mit Erwartungswert E(S) = µ−1 . Die Bedienung beginnt und endet gleichzeitig für alle Kunden der Gruppe. Ankommende Kunden können sich während der Bedienung einer Gruppe von Kunden der Warteschlange nur dann anschließen, sofern die maximale Warteplatzkapazität K noch nicht erreicht ist. Wir setzen hier K ≥ r voraus, da sonst nie bedient würde). Um ein derartiges Wartesystem mit den uns bekannten Techniken zu modellieren, betrachten wir wiederum die Zufallsvariable L = b „Anzahl der Kunden im System im stationären Zustand“. 93 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV L kann offenbar die Zustände 0, 1, 2, . . . , K + r annehmen. Ist L = i, so befinden sich im Fall 0 ≤ i ≤ r − 1 i Kunden in der Warteschlange und die Bedienstation arbeitet nicht. Für r ≤ i ≤ r +K werden r Kunden bedient und i−r ≤ K Kunden warten in der Warteschlange. Wir erhalten damit den folgenden Markov-Graphen (die Intensitäten 1 − qii sind wieder weggelassen): • 1≤i≤r−1: von r + 1 0 µ ¸ λ ... ¸ r r-1 µ λ¸ ¸λ i 1 ¹ ¹µ ¹µ ¸ λ ... λ ¸ ¸λ von 2r + 1 von 2r von 2r − 1 r+1 ... ¹ µ µ • r ≤i≤K −1: nach i − r − 1 ¹ µ λ ¸ nach i − r + 1 nach i − r ¹ µ ¸ λ ¸ µ ¸λ λ¸ ... ... i-1 i+1 i µ µ µ von r + i − 1 von r + i von r + i + 1 • K ≤i≤K+r : nach i − r nach K − r nach K + 1 − r ¸ λ µ ... K λ ... ¸ λ µ µ λ ... λ i K+1 K+r µ Aus dem Markov-Graphen gewinnen wir wiederum das Gleichungssystem Qp∗ = 0. Es ergibt sich durch (siehe Bemerkung 5.12 auf S. 67): λ · p∗0 λ · p∗i (λ + µ) · p∗i (λ + µ) · p∗i µ · p∗k+r = = = = = µ · p∗r λ · p∗i−1 + µ · p∗i+r λ · p∗i−1 + µ · p∗i+r λ · p∗i−1 λ · p∗k+r−1 . 94 für 1 ≤ i ≤ r − 1 für r ≤ i ≤ K für K + 1 ≤ i ≤ K + r + 1 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Daraus lassen sich nun wieder Kenngrößen des Wartesystems ermitteln. Wir haben folgenden Satz. Satz 7.1 Gegeben sei das oben beschriebene M |M |1|K Wartesystem mit Gruppenbedienung und den Parametern λ, µ und r. Dann gilt im stationären Zustand: (i) P (ein neu ankommender Kunde kann nicht bedient werden) = P (L = K + r) = p∗K+r (ii) P (ein neu ankommender Kunde muss warten) = P (L = 0 ∨ L = 1 ∨ . . . ∨ L = r − 2 ∨ L = r ∨ . . . ∨ L = K + r − 1) = 1 − p∗K+r − p∗r−1 = (1 − p∗K+r ) − p∗r−1 = P (ein ankommender Kunde kann bedient werden) −P (ein ankommender Kunde kann sofort bedient werden) (iii) P (iKunden warten auf Bedienung) = P (L = i ∨ L = r + i) = p∗i + p∗r+i (falls i ≤ r (iv) P (die Bedienstation arbeitet nicht) = P (L = 0 ∨ L = 1 ∨ . . . ∨ L = r − 1) = (v) P (die Bedienstation arbeitet) = P (L = r ∨ L = r + 1 ∨ . . . ∨ L = K + r) = (vi) P (unter der Bedingung, dass das System arbeitet, befinden sich i Kunden in der Warteschlange) = P (N = i| die Bedienstation arbeitet) = P (N = i ∧ die Bedienstation arbeitet ) · = p∗r+i · K+r P j=r p∗j !−1 K+r P j=r p∗j r−1 P i=0 K+r P i=r p∗i p∗i !−1 (Formel für die bedingte Wahrscheinlichkeit) (vii) Für die durchschnittliche Anzahl der Kunden im System gilt: E(L) = K+r X i=1 i · p∗i (viii) Für die durchschnittliche Anzahl (an der Bedienstation oder in der Warteschlange oder an beiden) wartender Kunden im System gilt: E(Ñ ) = r−1 X i=0 i · p∗i + K+r X i=r (i − r) · p∗i (ix) Für die durchschnittliche Anzahl W1 der Kunden, welche warten müssen, weil (d.h. unter der Bedingung, dass) die Bedienstation arbeitet, gilt: E(W1 ) = 1 · P (N = 1| die Bedienstation arbeitet) + 2 · P (N = 2| die Bedienstation arbeitet) 95 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV + . . . + (K − r) · P (N = K − r| die Bedienstation arbeitet) = K+r X i=r = K+r X i=r (i − r) · p∗i ! (i − r) · p∗i ! · P (die Bedienstation arbeitet)−1 · K+r X i=r p∗i !−1 (x) Analog: Für die durchschnittliche Anzahl W2 der Kunden, welche warten, weil (d.h. unter der Bedingung, dass) die Bedienstation zwar frei ist, aber die Gruppenstärke von r noch nicht erreicht wurde, gilt: E(W2 ) = r−1 X i=0 ! i · p∗i · r−1 X i=0 p∗i !−1 7.2 Ein M|M|m|0 Wartesystem mit Gruppenbedienung Wir betrachten hier ein technisch-ökonomisches Wartesystem mit m voneinander unabhängig arbeitenden Bedienstationen. Jede dieser Bedienstationen kann Kundengruppen der Größe r bedienen. Die Kunden treten einzeln in das Wartesystem gemäß eines Poisson-Prozesses mit Rate λ ein, können bedient werden, sofern eine Bedienstation frei ist, allerdings erst dann, wenn sich eine Gruppe von r zu bedienenden Kunden eingefunden hat. Sofern keine der m Bedienstationen frei ist, geht ein ankommender Kunde dem System verloren. In dem vorliegenden, speziellen Fall, d. h. sofern alle m Bedienstationen arbeiten, ist „Warten“ (im strengen Sinne) also ausgeschlossen (K = 0). Die Festlegung K = 0 bedeutet aber hier nicht, dass es keinerlei Möglichkeit gibt, auf Bedienung zu warten. Eine freie Bedienstation besitzt in unserem Falle sogar r − 1 „Warteplätze“. Ein ankommender Kunde kann – sozusagen– „an der Bedienstation warten“, bis eine Gruppe von r zu bedienenden Kunden zusammengestellt ist. Die Bedienzeiten seien exponentialverteilt mit dem (für alle m Bedienstationen gleichen) Parameter µ (Bedienrate). Nach einer solchen „Gruppenbedienung“ verlassen die r bedienten Kunden einer Gruppe das System wieder. 96 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Beispiel 7.2 Bei der Konzeption zur Gestaltung eines neuen Freizeitparks steht das Management vor einem Entscheidungsproblem. Ankommende Besucher sollen die Möglichkeit erhalten, mit kleinen Transportfahrzeugen durch den Park gefahren zu werden. Für die Anschaffung dieser Transportfahrzeuge hat man die Angebote unterschiedlicher Unternehmen eingeholt und sich letztlich drei Varianten ins Auge gefasst, von denen eine ausgewählt werden soll. • 30 Fahrzeuge mit je 4 Sitzplätzen, • 60 Fahrzeuge mit je 3 Sitzplätzen oder • 80 Fahrzeuge mit je 2 Sitzplätzen Kaufpreise und Unterhaltskosten für die einzelnen Wagen sind dem Parkmanagement bekannt, genauso wie die Vorstellungen über den Preis, den ein Besucher für das Mitfahren in den einzelnen Transportfahrzeugen zahlen sollte. Statistische Analysen haben ergeben, dass der Besucherstrom einem Poisson-Prozess entspricht (λ = 200 Besucher pro Stunde) und die Fahrzeit als exponentialverteilt mit Mittelwert 32 min/Fahrt angenommen werden kann. Die Wagen fahren allerdings nur, wenn alle Plätze besetzt sind. Besucher, welche keinen freien Wagen vorfinden, müssen den Erlebnispark zu Fuß erkunden Für seine Entscheidung möchte das Management eine ökonomische Analyse der einzelnen in Frage kommenden Varianten vornehmen und dazu zunächst eine Reihe von Kenngrössen ermitteln. Es handelt sich bei den drei zu analysierenden Varianten offenbar um Wartesysteme vom Typ M |M |m|0 mit Gruppenbedienung (im obigen Sinne), wobei in Variante 1: m = 30, r = 4 Variante 2: m = 60, r = 3 Variante 3: m = 80, r = 2 gilt. Für Wartesysteme des Typs M |M |m|0 mit Gruppenbedienung werden wir die Zufallsvariable L= b „Anzahl der Kunden im System im stationären Zustand“ etwas differenzierter beschreiben, nämlich durch die beiden Zufallsvariablen und L1 L2 = b = b Anzahl der arbeitenden Bedienstationen Anzahl der auf Bedienung wartenden Kunden Offenbar ist dann L = r · L1 + L2 , wobei L1 ∈ {0, 1, 2, . . . m} L2 ∈ {0, 1, 2, . . . r − 1}. Die Zustande der Zufallsvariable L des Wartesystems lässt sich dann eindeutig durch die beiden Werte von L1 und L2 eindeutig beschreiben. Wir schreiben abkürzend (i, k) für den Zustand (L1 = i, L2 = k). 97 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Um für dieses System charakteristische Kenngrössen zu bestimmen, interessiert uns zunächst wiederum die stationäre Verteilung P (L1 = i, L2 = k) = p∗i,k . Den Markov-Graphen diese Systems erstellen wir dann mit denselben Überlegungen, wie wir sie früher schon gemact haben. (In der folgenden Darstellung ist der Zustand i, k für i = 0 und i = m − 1 besonders hervorgehoben) von z1,k von z1,r−1 µ λ λ ... λ ... (0, r − 1) nach zi−2,r−1 nach zi−1,0 (i − 1)µ 2µ λ (1, 0) (1, 1) ... (i, r − 1) (i + 1, 0) ... (m − 1, r − 1) (m, 0) nach zi−1,k iµ iµ λ λ (i − 1, r − 1) ... λ (i, 1) (i, 0) ... (i, k) (i − 1)µ iµ (m − 2)µ (m − 1)µ (m − 2, r − 1) ... (m − 1, 1) (m − 1, 0) (m − 1)µ (m − 1)µ (m − 1)µ λ λ ... λ µ µ ... λ (0, k) (0, 1) (0, 0) 2µ µ λ von z2,1 von z2,0 λ ... (m − 1, k) mµ Aufgrund dieses Markov-Graphen lässt sich nun wiederum das Gleichungssystem Qp∗ = 0 aufstellen, aus dem die stationäre Verteilung, d. h. die Werte p∗i,k , berechnet werden kann. 98 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Es ergibt sich dann: λ · p∗0,0 = µ · p∗1,0 λ · p∗0,k = λ · p∗0,k−1 + µ · p∗1,k (iµ + λ) · p∗i,k = λ · p∗i,k−1 + (i + 1)µ · p∗i+1,k (iµ + λ) · p∗i,0 = λ · p∗i−1,r−1 + (i + 1)µ · p∗i+1,0 ((m − 1)µ + λ) · p∗m−1,k = λ · p∗m−1,k−1 m · µ · p∗m,0 = λ · p∗m−1,r−1 wobei zusätzlich p∗m,0 + m−1 P P r−1 i=0 k=0 k = 1, . . . r − 1 i = 1, 2, . . . m − 2, k = 1, 2, . . . r − 1 i = 1, 2, . . . m − 1 k = 1, 2, . . . r − 1 p∗i,k = 1 gelten muss (Wahrscheinlichkeitsverteilung). Eine in analytischer Form angebbare Lösung dieses Gleichungssystems (d. h. eine Darstellung der p∗ik in Abhängigkeit von λ, µ, m und r) führt zu ausgesprochenen unübersichtlichen Formeln und ist daher für die Darstellung hier unzweckmäßig. Also wird man das System Qp∗ = 0 stets explizit lösen. Bemerkung 7.3 a.) Im Fall m = 1 (d.h. es steht nur eine Bedienstation für die Gruppenbedienung zur Verfügung) ergibt sich mit ̺ = µλ : (i) P (ein ankommender Kunde kann nicht bedient werden) = P (die Bedienstation arbeitet und kein Kunde wartet auf Bedienung) = P (L1 = 1, L2 = 0) = p∗1,0 = (1 + r · ̺−1 )−1 (ii) P (k Kunden müssen auf die Bedienung warten) = P (L1 = 0, L2 = k) = p∗0,k = ̺−1 · p∗1,0 b.) Falls m = 2 erhält man durch Lösen des entsprechenden Gleichungssystems: (i) P (ein ankommender Kunde kann nicht bedient werden) = P (beide Bedienstationen arbeiten und kein Kunde wartet auf Bedienung) = P (L1 = 2, L2 = 0) = p∗2,0 = (1 + 2r · ̺−1 (1 + ̺−1 )r )−1 (ii) Der Fall, dass k Kunden auf eine Bedienung warten, liegt dann vor, wenn beide Bedienstationen (noch) nicht arbeiten können, da die Gruppenstärke von r noch nicht erreicht ist, oder eine Bedienstation arbeitet und für die zweite die erforderliche Gruppenstärke noch unterschritten ist. Wir erhalten in diesen Fällen: p∗0,k = p∗1,k 2̺−1 (1 + ̺−1 )r − (1 + ̺−1 )r−k−1 1 + 2̺−1 r(1 + ̺−1 )r 2̺−1 (1 + ̺−1 )r−k−1 = 1 + 2̺−1 r(1 + ̺−1 )r Wir fassen wiederum zusammen. 99 k = 0, . . . r − 1. 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Satz 7.4 Gegeben sei das oben beschriebene M |M |m|0 Wartesystem mit Gruppenbedienung und den Parametern λ, µ und Gruppenstärke r. Dann gilt im stationären Zustand (i) P (alle Bedienstationen arbeiten nicht) = P (L1 = 0) = r−1 P k=0 p∗0,k (ii) P (ein neu ankommender Kunde kann bedient werden) = 1 − P (ein ankommender Kunde kann nicht bedient werden) = 1 − P (alle Bedienstationen arbeiten) = 1 − p∗m,0 (iii) P (ein neu ankommender Kunde muss warten) = P (ein ankommender Kunde findet weniger als r − 1 wartende Kunden vor) = P ((L1 = 0 ∨ L1 = 1 ∨ . . . ∨ L1 = m − 1) ∧ (L2 = 0 ∨ L2 = 1 ∨ . . . ∨ L2 = r − 2)) = m−1 P P r−2 i=0 k=0 p∗i,k = P (ein neu ankommender Kunde kann bedient werden) − (iv) Für die durchschnittliche Anzahl der arbeitenden Bedienstationen gilt: E(Barb ) = m−1 X r−1 X i i=1 k=0 m−1 P i=0 p∗i,r−1 p∗i,k + m · p∗m,0 . (v) Für die durchschnittliche Anzahl wartender Kunden: E(N ) = r−1 X k=1 k· m−1 X p∗i,k . i=0 7.3 Ein M|M|m|K|SIRO Wartesystem mit Gruppenankünften Wir betrachten hier ein technisch-ökonomisches Wartesystem mit m voneinander unabhängig arbeitenden Bedienstationen und einer beschränkten Anzahl K von Warteplätzen. Die Bedienstationen können jeweils einen Kunden bedienen (Einzelbedienung). Die Bedienzeiten sind exponentialverteilt mit dem für alle Stationen gleichem Parameter µ. Eine Besonderheit des Wartesystems besteht darin, dass die Ankunft der Kunden gruppenweise erfolgt, d.h. r > 0 Kunden treffen jeweils zum selben Zeitpunkt ein. Die (Gruppen)ankünfte entsprechen dabei einer Poisson-Verteilung mit Parameter λ. Sind bei Ankunft einer solchen Kundengruppe r oder mehr Bedienstationen frei, so werden alle Kunden dieser Gruppe sofort (einzeln) bedient. Sind weniger als r Bedienstationen frei, so werden für diese freien Bedienstationen jeweils ein Kunde zufällig (entsprechend einer Gleichverteilung) ausgewählt und dann (einzeln) bedient, die restlichen Kunden müssen warten, sofern die Warteschlange nicht größer als K wird. 100 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Würde die Warteschlange größer als K werden, so müssen so viele Kunden das System verlassen, dass die Warteschlange maximal die Größe K erreicht. Die Auswahl der Kunden, die das System verlassen müssen erfolgt wiederum zufällig (entsprechend einer Gleichverteilung). Beispiel 7.5 In einem Analysetool für Wertpapiere treffen entsprechend einem Poisson-Prozess mit der Intensität λ = 4 [millisec−1 ] 30 Informationen über die einzelnen DAX-Werte ein. Ein Rechner mit 48 voneinander unabhängig arbeitenden Prozessoren steht zur Verfügung, um diese Informationspakete einzeln nach verschiedenen Kriterien auszuwerten und zu analysieren. Die Verarbeitungszeit für ein Informationspaket ist exponentialverteilt mit einer (für sämtliche Prozessoren identischen) Bedienrate µ = 8 [millisec−1 ]. Sind alle Rechner belegt, so können eingehende Daten nicht weiterverarbeitet werden. Durch geeignete technische Maßnahmen, z. B. entsprechende Dimensionierung der Anzahl der Rechner, soll erreicht werden, dass auf lange Sicht gesehen der Anteil der Datenpakete, welche bei den Analysen nicht berücksichtigt werden, auf unter 1% sinkt. Um ein derartiges System allgemein zu analysieren, betrachten wir wieder die Zufallsvariable L und den zugehörigen Markov-Graphen. Offenbar ist L ∈ {0, 1, . . . m, m + 1, . . . m + K}. Für den Fall r ≤ m ergibt sich: ¸ ¸ ¸ i ... 2¹ ¸ ¸ (i+1)¹ i¹ ¸ nach k+r k ¸ nach m+r m ... (k+1)¹ von K+m¡1¡r (r¡1)¹ von j¡r m¹ m¹ ¸ von K+m¡r K+m¡1 K+m m¹ m¹ von K+m¡1 von K+m¡2 .. . von K+m¡r+1 ¸ ¸ .. . ¸ 101 (r+1)¹ ¸ ¸ j m¹ ¸ r+1 r¹ ... ¹ r r¡1 nach j+r ... 1 k¹ nach 2r ¸ 0 ... von k¡r nach 2r¡1 ... ¸ nach i+r m¹ 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Das sich hieraus ergebende Gleichungssystem für die Bestimmung der stationären Verteilungen sieht dann folgendermaßen aus: λ · p∗0 (i · µ + λ) · p∗i (i · µ + λ) · p∗i (m · µ + λ) · p∗i m · µ · p∗K+m = = = = = µ · p∗1 (i + 1) · µ · p∗i+1 λ · p∗i−r + (i + 1) · µ · p∗i+1 λ · p∗i−r + m · µ · p∗i+1 P λ · rj=0 p∗K+m−r+j 1≤i≤r−1 r ≤i≤m−1 m≤i≤m+K −1 Übung: Wie sieht der Markov-Graph bzw. das Gleichungssystem für den Fall r > m aus? Wir erhalten auf diese Weise (für r ≤ m) die folgenden Ergebnisse. Satz 7.6 Gegeben sei das Wartesystem vom Typ M |M |m|K mit Gruppenankünften und Einzelbedienung, sowie dessen Parameter λ, µ und r. Dann gilt: (i) Die Wahrscheinlichkeit, dass nicht alle ankommenden Kunden bedient werden können: P (nicht alle ankommenden Kunden können bedient werden) = P (K + m − r + 1 ≤ L ≤ K + m) = P (L = K + m − r + 1) + P (L = K + m − r + 2) + · · · + P (L = K + m − 1) + P (L = K + m) = r−1 X p∗K+m−i i=0 (ii) Die Wahrscheinlichkeit, dass ein bestimmter von allen ankommenden Kunden nicht bedient werden kann, weil er abgewiesen werden muss: P (Ein bestimmter von allen ankommenden Kunden kann nicht bedient werden) = P ((K + m − r + 1 ≤ L ≤ K + m) ∧ (der nicht bediente Kunde gehört der ankommenden Gruppe an)) = P ((L = K + m − r + 1) ∧ (der nicht bediente Kunde der ankommenden Gruppe ist der r-te Kunde der Gruppe)) +P ((L = K + m − r + 2) ∧ (der nicht bediente Kunde der ankommenden Gruppe ist der r-te Kunde oder der (r − 1)-te Kunde der Gruppe)) ... +P ((L = K + m − 1) ∧ (der nicht bediente Kunde der ankommenden Gruppe ist der r-te Kunde, der (r − 1)-te Kunde,. . . oder der zweite Kunde der Gruppe)) +P (L = K + m) = r X i=1 p∗K+m−r+i · i r 102 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV (iii) Für die durchschnittliche Anzahl der arbeitenden Bedienstationen erhalten wir E(Barb ) = m X i i=0 · p∗i +m· K X p∗m+i i=1 (iv) Für die durchschnittliche Länge der Warteschlange ergibt sich: K+m X E(N ) = i=m+1 (i − m) · p∗i (v) P (alle ankommenden Kunden können bedient werden) = 1 − r−1 P i=0 p∗K+m−i (vi) P (mindestens einer der ankommenden Kunden muss auf Bedienung warten) = P (alle ankommenden Kunden können bedient werden) −P (alle ankommenden Kunden können sofort bedient werden) = 1− = 1− r−1 P i=0 r−1 P i=0 p∗K+m−i − P (L = 0 ∨ L = 1 ∨ . . . ∨ L = m − r) p∗K+m−i − m−r P i=0 p∗i 7.4 Ein Wartesystem vom Typ M|Erl(µ, r)|1 Beispiel 7.7 In dem kleinen Unternehmen „Auto-Glas“ werden defekte Windschutzscheiben ausgewechselt. Kunden kommen entsprechend einem Poisson-Prozess mit Rate λ = 6 Kunden pro Arbeitstag (= 8 Stunden) an. Der einzige Mechaniker der für das Wechseln der Scheibe zur Verfügung steht, baut die defekte Scheibe aus und anschließend die neue Windschutzscheibe wieder ein. Die Aus- bzw- Einbauzeit einer Scheibe ist jeweils exponentialverteilt. Im Mittel benötigen die beiden Tätigkeiten jeweils 30 Minuten. Wir betrachten hier ein Wartesystem mit nur einer Bedienstation. Die Kunden kommen dabei entsprechend einem Poisson-Prozess mit Parameter λ am System an, ihre Bedienung besteht allerdings aus r nacheinander auszuführenden, stochastisch von einander unabhängigen „Bedienschritten“. Jeder dieser Bedienschritte hat eine exponentialverteilte Dauer deren Mittelwert jeweils (für alle Schritte gleich!) µ1 beträgt. Diese Tatsache impliziert, dass die „GesamtBedienzeit“ eines Kunden Erlang-verteilt ist mit den Parametern µ und r, also (siehe auch Seite 22): −λt P (S ≤ t) = 1 − e · n−1 X i=0 (λ · t)i i! 103 ! und E(S) = r . µ 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Die Tatsache, dass sowohl die Zwischenankunftszeiten der Kunden als auch die Bedienzeiten der einzelnen Bedienschritte exponentialverteilt sind(mit λ bzw. µ), führt dazu das System auf kanonische Weise als Wartesystem mit Gruppenankünften der Grösse r aufzufassen: mit jeder Kundenankunft kommen r abzuarbeitende Bedienschritte im System an. Wir betrachten nun die Zufallsvariable R = Anzahl der Bedienschritte, die sich im System befinden. Offenbar gilt dann für die Anzahl L der Kunden im System L= R . r Damit erhalten wir den folgenden Markov-Graphen für R: λ λ λ ... 0 1 µ ... ... 2 µ µ ... r µ ... r+1 µ ... µ Über die sich daraus ergebende Intensitätsmatrix Q lässt sich nun wieder durch Qp∗ = 0 die stationäre Verteilung ermitteln. Es gilt offenbar λ · p∗0 = µ · p∗1 (λ + µ) · p∗i = µ · p∗i+1 , (λ + µ) · p∗i =λ· p∗i−r i = 1, 2, . . . , r − 1 + µ · p∗i+1 , i ≥ r. Wir können damit zusammenfassen Satz 7.8 Gegeben sei ein Wartesystem vom Typ M |Erl(µ, r)|1 mit Ankunftsrate λ. Es sei ̺ = gilt (i) Falls λ · E(S) = r·λ = r · ̺ < 1, µ so existiert die stationäre Verteilung. (ii) Es gilt p∗0 = 1 − r · ̺. 104 λ µ Dann 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV (iii) Die durchschnittliche Anzahl der abzuarbeitenden Bedienschritte im System ergibt sich durch E(R) = ∞ X i=0 i · p∗i . (iv) Die mittlere Anzahl „wartender“ Bedienschritte im System errechnet sich als: E(NR ) = ∞ X i=1 (i − 1) · p∗i . (v) Die durchschnittliche Wartezeit eines Kunden ergibt sich als E(W ) = 1 − p∗0 r + 1 1 r·̺ r+1 1 · = · · . · p∗0 2 µ 1−r·̺ 2 µ (vi) Mit der Little’schen Formel ergibt sich dann für die durchschnittliche Anzahl wartender Kunden: E(N ) = λ · E(W ). (vii) Die durchschnittliche Verweilzeit eines Kunden ergibt sich als E(V ) = E(W ) + E(S) = r+1 1 r r·̺ · · + . 1−r·̺ 2 µ µ (viii) Mit der Little’schen Formel ergibt sich dann für die durchschnittliche Anzahl Kunden im System: E(L) = λ · E(V ). Bemerkung 7.9 (i) Die Grösse p∗0 in (ii.) ergibt sich auch indem man überlegt: die erwartete Anzahl der im Zeitraum T ankommenden Kunden entspricht der Grösse λ · T . Während dieses Zeitraums arbeitet die Bedienstation im Mittel (1 − p∗0 ) · T Zeiteinheiten. Pro E(S) Zeiteinheiten wird durchschnittlich ein Kunde bedient, so dass sich 1 . die erwartete Anzahl der im Zeitraum T bedienten Kunden ergibt als (1 − p∗0 ) · T · E(S) Da sich das System im stationären Zustand befindet sind beide Grössen identisch, d.h. λ= µ 1 · (1 − p∗0 ) = · (1 − p∗0 ), E(S) r also p∗0 = 1 − r · ̺. (ii) Die Formel für die mittlere Wartezeit E(W ) eines Kunden in (v) überlegt man sich folgendermassen (siehe auch Bemerkung 4.3 auf S. 45): ein „durchschnittlich“ ankommender Kunde muss zunächst warten, bis die Kunden, die vor ihm in der Warteschlange stehen abgearbeitet wurden (das sind im Mittel E(N ) Kunden); jeder hat eine durchschnittliche Bedienzeit E(S) = µr ). Dazu kommt (sofern die Bedienstation arbeitet) als Wartezeit die Zeit E(TRest ), die durchschnittlich benötigt wird, bis Bearbeitungsschritte 105 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV des sich gerade in Bearbeitung befindenden Kunden alle abgearbeitet sind. Also beträgt die durchschnittliche Wartezeit E(W ) = E(N ) · r + (1 − p∗0 ) · E(TRest ). µ Sofern die Bedienstation arbeitet, arbeitet sie mit Wahrscheinlichkeit 1r am ersten Bedienungsschritt, bis zum Ende der Bearbeitung des Kunden müssen also alle r Bearbeitungsschritte noch bearbeitet werden. Mit Wahrscheinlichkeit 1r bearbeitet die Station gerade den zweiten Bedienungsschritt, bis zum Ende der Bearbeitung des Kunden müssen also noch r − 1 Schritte bearbeitet werden. Etc, etc. Da jeder Bearbeitungsschritt die mittlere Dauer µ1 hat ergibt sich für E(TRest ): 1 r 1 = r E(TRest ) = = r 1 r−1 1 + · + ··· + · µ r µ r r X 1 1 r · (r + 1) · k· = · µ r 2 k=1 · 1 µ · 1 µ r+1 1 · . 2 µ Mit der Little’schen Formel E(N ) = λ · E(W ) regibt sich somit E(W ) = r·̺ r+1 1 1 − p∗0 r + 1 1 · · = · · . ∗ p0 2 µ 1−r·̺ 2 µ (iii) Oft wird in Wartesystemen anstatt von eine exponentialverteilten (Gesamt-)Bedienzeit S mit Erwartungswert 1 E(S) := ′ µ davon ausgegangen, dass sich die Bedienung aus einer Anzahl von r „kleineren“, hintereinander auszuführenden, stochastisch von einander unabhängigen Bedienungsschritten additiv „zusammensetzt“. Vom jedem dieser Bedienungsschritte wird dann angenommen, dass seine Dauer exponentialverteilt ist und den Mittelwert E(S) 1 1 1 := = · ′ µ r r µ besitzt. Für die mittlere Gesamtbedienzeit gilt dann – da S Erlang-verteilt ist – E(S) = r · 1 1 r · r·µ ′ = µ. 1 µ = Mit diesem „Trick“ modelliert man in der Praxis oft Situationen, bei denen man zwar E(S) = µ1′ „beobachten“, nicht aber unbedingt „Gedächnislosigkeit“ bei der (Gesamt-) Bedienzeit S annehmen kann. Erlang-Verteilungen haben die Eigenschaft der Gedächtnislosigkeit (für r > 1) bekanntlich nicht. Trotzdem kann man in diesem Fall, wie eben gesehen, die Technik der Markov-Graphen für die Bestimmung von stationären Verteilungen anwenden. 106 7 Wartesysteme mit Gruppenbedienungen bzw. Gruppenankünften OR II c, Master-Modul IV Beispiel 7.10 Hier greifen wir die Bemerkung 3.4 auf S. 29 auf. Dort hatten wir gesehen, dass für eine exponentialverteilte Zufallsvariable Z mit Parameter µ′ ca. 63 % ihrer Realisationen unterhalb ihres Erwartungswertes E(Z) = µ1′ liegen. Dies ist oftmals in der Realität nicht gegeben, da häufig auch „längere“ Bedien- oder Zwischenankunftszeiten beobachtbar sind. Modelliert man nun die Zufallsvariable Z nicht als exponentialverteilt, sondern Erlang-verteilt, 3 etwa mit Parametern r = 3 und Erwartungswert E(Z) = µ1′ = §·µ ′ , dann rechnen wir mit ′ µ := 3 · µ aus: −µ·E(Z) P (Z ≤ E(Z)) = 1 − e ! µ · E(Z) (µ · E(Z))2 + ) · (1 + 1 2 = 1 − e−3 · (1 + 3 + 4, 5) = 1 − 8, 5 · 0, 0497 ≈ 0, 57 In einer solchen Modellierung liegt also Die Wahrscheinlichkeit, dass Z einen Wert annimmt, der kleiner als ihr Mittelwert E(Z) ist, nur mehr ca. 57%. 107 8 Netzwerke von Wartesystemen Im Folgenden wollen wir eine Menge von Wartesystemen betrachten, welche innerhalb eines „Netzwerkes“ miteinander in Beziehung stehen. ~ = (V, E, c) mit V = V1 ∪· V2 , in dem Zu Grunde gelegt sei dabei ein gewichteter Digraph G die Knoten v ∈ V1 die Bedeutung von Wartesystemen im Sinne der früher behandelten Wartesysteme haben (d. h. gegeben sind durch ein Ankunfts- bzw. Bedienmuster im Sinne der Kendall’schen Charakterisierung). Darüber hinaus seien mit v ∈ V2 diejenigen Knoten ausgezeichnet, die keine Wartesysteme repräsentieren sollen, sondern potentielle (Kunden)quellen q, q1 , q2 , . . . bzw. eine Senke s beschreiben, die das Eintreten der Kunden in bzw. das Austreten der Kunden aus dem Netzwerk darstellen. Eine Kante e = (vi , vj ) ∈ E spiegelt die Tatsache wieder, dass ein Kunde nach Verlassen des Wartesystems vi unmittelbar in das Wartesystem vj eintreten kann. Die Größe c(e) = c((vi , vj )) beschreibt dabei die Wahrscheinlichkeit, mit der er dies tut. Quellen q1 v1 c12 v2 c25 c55 q2 q q3 v3 v7 v5 q4 s Senke v6 v4 Derartige Netzwerke von Wartesystemen treten in der technisch-ökonomischen Realität natürlich viel häufiger auf als „einzelne“ Wartesysteme. So, etwa innerhalb von Produktionssystemen, Supermärkten etc. Wir wollen in diesem Kapitel analysieren, wie wir auf Grund der Informationen über die einzelnen Wartesysteme Aussagen über die charakteristischen Kenngrößen des gesamten Systems gewinnen können. 8.1 Ein elementares Netzwerk Wir betrachten dazu zunächst den einfachsten Fall eines solchen Netzwerkes mit zwei hintereinander angeordneten einzelnen Wartesystemen, in denen sich jeweils nur eine Bedienstation befindet: 108 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV Folgende Annahmen werden dabei zu Grunde gelegt: • v1 ist ein M |M |1-System mit Ankunftsrate λ1 , Bedienrate µ1 und ρ1 = λ µ1 < 1. • Alle aus v1 austretende Kunden treten unmittelbar in das Wartesystem v2 ein. v2 verfügt über ∞-grosse Kanpazität • In v2 werden die Kunden ebenfalls mit exponentiell verteilter Bedienzeit von der Bedienstation/den Bedienstationen bedient (Bedienrate µ2 ). • Nach erfolgter Bedienung im System v2 verlassen die Kunden das Netzwerk in die Senke s hinein. Nach ihrer Bedienung im System v1 treten die Kunden mit Wahrscheinlichkeit 1 in das Wartesystem v2 ein. Mit dem Satz von Burke (siehe Satz 4.6, S. 52) wissen wir, dass Kunden entsprechend einem Poisson-Prozess mit Rate λ im System v2 ankommen. Da beide Wartesystem v1 und v2 M |M |1-System sind, können wir, falls ̺2 = Wartesystem separat auf bekannte Weise analysieren. λ µ2 < 1, jedes Beschreiben L1 ≥ 0 bzw. L2 ≥ 0 die Anzahl der Kunden im System v1 bzw v2 , so wissen wir nämlich: ∗(1) pi ∗(2) pi λ i λ · = (1 − ̺1 ) · ̺i1 , i = 0, 1, . . . := P (L1 = i) = 1− µ1 µ1 j λ λ := P (L2 = i) = 1− · = (1 − ̺2 ) · ̺j2 , j = 0, 1, . . . . µ2 µ2 Nun sind aber nicht die beiden einzelnen, sondern das aus v1 und v2 bestehende Netzwerk zu analysieren. Um dies zu tun, beschreiben wir mit dem Paar L = (L1 , L2 ) den Zustand der beiden Wartesysteme im stationären Zustand, und interessieren uns für die stationäre Verteilung P (L1 , L2 ), d.h. p∗(i,j) = P (L1 = i, L2 = j), i, j ≥ 0. Um diese Größen zu bestimmen, gehen wir wieder wie üblich vor und stellen zunächst einen entsprechenden Markov-Graphen auf, der die Zustände bzw. Übergänge und Intensitäten innerhalb der möglichen Zustände (L1 , L2 ) im Netzwerkes beschreibt: wir erhalten etwa so für den Fall, dass i > 0 und j > 0 den folgenden Ausschnitt aus dem Markov-Graphen: 109 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV (i,j¡1) (i¡1,j¡1) ¹2 (i¡1,j) ¸ (i,j) ¹1 ¸ (i+1,j) ¹2 ¹1 (i¡1,j+1) (i+1,j¡1) (i,j+1) (i+1,j+1) Man beachte, dass (wegen i > 0) die Übergänge von (i, j) nach (i−1, j +1) bzw. von (i+1, j −1) nach (i, j) jeweils mit der Übergangsrate µ1 erfolgen und nicht mit der „Austrittsrate“ λ1 , da für diese Zustände in v1 bedient wird (siehe Punkt 1 der Bemerkung 4.7). Übung: Bitte ergänzen Sie den Ausschnitt des Markov-Graphen um die Zustände mit i = 0, bzw. j = 0. Als nächstes muss daraus das zugehörige Gleichungssystem aufgestellt werden. Dazu erinnern wir uns, dass wir im Kapitel über Markovketten (Bemerkung 5.12, S. 67) gesehen hatten, dass in jedem Zustand einer homogenen Markovkette für die stationären Verteilungen und die Übergangsraten eine Art „Flusserhaltung“ gilt. Für unsere Situation ergibt sich somit: (λ + µ1 + µ2 ) · p∗(i,j) = λ · p∗(i−1,j) + µ1 · p∗(i+1,j−1) + µ2 · p∗(i,j+1) , i, j > 0. (Übung: Bitte ergänzen Sie dieses Gleichungssystem mit den Gleichungen, die zu den Fällen i = 0 bzw. j = 0 gehören.) Dieses Gleichungssystem könnte man nun unter Berücksichtigung, dass ∞ X ∞ X p∗(i,j) = 1 i=0 i=j gilt, lösen. Andererseits kann man es sich (in diesem speziellen Fall), „einfacher“ machen, und die Randverteilungen betrachten. Man kann nämlich leicht zeigen, dass p∗(i,j) = P (L1 = i) · P (L2 = j), i, j ≥ 0 die Gleichungen in obigem Gleichungssystem erfüllen, und somit eine Lösung für die stationäre Verteilung P (L1 , L2 ) darstellen (Übung!). Man kennt also die gemeinsame Verteilung von (L1 , L2 ) des (kleinen) Netzwerkes, sofern man die Verteilungen von L1 bzw. L2 in den Wartesystemen v1 bzw. v2 kennt. Diese Tatsache lässt sich nun verallgemeinern. 110 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV 8.2 Offene Netzwerke von Wartesystemen Wir betrachten nun ein Netzwerk von Wartesystemen mit einem zugrunde liegenden Digraph ~ = (V, E, c) ohne Schlingen. Dieser besitze eine einzige Quelle q („Kundenquelle“, „Eingang“ G in das Netzwerk) und eine Senke s („Ausgang“ aus dem Netzwerk. Kunden treten von q direkt in die Wartesysteme vk , k = 1, 2, . . . , N ein. In diesem Sinne sei das Netzwerk „offen“. Die weiteren Annahmen sind: • Jedes Wartesystem habe mk gleichrtige Bedienstationen. • Die Zwischenankunftszeit τ der von außen gesamthaft in das Netzwerk eintretenden Kunden sei exponentialverteilt mit Parameter λ (Poisson-Prozess). • Die Wahrscheinlichkeit, dass ein von aussen ankommender Kunde direkt das Wartesystem vk betreten sei cq,k . Für mindestens ein k gelte cq,k > 0. • Die Bedienzeitenen der Bedienstation im Wartesystem vk seien exponentialverteilt mit Parameter µk und voneinander unabhängig. • Nach Verlassen des Wartesystems vk wählt der Kunde mit Wahrscheinlichkeit ck,t das Wartesystem vt , in das er als nächstes eintritt, oder er verlässt das System mit Wahrscheinlichkeit ck,s . • Für jedes Wartesystem vk gilt: es gibt mindestens einen Weg von q nach vk bzw. einen ~ Weg von vk nach s in G. λ · cq,k ck,t λ1 · c1,k µk λk λ2 · c2,k λk ck,s Wir betrachten zunächst die „Gesamt-Ankunftsrate“ λk im Wartesystem vk , welche sich aus den einzelnen Ankunftsraten λ · cq,k , λ1 · c1,k , λ2 · c2,k , . . . , λn · cn,k zusammensetzt. ~ keinen Kreis enthält (es handelt sich also in einem Wenn wir wüssten, dass das Netzwerk G solchen Fall um ein Netzwerk von Wartesystemen, bei dem ein Kunde ein einmal besuchtes Wartesystem nicht erneut besuchen kann) so liefert Satz 2.18 (Seite 18 und der Satz von Burke (S. 52), dass für jedes Wartesystem vk im Netz der Ankunftsprozess ein Poisson-Prozess mit Parameter λk ist. Die Ankunftsrate λk des Poisson-Prozesses am Wartesystem vk ergibt sich in diesem Fall additiv aus den (aufgeteilten, d.h. mit ci,k gewichteten) Austrittsraten der einzelnen 111 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV Poisson-Prozesse (Burke) der Vorgängerwartesysteme von System vk . Wir machen daher den Ansatz λk = λ · cq,k + n X j=1 cj,k · λj , k = 1, 2, . . . , n, (8.1) bzw. für die Senke (wegen cq,s = 0) (8.2) n X (8.3) λ = λs = j=1 cj,s · λj . Zur Bestimmung der Größen Λ = (λ1 , . . . , λn ) ist also dieses lineare Gleichungssystem zu lösen! Sind die Werte λk auf diese Weise berechnet, lassen sich für jedes Wartesystem vk (sofern dort die Stabilitätsbedingung ̺k = µλkk < mk erfüllt sind) die stationären Verteilungen p∗lk := P (Lk = lk ), lk ∈ {0, 1, . . . } angeben. Nun betrachten wir wiederum die Größe L als „Anzahl der Kunden im Netzwerk im stationären Zustand“. Dann wird L beschrieben durch L = (L1 , L2 , . . . , Ln ), wobei Lk die „Anzahl der Kunden im Wartesystem vk “ beschreibt. Wir interessieren uns wieder für eine stationäre Anfangsverteilung P (L = l), wobei l = (l1 , l2 , . . . , ln ) ist. Diese ergibt den folgenden Satz von Jackson ([17]): Satz 8.1 Gegeben sei ein offenes Netzwerk von Wartesystemen mit obigen Annahmen. Dann gilt im stationären Zustand: P (L = l) = p∗l1 · p∗l2 · · · p∗ln Beweis: Der Beweis des Satzes orientiert sich an völlig analogen Überlegungen, die wir im Falle zweier hintereinander angeordneter einzelner Wartesysteme bereits gemacht haben. Allerdings bestehen hier die einzelnen Zustände nicht aus Paaren (l1 , l2 ), sondern aus n−Tupeln (l1 , l2 , . . . , ln ). T Bezeichnen wir ei mit (0, . . . , 0, 1(i) , 0, . . . , 0) und P (L = l + ei ) mit P (L = (l1 , l2 , . . . , li + T 1, li+1 , . . . , ln ) ). Dann ergibt sich mit der „Flusserhaltungsüberlegung“ und der Indikatorfunktion ( 1, li > 0 1{li >0} := 0, li = 0 112 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV der folgende Zusammenhang: λ Pn|{z} c ·λ i=1 q,i = λ· + ·P (L = l) + n X n X i=1 1{li >0} · µi · P (L = l) cq,i · P (L = l − ei ) + i=1 n X n X i=1 j=1 n X ci,s · µi · P (L = l + ei ) i=1 cj,i · µj · P (L = l + ej − ei ) Wiederum ist hier die linke Seite der „Fluss“ aus Zustand l, die rechte Seite der Fluss in P den Zustand l hinein. Einsetzen der Gleichungen λ · cq,i = λi − nj=1 λj · cj,i in den ersten Summanden der rechten Seite liefert λ · P (L = l) + n X = i=1 i=1 1{li >0} · µi · P (L = l) λi · P (L = l − ei ) − n X + n X i=1 n X n X i=1 j=1 ci,s · µi · P (L = l + ei ) + λj · cj,i · P (L = l − ei ) n X n X i=1 j=1 cj,i · µj · P (L = l + ej − ei ). Wenn wir nun als „Versuch“ den Ausdruck P (L = l) = p∗l1 · p∗l2 · · · p∗ln betrachten, so lassen sich mit Hilfe der expliziten Darstellung der p∗li die Relationen λi · P (L = l − ei ) = 1{li >0} · µi · P (L = l), λj · P (L = l − ei ) = µj · P (L = l − ei + ej ) und λi · P (L = l) = µi · P (L = l + ei ) nachweisen. (Übung!) Das Einsetzen dieser Relationen in die rechte Seite liefert dann λ · P (L = l) + = n X i=1 + n X i=1 1{li >0} · µi · P (L = l) 1{li >0} · µi · P (L = l) − n X i=1 ci,s · λi · P (L = l) + n X n X i=1 j=1 n n XX i=1 j=1 cj,i · µj · P (L = l + ej − ei ) cj,i · µj · P (L = l + ej − ei ). Wir erhalten damit λ · P (L = l) = P (L = l) · n X i=1 ci,s · λi , P was offenbar in unserem Netzwerk von Wartesystemen erfüllt ist (λ = ni=1 ci,s · λi ). Also erfüllt der Ausdruck P (L = l) = p∗l1 · · · p∗ln die für das Netzwerk bestimmende Flusserhaltungsgleichung und stellt damit eine Lösung dar. 113 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV Bemerkung 8.2 (i) Das Netzwerk verhält sich also im stationären Zustand so, als wäre es aus unabhängig voneinander operierenden M |M |mk -Systemen „zusammengesetzt“ (Produktdarstellung der stationären Anfangsverteilung). Die Ankunftsraten λk der einzelnen Wartesysteme werden dabei über das Gleichungssystem bestimmt. Dies bedeutet dann natürlich, dass man charakteristische Kenngrößen der einzelnen Systeme mit den bisher gelernten Methoden ermitteln kann. (ii) Falls die Bedienraten µk des Systems vk zustandsabhängig vom Zustand Lk sind, d. h. µk = µk (j), dann gilt mit p∗lk = P (Lk = 0) · Ql | {z p∗l k =0 } λlkk j=1 µk (j) k ebenfalls die Produktdarstellung in der Lösung, wobei für lk ∈ {0, 1, 2, . . . } gilt. (iii) Damit sichergestellt ist, dass der Ankunftsprozess am Wartesystem vk ein Poisson~ kreisfrei ist. Prozess ist, muss der der dem Netzwerk zu Grunde liegende Digraph G Man betrachte etwa folgendes Netzwerk von 2 Wartesystemen, welches einen Kreis (Schlinge) enthält. ®¢¸1 q ¸ ¹ ¸1 (1¡®)¢¸1 s Obwohl die Zwischenankunftszeiten in das Gesamtsystem und von außen in das Wartesystem vk exponentialverteilt sind (Parameter λ bzw. cq,k · λ), gilt i. Allg. nicht, dass die Ankunftsprozesse am Wartesystem ebenfalls Poisson-Prozesse sind: es lässt sich für 0 < α < 1 zeigen, dass zwar λ1 = λ + α · λ1 , d. h. λ1 = λ 1−α Kunden durchschnittlich pro Zeiteinheit am System vk ankommen (Ankunftsrate λ1 ), aber die Ankünfte dort keinen Poisson-Prozess beschreiben. Allerdings: Im Satz von Jackson wird diese Voraussetzung nicht benötigt. Man muss nur die Ankunftsrate λk kennen. Obwohl die Ankuftsprozesse an vk nicht Poisson-verteilt sein müssen (bei vorliegen eines Kreises) verhält sich dieser Ankunftsprozess an vk für die Bestimmung der stationären Verteilung aber so, als wäre er ein Poisson-Prozess mit Ankunftsrate λk . Wesentliche Voraussetzung ist „nur“, dass der externe Ankunftsprozess an die Wartsyteme ein Poisson-Prozess ist. Wir erhalten also insgesamt das folgende Resultat: 114 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV Satz 8.3 Gegeben sei ein offenes Netzwerk von Wartesystemen in obigem Sinne. Dann gilt: (i) Die Verkehrsintensität ̺j des Wartesystems vk ergibt sich als ̺k = λk . µk (ii) Für die mittlere Anzahl aller Kunden im Netzwerk gilt: E(L) = n X E(Lk ). k=1 (iii) Die durchschnittliche Gesamtverweilzeit eines Kunden E(V ) im gesamten Netzwerk ergibt sich über die Little’sche Formel: n n n 1 X λi 1 1 X 1 X . E(V ) = E(L) = · E(Li ) = · λi E(Vi ) = · λ λ i=1 λ i=1 λ i=1 µi − λi (iv) Die durchschnittliche „Restverweilzeit“ E(ViRest ) eines in das Wartesystem vi eintretenden Kunden ermittelt sich als E(ViRest ) := E(Vi,s ) = E(Vi ) + n X j=1 wobei E(Vi ) = ci,j · E(VjRest ), 1 1 1 1 E(Li ) = · = . λi 1 − ̺i µi µ i − λi (Es handelt sich hierbei um ein Gleichungssystem mit n Gleichungen und n Unbekannten E(Vi,s )). (v) Für die mittlere Anzahl aller im Netzwerk wartenden Kunden gilt: E(N) = n X E(Nk ). k=1 (vi) Die durchschnittliche Gesamtwaretezeit eines Kunden E(V ) im gesamten Netzwerk ergibt sich über die Little’sche Formel: E(W ) = n n 1 1 X 1 X λk E(Wk ). E(N) = · E(Ni ) = · λ λ i=1 λ k=1 (vii) Die durchschnittliche „Restwartezeit“ E(WiRest ) eines in das Wartesystem vi eintretenden Kunden ermittelt sich als E(WiRest ) := E(Wi,s ) = E(Wi ) + n X j=1 115 ci,j · E(WjRest ), 8 Netzwerke von Wartesystemen OR II c, Master-Modul IV wobei E(Wi ) = 1 E(Ni ). λi (Auch hier handelt sich um ein Gleichungssystem mit n Gleichungen und n Unbekannten E(Wi,s )). 116 9 Wartesysteme mit Prioritäts-Bedienung Hier betrachten wir ein Wartesystem mit r verschiedenen Kundenquellen Q1 , Q2 , . . . , Qr , welche gemäß einer Poisson-Verteilung mit den Parametern λ1 , λ2 , . . . , λr verschiedene Kundentypen erzeugen. Bei der Bedienung habe der Kundentyp Nr. i Vorrang vor dem Kundentyp Nr. j, falls i < j, d. h. Kunden aus Qi werden also bevorzugt bedient gegenüber den Kunden aus Qj . Die Qi -Kunden haben also eine höhere Priorität als Qj -Kunden. Für jeden Kundentyp gebe es eine (eigene)Warteschlange mit Kapazität Ki . Zwei Bedienungssituationen können nun unterschieden werden: (i) Bedienung mit Unterbrechung: Bei Ankunft eines Kunden mit höherer Priorität wird – sofern alle Bedienstationen arbeiten – die Bedienung eines Kunden niedrigster Priorität abgebrochen (Kunde verlässt das System) oder unterbrochen (Kunde geht in seine Warteschlange zurück). Zu einem späteren Zeitpunkt kann er dann erneut (von Beginn an) bedient werden oder es erfolgt seine Restbedienung, und zwar dann, wenn kein Kunde höherer Priorität mehr wartet. (ii) Bedienung ohne Unterbrechung: Bei Ankunft eines Kunden k höherer Priorität werden – sofern alle Bedienstationen arbeiten – zunächst alle bestehenden Bedienungen weitergeführt. Der ankommende Kunde muss also warten, unabhängig von seiner Priorität. Sobald dann eine Bedienstation frei wird, beginnt die Bedienung desjenigen Kunden, der die höchste Priorität hat. 9.1 Das System M|M|m|K1 = 0, K2 = 0|Prio| – mit Unterbrechung Wir haben Kundenquellen Q1 , Q2 mit Ankunftsraten λ1 , λ2 und exponentialverteilten Zwischenankunftszeiten. An sämtlichen m Bedienstationen können beide Kundentypen bedient werden. Die Bedienzeit ist jeweils exponentialverteilt mit der Rate µ1 (falls der Kunde aus Q1 kommt) bzw. µ2 (falls der Kunde aus Q2 kommt). Arbeiten sämtliche Bedienstationen, so geht ein ankommender Kunde aus Q2 dem System verloren. Ein Kunde aus Q1 geht dem System verloren, falls sämtliche Bedienstationen die Kunden aus Q1 bearbeiten. Bedient jedoch mindestens eine Station einen Kunden aus Q2 , so wird dessen Bedienung zugunsten des Kunden aus Q1 abgebrochen. Der Kunde aus Q2 verlässt das System. Betrachte Anzahl Kunden Lk vom Typ k im System, wobei k ∈ {1, 2}. Dann haben wir die beobachtbaren Zustände (L1 = i, L2 = j) = zij , mit 0 ≤ i, j ≤ m und i + j ≤ m. Aufstellen der Markov- Graphen liefert: 117 9 Wartesysteme mit Prioritäts-Bedienung λ1 z00 µ2 λ2 λ1 µ1 λ2 λ1 zm−1,0 zm,0 mµ 1 λ2 λ1 zm−1,1 2µ1 z20 z10 µ2 λ2 z01 λ2 OR II c, Master-Modul IV z11 2µ2 2µ2 z02 z12 3µ2 3µ2 z21 z22 zi,m−i λ2 z0,m−1 z1,m−1 λ2 mµ2 λ1 z0,m Wir erhalten für p∗i,j = P (L1 = i, L2 = j) das folgende Gleichungssystem: (λ1 + λ2 ) · p∗0,0 = µ1 · p∗1,0 + µ2 · p∗0,1 (λ1 + i · µ1 + λ2 ) · p∗i,0 = λ1 · p∗i−1,0 + (i + 1) · µ1 · p∗i+1,0 + µ2 · pi,1 , (λ1 + i m · µ1 · p∗m,0 (λ1 + λ2 + j · µ2 ) · p∗0,j (λ1 + m · µ2 ) · p∗0,m · µ1 + λ2 + j · µ2 ) · p∗i,j (λ1 + i · µ1 + (m − i) · µ2 ) · (1 ≤ i ≤ m) = λ1 · p∗m−1,0 + λ1 · p∗m−1,1 = λ2 · p∗0,j−1 + (j + 1) · µ2 · p∗0,j+1 + µ1 · p∗1,j , (1 ≤ = λ2 · p∗0,m−1 = λ1 · p∗i−1,j + (i + 1) · µ1 · p∗i+1,j + (j + 1) · µ2 · p∗i,j+1 , (i ≥ 1, j ≥ 1, i + j < m) p∗i,m−i = λ1 · p∗i−1,m−i+1 + λ1 · p∗i−1,m−i + λ2 · p∗i,m−i−1 , (1 ≤ i ≤ m) j < m) Bemerkung 9.1 Betrachtet man ausschließlich die Kunden vom Typ Nr. 1, so beschreibt das obige Bedienungsmuster ein Wartesystem vom Typ M |M |m|0, d. h. für die stationäre Verteilung P (L1 = i) = p∗i haben wir p∗i = p0 · ̺i1 i! (mit ̺1 = λ1 µ1 ). Andererseits gilt natürlich auch p∗i = Pm−i j=0 p∗i,j . Bemerkung 9.2 Für die spezielle Situation m = 1 liefert das obige Gleichungssystem im Fall λ2 + µ2 6= µ1 für die stationären Wahrscheinlichkeiten µ1 · (λ1 + µ2 ) p∗00 = (λ1 + µ1 ) · (λ1 + λ2 + µ2 ) λ1 p∗10 = λ1 + µ1 λ2 · µ 1 p∗01 = (λ1 + µ1 )(λ1 + λ2 + µ2 ) 118 bzw. im Fall λ2 + µ2 = µ1 : (λ1 + µ2 ) · µ1 (λ1 + µ2 )2 λ1 = λ1 + µ 1 λ2 · µ 1 = . (λ1 + µ1 )2 p∗00 = p∗10 p∗01 Wir erhalten in dieser Situation als charakteristische Kenngrößen im stationären Zustand z. B.: (i) P (Bedienstation arbeitet nicht) = p∗00 . (ii) P (Kunde Typ 2 kann nicht zu Ende bedient werden) = P (Im Intervall [0, t] kommt ein Kunde vom Typ 1 an | die Bedienzeit eines Kunden vom Typ 2 ist t) R = 0∞ (1 − e−λ1 t ) · µ2 e−µ2 t dt R = 1 − µ2 0∞ e−(λ1 +µ2 )t dt 2 1 = 1 − λ1µ+µ = λ1λ+µ . 2 2 (iii) P (Kundtentyp 2 wird bis zu Ende bedient) = µ2 λ1 +µ2 . 9.2 Das System M|M|m|K1, K2|Prio| – mit Unterbrechung Wieder seien zwei Kundenquellen Q1 , Q2 mit Ankunftsraten λ1 , λ2 und exponentialverteilten Zwischenankunftszeiten gegeben. An sämtlichen m Bedienstationen können beide Kundentypen bedient werden. Die Bedienzeiten seien jeweils wieder exponential-verteilt mit Parameter µ1 (für Q1 -Kunden) bzw. µ2 (für Q2 -Kunden). Bedienen sämtliche Bedienstationen Q1 -Kunden, so reiht sich ein ankommender Qi -Kunde in seine Warteschlange ein, sofern deren Kapazität Ki noch nicht überschritten ist (andernfalls geht er dem System verloren). Bedient bei Belegung aller Bedienstationen allerdings eine der Stationen gerade einen Kunden aus Q2 , so wird dessen Bedienung sofort zugunsten eines ankommenden Kunden aus Q1 abgebrochen. Der Kunde aus Q2 verlässt in diesem Fall das System ohne fertig bedient zu sein. Betrachte wieder Anzahl Kunden Lk vom Typ k im System, wobei k ∈ {1, 2}. Dann haben wir die beobachtbaren Zustände (L1 = i, L2 = j) = zij , mit 0 ≤ i, j ≤ m und i + j ≤ m. Der zugehörige Markov-Graph sieht dann folgendermassen aus: 120 0, 1 0, K2 ¹ mµ2 ¸ ¹ mµ2 λ2 ¹ 0, m + K2 ¸ 0, m + K2 − 1 λ2 µ1 λ1 ¸ µ1 λ1 µ1 λ1 µ1 K2 µ2 λ1 2µ¸ 2 µ2 0, m + K2 − 2 λ2 λ2 λ2 λ2 µ1 ¸ ¸ ¸ λ1 ¸ ¸ 2µ1 mµ2 1, m + K2 − 1 λ2 ¸ λ1 2µ1 λ1 2µ1 λ1 2µ1 mµ2 1, m + K2 − 2 λ2 ¸ 1, K2 ¸ 1, 1 1, 0 ... ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¸ λ1 ¸ λ1 ¹ 3µ1 λ1 3µ1 λ1 3µ1 mµ2 2, m + K2 − 2 ¹ λ2 ¸ 2, 1 2, 0 ¸ 2, K2 ¹ ... λ1 ... ¹ ¹ m − 1, 1 ¸ λ1 ¸ ¸ ¹ λ1 m − 1, K2 + 1 ¸ m − 1, K2 (m − 1)µ1 λ1 ¹ (m − 1)µ1 λ1 ¸ m − 1, 0 (m − 1)µ1 λ1 m − 2, K2 + 2 λ2 ¹ ¹ ¹ ¸ ... ¸ ¹ mµ1 λ1 mµ1 λ1 mµ1 λ1 ¹ ¹ ¸ m, 1 m, ¹ 0 λ1 m,¹ K2 ... ¸ mµ1 λ1 mµ1 λ1 mµ1 λ1 ¹ ¹ ¹ mµ1 λ1 mµ1 λ1 mµ1 λ1 ¹ m + K1 , 1 m +¹ K1 , 0 ¸ m + K1 , K2 ¸ ... 0, 0 ... ... ... ... ... ... λ1 ... ... ... ¸ λ2 λ2 λ2 9 Wartesysteme mit Prioritäts-Bedienung OR II c, Master-Modul IV 10 Anhang: Eine kleine Einführung in die Simulation Aus Sicht des Operations Research ist Simulation die Nachahmung der Realität durch Modelle auf einem Rechner. Gründe für den Einsatz von Rechnersimulationen sind: • Das vollständige mathematische Optimierungsmodell ist nicht verfügbar (Vorhersage des Wetterverlaufs) bzw. nicht entwickelbar (durch zu hohe Kosten). • Die verfügbaren analytischen Methoden machen vereinfachte Annahmen erforderlich, die den Kern des eigentlichen Problems verfälschen. • Die verfügbaren analytischen Methoden sind zu kompliziert bzw. mit zu hohem Aufwand verbunden. • Die Durchführung realer Experimente ist zu komplex bzw. zu kostspielig (z. B. Windkanaltests von Prototypen). • Die Beobachtung realer Systeme oder Prozesse ist zu gefährlich (Verhalten von Atomreaktoren), zu zeitaufwendig (Kursverhalten über längere Perioden auf Aktienmärkten) oder mit irreversiblen Konsequenzen verbunden. Definition 10.1 Eine Simulation ist eine Methode zur Modellierung und Analyse von Systemen mit Hilfe von Rechnern. Ein bestehendes Modell eines (technisch-ökonomischen) Systems wird mit bestimmten (meist zufälligen) Inputs bestückt und die damit zusammenhängenden Outputs werden beobachtet. Man unterscheidet • deterministische Simulation: zur Lösung deterministischer Probleme, für die keine Standardverfahren existieren (erweiterte Tourenplanungsprobleme) • stochastische Simulationen: – für die Lösung von Problemen mit Zufallseinflüssen – in Abhängigkeit von den Zufallseinflüssen (Zufallsvariablen oder stochastische Prozesse) unterscheidet man weiter zwischen diskreter Simulation und stetiger Simulation. Damit bedeutet der Begriff der Simulation ein auf Rechenanlagen durchgeführtes gesteuertes statistisches Zufallsexperiment. 121 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV 10.1 Simulation von Zufallsexperimenten Für die Simulation von Zufallsexperimenten benötigt man Zufallsvariablen einer bestimmten Verteilung, z. B. der Exponential- oder der Normalverteilung. Grundsätzlich ist es möglich, Zufallszahlen beliebiger Verteilungen zu erzeugen. Dies geschieht in der Praxis über bestimmte Transformationen von gleichverteilten Zufallszahlen. Die Generierung der Zufallszahlen erfolgt über deterministische Algorithmen, die eine endliche Folge sog. Pseudozufallszahlen erzeugen. „Echte Zufallszahlen“ existieren nur als theoretische Konzepte. Man versucht, diese durch Modellierung physikalischer Prozesse nachzuempfinden, man erreicht aber auch so nicht die sog. „real randomness“. Von zu generierenden Zufallszahlen werden verschiedene, wesentliche Gütekriterien erwartet: • Unabhängigkeit: Die Elemente einer jeden Teilfolge erzeugter Zufallszahlen sollten paarweise unabhängig sein (sog. „serielle Autokorrelation“) • Gleichverteilung: Die Verteilung der erzeugten Zahlen sollte im Hinblick auf die Generierung gleichverteilter Zufallszahlen auch wirklich gleichverteilt im Intervall [0, 1] sein. • Besetzungsdichte: Deterministische Algorithmen erzeugen lediglich eine endliche Zahl verschiedener „Zufallszahlen“ (sog. Periodizität/Zyklenlänge). Es müssen also hinreichend viele unterschiedliche Zufallszahlen zur möglichst lückenlosen Besetzung des gewünschten Intervalls erzeugt werden. • Reproduzierbarkeit: Ein (deterministischer) Algorithmus sollte unter gleichen Startbedingungen (Initialisierung) bei erneutem Lauf auch identische Zufallszahlen generieren. Das Erzeugen von Zufallszahlen geschieht in der Praxis in zwei Stufen, wie es im Folgenden dargestellt wird. Stufe 1: Erzeugen von im Intervall [0, 1] gleichverteilter Zufallszahlen durch geeignete Algorithmen: • linearer Kongruenz-Generator • inverser Kongruenz-Generator • linearer Rekursion-mod2-Generator • Kombination der obigen Generatoren Stufe 2 : Transformation einer oder mehrerer auf dem Intervall [0, 1] gleichverteilter Zufallszahlen in die gewünschte Verteilung durch geeignete Verfahren: • Inversionsmethode (stetig oder diskret) • Rejektionsmethode/Verwerfungsmethode (stetig, normal) • Kompositionsmethode (alle) • Alias-Methode (diskret) 122 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Man unterscheidet deshalb im Allgemeinen zwischen gleichverteilten Zufallszahlen (engl. uniform random numbers) und nicht-gleichverteilten Zufallszahlen (engl. nonuniform random numbers oder random variates). 10.2 Verfahren zur Erzeugung gleichverteilter Zufallszahlen 10.2.1 Linearer Kongruenz-Generator (Methode der linearen Kongruenz) Definition 10.2 Es sei M ∈ N groß, a ∈ N mit 1 ≤ a < M und c ∈ ZM := {0, 1, . . . , M − 1}. Dann erhält man nach der Wahl einer Initialisierungsgröße v0 ∈ ZM durch die Vorschrift vn+1 = (a · vn + c) mod M mit un := vMn für n = 0, 1, . . . eine Folge u0 , u1 , . . . auf dem Intervall [0, 1] annähernd gleichverteilter Zufallszahlen. M bezeichnet man dabei als Modulus und a als Multiplikator. Für c = 0 spricht man von einem sog. multiplikativen Kongruenz-Generator. Alle drei Parameter bestimmen die statistische Qualität des Generators. Folgende Nachteile bzw. Schwächen können beobachtet werden: • Als Rest kommen nur positive ganze Zahlen und die 0 in Frage; das Vorliegen der Gleichverteilung in [0, 1] ist somit an sich schon in Frage zu stellen. • Periodizität: Da das Verfahren eine neue Zufallszahl auf Grundlage ihres Vorgängers generiert, entsteht ein Zyklus, sobald eine generierte Zufallszahl erneut benutzt wird (es gilt per(un ) = per(vn ) ≤ M , wobei mit per(un ) von nun an die maximale Periodenlänge bezeichnet werden soll). • Hyperebeneneigenschaft: Alle mit einem linearen Kongruenz-Generator erzeugten Folgen von Zufallszahlen haben die Eigenschaft, dass, wenn man je q aufeinanderfolgende Glieder einer Folge von Zufallszahlen als Punkte eines q-dimensionalen Einheitswürfels 1 auffasst, diese auf höchstens (q!M ) q parallelen Hyperebenen liegen. Man hat also streng genommen keine Zufälligkeit. Beispiel: 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 0 0.2 0.4 0.6 0.8 1 x =170x mod 509 i+1 0 0 0.2 0.4 0.6 x =59x mod 509 i i+1 123 i 0.8 1 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Daher werden gewisse Empfehlungen für die Wahl der Parameter gegeben. Der Modulus M sollte groß sein und entspricht daher meistens der Word-Länge des Rechners als M = 232 oder M = 231 − 1. Der Multiplikator a sollte „weder zu groß noch zu klein“ sein. Wichtig: Die Periodenlänge per(vn ) sollte groß sein, d. h. am besten einem vollen Zyklus M entsprechen. Ist sie kleiner als M , so können große oder irreguläre Löcher auftreten, was für die Gleichverteilung unerwünscht ist. Satz 10.3 Eine durch einen linearen Kongruenz-Generator erzeugte Folge von Zufallszahlen besitzt dann und nur dann die maximale Periode M , falls a) c und M teilerfremd sind, b) a = 1 mod p gilt für jede Primzahl p, die M teilt, c) a = 1 mod 4 gilt, wenn M ein Vielfaches von 4 ist. Beweis: siehe [18, § 3.2.1] Die folgenden drei „Standardeinstellungen“ haben sich für die praktische Implementierung als sinnvoll erwiesen (per(un ) nahe M ).∗ • M ist prim, a ist primitive Wurzel modulo M , c = 0 und v0 6= 0 (⇒ wegen vn = an y0 mod M für n = 0, 1, . . . , dass per(un ) = M − 1). • M = 2q für q ∈ N, a = 5 mod 8, c ist ungerade (⇒ per(un ) = M ). • M = 2q , a = 5 mod 8, c = 0, y0 ungerade (⇒ per(un ) = M 4 ). Damit ergeben sich zum Beispiel weitläufig genutzte Werte: • M = 231 − 1, a = 75 = 16.807 0der a = 630.360.016 (APL System von IBM, IMSL, SIMPL/I, Simscript II5, DEC-20 Fortran-System) • M = 231 , m = 235 mit a = 513 (populär in den Sechzigern: man hat per(un ) = 233 ) • M = 233 − 1, a = 950.706.637, a = 742.938.285, a = 1.226.874.159, a = 62.089.911, a = 1.343.714.438 10.2.2 Inverser Kongruenzgenerator Definition 10.4 Sei M ∈ N groß, prim, a ∈ N, 1 ≤ a < M und c ∈ ZM := {0, 1, . . . , M − 1}. Dann erhält man nach Wahl von v0 ∈ ZM über die Vorschrift vn+1 := (a · v̄n + c) mod M mit un := vMn für n = 0, 1, . . . eine Folge u0 , u1 , . . . auf dem Intervall [0, 1] annähernd gleichverteilter Zufallszahlen. Dabei ist v̄n das zu vn inverse Element in der multiplikativen Restklassengruppe modulo M , d. h. v̄n ist diejenige ganze Zahl aus {1, . . . , M − 1}, die mit vn multipliziert den Rest 1 nach Division durch M ergibt. ∗ a ist primitives Element/Wurzel modulo M ⇒ ai − 1 ist Vielfaches von M nur für i = M − 1, aber für kein kleineres i. 124 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Der Vorteil des inversen Kongruenzgenerators ist, dass er nicht an der Hyperebeneneigenschaft leidet. Allerdings benötigt er etwa die 18-fache Rechenzeit! 10.3 Erzeugung nicht gleichverteilter Zufallsvariablen Grundlage für die Erzeugung nicht gleichverteilter Zufallsvariablen bilden die auf dem Intervall [0, 1] gleichverteilten Zufallszahlen. 10.3.1 Allgemeiner Ansatz/Inversionsmethode Es sei U ∼ U (0, 1) eine gleichverteilte Zufallsvariable auf [0, 1]. (Zur Erinnerung: Für U gilt dann P (U ≤ u) = u). Weiterhin sei X eine Zufallsvariable mit bestimmter/gewünschter Verteilung, die nur Werte im Intervall ]a, b[∈ R annimmt. Für X sei FX die Verteilungsfunktion, die auf ]a, b[ streng monoton wachsend und stetig ist. Dann besitzt FX die Inverse FX−1 und für die (0, 1)-gleichverteilte Zufallsvariable gilt P (X ≤ x) = FX (x) = P (U ≤ FX (x)) = P (FX−1 (U ) ≤ x). Man nimmt daher eine Folge u0 , u1 , . . . in [0, 1] gleichverteilter Zufallszahlen und erhält über FX−1 (un ) = xn für n = 0, 1, . . . eine Folge x0 , x1 , . . . von mit der gewünschten Verteilung verteilten Zufallszahlen. FX(x) 1 Verteilungsfunktion un x xn Wir betrachten einige Beispiele: • Gleichförmige Verteilung: kurze Erinnerung zur Dichte- und Verteilungsfunktion: f (x) = ⇒ FX (x) = Z x ( 1 b−a , 0, f (x) ds = a≤x≤b sonst Z x a −∞ 125 1 x−a ds = . b−a b−a 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Daher erhält man über die Transformationsgleichung z = FX (x), also z= x−a b−a und schließlich durch Auflösen nach x, dass x = a + (b − a)z. • Exponentialverteilung: Erinnerung zur Dichtefunktion: f (x) = ( 0, x<0 λe−λx , x ≥ 0 und zur Verteilungsfunktion FX (x) = 1 − e−λx . Daher erhält man über z = FX (x) mit z = 1 − e−λx und nach Auflösen nach 1 x = − ln(1 − z) λ exponentialverteilte Zufallszahlen. Bemerkung: Ebenso wie z ist 1 − z in [0, 1] gleichverteilt. Man kann daher 1 − z durch z ersetzen. Wegen z ≤ 1 gilt ln(z) ≤ 0 und man erhält als verwendbare Transformationsfunktion schließlich 1 x = | ln z|. λ • Diskrete Verteilungen: Für diskrete Zufallsvariablen X ist die Verteilungsfunktion FX gegeben durch die Summe der Einzelwahrscheinlichkeiten als FX (x) = X pk k:xk ≤x mit pk = P (X = xk ) und ergibt anschaulich eine Treppenfunktion, die an jeder Stelle xk eine Stufe der Höhe pk hat. Durch Projektion dieser Stufen auf die Ordinatenachse erhält man eine Aufteilung des Einheitsintervalls. Für eine gleichverteilte Zufallszahl zk sucht man nun das zugehörige Teilintervall und erhält darüber die gewünschte Realisierung xk . Das folgende Beispiel soll die Erzeugung der Zufallszahlen diskreter Verteilungen verdeutlichen. Pk pk xk i=0 pi Teilintervalle für z 0 10% 10% 0 − 0, 1 1 25% 35% 0, 1 − 0, 35 85% 0, 35 − 0, 85 2 50% 95% 0, 85 − 0, 95 3 10% 4 5% 100% 0, 95 − 1 126 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV z 1 0,95 0,85 zk 0,35 0,1 1 3 2 xk 4 5 x Problem: Die Suche nach der Zugehörigkeit zu einem Teilintervall ist von der Zeitkomplexität O(n), für großes n damit sehr aufwändig. 10.3.2 Rejektions-/Verwerfungsmethode Die gerade vorgestellte Inversionsmethode kann u. U. sehr aufwendig sein und setzt die Kenntnis der Verteilungsfunktion voraus. Die Verwerfungsmethode vermeidet die Inversion der Verteilungsfunktion und benutzt ausschließlich die Dichtefunktion. Sie benötigt im Allgemeinen aber zwei oder mehrere gleichförmig verteilte Zufallszahlen zur Generierung einer Zufallszahl der gewünschten Verteilung. Es sei X eine stetige Zufallsvariable, deren Dichtefunktion f beschränkt und nur auf einem beschränkten Intervall [a, b] positiv ist. Weiterhin sei c := max{f (x) | a ≤ x ≤ b} bestimmt. Dann erhält man eine Zufallszahl der gewünschten Verteilung über folgendes Vorgehen: 1. Generiere eine gleichverteilte Zufallszahl z1 auf dem Intervall [a, b]. 2. Generiere eine gleichverteilte Zufallszahl z2 auf dem Intervall [0, c]. 3. Setze x = z1 , falls z2 ≤ f (z1 ), andernfalls gehe zu i). 10.3.3 Verfahren zur Erzeugung spezieller Zufallszahlen Weiß man, dass sich Zufallsvariablen auf einfachere Weise aus Zufallsvariablen anderer Verteilungen zusammensetzen lassen, so bieten sich daraus spezielle Verfahren zur Generierung von Zufallszahlen an. 127 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Beispielhaft soll im folgenden die Poisson-Verteilung kurz betrachtet werden: • Poisson-Verteilung: Treffen mit mittlerer Rate λ irgendwelche n Ereignisse A rein zufällig ein, sodass der zeitliche Abstand je zweier aufeinanderfolgender Ereignisse unabhängig und exponentialverteilt ist mit Mittelwert λ1 , dann ist die Zahl der in einem bestimmten Zeitintervall der Länge t eintreffenden Ereignisse eine poisson-verteilte Zufallsvariable mit Mittelwert λ. Man kann daher aus exponentialverteilten Zufallszahlen leicht poisson-verteilte gewinnen, indem fortlaufend exponentialverteilte Zufallszahlen τi aufaddiert werden bis die Summe t überschreitet. D. h. ist k X i=1 k+1 X τi ≤ t < τi , i=1 dann ist k eine mit Parameter λ · t poisson-verteilte Zufallszahl. 10.3.4 Gütetests der erzeugten Verteilungen Die generierten Zufallszahlen sind stets auf die Güte der Gleichverteilung zu überprüfen. Das geschieht durch eine Reihe von Stichprobenverfahren, von denen ein einfaches und bekanntes der sog. χ2 -Test (gesprochen: Chi-Quadrat-Test) ist. Mit diesem Test wird anhand einer Stichprobe überprüft, ob eine Zufallsgröße X einer Normalverteilung genügt. 10.3.4.1 χ2 -Verteilung Es seien n stochastisch unabhängige, (0,1)-normalverteilte Zufallsvariablen X1 , X2 , . . . , Xn gegeben. Dann heißt die Verteilung der Zufallsvariablen 2 χ := n X Xi2 i=1 χ2 -Verteilung mit Freiheitsgrad n. Die Verteilungsfunktion wird mit Fχ2 (x), die Dichtefunktion mit fχ2 (t) bezeichnet und sind gegeben als und t n 1 t 2 −1 e− 2 , t > 0 n fχ2 (t) = 2 Γ( 2 ) 0, t≤0 n 2 1 Fχ2 (x) = P (χ ≤ x) = n n 2 2 Γ( 2 ) 2 Z x n t t 2 −1 e− 2 dt, x>0 0 mit Γ(x) als Gammafunktion, die als sog. Euler’sches Integral 2. Gattung gegeben ist durch Γ(x) = Z ∞ e−t tx−1 dt, x>0 0 und der Eigenschaft Γ(x + 1) = x · Γ(x). Für ganzzahlige Werte x = n = 0, 1, . . . erhält man gerade Γ(n) = (n − 1)!. Insofern erreicht man durch die Gammafunktion die Ausweitung des Fakultätsbegriffs auf beliebige Zahlen x. 128 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV Für den Erwartungswert und die Varianz der χ2 -Verteilung gilt E(χ2 ) = n, V ar(χ2 ) = 2n. Für das Verständnis des χ2 -Tests ist weiterhin der Begriff des Quantils nötig. Als α-Quantil χ2α,m der χ2 -Verteilung mit Freiheitsgrad m bezeichnet man denjenigen Wert χ2α,m , für den P (χ2 ≥ χ2α,m ) = α mit einem vorgegebenen Signifikanzniveau α. Kleine Signifikanzniveaus α (1 %, 5 %) nennt man häufig auch Irrtumswahrscheinlichkeit. Abbildung 10.1 verdeutlicht den Begriff des Quantils. fχ2 (t) α χ2α,m t Abbildung 10.1: Darstellung des α-Quantils der χ2 -Verteilung mit Freiheitsgrad m 10.3.4.2 χ2 -Anpassungstest für die Gleichverteilung Als χ2 -Anpassungstest bezeichnet man die Prüfung einer gewählten Stichprobe hinsichtlich eines gegebenen Signifikanzniveaus α in Bezug auf die Hypothese, die Grundgesamtheit ist (0,1)-normalverteilt. Für die Überprüfung einer Folge von Zufallszahlen u1 , u2 , . . . , un auf die Güte der (0,1)Gleichverteilung ist daher folgende Vorgehensweise notwendig. a) Unterteile das Intervall ]0, 1[ in s disjunkte Teilintervalle ]t0 = 0, t1 [, [t1 , t2 [, . . . , [ts−1 , ts = 1[. b) Bestimme nun, wie viele der beobachteten Messwerte (hier die generierten Zufallszahlen) im jeweiligen Teilintervall liegen. Mit τ̺ bezeichne die Anzahl der Glieder der Zufallszahlenfolge im Teilintervall [t̺−1 , t̺ [ für ̺ = 2, . . . , s bzw. ]t̺−1 , t̺ [ für ̺ = 1. c) Bestimme über τ̺̄ := (t̺ − t̺−1 ) · n den Erwartungswert für die Zugehörigkeit eines Messwertes (einer Zufallszahl) zum ̺-ten Teilintervall für ̺ = 1, . . . , s, falls eine (0,1)Gleichverteilung vorliegt. d) Für große n besitzt die Prüfgröße v := s X (τ̺ − τ̺̄ )2 ̺=1 129 τ̺̄ 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV näherungsweise eine χ2 -Verteilung mit Freiheitsgrad s − 1 unter der Voraussetzung, dass min̺=1,...,s τ̺̄ ≥ 5. Ist diese Voraussetzung nicht erfüllt, fasse benachbarte Intervalle zusammen. Es sei χ2α,m das tabellierte α-Quantil der χ2 -Verteilung mit Freiheitsgrad s − 1. Dann wird mit der vorgegebenen Irrtumswahrscheinlichkeit α die Hypothese „Gleichverteilung der Zufallszahlenfolge“ abgelehnt, wenn v > χ2α,m gilt. 130 Literaturverzeichnis [1] Anossowa, N. N. et al.: Bedienungstheorie, Teubner-Verlag, Leipzig, 1986 [2] Asmussen, S.: Applied probability and queues, Springer, New York, 2003 [3] Baccelli, F.;Bremaud, P.: Elements of queuing theory: Palm martingal calculus and stochastic recurrence, Springer, New York, 2003 [4] Bascharin, I. K. et al.: Handbuch der Bedienungstheorie I, II, Akademie Verlag, Berlin, 1983 [5] Berenson, M.L.; Levine D.M.; Krehbiel, T.C.: Basic business statistics. Concepts and applications, 10th ed., Prentice Hall, Upper Saddle River, 2006 [6] Bolch,G.; Greiner, S,; de Meer,H.; Shridharbhai,K.S.: Queuing networks and Markov chains,Wiley, New York, 1998 [7] Bose,S. An introduction to queuing systems,Kluwer, New York, 2001 [8] Bronson, R.: Theory and Problems of Operations Research, McGraw-Hill Inc., 1982 [9] Burke, P.: The Output of a Queuing System, Operations Research, Vol. 4, 1956, 699–704 [10] Giambene, G.: Queuing theory and telecommunications: Network and applications, Springer, New York, 2005 [11] Gross,D.; Shortle,J.;Thompson,J.;Harris,C.: Fundamentals of queuing theory,Wiley, New York, 2008 [12] Hall, P. W.: Queuing Methods for Services and Manufacturing, Prentice Hall, Englewood Cliffs, 1991 [13] Hartung, J.; Elpelt, B.; Klösener, K.H.: Statistik: Lehr- und Handbuch der angewandten Statisitk, (14. Aufl.), München, 2005 [14] Helles, W. D. et al.: Stochastische Systeme, Berlin, New York, 1978 [15] Hennet, J.-C.; Arda, Y.: Supply Chain coordination; a game theoretic approcach, Engineering Applications of Artificial Intelligence Volume 21, Issue 3, 2008,399–405 [16] Hillier, F. S.; Lieberman, G. J. : Introduction to Operations Research, McGraw-Hill Inc., 2005 [17] Jackson, J. R.: Networks of Waiting Lines, Operations Research 5 (4), 1957, 518–521 [18] Knuth, Donald E.: The Art of Computer Programming, Vol. 2, Seminumerical Algorithms, 2nd ed., Addison Wesley, Reading, MA, 1981 [19] Kleinrock, L.: Queuing Systems, Vol. 1, theory Wiley, New York, 1975 131 10 Anhang: Eine kleine Einführung in die Simulation OR II c, Master-Modul IV [20] Kleinrock, L.: Queuing Systems, Vol. 2, applications Wiley, New York, 1976 [21] Krickeberg, K.; Ziezold, H.: Stochastische Methoden, Springer Verlag, Berlin Heidelberg New York, 1977 [22] Lehmer, D. H.: Mathematical methods in large-scale computing units, in Proc. 2nd Symp. on Large-Scale Digital Calculating Machinery, Havard University Press, Cambrigde, Mass., 1951, 141–146, [23] Little, J. D. C.: A Proof of the Queueing Formula L = λW , Operations Research, 9, 1961, 383–387 [24] Marsaglia, G.: Random numbers fall mainly in the planes, Proceedings of the National Academy of Sciences of the United States of America, Vol. 60, 1968, 25–28 [25] Neumann, K.; Morlock, M.: Operations Research, Hamburg, München, 1993 [26] Ng,C.H.: Queuing modelling fundamentals, Wiley, New York, 1997 [27] Papoulis, A.; Pillai, S.U.: Probability, random variables and stochastic processes, (4rd edition), Boston, 2002 [28] Schoo, M., Pawlikowski, K. und McNickle, D. C.: A Survey and Empirical Comparison of Modern Pseudo-Random Number Generators for Distributed Stochastic Simulations, Technical Report TR-CSSE, University of Canterbury, Christchurch, New Zealand, 2005 [29] Spiegel, M.R.; Stephens, L.J.: Statisitcs, Schaum’s outlines, 3rd ed., McGraw-Hill, New York, 1998 [30] Waldmann,K.H.; Stocker, U.M.: Stochastische Modelle - Eine anwendungsorientierte Einführung, Springer, Berlin-heidelberg, 2004 [31] Taha, H.A.: Operations Research, An Introduction, Boston, 2011 [32] Thomopoulos, N.T.: Fundamentals of queuing theory, Springer, New York, 2012 [33] Wolff, R.W.; Poisson arrivals see time averages, Operations Research, 30 (2), 1982, 223– 231 132