Online Algorithmen Metrische-Task-Systeme: Ein randomisierter polylogarithmisch-kompetitiver Algorithmus Ausarbeitung im Rahmen des Seminars „Online Algorithmen“ von Leyla Didem Yesilirmak Betreuer: Prof. Dr. Ro. Klein Annette Ebbers-Baumann Ansgar Grüne 1 1. Metrisches Task System Ein metrischer Raum M ist ein Paar (S, d), wobei S eine Menge von Punkten und d: S x S → R+ eine metrische Abstandsfunktion ist, die folgendes erfüllt: i) ii) iii) iv) d (i, j) > 0 , ∀ i ≠ j , wobei i, j ∈ S (positiv definit) d (i, i) = 0 , ∀ i ∈ S (Reflexivität) d (i, j) + d (j, k) ≥ d (i, k) , ∀ i, j, k ∈ S (∆-Ungleichung) d (i, j) = d (j, i) ∀ i, j ∈ S (Symmetrie) Um zu verstehen wie ein metrischer Raum zum Abstrahieren von Online Problemen verwendet wird, betrachtet man S als eine Menge von allen möglichen Konfigurationen, in denen sich ein Online Spieler überhaupt befinden kann. Die Funktion d ist eine Übergangskostenfunktion, die die Kosten der Übergänge zwischen den Konfigurationen misst. Man nimmt an, dass ein endlicher metrischer Raum verwendet wird, um Konfigurationen und die Übergangskosten zwischen diesen Konfigurationen zu modellieren. Anfragen sind als abstrakte Anforderungen modelliert, die vom Spieler bearbeitet werden sollen. Eine Anforderung r ist definiert als ein Kostenvektor, r = < r(1), r(2), … , r(N) >, wobei für jedes i, r(i) ∈ R+ ∪ { ∞ } die Bearbeitungskosten der Anforderung im Zustand i sind. Ein Metrisches Task System (MTS) ist ein Paar (M ,R ) , wobei M ein metrischer Raum und R eine Menge von erlaubten Anforderungen ist. Im Zusammenhang mit Task Systemen kann man immer annehmen, dass min i ≠ j d (i, j) = 1 ist. Dies erreicht man, indem man die Bearbeitungs- und Übergangskosten skaliert. Man betrachtet einen Spieler (oder einen Algorithmus), der im Anfangszustand s0 steht und eine endliche Sequenz von Anforderungen σ = r1, r2, … , rn erhält, die eine nach der anderen bearbeitet werden sollen. Sobald sich der Spieler, vom Zustand s, der Anforderung r nähert, wechselt er als erstes den Zustand zu einem beliebigen Zustand q (oder bleibt im gleichen Zustand). Dies verursacht Übergangskosten von d(s, q). Dann bearbeitet der Spieler die Anforderung im Zustand q, was zu Bearbeitungskosten von r(q) führt. ALG [i] ∈ S bezeichnet den Zustand, in welchem die i- te Anforderung von einem Algorithmus ALG bearbeitet wird. Man setzt ALG[0] = s0. Die Gesamtkosten, die von ALG bei der Bearbeitung der Anforderungssequenz σ anfallen, sind: n ALG(σ) = ∑ n d ( ALG[i-1], ALG[i] ) + i =1 ∑ ri ( ALG[i] ) i =1 gesamte Übergangskosten gesamte Bearbeitungskosten In dieser Formulierung kann der Spieler im Prinzip jede Anforderung von jedem Zustand aus bearbeiten. Im besonderen kann der Spieler für immer im gleichen Zustand bleiben. 2 2. Randomisierter polylogarithmisch-kompetitiver Algorithmus für beliebige MTS Für den uniformen metrischen Raum führt die Randomisierung (gegen den vergesslichen Gegenspieler) zu einer bedeutenden Reduzierung des kompetitiven Faktors von 2N-1 auf 2·HN . (mit HN := 1 + 1/2 + 1/3 + …+ 1/N ) (Dabei wird ein MTS uniform genannt, wenn ∀ i ≠ j gilt: d ( i, j ) = 1 .) Diese Tatsache hatte zur Folge, dass man sich Gedanken darüber gemacht hat, ob ein O(log N)- kompetitiver randomisierter MTS-Algorithmus für jeden metrischen Raum existiert. Leider wurde bis heute keine abschließende Antwort gefunden. Aber es wurde schon bewiesen, dass es für jeden metrischen Raum einen polylogarithmisch(d.h. log O(1) N) kompetitiven Algorithmus für jeden Raum gibt. Eine Idee, die notwendig ist, um dieses Resultat zu erreichen, wurde ursprünglich im Kontext von k-Server Problemen beobachtet. Anstatt in einem gegebenen metrischen Raum M zu arbeiten, könnte es vorteilhaft sein, M in einen „schöneren“ Raum einzubetten. Wenn diese Einbettung die Metrik nicht zu viel verzerrt, dann würde ein „guter“ kompetitiver Faktor für einen „schönen“ Raum einen guten kompetitiven Faktor des gegebenen Raumes implizieren. Formal: Seien M = (S, d) und M~ = (S,d~) zwei Metriken, die auf der gleichen Menge von Punkten S definiert sind. Definition: M~ α -approximiert M deterministisch, wenn ∀ u, v ∈ S gilt : d (u, v) ≤ d~ (u, v) ≤ α · d (u, v) Theorem 1: Seien M = (S, d) und M~ = (S, d~) zwei metrische Räume, die auf der gleichen Menge von Punkten definiert sind. Angenommen M~ α -approximiert M. Wenn es einen deterministischen bzw. randomisierten c-kompetitiven MTS-Algorithmus für (S, d~) gibt, dann existiert ein deterministischer bzw. randomisierter c · α -kompetitiver MTS-Algorithmus für (S, d). Beweis: Sei ALG~ ein c-kompetitiver Algorithmus auf M~ (ebenso ALG auf M ) Sei OPT~ ein optimaler offline-Algorithmus auf M~ (ebenso OPT auf M ) und OFF~ entspricht OPT, aber auf M~ . Sei ALGB die Bearbeitungskosten und ALGM die Übergangskosten von ALG. E[ALG] = E[ALGB + ALGM] (Gesamtkosten von ALG sind in Bearbeitungs- und Übergangskosten aufteilbar ) ≤ E[ALGB~ + ALGM~] ( d ≤ d~ ) = E[ALG~] ≤ c·E[OPT~] ( ALG~ ist c-kompetitiv ) 3 ≤ c·E[OFF~] (wegen Optimalitätsbedingung kann OFF nicht besser sein als OPT) = c· E[OFFB~ + OFFM~] ≤ c· E[OPTB + α · OPTM] (d~ ≤ α ·d) ≤ c· α · E[OPT] Man kann dieses Konzept der deterministischen Approximation auf ein Konzept der probabilistischen Approximation verallgemeinern. Sei H = ( S, d(x) ) eine Klasse von metrischen Räumen, die alle auf der gleichen Menge von Punkten S des metrischen Raumes M = (S, d) definiert sind. Man sagt, dass die Klasse H den metrischen Raum M probabilistisch λ - approximiert , wenn es eine Wahrscheinlichkeitsverteilung D(x) auf H gibt, so dass ∀ u, v ∈ S gilt : i) d(u, v) ≤ d(x)(u, v) ii) ED(x)[ d(x)(u, v)] ≤ λ · d(u, v) Theorem 1 kann leicht auf eine probabilistische Approximation erweitert werden, um das folgende Theorem zu erhalten: Theorem 2: Sei (S, d) ein metrischer Raum und angenommen S = ( S, d(x) ) α -approximiert (S, d) probabilistisch. Wenn ein deterministischer (oder randomisierter) c-kompetitiver MTSAlgorithmus für jedes (S, d~) existiert, dann existiert auch ein randomisierter c· α kompetitiver MTS-Algorithmus für (S, d). Beweis: Analog zu Theorem 1 Wir definieren eine Klasse H von hierarchisch zerlegbaren Räumen anhand zweier informell definierter Eigenschaften: i) ii) Es gibt einen randomisierten (in N) polylogarithmisch-kompetitiven MTSAlgorithmus für jeden N-Punkte Raum T ∈ H . Sei M ein beliebiger metrischer Raum. M kann probabilistisch durch H innerhalb eines polylogarithmischen Faktors approximiert werden. Aus den obigen Eigenschaften und Theorem 2 folgt, dass es einen polylogarithmischkompetitiven Algorithmus für jedes MTS gibt. Der Beweis dieses Ergebnisses ist wesentlich. Bartal, Blum, Burch und Tomkins und Bartal liefern komplette Beweise für die gewünschten Eigenschaften von H . Diese Beweise werden hier nur skizziert. 4 Die Besprechung der ersten Eigenschaft wird auf den Fall begrenzt, bei dem der Durchmesser des Raumes polynomiell in N ist. Der Durchmesser diam(M ) eines metrischen Raumes M = (S, d) ist max{d(u, v) | u, v ∈ S}. Um die erste Eigenschaft i) und die Definition vom passenden H zu motivieren, betrachten wir den Fall, bei dem ein metrischer Raum M in b metrische Unterräume M 1,…, M b zerlegt ist, die paarweise durch einen Abstand D getrennt sind, der ziemlich groß im Vergleich zum Durchmesser des Unterraumes ist. Falls ci einen erreichbaren kompetitiven Faktor für MTS auf dem Unterraum M i bezeichnet, könnte man einen kompetitiven Faktor von c = O(maxi {ci}· log b ) auf dem gesamten Raum erreichen. Der Grund ist, dass jeder Unterraum M i als ein Knoten in einem uniformen metrischen Raum betrachtet werden kann und dass ein uniformer MTS-Algorithmus benutzt werden kann, um sich randomisiert zwischen verschiedenen Unterräumen zu bewegen. Wenn man sich in einem Unterraum M i befindet, bleibt man in diesem Unterraum und benutzt den ci - kompetitiven Algorithmus bis ein optimaler Offline-Algorithmus die Kosten D verursacht. Allerdings muss er sich auch im gleichen Unterraum befinden. Anders gesagt: Man leitet das angegebene Verhältnis ab, indem man den Online Algorithmus „unfair“ ci mal den Aufgabenvektor belasten lässt, während er Aufgaben im Unterraum M i bearbeitet. Man will aber noch bessere Resultate erreichen. Angenommen, man erreicht für den obigen Raum M einen kompetitiven Faktor von max {ci} + O( log b ) (natürlich könnte man nicht einfach im gleichem Unterraum bleiben, um so einen guten kompetitiven Faktor zu erreichen, bis er genügende Bearbeitungskosten erreicht hat.) Angenommen, man hätte einen metrischen Raum, der rekursiv in eine „balancierte“ Ansammlung von Unterräumen zerlegt werden kann, die durch einen relativ großen Abstand voneinander getrennt sind. Die Tiefe dieser Zerlegung ist logarithmisch in N. Sei C(N) ein Faktor für einen Raum mit N Zuständen. Man bekommt C(N) ≤ C( N ) + O (log b), und das impliziert C(N) = O(log N). b Dieses informelle Argument führt zur folgenden Definition der Klasse H von h-hierarchisch getrennten Baum-Räumen. Der Parameter h misst die relative Größe der Trennung zwischen den Unterräumen. Die Punkte in diesen konstruierten metrischen Räumen sind die Blätter in einem Baum, deren Gewichte an den Kanten aufgezeichnet sind, und die verwendete Metrik ist die Metrik von der Länge eines gewichteten ungerichteten Baumpfades, der zwischen diesen Blättern induziert ist. Jeder so konstruierte Raum T heißt h-HST (hierarchical seperated tree spaces). Man benutzt aber hier T, um sowohl den metrischen Raum als auch den gewichteten Baum, der den metrischen Raum induziert, zu bezeichnen. Induktive Definition von h-HST: i) ii) Jeder Ein-Knoten-Raum ist ein h-HST. Sei b ≥ 1 und seien T1,…, Tb h-HSTs. Sei D eine obere Schranke für die Durchmesser der Unterräume Ti . Für jedes W ≥ h · D konstruiere einen Baum T, der aus der Wurzel und b Unterbäumen T1,…, Tb besteht. Sei W das Gewicht je Kante, die von der Wurzel des Baumes zur Wurzel eines Unterbaumes führt. Dann ist der Raum, der von den Blättern von T mit der Metrik der gewichteten Pfadlängen induziert ist, auch ein h-HST. 5 Es ist klar, dass der Durchmesser D` von einem h-HST T mindestens h mal größer ist, als der Durchmesser von jedem seiner Unterräume, und die Baumtiefe von T höchstens logh D` beträgt. In den nächsten zwei Teilkapiteln wird gezeigt, dass h-HSTs die Eigenschaften erfüllen, die dafür notwendig sind, um die polylogarithmisch-kompetitive Schranke für alle metrischen Räume zu erreichen. 2.1 Ein MTS-Algorithmus für hierarchisch aufgeteilte Räume Um einen kompetitiven Algorithmus für h-HSTs zu konstruieren, ist es hilfreich randomisierte Algorithmen so anzusehen, dass sie Wahrscheinlichkeitsmengen im folgenden Sinn zwischen Zuständen hin- und herschieben. Lemma 1: Wenn man gegen einen vergesslichen Gegenspieler spielt, kann man jeden behavioristisch randomisierten MTS-Algorithmus ALG folgendermaßen betrachten: ALG unterhält eine Wahrscheinlichkeitsverteilung (p1 , …, pN) auf den Punkten im metrischen Raum. (ALG kann auch ein Gedächtnis haben und seine Entscheidungen sowohl auf der Wahrscheinlichkeitsverteilung als auch auf dem Gedächtnis basierend treffen.) Gegeben sei eine Anforderung r = < r(1), r(2), … , r(N) >. ALG darf seine Verteilung in <p`1, … , p`N> umändern. Für jede p~ Wahrscheinlichkeitseinheiten, die um δ verschoben werden, bezahlt ALG Übergangskosten von p~ · δ . Um die gesamte Anforderung bearbeiten zu können, hat ALG die erwarteten n Bearbeitungskosten von ∑ p`i r(i) . i =1 Beweis: Es ist klar, dass für jeden behavioristisch randomisierten Algorithmus und für jede Anfragefolge die Wahrscheinlichkeitsverteilung aus dem Lemma wohldefiniert ist. Um zu einem behavioristischen Algorithmus zurückzukommen, muss man nur Schritt für Schritt von einem Zustand in den anderen gehen, um zu zeigen, wie man den MTS-Schritt auf einer Anforderung definieren kann, um damit die erwünschte Bewegung der Wahrscheinlichkeitsmasse zu erreichen. Es wird das unfaire MTS-Problem dargestellt, das die Verallgemeinerung des standardisierten uniformen Task System Problems ist. Diese Verallgemeinerung liefert eine gute Abstraktion für das Ziel, einen randomisierten Algorithmus für jeden h-HST zu konstruieren. Sei M ein uniformer b –Punkte Raum mit d als paarweiser Abstand zwischen den Punkten. Zum i-ten Punkt gehört ein Kostenfaktor ci und dem Abstand d wird der Distanzfaktor s zugewiesen. 6 Wenn ein randomisierter Online Algorithmus die Anforderung (i ; τ ) dadurch bearbeitet, dass er seine Wahrscheinlichkeitsverteilung im Zustand i von pi auf p`i reduziert, bezahlt er den Gesamtpreis von p`i ci τ + ( pi - p`i ) · sd . Der Offline Spieler bezahlt τ , falls er (i; τ ) im Zustand i bearbeitet, oder er bezahlt d, falls er aus dem Zustand i zu irgendeinem anderen Zustand i ≠ j übergeht. Die Kostenfaktoren { ci } wurden eingeführt, um den Algorithmus für das unfaire Problem rekursiv anzuwenden. Die Punkte von M werden dann zu Unterräumen von h-HST, und zwar mit den Faktoren { ci }. Der Distanzfaktor wurde eingeführt, um die Tatsache zu kompensieren, dass der Kostenfaktor in jedem Unterraum die amortisierten Kosten und nicht die worst-case Kosten pro Anfrage repräsentiert. Man muss auch die Tatsache kompensieren, dass der Abstand zwischen den Punkten in verschiedenen Unterräumen nicht einheitlich ist. Sei wi( σ ) die work function, die die optimalen Offline-Kosten für den Fall enthält, in dem man im Zustand i nach der Bearbeitung von σ landet. (Man schreibt auch nur wi, da der Kontext klar ist.) Jetzt kann man einen randomisierten kompetitiven Algorithmus mit dem Parameter i für das unfaire MTS-Problem definieren. Algorithmus W-BALANCEt : Sei t eine ungerade positive Zahl. Der Algorithmus W-BALANCEt setzt seine Wahrscheinlichkeitsverteilung < p1, … , pb > so ein, dass folgendes gilt: 1 1 pj = + b b b ⎛ wi − w j ⎜⎜ ⎝ d ∑ i =1 t ⎞ ⎟⎟ . ⎠ Lemma 2: Für jede ungerade positive Zahl t ist der Vektor ( p1 , … , pN ), der durch den Algorithmus W-BALANCEt definiert ist, eine Wahrscheinlichkeitsverteilung. Das heißt, nach der Bearbeitung jeder Anforderung gilt: N ∑ 0 ≤ pi ≤ 1 und pi = 1 i =1 Beweis: N Es ist zu zeigen: ∑ pj = 1 (durch Einsetzen der Definition von pj erhält man folgendes) i =1 b ⇔ ∑ j =1 b ⇔ ∑ j =1 1 1 ( + b b 1 1 + b b b ⎛ wi − w j ⎜⎜ ⎝ d ∑ i =1 b b j =1 i =1 ∑ ∑ t ⎞ ⎟⎟ ) = 1 ⎠ ⎛ wi − w j ⎜⎜ ⎝ d t ⎞ ⎟⎟ = 1 ⎠ 7 1 1 + ·0=1 b b b ⇔ ∑ j =1 Da t ungerade ist, wird das Vorzeichen der Summanden nicht geändert und somit können sich positive mit negativen Summanden aufheben. Die Summanden, die Null werden, sind gerade diejenigen Summanden mit Index i=j. Die restlichen Summanden heben sich gegenseitig auf, da der Zähler mit vertauschten Vorzeichen einmal positiv und negativ (d.h. wi-wj und wj-wi ) auftaucht. Dies ist nur möglich, weil t ungerade ist. Somit wird der obige Ausdruck Null. 1 =1 b b ⇔ ∑ j =1 ⇔ b· 1 =1 b es bleibt noch folgendes zu zeigen: 0 ≤ pi ≤ 1 zu zeigen: pi ≤ 1 für i ≠ j : wi ≤ wj + d ==> wi - wj ≤ d und für i = j : wi - wj = 0 1 1 pj = + b b ∑ 1 1 + = b b ⎛ wi − wi ⎞ ⎜ ⎟ ⎝ d ⎠ b i =1 ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ t t + 1 b ∑ i≠ j ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ t 1 +1 ∑ 1 ≤ b b i≠ j ≤ 1 b b −1 + b = 1+ b −1 b = 1 zu zeigen pi ≥ 0 Am Anfang gilt : ∀ i: wi = 0, also pi = 1 . Also gilt am Anfang ∀ j: pj ≥ 0. b Nun stellt man sich die Anfragebearbeitung stetig vor. Sobald ein pj = 0 ist, lohnt es sich nicht j anzufragen, da ALG dadurch keine Kosten hat. Wird nun ein j angefragt, dann sinkt das entsprechende pj stetig immer weiter bis 0 erreicht ist, denn wj steigt solange bis es ein i gibt, so dass wj = wi + d gilt. Dann aber ist pj ≤ 0 (siehe Beweis Lemma 3). 8 Ist aber pj = 0 erreicht, so wird j nicht mehr angefragt (s.o.), also bleibt pj ≥ 0. Wird ein Element i≠j angefragt, so bleibt wj gleich und wi kann nur steigen (oder gleich bleiben), also kann pj nicht fallen. Beachte, dass W-BALANCEt seine Wahrscheinlichkeitsverteilung als Funktion ausschließlich von {wi } abhängig wählt. Man nennt solch einen Algorithmus einen w-basierten Algorithmus. Falls t = 1 gilt, ist W-BALANCEt vielleicht der natürlichste wbasierte Algorithmus. Größere Werte von t führen dazu, dass W-BALANCEt mit größerer Wahrscheinlichkeit zu Zuständen mit kleineren w-Werten verschoben wird. Man sagt, dass ein randomisierter Online Algorithmus vernünftig ist, falls für alle Zustände i ≠ j, wi = wj + d, pi = 0 impliziert . Ein w-basierter Algorithmus muss vernünftig sein, falls er kompetitiv sein soll. Sonst würde der Gegner immer weiter die Anforderung <i; τ > stellen, die den Wert von wi nicht ändert. Lemma 3: Für jede ungerade positive Zahl t ist der Algorithmus W-BALANCEt vernünftig. Beweis: Angenommen: wj = wk + d b ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ in der Definition von pj. Da wi ≤ wk + d = wj für jedes i Betrachte die Summe i =1 ⎝ d ⎠ gilt, ist jeder Term in dieser Summe höchstens 0. Außerdem ist der k-te Term von dieser Summe genau -1, da die Gleichung wj = wk + d gilt. Deswegen ist die Summe höchstens -1 und pj ist höchstens 0. Da nach Lemma 2 die Ungleichung 0 ≤ pj ≤ 1 gelten muss, ist pj genau 0. ∑ t Ein vernünftiger w-basierter Algorithmus wie W-BALANCEt erlaubt die folgende Vereinfachung der Natur des Gegners. Lemma 4: Für einen vernünftigen w-basierten Algorithmus, kann man annehmen, dass nach jeder Anforderung < i; τ >, wi um τ wächst. Beweisidee: Man erhält eine Anforderung (i, τ ) für das wi um δ < τ erhöht wird. Dies kann nur bedeuten, dass für ein j, wi = wj + d - δ vor der Anforderung und wi wird zu wi = wj + d - δ + δ = wj + d nach der Anforderung. 9 Aber die Anforderung (i, δ ) würde das gleiche Ergebnis auslösen und solange der Algorithmus vernünftig ist, gilt nach der Bearbeitung pi = 0. Dies widerspricht der Tatsache, dass (i, τ ) nicht angefragt wird, wenn pi = 0 ist. Theorem 3: Betrachte das unfaire MTS-Problem mit c1 ≥ c2 ≥ … ≥ cb . Dann ist der Algorithmus W-BALANCEt ( c1 + 2sb1/ t ·t ) – kompetitiv. Insbesondere, wenn t = log b ist, dann ist W-BALANCEt ( c1 + O( log b) ) – kompetitiv. Beweis: Sei Φ eine nicht negativ–wertige Potentialfunktion. Man benutzt hier die Methode der amortisierten Kosten und somit reicht es zu zeigen, dass für jede Anfrage r folgendes gilt: ALG(r ) + ∆ Φ ≤ c· ∆(OPT) = c·∆( min {wi}) i Wie üblich bezeichnet ∆ Φ die Änderung im Potential, ähnlich bezeichnet ∆(OPT) die Änderung im Wert von OPT für die Bearbeitung der Anfrage r. Da | wi – wj | ≤ d für alle i und _ j gilt, reicht es für ALG gegen jeden beliebigen gewichteten Mittelwert w von {wi} zu konkurrieren, als mit diesem min{wi}. _ Somit muss man zeigen, dass folgendes gilt: ALG(r ) + ∆ Φ ≤ c· ∆( w ). Die Potentialfunktion Φ = Φ l + Φ m, die man hier benutzt, ist die Summe von zwei Unterfunktionen, wobei Φ l die lokalen Bearbeitungskosten für jeden Knoten amortisiert und Φ m die Bewegungskosten amortisiert. Sei r = <k ; τ > eine elementare Anforderung und nehmen wir an, dass W-BALANCEt als Antwort auf diese Anforderung seine Masse auf dem Zustand k von pk auf p`k reduziert. Da W-BALANCEt vernünftig ist, erhöht sich wk nach Bearbeitung von <k ; τ > um τ , und wi _ bleibt unverändert für i ≠ k. Somit gilt ∆ w = τ . Wenn amortisierte Bearbeitungs- und b Bewegungskosten aufsummiert werden, reicht es folgendes zu zeigen: _ cτ i) p´kck τ + ∆ Φ l ≤ 1 = c1· ∆ w b ii) ( pk – p`k )sd + ∆ Φ m ≤ 2sb1/ t · t · τ b _ = ( 2sb1/ t ·t) ·∆ w Man erreicht i) durch folgende Definition: b b t +1 ⎛ wi − w j ⎞ ∂Φ l 1⎞ c1d ⎛ ⎜⎜ ⎟⎟ , so dass Φ l := = – ⎜ pk − ⎟c1 . b⎠ 2(t + 1)b i =1 j =1 ∂wk ⎝ ⎝ d ⎠ Angenommen, dass wk = y vor der Anfrage gilt. Da pk als Funktion von wk fällt, hat man ∑ ∑ p`kck τ + ∆ Φ l ≤ y +τ ∫ y ⎛ ∂Φ l ⎜⎜ pk ck + ∂wk ⎝ ⎞ 1⎞ ⎛ ⎟⎟ dwk ≤ pkck τ – ⎜ pk − ⎟ c1 τ ≤ c1 τ . b⎠ ⎝ b ⎠ 10 Bedingung ii) kann durch die folgende Definition erreicht werden: Definiere: sd Φm= 2b b b wi − w j i =1 j =1 d ∑ ∑ y +τ ( pk – p`k)* sd + ∆ Φ m ≤ ∫ y t . ⎛ ∂pk ∂Φ m ⎞ ⎜⎜ ⎟⎟ · dwk sd + ∂ ∂ w w k ⎠ ⎝ k Man will zeigen, dass der Integrand ∂pk st sd = Man hat ∂wk b i ≠k t −1 st ⎛ wk − wi ⎞ ⎜ ⎟ b ⎝ d ⎠ wi < wk ∂Φ m 2 st ∂pk sd + = ∂wk ∂wk b ∑ wi < wk 2 sb t als obere Schranke hat. b ⎛ wi − wk ⎞ ⎟ , und ⎜ ⎝ d ⎠ t −1 ∑ ∂Φ m st = ∂wk b ∑ 1 t t −1 ∑ wi > wk ⎛ wi − wk ⎞ ⎜ ⎟ , so dass folgendes gilt: ⎝ d ⎠ t −1 2 st ⎛ wk − wi ⎞ ⎜ ⎟ ≤ b ⎝ d ⎠ ∑ ⎛ wu − wi ⎞ ⎜ ⎟ ⎝ d ⎠ i ≠u t −1 Sei dabei wu = max{wi } i Man bemerkt, dass ∑ i ≠u ⎛ wu − wi ⎞ ⎜ ⎟ ≤ 1 (*) (siehe Beweis von Lemma 2) und dass jeder Term dieser Summe ⎝ d ⎠ t n nicht negativ ist. Den maximalen Wert einer Summe ∑ ait −1 für 0 ≤ ai ≤ 1 und i =1 bekommt man, wenn alle Terme ai = ⎛ wu − wi ⎞ ⎜ ⎟ = ⎝ d ⎠ t t n ∑a t i ≤1 i =1 1 gleich sind, d.h. wenn gilt: n 1 . (b − 1) Daraus folgt: ∑ i ≠u t −1 1 1 ⎛ wu − wi ⎞ ⎜ ⎟ ≤ (b − 1)t ≤ b t . ⎝ d ⎠ Theorem 3 wird jetzt rekursiv angewendet, um einen Algorithmus für h-HST`s mit polynomiellem Durchmesser abzuleiten. Man ersetzt jeden Punkt im Raum von unfairen MTS-Problemen durch einen kleineren h-HST Unterraum. Man hat mit technischen 11 Problemen zu kämpfen. Erstens benutzt man das Kostenverhältnis ci , um die relativen Kosten im i-ten Unterraum zu abstrahieren. Diese Abstraktion muss mit der Tatsache in Einklang gebracht werden, dass man in jedem Unterraum amortisierte Kosten und nicht den worst-case pro Anfrage betrachtet. Folgendes Lemma zeigt, wie man das Abstandsverhältnis und die Grenzen auf den Potentialen benutzt, um diese Amortisierung zu kompensieren. Lemma 5 (ohne Beweis): Seien {Mi} für 1≤ i ≤ b die Unterräume, so dass für jedes Mi ein ci –kompetitiv randomisierter Algorithmus ALGi existiert, dessen Komplexität durch eine Potentialfunktion Φ i mit Φ i ≤ Φ max bewiesen werden kann. Weiterhin nimmt man an, dass jeder solcher kompetitive ^ Faktor ci dadurch erreicht wird, dass man gegen irgendeinen gewichteten Mittelwert wi von work function-Werten auf dem Raum Mi konkurriert. Angenommen, es gäbe einen ckompetitiven randomisierten Algorithmus ALG, der irgendeine Potentialfunktion Φ für ein unfaires MTS Problem mit den Kostenfaktoren {ci } , Abstand d und dem Abstandsfaktor s= sˆ + Φ max , benutzt. d ^ Betrachte ein modifiziertes unfaires Problem auf dem Raum M , der dadurch entsteht, dass man den i-ten Punkt durch den Unterraum Mi ersetzt. In einem modifizierten unfairen ′ ′ Problem kostet die Anfrage (i; τ ) auf dem Zustand in Mi p`i (ci τ - ( Φ i - Φ i )), wobei Φ i das i-te Potential nach der Bearbeitung der Anfrage ist. Dann existiert ein c-kompetitiver Algorithmus ALG ′ für das modifizierte ^ unfaire Problem mit dem Abstandsfaktor s ; weiter kann die kompetitive Schranke durch die ^ Potentialfunktion Φ = b ∑ j =1 pj Φ i ≤ Φ + Φ max bewiesen werden, die gegen den Mittelwert ^ von wi konkurriert . Und das ist der gewichtete Mittelwert von work function-Werten auf dem Raum M. Lemma 5 zeigt die Notwendigkeit, das Potential im Theorem 3 zu begrenzen. Lemma 6: ⎛ c ⎞ Sei Φ die Potentialfunktion aus Theorem 3. Dann gilt Φ ≤ ⎜ 1 ⎟d + sd . ⎝ t + 1⎠ Beweis: Um die obere Schranke zu zeigen, benutzen wir die Tatsache, dass folgendes gilt: Φ = Φ l + Φ m . Und wa ist das Maximum aller wi `s. 12 c1d = (t + 1)b c1d ≤ (t + 1)b cd ≤ 1 (t + 1) b i =1 j =1 ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ b ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ d ⎝ ⎠ ∑ ∑ i =1 w j < wi b i =1 j:w j < wi ⎛ wa − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ j j t +1 t +1 t +1 ⎛ wa − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ ∑ t +1 ⎛ wa − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ ∑ ∑ ∑ cd ≤ 1 (t + 1) ≤ b ∑ ∑ c1d Φl= 2(t + 1)b t (1) c1d (t + 1) (2) Die Ungleichung (1) folgt daraus, dass die folgende Ungleichung gilt : wa ≤ wj+ d. Jeder Term der Summe ist höchstens 1, deswegen erhöht sich der Wert des Ausdruckes, wenn der Exponent reduziert wird. Die Ungleichung (2) erhält man durch die Ungleichung (*), die im Beweis von Theorem 3 benutzt wird. sd Φm= 2b sd = b sd ≤ b ≤ sd b b wi − w j i =1 j =1 d ∑ ∑ ∑ ∑ w j < wi i ∑ ∑ w j < wi i ∑ j t ⎛ wi − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ t ⎛ wa − w j ⎞ ⎜⎜ ⎟⎟ d ⎝ ⎠ ⎛ wa − w j ⎞ ⎜⎜ ⎟⎟ ⎝ d ⎠ t t ≤ sd Daraus folgt dann: Φ= Φl+ Φm ≤ c1d + sd . (t + 1) Es ist jetzt klar, dass die Wahl von t auf zwei Arten begrenzt ist. 13 Erstens muss sie entsprechend gesetzt werden, um einen genügend kleinen kompetitiven Faktor in Theorem 4 zu erreichen. Zweitens muss sie eine Grenze auf dem Potential liefern, der klein genug ist, um die rekursive Anwendung des Algorithmus zu ermöglichen. Ein paar andere technische Hürden müssen bewältigt werden, bevor man den Algorithmus W-BALANCEt rekursiv anwenden kann, um den kompetitiven Algorithmus für h-HST Räume zu bekommen. Wir haben keinen einheitlichen Abstand zwischen den Räumen; 1 sondern der Durchmesser von jedem Unterraum ist höchstens vom Durchmesser des h ganzen Raumes. Man braucht auch eine strenge Version von der Vernünftigkeitseigenschaft. Der Online Algorithmus muss hierarchisch vernünftig sein. Dies bedeutet, dass sobald wu = wv + d( u, v ), für u und v in verschiedenen Unterräumen gilt, der Algorithmus jedem Zustand, der sich im gleichen Raum wie u befindet, eine Nullwahrscheinlichkeit zuweist. Damit kann man ein Kompetitivitätsresultat für h-HST`s erreichen. Theorem 4: Sei M ein N-Punkte h-HST von Tiefe l mit h > 9l . Für t ≥ log N, existiert ein randomisierter Algorithmus ALG (d.h. eine schlaue rekursive Anwendung von dem Algorithmus W-BALANCEt ) , so dass R (ALG) ≤ 9lt + 1 = O(log N logh D). Weiterhin benutzt der Beweis der Kompetitivität die Potentialfunktion Φ , die nach oben durch 9l·D begrenzt ist. Beweis: Der Beweis erfolgt per Induktion über die Tiefe l. Die Basis (l =0) ist trivial. (Es gibt nur einen Knoten. Folglich ist jeder Algorithmus 1kompetitiv und als Potentialfunktion kann Φ = 0 verwendet werden) Betrachte einen h-HST von der Tiefe l und den Durchmesser D. Die Tiefe von jedem D . Nach Induktionsannahme Unterraum ist höchstens l-1 und der Durchmesser ist höchstens h gibt es einen 9(l-1)+t kompetitiven Algorithmus durch eine Potentialfunktion, die durch 9(l − 1) D begrenzt ist. h h−2 Man betrachtet das modifizierte unfaire MTS Problem mit d = D , dem Kostenfaktor h h . Wobei ci die kompetitiven 9(l-1)t + 1 ≥ c1 ≥ c2 ≥ … ≥ cb und dem Abstandsfaktor ŝ = h−2 Faktoren der Algorithmen auf den Unterräumen ist. Dieser Parameter sichert, dass der maximale Abstand zwischen zwei beliebigen Punkten D = ŝ d beträgt (d.h. von dem Online Spieler wird nicht zu wenig verlangt) und der Offline Gegner bezahlt d (ein bisschen weniger als nötig für die Bewegungen zwischen den Unterräumen). Außerdem ist es nicht schwer zu zeigen, dass der Algorithmus W-BALANCEt hierarchisch vernünftig für dieses Setzen des Parameters ist. Laut Lemma 5 ist das maximale Potential, das 14 für jeden Unterraum benötigt wird 9(l − 1) 9 D ≤ d, und man kann s = ŝ + 1 ≤ im unfairen 4 h Problem benutzen. Jetzt wird man den kompetitiven Faktor berechnen und das Potential dadurch begrenzen, dass 1 t man Theorem 3, Lemma 5 & 6 benutzt. Da t ≥ log N ≥ log b gilt, hat man b ≤ 2, und der Kompetitivfaktor erfüllt folgendes: 9 c1 + 2sb1/t t ≤ 9(l-1)t +1 +2* * 2t ≤ 9lt + 1 . 4 Das Potential ist durch folgendes begrenzt: 9(l − 1) ⎛ c1 ⎞ ⎡ 9(l − 1)t + 1 9 ⎤ + s ⎟D + D≤⎢ + + 1⎥ D ≤ 9lD . ⎜ h t +1 4 ⎦ ⎣ ⎝ t +1 ⎠ Das beendet den Induktionsschritt und damit auch den Beweis. Es ist klar, dass die Tiefe l höchstens logh D beträgt. Aber für unbalancierte Bäume ist l nicht durch ein Polynom in log N beschränkt. Man möchte die Abhängigkeit vom Durchmesser des h-HST loswerden. Man braucht ein paar zusätzliche Ideen, um das allgemeine Resultat zu beweisen, das nicht vom Durchmesser D abhängt. Hier folgt das erwünschte Resultat. Theorem 5: (ohne Beweis) Sei M ein beliebiger h-HST mit N Punkten und h = Ω(log 2 N ) . Dann gibt es einen randomisierten Algorithmus ALG, so dass R (ALG ) = O(log2 N) gilt. 2.2 Einbettung beliebiger metrischer Räume in h-HST Jetzt geht man zu einem wichtigen Resultat über, den man braucht, um den polylogarithmisch- kompetitiven Algorithmus für jeden metrischen Raum nachzuweisen. Man muss zeigen, dass jeder metrische Raum probabilistisch durch h-HST`s approximiert werden kann. 15 Theorem 6: Sei M =(S, d) ein metrischer Raum mit N Punkten vom Durchmesser D. Für jedes h ≥ 2, kann M probabilistisch von h-HST`s vom Durchmesser O(D) α -approximiert werden, mit α = (h log N logh(min{N,D})). Korollar 1: Für jeden Raum M mit N Punkten und vom Durchmesser D existiert ein c-kompetitiver MTS ⎛ log 3 N log 2 D ⎞ ⎟⎟ . Algorithmus mit c = O ⎜⎜ 3 ⎝ log log D ⎠ Für jeden Raum M mit N Punkten existiert ein c ′ -kompetitiver Algorithmus mit ⎛ log 6 N ⎞ ′ ⎟⎟ . c = O ⎜⎜ ⎝ log log N ⎠ Beweis: Sei M der gegebene metrische Raum mit N Punkten und Durchmesser D. Dann wird M nach Theorem 6 von h-HST`s mit Durchmesser in O(D) probabilistisch α -apprpoximiert, wobei α in O( (h log N logh(min{N,D}))) liegt und h ≥ 2 beliebig gewählt werden kann. 18 log D Wähle h := log log D Dann gilt für die Tiefe l der h-HST`s nach der Folgerung unter der Definition von h-HST`s: log D log D log D = ≤ ⎛ 18 log D ⎞ log 18 + log log D − log log log D log log D − log log log D ⎟⎟ log⎜⎜ ⎝ log log D ⎠ log D 2 log D h ≤ = = 1 log log D − log log D log log D 9 2 l ≤ log h D = log D = log h Damit ist Theorem 4 anwendbar und man findet auf den einzelnen h-HST`s je einen ckompetitiven Algorithmus mit c ∈ O(log N log h D) Im folgenden werden die additiven und multiplikativen Konstanten weggelassen. Die Ungleichungen sind nur bezüglich der O-Notation zu verstehen. cα ≤ log N log h D ⋅ h log N log h (min{N , D}) = log N 16 log D log(min{N , D}) ⋅ h log N log h log h ≤ log N = log D log D log D log N log D log N ⋅ ⋅ log N ≤ log N ⋅ ⋅ log N log log D log log D log log D ⎛ log D ⎞ log log D ⎛ log D ⎞ ⎟⎟ ⎟⎟ log⎜⎜ log⎜⎜ ⎝ log log D ⎠ ⎝ log log D ⎠ log 3 N log 2 D log 3 log D Beweis von c` geht analog Kurze Skizze des Beweises des Theorems 6: Speziell zeigen wir den Beweis dieses Resultates nur für α = (h log N loghD) skizziert. M kann als metrischer Raum betrachtet werden, der durch einen gewichteten Graphen G=(V, E, d) mit N Knoten und d: E→R+ induziert ist. Man zeigt zuerst, wie man eine probabilistische Partition von G konstruiert, also wie man eine passende Verteilung auf den Partitionen von der Knotenmenge V konstruiert, in welchem jeder Block von jeder Partition kleinen Durchmesser hat und die Wahrscheinlichkeit, dass kleine gewichtete Kanten in keinem Block enthalten sind, ziemlich klein ist. Man kann diese probabilistische Partition rekursiv anwenden, um probabilistische h-HST`s konstruieren zu können, die M approximieren. Einfach gesagt: die Partitionsblöcke werden zu Unterbäumen des h-HST´s. Zuerst muss man eine probabilistische Partition definieren. Sei G ein Graph mit n Knoten. Eine m-probabilistische Partition von G ist eine Wahrscheinlichkeitsverteilung auf Partitionen (V1, … , Vs) der Knotenmenge V, die folgende Bedingungen erfüllt: i) diam(G(Vi)) ≤ m· (2ln N +1), wobei G(Vi) ein Teilgraph ist, der von der Knotenmenge Vi induziert wird. 2d ( e ) ii) max e∈E Pr[e ∉ G(Vi) für jedes i, 1≤ i ≤ s] ≤ m Um Theorem 6 zu beweisen braucht man folgende 2 Lemmata: Lemma 7: Wenn für jeden gewichteten Graphen G vom Durchmesser D und jedes m, 1≤ m ≤ D, eine mprobabilistische Partition von G existiert, dann ist G für alle h ≥ 1 α -probabilistisch durch hHST`s vom Durchmesser O(D) mit α =O(h log N logh D) approximierbar. Beweisskizze: Wir beschreiben zunächst nur die Konstruktion der gewünschten h-HST´s. Man konstruiert sie rekursiv (d.h. per Induktion über V ) . Zu jedem Rekursionsschritt gibt es einen Graphen 17 Gi (G1=G) und einen Parameter mi . Der Basisfall der Rekursion ist Gl = (Vl, El, dl) mit Vl = 1, wobei l die Rekursionstiefe ist. ⎢ diam(Gi ) ⎥ Betrachte den Fall Vi > 1. Setze mi = ⎢ ⎥ . Berechne eine mi –probabilistische ⎣ h( 2 ln N + 1) ⎦ Partition von Gi , die z.B. in Blöcken C1, … , Cs resultiert. Berechne rekursiv h-HST`s für jedes Cj , 1 ≤ j ≤ s, d.h. für jedes j setze Gj+1= Cj und wende induktiv die Konstruktion an. Angenommen die resultierenden h-HST`s sind die Bäume T1 ,… , Ts mit Wurzeln q1, …, qs. Konstruiere T durch das Einfügen eines neuen Wurzelknotens q und Kanten (q,q1),…, (q,qs), wobei das Gewicht jeder Kante (q,qj) auf 1 /2 diam(Gi) gesetzt wird. Die Konstruktion ist somit abgeschlossen. Man kann für die Konstruktion in Lemma 7 folgendes induktiv beweisen: I) II) III) IV) diam(Gi ) , 1 ≤ i ≤ l-1 . h 2 ⎞ ⎛ diam(Ti) ≤ ⎜1 + ⎟ diam(Gi) , 1 ≤ i ≤ l. ⎝ h − 2⎠ dGi(u,v) ≤ dTi(u,v) für alle u, v ∈ Ui . diam (Gi+1) ≤ 2 ⎞ ⎛ E[dTi(u, v) ] ≤ 2(2ln N + 1)h ⎜1 + ⎟ (l-i)dGi(u, v) für alle u, v ∈ Vi. ⎝ h − 2⎠ Beweis: diam(Gi ) ⎢ diam(Gi ) ⎥ I) diam (Gi+1) = diam(G(Ci,j)) ≤ mi ·(2lnNi +1) = ⎢ ·(2lnNi +1) ≤ ⎥ h ⎣ h( 2 ln N + 1) ⎦ 1 2 II) diam(Ti) ≤ 2 ⋅ diam(Gi ) + 2 max diam(Ti , j ) ≤ diam(Gi ) + 2(1 + )diam(Gi +1 ) j 2 h−2 2 ⎞ ⎛ h ⎞ diam(Gi ) ⎛ ≤ diam(Gi ) + 2⎜ = ⎜1 + ⎟ ⎟diam(Gi ) h ⎝ h − 2⎠ ⎝ h − 2⎠ III) Seien u und v im selben Ci,j enthalten, dann gilt d Gi (u , v ) = d Gi , j (u , v) ≤ d Ti , j (u , v ) = d Ti (u , v ) Sind u und v in unterschiedlichen Blöcken Ci,u bzw. Ci,v enthalten, dann gilt 1 d Gi (u , v) ≤ diam (Gi ) = 2 diam (Gi ) ≤ dTi (u , v) 2 18 IV) Sind u und v in einem Ci,j enthalten, dann gilt: 2 )(l-i-1)dGi,j(u,v) h−2 2 )(l-i-1)dGi(u,v) = 2(2ln N + 1) h (1 + h−2 2 ) diam(Gi) Ansonsten wissen wir immerhin dTi(u,v) ≤ (1+ h−2 Also ergibt sich zusammen mit den Wahrscheinlichkeiten für die beiden Fälle: 2d Gi (u , v) 2 2 (1 + )(l-i-1)dGi(u,v) + ) diam(Gi) E[dTi(u,v)] ≤ 2(2ln N + 1) h (1 + h−2 mi h−2 E[dTi(u,v)] =E[dTi,j (u,v)] ≤ 2(2ln N + 1) h (1 + 2 2 2 (1 + )(l-i-1)dGi(u,v) + ) diam(Gi)dGi(u,v) h−2 h−2 ⎢ diam(Gi ) ⎥ ⎢ h(2 ln N + 1) ⎥ ⎣ ⎦ und daraus folgt die obige Aussage. ≤ 2(2ln N + 1) h (1 + Damit konstruiert man für Gl = G probabilistisch T1=T, was 2 ⎞ ⎛ diam(T) ≤ ⎜1 + ⎟ diam(G) = O(diam(G)) erfüllt, und für alle u, v ∈ V, bekommen wir ⎝ h − 2⎠ i) dG(u,v) ≤ dT(u,v) 2 ⎞ ⎛ ii) E[dT(u, v) ] ≤ 2(2ln N + 1)h ⎜1 + ⎟ (l-1)dG(u, v) = O(h log N logh D). ⎝ h − 2⎠ Sei G = (V, E, d) ein gerichteter Graph mit N Knoten. Die gewünschten m-probabilistischen Partitionen werden durch den folgenden probabilistischen randomisierten Algorithmus konstruiert. Algorithmus GRAPH-PARTITIONSm : Gehe sukzessiv in Phasen i= 1,2,… vor, um die Blöcke B1, B2, …, Bs der Partition von G zu konstruieren. In der Phase i bleibt eine Untermenge von Knoten Ui ⊆ V übrig und ein Teilgraph Hi = G(Ui). Man beginnt mit U0 = V und hört auf, wenn Us+1 = 0/ ist. Phase i: Wähle irgendeinen beliebigen Knoten ui ∈ Ui. Wenn die Zusammenhangskomponente von Hi , die ui beinhaltet, einen Durchmesser ≤ 2m· ln N hat, dann sei Bi diese Komponente. Anderenfalls, wähle einen Radius δ , 0 ≤ δ ≤ m· ln N zufällig anhand der kontinuierlichen −z ⎛ N ⎞1 m Verteilung mit der Wahrscheinlichkeitsdichtefunktion q(z) = ⎜ e . ⎟ ⎝ N − 1⎠ m Sei Bi := {u | dHi(vi , u) ≤ δ } und sei Ui+1 := Ui - Bi . 19 Lemma 8: Für jeden gewichteten Graphen G und für jedes m, mit 1≤ m ≤ diam(G), konstruiert der Algorithmus GRAPH-PARTITIONS eine m-probabilistische Partition von G. Beweis: Es ist klar, dass jeder Block Bi einen Durchmesser von höchstens 2m ln N besitzt. Es bleibt zu zeigen, dass Kanten mit kleinem Gewicht höchstwahrscheinlich in demselben Block liegen. Definiere die Metrik d̂ = min {d, m·ln N}. Lege eine Phase i in der GRAPH-PARTITIONS Konstruktion fest. Sei ui ∈ Ui-1 ein Knoten, der gewählt wird, um diese Phase zu beginnen und sei δ ein Radius, der randomisiert gewählt wird. Sei e = (v, w) eine beliebige Kante in E. Wir betrachten die folgende Ereignisse: Ai ist das Ereignis, dass v, w ∈ Ui sind. Daher sind in diesem Fall weder v noch w in einem der bis zu diesem Zeitpunkt konstruierten Blöcke. M iX ist Ereignis, dass d̂ (ui, v) ≤ δ ≤ d̂ (ui, w) gilt, wenn man weiß, dass Ai ii) zutrifft. In diesem Fall liegt v nicht aber w in Bi und die Kante (v, w) kann nicht ganz in einem Block liegen. M iC ist das Ereignis, dass δ < d̂ (ui, v) gilt, wenn man weiß, dass Ai zutrifft. In iii) diesem Fall sind weder v noch w im Block Bi und daher sind sie in der aktiven Knotenmenge Ui+1 für die nächste Phase enthalten. Xi ist das Ereignis, dass die Kante (v, w) in keinem Block Bj , für jedes j ≥ 1, ganz iv) liegt, wenn man weiß, dass Ai eintritt. Man muss eine Schranke auf Pr[X0] angeben, gegeben dass Pr[A0] = 0 gilt. Nach Definition der Ereignisse gilt: i) Pr[Xi] = Pr[ M iX ]+ Pr[ M iC ] Pr[Xi+1] Aus der Definition der Wahrscheinlichkeitsdichtefunktion q, ist es einfach zu überprüfen, dass folgendes gilt: N dˆ ( v, w) ( dˆ ( ui v ) / m ) N ˆ Pr[ M iX ] ≤ e und Pr[ M iC ] = 1 − e −( d ( ui ,v )) / m . N −1 m N −1 Angenommen eine Phase s ist die letzte Phase (d.h. Us = 0/ ), dann ist Pr[Xs] = 0.Wenn man Pr[Xi] in die Rekursionsgleichung einsetzt, ist es einfach per Induktion über s-i die folgende Ungleichung zu zeigen. Die Beschränktheit der Metrik wird mittels ( e − ~ d ( v ,w) m Pr[Xi] ≤ ≥e − m ln n m = e −ln n = 1 benutzt, so dass gilt n N ⎡⎛ i +1 ⎞ 1 ⎛ i + 1 ⎞⎤ dˆ (v, w) − − − 2 1 ⎜ ⎟ ⎜ ⎟ N − 1 ⎢⎣⎝ N − 1⎠ N ⎝ N − 1 ⎠⎥⎦ m N 1 N i +1 N 1 i + 1 ⎤ dˆ (v, w) ⎡ N = ⎢2 − − + ⎣ N − 1 N − 1 N N − 1 N − 1 N − 1 N N − 1⎥⎦ m 20 ) ⎡ 2N − 1 i + 1 ⎛ N 1 ⎞⎤ dˆ (v, w) =⎢ − − ⎜ ⎟⎥ ⎣ N − 1 N − 1 ⎝ N − 1 N − 1 ⎠⎦ m i + 1 ⎞ dˆ (v, w) ⎛ i ⎞ dˆ (v, w) ⎛ ≤ ⎜2 − ≤ ⎜2 − ⎟ ⎟ N − 1⎠ m N − 1⎠ m ⎝ ⎝ 21 3. Zusammenfassung Nach der Einleitung über die Metrik, wurde erst das Metrische Task System eingeführt. Danach erfolgte das Abstrahieren unserer Online Probleme auf ein MTS. Man hat gesehen, dass die Approximation des gegebenen Raumes durch einen schöneren Raum hilft, Aussagen über den kompetitiven Faktor des Ursprungsraumes zu treffen. Und es wurde gezeigt, dass für den uniformen metrischen Raum die Randomisierung (gegen den vergesslichen Gegenspieler) zu einer bedeutenden Reduzierung des kompetitiven Faktors führt. Eines der wesentlichen Ergebnisse ist, dass es einen polylogarithmischen kompetitiven Algorithmus für jedes MTS gibt. Auf diesem Gedanken der Approximation basieren Theorem 1 und 2. Um einen kompetitiven Algorithmus für h-HSTs zu konstruieren, war es hilfreich randomisierte Algorithmen zu betrachten, um die Menge der Wahrscheinlichkeiten, die in und aus den Zuständen fließen, zu kontrollieren. Es wurde das unfaire MTS-Problem dargestellt, das die Verallgemeinerung des standardisierten uniformen Task-System-Problems ist. Diese Verallgemeinerung lieferte eine gute Abstraktion für das Ziel, einen randomisierten Algorithmus für jeden h-HST-Raum zu konstruieren. Man hat mit dem Algorithmus W-BALANCEt einen randomisierten kompetitiven Algorithmus mit dem Parameter t für das unfaire MTS-Problem definiert. Wir haben gezeigt, dass jeder metrische Raum probabilistisch durch h-HST`s approximiert werden kann. Es wurde gezeigt, dass h-HSTs die Eigenschaften erfüllen, die dafür notwendig sind, um die polylogarithmische kompetitive Schranke für alle metrischen Räume zu erreichen. 22 4. Literatur Allan Borodin, Ran El-Yaniv „Online Computation and Competitive Analysis“ Yair Bartal, Avrim Blum, Carl Burch, Andrew Tomkins “A polylog(n)-competitive algorithm for metrical task systems” Yair Bartal “Probabilistic Approximation of Metric Spaces and its Algorithmic Applications” 23