Ein randomisierter polylog. kompetitiver Algorithmus

Werbung
Online Algorithmen
Metrische-Task-Systeme:
Ein randomisierter polylogarithmisch-kompetitiver Algorithmus
Ausarbeitung im Rahmen des Seminars „Online Algorithmen“
von Leyla Didem Yesilirmak
Betreuer:
Prof. Dr. Ro. Klein
Annette Ebbers-Baumann
Ansgar Grüne
1
1. Metrisches Task System
Ein metrischer Raum M ist ein Paar (S, d), wobei S eine Menge von Punkten und
d: S x S → R+ eine metrische Abstandsfunktion ist, die folgendes erfüllt:
i)
ii)
iii)
iv)
d (i, j) > 0 , ∀ i ≠ j , wobei i, j ∈ S (positiv definit)
d (i, i) = 0 , ∀ i ∈ S (Reflexivität)
d (i, j) + d (j, k) ≥ d (i, k) , ∀ i, j, k ∈ S (∆-Ungleichung)
d (i, j) = d (j, i) ∀ i, j ∈ S (Symmetrie)
Um zu verstehen wie ein metrischer Raum zum Abstrahieren von Online Problemen
verwendet wird, betrachtet man S als eine Menge von allen möglichen Konfigurationen, in
denen sich ein Online Spieler überhaupt befinden kann. Die Funktion d ist eine
Übergangskostenfunktion, die die Kosten der Übergänge zwischen den Konfigurationen
misst.
Man nimmt an, dass ein endlicher metrischer Raum verwendet wird, um Konfigurationen und
die Übergangskosten zwischen diesen Konfigurationen zu modellieren.
Anfragen sind als abstrakte Anforderungen modelliert, die vom Spieler bearbeitet werden
sollen.
Eine Anforderung r ist definiert als ein Kostenvektor, r = < r(1), r(2), … , r(N) >, wobei für
jedes i, r(i) ∈ R+ ∪ { ∞ } die Bearbeitungskosten der Anforderung im Zustand i sind.
Ein Metrisches Task System (MTS) ist ein Paar (M ,R ) , wobei M ein metrischer Raum und R
eine Menge von erlaubten Anforderungen ist.
Im Zusammenhang mit Task Systemen kann man immer annehmen, dass min i ≠ j d (i, j) = 1
ist. Dies erreicht man, indem man die Bearbeitungs- und Übergangskosten skaliert.
Man betrachtet einen Spieler (oder einen Algorithmus), der im Anfangszustand s0 steht und
eine endliche Sequenz von Anforderungen σ = r1, r2, … , rn erhält, die eine nach der anderen
bearbeitet werden sollen.
Sobald sich der Spieler, vom Zustand s, der Anforderung r nähert, wechselt er als erstes den
Zustand zu einem beliebigen Zustand q (oder bleibt im gleichen Zustand). Dies verursacht
Übergangskosten von d(s, q). Dann bearbeitet der Spieler die Anforderung im Zustand q, was
zu Bearbeitungskosten von r(q) führt.
ALG [i] ∈ S bezeichnet den Zustand, in welchem die i- te Anforderung von einem
Algorithmus ALG bearbeitet wird. Man setzt ALG[0] = s0.
Die Gesamtkosten, die von ALG bei der Bearbeitung der Anforderungssequenz σ anfallen,
sind:
n
ALG(σ) =
∑
n
d ( ALG[i-1], ALG[i] )
+
i =1
∑
ri ( ALG[i] )
i =1
gesamte Übergangskosten
gesamte Bearbeitungskosten
In dieser Formulierung kann der Spieler im Prinzip jede Anforderung von jedem Zustand aus
bearbeiten. Im besonderen kann der Spieler für immer im gleichen Zustand bleiben.
2
2. Randomisierter polylogarithmisch-kompetitiver Algorithmus für beliebige
MTS
Für den uniformen metrischen Raum führt die Randomisierung (gegen den vergesslichen
Gegenspieler) zu einer bedeutenden Reduzierung des kompetitiven Faktors von 2N-1 auf
2·HN . (mit HN := 1 + 1/2 + 1/3 + …+ 1/N )
(Dabei wird ein MTS uniform genannt, wenn ∀ i ≠ j gilt: d ( i, j ) = 1 .)
Diese Tatsache hatte zur Folge, dass man sich Gedanken darüber gemacht hat, ob ein
O(log N)- kompetitiver randomisierter MTS-Algorithmus für jeden metrischen Raum
existiert. Leider wurde bis heute keine abschließende Antwort gefunden.
Aber es wurde schon bewiesen, dass es für jeden metrischen Raum einen polylogarithmisch(d.h. log O(1) N) kompetitiven Algorithmus für jeden Raum gibt.
Eine Idee, die notwendig ist, um dieses Resultat zu erreichen, wurde ursprünglich im Kontext
von k-Server Problemen beobachtet.
Anstatt in einem gegebenen metrischen Raum M zu arbeiten, könnte es vorteilhaft sein, M in
einen „schöneren“ Raum einzubetten. Wenn diese Einbettung die Metrik nicht zu viel
verzerrt, dann würde ein „guter“ kompetitiver Faktor für einen „schönen“ Raum einen guten
kompetitiven Faktor des gegebenen Raumes implizieren.
Formal:
Seien M = (S, d) und M~ = (S,d~) zwei Metriken, die auf der gleichen Menge von Punkten S
definiert sind.
Definition:
M~ α -approximiert M deterministisch, wenn ∀ u, v ∈ S gilt :
d (u, v) ≤ d~ (u, v) ≤ α · d (u, v)
Theorem 1:
Seien M = (S, d) und M~ = (S, d~) zwei metrische Räume, die auf der gleichen Menge von
Punkten definiert sind. Angenommen M~ α -approximiert M. Wenn es einen deterministischen
bzw. randomisierten c-kompetitiven MTS-Algorithmus für (S, d~) gibt, dann existiert ein
deterministischer bzw. randomisierter c · α -kompetitiver MTS-Algorithmus für (S, d).
Beweis:
Sei ALG~ ein c-kompetitiver Algorithmus auf M~ (ebenso ALG auf M )
Sei OPT~ ein optimaler offline-Algorithmus auf M~ (ebenso OPT auf M ) und
OFF~ entspricht OPT, aber auf M~ .
Sei ALGB die Bearbeitungskosten und ALGM die Übergangskosten von ALG.
E[ALG] = E[ALGB + ALGM] (Gesamtkosten von ALG sind in Bearbeitungs- und
Übergangskosten aufteilbar )
≤ E[ALGB~ + ALGM~]
( d ≤ d~ )
= E[ALG~]
≤ c·E[OPT~]
( ALG~ ist c-kompetitiv )
3
≤ c·E[OFF~] (wegen Optimalitätsbedingung kann OFF nicht besser sein als OPT)
= c· E[OFFB~ + OFFM~]
≤ c· E[OPTB + α · OPTM]
(d~ ≤ α ·d)
≤ c· α · E[OPT]
Man kann dieses Konzept der deterministischen Approximation auf ein Konzept der
probabilistischen Approximation verallgemeinern.
Sei H = ( S, d(x) ) eine Klasse von metrischen Räumen, die alle auf der gleichen Menge von
Punkten S des metrischen Raumes M = (S, d) definiert sind.
Man sagt, dass die Klasse H den metrischen Raum M probabilistisch λ - approximiert , wenn
es eine Wahrscheinlichkeitsverteilung D(x) auf H gibt, so dass ∀ u, v ∈ S gilt :
i)
d(u, v) ≤ d(x)(u, v)
ii)
ED(x)[ d(x)(u, v)] ≤ λ · d(u, v)
Theorem 1 kann leicht auf eine probabilistische Approximation erweitert werden, um das
folgende Theorem zu erhalten:
Theorem 2:
Sei (S, d) ein metrischer Raum und angenommen S = ( S, d(x) ) α -approximiert (S, d)
probabilistisch. Wenn ein deterministischer (oder randomisierter) c-kompetitiver MTSAlgorithmus für jedes (S, d~) existiert, dann existiert auch ein randomisierter c· α kompetitiver MTS-Algorithmus für (S, d).
Beweis:
Analog zu Theorem 1
Wir definieren eine Klasse H von hierarchisch zerlegbaren Räumen anhand zweier informell
definierter Eigenschaften:
i)
ii)
Es gibt einen randomisierten (in N) polylogarithmisch-kompetitiven MTSAlgorithmus für jeden N-Punkte Raum T ∈ H .
Sei M ein beliebiger metrischer Raum. M kann probabilistisch durch H innerhalb
eines polylogarithmischen Faktors approximiert werden.
Aus den obigen Eigenschaften und Theorem 2 folgt, dass es einen polylogarithmischkompetitiven Algorithmus für jedes MTS gibt.
Der Beweis dieses Ergebnisses ist wesentlich.
Bartal, Blum, Burch und Tomkins und Bartal liefern komplette Beweise für die gewünschten
Eigenschaften von H . Diese Beweise werden hier nur skizziert.
4
Die Besprechung der ersten Eigenschaft wird auf den Fall begrenzt, bei dem der Durchmesser
des Raumes polynomiell in N ist.
Der Durchmesser diam(M ) eines metrischen Raumes M = (S, d) ist max{d(u, v) | u, v ∈ S}.
Um die erste Eigenschaft i) und die Definition vom passenden H zu motivieren, betrachten
wir den Fall, bei dem ein metrischer Raum M in b metrische Unterräume M 1,…, M b zerlegt
ist, die paarweise durch einen Abstand D getrennt sind, der ziemlich groß im Vergleich zum
Durchmesser des Unterraumes ist.
Falls ci einen erreichbaren kompetitiven Faktor für MTS auf dem Unterraum M i bezeichnet,
könnte man einen kompetitiven Faktor von c = O(maxi {ci}· log b ) auf dem gesamten Raum
erreichen.
Der Grund ist, dass jeder Unterraum M i als ein Knoten in einem uniformen metrischen Raum
betrachtet werden kann und dass ein uniformer MTS-Algorithmus benutzt werden kann, um
sich randomisiert zwischen verschiedenen Unterräumen zu bewegen.
Wenn man sich in einem Unterraum M i befindet, bleibt man in diesem Unterraum und
benutzt den ci - kompetitiven Algorithmus bis ein optimaler Offline-Algorithmus die Kosten D
verursacht. Allerdings muss er sich auch im gleichen Unterraum befinden.
Anders gesagt: Man leitet das angegebene Verhältnis ab, indem man den Online Algorithmus
„unfair“ ci mal den Aufgabenvektor belasten lässt, während er Aufgaben im Unterraum M i
bearbeitet.
Man will aber noch bessere Resultate erreichen. Angenommen, man erreicht für den obigen
Raum M einen kompetitiven Faktor von max {ci} + O( log b ) (natürlich könnte man nicht
einfach im gleichem Unterraum bleiben, um so einen guten kompetitiven Faktor zu erreichen,
bis er genügende Bearbeitungskosten erreicht hat.)
Angenommen, man hätte einen metrischen Raum, der rekursiv in eine „balancierte“
Ansammlung von Unterräumen zerlegt werden kann, die durch einen relativ großen Abstand
voneinander getrennt sind. Die Tiefe dieser Zerlegung ist logarithmisch in N.
Sei C(N) ein Faktor für einen Raum mit N Zuständen.
Man bekommt C(N) ≤ C( N ) + O (log b), und das impliziert C(N) = O(log N).
b
Dieses informelle Argument führt zur folgenden Definition der Klasse H von h-hierarchisch
getrennten Baum-Räumen. Der Parameter h misst die relative Größe der Trennung zwischen
den Unterräumen.
Die Punkte in diesen konstruierten metrischen Räumen sind die Blätter in einem Baum, deren
Gewichte an den Kanten aufgezeichnet sind, und die verwendete Metrik ist die Metrik von der
Länge eines gewichteten ungerichteten Baumpfades, der zwischen diesen Blättern induziert
ist. Jeder so konstruierte Raum T heißt h-HST (hierarchical seperated tree spaces).
Man benutzt aber hier T, um sowohl den metrischen Raum als auch den gewichteten Baum,
der den metrischen Raum induziert, zu bezeichnen.
Induktive Definition von h-HST:
i)
ii)
Jeder Ein-Knoten-Raum ist ein h-HST.
Sei b ≥ 1 und seien T1,…, Tb h-HSTs. Sei D eine obere Schranke für die
Durchmesser der Unterräume Ti . Für jedes W ≥ h · D konstruiere einen Baum T,
der aus der Wurzel und b Unterbäumen T1,…, Tb besteht. Sei W das Gewicht je
Kante, die von der Wurzel des Baumes zur Wurzel eines Unterbaumes führt. Dann
ist der Raum, der von den Blättern von T mit der Metrik der gewichteten
Pfadlängen induziert ist, auch ein h-HST.
5
Es ist klar, dass der Durchmesser D` von einem h-HST T mindestens h mal größer ist, als der
Durchmesser von jedem seiner Unterräume, und die Baumtiefe von T höchstens logh D`
beträgt.
In den nächsten zwei Teilkapiteln wird gezeigt, dass h-HSTs die Eigenschaften erfüllen, die
dafür notwendig sind, um die polylogarithmisch-kompetitive Schranke für alle metrischen
Räume zu erreichen.
2.1 Ein MTS-Algorithmus für hierarchisch aufgeteilte Räume
Um einen kompetitiven Algorithmus für h-HSTs zu konstruieren, ist es hilfreich
randomisierte Algorithmen so anzusehen, dass sie Wahrscheinlichkeitsmengen im folgenden
Sinn zwischen Zuständen hin- und herschieben.
Lemma 1:
Wenn man gegen einen vergesslichen Gegenspieler spielt, kann man jeden behavioristisch
randomisierten MTS-Algorithmus ALG folgendermaßen betrachten:
ALG unterhält eine Wahrscheinlichkeitsverteilung (p1 , …, pN) auf den Punkten im
metrischen Raum. (ALG kann auch ein Gedächtnis haben und seine Entscheidungen sowohl
auf der Wahrscheinlichkeitsverteilung als auch auf dem Gedächtnis basierend treffen.)
Gegeben sei eine Anforderung r = < r(1), r(2), … , r(N) >. ALG darf seine Verteilung in
<p`1, … , p`N> umändern. Für jede p~ Wahrscheinlichkeitseinheiten, die um δ verschoben
werden, bezahlt ALG Übergangskosten von p~ · δ .
Um die gesamte Anforderung bearbeiten zu können, hat ALG die erwarteten
n
Bearbeitungskosten von
∑
p`i r(i) .
i =1
Beweis:
Es ist klar, dass für jeden behavioristisch randomisierten Algorithmus und für jede
Anfragefolge die Wahrscheinlichkeitsverteilung aus dem Lemma wohldefiniert ist. Um zu
einem behavioristischen Algorithmus zurückzukommen, muss man nur Schritt für Schritt von
einem Zustand in den anderen gehen, um zu zeigen, wie man den MTS-Schritt auf einer
Anforderung definieren kann, um damit die erwünschte Bewegung der
Wahrscheinlichkeitsmasse zu erreichen.
Es wird das unfaire MTS-Problem dargestellt, das die Verallgemeinerung des standardisierten
uniformen Task System Problems ist. Diese Verallgemeinerung liefert eine gute Abstraktion
für das Ziel, einen randomisierten Algorithmus für jeden h-HST zu konstruieren. Sei M ein
uniformer b –Punkte Raum mit d als paarweiser Abstand zwischen den Punkten. Zum i-ten
Punkt gehört ein Kostenfaktor ci und dem Abstand d wird der Distanzfaktor s zugewiesen.
6
Wenn ein randomisierter Online Algorithmus die Anforderung (i ; τ ) dadurch bearbeitet, dass
er seine Wahrscheinlichkeitsverteilung im Zustand i von pi auf p`i reduziert, bezahlt er den
Gesamtpreis von p`i ci τ + ( pi - p`i ) · sd .
Der Offline Spieler bezahlt τ , falls er (i; τ ) im Zustand i bearbeitet, oder er bezahlt d, falls er
aus dem Zustand i zu irgendeinem anderen Zustand i ≠ j übergeht.
Die Kostenfaktoren { ci } wurden eingeführt, um den Algorithmus für das unfaire Problem
rekursiv anzuwenden. Die Punkte von M werden dann zu Unterräumen von h-HST, und zwar
mit den Faktoren { ci }. Der Distanzfaktor wurde eingeführt, um die Tatsache zu
kompensieren, dass der Kostenfaktor in jedem Unterraum die amortisierten Kosten und nicht
die worst-case Kosten pro Anfrage repräsentiert. Man muss auch die Tatsache kompensieren,
dass der Abstand zwischen den Punkten in verschiedenen Unterräumen nicht einheitlich ist.
Sei wi( σ ) die work function, die die optimalen Offline-Kosten für den Fall enthält, in dem
man im Zustand i nach der Bearbeitung von σ landet. (Man schreibt auch nur wi, da der
Kontext klar ist.)
Jetzt kann man einen randomisierten kompetitiven Algorithmus mit dem Parameter i für das
unfaire MTS-Problem definieren.
Algorithmus W-BALANCEt : Sei t eine ungerade positive Zahl. Der Algorithmus
W-BALANCEt setzt seine Wahrscheinlichkeitsverteilung < p1, … , pb > so ein, dass
folgendes gilt:
1 1
pj =
+
b b
b
⎛ wi − w j
⎜⎜
⎝ d
∑
i =1
t
⎞
⎟⎟ .
⎠
Lemma 2:
Für jede ungerade positive Zahl t ist der Vektor ( p1 , … , pN ), der durch den Algorithmus
W-BALANCEt definiert ist, eine Wahrscheinlichkeitsverteilung. Das heißt, nach der
Bearbeitung jeder Anforderung gilt:
N
∑
0 ≤ pi ≤ 1 und
pi = 1
i =1
Beweis:
N
Es ist zu zeigen:
∑
pj = 1 (durch Einsetzen der Definition von pj erhält man folgendes)
i =1
b
⇔
∑
j =1
b
⇔
∑
j =1
1 1
( +
b b
1 1
+
b b
b
⎛ wi − w j
⎜⎜
⎝ d
∑
i =1
b
b
j =1
i =1
∑ ∑
t
⎞
⎟⎟ ) = 1
⎠
⎛ wi − w j
⎜⎜
⎝ d
t
⎞
⎟⎟ = 1
⎠
7
1 1
+ ·0=1
b b
b
⇔
∑
j =1
Da t ungerade ist, wird das Vorzeichen der Summanden nicht geändert und somit können sich
positive mit negativen Summanden aufheben. Die Summanden, die Null werden, sind gerade
diejenigen Summanden mit Index i=j. Die restlichen Summanden heben sich gegenseitig auf,
da der Zähler mit vertauschten Vorzeichen einmal positiv und negativ (d.h. wi-wj und wj-wi )
auftaucht. Dies ist nur möglich, weil t ungerade ist. Somit wird der obige Ausdruck Null.
1
=1
b
b
⇔
∑
j =1
⇔ b·
1
=1
b
es bleibt noch folgendes zu zeigen: 0 ≤ pi ≤ 1
zu zeigen: pi ≤ 1
für i ≠ j : wi ≤ wj + d ==>
wi - wj ≤ d und für i = j : wi - wj = 0
1
1
pj =
+
b
b
∑
1
1
+
=
b
b
⎛ wi − wi ⎞
⎜
⎟
⎝ d ⎠
b
i =1
⎛ wi − w j ⎞
⎜⎜
⎟⎟
⎝ d ⎠
t
t
+
1
b
∑
i≠ j
⎛ wi − w j ⎞
⎜⎜
⎟⎟
⎝ d ⎠
t
1 +1 ∑
1
≤
b
b
i≠ j
≤
1
b
b −1
+ b =
1+ b −1
b
= 1
zu zeigen pi ≥ 0
Am Anfang gilt : ∀ i: wi = 0, also pi =
1
. Also gilt am Anfang ∀ j: pj ≥ 0.
b
Nun stellt man sich die Anfragebearbeitung stetig vor. Sobald ein pj = 0 ist, lohnt es sich nicht
j anzufragen, da ALG dadurch keine Kosten hat.
Wird nun ein j angefragt, dann sinkt das entsprechende pj stetig immer weiter bis 0 erreicht
ist, denn wj steigt solange bis es ein i gibt, so dass wj = wi + d gilt. Dann aber ist pj ≤ 0 (siehe
Beweis Lemma 3).
8
Ist aber pj = 0 erreicht, so wird j nicht mehr angefragt (s.o.), also bleibt pj ≥ 0. Wird ein
Element i≠j angefragt, so bleibt wj gleich und wi kann nur steigen (oder gleich bleiben), also
kann pj nicht fallen.
Beachte, dass W-BALANCEt seine Wahrscheinlichkeitsverteilung als Funktion
ausschließlich von {wi } abhängig wählt. Man nennt solch einen Algorithmus einen
w-basierten Algorithmus. Falls t = 1 gilt, ist W-BALANCEt vielleicht der natürlichste wbasierte Algorithmus. Größere Werte von t führen dazu, dass W-BALANCEt mit größerer
Wahrscheinlichkeit zu Zuständen mit kleineren w-Werten verschoben wird. Man sagt, dass
ein randomisierter Online Algorithmus vernünftig ist, falls für alle Zustände i ≠ j,
wi = wj + d, pi = 0 impliziert .
Ein w-basierter Algorithmus muss vernünftig sein, falls er kompetitiv sein soll. Sonst würde
der Gegner immer weiter die Anforderung <i; τ > stellen, die den Wert von wi nicht ändert.
Lemma 3:
Für jede ungerade positive Zahl t ist der Algorithmus W-BALANCEt vernünftig.
Beweis:
Angenommen: wj = wk + d
b
⎛ wi − w j ⎞
⎜⎜
⎟⎟ in der Definition von pj. Da wi ≤ wk + d = wj für jedes i
Betrachte die Summe
i =1
⎝ d ⎠
gilt, ist jeder Term in dieser Summe höchstens 0.
Außerdem ist der k-te Term von dieser Summe genau -1, da die Gleichung wj = wk + d gilt.
Deswegen ist die Summe höchstens -1 und pj ist höchstens 0.
Da nach Lemma 2 die Ungleichung 0 ≤ pj ≤ 1 gelten muss, ist pj genau 0.
∑
t
Ein vernünftiger w-basierter Algorithmus wie W-BALANCEt erlaubt die folgende
Vereinfachung der Natur des Gegners.
Lemma 4:
Für einen vernünftigen w-basierten Algorithmus, kann man annehmen, dass nach jeder
Anforderung < i; τ >, wi um τ wächst.
Beweisidee:
Man erhält eine Anforderung (i, τ ) für das wi um δ < τ erhöht wird.
Dies kann nur bedeuten, dass für ein j, wi = wj + d - δ vor der Anforderung und wi wird zu
wi = wj + d - δ + δ = wj + d nach der Anforderung.
9
Aber die Anforderung (i, δ ) würde das gleiche Ergebnis auslösen und solange der
Algorithmus vernünftig ist, gilt nach der Bearbeitung pi = 0. Dies widerspricht der Tatsache,
dass (i, τ ) nicht angefragt wird, wenn pi = 0 ist.
Theorem 3:
Betrachte das unfaire MTS-Problem mit c1 ≥ c2 ≥ … ≥ cb . Dann ist der Algorithmus
W-BALANCEt ( c1 + 2sb1/ t ·t ) – kompetitiv. Insbesondere, wenn t = log b ist, dann ist
W-BALANCEt ( c1 + O( log b) ) – kompetitiv.
Beweis:
Sei Φ eine nicht negativ–wertige Potentialfunktion. Man benutzt hier die Methode der
amortisierten Kosten und somit reicht es zu zeigen, dass für jede Anfrage r folgendes gilt:
ALG(r ) + ∆ Φ ≤ c· ∆(OPT) = c·∆( min {wi})
i
Wie üblich bezeichnet ∆ Φ die Änderung im Potential, ähnlich bezeichnet ∆(OPT) die
Änderung im Wert von OPT für die Bearbeitung der Anfrage r. Da | wi – wj | ≤ d für alle i und
_
j gilt, reicht es für ALG gegen jeden beliebigen gewichteten Mittelwert w von {wi} zu
konkurrieren, als mit diesem min{wi}.
_
Somit muss man zeigen, dass folgendes gilt: ALG(r ) + ∆ Φ ≤ c· ∆( w ).
Die Potentialfunktion Φ = Φ l + Φ m, die man hier benutzt, ist die Summe von zwei
Unterfunktionen, wobei Φ l die lokalen Bearbeitungskosten für jeden Knoten amortisiert und
Φ m die Bewegungskosten amortisiert.
Sei r = <k ; τ > eine elementare Anforderung und nehmen wir an, dass W-BALANCEt als
Antwort auf diese Anforderung seine Masse auf dem Zustand k von pk auf p`k reduziert. Da
W-BALANCEt vernünftig ist, erhöht sich wk nach Bearbeitung von <k ; τ > um τ , und wi
_
bleibt unverändert für i ≠ k. Somit gilt ∆ w =
τ
. Wenn amortisierte Bearbeitungs- und
b
Bewegungskosten aufsummiert werden, reicht es folgendes zu zeigen:
_
cτ
i)
p´kck τ + ∆ Φ l ≤ 1 = c1· ∆ w
b
ii)
( pk – p`k )sd + ∆ Φ m ≤ 2sb1/ t · t ·
τ
b
_
= ( 2sb1/ t ·t) ·∆ w
Man erreicht i) durch folgende Definition:
b
b
t +1
⎛ wi − w j ⎞
∂Φ l
1⎞
c1d
⎛
⎜⎜
⎟⎟ , so dass
Φ l :=
= – ⎜ pk − ⎟c1 .
b⎠
2(t + 1)b i =1 j =1
∂wk
⎝
⎝ d
⎠
Angenommen, dass wk = y vor der Anfrage gilt. Da pk als Funktion von wk fällt, hat man
∑ ∑
p`kck τ + ∆ Φ l ≤
y +τ
∫
y
⎛
∂Φ l
⎜⎜ pk ck +
∂wk
⎝
⎞
1⎞
⎛
⎟⎟ dwk ≤ pkck τ – ⎜ pk − ⎟ c1 τ ≤ c1 τ .
b⎠
⎝
b
⎠
10
Bedingung ii) kann durch die folgende Definition erreicht werden:
Definiere:
sd
Φm=
2b
b
b
wi − w j
i =1
j =1
d
∑ ∑
y +τ
( pk – p`k)* sd + ∆ Φ m ≤
∫
y
t
.
⎛ ∂pk
∂Φ m ⎞
⎜⎜
⎟⎟ · dwk
sd +
∂
∂
w
w
k ⎠
⎝ k
Man will zeigen, dass der Integrand
∂pk
st
sd =
Man hat
∂wk
b
i ≠k
t −1
st
⎛ wk − wi ⎞
⎜
⎟ b
⎝ d ⎠
wi < wk
∂Φ m 2 st
∂pk
sd +
=
∂wk
∂wk
b
∑
wi < wk
2 sb t
als obere Schranke hat.
b
⎛ wi − wk ⎞
⎟ , und
⎜
⎝ d ⎠
t −1
∑
∂Φ m
st
=
∂wk
b
∑
1
t
t −1
∑
wi > wk
⎛ wi − wk ⎞
⎜
⎟ , so dass folgendes gilt:
⎝ d ⎠
t −1
2 st
⎛ wk − wi ⎞
⎜
⎟ ≤
b
⎝ d ⎠
∑
⎛ wu − wi ⎞
⎜
⎟
⎝ d ⎠
i ≠u
t −1
Sei dabei wu = max{wi }
i
Man bemerkt, dass
∑
i ≠u
⎛ wu − wi ⎞
⎜
⎟ ≤ 1 (*) (siehe Beweis von Lemma 2) und dass jeder Term dieser Summe
⎝ d ⎠
t
n
nicht negativ ist. Den maximalen Wert einer Summe ∑ ait −1 für 0 ≤ ai ≤ 1 und
i =1
bekommt man, wenn alle Terme ai =
⎛ wu − wi ⎞
⎜
⎟ =
⎝ d ⎠
t
t
n
∑a
t
i
≤1
i =1
1
gleich sind, d.h. wenn gilt:
n
1
.
(b − 1)
Daraus folgt:
∑
i ≠u
t −1
1
1
⎛ wu − wi ⎞
⎜
⎟ ≤ (b − 1)t ≤ b t .
⎝ d ⎠
Theorem 3 wird jetzt rekursiv angewendet, um einen Algorithmus für h-HST`s mit
polynomiellem Durchmesser abzuleiten. Man ersetzt jeden Punkt im Raum von unfairen
MTS-Problemen durch einen kleineren h-HST Unterraum. Man hat mit technischen
11
Problemen zu kämpfen. Erstens benutzt man das Kostenverhältnis ci , um die relativen Kosten
im i-ten Unterraum zu abstrahieren. Diese Abstraktion muss mit der Tatsache in Einklang
gebracht werden, dass man in jedem Unterraum amortisierte Kosten und nicht den worst-case
pro Anfrage betrachtet.
Folgendes Lemma zeigt, wie man das Abstandsverhältnis und die Grenzen auf den
Potentialen benutzt, um diese Amortisierung zu kompensieren.
Lemma 5 (ohne Beweis):
Seien {Mi} für 1≤ i ≤ b die Unterräume, so dass für jedes Mi ein ci –kompetitiv randomisierter
Algorithmus ALGi existiert, dessen Komplexität durch eine Potentialfunktion Φ i mit
Φ i ≤ Φ max bewiesen werden kann. Weiterhin nimmt man an, dass jeder solcher kompetitive
^
Faktor ci dadurch erreicht wird, dass man gegen irgendeinen gewichteten Mittelwert wi von
work function-Werten auf dem Raum Mi konkurriert. Angenommen, es gäbe einen ckompetitiven randomisierten Algorithmus ALG, der irgendeine Potentialfunktion Φ für ein
unfaires MTS Problem mit den Kostenfaktoren {ci } , Abstand d und dem Abstandsfaktor
s= sˆ +
Φ max
, benutzt.
d
^
Betrachte ein modifiziertes unfaires Problem auf dem Raum M , der dadurch entsteht, dass
man den i-ten Punkt durch den Unterraum Mi ersetzt. In einem modifizierten unfairen
′
′
Problem kostet die Anfrage (i; τ ) auf dem Zustand in Mi p`i (ci τ - ( Φ i - Φ i )), wobei Φ i
das i-te Potential nach der Bearbeitung
der Anfrage ist. Dann existiert ein c-kompetitiver Algorithmus ALG ′ für das modifizierte
^
unfaire Problem mit dem Abstandsfaktor s ; weiter kann die kompetitive Schranke durch die
^
Potentialfunktion Φ =
b
∑
j =1
pj Φ i ≤ Φ + Φ max bewiesen werden, die gegen den Mittelwert
^
von wi
konkurriert . Und das ist der gewichtete Mittelwert von work function-Werten auf dem Raum
M.
Lemma 5 zeigt die Notwendigkeit, das Potential im Theorem 3 zu begrenzen.
Lemma 6:
⎛ c ⎞
Sei Φ die Potentialfunktion aus Theorem 3. Dann gilt Φ ≤ ⎜ 1 ⎟d + sd .
⎝ t + 1⎠
Beweis:
Um die obere Schranke zu zeigen, benutzen wir die Tatsache, dass folgendes gilt:
Φ = Φ l + Φ m . Und wa ist das Maximum aller wi `s.
12
c1d
=
(t + 1)b
c1d
≤
(t + 1)b
cd
≤ 1
(t + 1)
b
i =1
j =1
⎛ wi − w j ⎞
⎜⎜
⎟⎟
⎝ d
⎠
b
⎛ wi − w j ⎞
⎜⎜
⎟⎟
d
⎝
⎠
∑ ∑
i =1
w j < wi
b
i =1
j:w j < wi
⎛ wa − w j ⎞
⎜⎜
⎟⎟
⎝ d
⎠
j
j
t +1
t +1
t +1
⎛ wa − w j ⎞
⎜⎜
⎟⎟
⎝ d
⎠
∑
t +1
⎛ wa − w j ⎞
⎜⎜
⎟⎟
⎝ d
⎠
∑ ∑
∑
cd
≤ 1
(t + 1)
≤
b
∑ ∑
c1d
Φl=
2(t + 1)b
t
(1)
c1d
(t + 1)
(2)
Die Ungleichung (1) folgt daraus, dass die folgende Ungleichung gilt : wa ≤ wj+ d. Jeder
Term der Summe ist höchstens 1, deswegen erhöht sich der Wert des Ausdruckes, wenn der
Exponent reduziert wird.
Die Ungleichung (2) erhält man durch die Ungleichung (*), die im Beweis von Theorem 3
benutzt wird.
sd
Φm=
2b
sd
=
b
sd
≤
b
≤ sd
b
b
wi − w j
i =1
j =1
d
∑ ∑
∑ ∑
w j < wi
i
∑ ∑
w j < wi
i
∑
j
t
⎛ wi − w j ⎞
⎜⎜
⎟⎟
⎝ d ⎠
t
⎛ wa − w j ⎞
⎜⎜
⎟⎟
d
⎝
⎠
⎛ wa − w j ⎞
⎜⎜
⎟⎟
⎝ d
⎠
t
t
≤ sd
Daraus folgt dann:
Φ= Φl+ Φm ≤
c1d
+ sd .
(t + 1)
Es ist jetzt klar, dass die Wahl von t auf zwei Arten begrenzt ist.
13
Erstens muss sie entsprechend gesetzt werden, um einen genügend kleinen kompetitiven
Faktor in Theorem 4 zu erreichen. Zweitens muss sie eine Grenze auf dem Potential liefern,
der klein genug ist, um die rekursive Anwendung des Algorithmus zu ermöglichen.
Ein paar andere technische Hürden müssen bewältigt werden, bevor man den Algorithmus
W-BALANCEt rekursiv anwenden kann, um den kompetitiven Algorithmus für h-HST
Räume zu bekommen. Wir haben keinen einheitlichen Abstand zwischen den Räumen;
1
sondern der Durchmesser von jedem Unterraum ist höchstens vom Durchmesser des
h
ganzen Raumes. Man braucht auch eine strenge Version von der Vernünftigkeitseigenschaft.
Der Online Algorithmus muss hierarchisch vernünftig sein. Dies bedeutet, dass sobald wu =
wv + d( u, v ), für u und v in verschiedenen Unterräumen gilt, der Algorithmus jedem
Zustand, der sich im gleichen Raum wie u befindet, eine Nullwahrscheinlichkeit zuweist.
Damit kann man ein Kompetitivitätsresultat für h-HST`s erreichen.
Theorem 4:
Sei M ein N-Punkte h-HST von Tiefe l mit h > 9l . Für t ≥ log N, existiert ein randomisierter
Algorithmus ALG (d.h. eine schlaue rekursive Anwendung von dem Algorithmus
W-BALANCEt ) , so dass R (ALG) ≤ 9lt + 1 = O(log N logh D). Weiterhin benutzt der
Beweis der Kompetitivität die Potentialfunktion Φ , die nach oben durch 9l·D begrenzt ist.
Beweis:
Der Beweis erfolgt per Induktion über die Tiefe l.
Die Basis (l =0) ist trivial. (Es gibt nur einen Knoten. Folglich ist jeder Algorithmus 1kompetitiv und als Potentialfunktion kann Φ = 0 verwendet werden)
Betrachte einen h-HST von der Tiefe l und den Durchmesser D. Die Tiefe von jedem
D
. Nach Induktionsannahme
Unterraum ist höchstens l-1 und der Durchmesser ist höchstens
h
gibt es einen 9(l-1)+t kompetitiven Algorithmus durch eine Potentialfunktion, die durch
9(l − 1)
D begrenzt ist.
h
h−2
Man betrachtet das modifizierte unfaire MTS Problem mit d =
D , dem Kostenfaktor
h
h
. Wobei ci die kompetitiven
9(l-1)t + 1 ≥ c1 ≥ c2 ≥ … ≥ cb und dem Abstandsfaktor ŝ =
h−2
Faktoren der Algorithmen auf den Unterräumen ist.
Dieser Parameter sichert, dass der maximale Abstand zwischen zwei beliebigen Punkten
D = ŝ d beträgt (d.h. von dem Online Spieler wird nicht zu wenig verlangt) und der Offline
Gegner bezahlt d (ein bisschen weniger als nötig für die Bewegungen zwischen den
Unterräumen).
Außerdem ist es nicht schwer zu zeigen, dass der Algorithmus W-BALANCEt hierarchisch
vernünftig für dieses Setzen des Parameters ist. Laut Lemma 5 ist das maximale Potential, das
14
für jeden Unterraum benötigt wird
9(l − 1)
9
D ≤ d, und man kann s = ŝ + 1 ≤ im unfairen
4
h
Problem benutzen.
Jetzt wird man den kompetitiven Faktor berechnen und das Potential dadurch begrenzen, dass
1
t
man Theorem 3, Lemma 5 & 6 benutzt. Da t ≥ log N ≥ log b gilt, hat man b ≤ 2, und der
Kompetitivfaktor erfüllt folgendes:
9
c1 + 2sb1/t t ≤ 9(l-1)t +1 +2* * 2t ≤ 9lt + 1 .
4
Das Potential ist durch folgendes begrenzt:
9(l − 1)
⎛ c1
⎞
⎡ 9(l − 1)t + 1 9 ⎤
+ s ⎟D +
D≤⎢
+ + 1⎥ D ≤ 9lD .
⎜
h
t +1
4 ⎦
⎣
⎝ t +1 ⎠
Das beendet den Induktionsschritt und damit auch den Beweis.
Es ist klar, dass die Tiefe l höchstens logh D beträgt. Aber für unbalancierte Bäume ist l nicht
durch ein Polynom in log N beschränkt. Man möchte die Abhängigkeit vom Durchmesser des
h-HST loswerden. Man braucht ein paar zusätzliche Ideen, um das allgemeine Resultat zu
beweisen, das nicht vom Durchmesser D abhängt.
Hier folgt das erwünschte Resultat.
Theorem 5: (ohne Beweis)
Sei M ein beliebiger h-HST mit N Punkten und h = Ω(log 2 N ) . Dann gibt es einen
randomisierten Algorithmus ALG, so dass R (ALG ) = O(log2 N) gilt.
2.2 Einbettung beliebiger metrischer Räume in h-HST
Jetzt geht man zu einem wichtigen Resultat über, den man braucht, um den
polylogarithmisch- kompetitiven Algorithmus für jeden metrischen Raum nachzuweisen. Man
muss zeigen, dass jeder metrische Raum probabilistisch durch h-HST`s approximiert werden
kann.
15
Theorem 6:
Sei M =(S, d) ein metrischer Raum mit N Punkten vom Durchmesser D. Für jedes h ≥ 2, kann
M probabilistisch von h-HST`s vom Durchmesser O(D) α -approximiert werden, mit
α = (h log N logh(min{N,D})).
Korollar 1:
Für jeden Raum M mit N Punkten und vom Durchmesser D existiert ein c-kompetitiver MTS
⎛ log 3 N log 2 D ⎞
⎟⎟ .
Algorithmus mit c = O ⎜⎜
3
⎝ log log D ⎠
Für jeden Raum M mit N Punkten existiert ein c ′ -kompetitiver Algorithmus mit
⎛ log 6 N ⎞
′
⎟⎟ .
c = O ⎜⎜
⎝ log log N ⎠
Beweis:
Sei M der gegebene metrische Raum mit N Punkten und Durchmesser D.
Dann wird M nach Theorem 6 von h-HST`s mit Durchmesser in O(D) probabilistisch
α -apprpoximiert, wobei α in O( (h log N logh(min{N,D}))) liegt und h ≥ 2 beliebig gewählt
werden kann.
18 log D
Wähle h :=
log log D
Dann gilt für die Tiefe l der h-HST`s nach der Folgerung unter der Definition von h-HST`s:
log D
log D
log D
=
≤
⎛ 18 log D ⎞ log 18 + log log D − log log log D log log D − log log log D
⎟⎟
log⎜⎜
⎝ log log D ⎠
log D
2 log D
h
≤
=
=
1
log log D − log log D log log D 9
2
l ≤ log h D =
log D
=
log h
Damit ist Theorem 4 anwendbar und man findet auf den einzelnen h-HST`s je einen ckompetitiven Algorithmus mit c ∈ O(log N log h D)
Im folgenden werden die additiven und multiplikativen Konstanten weggelassen. Die
Ungleichungen sind nur bezüglich der O-Notation zu verstehen.
cα ≤ log N log h D ⋅ h log N log h (min{N , D}) = log N
16
log D
log(min{N , D})
⋅ h log N
log h
log h
≤ log N
=
log D
log D
log D
log N
log D
log N
⋅
⋅ log N
≤ log N
⋅
⋅ log N
log log D log log D
log log D
⎛ log D ⎞ log log D
⎛ log D ⎞
⎟⎟
⎟⎟
log⎜⎜
log⎜⎜
⎝ log log D ⎠
⎝ log log D ⎠
log 3 N log 2 D
log 3 log D
Beweis von c` geht analog
Kurze Skizze des Beweises des Theorems 6:
Speziell zeigen wir den Beweis dieses Resultates nur für α = (h log N loghD) skizziert. M
kann als metrischer Raum betrachtet werden, der durch einen gewichteten Graphen
G=(V, E, d) mit N Knoten und d: E→R+ induziert ist.
Man zeigt zuerst, wie man eine probabilistische Partition von G konstruiert, also wie man eine
passende Verteilung auf den Partitionen von der Knotenmenge V konstruiert, in welchem
jeder Block von jeder Partition kleinen Durchmesser hat und die Wahrscheinlichkeit, dass
kleine gewichtete Kanten in keinem Block enthalten sind, ziemlich klein ist. Man kann diese
probabilistische Partition rekursiv anwenden, um probabilistische h-HST`s konstruieren zu
können, die M approximieren. Einfach gesagt: die Partitionsblöcke werden zu Unterbäumen
des h-HST´s.
Zuerst muss man eine probabilistische Partition definieren.
Sei G ein Graph mit n Knoten. Eine m-probabilistische Partition von G ist eine
Wahrscheinlichkeitsverteilung auf Partitionen (V1, … , Vs) der Knotenmenge V, die folgende
Bedingungen erfüllt:
i)
diam(G(Vi)) ≤ m· (2ln N +1), wobei G(Vi) ein Teilgraph ist, der von der
Knotenmenge Vi induziert wird.
2d ( e )
ii)
max e∈E Pr[e ∉ G(Vi) für jedes i, 1≤ i ≤ s] ≤
m
Um Theorem 6 zu beweisen braucht man folgende 2 Lemmata:
Lemma 7:
Wenn für jeden gewichteten Graphen G vom Durchmesser D und jedes m, 1≤ m ≤ D, eine mprobabilistische Partition von G existiert, dann ist G für alle h ≥ 1 α -probabilistisch durch hHST`s vom Durchmesser O(D) mit α =O(h log N logh D) approximierbar.
Beweisskizze:
Wir beschreiben zunächst nur die Konstruktion der gewünschten h-HST´s. Man konstruiert
sie rekursiv (d.h. per Induktion über V ) . Zu jedem Rekursionsschritt gibt es einen Graphen
17
Gi (G1=G) und einen Parameter mi . Der Basisfall der Rekursion ist Gl = (Vl, El, dl) mit
Vl = 1, wobei l die Rekursionstiefe ist.
⎢ diam(Gi ) ⎥
Betrachte den Fall Vi > 1. Setze mi = ⎢
⎥ . Berechne eine mi –probabilistische
⎣ h( 2 ln N + 1) ⎦
Partition von Gi , die z.B. in Blöcken C1, … , Cs resultiert.
Berechne rekursiv h-HST`s für jedes Cj , 1 ≤ j ≤ s, d.h. für jedes j setze Gj+1= Cj und wende
induktiv die Konstruktion an.
Angenommen die resultierenden h-HST`s sind die Bäume T1 ,… , Ts mit Wurzeln q1, …, qs.
Konstruiere T durch das Einfügen eines neuen Wurzelknotens q und Kanten (q,q1),…, (q,qs),
wobei das Gewicht jeder Kante (q,qj) auf 1 /2 diam(Gi) gesetzt wird. Die Konstruktion ist
somit abgeschlossen.
Man kann für die Konstruktion in Lemma 7 folgendes induktiv beweisen:
I)
II)
III)
IV)
diam(Gi )
, 1 ≤ i ≤ l-1 .
h
2 ⎞
⎛
diam(Ti) ≤ ⎜1 +
⎟ diam(Gi) , 1 ≤ i ≤ l.
⎝ h − 2⎠
dGi(u,v) ≤ dTi(u,v) für alle u, v ∈ Ui .
diam (Gi+1) ≤
2 ⎞
⎛
E[dTi(u, v) ] ≤ 2(2ln N + 1)h ⎜1 +
⎟ (l-i)dGi(u, v) für alle u, v ∈ Vi.
⎝ h − 2⎠
Beweis:
diam(Gi )
⎢ diam(Gi ) ⎥
I) diam (Gi+1) = diam(G(Ci,j)) ≤ mi ·(2lnNi +1) = ⎢
·(2lnNi +1) ≤
⎥
h
⎣ h( 2 ln N + 1) ⎦
1
2
II) diam(Ti) ≤ 2 ⋅ diam(Gi ) + 2 max diam(Ti , j ) ≤ diam(Gi ) + 2(1 +
)diam(Gi +1 )
j
2
h−2
2 ⎞
⎛ h ⎞ diam(Gi ) ⎛
≤ diam(Gi ) + 2⎜
= ⎜1 +
⎟
⎟diam(Gi )
h
⎝ h − 2⎠
⎝ h − 2⎠
III) Seien u und v im selben Ci,j enthalten, dann gilt
d Gi (u , v ) = d Gi , j (u , v) ≤ d Ti , j (u , v ) = d Ti (u , v )
Sind u und v in unterschiedlichen Blöcken Ci,u bzw. Ci,v enthalten, dann gilt
1
d Gi (u , v) ≤ diam (Gi ) = 2 diam (Gi ) ≤ dTi (u , v)
2
18
IV) Sind u und v in einem Ci,j enthalten, dann gilt:
2
)(l-i-1)dGi,j(u,v)
h−2
2
)(l-i-1)dGi(u,v)
= 2(2ln N + 1) h (1 +
h−2
2
) diam(Gi)
Ansonsten wissen wir immerhin dTi(u,v) ≤ (1+
h−2
Also ergibt sich zusammen mit den Wahrscheinlichkeiten für die beiden Fälle:
2d Gi (u , v)
2
2
(1 +
)(l-i-1)dGi(u,v) +
) diam(Gi)
E[dTi(u,v)] ≤ 2(2ln N + 1) h (1 +
h−2
mi
h−2
E[dTi(u,v)] =E[dTi,j (u,v)] ≤ 2(2ln N + 1) h (1 +
2
2
2
(1 +
)(l-i-1)dGi(u,v) +
) diam(Gi)dGi(u,v)
h−2
h−2
⎢ diam(Gi ) ⎥
⎢ h(2 ln N + 1) ⎥
⎣
⎦
und daraus folgt die obige Aussage.
≤ 2(2ln N + 1) h (1 +
Damit konstruiert man für Gl = G probabilistisch T1=T, was
2 ⎞
⎛
diam(T) ≤ ⎜1 +
⎟ diam(G) = O(diam(G)) erfüllt, und für alle u, v ∈ V, bekommen wir
⎝ h − 2⎠
i)
dG(u,v) ≤ dT(u,v)
2 ⎞
⎛
ii)
E[dT(u, v) ] ≤ 2(2ln N + 1)h ⎜1 +
⎟ (l-1)dG(u, v) = O(h log N logh D).
⎝ h − 2⎠
Sei G = (V, E, d) ein gerichteter Graph mit N Knoten. Die gewünschten m-probabilistischen
Partitionen werden durch den folgenden probabilistischen randomisierten Algorithmus
konstruiert.
Algorithmus GRAPH-PARTITIONSm :
Gehe sukzessiv in Phasen i= 1,2,… vor, um die Blöcke B1, B2, …, Bs der Partition von G zu
konstruieren. In der Phase i bleibt eine Untermenge von Knoten Ui ⊆ V übrig und ein
Teilgraph Hi = G(Ui). Man beginnt mit U0 = V und hört auf, wenn Us+1 = 0/ ist.
Phase i: Wähle irgendeinen beliebigen Knoten ui ∈ Ui. Wenn die Zusammenhangskomponente
von Hi , die ui beinhaltet, einen Durchmesser ≤ 2m· ln N hat, dann sei Bi diese Komponente.
Anderenfalls, wähle einen Radius δ , 0 ≤ δ ≤ m· ln N zufällig anhand der kontinuierlichen
−z
⎛ N ⎞1 m
Verteilung mit der Wahrscheinlichkeitsdichtefunktion
q(z) = ⎜
e
.
⎟
⎝ N − 1⎠ m
Sei Bi := {u | dHi(vi , u) ≤ δ } und sei Ui+1 := Ui - Bi .
19
Lemma 8:
Für jeden gewichteten Graphen G und für jedes m, mit 1≤ m ≤ diam(G), konstruiert der
Algorithmus GRAPH-PARTITIONS eine m-probabilistische Partition von G.
Beweis:
Es ist klar, dass jeder Block Bi einen Durchmesser von höchstens 2m ln N besitzt. Es bleibt zu
zeigen, dass Kanten mit kleinem Gewicht höchstwahrscheinlich in demselben Block liegen.
Definiere die Metrik d̂ = min {d, m·ln N}. Lege eine Phase i in der GRAPH-PARTITIONS
Konstruktion fest. Sei ui ∈ Ui-1 ein Knoten, der gewählt wird, um diese Phase zu beginnen und
sei δ ein Radius, der randomisiert gewählt wird. Sei e = (v, w) eine beliebige Kante in E. Wir
betrachten die folgende Ereignisse:
Ai ist das Ereignis, dass v, w ∈ Ui sind. Daher sind in diesem Fall weder v noch w
in einem der bis zu diesem Zeitpunkt konstruierten Blöcke.
M iX ist Ereignis, dass d̂ (ui, v) ≤ δ ≤ d̂ (ui, w) gilt, wenn man weiß, dass Ai
ii)
zutrifft. In diesem Fall liegt v nicht aber w in Bi und die Kante (v, w) kann nicht
ganz in einem Block liegen.
M iC ist das Ereignis, dass δ < d̂ (ui, v) gilt, wenn man weiß, dass Ai zutrifft. In
iii)
diesem Fall sind weder v noch w im Block Bi und daher sind sie in der aktiven
Knotenmenge Ui+1 für die nächste Phase enthalten.
Xi ist das Ereignis, dass die Kante (v, w) in keinem Block Bj , für jedes j ≥ 1, ganz
iv)
liegt, wenn man weiß, dass Ai eintritt.
Man muss eine Schranke auf Pr[X0] angeben, gegeben dass Pr[A0] = 0 gilt.
Nach Definition der Ereignisse gilt:
i)
Pr[Xi] = Pr[ M iX ]+ Pr[ M iC ] Pr[Xi+1]
Aus der Definition der Wahrscheinlichkeitsdichtefunktion q, ist es einfach zu überprüfen, dass
folgendes gilt:
N dˆ ( v, w) ( dˆ ( ui v ) / m )
N
ˆ
Pr[ M iX ] ≤
e
und Pr[ M iC ] =
1 − e −( d ( ui ,v )) / m .
N −1 m
N −1
Angenommen eine Phase s ist die letzte Phase (d.h. Us = 0/ ), dann ist Pr[Xs] = 0.Wenn man
Pr[Xi] in die Rekursionsgleichung einsetzt, ist es einfach per Induktion über s-i die folgende
Ungleichung zu zeigen.
Die Beschränktheit der Metrik wird mittels
(
e
−
~
d ( v ,w)
m
Pr[Xi] ≤
≥e
−
m ln n
m
= e −ln n =
1
benutzt, so dass gilt
n
N ⎡⎛
i +1 ⎞ 1 ⎛
i + 1 ⎞⎤ dˆ (v, w)
−
−
−
2
1
⎜
⎟
⎜
⎟
N − 1 ⎢⎣⎝
N − 1⎠ N ⎝
N − 1 ⎠⎥⎦ m
N 1
N i +1
N 1 i + 1 ⎤ dˆ (v, w)
⎡ N
= ⎢2
−
−
+
⎣ N − 1 N − 1 N N − 1 N − 1 N − 1 N N − 1⎥⎦ m
20
)
⎡ 2N − 1 i + 1 ⎛ N
1 ⎞⎤ dˆ (v, w)
=⎢
−
−
⎜
⎟⎥
⎣ N − 1 N − 1 ⎝ N − 1 N − 1 ⎠⎦ m
i + 1 ⎞ dˆ (v, w) ⎛
i ⎞ dˆ (v, w)
⎛
≤ ⎜2 −
≤ ⎜2 −
⎟
⎟
N − 1⎠ m
N − 1⎠ m
⎝
⎝
21
3. Zusammenfassung
Nach der Einleitung über die Metrik, wurde erst das Metrische Task System eingeführt.
Danach erfolgte das Abstrahieren unserer Online Probleme auf ein MTS.
Man hat gesehen, dass die Approximation des gegebenen Raumes durch einen schöneren
Raum hilft, Aussagen über den kompetitiven Faktor des Ursprungsraumes zu treffen.
Und es wurde gezeigt, dass für den uniformen metrischen Raum die Randomisierung (gegen
den vergesslichen Gegenspieler) zu einer bedeutenden Reduzierung des kompetitiven Faktors
führt.
Eines der wesentlichen Ergebnisse ist, dass es einen polylogarithmischen kompetitiven
Algorithmus für jedes MTS gibt. Auf diesem Gedanken der Approximation basieren Theorem
1 und 2.
Um einen kompetitiven Algorithmus für h-HSTs zu konstruieren, war es hilfreich
randomisierte Algorithmen zu betrachten, um die Menge der Wahrscheinlichkeiten, die in und
aus den Zuständen fließen, zu kontrollieren.
Es wurde das unfaire MTS-Problem dargestellt, das die Verallgemeinerung des
standardisierten uniformen Task-System-Problems ist. Diese Verallgemeinerung lieferte eine
gute Abstraktion für das Ziel, einen randomisierten Algorithmus für jeden h-HST-Raum zu
konstruieren.
Man hat mit dem Algorithmus W-BALANCEt einen randomisierten kompetitiven
Algorithmus mit dem Parameter t für das unfaire MTS-Problem definiert.
Wir haben gezeigt, dass jeder metrische Raum probabilistisch durch h-HST`s approximiert
werden kann.
Es wurde gezeigt, dass h-HSTs die Eigenschaften erfüllen, die dafür notwendig sind, um die
polylogarithmische kompetitive Schranke für alle metrischen Räume zu erreichen.
22
4. Literatur
Allan Borodin, Ran El-Yaniv „Online Computation and Competitive Analysis“
Yair Bartal, Avrim Blum, Carl Burch, Andrew Tomkins
“A polylog(n)-competitive algorithm for metrical task systems”
Yair Bartal
“Probabilistic Approximation of Metric Spaces and its Algorithmic Applications”
23
Herunterladen