Markovsche Prozesse im Casino 1 Einleitung 2 Markov

Werbung
Markovsche Prozesse im Casino
Simon Griwatz
1
Einleitung
Diese Arbeit beschäftigt sich mit dem Thema Markovsche Prozesse im Casino
und soll die Grundlagen schaffen, um sich mit dem Problem zu beschäftigen, wie
lange man ein Deck von Spielkarten mischen muss, um eine wirklich faire Verteilung der Karten zu erreichen. Ein ähnliches Problem ist, für eine Irrfahrt auf
einen Graphen einen Zeitpunkt zu bestimmen, zu dem die Wahrscheinlichkeitsverteilung der aktuelle Position über den Knoten des Graphen gleichverteilt ist.
Das Verhalten einer Irrfahrt auf einem Graphen läßt sich durch Markov-Ketten
beschreiben.
Aus diesem Grund beginne ich mit den Grundlagen markovscher Prozesse und
der Irrfahrt auf Graphen. Anschließend zeige ich eine auf Strong Uniform Times
basierende Methode, mit deren Hilfe wir eine Schranke für die Konvergenz zur
gesuchten Gleichverteilung abschätzen können.
2
2.1
Markov-Ketten
Definition
Eine Markov-Kette M ist ein stochastischer Prozess, der durch die Anfangsverteilung X0 , die Übergangswahrscheinlichkeiten Pij und durch seinen Zustandsraum
S definiert ist. Der Zustandsraum S ist entweder endlich oder abzählbar unendlich. Die Übergangsmatrix P gibt die Wahrscheinlichkeiten an von einem Zustand
in den folgenden zu gelangen. Diese Übergangsmatrix hat eine Zeile und eine
Spalte für jeden Zustand aus S. Ein Eintrag Pij in der Übergangsmatrix P ist
die Wahrscheinlichkeit, dass der nächste Zustand j sein wird, wenn der jetzige
P
Zustand i ist. So gilt 0 ≤ Pij ≤ 1 und j Pij = 1 für alle i, j ∈ S.
Eine wichtige Eigenschaft von Markov-Ketten ist, dass das zukünftige Verhalten einer Markov-Kette nur von dem aktuellen Zustand abhängt und nicht
von davon, wie sie in diesem Zustand gekommen ist. Eine Markov-Kette ist also
gedächnislos. Dies folgt aus der Beobachtung, dass die Übergangswahrscheinlichkeit Pij nur von dem aktuellen Zustand i abhängt.
P r[Xt+1 = j|X0 = i0 , X1 , ..., Xt = i] = P r[Xt+1 = j|Xt = i] = Pij
Aufgrund dieser Eigenschaft kann die Wahrscheinlichkeit, mit der ein Übergang
von i nach j mit n Schritten stattfindet, durch die n-fache Multiplikation der
Übergangsmatrix berechnet werden. Die dabei entstehende neue Übergangsmatrix
(n)
nennen wir n-stufige Übergangsmatrix Pij .
Für einen gegebenen Startzustand X0 = i wird die Wahrscheinlichkeit, dass der
(t)
erste Übergang in den Zustand j nach t Schritten stattfindet, mit rij beschrieben
und ist gegeben durch
(t)
rij = P r [Xt = j, und für 1 ≤ s ≤ t − 1, Xs 6= j|X0 = i] .
Die Wahrscheinlichkeit, dass es für einen Startzustand X0 = i einen Übergang in
den Zustand j nach t > 0 Schritten stattfindet, nennen wir fij und ist gegeben
durch
fij =
X
(t)
rij .
t>0
Die erwartete Anzahl von Schritten um den Zustand j vom Zustand i aus zu
erreichen, nennen wir hij und ist gegeben durch
hij =
X
(t)
trij .
t>0
Ein Zustand i für den die Wahrscheinlichkeit, dass es nach Verlassen dieses Zustands einen weiteren Besuch von i gibt kleiner als 1 ist, also fii < 1 ist und damit
auch hii = ∞ gilt, wird transient genannt.
Ein Zustand i, in den die Markov-Kette nach Verlassen irgendwann wieder
zurückkehren wird, also fii = 1 gilt, heißt persistent. Gilt für einen persistenten
Zustand i, dass hii = ∞, wird er null persistent genannt. Andernfalls, also wenn
hii 6= ∞, wird der Zustand nicht null persistent genannt.
2.2
Endlichkeit
Endliche Markov-Ketten sind Markov-Ketten mit einer endlichen Anzahl von
Zuständen. Jeder dieser Zustände ist dann entweder transient oder nicht-null persistent.
2.3
Unreduzierbarkeit
Die Reduzierbarkeit einer Markov-Kette hängt eng mit dem Graph zusammen,
durch den die Markov-Kette dargestellt werden kann. Aus diesem Grund betrachten wir zuerst die graphentheoretischen Grundlagen.
Ein Graph C heißt stark zusammenhängend, wenn für jedes Paar von Knoten
i und j ∈ C Pfade existieren, so dass i von j und j von i zu erreichen ist (siehe
Abbildung 1). Eine starke Zusammenhangskomponente in einem Graphen G ist
ein maximaler Teilgraph C, der stark zusammenhängend ist. Eine starke Zusammenhangskomponente C ist eine finale starke Zusammenhangskomponente, wenn
zusätzlich gilt, dass es keine Kanten von einem Knoten in C zu einem Knoten
außerhalb von C gibt (siehe Abbildung 2).
In einer endlichen Markov-Kette, die in irgendeinem Knoten in einer starken
Zusammenhangskomponenete C startet, ist die Wahrscheinlichkeit jeden anderen
Knoten in der gleichen starken Zusammenhangskomponente in einer endlichen
Anzahl von Schritten zu erreichen größer als 0. Wenn C eine finale starke Zusammenhangskomponente ist, dann ist diese Wahrscheinlichkeit gleich 1, da die
Markov-Kette die finale starke Zusammenhangskomponente nie verläßt, wenn sie
diese einmal betreten hat. Daraus folgt, dass ein Zustand nur dann persistent ist,
wenn er in einer finalen starken Zusammenhangskomponente liegt.
Eine Markov-Kette ist unreduzierbar, wenn ihr ein Graph zugrunde liegt, der
aus einer einzigen starken Zusammenhangskomponente besteht. Diese einzige starke Zusammenhangskomponente in einer unreduzierbaren Markov-Kette muss endlich sein und deshalb sind alle Zustände dieser Markov-Kette persistent.
a
b
e
f
c
d
g
h
G1={a,b,c,d}
C1={a,b,c}
G2={e,f,g,h}
C2={e,f,g}
Abbildung 1: starke Zusammenhangskomponente C1 im gerichteten Graph G1
und starke Zusammenhangskomponente C2 im ungerichteten Graph G2
2.4
Periodizität
Die Periodizität eines Zustands i ist die größte ganze Zahl T, für die eine Anfangsverteilung q (0) und eine positive Zahl a existiert, so dass alle Zeitpunkte t, für die
(t)
qi > 0 zur arithmetischen Reihe {a + Ti |i ≥ 0} gehören. Für einen verbundenen,
ungerichteten Graphen G ist die Periodizität eines Zustands i der größte gemeinsame Teiler (ggT) der Länge aller geschlossenen Wege von i in G. Dabei ist ein
a
b
e
f
c
d
g
h
G1={a,b,c,d}
C1={a,b,c}
G2={e,f,g,h}
C2={e,f,g}
Abbildung 2: finale starke Zusammenhangskomponente C1 im gerichteten Graph
G1 und finale starke Zusammenhangskomponente C2 im ungerichteten Graph G2
geschlossener Weg ein Weg, der in einem Zustand i startet und in dem selben
Zustand i endet.
Ein Zustand wird periodisch genannt, wenn er eine Periodizität größer als 1
hat und aperiodisch, wenn dies nicht gilt. Mit anderen Worten ist eine Zustand
i periodisch, wenn eine Rückkehr nach i nicht nach einer beliebigen Schrittzahl
möglich ist.
Eine Markov-Kette, in der jeder Zustand aperiodisch ist, wird aperiodische
Markov-Kette genannt. In Abbildung 3 sehen wir ein Beispiel für eine periodische
Markov-Kette.
a
½
½
c
b
½
½
d
X0=(1,0,0,0)
X1=(0,½,½,0)
X2=(½,0,0,½)
X3=(0,½,½,0)=X1
X4=X2
usw.
Abbildung 3: Beispiel für eine periodische Markov-Kette
2.5
Ergodizität
Ein ergodischer Zustand ist aperiodisch und nicht-null persistent. Bei einer ergodischen Markov-Kette ist jeder Zustand ergodisch.
2.6
Stationäre Verteilung
Eine stationäre Verteilung einer Markov-Kette mit Übergangsmatrix P ist eine
Wahrscheinlichkeitsverteilung π, so dass gilt π = πP . Also verbleibt die Markov-
Kette, nachdem sie die stationäre Verteilung erreicht hat, in der selbigen.
An einem Beispiel können wir uns dies verdeutlichen. Wir nehmen die durch den
Graphen in Abbildung 4 gebildete Markov-Kette mit




1/3
0 1/2 1/2




P =  1/2 0 1/2  und π =  1/3 .
1/3
1/2 1/2 0




0 + 1/6 + 1/6
1/3 ∗ 0 + 1/3 ∗ 1/2 + 1/3 ∗ 1/2




Dann ist πP =  1/3 ∗ 1/2 + 1/3 ∗ 0 + 1/3 ∗ 1/2  =  1/6 + 0 + 1/6  =
1/6 + 1/6 + 0
1/3 ∗ 1/2 + 1/3 ∗ 1/2 + 1/3 ∗ 0


1/3


 1/3  = π.
1/3
½
a
½
b
½
c
Abbildung 4: Beispiel Graph zur stationären Verteilung
2.7
Fundamentalsatz für Markov-Ketten
Jede unreduzierbare, endliche und aperiodische Markov-Kette hat die folgenden
Eigenschaften:
1. Alle Zustände sind ergodisch.
2. Es gibt eine einzigartige stationäre Verteilung π, so dass für 1 ≤ i ≤ n,
πi > 0.
3. Für 1 ≤ i ≤ n, fii = 1 und hii = 1/πi .
4. Sei N (i, t) die Anzahl der Besuche des Zustands i in t Schritten der MarkovKette, dann gilt:
N (i, t)
lim
= πi
t→∞
t
3
Irrfahrten auf Graphen
Eine Irrfahrt auf einem Graphen können wir uns vorstellen als die Ausführung
von einzelnen zufällig ausgewählten Schritten von Knoten zu Knoten entlang der
Kanten beginnend auf einem beliebigen Knoten des Graphen.
Zum Verständnis betrachten wir den verbundenen und ungerichteten Graphen
G = (V, E). Eine Irrfahrt auf G ist dann folgendes: Wir beginnen auf einem beliebigen Knoten v0 des Graphen G. Als ersten Schritt wählen wir von dort zufällig
einen Knoten v1 , aus all den Knoten, die durch eine Kante mit v0 verbunden sind.
Also ist v1 ein Nachbarknoten von v0 . Zu diesem Knoten v1 bewegen wir uns
dann. Dies ist das selbe, als wenn wir eine Kante des Knoten v0 wählen würden
und dieser zum Knoten v1 folgen würden. Als zweiten Schritt wiederholen wir
diesen Vorgang für v1 , wählen also zufällig einen Knoten v2 , aus all den Knoten,
die durch eine Kante mit v1 verbunden sind, zu dem wir uns bewegen. Dieser
Vorgang wird immer weiter wiederholt. Zufällig ausgewählt bedeutet in diesem
Fall, daß der Nachbarknoten gleichmäßig zufällig ausgewählt wird und die Entscheidung zu jedem Zeitpunkt unabhängig von den vorherigen Entscheidungen ist.
Dies bedeutet, dass wir Irrfahrten auf Graphen durch Markov-Ketten beschreiben
können.
Sei G = (V, E) ein stark zusammenhängender, nicht bipartiter und ungerichteter
Graph mit n Knoten und m Kanten. Dies führt zu einer Markov-Kette MG , dessen
Zustände die Knoten von Graph G sind und dessen Übergangsmatrix für alle
Paare aus Knoten u, v ∈ V folgendermaßen erstellt wird:
Puv = 1/d(u), falls (u, v) ∈ E
Puv = 0 sonst.
Wobei d(w) der Grad des Knoten w ist. Weil G stark zuammenhängend ist, ist
MG unreduzierbar. Für einen stark zusammenhängenden, ungerichteten Graphen
G ist die Periodizität der Zustände von MG der größte gemeinsame Teiler (ggT)
der Länge aller geschlossener Wege in G. Weil G ungerichtet ist, gibt es geschlossene Wege der Länge 2, die über die selbe Kante zweimal hintereinander gehen.
Da G auch nicht bipartit ist, hat es ungerade Kreise, die zu geschlossenen Wegen
ungerader Länge führen. Daraus folgt, dass der ggT der geschlossenen Wege 1
ist. Also ist MG aperiodisch. Da wir nur eine begrenzte Anzahl von Zuständen
betrachten ist MG auch endlich. Somit erfüllt MG die Bedingungen des Fundamentalsatz für Markov-Ketten 2.7 und hat aus diesem Grund eine einzigartige
stationäre Verteilung π. Es gilt für alle v ∈ V, πv = d(v)/2m.
4
4.1
Strong Uniform Times
Definitionen von Distanzen zwischen Verteilungen
Sei P = (Pij ) eine unreduzierbare aperiodische Übergangsmatrix auf einem endlichen Zustandsraum I = i, j, k, .... Sei i0 ∈ I und i0 = X0 , X1 , X2 , ... die zugehörige Markov-Kette mit Anfangszustand i0 . Sei πn die Wahrscheinlichkeitsverteilung
(n)
πn (j) = Pi0 j = P r(Xn = j). Laut dem Fundamentalsatz für Markov-Ketten existiert für P eine stationäre Verteilung π. Außerdem gilt πn (j) → π(j) für n → ∞
für jedes j ∈ I.
Eine Möglichkeit, die Distanz zwischen zwei Verteilungen Q1 und Q2 auf I zu
bestimmen, ist die totale Variation:
kQ1 − Q2 k = max |Q1 (A) − Q2 (A)| =
A⊂I
1X
|Q1 (i) − Q2 (i)|
2 i∈I
Die totale Variation gibt also die maximale Summe der Abweichungen nach oben
oder nach unten zwischen Q1 (i) und Q2 (i) für alle i ∈ I an. Da gelten muss
P
P
1 = i∈I Q1 (i) = i∈I Q2 (i), muss die Summe der Abweichung noch oben und
unten die selbe sein. Damit ist die totale Variation die Hälfte aller Abweichungen.
(Siehe Abbildungen 5 und 6)
Mit gegebenen P und i0 können wir definieren:
d(n) = kπn − πk
Eine andere Möglichkeit, die Distanz zwischen zwei Verteilungen Q1 und Q2 zu
bestimmen, ist die Separation:
s(Q1 , Q2 ) = max(1 −
i
Q1 (i)
)
Q2 (i)
Die Separation ist die kleinste Zahl s ≥ 0, so dass Q1 = (1 − s)Q2 + sV für eine
Q1 (i)
1 (i)
Verteilung V. Somit gilt Q1 ≥ (1 − s)Q2 . Außerdem ist 1 − Q
= Q2 (i)−Q
.
Q2 (i)
2 (i)
(Siehe Abbildungen 8 und 9)
Mit gegebenen P und i0 können wir definieren:
s(n) = s(πn , π)
Für alle Q1 und Q2 gilt
0 ≤ kQ1 − Q2 k ≤ s(Q1 , Q2 ) ≤ 1.
Die Ungleichung kQ1 − Q2 k ≤ s(Q1 , Q2 ) gilt, weil
X
kQ1 −Q2 k =
i:Q2 (i)≥Q1 (i)
und weil
j
(Q2 (i) max(1−
i:Q2 (i)≥Q1 (i)
P
i:Q2 (i)≥Q1 (i) Q2 (i)
max(1 −
X
(Q2 (i)−Q1 (i)) ≤
≤ 1 und maxj (1 −
X
Q1 (j)
)
Q2 (j) i:Q (i)≥Q
2
1 (i)
Q1 (j)
Q2 (j) )
Q2 (i) ≤ max(1 −
j
j
X
Q1 (j)
Q1 (j)
) = max(1−
)
j
Q2 (j)
Q2 (j) i:Q (i)≥Q
2
= s(Q1 , Q2 ) ist, gilt
Q1 (j)
) ∗ 1 = s(Q1 , Q2 ).
Q2 (j)
Dann gilt auch:
d(n) ≤ s(n)
In Abbildung 5 bis Abbildung 9 wird dieser Zusammenhang graphisch dargestellt.
4.2
Definition der Strong Uniform Time
Sei i0 = X0 , X1 , X2 , ... die gleiche Markov-Kette wie in Abschnitt 4.1 mit dem
Anfangszustand i0 und der stationären Verteilung π. Sei s(n) die Separation.
Definition: Eine Strong Uniform Time T ist eine zufällig ausgewählte Stoppzeit
für (Xn : n ≥ 0), so dass
(a) P r(Xk=i |T = k) = π(i) für alle 0 ≤ k < ∞, i ∈ I.
Man kann (a) umformulieren zu
(b) P r(Xk=i |T ≤ k) = π(i) für alle 0 ≤ k < ∞, i ∈ I
oder zu
(c) XT hat die Verteilung π und ist unabhängig von T .
Aussage:
(a) Falls T eine Strong Uniform Time für {Xn } ist, dann gilt s(n) ≤ P r(T > n),
n ≥ 0.
(b) Es existiert eine Strong Uniform Time T , so dass s(n) ≤ P r(T > n), n ≥ 0
mit Gleichheit hält.
Beweis für Aussage (a):
P r(Xn = i) ≥ P r(Xn = i, T ≤ n) = P r(Xn = i|T ≤ n)P r(T ≤ n)
Weil Xm mit {T = m} die bedingte Verteilung π hat und von jedem Xn , n ≥ m,
die bedingte Verteilung π ist, ist π auch die bedingte Verteilung Xn mit {T ≤ n}.
Also gilt
1 (i)
Q
0,3
0,25
0,2
Q1 = (0,25 | 0,25 | 0,3 | 0,05 | 0,15)
0,15
0,1
Q2 = (0,2 | 0,2 | 0,2 | 0,2 | 0,2)
0,05
0
1
2
3
4
5
Abbildung 5: Die Länge aller Balken ergibt
i∈I |Q1 (i) − Q2 (i)|. Weil 1 =
P
P
Q
(i)
=
Q
(i),
können
sowohl
die
blauen
Balken, als auch die roten
1
2
i∈I
i∈I
P
Balken als maxA⊂I |Q1 (A) − Q2 (A)| = kQ1 − Q2 k = 12 i∈I |Q1 (i) − Q2 (i)| gelten.
P
0,3
0,25
0,2
Q1 = (0,25 | 0,25 | 0,3 | 0,05 | 0,15)
0,15
0,1
Q2 = (0,2 | 0,2 | 0,2 | 0,2 | 0,2)
0,05
0
1
2
3
4
5
Abbildung
6: Die Summe der Längen
(Q
2 (i) − Q1 (i)) = kQ1 − Q2 k.
i:Q2 (i)≥Q1 (i)
der
roten
Balken
ergibt
P
0,3
0,25
0,2
Q1 = (0,25 | 0,25 | 0,3 | 0,05 | 0,15)
0,15
0,1
Q2 = (0,2 | 0,2 | 0,2 | 0,2 | 0,2)
0,05
0
1
Abbildung
2
3
4
7: Die Summe der
Q1 (j)
i:Q2 (i)≥Q1 (i) (Q2 (i) maxj (1 − Q2 (j) ).
P
5
Längen
der
roten
Balken
ergibt
0,3
0,25
0,2
Q1 = (0,25 | 0,25 | 0,3 | 0,05 | 0,15)
0,15
0,1
Q2 = (0,2 | 0,2 | 0,2 | 0,2 | 0,2)
0,05
0
1
2
3
4
5
1 (j)
Abbildung 8: Die Summe der Längen der roten Balken ergibt maxj (1− Q
Q2 (j) )∗1 =
s(Q1 , Q2 ).
0,3
0,25
0,2
Q1 = (0,25 | 0,25 | 0,3 | 0,05 | 0,15)
0,15
0,1
Q2 = (0,2 | 0,2 | 0,2 | 0,2 | 0,2)
0,05
0
1
2
3
4
5
Abbildung 9: Der rote Balken im Verhältnis zum grünen Balken ergibt maxi (1 −
Q1 (i)
Q2 (i)−Q1 (i)
1 (i)
=1− Q
Q2 (i) ) = s(Q1 , Q2 ), weil
Q2 (i)
Q2 (i) .
P r(Xn = i|T ≤ n)P r(T ≤ n) = P r(T ≤ n)π(i) = [1 − P r(T > n)]π(i).
Beweis für Aussage (b):
Definiere an = mini πn (i)/π(i). Sei k die kleinste Zahl, für die ak > 0 gilt.
Definiere T so, dass
P r(T < k) = 0
P r(T = k|Xk = i) =
ak π(i)
,
P r(Xk = i)
i ∈ I.
Dies impliziert P r(T = k, Xk = i) = ak π(i), weil
P r(T = k|Xk = i) =
=⇒
ak π(i)
,
P r(Xk = i)
P r(T = k|Xk = i)P r(Xk = i) =
=⇒
i∈I
ak π(i)P r(Xk = i)
,
P r(Xk = i)
P r(T = k, Xk = i) = ak π(i),
i∈I
i ∈ I.
Induktiv für n > k ist
P r(T = n|Xn = i, T > n − 1) =
an − an−1
,
πn (i)
π(i) − an−1
i ∈ I.
(1)
Wir zeigen nun:
P r(Xn = i, T = n) = π(i)(an − an−1 ),
n ≥ k, i ∈ I
(2)
Diese Gleichung können wir umformen in:
P r(Xn = i|T = n)P r(T = n) = π(i)(an − an−1 ),
n ≥ k, i ∈ I.
Dies impliziert, dass T eine Strong Uniform Time ist, also dass P r(Xn = i|T =
n) = π(i) gilt. Somit gilt auch P r(T = n) = an − an−1 .
Dies läßt sich durch Widerspruch beweisen, in dem wir P r(Xn = i|T = n) =
π̂(i) und P r(T = n) = ân definieren, wobei wenigstens ein i existiert, so dass
π̂(i) 6= π(i). Nehmen wir ein i, so dass π̂(i) > π(i), dann gibt es auch ein j, so
dass π̂(j) < π(j). Somit erhalten wir:
ân =
(an − an−1 )π(i)
π̂(i)
und
ân =
(an − an−1 )π(j)
π̂(j)
Durch Gleichsetzung erhalten wir:
(an − an−1 )π(i)
(an − an−1 )π(j)
=
π̂(i)
π̂(j)
=⇒
=⇒
π(i)
(an − an−1 )π(j)
=
π̂(i)
(an − an−1 )π̂(j)
π(i)
π(j)
=
π̂(i)
π̂(j)
π(i)
< 1 aufgrund der Bedingung π̂(i) > π(i) und π(j)
wobei aber π̂(i)
π̂(j) > 1 aufgrund
der Bedingung π̂(j) < π(j). Somit ist die Gleichung nicht korrekt. Ein π̂(i) 6= π(i)
mit P r(Xn = i|T = n) = π̂(i) existiert nicht.
Außerdem gilt, weil P r(T = n) = an − an−1 ,
P r(T ≤ n) =
n
X
P r(T = i) = (an −an−1 )+(an−1 −an−2 )+. . .+(a1 −a0 ) = an −a0 = an = 1−s(πn , π).
i=1
(3)
Dies gibt die gewünschte Gleicheit in Aussage (b), denn s(πn , π) = 1 − P r(T ≤
n) = P r(T > n).
Nun müssen wir noch beweisen, dass die Gleichung (2) gilt. Dies läßt sich
induktiv zeigen. Sei B(y) die Gleichung P r(Xy = i, T = y) = π(i)(ay − ay−1 ).
Induktionsanfang: Für y = k ist, weil ak−1 = 0,
P r(Xk = i, T = k) = π(i)(ak − ak−1 ) = π(i)ak .
Induktionsannahme: B(y) ist erfüllt für alle y < n.
Induktionsschritt: Wir zeigen, dass B(n) wahr ist. Weil
P r(Xn = i, T = n) = P r(T = n|Xn = i, T > n − 1)P r(Xn = i, T > n − 1)
= P r(T = n|Xn = i, T > n − 1)(P r(Xn = i) − P r(Xn = i, T ≤ n − 1))
mit Gleichung (1) und P r(Xn = i) = πn (i)
P r(Xn = i, T = n) =
an − an−1
(πn (i)
πn (i)
π(i) − an−1
− P r(Xn = i, T ≤ n − 1))
(4)
ist, fehlt uns
P r(Xn = i, T ≤ n − 1).
Wir wissen, dass
P r(Xn = i, T = y) = π(i)(ay − ay−1 ),
y<n
wobei P r(Xy = i|T = y) = π(i) und P r(T = y) = ay − ay−1 . Aus P r(Xy = i|T =
y) = π(i) folgt P r(Xu = i|T = y) = π(i) für alle u ≥ y. Das bedeutet, dass auch
P r(Xn = i|T = y) = π(i), weil n ≥ y für alle y < n. Daraus folgt, dass
P r(Xn = i|T = y)P r(T = y) = P r(Xn = i, T = y) = π(i)(ay − ay−1 ).
Somit ist
P r(Xn = i, T ≤ n−1) =
n−1
X
P r(Xn = i, T = y) =
n−1
X
π(i)(ay −ay−1 ) = π(i)
(ay −ay−1 )
y=0
y=0
y=0
n−1
X
= π(i)((ay − ay−1 ) + (ay+1 − ay ) . . . (an−1 − an−2 )) = π(i)an−1 .
Dieses Ergebnis können wir in Gleichung (4) einsetzen und erhalten
P r(Xn = i, T = n) =
=
an − an−1
(πn (i)
πn (i)
−
a
n−1
π(i)
an − an−1
πn (i)
((
πn (i)
π(i)
π(i) − an−1
=
πn (i)
π(i)
πn (i)
π(i)
− an−1
− an−1
− π(i)an−1 )
− an−1 )π(i))
(an − an−1 )π(i)
= (an − an−1 )π(i).
Damit ist die Gleichung (2) bewiesen und aus diesem Grund gilt auch Gleichung
(3), die die gewünschte Gleicheit in Aussage (b) gibt.
4.3
Beispiel: Würfel in N Dimensionen
Für unser Beispiel, der Irrfahrt auf einem N-dimensionalen Würfel, definieren wir
zuerst den Würfel. Sei I = {0, 1}N die Menge aller N-stelligen Bezeichnungen der
Knoten des Würfels. Für die Knoten i = (i1 , ..., iN ) und j = (j1 , ..., jN ) ∈ I sei
Pij =
X
1
falls
|is − js | = 0 oder 1
N +1
s
Pij = 0 sonst
Durch die Bedingung, s |is − js | = 1, erhalten wir für Knoten, die sich nur an
einer Stelle unterscheiden, die Überganswahrscheinlichkeit 1/(N + 1). Somit ist
jeder Knoten direkt mit N anderen Knoten verbunden. Durch die Bedingung,
P
s |is − js | = 0, erhalten wir für jeden Knoten des Würfels die Überganswahrscheinlichkeit 1/(N + 1), dass keine Bewegung durchgeführt wird und die MarkovKette in dem aktuellen Zustand verharrt. Diese Bedingung ist notwendig, damit
die Markov-Kette aperiodisch ist.
P
Um die Strong Uniform Time für die Irrfahrt auf einem N-dimensionalen Würfel
zu konstruieren, benutzen wir einen Markierungsprozess. Dazu definieren wir die
Markov-Kette folgendermaßen:
Seien θ1 , θ2 , ... unabhängig und gleichförmig auf {0, 1, ..., N }. Dann kann die
Irrfahrt Xn = (Xn (i) : 1 ≤ i ≤ N ) mit X0 = 0 definiert werden durch
Xn (i) = Xn−1 (i) + 1(i=θn ) , 1 ≤ i ≤ N , wobei die Addition Modulo 2 ist.
Die einzelnen Knoten und damit auch die Zustände der Markov-Kette werden
also durch eine eindeutige N-stellige binäre Zahlenfolge beschrieben, die wir im
folgenden Knotenbezeichnung nennen. Dabei steht Xn (i) für die i-te Stelle der
Knotenbezeichnng zum Zeitpunkt n. θn = i bedeutet, dass zum Zeitpunkt n eine
Bewegung stattfindet, wobei sich die aktuelle Knotenbezeichnung an der i-ten
Stelle aufgrund der Addition Modulo 2 von 0 auf 1 oder von 1 auf 0 ändert.
θn = 0 bedeutet, dass zum Zeitpunkt n keine Bewegung stattfindet, also die
Markov-Kette im selben Zustand verbleibt. Eine 0-te Stelle, also Xn (i) mit i = 0,
die man ändern könnte, gibt es nicht.
Für einen Würfel in drei Dimensionen erhalten wir so eine Knotenbezeichnungen
wie in Abbildung 10.
Jetzt können wir den Markierungsprozess beschreiben:
110
010
111
011
101
100
000
001
Abbildung 10: Knotenbezeichnungen für einen Würfel in drei Dimensionen
Zu Beginn ist keine Stelle der Knotenbezeichnungen markiert. Bei einem normalen Schritt wird keine Stelle markiert, wenn die geänderte Stelle θn vorher
schon markiert wurde oder die Möglichkeit gewählt wurde, keine Bewegung durchzuführen, also θn = 0 ist. Wird aber eine Stelle θn geändert, die zuvor noch
nicht markiert wurde, dann wird diese Stelle mit einer Wahrscheinlichkeit von
1
2 markiert. Andernfalls wird eine Stelle markiert, die nicht der geänderte Stelle
entspricht. Diese Auswahl mit einer Wahrscheinlichkeit von 21 kann durch einen
fairen Münzwurf simuliert werden. Sobald nur noch genau eine unmarkierte Stelle
j existiert, ändert sich das Vorgehen. In diesem Fall wird keine Stelle markiert,
wenn die geänderte Stelle θn vorher schon markiert wurde. Wird aber die einzige
noch nicht markierte Stelle j ausgewählt, also θn = j ist, oder die Möglichkeit
gewählt, keine Bewegung durchzuführen, also θn = 0 ist, dann wird die letzte
noch nicht markierte Stelle markiert.
Beschreiben wir dies nun formal. Sei Dn ∈ {Kopf, Zahl} der Münzwurf und
Cn = (Cn (i) : 1 ≤ i ≤ N ), wobei Cn (i) = 1 bedeutet, dass die Stelle i vor oder
zur Zeit n markiert wurde.
C0 = 0
Falls θn = 0 oder Cn−1 (θn ) = 1, dann Cn = Cn−1 .
Falls Cθn (n − 1) = 0 und | {i : Cn−1 (i) = 0)} | = m ≥ 2, dann:
falls Dn = Kopf , dann Cn (i) = Cn−1 (i) + 1(i=θn ) ,
falls Dn = Zahl, dann Cn (i) = Cn−1 (i) + 1(i=ξn ) , wobei ξn gleichförmig
auf {i : Cn (i) = 0} \θn .
Falls {i : Cn−1 (i) = 0} = {j}, dann:
falls θn ∈
/ {0, j}, dann Cn = Cn−1 ,
falls θn ∈ {0, j}, dann Cn (i) = Cn−1 (i) + 1(i=j) .
Sei nun T der erste Zeitpunkt, zu dem alle Stellen der Knotenbezeichnung markiert
wurden. Dann ist T eine Strong Uniform Time. Um dies zu beweisen, zeigen wir
für jedes B ⊆ {1, ..., N } und jedes n ≥ 1, dass die Verteilung von {Xn (i); i ∈ B}
mit B = {i : Cn (i) = 1} gleichförmig auf {0, 1}B ist.
Durch Induktion über n auf B = {1, ..., N }, können wir zeigen, das T eine
Strong Uniform Time ist.
Induktionsanfang: Für n = 1 können wir feststellen, dass es zuvor noch keine
markierte Stelle und damit auch noch keine geänderte Stelle gab. Deshalb gibt es
für diesen Fall zwei Möglichkeiten:
I) Es wird keine Bewegung gewählt, also θ1 = 0. In diesem Fall passiert
nichts. Also ist die Verteilung von {X1 (i); i ∈ B} mit B = {i : C1 (i) = 1} = {}
gleichförmig auf {0, 1}B .
II) Es wird eine Stelle ausgewählt, die vorher noch nicht markiert wurde, also
C1 (θ1 ) = 0. Die Wahrscheinlichkeit, dass die in diesem Schritt geänderte Stelle
auch die markierte Stelle ist beträgt 21 und die Wahrscheinlichkeit, dass irgendeine
andere Stelle markiert wird auch 12 , wodurch die Wahrscheinlichkeit, dass die markierte Stelle λ1 eine 0 oder 1 ist auch 12 beträgt und damit {X1 (λ1 )} gleichverteilt
auf {0, 1} ist. Also ist {X1 (i); i ∈ B} mit B = {i : C1 (i) = 1} = {λ1 } gleichverteilt
auf {0, 1}B .
Induktionsannahme: {Xn (i); i ∈ B} ist gleichverteilt auf {0, 1}B mit B = {i : Cn (i) = 1}.
Induktionsschritt: Für n = n + 1 gibt es fünf Möglichkeiten:
I) Es wird keine Bewegung gewählt, also θn+1 = 0. In diesem Fall passiert
nichts. Es gilt
B = {i : Cn+1 (i) = 1} = {i : Cn (i) = 1}, also ist die Verteilung von {Xn+1 (i); i ∈ B}
gleichförmig auf {0, 1}B mit B = {i : Cn+1 (i) = 1}.
II) Es wird eine Stelle ausgewählt, die vorher schon markiert wurde, also
Cn+1 (θn+1 ) = 1. Da diese Stelle mit einer Wahrscheinlichkeit von 12 entweder eine
1 oder eine 0 ist, ist die Stelle nachdem sie geändert wurde auch wieder mit einer
Wahrscheinlichkeit von 12 entweder eine 0, wenn sie vorher eine 1 war, oder eine
1, wenn sie vorher eine 0 war. Damit ist {Xn+1 (θn+1 )} gleichverteilt auf {0, 1}
und θn+1 ∈ B = {i : Cn (i) = 1}. Also ist die Verteilung von {Xn+1 (i); i ∈ B}
gleichförmig auf {0, 1}B mit B = {i : Cn+1 (i) = 1} = {i : Cn (i) = 1} .
III) Es wird eine Stelle ausgewählt, die vorher noch nicht markiert wurde, also Cn+1 (θn+1 ) = 0. In diesem Fall wird mit einer Wahrscheinlichkeit von 12 die
geänderte Stelle markiert und sonst irgendeine andere Stelle, wodurch die Wahrscheinlichkeit, dass die markierte Stelle λn+1 eine 0 oder eine 1 ist 12 beträgt und
damit {Xn+1 (λn+1 )} gleichverteilt auf {0, 1} ist. Es gilt B = {i : Cn+1 (i) = 1} =
{i : Cn (i) = 1}+{λn+1 }. Also ist die Verteilung von {Xn+1 (i); i ∈ B} gleichförmig
auf {0, 1}B mit B = {i : Cn+1 (i) = 1}.
IV) Es existiert nur noch eine unmarkierte Stelle j und es wird keine Bewegung
gewählt, also θn+1 = 0. In diesem Fall wird die letzte Stelle markiert. Weil die
Wahrscheinlichkeit, dass keine Bewegung gewählt wird, gleich der Wahrscheinlichkeit ist, dass j gewählt wird, also P r(θn+1 = 0) = P r(θn+1 = j), wurde die
markierte Stelle λn+1 mit einer Wahrscheinlichkeit von 12 nicht geändert und sonst
geändert. Die Wahrscheinlichkeit, dass die markierte Stelle λn+1 eine 0 oder eine
1 ist, beträgt somit 12 und deshalb ist {Xn+1 (λn+1 )} gleichverteilt auf {0, 1}. Es
gilt B = {i : Cn+1 (i) = 1} = {i : Cn (i) = 1} + {λn+1 }. Also ist die Verteilung von
{Xn+1 (i); i ∈ B} gleichförmig auf {0, 1}B mit B = {i : Cn+1 (i) = 1}.
V) Es existiert nur noch eine unmarkierte Stelle j und es wird die Stelle j
gewählt, also θn+1 = j. In diesem Fall wird die letzte Stelle markiert. Weil die
Wahrscheinlichkeit, dass j gewählt wird, gleich der Wahrscheinlichkeit ist, dass
keine Bewegung gewählt wird, also P r(θn+1 = j) = P r(θn+1 = 0), wurde die
markierte Stelle λn+1 mit einer Wahrscheinlichkeit von 12 geändert und sonst nicht
geändert. Die Wahrscheinlichkeit, dass die markierte Stelle λn+1 eine 0 oder eine
1 ist, beträgt somit 12 und deshalb ist {Xn+1 (λn+1 )} gleichverteilt auf {0, 1}. Es
gilt B = {i : Cn+1 (i) = 1} = {i : Cn (i) = 1} + {λn+1 }. Also ist die Verteilung von
{Xn+1 (i); i ∈ B} gleichförmig auf {0, 1}B mit B = {i : Cn+1 (i) = 1}.
Damit ist für jedes B ⊆ {1, ..., N } und jedes n ≥ 1 bewiesen, dass {Xn (i); i ∈ B}
mit B = {i : Cn (i) = 1} gleichverteilt auf {0, 1}B ist und deshalb auch, dass T
eine Strong Uniform Time ist.
Um das Ende der Verteilung von T abzuschätzen, schreiben wir
T = WN + WN −1 + ... + W1 ,
wobei Wk die Anzahl von Schritten ist, während denen es k unmarkierte Stellen gibt. Also ist Wk die Wartezeit von dem Zeitpunkt, zu dem die (N − k)te
Stelle markiert wurde bis zur Markierung einer weiteren Stelle. Dann sind die
Wk unabhängig mit geometrischer Verteilung [P r(X = n) = p(1 − p)n−1 , p =
die Wahrscheinlichkeit für einen Erfolg]. Weil k unmarkierte Stellen existieren,
beträgt die Wahrscheinlichkeit für einen Erfolg Nk+1 , somit ist
P r(Wk = m) =
k
k
(1 −
)m−1 ,
N +1
N +1
P r(W1 = m) =
2
2
(1 −
)m−1 ,
N +1
N +1
m ≥ 1, k ≥ 2,
m ≥ 1.
Damit bestimmen wir den Erwartungswert [E(x) = 1/p, p = die Wahrscheinlichkeit für einen Erfolg]
E(T ) =
N
N +1 N +1 N +1
N +1
N +1 X
N +1
+
+
+...+
=
+
≤ (N +1)(1+log N )
2
2
3
k
2
k
k=2
und die Varianz [V AR(x) =
V AR(T ) =
2
N +1
( N 2+1 )2
1−
+
1−p
,
p2
2
N +1
( N 2+1 )2
1−
+
p = die Wahrscheinlichkeit für einen Erfolg]
3
N +1
( N 3+1 )2
1−
+...+
k
N +1
( Nk+1 )2
1−
Die Chebyshev
Ungleichung P r(|T − E(T )| >= C) <=
p
(c − 1) V ar(T ), c > 1
q
P r(|T − E(T )| >= (c − 1) V AR(T )) ≤
=⇒
=
2
N +1
( N 2+1 )2
1−
V AR(T )
C2
1
,
(c − 1)2
k
N +1
k 2
k=2 ( N +1 )
+
N 1−
X
ergibt mit C =
c>1
q
P r(T >= (c − 1) V AR(T )) + E(T )) ≤ 1/(c − 1)2 ,
c > 1.
Mit dem Erwartungswert E(T ) = (N + 1)(1 + log N ) und der Varianz V AR(T ) =
(N + 1)2 erhalten wir
q
P r(T >= (c − 1) (N + 1)2 ) + ((N + 1)(1 + log N ))) ≤ 1/(c − 1)2 ,
=⇒
P r(T >= (N + 1)(1 + log N + c − 1)) ≤ 1/(c − 1)2 ,
=⇒
P r(T ≥ (N + 1)(log N + c)) ≤
1
,
(c − 1)2
c>1
c>1
c > 1.
Mit dieser Methode bekommen wir für die Irrfahrt auf einem Würfel in N Dimensionen also eine Schranke für s(n), die nicht trivial ist für n ≥ (N + 1)(log N + 2).
5
Literatur
[1] Randomized Algorithms, R. Motwani and P. Raghavan, Cambridge University
Press 1995
[2] Strong Uniform Times and Finite Random Walks, D. Aldous and P. Diaconis,
Advances in Applied Mathematics 1987
≤ (N +1)2 .
Herunterladen