Markov-Ketten und Irrfahrten auf Z

Werbung
Markov-Ketten und Irrfahrten auf Zd
Diana Atzmüller
20. März 2013
1
Inhaltsverzeichnis
1 Einleitung
3
2 Markov-Ketten
2.1 Grundlagen . . . . . . . . . . . . . . . . .
2.2 Übergangswahrscheinlichkeit in n Schritten
2.3 Green Kernel . . . . . . . . . . . . . . . .
2.4 Irreduzible Klassen und Periodizität . . . .
2.5 Rekurrenz und Transienz . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
. 4
. 6
. 8
. 9
. 11
3 Irrfahrten auf Zd
14
3.1 Einfache symmetrische Irrfahrt . . . . . . . . . . . . . . . . . 18
3.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Literaturverzeichnis
23
2
1
Einleitung
Von mehreren Teilgebieten der Mathematik und auch Physik werden MarkovKetten als stochastische Zufallsprozesse aus verschiedenen Blickwinkeln betrachtet und analysiert. Zusätzlich zum theoretischen Wert im wissenschaftlichen Sinne ist das Anwendungsspektrum breit gefächert. Es erstreckt sich
von Bereichen der Spieltheorie und Prognosen bzw. Risikobewertungen für
Finanz- und Versicherungsmärkte, über biologische Prozesse wie zum Beispiel
das Wachstum von Genomen, bis hin zur künstlichen Intelligenz im Bereich
Technik und Informatik, wo sich Markov-Modelle als versteckter, komplexer
Prozess in Spracherkennungsprogrammen und Spamfiltern wiederfinden. Diese Arbeit behandelt vorrangig den graphentheoretischen Hintergrund einiger
interessanter Gegebenheiten und Regeln im Umfeld von Markov-Ketten als
diskreten Prozess. Markov-Prozesse in kontinuierlicher Zeit, wie zum Beispiel
den Wiener Prozess der auch als Brownsche Bewegung bekannt ist, werden
nicht behandelt.
Irrfahrten, oder auch Random Walks, sind eine spezielle Art einer solchen
Markov-Kette. Man stelle sich einen Punkt vor, der sich auf eine unendliche
Wanderung auf einer Gruppe bzw. einem Graphen aus Knoten und Kanten
begibt. Dabei gibt es von jedem Knoten einen Pfad (einen Weg aus einer beliebigen Anzahl an Kanten) in jeden anderen Knoten. Jede Irrfahrt findet auf
so einem zusammenhängenden Graphen statt. Auch wenn ein solcher Spaziergang zufällig ist und jeder Schritt ein unabhängiges Ereignis darstellt, genügt
er dennoch gewissen Regeln und lässt allgemein gültige Schlüsse zu. Fragen
nach der Wahrscheinlichkeit einen bereits in der Vergangenheit passierten
Knoten noch einmal zu durchlaufen und wenn ja, wie oft und in welcher Zeit
dies voraussichtlich passiert, können zum Teil beantwortet werden. Besonders
interessant ist dabei die Beobachtung, dass sich die verschiedenen Dimensionen des Raumes, in dem sich das Teilchen bewegt, durchaus unterschiedlich
auf die Eigenschaften der Markov-Kette auswirken.
3
2
Markov-Ketten
2.1
Grundlagen
Vor der Untersuchung von Markov-Ketten gilt es ihre Definition in Erinnerung zu rufen.
Definition 1. Sei X ein endlicher oder abzählbar unendlicher Zustandsraum.
Eine Markov-Kette (Xn )n≥0 ist eine Folge von Zufallsvariablen mit folgenden
zwei Eigenschaften:
(i) P[Xt = xt | Xt−1 = xt−1 , . . . , X1 = x1 , X0 = x0 ]
= P[Xt = xt | Xt−1 = xt−1 ] ;
(ii) P[Xt+a+1 = y | Xt+a = x] = P[Xt+1 = y | Xt = x] ∀t, a ≥ 0 .
Die Markov-Eigenschaft wird in (i) beschrieben. Wie ohne Gedächtnis hängt
die Zukunft allein von der Gegenwart ab. Vorangegangene Ereignisse sind für
den nächsten Übergang nicht von Bedeutung. Zusätzlich genügt die MarkovKette (ii) und gilt damit als zeithomogen1 . Die Chance für einen bestimmten
Zustandswechsel im ersten Schritt entspricht jener zum fünften, letzten oder
jedem beliebigen anderen Zeitpunkt.
Die Übergangswahrscheinlichkeiten der verschiedenen
Zustände lassen sich
zu einer stochastischen Matrix P := p (x, y) x,y∈X mit P ∈ Mn (R) zusammenfassen. Dabei beschreibt p(x, y) die Chance eines Wechsels von x nach y
in einem Schritt. Es gilt
X
p(x, y) ≥ 0 ,
p(x, y) = 1 .
y∈X
Ist der Start einer Markov-Kette nicht festgelegt, ist zusätzlich eine Anfangsverteilung ν, ein Wahrscheinlichkeitsmaß auf X mit ν(x) := P[X0 = x]
gegeben. Im weiteren Verlauf steht
Pν [Xn = y] bzw. Px [Xn = y]
für die Wahrscheinlichkeit bei Anfangsverteilung ν bzw. Start im Zustand x
im n-ten Schritt y zu realisieren.
1
Zeithomogenität ist für eine Markov-Kette nicht unbedingt erforderlich. Die
Übergangswahrscheinlichkeiten können zu den verschiedenen Zeitpunkten variieren. Diese Arbeit beschränkt sich jedoch auf den stationären, diskreten Prozess mit konstanten
ein-Schritt Übergangswahrscheinlichkeiten.
4
Abbildung 1: Das Wetter in Salzburg. Mögliche Darstellung des Graphen
Γ(P ) mit zugehöriger stochastischer Übergangsmatrix P und Zustandsraum
X = {Sonne, Regen, Schnee}.
Bemerkung. Für A ∈ σ(X0 , . . . , Xm ) und B ∈ σ(Xm , . . . , Xm+n ) ist
P[A ∩ B | Xm = y] = P[A | Xm = y] · P[B | Xm = y] .
Da die Vergangenheit und die Zukunft bedingt auf die Gegenwart unabhängig
voneinander sind, verliert die Anfangsverteilung nach dem Start einer MarkovKette an Bedeutung. Eine MK (X, P ) vergisst sozusagen ihre Anfangsverteilung bedingt auf den Zustand zu einem späteren Zeitpunkt.
Definition 2. Für eine Markov-Kette (Xn )n≥0 mit Übergangsmatrix P ist
Γ(P ) der zugehörige orientierte Graph mit Knotenmenge V (Γ) = X und
[x, y] ist Element der Kantenmenge E(Γ) ⊂ V (Γ) × V (Γ) für p(x, y) > 0.
Ist ein Graph orientiert, so ist eine Kante wie ein gerichteter Pfeil anzusehen.
Aus der Existenz einer Kante von einem Knoten (Zustand) in einen Anderen
folgt nicht unmittelbar, dass auch die Rückkehr in einem einzigen Schritt
(oder überhaupt) möglich ist. Die Übergangswahrscheinlichkeit p(x, y) kann
als Gewichtung der gerichteten Kante [x, y] angesehen werden.
Der Graph einer Markov-Kette lässt sich sehr gut graphisch darstellen.
Abbildung 1 zeigt ein Beispiel für die Wettervorhersage zur kalten Jahreszeit
in Salzburg. Scheinbar überwiegen die schlechten Wetterverhältnisse und die
Einwohner können davon ausgehen, dass auf einen Sonnentag immer Regen
oder Schnee folgt. Bei näherer Betrachtung kommen Fragen über die Eigenschaften der Markovkette auf, die über die Vorhersage des nächsten Tages
hinausgehen. Dazu zwei Beispiele:
5
Angenommen es regnet heute.
Wie viele verregnete Tage sind in diesem Monat zu erwarten?
Wie groß ist die Chance auf schönes Wetter in zwei Wochen?
Im weiteren Verlauf werden Antworten darauf gefunden.
2.2
Übergangswahrscheinlichkeit in n Schritten
Die Zeilen einer stochastischen Matrix sind jeweils Verteilungen auf X. Daher
ist auch jede Matrixpotenz P n mit n ∈ N wiederum eine stochastische Matrix
und es gilt
P m+n = P m · P n ,
mit P 0 = I|X| .
(1)
Ist p(n) (x, y) das Element an der Stelle (x, y) der n-ten Potenz der Übergangsmatrix, so folgt aus (1) auch
X
p(n) (x, ω) p(m) (ω, y) .
(2)
p(m+n) (x, y) =
ω∈X
Dabei beschreibt
p(n) (x, y) = Px [Xn = y] = Pν [Xk+n = y | Xk = x]
die Wahrscheinlichkeit für einen Wechsel vom Zustand x zum Knoten y in n
Schritten. Die beiden Gleichungen (1) und (2) werden Chapman-KolmogorovGleichungen genannt.
Dass die einzelnen Übergänge unabhängige Ereignisse sind und die entsprechenden Regeln für bedingte Wahrscheinlichkeiten gelten, impliziert genauso
wie (2) die Wahrscheinlichkeit für den jeweils nächsten Übergang mit
X
p(x, ω)p(n) (ω, y) .
p(n+1) (x, y) =
ω∈X
Um verschiedene Ereignisse zeitlich zu bemessen, ist es wichtig eine weitere Zufallsvariable, den Begriff der Stoppzeiten einzuführen. Insbesondere
die Wahrscheinlichkeiten von Eintrittszeiten und Erwartungswerte sind von
Interesse, da sie der Analyse des asymptotischen Verhaltens von MarkovKetten dienen.
6
Definition 3. Eine Stoppzeit ist eine Zufallsvariable t mit Wertebereich
N0 ∪ {∞}, sodass
[tt ≤ n] = {ω ∈ Ω | t (ω) ≤ n} ∈ An ,
∀n ∈ N .
Eine Stoppzeit hat also die Eigenschaft, allein mit Hilfe der ersten n Elemente
einer Trajektion (Realisierung) zu bestimmen, ob t kleiner gleich n ist. Die
Definition mag formal sehr abstrakt klingen, spiegelt aber nur die intuitive
Interpretation des namentlichen Begriffs wider. Die Zuvallsvariable t gibt an,
ob ein bestimmtes Ereignis bis zum Zeitpunkt n eingetreten ist, oder nicht.
Definition 4. Für eine Menge W ⊂ X sind die (erste) Eintrittszeit und die
(erste) Rückkehrzeit definiert als
s W := inf {n ≥ 0 : Xn ∈ W }
und t W := inf {n ≥ 1 : Xn ∈ W } .
Weiters ist
vW
n
(
1 Xn ∈ W
:=
0 sonst
v
und
W
=
∞
X
vW
n .
n=0
Nur bei Start der Markovkette in W unterscheidet sich s W von t W . Die
Eintrittszeit beschreibt die Anzahl der Schritte bis zum ersten Besuch der
Markov-Kette in W , was schon beim Start der Fall sein kann. Hingegen
misst die Rückkehrzeit die Anzahl der Schritte bis zum ersten Eintreffen in
W nach dem Start. Die Zufallsvariable v W dient dem Abzählen der Besuche
von (X, P ) in W . Weitere wichtige Begriffe sind:
Die erwartete Anzahl der Besuche in y, bei Start in x
y
G(x, y) := Ex (vv ) =
∞
X
p(n) (x, y) .
n=0
Die Wahrscheinlichkeit bei Start in x jemals y zu realisieren
y
F (x, y) := Px [ss ≤ ∞] =
∞
X
f (n) (x, y) ,
mit f (n) (x, y) := Px [ssy = n] .
n=0
Die Wahrscheinlichkeit nach Start in x, Knoten y zu durchlaufen
U (x, y) := Px [tty ≤ ∞] =
∞
X
u(n) (x, y) ,
n=0
7
mit u(n) (x, y) := Px [tty = n] .
Damit lassen sich die Fragen zum Salzburger Wetterbeispiel bereits jetzt
beantworten. Die voraussichtliche Anzahl verregneter Tage im nächsten Monat ist
ERe (vv So
[0,30] )
=
30
X
p(n) (Re, So) .
(3)
n=0
Analog dazu ist die Wahrscheinlichkeit für Sonnenschein in 14 Tagen
p(14) (Re, So) .
(4)
Um eine effiziente Berechnung solcher Größen zu ermöglichen, werden
erzeugende Funktionen eingeführt. Es wird sich herausstellen, dass diese für
endliche Zustandsräume stets rational sind.
2.3
Green Kernel
Für die nähere Betrachtung von reellen oder komplexen Sequenzen werden
oft
Funktionen herangezogen. Das sind Potenzreihen der Form
P∞erzeugende
n
a
z
mit
z ∈ C. Für eine Markov-Kette (X, P ) ist der Green Kernel
n=0 n
oder auch die Green Funktion, die Potenzreihe
G(x, y|z) =
∞
X
p(n) (x, y)z n ,
x, y ∈ X, z ∈ C .
n=0
Der Konvergenzradius ist
−1
q
n
(n)
r(x, y) = lim sup p (x, y)
≥1.
n→∞
Zur späteren Zuordnung eines Zustandes als rekurrent oder transient, die
das asymptotische Verhalten von Übergängen beschreiben, werden erzeugende Funktionen benötigt. Die erwartete Anzahl der Besuche in y bei Start
in x entspricht der Potenzreihe G(x, y|1). Die Frage nach Konvergenz für
die unendliche Reihe G(x, y) wird für die Klassifizierung von Zuständen im
Weiteren eine große Rolle spielen.
Mittels linearer Algebra lässt sich der Green Kernel explizit berechnen.
Die Greenfunktionen der jeweiligen Zustände lassen sich zu einer Matrix
zusammenfassen und es gilt
∞
X
G(z) := G(x, y|z) x,y∈X =
znP n .
n=0
8
Der Konvergenzradius ist r = inf {r(x, y) | x, y ∈ X}. Für |z| < r konvergiert
die Reihe und wegen
G(z) = I +
∞
X
n
n
z P = I + zP
n=1
∞
X
z n P n = I + zP G(z)
n=0
ist G(z) = (I − zP )−1 für invertierbare (I − zP ).
Für endliche Knotenmengen ist also G(x, y|z) immer der Quotient zweier
rationaler Funktionen mit
G(x, y|z) = ±
det(I − zP |y, x)
.
det(I − zP )
Dabei bezeichnet (I − zP |y, x) die Matrix nach Streichen der y-ten Zeile
beziehungsweise x-ten Spalte von (I − zP ).
Durch die Einführung der Greenfunktion lassen sich die Größen (3) und
(4) aus dem Wetterbeispiel effizient berechnen. Die erwartete Anzahl verregneter Tage im nächsten Monat ist die Summe der ersten 31 Koeffizienten
von G(Re, Re|z). Der 15. Koeffizient der Reihe G(Re, So|z) gibt die Wahrscheinlichkeit für Sonnenschein in genau 14 Tagen an. Jeweils die rationalen
Funktionen zu berechnen und in eine Potenzreihe umzuformen wird dem
Leser überlassen.
2.4
Irreduzible Klassen und Periodizität
Für die Kommunikation zwischen den einzelnen Zuständen gelten nachstehende Notationen.
(i) x → y
n
wenn ∃n : p(n) (x, y) > 0 ;
(ii) x → y
für p(n) (x, y) > 0 ;
(iii) x 9 y
für p(x, y) = 0 ;
(iv) x ↔ y
wenn x → y
∧
y→x.
Im Folgenden geht es um die Klassifizierung von Knoten einer MarkovKette in wesentliche und unwesentliche Zustände. Bei Betrachtung der asymtotischen Entwicklung von (X, P ) verlieren unwesentliche Zustände ihr Bedeutung, da diese per Definition nur höchstens einmalig durchlaufen werden.
9
Abbildung 2: Veranschaulichung einer endlichen Markov-Kette mit ihren irreduziblen Klassen. Wesentlich sind C(11) und C(13). Der Knoten 13 ist
absorbierend.
Die Relation x → y ist wegen p(0) (x, x) = 1 reflexiv und transitiv, weil aus
m
n
m+n
x → ω und ω → y auch → y folgt. Für x ↔ y gilt aufgrund der Definition
auch Symmetrie.
Lemma 1. Die Relation ↔ ist eine Äquivalenzrelation auf X.
Definition 5. Eine irreduzible Klasse ist eine Äquivalenzrelation in Bezug
auf ↔. Besteht eine Markov-Kette aus einer einzigen irreduziblen Klassse, so
wird sie irreduzibel genannt. Eine irreduzible Klasse wird mit C(x) bezeichnet,
wobei x ein (beliebiger) Knoten dieser Klasse ist.
Abbildung (2) zeigt eine Markov-Kette mit endlichem Zustandsraum X
und ihre zugehörigen sechs irreduziblen Klassen. Alle Irrfahrten auf Zd sind
irreduzibel, da per Definition alle Knoten des Graphen miteinander kommunizieren.
Definition 6. Auf der Menge der irreduziblen Klassen einer Markov-Kette
bildet → eine Halbordnung. Bei Existenz werden die Maxima dieser Halbordnung wesentliche Klassen genannt. Ein Zustand x heißt wesentlich, wenn
C(x) wesentlich ist. Ist ein Knoten nicht wesentlich, so heißt er unwesentlich. Besteht eine wesentliche Klasse aus nur einem Knoten, so heißt dieser
absorbierend.
Anders ausgedrückt, x ist wesentlich : ⇐⇒ ∃y : y → x aber x 9 y .
10
Abbildung 3: Darstellung einer Markov-Kette mit unendlichem Zustandsraum N. Die MK (N, P ) besitzt unendlich viele irreduzible Klassen, jedoch
ist keine davon wesentlich.
Ist der Zustandsraum endlich, so besteht eine Äquivalenz zwischen den Eigenschaften wesentlich und rekurrent zu sein. Analog gilt dies für unwesentlich und transient. Der Begriff der Rekurrenz wird im nächsten Abschnitt
erläutert. Zusätzlich ist die Menge aller irreduziblen Klassen endlich, also
gibt es auch immer zumindest ein maximales Element. Abbildung 3 liefert
ein Beispiel für eine Markov-Kette auf einem unendlichen Zustandsraum mit
irreduziblen, aber dennoch keiner einzigen wesentlichen Klasse.
Definition 7. Die Periode eines Knotens x ∈ X ist die natürliche Zahl
n
ggT{n ≥ 1 : x → x} .
Zustände mit Periode 1 heißen aperiodisch.
Mögliche Rückkehrzeiten eines Zustandes sind also allesamt Vielfache seiner
Periode. Sie gibt an, wie viele Schritte mindestens für die Rückkunft in den
ursprünglichen Knoten notwendig sind. Die Periode ist innerhalb einer irreduziblen Klasse konstant, also klassenstabil. Um festzustellen, ob ein Knoten
beziehungsweise eine Klasse aperiodisch ist, ist es ausreichend zwei Pfade
von teilerfremder Länge zu finden, die beide in den ursprünglichen Zustand
zurückführen. In den meisten Szenarien von Irrfahrten auf Zd , die in den
folgenden Kapiteln behandelt werden, besitzen alle Knoten Periode 2.
2.5
Rekurrenz und Transienz
Definition 8. Es sei (X, P ) eine Markov-Kette. Ein Zustand x ∈ X nennt
sich rekurrent, wenn der Zufallsprozess nach Start in x sicher wieder zu x
zurückkehrt, also
U (x, x) = Px [∃ n > 0 : Xn = x] = 1 .
Anderenfalls heißt x transient. Zusätzlich sei
H(x, y) = Px [Xn = y für unendlich viele n ∈ N] ,
x, y ∈ X
die Wahrscheinlichkeit bei Start in x unendlich oft y zu durchlaufen.
11
Aufgrund der Zeithomogenität lässt sich folgern, dass eine unendlich lange
Sequenz (Xn )n≥0 bei sicherer Rückkehr in einen Zustand, diesen auch unendlich oft passiert. Wenn hingegen die Wahrscheinlichkeit für einen Zustand,
öfter als einmal durchlaufen zu werden kleiner 1 ist, so ist es unmöglich,
unendlich oft zurück zu kehren. Dieses interessante Phänomen, also
(
1 U (x, x) = 1
H(x, x) =
0 sonst
wird als Null-Eins–Gesetz bezeichnet. Eine kurze Beweisskizze dafür lässt
sich schnell erstellen. Ist x ein transienter Zustand mit U (x, x) = p und
0 ≤ p < 1, so ist p die Wahrscheinlichkeit mindestens einmal in den Knoten
x zurück zu kehren. Die Chance für dieses Ereignis mindestens ein zweites
Mal einzutreten ist folglich ≤ p2 . Für den Limes gilt daher
Px [Xn = x, unendlich oft ] = lim pn = 0 .
n→∞
Aufgrund der Markov-Eigenschaft und der Zeithomogenität folgt bei sicherer
Rückkehr in einen Zustand auch die unendliche Wiederholung dieser.
Theorem 1. Aus Rekurrenz eines Zustandes x ∈ X folgt also unzähliges
Durchlaufen und damit auch eine unendliche Anzahl erwarteter Besuche. Es
gilt sogar Äquivalenz mit
U (x, x) = 1 ⇐⇒ H(x, x) = 1 ⇐⇒ G(x, x) = ∞ .
Beweis. Die Aussage U (x, x) = 1 ⇒ H(x, x) = 1 beschreibt das NullEins-Gesetz. Aufgrund des Gesetzes der großen Zahlen gilt die Implikation
H(x, x) = 1 ⇒ G(x, x) = 1. Wegen monotoner Konvergenz ist
lim G(x, x|z) = G(x, x|1) bzw.
z→1−
lim U (x, x|z) = U (x, x|1) .
z→1−
Daraus folgt
1−
=
z→1 1 − U (x, x|z)
lim G(x, x|z) = lim
z→1−
(
∞
1
1−U (x,x)
U (x, x|z) = 1 ,
U (x, x) < 1 .
womit U (x, x) = 1 ⇐⇒ G(x, x) = ∞ gezeigt ist. Ist nun die erwartete
Anzahl der Besuche in x unendlich, dann ist auch die Rückkehr sicher mit
U (x, x) = 1.
12
Bei Betrachtung der asymptotischen Eigenschaften lassen sich alle Knoten einer Markov-Kette als rekurrent oder transient klassifizieren. Rekurrente
Zustände lassen sich zusätzlich in positiv rekurrente und nullrekurrente Knoten unterteilen.
Definition 9. Ein rekurrenter Zustand x heißt positiv rekurrent, wenn die
zu erwartende Rückkehrzeit Ex [ttx ] endlich ist, mit
x
Ex [tt ] =
∞
X
nu(n) (x, x) = U 0 (x, x|1−) < ∞
n=1
und nullrekurrent wenn er nicht posititv rekurrent ist.
Auch wenn ein rekurrenter Zustand mit Sicherheit öfter (unendlich oft)
durchlaufen wird, ist bei Nullrekurrenz zu erwarten, dass die Rückkehr unendlich viel Zeit in Anspruch nimmt.
Zusammengefasst gilt für die Asymptotik von irreduziblen MK (X, P ):
ˆ Ist X endlich und x ∈ X, so gilt
C(x) wesentlich ⇐⇒ C(x) rekurrent
und folglich analoges für unwesentlich und transient.
ˆ Ist x aus X rekurrent, dann ist
x nullrekurrent ⇐⇒ lim p(n) (x, x) = 0 .
n→∞
ˆ Ist x aus X transient, so folgt daraus
lim p(n) (x, x) = 0 .
n→∞
ˆ Ist X endlich und die Markov-Kette zusätzlich aperiodisch, so existiert
eine sogenannte stationäre oder invariante Verteilung Π auf X mit
Π·P =Π
bzw.
und
Π · Pn = Π
1
= Πx > 0 ,
n→∞
Ex [ttx ]
womit alle Zustände positiv rekurrent sind. Auf endlichen Zustandsräumen
ist Π ein Linkseigenvektor von P zum Eigenwert 1, derartig normiert,
sodass die Summe der Einträge eins ergibt, was einer Verteilung entspricht.
lim p(n) (x, x) =
13
Abbildung
4:
Illustration
einer
Übergangswahrscheinlichkeiten p und q.
3
Irrfahrt
auf
Z
mit
Irrfahrten auf Zd
Eine Irrfahrt beschreibt die zufällige Wanderung eines Teilchens auf einer
abelschen Gruppe. Jede Irrfahrt ist eine irreduzible Markov-Kette mit ungerichtetem Graphen. Betrachtet wird in diesem Fall der Random Walk auf
dem ganzzahligen Gitter Zd . Dabei sind jene Punkte benachbart, deren euklidischer Abstand eins ist. Ein breites Anwendungsspektrum unterstützt die
Forschung auf diesem Gebiet.
Im Allgemeinen sind Irrfahrten auf abelschen Gruppen G wie z.B. Zd eine
Summe von unabhängigen, ident verteilten G-wertigen Zufallsvariablen
Zn = 0 + Y1 + · · · + Yn ,
wobei die Verteilungen der Yn ein Wahrscheinlichkeitsmaß auf G mit Start
in 0 sind.
Zunächst ein Beispiel für den eindimensionalen Fall mit Zustandsmenge
Z. Dieses wird häufig als Irrfahrt des Betrunkenen auf einer unendlichen
Straße bezeichnet [1] W. Woess. Für den Random Walk auf dem Zahlenstrahl
in Abbildung 4 gilt
p(k, k + 1) = p,
p(k, k − 1) = q,
p + q = 1,
p(k, l) = 0 für kk − lk =
6 1.
Da Irrfahrten irreduzible Markov-Ketten sind und Rekurrenz eine Klasseneigenschaft ist, sind entweder alle Zustände rekurrent, oder alle transient. Es
genügt somit den Ursprung auf Rekurrenz zu untersuchen, um alle Knoten
zu analysieren. Dafür gibt es viele verschiedene Möglichkeiten.
14
Zum Beispiel mittels kombinatorischer Überlegung. Grundsätzlich ist eine
Rückkehr nur nach einer geraden Anzahl von Schritten möglich, da es der
gleichen Schrittlänge in die jeweils entgegengesetzte Richtung bedarf, um den
ursprünglichen Knoten erneut zu erreichen. Damit ist p(2n+1) (x, x) = 0, ∀n ≥
0 und die Irrfahrt besitzt Periode 2. Für die Rückkehrwahrscheinlichkeit nach
2n Schritten gilt
(2n)
n 2n
p (0, 0) = (pq)
.
n
Für große n lässt sich der Binomialkoeffizient mittels Sterlingformel ausdrücken
1
2n
1
⇒ p(2n) (0, 0) = (4pq)n√
.
∼ 22n√
n
πn
πn
Den Fall, dass p und q gleich groß sind, wird vorerst außer Acht gelassen. Sei
ohne Beschränkung der Allgemeinheit p größer q. Der Quotiententest zeigt,
dass die Reihe
∞
X
1
(4pq)n√
πn
n=0
konvergiert. Also ist G(x, x) < ∞ und alle Zustände sind transient. Für
p = q = 1/2 ist aber (4pq) = 1 und nach Abschätzung durch die harmonische
Reihe divergiert
∞
X
1
√
.
πn
n=0
Damit ist G(x, x) endlich und der Ursprung, sowie jeder andere Knoten der
irreduziblen Markov-Kette, ist rekurrent.
Die Irrfahrt in diesem Beispiel ist nun genau dann rekurrent, wenn der
Wechsel in jeden benachbarten Knoten gleichwahrscheinlich ist. In diesem
Fall heißt die Markov-Kette einfache symmetrische Irrfahrt.
Eine Alternative zur Kombinatorik bei der Untersuchung auf Rekurrenz
bieten die bereits eingeführten erzeugenden Funktionen der Größen G(x, y),
F (x, y) und U (x, y). Dafür wird folgendes Theorem benötigt.
15
Theorem 2. Ist (X, P ) eine Markov-Kette und sind x, y aus X dann gelten
für die erzeugenden Funktionen G(x, y|z), F (x, y|z) und U (x, y|z)
1
,
1 − U (x, x|z)
X
U (x, x|z) =
p(x, y)z F (y, x|z) ,
G(x, x|z) =
|z| < r(x, x) .
(5)
|z| < s(x, x) .
(6)
|z| < s(x, y) .
(7)
y6=x
Für y 6= x ist
F (y, x|z) =
X
p(x, ω)z F (ω, y|z) ,
ω∈X
Dabei steht s(x, y) für den Konvergenzradius von U (x, y|z) und wegen
u(n) (x, y) ≤ p(n) (x, y) ≤ 1
ist
s(x, y) ≥ r(x, y) ≥ 1 .
Die Suche nach U (0, 0) gestaltet sich wie folgt. Wegen Translationsinvarianz im Beispiel der Abbildung 4 ist
F (k, l|z) = F (k − l, 0|z) = F (0, l − k|z)
und mit (7) gilt
F (1, 0|z) =
X
p(1, ω)z · F (ω, 0|z) = . . . = qz + pz · F (2, 0|z) .
ω∈X
Um von Zustand 2 zurück in den Ursprung zu gelangen, muss erst Knoten 1
überquert werden. Aus
F (2, 0|z) = F (2, 1|z) · F (1, 0|z) = F (1, 0|z)2
folgt nach einsetzen und umformen
pz · F (1, 0|z)2 − F (1, 0|z) + qz = 0 .
Da für alle ungleichen Knoten in X die Größe F (x, y|0) = 0 ist, ist die
eindeutige Lösung der quadratischen Gleichung
1 p
F (1, 0|z) =
1 − 1 − 4pqz 2
2pz
16
und analog dazu ist
F (−1, 0|z) =
1 p
1 − 1 − 4pqz 2 .
2qz
Wegen (6) gilt
U (0, 0|z) =
X
p(0, y)z · F (y, 0|z) = pz · F (1, 0|z) + qz · F (−1, 0|z)
y
p
= 1 − 1 − 4pqz 2 .
Daraus folgt
p
1
U (0, 0) = 1 − (p − q)2 = 1 − |p − q| = 1 ⇐⇒ p = q = .
2
Damit ist, wie erwartet, auch bei Anwendung von Theorem 2 die Irrfahrt auf (Z, P ) genau dann rekurrent, wenn es sich dabei um eine einfache
symmetrische Irrfahrt handelt.
Ein anderes Beispiel für eine Irrfahrt (Z, Q) auf dem Zahlenstrahl genügt
den Regeln
1
1
q(k, k ± 1) = , q(k, k) =
und q(k, l) = 0 , für kk − lk =
6 1.
4
2
Hierbei handelt es sich um eine Irrfahrt mit Schleifen, da eine Chance größer
0 besteht im gleichen Zustand zu verweilen. Die Markov-Kette ist aperiodisch
und die Rückkehr in einen Knoten ist nicht mehr nur auf Wege der Länge 2n
beschränkt.
Es gilt für die Rückkehrwahrscheinlichkeit nach n Schritten
c
bn
2 X
n
n−k
1
1
(n)
q (0, 0) =
·
· 2k · n−2k
k
k
4
2
k=0
bn
c
2 1 X
n
n−k
= n·
·
· 2n−2k
4 k=0 k
k
(8)
Dabei ist die Summe über alle k die jeweilige Anzahl der möglichen Kombinationen k Schritte nach rechts und k Schritte
nach links zu gehen, mit
2n
n − 2k Schleifen. Man kann zeigen, dass n der Summe in (8) entspricht [1].
Das führt zu einer vereinfachten Darstellung
1 2n
(n)
q (0, 0) = n
.
n
4
Damit ist auch die Irrfahrt (Z, Q) nullrekurrent.
17
3.1
Einfache symmetrische Irrfahrt
Definition 10. Eine einfache symmetrische Irrfahrt (SRW) auf Zd ist eine Irrfahrt mit Knotengrad deg(x) = 2d, für alle x in X. Zusätzlich gilt
Gleichverteilung auf der Menge der Einheitsvektoren {±e1 , · · · , ±ed }.
Wie schon im letzten Kapitel beschrieben, ist SRW im eindimensionalen
rekurrent. Dabei kehrt die Irrfahrt in jeden Knoten mit Sicherheit wieder
zurück und das unendlich oft. Die erwartete Zeit, die eine Rückkehr in Anspruch nimmt, ist unendlich, da neben Rekurrenz auch
lim p(2n) (0, 0) = lim √
n→∞
n→∞
1
=0
nπ
gilt. Somit ist die einfache symmetrische Irrfahrt auf Z nullrekurrent.
Genauso lässt sich Nullrekurrenz für den SRW auf Z auch folgendermaßen
zeigen.
√
z
U (0, 0|z) = 1 − 1 − z 2 ⇒ U 0 (0, 0|z) = √
, |z| < 1
1 − z2
und
E0 [tt0 ] = lim U (0, 0|z) = ∞ .
z→1−
Theorem 3. Satz von Polya (1921)
Ein Simple Random Walk auf Zd ist eine MK (X, P ) mit
(
1
falls y ∈ {x ± ei : i = 1, . . . , d}
p(x, y) = 2d
0 sonst
Für d ≤ 2 ist (X, P ) rekurrent, für d ≥ 3 transient.
Beweis. Sei d = 2.
Zunächst stelle man sich zwei Betrunkene vor, die je einen SRW auf Z gehen.
Beide starten dabei im Ursprung und gehen völlig unabhängig voneinander
ihren Weg. Ihre gemeinsame Trajektion auf Z2 besucht dabei nur die Punkte
(k, l) mit k, l ∈ Z und k + l ≡ 0 (mod 2). Die Markov-Kette bewegt sich
zu einem der vier Punkte (k ± 1, l ± 1) mit Übergangswahrscheinlichkeit
p1 (k, k ± 1) · p1 (l, l ± 1) = 1/2 · 1/2 = 1/4. Die dementsprechenden Knoten
und Kanten liegen auf dem zweidimensionalen Straßennetz wie in Abbildung
5 veranschaulicht. Grau strichliert zeichnen sich die Kanten des doppelten
Random Walks ab. Die zusammengesetzte Markov-Kette ist isomorph zu
Z2 , da sich die Knoten und Kanten bei
√ Drehung um 45 und Stauchung der
Kanten durch Normierung der Länge 2 auf 1 decken.
18
Abbildung 5: Veranschaulichung einer Irrfahrt auf Z2 . Rechts eine Darstellung des Isomorphismus zwischen der doppelten Markov-Kette zweier Wanderer und dem zweidimensionalen Gitter.
Aufgrund des Isomorphismus bleiben die Übergangswahrscheinlichkeiten
erhalten und für den SRW auf dem zweidimensionalen Straßennetz gilt
2
1 2n
1
(2n)
.
p (00, 0 ) =
∼
2n
2
n
πn
Unter anderem zeigt das Minorantenkriterium, dass
∞
X
1
G(x, x) =
=∞
πn
n=1
und alle Zustände x ∈ Z2 rekurrent sind. Die Übergangswahrscheinlichkeiten
bilden eine Nullfolge, womit
Ex [ttx ] = ∞, ∀x ∈ Z2 ,
und die Markov-Kette nullrekurrent ist.
Sei d = 3.
Den Graphen Z3 kann man als Aneinanderreihung von Würfeln interpretieren. Mit Hilfe des Multinomialkoeffizienten lässt sich wiederum die 2nSchritt Übergangswahrscheinlichkeit für die einfache symmetrische Irrfahrt
kombinatorisch berechnen. Es gibt jeweils sechs Kanten, die aus einem Knoten heraus führen, daher ist die Wahrscheinlichkeit ausgewählt zu werden
für jede Richtung 1/6 . Auch hier ist analog zur Irrfahrt ohne Schleifen eine
19
Rückkehr nur nach einer geraden Schrittanzahl möglich. Für die 2n-Schritt
Übergangswahrscheinlichkeit gilt
p
(2n)
(2n)
1
(00, 0 ) =
6
X a,b,c≥0
a+b+c=n
2n
a, a, b, b, c, c
n 2
2n X 2n
n
1
1
.
=
2
n
a,
b,
c
3
a,b,c≥0
(9)
a+b+c=n
Die Wahrscheinlichkeitsverteilung des Multinomialkoeffizienten ist
X n 1 n 1 1 1 n
=
+ +
= 1 und
a, b, c
3
3 3 3
a+b+c=n
n
a, b, c
≤
n
m, m, m
∀a, b, c .
Daraus folgt, dass
2n 1
2n
n
1
1
(9) ≤
∼ c√
,
2
n
m, m, m
3
n3
für eine geeignete Konstante c größer null.
Schließlich ist
G(00, 0 ) ∼
X c
√
<∞,
n3
n
konvergent, was auf Transienz für die einfache symmetrische Irrfahrt auf Z3
deutet.
Definition 11. Für einen ungerichteten Graphen G = (V, E) heißt G̃ =
(Ṽ , Ẽ) Teilgraph von G wenn Ṽ ⊆ V und Ẽ ⊆ E ist.
Da Z3 ein Teilgraph für jedes höherdimensionale Gitter ist, sind auch
überall dort alle Knoten aus Zd mit d ≥ 3 transient. Verläuft sich die einfache
symmetrische Irrfahrt bereits auf Z3 in die sogenannten unendlichen Weiten,
so tut sie dies erst recht in größeren Räumen.
20
3.2
Ausblick
Im Zuge der Analyse von Markov-Ketten und Irrfahrten stößt man neben
gewonnenen Erkenntnissen immer wieder auf neue, allgemeinere Fragen. Zum
Beispiel drängt sich nach Betrachtung des Satzes von Polya (3) auf Seite 18
die Frage nach dem allgemeinen Zusammenhang zwischen der Struktur eines
Graphen X und der Asymptotik von p(n) (x, x) mit x aus X, auf. Bis heute
wird an derartigen Fragestellungen gearbeitet und geforscht [2] R.E. Burkard.
Einen Ansatz für die Beantwortung solch grundlegender Fragen bieten
isoperimetrische Ungleichungen. Sie vergleichen das Volumen von einem Körper
im d-dimensionalen Raum mit seiner Oberfläche. Dafür müssen diese Begriffe
hier erst eingeführt werden.
Definition 12. Für eine Menge A von Knoten eines Graphen sei
X
Vol(A) :=
deg(x)
x∈A
das Volumen von A und ∂A sei ihr Rand, also die Menge aller Kanten, die
aus A hinaus führen. Für A bezeichnet
Area(A) := |∂(A)|
die Oberfläche von A.
Theorem 4. Für eine natürliche Zahl d erfüllt ein Graph X eine d-dimensionale
isoperimetrische Ungleichung (ISd ), wenn es eine positive Konstante c gibt,
sodass für jede endliche Teilmenge A von X folgende Ungleichung erfüllt ist.
1
Area(∂A) ≥ c · Vol(A)1− d
Für d = ∞ ist sogar von einer starken isoperimetrischen Ungleichung (IS) die
Rede. Oberfläche und Volumen entsprechen hier der gleichen Größenordnung.
Lemma 2. Das ganzzahlige Gitter Zd erfüllt (ISd ) jedoch nicht (ISd+k ) für
beliebiges k ∈ N.
Theorem 5. Erfüllt der Graph X die Ungleichung (ISd ), so gilt für alle x, y
aus X
1
p(n) (x, y) ≤ c · deg(y) · √
.
nd
21
Damit ist ein Zusammenhang zwischen der Struktur eines Graphen und
der Asymptotik der einzelnen Übergangswahrscheinlichkeiten gegeben, was
die Frage in der Einleitung des Kapitels beantwortet. Auch bei der Untersuchung von Irrfahrten auf Rekurrenz lassen sich mit Hilfe von isoperimetrischen Ungleichungen Antworten finden.
Theorem 6.
X erfüllt (IS) ⇐⇒ ∃p < 1 : ∀x ∈ X : p(n) (x, x) ≤ pn
Mit Worten ausgedrückt muss jeder Graph, der die starke isoperimetrische
Ungleichung erfüllt auch transient sein. Denn für alle x aus X gilt
∞
X
n=0
p
(n)
∞
X
1
(x, x) ≤
<∞.
kn
n=0
Damit ist die erwartete Anzahl der Rückkehrten in denselben Knoten endlich,
was Transienz für alle Knoten des Graphen X impliziert.
22
Literatur
[1] W. Woess (2009). Denuamerable Markov Chains (Generating Functions, Boundary Theorie, Ramdom Walks on Trees). European Mathematical Society
[2] Rainer E. Burkard, Wolfgang Maass, Peter Weibel (Hg.) (2000). Zur
Kunst des formalen Denkens. Passagen Verlag Wien.
[3] A. Depperschmidt(2011).
Markovketten.
Universität
Freiburg.
Verfügbar
unter:
http://www.stochastik.unifreiburg.de/Vorlesungen/vvSS2011/VorMarkovketten/markovketten.pdf
23
Herunterladen