Markov-Ketten II.

Werbung
Markov-Ketten II.
Definitionen
• Eine Markov-Kette heißt irreduzibel wenn sie bezüglich Erreichbarkeit aus nur einer
Klasse besteht, das heißt wenn jeder Zustand von jedem aus erreichbar ist.
• Die Zahl
di =
(
n
o
(n)
(n)
ggT n ≥ 1 : pii > 0
falls pii > 0 für zumindest ein n
(n)
0
falls pii = 0 für alle n
heißt Periode des Zustands i.
• Eine Markov-Kette heißt aperiodisch, falls jeder Zustand Periode 1 hat.
• Eine Markov-Kette heißt regulär, falls sie aperiodisch und irreduzibel ist.
(n)
• Die Zahl fi bezeichnet die Wahrscheinlichkeit, vom Zustand i ausgehend nach n Zeitschritten erstmals wieder nach i zurückzukehren. Das heißt
(n)
fi = P Xn = i, Xk 6= i für 1 ≤ k < nX0 = i .
• Die Zufallsvariable Ti ist die (zufällige) Rückkehrzeit von i nach i. Das heißt, dass
(n)
P(Ti = n) = fi .
• Die Wahrscheinlichkeit
fi =
∞
X
(n)
fi
n=1
heißt Rückkehrwahrscheinlichkeit von i nach i.
• Ein Zustand heißt rekurrent falls fi = 1.
• Ein Zustand, der nicht rekurrent ist, heißt transient.
• Zu einem rekurrenten Zustand i heißt die Zahl
mi = E(Ti ) =
∞
X
(n)
nfi
n=1
die mittlere Rückkehrzeit.
• Ein rekurrenter Zustand für den mi < ∞ gilt heißt positiv rekurrent. Ein rekurrenter
Zustand für den mi = ∞ gilt heißt null-rekurrent. Ein aperiodischer, positiv rekurrenter
Zustand heißt ergodisch.
1
• Eine Verteilung p heißt invariant unter der Übergangsmatrix P wenn
p=p·P
gilt, das heißt wenn der Vektor p ein (links-)Eigenvektor zum Eigenwert 1 der Matrix
P ist.
Satz
Für eine reguläre Markov-Kette gilt:
1. Jeder Zustand ist positiv rekurrent.
2. Für n → ∞ konvergieren die Matrixen P n (d.h. die Übergangsmatrizen für n Zeitschritte) gegen eine Matrix P∞ mit gleichen Zeilenvektoren. Das heißt, P∞ ist von der
Form


p0 p1 p2 . . . ps
p0 p1 p2 . . . ps 


P∞ =  .
..  .
.
.
.
p0 p1 p2 . . . ps
3. Alle Zahlen p0 , . . . , ps sind positiv, und p = (p0 , . . . , ps ) ist ein (links-)Eigenvektor zum
Eigenwert 1 der Übergangsmatrix P . Unter der Bedingung p0 + · · · + ps = 1 ist der
Vektor p eindeutig festgelegt.
4. Die mittlere Rückkehrzeit des i-ten Zustandes ist 1/pi .
5. Egal, mit welcher Anfangsverteilung die Markov-Kette startet, es gilt immer die Konvergenz p(n) → p. Das heißt, die durchschnittliche Wahrscheinlichkeit, sich im i-ten Zustand
zu befinden, ist pi . Die Verteilung p heißt stationäre Verteilung der Markov-Kette.
2
Herunterladen