7.4. Markovketten.

Werbung
7.4. Markovketten. Ein stochastischer Prozeß 1 X = (Xt )0≤t<∞ wird Markovprozeß genannt, wenn in jedem Zeitpunkt s ≥ 0 die zukünftige Entwicklung, d.h.,
Xu , u > s, bei gegebenem gegenwärtigen Zustand Xs nicht von der Vergangenheit
Xu , u < s, abhängt. Die elementarsten Beispiele für solche Prozesse sind Markovketten, d.h. Markovprozesse in diskreter Zeit mit Werten in einem diskreten, d.h.,
höchstens abzählbaren Raum.
Definition. Ein stochastischer Prozeß 2 X = (Xn )n∈N0 in diskreter Zeit 3 mit
Werten in einem höchstens abzählbaren Zustandsraum 4 S heißt Markovkette, falls 5
(7)
P Xn+k = s′ | X0 = s0 , . . . , Xn−1 = sn−1 , Xn = sn
{z
} | {z }
| {z } |
Gegenwart
Zukunft
Vergangenheit
′
= P Xn+k = s |Xn = sn , n ∈ N0 , k ∈ N, s0 , s1 , . . . , sn , s′ ∈ S.
Zur Charakterisierung der zukünftigen Entwicklung einer Markovkette reicht
also die Kenntnis des gegenwärtigen Zustandes aus. Die Kenntnis der zeitlichen
Entwicklung in der Vergangenheit bringt in diesem Fall keinen Informationsgewinn.
Die Größen
Pn (s1 , s2 ) = P Xn+1 = s2 |Xn = s1 ,
s1 , s2 ∈ S, n ∈ N0 ,
heißen (1-Schritt-)Übergangswahrscheinlichkeiten. Sie werden zu den (1-Schritt-)
Übergangsmatrizen Pn = (Pn (s, s′ ))s,s′ ∈S , n ∈ N0 , zusammengefaßt. Eine Markovkette besitzt stationäre Übergangswahrscheinlichkeiten, falls Pn = P unabhängig
von n ist 6 7.
Im folgenden werden nur Markovketten mit stationären Übergangswahrscheinlichkeiten betrachtet werden.
Beispiel 1. Zum Parameter p ∈ (0, 1) seien Yn , n ∈ N, unabhängige, Bernoulliverteilte Zufallsvariable in {−1, 1}, d.h., mit P[Yn = 1] = 1 − P[Yn = −1] = p,
n ∈ N. Der Bernoulli-Prozeß 8 Y = (Yn )n∈N (mit Parameter p) ist eine Markovkette
mit Werten in S = {−1, 1}. Es gilt P (a, 1) = p, P (a, −1) = 1 − p, a ∈ S 9.
Pn
Beispiel 2. Die Irrfahrt 10 X = (Xn )n∈N0 , wobei Xn =
k=1 Yk , n ∈ N0 , für
die Zufallsvariablen Yn , n ∈ N, aus Beispiel 1, ist eine Markovkette mit Werten in
1
Vgl. Abschnitt 2.4.
2Die Zufallsvariablen X , n ∈ N , seien auf einem Wahrscheinlichkeitsraum (Ω, F, P) definiert.
n
0
3Als Menge aller Zeitpunkte kommt oft auch N oder Z vor.
4
Als abzählbare Menge wird S natürlich mit der σ-Algebra Pot(S) versehen.
5Stillschweigend sei darüberhinweggesehen, daß die linke Seite von (7) nur wohldefiniert ist,
wenn P[X0 = s0 , . . . , Xn−1 = sn−1 , Xn = sn ] > 0. In diesem Fall ist auch die rechte Seite von
(7) wohldefiniert und stimmt mit der linken Seite überein, wenn X eine Markovkette ist.
6In diesem Fall besitzt die Markovkette X eine zeitlich homogene Dynamik.
7
Man beachte, daß eine Markovkette mit stationären Übergangswahrscheinlichkeiten kein stationärer stochastischer Prozeß, vgl. Abschnitt 2.4.2, zu sein braucht. Für die in Abschnitt 2.4.1 und
dem folgenden Beispiel 2 beschriebene Irrfahrt in Z wird dies in Bemerkung (ii) in Abschnitt 2.4.2
demonstriert.
8Vgl. Abschnitt 2.4.1.
9Eine offensichtliche Verallgemeinerung dieses Prozesses für ein beliebiges diskretes S ist ζ =
(ζn )n∈N , wobei ζn , n ∈ N, unabhängige, identisch verteilte S-wertige Zufallsvariablen sind.
10
Vgl. Abschnitt 2.4.1.
1
2
S = Z. Es gilt
11


falls k ∈ S, l = k + 1,
p,
P (k, l) = 1 − p, falls k ∈ S, l = k − 1,


0,
sonst.
Beispiel 3. Sei ζn , n ∈ N, eine Folge von unabhängigen, identisch verteilten Zufallsvariablen mit Werten in Z, wobei P[ζ1 = k] = ak , k ∈ Z.
Weiterhin sei X = (Xn )n∈N0 durch
X0 = 0,
Xk =
k
X
ζl ,
k = 1, 2, . . . ,
l=1
definiert. X ist offensichtlich eine Verallgemeinerung der in Beispiel 2 beschriebenen
Irrfahrt 12. Insbesondere ist X eine Markovkette mit dem Zustandsraum Z und der
Übergangsmatrix 13


..
..
..
.
.
.
............. 


..
 . a0
a1
a2 . . . . . . . 



a1 a2 . . . 
P = . . . a−1 a0
.
. . . . . . . . . a−1 a0 a1 . . . 


. . . . . . . . . . . . . . . a−1 a0 . . . 


.. ..
.
.
....................
Die Verteilung einer Markovkette 14 X = (Xn )n∈N0 ist durch ihre Übergangsmatrix und ihre Anfangsverteilung PX0 eindeutig bestimmt. Es gilt
(8)
P X0 = s0 , X1 = s1 , . . . , Xn−1 = sn−1 , Xn = sn
= PX0 [{s0 }]P (s0 , s1 ) · · · P (sn−1 , sn ),
s0 , s1 , . . . , sn ∈ S, n ∈ N0 .
15
Diese Beziehung ergibt sich aus
P X0 = s0 , X1 = s1 , . . . , Xn−1 = sn−1 , Xn = sn
= P X0 = s0 , . . . , Xn−1 = sn−1 P Xn = sn |X0 = s0 , . . . , Xn−1 = sn−1
= P X0 = s0 , . . . , Xn−2 = sn−2 P Xn−1 = sn−1 |X0 = s0 , . . . , Xn−2 = sn−2
P Xn = sn |Xn−1 = sn−1
11Die Irrfahrt springt in ihrem Zustandsraum Z in jedem Zeitpunkt jeweils mit Wahrschein-
lichkeit p um 1 nach rechts, bzw. mit Wahrscheinlichkeit 1 − p um 1 nach links. Andere Sprünge
sind nicht möglich.
12Wie bei der Irrfahrt ergibt sich in jedem Zeitpunkt n ∈ N der zukünftige Zustand X
0
n+1
aus dem gegenwärtigen Zustand Xn durch Addieren eines Zuwachses ζn+1 , wobei diese Zuwächse
unabhängige, identisch verteilte Zufallsvariablen sind.
13Da P[X
n+1 = k + l|Xn = k] = P[ζn+1 = l] = P[Xn+1 = k + 1 + l|Xn = k + 1], n ∈ N0 ,
k, l ∈ Z, entsteht die (k + 1)-te Zeile in der Matrix P aus der k-ten Zeile durch eine Verschiebung
”
um 1 nach rechts“.
14Die Verteilung einer Markovkette oder allgemeiner die Verteilung eines stochastischen Prozesses wird hier nicht näher definiert. Es sei nur erwähnt, daß im vorliegenden Fall für ein festes
n ∈ N0 die Größen auf der linken Seite von (8) die gemeinsame Verteilung von X0 , X1 , . . . , Xn beschreiben, vgl. Abschnitt 2.2.2. Diese gemeinsamen Verteilungen werden als endlich-dimensionale
Verteilungen von X bezeichnet. Sie bestimmen eindeutig die Verteilung PX des stochastischen
Prozesses X.
15Hier wird insbesondere mehrmals die die bedingte Wahrscheinlichkeit charakterisierende Relation (3) in Abschnitt 7.2 und die Markoveigenschaft (7) benutzt.
25. Januar 2008
3
= ...
= P[X0 = s0 ]P X1 = s1 |X0 = s0 . . . P (sn−1 , sn )
= PX0 [{s0 }]P (s0 , s1 ) · · · P (sn−1 , sn ),
s0 , s1 , . . . , sn ∈ S, n ∈ N0 .
Als Verallgemeinerung der (1-Schritt-)Übergangswahrscheinlichkeiten werden die
n-Schritt-Übergangswahrscheinlichkeiten durch 16
P n (s1 , s2 ) = P[Xn+m = s2 |Xm = s1 ],
m, n ∈ N0 , s1 , s2 ∈ S,
definiert. Für n = 0 setzt man hierbei 17 P 0 (s1 , s2 ) = δs1 ,s2 , s1 , s2 ∈ S. Die
n-Schritt-Übergangswahrscheinlichkeiten genügen der Chapman-Kolmogorov-Gleichung, d.h., 18
X
P k+l (s1 , s2 ) =
P k (s1 , s)P l (s, s2 ), k, l ∈ N0 , s1 , s2 ∈ S.
(9)
s∈S
Bemerkungen.
(i) Die Übergangsmatrix P = (P (s, s′ ))s,s′ ∈S einer S-wertigen Markovkette
X = (Xn )n∈N0 ist eine stochastische Matrix, d.h., es gilt 19
′
′
(a) P
P(s, s ) ≥ 0, ′s, s ∈ S,
20
.
(b)
s′ ∈S P (s, s ) = 1, s ∈ S
n
(ii) Für n ∈ N ist die Matrix P der n-Schritt-Übergangswahrscheinlichkeiten
das n-fache Matrixprodukt der 1-Schritt-Übergangsmatrix P 21.
(iii) Die algebraischen Eigenschaften ihrer Übergangsmatrix P = (P (s, s′ ))s,s′ ∈S
bestimmen das Verhalten einer S-wertigen Markovkette X = (Xn )n∈N0 . Sei
beispielsweise µ = (µs )s∈S ein linker Eigenvektor von P mit Eigenwert 1,
d.h. mit
X
µs P (s, s′ ) = µs′ , s′ ∈ S,
s∈S
wobei außerdem
22
µs ≥ 0, s ∈ S,
und
X
µs = 1
s∈S
16Da hier nur Markovketten mit stationären Übergangswahrscheinlichkeiten betrachtet werden,
ist die rechte Seite in dieser Beziehung von m unabhängig.
17δ bezeichnet das Kronecker-Symbol, d.h.,
.,.
(
1, falls s = s′ ,
δs,s′ =
0, sonst.
18Der Übergang von s nach s in k + l Schritten führt durch einen Zwischenzustand s ∈ S
1
2
nach k Schritten. Wegen der Markoveigenschaft (7), bzw. wegen (8) hat für alle m ∈ N0 bedingt
k Schritte
l Schritte
unter Xm = s1 der Weg s1 −−−−−−−→ s −−−−−−→ s2 für ein festes s die Wahrscheinlichkeit
P[Xm+k = s, Xm+k+l = s2 |Xm = s1 ] = P[Xm+k = s|Xm = s1 ] · P[Xm+k+l = s2 |Xm+k = s] =
P k (s1 , s)P l (s, s2 ). Die Übergänge durch verschiedene Zwischenzustände s entsprechen disjunkten
Ereignissen, d.h., ihre jeweiligen Wahrscheinlichkeiten addieren sich zur Gesamtwahrscheinlichkeit
P k+l (s1 , s2 ).
19Die Komponenten von P sind nichtnegativ und ihre Zeilen addieren sich zu 1.
P
20Weil P
′
′
s′ ∈S P (s, s ) =
s′ ∈S P[Xn+1 = s |Xn = s] = P[Xn+1 ∈ S|Xn = s] = 1 für alle
n ∈ N0 .
21Dies folgt durch vollständige Induktion aus (9). Offensichtlich zeigt (9), daß die Matrix P k+l
das Produkt der Matrizen P k und P l ist.
22µ entspricht damit einem Wahrscheinlichkeitsmaß auf S.
25. Januar 2008
4
gelte. Dann beschreibt µ eine invariante Verteilung von X, d.h., PX0 [{s}] =
P[X0 = s] = µs , s ∈ S, impliziert PXn [{s}] = µs , s ∈ S, für alle Zeitpunkte
n ∈ N0 23.
23Diese Eigenschaft folgt zunächst für n = 1 aus
PX1 [{s}] = P[X1 = s] = P[X0 ∈ S, X1 = s] =
X
P[X0 = s′ , X1 = s]
s′ ∈S
=
X
s′ ∈S
PX0 [{s′ }]P (s′ , s) =
X
µs′ P (s′ , s) = µs ,
s ∈ S,
s′ ∈S
wobei u.a. (8) Verwendung findet. Durch Iteration dieser Argumente ergibt sie sich schließlich für
alle weiteren n = 2, 3, . . . .
25. Januar 2008
Herunterladen