Markoff-Ketten Prof. Dr. Thomas Risse Fakultät Elektrotechnik & Informatik Hochschule Bremen www.weblearn.hs-bremen.de/risse/papers/FHWN2008 12.3.2008 Inhaltsverzeichnis 1 Markoff-Ketten – Definitionen, einführende Beispiele, erste Einsichten 3 1.1 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Absorbierende Markoff-Ketten 5 5 2.1 Absorption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2 Fundamental-Matrix N . . . . . . . . . . . . . . . . . . . . . . 6 2.3 Mittlere Schrittanzahl bis zur Absorption . . . . . . . . . . . . 8 2.4 Absorptionswahrscheinlichkeiten . . . . . . . . . . . . . . . . . 8 2.5 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Ergodische Markoff-Ketten 10 3.1 Reguläre Markoff-Ketten . . . . . . . . . . . . . . . . . . . . . 10 3.2 Fixe Vektoren, Eigen-Vektoren . . . . . . . . . . . . . . . . . . 11 3.3 Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3.4 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1 Th. Risse, HSB: Markoff-Ketten 4 Grenzwertsatz regulärer Markoff-Ketten 4.1 2 14 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5 Kennzahlen für ergodische Markoff-Ketten 16 5.1 MFPT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.2 MRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 5.3 MFPT und MRT . . . . . . . . . . . . . . . . . . . . . . . . . 18 5.4 Fundamental-Matrix Z . . . . . . . . . . . . . . . . . . . . . . 19 5.5 M aus Z berechnen . . . . . . . . . . . . . . . . . . . . . . . . 20 5.6 Zentraler Grenzwert-Satz . . . . . . . . . . . . . . . . . . . . . 21 5.7 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 A Lösungen der Übungen zu Abschnitt 1 24 B Lösungen der Übungen zu Abschnitt 2 24 C Lösungen der Übungen zu Abschnitt 3 28 D Lösungen der Übungen zu Abschnitt 4 31 E Lösungen der Übungen zu Abschnitt 5 31 3 Th. Risse, HSB: Markoff-Ketten 1 Markoff-Ketten – Definitionen, einführende Beispiele, erste Einsichten Def. Eine Markoff1 -Kette ist eine (diskrete) Folge von diskreten Zufallsvariablen X (n) mit X (n) ∈ {s1 , s2 , . . . , sr }. X (n+1) hängt nur von X (n) ab, d.h. es gibt konstante, von n unabhängige Übergangswahrscheinlichkeiten pij = P (X (n+1) = sj |X (n) = si ) die den Übergang eines Systems vom Zustand si in den Folgezustand sj beschreiben. Die Übergangsmatrix P = (pij ) ist also eine Matrix von bedingten Wahrscheinlichkeiten. Z.B. Es gebe nur drei Wetterlagen: Regen, Sonne, Eis. Die Übergangsmatrix R S E R 1/2 1/4 1/4 P = S 1/2 0 1/2 beschreibt die Abfolge von Wetterlagen. E 1/4 1/4 1/2 c o z.H. Was zeichnet Übergangsmatrizen aus? (n) Satz P sei Übergangsmatrix. Dann beschreibt Pn = (pij ) die Wahrscheinlichkeit der Zustandsübergänge von si nach sj in n Schritten. • z.H. Was sagt Pn im obigen Wetter-Beispiel? o Def. Ein Wahrscheinlichkeitsvektor u gibt an, mit welcher Wahrscheinlichkeit sich ein System in jedem seiner Zustände befindet. u(0) beschreibt den initialen Zustand eines Systems und u(n) denjenigen nach n Zustandsübergängen. Satz P sei Übergangsmatrix. Dann gilt u(n) = u(0) Pn . • Z.B. Im Wetter-Beispiel gilt u(3) = (1/3, 1/3, 1/3)P3 ≈ (.401, .198, .401). c Z.B. Stille Post der binären Information ja/nein habe die Übergangsmatrix j n! j 1−a a P= für bedingte Wahrscheinlichkeiten a und b. n b 1−b c z.H. Wie sieht die Übergangsmatrix im Fall unabhängiger Zufallsvariabler X (n) aus? o Z.B. Das Ehrenfest-Modell für Diffusion geht von zwei Urnen mit zusam- men etwa vier Kugeln aus. Eine dieser vier Kugeln wird ausgewählt und 1 Andrei Andreyevich Markov (1856-1922) www-history.mcs.st-andrews.ac.uk/Biographies/Markov.html Th. Risse, HSB: Markoff-Ketten 4 von der einen in die andere Urne transferiert. Als Zustand des Systems gelte die Anzahl der Kugeln in einer Urne. Dann resultiert die Übergangsmatrix 1 2 3 4 0 1 0 0 0 0 0 1/4 0 3/4 0 0 1 1/2 0 1/2 0 P = 2 c . 0 0 3/4 0 1/4 3 0 0 0 1 0 4 0 Z.B. Angenommen, es gebe zwei Gene G und g. Merkmalsträger tragen GG oder Gg (identisch zu gG) oder gg. GG heißt dominant, Gg hybrid und gg rezessiv, d.h. GG oo gg ⇒ Gg; GG oo Gg ⇒ gleichwahrscheinlich GG oder Gg; Gg oo gg ⇒ gleichwahrscheinlich Gg oder gg; Gg oo Gg ⇒ gleichwahrscheinlich GG oder Gg oder gG oder gg; Wenn nun immer mit hybriden Merkmalsträgern gepaart wird, ergibt sich die GG Gg gg GG Gg gg GG 1/2 1/2 0 GG 1 0 0 Übergangsmatrix P = Gg 1/4 1/2 1/4 bzw. P = Gg 1/2 1/2 0 gg 0 1/2 1/2 gg 0 1 0 wenn immer mit dominanten Merkmalsträgern gepaart wird. c Z.B. Erweiterung auf Paare liefert sechs Zustände (unabhängig vom Geschlecht) in einer Generation und damit ergibt sich die Übergangsmatrix GG, GG GG, Gg GG, gg Gg, Gg Gg, gg gg, gg GG, GG 1 0 0 0 0 0 GG, Gg 1/2 0 1/4 0 0 1/4 GG, gg 0 0 0 1 0 0 P= c Gg, Gg 1/4 1/8 1/4 1/4 1/16 1/16 Gg, gg 0 0 0 1/4 1/2 1/4 gg, gg 0 0 0 0 0 1 Z.B. Stepping Stone Model: Quadrate auf einem n × n Torus werden mit 2 k Farben eingefärbt. Es gibt also k n Zustände. Ein Zustandsübergang besteht darin, daß ein zufällig ausgewähltes Quadrat die Farbe eines seiner acht Nachbarn annimmt. Die Markoff-Kette ist absorbierend, d.h. daß nach genügend langer Zeit alle Quadrate dieselbe Farbe tragen. c 5 Th. Risse, HSB: Markoff-Ketten 1.1 Übungen 1. Im ’Stille Post’-Beispiel berechne Pn für diverse a und b und n → ∞. 2. Vergleiche im Wetter-Beispiel Pn und An = 1 n+1 Pn k=o Pk für große n. 3. Wie sehen in den Genetik-Beispielen die Wahrscheinlichkeitsvektoren u(n) für große n vermutlich aus? 4. Visualisiere das Stepping Stone Model. 2 Absorbierende Markoff-Ketten Def. Ein Zustand si heißt absorbierend, wenn pii = 1. Eine Markoff-Kette heißt absorbierend, wenn sie mindestens einen absorbierenden Zustand hat und wenn Zustandsübergänge von jedem Zustand zu absorbierenden Zuständen möglich sind (d.h. mit positiver Wahrscheinlichkeit). Ein nicht-absorbierender Zustand einer absorbierenden Markoff-Kette heißt transient. Wenn der durch die Markoff-Kette beschriebene Vorgang oder Prozess einen absorbierenden Zustand erreicht, heißt er absorbiert. Herr Schluckspecht torkelt zwischen Heim (0) und Kneipe (4) und drei verschiedene Zwischenstationen (1, 2 und 3) hin und her – mit Über1 2 3 4 0 0 1 0 0 0 0 1 1/2 0 1/2 0 0 1/2 0 1/2 0 gangsmatrix P = 2 0 . Die Zustände 1, 2 und 3 3 0 0 1/2 0 1/2 4 0 0 0 0 1 sind transient. Und von diesen Zuständen können die beiden absorbierenden Zustände 0 und 4 erreicht werden. Die Kette ist also absorbierend. c Z.B. Gegeben eine absorbierende Markoff-Kette. Mögliche Fragestellungen sind: • Mit welcher Wahrscheinlichkeit erreicht der Prozess irgendeinen absorbierenden Zustand? • Mit welcher Wahrscheinlichkeit erreicht der Prozess einen bestimmten absorbierenden Zustand? 6 Th. Risse, HSB: Markoff-Ketten • Wie lange hält sich der Prozess im Durchschnitt in transienten Zuständen auf? Def. Durch Umnummerieren der Zustände ! kann man die Übergangsmatrix Q R auf die kanonische Form P = bringen, wobei bei t transienten 0 I Zuständen Q eine t × t-Matrix, bei a absorbierenden Zuständen I die a × aIdentitätsmatrix und R dann eine t×a-Matrix mit nicht-negativen Elementen ist. ! Qn ∗ Bem. Es gilt P = . 0 I ◦ z.H. Was bedeutet es, daß Qn Untermatrix von Pn ist? o n 2.1 Absorption Satz Q sei Untermatrix der Übergangsmatrix P = Q R 0 I ! einer absor- bierenden Markoff-Kette. Dann gilt limn→∞ Qn = 0. • Von jedem transienten Zustand sj können absorbierende Zustände erreicht werden. Sei mj die minimale Anzahl von Schritten, in denen absorbierende Zustände von sj aus zu erreichen sind. Sei pj die Wahrscheinlichkeit dafür, daß der Prozess in mj Schritten keinen absorbierenden Zustand erreicht. Dann gilt pj < 1. Sei m = maxj mj und p = maxj pj < 1. Die Wahrscheinlichkeit dafür, in m Schritten nicht absorbiert zu werden, ist nicht größer als p, diejenige dafür, in 2m Schritten nicht absorbiert zu werden, ist nicht größer als p2 , usw. Also geht die Wahrscheinlichkeit dafür, in Vielfachen von m Schritten nicht absorbiert zu werden, gegen 0. Da diese Wahrscheinlichkeiten monoton in der Anzahl der Schritte fallen, folgt Qn → 0, d.h. daß √ Absorption ein sicheres Ereignis ist. Bew. 2.2 Fundamental-Matrix N ! Q R Satz Q sei Untermatrix der Übergangsmatrix P = einer ab0 I sorbierenden Markoff-Kette. Dann existiert die Matrix N = (I − Q)−1 mit N = I + Q + Q2 + . . . = (nij ). Der Prozess wird sich durchschnittlich nij -mal im Zustand sj befinden, wenn er in si gestartet ist. • 7 Th. Risse, HSB: Markoff-Ketten Bew. Für x mit (I − Q)x = 0 oder eben x = Qx gilt x = Qn x → 0 und damit notwendigerweise x = 0. Also existiert N = (I − Q)−1 . (I − Q)(I + Q + Q2 + . . . Qn ) = I − Qn+1 I + Q + Q2 + . . . Qn = N(I − Qn+1 ) Aus Qn → 0 folgt die behauptete Darstellung von N. (k) Sei Q = (qij ) und Qk = (qij ). Seien si und sj feste transiente Zustände. Die Zufallsvariable X (k) nehme den Wert 1 an, wenn der Prozess, gestartet in si , (k) sich nach k Schritten in sj befindet, sonst 0. Dann gilt P (X (k) = 1) = qij (k) (k) und P (X (k) = 0) = 1 − qij und somit E(X (k) ) = qij . Die durchschnittliche Anzahl der Male, daß sich der Prozess, gestartet in si , in den ersten n Schritten im Zustand sj befindet, ist (0) (1) (n) E (X (0) + X (1) + . . . + X (n) ) = qij + qij + . . . + qij Damit gilt (0) (1) (2) E (X (0) + X (1) + X (2) + . . . ) = qij + qij + qij + . . . = nij √ für n → ∞ wie behauptet. ! Q R Def. Für eine absorbierende Markoff-Kette P = heißt die Matrix 0 I N = (I − Q)−1 Fundamental-Matrix von P. N = (nij ) ist dabei die zu erwartende Anzahl von Besuchen des transienten Zustands sj für einen im transienten Zustand si gestarteten Prozess. Z.B. Herr Schluckspecht torkelt zwischen 0 bis 4 hin und her – mit Über- 1 2 3 0 4 1 0 1/2 0 1/2 0 2 1/2 0 1/2 0 0 1/2 0 0 1/2 gangsmatrix P = 3 in kanonischer Form. Also 0 0 0 1 0 0 0 0 0 0 1 4 0 0 1/2 0 1 −1/2 0 1 −1/2 ist Q = 1/2 0 1/2 und I − Q = −1/2 , woraus sich 0 1/2 0 0 −1/2 1 3/2 1 1/2 N = (I − Q)−1 = 1 2 1 berechnen läßt. c 1/2 1 3/2 8 Th. Risse, HSB: Markoff-Ketten 2.3 Mittlere Schrittanzahl bis zur Absorption Satz Sei N die Fundamental-Matrix einer absorbierenden Markoff-Kette. Dann ist t = (ti ) = N(1, . . . , 1)0 = Ne die mittlere Anzahl von Schritten, bevor der Prozess absorbiert, wenn er in si gestartet ist. • Bew. Die Summe ti der Elemente der i-ten Zeile von N ist gerade die mittlere Anzahl von Schritten, die sich der Prozess, gestartet in si , in transienten Zuständen aufhält. Also ist ti die mittlere Anzahl von Schritten, bevor der √ Prozess absorbiert. 2.4 Absorptionswahrscheinlichkeiten ! Q R Satz Sei P = die Übergangsmatrix in kanonischer Form und 0 I N die Fundamental-Matrix einer absorbierenden Markoff-Kette. Sei bij die Wahrscheinlichkeit dafür, daß der Prozess im absorbierenden Zustand sj absorbiert, wenn er im transienten Zustand si gestartet ist. Für B = (bij ) gilt dann B = NR. • (n) (n) (n) ∞ pij = ∞ k nij rkj = k k qik rkj = n=0 qik rkj = n=0 2 (NR)ij oder auch gleich in Matrix-Form B = R + QR + Q R + . . . √ = (I + Q + Q2 + . . .)R = NR. Bew. bij = P∞ n=1 P P P P Z.B. Für Herrn Schluckspecht gilt N = (I − Q)−1 daher t = N(1, . . . , 1)0 = (3, 4, 3)0 . Weiterhin ist 0 4 0 1 3/4 1 1/2 0 0 , so daß B = NR = 2 R = 2 0 1/2 3 0 1/2 3 1/4 2.5 P 3/2 1 1/2 = 1 2 1 und 1/2 1 3/2 4 1/4 1/2 folgt. 3/4 c Übungen 1. Für welche a und b stellt das ’Stille Post’-Beispiel eine absorbierende Markoff-Kette dar? Welche der Genetik-Beispiele sind absorbierend? 9 Th. Risse, HSB: Markoff-Ketten 16 8 2. Verifiziere N = 16 8 4 Bestimme Ne und NR. 1 8 4 8 16 8 im Genetik-Beispiel mit Paaren. 2 16 8 1 8 16 3. Mache R im Wetter-Beispiel absorbierend und bestimme Ne und NR. 4. Ein Prozess habe die Zustände 1,2,3,4 und 5. Er startet in 1 und geht in einem Schritt gleichwahrscheinlich zu jedem höheren Zustand über. Der Zustand 5 ist absorbierend. Was ist die mittlere Anzahl von Schritten, bis der absorbierende Zustand 5 erreicht wird? Verallgemeinere das Beispiel auf n Zustände. Vermute die Fundamental-Matrix des Prozesses und die mittlere Anzahl von Schritten bis zur Absorption. Sei bk die mittlere Anzahl von Schritten bis zur Absorption, wenn der Prozess im Zustand n − k startet. Zeige: bo = 0 und bk = 1 + k1 (bo + b1 + . . . + bk−1 ). P k Zeige: die charakteristische Funktion y = f (x) = ∞ k=0 bk x löst die 2 0 Differentialgleichung (1 − x) y − (1 − x)y − 1 = 0. c Zeige: die Lösungsgesamtheit der Dgl ist y = − log(1−x) + 1−x . 1−x 1 1 1 Zeige: bk = 1 + 2 + 3 + . . . + k für alle k > 0. 5. Angenommen, ein Experiment hat m gleichwahrscheinliche Ergebnisse. Zeige: die mittlere Zahl unabhängiger Ausführungen des Experimentes, k −1 bevor ein Ergebnis k-mal nacheinander auftritt, ist mm−1 . Forme dazu eine absorbierende Markoff-Kette mit Zuständen 1,2,. . . ,k, wobei der Zustand i dafür steht, daß gerade ein Ergebnis i-mal nacheinander auftritt. Die gesuchte mittlere Anzahl ist gerade um 1 größer als die mittlere Anzahl von Schritten vor Absorption, wenn der Prozess im Zustand 1 gestartet ist. 6. Ein Spieler gewinnt einen Euro mit Wahrscheinlichkeit p und verliert einen Euro mit Wahrscheinlichkeit q = 1−p. Bestimme die Wahrscheinlichkeit wx dafür, daß der Spieler eine Menge T gewinnt und dann alles verliert, wenn er mit x Euro gestartet ist. Modelliere den Vorgang durch eine Markoff-Kette mit Zuständen 0,1,. . . ,T , wo 0 und T absorbierend sind. Bestimme w50 für T = 100 und p = .48 durch Simulation. Zeige: wx = p wx+1 + q wx−1 für x = 1, 2, . . . , T −1 mit wo = 0, wT = 1 (q/p)x −1 Zeige: für p = 12 = q ist wx = Tx und für p 6= q ist wx = (q/p) T −1 . 10 Th. Risse, HSB: Markoff-Ketten 3 Ergodische Markoff-Ketten Def. Eine Markoff-Kette heißt ergodisch, wenn von jedem Zustand jeder andere Zustand erreichbar ist. ◦ Bem. Ergodische Markoff-Ketten heißen manchmal auch irreduzibel. Def. Eine Markoff-Kette P heißt regulär, wenn es ein n gibt, so daß Pn nur positive Elemente hat. o z.H. Jede reguläre Markoff-Kette ist ergodisch. ! Z.B. Nicht jede ergodische Markoff-Kette ist regulär, wie etwa P = 0 1 1 0 c zeigt. 0 1 2 3 4 0 0 1 0 0 0 11/4 0 3/4 0 0 1/2 0 1/2 0 Z.B. Ebenso ist die Markoff-Kette P = 2 0 des 3 0 0 3/4 0 1/4 4 0 0 0 1 0 Ehrenfest-Modells ergodisch aber nicht regulär. c 3.1 Reguläre Markoff-Ketten z.H. Absorbierende Markoff-Ketten sind nicht regulär. o Satz Sei P die Übergangsmatrix einer regulären Markoff-Kette. Dann gilt limn→∞ Pn = (w0 , w0 , . . . , w0 )0 für einen Wahrscheinlichkeitsvektor w = (wi ) mit wi > 0. • Bem. Beweis siehe Abschnitt 4 auf S. 14. ◦ Z.B. Im Wetter-Beispiel gilt mit einer Genauigkeit von drei Dezimal-Stellen R S E R 0.4 0.2 0.4 P6 ≈ S 0.4 0.2 0.4 . E 0.4 0.2 0.4 c Satz Sei P die Übergangsmatrix einer regulären Markoff-Kette. Wie gehabt, gilt dann limn→∞ Pn = (w0 , w0 , . . . , w0 )0 für einen Wahrscheinlichkeitsvektor w = (wi ) mit wi > 0. Dann gilt erstens wP = w und jeder Zeilenvektor v mit vP = v ist ein Vielfaches von w sowie mit e = (1, . . . , 1)0 zweitens Pe = e und jeder Spaltenvektor v mit Pv = v ist ein Vielfaches von e. • Th. Risse, HSB: Markoff-Ketten 11 Bew. Aus Pn → W und Pn P → WP und Pn+1 → W folgt WP = W, insbesondere also wP = w. P Aus vP = v folgt vPn = v und damit vW = v. Sei v = (vi ) und c = vi . P P P Wegen v = vW = cw (da ja w1 vi = v1 , w2 vi = v2 , . . . wr vi = vr ) gilt dann endlich v = rw. Aus Pv = v folgt Wv = v. Da alle Zeilen von W identisch sind, müssen auch die Komponenten von Wv alle identisch sein. Damit ist v ist ein Vielfaches √ von e. Bem. Es gibt genau einen Wahrscheinlichkeitsvektor v mit vP = v. 3.2 ◦ Fixe Vektoren, Eigen-Vektoren Def. Ein Zeilenvektor v mit vP = v heißt fixer Zeilenvektor für P. Ein fixer Zeilenvektor ist ein linker Eigen-Vektor zum Eigen-Wert 1 von P. Ein Spaltenvektor v mit Pv = v heißt fixer Spaltenvektor für P. Ein fixer Spaltenvektor ist ein rechter Eigen-Vektor zum Eigen-Wert 1 von P. Bem. Die identischen Zeilen w von W sind zugleich fixe Zeilenvektoren/linke Eigen-Vektoren zum Eigen-Wert 1 und Wahrscheinlichkeitsvektoren. ◦ Sei P die Übergangsmatrix im Wetter-Beispiel. Das System linea 1/2 1/4 1/4 0 1/2 rer Gleichungen wP = w 1/2 = w = (w1 , w2 , w3 ) ist wegen 1/4 1/4 1/2 w(P − I) = 0 überbestimmt und hat erst zusammen mit w1 + w2 + w3 = 1 die eindeutige Lösung w = 51 (2, 1, 2). Man kann auch zunächst etwa w1 = 1 setzen und das System der ersten beiden Gleichungen von wP = w lösen und danach die Lösung w normalisieren, P so daß wi = 1 gilt. c Z.B. Bem. Die gesuchten fixen Zeilenvektoren sind linke Eigen-Vektoren zum Eigen-Wert 1 von P, d.h. wI = w = wP = oder w(P − I) = 0, d.h. w liegt im linken Nullraum von P − I, als was w von mancher software berechnet und dann normalisiert werden kann. ◦ Satz Sei P die Übergangsmatrix einer regulären Markoff-Kette. Sei v ein beliebiger (initialer) Wahrscheinlichkeitsvektor. Dann gilt limn→∞ vPn = w für den eindeutig bestimmten, fixen Wahrscheinlichkeitsvektor w. • Bew. Aus limn→∞ Pn = W folgt limn→∞ vPn = vW. v ist ein Wahrschein- lichkeitsvektor. Aus W = (w0 , w0 , . . . , w0 )0 folgt daher vW = w. √ Th. Risse, HSB: Markoff-Ketten 12 Bem. Die Wahrscheinlichkeit dafür, daß sich der Prozess im Zustand sj befindet, geht also gegen wj unabhängig vom speziellen (initialen) Wahrscheinlichkeitsvektor v. ◦ 3.3 Gleichgewicht Bem. Falls der initiale Wahrscheinlichkeitsvektor gerade w ist, so gilt wP = w, d.h. der Wahrscheinlichkeitsvektor ist für jeden Schritt konstant. Ein solche Markoff-Kette heißt stationär. ◦ Satz Sei P die Übergangsmatrix einer ergodischen Markoff-Kette. Dann existiert genau ein Wahrscheinlichkeitsvektor w mit wP = w = (wi ), wobei wi > 0 für alle i. Weiterhin ist jeder Zeilenvektor v mit vP = v ein Vielfaches von w und jeder Spaltenvektor v mit Pv = v ein Vielfaches von e = (1, . . . , 1)0 . • Bew. Mit der ergodischen Übergangsmatrix P ist P̂ = 12 I + 12 P eine reguläre Übergangsmatrix, die offensichtlich dieselben fixen Vektoren/linken EigenVektoren wie P hat. Also folgt die Behauptung aus dem entsprechenden √ Satz für reguläre Markoff-Ketten. Satz Sei P die Übergangsmatrix einer ergodischen Markoff-Kette und sei 1 Pn k 0 An = n+1 k=0 P . Dann gilt limn→∞ An = W mit W = (w, w, . . . , w) für den eindeutigen Wahrscheinlichkeitsvektor w mit wP = w. • Bem. Die Zufallsvariable X (n) nehme den Wert 1 an, wenn der Prozess, gestartet in si , sich nach n Schritten im Zustand sj befindet. Dann be1 Pn (k) schreibt H (n) = n+1 , wie oft sich der Prozess in den ersten n k=0 X (n) Schritten durchschnittlich im Zustand sj befindet. Wegen E (X (n) ) = pij gibt (An )ij = E (H (n) ) die relative Häufigkeit des Zustandes sj in den ersten n Schritten, wenn der Prozess in si startet, wieder. Der vorstehende Satz sichert die Konvergenz dieser relativen Häufigkeit gegen wj . ◦ (n) Satz Hj messe, wie häufig relativ zu n sich der Prozess in den ersten n (n) Schritten im Zustand sj befindet. Dann gilt limn→∞ P (|Hj − wj | > ) = 0 für jedes > 0 und unabhängig von initialen Zustand si . • Simulationen von Markoff-Ketten sollten diese theoretischen Ergebnisse bestätigen. Z.B. Eine Ratte bewege sich in einem Labyrinth. Sie nimmt dabei jeden aus einem Raum führenden Weg mit derselben Wahrscheinlichkeit. Th. Risse, HSB: Markoff-Ketten 1 2 3 6 5 4 7 8 9 13 1 2 3 4 5 6 7 8 9 0 0 1/2 0 0 0 1 0 1/2 0 0 1/3 0 1/3 0 0 0 0 2 1/3 0 1/2 0 1/2 0 0 0 0 0 3 0 1/3 0 1/3 0 0 0 1/3 4 0 1/4 0 1/4 0 1/4 0 1/4 0 0 P = 5 1/3 0 0 0 1/3 0 1/3 0 0 6 0 0 0 0 1/2 0 1/2 0 7 0 0 0 0 1/3 0 1/3 0 1/3 8 0 0 0 1/2 0 0 0 1/2 0 9 0 Die Markoff-Kette ist nicht regulär, weil nur Zustandsübergänge von ungeradzahligen Zuständen zu geradzahligen und umgekehrt möglich sind. Offensichtlich ist die Markoff-Kette ergodisch. Anstatt ein System linearer Gleichungen in neun Unbekannten zu lösen, kann man vermuten, daß die Wahrscheinlichkeit eines Zustandes proportional zur Anzahl der Zugänge des zugehörigen Raumes ist. Sei daher v = (2, 3, 2, 3, 4, 3, 2, 3, 2). Wegen vP = v 1 ist w = 24 v der gesuchte Wahrscheinlichkeitsvektor. c Das Ehrenfest-Modell für Diffusion (pro Schritt wird eine der vier Kugeln in den beiden Urnen zufällig ausgewählt und in die andere Urne 1 2 3 4 0 0 0 1 0 0 0 1 1/4 0 3/4 0 0 transferiert) hat die Übergangsmatrix P = 2 0 1/2 0 1/2 0 . 3 0 0 3/4 0 1/4 4 0 0 0 1 0 1 (1, 4, 6, 4, 1) und damit die relativen Anteile an Zeit, Es ergibt sich w = 16 1 (1, 4, 6, 4, 1) = die der Prozess in jedem einzelnen Zustand verbringt. w = 16 4 4 4 4 4 1 , 1 , 2 , 3 , 4 ) entspricht gerade der Binomial-Verteilung, was ja 24 ( 0 auch insofern plausibel ist, als im Modell die vier Kugeln zufällig auf die beiden Urnen verteilt werden. c Z.B. 3.4 Übungen 1. Welche der folgenden Matrizen sind Übergangsmatrizen regulärer Mar! ! ! 1 1 1 1 0 1 , P2 = 12 , P3 = , koff-Ketten? P1 = 12 1 1 2 0 1 0 5 0 10 3 3 0 1 1 P4 = 15 0 15 0 , P5 = 6 0 3 3 0 3 12 2 2 2 Th. Risse, HSB: Markoff-Ketten 14 2. Unter welchen Bedingungen ist die Markoff-Kette im ’Stille Post’-Beispiel regulär? ergodisch aber nicht regulär? Bestimme w für die ergodischen Markoff-Ketten. ! 0 1 3. Zeige: P = ist ergodisch aber nicht regulär. Bestime w. 1 0 Zeige: limn→∞ Pn existiert nicht. 1 Pn k Zeige: mit An = n+1 k=0 P existiert limn→∞ An . ! 4. Für P = 1 2 2 0 bestimme w. Warum ist P nicht ergodisch? 1 1 4 0 0 1 5. Zeige: P = 4 1 2 1 hat mehr als einen fixen Wahrscheinlichkeits0 0 4 vektor. Bestimme limn→∞ Pn . Hat limn→∞ Pn identischen Zeilen? 6. Zeige: das Ehrenfest-Modell ist ergodisch aber nicht regulär. Zeige: w ist eine Binomial-Verteilung. 7. Zeige: ein ergodischer Prozess mit r Zuständen kann von jedem Zustand in jeden anderen Zustand in höchstens r − 1 Schritten übergehen. 8. Sei P eine ergodische Markoff-Kette. Zeige: Wenn alle Diagonal-Elemente pii von P positiv sind, dann ist P regulär. 9. Sei P eine ergodische Markoff-Kette. Zeige: 12 (I + P) ist regulär. 10. Zeige: P und 12 (I + P) haben dieselben fixen Vektoren. 4 Grenzwertsatz regulärer Markoff-Ketten Hier einer der beiden versprochenen Beweise für den Satz Sei P die Übergangsmatrix einer regulären Markoff-Kette. Dann gilt limn→∞ Pn = (w0 , w0 , . . . , w0 )0 für einen Wahrscheinlichkeitsvektor w = (wi ) mit wi > 0. • Lemma Bei insgesamt r Zuständen sei P = (pij ) eine r ×r-Übergangsmatrix ohne verschwindende Elemente und d = minij pij . Dann gilt d > 0. Sei y = (yi ) ∈ Rr ein Spaltenvektor mit mo = mini yi und Mo = maxi yi . Sei m1 = mini (Py)i und M1 = maxi (Py)i . Dann gilt M1 − m1 ≤ (1 − 2d)(Mo − mo ). 15 Th. Risse, HSB: Markoff-Ketten Py ist ein gewichtetes Mittel der Koordinaten von y. Das größte gewichtete Mittel ergibt sich, wenn mit nur einer Ausnahme alle Koordinaten den maximalen Wert Mo haben und jede dieser Koordinaten das maximale Gewicht 1 − d trägt und wenn die einzige verbleibende Koordinate von y den minimalen Wert mo hat und das minimale Gewicht d trägt. Entsprechend ergibt sich das kleinste gewichtete Mittel, wenn mit nur einer Ausnahme alle Koordinaten den minimalen Wert mo haben und jede dieser Koordinaten das maximale Gewicht 1 − d trägt und wenn die einzige verbleibende Koordinate von y den maximalen Wert Mo hat und das minimale Gewicht d trägt, d.h. Bew. Mo d + mo (1 − d) ≤ (Py)i ≤ mo d + Mo (1 − d) woraus die Behauptung M1 − m1 ≤ ( ≤ mo d + Mo (1 − d)) − (Mo d + mo (1 − d)) = (1 − 2d)(Mo − mo ) √ folgt. Sei y ∈ Rr Wie im Lemma seien mn = mini (Pn y)i und Mn = maxi (P y)i definiert. Wie im Lemma ist jede Komponente von Pn y ein gewichtetes Mittel der Komponenten von Pn−1 y. Dann gilt Bew. n m o ≤ m 1 ≤ . . . ≤ m n ≤ . . . ≤ M n ≤ . . . ≤ M1 ≤ M o und somit m = limn→∞ mn ≤ limn→∞ Mn = M . Um M − m = 0 zu gewährleisten, bleibt Mn − mn → 0 zu zeigen. Angenommen, die Übergangsmatrix P habe keine verschwindenden Elemente. Dann ist d = minij pij > 0 und laut Lemma gilt Mn − mn ≤ (1 − 2d)n (Mn−1 − mn−1 ) iteriert Mn − mn ≤ (1 − 2d)n (Mo − mo ). Wegen r ≥ 2 gilt mit d ≤ 12 eben auch 0 ≤ 1 − 2d < 1, so daß Mn − mn → 0 für n → ∞ folgt. Da mn ≤ (Pn y)i ≤ Mn für jedes i gilt und da Mn −mn → 0, muß jede Komponente von Pn y gegen denselben Wert m = u = M konvergieren, d.h. limn→∞ Pn y = (u, . . . , u)0 . Sei nun y = (yi ) = (δi,j ) für ein festes j. Dann ist Py gerade die j-te Spalte von P mit ausschließlich strikt positiven Elementen. Also gilt 0 < mini (Pn y)i = m1 ≤ m. Dieses m ist aber gerade die j-te Komponente von √ w, so daß alle Komponenten von w notwendig strikt positiv sind. Bem. Ein anderer berühmter Beweis stammt von Döblin2 . 2 Wolfang Döblin (1915-1940) ◦ www-history.mcs.st-andrews.ac.uk/Biographies/Doeblin.html Th. Risse, HSB: Markoff-Ketten 4.1 16 Übungen ! ! 2 2 1 1. Sei P = und y = . Berechne Pn y für kleine n. 1 3 0 Gegen welchen Vektor konvergiert Pn y ? 1 4 2. Sei P eine reguläre Markoff-Kette mit r Zuständen und y ∈ Rn . Zeige: limn→∞ Pn y = (wy)i . 4 0 1 3. Sei P = 4 1 0 0 0 toren. Ist P nicht 5 0 3 . Zeige: P hat zwei linear unabhängige fixe Vek4 regulär? Kennzahlen für ergodische Markoff-Ketten Man ist an der mittleren Zeit, bis das System einen bestimmten Zustand einnimmt, oder an der mittleren Zeit für den Übergang von einem in einen anderen Zustand interessiert. Sei P die Übergangsmatrix einer ergodischen Markoff-Kette mit Zuständen s1 , s2 , . . . , sr . Sei w = (wi ) der eindeutig bestimmte Wahrscheinlichkeitsvektor mit wP = w. Dann wird der Prozess relativ wj viele Zeiteinheiten im Zustand sj verbringen. Folgendes Vorgehen liefert genauere Einsichten: Man spezifiziert eine neue Markoff-Kette, indem man den interessierenden Zustand sj durch pjj = 1 absorbierend macht. Bei Start in si verhält sich der neue Prozess solange wie der alte, bis er den Zustand sj einnimmt. Sei N = (nij ) die Fundamental-Matrix des neuen Prozesses, wobei nij der zu erwartenden Anzahl von Malen entspricht, in denen sich der neue Prozess, gestartet im transienten Zustand si , vor Absorption im Zustand sj befindet. Für den alten Prozess ist nij also die zu erwartenden Anzahl von Malen, bis der alte Prozess, gestartet im transienten Zustand si , sich erstmalig im Zustand sj befindet. N(1, 1, . . . , 1)0 = Ne ist die mittlere Anzahl von Schritten des neuen Prozesses, gestartet in si , vor Absorption. Für den alten Prozess ist N(1, 1, . . . , 1)0 = Ne daher die mittlere Anzahl von Schritten, bis der alte Prozess, gestartet in si , erstmalig sj erreicht. 17 Th. Risse, HSB: Markoff-Ketten 5.1 MFPT Def. Eine ergodische Markoff-Kette starte in si . Die mittlere Anzahl mij von Schritten, bis der Prozess ausgehend von si erstmalig sj erreicht, heißt Mean First Passage Time, MFPT. Man vereinbart mii = 0. Ein Stück Käse macht aus dem Raum 5 im Ratten-Beispiel einen absorbierenden Zustand. Z.B. 1 2 3 6 5 4 7 8 9 1 2 3 4 6 7 8 9 5 0 1/2 0 0 0 1 0 1/2 0 0 2 0 1/3 0 0 0 0 0 1/3 1/3 0 1/2 0 1/2 0 0 0 0 0 3 0 1/3 0 0 1/3 0 1/3 1/3 4 0 0 0 0 0 0 0 1/3 P = 61/3 0 . 0 0 0 1/2 0 1/2 0 0 7 0 0 0 0 0 1/3 0 1/3 1/3 8 0 0 0 0 1/2 0 0 1/2 0 9 0 5 0 0 0 0 0 0 0 0 1 mit Fundamental-Matrix N = (I − Q)−1 14 9 4 3 9 4 3 2 4 4 2 2 2 6 14 6 4 9 14 9 3 2 3 4 1 4 6 14 2 2 4 6 2 = 6 4 2 2 14 6 4 2 8 4 3 2 3 9 14 9 4 2 2 4 4 6 14 6 2 2 3 4 9 3 4 9 14 Damit ist ist mittlere Anzahl von Schritten vor Absorption in Abhängigkeit vom initialen Zustand gerade N(1, . . . , 1)0 = (6, 5, 6, 5, 5, 6, 5, 6)0 und B = NR = (bij ) sind die Wahrscheinlichkeiten für die Übergänge von transienten Zuständen si zum absorbierenden Zustand 5. c 18 Th. Risse, HSB: Markoff-Ketten 5.2 MRT vgl. MTTF, MTTR etc Def. Eine ergodische Markoff-Kette starte in si . Die mittlere Anzahl ri von Schritten, bis der Prozess ausgehend von si erstmalig wieder si erreicht, heißt Mittlere Rückkehr-Zeit, Mean Recurrence Time, MRT. Um die MFPT zu bestimmen, unterscheidet man einfach, ob der Prozess in einem Schritt oder in mehreren Schritten vom Zustand si in den Zustand sj übergeht: für i 6= j gilt mij = 1 · pij + X pik (1 + mkj ) = pij + k6=j X pik + k6=j X pik mkj = 1 + k6=j X pik mkj k6=j und für i = j ebenso (man erinnere mii = 0) ri = 1 · pii + X pik (1 + mki ) = pii + k6=i 5.3 X pik + k6=i X pik mki = 1 + k6=i X pik mki . k MFPT und MRT Def. M = (δij mij ) heißt MFPT-Matrix. D = (δij ri ) heißt MRT-Matrix. Sei C = (1, 1, . . . , 1)0 (1, 1, . . . , 1) = ee0 eine r × r-Matrix, deren Elemente alle identisch 1 sind. Bem. Für i 6= j gilt mij = 1 + k6=j pik mkj = (C)ij + k pik mkj + (D)ij = P (PM + C − D)ij und für i = j gilt (M)ii = 0 = ri − ri = 1 + k pik mki = (C)ii + (PM)ii − (D)ii , zusammen also M = PM + C − D oder ebenso (I − P)M = C − D. ◦ P P Satz P sei Übergangsmatrix einer ergodischen Markoff-Kette. Dann gilt ri = 1/wi , wobei w = (wi ) der eindeutig bestimmte Wahrscheinlichkeitsvektor mit w = wP ist. • Bew. Wegen w = wP gilt w(I − P) = 0. Also ist 0 = 0M = w(I − P)M = wC−wD. Weil w ein Wahrscheinlichkeitsvektor ist, gilt wC = e0 . Weiterhin √ ist wD = (wi ri ). Aus e0 = wC − wD = (wi ri ) folgt die Behauptung. Bem. Für eine ergodische Markoff-Kette sind die wi strikt positiv, weil die ri = 1/wi endlich sind. ◦ Die Ratte hält sich in den Räumen des Labyrinths ohne Käse mit 1 Wahrscheinlichkeiten w = 24 (2, 3, 2, 3, 4, 3, 2, 3, 2) auf. Die mittleren Rückkehrzeiten sind also r = (12, 8, 12, 8, 6, 8, 12, 8, 12). c Z.B. Z.B. Im Wetter-Beispiel galt w = sind also r = (2.5, 5, 2.5). 1 (2, 1, 2). 5 Die mittleren Rückkehrzeiten c 19 Th. Risse, HSB: Markoff-Ketten 5.4 Fundamental-Matrix Z Eine Fundamental-Matrix für ergodische Markoff-Ketten völlig analog zu derjenigen für absorbierende Markoff-Ketten kann es nicht geben, weil I − P für ergodische Markoff-Ketten wegen Pe = e singulär ist. Analog zu N = I + Q + Q2 + . . . mit Qn → 0 hilft hier der Ansatz I + (P − W) + (P − W)2 + . . . mit Pn → W. Wegen PW = W und wegen Wk = W gilt (P − W)n = n X n i=0 i ! (−1)i Pn−i Wi = Pn + = Pn + W( n X n i=1 n X n i=o i ! i (−1)i Wi ! (−1)i − 1) = Pn − W und – analog zum Fall absorbierender Markoff-Ketten – Z = (I − P + W)−1 = ∞ X (P − W)n n=o falls die Reihe konvergiert. Die Existenz beleuchtet der Satz P sei Übergangsmatrix einer ergodischen Markoff-Kette. Weiter sei W = (w0 , w0 , . . . , w0 )0 , wobei w = (wi ) der eindeutig bestimmte Wahrscheinlichkeitsvektor mit w = wP ist. Dann ist die Matrix I − P + W regulär oder eben invertierbar. • Bew. Sei x ein Spalten-Vektor mit (I − P + W)x = 0. Wegen w(I − P) = 0 und wW = w ist w0 = w(I−P+W)x = wx = 0 und zusammen (I−P)x = 0. Aus x = Px folgt mit dem Satz aus Abschnitt 3.3 auf S. 12, daß x ein konstanter Vektor ist. Aus wx = 0 für w mit strikt positiven Elementen folgt √ dann letztendlich x = 0. Def. Z = (I−P+W)−1 heißt Fundamental-Matrix der ergodischen MarkoffKette P. 2 1 1 2 1 2 1 1 Z.B. Im Wetter-Beispiel gilt I − P + W = I − 4 2 0 2 + 5 2 1 2 = 1 1 2 2 1 2 18 −1 3 86 3 −14 1 1 −2 24 −2 6 63 6 , so daß Z = (I − P + W)−1 = 75 die 20 3 −1 18 −14 3 86 Fundamental-Matrix ist. c 20 Th. Risse, HSB: Markoff-Ketten 5.5 M aus Z berechnen Lemma Für die Fundamental-Matrix Z = (I − P + W)−1 gilt Ze = e und wZ = w sowie Z(I − P) = I − W. Bew. Aus Pe = e oder eben (I−P)e = 0 und We = e folgt e = (I−P+W)e. Multiplikation mit Z liefert Ze = e. Aus wP = w oder eben w(I − P) = 0 und wW = w folgt analog w = w(I − P + W) und per Multiplikation mit Z eben wZ = w. (I − P + W)(I − W) = I − P + W + W + W − W = I − P multipliziert mit √ Z ergibt Z(I − W) = I − P. Satz M sei die MFPT-Matrix einer ergodischen Markoff-Kette mit Fundamental-Matrix Z = (zij ) und fixem Wahrscheinlichkeitsvektor w. Dann gilt mij = (zjj − zij )/wj . • Bew. Aus (I − P)M = C − D und daher Z(I − P)M = ZC − ZD folgt mit vorstehendem Lemma M − WM = Z(I − P)M = C − ZD oder M = C − ZD + WM. Für i 6= j gilt also mij = 1 − zij rj + (wM)j und für i = j eben 0 = mjj = 1 − zjj rj + (wM)j , aufgelöst also (wM)j = zjj rj − 1. Eingesetzt ergibt sich √ mij = (zjj − zij )rj = (zjj − zij )/wj . Z.B. Im Wetter-Beispiel galt Z = Damit ergibt sich M = 1 3 0 12 0 10 12 8 86 3 −14 1 1 6 63 6 und w = 5 (2, 1, 2). 75 −14 3 86 10 8 c . 0 Das Ehrenfest-Modell sei auf 2n Kugeln in den beiden Urnen verallgemeinert. Pro Sekunde werde eine Kugel ausgetauscht. Der Zustand sei wieder durch die Anzahl der Kugeln in derersten Urne beschrieben. Für die i falls j = i − 1 2n i falls j = i + 1 . Dann ist Übergangswahrscheinlichkeiten gilt pij = 1 − 2n 0 sonst P = (pij ) die Übergangsmatrix einer ergodischen, nicht regulären (warum?) Markoff-Kette. z.H. Man verifiziert wi = 2n /22n . o i Z.B. Also gilt ri = 22n / 2n i für die mittleren Rückkehrzeiten. √ √ −2n 2π2n (2n) (2n)2n e√ 2 πn Weil wegen Stirling wn = 2n2n ≈ (n = = n e−n 2πn)2 22n 2πn √1 πn gilt oder 21 Th. Risse, HSB: Markoff-Ketten weil die Binomial-Verteilung mit Parametern 2n und 21 gegen die Normal√ Verteilung konvergiert, kann für große n speziell wn ≈ √1πn und rn ≈ πn angenähert werden. c 5.6 Zentraler Grenzwert-Satz Gegeben eine ergodische Markoff-Kette mit Zuständen s1 , s2 , . . . , sr . Bezeich(n) ne Sj die Anzahl der Male, in denen während der ersten n Schritte sich der Prozess im Zustand sj befunden hat. Man ist nun an der Verteilung der Zu(n) fallsvariablen Sj interessiert. Der fixe Wahrscheinlichkeitsvektor w = (wj ) gibt ja die Zeit-Anteile an, in denen sich der Prozess im Gleichgewicht in einzelnen Zuständen sj befindet. (n) z.H. Man verifiziert E (Sj ) ≈ nwj für n → ∞, indem man von P (n) (k) o E (Sj ) = nk=1 pij für einen in si startenden Prozess ausgeht. (n) 2 Weniger offensichtlich ist Var(Sj ) ≈ wj (2zjj − 1 − wj ) = σj für n → ∞. Satz Für eine ergodische Markoff-Kette mit Fundamental-Matrix Z = (zij ) (n) und fixem Wahrscheinlichkeitsvektor w sind die Zufallsvariablen Sj asymptotisch normal-verteilt: unabhängig vom initialen Zustand gilt für u, o ∈ R und für n → ∞ (n) P (u < Sj −nWj √ nσj2 1 Z o −x2 /2 e dx < o) → √ 2π u (n) wobei σj2 = wj (2zjj − 1 − wj ) die asymptotische Varianz von Sj 5.7 ist. • Übungen ! 1. Sei P = 1 4 2 2 . Bestimme Z und M. 1 3 ! 2 2 . Der Prozess starte im Zu2. Im ’Stille Post’-Beispiel sei P = 14 3 1 stand ’j’. Bestimme die mittlere Anzahl von Schritten, bis die Information erstmalig falsch weitergegeben wird. Bestimme die MRT’s. Verallgemeinere für beliebige a und b. 3. Zeige: Beim Würfeln ist die mittlere Anzahl von Würfen zwischen dem Auftreten einer gegebenen Augenzahl gerade 6. 22 Th. Risse, HSB: Markoff-Ketten 4. Eine ergodische Markoff-Kette starte im Gleichgewicht, d.h. mit initialem Wahrscheinlichkeitsvektor w. Die mittlere Anzahl von Schritten P bis zum nächsten Auftreten des Zustandes si ist m̃i = k wk mki + wi ri . Zeige: m̃i = zwiii unter Verwendung von wZ = w und mki = ziiw−zi ki . 5. Zeige: für eine ergodische Markoff-Kette gilt j mij wj = j zjj − 1 = K. Die Kemeny-Konstante K ist unabhängig von i (plausible Erklärung s.a. http://math.dartmouth.edu/˜doyle/docs/kc/kc.pdf)! P P 6. Sei P Übergangsmatrix einer regulären Markoff-Kette mit w. Eine Auszahlungsfunktion f legt Gewinn oder Verlust für jeden Zustand si fest. Es gelte wf = 0. Für den mittlere Gewinn g(n) nach n Schritten gilt g(n) = (I + P + . . . + Pn )f . Zeige: limn→∞ g(n) = g mit g = Zf . Literatur [1] Heinz Bauer: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie; DeGruyter, Berlin 1991, ISBN 3-11-012191-3 [2] Lyndhurst Collins: An introduction to Markov chain analysis; Norwich, Geo Abstracts, 1975, ISBN 0-902246-43-7 [3] Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik; VEB Deutscher Verlag der Wissenschaften, Berlin 1989, ISBN 3-32600079-0 [4] Charles Grinstead, J. Laurie Snell: Introduction to Probability; AMS, 1997, ISBN 0-8218-0749-8 http://www.dartmouth.edu/˜chance/ teaching_aids/books_articles/probability_book/amsbook.mac.pdf [5] William J. Stewart: Introduction to the numerical solution of Markov chains; Princeton Univ. Press, 1994, ISBN 0-691-03699-3 Einschlägige klassische Literatur [1] K.L. Chung: Markov Chains with Stationary Transition Probabilities; Springer 1967 [2] J.L. Doobs: Stochastic Processes; Wiley 1953 Th. Risse, HSB: Markoff-Ketten 23 [3] W. Feller: An Introduction to Probability Theory and its Applications; Wiley 1966 [4] D. Freedman: Markov Chains; Holden-Day 1975 [5] M. Iosifescu: Finite Markov Processes and their Applications; Wiley 1980 [6] J.G. Kemeny, J.L. Snell: Finite Markov Chains; van Nostrand 1960 [7] J.G. Kemeny, J.L. Snell, A.W. Knapp: Denumerable Markov Chains; Springer 1976 [8] D. Revuz: Markov Chains; North-Holland 1975 [9] E. Seneta: Non-negative Matrices and Markov Chains; Springer 1981 24 Th. Risse, HSB: Markoff-Ketten A Lösungen der Übungen zu Abschnitt 1 1. Im ’Stille Post’-Beispiel berechne Pn für diverse a und b und n → ∞. ! 1 1 Z.B. für P = gilt P2 = P und daher allgemein Pn = P 1 1 alle 0 < n ∈ N, so daß!Pn → P für n → ∞ folgt. ! 2n + 1 2n − 1 1 1 1 3 1 n gilt P = 2n+1 n → 12 Z.B. für P = 4 n 1 3 2 −1 2 +1 1 für n → ∞. 1 2 2. Vergleiche im Wetter-Beispiel Pn und An = 1 n+1 Pn k=o für ! 1 1 Pk für große n. 3. Wie sehen in den Genetik-Beispielen die Wahrscheinlichkeitsvektoren u(n) für große n vermutlich aus? 2 2 0 Z.B. für P = 14 1 2 1, also hybrid, gilt Pn → (w0 , w0 , w0 )0 für 0 2 2 1 0 n → ∞ mit w = 4 (1, 2, 1). 2 0 0 Z.B. für P = 12 1 1 0, also dominant, gilt Pn → (w0 , w0 , w0 )0 für 0 2 0 n → ∞ mit w0 = (1, 0, 0). 4. Visualisiere das Stepping Stone Model. s.a. www.weblearn.hs-bremen.de/risse/papers/FHWN2008/StepStone.m B Lösungen der Übungen zu Abschnitt 2 1. Für welche a und b stellt das ’Stille Post’-Beispiel eine absorbierende Markoff-Kette dar? Welche der Genetik-Beispiele sind absorbierend? ! 1−a a Wenn a = 0 oder b = 0, dann ist P = absorbierend. b 1−b 2 0 0 Die Markoff-Kette P = 12 1 1 0, also dominant, ist mit einem ab0 2 0 sorbierenden Zustand absorbierend. 2 2 0 Die Markoff-Kette P = 14 1 2 1, also hybrid, ist nicht absorbie0 2 2 rend. 25 Th. Risse, HSB: Markoff-Ketten 16 8 2. Verifiziere N = 16 8 4 Bestimme Ne und NR. 1 8 4 8 16 8 im Genetik-Beispiel mit Paaren. 2 16 8 1 8 16 Die beiden Zustände GG,GG und gg,gg sind absorbierend. Dann ist GG, Gg GG, gg Gg, Gg Gg, gg GG, GG gg, gg 0 1/4 0 1/4 0 GG, Gg 1/2 0 1 0 0 0 GG, gg 0 1/8 1/4 1/4 1/16 1/16 Gg, Gg 1/4 die ÜberP= 0 1/4 1/2 0 1/4 Gg, gg 0 GG, GG 0 0 0 0 1 0 gg, gg 0 0 0 0 0 1 ! Q R gangsmatrix in kanonischer Form P = . Man verifiziert leicht 0 I N(I − Q) = I = (I − Q)N, also N = (I −!Q)−1 . Weiterhin gilt 0 1 1 3 2 2 1 0 Ne = 6 (29, 40, 34, 29) und NR = 4 . 1 2 2 3 3. Mache R im Wetter-Beispiel absorbierend und bestimme Ne und NR. Falls der Zustand R absorbierend ist, muß pRR = 1 gelten. Die ÜberR S E S E R R 1/2 1/4 1/4 S 0 1/2 1/2 gangsmatrix P = S 1/2 0 1/2 ist P = E 1/4 1/2 1/4 E 1/4 1/4 1/2 R! 0 0 1 0 2 dargestellt in kanonischer Form mit Q = 41 , so daß I − Q = 1 2 ! ! 4 −2 1 1 4 4 −1 und N = (I − Q) = 3 folgt. Dann ist Ne = 4 −1 2 2 8 1 (8, 10)0 und NR = (1, 1)0 . 3 4. Ein Prozess habe die Zustände 1, 2, 3, 4 und 5. Er startet in 1 und geht in einem Schritt gleichwahrscheinlich zu jedem höheren Zustand über. Der Zustand 5 ist absorbierend. Was ist die mittlere Anzahl von Schritten, bis der absorbierende Zustand 5 erreicht wird? Verallgemeinere das Beispiel auf n Zustände. Vermute die Fundamental-Matrix des Prozesses und die mittlere Anzahl von Schritten bis zur Absorption. Sei bk die mittlere Anzahl von Schritten bis zur Absorption, wenn der Prozess im Zustand n − k startet. 26 Th. Risse, HSB: Markoff-Ketten Zeige: bo = 0 und bk = 1 + k1 (bo + b1 + . . . + bk−1 ). Nach Definition kann der Prozess vom Zustand n − k mit Wahrscheinlichkeit k1 , also gleichwahrscheinlich in einem Schritt in jeden der Zustände n − k + 1, n − k + 2, . . . , n − 1, n und jeweils von n − (k − 1) in im Mittel bk−1 Schritten, von n − (k − 2) in im Mittel bk−2 Schritten, usw. und von n − 1 in im Mittel b1 Schritten in den Zustand n übergehen. Zusammen gilt also bk = k1 (1 + bk−1 ) + k1 (1 + bk−2 ) + . . . + k1 (1 + b1 ) + k1 (1 + bo ) = 1 + k1 (bo + b1 + . . . + bk−1 ), √ wie behauptet. k Zeige: die charakteristische Funktion y = f (x) = ∞ k=0 bk x löst die 2 0 Differentialgleichung (1 − x) y − (1 − x)y − 1 = 0. P P∞ P k−1 k 0 k . = f 0 (x) = ∞ Für y = f (x) = ∞ k=1 bk kx k=1 bk x gilt y k=0 bk x = P P∞ 0 0 ∞ 1 1 k−1 k Unter Verwendung von (1−x)2 = ( 1−x ) = ( k=o x ) = k=1 kx = P∞ y 1 k 0 k=o (k + 1)x folgt für die linke Seite lhs = y − 1−x − (1−x)2 P ∞ ∞ ∞ k i j k lhs = ∞ k=o (k + 1)x i=1 bi x j=o x − k=o bk+1 (k + 1)x − P P∞ = k=o (bk+1 (k + 1) − (k + 1) − i+j=k bi )xk = 0, P P P P da ja bk+1 (k + 1) = (k + 1) + (bo + b1 + . . . + bk−1 + bk ) für alle k gilt. c Zeige: die Lösungsgesamtheit der Dgl ist y = − log(1−x) + 1−x . 1−x −(1−x)/(1−x)+log(1−x) 0 Am einfachsten per Verifizieren: y = − + (1−x)2 1+c−log(1−x) (1−x)2 1+c−log(1−x) 1−x c (1−x)2 √ = und eingesetzt (1 − x)2 y 0 − (1 − x)y = 1 + c − log(1 − x) − √ = 1 ⇐⇒ (1 + c − log(1 − x)) − (c − log(1 − x)) = 1 Zeige: bk = 1 + 21 + 13 + . . . + k1 für alle k > 0. Wegen bo = 0 ist f (0) = 0. Also ist c = 0 und f (x) = − log(1−x) . Wegen 1−x P∞ 1 i P∞ P∞ P∞ 1 i+j xi − log(1 − x) = i=1 i x gilt f (x) = i=1 i(1−x) = i=1 j=o i x = P∞ Pk 1 k P∞ P∞ P 1 1 1 k k i+j=k i x = k=1 i=1 i x = k=1 (1 + 2 + . . . k )x . Mit dem k=1 √ Identitätssatz für Potenzreihen folgt die Behauptung. 5. Angenommen, ein Experiment hat m gleichwahrscheinliche Ergebnisse. Zeige: die mittlere Zahl unabhängiger Ausführungen des Experimentes, k −1 bevor ein Ergebnis k-mal nacheinander auftritt, ist mm−1 . Forme dazu eine absorbierende Markoff-Kette mit Zuständen 1,2,. . . ,k, wobei der Zustand i dafür steht, daß ein Ergebnis gerade i-mal nacheinander auftritt. Die gesuchte mittlere Anzahl ist gerade um 1 größer 27 Th. Risse, HSB: Markoff-Ketten als die mittlere Anzahl von Schritten vor Absorption, wenn der Prozess im Zustand 1 gestartet ist. Sei p = 1/m und q = 1 − p. Betrachte zur Illustration den Fall k = 2. Dann gibt es nur den transienten Zustand 1 und den absorbierenden ! q p Zustand 2. Es gilt P = mit N = (I − Q)−1 = (1 − q)−1 = 1/p = 0 1 2 −1 m. Daher ist t = Ne = m sowie übereinstimmend mm−1 = m+1 = 1+t. Für k = 3 gibt es die transienten Zustände 1 und 2 sowie den absor q p 0 bierenden Zustand 3. Es gilt P = q 0 p mit N = (I − Q)−1 = 0 0 1 ! ! ! !−1 1 p 1 p 1+p p −p 1 1 1 = p2 . So gilt t = Ne = p2 = p−pq q p q p q+p −q 1 3 1+p 1+p+p2 1 P2 1 1−p3 n und speziell 1 + t1 = 1 + p2 = p2 = p2 n=0 p = p2 1−p = 1−p = p2 q 1−1/m3 1/m2 −1/m3 = m3 −1 . m−1 Für k = 4 gibt es die transienten Zustände 1,2 und 3 sowie den ab q p 0 0 q 0 p 0 sorbierenden Zustand 4. Hier gilt nun P = mit N = q 0 0 q 0 0 0 1 −1 p −p 0 1 p p2 (I − Q)−1 = −q 1 −p = p13 1 − p2 p p2 . So gilt t = q qp p2 −q 0 1 2 1+p+p 2 2 +p3 Ne = p13 1 + p und speziell 1 + t1 = 1 + 1+p+p = 1+p+p = p3 p3 1 1−1/m4 1−p4 1 1−p4 m4 −1 1 P3 n n=0 p = p3 1−p = p3 q = 1/m3 −1/m4 = m−1 . p3 Im allgemeinen Fall gibt es die transienten Zustände 1, 2, . . . , k−1 sowie q p 0 0 ··· 0 q 0 p 0 · · · 0 q 0 0 q · · · 0 den absorbierenden Zustand k. Hier gilt P = ... · · · 0 0 . . . ... q ··· 0 0 0 ··· 0 0 0 0 p 1 (P = diag(p*ones(1,k-1),1)+q*[ones(k-1,1);0]*[1 zeros(1,k-1)] + [zeros(k-1,1);1]*[zeros(1,k-1) 1] in MATLAB) mit N = (I − Q)−1 28 Th. Risse, HSB: Markoff-Ketten 1 pk−1 1−p k−2 k−1 p 1−pk−3 k−1 p p −q .. = . −q −p 0 · · · 1 −p · · · .. . ··· 1 ··· −q · · · Damit = 1 pk−1 0 0 1 0 0 0 .. . −1 = −p 1 .. . 1 pk−2 1 pk−2 1−pk−3 pk−2 .. . 1 pk−3 1 pk−3 1 pk−3 .. . 1 pk−4 1 pk−4 1 pk−4 .. . ··· ··· ··· 1 p 1 p 1 p . . · · · .. 1 · · · p · · · p1 1−p2 1−p2 1−p2 pk−2 pk−3 pk−4 q q q pk−2 pk−3 pk−3 2 +...+pk−2 2 +...+pk−1 ist für t = Ne speziell 1+t1 = 1+ 1+p+ppk−1 = 1+p+ppk−1 Pk−1 n 1−1/mk 1−pk 1 1−pk mk −1 n=0 p = pk−1 1−p = pk−1 q = 1/mk−1 −1/mk = m−1 . 1−p2 pk−1 q pk−1 6. Ein Spieler gewinnt einen Euro mit Wahrscheinlichkeit p und verliert einen Euro mit Wahrscheinlichkeit q = 1−p. Bestimme die Wahrscheinlichkeit wx dafür, daß der Spieler eine Menge T gewinnt und dann alles verliert, wenn er mit x Euro gestartet ist. Modelliere den Vorgang durch eine Markoff-Kette mit Zuständen 0,1,. . . ,T , wo 0 und T absorbierend sind. Bestimme w50 für T = 100 und p = .48 durch Simulation. Zeige: wx = p wx+1 + q wx−1 für x = 1, 2, . . . , T −1 mit wo = 0, wT = 1 (q/p)x −1 Zeige: für p = 12 = q ist wx = Tx und für p 6= q ist wx = (q/p) T −1 . Ein Spieler, der mit x Euro startet, erreicht den absorbierenden Zustand mit Wahrscheinlichkeit wx , indem er entweder mit Wahrscheinlichkeit p erst sein Startguthaben um einen Euro aufbessert und dann mit Wahrscheinlichkeit wx+1 alles verspielt oder indem er gleich mit Wahrscheinlichkeit q einen Euro und dann mit Wahrscheinlichkeit wx−1 den Rest seines Guthabens verspielt. Also gilt wx = p wx+1 + q wx−1 und offensichtlich wo = 0 sowie wT = 1. (q/p)x −1 Man verifiziert leicht, daß wx = Tx für p = 12 = q und wx = (q/p) T −1 für p 6= q Lösung obiger Gleichungen ist. Notwendigkeit? C Lösungen der Übungen zu Abschnitt 3 1. Welche der folgenden Matrizen sind Übergangsmatrizen regulärer Mar! ! ! 0 1 1 1 1 1 koff-Ketten? P1 = 12 , P2 = 12 , P3 = , 1 1 2 0 1 0 5 0 10 3 3 0 1 1 P4 = 15 0 15 0 , P5 = 6 0 3 3 0 3 12 2 2 2 P1 ist regulär, weil schon (P1 )1 =!P1 nur echt positive Elemente hat. 3 1 nur echt positive Elemente hat. P2 ist regulär, weil P22 = 41 2 2 Th. Risse, HSB: Markoff-Ketten P3 ist nicht regulär, ∗ ∗ Wegen P4 = 0 1 0 ∗ 9 1 2 Wegen P5 = 36 6 10 29 2n+1 = P3 gilt. weil P2n 3 = I und P3 ∗ 0 ist P4 nicht regulär. ∗ 18 9 15 15 ist P5 regulär. 16 10 2. Unter welchen Bedingungen ist die Markoff-Kette im ’Stille Post’-Beispiel regulär? ergodisch aber nicht regulär? Bestimme w für die ergodischen Markoff-Ketten. ! 1−a a P= ist für a 6= 0, 1 6= b regulär. b 1−b ! 0 1 Für a = 1 = b ist P = ergodisch aber nicht regulär. 1 0 Offensichtlich löst w = (c/a, c/b) die Gleichung wP = w. Die Lösung ab w ist ein Wahrscheinlichkeitsvektor, wenn ac + cb = 1, wenn also c = a+b 1 gilt. Damit ist w = a+b (b, a) die Gleichgewichtsverteilung. ! 0 1 3. Zeige: P = ist ergodisch aber nicht regulär. Bestime w. 1 0 Zeige: limn→∞ Pn existiert nicht. 1 Pn k Zeige: mit An = n+1 k=0 P existiert limn→∞ An . Wegen P2n = I und P2n+1 = P ist P ist ergodisch aber nicht regulär. P hat die Gleichgewichtsverteilung w = 21 (1, 1). Wegen P2n = I und P2n+1 = P existiert limn→∞ Pn ! nicht. 1 Pn 1 1 1 k Es gilt limn→∞ An = limn→∞ n+1 . k=0 P = 2 1 1 ! 4. Für P = 1 2 2 0 bestimme w. Warum ist P nicht ergodisch? 1 1 Für den Wahrscheinlichkeitsvektor w = 12 (1, 1) gilt wP = w. P ist nicht ergodisch, weil der Zustand 2 vom Zustand 1 aus nicht erreicht werden kann. 4 0 0 1 5. Zeige: P = 4 1 2 1 hat mehr als einen fixen Wahrscheinlichkeits0 0 4 vektor. Bestimme limn→∞ Pn . Hat limn→∞ Pn identischen Zeilen? 30 Th. Risse, HSB: Markoff-Ketten Offensichtlich gilt (1, 0, 0)P = (1, 0, 0) wie ebenso (0, 0, 1)P = (0, 0, 1). 1 0 0 1 0 0 n −1 1 2n −1 Wegen Pn = 22n+1 gilt limn→∞ Pn = 12 0 12 , eben 2n 2n+1 0 0 1 0 0 1 mit unterschiedlichen Zeilen! 6. Zeige: das Ehrenfest-Modell ist ergodisch aber nicht regulär. Zeige: w ist eine Binomial-Verteilung. 0 1 0 0 0 1/4 0 3/4 0 0 Beispielsweise für P = 0 1/2 0 1/2 0 = (pij ) mit pij = 0 0 3/4 0 1/4 0 0 0 0 1 0 (2n) (2n+1) falls i + j gerade gilt pij = 0 falls i + j ungerade und pij = 0 falls i + j gerade. Daher ist P sicher nicht regulär. P ist ergodisch, weil etwa die Zustandsübergänge 0 → 1 → 2 → 3 → 4 → 3 → 2 → 1 → 0 möglich sind. Etwa in diesem Beispiel gilt wP = w für 1 w = 16 (1, 4, 6, 4, 1). 7. Zeige: ein ergodischer Prozess mit r Zuständen kann von jedem Zustand in jeden anderen Zustand in höchstens r − 1 Schritten übergehen. Angenommen, der Zustand j sei vom Zustand i nicht in höchstens r −1 Schritten erreichbar, sondern nur in minimal s > r − 1 Schritten. In s > r − 1 Schritten durchläuft der Prozess aber mehr als r Zustände. Bei insgesamt r Zuständen muß der Prozess also mindestens einen Zustand mehrfach besuchen. Der Prozess macht also eine Schleife. Diese kann unterbleiben, so daß der Zustand j vom Zustand i in weniger als s Schritten erreichbar ist, was im Widerspruch zu Minimalität von s steht. 8. Sei P eine ergodische Markoff-Kette. Zeige: Wenn alle Diagonal-Elemente pii von P positiv sind, dann ist P regulär. Wegen der Ergodizität von P ist jeder Zustand j von jedem anderen (n ) Zustand i erreichbar, d.h. pij ij > 0. Sei n = maxij nij . Dann sind alle Einträge in Pn positiv, weil der Prozess mit positiver Wahrscheinlich(n ) keit pi,jij vom Zustand i in den Zustand j übergeht und wegen pjj > 0 eben noch für weitere n − nij Zustandsübergänge in j verbleiben kann. 9. Sei P eine ergodische Markoff-Kette. Zeige: 12 (I + P) ist regulär. Wegen des 21 I Anteils sind alle Diagonal-Elemente positiv. Mit der vorangehenden Übung ist also 12 (I + P) regulär. 31 Th. Risse, HSB: Markoff-Ketten 10. Zeige: P und 12 (I + P) haben dieselben fixen Vektoren. Mit wP = w gilt ebenso w 12 (I + P) = 21 w + 12 w = w. Umgekehrt folgt aus w 12 (I + P) = w = 21 w + 12 wP eben auch wP = w. D Lösungen der Übungen zu Abschnitt 4 ! ! 2 2 1 1. Sei P = und y = . Berechne Pn y für kleine n. 1 3 0 Gegen welchen Vektor konvergiert Pn y ? 1 4 ! Für P = Pn y = ! 2 2 4n + 2 2 · 4n − 2 gilt Pn = 31 41n n . Damit folgt 1 3 4 − 1 2 · 4n + 1 ! ! ! 2 4n + 2 1 1 1 + 4n = → 13 . 1 n 3 4 −1 1 − 4n 1 1 4 1 1 3 4n 2. Sei P eine reguläre Markoff-Kette mit r Zuständen und y ∈ Rn . Zeige: limn→∞ Pn y = (wy)i . Laut Satz in 3.1 auf S. 10 gilt limn→∞ Pn = (w0 , w0 , . . . , w0 )0 mit wP = w für reguläre Markoff-Ketten P. Insbesondere gilt also limn→∞ Pn y = (w0 , w0 , . . . , w0 )0 y, d.h. Pn y konvergiert gegen den konstanten Vektor (wy)i . 4 0 1 3. Sei P = 4 1 0 0 0 toren. Ist P nicht 0 3 . Zeige: P hat zwei linear unabhängige fixe Vek4 regulär? Wie schon einmal gezeigt, gilt (1, 0, 0)P = (1, 0, 0) und (0, 0, 1)P = (0, 0, 1). Damit hat P die beiden linear unabhängige Vektoren (1, 0, 0) und (0, 0, 1) als fixe Vektoren. Die Markoff-Kette P kann nicht regulär sein, da sonst der fixe Vektor w eindeutig wäre. E Lösungen der Übungen zu Abschnitt 5 ! 1. Sei P = 1 4 2 2 . Bestimme Z und M. 1 3 32 Th. Risse, HSB: Markoff-Ketten !n 1 4 n Laut Übung auf S. 31 gilt P = 2 2 1 3 ! → 1 3 1 2 1 2 = W. Da!−1 −1 mit ist Z = (I − P + W) !−1 1 −1 ( 12 ) 10 2 1 11 (zjj − zij )/wj = 1 9 = 1 − 1/2 + 1/3 −1/2 + 2/3 −1/4 + 1/3 1 − 3/4 + 2/3 ! 11 −2 11 12 = 108 = 19 −1 10 −1 ! 0 (10 + 2)3/2 = (11 + 1)3 0 = ! −2 und daher M = 10 ! 0 2 . 4 0 ! 2 2 2. Im ’Stille Post’-Beispiel sei P = . Der Prozess starte im Zu3 1 stand ’j’. Bestimme die mittlere Anzahl von Schritten, bis die Information erstmalig falsch weitergegeben wird. Bestimme die MRT’s. Verallgemeinere für beliebige a und b. 1 4 Für P = 1−a a b 1−b ! −1 Dann ist Z = (I−P+W) = 1 1 a+b 1 (b, a) a+b ist w = fixer Vektor mit wP = w. 1 − (1−a) + = b −b + a+b a2 + ab + b a − ab − a2 b − ab − b2 a + ab + b2 !−1 b a+b a −a + a+b a 1 − (1−b) + a+b !−1 ! = a+b (a+b)3 a + ab + b2 a2 + ab − a b2 + ab − b a2 + ab + b ! a + ab + b2 a2 + ab − a = . So gilt insbesondere für die MFPT b2 + ab − b a2 + ab + b a+b 1 a+b 1 2 2 = a+b = a1 m12 = (z22 − z12 )/w2 = (a+b) 2 (a + ab + b − a − ab + a) a a sowie für die MRT r = ( w11 , w12 ) = ( a+b , a+b . b a ) 1 (a+b)2 3. Zeige: Beim Würfeln ist die mittlere Anzahl von Würfen zwischen dem Auftreten einer gegebenen Augenzahl gerade 6. Die Markoff-Kette, die das Würfeln beschreibt, hat die Zustände 1,2, 3, 4, 5 und 6 mit P = 16 (1, 1, 1, 1, 1, 1)0 (1, 1, 1, 1, 1, 1). Wegen Pn = P oder wegen der Unabhängigkeit der Würfe muß w = 61 (1, 1, 1, 1, 1, 1) gelten. Damit folgt ri = 1/wi = 6. 4. Eine ergodische Markoff-Kette starte im Gleichgewicht, d.h. mit initialem Wahrscheinlichkeitsvektor w. Die mittlere Anzahl von Schritten P bis zum nächsten Auftreten des Zustandes si ist m̃i = k wk mki + wi ri . Zeige: m̃i = zwiii unter Verwendung von wZ = w und mki = ziiw−zi ki . Wegen mii = 0 und weil mki ja gerade die mittlere Anzahl von Schritten ist, um vom Zustand k in den Zustand i zu gelangen, gilt in einer staP P tionären Kette m̃i = k6=i wk mki + wi ri = k wk mki + wi ri . Daher folgt 33 Th. Risse, HSB: Markoff-Ketten m̃i = k wk mki + wi ri = zwiii k wk − w1i k wk zki + 1. Weil erstens w ein Wahrscheinlichkeitsvektor ist und weil zweitens die i-te Komponente P von wZ = w gerade k wk zki = wi ist, gilt m̃i = zwiii 1 − w1i wi + 1 = zwiii . P P P 5. Zeige: für eine ergodische Markoff-Kette gilt j mij wj = j zjj − 1 = K. Die Kemeny-Konstante K ist unabhängig von i (plausible Erklärung s.a. http://math.dartmouth.edu/˜doyle/docs/kc/kc.pdf)! P P ij ij gilt j mij wj = j zjjw−z wj = j zjj − j zij = Wegen mij = zjjw−z j j P 0 . . . , 1) = (1, . . . , 1)0 = e des Lemmas j zjj − 1 = K, weil Ze = Z(1, P auf S. 20 ja nichts anderes als j zij = 1 bedeutet. P P P P 6. Sei P Übergangsmatrix einer regulären Markoff-Kette mit w. Eine Auszahlungsfunktion f legt Gewinn oder Verlust für jeden Zustand si fest. Es gelte wf = 0. Für den mittlere Gewinn g(n) nach n Schritten gilt g(n) = (I + P + . . . + Pn )f . Zeige: limn→∞ g(n) = g mit g = Zf . Mit wf = 0 gilt Wf = 0 und aus (P − W)n = nk=0 nk Pk Wn−k folgt P (P − W)n f = Pn f . Zusammen gilt limn→∞ g(n) = limn→∞ nk=0 Pk f = P limn→∞ nk=0 (P − W)k f = Zf = g. P