9 9.1 Marko¤-Ketten Grundlegende Begri¤e Marko¤-Ketten kann man anschaulich wie folgt beschreiben: Ein Teilchen bewegt sich in diskreter Zeit auf einer höchstens abzählbaren Menge I. Be…ndet es sich auf einem Platz i 2 I, so wechselt es mit gewissen Wahrscheinlichkeiten (die von i abhängen) zu einem anderen Platz j 2 I. Diese Übergangswahrscheinlichkeiten hängen aber nicht weiter von der Vorgeschichte ab, das heisst vom Weg, auf dem das Teilchen zum Platz i gekommen ist. Die Element in I nennen wir auch die “Zustände”, in denen sich die Kette be…nden kann. De…nition 9.1 Es sei I eine nichtleere, höchstens abzählbare Menge. Eine Matrix P = (pij )i;j2I heisst P stochastische Matrix, wenn pij 2 [0; 1] für alle i; j 2 I und j2I pij = 1 für alle i 2 I gelten. Die Komponenten pij nennt man die Übergangswahrscheinlichkeiten. Eine auf einem Wahrscheinlichkeitsraum ( ; F; P ) de…nierte messbare Abbildung X : ! I nennen wir eine I-wertige Zufallsgrösse. Da wir I als abzählbar voraussetzen, bedeutet Messbarkeit einfach, dass für jedes i 2 I die Menge f! : X (!) = ig in F ist. De…nition 9.2 Sei P ein stochastische Matrix. Eine endlich oder unendlich lange Folge X0 ; X1 ; X2 ; : : : I-wertiger Zufallsgrössen heisst (zeitlich homogene) Marko¤-Kette mit stochastischer Matrix P, wenn für alle n 0 und alle i0 ; i1 ; : : : ; in ; in+1 2 I; die P (X0 = i0 ; : : : ; Xn = in ) > 0 erfüllen, die Gleichung P ( Xn+1 = in+1 j X0 = i0 ; X1 = i1 ; : : : ; Xn = in ) = pin in+1 gilt. Die Startverteilung i 2 I. (9.1) einer Marko¤-Kette ist de…niert durch (i) = P (X0 = i), Man schreibt oft P , um die Startverteilung hervorzuheben. Ist die Startverteilung auf einen Punkt konzentriert, d. h·gilt (i) = 1 für ein i 2 I, so schreiben wir meist Pi anstelle von P . Wenn wir einfach P schreiben, so betrachten wir eine beliebige nicht weiter spezi…zierte Startverteilung. Wir haben die obige De…nition für eine unendlich lange Marko¤-Kette formuliert. Die gleiche De…nition kann jedoch auch für eine Marko¤Kette X0 ; : : : ; XN von endlicher zeitlicher Länge verwendet werden. Ohne Beweis zitieren wir den folgenden Satz über die Existenz von Marko¤-Ketten. Satz 9.3 Sei I eine abzählbare Menge, eine Wahrscheinlichkeitsverteilung auf I und P eine stochastische Matrix. Sei ferner := I N0 , Xn : ! I für n 2 N0 die Projektionen und F die Produkt- -Algebra auf ; d.h. die vom Mengensystem Xn 1 (fig) : n 2 N0 ; i 2 I erzeugte -Algebra. Dann existiert genau ein Wahrscheinlichkeitsmass P auf ( ; F) mit der Eigenschaft, dass die Folge (Xn )n2N0 eine Marko¤-Kette im Sinne der De…nition 9.2 mit Startverteilung ist. 154 Der Satz ist ein Spezialfall des Satzes von Ionescu-Tulcea, mit dem man praktisch alle Existenzprobleme für Wahrscheinlichkeitsmasse mit einem Schlag lösen kann. Ein Beweis wird in der Vorlesung im nächsten Semester gegeben werden. Für s < t; s; t 2 N0 schreiben wir oft X[s;t] für die Folge (Xs ; Xs+1 ; : : : ; Xt ) ; den sogenannten “Pfad”. Dieselbe Notation verwenden wir auch für eine (nicht zufällige) Folge a = (ai )i2N0 : Wir schreiben auch i 2 = X[s;t] ; falls Xu 6= i für u = s; s + 1; : : : ; t ist. Satz 9.4 Sei fXn gn2N0 eine Folge von I-wertigen Zufallsgrössen, und P = (pij ) eine stochastischer Matrix. eine Wahrscheinlichkeit auf I a) fXn gn2N0 ist genau dann eine Marko¤-Kette mit stochastischer Matrix P und Startverteilung ; wenn für alle n 2 N0 und i0 ; i1 ; : : : ; in 2 I die Gleichung P (X[0;n] = i[0;n] ) = (i0 )pi0 i1 pi1 i2 : : : pin (9.2) 1 in gilt. b) Ist fXn gn2N0 eine Marko¤-Kette so gilt die folgende Aussage: Es seien n < m und in 2 I sowie A I n und B I m n . Falls P (X[0;n 1] 2 A; Xn = in ) > 0 ist, so ist P X[n+1;m] 2 B j X[0;n 1] 2 A; Xn = in = P (X[n+1;m] 2 B j Xn = in(9.3) ) = Pin X[1;m n] 2B Beweis. a): Aus (9.1) folgt (9.2) durch Induktion nach n: De…nitionsgemäss gilt die Behauptung für n = 0. Es gelte die Aussage für ein n 2 N0 und seien i0 ; i1 ; : : : ; in+1 2 I. Ist P (X0 = i0 ; : : : ; Xn = in ) = 0, so gilt die behauptete Formel ebenfalls für n + 1: Ist P (X0 = i0 ; : : : ; Xn = in ) > 0, so folgt aus De…nition P X[0;n+1] = i[0;n+1] = P (Xn+1 = in+1 j X[0;n] = i[0;n] )P (X[0;n] = i[0;n] ) = (i0 )pi0 i1 : : : pin 1 in pin in+1 : Umgekehrt folgt aus (9.2) sofort (9.1) durch Einsetzen in die De…nition der bedingten Wahrscheinlichkeit. b) Sei P (X[0;n 1] 2 A; Xn = in ) > 0. Mit der De…nition der bedingten Wahrscheinlichkeit und Teil a) folgt P X[n+1;m] 2 B j X[0;n 1] 2 A; Xn = in P (X[n+1;m] 2 B; Xn = in ; X[0;n 1] 2 A) P (X[0;n 1] 2 A; Xn = in ) P P (in+1 ;:::;im )2B (i0 ;:::;in 1 )2A (i0 )pi0 i1 : : : pim P = (i0 ;:::;in 1 )2A (i0 )pi0 i0 : : : pin 1 in X = pin in+1 pin+1 in+2 : : : pim 1 im : = (in+1 ;:::;im )2B 155 1 im Dieser Ausdruck auf der rechten Seite hängt nicht von A ab. Wir können insbesondere A = I f0;1;:::;n 1g setzen. Dann erhalten wir X P X[n+1;m] 2 B j Xn = in = pin in+1 pin+1 in+2 : : : pim 1 im : (9.4) (in+1 ;:::;im )2B Somit folgt für eine beliebige Teilmenge A I f0;1;:::;n 1g , die P (X[0;n 1] 2 A; Xn = in ) > 0 erfüllt, die erste Formel. Die zweite ergibt sich aus (9.4) und a). Die Aussage von b) heisst Marko¤-Eigenschaft. Es sollte jedoch hervorgehoben werden, dass nicht jede Folge von I-wertigen Zufallsgrössen X0 ; X1 ; : : : , die (9.3) erfüllt, auch eine homogene Marko¤-Kette im Sinne der De…nition 9.2 ist. Es gilt jedoch der folgende Satz, dessen einfacher Beweis dem Leser überlassen sei: Satz 9.5 Sei X0 ; X1 ; : : : eine Folge von I-wertigen Zufallsgrössen, die (9.3) erfüllt. Dann existert eine Wahrscheinlichkeitsverteilung auf I und eine Folge fPn gn2N0 von stochastischen Matrizen Pn = (pn (i; j))i;j2I , sodass für alle n 2 N und alle i0 ; i1 ; : : : ; in 2 I die folgende Gleichung gilt: P (X[0;n] = i[0;n] ) = (i0 )p0 (i0 ; i1 ) : : : pn 1 (in 1 ; in ): Der Unterschied zu (9.2) besteht darin, dass wir dort die zusätzliche Eigenschaft haben, dass die Übergangswahrscheinlichkeiten nicht von der Zeit abhängen. Man nennt die Ketten deshalb zeitlich homogen. Wir schränken uns in diesem Kapitel vollständig auf zeitlich homogene Ketten ein ohne dies jedesmal besonders zu betonen. Eine stochastische Matrix P = (pij )i;j2I kann man stets ohne Probleme potenzieren: (n) (0) Für n 2 N0 de…niert man die n-te Potenz Pn = (pij )i;j2I rekursiv durch pij = ij und (n+1) pij = X (n) pik pkj k2I für alle i; j 2 I, das heisst, Pn ist das n-fache Matrixprodukt von P mit sich selbst. Aus der rekursiven De…nition folgt, dass Pn selbst eine stochastische Matrix ist. Es gelten die aus der linearen Algebra bekannten Rechenregeln für Matrizen, insbesondere gilt Pm Pn = Pm+n , das heisst X (m) (n) (m+n) pik pkj = pij ; i; j 2 I: (9.5) k2I (n) (n) Die Komponenten pij der Matrix Pn = (pij )i;j2I heissen n-stu…ge Übergangswahrscheinlichkeiten. Lemma 9.6 Es sei X0 ; X1 ; X2 ; : : : eine Marko¤-Kette mit Startverteilung Dann gilt X (n) P (Xn = j) = (i)pij i2I 156 und Übergangsmatrix P. für alle n 2 N0 und j 2 I. Ist die Startverteilung (n) Pi (Xn = j) = pij . Beweis. Aus Satz 9.4 a) folgt X P (Xn = j) = i0 ;:::;in = X i0 ;:::;in auf i 2 I konzentriert, so gilt P (X0 = i0 ; : : : ; Xn 1 2I (i0 )pi0 i1 : : : pin 1j = in 1 = X 1; Xn = j) (n) (i)pij : i2I 1 2I Lemma 9.7 Sei X0 ; X1 ; X2 ; : : : eine Marko¤-Kette mit stochastischer Matrix P = (pij )i;j2I . Sind m; n 2 N0 und i; j 2 I mit P (Xm = i) > 0, so gilt (n) P (Xm+n = j j Xm = i) = pij : Beweis. Aus (9.3) folgt: (n) P ( Xm+n = j j Xm = i ) = Pi (Xn = j) = pij ; die letzte Gleichung nach Lemma 9.6. Lemma 9.8 (m+n) Für alle m; n 2 N0 und i; j; k 2 I gilt pij (m) (n) pik pkj . Beweis. Dies ergibt sich sofort aus (9.5). 9.2 Beispiele von Marko¤-Ketten Zunächst einige Beispiele, die wir eigentlich schon kennen. Beispiel 9.9 P a) Sei pij = qj für alle i; j 2 I, wobei j2I qj = 1 ist. Dann gilt P (X0 = i0 ; X1 = i1 ; : : : ; Xn = in ) = (i0 )qi1 : : : qin : Man sieht leicht, dass qj = P (Xm = j) für m 1 ist. Somit gilt P (X0 = i0 ; : : : ; Xn = in ) = P (X0 = i0 )P (X1 = i1 ) : : : P (Xn = in ); d. h,· die X0 ; X1 ; : : : ; Xn sind unabhängig. b) Irrfahrt auf Z: Es sei Y1 ; Y2 ; : : : eine Folge unabhängiger, f1; 1g-wertiger Zufallsgrössen mitP P (Yj = 1) = p und P (Yj = 1) = 1 p, wobei p 2 [0; 1] ist. Sei X0 := 0 und Xn := nj=1 Yj für n 1. Dann ist X0 ; X1 ; : : : eine Marko¤-Kette auf Z. Die Übergangsmatrix P = (pij )i;j2Z ist durch pi;i+1 = p und pi;i 1 = 1 p eindeutig festgelegt, und die Startverteilung ist in 0 konzentriert. Für p = 1=2 nennt man das die (eindimensionale) symmetrische Irrfahrt. 157 c) Symmetrische Irrfahrt auf Zd : Hier ist I = Zd und p(i1 ;:::;id );(j1 ;:::;jd ) = 1=(2d), falls ik = jk für alle bis auf genau ein k 2 f1; 2; : : : ; dg, für das jik jk j = 1 ist. Alle anderen Übergangswahrscheinlichkeiten müssen dann gleich null sein. d) Irrfahrt auf I = f0; : : : ; ng mit Absorption: 0 und n seien absorbierend, also p00 = 1 und pnn = 1. Für i 2 f1; 2; : : : ; n 1g geschehe ein Schritt nach rechts mit Wahrscheinlichkeit p 2 (0; 1) und ein Schritt nach links mit Wahrscheinlichkeit q := 1 p,0also pi;i+1 = p und 1 pi;i 1 = q. Die stochastische Matrix hat somit die 1 0 0 Bq 0 C p B C B .. .. .. C Form P = B C: . . . B C @ q 0 pA 0 0 1 e) Irrfahrt mit Re‡exion: Das gleiche Modell wie in Beispiel d) mit der Änderung, dass p01 = pn;n 1 = 1 sein soll. Einige interessante Beispiele können als sogenannte Urnenmodelle realisiert werden. Beispiel 9.10 a) Polyas Urnenschema: In einer Urne liegen rote und schwarze Kugeln. Eine wird zufällig gezogen und zusammen mit einer neuen Kugel der gleichen Farbe zurückgelegt. Hier ist I = f (r; s) j r; s 2 N g sowie p(r;s);(r+1;s) = r=(r + s) und p(r;s);(r;s+1) = s=(r + s) für alle r; s 2 N. Polya hatte dies als einfaches Modell für Ansteckungen (z.B. von Krankheiten) vorgeschlagen. b) Ehrenfests Urnenmodell: Insgesamt n Kugeln liegen in zwei Urnen. Man wählt eine der Urnen jeweils mit Wahrscheinlichkeit proportional zur Anzahl der Kugeln in dieser Urne. Enthält die Urne 1 als k Kugeln (die Urne 2 also n k); so wählt man die Urne 1 mit Wahrscheinlichkeit k=n und die Urne 2 mit Wahrscheinlichkeit 1 k=n: Anschliessend verschiebt man eine Kugel von der gewählten Urne in die andere. Auf diese Weise fährt man weiter. Wir können für I einfach die Möglichkeiten für die Belegung der Urne 1 nehmen, also I := f0; : : : ; ng : Der obige Zufallsvorgang lässt sich durch die stochastische Matrix pk;k 1 = k=n; pk;k+1 := 1 k=n, pk;j = 0 für j 2 = fk 1; k + 1g beschreiben. Das Beispiel ist von Ehrenfest zur Illustration irreversibler Vorgänge in der Statistischen Mechanik angegeben worden. Beginnen wir mit je gleich vielen Kugeln in beiden Urnen, so ist die Wahrscheinlichkeit 1; dass irgendwann einmal eine der Urnen leer ist. Dies werden wir später nachweisen. Ist n nicht zu klein, so muss man jedoch sehr lange darauf warten. Beginnt man umgekehrt mit allen Kugeln in einer Urne, so gelangt man sehr viel schneller zu einem Ausgleich. Zwei weitere wichtige Klassen von Beispielen sind Irrfahrten auf Graphen und Irrfahrten auf Gruppen. Ein Graph besteht aus “Knoten”und “Kanten”, wobei die Kanten jeweils zwei Knoten verbinden, die jedoch auch gleich sein können. Wir schliessen auch 158 nicht aus, dass zwei verschiedene Kanten dieselben Knoten verbinden; wir wollen jedoch voraussetzen, dass jeder Knoten nur zu endlich vielen Verbindungen gehört. De…nition 9.11 Ein Graph G ist ein Tripel (K; V; '), bestehend aus einer nichtleeren, höchstens abzählbaren Knotenmenge K, einer höchstens abzählbaren Menge von Kanten V und einer Abbildung ' : V ! K10 [ K20 , wobei Ki0 die Menge der i-elementigen Teilmengen von K ist. Für e 2 K sei Ve := f v 2 V j e 2 '(v) g die Menge der zu e führenden Kanten. Wir setzen stets voraus, dass der Graph, wie man sagt, lokal endlich ist, d.h. dass jVe j < 1 für jedes e 2 K gilt. Beispiel 9.12 Sei G = (K; V; ') ein Graph gemäss der obigen De…nition. Wir de…nieren eine Marko¤Kette auf K. Anschaulich soll folgendes passieren: Be…ndet sich das Teilchen im Knoten e 2 K, so wählt es (sofern vorhanden) eine der Verbindung aus Ve mit gleicher Wahrscheinlichkeit aus und springt zum anderen Knoten dieser Verbindung, der aber auch e selbst sein kann. Gibt es keine Verbindung in Ve , so bleibt das Teilchen auf der Ecke e sitzen. Formal de…nieren wir die stochastische Matrix P = (pef )e;f 2K durch ( für Ve = ;; ef (9.6) pef = jf v2V :'(v)=fe;f g gj sonst: jVe j Die anderen pef sind gleich 0: Die so konstruierte Marko¤-Kette heisst symmetrische Irrfahrt auf G. O¤enbar ist die symmetrische Irrfahrt auf Zd ein Spezialfall des Beispiels 9.12 mit K = Zd und V der Menge der Verbindungen nächster Nachbarn. Die Irrfahrt mit Re‡exion auf f0; : : : ; ng ist ebenfalls ein Spezialfall, wenn p = 1=2 ist, nicht aber die Irrfahrt mit Absorption. Eine weitere Verallgemeinerung der symmetrischen Irrfahrt auf Zd sind Irrfahrten auf Gruppen. Beispiel 9.13 Es seien G eine abzählbare Gruppe mit neutralem Element 1 und eine beliebige Wahrscheinlichkeitsverteilung auf G. Wir de…nieren pg;h = (g 1 h) für alle g; h 2 G. Wegen der Gruppeneigenschaft ist für jedes g 2 G die Abbildung h 7! g 1 h bijektiv auf G, und es gilt X X X pg;h = (g 1 h) = (h0 ) = 1: h2G h0 2G h2G Also ist P = (pg;h )g;h2G eine stochastische Matrix. Die zugehörige Marko¤-Kette heisst -Irrfahrt auf G. Die symmetrische Irrfahrt auf Zd ist wieder ein Spezialfall, denn Zd ist bezüglich der Addition eine abelsche Gruppe und die Wahrscheinlichkeitsverteilung ist in diePd sem Fall gegeben durch ((x1 ; : : : ; xd )) = 1=(2d), falls i=1 jxi j = 1 ist, und durch ((x1 ; : : : ; xd )) = 0 für alle anderen (x1 ; : : : ; xd ) 2 Zd . 159 Irrfahrten auf nichtabelschen Gruppen spielen bei der Modellierung von Mischvorgängen eine grosse Rolle. Zur Beschreibung des Mischens eines Kartenstapels wählt man zum Beispiel die Gruppe aller Permutationen der Karten im Stapel. Beispiel 9.14 Zum Schluss diskutieren wir noch kurz ein einfaches Beispiel eines sogenannten Verzweigungsprozesses, den sogenannten Galton-Watson Prozess. Damit wird eine sich verändernde Population von Individuen modelliert. Mit Xn bezeichnen wir die Grösse der Population zum Zeitpunkt n: Der Übergang von Xn nach Xn+1 wir nun wie folgt beschrieben. Jedes Indiviuum der n-Population hinterlässt eine zufällige Anzahl von Nachkommen und stirbt selbst ab, und zwar ist die Anzahl der Nachkommen (die auch 0 sein kann) durch eine Verteilung q auf N0 gegeben. Wir nehmen weiter an, dass die Anzahlen der Nachkommen der Individuen unabhängig sind. Wir bezeichnen mit 1 ; 2 ; : : : diese Anzahlen der Individuen in der Population. Die Annahme ist also, dass diese Zufallsgrössen Werte in N0 annehmen, dass sie unabhängig sind, und dass P ( i = k) = q (k) ist, wobei q ein Wahrscheinlichkeit auf N0 ist. Ist Xn = r; so ist Xn+1 als Xn+1 = r X i i=1 de…niert. Falls r = 0 ist, so setzt man natürlich Xn+1 = 0: Die Verteilung von Xn+1 (bei fester Populationsgrösse r zum Zeitpunkt n) ist dann als das r-fache Konvolutionsprodukt von q gegeben: Xr r P (Xn+1 = s j Xn = r) = P i = s = q (s) ; i=1 wobei die Verteilung q r wie folgt de…niert ist: 0 (s) := (r+1) (s) := q q 0;s ; s X q r (j) q (s j) : j=0 Dies folgt sofort aus der Unabhängigkeit der i : Es ist auch klar, dass gilt. Wir de…nieren daher Übergangswahrscheinlichkeiten durch prs := q r P s2N0 q r (s) = 1 (s) : Es gilt p0;j = 0;j ; p1;j = q (j) : Die anderen Übergangswahrscheinlichkeiten sind in der Regel nicht mehr explizit berechenbar. Eine Marko¤-Kette mit dieser stochastischen Matrix nennt man Galton-Watson Kette. 0 ist, wie man sagt, ein absorbierender Zustand: Wenn die Population einmal ausgestorben ist, bleibt sie ausgestorben. Von besonderem Interesse ist die Diskussion der Aussterbewahrscheinlichkeit Pi (9n mit Xn = 0) : Wir können im Moment jedoch nicht darauf eingehen. 160 9.3 Klasseneigenschaften, Rekurrenz, Transienz De…nition 9.15 Es sei P = (pij )i;j2I eine stochastische Matrix. Man sagt, j 2 I sei von i 2 I aus (n) erreichbar, wenn ein n 2 N0 existiert mit pij > 0. Notation: i j. (0) Die Relation auf I ist re‡exiv und transitiv. Wegen pii = 1 > 0 gilt i i für alle (m) (n) i 2 I. Falls i j und j k gelten, so gibt es m; n 2 N0 mit pij > 0 und pjk > 0, und (m+n) (m) (n) dann ist pik pij pjk > 0 nach Lemma 9.8. Die durch i j , (i j und j i) für i; j 2 I de…nierte Relation ist o¤enbar eine Äquivalenzrelation auf I. Wir werden i j für den Rest dieses Kapitels stets in diesem Sinne verwenden. Sind A; B I zwei Äquivalenzklassen der obigen Äquivalenzrelation, so sagen wir, B ist von A aus erreichbar und schreiben A B, wenn i 2 A und j 2 B existieren mit i j. O¤ensichtlich hängt dies nicht von den gewählten Repräsentanten in A und B ab, ist also “wohlde…niert”. De…nition 9.16 Es sei P eine stochastische Matrix. a) Eine Teilmenge I 0 von I heisst abgeschlossen, wenn keine i 2 I 0 und j 2 I n I 0 existieren mit i j. b) Die Matrix P (und dann auch eine Marko¤-Kette mit stochastischer Matrix P) heisst irreduzibel, wenn je zwei Elemente aus I äquivalent sind. Bemerkung 9.17 Es sei P = (pij )i;j2I eine stochastische Matrix. a) Ist I 0 I abgeschlossen, so ist die zu I 0 gehörige Einschränkung der stochastischen Matrix P0 := (pij )i;j2I 0 eine stochastische Matrix für I 0 . b) Ist P irreduzibel, so existieren keine abgeschlossenen echten Teilmengen von I. Beispiel 9.18 a) Die symmetrische Irrfahrt auf Zd ist irreduzibel. b) Polyas Urnenschema: Keine zwei Elemente von I = f (r; s) j r; s 2 N g sind äquivalent. Es gibt aber sehr viele abgeschlossene Teilmengen von I, zum Beispiel ist für jede Wahl von r0 ; s0 2 N die Menge f (r; s) j r r0 ; s s0 g abgeschlossen. c) Bei der Irrfahrt auf f0; : : : ; ng mit absorbierenden Rändern gibt es drei Äquivalenzklassen, nämlich f0g, f1; : : : ; n 1g und fng. Die Mengen f0g und fng sind abgeschlossen, und es gelten f1; : : : ; n 1g fng und f1; : : : ; n 1g f0g. d) Eine symmetrische Irrfahrt auf einem Graphen G ist o¤enbar genau dann irreduzibel, wenn der Graph zusammenhängend ist. (Ein Graph heisst zusammenhängend, wenn je zwei Knoten über einen endlichen Zug verbunden werden können.) 161 Für die nachfolgenden Überlegungen sei die Startverteilung Um dies zu betonen, schreiben wir Pi statt P . Für n 2 N sei (n) fii := Pi (X1 6= i; : : : ; Xn 1 in i 2 I konzentriert. 6= i; Xn = i): Lemma 9.19 Es gilt die sogenannte Erneuerungsgleichung (n) pii = n X (k) (n k) fii pii ; k=1 n 2 N: (9.7) (n) Beweis. Gemäss Lemma 9.7 gilt pii = Pi (Xn = i). Aufspalten des Ereignisses fXn = ig nach dem ersten Zeitpunkt, an dem die Marko¤-Kette wieder i erreicht, ergibt (n) pii = = n X k=1 n X k=1 Pi (i 2 = X[1;k 1] ; Xk = i; Xn = i) Pi (Xn = i j i 2 = X[1;k 1] ; (k) Xk = i) fii : Anwendung der Marko¤-Eigenschaft (Satz 9.4b)) und Lemma 9.7 ergibt: (n) pii = n X k=1 Pi (Xn = i j Xk = (k) i)fii = n X (k) (n k) fii pii : k=1 Wir führen die erste Rückkehrzeit Ti nach i ein: Ti := inf fn 1 : Xn = ig : (9.8) Wir de…nieren das auch, wenn gar kein n 1 existiert mit Xn = i: In diesem Fall setzen wir einfach Ti := 1: Von o¤ensichtlichem Interesse ist die Frage, ob Ti < 1 gilt oder nicht, ob man also zu irgend einem (endlichen) Zeitpunkt wieder in i ist. O¤ensichtlich (n) gilt fii = Pi (Ti = n) ; und eine Anwendung der -Aditivität (Axiom 1.11) ergibt fii = Pi (Ti < 1) : De…nition 9.20 Sei P eine stochastische Matrix. Ein Element i 2 I heisst rekurrent falls fii = 1 gilt, andernfalls heisst i transient. Satz 9.21 P (n) i 2 I ist genau dann transient, wenn 1 n=0 pii < 1 gilt. 162 (9.9) Beweis. Aus der Erneuerungsgleichung (9.7) erhalten wir 1 X (n) pii =1+ n=0 =1+ 1 X n=1 1 X (n) pii =1+ 1 X n X (k) (n k) fii pii (9.10) n=1 k=1 (n) pii fii : n=0 Da alle Grössen nicht negativ sind, ist diese Gleichung in jedem Fall korrekt, wenn wir für P (n) eine divergente Reihe 1 n=0 pii = 1 setzen. (Dies sollte aus der Analysis bekannt sein). P (n) Wenn also fii = 1 ist, so folgt also 1 n=0 pii = 1: Die Umkehrung geht jedoch nicht ganz so einfach: Aus fii < 1 kann aus der obigen Gleichung nicht auf die Konvergenz P (n) von 1 n=0 pii geschlossen werden. Wir argumentieren wie folgt: Für 0 < s < 1 setzen wir 1 1 X X (n) (n) (s) := pii sn ; (s) := fii sn : n=0 n=0 Wegen s < 1 konvergieren diese Reihen und wir erhalten auf dieselbe Weise wie die Gleichung (9.10): 1 (s) = 1 + (s) (s) ; (s) = : 1 (s) Ist (1) = fii < 1, so folgt nun 1 X 1 (n) pii = lim (s) = s"1 n=0 1 fii < 1: Eine nützliche Eigenschaft ist, dass Rekurrenz und Transienz Klasseneigenschaften sind: Satz 9.22 Es seien i; j 2 I mit i j. Dann ist i genau dann rekurrent, wenn j es ist. (M ) Beweis. Aus i j folgt, dass M 2 N0 mit pij Dann ist gemäss Lemma 9.8 (M +n+N ) pii (M +n+N ) Analog folgt pjj (M ) (n) (N ) pij pjj pji (N ) > 0 und N 2 N0 mit pji (n) = pjj mit (n) pii . Somit gilt 1 X n=0 (n) pii < 1 , 1 X n=0 Die Behauptung folgt nun aus Satz 9.21 163 (n) (M ) (N ) := pij pji pjj < 1: > 0: > 0 existieren. Rekurrenz und Transienz sind also Klasseneigenschaften bezüglich unserer Äquivalenzrelation : Wir sprechen daher auf von rekurrenten bzw. transienten Klassen. (n) Wir verallgemeinern die De…nition von fii und setzen ganz allgemein für i; j 2 I : (n) fij := Pi (j 2 = X[1;n 1] ; Xn = j) = Pi (Tj = n) ; n 1; und fij := Pi (Tj < 1) 1 Lemma 9.23 Sind i und j in derselben rekurrenten Klasse, so gilt fij = fji = 1. (N ) Beweis. Wir müssen nur i 6= j diskutieren. Sei N 2 N0 die kleinste Zahl mit pji Für M > N gilt Pj (Tj M; XN = i) = N X1 n=1 + M X n=N +1 Pj (j 2 = X[1;n Pj (j 2 = X[1;n = N X1 1] ; N (n) (N n) fjj pji + Pj (Tj M X n=N +1 (N n) 1g ist pji Xn = j; XN = i) Xn = j; XN = i) n=1 Für jedes n ist 1] ; Pj (j 2 = X[1;N = 0, und Pj (j 2 = X[1;N (N ) pji M; XN = i) M X 1] ; 1] ; XN = i) (n N ) fij (n N ) XN = i)fij (N ) (N ) pji 1) = limM !1 Pj (Tj = lim Pj (Tj ; M !1 M ) = 1 folgt M; XN = i) (N ) pji fij : (N ) Wegen fij 1 und pji > 0 ergibt sich fij = 1. fji = 1 folgt analog. Eine weitere wichtige Klasseneigenschaft ist die Periodizität: De…nition 9.24 Sei P eine stochastische Matrix und i 2 I: Die Periode di von i ist de…niert durch n o (n) di := ggT n 1 : pii > 0 ; wobei wir ggT (;) := 1 setzen. i heisst aperiodisch, wenn di = 1 ist. Lemma 9.25 a) Für i j gilt di = dj : 164 : pji : Demzufolge n=N +1 und wegen limM !1 Pj (Tj > 0. (ndi ) b) Ist di < 1; so existiert n0 2 N; sodass pii > 0 für alle n n0 gilt. Beweis. a): (N ) (M ) Für i = j ist nichts zu zeigen. Für i 6= j existieren N; M 2 N mit pij ; pji > 0: Aus Lemma 9.8 folgt (n+N +M ) (N ) (n) (M ) pii pij pjj pji ; (n) (n+N +M ) (n) (n+N +M ) und damit: pjj > 0 =) pii > 0 für jedes n: Analog gilt pii > 0 =) pjj > 0: Daraus ergibt sich a). b): n o (n) Die Menge A := n 1 : pii > 0 hat ebenfalls wegen Lemma 9.8 die folgende Halbgruppeneigenschaft: n 2 A; m 2 A =) n + m 2 A: Jede derartige Teilmenge von N hat die Eigenschaft, dass ein n0 2 N existiert mit n ggT (A) 2 A für alle n n0 : Dies sollte aus der Linearen Algebra bekannt sein. (Falls nicht: Übungsaufgabe). Proposition 9.26 Endliche irreduzible Ketten sind rekurrent. P (n) Beweis. I sein endlich. Wegen j pij = 1 folgt, dass für jedes i ein j existiert mit P (n) P (n) n pij = 1: Aus Lemma ?? folgt n pjj = 1: Irreduzible Ketten mit unendlichem I brauchen nicht rekurrent zu sein. Eines der bekanntesten und wichtigsten Beispiele sind Irrfahrten auf Zd : Diese ist natürlich irreduzibel (aber hat Periode 2): Satz 9.27 Die symmetrische Irrfahrt auf Zd (Beispiel 9.9 c)) ist rekurrend für d = 1; 2 und transient für d 3: P (2n) Beweis. Wir müssen einfach die Divergenz von 1 n=0 p00 für d = 1; 2 und die Konvergenz für d 3 nachweisen. Nun haben alle Pfade der Länge 2n dieselbe Wahrscheinlich(2n) keit (2d) 2n : Um p00 = P0 (X2n = 0) zu berechnen, müssen wir dies mit der Anzahl aller Pfade, die nach 2n Schritten in 0 sind, multiplizieren. Für d = 1 ist das ganz einfach. O¤enbar gibt es 2n n derartige Pfade und wir erhalten mit der Sterling-Approximation (für d = 1) : p 2n 4 n 1 (2n) 2n 2n 2n (2n=e) p00 = 2 2 =p : 2n n n (n=e) 2 n (Hier bedeutet für zwei Folgen positiver Zahlen (an ) und (bn ) : limn!1 an =bn = 1:) P (2n) Daraus folgt n p00 = 1: Für d = 2 ist die Sache etwas komplizierter. Um die Pfade zu zählen, die nach 2n Schritten wieder im Nullpunkt sind, unterscheiden wir zunächst danach, wieviele Schritte in “Ost-West-Richtung”und wieviele in “Nord-Süd-Richtung”gemacht werden. Es seien 2k Schritte in “Ost-West-Richtung”und 2n 2k Schritte in “Nord-Süd-Richtung”. Von den 2k Ost-West-Schritten mussen k nach “Ost” und ebensoviele nach “West” gehen und analog müssen sich die Nord-Süd-Schritte aufteilen, damit der Pfad nach den 2n 165 Schritten wieder im 0-Punkt ist. Somit ist die Anzahl der Pfade, die wieder nach 0 gelangen, durch n X 2n 2k k=0 2k k 2n n 2k k = n X (2n)! = (k! (n k)!)2 k=0 2n n 2 (9.11) gegeben. Der erste Faktor auf der linken Seite kommt von der Auswahl der 2k Ost– West-Schritte aus allen 2n Schritten, der zweite von der Auswahl der k Ost-Schritte aus den 2k Ost-West Schritten, und der letzte Faktor analog für die Nord-Süd Schritte. Die zweite Gleichung sei dem Leser als Übungsaufgabe überlassen. Wir erhalten also (2n) p00 =4 2n n n 2 = 2 n 2n n 2 1 n und die Divergenz ist ebenfalls gezeigt. Wir diskutieren nun den Fall d = 3: Der Fall d > 3 kann leicht darauf zurückgeführt werden. Analog wie oben ergibt sich P0 (X2n = 0) = 6 X 2n 0 k1 ;k2 ;k3 k1 +k2 +k3 =n (2n)! =2 (k1 !k2 !k3 !)2 2n 2n n X 0 k1 ;k2 ;k3 k1 +k2 +k3 =n n! k1 !k2 !k3 ! 2 3 2n : Leider gibt es für die rechte Seite keine so einfach Formel mehr wie (9.11), sodass wir etwas mehr arbeiten müssen. X 0 k1 ;k2 ;k3 k1 +k2 +k3 =n n! k1 !k2 !k3 ! 2 max 3 n X n! : k1 + k2 + k3 = n k1 !k2 !k3 ! 0 k1 ;k2 ;k3 k1 +k2 +k3 =n n! 3 k1 !k2 !k3 ! Nun ist die Summe auf der rechten Seite einfach 1; denn k1 !kn!2 !k3 ! 3 n ist die Wahrscheinlichkeit, dass eine Münze, die mit gleicher Wahrscheinlichkeit auf Kopf, Zahl oder Kante fällt, k1 Kopfwürfe, k2 Zahlwürfe und k3 Kantenwürfe in n Würfen hat. Ist n durch 3 teilbar, n = 3m; so ist für k1 + k2 + k3 = 3m : (3m)! k1 !k2 !k3 ! (3m)! ; (m!)3 was man mit einer elementaren Abschätzung nachprüfen kann. Mit Hilfe der StirlingFormel erhalten wir: p 3m 6 m 1 3m (3m)! 3m (3m=e) 3 3 = ; 3 3m 3=2 6 m (m!) (m=e) (6 m) also P0 (X6m = 0) p 1 1 = const m 3 m6 m 166 3=2 : n : Nun ist o¤ensichtlich (6m) p00 1 6 2 (6m 2) p00 (6m) ; p00 4 1 6 (6m 4) p00 und somit folgt 1 X n=0 (n) p00 = 1 X (2n) p00 1 + const n=0 1 X m m=1 3=2 < 1: Der obige Satz stammt von George Pólya, der vom 1920 bis 1940 an der ETH Zürich lehrte. Die Sage geht, dass Pólya den Satz für d = 2 bei ausgedehnten Spaziergängen auf dem Zürichberg fand, bei denen er immer wieder auf die selben Bekannten stiess. George Pólya, 1887-1985 9.4 Gleichgewichtsverteilung De…nition 9.28 Eine Wahrscheinlichkeitsverteilung auf I heisst stationär oder GleichgewichtsverP teilung bezüglich der stochastischen Matrix P = (pij )i;j2I , wenn (j) = i2I (i)pij für alle j 2 I gilt. Wir werden auch Masse auf I betrachten, die keine Wahrscheinlich+ keiten sind, P d.h. einfach Funktionen : I ! R : Ein solches Mass heist invariant, wenn (j) = i2I (i)pij gilt. 167 Bemerkung 9.29 Ist ein invariantes Mass, so gilt natürlich X (n) (j) = (i)pij i2I für alle n 2 N0 : Ist P irreduzibel und ein nichttriviales invariantes Mass (d.h. nicht identisch 0); so folgt daraus sofort, dass (j) > 0 ist für alle j: Ist nämlich i ein Zustand (n) mit (i) > 0 und j beliebig, so existiert n 2 N0 mit pij > 0 und demzufolge gilt (n) (j) (i) pij > 0: Ein wichtiger Spezialfall invarianter Masse liegt vor, wenn die sogenannte “detailed balance” Bedingung erfüllt ist: (i) pij = (j) pji ; i; j 2 I: (9.12) Ein Mass ; das diese Bedingung erfüllt, ist o¤ensichtlich invariant, denn es gilt X X (i) pij = (j) pji = (j) : i i Man muss jedoch betonen, dass in vielen Fällen invariante Masse existieren ohne dass ein Mass existiert, das der detailed balance Bedingung genügt. Ein Beispiel, bei dem die detailed balance Bedingung immer erfüllt ist, sind Irrfahrten auf Graphen. (Beispiel 9.12). Hier erfüllt (e) := jVe j ; e 2 K die Bedingung (9.12), denn es gilt (e) pef = jf v 2 V : '(v) = fe; f g gj; was symmetrisch in e und f ist. (siehe (9.6)). Wir verwenden im folgenden den Ausdruck Gleichgewichtsverteilung für Wahrscheinlichkeiten und “invariantes Mass“ für die allgemeinere Situation. Bemerkung 9.30 a) Betrachten wir eine stationäre Verteilung = ( (i))i2I als Vektor im RI , so erfüllt (als Zeilenvektor aufgefasst) die Gleichung P = . Das heisst, ist ein Linkseigenvektor von P zum Eigenwert 1. In der aus der Linearen Algebra üblichen Notation ist T also ein Eigenvektor von PT zum Eigenwert 1. Man beachte, dass P in jedem Fall den Eigenwert 1 hat, denn es gilt 0 1 0 1 1 1 B .. C B .. C P @.A = @.A : 1 1 Zumindest wenn I endlich ist, folgt daraus, dass auch PT den Eigenwert 1 besitzt. Es ist jedoch im Moment noch nicht klar, ob sich ein Eigenvektor mit nichtnegativen Komponenten …nden lässt. b) Ist stationär, so gilt (j) = X i2I 168 (n) (i)pij ; also P (Xn = j) = (j) für alle j 2 I und n 2 N0 . Das heisst, hat die Marko¤-Kette die Startverteilung , so ist die Verteilung von Xn gleich für alle n 2 N0 . Wir setzen für den Rest des Unterkapitels voraus, dass P irreduzibel ist, d.h. dass ganz I eine Äquivalenzklasse. Wir weisen zunächst nach, dass für rekurrente Ketten stets mindestens ein invariantes Mass exisitiert (jedoch nicht notwendigerweise ein stationäres Wahrscheinlichkeitsmass). Sie k 2 I beliebig. Wir setzen XTk k (i) := Ek n=1 1fXn =ig : Wir zählen also die Anzahl der Besuche in i bis zur ersten Rückkehr nach k und nehmen davon den Erwartungswert unter der Kette, die in i startet. Falls der Erwartungswert nicht existieren sollte, setzen wir k (i) = 1; wir werden jedoch gleich sehen, dass dies nicht eintritt. Proposition 9.31 Sie P irreduzibel und rekurrent und k sei in I: Dann gelten a) k b) k (k) = 1: ist ein invariantes Mass. c) 0 < d) k k (i) < 1 gilt für alle i 2 I: ist das einzige invariante Mass, das a) erfüllt. Beweis. a) ist trivial. Wir beweisen b): Wir bemerken zunächst, dass wir k (i) wie folgt umschreiben können: k (i) = Ek = X1 n=1 1 X X 1fXn =i; n Tk g Pk (Xn = i; Xn 1 = 1 X Pk (Xn = i; n Tk ) n=1 = j; n Tk ) : n=1 j2I Man beachte nun, dass fn Tk g = k 2 = X[1;n 1] ist, d.h. ein Ereignis, das durch die Pfade bis zum Zeitpunkt n 1 beschrieben ist. Anwendung der Marko¤-Eigenschaft (9.3) zum Zietpunkt n 1 ergibt Pk (Xn = i; Xn 1 = j; n Tk ) = Pk (Xn 1 = j; n Tk ) Pj (X1 = i) = Pk (Xn 1 = j; n 1 169 Tk 1) pji : Demzufolge ist k X (i) = pji j2I X = pji X n=1 1 X Pk (Xn X = j; n Pk (Xn = j; n pji Ek j2I = 1 1 Tk Tk 1) 1) n=0 j2I = 1 X k XTk 1 n=0 1fXn =jg = X XTk pji Ek n=1 j2I 1fXn =jg (j) pji : j2I Damit ist b) gezeigt. Wir beweisen c): Aus b) folgt per Induktion sofort X (n) k (i) = k (j) pji j2I für jedes n 2 N0 ; also insbesonder 1 = k (n) (k) k (j) pjk : Wegen der Irreduzibilität (n) existiert für jedes j ein n mit pjk > 0 und somit folgt (n) k (k) pkj folgt auch k (j) Beweis von d): k (n) pkj : (j) < 1 für jedes j: Anderseits = Somit folgt k (j) > 0 für jedes j: sei ein beliebiges invariantes Mass mit (k) = 1: Dann gilt X (j) = (i) pij + pkj i2I:i6=k Nun ersetzen wir (i) auf der rechten Seite durch denselben Ausdruck und erhalten 0 1 X X X X @ (j) = (i1 ) pi1 i + pki A pij + pkj = (i1 ) pi1 i pij + pki pij + pkj i2I:i6=k = X i1 2I:ii 6=k i;i1 2I:i;ii 6=k (i1 ) pi1 i pij + Pk (Tk 2; X2 = j) + Pk (Tk i2I:i6=k 1; X1 = j) : i;i1 2I:i;ii 6=k In dieser Weise fahren wir fort und erhalten schliesslich ! n n+1 X Y X (j) = (in ) pir ;ir 1 pi0 ;j + Pk (Tk i0 ;i1 ;:::;in 6=k n+1 X r=1 r=1 0 r=1 min(Tk ;n+1) Pk (Tk r; Xr = j) = Ek @ 170 X r=1 r; Xr = j) 1 1fXr =1g A : Wegen 0 X lim Ek @ n!1 folgt also 1 min(Tk ;n+1) Tk X 1fXr =1g A = Ek r=1 (j) Wir betrachten nun das Mass := der Vorausssetzung, dass a) erfüllt, 0= k r=1 1fXr =1g ! = k (j) (j) ; 8j: k; das ebenfalls invariant ist. Ferner gilt nach (k) = 0: Somit folgt X (n) (k) = (j) pjk j für alle n: Wegen der Irreduzibilität folgt sofort (j) = 0 fur alle j 2 I: Einer der Hauptsätze über Marko¤-Ketten ist der folgende Satz: Satz 9.32 P sei irreduzibel. Dann sind die folgenden Aussagen a)-c) äquivalent. a) Es existiert eine Gleichgewichtsverteilung (d.h. eine invariante Wahrscheinlichkeitsverteilung) b) Es existiert i 2 I mit Ei (Ti ) = 1 X n=0 (n) nfii < 1: (9.13) c) (9.13) gilt für alle i 2 I: Sind diese Bedingungen erfüllt, so ist die Gleichgewichtsverteilung durch 1 (i) = Ei (Ti ) eindeutig und (9.14) gegeben. Beweis. c)=)b) ist trivial. Wir zeigen b)=)a): Aus Ei (Ti ) < 1 folgt, dass i (und somit die ganze Kette) rekurrent ist. Wir können daher Proposition 9.31 anwenden, die besagt, dass ein invariantes Mass existiert, nämlich k : Nun gilt X j k (j) = X j Ek XTk = Ek (Tk ) = n=1 1 X 1fXn =jg = Ek (n) nfkk = k n=0 Somit ist (j) := k < 1: (j) k 171 XTk X n=1 j 1fXn =jg ein invariantes Wahrscheinlichkeitsmass, d.h. eine Gleichgewichtsverteilung. a)=)c): Sei eine Gleichgewichtsverteilung und k 2 I beliebig. Dann ist ^ (j) := (j) = (k) ein invariantes Mass mit ^ (k) = 1: Nach Proposition 9.31 gilt ^ = k : Nach der vorangegangen Überlegung gilt dann 1 X n=0 (n) nfkk = X k (j) = j X ^ (j) = j 1 < 1: (k) Damit ist c) gezeigt. Die Zusatzaussage des Satzes, dass die Gleichgewichtsverteilung eindeutig ist, folgt sofort aus der vorangegangenen Diskussion, ebenso wie (9.14). De…nition 9.33 P (n) i 2 I heisst positiv rekurrent, wenn Ei (Ti ) = 1 n=0 nfii < 1 gilt. Ist i rekurrent aber nicht positiv rekurrent, so heisst i nullrekurrent. Bemerkung 9.34 Ist P irreduzibel, so folgt aus Satz 9.32 sofort, dass alle Zustände positive rekurrent sind, wenn einer es ist. Es muss betont werden, dass die Gleichgewichtsverteilung, selbst wenn man weiss, dass sie existiert, in der Regel nicht explizit berechnet werden kann. In wichtigen Fällen, vor allem wenn die detailed balance Bedinung (9.12) efüllbar ist, kann man die Gleichgewichtsverteilung “erraten”, wie zum Beispiel bei Irrfahrten auf Graphen, wie wir gesehen haben. Wie wir in diesem Abschnitt gesehen haben, gibt es für eine irreduzible, rekurrente Kette bis auf Multiplikation mit einer Konstanten genau ein invariantes Mass. Für transiente Ketten ist die Situation komplizierter. Es gibt transiente Ketten ohne (nichttriviales) invariantes Mass und solche, die mehrere besitzen. Natürlich kann eine irreduzible transiente Kette kein endliches invariantes Mass besitzen, denn aus Satz 9.32 folgt automatisch die Positivrekurrenz, wenn ein solches existiert. Beispiel 9.35 Wir betrachten die asymmetrische Irrfahrt auf Z: Sie hat die Übergangswahrscheinlichkeiten pi;i 1 = q < p = pi;i+1 ; mit q = 1 p: Die Bedingung für ein invariantes Mass ist (i) = (i 1) p + (i + 1) q: Die allgemeine Lösung dieser Gleichung ist (i) = A + B (p=q)i : Es gilt (i) > 0 für alle i; sofern A und B positiv sind. Es existieren also mehrere invariante Masse. Daraus folgt, dass die Kette transient ist, was man natürlich auch direkt zeigen kann. 172 Ist p = q = 1=2; so ist die Kette, wie wir wissen, rekurrent. Die allgemeine Lösung der obigen Gleichung ist in diesem Fall (i) = A + Bi: Dies erfüllt jedoch nur dann (i) 0; 8i; wenn B = 0 ist, in Übereinstimmung mit dem Satz, dass im rekurrenten Fall ein invariantes Mass eindeutig ist (bis auf skalare Multiplikation). Proposition 9.36 Die symmetrische Irrfahrt für d = 1 und 2 ist nullrekurrent. Beweis. Wir hatten schon gesehen, dass die Irrfahrt rekurrent ist. Es gibt also ein bis auf Multiplikation mit einem Skalar eindeutiges invariantes Mass. Dieses Mass lässt sich einfach erraten: (i) = 1 für alle i: Da dies kein Wahrscheinlichkeitsmass ist, kann die Irrfahrt nicht positiv rekurrent sein, d.h. die Rückkehrzeiten haben keinen endlichen Erwartungswert. Proposition 9.37 Endliche irreduzible Marko¤-Ketten sind positiv rekurrent. Beweis. Wir betrachten einen festen Punkt i 2 I und T := Ti : Wir müssen nur zeigen, (n ) (n ) dass Ei (T ) < 1 gilt. Für jedes j 2 I existiert nj mit pji j > 0: Sie " := minj pji j > 0 und N := max fnj : j 2 Ig : Dann gilt Pj (T N ) " für alle j 2 I: Wir zeigen mit Induktion nach k 2 N; dass Pi (T > kN ) (1 ")k (9.15) ist. Für k = 1 ist das schon gezeigt. Für k > 1 gilt X Pi (T > kN ) = Pi T > (k 1) N; X(k 1)N = j; T > kn 1)N = j Pj (T > n) j:j6=i X = Pi T > (k 1) N; X(k j:j6=i Pi (T > (k 1) N ) max Pj (T > n) j:j6=i (1 ")k 1 (1 ") : Die zweite Gleichung folgt aus der Marko¤-Eigenschaft (9.3) und die letzte Ungleichung benützt die Induktionsvoraussetzung. Damit ist (9.15) gezeigt. Aus dieser Ungleichung folgt sofort Ei (T ) = 1 X Ei T 1fkN <T k=0 1 X N k=0 (1 (k+1)N g ")k (k + 1) < 1: 173 1 X k=0 Pi (T > kN ) (k + 1) N 9.5 Konvergenz gegen die Gleichgewichtsverteilung Wir zeigen in diesem Abschnitt, dass die n-stu…gen Übergangswahrscheinlichkeiten einer irreduziblen, aperiodischen und rekurrenten Marko¤-Kette konvergieren: Satz 9.38 Sei P irreduzibel, aperiodisch und positiv rekurrent mit Gleichgewichtsverteilung : Dann gilt a) Für alle i; j 2 I gilt (n) lim p n!1 ij b) Für eine beliebige Startverteilung = (j) : gilt: lim P (Xn = j) = n!1 (j) ; j 2 I: b) folgt sofort aus a): lim P (Xn = j) = lim n!1 n!1 = X X (n) (i) pij = i (i) (j) = X i (n) (i) lim pij n!1 (j) ; i P P (n) wobei die Vertauschung des Limes mit der Summe wegen i (i) pij i (i) = 1 < 1 gerechtfertigt ist. Der Beweis von a) braucht etwas Vorbereitung. ^ auf I I ein: p^(i;j);(k;l) = pik pjl : Hat P die Wir führen eine stochastische Matrix P ^ die Gleichgewichtsverteilung ^ (i; j) = Gleichgewichtsverteilung ; so hat o¤ensichtlich P (i) (j) : Ferner gilt (n) (n) (n) p^(i;j);(k;l) = pik pjl : ^ Diese Eigenschaften prüft man sehr einfach nach. Es ist allerding nicht richtig, dass P automatisch irreduzibel ist, wenn P es ist. Lemma 9.39 ^ irreduzibel und aperiodisch. Ist P irreduzibel und aperiodisch, so ist P Beweis. Seien i; j; k; l 2 I: Nach Lemma Lemma 9.40 ^ positiv rekurrent. Erfüllt P die Voraussetzungen unseres Satzes, so ist P ^ ist irreduzibel und besitzt eine Gleichgewichtsverteilung. Nach Satz 9.32 folgt Beweis. P damit die Positivrekurrenz. Sei i 2 I beliebig, aber fest gewählt. Wir betrachten nun eine Markovkette mit ^ und Startverteilung = i stochastischer Matrix P ; d.h. (k; l) = ik (l) : ( hängt 174 natürlich von i ab). Die Marko¤-Kette schreiben wir als (Xn ; Yn )n2N0 : (Xn ) und (Yn ) sind einfach zwei unabhängige Marko¤-Ketten, die eine mit Start in i und die andere mit Startverteilung : Sind i0 ; ; : : : ; in und j0 ; : : : ; jn zwei Folgen von Elementen in I; so gilt o¤ensichtlich P X[0;n] = i[0;n] ; Y[0;n] = j[0;n] = Pi X[0;n] = i[0;n] P Y[0;n] = j[0;n] : (9.16) Sei T := inf fn 2 N0 : Xn = Yn g : Lemma 9.41 lim P (T > N ) = 0; N !1 d.h. es gilt P (T < 1) = 1: Wir de…nieren nun eine neue Folge (Zn )n2N0 von I-wertigen Zufallsgrössen: Zn := Xn f u •r n T : Yn f u •r n > T Lemma 9.42 Z0 ; Z1 ; : : : ist eine Marko¤-Kette mit Start in i und stochastischer Matrix P: Beweis. Wir müssen einfach die Gleichung (9.2) für die Z-Folge (für Start in i) nachweisen. Seien i0 ; : : : ; in 2 I: P Z[0;n] = i[0;n] = n X P Z[0;n] = i[0;n] ; T = k + P Z[0;n] = i[0;n] ; T > n P X[0;k] = i[0;k] ; Y[k+1;n] = i[k+1;n] ; Y0 6= i0 ; : : : ; Yk k=0 = n X k=0 +P 1 6= ik X[0;n] = i[0;n] ; Y0 6= i0 ; : : : ; Yn 6= in : Mit (9.16) folgt P X[0;k] = i[0;k] ; Y[k+1;n] = i[k+1;n] ; Y0 6= i0 ; : : : ; Yk = Pi X[0;k] = i[0;k] P = Pi X[0;k] = i[0;k] P 1 6= ik Y[k+1;n] = i[k+1;n] ; Y0 6= i0 ; : : : ; Yk Y[k+1;n] = i[k+1;n] j Y0 6= i0 ; : : : ; Yk P (Y0 6= i0 ; : : : ; Yk 1 6= ik 1 ; Yk = ik ) n Y = i;i0 pij 1 ;ij P (Y0 6= i0 ; : : : ; Yk 1 6= ik j=1 175 1 ; Yk = ik ) ; 1 ; Yk 1 1 = ik 6= ik 6= ik 1 ; Yk 1 ; Yk = ik = ik 1 ; Yk = ik und P X[0;n] = i[0;n] ; Y0 6= i0 ; : : : ; Yn 6= in = i;i0 n Y pij P (Y0 6= i0 ; : : : ; Yn 6= in ) : 1 ;ij j=1 Nun ist n X k=0 P (Y0 6= i0 ; : : : ; Yk 1 6= ik 1 ; Yk = ik ) + P (Y0 6= i0 ; : : : ; Yn 6= in ) = 1: Kombinieren wir diese Gleichungen, so erhalten wir P Z[0;n] = i[0;n] = i;i0 n Y pij 1 ;ij : j=1 Beweis von Satz 9.38 a). (n) pij = P (Zn = j) = P (Zn = j; T = P (Zn = j; T n) + P (Zn = j; T > n) ; (j) = P (Yn = j) = P (Yn = j; T = P (Zn = j; T n) + P (Zn = j; T > n) n) + P (Yn = j; T > n) n) + P (Yn = j; T > n) Somit folgt (n) pij (j) 2P (T > n) ! 0 für n ! 1; nach Lemma 9.41. Bemerkung 9.43 Satz 9.38 muss im periodischen Fall etwas umformuliert werden. Für positiv rekurrente, irreduzible Ketten mit Periode d gilt: d 1 1X P (Xn+k = i) = n!1 d lim (i) k=0 für jede Startverteilung führen. und jedes i 2 I. Wir wollen den Beweis jedoch nicht durch- 176