INSTITUT FÜR STOCHASTIK UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao SS 2009 Blatt 2 Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 7: (B. Friedmans Urnenmodell) Seien in einer Urne zu Beginn r rote und s schwarze Kugeln. Es wird jeweils zufällig eine Kugel gezogen und danach die gezogene Kugel, c Kugeln derselben und d Kugeln der anderen Farbe zurückgelegt. Dabei seien c und d feste, ganze Zahlen mit c ≥ −1, d ≥ 0 und c + d ≥ 0. Es sei Rn bzw. Sn die zufällige Anzahl der roten bzw. schwarzen Kugeln nach n Ziehungen und Xn := (Rn , Sn ), n ∈ N0 . a) Zeigen Sie, dass Rn + Sn ≥ r + s für alle n ∈ N0 gilt. b) Begründen Sie, dass X := (Xn )n∈N0 eine homogene Markovkette ist. Bestimmen Sie dazu einen geeigneten Zustandsraum E und eine geeignete Übergangswahrscheinlichkeitsfunktion p bzw. Übergangsmatrix P von X. c) Bestimmen Sie die wesentlichen und unwesentlichen Klassen in E bzgl. der Übergangsmatrix P . d) Sei c = −1 und d = 1. Ist (Rn )n∈N0 eine Markovkette? Ist diese gegebenenfalls homogen? Welche Übergangsmatrix besitzt dann (Rn )n∈N0 ? e) Sei jetzt c = 0 und d = 1. Ist (Rn )n∈N0 eine Markovkette? Ist diese gegebenenfalls homogen? Welche Übergangsmatrix besitzt dann (Rn )n∈N0 ? Lösung: a) Sind vor der Ziehung Rn rote und Sn schwarze Kugeln vorhanden, so sind nach der Ziehung Rn+1 = Rn + c rote und Sn+1 = Sn + d schwarze Kugeln vorhanden, insgesamt also Rn+1 + Sn+1 = Rn + Sn + c + d Kugeln, falls eine rote Kugel gezogen wird, andernfalls Rn+1 = Rn + d rote und Sn+1 = Sn + c schwarze Kugeln, insgesamt wieder Rn+1 + Sn+1 = Rn + Sn + c + d Kugeln. Egal welche Kugel gezogen wird, gilt stets Rn+1 + Sn+1 = Rn + Sn + c + d ≥ Rn + Sn . b) Rn und Sn nehmen Werte in N0 an (falls c ≥ 0 sogar nur in {r, r+1, . . .} bzw. {s, s+1, . . .). Ferner gilt wegen a) Rn + Sn ≥ r + s. Geeignete Zustandsräume sind daher E := N20 oder E := Er+s := {(i, j) ∈ N20 : i + j ≥ r + s}. Für den Fall c = −1 und d = 1 könnte man auch die endliche Menge E := {(i, j) ∈ N20 : i + j = r + s} wählen. (Wie hier ist der Zustandsraum E einer Markovkette in der Regel nicht eindeutig festgelegt.) Wir wählen hier E = Er+s mit r + s ≥ 1. (Damit gehen wir dem Problem aus dem Weg, das Übergangsgesetz auch für (i, j) = (0, 0) definieren zu müssen. Bei der Modellierung von X gibt es mehrere Möglichkeiten. Einmal kann man wie in [SI], Kap. 3 von gekoppelten Experimenten ausgehen (ein recht mühsamer Weg), andererseits aber auch eine vernünftige“ Übergangsmatrix P vorgeben und Satz 2.22 anwenden. Wir ” wählen einen dritten Weg. Wir schließen dabei den uninteressanten Fall c = d = 0, bei dem sich der Zustand nie ändert, aus. Sei U : E × [0, 1) → E definiert durch ( i , (i + c, j + d), falls y ≤ i+j U ((i, j), y) := i (i + d, j + c), falls y > i+j . Besitzt die Zufallsvariable Y die Gleichverteilung U(0, 1), so gilt i i+j für (k, `) = (i + c, j + d), j P(i,j)(k,`) := P(U ((i, j), Y ) = (k, `)) = i+j für (k, `) = (i + d, j + c) und 0, sonst. i Sind in der Urne aktuell i rote und j schwarze Kugeln, so ist i+j gerade die Wahrscheinj lichkeit, eine rote und i+j die Wahrscheinlichkeit, eine schwarze Kugel zu ziehen. Ist (Yn )n∈N eine Folge unabhängiger, U(0, 1)-verteilter Zufallsvariable, so ist wegen Satz 2.13 (Xn )n∈N0 mit X0 := (r, s) und Xn := U (Xn−1 , Yn ) eine homogene Markovkette mit Zustandsraum E und Übergangsmatrix P . c) Ist c = d = 0, so kommuniziert jeder Zustand nur mit sich selbst. Es gilt daher K((i, j)) = {(i, j)} und alle diese Klassen sind wesentlich. Ist c = −1 und d = 1, so kommunizieren alle (i, j) ∈ Em := {(i, j) ∈ E := i + j = m} mit festem m ≥ r + s miteinander: (m, 0) ←→ (m − 1, 1) ←→ . . . ←→ (0, m). Gilt aber i + j 6= k + `, so gilt weder (i, j) (k, `) noch (k, `) (i, j). Daher sind Er+s , Er+s+1 , . . . die Klassen in E und alle diese Klassen sind wesentlich. In allen anderen Fällen gilt c + d > 0 und daher gilt für den Übergangsgraphen GP zu P mit Kantenmenge K, dass aus ((i, j), (k, `)) ∈ K stets k + ` > i + j folgt. Hieraus folgt, dass alle Klassen nur aus einem Element bestehen und dass diese Klassen unwesentlich sind. d) Ist c = −1 und d = 1, so gilt stets Rn + Sn = r + s, also auch Sn = r + s − Rn . Damit bestimmen sich Rn und (Rn , Sn ) gegenseitig eindeutig. (Rn )n∈N0 ist daher auch eine homogene Markovkette mit Zustandsraum {0,1,. . . ,r+s} und Übergangsmatrix i für k = i − 1, r+s i Pik = 1 − r+s für k = i + 1, 0, sonst. e) Sei c = 0 und d = 1. Die Gesamtzahl der Kugeln erhöht sich nach jeder Ziehung um 1. Es gilt daher Rn + Sn = r + s + n und damit Sn = r + s + n − Rn . Wie in d) bestimmen sich eindeutig, diesmal bei gegebener Stufe n, Rn und (Rn , Sn ) gegenseitig. Damit ist auch (Rn )n∈N0 eine Markovkette. Diese ist aber nicht homogen, da die Übergangswahrscheini lichkeit P(Rn+1 = i | Rn = i) = r+s+n noch von n abhängt. Aufgabe 8: Sei X = (Xn )n∈N0 eine homogene Markovkette mit Zustandsraum E und Übergangsmatrix P und D ⊂ E eine beliebige, nicht leere Teilmenge von E. τ (ω) := τD (ω) := inf{n ∈ N0 : Xn (ω) ∈ D} sei die Erstbesuchszeit in D und für s ∈ E hD s := Ps (τD < ∞) die Trefferwahrscheinlichkeit, dass die Markovkette bei Start in s jemals nach D gelangt. Zeigen Sie: a) Für die Trefferwahrscheinlichkeiten gilt ( 1, D (∗) hs = P Psk · k∈E falls s ∈ D, falls s ∈ 6 D. hD k , b) Ist γ = (γs )s∈E ∈ RE + eine Lösung von (∗), d.h. γs = 1 für s ∈ D und für s 6∈ D, dann gilt γs ≥ hD s für alle s ∈ E. D h ist also die kleinste nicht negative Lösung von (∗). P k∈E Psk ·γk = γs Lösung: a) Wegen ∞ [ {τD < ∞} = {Xn ∈ D} n=0 und Ps (X0 = s) = 1 gilt hD s = 1 für s ∈ D. Für s 6∈ D gilt dagegen Ps (X0 ∈ D) = 0 und damit ! ! ∞ ∞ [ X [ hD {Xn ∈ D} = Ps {Xn ∈ D} | X1 = k · Ps (X1 = k) s = Ps {z } | n=1 n=1 k∈E =Psk ! ∞ [ X X Markoveigenschaft Psk hD Pk {Xj ∈ D} · Psk = = k . k∈E j=0 k∈E b) Für s ∈ D gilt γs = 1 = hD s und für s 6∈ D gilt für alle n ∈ N X X X γs = Psk1 · γk1 = Psk1 + Psk1 · γk1 = k1 ∈E k1 ∈D X Psk1 + k1 ∈D X X X X X Psk1 Pk1 k2 + k1 6∈D k2 ∈D Psk1 + k1 ∈D k1 6∈D X X k1 6∈D k2 6∈D Psk1 Pk1 k2 + . . . + k1 6∈D k2 ∈D X Psk1 Pk1 k2 . . . Pkn kn+1 k1 ,...,kn 6∈D,kn+1 ∈D X + Psk1 Pk1 k2 · γk2 = . . . = Psk1 Pk1 k2 . . . Pkn kn+1 γkn+1 ≥ k1 ,...,kn ,kn+1 6∈D | X k1 ∈D Psk1 + X X k1 6∈D k2 ∈D {z } ≥0 Psk1 Pk1 k2 + . . . + X Psk1 Pk1 k2 . . . Pkn kn+1 = k1 ,...,kn 6∈D,kn+1 ∈D Ps (X1 ∈ D) + Ps (X1 6∈ D, X2 ∈ D) + . . . + Ps (X1 6∈ D, . . . , Xn 6∈ D, Xn+1 ∈ D) = Ps (τD ≤ n + 1) ↑ Ps (τD < ∞) = hD s und damit auch γs ≥ hD s . Aufgabe 9: Sei unter den Voraussetzungen von Aufgabe 8 für s ∈ E mD s := Es τD die mittlere Erstbesuchszeit in D. Zeigen Sie: a) Für die mittleren Erstbesuchszeiten gilt ( 0, (∗∗) mD P s = 1 + k6∈D Psk · mD k , falls s ∈ D, falls s ∈ 6 D. b) mD ist die kleinste nicht negative Lösung des Gleichungssystems (∗∗). Lösung: a) Wegen Ps (X0 = s) = 1 gilt Ps (τD = 0) = 1 und damit mD s = Es τD = 0 für s ∈ D. Für s 6∈ D hingegen gilt Ps (X0 ∈ D) = 0 und damit τD = 1 + inf{n ∈ N0 : Xn+1 ∈ D} = 1 + τD0 , {z } | 0 =:τD wobei τD0 als Ersteintrittszeit in D für die homogene Markovkette (Xn+1 )n∈N0 interpretiert werden kann. Es gilt daher mD s = Es τD = 1 + Es τD0 =1+ =1+ n=∞ X n · Ps (τD0 = n) n=0 n=∞ XX n=0 k∈E =1+ n · Ps (τD0 = n | X1 = k) · Ps (X1 = k) | {z } =Psk X Psk k∈E n=∞ X n · Ps (τD0 = n | X1 = k) = 1 + X Psk · mD k , k6∈D n=0 da man in einer Doppelsumme mit nicht negativen Summanden die Reihenfolge der Summation vertauschen darf (Sonderfall des Satzes von Fubini). b) Sei λ = (λs )s∈E mit 0 ≤ λs ≤ ∞ eine weitere Lösung von (∗∗). Dann gilt λs = 0 = mD s für s ∈ D und für s 6∈ D gilt für alle n ∈ N X X X X λs = 1 + Psk1 · λk1 = 1 + Psk1 + Psk1 Pk1 k2 · λk2 = . . . = k1 6∈D 1+ X k1 6∈D Psk1 + k1 6∈D X X k1 6∈D k2 6∈D Psk1 Pk1 k2 + . . . + k1 6∈D k2 6∈D Psk1 Pk1 k2 . . . Pkn−1 kn k1 ,...,kn 6∈D X + X Psk1 Pk1 k2 . . . Pkn kn+1 λkn+1 ≥ k1 ,...,kn ,kn+1 6∈D | 1+ X k1 6∈D Psk1 + X X k1 6∈D k2 6∈D {z } ≥0 Psk1 Pk1 k2 + . . . + X Psk1 Pk1 k2 . . . Pkn−1 kn k1 ,...,kn 6∈D 1 + Ps (X1 6∈ D) + Ps (X1 6∈ D, X2 6∈ D) + . . . + Ps (X1 6∈ D, . . . , Xn 6∈ D) = Ps (τD ≥ 1) + Ps (τD ≥ 2) + . . . + Ps (τD ≥ n + 1), also auch λs ≥ ∞ X Ps (τD ≥ n) n=1 = 1 · Ps (τD = 1) + 2 · Ps (τD = 2) + . . . + ∞ · Ps (τD = ∞) = Es τD = mD s . Aufgabe 10: Peter und Paul werfen bei einem Spieleinsatz von je 1 Euro eine (eventuell verfälschte) Münze solange, bis einer der beiden Spieler sein Anfangskapital verloren hat. Der Gewinner erhält jeweils den gesamten Spieleinsatz von 2 Euro. Die Wahrscheinlichkeit, dass Peter gewinnt, sei in jedem Spiel 0 < p < 1. Zu Beginn habe Peter 2 Euro und Paul 3 Euro. a) Beschreiben Sie den Spielverlauf mit Hilfe einer geeigneten homogenen Markovkette. b) Berechnen Sie in Abhängigkeit von p = 0.1, 0.2, . . . , 0.9 die Wahrscheinlichkeit, dass Peter alles verliert. c) Berechnen Sie mittlere Spieldauer für die Fälle p = 0.1, 0.2, . . . , 0.9. Lösung: a) Ein geeigneter Zustand der Markovkette ist das aktuelle Kapital s von Peter. Mögliche Werte sind 0, 1, . . . , 5, daher ist E := {0, 1, 2, 3, 4, 5} ein geeigneter Zustandsraum. Sei Xn der zufällige Spielstand nach n Spielen. Nach Voraussetzung gilt X0 = 2. Sei (Yn )n∈N eine Folge unabhängiger Zufallsvariable mit Werten in M := {−1, 1} und mit P(Yn = 1) = p, also P(Yn = −1) = 1 − p. Yn kann dann als zufälliger Zugewinn von Peter interpretiert werden, solange das Spiel noch nicht entschieden ist. Setzt man ( k + m, falls 1 ≤ k ≤ 4, U (k, m) := k, falls k = 0 oder k = 5, so ist durch Xn := U (Xn−1 , Yn ), n ∈ N, gemäß Satz 2.13 kovkette mit Zustandsraum E und der Übergangsmatrix 1 0 0 0 1 − p 0 p 0 0 1−p 0 p P = 0 0 1 − p 0 0 0 0 1−p 0 0 0 0 eine geeignete homogene Mar0 0 0 p 0 0 0 0 0 0 p 1 gegeben. Insbesondere gilt Pss = 1 für s = 0 und für s = 5. Derartige Zustände heißen auch absorbierend. b) Sei D = {0}. Gesucht ist die Wahrscheinlichkeit hD s , dass die Markovkette bei Start in s ∈ E jemals nach 0 gelangt, d.h. die Wahrscheinlichkeit, dass (zumindest für s > 0) D D Peter alles verliert. Wegen Aufgabe 8 gilt hD 0 = 1 und für s > 0 hs = (P h )s , also wenn wir noch γ statt hD schreiben, γ1 = 1 − p + pγ2 , γ2 = (1 − p)γ1 + pγ3 , γ3 = (1 − p)γ2 + pγ4 , γ4 = (1 − p)γ3 wegen hD 5 = 0. Zu lösen ist daher das lineare Gleichungssystem 1 −p 0 0 γ1 1−p −(1 − p) 1 −p 0 · γ2 = 0 . 0 −(1 − p) 1 −p γ3 0 0 0 −(1 − p) 1 γ4 0 Maple ergibt in Abhängigkeit von p die Lösung hD 2 = (1 − p)(1 − 2p + 2p2 − p3 ) 1 − 3p + 4p2 − 2p3 + p4 für die Wahrscheinlichkeit, dass Peter alles verliert. Damit erhält man die gesuchten Wahrscheinlichkeiten p hD 2 0.1 0.9986 0.9853 0.2 0.3 0.9348 0.8104 0.4 0.5 0.6000 0.3602 0.6 0.1717 0.7 0.8 0.0616 0.0123 0.9 c) Sei jetzt D = {0, 5}. Bei Erreichen von D ist das Spiel entschieden. Gesucht ist die D mittlere Spieldauer mD s , wenn Peter das Anfangskapital s besitzt. Setzen wir λ := m , so erfüllt nach Aufgabe 9 λ das lineare Gleichungssystem 1 −p 0 0 λ1 1 −(1 − p) λ2 1 1 −p 0 · = . 0 −(1 − p) 1 −p λ3 1 0 0 −(1 − p) 1 λ4 1 Hieraus ergibt sich speziell mD 2 = λ2 = 2 − 2p + 4p2 − p3 . 1 − 3p + 4p2 − 2p3 + p4 Damit erhält man die gesuchten Dauern p 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 mD 2 2.4915 3.2111 4.1850 5.2607 6.0000 5.9953 5.3538 4.4868 3.6729