UE Markov Prozesse - WS 2007 1 Markovketten mit diskreter Zeit 1. Man zeige P (A ∩ B | C) = P (A | C) · P (B | A ∩ C) beziehungsweise P (X2 = i2 ; X1 = i1 |X0 = i0 ) = P (X1 = i1 |X0 = i0 )·P (X2 = i2 |X0 = i0 , X1 = i1 ). (1p) 2. N schwarze und N weiße Kugeln werden in zwei Urnen aufgeteilt, sodaß jede Urne N Kugeln enthält. In jedem Schritt wird beiden Urnen je eine Kugel entnommen und die Kugeln werden ausgetauscht. Der Zustand des Systems ist die Anzahl der weißen Kugeln in der ersten Urne. Berechne die Übergangwahrscheinlichkeiten. (1p) 3. Eine Ratte befindet sich in folgendem Irrgarten: 1 2 3 4 5 6 7 8 9 Sie bewegt sich zufällig durch die Abteile, d.h. sind k Möglichkeiten zum Verlassen eines Abteils gegeben, so wählt sie eine von diesen mit Wahrscheinlichkeit k1 . Sie wechselt stets in ein angrenzendes Abteil. Der Zustand zur Zeit n ist die Nummer des Abteils, in dem die Ratte sich gerade befindet. Gib die Übergangsmatrix an. (1p) 4. Die Generation 0 einer Population bestehe aus einem Individuum, das sich mit Wahrscheinlichkeit pk in k Nachfahren teilt k ∈ N. Jeder dieser Nachfahren der Generation 1 teilt sich wiederum unabhängig von den anderen Individuen gemäß der Verteilung pk , k ∈ N in eine zufällige Anzahl von Nachfahren. Die Zufallsvariable Xn beschreibe die Anzahl der Individuen der n-ten Generation n ∈ N. Zeigen Sie, dass (Xn )n∈N eine Markov-Kette ist, und bestimmen Sie die zugehörige Übergangsmatrix. (1,5 p) 5. Mit einem Gegenbeispiel widerlegen Sie folgende Aussage : Ist (Xn )n∈N eine Markov-Kette mit Werten in S, so gilt P [Xn+1 = j|X0 ∈ A0 , . . . , Xn ∈ An ] = P [Xn+1 = j|Xn ∈ An ]. für alle j ∈ S und A0 , . . . , An ⊂ S mit P (X0 ∈ A0 , . . . , Xn ∈ An ) > 0. (1 p) 6. Drei Cowboys schießen aufeinander. Cowboy A trifft sein Ziel mit Wahrscheinlichkeit 32 , Cowboy B mit Wahrscheinlichkeit 12 und Cowboy C mit Wahrscheinlichkeit 13 . Die Schüsse werden immer gleichzeitig abgefeuert. Sobald einer der Cowboys getroffen ist, schießt er nicht mehr. Ist er unverletzt, so schießt er auf seinen stärksten Gegner (am Anfang schießt also A auf B, B auf A und C auf A). Der Prozeß Xn , n die Zeit des Schußwechsels, besitzt folgende Zustände: 0 A B C Xn = AC BC ABC alle sind getroffen, keiner schießt mehr nur A ist unverletzt nur B ist unverletzt nur C ist unverletzt A und C sind unverletzt, B getroffen B und C sind unverletzt, A getroffen alle drei sind unverletzt Berechne die Übergangsmatrix dieser Markoff-Kette. (1p) 7. Wie groß ist in Beispiel ?? die Wahrscheinlichkeit, daß der Kampf damit endet, daß A (bzw. B bzw. C) allein übrig bleibt? (1p) 8. In Beispiel ?? bildet die Zahl Yn der Unverletzten nach der n-ten Runde einen stochastischen Prozeß Y = (Yn ). Ist Y eine Markoff-Kette? (2p) Anleitung: Berechne die Wahrscheinlichkeiten P {Y4 = 0|Y3 = 2, Y2 = 3, Y1 = 3} und P {Y4 = 0|Y3 = 2, Y2 = 2, Y1 = 3} 9. Es sei Yn das Maximum der ersten n Ausgänge einer Folge unabhängiger Würfelexperimente. (Yn ∈ {1, 2, 3, 4, 5, 6}.) Ist (Yn ) eine Markoff-Kette? Berechne die Übergangsmatrix P und deren Potenzen. (1p) 10. Klassifiziere die Zustände des Markov-Prozesses mit der folgenden Übergangsmatrix: (1p) 0.8 0 0.2 0 0 0 1 0 . 1 0 0 0 0.3 0.4 0 0.3 11. Für den Markov-Prozess mit der folgenden Übergangsmatrix: 1 0 0 0 0 0 0, 5 0 0, 5 0 0 0 0, 1 0 0, 5 0, 3 0 0, 1 . 0 0 0 0, 7 0, 1 0, 2 1/3 0 0 1/3 1/3 0 0 0 0 0 0 1 (a) Identifizieren Sie die kommunizierenden Klassen und klassifizieren Sie die Zustände des Prozesses. (b) Bestimmen Sie die Periode für rekurrente Zustände. 12. Sei 1 1/2 0 1/4 1 1/5 1/4 2 2/5 1 2/5 3 Sei a0 (i) = Pi (T 0 < ∞) die Absorptionswahrscheinlichkeit im Zustand 0, wenn im Zustand i gestartet wird. Man berechne a0 (1), a0 (2) (1p) Anleitung: Die a0 (i) erfüllen folgende Gleichung: 1 4 + 1 2 a0 (1) + 1 4 a0 (2) a0 (2) = 0 + 1 5 a0 (1) + 2 5 a0 (2) a0 (1) = 13. Für den Markov-Prozess mit Zustandsraum S={0, 1, 2} und der folgenden Übergangsmatrix: 1 0 0 P = 0.1 0.6 0.3 0 0 1 Man berechne a0 (1). (a0 (i) = Pi (T 0 < ∞) ist die Absorptionswahrscheinlichkeit im Zustand 0, wenn im Zustand i gestartet wird.) (1p) 14. In the last question, determine the mean time to absorption i.e. the expected time starting in state 1 to enter one of the absorbing states {0, 2}. (1p) 15. A gambler has $2 and needs to increase it to $10 in ahurry. He can play a game with the following rules: a fair coin is tossed; if a player bets on the right side, he wins a sum equal to his stake, and his stake is returned; otherwise he loses his stake. The gambler decides to use a bold startegy in which he stakes all his money if he 5$ or less, and otherwise stakes just enough to increase his capital, if he wins, to $10. Let X0 = 2 and Xn be his capital after n throws. Prove that the gambler will achieve his aim with probability 1/5. (i.e. the probability of absorption to state ’10’ starting in state ’2’) (1,5 p) 16. In the previous question, what is the expected number of tosses until the gambler either achieves his aim or loses his capital. (1p) 17. Man berechne die stationäre Verteilung von (1p) 0 1/2 1/2 1/2 1/2 0 P = 1/2 0 1/2 18. Gibt es eine Markovkette mit genau zwei verschiedenen stationären Verteilungen? (1p) 19. Man berechne die stationäre Verteilung von 1 0 p 1 1−p (1p) p p 2 3 1−p 1−p 1−p 20. (a) Man zeige: Wenn cj = j X ck−1 cj−k c0 = 1, c1 = 1 k=1 und α(u) = ∞ X cj uj j=0 so ist α2 (u) = α(u) − 1 u d.h. α(u) = 1− √ 1 − 4u . 2u (b) Man betrachte eine Markovette mit Übergangsmatrix P gegeben durch pi j = i + 1 ri j=i Pij = qi j = i − 1 für i ≥ 1 und P01 = p0 , P00 = r0 . P∞ i−1 . Dann gilt: Es existiert eine stationäre Sei s = 1 + i=1 p0q···p 1 ···qi Verteilung genau dann, falls s < ∞ und in diesem Fall gilt p0 ···pi−1 1 für i > 0 q1 ···qi · s π(i) = 1 für i = 0 s (2p) 21. Betrachten Sie die Markovkette in (??) (1p) (a) Identifizieren Sie die kommunizierenden Klassen und klassifizieren Sie die Zustände des Prozesses wenn p = 1/4. (b) Bestimmen Sie die Periode für rekurrente Zustände. 22. For a Markov process with the transition 0.25 0, 75 0, 75 0, 25 0 0 matrix 0 0 1 (1p) (a) Find a stationary distribution. (b) Calculate mi = Ei τi (1), the expected return time to state ’i’ assuming the Markov chain started in state ’i’ where i=1,2,3. (c) Calculate limn→∞ P n 23. Man betrachte eine Markovette mit Zustandsraum I = {0, 1, 2, . . .} und Übergangsmatrix pi j =i+1 Pij = 1 − pi j=0 mit 0 < pi < 1 für alle i ≥ 0. Identifizieren Sie die kommunizierenden Klassen und klassifizieren Sie die Zustände des Prozesses. (1,5p) (n) Hint: If f00 denotes the probabilty of returning to 0 (starting in 0) for the P∞ (n) first time after n steps then f0 = P0 (T0 < ∞) = n=0 f00 . Distinguish the case when f0 is equal to 1, less than 1 and when mi = Ei (Ti ) < ∞. 24. Man berechne die Asymptotik des folgenden Prozesses: 0.5 2 1 0.3 0.5 0.4 3 0.7 0.6 4 0.2 0.8 Dazu berechnet man den Grenzwert von P 2, P 4, P 6, . . . (1p) und P, P 3 , P 5 , . . . . (1p) 25. Die Übergangsmatrix einer Markov-Kette (Xn ) mit Zustandsraum I = {1, 2} sei gegeben durch 1−α α Pij = β 1−β wobei 0 < α, β < 1. Berechnen Sie Pn , limn→∞ Pn , falls der Grenzwert existiert und die stationäre Verteilung von Xn . (1p) 26. Berechnen Sie Pn , limn→∞ Pn , falls der Grenzwert existiert und die stationäre Verteilung von Xn in (??) wenn α = β = 1. (1p) 27. Let Xn denote the fitness of the nth item produced by a production system with Xn = 0 meaning ’good’ and Xn = 1 meaning ’defective’. Suppose Xn is a Markov chain with transition probability matrix .99 .01 P = .12 88 What is the probability that the fifth item is defective given that the first item is defective? (1P) 28. Ein Würfel wird so modifiziert, dass bei zwei aufeinander folgenden Würfen nicht zwei idente Augenzahlen geworfen werden können, das heißt dass bei jedem Wurf eine Augenzahl ungleich der letzten Augenzahl geworfen wird. Die verbleibenden Möglichkeiten haben jeweils Wahrscheinlichkeit 1/5.Angenommen der erste Wurf ergibt 6. Wie hoch ist die Wahrscheinlichkeit p, dass beim vierten Wurf 6 gewürfelt wird. (1P) 1.1 Extra: Probability Generating Functions 29. Für eine diskrete Zufallsvariable X mit Verteilung P = {pk } (d.h. pk = P {X = k}, k = 0, 1, 2, . . .), ist die wahrscheinlichkeitserzeugende Funktion (probability generating function) definiert als GX (u) := ∞ X pk uk (= E(uX )). k=0 Berechnen Sie die PGF von X, (a) wenn X Bernoulli(p) verteilt ist. (b) wenn X Binomial(n,p) verteilt ist. (1P) Hinweis: Wenn X ∼ pk , Y ∼ qk und X, Y unabhängig sind, gilt, dass GX+Y (u) = GX (u).GY (u). (c) Zeigen Sie für unabhängige Poisson-verteilte Zufallsgrößen mit Parametern λ und µ: X ∼ P (λ), Y ∼ P (µ) ⇒ X + Y ∼ P (λ + µ) . (1P) 30. In Exercise ??, let C denote the family size i.e. P (C = k) = pk , and let G be the corresponding PGF. Show that the PGF of Xn is the n-th iterate of G i.e. Gn (u) = G(G(G(. . . (u)))) for n = 2, 3, . . .. (1P) 31. In the previous question, if G(u) = 0.4 + 0.2u + 0.4u2 , find the PGF of the sizes of generations one and two. Find also the chances of dying out (a) by the second generation; (b) in the second generation. 2 (1P) Markovketten mit stetiger Zeit 32. Man berechne durch Induktion die Verteilungsfunktion der Erlang(λ, k) Verteilung: k−1 X (tλ)i P (T1 + . . . + Tk ≤ t) = 1 − e−λt i! i=0 wobei Ti unabhängig identisch nach Exponential (λ) verteilt sind. Die Dichte der Erlang(λ, ki) Verteilung ist λk e−λu uk−1 . (k − 1)! (1p) 33. Aus dem vorigen Beispiel Schliesse man: Die Anzahl der Ereignisse eines Poisson Prozesses im Intervall [s, t] folgt einer Poissonverteilung P (Π(t) − Π(s) = k) = e−λ(t−s) (λ(t − s))k . k! (1p) 34. Man berechne die stationäre Verteilung des Prozesses mit der Intensitätsmatrix −9 6 3 2 Q = 4 −6 5 1 −6 (1p) 35. • Zeige: Die Summe zweier unabhängiger Poisson-Prozesse mit Intensitäten λ und µ ist ein Poisson-Prozeß mit Intensität λ + µ. (0p) • A spider climbs up an infinitely high wall. During day i, the spider climbs up Yi centimetres, where the Yi are i.i.d. (independent, identically distributed random variables) with Poisson distribution with parameter λ > 0. During the night, the spider slips back 1 centimetre. Let Xn be the net height gained after n days and nights. Show that e−nλ (nλ)n P r(Xn = 0) = n! (1p) 36. Zeige: Löscht man in einem Poissonprozess (Intensität λ) jedes Ereignis mit der Wahrscheinlichkeit p, so entsteht ein Poissonprozess mit Intensität (1 − p)λ. Was ist der Unterschied im Ergebnis zwischen der zufälligen Löschung mit Wahrscheinlichkeit 0.5 und der systematischen Löschung jedes zweiten Ereignisses ? (1,5 p) 37. Das Auftreten von Erdbeben in der Stadt A werde durch einen PoissonProzeß mit λ = 2 beschrieben. Der Schaden, den ein Erdbeben jeweils anrichtet, sei exponential verteilt mit Parameter µ = 10−5 (Zeiteinheit 1 Jahr, Geldeinheit 1 Euro). Berechne den mittleren Schaden pro Jahrzehnt. (1p) 38. Die eingebettete Markovkette: Wenn man in einer Markovkette mit stetiger Zeit nur die Sprünge, nicht aber die Verweildauern betrachtet, so entsteht die ”eingebettete Markovkette” mit der Übergangsmatrix qij i 6= j −qii S = (sij ) = 0 i=j Sei π die stationäre Verteilung der ursprünglichen Kette und ν jene der eingebetteten Kette, so gilt: νi = c(−qii )πi für eine Konstante c. (1p) 39. In an office telephone messages arrive according to a Poisson process at the mean rate of six per hour and fax messages at three per hour. (a) Find the probability that exactly two messages (phone or fax) are received between 9.00 and 9.40. (b) Find the probability that the first message after 10.00 occurs before 10.10. 40. Customers arrive at a bank according to a Poisson process at a mean rate of λ = 10 per minute. A proportion 0.6 wish to draw out money (type A), 0.3 wish to pay in money (type B) and 0.1 wish to do something else (type C). (a) If twenty customers arrive in two minutes, what is the probability that just one is of type C? (b) How amount of time must elapse before at least one customer each of type A and B will have arrived with a probability of 0.9.?