MARKOVKETTEN: THEORETISCHE GRUNDLAGEN, BEISPIELE UND SIMULATIONEN MIT MAPLE KLAUS JANSSEN, HANNS KLINGER UND REINHOLD MEISE Zusammenfassung. Seit einiger Zeit wird angeregt, Markovketten in der gymnasialen Oberstufe zu behandeln. Weil viele Lehrerinnen und Lehrer aufgrund ihrer Ausbildung mit diesem Bereich der Stochastik nicht so vertraut sind, stellen wir in dem vorliegenden Artikel die theoretischen Grundlagen für homogene Markovketten dar und gehen auf einige Beispiele und Fragestellungen ein. Um das Verhalten von Markovketten erfahrbar zu machen, stellen wir außerdem eine MAPLE-Datei zur Verfügung, die es erlaubt, die verschiedenen Beispiele zu simulieren. 1. Einleitung In vielen Anwendungen ist es sinnvoll und notwendig, die zeitliche Entwicklung eines gegebenen Systems mit verschiedenen Zuständen als zufällig zu modellieren. Der einfachste Ansatz dafür besteht darin, mit einer Folge unabhängiger Zufallsvariablen zu arbeiten. Weil die Unabhängigkeit häufig nicht gegeben ist, geht man in dem nächst einfachen Ansatz davon aus, dass die künftige zufällige Entwicklung des Systems nur von dem aktuellen Zustand und nicht von seiner Vorgeschichte abhängt. Folgen von Zufallsvariablen, die ein derartiges Verhalten haben, nennt man Markovketten. Sie haben sich in vielen Situationen als angemessene Beschreibung für die zufällige Entwicklung von Systemen erwiesen. Die Theorie der Markovketten enthält eine Fülle von praktisch anwendbaren und auch theoretischen Ergebnissen. Dieser Sachverhalt mag ein Grund dafür gewesen sein, dass die Richtlinien für den MathematikUnterricht in der Sekundarstufe II des Landes Nordrhein-Westfalen die Behandlung von Markovketten empfehlen. Dadurch sollen auch Querverbindungen zwischen der Stochastik und der linearen Algebra aufgezeigt werden. In der Praxis dürfte diese Empfehlung nicht so einfach zu realisieren sein, da in der üblichen Lehrerausbildung nur selten stochastische Prozesse behandelt werden. Durch Umfragen im Zusammenhang mit Fortbildungsveranstaltungen stellte sich heraus, dass eine gewisse Nachfrage zu dem Thema besteht. Dies hat die Autoren dazu angeregt, die mathematischen Grundlagen darzustellen, die für eine exakte Definition von Markovketten benötigt werden. Darüberhinaus werden wichtige Aussagen und erste Beispiele behandelt. Die Beispiele sind so gewählt, dass sie sowohl durch kleine Experimente realisiert als auch exakt berechnet werden können. Außerdem zeigen sie, in welcher Weise Querverbindungen zwischen Markovketten, linearer Algebra und Analysis bestehen. Auf Beispiele mit praktischen Anwendungen gehen wir nicht ein, da solche recht kompliziert sind und die Markov-Eigenschaft häufig nur unterstellt, aber nicht begründet wird. Die behandelten Beispiele kann man zur Veranschaulichung am Rechner simulieren, wenn man die MAPLE-Datei benutzt, welche die Autoren zur Verfügung stellen. Sie steht im Internet unter www.math.uni-duesseldorf.de/∼meise/maple.html und kann dort abgeholt werden. 2. Grundlegende Begriffe Behandelt man Fragen der Stochastik in der Oberstufe, so beschränkt man sich in der Regel auf abzählbare Wahrscheinlichkeitsräume, um komplizierte Begriffsbildungen zu vermeiden. 1 2 K. JANSSEN, H. KLINGER UND R. MEISE Eine präzise Definition von Markovketten erfordert aber überabzählbare Grundräume und Wahrscheinlichkeitsmaße, die auf σ-Algebren definiert sind. Betrachtet man allerdings nur Markovketten innerhalb eines festen Zeithorizonts, so kommt man mit dem elemantaren Konzept von Wahrscheinlichkeitsmaßen auf der Potenzmenge einer endlichen Menge aus. Dann lassen sich aber interessante Grenzwertaussagen nicht oder nur schwerfällig formulieren. Im Folgenden stellen wir die benötigten allgemeinen Begriffe vor und verweisen für die Details auf die Lehrbuchliteratur (z. B. Engel [3], Henze [5], Krengel [9]). 2.1. Definition. Ist Ω eine nicht-leere Menge, so bezeichnet man mit P(Ω) die Potenzmenge von Ω, d.h., die Menge aller Teilmengen von Ω. Eine Teilmenge A von P(Ω) heißt σ-Algebra, falls A die folgenden Eigenschaften hat: (1) Ω ∈ A. (2) Ist A ∈ A, so ist auch Ω \ A ∈ A. S (3) Für jede Folge (Aj )j∈N in A ist auch j∈N Aj in A. Bemerkung. Ist A eine σ-Algebra, so folgert man leicht T aus 2.1 (1)–(3), dass die leere Menge ∅ zu A gehört, und dass mit jeder Folge (Aj )j∈N in A auch j∈N Aj in A ist. Insbesondere gehören daher mit A und B auch A ∪ B sowie A ∩ B zu A. 2.2. Definition. Ein Wahrscheinlichkeitsraum (Ω, A, P ) besteht aus einer nicht-leeren Menge Ω, einer σ-Algebra A ⊂ P(Ω) und einem Wahrscheinlichkeitsmaß P auf A. Letzteres bedeutet, dass P : A → [0, 1] die folgenden Eigenschaften hat (1) P (Ω) = 1. (2) P ist σ-additiv, d. h. für jede Folge (Aj )j∈N in A, für die Aj ∩ Ai = ∅ ist für alle j 6= i, gilt ∞ ∞ [ X P( Aj ) = P (Aj ). j=1 j=1 2.3. Beispiele. (1) Ist A eine endliche Menge, so bezeichnet man mit #A die Anzahl der Elemente von A. Ist Ω 6= ∅ eine endliche Menge, so definiert man auf P(Ω) das Laplacesche Wahrscheinlichkeitsmaß PL durch #A PL (A) := . #Ω Dann ist (Ω, P(Ω), PL ) ein Wahrscheinlichkeitsraum. (2) Ist Ω eine nicht-leere Menge, und E ⊂ P(Ω), so gibt es eine kleinste σ-Algebra σ(E) ⊂ P(Ω), welche E enthält. Dies folgt aus der leicht einzusehenden Tatsache, dass der Durchschnitt von σ-Algebren wieder eine σ-Algebra ist. Ist Ω = Rn , so definiert man die σ-Algebra B(Rn ) aller Borelmengen in Rn als die kleinste σ-Algebra in P(Rn ), welche alle abgeschlossenen Teilmengen des Rn enthält. Wie man leicht nachprüft, gilt für O := {G ⊂ Rn : G ist offen} und K := {K ⊂ Rn : K ist kompakt}: B(Rn ) = σ(O) = σ(K). (3) Ist λ : B(R) → [0, ∞] das Lebesgue-Maß auf R, und definiert man Z 1 1 P : B(R) → [0, 1], P (A) := dλ(x), 2 A π1+x so ist (R, B(R), P ) ein Wahrscheinlichkeitsraum. 2.4. Definition. Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum, so definiert man für B ∈ A mit P (B) > 0 das bedingte Wahrscheinlichkeitsmaß P (· | B) : A → [0, 1] durch die bedingten MARKOVKETTEN 3 Wahrscheinlichkeiten P (A ∩ B) , A ∈ A. P (B) Offenbar ist P (· | B) dann ein Wahrscheinlichkeitsmaß auf (Ω, A). P (A | B) := Bezeichnungen. Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum und sind X, Y : Ω → R Funktionen, so setzt man für M ⊂ R {X ∈ M } := {ω ∈ Ω : X(ω) ∈ M }. Ist M = {a}, so schreibt man {X = a} statt {X ∈ {a}}. Sind die betreffenden Mengen in A, so schreibt man P (X ∈ M ) statt P ({X ∈ M }) und P (Y = b | X = a) anstelle von P ({ω ∈ Ω : Y (ω) = b} | {ω ∈ Ω : X(ω) = a}). 2.5. Definition. Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum, so heißt X : Ω → R eine reelle Zufallsvariable auf Ω, falls X A-meßbar ist, d.h., falls für jedes t ∈ R gilt {X ∈ ]−∞, t]} ∈ A. Ist X eine Abbildung von Ω in eine höchstens abzählbare Menge, so nennt man X eine Zufallsvariable, falls {X = b} ∈ A gilt für alle R b in dem Wertebereich von X. Ist X eine reelle Zufallsvariable, für die Ω |X|dP < ∞ gilt, so definiert man den Erwartungswert E(X) von X als Z XdP. E(X) := Ω 2.6. Beispiel. Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω → R eine Zufallsvariable, die höchstens abzählbar viele Werte annimmt, so besitzt X einen Erwartungswert genau dann, P wenn die Reihe b∈X(Ω) |b| · P (X = b) konvergiert, und es gilt X E(X) = b · P (X = b). b∈X(Ω) 2.7. Heuristische Einführung von Markovketten. Gegeben sei ein System, welches die Zustände 1, 2, . . . , k, k ≥ 2 annehmen kann. Zu sukzessiven diskreten Zeitpunkten ändert das System auf zufällige Weise seinen Zustand. Der zeitliche Ablauf der Systemzustände ist dann eine Folge, welche aus den Zahlen 1 bis k besteht, die für k = 3 etwa so aussieht: 2, 1, 3, 1, 1, 2, 3, 1, 3, 1, 2, . . . . Will man Aussagen über alle möglichen Zustandsfolgen herleiten, z. B. darüber, wie häufig das System im Mittel im Zustand j ist, so muß man Annahmen über die Wahrscheinlichkeiten von Zustandsänderungen machen. Von A. A. Markov (1856 - 1922) stammt die folgende MarkovBedingung: Die Zustandsänderung des Systems zur Zeit n nach n+1 hängt nur davon ab, in welchem Zustand sich das System zur Zeit n befindet. Ist das System zur Zeit n im Zustand i, so wird es mit Wahrscheinlichkeit pij (n) in den Zustand j übergehen. Die Markovbedingung impliziert also, dass die Vorgeschichte des Ablaufs keine Rolle bei der Zustandsänderung spielt, sondern nur der aktuelle Zustand und die Zeit bestimmen, wie die Änderung erfolgt. Für die Anwendungen ist es wichtig, auch abzählbare Zustandsräume zuzulassen. Die präzise Fassung der heuristischen Überlegung führt dann zu der folgenden Definition. 2.8. Definition. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, F eine höchstens abzählbare Menge, genannt der Zustandsraum. Eine Folge (Xn )n∈N0 von Zufallsvariablen auf Ω mit Werten in F heißt Markovkette, falls die folgende Bedingung erfüllt ist: (2.1) Für jedes n ∈ N0 und i0 , . . . , in+1 ∈ F mit P (X0 = i0 , . . . , Xn = in ) > 0 gilt P (Xn+1 = in+1 | Xn = in ) = P (Xn+1 = in+1 | Xn = in , . . . , X0 = i0 ). 4 K. JANSSEN, H. KLINGER UND R. MEISE Man nennt P (Xn+1 = in+1 | Xn = in ) die Übergangswahrscheinlichkeit zur Zeit n vom Zustand in in den Zustand in+1 . Hängen die Übergangswahrscheinlichkeiten nicht von n ab, so spricht man von einer homogenen Markovkette. Im weiteren werden wir uns nur mit homogenen Markovketten befassen. Das folgende Beispiel ist mit Absicht einfach gehalten. Wie wir in 3.14 zeigen werden, kann man es dazu benutzen, das Auftreten gewisser Muster bei Münzwurfserien zu modellieren. 2.9. Beispiel. Als Beispiel betrachten wir ein System mit den drei Zuständen 1, 2 und 3. Die Übergänge des Systems von einem Zustand in einen anderen werden für 0 < p < 1 und q := 1−p durch das folgende Zustandsdiagramm beschrieben: 2 p q ? 1 q @ I @ @@ @@ p@@p @@ @@ R @ @ q 3 p Dabei bedeutet i −→ j, dass das System mit Wahrscheinlichkeit p in den Zustand j übergeht, wenn es sich im Zustand i befindet. Man möchte z. B. wissen, wie häufig sich das System im Mittel im Zustand i befindet. Damit wir diese Frage beantworten können, klären wir zunächst, warum bei der Betrachtung von Markovketten Konzepte aus der linearen Algebra auftreten. 3. Stochastische Matrizen und Markovketten Um aufzuzeigen, wie homogene Markovketten mit endlichem Zustandsraum F mit stochastischen Matrizen zusammenhängen, erinnern wir zunächst an einige Definitionen aus der linearen Algebra. 3.1. Definition. (a) Eine Familie A := (aij )i=1,...,m,j=1,...n reeller Zahlen bezeichnet man als eine reelle m × n-Matrix. (b) Ist B = (bij )i=1,...,n,j=1,...,k eine reelle n × k-Matrix, so definiert man für A wie in (a) das Produkt C := AB als diejenige m × k-Matrix, für die gilt cij = n X aiν bνj , 1 ≤ i ≤ m, 1 ≤ j ≤ k. ν=1 (zi )m i=1 Für Zeilenvektoren z = und Spaltenvektoren s = (sj )nj=1 ist damit auch festgelegt, was man unter zA und As zu verstehen hat; man interpretiert einfach z als 1 × m-Matrix und s als n × 1-Matrix. (c) Ist k ∈ N, so bezeichnet man die Matrix I := (δij )ki,j=1 als die k × k-Einheitsmatrix. Ist A eine k × k-Matrix, so definiert man A0 := I und An+1 := AAn , n ∈ N0 . (d) Zwei m × n-Matrizen A und B werden addiert vermöge der Festsetzung (A + B)i,j := aij + bij , 1 ≤ i ≤ m, 1 ≤ j ≤ n. Bemerkung. Die Multiplikation von Matrizen ist i.a. nicht kommutativ. Man zeigt leicht, dass für k × k-Matrizen A und n, m ∈ N0 gilt: An Am = An+m . MARKOVKETTEN 5 3.2. Definition. (a) Ein Zeilenvektor z = (z1 , . . . , zk ) heißt stochastischer Vektor, falls zi ≥ 0 P für 1 ≤ i ≤ k und ki=1 zi = 1. (b) Eine reelle m × k-Matrix A = (aij )i=1,...,m,j=1,...,k heißt stochastische Matrix, falls alle ihre Zeilenvektoren (ai,j )kj=1 , 1 ≤ i ≤ m, stochastische Vektoren sind. Eine Interpretation stochastischer Vektoren liefert die folgende Bemerkung. 3.3. Bemerkung. Sei F = {1, . . . , k} eine endliche Menge und µ ein Wahrscheinlichkeitsmaß auf (F, P(F )). Dann ist µ bekanntlich durch seine Zähldichte µi := µ({i}), i ∈ F , eindeutig bestimmt und der Zeilenvektor µ = (µi )ki=1 ist offenbar ein stochastischer Vektor. Umgekehrt k liefert jeder stochastische Vektor Pz = (zi )i=1 ein Wahrscheinlichkeitsmaß µz auf P(F ), welches für A ∈ P(F ) durch µz (A) := i∈A zi definiert ist. Offenbar ist die Zähldichte von µz gerade der Vektor z. Wir werden daher im weiteren zwischen dem Maß µ und dem Vektor (µi )ki=1 nicht mehr unterscheiden. Um einen Zusammenhang zwischen stochastischen Vektoren und Matrizen und homogenen Markovketten (Xn )n∈N0 mit endlichem Zustandsraum herzuleiten, bemerken wir, dass man ohne Einschränkung den Zustandsraum F minimal wählen kann. Wir setzen daher im weiteren voraus, dass es zu jedem i ∈ F ein n ∈ N0 gibt mit P (Xn = i) > 0. 3.4. Definition. Sei (Xn )n∈N0 eine homogene Markovkette mit minimalem Zustandsraum F = {1, . . . , k} auf dem Wahrscheinlichkeitsraum (Ω, A, P ). (a) Für j ∈ F setzt man πj := P (X0 = j) und bezeichnet den Zeilenvektor π := (πj )kj=1 als die Startverteilung der Markovkette. (b) Für i ∈ F und n ∈ N0 mit P (Xn = i) > 0 setzt man pij := P (Xn+1 = j | Xn = i). Weil die Markovkette homogen ist, hängt pij nicht von n ab. Die Matrix M := (pij )ki,j=1 bezeichnet man als die Übergangsmatrix der Markovkette. 3.5. Bemerkung. Unter den Voraussetzungen von 3.4 ist die Startverteilung π der Markovkette (Xn )n∈N0 ein stochastischer Vektor, und die Übergangsmatrix M ist eine stochastische Matrix. S Dabei folgt die erste Aussage aus Ω = {X0 ∈ F } = kj=1 {X0 = j}. Die zweite folgt analog, da für i ∈ F und n ∈ N mit P (Xn = i) > 0 die bedingte Wahrscheinlichkeit A 7→ P (A | Xn = i) ein Wahrscheinlichkeitsmaß auf A ist. Der folgende Satz zeigt, dass die Startverteilung π und die Übergangsmatrix M einer homogenen Markovkette (Xn )n∈N0 bereits das Verhalten der Markovkette festlegen. 3.6. Satz. Sei (Xn )n∈N eine homogene Markovkette mit minimalem Zustandsraum F = {1, . . . , k} auf dem Wahrscheinlichkeitsraum (Ω, A, P ) mit Startverteilung π und Übergangsmatrix M . Dann gilt für n ∈ N0 und i0 , i1 , . . . , in ∈ F : (3.1) P (X0 = i0 , X1 = i1 , . . . , Xn = in ) = πi0 pi0 i1 · · · pin−1 in . Beweis. Um die Aussage durch Induktion nach n ∈ N0 zu beweisen, bemerken wir zunächst, dass sie für n = 0 nach Definition der Startverteilung π richtig ist. Nehmen wir an, dass (3.1) für n ∈ N0 bereits bewiesen ist und fixieren wir i0 , . . . , in+1 ∈ F , so sind zwei Fälle zu unterscheiden: 1. Fall: P (X0 = i0 , . . . , Xn = in ) 6= 0. 6 K. JANSSEN, H. KLINGER UND R. MEISE Dann erhält man aus der Definition bedingter Wahrscheinlichkeiten, der Markov-Bedingung (2.1) und der Induktionsannahme P (X0 = i0 , . . . , Xn+1 = in+1 ) = P (Xn+1 = in+1 | Xn = in , . . . , X0 = i0 ) · P (Xn = in , . . . , X0 = i0 ) = P (Xn+1 = in+1 | Xn = in ) · πi0 pi0 i1 . . . pin−1 in = πi0 pi0 i1 . . . pin in+1 . 2. Fall: P (X0 = i0 , . . . , Xn = in ) = 0. Dann gilt 0 ≤ P (X0 = i0 , . . . , Xn+1 = in+1 ) ≤ P (X0 = i0 , . . . , Xn = in ) = 0 und daher P (X0 = i0 , X1 = i1 , . . . , Xn+1 = in+1 ) = 0 = πi0 pi0 i1 · · · pin in+1 auch in diesem Fall. Der folgende Satz zeigt, dass man die Zähldichte der Verteilung von Xn aus der Startverteilung und der Übergangsmatrix M berechnen kann. 3.7. Satz. Sei (Xn )n∈N eine homogene Markovkette mit minimalem Zustandsraum F = {1, . . . , k} auf dem Wahrscheinlichkeitsraum (Ω, A, P ) mit Startverteilung π und Übergangsmatrix M . Dann gilt für n ∈ N0 : (3.2) P (Xn = j) = k X πi (M n )ij für alle j ∈ F. i=1 Beweis. Um (3.2) durch Induktion zu beweisen, beachten wir, dass M 0 per Definition die k × kEinheitsmatrix ist. Daher gilt (3.2) für n = 0 nach Definition der Wahrscheinlichkeiten πi , 1 ≤ i ≤ k. Ist (3.2) für n ∈ N0 bereits bewiesen, so setzen wir F 0 := {l ∈ F : P (Xn = l) 6= 0}. Weil P ein Wahrscheinlichkeitsmaß auf A ist, folgt dann aus [ ˙ {Xn+1 = j} = {Xn+1 = j, Xn = l}, l∈F der Definition bedingter Wahrscheinlichkeiten und (3.2): X X P (Xn+1 = j) = P (Xn+1 = j, Xn = l) = P (Xn+1 = j, Xn = l) l∈F 0 l∈F = X P (Xn = l)P (Xn+1 = j | Xn = l) l∈F 0 = = X k X l∈F 0 i=1 k X i=1 πi ! n πi (M )il k X l=1 plj = k k X X l=1 ! (M n )il plj = k X ! n πi (M )il plj i=1 πi (M n+1 )ij . i=1 In den bisherigen Betrachtungen sind wir davon ausgegangen, dass eine homogene Markovkette (Xn )n∈N0 mit minimalem endlichem Zustandsraum gegeben ist. Wie die Sätze 3.6 und 3.7 zeigen, sind dann wichtige Größen der Markovkette durch ihre Startverteilung π und ihre Übergangsmatrix M festgelegt. Daher ist die Vermutung naheliegend, dass es zu jedem stochastischen Vektor π (der Länge k) und jeder stochastischen k × k-Matrix M eine Markovkette (Xn )n∈N0 gibt, so dass π deren Startverteilung und M deren Übergangsmatrix ist. Diese Vermutung ist richtig, allerdings kann man sie nur dann elementar beweisen, wenn man sich auf einen endlichen Zeithorizont N ∈ N0 beschränkt. Will man eine Markovkette (Xn )n∈N0 mit ganz N0 als MARKOVKETTEN 7 Parameterbereich für die Zeit konstruiueren, so ist erheblicher maßtheoretischer Aufwand nötig. Im Folgenden stellen wir beide Aspekte vor. 3.8. Lemma. Für k ∈ N, k ≥ 2, seien π = (πj )kj=1 ein stochastischer Vektor, M = (pij )ki,j=1 eine stochastische Matrix und N ∈ N0 gegeben. Dann gelten folgende Aussagen für F = {1, . . . , k}. (a) Es gibt ein Wahrscheinlichkeitsmaß QN auf (F N +1 , P(F N +1 )), dessen Zähldichte gegeben ist durch qi0 ,...,iN := πi0 pi0 i1 · · · piN −1 iN für (i0 , i1 , . . . , iN ) ∈ F N +1 . (b) Für 0 ≤ n ≤ N sei Yn : F N +1 → F definiert durch Yn (i0 , . . . , iN ) = in . Dann gelten: (i) QN (Y0 = j) = πj für jedes j ∈ F . (ii) QN (Yn+1 = j | Yn = i) = pij für i, j ∈ F und n < N mit QN (Yn = i) > 0. (c) Für jedes n < N und jedes (i0 , . . . , in+1 ) ∈ F n+2 mit QN (Y0 = i0 , . . . , Yn = in ) > 0 gilt QN (Yn+1 = in+1 | Yn = in , . . . , Y0 = i0 ) = QN (Yn+1 = in+1 | Yn = in ). Beweis. (a) Offenbar ist qi0 ,...,iN ≥ 0 für jede Wahl von i0 , . . . , iN in F . Es bleibt zu zeigen, dass all diese Zahlen sich zu 1 aufsummieren. Dies folgt durch vollständige Induktion, da das Produkt eines stochastischen Zeilenvektors mit einer passenden stochastischen Matrix wiederum ein stochastischer Zeilenvektor ist: k k X X Induktionsanfang N = 0: qi = πi = 1. i=1 i=1 Induktionsschluss von N auf N + 1: Weil M eine stochastische Matrix ist, folgt aus der Induktionsannahme: X X X qi0 ,...,iN +1 = qi0 ,...,iN piN iN +1 = 1. (i0 ,...,iN +1 )∈F N +2 iN +1 ∈F (i0 ,...,iN )∈F N +1 (b), (c) Offenbar ist {Y0 = j} = {(j, i1 , . . . , iN ) : i1 , . . . , iN ∈ F }. Weil mit M auch M N eine stochastische Matrix ist, gilt daher QN (Y0 = j) = X πj · pj i1 · · · piN −1 iN = i1 ,...,iN ∈F k X πj (M N )jν = πj . ν=1 Für n < N und i0 , . . . , in+1 ∈ F gilt offenbar {Y0 = i0 , . . . , Yn+1 = in+1 } = {(i0 , . . . , iN ) : in+2 , . . . , iN ∈ F }. Daher erhält man aus dem obigen Argument durch Induktion nach n: X QN (Y0 = i0 , . . . , Yn+1 = in+1 ) = πi0 · pi0 i1 · · · piN −1 iN in+2 ,...,iN ∈F = (3.3) k X πi0 · pi0 i1 · · · pin in+1 (M N −n−1 )in+1 ,ν = πi0 · pi0 i1 · · · pin in+1 . ν=1 Ist QN (Y0 = i0 , . . . , Yn = in ) > 0, so folgt aus der Definition der bedingten Wahrscheinlichkeit und (3.3) QN (Yn+1 = in+1 | Yn = in , . . . , Y0 = i0 ) = QN (Yn+1 = in+1 , . . . , Y0 = i0 ) = pin in+1 . QN (Yn = in , . . . , Y0 = i0 ) Ist QN (Yn = i) > 0, so folgt analog aus (3.3) QN (Yn+1 QN (Yn+1 = j, Yn = i) = j | Yn = i) = = QN (Yn = i) P i ,...,in−1 ∈F 0 P πi0 · pi0 i1 · · · pin−1 i · pij i0 ,...,in−1 ∈F πi0 · pi0 i1 · · · pin−1 i = pij . 8 K. JANSSEN, H. KLINGER UND R. MEISE Nach dieser elementaren Konstruktion von ”Markovketten mit endlichem Zeithorizont” soll nun skizziert werden, wie man Markovketten zum Zeitbereich N0 konstruiert. Dies ist nicht mehr elementar möglich, sondern erfordert den gleichen maßtheoretischen Aufwand wie die Konstruktion des Borel-Lebesgue-Maßes. 3.9. Theorem. Seien F eine endliche Menge mit k-Elementen, π ein stochastischer k-Vektor und M eine stochastische k × k-Matrix. Dann existiert ein Wahrscheinlichkeitsraum (Ω, A, P ) sowie eine darauf definierte Folge (Xn )n∈N0 von Zufallsvariablen mit Werten in F , so dass (Xn )n∈N0 eine homogene Markovkette mit Startverteilung π und Übergangsmatrix M ist. Beweisskizze. a) Konstruktion von Ω, (Xn )n∈N0 und A: Sei Ω = F N0 = {(in )n∈N0 : in ∈ F für alle n ∈ N0 } der Raum aller ”möglichen Verläufe” der gesuchten Markovkette. Ω ist nicht abzählbar für k > 1 (wie man z.B. aus der dyadischen Entwicklung der reellen Zahlen in (0, 1) folgert). Wir definieren für n ∈ N0 die Abbildung Xn : Ω → F als die Projektion auf die n-te Komponente, d.h. für ω = (iν )ν∈N0 ∈ Ω ist Xn (ω) = in . Für N ∈ N0 sei [ {X0 = i0 , . . . , XN = iN } : A ∈ P(F N +1 )}. AN := { (i0 ,...,iN )∈A Man sieht leicht: AN ist die kleinste σ-Algebra von Teilmengen von Ω, so dass die Abbildungen X Sn mit n ≤ N messbarSsind. Die zu konstruierende σ-Algebra A ⊂ P(Ω) muss also mindestens N ∈N0 AN enthalten. N ∈N0 AN ist selber keine σ-Algebra, aber es existiert eine kleinste σAlgebra A mit AN ⊂ A für alle N ∈ N0 . Bezüglich dieser σ-Algebra A ist dann jedes Xn eine Zufallsvariable. b) Konstruktion von P : Man sieht leicht, dass für N ∈ N0 durch ”Transport der Struktur” das Wahrscheinlichkeitsmaß QN (aus Lemma 3.8) auf (F N +1 , P(F N +1 )) in ein Wahrscheinlichkeitsmaß PN auf (Ω, AN ) überführt wird gemäß PN ((X0 , . . . , XN ) ∈ A) := QN (A) für A ∈ P(F N +1 ). Dieses Wahrscheinlichkeitsmaß ist festgelegt durch PN (X0 = i0 , . . . , XN = iN ) = πi0 · pi0 i1 · · · piN −1 iN für alle i0 , . . . , iN ∈ F. Offenbar verhalten sich die Zufallsvariablen X0 , . . . , XN bezüglich PN genauso wie die Zufallsvariablen Y0 , . . . , YN aus Lemma 3.8 bezüglich QN . Überdies ist AN ⊂ AN +1 und die Restriktion von PN +1 auf AN ist gleich PN wegen PN +1 (X0 = i0 , . . . , XN = iN ) = k X PN +1 (X0 = i0 , . . . , XN = iN , XN +1 = j) j=1 = k X πi0 · pi0 i1 · · · piN j = πi0 · pi0 i1 · · · piN −1 iN j=1 = PN (X0 = i0 , . . . , XN = iN ), Pk da j=1 piN j = 1 gilt. Somit bleibt ”nur noch” zu zeigen: Auf (Ω, A) existiert ein Wahrscheinlichkeitsmaß P für dessen Restriktion P |AN = PN gilt. Dies lässt sich in der Tat mit einigem Aufwand zeigen, z.B. durch Anwendung des Fortsetzungssatzes von Caratheodory (vgl. Bauer [1], Satz I.5.6). 3.10. Bemerkung. Ist das Borel-Lebesgue-Maß auf R bekannt, so lässt sich eine Markovkette zu gegebenem stochastischem Vektor π = (πi )ki=1 und gegebener stochastischer Matrix M = (pij )ki,j=1 elementar wie folgt konstruieren (siehe Behrends [2], Remark auf S. 8): Als Wahrscheinlichkeitsraum wählt man Ω = [0, 1[ versehen mit der σ-Algebra A = σ({[a, b[: 0 ≤ a < b < 1}) MARKOVKETTEN 9 der borelschen Mengen und dem Borel-Lebesgue-Maß P auf (Ω, A). Wir zerlegen zunächst [0, 1[ in k disjunkte Intervalle A1 , . . . , Ak der Länge π1 , . . . , πk und definieren X0 : Ω → {1, . . . , k} durch X0 (ω) = i für ω ∈ Ai . Offenbar ist dann P (X0 = i) = P (Ai ) = πi für 1 ≤ i ≤ k. Anschließend zerlegen wir jedes Intervall Ai der Länge πi in Teilintervalle Aij der Länge πi pij für 1 ≤ j ≤ k. Durch Fortführen dieses Verfahrens konstruiert man induktiv zu n ∈ N und i0 , . . . , in ∈ {1, . . . , k} Intervalle Ai0 i1 ···in der Länge πi0 · pi0 i1 · · · pin−1 in und definiert Xn (ω) := in für ω ∈ Ai0 i1 ...in . Man rechnet leicht nach, dass (Xn )n≥0 eine homogene Markovkette zur Startverteilung π und Übergangsmatrix M ist. 3.11. Beispiel. Wir nehmen nun die Fragestellung aus Beispiel 2.9 wieder auf. Die Angaben in dem dortigen Zustandsdiagramm liefern die stochastische Matrix q p 0 M = (pij )i,j=1,2,3 = q 0 p . q p 0 Nach Theorem 3.9 gibt es zu jeder Startverteilung π = (πi )ki=1 und jeder stochastischen Matrix M = (pij )ki,j=1 einen Wahrscheinlichkeitsraum (Ω, A, P ) und eine darauf definierte homogene Markovkette (Xn )n∈N0 , deren Übergangsmatrix M ist. Weil nach Satz 3.7 die Wahrscheinlichkeit P (Xn = j) mithilfe der Matrix M n aus der Startverteilung π berechnet werden kann, benutzen wir MAPLE, um M 10 , M 20 und M 30 zu berechnen. Wir erhalten für p = q = 12 M 10 0.5000000000 0.3330078125 0.1669921875 = 0.5000000000 0.3339843750 0.1660156250 0.5000000000 0.3330078125 0.1669921875 M 20 0.5000000000 0.3333330154 0.1666669846 = 0.5000000000 0.3333339691 0.1666660309 0.5000000000 0.3333330154 0.1666669846 M 30 0.5000000000 0.3333333330 0.1666666670 = 0.5000000000 0.3333333340 0.1666666660 0.5000000000 0.3333333330 0.1666666670 Diese Rechnung legt die Vermutung nahe, dass die Folge (M n )n∈N gegen eine Grenzmatrix M ∞ konvergiert, in der alle Zeilen aus dem gleichen stochastischen Vektor bestehen. Um die Bedeutung dieses Vektors experimentell zu klären, benutzen wir eine Simulation der Markovkette, um für R-malige Realisierungen der Kette bei gegebener endlicher Länge zu bestimmen, wie häufig im Mittel der Zustand j vorliegt. Die Simulation zeigt bei großem R, dass die relativen Häufigkeiten sehr dicht bei den entsprechenden Komponenten der Zeilen von M ∞ liegen. Damit haben wir in einem Beispiel einen Sachverhalt beobachtet, welcher ein Spezialfall des folgenden Satzes ist. 3.12. Satz. Sei M = (pij )ki,j=1 eine stochastische Matrix, zu der es ein ν ∈ N gibt, so dass alle Elemente von M ν positiv sind. Dann gelten die folgenden Aussagen: (a) Es gibt genau einen stochastischen Zeilenvektor z mit der Eigenschaft z = zM . (b) Die Folge (M n )n∈N konvergiert komponentenweise gegen die stochastische Matrix M ∞ , deren Zeilenvektoren alle gleich dem Vektor z aus (a) sind. 10 K. JANSSEN, H. KLINGER UND R. MEISE (c) Ist (Xn )n∈N0 eine homogene Markovkette mit der Übergangsmatrix M und der Startverteilung π = (δi0 i )ki=1 für ein i0 mit 1 ≤ i0 ≤ k, und definiert man die Zufallsvariable T durch T := inf{n ∈ N : Xn = i0 }, so gilt für den Erwartungswert E(T ) von T und z aus (a): 1 E(T ) = . zi0 Beweis: Siehe Krengel [9] 16.1 und 17.9. Die Zufallsvariable T aus 3.12 (c) wird als Wiederkehrzeit in den Startpunkt bezeichnet. Ist (Xn )n∈N0 eine homogene Markovkette mit der Übergangsmatrix M und der Startverteilung z mit z = zM , so nennt man z auch stationäre Verteilung von (Xn )n∈N0 . Denn nach Satz 3.7 stimmt für jedes n ∈ N die Verteilung der Zufallsvariablen Xn mit z überein, d. h. es gilt (P (Xn = j))kj=1 = z. 3.13. Bemerkung. Der Satz 3.12 liefert die theoretische Bestätigung für die bei der Simulation beobachteten Ergebnisse. Denn setzt man p := q := 21 bei der in Beispiel 3.11 angegebenen Matrix, so berechnet sich der stochastische Zeilenvektor z aus Satz 3.12 (a) als z = ( 21 , 13 , 16 ). Nach dem Gesetz der großen Zahlen folgt daher aus Satz 3.12 (c) (s. auch Bemerkung 4.2), dass das System nach Start im Zustand i im langfristigen Mittel nach z1i Schritten erstmals wieder im Zustand i sein wird für i = 1, 2, 3. Konkret heißt dies, dass das System sich etwa zur Hälfte aller Zeiten im Zustand 1, zu einem Drittel aller Zeiten im Zustand 2 und nur zu einem Sechstel aller Zeiten im Zustand 3 befinden wird. Damit ist die in Beispiel 2.9 gestellte Frage beantwortet und zugleich eine Methode zur Berechnung der Antwort aufgezeigt. 3.14. Bemerkung. Beispiel 3.11 kann man auch als die Modellierung der folgenden Frage ansehen: Wenn man eine Münze mit den Seiten K (für Kopf) und Z (für Zahl) beliebig oft wirft, wie häufig wird man dann im Mittel das Muster KK beobachten, wenn man nach jedem Auftreten des Musters mit der Zählung neu beginnt? Dabei soll 0 < p < 1 die Wahrscheinlichkeit dafür angeben, dass Kopf fällt, während q = 1 − p die Wahrscheinlichkeit für Zahl angibt. Um diese Fragestellung auf die Markovkette aus Beispiel 3.11 zu reduzieren, setzen wir F := {1, 2, 3} und interpretieren diese Zustände so: Der Zustand 1 liegt vor, wenn Z fällt. Der Zustand 2 liegt vor, wenn K fällt, aber zuvor Z gefallen war. Der Zustand 3 liegt vor, wenn K fällt, davor auch K fiel, aber davor Z oder eine gerade Anzahl von Köpfen K gefallen war. Wie man sich leicht klar macht, erhält man dann als Übergangsmatrix gerade die Matrix aus Beispiel 3.11. Daher kann man das in 3.13 angegebene Verfahren auch dazu benutzen, um die eingangs gestellte Frage zu beantworten. Präziser: Ist z der stochastische Zeilenvektor mit der Eigenschaft z = zM aus 3.12 (a) für gegebenes p, so beträgt die Wartezeit auf das Muster KK im Mittel z13 . Für p = q = 12 erhält man daher die mittlere Wartezeit 6. 4. Muster bei Münzwurfserien, Wartezeiten In diesem Abschnitt wollen wir uns mit der Bestimmung von Wartezeiten für das Auftreten eines Musters bei homogenen Markovketten beschäftigen. Dazu führen wir die erzeugende Funktion einer Zufallsvariablen mit Werten in N0 ∪ {∞} ein und zeigen, wie man mit ihrer Hilfe Wartezeiten berechnen kann. Dieses Verfahren liefert interessante Querverbindungen zur linearen Algebra und der Analysis und ist darüberhinaus auch in allgemeineren Situationen anwendbar. Ein Beispiel für eine derartige Anwendung ist die Bestimmung der Wartezeit bis zum Auftreten eines bestimmten Musters in einem DNA-Strang, wie es in Example 9.1 in Lange [10] beschrieben wird. In den hier behandelten einfachen Beispielen kann man die Wartezeiten auch elementar berechnen, indem man Rekursionsformeln oder Folgen unabhängig identisch verteilter MARKOVKETTEN 11 Zufallsvariablen verwendet. Wir gehen darauf in den Bemerkungen 4.4, 4.8 und 4.11 kurz ein, um auch andere Berechnungsweisen vorzustellen. Dieser Zugang wird in Henze [6] zur Untersuchung komplizierter Muster gewählt. 4.1. Warten auf Muster bei Münzwurfserien. Wird eine Münze unabhängig wiederholt geworfen und das Ergebnis notiert, so erhält man eine Folge, die etwa so aussieht: Z, K, Z, Z, K, Z, K, K, K, Z, Z, K, Z, K, K, Z, Z, Z, Z, K, K, Z, . . . . Diese Folgen interpretieren wir als Realisierungen von unabhängigen identisch verteilten Zufallsvariablen. Damit wir einen geeigneten Wahrscheinlichkeitsraum (ΩW , AW , PW ) aus Abschnitt 3 herleiten können, interpretieren wir die Folge als Realisierung einer Markovkette (Wn )n∈N0 mit q p dem Zustandsraum {Z, K} zu der stochastischen Matrix , p + q = 1, wobei q die Wahrq p scheinlichkeit für Z und p die für K ist. Als Startverteilung für die Kette (Wn )n∈N0 nehmen wir πZ = 1, πK = 0. Wir interessieren uns für die Wartezeit auf das Muster KK bzw. KZ. Präzise formuliert sei TKK := inf{n ∈ N : Wn = K und Wn−1 = K}, TKZ := inf{n ∈ N : Wn = Z und Wn−1 = K}. Wegen W0 = Z gelten offenbar TKK ≥ 2 und TKZ ≥ 2. Dann sind die folgenden Fragen naheliegend: (a) Auf welches der Muster KK oder KZ muss man im Mittel länger warten? (b) Wenn man darauf wetten soll, welches der Muster KK oder KZ in einer Serie zuerst erscheint, ist es dann günstiger auf KK oder auf KZ zu wetten? 4.2. Experimente zur Beantwortung der Fragen. Diese Fragen kann man für p = q = 1/2 durchaus experimentell angehen, indem man zunächst Vermutungen aufstellt und dann mehrfach auf unabhängige Weise Münzwurfserien produziert. Realisiert man R solche Münzwurfserien, so (r) beobachtet man im r-ten Experiment die Wartezeit tKK bis zum erstmaligen Auftreten des (r) Musters KK (bzw. tKZ bis zum Muster KZ) für 1 ≤ r ≤ R. Die hieraus sich ergebenden mittleren Wartezeiten R R 1 X (r) 1 X (r) tKK := tKK bzw. tKZ := tKZ R R r=1 r=1 können nach dem Gesetz der großen Zahlen (für die unabhängig identisch verteilten Zufallsva(r) (r) riablen TKK bzw. TKZ ) für großes R als Näherungswert für die Erwartungswerte E(TKK ) bzw. E(TKZ ) angesehen werden. In der konkret oben angegebenen Ergebnisfolge ist tKK = 7, tKZ = 2 (wenn man das erste Z als den vorgegebenen Startzustand Z zur Zeit 0 interpretiert). Die Simulation am Computer liefert für R = 1000: (a) tKK ∼ 6, tKZ ∼ 4. (b) Wetten auf KK und KZ scheint in etwa gleich günstig zu sein. Letzteres kann man leicht wie folgt erklären: Man betrachte die Münzwurfserie bis zu dem Zeitpunkt, an dem erstmalig Kopf fällt; im nächsten Zeitpunkt fällt dann jeweils mit Wahrscheinlichkeit 1/2 Kopf oder Zahl, und das Spiel ist entschieden. Um die Erwartungswerte E(TKK ) und E(TKZ ) exakt zu berechnen, modellieren wir zunächst die Experimente und stellen dann ein allgemeines Verfahren vor, mit welchem wir in 4.7 und 4.10 unten E(TKK ) und E(TKZ ) bestimmen. 4.3. Modellierung. Wir interessieren uns zunächst nur für die wahrscheinlichkeitstheoretischen Aussagen über die Wartezeit TKK bis zum erstmaligen Auftreten eines Doppelkopfes, d.h., des 12 K. JANSSEN, H. KLINGER UND R. MEISE Musters KK. Dazu gehen wir nun abweichend von Beispiel 3.11 so vor, dass wir nach Erreichen des ersten Doppelkopfes in diesem Zustand verharren. Wir betrachten also den Zustandsraum F := {1, 2, 3} mit folgender Interpretation: Das System befindet sich im Zustand 1, falls das Muster KK zuvor noch nicht aufgetreten ist und Zahl fällt; im Zustand 2, falls das Muster KK zuvor noch nicht aufgetreten ist, zuletzt Zahl fiel und jetzt Kopf fällt; im Zustand 3, falls das Muster KK bereits aufgetreten ist oder falls K fällt und damit das Muster KK auftritt. Die in 4.1 angegebene Folge von Z − K-Symbolen übersetzt sich dann in die Folge 1, 2, 1, 1, 2, 1, 2, 3, 3, . . . Die so entstehende Folge lässt sich als Realisierung einer Folge (Xn )n∈N0 von Zufallsvariablen interpretieren. Man bestimmt leicht die Matrix M = (pij )3ij=1 der Übergangswahrscheinlichkeiten pij := P (Xn+1 = j | Xn = i) gemäß q p 0 M = q 0 p , 0 0 1 wobei 0 < p < 1 als Wahrscheinlichkeit eines Kopfwurfes gegeben ist und q := 1 − p gesetzt wird. Es ist anschaulich klar und lässt sich auch nachrechnen, dass die Folge (Xn )n∈N0 in der Tat eine Markovkette zur Startverteilung π1 := 1, π2 := 0, π3 := 0 und Übergangsmatrix M ist. Die Wartezeit TKK bis zum erstmaligen Auftreten des Musters KK übersetzt sich nun in eine Zufallsvariable T3 für diese Markovkette gemäß T3 := inf{n ∈ N0 : Xn = 3}, und statt die Verteilung oder den Erwartungswert für TKK mithilfe des Modells aus 4.1 zu bestimmen, kann man dies für die nun vorliegende Markovkette bzgl. T3 tun. Dies werden wir anschließend durchführen. 4.4. Bemerkung. Es lässt sich ”leicht” eine Rekursionsformel für pn := P (TKK = n) aufstellen: Offenbar ist p0 = p1 = 0, p2 = P (TKK = 2) = p2 . Für n ≥ 3 tritt das Ereignis {TKK = n} genau dann ein, wenn gilt: (i) im ersten Wurf fällt Zahl, anschliessend muss man n−1 Würfe bis zum ersten Doppelkopf warten oder (ii) im ersten Wurf fällt Kopf, im zweiten Wurf fällt Zahl und anschliessend muss man n − 2 Würfe bis zum nächsten Doppelkopf warten, also ist pn = qpn−1 + pqpn−2 . Speziell für den Fall p = q = 1/2 ergibt sich für fn−1 := 2n pn die Rekursionsformel fn+1 = fn + fn−1 (n ≥ 1). Dann gelten f0 = 0 und f1 = 1. Aufgrund der Rekursionsformel ist (fn )n∈N0 daher die Folge der Fibonacci-Zahlen (vgl. auch Humenberger [7] für mehr Details). Wir wollen nun die Berechnung von Wartezeiten systematisch angehen und führen dazu das Konzept der erzeugenden Funktion für Zufallsvariable mit Werten in N0 ∪ {∞} ein. 4.5. Erzeugende Funktionen. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und T = Ω → N0 ∪ {∞} MARKOVKETTEN 13 eine Zufallsvariable. Man definiert die zu T assoziierte erzeugende Funktion f durch (4.1) f (x) := ∞ X P (T = n)xn , |x| ≤ 1. n=0 Aus dem Weierstraßschen Majorantenkriterium folgt die gleichmäßige Konvergenz der Reihe. Daher ist f auf [0, 1] stetig, und es gilt (4.2) f (1) = ∞ X P (T = n) = P (T < ∞) = 1 − P (T = ∞). n=0 Insbesondere ist P (T = ∞) = 0 äquivalent zu f (1) = 1. Kann man f und damit auch seine Taylorreihe konkret bestimmen, so erhält man dann sogar die Verteilung von T , d. h., P (T = n) für n ∈ N0 ∪ {∞}. Um den Erwartungswert von T zu berechnen, beachten wir, dass man für Funktionen, welche durch Potenzreihen dargestellt werden, die Ableitung im Inneren des Konvergenzkreises durch gliedweises Differenzieren erhält. Daher gilt 0 f (x) = ∞ X nP (T = n)xn−1 , |x| < 1. n=1 Aus dem Abelschen Grenzwertsatz folgt nun f 0 (1) = ∞ X nP (T = n). n=1 Ist P (T = ∞) = 0, so gilt daher (4.3) E(T ) = ∞ X nP (T = n) = f 0 (1). n=1 Folglich kann man E(T ) berechnen, wenn man eine auswertbare Darstellung für f 0 findet. Erzeugende Funktionen sind oft ein sehr nützliches Hilfsmittel zur Untersuchung von Zufallsvariablen mit Werten in N0 ∪ {∞}. Einige Aussagen und Beispiele dazu findet man in Chapter XI von Feller [4] und Abschnitt 4 von Engel [3]. 4.6. Satz. Sei M = (pij )ki,j=1 eine stochastische Matrix mit pkk = 1 und π = (δνi )ki=1 für ein ν mit 1 ≤ ν < k. Ist (Xn )n∈N0 gemäß Theorem 3.9 eine Markovkette mit Übergangsmatrix M und Startverteilung π, und definiert man die Zufallsvariable T durch T := inf{n ∈ N0 : Xn = k}, so gilt für die erzeugende Funktion f von T : f (x) = (1 − x) (I − xM )−1 νk , |x| < 1. Beweis. Aufgrund der Wahl von π folgt aus Satz 3.7 P (Xn = k) = k X n πi (M n )ik = (M n )νk =: Mνk . i=1 0 = I Wegen ν 6= k gilt Mνk νk = 0 und daher P (T = 0) = 0. Ferner gilt P (T ≤ n) = P (Xn = k) für n ≥ 1. Indem man diese Aussagen verwendet, erhält man für die erzeugende Funktion f der 14 K. JANSSEN, H. KLINGER UND R. MEISE Zufallsvariablen T und |x| < 1: f (x) = (4.4) = ∞ X n=0 ∞ X n P (T = n)x = ∞ X (P (T ) ≤ n) − P (T ≤ n − 1))xn n=1 n n Mνk x − n=1 = (1 − x) ∞ X n−1 n Mνk x = n=1 ∞ X ∞ X n n Mνk x −x n=1 n n Mνk x = (1 − x) n=1 ∞ X ∞ X n n Mνk x n=1 n n Mνk x . n=0 Nun beachten wir, dass für jede k × k-Matrix A und x ∈ R gilt ! ! m m X X n n (4.5) (I − xA) (xA) = (xA) (I − xA) = I − xm+1 Am+1 . n=0 n=0 Weiß man zusätzlich, dass die folgende Voraussetzung erfüllt ist (4.6) es gibt C > 0, so dass |(An )ij | ≤ C für alle 1 ≤ i, j ≤ k, n ∈ N, so folgt aus (4.5), dass für x mit |x| < 1 gilt −1 (I − xA) = ∞ X (xA)n . n=0 Diese Identität ist die Verallgemeinerung der geometrischen Reihe auf Matrizen. Weil mit M auch M n eine stochastische Matrix ist, erfüllt M die Bedingung (4.6). Daher folgt aus (4.4) (4.7) f (x) = (1 − x)((I − xM )−1 )νk und damit die Behauptung. 4.7. Folgerung. Die erzeugende Funktion f der Wartezeit TKK berechnet sich als f (x) = x2 p2 , |x| ≤ 1. 1 − xq − x2 qp Ferner gelten P (TKK < ∞) = 1 und E(TKK ) = 1 1 + 2. p p Insbesondere gilt im Fall des fairen Münzwurfs (p = q = 12 ) E(TKK ) = 6. Beweis. Wie die Überlegungen in 4.3 gezeigt haben, suchen wir E(TKK ) für die Markovkette (Xn )n∈N0 mit der Übergangsmatrix q p 0 M = q 0 p 0 0 1 und der Startverteilung π = (1, 0, 0). Nach Satz 4.6 gilt f (x) = (1 − x) (I − xM )−1 . 13 Die Inverse der Matrix (I − xM ) läßt sich leicht direkt berechnen (oder auch mit Hilfe von MAPLE ermitteln). Setzt man r := x2 qp + xq − 1, so erhält man MARKOVKETTEN (I − xM )−1 = −1 −xp 15 −x2 p2 /(1 − x) 1 −1 xq − 1 (xq − 1)xp/(1 − x) r 0 0 r/(1 − x) und daher x2 p2 x2 p2 =− 2 . r x qp + xq − 1 Die zweite Aussage folgt nun aus (4.2), da f (x) = − P (TKK < ∞) = f (1) = p2 p2 = = 1. 1 − q − pq p − pq Wegen f 0 (x) = xp2 (2 − xq) (x2 qp + xq − 1)2 gilt daher nach (4.3) E(TKK ) = f 0 (1) = Für p = 1 2 p2 (1 + p) 1 1 p2 (1 + p) = = + 2. ((1 − p)p + 1 − p − 1)2 p4 p p erhält man hieraus E(TKK ) = 2 + 4 = 6. 4.8. Bemerkung. Setzt man pn := P (TKK = n) für n ∈ N0 , so sieht man direkt p0 = p1 = 0 und p2 = p2 . Aus der Gleichung für f in Folgerung 4.7 folgt f (x) = p2 x2 + qxf (x) + qpx2 f (x), x ∈ [0, 1]. Hieraus erhält man über die Potenzreihendefinition von f durch Koeffizientenvergleich erneut die Rekursionsgleichung pn = qpn−1 + qppn−2 , n ≥ 3, die wir auf anderem Wege bereits in der Bemerkung 4.4 hergeleitet hatten. Die Verteilung von TKK lässt sich aus der Gestalt der erzeugenden Funktion f explizit bestimmen mittels Partialbruchzerlegung für f und Darstellung der Summanden als geometrische Reihen (vergl. Feller [4] Chapter VI für die Durchführung dieses Programms in einigen speziellen Beispielen). Alternativ kann man auch die Differenzengleichung für die (pn )n∈N0 mit den Anfangsbedingungen p1 = 0, p2 = p2 lösen. Mit beiden Methoden gelangt man zum folgenden Ergebnis: pn = p2 ((δ + γ)n−1 + (−1)n (δ − γ)n−1 ), n ≥ 1, 2δ p q wobei γ := , δ := q 2 /4 + pq gesetzt wurde. 2 4.9. Bemerkung. Ist man nur an dem Erwartungswert E(TKK ) von TKK interessiert, so kann man diesen mithilfe von Satz 3.12 auch einfacher auf die folgende Weise erhalten. Zu F = {1, 2, 3}, der Matrix M aus der Bemerkung 3.11 mit p = q = 21 und dem stochastischen Vektor π = (0, 0, 1) gibt es nach Theorem 3.9 einen Wahrscheinlichkeitsraum (Ω0 , A0 , P 0 ) und eine homogene Markovkette (Yn )n∈N0 auf Ω0 , die π als Startverteilung und M als Übergangsmatrix hat. Wie in 3.13 bemerkt wurde, gilt für z = (1/2, 1/3, 1/6) die Identität z = zM . Für T30 := inf{n ∈ N : Yn = 3} folgt daher aus Satz 3.12 (c) E(T30 ) = 1 = 6. z3 16 K. JANSSEN, H. KLINGER UND R. MEISE Um hieraus den Erwartungswert E(TKK ) = E(T3 ) für die in 4.3 angegebene Markovkette zu folgern, bemerken wir, dass für die zugehörigen Ketten (Xn )n∈N0 und (Yn )n∈N0 gilt 1 1 P 0 (Y1 = 1) = = P (X1 = 1) und P 0 (Y1 = 2) = = P (X1 = 2). 2 2 Daraus folgt induktiv, dass (Xn )n∈N und (Yn )n∈N bis zum erstmaligen Auftreten des Zustands 3 die gleiche Verteilung haben, und somit TKK genauso verteilt ist wie T30 . 4.10. Bemerkung. In ganz ähnlicher Weise kann man die erzeugende Funktion der Wartezeit TKZ berechnen. Dazu modelliert man das entsprechende Problem mithilfe der Matrix q p 0 M = 0 p q 0 0 1 und der Startverteilung (1, 0, 0), wobei 0 < p < 1 die Wahrscheinlichkeit für einen Kopfwurf angibt und q := 1 − p gesetzt ist. Aus Satz 4.6 folgt nun durch Berechnung von (I − xM )−1 für die erzeugende Funktion g der Wartezeit TKZ bis zum erstmaligen Auftreten des Musters KZ in zwei aufeinander folgenden Würfen pqx2 pqx(2 − qx − px) g(x) = und g 0 (x) = . (1 − px)(1 − qx) (1 − px)2 (1 − qx)2 Hieraus folgen P (TKZ < ∞) = 1 und 1 1 (4.8) E(TKZ ) = + . p q Insbesondere gilt im Fall p = q = 21 : E(TKZ ) = 4. 4.11. Bemerkung. Die Identität (4.8) läßt sich elementar auch dadurch herleiten, dass man TKZ als Summe von zwei unabhängigen Zufallsvariablen interpretiert. Dazu beachten wir, dass man für die gemäß 4.1 durch q p M= q p und die Startverteilung (1, 0) erzeugte Markovkette (Wn )n∈N0 das Ereignis {TKZ = n} auch dadurch beschreiben kann, dass Wn−1 = K und Wn = Z gelten und für kein j < n Wj−1 = K und Wj = Z ist. Die Betrachtung aller Möglichkeiten liefert für n ∈ N {TKZ = n} = n−1 [ {W1 = Z, . . . , Wi−1 = Z, Wi = K, . . . , Wn−1 = K, Wn = Z}. i=1 Dabei sind die in der Vereinigung auftretenden Ereignisse disjunkt. Deswegen gilt P (TKZ = n) = n−1 X q i−1 p n−i q= i=1 n−1 X q i pn−i . i=1 Um diesen Ausdruck anders zu interpretieren, seien U und V unabhängige Zufallsvariable, für die P (U = i) = q i−1 p und P (V = j) = pj−1 q, i, j ∈ N gelten. Dann gilt für n ∈ N P (U + V = n) = n−1 X i=1 P (U = i, V = n − i) = n−1 X i=1 P (U = i)P (V = n − i) MARKOVKETTEN = n−1 X q i−1 p pn−i−1 q = i=1 n−1 X 17 q i pn−i = P (TKZ = n). i=1 Folglich haben TKZ und U + V die gleiche Verteilung und somit auch die gleiche erzeugende Funktion und den gleichen Erwartungswert. Wegen ∞ ∞ ∞ ∞ X X X X 1 1 = E(U ) = i q i−1 p = i q i−1 (1 − q) = (i q i−1 − i q i ) = qi = 1−q p i=1 i=1 i=1 und E(V ) = ∞ X i=0 i pi−1 q = i=1 1 q folgt daher E(TKZ ) = E(U + V ) = E(U ) + E(V ) = 1 1 + . p q 5. Markovketten mit abzählbarem Zustandsraum In den Abschnitten 3 und 4 haben wir Markovketten mit endlichem Zustandsraum betrachtet. Für viele Fragestellungen ist diese Annahme aber zu restriktiv, etwa für die Behandlung von Irrfahrten oder Warteschlangen. Daher gehen wir nun auch auf abzählbare Zustandsräume ein und betrachten zunächst ein Beispiel. 5.1. Beispiel. Mit einer Folge unabhängiger Münzwürfe verbinden wir das folgende Spiel: Ein Spieler mit Anfangskapital Null und unbegrenztem Kredit erhält einen Euro, wenn Kopf geworfen wird. Fällt Zahl, so muß er einen Euro bezahlen. Mit Xn bezeichnen wir seinen Kontostand zur Zeit n, also nach dem n-ten Wurf der Münze. Um eine Formel für Xn anzugeben, bezeichnen wir mit An das Ereignis ”beim n-ten Wurf der Münze fällt Kopf”, mit Acn das Komplementärereignis und mit 1An bzw. 1Acn die entsprechenden Indikatorvariablen. Dann gilt X0 = 0 und Xn = Xn−1 + 1An − 1Acn . Hieraus erhält man rekursiv Xn = n X (1Ai − 1Aci ) = 2 i=1 n X 1Ai − n, n ∈ N. i=1 Geht man von einer fairen Münze aus, so gelten 1 P (Ai ) = P (Aci ) = . 2 Pn 1 Daher ist die Zufallsvariable i=1 1Ai gemäß B(n, 2 ) verteilt, d. h. es gilt n X n 1 P( 1Ai = k) = , 0 ≤ k ≤ n. k 2n i=1 Die Verteilung von Xn ergibt sich folglich durch n 1 P (Xn = 2k − n) = , 0 ≤ k ≤ n. k 2n Man kann auch eine multiplikative Variante dieses Spiels betrachten, indem man für geeignete Parameter u > 1 > v definiert X0 := 1 und Xn := Xn−1 · (u1An + v1Acn ) für n ≥ 1. Derartige Varianten werden zur Simulation von Börsenkursen in dem Cox-Ross-RubinsteinModell benutzt (siehe Irle [8]). 18 K. JANSSEN, H. KLINGER UND R. MEISE 5.2. Bezeichnungen. Sei F eine abzählbare Menge, versehen mit der σ-Algebra P(F ) aller Teilmengen von F . Eine Folge (Xn )n∈N0 von Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, A, P ) mit Werten in F heißt homogene Markovkette, falls für i, j ∈ F und pij := P (Xn+1 = j | Xn = i) die Bedingung (2.1) aus Definition 2.8 gilt, und zwar unabhängig von n ∈ N0 , sofern P (Xn = in , . . . , X0 = i0 ) 6= 0. Wir interpretieren M := (pij )i,j∈F wiederum als stochastische Matrix, nun allerdings mit unendlich vielen Zeilen und Spalten, falls F nicht endlich ist. Den stochastischen Zeilenvektor π = (πj )j∈F , der durch πj := P (X0 = j), j ∈ F , definiert wird bezeichnen wir als die Startverteilung der Markovkette (Xn )n∈N0 . Wie man leicht nachprüft, kann man den in Abschnitt 3 eingeführten Matrixkalkül auch in der allgemeineren Situation anwenden, wenn man beachtet, dass die dort auftretenden Summen in absolut konvergente Reihen übergehen. Die Aussagen in 3.6 - 3.9 übertragen sich entsprechend bei gleichbleibenden Beweisen. 5.3. Definition. Eine Markovkette (Xn )n∈N0 mit dem Zustandsraum Zd für ein d ∈ N heißt Irrfahrt, falls es einen stochastischen Vektor (pj )j∈Zd gibt, so dass gilt pij = pj−i , i, j ∈ Zd . Man nennt (pj )j∈Zd die Sprungverteilung der Irrfahrt, da pj die Wahrscheinlichkeit dafür angibt, dass man vom Zustand 0 ∈ Zd in den Zustand j ∈ Zd übergeht. Irrfahrten sind also dadurch ausgezeichnet, dass die Übergangswahrscheinlichkeiten räumlich homogen sind. 5.4. Beispiel. Für d ∈ N definiere man p = (pj )j∈Zd durch d X 1 |jk | = 1 , falls |j| := pj := 2d k=1 0 , sonst. Dann wird durch die Übergangsmatrix M = (pj−i )i,j∈Zd , π = (δ0j )j∈Zd eine Markovkette (Xn )n∈N0 definiert, welche man als symmetrische Irrfahrt auf Zd bezeichnet. Ist d = 1, so ist die symmetrische Irrfahrt auf Z offenbar eine Modellierung des Spiels, welches wir in Beispiel 5.1 betrachtet haben. 5.5. Bemerkung. Viele Eigenschaften symmetrischer Irrfahrten auf Zd lassen sich elementar mit Methoden der Wahrscheinlichkeitsrechnung herleiten (vgl. z.B. Feller [4], Chapter III) . Das Pfadverhalten der symmetrischen Irrfahrt auf Z kann man mit dem zugehörigen MAPLE-Programm simulieren. Dabei fällt auf, dass sich die Pfade häufig recht lange auf einer Seite des Nullpunktes aufhalten. Ohne Beweis halten wir fest, dass Irrfahrten recht bemerkenswerte Eigenschaften haben. 5.6. Satz. Sei (Xn )n∈N0 eine allgemeine Irrfahrt in Zd mit Start in 0 ∈ Zd und Sprungverteilung (pi )i∈Zd . Das Ereignis A und die Wiederkehrzeit T in den Startpunkt 0 seien definiert als A := {Xn = 0 für unendlich viele n ∈ N}, T := inf{n ∈ N : Xn = 0}. Ist p(0,...,0) 6= 1, so gelten die folgenden Aussagen: MARKOVKETTEN 19 P P (a) Ist d = 1 oder d = 2 und gelten i∈Zd |i|2 p2i < ∞ sowie i∈Zd ipi = 0, so folgt P (A) = 1, und es gilt E(T ) = ∞. (b) Ist d ≥ 3, so gelten P (A) = 0 und limn→∞ |Xn | = ∞ fast sicher. Für symmetrische Irrfahrten in Z und Z2 folgt aus Satz 5.6 (a), dass sie mit Wahrscheinlichkeit 1 unendlich oft in den Nullpunkt und damit auch in jeden anderen Punkt zurückkehren. 5.7. Beispiel. Wie die Simulationen der symmetrischen Irrfahrt (Xn )n∈N0 auf Z2 mittels MAPLE zeigen, beobachtet man ab und zu, dass die Realisierung in vier aufeinander folgenden Schritten die Ecken eines Quadrates mit Kantenlänge 1 im positiven oder negativen Drehsinn durchläuft. Wir fragen uns, wie lange man im Mittel warten muss, bis dieser Effekt zum ersten Mal zu beobachten ist. Präzise formuliert fragen wir also nach dem Erwartungswert der Zufallsvariablen TQ := inf{n ∈ N : n ≥ 4, Xn−4 , Xn−3 , Xn−2 , Xn−1 , Xn bilden die Eckpunkte eines orientierten Quadrates mit Kantenlänge 1 }. Um E(TQ ) zu berechnen, benutzen wir wie bei der Bestimmung von E(TKK ) zwei verschiedene Methoden. 5.8. Berechnung von E(TQ ). (a) Mittels erzeugender Funktionen. Dazu bemerken wir zunächst, dass die symmetrische Irrfahrt (Xn )n∈N0 auf Z2 bei Start in (0, 0) verschiedene Teilmuster durchlaufen muss, bevor man das Muster “vollständiges Quadrat in direktem Durchlauf“ beobachtet. Diese Teilmuster sind dadurch definiert, dass eine, zwei oder drei Seiten eines orientierten Quadrates bereits durchlaufen wurden. Wir interpretieren diese Teilmuster als die Zustände 1, 2 oder 3 und das orientierte Quadrat als den Zustand 4, und definieren dann eine neue Folge (Yn )n∈N0 von Zufallsvariablen durch die folgende Vorschrift (wobei u ⊥ v bedeutet, dass die Vektoren u und v zueinander senkrecht sind): Y0 := 1 und für n ≥ 1: Yn = 1, falls Yn−1 ≤ 3, Xn+1 − Xn = ±(Xn − Xn−1 ) Yn = 2, falls Yn−1 = 1 und (Xn+1 − Xn ) ⊥ (Xn − Xn−1 ) oder Yn−1 = 2 oder 3 und Xn+1 − Xn = Xn−1 − Xn−2 Yn = 3, falls Yn−1 = 2 und Xn+1 − Xn = −(Xn−1 − Xn−2 ) Yn = 4, falls Yn−1 = 3 und Xn+1 = Xn−3 oder Yn−1 = 4 Für eine konkrete Realisierung ergibt diese Vorschrift folgendes: Gilt z. B. x0 = (0, 0), x1 = (1, 0), x2 = (1, 1), x3 = (0, 1), x4 = (1, 1), x5 = (2, 1), x6 = (2, 0) etc. so ergibt sich y0 = 1, y1 = 2, y2 = 3, y3 = 1, y4 = 1, y5 = 2 etc. Auch wenn die Definition der Folge (Yn )n∈N0 kompliziert aussieht, so kann man doch zeigen, dass (Yn )n∈N0 eine homogene Markovkette ist, welche den Zustandsraum F = {1, 2, 3, 4}, die Startverteilung (δ1i )4i=1 und die Übergangsmatrix 1/2 1/2 0 0 1/2 1/4 1/4 0 M = 1/2 1/4 0 1/4 0 0 0 1 hat. Man setze T := inf{n ∈ N : Yn = 4}. 20 K. JANSSEN, H. KLINGER UND R. MEISE Bildet die Zustandsfolge Xn−3 , Xn−2 , . . . , Xn+1 ein vollständiges Quadrat in direktem Durchlauf, so ist Yn = 4 (n ≥ 3). Daher gilt TQ = T + 1. Nach Satz 4.6 erhält man die erzeugende Funktion f von T als f (x) = (1 − x)(I − xM )−1 14 . Wie die Rechnung mit MAPLE zeigt, gelten f (x) = −x3 −6x2 (x2 + 8x − 16) 0 und f (x) = x3 + 6x2 + 24x − 32 (x3 + 6x2 + 24x − 32)2 und daher wegen P (T = ∞) = 1 − f (1) = 0: E(T ) = f 0 (1) = 42. Wegen TQ = T + 1 erhalten wir schließlich E(TQ ) = 43. (b) Mittels Satz 3.12. Ist man nur an E(TQ ) interessiert, so kann man die Aussage von Satz 3.12 benutzen, wenn man die in Teil (a) angegebene Modellierung folgendermaßen modifiziert: Hat man den Zustand 4 (also ein vollständiges Quadrat erreicht), so verharrt man nicht in diesem Zustand, sondern fängt die Prozedur wieder von vorn an. Bei gleichem Zustandsraum F = {1, 2, 3, 4} erhält man dann die Übergangsmatrix 1/2 1/2 0 0 1/2 1/4 1/4 0 . M̃ = 1/2 1/4 0 1/4 1 0 0 0 Zu dieser stochastischen Matrix betrachten wir gemäß Satz 3.9 die Markovkette (Ỹn )n∈N0 mit der Startverteilung π = (0, 0, 0, 1) und setzen T̃Q := inf{n ∈ N : Ỹn = 4}. Dann hat T̃Q die gleiche Verteilung wie TQ . Weil alle Komponenten von M̃ 4 positiv sind, gibt es nach Satz 3.12 den stochastischen Vektor z mit z = z M̃ . Wie die Berechnung mit Hilfe von 16 4 1 MAPLE zeigt, gilt z = ( 22 43 , 43 , 43 , 43 ). Daher folgt aus Satz 3.12 (c): E(T̃Q ) = 43. 5.9. Bemerkung. Die Überlegungen in 4.2 gelten hier entsprechend, d.h., durch die Simulationen der symmetrischen Irrfahrt bis zum ersten Auftreten eines Quadrates erhält man nach dem Gesetz der großen Zahlen Näherungswerte für E(TQ ). Literatur [1] [2] [3] [4] [5] H. Bauer: Maß- und Integrationstheorie, de Gruyter (1992) E. Behrends: Introduction to Markov Chains, Vieweg (2000) A. Engel: Wahrscheinlichkeitsrechnung und Statistik, Band 2, Klett Studienbücher Mathematik (1978) W. Feller: An introduction to probability theory and its applications. Wiley (1957). N. Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls, 3. erweiterte Auflage. Vieweg (2000). [6] N. Henze: Muster in Bernoulli-Ketten. Stochastik in der Schule, Heft 2, Band 21 (2001), S. 2–10. [7] H. Humenberger: Kopf-Adler-Muster in Münzwurfserien, unendliche Reihen und FIBONACCI-Zahlen, in Beiträge zum Mathematikunterricht; 1999, Hrsg. Neubrand, Franzbecker (1999), S. 245–247. [8] A. Irle: Finanzmathematik. Die Bewertung von Derivaten. Teubner Studienbücher (1998). MARKOVKETTEN 21 [9] U. Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 5. neubearb. u. erw. Auflage. Vieweg (2000). [10] K. Lange: Mathematical and statistical methods for genetic analysis, Springer (1997). Mathematisches Institut, Heinrich-Heine-Universität, Universitätsstraße 1, 40225 Düsseldorf, Germany E-mail address: [email protected] E-mail address: [email protected] E-mail address: [email protected]