Irrfahrten und Phänomene des Zufalls von Dipl.-math. oec. Bruno Ebner Inhaltsverzeichnis 1 Einführung 1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit 1.2 Irrfahrten 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl . . . 1.3 Zufallsvariable und Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 6 6 9 2 Irrfahrten 2 2.1 Erwartete Anzahl an Schritten bis zur Absorption 2.1.1 Weitere symmetrische Irrfahrten . . . . . . 2.1.2 Der Binomialkoeffizient . . . . . . . . . . . 2.2 Pfade von Irrfahrten und das Reflektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 12 12 13 . . . . . . . 19 21 21 22 22 23 25 27 . . . . . . . . . . . . . . . . 3 Irrfahrten in Z2 3.1 Harmonische Funktionen in Z2 . . . . . . . . . . . . . . . . . 3.2 Lösung bestimmen über lineare Gleichungssysteme . . . . . . 3.3 Lösung approximieren über Monte-Carlo-Methode . . . . . . 3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken 3.5 Das Banach’sche Streichholzproblem . . . . . . . . . . . . . . 3.6 Bernoulli und Tennis . . . . . . . . . . . . . . . . . . . . . . . 3.7 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1 Abbildungsverzeichnis 1.1 Symmetrische Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.1 2.6 2.2 2.3 2.4 2.5 Pfad einer symmetrischen Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . Joseph L. F. Bertrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten. . . Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten. . Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten. Reflektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 15 17 17 17 18 3.1 3.2 3.3 3.4 Zahlengitter S der Irrfahrt . . . . . . . . . . . . . . . . . . . . Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten. Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B . . Zahlengitter S mit eingezeichneten Schranken B . . . . . . . 20 22 24 26 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kapitel 1 Einführung Zu Beginn machen wir uns mit einigen wahrscheinlichkeitstheoretischen Grundlagen vertraut. 1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit Ein stochastischer Vorgang heißt ideales Zufallsexperiment, wenn folgende Gegebenheiten vorliegen: • Das Experiment wird unter vorher genau festgelegten Bedingungen (Versuchsbedingungen) durchgeführt. • Die Menge der möglichen Ergebnisse ist vor der Durchführung des Experiments bekannt. • Das Experiment kann prinzipiell beliebig oft wiederholt werden. Beispiel 1.1.1 Der einfache Würfelwurf eines fairen sechsseitigen Würfels ist ein ideales Zufallsexperiment, da er beliebig oft wiederholt werden kann und alle möglichen Ergebnisse durch die erzielten Augenzahlen bekannt sind. Die Menge der möglichen Ergebnisse eines idealen Zufallsexperiments bezeichnen wir mit Ω und nennen sie Ergebnismenge oder auch Grundraum. Die in der Ergebnismenge aufgeführten Elemente müssen nicht notwendig auch als Resultate eines Zufallsexperiments auftreten können. Wichtig für das Folgende ist nur, dass die Ergebnismenge Ω alle möglichen Ergebnisse enthält. Die Elemente von Ω werden mit ω, ω1 , ω2 , . . . oder anderen kleinen griechischen Buchstaben bezeichnet. Sie repräsentieren die möglichen Ergebnisse des Zufallsexperiments. 3 Beispiel 1.1.2 Die Ergebnismenge eines einfachen Würfelwurfs wäre konkret Ω = {1, 2, 3, 4, 5, 6}. Wirft man den Würfel einmal und es erscheint die 2, so ist ω = 2 ∈ Ω das Ergebnis des idealen Zufallsexperiments. Ist Ω die Ergebnismenge eines Zufallsexperiments, so nennt man die Teilmengen A ⊂ Ω Ereignisse. Beobachtet man bei der Durchführung des Zufallsexperiments das Ergebnis ω ∈ Ω, so ist das Ereignis A ⊂ Ω eingetreten, falls ω ∈ A gilt. Falls dagegen ω 6∈ A gilt, so ist das Ereignis A bei der Durchführung des Zufallsexperiments nicht eingetreten. Beispiel 1.1.3 Interessiert in unserem Beispiel des einfachen Würfelwurfs nur, ob die Augenzahl gerade ist, so kann man das Ereignis wie folgt modellieren A = {2, 4, 6}. Das Ereignis A tritt also ein, falls eine gerade Augenzahl gewürfelt wird. Sind A, B zwei Ereignisse so ist der Durchschnitt A ∩ B := {ω ∈ Ω : ω ∈ A und ω ∈ B} und die Vereinigung A ∪ B := {ω ∈ Ω : ω ∈ A oder ω ∈ B} ein neues Ereignis. Beispiel 1.1.4 Nehmen wir zu dem letzten Beispiel das Ereignis B der Augenzahlen kleiner gleich drei hinzu, also B := {1, 2, 3}, so ist der Durchschnitt A ∩ B = {2, 4, 6} ∩ {1, 2, 3} = {2} und die Vereinigung A ∪ B = {2, 4, 6} ∪ {1, 2, 3} = {1, 2, 3, 4, 6}. Also ist das Ereignis A ∩ B das Ereignis eine 2 zu würfeln und das Ereignis A ∪ B eine der Augenzahlen ausser der 5 zu würfeln. Wir wollen im Folgenden von Wahrscheinlichkeiten reden. Dafür benötigen wir eine konkrete Definition des Begriffs Wahrscheinlichkeit. 4 Definition 1.1.5 Ein endlicher Wahrscheinlichkeitsraum ist ein Paar (Ω, P ), wobei Ω eine Ergebnismenge und P eine auf den Teilmengen von Ω definierte reellwertige Funktion mit folgenden Eigenschaften ist: a) P (A) ≥ 0 für A ⊂ Ω, b) P (Ω) = 1, c) P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅. P heißt Wahrscheinlichkeitsverteilung auf Ω. P (A) heißt die Wahrscheinlichkeit des Ereignisses A. Es gibt zahlreiche Zufallsexperimente mit endlich vielen Ausgängen, bei denen wir keinen Ausgang vor dem anderen als wahrscheinlicher oder unwahrscheinlicher ansehen. In unserem Beispiel des Würfelwurfs würden wir bei einem exakt gefertigten Würfel alle der sechs Augenzahlen als gleich wahrscheinlich erachten. Bezeichnen wir mit |A| die Anzahl aller möglichen Ergebnisse des Ereignisses A, so können wir durch P (A) = |A| für A ⊂ Ω, |Ω| eine Wahrscheinlichkeitsverteilung angeben. In diesem Fall heißt der Wahrscheinlichkeitsraum (Ω, P ) Laplacescher Wahrscheinlichkeitsraum. Beispiel 1.1.6 Für unseren einfachen Würfelwurf gilt dann Ereignis A |{2, 4, 6}| 3 |A| = = = P (A) = |Ω| |{1, 2, 3, 4, 5, 6}| 6 mit dem oben definierten 1 . 2 Da wir im Folgenden die bedingten Wahrscheinlichkeiten benötigen führen wir sie hier kurz ein. Definition 1.1.7 Es seien (Ω, P ) ein endlicher Wahrscheinlichkeitsraum und A, B ⊂ Ω mit P (B) > 0. Dann heißt P (A ∩ B) P (A|B) := P (B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B. Beispiel 1.1.8 In unserem Beispiel wäre also wegen |A ∩ B| = 1 und |B| = 3 und P (A ∩ B) = |A ∩ B| 1 |B| 1 = und P (B) = = |Ω| 6 |Ω| 2 5 die bedingte Wahrscheinlichkeit von A unter der Bedingung B gegeben durch P (A|B) = 1.2 1.2.1 P (A ∩ B) = P (B) 1 6 1 2 1 = . 3 Irrfahrten 1 Symmetrische Irrfahrt auf einem Zahlenstrahl Ein Teilchen befindet sich zum Zeitpunkt 0 im Punkt x0 = 0 auf der x-Achse. Zu den Zeitpunkten t = 1, 2, . . . wandert das Teilchen entweder einen Schritt nach links (x1 = −1) oder einen Schritt nach rechts (x1 = 1) mit derselben Wahrscheinlichkeit 21 . Die Irrfahrt endet, falls das Teilchen eine der vorher festgelegten Schranken −a oder b erreicht, a, b ∈ N. Wir sprechen hier auch von der Absorption des Teilchens. ¾ - ¾ −a - -1 0 1 b Abbildung 1.1: Symmetrische Irrfahrt Ohne Beschränkung der Allgemeinheit setzen wir die linke Schranke auf 0, den Startpunkt verschieben wir auf a und die rechte Schranke auf n = b + a. Dann bezeichnen wir mit p(x) für x = 1, . . . , n die Wahrscheinlichkeit im Punkt n absorbiert zu werden, falls das Teilchen sich gerade im Punkt x befindet. Die Funktion p(x) hat die folgenden Eigenschaften: a) p(0) = 0, b) p(n) = 1, c) p(x) = 12 p(x − 1) + 12 p(x + 1) für x = 1, 2, . . . , n − 1. Die Eigenschaft a) folgt direkt aus der Definition der Funktion p da das Teilchen in 0 absorbiert wurde und nicht mehr nach n kommen kann. Die Wahrscheinlichkeit in n absobiert zu werden falls das Teilchen sich in n befindet ist natürlich 1 und so kommt die Eigenschaft b) zu stande. Die letzte Eigenschaft lässt sich durch folgende Überlegung erklären: Falls das Teilchen sich im Punkt x befindet, x = 1, . . . , n − 1, so befindet es sich nach dem nächsten Schritt mit Wahrscheinlichkeit 21 im Punkt x − 1 (oder im Punkt x + 1). Die Wahrscheinlichkeit dann in n absorbiert zu werden ist demzufolge p(x − 1) (bzw. p(x + 1)). Um die Regel nun korrekt zu erklären benötigen wir eine grundlegende Tatsache über bedingte Wahrscheinlichkeiten. 6 Theorem 1.2.1 Sei A ein Ereignis und B, C sich ausschließende Ereignisse (also falls B eintritt, so nicht C und umgekehrt, also B ∩ C = ∅ und B ∪ C = Ω). Dann gilt P (A) = P (B)P (A|B) + P (C)P (A|C). Beweis: Da B und C sich ausschließende Ereignisse sind, gilt A = (A ∩ B) ∪ (A ∩ C) und (A ∩ B) ∩ (A ∩ C) = ∅. Damit folgt mit der Definition der bedingten Wahrscheinlichkeit und der Eigenschaft c) der Wahrscheinlichkeitsverteilung P P (A) = P ((A ∩ B) ∪ (A ∩ C)) = P (A ∩ B) + P (A ∩ C) = P (B)P (A|B) + P (C)P (A|C). ¤ Setzen wir nun die Überlegung von oben in dieses Theorem ein, so folgt die Eigenschaft c) der Funktion p(x). Aber wie sieht nun die Funktion p(x) aus? Und endet eine solche Irrfahrt immer, auch wenn wir das n sehr groß wählen? Um Antworten auf diese Fragen zu geben, betrachten wir harmonische Funktionen. Harmonische Funktionen Wir lösen uns nun erstmal von den Irrfahrten und betrachten allgemein Funktionen für die die Eigenschaft c) gilt. In diesem Sinne bezeichnen wir mit S = {0, 1, . . . , n} die Menge der möglichen Punkte auf dem Zahlenstrahl, mit D = {1, . . . , n − 1} ⊂ S die inneren Punkte, also die Menge S vermindert um die beiden Schranken, und mit B = {0, n} die Menge der Schranken. Wir nennen eine Funktion f : S → R, x 7→ f (x) harmonisch, falls sie auf der Menge D der Eigenschaft c) genügt, also gilt 1 f (x) = (f (x − 1) + f (x + 1)). 2 Gelten mit y1 , y2 ∈ R die folgenden Bedingungen f (0) = y1 und f (n) = y2 so nennen wir diese Randbedingungen. Also ist die Funktion p(x) eine harmonische Funktion mit den Randbedingungen p(0) = 0 und p(n) = 1. Das Problem eine harmonische Funktion mit vorgegebenen Randbedingungen zu finden, wird auch das Dirichlet Problem genannt. Wir werden im Folgenden beweisen, dass das Problem eine eindeutige Lösung besitzt. Theorem 1.2.2 (Maximumsprinzip) Eine harmonische Funktion f (x) nimmt ihr Maximum M und ihr Minimum m am Rand an. 7 Beweis: Sei M der größte Wert der Funktion f . Falls nun f (x) = M für ein x ∈ D gilt, so gilt auch f (x − 1) = M = f (x + 1), da f (x) der Mittelwert dieser beiden Werte ist. Falls dies nun aber für f (x − 1) gilt, so gilt auch nach demselben Argument f (x − 2) = M . Führt man dies so fort, kommt man auf f (0) = M . Die gleiche Argumentation funktioniert auch für das Minimum m. ¤ Theorem 1.2.3 (Eindeutigkeitsprinzip) Seien f (x) und g(x) harmonische Funktionen auf S mit f (0) = g(0) und f (n) = g(n). Dann gilt f (x) = g(x), für alle x ∈ S. Beweis: Sei h(x) = f (x) − g(x). Dann gilt für x ∈ D 1 (h(x − 1) + h(x + 1)) = 2 1 (f (x − 1) − g(x − 1) + f (x + 1) − g(x + 1)) 2 1 1 = (f (x − 1) + f (x + 1)) − (g(x − 1) + g(x + 1)) 2 2 = f (x) − g(x) = h(x), da die Funktionen f (x) und g(x) nach Voraussetzung harmonisch sind. Also ist auch die Funktion h(x) harmonisch und es gilt h(0) = 0 und h(n) = 0. Wegen dem Maximumsprinzip ist dann sowohl das Maximum als auch das Minimum der Funktion h(x) gleich 0. Also muss für alle x ∈ S gelten h(x) = 0. Und somit stimmen die Funktionen f (x) und g(x) auf S überein. ¤ Mit Hilfe des Eindeutigkeitsprinzips können wir uns nun Gedanken um die Funktion p(x) aus dem vorherigen Abschnitt machen. Wir sehen, dass falls wir eine harmonische Funktion mit den in a) und b) vorgeschriebenen Randbedingungen finden, diese auch eindeutig ist. Die einfachste Art unser Problem zu lösen, ist einfach mal zu raten: Eine lineare Funktion, die unsere Randbedingung erfüllt ist f (x) = nx , da f (0) = 0 und f (n) = 1 gilt. Bleibt noch die Eigenschaft c) zu prüfen. Es gilt 1 x−1+x+1 x (f (x − 1) + f (x + 1)) = = = f (x). 2 2n n Also haben wir eine harmonische Funktion mit den geforderten Randbedingungen gefunden und wegen dem Eindeutigkeitsprinzip gibt es auch keine weitere. Auch die zweite gestellte Frage, also die Frage nach der Endlichkeit einer solchen Irrfahrt, lässt sich mit Hilfe der harmonischen Funktionen leicht beantworten: Wir bezeichnen mit q(x) die Wahrscheinlichkeit, dass die Irrfahrt nie endet, falls das Teilchen sich am Punkt x befindet, also die Schranken B nie erreicht werden. Dann folgt mit den gleichen Überlegungen wie bei p(x), dass 1 1 q(x) = q(x − 1) + q(x + 1) 2 2 8 gilt. Also ist q(x) eine harmonische Funktion und es gilt q(0) = q(n) = 0. Nun ist aber wegen dem Maximumsprinzip q(x) = 0 für alle x ∈ S. Interpretation als Penny Matching Game“ ” Man stelle sich folgende Situation vor: Peter hat a und Paul b faire Münzen mit den Symbolen Zahl (z) und Wappen (w). Sie schnippen jeweils eine ihrer Münzen auf den Boden, so dass sie flach aufliegen. Ist bei beiden Münzen das gleiche Symbol zu sehen, so gewinnt Peter beide Münzen, sind unterschiedliche Symbole zu sehen, so gewinnt Paul beide Münzen. Das Spiel wird so lange gespielt bis einer von beiden keine Münze mehr hat (Absorption). Auch hier handelt es sich um eine symmetrische Irrfahrt. Die Wahrscheinlichkeit, dass Peter oder Paul eine Runde gewinnt, ist jeweils 21 , da folgende Kombinationen pro Wurf auftreten können: {(w, w), (z, z), (w, z), (z, w)}. Wenden wir das oben gezeigte auf unser Spiel an, so ist die Wahrscheinlichkeit, dass Peter a alle Münzen von Paul gewinnt durch p(a) = na = a+b gegeben. Respektive gewinnt Paul b . alle Münzen mit der Wahrscheinlichkeit 1 − p(a) = b+a Beispiel 1.2.4 Peter hat a = 1 Münze und Paul b = 99 Münzen. Die Wahrscheinlichkeit, dass Peter das Spiel gewinnt, liegt bei p(1) = 0.01 = 1%. 1.3 Zufallsvariable und Erwartungswert Zufällige Ereignisse werden meist mit Hilfe von Zufallsvariablen beschrieben. Darunter versteht man eine Variable, deren Wert vom Ergebnis eines Zufallsexperiments abhängt. Definition 1.3.1 Ist Ω eine Ergebnismenge, so heißt jede Abbildung X:Ω→R von Ω in die Menge der reellen Zahlen eine Zufallsvariable (auf Ω). Wir können eine Zufallsvariable X als eine Vorschrift ansehen, die jedem Ergebnis ω ∈ Ω des idealen Zufallsexperimentes eine reelle Zahl X(ω) zuordnet. Der Wert X(ω) heißt auch Realisierung der Zufallsvariablen zum Ausgang ω. Beispiel 1.3.2 Wir interessieren uns beim einfachen Würfelwurf für das Quadrat der geworfenen Augenzahl, also setzen wir als Zufallsvariable X(ω) = ω 2 , ω ∈ Ω. Die Zufallsvariable nimmt also die Werte 1, 4, 9, 16, 25 und 36 an. 9 Ist Ω eine Ergebnismenge eines Zufallsexperiments und ist X : Ω → R, ω 7→ X(ω), eine Zufallsvariable, so interessiert man sich in der Praxis für Ereignisse der Form A = {ω ∈ Ω : X(ω) = x} ⊂ Ω, x ∈ R, also für das Ereignis, dass bei Durchführung des Zufallsexperiments die Zufallsvariable X einen fest vorgegebenen Wert x ∈ R annimmt. Beispiel 1.3.3 Interessieren wir uns zum Beispiel für das Ereignis A so können wir dieses mit Hilfe der Zufallsvariablen X schreiben als A = {2, 4, 6} = {ω ∈ Ω : X(ω) = 4} ∪ {ω ∈ Ω : X(ω) = 16} ∪ {ω ∈ Ω : X(ω) = 36}. Wir betrachten allgemein für ein s ∈ N die endliche Ergebnismenge Ω = {ω1 , . . . , ωs } mit einer durch P ({ωj }) für j = 1, . . . , s gegebenen Wahrscheinlichkeitsverteilung sowie X als Zufallsvariable auf Ω. Dann können wir den Erwartungswert einer Zufallsvariablen wie folgt definieren. Definition 1.3.4 Für eine Zufallsvariable X : Ω → R auf einem endlichen Wahrscheinlichkeitsraum (Ω, P ) heißt die Zahl E(X) := X(ω1 )P ({ω1 }) + X(ω2 )P ({ω2 }) + · · · + X(ωs )P ({ωs }) der Erwartungswert von X. Wir können E(X) als durschnittliche Auszahlung pro Spiel auf lange Sicht ansehen, wenn wiederholt ein Glückspiel mit den möglichen Ergebnissen ω ∈ Ω und einer durch die Zufallsvariable X festgelegten Auszahlungsfunktion gespielt wird. Beispiel 1.3.5 Der Erwartungswert der Zufallsvariablen X aus Beispiel 1.3.2 ist wegen P ({ω}) = 61 für alle ω ∈ Ω gegeben durch E(X) = X(1)P ({1}) + X(2)P ({2}) + · · · + X(6)P ({6}) = 1P ({1}) + 4P ({2}) + · · · + 36P ({6}) 1 91 = (1 + 4 + 9 + 16 + 25 + 36) = ≈ 15.17. 6 6 Sind X, Y Zufallsvariablen auf Ω und a ∈ R, so hat der Erwartungswert folgende Eigenschaften: a) E(X + Y ) = E(X) + E(Y ), b) E(aX) = aE(X). 10 Kapitel 2 Irrfahrten 2 2.1 Erwartete Anzahl an Schritten bis zur Absorption Bei der in Abschnitt 1.2.1 eingeführten symmetrischen Irrfahrt auf dem Zahlenstrahl haben wir gesehen, dass das Teilchen früher oder später immer absorbiert wird. Eine weitere natürliche Frage stellt sich dann: Wie oft wird das Teilchen im Durchschnitt hin und her springen bis es absorbiert wird? Dieser Frage wollen wir uns im Folgenden widmen. Hierzu benötigen wir die gerade eingeführten Begriffe der Zufallsvariable und des Erwartungswertes. Wir bezeichnen mit Nx := Anzahl der benötigten Schritte bis das Partikel absorbiert wird, dabei steht der Index x = 0, . . . , n für die Position des Teilchens. Von vornherein kennen wir zwei sichere Werte der Zufallsvariablen Nx N0 = 0 und Nn = 0, da in diesen Positionen das Teilchen bereits absorbiert wurde. Befindet sich das Teilchen in der Position x = 1, . . . , n − 1 so läuft es einen Schritt (nach links oder rechts, jeweils mit Wahrscheinlichkeit 12 ) und kommt in den Positionen x − 1 oder x + 1 an. Von dort aus braucht es aber noch Nx−1 bzw. Nx+1 Schritte bis es absorbiert wird. Also können wir die Zufallsvariable Nx schreiben als ½ 1 + Nx−1 , mit Wahrscheinlichkeit 12 , Nx = 1 + Nx+1 , mit Wahrscheinlichkeit 21 . Für den Erwartungswert E(Nx ) hält demzufolge für x = 1, . . . , n − 1 die folgende Differenzengleichung 1 1 E(Nx ) = 1 + E (Nx−1 ) + E (Nx+1 ) . 2 2 Die allgemeine Lösung der Differenzengleichung1 ist gegeben durch E(Nx ) = −x2 + c1 x + c2 , c1 , c2 ∈ R. 1 Das Lösen von Differenzengleichungen ist nicht Bestandteil des Schnupperkurses, weswegen in diesem Falle die Lösung angegeben wird. Es handelt sich hier um eine lineare Differenzengleichung 2. Ordnung, welche mit Standardmethoden gelöst werden kann. 11 Mit den beiden sicheren Werten N0 = Nn = 0 ergeben sich die Erwartungswerte E(N0 ) = E(Nn ) = 0 und damit die Gleichungen c2 = 0 2 −n + c1 n + c2 = 0. Setzt man c2 = 0 in die zweite Gleichung ein, so folgt wegen n 6= 0 −n2 + c1 n = 0 ⇐⇒ n(c1 − n) = 0 =⇒ c1 = n. Eingesetzt ergibt dies den gesuchten Erwartungswert E(Nx ) = −x2 + nx. Falls wir also in x = a starten ergibt sich mit n = a + b als erwartete Anzahl an Schritten für eine symmetrische Irrfahrt auf dem Zahlenstrahl mit absorbierenden Schranken in 0 und b + a E(Na ) = −a2 + (a + b)a = ab. Erwartete Anzahl an Münzwürfen bis zum Ruin Wenden wir das eben berechnete auf die Situation des Penny Matching Games“an, so ” erhalten wir die verblüffende Antwort, dass selbst wenn Peter nur 1 Münze hat, das Spiel im Mittel 99-mal gespielt wird, bis einer der Spieler ruiniert ist, obwohl die Wahrscheinlichkeit, dass es nach einem Spiel schon endet, bei 50% liegt. 2.1.1 Weitere symmetrische Irrfahrten In der Situation von Abschnitt 1.2.1 setzen wir a = ∞ und b ∈ N so sprechen wir von einer Irrfahrt mit nur einer absorbierenden Schranke. Auch hier stellt sich die Frage nach der Wahrscheinlichkeit der Absorption des Teilchens, da es ja prinzipiell in eine Richtung abdriften könnte (Übungsaufgabe). Setzen wir auch b = ∞ so sprechen wir von einer symmetrischen Irrfahrt ohne Schranken, da das Teilchen nie absorbiert wird. 2.1.2 Der Binomialkoeffizient In Kapitel 1 haben wir den Laplaceschen Wahrscheinlichkeitsraum eingeführt. Um die möglichen Ergebnisse eines Ereignisses angeben zu können, sollten wir uns mit einigen zentralen Begriffen der Kombinatorik, der Lehre des Abzählens, vertraut machen. Unter der Fakultät einer Zahl n ∈ N verstehen wir die Zahl n! := n · (n − 1) · (n − 2) · · · 3 · 2 · 1. Beispiel 2.1.1 Die Fakultät ist eine sehr schnell wachsende Vorschrift: 1! = 1, 2! = 2·1 = 2, 3! = 3·2·1 = 6, 4! = 4·3! = 24, 6! = 6·5·4! = 720 und 15! = 1307674368000. 12 Der Binomialkoeffizient ist für n, k ∈ N mit k ≤ n definiert durch µ ¶ n n! . := k k!(n − k)! Eine direkte Interpretation des Binomialkoeffizienten ist die Anzahl aller möglichen Ergebnisse, die man als zufällige Auswahl von genau k Elementen einer n elementigen Menge ohne Berücksichtigung der Reihenfolge treffen kann. Beispiel 2.1.2 Beim Lotto 6 aus 49 wird aus einer Urne mit 49 Kugeln genau 6 herausgenommen. Der Binomialkoeffizient liefert hierfür die Anzahl an möglichen verschiedenen Ziehungen mit n = 49 und k = 6 µ ¶ 49 49! 49 · 48 · · · 3 · 2 · 1 = = 6 6!(49 − 6)! 6! · 43 · 42 · · · 3 · 2 · 1 10068347520 49 · 48 · 47 · 46 · 45 · 44 = = 13983816. = 6! 720 2.2 Pfade von Irrfahrten und das Reflektionsprinzip Wir betrachten zunächst die Irrfahrt aus Abschnitt 1.2.1 und drehen diese um 90 Grad. Hinzu zeichnen wir eine Zeitachse beginnend im Ursprung (siehe Abbildung 2.1). Wir zeichnen den sogenannten Pfad einer Irrfahrt wie folgt ab: Wandert das Teilchen zum Zeitpunkt t1 = 1 nach 1 so markieren wir dies mit einem Pfeil vom Punkt (0, 0) zum Punkt (1, 1). Wandert das Teilchen nach −1 so markieren wir dies mit einem Pfeil vom Punkt (0, 0) zum Punkt (1, −1). Dies wiederholen wir zu den Zeitpunkten t2 , t3 , . . . vom jeweiligen erreichten Punkt bis zur Absorption des Teilchens. Im Folgenden betrachten wir allgemein 6 b µ µ 1 µ R µ R 0 1 2 µ µ R 3 - t −1 Abbildung 2.1: Pfad einer symmetrischen Irrfahrt Pfade von Irrfahrten und geben hierzu wie in Abschnitt 2.1.1 die Restriktion der Schranken auf. Mathematisch gesehen kann man solch einen Pfad einer Irrfahrt als Realisierung von 13 n ∈ N Zufallsvariablen X1 , . . . , Xn betrachten: Geht der Pfad zum Zeitpunkt t einen Schritt nach oben, so erhält die Variable Xt den Wert 1, geht er einen Schritt nach unten, so erhält die Variable den Wert −1. Bei einer symmetrischen Irrfahrt gilt also 1 P (Xk = 1) = P (Xk = −1) = , für k = 1, . . . , n. 2 Definieren wir Sk := X1 + X2 + · · · + Xk als Partialsummen der ersten k Zufallsvariablen, so können wir Sk als Gewinn (oder Verlust) zum Zeitpunkt k interpretieren. Es gilt Sk − Sk−1 = Xk = ±1, S0 := 0, k = 1, . . . , n. (2.1) Mit dieser Schreibweise kommen wir zur Definition eines Pfades einer Irrfahrt. Definition 2.2.1 Seien n ∈ N und m ∈ Z. Ein Pfad {S1 , S2 , . . . , Sn } vom Punkt (0, 0) zum Punkt (n, m) ist eine Linie (Polygonzug), die durch die Punkte (i, Si ) für i = 0, . . . , n geht und für die die Beziehung (2.1) mit Sn = m gilt. Falls nun p der Zufallsvariablen X1 , . . . , Xn positiv und q negativ sind, so ist n = p + q und m = p − q. Da nichts über die genaue Zuordnung der Zufallsvariablen mit Wert 1 und mit Wert -1 vorausgesetzt wurde, können diese laut Abschnitt 2.1.2 in µ ¶ µ ¶ p+q p+q Nn,m = = p q verschiedenen Kombinationen ausgewählt werden. Beispiel 2.2.2 Betrachten wir eine symmetrische Irrfahrt ohne Schranken und fragen uns nach der Anzahl der Pfade der Irrfahrt von (0, 0) nach (14, 4). Dann muss also n = 14 = p + q und m = 4 = p − q sein. Daraus folgt also p = 4 + q damit q = 5 und p = 9. Damit ergibt sich die Anzahl an möglichen Pfaden µ ¶ 14 14! = 14 · 13 · 11 = 2002. N14,4 = = 9!(14 − 9)! 9 14 In den folgenden Bildern werden einige konkrete Pfade von symmetrischen Irrfahrten ohne absorbierende Schranken gezeigt. Die Bilder wurden mit dem Computer erzeugt und es wurden n = 50, 100, 500, 1000, 10000, 50000 Zufallsexperimente simuliert (siehe Abbildungen 2.2-2.4). Betrachten wir nun die Punkte A = (a, α) und B = (b, β) mit a, b, α, β ∈ N und b > a. Unter der Spiegelung des Punktes A an der Zeitachse verstehen wir den Punkt A0 = (a, −α). Unter einem Pfad von A nach B verstehen wir die Definition 2.2.1 mit A als Ursprung (0, 0) (siehe Abbildung 2.5). Theorem 2.2.3 (Reflektionsprinzip) Die Anzahl an Pfaden von A nach B, welche die Zeitachse berühren oder überqueren entspricht der Anzahl an Pfaden von A0 nach B. Beweis: Wir betrachten einen Pfad von A nach B der die Zeitachse mindestens einmal berührt und spiegeln den Punkt A an der Zeitachse auf den Punkt A0 . Nennen wir den ersten Berührungspunkt mit der Zeitachse T = (t, 0). Da der Pfad von A nach B die Zeitachse vor dem Punkt T nicht berührt, gibt es genauso viele Pfade von A nach T , welche die Zeitachse erst in T berühren, wie von A0 nach T (Spiegelung). Und da danach die beiden Pfade identisch nach B laufen, ist das Theorem bewiesen. ¤ Das Reflektionsprinzip lässt sich sehr vielfältig in der Theorie der Irrfahrten einsetzen. Eine Anwendung findet sich in der von dem französischen Mathematiker Joseph Louis François Bertrand 1887 vorgestellten Abstimmungsproblem: In einer Stichwahl erhält Kandidat P insgesamt p Stimmen und Kandidat Q erhält q Stimmen mit p > q (also Kandidat P hat die Wahl gewonnen). Wie groß ist die Wahrscheinlichkeit, dass während der Auszählung der Stimmen Kandidat P immer mehr Stimmen hatte als Kandidat Q? Abbildung 2.6: Joseph L. F. Bertrand Wir gehen davon aus, dass die Stimmzettel nacheinander einer gut gemsichten Wahlurne entnommen werden. Den entscheidenden Hinweis für die Antwort auf diese Frage liefert das folgende Theorem. Theorem 2.2.4 Seien n, m ∈ N mit n, m > 0 und m ≤ n. Die Anzahl der Pfade {S1 , S2 , . . . , Sn } mit Sn = m, also der Pfade vom Punkt (0, 0) zum Punkt (n, m), so dass S1 > 0, S2 > 0, . . . , Sn > 0 gilt, ist genau m n Nn,m . 15 Beweis: Da nach dem ersten Schritt S1 = ±1 ist, gilt nach der Voraussetzung S1 = 1. Also sind die wirklich in Frage kommenden Pfade alle diejenigen, die vom Punkt (1, 1) zum Punkt (n, m) laufen, dabei aber die Zeitachse weder berühren noch schneiden. Nach dem Reflektionsprinzip ist die Anzahl dieser Pfade gegeben durch µ ¶ µ ¶ p+q−1 p+q−1 Nn−1,m−1 − Nn−1,m+1 = − p−1 q−1 µ ¶ p−q p+q = p+q p m = Nn,m n und damit ist das Theorem bewiesen. ¤ Nun können wir mit Hilfe des eben bewiesenen Theorems die Frage von Herrn Bertrand beantworten: Wir wissen, dass die Anzahl der Pfade von (0, 0) bis (n, m) welche die Zeitachse nie berühren gleich m n Nn,m ist. Also ist die gesuchte Wahrscheinlichkeit P gegeben durch die Anzahl der Pfade welche die Zeitachse nie berühren geteilt durch die anzahl aller Pfade von (0, 0) bis (n, m): m Nn,m m p−q = = . P := n Nn,m n p+q Beachte: Alle Pfade sind gleich wahrscheinlich (Laplacescher Wahrscheinlichkeitsraum). 16 6 4 3 4 2 2 1 0 0 −1 −2 −2 −3 0 10 20 30 40 0 50 20 40 60 80 100 −20 0 −10 10 0 20 10 30 20 40 Abbildung 2.2: Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten. 0 100 200 300 400 0 500 200 400 600 800 1000 −60 −100 −40 −20 −50 0 0 20 50 40 60 100 Abbildung 2.3: Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten. 0 2000 4000 6000 8000 10000 17 0 10000 20000 30000 40000 50000 Abbildung 2.4: Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten. 6 µ µ R 1 µ R µ R 0 1 2 µ 3 R −1 ? Abbildung 2.5: Reflektionsprinzip 18 - t Kapitel 3 Irrfahrten in Z2 Wir betrachten in diesem Abschnitt Zahlengitter in Z2 := Z × Z = {(x, y) : x, y ∈ Z}, also insbesondere eine Menge von Punkten (x, y) mit ganzzahligen Koordinaten x ∈ {. . . , −2, −1, 0, 1, 2, . . .} und y ∈ {. . . , −2, −1, 0, 1, 2, . . .}. Wir bezeichnen mit S = D∪B ⊂ Z2 eine Menge von Punkten, welche die folgenden Bedingungen erfüllt: a) Die Mengen D und B sind disjunkt, es gilt also B ∩ D = ∅. b) Jeder Punkt in D hat alle vier Nachbarpunkte in S. c) Jeder Punkt von B hat mindestens einen Nachbarpunkt in D. d) Für alle Punkte E, F ∈ S gilt: Es gibt eine Folge von Punkten P1 , . . . , Pn ∈ D, so dass sie einen Weg von E nach F bilden (bzw. S ist zusammenhängend). Wir nennen die Punkte aus der Menge D die inneren Punkte von S und die Punkte aus der Menge B die Randpunkte von S (vergleiche Abschnitt 1.2.1). Eine symmetrische Irrfahrt auf einem Zahlengitter S mit Schranken in B führen wir wie folgt ein: Befindet ein Teilchen sich in einem Punkt (x, y) ∈ D so springt es jeweils mit Wahrscheinlichkeit 14 zu einem seiner Nachbarpunkte, in diesem Fall also (x + 1, y), (x − 1, y), (x, y + 1) oder (x, y − 1). Kommt es in einem Punkt (a, b) ∈ B an, so wird es absorbiert und die Irrfahrt endet. Beispiel 3.0.5 Wir betrachten die Punktmengen D = {(0, 0), (1, 0), (2, 0), (1, 1), (2, 1)} und B = {(−1, 0), (0, −1), (0, 1), (1, 2), (2, 2), (3, 0), (3, 1), (1, −1), (2, −1)}. Graphisch kann man das Zahlengitter S = D∪B darstellen wie in Abbildung 3.1, wobei die ausgefüllten Punkte aus der Menge der Randpunkte B und die nichtausgefüllten Punkte aus der Menge der inneren Punkte D stammen. 19 y 6 1 ¾ −1 - 0 1 2 3 x −1 Abbildung 3.1: Zahlengitter S der Irrfahrt In der Situation von Beispiel 3.0.5 bezeichnen wir im Folgenden mit p(x) die Wahrscheinlichkeit in den Schranken B1 := {(−1, 0), (0, −1), (1, 0), (1, 2), (2, 2), (3, 1)} absorbiert zu werden. Weiter seien die inneren Punkte aus D lexikographisch durchnummeriert, also a = (0, 0), b = (1, 0), c = (2, 0), d = (1, 1), und e = (2, 1). Damit gelten die folgenden Eigenschaften der Funktion p(x): a) p(x) = 1 für alle x ∈ B1 und p(x) = 0 für alle x ∈ B \ B1 , b) p(a) = 41 p(b) + 34 , c) p(b) = 41 p(a) + 14 p(c) + 41 p(d), d) p(c) = 14 p(b) + 14 p(e), e) p(d) = 41 p(b) + 14 p(e) + 12 , und f) p(e) = 41 p(c) + 14 p(d) + 12 . Es stellt sich wie schon in Abschnitt 1.2.1 die Frage, wie man die gesuchte Funktion p(x) bestimmen kann und ob diese, so wie wir sie definiert haben, eindeutig ist. Die Frage nach der Eindeutigkeit können wir wie auf dem Zahlenstrahl behandeln und führen hierfür harmonische Funktionen ein. 20 3.1 Harmonische Funktionen in Z2 Wie schon in Kapitel 1 nennen wir eine auf S definierte Funktion f : S → R, (x, y) 7→ f (x, y) harmonisch, falls für Punkte (x, y) ∈ D die Eigenschaft 1 f (x, y) = (f (x + 1, y) + f (x − 1, y) + f (x, y + 1) + f (x, y − 1)) 4 gilt. Auch hier gibt es ein Maximums- und ein Eindeutigkeitsprinzip. Theorem 3.1.1 (Maximumsprinzip) Eine harmonische Funktion f (x, y) nimmt ihr Maximum M und ihr Minimum m am Rand an. Beweis: Übung! Theorem 3.1.2 (Eindeutigkeitsprinzip) Seien f (x, y) und g(x, y) harmonische Funktionen auf S mit f (a, b) = g(a, b) für (a, b) ∈ B. Dann gilt f (x, y) = g(x, y), für alle (x, y) ∈ S. Beweis: Übung! Die betrachtete Funktion p(x) ist eine harmonische Funktion mit gegebenen Randwerten, also ist diese nach dem Eindeutigkeitsprinzip, falls wir sie explizit angeben können, auch eindeutig bestimmt. Wie können wir in diesem Fall die Funktion p(x) bestimmen? 3.2 Lösung bestimmen über lineare Gleichungssysteme Die Eigenschaften e)-f) bilden ein lineares Gleichungssystem mit 5 Unbekannten (hier p(a), p(b), p(c), p(d) und p(e)) und 5 Gleichungen. Lösen wir dieses lineare Gleichungssystem (Übung!), so kommen wir auf die eindeutige Lösung 0.8764045 p(a) p(b) 0.5056180 p(c) ≈ 0.3230337 . p(d) 0.8230337 0.7865169 p(e) 21 3.3 Lösung approximieren über Monte-Carlo-Methode In der Stochastik werden zufällige Phänomene oft über die sogenannte Monte Carlo Methode1 simuliert. Dabei wird ein zufälliger Vorgang n-mal wiederholt (n ∈ N möglichst groß) und sich die relative Häufigkeit eines eintretenden Ereignisses angeschaut. Diese relative Häufigkeit wird als Schätzung der für dieses Ereignis zu erwartenden wahren Wahrscheinlichkeit genommen. In unserem Beispiel 3.0.5 implementieren wir die angegebene Irrfahrt auf dem Computer und führen sie ausgehend von den Punkten a bis e jeweils 10000 mal durch. Die sich dadurch ergebene Schätzung lautet 0.8785 p̂(a) p̂(b) 0.4975 p̂(c) = 0.3165 . p̂(d) 0.8275 0.7825 p̂(e) Die Approximation an die Lösung ist offensichtlich ganz gut. Möchte man eine genauere Näherung bekommen, so muss man einfach die Anzahl der durchlaufenen Irrfahrten erhöhen. 3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken −80 −60 −40 −20 0 20 Betrachten wir die symmetrische Irrfahrt auf S = Z2 mit B = ∅ so erhalten wir eine Irrfahrt ohne Schranken. Hier stellt sich schon wie in Kapitel 1 die Frage nach der −60 −40 −20 0 20 40 Abbildung 3.2: Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten. 1 Begriffsbildung: Die Methode ist nach den berühmten Spielcasinos in Monte Carlo benannt 22 Wahrscheinlichkeit einen beliebigen Punkt (x, y) ∈ Z2 früher oder später zu besuchen. Äquivalent hierzu ist die Frage, ob ein Teilchen bei einer symmetrischen Irrfahrt in der Ebene immer an seinen Ausgangspunkt zurück kommt. Dieses Problem löst der Satz von Pólya. Theorem 3.4.1 (Satz von Pólya) Eine symmetrische Irrfahrt auf einem Zahlengitter in der Ebene ohne Schranken kommt immer zu ihrem Startwert zurück. Dieses Theorem wollen wir nicht beweisen. Es sei aber noch gesagt, dass dies in höheren Dimensionen (≥ 3) nicht mehr zutrifft. Im folgenden wollen wir auf diese sehr interessante Klasse von Irrfahrten aber nicht weiter eingehen. 3.5 Das Banach’sche Streichholzproblem Der polnische Mathematiker Stefan Banach (geb. 1892, gest. 1945) stellte folgendes Problem: Eine Person hat in jeder seiner beiden Hosentaschen eine Streichholzschachtel mit n Streichhölzern. Wenn ein Streichholz gebraucht wird, zieht er mit gleicher Wahrscheinlichkeit eine Schachtel aus seinen Taschen und entnimmt eines. Dies macht er so lange bis er eine Schachtel zieht die leer ist. Wieviele Streichhölzer verbleiben im Durchschnitt noch in der nichtleeren Schachtel? Wir übertragen das Problem auf eine Irrfahrt in der Ebene. Dabei starten wir die Irrfahrt im Punkt (0, 0) und laufen mit Wahrscheinlichkeit 12 nach rechts bzw. nach oben. Die Irrfahrt endet falls die Geraden x = n + 1 bzw. y = n + 1 erreicht werden (die Irrfahrt endet falls n + 1-mal eine der beiden Streichholzschachteln gezogen wird), siehe für eine Visualisierung der Irrfahrt mit inneren Punkten und Schranken Abbildung 3.3. Wir bezeichnen mit R die Anzahl an verbleibenden Streichhölzern in der nichtleeren Schachtel und mit N die Anzahl der Ziehungen bis eine der beiden Schachteln leer ist. Es gibt einen funktionalen Zusammenhang zwischen den beiden Zufallsvariablen R und N , da die Anzahl der benötigten Ziehungen gegeben ist durch n + 1 Ziehungen der am Ende leeren Schachtel und n − R Ziehungen der nichtleeren Schachtel. Es gilt also N = 2n + 1 − R. Um E(R) zu berechnen brauchen wir also E(N ). Wir versuchen die Wahrscheinlichkeitsverteilung von N zu bestimmen. Dazu betrachten wir das Ereignis {N = k} für k = n + 1, . . . , 2n + 1. Weiter bezeichnen wir mit pk := P (N = k). Falls also N = k gilt, so muss gelten 1. n der ersten k − 1 Ziehungen fällt auf die linke Streichholzschachtel und auch die k-te Ziehung. 2. n der ersten k − 1 Ziehungen fällt auf die rechte Streichholzschachtel und auch die k-te Ziehung. 23 y 6 n+1 6 1 ¾ −1 6 - - - B - - - 1 0 n+1 x −1 Abbildung 3.3: Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B Wegen ¡k−1¢ der Symmetrie dieser beiden Ereignisse sind sie gleichwahrscheinlich. Nun gibt es Möglichkeiten (vgl. Abschnitt 2.1.2) in den ersten k − 1 Ziehungen n-mal die linke n (rechte) Streichholzschachtel zu ziehen. Also ist die Wahrscheinlichkeit pk gegeben durch µ ¶ µ ¶k−1 µ ¶ µ ¶k−1 k−1 1 1 k−1 1 pk = P (N = k) = 2 = . n 2 2 n 2 Für k = n + 1, . . . , 2n gilt für den Quotienten pk = pk+1 ¡k−1¢ ¡ 1 ¢k−1 n 2 ¡k ¢ ¡ 1 ¢k n = 2 2(k − n) k und insbesondere gilt pn+1 = µ ¶n µ ¶ µ ¶2n 1 2n 1 und p2n+1 = 2 n 2 Wir nutzen die Formel (3.1) aus, um den Erwartungswert E(N ) = (n + 1)pn+1 + (n + 2)pn+2 + · · · + (2n)p2n + (2n + 1)p2n+1 zu bestimmen. Zunächst schreiben wir (3.1) um zu 2(k + 1)pk+1 = kpk + 2(n + 1)pk+1 . 24 (3.1) Summieren wir beiderseits über k = n + 1, n + 2, . . . , 2n auf, so erhalten 2E(N ) − 2(n + 1)pn+1 = E(N ) − (2n + 1)p2n+1 + 2(n + 1)(1 − pn+1 ). Auflösen nach E(N ) liefert µ ¶ µ ¶2n 2n 1 . E(N ) = 2(n + 1) − (2n + 1) 2 n Wegen E(R) = 2n + 1 − E(N ) ist also die gesuchte durchschnittliche Anzahl an in einer Schachtel verbleibenden Streichhölzern gegeben durch µ ¶ µ ¶2n 2n 1 E(R) = (2n + 1) − 1. n 2 Falls wir also mit n = 50 Streichhölzern in einer Schachtel starten, so gilt E(R) ≈ 7.0385. Also werden im Mittel ungefähr 7 Streichhölzer in einer der beiden Schachteln übrig bleiben. Einen Link zu einer Simulation des Banach’schen Streichholzproblems findet sich auf der Homepage des Schnupperkurses. 3.6 Bernoulli und Tennis Jakob Bernoulli (geb. 1654, gest. 1705) beschreibt in Letter to a Friend on the Sets in Court Tennis mit Hilfe von Irrfahrten die Gewinnwahrscheinlichkeit eines Spielers für ein Spiel im Tennis in Abhängigkeit seiner Spielstärke in Relation zur Spielstärke seines Gegners. Betrachten wir ein Spiel im Tennis mit den üblichen Regeln. Anstatt der normalen Zählweise 0, 15, 30, 40, Spiel, notieren wir Punkte 0, 1, 2, . . .. Das Spiel endet also bei den Spielständen 4 − 0, 4 − 1, 4 − 2, 5 − 3, 6 − 4, . . . oder 0 − 4, 1 − 4, . . .. Wir betrachten das folgende Modell (siehe Abbildung 3.4): Die schwarzen Punkte gehören zur Menge der möglichen Spielstände S und die eingezeichneten Schranken B. Wir nehmen im Folgenden an, dass Spieler 1 mit Wahrscheinlichkeit p und Spieler 2 mit Wahrscheinlichkeit q = 1 − p einen Punkt macht und der Quotient pq = m ∈ N eine natürliche Zahl darstellt. Ein Spiel ist also eine Irrfahrt, die im Punkt (0, 0) startet, mit Wahrscheinlichkeit p einen Schritt nach rechts und mit Wahrscheinlichkeit q einen Schritt nach oben läuft. Sie endet, falls sie die Schranke B erreicht. Gesucht ist die Wahrscheinlichkeit P (i, j), dass Spieler 1 beim Spielstand (i, j) ∈ N20 das Spiel für sich entscheidet, also gewinnt. Wir stellen die Lösung zu diesem Problem von Bernoulli von vor über 300 Jahren dar: Wir betrachten die Beziehung P (i, j) = pP (i + 1, j) + qP (i, j + 1). Nach zweimaligem Anwenden dieser Beziehung und einsetzen des Punktes (3, 3) erhalten wir P (3, 3) = p2 P (5, 3) + 2pqP (4, 4) + q 2 P (3, 5). 25 y 6 B 4 3 B 2 1 ¾ −1 - 0 1 2 3 4 x −1 Abbildung 3.4: Zahlengitter S mit eingezeichneten Schranken B Wir wissen, dass Spieler 1 beim Stand von (5, 3) gewonnen hat, also P (5, 3) = 1 gilt, und er beim Stand von (3, 5) verloren hat, also P (3, 5) = 0 ist. Weiter gilt offensichtlich P (4, 4) = P (3, 3), da dann wieder Gleichstand ist und beide Spieler noch 2 Punkte in Folge benötigen um zu gewinnen. Daraus erhalten wir P (3, 3) = p2 1 + 2pqP (3, 3) also p2 p2 m2 = 2 . = 1 − 2pq p + q2 m2 + 1 Nun können wir einfach mit P (2, 4) = 0 P (3, 3) = P (2, 3) = pP (3, 3) + qP (2, 4) = p3 p2 + q 2 und mit P (4, 2) = 1 P (3, 2) = pP (4, 2) + qP (3, 3) = p + qp2 . p2 + q 2 Führt man dies nach gleichem Schema fort, so erhält man in Abhängigkeit von m die Ausgangswahrscheinlichkeit für den Gewinn eines Punktes m7 + 5m6 + 11m5 + 15m4 . + + 11m5 + 15m4 + 15m3 + 11m2 + 5m + 1 Für einige konkrete Werte von m ∈ N ergibt die Auswertung der angegebenen Formel die folgende Tabelle: P (0, 0) = m7 5m6 26 m 1 2 3 4 P (0, 0) 1 2 208 243 243 256 51968 53125 Man kann nun leicht alle Werte P (i, j) für (i, j) ∈ S angeben. Als Übung kann man zeigen, dass falls der Spieler 1 doppelt so stark ist wie sein Gegner, also insbesondere m = 2 gilt, Spieler 1 dem Gegner zwei Punkte Vorsprung geben kann und das Spiel ist annähernd fair. In diesem Fall gilt P (0, 2) ≈ 0.5136. 3.7 Abschließende Bemerkungen Für diesen Schnupperkurs wurden die Bücher von Doyle und Snell [2], von Blom, Holst und Sandell [1] und von Feller [3] verwendet. Die Grundlagen entstammen dem Lehrbuch von Herrn Henze [4], welches eine gute Einführung in die Stochastik liefert und anhand dessen die Vorlesung Einführung in Stochastik (Stochastik 1) im Bachelor aufgebaut wird. 27 Literaturverzeichnis [1] Holst L. Blom, G. and D. Sandell. Problems and Snapshots from the World of Probability. Springer, 1994. [2] P. G. Doyle and J. L. Snell. Random Walks and Electric Networks. The Mathematical Association of America, 1984. [3] W. Feller. An Introduction to Probability - Theory and Applications, Volume I. Wiley, 2te edition, 1960. [4] N. Henze. Stochastik für Einsteiger - Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner, 8te edition, 2010. 28