Irrfahrten und Phänomene des Zufalls - KIT

Werbung
Irrfahrten und Phänomene des Zufalls
von
Dipl.-math. oec. Bruno Ebner
Inhaltsverzeichnis
1 Einführung
1.1 Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit
1.2 Irrfahrten 1 . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Symmetrische Irrfahrt auf einem Zahlenstrahl . . .
1.3 Zufallsvariable und Erwartungswert . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
6
9
2 Irrfahrten 2
2.1 Erwartete Anzahl an Schritten bis zur Absorption
2.1.1 Weitere symmetrische Irrfahrten . . . . . .
2.1.2 Der Binomialkoeffizient . . . . . . . . . . .
2.2 Pfade von Irrfahrten und das Reflektionsprinzip . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
12
12
13
.
.
.
.
.
.
.
19
21
21
22
22
23
25
27
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Irrfahrten in Z2
3.1 Harmonische Funktionen in Z2 . . . . . . . . . . . . . . . . .
3.2 Lösung bestimmen über lineare Gleichungssysteme . . . . . .
3.3 Lösung approximieren über Monte-Carlo-Methode . . . . . .
3.4 Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken
3.5 Das Banach’sche Streichholzproblem . . . . . . . . . . . . . .
3.6 Bernoulli und Tennis . . . . . . . . . . . . . . . . . . . . . . .
3.7 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . .
Literaturverzeichnis
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
1
Abbildungsverzeichnis
1.1
Symmetrische Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.1
2.6
2.2
2.3
2.4
2.5
Pfad einer symmetrischen Irrfahrt . . . . . . . . . . . . . . . . . . . . . . .
Joseph L. F. Bertrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten. . .
Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten. .
Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten.
Reflektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
15
17
17
17
18
3.1
3.2
3.3
3.4
Zahlengitter S der Irrfahrt . . . . . . . . . . . . . . . . . . . .
Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten.
Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B . .
Zahlengitter S mit eingezeichneten Schranken B . . . . . . .
20
22
24
26
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Kapitel 1
Einführung
Zu Beginn machen wir uns mit einigen wahrscheinlichkeitstheoretischen Grundlagen vertraut.
1.1
Zufallsexperiment, Ergebnismenge und Wahrscheinlichkeit
Ein stochastischer Vorgang heißt ideales Zufallsexperiment, wenn folgende Gegebenheiten
vorliegen:
• Das Experiment wird unter vorher genau festgelegten Bedingungen (Versuchsbedingungen) durchgeführt.
• Die Menge der möglichen Ergebnisse ist vor der Durchführung des Experiments
bekannt.
• Das Experiment kann prinzipiell beliebig oft wiederholt werden.
Beispiel 1.1.1 Der einfache Würfelwurf eines fairen sechsseitigen Würfels ist ein ideales
Zufallsexperiment, da er beliebig oft wiederholt werden kann und alle möglichen Ergebnisse
durch die erzielten Augenzahlen bekannt sind.
Die Menge der möglichen Ergebnisse eines idealen Zufallsexperiments bezeichnen wir mit
Ω und nennen sie Ergebnismenge oder auch Grundraum. Die in der Ergebnismenge aufgeführten Elemente müssen nicht notwendig auch als Resultate eines Zufallsexperiments
auftreten können. Wichtig für das Folgende ist nur, dass die Ergebnismenge Ω alle möglichen Ergebnisse enthält. Die Elemente von Ω werden mit ω, ω1 , ω2 , . . . oder anderen kleinen
griechischen Buchstaben bezeichnet. Sie repräsentieren die möglichen Ergebnisse des Zufallsexperiments.
3
Beispiel 1.1.2 Die Ergebnismenge eines einfachen Würfelwurfs wäre konkret
Ω = {1, 2, 3, 4, 5, 6}.
Wirft man den Würfel einmal und es erscheint die 2, so ist ω = 2 ∈ Ω das Ergebnis des
idealen Zufallsexperiments.
Ist Ω die Ergebnismenge eines Zufallsexperiments, so nennt man die Teilmengen A ⊂ Ω
Ereignisse. Beobachtet man bei der Durchführung des Zufallsexperiments das Ergebnis
ω ∈ Ω, so ist das Ereignis A ⊂ Ω eingetreten, falls ω ∈ A gilt. Falls dagegen ω 6∈ A gilt, so
ist das Ereignis A bei der Durchführung des Zufallsexperiments nicht eingetreten.
Beispiel 1.1.3 Interessiert in unserem Beispiel des einfachen Würfelwurfs nur, ob die
Augenzahl gerade ist, so kann man das Ereignis wie folgt modellieren
A = {2, 4, 6}.
Das Ereignis A tritt also ein, falls eine gerade Augenzahl gewürfelt wird.
Sind A, B zwei Ereignisse so ist der Durchschnitt
A ∩ B := {ω ∈ Ω : ω ∈ A und ω ∈ B}
und die Vereinigung
A ∪ B := {ω ∈ Ω : ω ∈ A oder ω ∈ B}
ein neues Ereignis.
Beispiel 1.1.4 Nehmen wir zu dem letzten Beispiel das Ereignis B der Augenzahlen kleiner gleich drei hinzu, also
B := {1, 2, 3},
so ist der Durchschnitt
A ∩ B = {2, 4, 6} ∩ {1, 2, 3} = {2}
und die Vereinigung
A ∪ B = {2, 4, 6} ∪ {1, 2, 3} = {1, 2, 3, 4, 6}.
Also ist das Ereignis A ∩ B das Ereignis eine 2 zu würfeln und das Ereignis A ∪ B eine
der Augenzahlen ausser der 5 zu würfeln.
Wir wollen im Folgenden von Wahrscheinlichkeiten reden. Dafür benötigen wir eine konkrete Definition des Begriffs Wahrscheinlichkeit.
4
Definition 1.1.5
Ein endlicher Wahrscheinlichkeitsraum ist ein Paar (Ω, P ), wobei Ω eine Ergebnismenge und P eine auf den Teilmengen von Ω definierte reellwertige Funktion mit folgenden
Eigenschaften ist:
a) P (A) ≥ 0 für A ⊂ Ω,
b) P (Ω) = 1,
c) P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅.
P heißt Wahrscheinlichkeitsverteilung auf Ω. P (A) heißt die Wahrscheinlichkeit des Ereignisses A.
Es gibt zahlreiche Zufallsexperimente mit endlich vielen Ausgängen, bei denen wir keinen
Ausgang vor dem anderen als wahrscheinlicher oder unwahrscheinlicher ansehen. In unserem Beispiel des Würfelwurfs würden wir bei einem exakt gefertigten Würfel alle der
sechs Augenzahlen als gleich wahrscheinlich erachten. Bezeichnen wir mit |A| die Anzahl
aller möglichen Ergebnisse des Ereignisses A, so können wir durch
P (A) =
|A|
für A ⊂ Ω,
|Ω|
eine Wahrscheinlichkeitsverteilung angeben. In diesem Fall heißt der Wahrscheinlichkeitsraum (Ω, P ) Laplacescher Wahrscheinlichkeitsraum.
Beispiel 1.1.6 Für unseren einfachen Würfelwurf gilt dann
Ereignis A
|{2, 4, 6}|
3
|A|
=
= =
P (A) =
|Ω|
|{1, 2, 3, 4, 5, 6}|
6
mit dem oben definierten
1
.
2
Da wir im Folgenden die bedingten Wahrscheinlichkeiten benötigen führen wir sie hier
kurz ein.
Definition 1.1.7
Es seien (Ω, P ) ein endlicher Wahrscheinlichkeitsraum und A, B ⊂ Ω mit P (B) > 0.
Dann heißt
P (A ∩ B)
P (A|B) :=
P (B)
die bedingte Wahrscheinlichkeit von A unter der Bedingung B.
Beispiel 1.1.8 In unserem Beispiel wäre also wegen |A ∩ B| = 1 und |B| = 3 und
P (A ∩ B) =
|A ∩ B|
1
|B|
1
= und P (B) =
=
|Ω|
6
|Ω|
2
5
die bedingte Wahrscheinlichkeit von A unter der Bedingung B gegeben durch
P (A|B) =
1.2
1.2.1
P (A ∩ B)
=
P (B)
1
6
1
2
1
= .
3
Irrfahrten 1
Symmetrische Irrfahrt auf einem Zahlenstrahl
Ein Teilchen befindet sich zum Zeitpunkt 0 im Punkt x0 = 0 auf der x-Achse. Zu den
Zeitpunkten t = 1, 2, . . . wandert das Teilchen entweder einen Schritt nach links (x1 = −1)
oder einen Schritt nach rechts (x1 = 1) mit derselben Wahrscheinlichkeit 21 . Die Irrfahrt
endet, falls das Teilchen eine der vorher festgelegten Schranken −a oder b erreicht, a, b ∈ N.
Wir sprechen hier auch von der Absorption des Teilchens.
¾
-
¾
−a
-
-1
0
1
b
Abbildung 1.1: Symmetrische Irrfahrt
Ohne Beschränkung der Allgemeinheit setzen wir die linke Schranke auf 0, den Startpunkt
verschieben wir auf a und die rechte Schranke auf n = b + a. Dann bezeichnen wir mit p(x)
für x = 1, . . . , n die Wahrscheinlichkeit im Punkt n absorbiert zu werden, falls das Teilchen
sich gerade im Punkt x befindet. Die Funktion p(x) hat die folgenden Eigenschaften:
a) p(0) = 0,
b) p(n) = 1,
c) p(x) = 12 p(x − 1) + 12 p(x + 1) für x = 1, 2, . . . , n − 1.
Die Eigenschaft a) folgt direkt aus der Definition der Funktion p da das Teilchen in 0
absorbiert wurde und nicht mehr nach n kommen kann. Die Wahrscheinlichkeit in n absobiert zu werden falls das Teilchen sich in n befindet ist natürlich 1 und so kommt die
Eigenschaft b) zu stande. Die letzte Eigenschaft lässt sich durch folgende Überlegung erklären: Falls das Teilchen sich im Punkt x befindet, x = 1, . . . , n − 1, so befindet es sich
nach dem nächsten Schritt mit Wahrscheinlichkeit 21 im Punkt x − 1 (oder im Punkt
x + 1). Die Wahrscheinlichkeit dann in n absorbiert zu werden ist demzufolge p(x − 1)
(bzw. p(x + 1)). Um die Regel nun korrekt zu erklären benötigen wir eine grundlegende
Tatsache über bedingte Wahrscheinlichkeiten.
6
Theorem 1.2.1
Sei A ein Ereignis und B, C sich ausschließende Ereignisse (also falls B eintritt, so nicht
C und umgekehrt, also B ∩ C = ∅ und B ∪ C = Ω). Dann gilt
P (A) = P (B)P (A|B) + P (C)P (A|C).
Beweis:
Da B und C sich ausschließende Ereignisse sind, gilt
A = (A ∩ B) ∪ (A ∩ C) und (A ∩ B) ∩ (A ∩ C) = ∅.
Damit folgt mit der Definition der bedingten Wahrscheinlichkeit und der Eigenschaft c)
der Wahrscheinlichkeitsverteilung P
P (A) = P ((A ∩ B) ∪ (A ∩ C)) = P (A ∩ B) + P (A ∩ C) = P (B)P (A|B) + P (C)P (A|C).
¤
Setzen wir nun die Überlegung von oben in dieses Theorem ein, so folgt die Eigenschaft
c) der Funktion p(x). Aber wie sieht nun die Funktion p(x) aus? Und endet eine solche
Irrfahrt immer, auch wenn wir das n sehr groß wählen? Um Antworten auf diese Fragen
zu geben, betrachten wir harmonische Funktionen.
Harmonische Funktionen
Wir lösen uns nun erstmal von den Irrfahrten und betrachten allgemein Funktionen für die
die Eigenschaft c) gilt. In diesem Sinne bezeichnen wir mit S = {0, 1, . . . , n} die Menge der
möglichen Punkte auf dem Zahlenstrahl, mit D = {1, . . . , n − 1} ⊂ S die inneren Punkte,
also die Menge S vermindert um die beiden Schranken, und mit B = {0, n} die Menge der
Schranken. Wir nennen eine Funktion f : S → R, x 7→ f (x) harmonisch, falls sie auf der
Menge D der Eigenschaft c) genügt, also gilt
1
f (x) = (f (x − 1) + f (x + 1)).
2
Gelten mit y1 , y2 ∈ R die folgenden Bedingungen
f (0) = y1 und f (n) = y2
so nennen wir diese Randbedingungen. Also ist die Funktion p(x) eine harmonische Funktion mit den Randbedingungen p(0) = 0 und p(n) = 1. Das Problem eine harmonische
Funktion mit vorgegebenen Randbedingungen zu finden, wird auch das Dirichlet Problem
genannt. Wir werden im Folgenden beweisen, dass das Problem eine eindeutige Lösung
besitzt.
Theorem 1.2.2 (Maximumsprinzip)
Eine harmonische Funktion f (x) nimmt ihr Maximum M und ihr Minimum m am Rand
an.
7
Beweis:
Sei M der größte Wert der Funktion f . Falls nun f (x) = M für ein x ∈ D gilt, so gilt auch
f (x − 1) = M = f (x + 1), da f (x) der Mittelwert dieser beiden Werte ist. Falls dies nun
aber für f (x − 1) gilt, so gilt auch nach demselben Argument f (x − 2) = M . Führt man
dies so fort, kommt man auf f (0) = M . Die gleiche Argumentation funktioniert auch für
das Minimum m.
¤
Theorem 1.2.3 (Eindeutigkeitsprinzip)
Seien f (x) und g(x) harmonische Funktionen auf S mit f (0) = g(0) und f (n) = g(n).
Dann gilt
f (x) = g(x), für alle x ∈ S.
Beweis:
Sei h(x) = f (x) − g(x). Dann gilt für x ∈ D
1
(h(x − 1) + h(x + 1)) =
2
1
(f (x − 1) − g(x − 1) + f (x + 1) − g(x + 1))
2
1
1
=
(f (x − 1) + f (x + 1)) − (g(x − 1) + g(x + 1))
2
2
= f (x) − g(x) = h(x),
da die Funktionen f (x) und g(x) nach Voraussetzung harmonisch sind. Also ist auch die
Funktion h(x) harmonisch und es gilt h(0) = 0 und h(n) = 0. Wegen dem Maximumsprinzip ist dann sowohl das Maximum als auch das Minimum der Funktion h(x) gleich 0.
Also muss für alle x ∈ S gelten h(x) = 0. Und somit stimmen die Funktionen f (x) und
g(x) auf S überein.
¤
Mit Hilfe des Eindeutigkeitsprinzips können wir uns nun Gedanken um die Funktion p(x)
aus dem vorherigen Abschnitt machen. Wir sehen, dass falls wir eine harmonische Funktion mit den in a) und b) vorgeschriebenen Randbedingungen finden, diese auch eindeutig
ist. Die einfachste Art unser Problem zu lösen, ist einfach mal zu raten: Eine lineare Funktion, die unsere Randbedingung erfüllt ist f (x) = nx , da f (0) = 0 und f (n) = 1 gilt. Bleibt
noch die Eigenschaft c) zu prüfen. Es gilt
1
x−1+x+1
x
(f (x − 1) + f (x + 1)) =
= = f (x).
2
2n
n
Also haben wir eine harmonische Funktion mit den geforderten Randbedingungen gefunden und wegen dem Eindeutigkeitsprinzip gibt es auch keine weitere.
Auch die zweite gestellte Frage, also die Frage nach der Endlichkeit einer solchen Irrfahrt,
lässt sich mit Hilfe der harmonischen Funktionen leicht beantworten: Wir bezeichnen mit
q(x) die Wahrscheinlichkeit, dass die Irrfahrt nie endet, falls das Teilchen sich am Punkt
x befindet, also die Schranken B nie erreicht werden. Dann folgt mit den gleichen Überlegungen wie bei p(x), dass
1
1
q(x) = q(x − 1) + q(x + 1)
2
2
8
gilt. Also ist q(x) eine harmonische Funktion und es gilt q(0) = q(n) = 0. Nun ist aber
wegen dem Maximumsprinzip q(x) = 0 für alle x ∈ S.
Interpretation als Penny Matching Game“
”
Man stelle sich folgende Situation vor: Peter hat a und Paul b faire Münzen mit den Symbolen Zahl (z) und Wappen (w). Sie schnippen jeweils eine ihrer Münzen auf den Boden, so
dass sie flach aufliegen. Ist bei beiden Münzen das gleiche Symbol zu sehen, so gewinnt Peter beide Münzen, sind unterschiedliche Symbole zu sehen, so gewinnt Paul beide Münzen.
Das Spiel wird so lange gespielt bis einer von beiden keine Münze mehr hat (Absorption).
Auch hier handelt es sich um eine symmetrische Irrfahrt. Die Wahrscheinlichkeit, dass
Peter oder Paul eine Runde gewinnt, ist jeweils 21 , da folgende Kombinationen pro Wurf
auftreten können:
{(w, w), (z, z), (w, z), (z, w)}.
Wenden wir das oben gezeigte auf unser Spiel an, so ist die Wahrscheinlichkeit, dass Peter
a
alle Münzen von Paul gewinnt durch p(a) = na = a+b
gegeben. Respektive gewinnt Paul
b
.
alle Münzen mit der Wahrscheinlichkeit 1 − p(a) = b+a
Beispiel 1.2.4 Peter hat a = 1 Münze und Paul b = 99 Münzen. Die Wahrscheinlichkeit,
dass Peter das Spiel gewinnt, liegt bei p(1) = 0.01 = 1%.
1.3
Zufallsvariable und Erwartungswert
Zufällige Ereignisse werden meist mit Hilfe von Zufallsvariablen beschrieben. Darunter
versteht man eine Variable, deren Wert vom Ergebnis eines Zufallsexperiments abhängt.
Definition 1.3.1
Ist Ω eine Ergebnismenge, so heißt jede Abbildung
X:Ω→R
von Ω in die Menge der reellen Zahlen eine Zufallsvariable (auf Ω).
Wir können eine Zufallsvariable X als eine Vorschrift ansehen, die jedem Ergebnis ω ∈ Ω
des idealen Zufallsexperimentes eine reelle Zahl X(ω) zuordnet. Der Wert X(ω) heißt auch
Realisierung der Zufallsvariablen zum Ausgang ω.
Beispiel 1.3.2 Wir interessieren uns beim einfachen Würfelwurf für das Quadrat der
geworfenen Augenzahl, also setzen wir als Zufallsvariable
X(ω) = ω 2 , ω ∈ Ω.
Die Zufallsvariable nimmt also die Werte 1, 4, 9, 16, 25 und 36 an.
9
Ist Ω eine Ergebnismenge eines Zufallsexperiments und ist
X : Ω → R, ω 7→ X(ω),
eine Zufallsvariable, so interessiert man sich in der Praxis für Ereignisse der Form
A = {ω ∈ Ω : X(ω) = x} ⊂ Ω, x ∈ R,
also für das Ereignis, dass bei Durchführung des Zufallsexperiments die Zufallsvariable X
einen fest vorgegebenen Wert x ∈ R annimmt.
Beispiel 1.3.3 Interessieren wir uns zum Beispiel für das Ereignis A so können wir dieses
mit Hilfe der Zufallsvariablen X schreiben als
A = {2, 4, 6} = {ω ∈ Ω : X(ω) = 4} ∪ {ω ∈ Ω : X(ω) = 16} ∪ {ω ∈ Ω : X(ω) = 36}.
Wir betrachten allgemein für ein s ∈ N die endliche Ergebnismenge Ω = {ω1 , . . . , ωs } mit
einer durch P ({ωj }) für j = 1, . . . , s gegebenen Wahrscheinlichkeitsverteilung sowie X als
Zufallsvariable auf Ω. Dann können wir den Erwartungswert einer Zufallsvariablen wie
folgt definieren.
Definition 1.3.4
Für eine Zufallsvariable X : Ω → R auf einem endlichen Wahrscheinlichkeitsraum (Ω, P )
heißt die Zahl
E(X) := X(ω1 )P ({ω1 }) + X(ω2 )P ({ω2 }) + · · · + X(ωs )P ({ωs })
der Erwartungswert von X.
Wir können E(X) als durschnittliche Auszahlung pro Spiel auf lange Sicht ansehen, wenn
wiederholt ein Glückspiel mit den möglichen Ergebnissen ω ∈ Ω und einer durch die
Zufallsvariable X festgelegten Auszahlungsfunktion gespielt wird.
Beispiel 1.3.5 Der Erwartungswert der Zufallsvariablen X aus Beispiel 1.3.2 ist wegen
P ({ω}) = 61 für alle ω ∈ Ω gegeben durch
E(X) = X(1)P ({1}) + X(2)P ({2}) + · · · + X(6)P ({6})
= 1P ({1}) + 4P ({2}) + · · · + 36P ({6})
1
91
=
(1 + 4 + 9 + 16 + 25 + 36) =
≈ 15.17.
6
6
Sind X, Y Zufallsvariablen auf Ω und a ∈ R, so hat der Erwartungswert folgende Eigenschaften:
a) E(X + Y ) = E(X) + E(Y ),
b) E(aX) = aE(X).
10
Kapitel 2
Irrfahrten 2
2.1
Erwartete Anzahl an Schritten bis zur Absorption
Bei der in Abschnitt 1.2.1 eingeführten symmetrischen Irrfahrt auf dem Zahlenstrahl haben wir gesehen, dass das Teilchen früher oder später immer absorbiert wird. Eine weitere
natürliche Frage stellt sich dann: Wie oft wird das Teilchen im Durchschnitt hin und her
springen bis es absorbiert wird? Dieser Frage wollen wir uns im Folgenden widmen.
Hierzu benötigen wir die gerade eingeführten Begriffe der Zufallsvariable und des Erwartungswertes. Wir bezeichnen mit
Nx := Anzahl der benötigten Schritte bis das Partikel absorbiert wird,
dabei steht der Index x = 0, . . . , n für die Position des Teilchens. Von vornherein kennen
wir zwei sichere Werte der Zufallsvariablen Nx
N0 = 0 und Nn = 0,
da in diesen Positionen das Teilchen bereits absorbiert wurde. Befindet sich das Teilchen
in der Position x = 1, . . . , n − 1 so läuft es einen Schritt (nach links oder rechts, jeweils
mit Wahrscheinlichkeit 12 ) und kommt in den Positionen x − 1 oder x + 1 an. Von dort aus
braucht es aber noch Nx−1 bzw. Nx+1 Schritte bis es absorbiert wird. Also können wir die
Zufallsvariable Nx schreiben als
½
1 + Nx−1 , mit Wahrscheinlichkeit 12 ,
Nx =
1 + Nx+1 , mit Wahrscheinlichkeit 21 .
Für den Erwartungswert E(Nx ) hält demzufolge für x = 1, . . . , n − 1 die folgende Differenzengleichung
1
1
E(Nx ) = 1 + E (Nx−1 ) + E (Nx+1 ) .
2
2
Die allgemeine Lösung der Differenzengleichung1 ist gegeben durch
E(Nx ) = −x2 + c1 x + c2 , c1 , c2 ∈ R.
1
Das Lösen von Differenzengleichungen ist nicht Bestandteil des Schnupperkurses, weswegen in diesem
Falle die Lösung angegeben wird. Es handelt sich hier um eine lineare Differenzengleichung 2. Ordnung,
welche mit Standardmethoden gelöst werden kann.
11
Mit den beiden sicheren Werten N0 = Nn = 0 ergeben sich die Erwartungswerte E(N0 ) =
E(Nn ) = 0 und damit die Gleichungen
c2 = 0
2
−n + c1 n + c2 = 0.
Setzt man c2 = 0 in die zweite Gleichung ein, so folgt wegen n 6= 0
−n2 + c1 n = 0 ⇐⇒ n(c1 − n) = 0 =⇒ c1 = n.
Eingesetzt ergibt dies den gesuchten Erwartungswert
E(Nx ) = −x2 + nx.
Falls wir also in x = a starten ergibt sich mit n = a + b als erwartete Anzahl an Schritten
für eine symmetrische Irrfahrt auf dem Zahlenstrahl mit absorbierenden Schranken in 0
und b + a
E(Na ) = −a2 + (a + b)a = ab.
Erwartete Anzahl an Münzwürfen bis zum Ruin
Wenden wir das eben berechnete auf die Situation des Penny Matching Games“an, so
”
erhalten wir die verblüffende Antwort, dass selbst wenn Peter nur 1 Münze hat, das Spiel im
Mittel 99-mal gespielt wird, bis einer der Spieler ruiniert ist, obwohl die Wahrscheinlichkeit,
dass es nach einem Spiel schon endet, bei 50% liegt.
2.1.1
Weitere symmetrische Irrfahrten
In der Situation von Abschnitt 1.2.1 setzen wir a = ∞ und b ∈ N so sprechen wir von
einer Irrfahrt mit nur einer absorbierenden Schranke. Auch hier stellt sich die Frage nach
der Wahrscheinlichkeit der Absorption des Teilchens, da es ja prinzipiell in eine Richtung
abdriften könnte (Übungsaufgabe). Setzen wir auch b = ∞ so sprechen wir von einer
symmetrischen Irrfahrt ohne Schranken, da das Teilchen nie absorbiert wird.
2.1.2
Der Binomialkoeffizient
In Kapitel 1 haben wir den Laplaceschen Wahrscheinlichkeitsraum eingeführt. Um die
möglichen Ergebnisse eines Ereignisses angeben zu können, sollten wir uns mit einigen
zentralen Begriffen der Kombinatorik, der Lehre des Abzählens, vertraut machen. Unter
der Fakultät einer Zahl n ∈ N verstehen wir die Zahl
n! := n · (n − 1) · (n − 2) · · · 3 · 2 · 1.
Beispiel 2.1.1 Die Fakultät ist eine sehr schnell wachsende Vorschrift:
1! = 1, 2! = 2·1 = 2, 3! = 3·2·1 = 6, 4! = 4·3! = 24, 6! = 6·5·4! = 720 und 15! = 1307674368000.
12
Der Binomialkoeffizient ist für n, k ∈ N mit k ≤ n definiert durch
µ ¶
n
n!
.
:=
k
k!(n − k)!
Eine direkte Interpretation des Binomialkoeffizienten ist die Anzahl aller möglichen Ergebnisse, die man als zufällige Auswahl von genau k Elementen einer n elementigen Menge
ohne Berücksichtigung der Reihenfolge treffen kann.
Beispiel 2.1.2 Beim Lotto 6 aus 49 wird aus einer Urne mit 49 Kugeln genau 6 herausgenommen. Der Binomialkoeffizient liefert hierfür die Anzahl an möglichen verschiedenen
Ziehungen mit n = 49 und k = 6
µ ¶
49
49!
49 · 48 · · · 3 · 2 · 1
=
=
6
6!(49 − 6)!
6! · 43 · 42 · · · 3 · 2 · 1
10068347520
49 · 48 · 47 · 46 · 45 · 44
=
= 13983816.
=
6!
720
2.2
Pfade von Irrfahrten und das Reflektionsprinzip
Wir betrachten zunächst die Irrfahrt aus Abschnitt 1.2.1 und drehen diese um 90 Grad.
Hinzu zeichnen wir eine Zeitachse beginnend im Ursprung (siehe Abbildung 2.1). Wir
zeichnen den sogenannten Pfad einer Irrfahrt wie folgt ab: Wandert das Teilchen zum
Zeitpunkt t1 = 1 nach 1 so markieren wir dies mit einem Pfeil vom Punkt (0, 0) zum Punkt
(1, 1). Wandert das Teilchen nach −1 so markieren wir dies mit einem Pfeil vom Punkt
(0, 0) zum Punkt (1, −1). Dies wiederholen wir zu den Zeitpunkten t2 , t3 , . . . vom jeweiligen
erreichten Punkt bis zur Absorption des Teilchens. Im Folgenden betrachten wir allgemein
6
b
µ
µ
1
µ
R
µ
R
0
1
2
µ
µ
R
3
-
t
−1
Abbildung 2.1: Pfad einer symmetrischen Irrfahrt
Pfade von Irrfahrten und geben hierzu wie in Abschnitt 2.1.1 die Restriktion der Schranken
auf. Mathematisch gesehen kann man solch einen Pfad einer Irrfahrt als Realisierung von
13
n ∈ N Zufallsvariablen X1 , . . . , Xn betrachten: Geht der Pfad zum Zeitpunkt t einen
Schritt nach oben, so erhält die Variable Xt den Wert 1, geht er einen Schritt nach unten,
so erhält die Variable den Wert −1. Bei einer symmetrischen Irrfahrt gilt also
1
P (Xk = 1) = P (Xk = −1) = , für k = 1, . . . , n.
2
Definieren wir
Sk := X1 + X2 + · · · + Xk
als Partialsummen der ersten k Zufallsvariablen, so können wir Sk als Gewinn (oder Verlust) zum Zeitpunkt k interpretieren. Es gilt
Sk − Sk−1 = Xk = ±1, S0 := 0, k = 1, . . . , n.
(2.1)
Mit dieser Schreibweise kommen wir zur Definition eines Pfades einer Irrfahrt.
Definition 2.2.1
Seien n ∈ N und m ∈ Z. Ein Pfad {S1 , S2 , . . . , Sn } vom Punkt (0, 0) zum Punkt (n, m) ist
eine Linie (Polygonzug), die durch die Punkte (i, Si ) für i = 0, . . . , n geht und für die die
Beziehung (2.1) mit Sn = m gilt.
Falls nun p der Zufallsvariablen X1 , . . . , Xn positiv und q negativ sind, so ist
n = p + q und m = p − q.
Da nichts über die genaue Zuordnung der Zufallsvariablen mit Wert 1 und mit Wert -1
vorausgesetzt wurde, können diese laut Abschnitt 2.1.2 in
µ
¶ µ
¶
p+q
p+q
Nn,m =
=
p
q
verschiedenen Kombinationen ausgewählt werden.
Beispiel 2.2.2 Betrachten wir eine symmetrische Irrfahrt ohne Schranken und fragen uns
nach der Anzahl der Pfade der Irrfahrt von (0, 0) nach (14, 4). Dann muss also
n = 14 = p + q und m = 4 = p − q
sein. Daraus folgt also p = 4 + q damit q = 5 und p = 9. Damit ergibt sich die Anzahl an
möglichen Pfaden
µ ¶
14
14!
= 14 · 13 · 11 = 2002.
N14,4 =
=
9!(14 − 9)!
9
14
In den folgenden Bildern werden einige konkrete Pfade von symmetrischen Irrfahrten ohne
absorbierende Schranken gezeigt. Die Bilder wurden mit dem Computer erzeugt und es
wurden n = 50, 100, 500, 1000, 10000, 50000 Zufallsexperimente simuliert (siehe Abbildungen 2.2-2.4).
Betrachten wir nun die Punkte A = (a, α) und B = (b, β) mit a, b, α, β ∈ N und b > a.
Unter der Spiegelung des Punktes A an der Zeitachse verstehen wir den Punkt A0 =
(a, −α). Unter einem Pfad von A nach B verstehen wir die Definition 2.2.1 mit A als
Ursprung (0, 0) (siehe Abbildung 2.5).
Theorem 2.2.3 (Reflektionsprinzip)
Die Anzahl an Pfaden von A nach B, welche die Zeitachse berühren oder überqueren
entspricht der Anzahl an Pfaden von A0 nach B.
Beweis:
Wir betrachten einen Pfad von A nach B der die Zeitachse mindestens einmal berührt
und spiegeln den Punkt A an der Zeitachse auf den Punkt A0 . Nennen wir den ersten
Berührungspunkt mit der Zeitachse T = (t, 0). Da der Pfad von A nach B die Zeitachse
vor dem Punkt T nicht berührt, gibt es genauso viele Pfade von A nach T , welche die
Zeitachse erst in T berühren, wie von A0 nach T (Spiegelung). Und da danach die beiden
Pfade identisch nach B laufen, ist das Theorem bewiesen.
¤
Das Reflektionsprinzip lässt sich sehr vielfältig in der Theorie
der Irrfahrten einsetzen. Eine Anwendung findet sich in der von
dem französischen Mathematiker Joseph Louis François Bertrand 1887 vorgestellten Abstimmungsproblem: In einer Stichwahl erhält Kandidat P insgesamt p Stimmen und Kandidat Q
erhält q Stimmen mit p > q (also Kandidat P hat die Wahl
gewonnen). Wie groß ist die Wahrscheinlichkeit, dass während
der Auszählung der Stimmen Kandidat P immer mehr Stimmen hatte als Kandidat Q?
Abbildung 2.6: Joseph
L. F. Bertrand
Wir gehen davon aus, dass die Stimmzettel nacheinander einer
gut gemsichten Wahlurne entnommen werden. Den entscheidenden Hinweis für die Antwort auf diese Frage liefert das folgende
Theorem.
Theorem 2.2.4
Seien n, m ∈ N mit n, m > 0 und m ≤ n. Die Anzahl der Pfade {S1 , S2 , . . . , Sn } mit Sn =
m, also der Pfade vom Punkt (0, 0) zum Punkt (n, m), so dass S1 > 0, S2 > 0, . . . , Sn > 0
gilt, ist genau m
n Nn,m .
15
Beweis:
Da nach dem ersten Schritt S1 = ±1 ist, gilt nach der Voraussetzung S1 = 1. Also
sind die wirklich in Frage kommenden Pfade alle diejenigen, die vom Punkt (1, 1) zum
Punkt (n, m) laufen, dabei aber die Zeitachse weder berühren noch schneiden. Nach dem
Reflektionsprinzip ist die Anzahl dieser Pfade gegeben durch
µ
¶ µ
¶
p+q−1
p+q−1
Nn−1,m−1 − Nn−1,m+1 =
−
p−1
q−1
µ
¶
p−q p+q
=
p+q
p
m
=
Nn,m
n
und damit ist das Theorem bewiesen.
¤
Nun können wir mit Hilfe des eben bewiesenen Theorems die Frage von Herrn Bertrand beantworten: Wir wissen, dass die Anzahl der Pfade von (0, 0) bis (n, m) welche die Zeitachse
nie berühren gleich m
n Nn,m ist. Also ist die gesuchte Wahrscheinlichkeit P gegeben durch
die Anzahl der Pfade welche die Zeitachse nie berühren geteilt durch die anzahl aller Pfade
von (0, 0) bis (n, m):
m
Nn,m
m
p−q
=
=
.
P := n
Nn,m
n
p+q
Beachte: Alle Pfade sind gleich wahrscheinlich (Laplacescher Wahrscheinlichkeitsraum).
16
6
4
3
4
2
2
1
0
0
−1
−2
−2
−3
0
10
20
30
40
0
50
20
40
60
80
100
−20
0
−10
10
0
20
10
30
20
40
Abbildung 2.2: Pfade von Irrfahrten mit n = 50 (links) und n = 100 (rechts) Schritten.
0
100
200
300
400
0
500
200
400
600
800
1000
−60
−100
−40
−20
−50
0
0
20
50
40
60
100
Abbildung 2.3: Pfade von Irrfahrten mit n = 500 (links) und n = 1000 (rechts) Schritten.
0
2000
4000
6000
8000
10000
17
0
10000
20000
30000
40000
50000
Abbildung 2.4: Pfade von Irrfahrten mit n = 10000 (links) und n = 50000 (rechts) Schritten.
6
µ
µ
R
1
µ
R
µ
R
0
1
2
µ
3
R
−1
?
Abbildung 2.5: Reflektionsprinzip
18
-
t
Kapitel 3
Irrfahrten in Z2
Wir betrachten in diesem Abschnitt Zahlengitter in Z2 := Z × Z = {(x, y) : x, y ∈
Z}, also insbesondere eine Menge von Punkten (x, y) mit ganzzahligen Koordinaten x ∈
{. . . , −2, −1, 0, 1, 2, . . .} und y ∈ {. . . , −2, −1, 0, 1, 2, . . .}. Wir bezeichnen mit S = D∪B ⊂
Z2 eine Menge von Punkten, welche die folgenden Bedingungen erfüllt:
a) Die Mengen D und B sind disjunkt, es gilt also B ∩ D = ∅.
b) Jeder Punkt in D hat alle vier Nachbarpunkte in S.
c) Jeder Punkt von B hat mindestens einen Nachbarpunkt in D.
d) Für alle Punkte E, F ∈ S gilt: Es gibt eine Folge von Punkten P1 , . . . , Pn ∈ D, so
dass sie einen Weg von E nach F bilden (bzw. S ist zusammenhängend).
Wir nennen die Punkte aus der Menge D die inneren Punkte von S und die Punkte aus der
Menge B die Randpunkte von S (vergleiche Abschnitt 1.2.1). Eine symmetrische Irrfahrt
auf einem Zahlengitter S mit Schranken in B führen wir wie folgt ein: Befindet ein Teilchen
sich in einem Punkt (x, y) ∈ D so springt es jeweils mit Wahrscheinlichkeit 14 zu einem
seiner Nachbarpunkte, in diesem Fall also (x + 1, y), (x − 1, y), (x, y + 1) oder (x, y − 1).
Kommt es in einem Punkt (a, b) ∈ B an, so wird es absorbiert und die Irrfahrt endet.
Beispiel 3.0.5 Wir betrachten die Punktmengen
D = {(0, 0), (1, 0), (2, 0), (1, 1), (2, 1)}
und
B = {(−1, 0), (0, −1), (0, 1), (1, 2), (2, 2), (3, 0), (3, 1), (1, −1), (2, −1)}.
Graphisch kann man das Zahlengitter S = D∪B darstellen wie in Abbildung 3.1, wobei die
ausgefüllten Punkte aus der Menge der Randpunkte B und die nichtausgefüllten Punkte
aus der Menge der inneren Punkte D stammen.
19
y 6
1
¾
−1
-
0
1
2
3
x
−1
Abbildung 3.1: Zahlengitter S der Irrfahrt
In der Situation von Beispiel 3.0.5 bezeichnen wir im Folgenden mit p(x) die Wahrscheinlichkeit in den Schranken
B1 := {(−1, 0), (0, −1), (1, 0), (1, 2), (2, 2), (3, 1)}
absorbiert zu werden. Weiter seien die inneren Punkte aus D lexikographisch durchnummeriert, also
a = (0, 0), b = (1, 0), c = (2, 0), d = (1, 1), und e = (2, 1).
Damit gelten die folgenden Eigenschaften der Funktion p(x):
a) p(x) = 1 für alle x ∈ B1 und p(x) = 0 für alle x ∈ B \ B1 ,
b) p(a) = 41 p(b) + 34 ,
c) p(b) = 41 p(a) + 14 p(c) + 41 p(d),
d) p(c) = 14 p(b) + 14 p(e),
e) p(d) = 41 p(b) + 14 p(e) + 12 , und
f) p(e) = 41 p(c) + 14 p(d) + 12 .
Es stellt sich wie schon in Abschnitt 1.2.1 die Frage, wie man die gesuchte Funktion p(x)
bestimmen kann und ob diese, so wie wir sie definiert haben, eindeutig ist. Die Frage nach
der Eindeutigkeit können wir wie auf dem Zahlenstrahl behandeln und führen hierfür
harmonische Funktionen ein.
20
3.1
Harmonische Funktionen in Z2
Wie schon in Kapitel 1 nennen wir eine auf S definierte Funktion f : S → R, (x, y) 7→
f (x, y) harmonisch, falls für Punkte (x, y) ∈ D die Eigenschaft
1
f (x, y) = (f (x + 1, y) + f (x − 1, y) + f (x, y + 1) + f (x, y − 1))
4
gilt. Auch hier gibt es ein Maximums- und ein Eindeutigkeitsprinzip.
Theorem 3.1.1 (Maximumsprinzip)
Eine harmonische Funktion f (x, y) nimmt ihr Maximum M und ihr Minimum m am Rand
an.
Beweis: Übung!
Theorem 3.1.2 (Eindeutigkeitsprinzip)
Seien f (x, y) und g(x, y) harmonische Funktionen auf S mit f (a, b) = g(a, b) für (a, b) ∈ B.
Dann gilt
f (x, y) = g(x, y), für alle (x, y) ∈ S.
Beweis: Übung!
Die betrachtete Funktion p(x) ist eine harmonische Funktion mit gegebenen Randwerten,
also ist diese nach dem Eindeutigkeitsprinzip, falls wir sie explizit angeben können, auch
eindeutig bestimmt. Wie können wir in diesem Fall die Funktion p(x) bestimmen?
3.2
Lösung bestimmen über lineare Gleichungssysteme
Die Eigenschaften e)-f) bilden ein lineares Gleichungssystem mit 5 Unbekannten (hier
p(a), p(b), p(c), p(d) und p(e)) und 5 Gleichungen. Lösen wir dieses lineare Gleichungssystem (Übung!), so kommen wir auf die eindeutige Lösung

 

0.8764045
p(a)
 p(b)   0.5056180 

 

 p(c)  ≈  0.3230337  .

 

 p(d)   0.8230337 
0.7865169
p(e)
21
3.3
Lösung approximieren über Monte-Carlo-Methode
In der Stochastik werden zufällige Phänomene oft über die sogenannte Monte Carlo Methode1 simuliert. Dabei wird ein zufälliger Vorgang n-mal wiederholt (n ∈ N möglichst groß)
und sich die relative Häufigkeit eines eintretenden Ereignisses angeschaut. Diese relative
Häufigkeit wird als Schätzung der für dieses Ereignis zu erwartenden wahren Wahrscheinlichkeit genommen. In unserem Beispiel 3.0.5 implementieren wir die angegebene Irrfahrt
auf dem Computer und führen sie ausgehend von den Punkten a bis e jeweils 10000 mal
durch. Die sich dadurch ergebene Schätzung lautet
 


0.8785
p̂(a)
 p̂(b)   0.4975 

 

 p̂(c)  =  0.3165  .

 

 p̂(d)   0.8275 
0.7825
p̂(e)
Die Approximation an die Lösung ist offensichtlich ganz gut. Möchte man eine genauere Näherung bekommen, so muss man einfach die Anzahl der durchlaufenen Irrfahrten
erhöhen.
3.4
Irrfahrten auf dem Zahlengitter in der Ebene ohne Schranken
−80
−60
−40
−20
0
20
Betrachten wir die symmetrische Irrfahrt auf S = Z2 mit B = ∅ so erhalten wir eine Irrfahrt ohne Schranken. Hier stellt sich schon wie in Kapitel 1 die Frage nach der
−60
−40
−20
0
20
40
Abbildung 3.2: Ein Pfad einer Irrfahrt in der Ebene mit n = 10000 Schritten.
1
Begriffsbildung: Die Methode ist nach den berühmten Spielcasinos in Monte Carlo benannt
22
Wahrscheinlichkeit einen beliebigen Punkt (x, y) ∈ Z2 früher oder später zu besuchen.
Äquivalent hierzu ist die Frage, ob ein Teilchen bei einer symmetrischen Irrfahrt in der
Ebene immer an seinen Ausgangspunkt zurück kommt. Dieses Problem löst der Satz von
Pólya.
Theorem 3.4.1 (Satz von Pólya)
Eine symmetrische Irrfahrt auf einem Zahlengitter in der Ebene ohne Schranken kommt
immer zu ihrem Startwert zurück.
Dieses Theorem wollen wir nicht beweisen. Es sei aber noch gesagt, dass dies in höheren
Dimensionen (≥ 3) nicht mehr zutrifft. Im folgenden wollen wir auf diese sehr interessante
Klasse von Irrfahrten aber nicht weiter eingehen.
3.5
Das Banach’sche Streichholzproblem
Der polnische Mathematiker Stefan Banach (geb. 1892, gest. 1945) stellte folgendes Problem: Eine Person hat in jeder seiner beiden Hosentaschen eine Streichholzschachtel mit
n Streichhölzern. Wenn ein Streichholz gebraucht wird, zieht er mit gleicher Wahrscheinlichkeit eine Schachtel aus seinen Taschen und entnimmt eines. Dies macht er so lange bis
er eine Schachtel zieht die leer ist. Wieviele Streichhölzer verbleiben im Durchschnitt noch
in der nichtleeren Schachtel?
Wir übertragen das Problem auf eine Irrfahrt in der Ebene. Dabei starten wir die Irrfahrt
im Punkt (0, 0) und laufen mit Wahrscheinlichkeit 12 nach rechts bzw. nach oben. Die Irrfahrt endet falls die Geraden x = n + 1 bzw. y = n + 1 erreicht werden (die Irrfahrt endet
falls n + 1-mal eine der beiden Streichholzschachteln gezogen wird), siehe für eine Visualisierung der Irrfahrt mit inneren Punkten und Schranken Abbildung 3.3. Wir bezeichnen
mit R die Anzahl an verbleibenden Streichhölzern in der nichtleeren Schachtel und mit N
die Anzahl der Ziehungen bis eine der beiden Schachteln leer ist. Es gibt einen funktionalen Zusammenhang zwischen den beiden Zufallsvariablen R und N , da die Anzahl der
benötigten Ziehungen gegeben ist durch n + 1 Ziehungen der am Ende leeren Schachtel
und n − R Ziehungen der nichtleeren Schachtel. Es gilt also
N = 2n + 1 − R.
Um E(R) zu berechnen brauchen wir also E(N ). Wir versuchen die Wahrscheinlichkeitsverteilung von N zu bestimmen. Dazu betrachten wir das Ereignis {N = k} für
k = n + 1, . . . , 2n + 1. Weiter bezeichnen wir mit pk := P (N = k). Falls also N = k gilt,
so muss gelten
1. n der ersten k − 1 Ziehungen fällt auf die linke Streichholzschachtel und auch die
k-te Ziehung.
2. n der ersten k − 1 Ziehungen fällt auf die rechte Streichholzschachtel und auch die
k-te Ziehung.
23
y 6
n+1
6
1
¾
−1
6
-
-
-
B
-
-
-
1
0
n+1
x
−1
Abbildung 3.3: Irrfahrt im Zahlengitter S mit eingezeichneter Schranke B
Wegen
¡k−1¢ der Symmetrie dieser beiden Ereignisse sind sie gleichwahrscheinlich. Nun gibt es
Möglichkeiten (vgl. Abschnitt 2.1.2) in den ersten k − 1 Ziehungen n-mal die linke
n
(rechte) Streichholzschachtel zu ziehen. Also ist die Wahrscheinlichkeit pk gegeben durch
µ
¶ µ ¶k−1
µ
¶ µ ¶k−1
k−1
1
1
k−1
1
pk = P (N = k) = 2
=
.
n
2
2
n
2
Für k = n + 1, . . . , 2n gilt für den Quotienten
pk
=
pk+1
¡k−1¢ ¡ 1 ¢k−1
n
2
¡k ¢ ¡ 1 ¢k
n
=
2
2(k − n)
k
und insbesondere gilt
pn+1 =
µ ¶n
µ ¶ µ ¶2n
1
2n
1
und p2n+1 =
2
n
2
Wir nutzen die Formel (3.1) aus, um den Erwartungswert
E(N ) = (n + 1)pn+1 + (n + 2)pn+2 + · · · + (2n)p2n + (2n + 1)p2n+1
zu bestimmen. Zunächst schreiben wir (3.1) um zu
2(k + 1)pk+1 = kpk + 2(n + 1)pk+1 .
24
(3.1)
Summieren wir beiderseits über k = n + 1, n + 2, . . . , 2n auf, so erhalten
2E(N ) − 2(n + 1)pn+1 = E(N ) − (2n + 1)p2n+1 + 2(n + 1)(1 − pn+1 ).
Auflösen nach E(N ) liefert
µ ¶ µ ¶2n
2n
1
.
E(N ) = 2(n + 1) − (2n + 1)
2
n
Wegen E(R) = 2n + 1 − E(N ) ist also die gesuchte durchschnittliche Anzahl an in einer
Schachtel verbleibenden Streichhölzern gegeben durch
µ ¶ µ ¶2n
2n
1
E(R) = (2n + 1)
− 1.
n
2
Falls wir also mit n = 50 Streichhölzern in einer Schachtel starten, so gilt
E(R) ≈ 7.0385.
Also werden im Mittel ungefähr 7 Streichhölzer in einer der beiden Schachteln übrig bleiben. Einen Link zu einer Simulation des Banach’schen Streichholzproblems findet sich auf
der Homepage des Schnupperkurses.
3.6
Bernoulli und Tennis
Jakob Bernoulli (geb. 1654, gest. 1705) beschreibt in Letter to a Friend on the Sets in
Court Tennis mit Hilfe von Irrfahrten die Gewinnwahrscheinlichkeit eines Spielers für
ein Spiel im Tennis in Abhängigkeit seiner Spielstärke in Relation zur Spielstärke seines
Gegners. Betrachten wir ein Spiel im Tennis mit den üblichen Regeln. Anstatt der normalen
Zählweise 0, 15, 30, 40, Spiel, notieren wir Punkte 0, 1, 2, . . .. Das Spiel endet also bei den
Spielständen 4 − 0, 4 − 1, 4 − 2, 5 − 3, 6 − 4, . . . oder 0 − 4, 1 − 4, . . .. Wir betrachten das
folgende Modell (siehe Abbildung 3.4): Die schwarzen Punkte gehören zur Menge der
möglichen Spielstände S und die eingezeichneten Schranken B. Wir nehmen im Folgenden
an, dass Spieler 1 mit Wahrscheinlichkeit p und Spieler 2 mit Wahrscheinlichkeit q = 1 − p
einen Punkt macht und der Quotient pq = m ∈ N eine natürliche Zahl darstellt. Ein Spiel
ist also eine Irrfahrt, die im Punkt (0, 0) startet, mit Wahrscheinlichkeit p einen Schritt
nach rechts und mit Wahrscheinlichkeit q einen Schritt nach oben läuft. Sie endet, falls
sie die Schranke B erreicht. Gesucht ist die Wahrscheinlichkeit P (i, j), dass Spieler 1 beim
Spielstand (i, j) ∈ N20 das Spiel für sich entscheidet, also gewinnt.
Wir stellen die Lösung zu diesem Problem von Bernoulli von vor über 300 Jahren dar:
Wir betrachten die Beziehung
P (i, j) = pP (i + 1, j) + qP (i, j + 1).
Nach zweimaligem Anwenden dieser Beziehung und einsetzen des Punktes (3, 3) erhalten
wir
P (3, 3) = p2 P (5, 3) + 2pqP (4, 4) + q 2 P (3, 5).
25
y 6
B
4
3
B
2
1
¾
−1
-
0
1
2
3
4
x
−1
Abbildung 3.4: Zahlengitter S mit eingezeichneten Schranken B
Wir wissen, dass Spieler 1 beim Stand von (5, 3) gewonnen hat, also P (5, 3) = 1 gilt,
und er beim Stand von (3, 5) verloren hat, also P (3, 5) = 0 ist. Weiter gilt offensichtlich
P (4, 4) = P (3, 3), da dann wieder Gleichstand ist und beide Spieler noch 2 Punkte in
Folge benötigen um zu gewinnen. Daraus erhalten wir
P (3, 3) = p2 1 + 2pqP (3, 3)
also
p2
p2
m2
= 2
.
=
1 − 2pq
p + q2
m2 + 1
Nun können wir einfach mit P (2, 4) = 0
P (3, 3) =
P (2, 3) = pP (3, 3) + qP (2, 4) =
p3
p2 + q 2
und mit P (4, 2) = 1
P (3, 2) = pP (4, 2) + qP (3, 3) = p +
qp2
.
p2 + q 2
Führt man dies nach gleichem Schema fort, so erhält man in Abhängigkeit von m die
Ausgangswahrscheinlichkeit für den Gewinn eines Punktes
m7 + 5m6 + 11m5 + 15m4
.
+
+ 11m5 + 15m4 + 15m3 + 11m2 + 5m + 1
Für einige konkrete Werte von m ∈ N ergibt die Auswertung der angegebenen Formel die
folgende Tabelle:
P (0, 0) =
m7
5m6
26
m
1
2
3
4
P (0, 0)
1
2
208
243
243
256
51968
53125
Man kann nun leicht alle Werte P (i, j) für (i, j) ∈ S angeben. Als Übung kann man zeigen,
dass falls der Spieler 1 doppelt so stark ist wie sein Gegner, also insbesondere m = 2 gilt,
Spieler 1 dem Gegner zwei Punkte Vorsprung geben kann und das Spiel ist annähernd
fair. In diesem Fall gilt P (0, 2) ≈ 0.5136.
3.7
Abschließende Bemerkungen
Für diesen Schnupperkurs wurden die Bücher von Doyle und Snell [2], von Blom, Holst
und Sandell [1] und von Feller [3] verwendet. Die Grundlagen entstammen dem Lehrbuch
von Herrn Henze [4], welches eine gute Einführung in die Stochastik liefert und anhand
dessen die Vorlesung Einführung in Stochastik (Stochastik 1) im Bachelor aufgebaut wird.
27
Literaturverzeichnis
[1] Holst L. Blom, G. and D. Sandell. Problems and Snapshots from the World of Probability. Springer, 1994.
[2] P. G. Doyle and J. L. Snell. Random Walks and Electric Networks. The Mathematical
Association of America, 1984.
[3] W. Feller. An Introduction to Probability - Theory and Applications, Volume I. Wiley,
2te edition, 1960.
[4] N. Henze. Stochastik für Einsteiger - Eine Einführung in die faszinierende Welt des
Zufalls. Vieweg+Teubner, 8te edition, 2010.
28
Herunterladen