Angewandte Stochastik - Mathematisches Institut

Werbung
Universität Basel
Frühlingsemester 2017
Angewandte Stochastik
Giuseppe Genovese
Institut für Mathematik, Universität Zürich, CH-8057 Zürich, Switzerland
&
Matematisches Institut, Universität Basel, Spiegelgasse 1, 4051 Basel,
Switzerland.
email: [email protected]; [email protected]
Inhaltsverzeichnis
Kapitel 1. Einführende Begriffe
1. Notation und Terminologie
2. Bedingte Wahrscheinlichkeiten und Bedingter Erwartungswert
3. Reguläre bedingte Wahrscheinlichkeiten
4. Stochastische Prozesse
Anhang: der Radon-Nikodym Satz
3
3
4
10
12
16
Kapitel 2. Markoff-Ketten
1. Definitionen, starke Markoff-Eigenschaft und Beispiele
2. Rekurrenz und Transienz
3. Noch mehr über Irrfahrten
4. Invariante Masse
21
21
26
31
38
Kapitel 3. Martingale mit diskretem Zeitparameter
1. Erste Definitionen und Eigenschaften
2. Stoppzeiten für Martingale
3. Gleichgradig integrierbare Zufallsvariablen
4. Ungleichungen und Konvergenz von Martingalen
5. Martingale, Markoff-Ketten und harmonische Funktionen
47
47
50
54
56
63
Kapitel 4. Brownsche Bewegung
1. Gauss-Prozesse
2. Definition und Konstruktion der Brownschen Bewegung
3. Pfadeigenschaften der Brownschen Bewegung I
4. Brownsche Bewegung als Markoff-Prozess
5. Pfadeigenschaften der Brownschen Bewegung II
69
69
71
76
80
85
Literaturverzeichnis
91
1
KAPITEL 1
Einführende Begriffe
1. Notation und Terminologie
Ein messbarer Raum ist ein Paar (Ω, F), wobei Ω eine nicht leere Menge und F
eine σ-Albegra ist. Ein Massraum ist ein Tripel (Ω, F, µ), wobei (Ω, F) ein messbarer Raum und µ ein Mass ist. Wir sprechen von einem Wahrscheinlichkeitsraum,
wenn µ(Ω) = 1 ist.
(Ω, F, P ) bezeichnet durchweg einen Wahrscheinlichkeitsraum. B(Ω) ist die
Borel-σ-Algebra auf Ω, d.h. die kleinste σ-Algebra, die von den offenen Mengen
erzeugt ist. λn ist das Lebesgue Mass auf (Rn , B(Rn )).
Sind (Ω, F) und (Ω0 , F 0 ) zwei messbare Räume, so heisst eine Abbildung f :
Ω 7→ Ω0 F − F 0 -messbar (kurz m.b.), wenn für jedes B ∈ F 0 f −1 (B) ∈ F. Eine
Zufallsvariable X auf (Ω, F, P ) ist eine F − B(R)-m.b. Abbildung. Wir verwenden
oft die kurze Notation "X ist F-m.b." für Zufallsvariablen X auf F. Ist X eine
Zufallsvariable auf (Ω, F, P ), so bezeichnet σ(X) := {X −1 (B) : B ∈ B(R)} die
von X erzeugte σ-Algebra. Wir geben ohne Beweis den folgenden wichtigen Satz
an:
Satz 1.1. Ist Y eine σ(X)-m.b. Zufallsvariable, so existiert eine B(R)-m.b.
Funktion Φ mit Y = Φ ◦ X.
Wir sagen, dass eine Eigenschaft P -fast sicher gilt (kurz P -f.s.), wenn ihre
Wahrscheinlichkeit Eins ist.
Ist µ ein Mass auf F und f : Ω 7→ Ω0 , so ist das Mass µf −1 auf (Ω0 , F 0 )
definiert durch µf −1 (B) := µ(f −1 (B)) das induzierte Mass. Das induzierte Wahrscheinlichkeitmass P X −1 , das ein Wahrscheinlichkeitmass auf (R, B(R)) ist, nennt
man die Verteilung von X. Wir schreiben
Z
Z
E[X] =
P (dω)X(ω) =
P X −1 (dx)x .
Ω
R
X hat eine Dichte, wenn P X −1 absolut stetig bezüglich λ ist, und der Erwartungswert lässt sich in diesem Fall als
Z
d(P X −1 )
E[X] =
xdx
dx
R
darstellen.
3
2. Bedingte Wahrscheinlichkeiten und Bedingter Erwartungswert
Erstens erinnern wir an die Definition bedingter Wahrscheinlichkeit:
Definition 2.1. Seien A, B ∈ Ω mit P (B) > 0. Die bedingte Wahrscheinlichkeit von A gegen B P (A|B) ist durch
P (A ∩ B)
P (B)
P (A|B) :=
(2.1)
definiert.
Wir können diese Definition einfach mit diskreten Zufallsvariablen anwenden.
Sei I eine abzählbare Menge, X : Ω → I eine Zufallsvariable und IX := {x ∈ I :
P (X = x) > 0}. Dann ist
P (A|{X = x}) =
P (A ∩ {X = x})
,
P (X = x)
∀x ∈ IX .
(2.2)
Wir bemerken, dass {P (A|{X = x})}x∈IX eine σ(X)-m.b. Funktion auf Ω darstellt, die konstant auf jedem Ereignis {X = x} ist. Da es eine Zufallsvariable ist,
bezeichnen wir sie mit P (A|σ(X)). Es gilt die folgende Formel:
P (A ∩ B) = E[1B P (A|σ(X))] ,
(2.3)
für A ∈ F und B ∈ σ(X). Der Beweis
verwendet den Satz über die totale WahrS
scheinlichkeit. Sei nämlich B = x∈IX Bx mit Bx := {X = x} ∩ B, so dass
!
[
P (A ∩ B) = P A ∩ Bx
x
=
X
P (A ∩ Bx ) =
X
x
=
X
P (A ∩ B|{X = x})P ({X = x})
x
P (A|{X = x})P (X = x)1B = E[1B P (A|σ(X))] .
(2.4)
x
Übung 2.1. Verallgemeiern Sie die obige Konstruktion für Zufallsvariablen
X : Ω 7→ R.
Der allgemeine Fall verlangt eine andere Annäherung. Wir setzen P̃A (B) :=
P (A ∩ B), so dass P̃A ein bezüglich P absolutstetiges Mass auf Ω definiert (dies
folgt aus 0 ≤ P (A ∩ B) ≤ P (B)). Offenbar ist im allgemeinen P (X = x) = 0 für
gegebenes x, so dass (2.2) unsinnig ist. Jedoch können wir beliebig kleine Mengen
betrachten: Sei ε > 0 und Cε ∈ F mit P (Cε ) < ε. Dann haben wir
P (A|Cε ) =
P (A ∩ Cε )
.
P (Cε )
4
Die entscheidende Idee ist, den Limes ε → 0 zu nehmen. Nach dem Satz von
Radon-Nikodym (sehen Sie den Anhang) existiert eine eindeutige (P -f.s.) G-m.b.
P̃A
Funktion ddP
(die Radon-Nikodym Ableitung) mit
Z
dP̃A
P̃A (B) =
P (dω)
,
(2.5)
dP
B
für alle B ∈ σ(X). Wir sehen sofort, dass (2.3) und (2.5) dieselbe Relation sind.
P̃A
eine σ(X)-m.b. Funktion auf Ω in [0, 1] (der leichte Beweis ist dem
Dabei ist ddP
Leser überlassen) und es gibt natürlich eine P -f.s. eindeutige σ(X)-m.b. Zufallsvariable, die (2.3) (oder (2.5)) für alle B ∈ σ(X) erfüllt. Ferner können wir diese
Konstruktion für eine beliebige Teil-σ-Algebra von F anwenden. Das begründet
die folgende Definition
Definition 2.2. Sei G eine Teil-σ-Algebra von F. Wir bezeichnen als die
bedingte Wahrscheinlichkeit von A ∈ F gegen G, P (A|G) : Ω 7→ [0, 1], die P -f.s.
eindeutige G-m.b. Zufallsvariable die
P (A ∩ B) = E[1B P (A|G)] ,
(2.6)
erfüllt.
Sei Y eine Zufallsvariable mit E[|Y |] < ∞. In dem diskreten Fall ist der bedingte Erwartungswert der Zufallsvariable Y gegen X definiert als
Z
E[Y |{X = x}] :=
P (dω|{X = x})Y (ω)
Z
E[1{X=x} Y ]
Y (ω)
P (dω)
=
=
.
(2.7)
P ({X = x})
P ({X = x})
{X=x}
Nochmals können wir {E[Y |{X = x}]}x∈I als eine σ(X)-m.b. Zufallsvariable interpretieren:
X E[1{X=x} Y ]
1{X=x} (ω) , ω ∈ Ω .
(2.8)
E[Y |X] =
P ({X = x})
x∈I
Eine direkte Berechnung ergibt
E[1B E[Y |X]] = E[1B Y ] ,
(2.9)
für alle B ∈ σ(X). Diese Relation bestimmt eine P -f.s. eindeutige Zufallsvariable
E[Y |X] (für diskrete Zufallsvariablen). Abermals erlaubt der Radon-Nikodym Satz
die Definition für den allgemeinen Fall zu geben. Zuerst berechnen wir Y ≥ 0 P f.s. und definieren P̄Y (B) := E[1B Y ] für B ∈ σ(X) und bemerken, dass für jedes
B ∈ σ(X)
|P̄Y (B)| = |E[1B Y ]| ≤ E[1B |Y |] ≤ E[|Y |] < ∞ .
5
Ferner seien {Bn }n∈N disjunkte Mengen in Ω, so dass {Xn ∈ Bn }n∈N auch disjunkt
sind. Dann ist
!
[
X
X
P̄Y
Bn = E 1Sn Bn Y =
E[1Bn Y ] =
PY (Bn ) ,
n
n
n
woraus die σ-Additivität von P̄Y folgt. Somit ist P̄Y ein Mass auf Ω, das absolutstetig bezüglich P ist. Aus dem Satz von Radon-Nikodym (cfr. Anhang) folgt,
P̄Y
eine σ(X)-m.b. Zufallsvariable ist mit
dass ddP
Z
dP̄Y
P (dω)
= P̄Y (B) ,
für alle B ∈ σ(X) .
dP
B
Dies ist äquivalent zu (2.9). Im allgemeinen Fall gilt die Zerlegung Y = Y + − Y +
mit Y + := max(Y, 0) ≥ 0 P -f.s. und Y − := − min(Y, 0) ≥ 0 P -f.s., so dass
P̄Y = P̄Y + − P̄Y − gilt, wobei P̄Y± zwei Masses sind (diese ist die Hahn’sche Zerlegung
von P̄Y ). Damit haben wir einfach
dP̄Y
dP̄Y +
dP̄Y −
=
−
dP
dP
dP
Wir geben daher die folgende Definition für den bedingten Erwartungswert
Definition 2.3. Sei G eine Teil-σ-Algebra von F. Für jede integrierbare Zufallsvariable Y ist der bedingte Erwartungswert E[Y |G] die P -f.s. eindeutige G-m.b.
Zufallsvariable, die
E[1B E[Y |G]] = E[1B Y ]
(2.10)
für jedes B ∈ G erfüllt. Ausserdem schreibt man E[Y |X] anstelle von E[Y |σ(X)].
Wir haben hier die Definition für eine beliebige Teil-σ-Algebra von F angegeben.
Bemerkung 2.1.
i) Bedingte Wahrscheinlichkeiten sind einfache Spezialfälle von bedingten
Erwartungswerten: P (A|G) = E[1A |G].
ii) Die Zufallsvariable Y erfüllt trivialerweise (2.10), aber sie ist nicht immer
G-m.b. Wenn Y G-m.b. ist, dann E[Y |G] = Y . Z. B. gilt E[Y |X] = Y ,
wenn Y σ(X)-m.b. ist, d.h. Y = ϕ(X) mit einer Borel Funktion ϕ (gamäss
Satz 1.1). Im Allgemeinen existiert eine σ(X)-m.b. Abbildung Φ, so dass
E[Y |X] = Φ(X).
Übung 2.2. Beweisen Sie, dass, wenn G die triviale σ-Algebra (d.h. G = {∅, Ω})
ist, dann gilt E[X|G] = E[X] P -f.s.
Der folgende Satz listet einige nützliche Eigenschaften der bedingten Erwartungswerter auf.
Satz 2.1. Es seien X, X 0 ∈ L1 (Ω, F, P ) und G, G 0 Teil-σ-Algebren von F. Dann
gilt
6
(1) Sind X und G unabhängig, so gilt E[X|G] = E[X] P -f.s.
(2) Für α, β ∈ R gilt E[αX + βX 0 |G] = αE[X|G] + βE[X 0 |G] P -f.s.
(3) Ist X ≥ X 0 P -f.s., so gilt E[X|G] ≥ E[X 0 |G] P -f.s.
(4) Es gilt |E[X|G]| ≤ E[|X||G] P -f.s.
(5) Ist G 0 ⊂ G, so gilt E[E[X|G]|G 0 ] = E[X|G 0 ] P -f.s.
Beweis.
(1) Aus der Definition der Unabhängigekeit und des bedingte Erwartungswert
es folgt
E[1B E[X|G]] = E[1B X] = P (B)E[X] = E[1B E[X]] ,
für alle B ∈ G .
Da die konstante Abbildung ω 7→ E[X] G-m.b. ist, finden wir E[X|G] =
E[X] P -f.s.
(2) Da X, X 0 G-m.b. sind, so gilt dies für deren Linearkombinationen. Ausserdem gilt
E[1B E[αX + βX 0 |G]] =
=
=
=
E[1B (αX + βX 0 )]
αE[1B X] + βE[1B X 0 ]
αE[1B E[X|G]] + βE[1B E[X 0 |G]]
E[1B (αE[X|G] + βE[X 0 |G])]
für alle B ∈ G.
(3) Für jedes B ∈ G gilt
E[1B E[X|G]] = E[1B X] ≥ E[1B X 0 ] = E[1B E[X 0 |G]] ,
woraus (3) folgt.
(4) Seien X + := max(X, 0) und X − := − min(X, 0), so dass X = X + − X −
und |X| = X + + X − . Aus (2) und
|E[X + − X − |G]| ≤ |E[X + + X − |G]| = E[X + + X − |G]
folgt (4).
(5) B ∈ G 0 impliziert B ∈ G. Daher gilt für alle B ∈ G 0
E[1B E[E[X|G]|G 0 ]] = E[1B E[X|G]] = E[1B X] = E[1B E[X|G 0 ]] .
Übliche Konvergenzsätze für bedingte Erwartungswerte:
7
Satz 2.2. Seien X und {Xn }n∈N integrierbare Zufallsvariablen und G eine Teilσ-Algebra von F.
(1) Monotone Konvergenz: Ist Xn ≥ 0 und Xn % X P -f.s., so gilt
E[Xn |G] % E[X|G] P -f.s.
(2) Lemma von Fatou: Ist Xn ≥ 0 und Xn → X P -f.s., so gilt
E[X|G] ≤ lim inf E[Xn |G]
P -f.s.
n
(3) Satz von Lebesgue: Existiert Y ∈ L1 (Ω, F, P ) mit |Xn | ≤ Y für alle
n ∈ N und Xn → X P -f.s., so ist E[X|G] = limn E[Xn |G] P -f.s.
Beweis.
(1) Monotone Konvergenz: Wir benutzen zweimal den üblichen Satz über
Monotone Konvergenz. Zunächs Xn ≥ 0 und Xn % X P -f.s. implizieren
E[Xn |G] % Y P -f.s., wobei Y eine G-m.b. Zufallsvariable ist, mit Y ≤
E[X|G] P -f.s. Dann gilt für alle B ∈ G
E[1B (E[X|G] − Y )] = E[1B X] − E[1B lim E[Xn |G]]
n
= E[1B X] − lim E[1B E[Xn |G]] = E[1B X] − E[1B X] = 0 ,
n
somit ist Y = X P -f.s.
(2) Lemma von Fatou: Wir setzen Yk := E[inf n≥k Xn |G] und bemerken,
dass {Yk }k∈N eine monotone Folge von nicht-negativen Zufallsvariablen ist.
Es folgt, wegen (1), dass Yk % E[X|G] P -f.s. gilt. Offenbar ist E[inf n≥k Xn |G] ≤
inf n≥k E[Xn |G], also gilt für alle B ∈ G
E[X|G] ≤ lim inf E[Xn |G] = lim inf E[Xn |G], P − f.s.
k
n
n≥k
(3) Satz von Lebesgue: Die Zufallsvariablen Xn +Y und Y −Xn sind nichtnegative P -f.s. Daher folgen aus den Lemma von Fatou
E[X + Y |G] ≤ lim inf E[Xn + Y |G] ,
n
E[−X + Y |G] ≤ lim inf E[Xn + Y |G] .
n
und wegen − lim sup Xn = lim inf(−Xn ) ist
lim sup E[Xn |G] ≤ E[X|G] ≤ lim inf E[Xn |G] .
n
n
Satz 2.3. Seien X, Y zwei integrierbare Zufallsvariablen mit E[XY ] < ∞. Sei
G eine Teil-σ-Algebra von F und sei Y G-m.b. Dann gilt
E[XY |G] = Y E[X|G] P − f.s.
8
Beweis. Zuerst weisen wir den Satz für einfache Funktionen nach. Sei C ∈ G
und Y := 1C . So gilt für jedes B ∈ G
E[1B E[XY |G]] = E[1B XY ] = E[1B∩C X] = E[1B∩C E[X|G]] = E[1B Y E[X|G]]
d.h. E[XY |G] = Y E[X|G] P -f.s. Der Satz ist daher für einfache Funktionen mit
der Linearität des bedingten Erwartungswerts bewiesen. Man erstreckt das Ergebnis über nicht-negative Y via monotone Konvergenz und endlich über allgemeine
Zufallsvariablen mittels Zerlegung in Positiv- und Negativteil.
Bemerkung 2.2. Wir können den bedingten Erwatungswert auch für nicht
integrierbare Zufallsvariablen definieren. Wenn X ≥ 0 ist, setzen wir Xn :=
min(n, X) und definieren
E[X|G] := lim E[Xn |G] .
n
Aus Punkt (3) von Satz 2.1 sehen wir, dass die Folge {E[Xn |G]}n∈N P -f.s. ansteigend ist, aber der Limes kann dennoch endlich sein (z. B. wenn F = G ist, dann
gilt E[X|G] = X).
Für allgemeine Zufallsvariablen X wir benützen die übliche Zerlegung in Positivund Negativteil X : X + − X − , so dass E[X|G] = E[X + |G] − E[X − |G], sofern
E[X ± |G] endlich sind.
Der folgende Satz verallgemeinert die Jensensche Ungleichung für bedingte
Erwartungswerte.
Lemma 2.1. Sei ϕ : R 7→ R eine konvexe Funktion, X eine integrierbare
Zufallsvariable und G eine Teil-σ-Algebra von F. Ist E[ϕ(X)] < ∞, so gilt
ϕ(E[X|G]) ≤ E[ϕ(X)|G] .
(2.11)
Beweis. Die Konvexität von ϕ ergibt
ϕ(y) − ϕ(x) ≥ ψz (x)(x − y) ,
für jedes z ∈ [x, y], wobei ψz (x) := ϕ(z)−ϕ(x)
. Wir nehmen y = X und x = E[X|G],
z−x
so dass
ϕ(X) − ϕ(E[X|G]) ≥ ψz (E[X|G])(E[X|G] − X) .
Wir bemerken, dass ψz (E[X|G]) offenbar eine G-m.b. Zufallsvariable ist, also
E[ψz (E[X|G])(E[X|G] − X)|G] = ψz (E[X|G])E[(E[X|G] − X)|G]
= ψz (E[X|G])(E[E[X|G]] − E[X|G]) = 0 .
Somit ergibt die Anwendung des bedingten Erwartungwertes (2.11).
Übung 2.3. Beweisen Sie das obige Lemma für konvexe und nicht-negative ϕ,
aber ohne die Voraussetzung E[ϕ(X)] < ∞.
9
3. Reguläre bedingte Wahrscheinlichkeiten
Wir haben die bedingte Wahrscheinlichkeit als eine Zufallsvariable vorgestellt
und die Definitionen bedingter Wahrscheinlichkeit und des bedingten Erwartungswertes sind unabhänginge. Der Grund ist, dass die bedingte Wahrscheinlichkeit
nicht immer eine Wahrscheinlichkeit ist. Es ist einfach zu beweisen, dass, falls G
eine Teil-σ-Algebra von F ist, dann ist P (A|G) ∈ [0, 1] P -f.s. mit P (A|G) = 0
P -f.s. genau dann, wenn A = ∅ und P (A|G) = 1 genau dann, wenn A = Ω. Ferner
sei {Bn }n∈N ⊆ F eine Folge disjunkter Teilmengen von Ω, dann gilt
!
[
X
P
Bn G =
P (Bn |G) , P − f.s.
(3.1)
n∈N
n∈N
Übung 3.1. Beweisen Sie die obige Formel (P -f.s. σ-Additivität).
Das Problem ist, dass alle diese Eigenschaften nur P -f.s. gelten. Für eine gegebene Folge {Bn }n∈N könnte also insbesondere eine Nullmenge existieren, so dass
(3.1) nicht erfüllt ist. Da im Allgemeinen überabzählbar viele Folgen {Bn }n∈N
disjunkter Teilmengen von Ω existieren, könnte die σ-Additivität also für eine
überabzählbare Vereinigung von Nullmengen ungültig sein.
Um diesen Punkt erklären, diskutieren wir nun ein Beispiel (nach Dieudonné,
1948). Wir betrachten die Borel σ-Algebra auf [0, 1] B([0, 1]) und eine Vitalische
Menge, die wir V nennen. Sei B 0 die kleinste σ-Algebra, welche B([0, 1]) und V
anthält. Es ist einfach zu zeigen, dass für jedes A ∈ B 0 B, C ∈ B([0, 1]) existieren,
so dass
A = (V ∩ B) ∪ (V c ∩ C) .
Wir betrachten ein Wahrscheinlichkeitsmass auf ([0, 1], B 0 ), definiert durch
1
P (A) = (λ(B) + λ(C)) , A ∈ B 0 .
2
Offenbar P (A) = λ(A), falls A ∈ B([0, 1]) und P (V ) = 12 . Ausserdem ist B eine
Teil-σ-Algebra von B 0 , und P (·|B) ist ein bedingtes Wahrscheinlichkeitsmass. Für
{An }n∈N ⊂ B([0, 1]) mit A := ∪n An , wir betrachten die Folge Vn := V ∩ An , mit
∪n Vn = V ∩ A. Nun beachten wir
1
E[1B P (V ∩ A|B)] = P (B ∩ V ∩ A) = E[1B P (V ∩ A)] = E 1B 1A , (3.2)
2
für alle A, B ∈ B. Also
1
P − f.s.
P (V ∩ A|B) = 1A
2
Sei
\
1
Y(A) := ω ∈ [0, 1] : P (V ∩ A|B) = 1A , Y :=
Y(A) .
2
A∈B
10
Für jedes A ∈ B, ist Y(A) Borel-massbar mit P (Y(A)) = 1. Wir zeigen, dass
P (Y) < 1 ,
so dass die sub-Additivität von P (·|B) auf einer Menge positiver Masses nicht
besteht. Falls ω ∈ Y, dann
1
1
P (V ∩ Y|B)(ω) = 1Y (ω) 6= 1Y/{ω} (ω) = P (V ∩ Y/{ω}|B)(ω) ,
2
2
daher V ∩ Y =
6 V ∩ Y/{ω} d.h. ω ∈ V . Somit ergibt Y ⊆ V die Ungleichnung
P (Y) ≤ 21 .
Wir können jetzt die folgende Definition geben:
Definition 3.1. Sei G eine Teil-σ-Algebra von F. Wir nennen P ∗ (·|G) reguläre
bedingte Wahrscheinlichtkeit von P gegen G, wenn P ∗ (·|G) = P (·|G) P -f.s. und
für jedes ω ∈ Ω P ∗ (·|G) ein Wahrscheinlichtkeit mass auf G ist.
Diese Definition erlaubt die bedingten Erwartungswerte gerade bezüglich der
bedingten Wahrscheinlichtkeit zu definieren.
Proposition 3.1. Sei P ∗ eine reguläre bedingte Wahrscheinlichtkeit auf G und
Y eine Zufallsvariable auf (Ω, G) mit E[|Y |] < ∞. Dann gilt
Z
E[Y |G] = Y (ω)P ∗ (dω|G) P − f.s.
(3.3)
Beweis. Zuerst betrachten wir die Zufallsvariable 1B für B ∈ G. Wegen der
Definition der regulären bedingten Wahrscheinlichtkeit gilt dann
Z
∗
E[1B |G] = P (B|G) = P (B|G) = 1B P ∗ (dω|G) P − f.s.
So haben wir (3.3) für einfache Funktionen bewiesen. Wir verwenden Satz 2.2, (1)
und, dass einfache Funktionen dicht in positiven integrierbaren Funktionen sind,
um den Beweis beliebige positive integrierbare Y zu erweitern. Das Ergebnis im
allgemeinen Fall folgt wie in Satz 2.2, (3).
Übung 3.2. Beweisen Sie die Hölder Ungleichung für bedingte Wahrscheinlichtkeiten aus der normalen Hölder Ungleichung:
1
1
E[|XY ||G] ≤ E[|X|p |G] p E[|Y |q |G] q ,
mit
1
p
+
1
q
= 1.
Wenn man nur die Borel σ-Algebra betrachtet, dann existiert immer eine reguläre bedingte Wahrscheinlichtkeit, wie angegeben im nächsten Satz. Wir lassen
den Beweis aus.
Satz 3.1. Sind (Ω, B(Ω), P ) eine Borel Wahrscheinlichtkeitsraum und G eine
Teil-σ-Algebra von B(Ω), so existiert eine reguläre bedingte Wahrscheinlichtkeit
von P gegen G.
11
Wir bemerken, dass die Borel Annahme nicht zu restriktiv ist, da man sich
meistens für die bedingten Wahrscheinlichtkeiten von Ereingnissen, die durch Zufallsvariablen (d.h. Borel massbare Funktionen) definiert sind, interessiert.
Zum Schluss, diskutieren wir (reguläre) bedingte Wahrscheinlichkeitsdichten.
Seien X, Y zwei Zufallsvariablen auf (Ω, B(Ω), P ) deren gemeinsame Wahrscheinlichkeitsmass absolut stetig ist, mit Dichte f (x, y):
Z
P ((X, Y ) ∈ A) =
f (x, y)dxdy ∀A ∈ B(Ω × Ω) .
A
Sei f (y) die Randdichte
f˜(y) :=
Z
dxf (x, y) .
Wir definieren
( f (x,y)
fX|Y (x, y) :=
f˜(y)
0,
, f˜(y) > 0
f˜(y) = 0 .
(3.4)
Dann ist fX|Y (x, y) die Dichte der regulären bedingten Wahrscheinlichkeit:
Z
P (X ∈ A|Y ) =
dxdyfX|Y (x, y) .
(3.5)
A
Die obige Gleichung hat einen einfachen Beweis. Für alle Borel Mengen A, B gilt
Z
Z
Z
P (A ∩ B) =
dy dxf (x, y) =
f˜(y)dyP (X ∈ A|Y ) ,
B
A
B
wobei die zweite Gleichung aus der Definition 2.2 folgt. Satz 3.1 zeigt, dass beide
Seiten der obigen Gleichung null sind, falls B ∩ {y : f (y) > 0} = ∅, sonst
R
dxf (x, y)
P (X ∈ A|Y ) = A
f˜(y)
für alle A gilt.
4. Stochastische Prozesse
Hier führen wir die grundlegenden Begriffe des stochastischen Prozesses, des
Filtrierung und der Stoppzeit ein. Grob gesprochen sind ein stochastischer Prozess
und eine Filtrierung von einen Parameter abhängige Kollektionen von Zufallvariablen und σ-Algebren. Eine Stoppzeit ist eine Zufallvariable, die messbar bezüglich
einer Filtrierung ist.
Definition 4.1. Sei T ⊂ R. Wir nennen eine Funktion Xt (ω) : T × Ω → R, so
dass für alle t ∈ T Xt (ω) eine Zufallsvariable ist, einen reellwertigen stochastischen
Prozess.
12
Falls T abzälbar ist, sprechen wir von einem diskreten Prozess. Zum Beispiel
ist eine Folge von unabhängigen Zufallsvariablen ein einfacher diskreter Prozess.
Markoff-Ketten und Martingale sind andere interessante diskrete stochastische
Prozesse, die wir in den nächsten Kapiteln vertiefen werden.
Jetzt geben wir die Definition einer Filtrierung:
Definition 4.2.
(1) Sei T ⊂ R. Eine Familie {Ft }t∈T von Teil-σ-Algebren heisst eine Filtrierung von F, wenn Fs ⊂ Ft für s ≤ t gilt.
(2) Sei X := {Xt }t∈T ein stochastischer Prozess auf (Ω, F, P ) und FtX :=
σ(Xs : s ≤ t). Die Familie {Ft }t∈T heisst die zu X gehörende oder kanonische Filtrierung.
(3) Ein stochastischer Prozess X := {Xt }t∈T heisst angepasst an eine Filtrierung {Ft }t∈T , wenn Xt Ft -mb. ist ∀t ∈ T .
Offenbar ist eine zu einem stochastischen Prozess gehörende Filtrierung eine
Filtrierung. Im diskreten Fall, ist eine kanonische Filtrierung eifach aus den Teilσ-Algebren σ(X0 , . . . , Xn ) gegeben.
Eine oft passende Sicht über stochastische Prozesse (besonders Markoff-Ketten)
ist Xt als (stochastische) Zeitentwicklung der Grösse X zu interpretieren. Die dynamische Deutung begründet die folgende Definition
Definition 4.3. Sei {Ft }t∈T eine Filtrierung auf (Ω, F, P ). Die Zufallsvariable
τ heisst Stoppzeit genau dann, wenn für alle t ∈ T {τ ≤ t} ∈ Ft gilt.
Ungefär sind Stoppzeiten zufällige Zeite, die nicht in die Zukunft blicken können.
Wir geben ein einfaches Beispiel, nämlich die Irrfahrt auf Zν . Sei {ξn }n∈N eine Folge
unabhängigen gleichverteilten Zufallsvariablen, ξ1 : Ω → Zν , und
Pvon
n
Xn := i=1 ξi (natürlich sind die Xn nicht unabhängig). Die Folge {Xn }n∈N ist
ein diskreter stochastischer Prozess. Es gibt zwei standard-Filtrierungen für diesen
Prozess: Fn := σ(X1 , . . . , Xn ), die kanonische Filtrierung, und Fn0 := σ(ξ1 , . . . , ξn ).
Für jedes k ∈ Zν definieren wir τk := inf{i ∈ N : Xi = k}, d.h. die erste Zeit für
die Xn sich an Platz k einfindet (τk kann +∞ sein). Die Zufallsvariable τk ist eine
Stoppzeit sowohl bezüglich Fn als auch Fn0 :
{τk ≤ n} = {inf{i ∈ N : Xi = k} ≤ n}
= {X1 = k} ∪ {X1 6= k, X2 = k} ∪ {X1 , X2 6= k, X3 = k} ∪ ...
Dieses Ereignis liegt sicherlich an Fn (endliche Vereinigung von Ereignissen in Fn ).
Wir überlassen dem Leser den analogen Beweis für Fn0 .
Übung 4.1. Beweisen Sie, dass {τk ≤ n} ∈ Fn0 .
13
Gemäss der Definition 4.1, wurde ein Prozess Xt t für t aus dem Wahrscheinlichkeitsraum (Ω, F, P ) gebildet. Formal, können wir auch ein Ereignis ω̄ aus einem gegeben Wahrscheinlichkeitsraum festhalten und die ganze Funktion T 3 t 7→ Xt (ω̄)
betrachten (wir heissen diese Funktion einen Pfad des Prozesses). In welchen
Raum? Der Erweiterungssatz
von Kolmogorov gibt eine Antwort.
Q
Sei K := t∈T R der Raum von reellwertigen Funktionen auf T , oder Pfaden,
mit der Topologie von Tychonoff. Für jedes n ∈ N, t(n) := (t1 , . . . , tn ) ∈ T n und
A ∈ B(Rn ) wir betrachten die Klasse der Mengen
Γ(t(n), A) := {x ∈ K : x(t1 ), . . . , x(tn ) ∈ A} .
(4.1)
Wir nennen diese Mengen Zylindermengen. Die kleinste σ-Algebra erzeugt durch
T := {Γ(t(n), A)}n∈N,t(n)∈T,A∈B(Rn )
ist (per Definition) die Borelsche σ-Algebra auf K , B(K ) := σ(T ). So ist (K , B(K ))
ein Borelscher Massraum, den wir mit einem geeigneten Wahrscheinlichkeitsmass
ausstatten möchten. Die kanonischen Projektionen πn : K 7→ Rn sind durch
πt(n) (x) := (x(t1 ), . . . , x(tn ))
definiert. Wir betrachnen eine Folge {µn }n∈N von Borel Wahrscheinlichkeitsmassen
auf Rn . Wir brauchen die folgende Definition:
Definition 4.4. Wir nennen {µn }n∈N eine verträgliche Familie von Borel
Wahrscheinlichkeitsmasse genau dann, wenn
K1) Für alle I1 , . . . In ∈ B(R) µn (I1 × · · · × In ) = µn (Iσ(1) × · · · × Iσ(n) ) (σ ist
die Permutationsgruppe);
k−mal
z
}|
{
n
K2) Für alle A ∈ B(R ) und k ≥ 1 µn+k (A × R × · · · × R) = µn (A).
Man kann aus einer verträglichen Familie von Borel Wahrscheinlichkeitsmassen auf endlich-dimensionalen Räumen durch den folgenden Erweiterungssatz von
Kolmogorov ein Wahrscheinlichkeitsmass auf (K , B(K )) bilden:
Satz 4.1. Sei {µn }n∈N eine verträgliche Familie von Borel Wahrscheinlichkeitsmassen. Dann gibt es ein eindeutiges Wahrscheinlichkeitsmass µ auf (K , B(K )),
so dass µ ◦ πn−1 = µn gilt.
Der Beweis des Satzes von Kolmogorov wendet einen wichtigen Satz der Masstheorie an, nämlich der Satz von Carathéodory. Wir formulieren hier diesen Satz im
besonderen Falls der Wahrscheinlichtkeitsmasse.
Satz 4.2 (Satz von Carathéodory). Sei A eine Algebra und µ : A 7→ [0, 1]
eine σ-additive Funktion mit µ(∅) = 0. Dann existiert eine eindeutige Erweiterung
µ̄ : σ(A) 7→ [0, 1] von µ, die ein Wahrscheinlichtkeitsmass ist.
14
Beweis. Wir definieren die Funktion µ : T 7→ [0, 1] durch
µ(Γ(t(n), A)) := µn (Γ(t(n), A))
(die Mengen Γ(t(n), A) waren in (4.1) definiert). Die Bedingungen K1), K2) stellen sicher, dass verschiedene äquivalente Darstellungen von µ(Γ(t(n), A)) gleiches
Mass haben, so dass µ wohldefiniert ist. Ausserdem folgt aus K2 µ ◦ πn−1 = µn .
Die endliche Additivität von µ auf T ist klar. Wir müssen jetzt die σ-Additivität
zeigen. Dann folgt die Erweiterung von µ als Wahrscheinlichkeitmass auf (K , B(K ))
aus dem Satz von Carathéodory.
T
Sei {Γj }j∈N eine Folge von Zylindermengen, mit Γj+1 ⊂ Γj und j≥1 Γj = ∅.
Wir schreiben
Γj := {x ∈ K : x(tj,1 ), . . . , x(tj,nj ) ∈ Aj } ,
Aj ∈ B(Rnj ) ,
und wir nehmen t(j) ⊂ t(j + 1) an (wir erinnern uns, dass t(j) = (tj,1 , . . . , tj,nj )),
d.h. nj ≤ nj+1 und tj,i = tj+1,i , i = 1, . . . , nj (die Ordung der Punkte tj,i spielt
keine Rolle). Ausserdem wählen wir Aj , so dass eine kompakte Menge Cj ⊂ Rnj
existiert mit
µj (Aj − Cj ) ≤ c2−j−1 ,
wobei c > 0 eine feste ausreichend, kleine Konstante ist. Offenbar
µ(Γj ) ≥ µ(Γj+1 )
T
und die σ-Additivität ist äquivalent zu limj µ(Γj ) = µ
j≥1 Γj = 0. Wir beweisen dies durch Widerspruch: Wir nehmen limj µ(Γj ) 6= 0 an, d.h. es gibt δ > 0, so
T
dass µ( kj=1 Γj ) ≥ δ > 0 ∀k ∈ N gilt.
Sei {Γ0j }j∈N ⊂ T , mit
Γ0j := {x ∈ K : x(tj,1 ), . . . , x(tj,nj ) ∈ Cj } .
T
0
Γ
Dann Γ0j ⊂ Γj mit µ(Γj − Γ0j ) ≤ c2−j−1 . Ausserdem µ
j∈N j ≥ δ/2 > 0, da für
alle k ∈ N und δ ≥ c:
!
!
k
k
k
\
\
X
0
µ
Γj
≥ µ
µ(Γj − Γ0j )
Γj −
j=1
≥ δ−
Somit gilt für alle k ∈ N ∅ ⊂
j=1
j=1
Tk
j=1
c
2
k
X
2−j ≥ δ −
j=1
c
δ
≥ > 0.
2
2
Γ0j ⊂ Γk , und daher folgt
k
\\
Γ0j = ∅ .
k∈N j=1
15
(4.2)
Wir setzen einfachheitshalber
Dk :=
k
\
Γ0j
,
D :=
j=1
k
\\
Γ0j .
k∈N j=1
Offenbar Dj ⊂ Di für j > i und es gibt kompakte Mengen Cj0 ⊆ Cj , so dass
Dj = {x ∈ K : (x(tj,1 ) , . . . , x(tj,nj )) ∈ Cj0 } .
Wir bemerken, dass jedes x ∈ Dj die ersten nj Koordinaten (x(tj,1 ) , . . . , x(tj,nj ))
in Cj0 hat und, wenn nj ≥ ni ist, die ersten ni (x(ti,1 ) , . . . , x(ti,ni )) in Ci0 . Somit
Cj0 ⊂ Ci0 , wenn i ≥ j und es existiert ein x̄, so dass x̄ ∈ Ci0 für alle i ∈ N. Es
folgt, dass x̄ ∈ D, was einen Widerspruch zu (4.2) ergibt. Schliesslich, zeigen wir
die Eindeutigkeit von µ. Wir nehmen die Existenz von zwei solcher Masse µ, µ0 an.
Denn µ ◦ πn−1 = µ0 ◦ πn−1 , daher µ = µ0 auf T und somit auf B(K ), da B(K ) von
T erzeugt wird.
Bemerkung 4.1. Wir haben die Existenz des Wahrscheinlichtkeitsmasses direkt auf dem Funktionenraum der Pfad des Prozesses gezeigt. Dieser Zugang ist
mehr analytisch als wahrscheinlichkeitstheoretisch, da die Probabilisten nicht mögen den Wahrscheinlichtkeitsraum zu spezifizieren. Alternativ, kann ein Prozess als
eine Zufallsvariable aus einem Wahrscheinlichkeitsraum
ΩK zu dem Pfadsraum K
Q
betrachtet werden. Denn ΩK = t∈T Ωt und das Satz von Kolmogorov kann in
ähnlicher Weise formuliert und bewiesen werden.
Der Satz von Kolmogorov funktioniert gut, wenn T abzählbar ist, aber es ist
nicht ganz befriedigend für überabzählbar T (z. B. T = [0, 1]). Der Grund ist, dass
man im überabzählbar Fall ein Approximationsargument mit abzählbaren Mengen
verwendet und dies zu einem Verlust von Information führt. Das Resultat ist, dass
viele interessante Grössen keine Zufallsvariablen auf (K , B(K ), µ) sind und zwar
jede Funktion auf K , die eine übernabzählbare Anzahl von Koordinaten involviert, zum Beispiel ist supt∈T Xt nicht messbar. Es gibt in diesem Fall raffiniertere
Weisen, um einen unendlich-dimensionalen Wahrscheinlichkeitsraum zu bilden, die
wir in diesem Kurs jedoch nicht studieren werden.
Anhang: der Radon-Nikodym Satz
Wir erinnern an die Dichte eines Wahrscheinlichkeitsmasses P auf (Rn , B(Rn ))
eine nicht-negative messbare und integrierbare Funktion ρ : Rn → [0; ∞) ist, mit
Z
P (A) =
ρ(x)λn (dx) , für alle A ∈ B(Rn ) ,
A
wobei λn (dx) die n-dimensionale Lebesgue-Mass ist.
Dies Begriff findet die folgende Verallgemeinerung:
16
Definition 4.5. Seien µ und ν zwei Masse auf (Ω, F). Wir sagen, dass ν
absolut stetig bezüglich µ ist, wenn µ(A) = 0 ν(A) = 0 für jede A ∈ F impliziert.
Wir schreiben in diesem Fall ν µ. Ein Mass ν auf (Rn , B(Rn )) heisst einfach
absolut stetig, wenn ν λn . Umgekehrt heissen µ, ν zueinander singulär, falls
eine Menge A ∈ F existiert, so dass µ(A) = 0 und ν(Ac ) = 0 ist. In diesem Fall
schreiben wir µ ⊥ ν.
Satz 4.3 (Satz von Radon-Nikodym). Seien µ, ν zwei Wahrscheinlichkeitmasse
auf (Ω, F). Ist ν µ, so existiert eine Funktion g : Ω → [0; ∞) messbar, mit
Z
g(x)µ(dx)
ν(A) =
A
für alle A ∈ F. Die Funktion g ist µ-f.s. eindeutig und heisst die Radon-Nikodym
Ableitung von ν bezüglich µ.
Um dieser Satz nachzuweisen, führen wir den Begriff von signierten Mass ein.
Definition 4.6. Sei (Ω, F) ein messbarer Raum und µ : F → [−∞; ∞] mit
µ(∅) = 0 und
!
[
X
µ
An =
µ(An )
n∈N
n∈N
für jede Folge (An )n∈N von disjukten Mengen in F. So heisst µ ein signiertes Mass
auf (Ω, F).
Übung 4.2. Zeigen Sie, dass für jede Folge {An }n∈N mitTAn ↑ A oder An ↓ A,
A ∈ F µ(limn An )S= limn µ(An ) gilt. Insbesondere ist µ ( n An ) = limn An für
An ⊆ An−1 und µ ( n An ) = limn An für An ⊆ An+1 .
P
Damit µ : F → [−∞; ∞] ein signiertes Mass ist, muss die Summe n∈N µ(An )
wohldefiniert sein, für jede Folge disjunkter Mengen in F. Insbesonde kann µ nur
den Wert +∞ oder den Wert −∞ annehmen, aber nicht beide. Ist |µ(Ω)| < ∞
so muss µ(A) < ∞ endlich sein, für alle A ⊂ Ω. Ist µ(Ω) = +∞, so kann es kein
A ∈ F existieren mit µ(A) = −∞ (analog für µ(Ω) = −∞).
Definition 4.7. Sei (Ω, F, µ) ein Massraum mit µ ein signiertes Mass. Wir
nennen A ∈ F eine positive Menge für µ, falls µ(B) ≥ 0 für alle B ⊂ A. Analog
nennen wir A ∈ F eine negative Menge für µ, falls µ(B) ≤ 0 für alle B ⊂ A.
Zuerst brauchen wir das folgend technische Lemma.
Lemma 4.1. Sei µ ein signiertes Mass auf ein messbarer Raum (Ω, F), und
sei A ∈ F mit µ(A) ∈ (−∞, 0). Dann existiert eine negative Menge B ∈ F mit
B ⊆ A und µ(B) ≤ µ(A).
Beweis. Wenn A negativ ist, haben wir B = A. Damit nehmen wir an, dass
A nicht negativ ist. Sei
δ1 := sup {µ(E) : E ∈ F und E ⊂ A} ≥ 0
17
und sei A1 ∈ F mit A1 ⊂ A und mit µ(A1 ) ≥
δ1
.
2
Sei nun
δ2 := sup {µ(E) : E ∈ F und E ⊂ A\A1 } ≥ 0
und A2 ∈ F mit A2 ⊂ A\A1 mit µ(A2 ) ≥
definieren
(
δ2
.
2
Wir iterieren diese Konstruktion und
δn = sup µ(E) : E ∈ F und E ⊂ A\
n−1
[
!)
Ak
≥0
k=1
S
und dann wählen wir An ∈ F mit An ⊂ A\ nj=1 Aj und mit µ(An ) ≥
definieren dann
∞
[
A∞ :=
An und B := A\A∞ ⊆ A .
δn
.
2
Wir
n=1
Da An ∈ F disjunkt sind, mit µ(An ) ≥ 0 für alle n ∈ N, folgt
µ(A) = µ(A∞ ) + µ(B) ≥ µ(B) .
Wir müssen nun die Tatsache zeigen, dass B eine
P negative Menge ist. Da µ(A) >
−∞, muss µ(A∞ ) < ∞ sein. Da aber µ(A∞ ) = n µ(An ), es folgt, dass µ(An ) →
0. Deswegen muss δn → 0. Für ein beliebiges E ⊂ B haben wir nun µ(E) ≤ δn für
alle n ∈ N, es muss µ(E) ≤ 0 gelten.
Mit Hilfe des Lemma können wir nun zeigen, dass jedes signierte Mass µ auf
(Ω, F) eine Hahn Zerlegung (P, N ) besitzt, wobei P, N ∈ F mit P ∪ N = Ω und
so, dass P eine positive und N eine negative Menge für µ sind.
Satz 4.4 (Hahn’sche Zerlegungstheorem). Sei (Ω, F) ein messbarer Raum, und
sei µ ein signiertes Mass auf (Ω, F). Dann existieren P, N ∈ F so, dass P eine
positive und N eine negative Menge für µ sind und so, dass P ∪ N = Ω.
Beweis. Nehmen wir an µ nimmt den Wert −∞ nicht an (sonst nimmt µ den
Wert +∞ nicht an, und man kann analog vorgehen). Sei
L = inf {µ(A) : A eine negative Menge für µ ist}
Sei nun {An }n∈N eine Folge in F von negativen Mengen für µ, mit L = limn→∞ µ(An ).
Sei N := ∪n∈N An . Dann ist N offenbar eine negative Menge für µ. Also L ≤
µ(N ) ≤ µ(An ) ≤ 0 für alle n ∈ N. Es folgt, dass L = µ(N ) ∈ (−∞, 0] (weil µ
den Wert −∞ nicht annimmt). Sei nun P := N c . Wir müssen noch zeigen, dass P
eine positive Menge für µ ist. Nehmen wir indirekt an, dass A ⊂ P in F existiert,
mit µ(A) < 0. Dann existiert aber aus Lemma 4.1 eine negative Menge Ñ ⊂ P . In
diesem Fall wäre aber auch Ñ ∪ N eine negative Menge für µ, mit
µ(N ∪ Ñ ) = µ(N ) + µ(Ñ ) < µ(N ) = L
in Widerspruch zur Definition von L.
18
Bemerkung 4.2. Seien µ+ und µ− positive Masse, definiert durch
(
(
µ(A) A ⊆ P
0
A⊆P
µ+ (A) :=
µ− (A) :=
0
A⊆N
−µ(A) A ⊆ N
(4.3)
für jedes A ∈ F. Dann folgt aus dem obigen Satz, dass µ = µ+ − µ− , mit µ+ ⊥ µ− .
Wir können nun den Satz von Radon-Nykodim beweisen.
Beweis des Satzes 4.3. Sei
Z
J = f : Ω → [0; ∞] messbar, s.d.
f (x)µ(dx) ≤ ν(A) für alle A ∈ F .
A
J ist nicht leer, weil die Konstante Funktion f = 0 in J ist. Wir werden zeigen,
dass g ∈ J existiert, mit
Z
Z
g(x)µ(dx) = sup
f (x)µ(dx) : f ∈ J
und
Z
ν(A) =
g(x)µ(dx) .
(4.4)
A
Um die Behauptung zu zeigen, bemerken wir zunächst, dass max{f1 , f2 } ∈ J ,
wenn f1 , f2 ∈ J . In der Tat, für ein beliebiges A ∈ F, wir können A1 = {x ∈ A :
f1 (x) > f2 (x)} und A2 = {x ∈ A : f1 (x) ≤ f2 (x)} definieren. Dann gilt
Z
Z
Z
max{f1 , f2 }(x) µ(dx) =
f1 (x)µ(dx) +
f2 (x)µ(dx)
A1
A
A2
≤ ν(A1 ) + ν(A2 ) = ν(A1 ∪ A2 ) = ν(A) .
Offenbar gilt dies auch für max{f1 , f2 , . . . , fk }, mit fi ∈ J , i = 1, . . . k, für alle
k ∈ N (mit gleichen Beweis). Sei nun {fn }n∈N eine Folge in J mit
Z
Z
lim
fn (x)µ(dx) = sup
f (x)µ(dx) : f ∈ J .
n→∞
Dann gilt offenbar auch
Z
Z
lim
max(f1 , . . . , fn )(x)µ(dx) ≥ sup
f (x)µ(dx) : f ∈ J .
n→∞
Da die Folge max(f1 , . . . , fn ) monoton wachsend ist, können wir den Limes
g = lim max(f1 , . . . , fn )
n→∞
punktweise definieren. Das monoton Konvergenz Theorem zeigt, dass
Z
Z
gµ(dx) = lim
max(f1 , . . . , fn )µ(dx) ≤ ν(A) ,
A
n→∞
A
19
weil max(f1 , . . . , fn ) ∈ J für alle n ∈ N und auch, dass
Z
Z
Z
gµ(dx) = lim
max(f1 , . . . , fn )µ(dx) = sup
f µ(dx) : f ∈ J .
n→∞
Jetzt beweisen wir (4.4). für alle A ∈ F gilt. Für ein beliebiges A ∈ F, wir setzen
Z
ν0 (A) = ν(A) −
gµ(dx) .
A
Da g ∈ J , ist ν0 : F → [0; ∞] ein Mass auf F. Zu zeigen bleibt, dass ν0 = 0.
Nehmen wir an ν0 6= 0. Dann finden wir ε > 0 mit ν0 (Ω) > εµ(Ω) (weil µ ist
endlich, nach Annahme). Es ist einfach zu überprüfen, dass ν0 −εµ : F → [−∞; ∞]
ein signiertes Mass auf F ist. Sei (P, N ) eine Hahn’sche Zerlegung von ν0 − εµ.
Also, P, N ∈ F mit P ∪ N = Ω und so, dass P eine positive und N eine
negative Menge für ν0 − εµ sind. Wir bemerken sofort, dass µ(P ) > 0 sein muss.
Wäre nämlich µ(P ) = 0, dann müsste auch ν(P ) = 0 (aus der absolute Stetigkeit
ν µ) und also ν0 (P ) = 0. Deswegen wäre
ν0 (Ω) − εµ(Ω) = (ν0 − εµ)(N ) ≤ 0
in Widerspruch mit der Annahme, dass ν0 (Ω) > εµ(Ω). Das zeigt, dass µ(P ) > 0.
Ferner, für ein beliebiges A ∈ F gilt ν0 (A ∩ P ) ≥ εµ(A ∩ P ). Deswegen
Z
Z
gµ(dx) + ν0 (A ∩ P )
gµ(dx) + ν0 (A) ≥
ν(A) =
A
Z
ZA
≥
gµ(dx) + εµ(A ∩ P ) = (g + ε1P )µ(dx) .
A
A
Das zeigt, dass g + ε1P ∈ J . Da aber
Z
gµ(dx) ≤ ν(Ω) < ∞
und
Z
Z
(g + ε1P )µ(dx) =
Z
gµ(dx) + εµ(P ) >
gµ(dx)
finden wir ein Widerspruch zur Definition von g in Schritt 1. Das zeigt, dass ν0 = 0,
also (4.4).
20
KAPITEL 2
Markoff-Ketten
1. Definitionen, starke Markoff-Eigenschaft und Beispiele
Die einfachste Weise sich eine Markoff-Kette vorzustellen, ist an ein (stochastisches) dynamisches System in diskreter Zeit zu denken. Die Bewegung von N
Teilchen ist durch ein System von Differentialgleichungen bestimmt. Daher ist die
Konfiguration der N Teilchen zur Zeit t eindeutig durch diejenige zur Zeit t0 gegeben, ohne Rücksicht auf das Systemverhalten für t < t0 . Das gleiche gilt für
Markoff-Ketten:
Definition 1.1. Ein diskreter stochastischer Prozess {Xn }n∈N auf (Ω, F, P )
heisst Markoff-Kette genau dann, wenn eine reguläre bedingte Wahrscheinlichtkeit
existiert, so dass
P (Xn+1 ∈ A|X0 , . . . , Xn ) = P (Xn+1 ∈ A|Xn ) P-f.s.
(1.1)
für alle n ∈ N und A ∈ F gilt.
Die Theorie der Markoff-Ketten ist viel leichter, wenn Xn : Ω 7→ I, mit einer
höchstens abzählbaren Menge I, für alle n ∈ N gilt und wir werden hier nur diesen
Fall betrachten (diskreten Markoff-Ketten). Wir bemerken, dass in diesem Fall der
Pfadsraum der Markoff-Kette einfach I N0 ist. So lässt sich (1.1) auch als
P (Xn+1 = in+1 |X0 = i0 , . . . , Xn = in ) = P (Xn+1 = in+1 |Xn = in ) P-f.s. (1.2)
für alle i1 , . . . , in+1 ∈ I schreiben. An diesem Punkt ist die folgende Definition
nützlich:
Definition 1.2. Sei I eine nichtleere und höchstens abzählbare Menge. Eine
Matrix π = {πij }i,j∈I heisst stochastische Matrix, wenn
X
πij ∈ [0, 1] ∀i, j ∈ I und
πij = 1 ∀i ∈ I
j∈I
gilt. Die Einträge πij der stochastische Matrix π nennt man die Übergangwahrschenlichkeiten von i nach j.
Deshalb bestimmet jede Markoff-Kette {Xn }n∈N auf I eine stochastische Matrix
{π(n)}n∈N , da wir immer
πij (n) := P (Xn+1 = j|Xn = i) ,
21
i, j ∈ I
(1.3)
setzen können. Die Startverteilung einer Markoff-Kette ist durch
ν(i) := P (X0 = i)
(1.4)
definiert. Umgekehrt bestimmt jede Folge von stochastischen Matrixen {π(n)}n∈N ,
mit einer gegebenen Startverteilung eine Markoff-Kette, die (1.3) erfüllt, da wir
(1.1) und die Formel von Bayes iterativ benützen können, so dass
=
=
=
=
=
P (Xn = in , . . . , X0 = i0 )
P (Xn = in |Xn−1 = in−1 . . . X0 = i0 )P (Xn−1 = in−1 . . . X0 = i0 )
P (Xn = in |Xn−1 = in−1 )P (Xn−1 = in−1 . . . X0 = i0 )
..
.
P (Xn = in |Xn−1 = in−1 ) . . . P (X1 = i1 |X0 = i0 )P (X0 = i0 )
πin−1 ,in (n) . . . πi1 ,i2 (1)ν(i0 ) .
Oft betrachten wir den einfachen Fall zeitlich homogener Ketten π(n) = π
∀n ∈ N. Wir können eine inhomogene Kette jedoch mit einen leichten Trick (aus
der Klassichen Mechanik) auf eine homogene Kette reduzieren. Wenn {Xn }n∈N
eine inhomogene Markoff-Kette ist, betrachtet man die Folge X̃n := {Xn , n}n∈N ,
die Werte in I ×N0 annimmt. So ist X̃ eine homogene Markoff-Kette auf I ×N0 , mit
Übergangwahrscheilchtkeiten π̃αβ = δm,n+1 πij (n), mit α, β ∈ I × N0 , α := (i, n),
β := (j, m).
Wir definieren die n-te Potenz der stochastischen Matrix π rekursiv durch das
n-fache Matrixproduct:
X
n−1
πij0 = δij ,
πijn =
πik
πkj n ≥ 1 .
k∈I
n
Aus dieser Definition folgt, dass π auch eine stochastiche Matrix ist. Somit gilt
π n+m = π n π m , d. h.
X
n m
πik
πkj = πijn+m .
(1.5)
k∈I
Man nennt diese letze Gleichnung die Chapman-Kolmogorov-Gleichungen für diskrete Markoff-Ketten.
In diesem Kapitel werden wir die Markoff-Ketten als von der Startverteilung ν
abhängige stochastiche Matrixen studieren. Um dies zu betonen, schreiben wir Pν
für die Wahrscheinlichtkeiten der Kette mit Startverteilung ν, Pi , wenn ν(j) = δij
ist, und PZ , wenn ν die Verteilung der Zufallsvariablen Z ist.
Eine wichtige Eigenschaft der Markoff-Kette, die aus der zeitlichen Homogeneität kommt, ist die Invarianz unter ein Zeit-shift:
Proposition 1.1. Sei {Xn }n∈N0 eine zeitlich Homogene Markoff-Kette und
k ∈ N. Es gilt
P ({Xn+k }n∈N0 ∈ A) = PXk ({Xn }n∈N0 ∈ A) ,
22
A ⊂ I N0 .
(1.6)
Der Beweis ist dem Leser überlassen.
Diese Eigenschaft gilt auch für Stoppzeiten. Zunächst erinnern wir an die Definition der Stoppzeit für Markoff-Ketten:
τ : {τ = n} ∈ σ(X0 , . . . , Xn ) .
Definition 1.3. Wir nennen A ⊆ Ω ein Prä-τ -Ereignis, wenn
A ∩ {τ ≥ n} ∈ σ(X0 , . . . , Xn ) .
Fτ ist die von den Prä-τ -Ereignissen erzeugte σ-Algebra.
Wir haben das folgende wichtige Ergebnis:
Satz 1.1 (Starke Markoff-Eigenschaft). Sei τ eine Stoppzeit für die MarkoffKette {Xn }n∈N und A ⊆ I N0 . Dann gilt
P ({Xn+τ }n∈N0 ∈ A|Fτ ) = PXτ ({Xn }n∈N0 ∈ A|Fτ ) P-f.s.
(1.7)
Die starke Markoff-Eigenschaft hat die folgende einfache Deutung. Die bedingte
Wahrscheinlichkeit, dass die Kette ab der Zufallszeit τ in einer gegebenen Menge A ist, ist gleich der bedingten Wahrscheinlichkeit, dass die Kette, die ab der
Zufallsstellung Xτ startet, stets in der Menge A bleibt.
Beweis. Sei B ∈ Fτ . Dann ergibt das Gesetz der totalen Wahrscheinlichkeit
E[1B P (Xτ , Xτ +1 , · · · ∈ A|Fτ )] = P (Xτ , Xτ +1 , · · · ∈ A, B)
X
=
P (Xn , Xn+1 , · · · ∈ A, B, τ = n) .
n≥0
Offenbar gilt für alle n ≥ 0 B ∩ {τ = n} ∈ Fτ , daher
P (Xn , Xn+1 , · · · ∈ A, B, τ = n) = E[1B∩{τ =n} P (Xn , Xn+1 , · · · ∈ A|Fτ )]
= E[1B 1{τ =n} PXn (X0 , X1 , · · · ∈ A|Fτ )] .(1.8)
Es folgt, dass
E[1B P (Xτ , Xτ +1 , · · · ∈ A|Fτ )] =
X
E[1B 1{τ =n} PXn (X0 , X1 , · · · ∈ A|Fτ )]
n≥0
"
= E 1B
#
X
1{τ =n} PXn (X0 , X1 , · · · ∈ A|Fτ )
n≥0
= E [1B PXτ (X0 , X1 , · · · ∈ A|Fτ )] .
Da diese Gleichung für alle B ∈ Fτ gilt, wir folgern (1.7).
Hier erklären wir drei typische Beispiele von Markoff-Ketten, die wir im weiterem Verlauf des Kapitels untersuchen werden.
23
B1) Irrfahrt auf Zν . Wir haben diesen Prozess schon getroffen. {ξn }n∈N ist
eine Folge von unabhängigen gleichverteilten
Zufallsvariablen (die Zuwächse des
P
Prozesses), ξ1 : Ω → Zν , und Sn := ni=1 ξi . Wir haben
!
n+1
X
P (Sn+1 = in+1 |Fn ) = P
ξj = in+1 S0 = i0 , . . . , Sn = in
j=1
= P (Sn + ξn+1 = in+1 |S0 = i0 , . . . , Sn = in )
= P (Sn+1 = in+1 |Sn = in ) ,
also (1.2). Somit ist eine Irrfahrt auf Zν eine homogene Markoff-Kette mit Übergangwahrscheinlichkeiten
πij = P (Sn+1 = i|Sn = j) = P (ξ1 = i − j) .
B2) Ehrenfests Urnenmodell. Wir betrachten zwei Urnen U 1 und U 2, die
insgesamt 2N gleiche Kugeln enthalten. Man wählt zu jedem Zeitpunkt n eine Urne
jeweils mit Wahrscheinlichkeit proportional zur Anzahl der Kugeln in dieser Urne.
Dann wird eine Kugel aus einer Urne gezogen und in die andere Urne verschoben.
Wir betrachten die Zufallsvariable Xn als die Anzahl der Kugeln zur Zeit n in U 1
und wir nehmen I := {0, . . . , 2N } als die Menge der Belegungen von U 1. Daher
gilt für jede Belegung in ∈ I
P (Xn = in |Xn−1 = in ±1, Xn−1 = in ±1±1, . . . ) = P (Xn = in |Xn−1 = in ±1) =: p±
mit
πj,j−1 = p− =
k
,
2N
πj,j+1 = p+ =
2N − k
2N
und πij = 0 sonst.
B3) Erneuerungsketten. Ein diskreter Prozess {Rn }n∈N0 mit Rn ∈ {0, 1},
so dass
Pν ({Rn+k }n∈N0 ∈ B|R0 , . . . , Rk ) = Pν ({Rn }n∈N0 ∈ B)
(1.9)
für jede Ereignis B gilt, heisst Erneuerungsprozess. Zum Beispiel betrachten wir
eine Irrfahrt auf Z {Sn }n∈N0 und setzen für ein festes j̄ ∈ Z
Rn (j̄) := 1{Sn =j̄} .
(1.10)
Der Einfachheit halber, setzen wir j̄ = 0 und Rn := Rn (0). Für jedes B ∈
σ(Rk+1 , Rk+2 , . . . ) existiert B̃ ∈ σ(Sk+1 , Sk+2 , . . . ), so dass (1.2) und die zeitliche
Homogenität
P0 ({Rn+k }n∈N0 ∈ B|R0 , . . . , Rk ) = P0 ({Sn+k }n∈N ∈ B̃|S0 , . . . , Sk−1 )
= P0 ({Sn+k }n∈N0 ∈ B̃|Sk−1 )
= P0 ({Sn }n∈N0 ∈ B̃) = P0 ({Rn }n∈N0 ∈ B)
ergeben.
24
Diese Konstruktion kann einfach für eine beliebige Markoff-Kette gemacht werden. Es ist auch möglich zurückzugehen und eine Markoff-Kette {Xn }n∈N0 aus einem Erneuerungsprozess {Rn }n∈N0 zu bilden, so dass {Xn = 0} = {Rn = 1} gilt.
Für einen gegebenen Erneuerungsprozess {Rn }n∈N0 definieren wir die Zufallszeiten
τ0 = 0 ,
τk := inf{n > τk−1 : Rn = 1} k ≥ 1 ,
∆τk := τk − τk−1 ,
k≥1
und Tn := τk 1{τk ≤n<τk+1 } . Alle diese Zufallszeiten sind ganze Zahlen. Die τk sind
die nachfolgende Epoche, in denen Rn = 1 ist, d.h. Rτ1 = Rτ2 = · · · = 1 und R = 0
sonst. Die Zeiten Tn bilden die Teilfolge derjenigen τk , die, n für n, vor der Zeit n
fallen. Jetzt setzen wir
Xn := n − Tn , X0 = 0 .
Es folgt
{Xn = 0} = {τn = n} = {∃k : τk = n} = {Rn = 1} .
Der Prozess {Xn }n∈N : N × Ω 7→ N ist eine Markoff-Kette, die Erneuerungskette
heisst. Angenommen, dass Xn = j für eine gegebene ganze Zahl j gilt, dann ist
Tn = n − j. Daher ist entweder Tn+1 = n − j, also Xn+1 = j, oder Tn+1 = n + 1,
also Xn+1 = 0. Wir sehen sofort, dass Xn+1 nur durch die Werte des Prozesses zur
Zeit n bestimmt ist, so dass {Xn }n∈N eine Markoff-Kette ist.
Die Zuwächse ∆τk sind unabhängige gleichverteilten Zufallsvariablen. Um dies
zu beweisen, bemerken wir zunächst, dass ∆τ1 eine Stoppzeit bezüglich σ(X0 , . . . , Xn )
ist, da
{∆τ1 = n} = {τ1 = n} = {Rn = 1} = {Xn = 0} ∈ σ(X0 , . . . , Xn )
gilt. Nochmals ergeben die starke Markoff-Eigenschaft (1.7)
P0 (X∆τ1 +1 , X∆τ1 +2 , · · · ∈ A|F∆τ1 ) = PX∆τ1 ({Xn }n∈N0 ∈ A|F∆τ1 )
= P0 ({Xn }n∈N0 ∈ A) P-f.s. .
Es folgt, dass der Prozess (X∆τ1 +1 , X∆τ1 +2 , . . . ) von der σ-Algebra σ(Xn ) unabhängig ist, also von ∆τ1 . Daher müssen ∆τ1 und {∆τk }k≥2 unabhängig sein. Man kann
dieses Argument iterieren, um zu beweisen, dass ∆τk unabhängige gleichverteilte
Zufallsvariablen sind. Daher schreiben wir die Übergangwahrscheinlichkeiten als
P (Xn+1 = j + 1|Xn = j) = P (Tn+1 = n − j − 1|Tn = n − j)
= P (∆τn+1 ≥ j + 1|∆τn+1 ≥ j)
P (∆τ1 ≥ j + 1)
=
=: πj,j+1 ,
P (∆τ1 ≥ j)
wobei wir die Formel von Bayes und die Unabhängigkeit der ∆τk benutzt haben.
Übung 1.1. Was ist die zum Erneuerungsprozess (1.10) zugehörige Erneuerungskette?
25
2. Rekurrenz und Transienz
Sei π = {πij }i,j∈I eine stochastische Matrix. Vorab führen wir eine Äquivalenzrelation auf I ein. Wir schreiben i → j für i, j ∈ I, so dass ein n existiert, mit
πijn >0, d. h. die Kette erlaubt den Weg mit n Zeitsstufen von i zu j. Wir sagen
in diesem Fall, dass j von i erreichbar ist. Erreichbarkeit ist reflexiv und transitiv,
aber sie ist nicht symmetrisch. Ausserdem definieren wir für alle i, j ∈ I
i ∼ j ⇐⇒ i → j
und j → i .
(2.1)
Diese Relation ist offenbar reflexiv, i ∼ i, und symmetrisch, i ∼ j ⇒ j ∼ i. Wenn
m
m
n
> 0,
, πkj
> 0 und πjk
i ∼ j und j ∼ k ist, dann existieren n und m, so dass πijn , πji
n+m
n+m
n m
n m
also πij πjk = πik > 0 und πji πkj = πki > 0, woraus Transitivität folgt. Somit
ist ∼ eine Äquivalenzrelation auf I, die Äquivalenzklassen auf I definiert.
Definition 2.1. a) Wir nennen jede Äquivalenzklasse von einem gegebenen
i ∈ I, d.h.
Ai := {j ∈ I : i ∼ j} ,
eine irreduzible Teilmenge von I. Eine Markoff-Kette heisst irreduzibel genau dann,
wenn I die eindeutige irreduzibel Menge ist, d. h. i ∼ j für alle i, j ∈ I.
b) Eine Teilmenge I¯ ⊂ I heisst abgeschlossen genau dann, wenn keine i ∈ I
und j ∈ I/I¯ existieren, so dass i → j.
Wir geben ein ganz einfaches Beispiel. Ein Kind spielt mit Farben. Es hat vier
Filzschreiber: Rot, Blau, Gelb und Schwarz. Es startet mit ein Zufallsfarbe und
dann folgt diese Regel: Wenn es Rot verwendet, dann verwendet es Rot nochmals
mit Wahrscheinlichkeit 21 und mit Wahrscheinlichkeit 12 Schwarz; wenn es Schwarz
verwendet, dann verwendet es Schwarz sicher; wenn es Blau verwendet, dann verwendet es Blau nochmals mit Wahrscheinlichkeit 14 und mit Wahrscheinlichkeit
3
Gelb; wenn es Gelb verwendet, dann verwendet es Gelb nochmals mit Wahr4
scheinlichkeit 13 und mit Wahrscheinlichkeit 23 Blau. Dies ist eine Markoff-Kette
auf I := {Rot, Schwarz, Blau, Gelb} mit stochastischer Matrix

0 0
 0 1 0 0 

π=
 0 0 1 3 .
4
4
0 0 32 13

1
2
1
2
(2.2)
Wenn das Kind mit Rot (oder mit Schwarz) startet, wird es nie die Farbe Blau
und Gelb benutzen (gleiches gilt für {Blau, Gelb}). Die Mengen {Rot, Schwarz}
26
und {Blau, Gelb} sind zwei abgeschlossene Klassen, die auch irreduzibel sind, da
 1 1 n

0 0
2
2


0 1
10 30 n  .
πn = 
(2.3)


0 0
4
4
2
1
0 0
3
3
Übung 2.1. Bestimmen Sie, ob die Markoff-Ketten der Beispiele B1), B2) und
B3) irreduzibel sind.
Ein anderer wichtiger Begriff ist die Periodizität.
Definition 2.2. Der Grösster gemeinsamer Teiler der Menge {n : πiin > 0},
der wir di nennt, heisst die Periode von i. Wir nennen den Zustand i ∈ I aperiodisch, wenn di = 1 ist, und d-periodisch, wenn di ≥ 2 ist. Eine irreduzibel MarkoffKette mit einem d-periodisch Zustand heisst d-periodisch (oder aperiodisch, falls
d = 1).
Übung 2.2. Beweisen Sie, dass j ∈ I d-periodisch ist, wenn, für ein d-periodisch
i ∈ I, i ∼ j ist.
Für jede Markoff-Kette Xn können wir die folgenden Zufallszeiten einführen:
τA := min{n ∈ N : Xn ∈ A} ,
A⊂I.
(2.4)
Nun setzen wir
(n)
fiA := Pi (τA = n) = P (τA = n|X0 = i) ,
und
fiA := Pi (τA < ∞) =
X
(n)
fiA .
n≥1
Wir schreiben τj ,
(n)
fij
und fij , wenn A = {j} ist.
Bemerkung 2.1. Eine andere bequeme Formulierung der Wahrscheinlichkei(n)
ten fiA ist
(n)
fiA = P (Xn ∈ A | X1 = i, X2 ∈
/ A, . . . , Xn−1 ∈
/ A) ,
(2.5)
d.h. die Wahrscheinlichkeiten, dass die Kette erstmals zur Zeit n die Menge A
besucht, wenn die Startstelle i ist.
Eine wichtige Grösse ist die Wahrscheinlichkeit fii , dass die Kette zu i züruckkehrt. Natürlich gilt immer fii ≤ 1, aber, wenn τi = ∞ ist, haben wir fii < 1.
Definition 2.3. Ein Element i ∈ I heisst rekurrent genau dann, wenn fii = 1
gilt, andernfalls heisst es transient.
Wir werden auch eine starkere Eigenschaft brauchen, nämlich dass eine (irreduzibel) Kette an jeder Stelle in endlicher Zeit zurückkehrt.
27
Definition 2.4. Ein rekurrentes i heisst positiv rekurrent, wenn
X (n)
E[τi ] =
nfii < ∞
(2.6)
n≥1
gilt. Ansonsten heisst es null-rekurrent.
Rekurrenz und Transienz sind Klasseineigenschaften, d.h.
Satz 2.1. Seien i, j ∈ I mit i ∼ j. Dann ist i genau dann rekurrent, wenn j
es ist.
Um diesen Satz zu beweisen, brauchen wir zwei Zwischenergebnisse:
Lemma 2.1. Für alle i, j ∈ I gilt
n
n
X
X
(k) n−k
(n−k)
n
πij =
fij πjj =
πijk fii
k=1
n ≥ 1.
(2.7)
k=1
Beweis. Starte bei i und erreiche j in k Zeitsstufen, ohne durch i zu führen.
Dann mache einen Kreislauf um j in n − k Zeitsstufen. Da k beliebig ist, wir
müssen über k ∈ {1, 2, . . . , n} summieren, um die Wahrscheilichkeit von i → j in
n Zeitsstufen zu erhalten. Die zweite Gleichung wird analog erhalten: Starte bei
i und mache k Kreisläufe; dann gehe zu j, ohne durch i zu führen und summiere
über k (wie oben).
Proposition 2.1. i ∈ I ist genau dann transient, wenn
X
πiin < ∞
n∈N0
gilt.
Beweis. Offenbar ist πii0 =1. Ausserdem verwenden wir die Gleichung (2.7) mit
i = j, d.h.
n
X
(k)
n
πii =
fii πiin−k , n ≥ 1 .
k=1
Daher
X
πiin
= 1+
n≥0
n
XX
(k)
fii πiin−k = 1 +
n≥1 k=1
= 1+
X
k≥1
XX
(k)
fii πiin−k
k≥1 n≥k
X
(k)
fii
πiin = 1 + fii
n≥0
X
πiin .
(2.8)
n≥0
P
Da fii ≥ 0 ist, gilt die letzte Gleichung ∞ = ∞, fallsP n≥0 πiin divergent ist. Wenn
fii = 1 ist, d.h. i rekurrent ist, dann gilt ausserdem n≥0 πiin = ∞. Somit nehmen
wir fii < 1 an. Für t ∈ (0, 1) setzen wir
X
X
(n)
π̂(t) :=
tn πiin
fˆ(t) :=
tn fii
n≥0
n≥0
28
(diese Reihen konvergieren für t ∈ (0, 1)). Mit einer ähnlichen Berechnung wie
zuvor erhalten wir
n
XX
(k)
π̂(t) = 1 +
tk fii tn−k πiin−k
n≥1 k=1
X
= 1+
(k)
tk fii
X
tn πiin = 1 + fˆ(t)π̂(t) ,
n≥0
k≥1
also
π̂(t) = (1 − fˆ(t))−1
t ∈ (0, 1) .
Wegen fii < 1 können wir den Grenzewert t → 1− nehmen und erhalten
X
πiin = lim− (1 − fˆ(t))−1 = (1 − fii )−1 < ∞ .
t→1
n≥0
Beweis des Satzes 2.1. i ∼ j impliziert, dass n1 , n2 existieren, so dass πijn1 >
n2
0 und πji
> 0. Aus den Chapman-Kolmogorov-Gleichungen (1.5) folgt sofort für
n2 n n1
n n2
πji und analog πiin+n1 +n2 ≥ πji
πii πij . Somit
alle n ∈ N πiin+n1 +n2 ≥ πijn1 πjj
X
X
X
n2
n2 2
n
πiin ≥ πijn1 πji
πjj
≥ (πijn1 πji
)
πiin ,
n≥0
n≥0
n≥0
woraus fii < 1 ⇐⇒ fjj < 1 folgt.
Bemerkung 2.2. Aus Proposition 2.1 folgt auch, dass, wenn j transient ist,
X
πijn < ∞
n≥1
gilt, da
X
n≥1
πijn
=
n
XX
n≥1 k=1
(k)
n−k
fij πjj
=
XX
(k)
n−k
= fij
fij πjj
k≥1 n≥k
X
n
πjj
.
n≥1
Die letzte Bemerkung zu folgendem Satz:
Satz 2.2. Rekurrente Äquivalenzklassen sind Abgeschlossen.
Beweis. Wir beweisen, dass, wenn i rekurrent ist und i → j, dann gilt i ∼ j.
Dies impliziert, dass j rekurrent ist (gemäss Satz 2.1). Somit ist kein Übergang
von einer rekurrenten Stelle i zu einer transienten Stelle l möglich, d.h. rekurrente
Äquivalenzklassen sind Abgeschlossen.
Um j → i zu zeigen, führen wir ein Widerspruchsbeweis. Wir nehmen fii = 1,
n̄ := inf{n : πijn > 0} < ∞ .
29
(2.9)
n
= 0 ∀n ∈ N an. So
(d.h. πijn̄ > 0) und πji
1 = fii = Pi (τi < ∞) = Pi (τi < ∞, Xn̄ = j) + Pi (τi < ∞, Xn̄ 6= j)
≤ Pi (τi < ∞, Xn̄ = j) + Pi (Xn̄ 6= j) = Pi (τi < ∞, Xn̄ = j) + 1 − πijn̄ .
n−n̄
Nun bemerken wir, dass Pi (Xn = 1, Xn̄ = j) = πijn̄ πji
= 0 für alle n > n̄ und für
n ∈ {1, . . . , n̄} Pi (Xn = 1, Xn̄ = j) = πiin πijn̄−n = 0 (gemäss der Definition von n̄),
also
X
Pi (τi < ∞, Xn̄ = j) ≤
Pi (Xn = i, Xn̄ = j) = 0
n≥0
(wobei wir die einfache Ungleichung P (∪i Ai ) ≤
πijn̄ = 0, ein Widerspruch.
P
i
P (Ai ) benutzt haben). Es folgt
Bemerkung 2.3. Ist π irreduzibel und i positiv rekurrent, so folgt (einfach),
dass alle Zustelle positiv rekurrent sind. In diesem Fall sprechen wir von positiv
rekurrenten Markoff-Kette.
Alle Stellen einer Rekurrenzklasse sind in endlicher Zeit verbunden:
Proposition 2.2. Sei i ∼ j mit i rekurrent. So gilt fij = fji = 1.
Beweis. Der erst Teil des Beweises ist ähnlich wie in obigem Lemma. Wir
setzen
n̄ := inf{n : πijn > 0} = inf{n : Pi (Xn = j) > 0} .
Wegen fii = Pi (τi < ∞) = 1, gilt
πijn̄ = Pi (τi < ∞, Xn̄ = j) = Pi (τi < n̄, Xn̄ = j) + Pi (n̄ < τi < ∞, Xn̄ = j) .
P
Nochmals ergibt die Ungleichung P (∪i Ai ) ≤ i P (Ai )
Pi (τi < n̄, Xn̄ = j) ≤
n−1
X
Pi (Xk = i, Xn̄ = j) ,
k=1
aber es gilt nach Definition von n̄ (2.9) Pi (Xk = i, Xn̄ = j) = Pi (Xn̄−k = j) = 0
für alle k ∈ {1, . . . , n − 1}, daher
πijn̄ = Pi (n̄ < τi < ∞, Xn̄ = j) .
Dann folgt aus der Formel von Bayes und der Markoff-Eigenschaft (1.2), dass
πijn̄ = Pi (n̄ < τi < ∞, Xn̄ = j)
= Pi (X1 6= i, . . . , Xn̄−1 6= i, Xn̄ = j, τi < ∞)
= Pi (τi < ∞ | X1 6= i, . . . , Xn̄−1 6= i, Xn̄ = j)Pi (X1 6= i, . . . , Xn̄−1 6= i, Xn̄ = j)
= Pj (τi < ∞)Pi (Xn̄ = j) = fji πijn̄
gilt. Daraus ergibt sich fji = 1. Man zeigt analog, dass fij = 1.
Übung 2.3. Beweisen Sie, dass endliche, irreduzible Markoff-Ketten rekurrent
sind.
30
3. Noch mehr über Irrfahrten
Nun diskutieren wir zwei namhafte Beispiele, nämlich die Rekurrenz der Irrfahrt (wenn die Dimension variiert) und die Ruinwahrscheinlichtkeit des Spielers.
Zuerst studieren wir die Rekurrenz der folgenden klasse von irriduziblen Irrfahrten. Da die Zufallsvariable ξ1 auf Zν Ihre Werte annimmt, schreiben wir (ξ1 )i ,
um die i-te Komponente des Zufallsvektor ξ1 = ((ξ1 )1 , . . . , (ξ1 )ν ) zu bezeichnen.
Wir betrachten diejenigen Zuwachsverteilungen mit
P (ξ1 = x) = P (ξ1 = −x) ,
und
E[|(ξ1 )α1 1
. . . (ξ1 )αν ν |]
E[(ξ1 )i (ξ1 )j ] =: Bij > 0 ,
< ∞ , wenn
ν
X
αh = 3 , αh ≥ 0 .
h=1
Wir bemerken, dass, wegen der Parität der Zuwächsverteilung,
E[(ξ1 )α1 1 . . . (ξ1 )αν ν ] = 0
P
gilt, wenn νh=1 αh ungerade ist.
Um die Rekurrenz (oder die Transienz) zu zeigen, genügt es nur f00 zu betrachten, da diese Irrfahrten irreduzible Markoff-Ketten sind. Wir wollen das folgende
Ergebnis zeigen:
Satz 3.1. Unter den obigen Annahmen ist f00 = 1, für ν = 1, 2, und f00 < 1
für ν ≥ 3.
Für ν = 1, 2 ist die Irrfahrt rekurrent und sie ist transient für ν ≥ 3. Eine
alternative (nicht mathematische) Formulierung dieses Statzes ist: Ein Irrer kann
immer den weg nach Hause finden, aber wird sich eine Irrtaube ewig verirren.
Um diesen Satz nachzuweisen, ist die erste Stufe das asymptotische Verhalten
der Wahrscheinlichkeit, dass die Irrfahrt auf 0 zurückkommt, zu bestimmen. Die
Fourier-Analysis ist wie ein Gespenst, das immer über uns schwebt und wird von
Zeit zu Zeit, wie in der folgenden Proposition, auf uns schlagen. Die Charakteristische Funktion der Zuwächse
X
ϕ(λ) :=
P (ξ1 = x)eixλ , λ ∈ [−π, π]
(3.1)
x∈Zν
spielt eine zentrale Rolle. Es ist eine einfache Übung zu beweisen, dass
X
ϕSn (λ) :=
P (Sn = x)eixλ = ϕn (λ) .
(3.2)
x∈Zν
Offenbar ist ϕ(0) = 1. Eine wichtige Eigenschaft von ϕ(λ) ist, dass, da die
Irrfahrt irreduzibel ist, |ϕ(λ)| < 1 für λ ∈ (0, 2π) gilt. Wir zeigen dies durch
Widerspruch: Sei λ∗ 6= 0, so dass |ϕ(λ∗ )| = 1. Dann gilt
X
∗
1=
eiλ (x−y) P (ξ1 = x)P (ξ1 = y) .
x,y∈Zν
31
Diese Gleichung gilt genau dann, wenn P (ξ1 = x) = δx,x̄ für ein gegeben x̄ ∈ Zν
ist, die die Verteilung einer reduzible Irrfahrt ist. Da wir hier nur die irreduziblen
Irrfahrten studieren wollen, es kann |ϕ(λ)| = 1 nur für λ = 0, 2π sein.
Die Strategie des Beweises der folgenden Proposition ist einige geeignete Eigenschaften von ϕ(λ) zu bestimmen, um das asymptotische Verhalten von P0 (Sn = 0)
durch die Inversion der Fourier-Reihe
Z
Z
dλ n
dλ n
−ixλ P0 (Sn = 0) =
ϕ
(λ)e
=
ϕ (λ) .
(3.3)
ν
ν
x=0
[−π,π]ν (2π)
[−π,π]ν (2π)
zu berechnen.
Erstens erklären wir eine nützliche Entwicklung für ϕ(λ). Wir berechnen
X
X
∂λi ϕ(λ)λ=0 = ∂λi
P (ξ1 = x)eixλ = i
P (ξ1 = x)xi = iE[(ξ1 )i ] ,
(3.4)
x∈Zν
x∈Zν
sowie
∂λi ∂λj ϕ(λ)λ=0 = −E[(ξ1 )i (ξ1 )j ] = −Bij .
(3.5)
P
∂λα11 . . . ∂λανν ϕ(λ)λ=0 = (i) h αh E[(ξ1 )α1 1 . . . (ξ1 )αν ν ] .
(3.6)
Allgemein gilt
Deshalb schreiben wir die Taylor Entwicklung von ϕ(λ) an [−ε, ε]ν als
1
ϕ(λ) = 1 − (λ, Bλ) + o(|λ|3 ) ,
2
(3.7)
und
1
log ϕ(λ) = − (λ, Bλ) + o(|λ|3 ) .
2
Somit gilt
1
3
1
ϕ(λ) = elog ϕ(λ) = e− 2 (λ,Bλ)+o(|λ| ) = e− 2 (λ,Bλ) (1 + o(|λ|3 )) ,
(3.8)
3
da eo(|λ| ) = 1 + o(|λ|3 ) ist.
Proposition 3.1. Unter den obigen Annahmen gilt
1
1
+o
.
(3.9)
P0 (Sn = 0) =
ν
ν/2
(det B)(2πn)
n2
√
Beweis. Durch die Variablenstrasformation λ 7→ λ/ n schreiben wir die Gleichung (3.3) als
Z
1
dλ
λ
n
P0 (Sn = 0) =
ϕ √
.
(3.10)
(2π)ν/2 [−π√n,π√n]ν (2πn)ν/2
n
32
Diese Formel und (3.8) geben
ν/2
(2π)
3 n
(λ,Bλ)
dλ
|λ|
− 2
e
1+o
3
√ √ ν (2πn) ν2
n2
[−ε n,ε n]
Z
λ
dλ
n
√
ν ϕ
√
√
√ √
n
[−π n,π n]ν /[−ε n,ε n]ν (2πn) 2
Z
(λ,Bλ)
dλ
1
− 2
+
o
ν e
ν
√ √
n2
[−ε n,ε n]ν (2πn) 2
Z
λ
dλ
n
√
. (3.11)
ν ϕ
√
√
√ √
n
[−π n,π n]ν /[−ε n,ε n]ν (2πn) 2
Z
P0 (Sn = 0) =
+
=
+
Um den letzen Ausdruck dieser Gleichung zu berechnen, bemerken wir, dass
ein b > 0 existiert, so dass
2
ϕ(λ) < e−b|λ| ,
∀λ ∈ [−π, π]ν .
(3.12)
Aus (3.7) sehen wir, dass ein b > 0 existiert, so dass
2
ϕ(λ) ≤ 1 − b|λ|2 ≤ e−b|λ| ,
∀λ ∈ [−ε, ε]ν
gilt. Andererseits, da |ϕ(λ)| < 1 für λ 6= 0 gilt, gibt es ein A > 0, so dass für
|λ| ≥ ε |ϕ(λ)| < A gilt. Daher gilt (3.12) fur alle λ ∈ [−π, π]. Also gilt
Z
Z
2
b|λ|2
dλ
λ
dλ
n
− bε2 n
− 2
√
≤
e
ν ϕ
ν e
√
√
√ √
√
√
√ √
n
[−π n,π n]ν /[−ε n,ε n]ν (2πn) 2
[−π n,π n]ν /[−ε n,ε n]ν (2πn) 2
Z
bε2 n
2
b|λ|2
e− 2
dλ
− 2
− bε2 n
≤ e
=
. (3.13)
ν e
(nb)ν/2
Rν (2πn) 2
Nun zeigen wir
Z
(λ,Bλ)
dλ
1
1
− 2
e
=
.
(3.14)
ν + o
ν
√ √ ν (2πn) ν2
(det B)n 2
n2
[−ε n,ε n]
Wir schreiben
Z
√ √
[−ε n,ε n]ν
(λ,Bλ)
dλ
− 2
=
ν e
(2πn) 2
und wir bemerken
Z
√ √
Rν /[−ε n,ε n]ν
Z
(λ,Bλ)
dλ
− 2
ν e
Rν (2πn) 2
Z
(λ,Bλ)
dλ
− 2
+
ν e
√ √
Rν /[−ε n,ε n]ν (2πn) 2
Z
(λ,Bλ)
1
dλ
− 2
=
ν +
ν e
√
√
(det B)n 2
Rν /[−ε n,ε n]ν (2πn) 2
(λ,Bλ)
b 2
dλ
− 2
≤ e− 4 ε n
ν e
(2πn) 2
Z
Rν
b 2
(λ,Bλ)
dλ
e− 4 ε n
− 2
=
ν e
ν .
(2πn) 2
(det B)n 2
Dies ergibt (3.14). Die Gleichungen (3.11), (3.13) und (3.14) ergeben (3.9).
33
Nun können wir den Beweis des Satzes 3.1 beenden.
Beweis des Satzes 3.1. Aus Proposition 2.1 folgt, dass f00 = 1, wenn
X
P0 (Sn = 0) = ∞
n≥0
und f00 < 1 sonst, da
#−1
"
f00 = 1 −
X
P0 (Sn = 0)
(3.15)
n≥0
gilt (sehen Sie (2.8)). Für ν = 1 sagt Proposition 3.1, dass
X
1
P0 (Sn = 0) ' √ , also
P0 (Sn = 0) = ∞ ⇒ f00 = 1 .
n
n≥0
Analog gilt für ν = 2
P0 (Sn = 0) '
1
,
n
also
X
P0 (Sn = 0) = ∞ ⇒ f00 = 1 ,
n≥0
aber für ν = 2 ist P0 (Sn = 0) '
und es ist f00 < 1.
1
,
nν/2
also konvergiert die Reihe
P
n≥0
P0 (Sn = 0)
Wir geben nun einen anderen Beweis der Formel (3.15). Wir führen
X
R :=
1{Sn =0}
n≥0
ein, so dass
E[R] =
X
P0 (Sn = 0)
n≥0
gilt. R ist die zufällige Anzahl der Rückführungen zu 0. Dann ergibt die MarkoffEigenschaft
P0 (R = k) = P (∃n1 , . . . , nk−1 ∈ N : S0 = 0, Sn1 = 0, . . . , Snk−1 = 0 , Sn>nk−1 6= 0)
= P0 (∃n ∈ N : Sn = 0) . . . P0 (∃n ∈ N : Sn = 0)P0 (@n ∈ N : Sn = 0)
k−1
= P0 (τ0 < ∞)k−1 P0 (τ0 = ∞) = f00
(1 − f00 )
für k ≥ 2 und natürlich ist P0 (R = 1) = 1, da P0 (S0 = 1). Somit gilt
X
X
k−1
E[R] =
kP0 (R = k) = (1 − f00 )
kf00
k≥0
k≥0
d
d X k
f00 = (1 − f00 )
(1 − f00 )−1 = (1 − f00 )−1 ,
= (1 − f00 )
df00 k≥0
df00
also (3.15).
In dem Falls ν = 1 kann man ein besser Ergebnis erhalten:
34
1-p
1-p
1-p
1
2
3
0
p
p
p
Abbildung 1. Irrfahrt mit 0 als absorbierenden Rand, deren stochastische Matrix ist (3.17).
Satz 3.2 (Satz von Chung und Fuchs (1951)). Sei ν = 1, E[|ξ1 |] < ∞ und
E[ξ1 ] = 0. Dann gilt f00 = 1.
Wir werden dieses Satz am ende des Kapitels verwenden.
Jetzt diskutieren wir eine vereinfachte Variante eines klassischen Problems der
Wahrscheinlichkeitstheorie, nämlich den Ruin des Spielers. Ein Spieler besitzt i
CHF und wettet auf jedes Ergebnis eines gegebenen Glücksspiels. Der Spieler gewinnt mit Wahrscheinlichkeit p ∈ (0, 1) und verliert mit Wahrscheinlichkeit 1 − p
(das Spiel kann unfair sein). Was ist die Wahrscheinlichkeit, dass der Spieler ruiniert ist?
Dieses Problem besitzt eine einfache Formulierung durch Markoff-Ketten und
zwar ist es eine Irrfahrt mit 0 als absorbierende Rand. Die (unendliche) stochastische Matrix ist
π0,0 = 1 ,
πi,i+1 = p ,
πi,i−1 = 1 − p
1
p
 1−p
0

1−p
 0
..
..
.
.

0
p
0
..
.
und πij = 0 sonst .
0 ···
0 ···
p ···
.. ..
. .

0
0 

0 .
..
.
Wir haben doch die Zufallszeit
τA := inf{n ∈ N : Xn ∈ A}
eingeführt. Wir setzen
ςA := inf{n ∈ N0 : Xn ∈ A} .
35
(3.16)
(3.17)
Sowohl τA als auch ςA sind Stoppenzeiten. Für i ∈ A gilt trivialerweise Pi (ςA =
0) = 1, ferner gilt Pi (τA = ςA ) für alle i ∈
/ A. Wir definieren die folgende Funktion
(n)
hA (i) := Pi (ςA < ∞) .
hA (i) := Pi (ςA = n) ,
Proposition 3.2. hA (i) ist die kleinste nicht-negative Funktion, die
(P
/A
j∈I πij F (A, j) i ∈
F (A, i) =
1
i ∈ A.
(3.18)
erfüllt.
Beweis. Offenbar ist hA (i) = 1 für i ∈ A, also betrachten wir den Fall i ∈
/ A.
Zunächst zeigen wir, dass
X
(n+1)
(n)
fiA
=
πij hA (i)
(3.19)
j∈I
gilt. Die folgende Kette von Gleichungen
X
Pi (τA ≤ n + 1) =
Pi (τA ≤ n + 1|X1 = j)πij
j∈I
=
X
P (X1 , . . . , Xn ∈
/ A, Xn+1 ∈ A|X0 = i , X1 = j)πij
j∈I
=
X
Pj (X0 , . . . , Xn−1 ∈
/ A, Xn ∈ A)πij =
j∈I
X
Pj (ςA = n)πij
j∈I
gibt
(n+1)
hA
(i) =
X
(n)
πij hA (i) .
j∈I
Also
hA (i) = fA (i) =
X
(n+1)
fiA
n≥0
=
X
πij
X
n≥0
j∈I
(n)
hA (i) =
X
πij hA (j) .
(3.20)
j∈I
Sei nun g(i) eine nicht-negative Lösung von (3.18). Wir zeigen mit Induktion nach
(n)
n, dass g(i) ≥ hA (i) für alle i ∈ I und n ∈ N0 ist, woraus g(i) ≥ hA (i) folgt. Für
n = 0 ist g(i) ≥ Pi (ςA = 0), da g(i) = Pi (ςA = 0) für i ∈ A und Pi (ςA = 0) = 0 ≤
(n)
g(i) sonst. Dann folgt aus der Induktionsannahme g(i) ≥ hA (i)
X
X
(n)
(n+1)
g(i) =
πij g(i) ≥
πij hA (i) = hA (i) .
j∈I
j∈I
Übung 3.1. Zeigen Sie, dass
(
P
1 + k6=j πik Ek [ςj ] i 6= j ,
Ei [ςj ] =
0
i=j
36
(3.21)
gilt.
Der folgende Satz stellt die Ruinwahrscheinlichkeit des Spieler her, wenn p ∈
(0, 1) variiert.
Satz 3.3 (Ruin des Spielers).
i) Für p ≤
ii) Für p >
1
2
1
2
gilt fi0 = 1, für alle i ∈ N.
gilt
i
1−p
, für alle i ∈ N .
fi0 =
p
(3.22)
Bemerkung 3.1. Wenn das Spiel unfair ist (gegen den Spieler, d.h. p < 21 ),
wird der Spieler sicher sein ganzes Kapital verlieren, aber dies passiert auch, wenn
das Spiel fair ist (p = 12 ).
Beweis. Offenbar ist h0 (i) = fi0 für i > 0. Die obige Proposition ergibt
(
h0 (0) = 1
(3.23)
h0 (i) = ph0 (i + 1) + (1 − p)h0 (i − 1) i ≥ 1 .
Wir wollen die Lösungen dieser Rekursion finden. Wir sehen sofort, dass die konstante Funktion h0 (i) = 1 für alle i ∈ N stets eine Lösung ist. Wir setzen
h0 (i + 1)
υi :=
,
h0 (i)
und bemerken, dass (3.23) als
υi+1 = M υi = M i υ0 ,
mit
− 1−p
p
M :=
,
(3.24)
1
0
geschrieben werden kann. Die Matrix M i hat die gleichen Eigenvektoren und Eigenwerte wie M . Eine einfache Berechnung ergibt
1−p 1−p 1−p
1
1
p
p
=
M
M
=
.
(3.25)
1
1
1
1
p
1
p
Wir schreiben für α ∈ [0, 1]
1−p h0 (1)
1
p
=α
+ (1 − α)
,
1
1
1
also
M i υ0 = α
1
1
 1−p
p
+β 37
i+1 
1−p
p
i  ,
daher gilt
i
1−p
h0 (i) = α + (1 − α)
.
(3.26)
p
Somit sehen wir, dass die Annahme p ≤ 21 und p > 12 ein verschiedenes Verhalten
i
1
→ ∞ für i → ∞, somit muss α = 1
von h0 (i) ergeben. p < 2 impliziert 1−p
p
i
1
gelten (da h0 (i) ≤ 1). Wenn p = 2 ist, dann gilt 1−p
= 1, also h0 (i) = α + β = 1
p
für alle i ∈ N. Dies beweist i).
1
≤ 1 und wir haben die Familie der
Was den Fall p > 2 betrifft, ist 1−p
p
Lösungen
i
1−p
h0 (i; α) = α + (1 − α)
≤ 1 , α ∈ [0, 1] .
p
Da
i
d
1−p
h0 (i; α) ≥ 0
h0 (i; 1) = 1 ≥
= h0 (i; 0) ,
dα
p
i
= fi0 .
ist die minimale h0 (i; α), wenn α ∈ [0, 1] variiert, h0 (i; 0) = 1−p
p
4. Invariante Masse
Zuerst geben wir die Definition eines invarianten Masses.
Definition 4.1. Ein nicht identisch-null Mass auf I mit
X
µ(j) =
µ(i)πij ,
∀j ∈ I ,
(4.1)
i∈I
P
heisst invariantes Mass bezüglich der stochastichen Matrix π. Wenn Z := i∈I µ(i) <
∞ ist, dann nennt man Z −1 µ(i) ein invariantes Wahrscheinlichkeitmass oder auch
eine invariante Verteilung.
Bemerkung 4.1. Ist µ ein invariantes Mass, so gilt
X
µ(j) =
µ(i)πijn ,
∀n ∈ N0 .
i∈I
(n̄)
Wenn π irreduzibel ist, dann existiert n̄ für alle i, j ∈ I, so dass πij > 0. Sei i ∈ I
(n̄)
mit µ(i) > 0. Dann µ(j) ≥ µ(i)πij > 0. Es folgt daraus, dass µ(j) > 0 ∀j ∈ I gilt.
Wenn die Startverteilung die invariante Verteilung ist, dann gilt natürlich
P (X0 = j) = P (Xn = j) für alle n ∈ N0 .
Die Existenz und die Klassifizierung der invarianten Masse ist ein Problem,
das wir in dem Rest dieses Kapitel ausführlich studieren werden. Ein einfacher
Fall ist, wenn I eine endliche Menge ist. Dann existiert immer mindestens eine
38
invariante Verteilung, die eindeutig ist, wenn die Kette irreduzibel ist. Die Existenz
ist leicht zu zeigen. Wir nehmen an, dass I = {1, . . . , κ} mit κ ∈ N und dass die
Startverteilung ein Kronecker-Delta an Stelle 1 ist: ν(i) = δ1i . Dann bilden wir die
Folge {π n ν(i)}n∈N0 , die als eine Folge in [0, 1]κ ausgelegt werden kann. Da [0, 1]κ
kompakt ist, gibt es eine Folge {nk }k∈N0 , so dass der Limes
µ̄1 := lim π nk ν(i)
k
existiert. Offenbar ist µ̄1 invariant bezüglich π. Eine allgemeine Startverteilung
ν(i) ist eine konvexe Kombination von Delta Massen, d.h.
X
ν(i) =
δij αj
j∈I
P
mit αj ∈ [0, 1] und j αj = 1. Wenn π irreduzibel ist, dann existiert ein invariante
Verteilung, die konvexe Kombination des obigen Limes ist, nämlich
X
µ̄ =
αj µ̄j ,
µ̄j (i) := lim π nk δij .
k
j
Wenn die Kette reduzibel ist, ist die Situation etwas anders. Der Einfachheit halber
nehmen wir an, dass die Kette die Menge I in zwei irreduzible und abgeschlosse
Klassen, I+ und I− , zersetzt. Wir setzen
X
αj δij ,
ν + + ν− = ν ,
ν± (i) :=
j∈I±
d.h. die Wahrscheinlichkeiten, dass die Kette von I± startet. Da diese Mengen
irreduzible sind, muss der Träger der invarianten Verteilung muss in I+ enthalten
sein, wenn die Kette von I+ startet (analog für I− ). Dies bedeutet (etwas formal)
µ̄(i) = P (lim Xn = i) = P (X∞ = i |, X0 ∈ I+ )P (I+ ) + P (X∞ = i |, X0 ∈ I− )P (I− )
n
= µ̄+ (i)ν+ (i) + µ̄− (i)ν− (i) ,
wobei
µ̄± =
X
αj µ̄j .
j∈I±
Aus dem obigen Beispiel man leitet sofort den allgemeinen Fall ab: Wenn K irreduzible und abgeschlosse Klassen Ik , k = 1, . . . K, mit Startverteilungen νk (i)
existieren, dann gilt
K
X
µ̄(i) =
µ̄k (i)νk (i) ,
k=1
wobei jedes µ̄k (i) die invariante Verteilung der k-ten Klasse ist. Dieses einfache,
aber allgemeine Prinzip ein für allemal erklärt, werden wir fortan nur (noch) irreduzible Ketten betrachten.
39
Die obige Konstruktion kann für rekurrente Markoff-Ketten verallgemeinert
werden. Wir betrachten ν(i) = δik , für i ∈ I und bemerken, dass
X
Pk (Xn = i) ,
n≥1
falls konvergent, auch ein invariantes Mass ist (natürlich ist π n ν(i) = Pν (Xn =
i)). Für irreduzible rekurrente Kette konvergiert die obige Reihe nicht. Trotzdem
können wir eine Menge mit unitären Massen finden, so dass die Reihe konvergent
ist. Wir setzen
#
"τ
k
X
X
1{Xn =i} .
(4.2)
µk (i) :=
Pk (Xn = i, τk ≥ n) = Ek
n=1
n≥1
Proposition 4.1. Sei π irreduzibel und rekurrent und für k ∈ I µk (i) durch
(4.2) definiert. Dann ist 0 < µk (i) < ∞ und es ist das einzige invariante Mass,
das µk (k) = 1 erfüllt.
Beweis. Die Bayesche Formel und Rekurrenz ergeben einfach
X
X
µk (k) =
Pk (τk ≥ n , Xn = k) =
Pk (τk = n , Xn = k)
n≥1
=
X
n≥1
Pk (Xn = k | τk = n)Pk (τk = n) =
n≥1
X
fkk = 1 .
n≥1
Dann verwendet wir nochmals die Markoff-Eigenschaft und die zeitliche Homogeneität. Zuerst schreiben wir
Pk (Xn = i , Xn−1 = j , τk ≥ n)
= Pk (τk ≥ n | Xn = i , Xn−1 = j)Pk (Xn = i , Xn−1 = j)
= Pk (τk ≥ n | Xn = i , Xn−1 = j)Pk (Xn−1 = j)Pj (X1 = i)
= Pk (τk − 1 ≥ n − 1 , Xn−1 = j)πji .
Also
µk (i) =
XX
=
XX
Pk (Xn = i , Xn−1 = j , τk ≥ n)
n≥1 j∈I
Pk (Xn−1 = j , τk − 1 ≥ n − 1)πji
n≥1 j∈I
=
XX
Pk (Xn = j , τk ≥ n)πji =
n≥1 j∈I
X
µk (j)πji .
(4.3)
j∈I
Die obige Gleichung zeigt die Invarianz von µk . Ausserdem folgt auch aus Bemerkung 4.1, dass
X
m
µk (i) =
µk (j)πji
∀m ≥ 1 .
j∈I
40
n̄
> 0. Dann
Wegen der Irreduzibilität, existiert für jedes j ∈ I ein n̄ ∈ N mit πji
gilt
X
n̄
n̄
µk (j)
µk (j) ≥ πjk
1 = µk (k) =
πjk
j∈I
für jedes feste j ∈ I. Somit existiert für jedes j ∈ I ein n̄ ∈ N, so dass µk (j) ≤
n̄ −1
m
(πjk
) < ∞. Anderseits bemerken wir, dass µk (i) ≥ µk (k)πki
. Daher existiert für
n̄
jedes j ∈ I ein n̄ ∈ N mit πki > 0, also µk (i) > 0.
Endlich nehmen wir an, dass ein invariantes Masses µ̃(i) mit µ̃(k) = 1 existiert.
Dann ist δ(i) := µ̃(i) − µk (i) auch ein invariantes Mass mit δ(k) = 0. Somit gilt
für jede j̄ ∈ I
X
n
n
δ(j) ≥ πj̄k
δ(j̄)
∀n ∈ N ,
0 = δ(k) =
πjk
j∈I
woraus, nochmals wegen der Irreduzibilität δ(i) = 0 für alle i ∈ I folgt.
Die Existenz und Eindeutigkeit der invarianten Verteilung sind etwas komplizierter zu beweisen, denn die einfache Rekurrenz genügt nicht.
Der Hauptstatz dieses Kapitel ist
Satz 4.1. Ein eindeutiges invariantes Wahrscheinlichtkeitmass µ existiert genau dann, wenn die Markoff-Kette positiv rekurrent ist. Ausserdem gilt
1
.
(4.4)
µ(k) =
Ek [τk ]
Übung 4.1. Sei p ∈ (0, 1) und {ξn }n∈N eine Folge von unabhängigen und
gleichverteilten Zufallsvariablen mit P (ξ1 = 1) = p, P (ξ1 = −1) = 1 − p. Beweisen
P
Sie, dass die Irrfahrt SN := N
n=1 ξi null-rekurrent ist. Was ist das invariante Mass?
Übung 4.2. Beweisen Sie, dass jede endliche Markoff-Kette positiv rekurrent
ist.
Wir werden diesen Satz nur für den Fall beweisen, dass die Kette aperiodisch
ist (d.h. d = 1). Die Annahme d ≥ 2 erschwert den Beweis, aber er enthalt nicht
viele neue Informationen. Der Existenz-Teil ist einfacher und kann sofort bewiesen
werden.
Beweis (nur Existenz). Da die Kette irreduzibel und rekurrent ist, wissen
wir aus Satz 4.1, dass µk (i) ein invariantes Mass ist. Nun gilt
X
XX
µk (j) =
Pk (τk ≥ n | Xn = j)Pk (Xn = j)
n≥1 j∈I
j∈I
=
X
Pk (τk ≥ n) =
n≥1
X
nPk (τk = n) = Ek [τk ] < ∞ .
n≥1
Somit ist
µ(i) :=
µk (i)
Ek [τk ]
41
(4.5)
eine invariante Verteilung. Wenn wir den obigen Ausdruck in i = k auswerten,
erhalten wir (4.4).
Der Beweis der Eindeutigkeit der invarianten Verteilung für positiv rekurrente
und irreduzible Markoff-Ketten braucht etwas mehr Arbeit. Zunächst zeigen wir
ein wichtiges Zwischenergebnis.
Proposition 4.2. Sei π die stochastische Matrix einer positiv-rekurrenten
Markoff-Kette. Existiert
µ(j) = lim πijn
n
P
i-unabhängig, so ist {µ(i)}i∈I eine invariantes endliches Mass. Wenn i µ(i) = 1
gilt, dann ist {µ(i)}i∈I die einzige invariante Verteilung.
Beweis. Zunächst bemerken wir, dass, wegen des Lemmas von Fatou,
X
X
X n+1
n
n
= lim inf πkj
= µ(j)
≤ lim inf
πij πki
πij µ(i) =
πij lim πki
i∈I
n
n
i∈I
n
i∈I
P
gilt,
P d.h. i∈I πij µ(i) ≤ µ(j). Nun nehmen wir an, dass ein j0 existiert, so dass
i∈I πij0 µ(i) < µ(j0 ). Dann gilt
X
X
X
XX
X
µ(i).
πij =
µ(i)
πij µ(i) =
µ(j) >
i∈I
j∈I i∈I
j∈I
j∈I
i∈I
P
Dieser Widerspruch impliziert, dass i∈I πij µ(i) = µ(j) ist, d.h. µ invariant ist.
Es folgt, dass
X
πijn µ(i) = µ(j) ∀n ∈ N
i∈I
ist. Daher ergibt der Satz der dominierten Konvergenz
X
X
X
µ(i) = lim
πijn µ(i) =
lim πijn µ(i) = µ(j)
µ(i).
n
i∈I
i∈I
n
i∈I
P
Somit µ(j)(1
P− i∈I µ(i)) = 0 für alle i ∈ I. Deshalb ist entweder µ(i) = 0 für alle
i ∈ I oder i∈I µ(i) = 1. Da die Kette positiv rekurrent ist, folgt, dass {µ(i)}i∈I
eine invariante Verteilung ist (wegen dem Existenz-Teil des Satzes P
4.1).
Sei nun {q(i)}i∈I eine andere invariante
Verteilung. Dann gilt i∈I q(j)πijn =
P
q(j) für alle n ∈ N, also für n → ∞ i∈I q(i)µ(j) = q(j). Dies ergibt µ(j) = q(j)
für alle j ∈ I.
Endlich können wir den Beweis des Satzes 4.1 durch den folgenden wichtigen
Satz beenden.
Satz 4.2 (Erneuerungssatz). Sei π die stochastische Matrix einer positiv rekurrenten Markoff-Kette. Dann gilt
1
lim πijn =
∀i ∈ I .
n
Ej [τj ]
Beweis. Der Beweis ist lang und wir teilen ihn in mehrere Schritte.
42
1) Erneuerungskette. Wir erinnern an einige nützliche Definitionen über Erneuerungsketten. Sei Rn (j) := 1{Xn =j} , j ∈ I. Offenbar gilt
πijn = Pi (Xn = j) = Ei [Rn (j)] = Pi (Rn (j) = 1) .
Die Erneuerungsepochen sind durch
τj (k) := inf{n > τj (k − 1) : Rn (j) = 1} k ≥ 1
τj (0) = 0 ,
definiert. Wir setzen auch
∆τj (k) := τj (k) − τj (k − 1) , für k ≥ 1 .
(n)
Natürlich ist τj (1) = ∆τj (1) = τj , also Pi (∆τj (1) = n) = fij für alle i, j ∈ I. Die
entscheidende Idee ist, dass die Kette die Erinnerung an den vergangenen Pfad
verliert, jedes mal, wenn sie auf die Stelle j zurückkehrt. Daher ist der Pfad der
Kette in mehrere unabhängige Teile, jede in den Zeiten zwischen τj (k) und τj (k+1),
(n)
gespalten. Es folgt, dass Pi (∆τj (k) = n) = fij für k ≥ 1 ist, unabhängig von k,
und {∆τj (k)}k∈N ist eine Folge von unabhängigen Zufallsvariablen mit gleicher
(n)
Verteilung {fij }n∈N . Wir können die diesen Zufallsvariablen zugeordnete Irrfahrt
durch
t
X
∆τj (k) , n ≥ 1
τj (t) =
k=1
definieren. Offenbar ist
πij0
= δij und
πijn = Pi (Xn = j) =
X
Pi (τj (t) = n) .
t∈N
2) Eine stationäre Erneuerungskette. Wir führen jetzt eine zusätliche Erneued
rungskette {∆τ̃j (k)}k∈N ein. Wir setzen für k ≥ 1 ∆τ̃j (k) = ∆τj (k) und
∆j (n) := P (τ̃j (0) = n) =
Pj (τj > n)
Ej [τj ]
(offenbar ist
X Pj (τj > n)
∆j (n) =
=
E
[τ
]
j
j
n≥0
n≥1
X
P
n≥1
nPj (τj = n)
= 1) .
Ej [τj ]
Sei
τ̃j (t) := τ̃j (0) +
t
X
∆τ̃j (k) und π̃ij (n) :=
X
Pi (τ̃j (t) = n) .
t∈N0
k=1
Wir werden beweisen, dass
π̃ij (n) = π̃ij =
1
Ej [τj ]
43
∀n ∈ N , i ∈ I .
(4.6)
Für n = 0 ist es einfach
π̃ij (0) = ∆(0) =
1
Pj (τj > 0)
=
.
Ej [τj ]
Ej [τj ]
Um die obige Identität für alle n ∈ N zu zeigen, bemerken wir zuerst, dass
X
π̃ij (n) = ∆(n) +
Pi (τ̃j (t) = n)
t∈N
= ∆(n) +
= ∆(n) +
n
XX
Pi (τ̃j (0) = h)Pi (∆τ̃j (1) + . . . + ∆τ̃j (t) = n − h)
t∈N h=1
n
X
Pi (τ̃j (0) = h)πijn−h .
h=1
Dann folgt nach dem Lemma 2.1, dass für n ≥ 1
π̃ij (n) = ∆(n) +
n X
n−h
X
(k)
Pi (τ̃j (0) = h)πijn−h−k fii
h=1 k=1
= ∆(n) +
n
X
(k)
π̃ij (n − k)fii
k=1
gilt. Aus der obigen Gleichung erhalten wir
ˆ
ˆ
ˆ ,
π̃(s)
= ∆(s)
+ fˆ(s)π̃(s)
wobei für eine beliebige Folge {pn }n∈N
X
p̂(s) :=
sn pn ,
0 ≤ s < 1,
0 ≤ s < 1.
n∈N
Da
1 X n
s Pj (τj > n) ,
Ej [τj ] n≥1
ˆ
∆(s)
=
genügt es zu zeigen, dass
P
sn Pj (τj > n)
1
=
ˆ
1−s
1 − f (s)
n≥1
gilt, so dass
ˆ
π̃(s)
=
1
1
1 X n
=
s ,
Ej [τj ] 1 − s
Ej [τj ] n≥1
44
(4.7)
also (4.6). Der Beweis von (4.7):
k
1 − fˆ(s) X 1 − sk (k) X (k) X n
=
fjj =
fjj
s
1−s
1
−
s
n=1
k≥1
k≥1
X (k) X
X
n
n
s
fjj =
s Pj (τj > n) .
n≥1
n≥1
k≥n+1
3) Kopplung. Sei die Zufallsfolge {Vj (t)}t∈N durch
Vj (t) := τj (t) − τ̃j (t) =
t
X
∆τj (k) − ∆τ̃j (k) − τ̃j (0)
(4.8)
k=1
definiert und N := inf{t : Vj (t) = 0}. Wir sehen sofort, dass {Vj (t) − Vj (0)}t∈N
für alle j ∈ I eine Markoff-Kette ist und zwar eine 1-dimensionale Irrfahrt mit
Startverteilung ∆(n) und Zuwächsen ∆τj (t) − ∆τ̃j (t). Ausserdem ist, wegen des
Satzes von Chung und Fuchs (Satz 3.2), diese Kette rekurrent, d.h. P (N < ∞) = 1,
da E[Vj (t) − Vj (t − 1)] = 0 für t ≥ 1 und E[|Vj (t) − Vj (t − 1)|] ≤ 2Ej [τj ] < ∞.
Somit gilt
X
X
Pi (τ̃j (t) = n, N < t) =
Pi (τj (t) = n, N < t) ,
t∈N0
t∈N0
da N Pi -f.s. endlich ist, so dass
X
Pi (τj (t) = n)
πijn =
t∈N
=
X
Pi (τ̃j (t) = n) +
t∈N0
X
Pi (τj (t) = n) −
t∈N
= π̃ij +
X
t∈N
n
t∈N
Pi (τ̃j (t) = n)
t∈N0
Pi (τj (t) = n, N ≥ t) −
Deshalb wollen wir zeigen, dass
X
lim
Pi (τj (t) = n, N ≥ t) = 0 ,
X
X
Pi (τ̃j (t) = n, N ≥ t) .
t∈N0
lim
n
X
Pi (τ̃j (t) = n, N ≥ t) = 0 .
(4.9)
t∈N0
Wir bemerken, dass τj (t) und τ̃j (t) Pi -f.s. ansteigend bezüglich t sind, da
P (∆τj ≥ 0) = P (∆τ̃j ≥ 0) = 1 ,
also τj (t) ≤ τj (N ) und τ̃j (t) ≤ τ̃j (N ) Pi -f.s. für t ≤ N . Dann existiert ein n̄ ∈ N,
so dass für alle n ≥ n̄
X
Pi (τj (t) = n, N ≥ t) ≤ Pi (τj (N ) = n)
t∈N
und
X
Pi (τ̃j (t) = n, N ≥ t) ≤ Pi (τ̃j (N ) = n) .
t∈N0
45
Natürlich ist
lim Pi (τj (N ) = n) = Pi (τj (N ) = ∞) = 0
n
und analog
lim Pi (τ̃j (N ) = n) = 0 ,
n
da N Pi -f.s. endlich ist. Kombinieren wir (4.6) und (4.9), so erhalten wir
1
lim πijn = π̃ij =
.
n
Ej [τj ]
Bemerkung 4.2. Der originale Beweis des Erneuerungssatzes (nach Erdos,
Feller und Pollard 1949) ist viel kürzer und gilt auch, wenn E[τ ] = ∞ ist. Hier
haben wir uns für einen längere Beweis entschieden, um den wichtigen Begriff
Erneuerung zu betonen.
46
KAPITEL 3
Martingale mit diskretem Zeitparameter
1. Erste Definitionen und Eigenschaften
Herzlich willkommen in der wunderbaren Welt der Martingale!
Definition 1.1. Sei T ⊆ R, {Ft }t∈T eine Filtrierung des Wahrscheinlichkeitsraums (Ω, F, P ), und X := {Xt }t∈N ein Ft -angepasster stochastischer Prozess mit
E[|Xt |] < ∞ ,
i)
ii)
iii)
Wenn T
∀t ∈ T .
Ist E[Xs |Ft ] = Xt P −f.s. für alle t ≤ s, so heisst Xt ein Ft -Martingal;
Ist E[Xs |Ft ] ≥ Xt P −f.s. für alle t ≤ s, so heisst Xt ein Ft -Submartingal;
Ist E[Xs |Ft ] ≤ Xt P −f.s. für alle t ≤ s, so heisst Xt ein Ft -Supermartingal.
eine diskrete Menge ist, z.B. T ⊆ N, heisst Xt ein diskrete Ft -Martingal.
Bemerkung 1.1. Für nicht negative Zufallsvariablen kann auf Integrierbarkeit
in der Definition verzichtet werden. Ausserdem ist Xt ein Ft -Submartingal genau
dann, wenn −Xt ein Ft -Supermartingal ist.
Bemerkung 1.2. In dem diskretem Fall T = N ist {Xn }n∈N genau dann ein
Martingal, wenn
E[Xn+1 |Fn ] = Xn P − f.s.
(1.1)
gilt (analog für Sub- oder Supermartingale). Dies folgt durch Induktion, wobei
die Induktionsbasis ist (1.1). Wir nehmen E[Xn+m |Fn ] = Xn an und wollen
E[Xn+m+1 |Fn ] = Xn beweisen. Wir bemerken, dass Xn+m = E[Xn+m+1 |Fn+m ].
So gilt
E[Xn+m+1 |Fn ] = E[E[Xn+m+1 |Fn+m ]|Fn ] = E[Xn+m |Fn ] = Xn .
Aus (1.1) folgt sofort
E[E[Xn+1 |Fn ]] = E[Xn+1 ] = E[Xn ] = · · · = E[X0 ]
(1.2)
und analog für Submartingale
E[E[Xn+1 |Fn ]] ≥ E[Xn+1 ] ≥ E[Xn ] ≥ · · · ≥ E[X0 ]
(1.3)
oder für Supermartingale
E[E[Xn+1 |Fn ]] ≤ E[Xn+1 ] ≤ E[Xn ] ≤ · · · ≤ E[X0 ] .
47
(1.4)
Drei kanonische Beispiele folgen.
B1) Sei Fn eine beliebige Filtrierung und X eine Zufallsvariable mit E[|X|] <
∞. Dann ist
Xn := E[X|Fn ] n ∈ N
ein Martingal. Der leichte Beweis sei dem Leser überlassen.
B2) (nochmals) Die Irrfahrt auf Zν : Sei {ξn }n∈N eine Folge von
P unabhängigen
gleichverteilten Zufallsvariablen mit E[|ξ1 |] < ∞, X0 = 0, Xn := ni=1 ξi für n ≥ 1
und Fn := σ(ξ1 , . . . , ξn ). Dann gilt
E[Xn+1 |Fn ] = E[Xn |Fn ] + E[ξn+1 |Fn ] = Xn + E[ξn+1 ] .
(1.5)
Somit ist X ein Martingal, wenn E[ξ1 ] = 0 gilt und es ist ein Submartingal (Supermartingal), wenn E[ξ1 ] ≥ 0 (E[ξ1 ] ≤ 0).
B3) Sei {ξn }n∈N eine Folge von unabhängigen gleichverteilten Zufallsvariablen
mit E[ξ1 ] = 1, Fn := σ(ξ1 , . . . , ξn ) n ≥ 1 und F0 := {∅, Ω}. Der Prozess {Xn }n∈N
definiert durch
n
Y
Xn :=
ξi , n ≥ 1, X0 := 1 ,
i=1
ist ein Fn -Martingal. Offenbar ist Xn angepasst und integrierbar. Dann gilt
E[Xn |Fn−1 ] = E[ξn Xn−1 |Fn−1 ] = ξn E[Xn−1 |Fn−1 ] = ξn Xn−1 = Xn .
Übung 1.1. Beweisen Sie, dass eine symmetrische Irrfahrt Sn auf Z existiert,
d
so dass Xn = eSn gilt.
Übung 1.2. Beweisen Sie die folgende Aussage: Ist ϕ : R 7→ R eine Fn messbare konvexe Funktion und Xn ein Martingal, so ist ϕ(Xn ) ein Submartingal.
Insbesondere ist |Xn |p für p ≥ 1 ein Submartingal (Tipp: Verwenden Sie das Lemma 2.1 des Kapitels 1).
Sei {fn }n∈N eine P -f.s. ansteigende reelle Folge. Dann ist {fn }n∈N trivialerweise
bezüglich aller Filtrierungen ein Submartingal, da
E[fn+1 |Fn ] = fn+1 ≥ fn .
Im allgemeinen gilt der folgende Satz.
Satz 1.1 (Doobsche Zerlegung). Sei {Xn }n∈N0 eine Folge von integrierbaren Zufallsvariablen und Fn := σ(X1 , . . . , Xn ). Dann existiert ein Fn -Martingal
{Yn }n∈N und eine Folge von Zufallsvariablen {fn }n∈N , mit fn Fn−1 -m.b., so dass
Xn = Yn + fn ,
∀n ≥ 1
(1.6)
gilt. Diese Zerlegung ist eindeutig.
Beweis. Sei die Folge {fn }n∈N durch
f1 := E[X1 − X0 |F0 ] ,
fn := fn−1 + E[Xn − Xn−1 |Fn−1 ] ,
48
n ≥ 1,
definiert. Dann ist Yn := Xn − fn ein Martingal, da
E[Xn − fn |Fn−1 ] = E[Xn |Fn−1 ] − fn
= E[Xn |Fn−1 ] − fn−1 − E[Xn − Xn−1 |Fn−1 ] = Xn−1 − fn−1 .
Sei nun (Yn0 , fn0 ) ein anderes Paar, das die Annahmen des Satzes erfüllt, so dass
Xn = Yn0 + fn0 . Dann folgt für n ≥ 1
0
0
Yn+1
− Yn0 + fn+1
− fn0 = Yn+1 − Yn + fn+1 − fn .
Daher gilt
0
E[fn+1
− fn0 |Fn ] = E[fn+1 − fn |Fn ] ,
0
− fn0 = fn+1 − fn für alle n ∈ N P -f.s. Da f1 = f10 , folgt die Eindeutigkeit
d.h. fn+1
von fn , also der Zerlegung (1.6).
Bemerkung 1.3. {Xn }n∈N0 ist ein Submartingal genau dann, wenn {fn }n∈N P f.s. ansteigend ist und {Xn }n∈N0 ist ein Supermartingal genau dann, wenn {fn }n∈N
P -f.s. fallend ist.
Proposition 1.1. {Xn }n∈N0 ist ein Martingal mit supn∈N0 E[|Xn |] < ∞ genau
dann, wenn zwei nicht-negative Martingale {Yn }n∈N0 und {Zn }n∈N0 existieren, so
dass Xn = Zn − Yn .
Beweis. Eine Rechnung ist einfach: Seien {Yn }n∈N0 , {Zn }n∈N0 zwei nichtnegative Martingale, so dass Xn = Zn − Yn auch ein Martingal ist. Dann gilt
E[|Xn |] = E[|Yn − Zn |] ≤ E[|Yn |] + E[|Zn |] = E[Yn ] + E[Zn ] = E[Y1 ] + E[Z1 ] < ∞ .
Sei nun {Xn }n∈N0 ein Martingal mit supn∈N0 E[|Xn |] < ∞. Wir setzen
Yj,n := E[|Xn ||Fj ] 0 ≤ j ≤ n .
(1.7)
Offenbar ist {Yj,n }n∈N0 ,0≤j≤n eine Folge von nicht-negativen Zufallsvariablen. Ausserdem ist die Folge {Yj,n }n∈N0 für jedes feste 0 ≤ j ≤ n P -f.s. absteigend: Es gilt
(aus dem Satz 2.1 (5) und (3))
Yj,n+1 − Yj,n = E[|Xn+1 | − |Xn ||Fj ] = E[E[|Xn+1 | − |Xn ||Fn ]|Fj ] ≥ 0 ,
da, wegen der Konvexität, {|Xn+1 |}n∈N ein Submartingal ist (sehen Sie Übung 1.2).
Nochmals ergibt Satz 2.1 (5), dass {Yj,n }n∈N ein Fj -Martingal ist, da
E[Yj+1,n |Fj ] = E[E[|Xn ||Fj+1 ]|Fj ] = E[|Xn ||Fj ] = Yj,n
P -f.s. gilt. Offenbar ist auch Zj,n := Xj + Yj,n ein Fj -Martingal für 0 ≤ j ≤ n mit
Zj,n = E[Xn + |Xn ||Fj ] ≥ 0 ,
P -f.s.
Somit existieren wegen des Satzes von Lebesgue zwei Martingale
{Yj }j∈N0 = lim{Yj,n }0≤j≤n ,
{Zj }j∈N0 = lim{Zj,n }0≤j≤n ,
n
n
mit Zj − Yj = Xj P -f.s.
49
2. Stoppzeiten für Martingale
Der Begriff der Stoppzeit spielt eine wichtige Rolle auch in der Theorie
S der
Martingale. Sei {Fn }n∈N eine Filtrierung und F∞ die σ-Algebra, die von n Fn
erzeugt wird (d.h. F∞ ist die kleinste σ-Algebra, die alle Fn enthält). Dann folgt
sofort aus der Definition einer Stoppzeit τ , dass {τ = ∞} ∈ F∞ . Ausserdem setzen
wir
Fτ := {A ∈ F∞ : A ∩ {τ = n} ∈ Fn , ∀n ∈ N0 } .
Es ist leicht zu beweisen, dass Fτ eine Teil-σ-Algebra von F∞ ist und
Fτ = {A ∈ F∞ : A ∩ {τ ≤ n} ∈ Fn , ∀n ∈ N0 } .
Lemma 2.1. Seien τ, τ 0 zwei Stoppzeiten. Dann ist {τ ≤ τ 0 } ∈ Fτ ∩ Fτ 0 .
Ausserdem impliziert τ ≤ τ 0 P -f.s., dass Fτ ⊆ Fτ 0 .
Beweis. Wir bemerken, dass
[
[
{τ ≤ τ 0 } =
{τ ≤ τ 0 } ∩ {τ = n} =
{τ ≤ τ 0 } ∩ {τ 0 = n} .
n∈N0
n∈N0
Wir haben
{τ ≤ τ 0 } ∩ {τ = n} = {n ≤ τ 0 } ∩ {τ = n} = {τ 0 ≤ n − 1}c ∩ {τ = n} ∈ Fn ,
also {τ ≤ τ 0 } ∈ Fτ . Analog gilt
{τ ≤ τ 0 } ∩ {τ 0 = n} = {n ≤ τ } ∩ {τ 0 = n} = {τ ≤ n − 1}c ∩ {τ 0 = n} ∈ Fn .
also {τ ≤ τ 0 } ∈ Fτ 0 , woraus {τ ≤ τ 0 } ∈ Fτ ∩ Fτ 0 folgt.
Sei nun A ∈ Fτ . Wenn τ ≤ τ 0 P -f.s., dann folgt
{τ 0 ≤ n} = {τ 0 ≤ n} ∩ {τ ≤ n} .
Somit gilt
A ∩ {τ 0 ≤ n} = (A ∩ {τ ≤ n}) ∩ {τ 0 ≤ n} ∈ Fn
∀n ∈ N0 ,
d.h. es gilt A ∈ Fτ 0 .
Übung 2.1. Sei τ eine Stoppzeit und {Xn }n∈N ein disktreter stochastischer
Prozess. Beweisen Sie, dass Xτ Fτ -m.b. ist.
Der folgende Satz erklärt, dass die Martingaleigenschaft erhalten bleibt, wenn
wir die Zeit durch Stoppzeiten ersetzen.
Proposition 2.1. Sei {Xn }n∈N ein Supermartingal und τ, τ 0 zwei Stoppzeiten,
so dass P (τ ≤ τ 0 ) = 1 und supω∈Ω |τ (ω)| ≤ supω∈Ω |τ 0 (ω)| < ∞. Dann gilt
E[Xτ 0 |Fτ ] ≤ Xτ
P -f.s.
Diese Ungleichung ist eine Gleichung, wenn {Xn }n∈N ein Martingal ist.
50
Beweis. Für Supermartingale benutzen wir die Zerlegung von Doob, d.h. Satz
1.1. Wir bemerken zuerst, dass τ ≤ τ 0 P (fτ ≥ fτ 0 ) = 1 impliziert. Somit gilt
E[Xτ 0 |Fτ ] = E[Yτ 0 |Fτ ]+E[fτ 0 |Fτ ] ≤ E[Yτ 0 |Fτ ]+E[fτ |Fτ ] = E[Yτ 0 |Fτ ]+fτ
P -f.s. ,
da fτ Fτ -m.b. ist. Daher gilt die Aussage für Supermartingale, wenn dieselbe gültig
für Martingale ist.
Sei Xn ein Martingal und τ̄ eine Stoppzeit mit supω∈Ω τ̄ (ω) ≤ c̄ < ∞, c̄ ∈ N.
Dann gilt
Xτ̄ = E[Xc̄ |Fτ̄ ] P -f.s.
(2.1)
Um diese Formel zu zeigen, schreiben wir für jedes B ∈ Fτ ⊆ Fc̄
[
B=
{ω ∈ B : τ̄ = j} ,
j=1,...,c̄
also (wir erinnern uns an die Definition von Martingal 1.1, i))
E[1B Xτ̄ ] =
c̄
X
E[1{ω∈B : τ̄ =j} Xτ̄ ] =
j=1
=
c̄
X
c̄
X
E[1{ω∈B : τ̄ =j} Xj ]
j=1
E[1{ω∈B : τ̄ =j} E[Xc̄ |Fj ]] = E[1B E[Xc̄ |Fτ̄ ]] .
(2.2)
j=1
Sei nun c := supω∈Ω |τ 0 (ω)|. Da Fτ ⊆ Fτ 0 ⊆ Fc , folgt
E[Xc |Fτ ] = E[E[Xc |Fτ 0 ]|Fτ ] P -f.s.
aus Punkt (5) des Satzes 2.1 (Kapitel 1). Damit ergibt die Formel (2.1) die Aussage.
Übung 2.2. Sei {Xn }n∈N ein Martingal und τ 0 eine beschrankte Stoppzeit.
Beweisen Sie, dass E[Xτ ] = E[X0 ].
Dieses Ergebnis hat eine unmittelbare Bedeutung: Ein Spieler kann nicht aus
einem fairen Spiel Gewinn machen, wenn er nicht in die Zukunft blicken kann.
Wir werden im folgenden sehen, dass dies unter allgemeineren Annahmen bewiesen
werden kann.
Definition 2.1. Seien {Xn }n∈N0 und {fn }n∈N zwei stochastische Prozesse mit
fn Fn−1 -m.b. für n ≥ 1. Wir definieren den Prozess {Ẋn }n∈N0 durch Ẋ0 := 0 und
Ẋn+1 := Ẋn + fn+1 (Xn+1 − Xn ) .
Wir nennen den stochastischen Prozess {Ẋn }n∈N Martingaltransformation von Xn
durch fn .
Offenbar ist E[fn (Xn+1 − Xn )|Fn ] = fn E[Xn+1 − Xn |Fn ] ≤ 0, wenn Xn ein
Supermartingal ist. Damit ist die Martingaltransformation eines Supermartingals
ein Supermartingal (analog für Martingale und Submartingale).
51
Satz 2.1 (Doob’sche Stoppsatz). Es seien τ eine Stoppzeit und {Xn }n∈N ein
Supermartingal. Dann ist {Xn∧τ }n∈N ein Supermartingal. Ist {Xn }n∈N ein Martingal, so auch {Xn∧τ }n∈N .
Beweis. Wir betrachten den Prozess {1{τ ≥n} }n∈N , der Fn−1 -m.b. ist, da {τ ≥
n} = {τ ≤ n − 1}c ∈ Fn−1 . Somit ist die Martingalstransformation von Xn durch
1{τ ≥n} einfach zu berechnen:
Ẋn+1 = Ẋn + 1{τ ≥n+1} (Xn+1 − Xn ) =
n+1
X
1{τ ≥k} (Xk − Xk−1 ) ,
k=1
= 1{τ ≥n+1}
n+1
X
n+1
X
k=1
k=1
(Xk − Xk−1 ) +
1{k≤τ ≤n} (Xk − Xk−1 )
= 1{τ ≥n+1} (Xn+1 − X0 ) + 1{τ ≤n} (Xτ − X0 )
⇒ Ẋn = Xn∧τ − X0 .
Da {Ẋn }n∈N ein Supermartingal ist (bzw. ein Martingal), so auch {Xn∧τ }n∈N . Wenn {Xn }n∈N ein Supermartingal ist, dann folgt aus E[Ẋn ] ≤ E[Ẋ0 ] = 0,
dass E[Xn∧τ ] ≤ E[X0 ]. Wir erhalten sofort das folgende Korollar:
Korollar 2.2. Seien {Xn }n∈N ein positive Supermartingal und τ eine Stoppzeit mit P (τ < ∞) = 1. Dann ist E[Xτ ] ≤ E[X0 ].
Beweis. Wir können das Lemma von Fatou verwenden (da Xn ≥ 0) und
erhalten
E[Xτ ] = E[lim Xn∧τ ] ≤ lim E[Xn∧τ ] ≤ E[X0 ] .
n
n
Die Tatsache E[Ẋn ] = E[Ẋ0 ] = 0 für das Martingal Xn impliziert im allgemeinen nicht, dass E[Xτ ] = E[X0 ]. Wir erklären dies durch ein Beispiel. Sei
{Xn }n∈N die symmetrische Irrfahrt auf N0 mit Absorption in 0 und Start in j ≥ 1.
Dieser Prozess ist ein Martingal, der Beweis ist analog wie im Beispiel B2). Die
Zufallsvariable
τ := inf{n ∈ N0 : Xn = 0}
S
ist eine Stoppzeit, da {τ ≤ n} = nk=0 {Xk = 0} ∈ σ(X0 , . . . , Xn ). Die Rekurrenz
der eindimensionalen Irrfahrt ergibt P (τ < ∞) = 1. Damit ist E[Xn∧τ ] = E[X0 ] =
j ≥ 1 für alle n ∈ N0 (aus dem Satz 2.1), aber offenbar E[Xτ ] = 0 < E[X0 ]. Offenbar gilt limn E[Xn∧τ ] = E[Xτ ], dennoch dürfen wir den Satz von Lebesgue nicht
benutzen, da keine integrierbare dominante Funktion für die Folge {Xn∧τ }n∈N0
existiert (beweisen Sie dies).
Die nächste Proposition gibt einige hinreichende Kriterien für E[Xτ ] = E[X0 ].
Proposition 2.2. Es seien τ eine Stoppzeit und {Xn }n∈N ein Supermartingal
(bzw. ein Martingal), die eine der folgenden Bedingungen erfüllen:
52
i) supω∈Ω |τ (ω)| = M < ∞;
ii) P (τ < ∞) = 1 und L := supn∈N supω∈Ω |Xn (ω)| < ∞;
iii) E[τ ] < ∞ und supn∈N supω∈Ω |Xn (ω) − Xn−1 (ω)| < ∞.
iv) E[τ ] < ∞ und es gibt a > 0, so dass E[|Xn+1 − Xn | |Fn ]1{τ ≥n} ≤ a P -f.s.
Dann ist Xτ integrierbar und es gilt E[Xτ ] ≤ E[X0 ] (bzw. E[Xτ ] = E[X0 ]).
Beweis. Wir erinnern daran, dass nach Satz 2.1 E[Xn∧τ ] ≤ E[X0 ] (bzw.
E[Xn∧τ ] = E[X0 ]) für alle n ∈ N gilt.
i) Da supω∈Ω |τ (ω)| = M < ∞, gilt τ ∧n = τ für alle n ≥ M , also limn E[Xn∧τ ] =
E[Xτ ] ≤ E[X0 ] (bzw. E[Xn∧τ ] = E[X0 ]).
ii) Eine leichte Berechnung gibt
E[|Xn∧τ |] = E[|Xn∧τ |1{τ <∞} ] ≤ L .
Damit können wir den Satz von Lebesgue und den Doob’sche Stoppsatz verwenden:
E[Xτ ] = E[lim Xn∧τ ] = lim E[Xn∧τ ] = lim E[X0∧τ ] ≤ E[X0 ] (bzw. =) .
n
n
n
iii) Wegen supn∈N supω∈Ω |Xn (ω) − Xn−1 (ω)| < ∞, existiert ein K > 0, so dass
P (|Xn − Xn−1 | ≤ K) = 1 für alle n ∈ N. Somit folgt P (|Xn − X0 | ≤ Kn) = 1 für
alle n ∈ N, also P (|Xτ ∧n − X0 | ≤ Kτ ) = 1. Daher gilt
E[Xτ ∧n ] = E[Xτ ∧n 1{|Xτ ∧n −X0 |≤Kτ } ] ≤ E[Kτ + X0 ] < ∞ ,
also ergibt der Satz von Lebesgue die Aussage.
iv) Wir setzen X0 := 0 P -a.s. Zn := |Xn+1 − Xn |, n ∈ N0 und
X
Yτ :=
Zn 1{τ ≥n} .
n∈N
Nun berechnen wir
E[Yτ ] =
X
E[Zn 1{τ ≥n} ] =
n∈N
=
X
X
E[E[Zn 1{τ ≥n} |Fn ]]
n∈N
E[1{τ ≥n} E[Zn |Fn ]] ≤ a
X
P (τ ≥ n) = aE[τ ] .
n∈N
n∈N
Wir bemerken, dass wir stets |Xτ | ≤ Yτ haben (aus der Dreiecksungleichung).
Ausserdem gilt
1{τ ≥N } |XN | ≤
N
X
n=1
Zn 1{τ ≥N } ≤
X
Zn 1{τ ≥n} 1{τ ≥N } ,
N ∈ N,
n∈N
also
E[|Xτ ∧n |] = E[|Xτ ∧n |1{τ ≥n} ]+E[|Xτ ∧n |1{τ ≤n} ] ≤ E[|Xn |1{τ ≥n} ]+E[|Xτ |] ≤ 2aE[τ ] .
Daher ergibt der Satz von Lebesgue die Aussage.
53
3. Gleichgradig integrierbare Zufallsvariablen
Hier nehmen wir eine kurze Umleitung, um die Definition der gleichgradig
integrierbaren Zufallsvariablen einzuführen. Dieser Begriff wird in der Theorie der
Martingale eine wichtige Rolle spielen.
Definition 3.1. Eine Teil-Menge Y ⊂ L1 (Ω, F, P ) heisst eine gleichgradig
integrierbare Familie genau dann, wenn für alle ε > 0 ein A > 0 existiert, so dass
lim sup E[|X|1{|X|≥n} ] = 0
n X∈Y
(3.1)
gilt. Insbesondere heisst ein Martingal gleichgradig integrierbar genau dann, wenn
jede Xn eine gleichgradig integrierbare Zufallsvariable ist.
Übung 3.1. Beweisen Sie, dass für alle ε > 0 ein δ > 0 mit
sup E[|X|1A ] ≤ ε für alle A : P (A) ≤ δ
(3.2)
X∈Y
existiert genau dann, wenn Y gleichgradig integrierbar ist.
Drei hinreichende Bedingungen für die gleichgradige Integrierbarkeit einer Familie Y ⊂ L1 (Ω, F, P ) sind in dem folgende Lemma zusammengefasst.
Lemma 3.1.
i) Wenn ein p ∈ (1, ∞) existiert, so dass supX∈Y E[|X|p ] < ∞, dann ist Y
eine gleichgradig integrierbare Familie.
ii) Wenn ein Y ∈ L1 (Ω, F, P ) mit |X| ≤ Y P -f.s. für alle X ∈ Y existiert,
dann ist Y eine gleichgradig integrierbare Familie.
iii) Wenn ein Y ∈ L1 (Ω, F, P ) und eine Familie Φ von Teil-σ-Algebren von
F mit
Y = {E[Y |G] : G ∈ Φ}
existiert, dann ist Y eine gleichgradig integrierbare Familie.
Beweis. i) Für alle n ∈ N und X ∈ Y gilt
supX∈Y E[|X|p ]
|X|p−1
E[|X|p ]
E[|X|1{|X|≥n} ] ≤ E |X| p−1 1{|X|≥n} ≤
≤
.
n
np−1
np−1
Dies konvergiert gegen null für n → ∞.
ii) Aus P (|X| ≤ Y ) = 1 folgt, dass E[|X|1{|X|≥n} ] ≤ E[|Y |1{|Y |≥n} ] für alle
n ∈ N gilt und natürlich E[|Y |1{|Y |≥n} ] → 0 für n → ∞.
iii) Wir setzen An (G) := {|E[Y |G]| ≥ n} für n ∈ N und G ∈ Φ. Aus der
Ungleichung von Markoff erhalten wir
1
1
1
P (An (G)) ≤ |E[Y |G]| ≤ E[|Y ||G] ≤ E[|Y |] −→ 0 für n → ∞ .
n
n
n
Somit gilt
lim sup P (An (G)) = 0 .
n G∈Φ
54
Da offenbar An (G) ∈ G, folgt, dass
E[|E[Y |G]|1An (G) ] ≤ E[E[|Y | |G]1An (G) ] = E[|Y |1An (G) ] → 0 für n → ∞ .
Das folgende Lemma über gleichgradig integrierbare Folgen ist ebenfalls nützlich:
Lemma 3.2. Es seien {Xn }n∈N ⊂ L1 (Ω, F, P ) und X ∈ L1 (Ω, F, P ). Dann gilt
P
E[|Xn − X|] → 0 ⇐⇒ Xn −→ X und {Xn }n∈N ist gleichgradig integrierbar .
Beweis. "⇒". Die Ungleichung von Markoff ergibt ∀a ∈ R
P (|Xn | ≥ a) ≤
kXn kL1
supn kXn kL1
≤
,
a
a
also
lim sup P (|Xn | ≥ a) = 0 .
(3.3)
a→∞ n∈N
Wir bemerken, dass für alle ε > 0 ein N ∈ N existiert, so dass kXn − XkL1 ≤ ε.
Damit schreiben wir für alle ε > 0
sup E[|Xn |1{|Xn |≥a} ] ≤ sup E[|Xn |1{|Xn |≥a} ] + sup E[|Xn |1{|Xn |≥a} ]
n≤N
n∈N
n>N
≤ sup E[|Xn |1{|Xn |≥a} ] + sup E[|X|1{|Xn |≥a} ] + sup E[|Xn − X|]
n≤N
n>N
n>N
≤ sup E[|Xn |1{|Xn |≥a} ] + sup E[|X|1{|Xn |≥a} ] + ε ,
n≤N
n>N
also, wegen Gleichung (3.3) und der Integrierbarkeit von {X1 , . . . , XN },
lim sup E[|Xn |1{|Xn |≥a} ] ≤ ε ,
∀ε > 0.
a→∞ n∈N
"⇐". Wir setzen für k ∈ N und x ∈ R


−k
fk (x) := (−k) ∨ (x ∧ k) = x

k
x ∈ (−∞, k)
x ∈ [−k, k] .
x ∈ (k, ∞)
Wir bemerken, dass
fk (x) − fk (y) ≤ k ∧ x − (−k) ∨ y
x ≥ y,
also
|fk (x) − fk (y)| ≤ 2k ,
|fk (x) − fk (y)| ≤ ε falls |x − y| ≤ ε .
55
(3.4)
Daher berechnen wir ∀ε > 0
kfk (Xn ) − fk (X)kL1 = E[|fk (Xn ) − fk (X)|1{|Xn −X|≤ε} ]
+ E[|fk (Xn ) − fk (X)|1{|Xn −X|>ε} ]
≤ ε + 2kP (|Xn − X| > ε) ,
also ∀k ∈ N
lim kfk (Xn ) − fk (X)kL1 = 0 .
n
Ausserdem bemerken wir, dass für alle k ∈ N |fk (x) − x| ≤ |x|1{|x|≥k} gilt. Dann
können wir schreiben
kXn − XkL1 ≤ kXn − fk (Xn )kL1 + kfk (Xn ) − fk (X)kL1 + kfk (X) − XkL1
≤ E[|Xn |1{|Xn |≥k} ] + kfk (Xn ) − fk (X)kL1 + E[|X|1{|X|≥k} ] ,
so dass
lim sup kXn − XkL1 ≤ lim sup E[|Xn |1{|Xn |≥k} ] + E[|X|1{|X|≥k} ]
n
n
≤ sup E[|Xn |1{|Xn |≥k} ] + E[|X|1{|X|≥k} ] .
(3.5)
n
Da k beliebig ist, folgt aus der gleichgradigen Integrierbarkeit, dass
lim sup kXn − XkL1 = 0 .
n
4. Ungleichungen und Konvergenz von Martingalen
In diesem Schnitt diskutieren wir einige Ungleichungen für Martingale, die auch
ausserhalb der Theorie der Martingale von Bedeutung sind.
Wir starten mit dem Doob’schen upcrossing Lemma. Um diese wichtige Lemma
zu verstehen, benötigen wir zunächst die folgende Definition.
Definition 4.1. Seien [a, b] ⊂ R und {cn }n∈N eine Folge in R (cn ∈ R ∀n ∈ N).
Für n ∈ N nennen wir die Anzahl der aufsteigenden Überschreitungen des Intervals
[a, b] durch {cn } das grösste k ∈ N0 , so dass
0 ≤ s1 ≤ t1 ≤ s2 ≤ t2 ≤ . . . ≤ sk ≤ tk ≤ n
existieren mit csi ≤ a und cti ≥ b, i = 1, . . . , k. Wir bezeichen diese Anzahl mit
Un [a, b](c) und ferner setzen wir U∞ [a, b](c) := supn∈N0 Un [a, b](c).
Übung 4.1. Zeigen Sie, dass eine Folge {cn }n∈N , cn ∈ R für alle n ∈ N, genau
dann konvergent ist, wenn für alle a, b ∈ Q mit a < b U∞ [a, b](c) < ∞ gilt.
Lemma 4.1 (Doob’sches upcrossing). Sei {Xn }n∈N ein Supermartingal und a <
b. Dann gilt
(b − a)E[Un [a, b](X)] ≤ max (E[a − Xn ], 0)
56
∀n ∈ N .
(4.1)
Beweis. Wir definieren den Prozess {fn }n∈N0 durch
(
1{X0 <a}
fn :=
1{fn−1 =1,Xn−1 ≤b} + 1{fn−1 =0,Xn−1 <a}
n = 1;
n ≥ 2.
Dann folgt (einfach), dass {fn }n∈N0 messbar bezüglich Fn ist und daher ist
Ẋ0 = 0 ,
Ẋn :=
n
X
fk (Xk − Xk−1 ) ,
n≥1
k=1
eine Martingaltransformation. Da {Ẋn }n∈N0 ein Supermartingal ist, folgt E[Ẋn ] ≤
E[Ẋ0 ] = 0 für alle n ∈ N0 . Jetzt beweisen wir
Ẋn ≥ (b − a)Un [a, b](Xn ) − max(a − Xn , 0) ∀n ∈ N ,
(4.2)
woraus die Aussage folgt. Um (4.2) nachzuweisen, nehmen wir X0 := 0 < a an
und setzen
s1 = 1 ,
t1 := min{s1 ≤ k ≤ n : Xk > b} ,
s2 := min{t1 ≤ k ≤ n : Xk < a} .
Dann ist fk = 1, also Ẋk = Xk − X0 für k = 1, . . . , t1 − 1 und fk = 0, also
Ẋk = Xn1 − X0 für k = n1 , . . . , s2 − 1. Wir können diese Kostruktion einfach
iterieren. Wir setzen
tj := min{sj−1 ≤ k ≤ n : Xk > b} ,
sj+1 := min{tj ≤ k ≤ n : Xk < a} ,
für j = 1, . . . Un [a, b](X), so dass für k = 1, . . . , n und j = 1, . . . Un [a, b](Xn )
(
P
Xk + j−1
i=1 (Xti − Xsi ) sj ≤ k ≤ tj − 1
.
Ẋk = Pj
tj ≤ k ≤ sj+1 − 1
i=1 (Xti − Xsi )
Wir sehen sofort, dass Ẋn jedesmal mindestens die Höhe b−a gewinnt, wenn Xn
das Intervall [a, b] aufsteigend überschreitet und Ẋn seit der letzen Überschreitung
höchstens die Höhe max(a − Xn , 0) verloren haben kann. Dies beweist (4.2). Aus dem Doob’schen upcrossing Lemma folgt das folgende wichtige Resultat:
All die Martingale, die in L1 beschränkt sind, konvergieren P -f.s. und der Limes
ist in L1 .
Satz 4.1 (P -f.s. Konvergenz). Sei {Xn }n∈N0 ein Supermartingal mit
sup E[|Xn |] < ∞ .
n∈N0
Dann existiert eine Zufallsvariable X∞ , so dass E[|X∞ |] < ∞ und
lim Xn = X∞ ,
n
57
P − f.s.
(4.3)
Beweis. Wir beweisen die Aussage durch Widerspruch. Wir nehmen an, dass
P lim sup Xn > lim inf Xn > 0 .
(4.4)
n
n
Wir bemerken, dass
lim sup Xn > lim inf Xn
=
n
n
[ lim sup Xn ≥ b > a ≥ lim inf Xn
a<b∈Q
=
[
n
n
{U∞ [a, b] = ∞} .
a<b∈Q
Damit impliziert (4.4), dass a, b ∈ Q existieren, so dass
P (U∞ [a, b] = ∞) > 0 ,
also
E[U∞ [a, b]] = ∞ .
Die upcrossing Ungleichung (4.1) ergibt
(4.5)
|a| + supn∈N0 E[|Xn |]
|a| + max (E[Xn ], 0)
max (E[a − Xn ], 0)
≤
≤
.
b−a
b−a
b−a
Somit erhalten wir E[U∞ [a, b]] < ∞ in Widerspruch zu (4.5). Demzufolge existiert
eine Zufallsvariable X∞ , so dass
E[Un [a, b]] ≤
P (Xn → X∞ ) = 1 .
Schliesslich ergibt das Lemma von Fatou
E[|X∞ |] ≤ sup E[|Xn |] < ∞ .
n
Für nichtnegative Supermartingale folgt aus Xn ≥ 0 und E[|Xn |] = E[Xn ] ≤
E[X0 ] < ∞, dass supn∈N0 E[|Xn |] < ∞. Dann erhalten wir das folgende
Korollar 4.2. Jedes nichtnegative Supermartingal konvergiert fast sicher gegen eine integrierbare Zufallsvariable.
Wir können sofort auch die L2 -Konvergenz von Martingalen diskutieren.
Definition 4.2. Ein Martingal {Xn }n∈N0 heisst ein L2 -Martingal, wenn E[|Xn |2 ] <
∞ für alle n ∈ N0 gilt.
Eine einfache, aber wichtige Eigenschaft der L2 -Martingale ist, dass sie unkorrelierte Zuwächse haben.
Lemma 4.2. Sei {Xn }n∈N ein L2 -Martingal. Dann gilt für alle n1 ≤ n2 ≤ n3 ≤
n3 ≤ n4 ∈ N
E[(Xn4 − Xn3 )(Xn2 − Xn1 )] = 0 .
(4.6)
Ausserdem sind die folgenden Aussagen äquivalent:
58
P
i) k∈N E[(Xk − Xk−1 )2 ] < ∞;
ii) supn∈N E[|Xn |2 ] < ∞.
Beweis. Eine leichte Anwendung der Martingaleigenschaft ergibt den Beweis
von (4.6):
E[(Xn4 − Xn3 )(Xn2 − Xn1 )] = E[E[(Xn4 − Xn3 )(Xn2 − Xn1 )]|Fn3 ]
= E[(Xn2 − Xn1 )E[Xn4 − Xn3 ]|Fn3 ] = 0 .
i) ⇐⇒ ii). Aus (4.6) folgt, dass
n
X
2
E[(Xn − Xm ) ] =
E[(Xk − Xk−1 )2 ] ,
m < n.
k=m+1
Nun bemerken wir, dass
E[Xn X0 ] = E[X0 E[Xn |F0 ]] = E[X02 ] ,
womit
n
X
E[(Xk − Xk−1 )2 ] = E[(Xn − X0 )2 ] = E[Xn2 ] + E[X02 ] .
k=1
Daher erhalten wir die Gleichung
∞
X
E[(Xk − Xk−1 )2 ] = sup E[Xn2 ] + E[X02 ] ,
n∈N
k=1
die die Äquivalenz von i) und ii) herstellt.
All die L2 -Martingale, die beschränkt in L2 sind, konvergieren in L2 .
Satz 4.3 (L2 Konvergenz). Sei {Xn }n∈N0 ein L2 -Martingal mit supn∈N E[|Xn |2 ] <
∞. Dann konvergiert {Xn }n∈N0 P -f.s. und in L2 .
Beweis.
Da supn∈N E[|Xn |2 ] < ∞ auch Beschränktheit in L1 impliziert, ergibt Satz 4.1
die Existenz eines P -f.s. Limes X∞ . Aus dem Lemma von Fatou folgt
∞
X
2
2
E[(X∞ − Xn ) ] ≤ lim inf E[(Xm − Xn ) ] =
E[(Xk − Xk−1 )2 ] ,
m
k=n+1
wobei wir die Gleichung (4.6) angewendet haben. Da supn∈N E[|Xn |2 ] < ∞, folgt
nach dem obigen Lemma, dass
∞
X
2
lim E[(X∞ − Xn ) ] ≤ lim
E[(Xk − Xk−1 )2 ] = 0 .
n
n
k=n+1
Jetzt diskutieren wir zwei andere Ungleichungen von Doob sowie einige ihrer
Folgerungen.
59
Lemma 4.3. Sei {Xn }n=1,...,N ein Submartingal und
SN :=
|Xn | .
sup
n∈{1,...,N }
Dann gilt für alle λ > 0
P (SN ≥ λ) ≤
1
E[|XN |1{SN ≥λ} ] .
λ
(4.7)
Beweis. Sei
τ := N ∧ inf{n : Xn ≥ λ} .
Dann ist τ natürlich eine beschränkte Stoppzeit und wir können Proposition 2.2
auf das Supermartingal −Xn anwenden. Somit haben wir
E[XN ] ≥ E[Xτ ] = E[Xτ 1{SN ≥λ} ] + E[Xτ 1{SN <λ} ]
≥ λE[1{SN ≥λ} ] + E[Xτ 1{SN <λ} ]
= λE[1{SN ≥λ} ] + E[XN 1{SN <λ} ] .
(4.8)
Dies impliziert sofort (4.7).
Proposition 4.1 (Doob’sche Ungleichungen). Sei {Xn }n∈N ein Martingal. Es
gilt
P
1
sup |Xn | ≥ λ
≤
sup E[|Xn |p ] , λ > 0 , p ≥ 1 ,
p
λ
n∈N
n∈N
p
p
p
E sup |Xn |
sup E[|Xn |p ] , p > 1 .
≤
p − 1 n∈N
n∈N
(4.9)
(4.10)
Beweis.
Beweis von (4.9). Zuerst schneiden wir {Xn }n∈N zur Zeit N (beliebiger fest)
ab:
(
Xn
X̃n =
0
n = 1, . . . N ,
n>N.
Deshalb folgt aus Lemma 4.3, dass
!
P
sup
|X̃n | ≥ λ
n∈{1,...,N }
≤
1
E[|X̃N |] .
λ
Wir können diese Ungleichung für p ≥ 1 verallgemeinern, da {|X̃N |p }n=1,...,N ein
positives Supermartingal ist. Wenn E[|X̃N |p ] = ∞, ist die Ungleichung trivial. Wir
können also annehmen, dass E[|X̃N |p ] < ∞. Dann folgt aus dem obigen Lemma,
60
dass
!
!
P
|X̃N | ≥ λ
sup
= P
n∈{1,...,N }
|X̃N |p ≥ λp
sup
n∈{1,...,N }
1
E[|X̃N |p 1{supn∈{1,...,N }|X̃n |p ≥λp } ]
λp
1
1
≤
E[|X̃N |p ] ≤ p sup E[|X̃n |p ] .
p
λ
λ n∈{1,...,N }
≤
Da diese Ungleichung für alle N ∈ N gültig ist, so gilt sie auch für N → ∞, wobei
X̃n = Xn für alle n ∈ N.
Beweis von (4.10). Nochmals können wir annehmen, dass E[|X̃N |p ] < ∞ ist,
da die Ungleichung trivialerweise gilt, wenn E[|X̃N |p ] = ∞. Ausserdem setzen wir
S̃N := supn∈{1,...,N } ˜|Xn |. Die Submartingaleigenschaft impliziert, dass E[|X̃n |p ] <
∞, n ∈ {1, . . . , N }, also E[|S̃N |p ] < ∞. Wir haben aus dem obigen Lemma
"Z
#
Z ∞
S̃N
p
p−1
p−1
E[S̃N ] = E
dλp1{S̃N ≥λ} λ
dλpλ
=E
0
0
Z
=
0
∞
Z
p−1
dλpP (S̃N ≥ λ)λ
≤
"
#
Z
S̃N
p−2
= pE |XN |
dλλ
0
0
∞
dλpE[X̃N 1{S̃N ≥λ} ]λp−2
h
i
p
p−1
E |XN |S̃N
.
=
p−1
Daher ergibt die Ungleichung von Hölder für p > 1
h
i
h i p−1
1
1
p
p
p
p
p−1
p
p p
E |XN |S̃N
≤
E [|XN | ] E S̃N
sup E[|XN |p ] p .
≤
p−1
p−1
p − 1 n∈{1,...,N }
Nun bemerken wir, dass aus der Supermartingaleigenschaft von {|X̃n |p } folgt, dass
E[|X̃n |p ] ansteigend in n ist, also
lim E[|X̃N |p ] = sup E[|Xn |p ] .
N
n∈N
Hieraus folgt die Aussage mit einem einfachen Grenzübergang N → ∞.
Es ist in allgemeinen nicht möglich die Grösse E [supn∈N Xn ] mit supn∈N E[Xn ]
zu verbinden (wie in (4.10) mit p = 1), wie das folgende Beispiel zeigt. Sei n ∈ N,
Ij,n := ( 2jn , j+1
) und An := {Ij,n }j=1,...,2n und Fn := σ(An ) ⊆ B(0, 1). Sei ferner P
2n
das Lebesgue-Mass auf (0, 1). Wir setzen
Xn := 2n 1I0,n .
Es ist einfach zu zeigen, dass {Xn }n∈N ein Martingal ist, da Xn+1 = 2Xn 1I0,n+1 ,
also
E[Xn+1 |Fn ] = 2E[Xn 1I0,n+1 |Fn ] = 2Xn E[1I0,n+1 |Fn ] = Xn .
61
Offenbar ist E[Xn ] = 1 für alle n ∈ N. Nach einer kurzen Überlegung schreiben
wir
n−1
X
sup Xj = 2n 1I0,n +
1I0,k /I0,k−1 2k ,
j∈{1,...,n}
k=1
also
"
#
n−1
X
n−1
X
n+1
2k
.
E
sup Xj = 1 +
=
E[1I0,k /I0,k−1 ]2 = 1 +
k+1
2
2
j∈{1,...,n}
k=1
k=1
Somit ist E supj∈{1,...,n} Xj nicht beschränkt, obwohl supj∈{1,...,n} E[Xj ] beschränkt
ist. Dies impliziert, dass der P -f.s. Limes von {Xn }n∈N mit dem Limes in L1 nicht
zusammenfällt. Insbesondere ist Xn → 0 P -f.s., also
k
1 = lim E[Xn ] 6= E[lim Xn ] = 0 .
n
n
Dieses Beispiel zeigt, dass anders als bei der Konvergenz in L2 , die Voraussetzung
supn E[|Xn |] < ∞ die Konvergenz in L1 nicht ergibt (sie impliziert die P -f.s.
Konvergenz, gemäss Satz 4.1). Wir benötigen eine zusätzliche Annahme, nämlich,
dass das Martingal gleichgradig integrierbar ist.
Satz 4.4. Sei {Xn }n∈N0 ein Martingal. Die drei folgenden Aussagen sind äquivalent.
i) {Xn }n∈N0 ist gleichgradig integrierbar;
ii) {Xn }n∈N0 konvergiert P -f.s. und in L1 ;
iii) Es existiert ein X ∈ L1 , so dass Xn = E[X|Fn ] P -f.s. für alle n ∈ N0
gilt.
Bemerkung 4.1. Aus dem obigen Satz schliessen wir, dass jedes gleichgradig
integrierbare Martingal {Xn }n∈N0 P -f.s. und in L1 zu einer Zufallsvariablen X∞
konvergiert und es kann als Xn = E[X∞ |Fn ] geschrieben werden.
Beweis.
i) ⇒ ii). Wegen der gleichgradigen Integrierbarkeit von {Xn }n∈N0 existiert ein
k ∈ N mit
E[|Xn |1|Xn |>k ] ≤ 1 für alle n ∈ N .
Also
sup E[|Xn |] ≤ sup E[|Xn |1|Xn |>k ] + E[|Xn |1|Xn |≤k ] ≤ k + 1 < ∞ .
n∈N
n∈N
Somit ergibt Satz 4.1 die P -f.s. Konvergenz von {Xn }n∈N0 , also auch in Wahrscheinlichkeit. Dann folgt die Aussage nach Lemma 3.2.
ii) ⇒ iii). Sei X∞ der L1 -Limes von {Xn }n∈N0 . Dann gilt für n ≤ m
E[Xn − E[X∞ |Fn ]] = E [|E [Xm |Fn ] − E[X∞ |Fn ]|]
≤ E[E[|Xm − X∞ ||Fn ]]
= E[|Xm − X∞ |] → 0 wenn m → ∞ .
62
Es folgt, dass Xn = E[X∞ |Fn ] P -f.s. ist.
iii) ⇒ i). Dies ist Punkt iii) in Lemma 3.1.
Endlich erhalten wir das folgende namhafte Korollar:
Korollar 4.5 (Satz von Levy). Sei {Fn } eine Filtrierung auf einem Wahrscheinlichkeitsraum (Ω, F, P ). Für jedes X ∈ L1 ist E[X|Fn ] ein Martingal, das
P -f.s. und in L1 gegen E[X|F∞ ] konvergiert.
Beweis. Wir setzen Xn := E[X|Fn ]. Dies ist offenbar ein Martingal, das gemäss des obigen Satzes P -f.s. und in L1 konvergiert gegen eine Zufallsvariable X∞ ,
die F∞ -m.b. ist. Wir müssen zeigen, dass X∞ = E[X|F∞ ], d.h.
E[1B X∞ ] = E[1B E[X|F∞ ]] für alleB ∈ F∞ .
(4.11)
Falls B ∈ Fn (für ein festes n), folgt S
dies aus Xn = E[X∞ |Fn ] P -f.s., was nach
dem Zusatz des obigen Satzes gilt. Da n∈N Fn ein durchschnittstabiles Erzeugendensystem von F∞ ist, folgt (4.11).
5. Martingale, Markoff-Ketten und harmonische Funktionen
Um die Nützlichkeit der Martingaltheorie zu demonstrieren, diskutieren wir in
dieser letzen Abschnitt einige einfache Ergebnisse von harmonische Analysis, die
eine leichte Formulierung und kurze Beweise mit Hilfe der Martingale zulassen.
Wir beginnen mit der folgenden Definition
Definition 5.1. Sei f : Zν 7→ R eine reelle Funktion. Wir definieren den
diskreten Laplace-Operator ∆ durch:


X
1 
(∆f )(x) :=
f (x + e) − 2νf (x) x ∈ Zν .
2ν
ν
e∈Z : |e|=1
Sei nun {Sn }n∈N eine Irrfahrt mit Zuwachsverteilung P (ξ = e) = (2ν)−1 , falls
|e| = 1 und P (ξ = e) = 0 sonst. Dann gilt
(∆f )(x) = Ex [f (S1 ) − f (S0 )] .
Diese einfache Bemerkung ist der Startpunkt der folgenden Überlegungen. Die
kanonische Definition harmonischer Funktionen ist
(∆f )(x) = 0 ,
d.h. Ex [f (S1 )] = f (x) .
Da der Laplace-Operator mit der Irrfahrt verbunden ist und die Irrfahrt eine
Markoff-Kette ist, können wir diese Definition zu einer beliebigen Markoff-Kette
auf Zν verallgemeinern.
Definition 5.2. Sei {Xn }n∈N0 eine Markoff-Kette auf Zν mit stochastische
Matrix {πxy }x,y∈Zν und f : Z ν 7→ R eine reelle Funktion. Wir nennen f eine
harmonische Funktion auf A ⊂ Zν , wenn
Ex [f (X1 )] = f (x) ,
63
für jedes x ∈ A ,
(5.1)
d.h., wenn
X
πxy f (y) = f (x) .
y∈Zν
Ferner heisst f sub-harmonisch auf A (bzw. super-harmonisch), wenn
Ex [f (X1 )] ≤ f (x) (bzw. ≥) ,
für jedes x ∈ A .
(5.2)
Diese Definition führt zu der folgenden Verallgemeinerung der Definition 5.1:
Definition 5.3. Sei f : Z ν 7→ R eine reelle Funktion und {Xn }n∈N eine
Markoff-Kette auf Zν mit stochastischer Matrix {πx,y }x,y∈Zν . Wir definieren den
Generator L der Kette {Xn }n∈N durch:
X
(Lf )(x) := Ex [f (X1 )] − f (x) =
(πxy − δx,y )f (y) x ∈ Zν .
y∈Zν
Übung 5.1. Sei {Xn }n∈N eine Markoff-Kette und f : Zν 7→ R eine beschränkte
Funktion. Beweisen Sie, dass Lf (Xn ) Fn -m.b. ist.
Wir erinnern an die folgende Notation:
τA := inf{n ≥ 0 : Xn ∈ A} ,
A ⊆ Zν .
Ausserdem bezeichnet ∂A die kleinste Teil-Menge von Ac mit P (XτAc ∈ ∂A) = 1,
d.h.,
\
A0
∂A :=
A0 ⊆Ac : XτAc ∈A0 P −f.s.
und Ā := A ∪ ∂A.
Bemerkung 5.1. Falls L = ∆, dann gilt
∂A = (A + 1)/A = {x ∈ Ac : ∃ y ∈ A , mit |x − y| = 1} .
Lemma 5.1. Sei {Xn }n∈N eine Markoff-Kette auf Zν und Fn := σ(X1 , . . . , Xn ),
A ⊆ Zν .
i) Für jede harmonische und beschränkte Funktion f auf A ist f (Xn ) ein
Fn -Martingal.
ii) Für jede beschränkte Funktion f auf A ist
Mn := f (Xn ) − f (X0 ) −
n−1
X
Lf (Xk )
k=0
ein Fn -Martingal.
Beweis. Da f beschränkt ist, ist f (Xn ) offenbar Fn -messbar und integrierbar.
64
i) Die Markoff-Eigenschaft ergibt
X
X
E[f (Xn+1 )|Fn ] =
f (y)P (Xn+1 = y|Fn ) =
f (x)P (Xn+1 = y|Xn )
y∈Zν
=
X
x∈Zν
f (y)πXn ,y =
y∈Zν
X
f (y)(πXn ,y − δXn ,y ) +
y∈Zν
X
f (y)δXn ,y
y∈Zν
= f (Xn ) ,
daher ist {f (Xn )}n∈N ein Martingal.
P
ii) Zuerst bemerken wir, dass n−1
k=0 Lf (Xk ) Fn−1 -m.b. ist. Dann berechnen wir
E[Mn+1 |Fn ] = E[f (Xn+1 )|Fn ] − f (X0 ) −
n−1
X
Lf (Xk ) − Lf (Xn )
k=0
= Lf (Xn ) + f (Xn ) − f (X0 ) −
n−1
X
Lf (Xk ) − Lf (Xn )
k=0
= f (Xn ) − f (X0 ) −
n−1
X
Lf (Xk ) .
k=0
Hier haben wir benutzt, dass Lf (Xn ) Fn -m.b. ist (siehe Übung 5.1).
Bemerkung 5.2. Nach dem obigen Lemma erhalten wir auch die Doobsche
Zerlegung des Prozesses f (Xn ) (vergleichen Sie dies mit Satz 1.1), wobei f eine
massbare beschrankte Funktion ist. Aus dem obigen Lemma sehen wir, dass
E[f (Xn )|Fn−1 ] = f (Xn−1 ) + (Lf )(Xn−1 )
im allgemeinen gilt. Seien nun h eine harmonische Funktion und g messbar, so dass
f = h+g. Da Lg(Xn ) Fn−1 -m.b. ist (beweisen Sie dies), ist f (Xn ) = h(Xn )+g(Xn )
die Doobsche Zerlegung von f (Xn ).
Das sogennante Maximumprinzip folgt direkt nach Satz 2.1.
Satz 5.1 (Maximumprinzip). Sei A ⊂ Zν endlich mit P (τAc < ∞) = 1 und
f : Zν 7→ R eine beschränkte harmonische Funktion auf A. Dann gilt
sup f (x) = sup f (x) .
x∈∂A
x∈Ā
Beweis. Da XτAc ∈ ∂A P -f.s., gilt
Ex [f (XτAc )] ≤ sup f (y) ,
∀x ∈ A .
y∈∂A
Ausserdem ergibt Satz 2.2 (Punkt ii)) für jedes x ∈ A
Ex [f (XτAc )] = Ex [f (X0 )] = f (x) ,
daher folgt die Aussage.
65
Nun können wir die diskreten Dirichlet Probleme diskutieren. Ein klassisches
Problem der Analysis bestehet darin eine harmonische Funktion auf einer Menge
zu bestimmen, wenn der Grenzwert gegeben wird.
Satz 5.2. Sei A ⊆ Zν mit P (τAc < ∞) = 1 und g : ∂A 7→ R beschränkt. Die
eindeutige Lösung f : Ā →
7 (−∞, +∞) von
(
(Lf )(x) = 0 , x ∈ A
(5.3)
f (x) = g(x) , x ∈ ∂A
ist
f (x) = Ex [g(XτAc )] .
(5.4)
Beweis. Zunächst beweisen wir, dass (5.4) eine Lösung des Dirichlet-problems
(5.3) ist. Wir bemerken, dass Proposition 1.1 (Kapitel 2)
Ex [g(XτAc )] = E[g(XτAc )|X0 = x] = Ex [g(XτAc )|X1 ] = Ex [EX1 g(XτAc )]
für jedes x ∈ A ergibt, d.h.,
LEx [g(XτAc )] = 0 ,
x ∈ A.
Ferner gilt offenbar g(x) = Ex [g(XτAc )] für alle x ∈ ∂A.
Um die Eindeutigkeit nachzuweisen, nehmen wir an, dass f (x) eine beschränkte
Lösung von (5.3) ist. Dann ist f (Xτ ∧n ) ein Martingal, gemäss Lemma 5.1 und Satz
2.1. Somit können wir aus Satz ii) schlissen, dass für alle x ∈ A
Ex [g(XτAc )] = Ex [f (XτAc )] = Ex [f (Xn∧τAc )] = Ex [f (X0 )] = f (x) .
Wir können sofort auch den inhomogenen Fall studieren.
Satz 5.3. Seien A ⊆ Zν mit P (τAc < ∞) = 1 und g : ∂A 7→ R, h : A 7→ R
beschränkt. Die eindeutige Lösung f : Ā 7→ (−∞, +∞) von
(
(Lf )(x) = −h(x) , x ∈ A
(5.5)
f (x) = g(x) ,
x ∈ ∂A
ist
"
f (x) = Ex g(XτAc ) +
τ
X
#
h(Xn ) .
(5.6)
n=0
Beweis. Wir schreiben f (x) = f1 (x) + f2 (x), mit
(
(Lf1 )(x) = 0 , x ∈ A
f1 (x) = g(x) , x ∈ ∂A
und
(
(Lf2 )(x) = −h(x) , x ∈ A
f2 (x) = 0 ,
x ∈ ∂A .
66
(5.7)
(5.8)
Da wir f1 (x) = Ex [g(XτAc )] in dem obigen Satz schon bewiesen
haben, müssen wir
Pτ
zeigen, dass die eindeutige Lösung von (5.8) f2 (x) = Ex [ n=0 h(Xn )] ist. Zunächst
beweisen wir die Existenz einer Lösung von (5.8). Sei x ∈ A. Wir berechnen
" τ
##
" τ
#
" τ
#
"
X
X
X
h(Xn ) − Ex
h(Xn )
L Ex
h(Xn ) = Ex EX1
"
= Ex
n=0
τ
X
n=0
#
"
h(Xn ) − Ex
n=1
τ
X
n=0
#
h(Xn ) = −h(x) .
(5.9)
n=0
P
Ausserdem P
ist Ex [ τn=0 h(Xn )] = 0 für x ∈ ∂A (da Ex [h(Xτ )] = h(x)), daher ist
f (x) = Ex [ τn=0 h(Xn )] eine Lösung.
Der Beweis der Eindeutigkeit ist ähnlich wie in dem obigen Satz. Sei f2 (x)
eine beschränkte Lösung von (5.8). Wir betrachten das Martingal von Lemma 5.1
(Punkt ii))
n−1
X
Mn = f2 (Xn ) − f2 (X0 ) −
Lf2 (Xk ) .
k=0
Somit ist Mn∧τAc gemäss Satz 2.1 auch ein Martingal und aus Punkt ii) der Proposition 2.2 erhalten wir
Ex [MτAc ] = Ex [Mn∧τAc ] = Ex [M0 ] = 0 ,
mit
τAc −1
"
Ex [MτAc ] = Ex f2 (XτAc ) − f2 (X0 ) −
X
#
Lf2 (Xk )
k=0
= −f2 (x) − Ex
"τ c −1
A
X
#
Lf2 (Xk )
k=0
= −f2 (x) + Ex
"τ c −1
A
X
#
h(Xk ) .
k=0
Diese Dirichlet-probleme können in einer allgemeineren Weise formuliert werden. Hier war das Ziel jedoch eher zu zeigen, dass es die Theorie der Martingale
oft erlaubt, etwas schwierigere Ergebnisse auf einfache Weise zu erhalten, anstatt
diese besondere Sätze in ihren allgemeinsten Formen nachzuweisen.
67
KAPITEL 4
Brownsche Bewegung
1. Gauss-Prozesse
Die eindimensionale Normalverteilung auf (R, B(R)) mit Mittelwert a und
Varianz σ > 0 hat die Dichte
(x−a)2
1
ρ(x) = √
e− 2σ
2πσ
bezüglich des Lebesgue Masses. Der Bequemlichkeit halber bezeichnen wir auch das
Einpunktmass δa (x) als Normalverteilung mit σ = 0. Wir nennen diese Verteilung
Standard-Normalverteilung, falls a = 1 und σ = 1.
Übung 1.1. Sei g eine normalverteilte Zufallsvariable mit E[g 2 ] = σ. Zeigen
Sie, dass
√
σ −λ2 /2σ
P (|g| ≥ λ) ≤ √
e
, ∀λ > 0 .
(1.1)
2πλ
Übung 1.2. Sei g eine normalverteilte Zufallsvariable mit E[g] = a und E[g 2 ] =
σ. Zeigen Sie, dass
1
σξ 2
igξ
.
E[e ] = √
exp iaξ −
2
2πσ −1
P
N
Wir geben nun die Definition in RN . Hier ist (a, b) := N
i=1 xi yi , x, y ∈ R .
Eine N × N Matrix heisst positiv definit (kurz B > 0), wenn
(x, By) =
N
X
Bij xi yj > 0 ,
∀x, y ∈ RN .
i,j=1
Definition 1.1. Sei B eine positiv definite N × N Matrix und a ∈ RN . Ein
n-dimensionaler Zufallsvektor G := (g1 , . . . , gN ) heisst ein Gaussvektor mit Mittel
a und Kovarianz B genau dann, wenn
√
det B
(ξ, B −1 ξ)
i(G,ξ)
E[e
]= p
exp i(a, ξ) −
ξ ∈ RN .
(1.2)
2
(2π)N
Wir nennen die Verteilung des Vektors G multivariate Normalverteilung und wir
schreiben G ∼ N (a, B). Falls a = 0 und B = I sprechen wir einer standardmultivariaten Normalverteilung.
69
Durch die Inversion der Fourier-Transformation ist es nicht schwer die folgende
Proposition zu beweisen.
Proposition 1.1. Sei B eine positiv definite N × N Matrix und a ∈ RN . Es
gibt ein eindeutiger Gaussvektor G = (g1 , . . . , gN ) mit E[gi ] = ai und E[gi gj ] = Bij ,
i, j = 1, . . . , N . Die Verteilung von G ist durch
Z
P (G ∈ A) =
ρN (x1 , . . . , xN )dx1 . . . dxN , mit A ∈ B(RN ) ,
A
1
(x − a, B(x − a))
ρN (x1 , . . . , xN ) := p
exp −
,
2
(2π)N det B
definiert.
Übung 1.3. Seien g1 , . . . , gN N unabhängige Zufallsvariablen mit gi ∼ N (0, σi ),
i = 1, . . . , N , und sei RN 3 g := (g1 , . . . , gN ). Beweisen Sie, dass der N -dimensionale
Vektor G genau dann ein Gaussvektor ist, wenn eine N -dimensionale orthogonale
Matrix U und ein a ∈ RN existieren, so dass G = U g + a.
Sei nun {Xt }t∈T (für T ⊆ R) ein Prozess. Wir erinnern daran, dass aus {Xt }t∈T
ein Vektor durch die kanonischen Projektionen
πt(N ) (X) := (Xt1 , . . . , XtN ) ,
t1 ≤ · · · ≤ tN ∈ T ,
gebildet wird. Wir nennen für alle t(N ) ⊂ T die multivariate-Verteilung von
πt(N ) (X) ein endliche-dimensionale Verteilung des Prozesses {Xt }t∈T .
Definition 1.2. Ein Prozess, dessen endlich-dimensionale Verteilungen multivariate Normalverteilungen sind, heisst Gauss-Prozess.
Seien nur für t ∈ T
a(t) := E[Xt ] ,
σ(s, t) := E[Xs Xt ] .
(1.3)
Wir sehen sofort, dass die endlich-dimensionalen Verteilungen eines Gauss-Prozesses
durch die Funktionen a : T → R und σ(s, t) : T × T → R+ definiert sind. Es
gilt σ(s, t) = σ(t, s) und für jedes t(N ) = (t1 , . . . , tN ) ist die Matrix {σ(ti , tj )}t(N )
positiv definit.
Proposition 1.2. Seien a : T → R und σ(s, t) : T ×T → R+ gegeben, so dass
σ(s, t) = σ(t, s) und für jedes t(N ) = (t1 , . . . , tN ) die Matrix {σ(ti , tj )}t(N ) positiv
definit ist. Dann existiert ein Gauss-Prozess auf einem Wahrscheinlichkeitsraum
(Ω, F, P ), so dass (1.3) gilt.
Beweis. Wir können den Erweiterungssatz von Kolmogorov anwenden (Satz
4.1, Kapitel 1). Für jedes t(N ) bedeutet µt(N ) die Normalverteilung auf (RN , B(RN ))
mit Mittel (a(t1 ), . . . , a(tN )) und Kovarianz {σ(ti , tj )}t(N ) . Dann müssen wir die
Verträglichkeit der Familie {µt(N ) }t(N )⊂T ,N ∈N zu zeigen, d.h., dass die Bedingungen K1) und K2) (Abschnitt 4 in dem Kapitel 1) erfüllt sind. Dies wird dem Leser
als Übung überlassen.
70
Endlich beweisen wir ein nützliches Ergebnis über die Konvergenz der diskreten
Gauss-Prozesse.
Proposition 1.3. Sei {Xn }n∈N ein diskreter Gauss-Prozess. Es gilt
L2
f.s.
P
Xn −→ X =⇒ Xn −→ X ⇐⇒ Xn −→ X ,
wobei X eine normalverteilte Zufallsvariable ist.
Beweis. Es genügt nachzuweisen, dass
L2
P
Xn −→ X =⇒ Xn −→ X .
Wir betrachten für N > M die Grösse XN − XM . Wegen des Cauchy-Kriteriums,
entspricht die L2 -Konvergenz
E[|XN − XM |2 ] → 0,
N > M → ∞.
Offenbar ist XN − XM eine normalverteilte Zufallsvariable mit
aN,M := E[XN − XM ] ,
σN,M := E[|XN − XM |2 ] − a2N,M .
Demzufolge gilt
lim σN,M + a2N,M = 0
N,M
2
genau dann, wenn XN in L konvergiert. Das Cauchy-Kriterium für Konvergenz
in Wahrscheinlichkeit ergibt analog
Z
(x − aN,M )2
dx
p
exp −
→ 0 N, M → ∞ ,
P (|XN − XM | > ε) =
2σN,M
2πσN,M
|x|>ε
für alle ε > 0, was σN,M → 0 und aN,M → 0 impliziert.
Die Konvergenz in L2 impliziert E[XN ] → a und E[XN2 ] → σ > 0, daher
konvergiert
p
E[XN2 ]
E[XN2 ]ξ 2
iXN ξ
E[e
]= √
exp iξE[XN ] −
2
2π
gleichmässig gegen
√
σ
σξ 2
√ exp iξa −
.
2
2π
Dies ergibt, dass X eine normalverteilte Zufallsvariable ist.
2. Definition und Konstruktion der Brownschen Bewegung
Die Brownsche Bewegung ist ein spezieller Gauss-Prozess.
Definition 2.1. Ein zentrierter Gauss-Prozess {Bt }t∈R+ mit
E[Bt Bs ] = min(t, s) ,
für alle t, s ≥ 0 ,
heisst Brownsche Bewegung.
Wir werden durchweg B0 = 0 P -f.s. annehmen.
71
Übung 2.1. Seien s1 ≤ t1 ≤ s2 ≤ t2 . Beweisen Sie, dass Bt1 −Bs1 und Bt2 −Bs2
zwei unabhängige zentrierte normalverteilte Zufallsvariablen mit Kovarianz t1 − s1
und t2 − s2 sind.
Wir widmen die Levy’sche Konstruktion einer stetigen Brownschen Bewegung
zu erklären den restlichen Teil dieses Abschnittes.
Zunächst geben wir eine kurze Zusammenstellung wichtiger Fakten über den
Hilbertraum L2 ([0, 1]). L2 ([0, 1]) ist ein reeller separabeler Hilbertraum (d.h. ein
Vektorraum versehen mit einem positiv-definiten Skalarprodukt und der entsprechend induzierten Norm, der bezüglich dieser Norm vollständig ist, sowie mit einer
abzahlbaren dichten Teilmenge). Das Skalarprodukt ist durch
Z
1
fg
(f, g) :=
0
definiert und die Norm ist
kf k2L2
Z
= (f, f ) =
1
|f 2 | .
0
Die Folge {en }n∈N ⊂ H mit (en , em ) = δnm heisst eine vollständige Orthonormalbasis, wenn
)
(
∞
X
cn en , cn ∈ R, ∀n ∈ N
f ∈ L2 : f =
n=1
dicht in L2 ist, oder, äquivalent, wenn
f ∈ L2 : (en , f ) = 0 , ∀n ∈ N = {0} .
Ist {en }n∈N ⊂ H eine vollständige Orthonormalbasis, so gilt ausserdem
∞
X
(f, g) =
(f, en )(en , g) ,
∀f, g ∈ L2 .
(2.1)
n=1
Sei nun {gn }n∈N0 eine Folge von identischen, unabhängigen, standard-normalverteilten
Zufallsvariablen. Die erste grundlegende Bemerkung ist, dass wir für jede Orthonormalbasis {en }n∈N0 ⊂ L2 ([0, 1]) den folgenden stetigen Gauss-Prozess betrachten
können
Z t
N
X
N
Xt :=
gn
e(t0 )dt0 .
0
n=0
72
Dann gilt
" N Z
#
N Z s
X t
X
0
0
0
0
E
en (t )dt gn
em (s )ds gm =
n=0
0
m=0
Z
N
X
0
0
N Z
X
em (s0 )ds0 E[gn gm ]
en (t )dt
0
t
0
0
Z
en (t )dt
0
n=0
s
Z
0
0
m,n=0
=
t
s
en (s0 )ds0
0
N
X
=
(1[0,s] , en )(en , 1[0,t] ) .
n=0
Demzufolge ergibt die Vollständigkeit der Basis {en }n∈N
lim E[XtN XsN ] = (1[0,t] , 1[0,s] ) = min(t, s) ,
N
d.h. die Kovarianz der Brownschen Bewegung, gemäss Definition 2.1.
Jetzt führen wir eine nützliche Basis ein:
Definition 2.2. Die Haar Basis {h0 } ∪ {hn,k , 1 ≤ k ≤ 2n − 1} =: H ⊂ L2 ist
eine Folge von Funktionen definiert durch h0 (t) := 1 und

2k−1
(n−1)/2

;
t ∈ 2k−2
n ,
n
2
2
2
2k−1 2k (n−1)/2
(2.2)
hn,k (t) := −2
t ∈ 2n , 2n ;

0
sonst .
Ferner setzen wir
Z
H0 (t) :=
t
Z
h(t) ,
1
Hn,k (t) :=
0
hn,k (t) .
0
Lemma 2.1. H ist eine vollstädinge Orthonormalbasis von L2 [0, 1].
Übung 2.2. Beweisen Sie Lemma 2.1.
Bemerkung 2.1. Die Formel (2.1) lautet
n
(f, g) = (f, h0 )(h0 , g) +
∞ 2X
−1
X
(f, hn,k )(hn,k , g)
n=1 k=1
bezüglich der Haar Basis.
Dann können wir
n
BtN := g0 H0 (t) +
N 2X
−1
X
gn,k Hn,k (t)
(2.3)
n=1 k=1
setzen, wobei {gn,k }k∈{1,...,2n −1} , n∈N eine Neugruppierung der Folge {gn }n∈N ist.
Aus der obigen Diskussion folgt, dass BtN stetig in t ∈ [0, 1] ist und
lim E[BtN BsN ] = min(t, s) .
N
73
Proposition 2.1. Es existiert ein Prozess {B̄t }t∈[0,1] , so dass
N →∞
BtN −→ B̄t
gleichmässig auf [0, 1] P -f.s.
{B̄t }t∈[0,1] ist eine Brownsche Bewegung auf [0, 1].
Beweis. Seien M, N ∈ N mit N ≤ M . Wegen des Cauchy-Kriteriums für die
gleichmässige Konvergenz genügt es zu zeigen, dass
(M )
(N ) lim lim sup Bt − Bt = 0 P -f.s.
(2.4)
N
M t∈[0,1]
(beachten Sie die Ordnung der Limes). Wir schreiben
M
−1 −1
M
X
X
(K+1)
(M )
(K) (K+1)
(K) (N ) − Bt ,
Bt
− Bt ≤ sup
sup Bt − Bt = sup Bt
t∈[0,1]
t∈[0,1]
t∈[0,1] K=N
K=N
(2.5)
daher müssen wir die Grösse
(K+1)
(K) sup Bt
− Bt , für K = N, N + 1, . . . , M − 1 ,
t∈[0,1]
studieren. Eine einfache Rechnung ergibt
2K+1
−1
X
maxj∈{1,...,2K+1 −1} |gK+1,j |
(K+1)
(K) sup Bt
− Bt = sup HK+1,j (t)gK+1,j ≤
,
K+1
t∈[0,1] j=1
t∈[0,1]
2 2
da
HK,j (t) ≤ |hK,j | .
Damit gilt für ein beliebiges λ > 0
P
!
(K+1)
(K)
sup Bt
− Bt ≥ λ
≤ P
max
j∈{1,...,2K−1 }
t∈[0,1]
≥ λ2
K+1
2
K+1
≤ 2K−1 P |gK,1 | ≥ λ2 2
≤
2K/2 −λ2 2K
√ e
.
4λ π
Dabei haben wir die Berechnung von Übung 1.1 benutzt. Daher ist für λ = K2−K/2
!
√
K
(K+1)
(K) P sup Bt
− Bt ≥ K/2 ≤ (4K π)−1 exp(K(log 2 − K)) .
2
t∈[0,1]
(K+1)
(K)
Demzufolge erhalten wir die gleichmässige Konvergenz von Bt
− Bt gegen
Null in P . Durch ein standard Argument erhalten wir auch die P -f.s. Konvergenz:
74
Da
∞
X
K=1
P
K
(K+1)
(K) sup Bt
− Bt ≥ K/2
2
t∈[0,1]
!
≤
∞
X
√
(4K π)−1 exp(K(log 2 − K)) < ∞
K=1
folgt aus dem Borel-Cantelli Lemma, dass das Ereignis
(
)
\ [
K
(K+1)
(K) ω ∈ Ω : sup Bt
− Bt ≥ K/2
2
t∈[0,1]
m∈N K≥m
Wahrscheinlichkeit null hat, d.h. für P -f.s. alle ω ∈ Ω existiert ein K̄, so dass für
K ≥ K̄
!
K
(K+1)
(K)
P sup Bt
− Bt ≤ K/2 = 1 .
2
t∈[0,1]
P
K
Offenbar ist die Reihe K∈N 2K/2
konvergent. Daher folgt aus (2.5), dass
∞
X
K
(M )
(N ) P -f.s. ,
lim sup Bt − Bt ≤
K/2
M t∈[0,1]
2
K=N
also (2.4).
Nun nehmen wir zwei unabhängige Kopien des Prozesses {B̄t }t∈[0,1] und setzen
( (1)
B̄t
t ∈ [0, 1]
Bt :=
(2.6)
(2)
(1)
(2)
tB̄ 1 + B̄1 − B̄1
t ≥ 1.
t
Satz 2.1 (Levy). {Bt }t≥0 ist eine stetige Brownsche Bewegung.
Beweis. Die Abbildung t 7→ Bt ist offenbar stetig in [0, ∞), da sie die Komposition stetigen Abbildungen ist. Ausserdem ist {Bt }t≥0 offenbar ein zentrierter
Gauss-Prozess. Endlich ergibt eine leichte Berechnung
(1)
(1)
(1)
(2)
E[Bt Bs ] = 1(t)[0,1] 1(s)[0,1] E[B̄t B̄s(1) ] + 1(t)[0,1] 1(s)(1,∞) E[B̄t (B̄1 − B̄1 )]
h
i
(1)
(2)
(2) (2)
(1)
+ 1(t)(1,∞) 1(s)[0,1] E[B̄s (B̄1 − B̄1 )] + ts1(t)(1,∞) 1(s)(1,∞) E B 1 B 1
t
+
(1)
1(t)(1,∞) 1(s)(1,∞) E[(B̄1
+
(2)
t1(s)[0,1] 1(t)(1,∞) E[B̄s(1) B 1 ]
−
(2)
B̄1 )2 ]
+
+ s1(s)(1,∞) 1(t)(1,∞) E[B 1
s
s
(2)
+ t1(t)(1,∞) 1(s)(1,∞) E[B 1
t
(2)
(1)
(B̄1
t
−
s
(1) (2)
s1(t)[0,1] 1(s)(1,∞) E[B̄t B 1 ]
(1)
(B̄1
(2)
− B̄1 )]
(2)
B̄1 )]
= (1(t)[0,1] 1(s)[0,1] + 1(t)[0,1] 1(s)(1,∞) + 1(t)(1,∞) 1(s)[0,1] + 1(t)(1,∞) 1(s)(1,∞) ) min(t, s)
+ 1(t)(1,∞) 1(s)(1,∞) (2 − min(1, t) − min(1, s))
= min(t, s) .
75
3. Pfadeigenschaften der Brownschen Bewegung I
Wir beginnen mit einer Liste von nützlichen Eigenschaften der Brownschen
Bewegung.
Lemma 3.1. Sei {Bt }t≥0 eine Brownsche Bewegung. Dann gilt:
i) Der Prozess {−B
√ t }t≥0 ist eine P -f.s. stetige Brownsche Bewegung.
ii) Der Prozess { λBt/λ }t≥0 ist für alle λ > 0 eine P -f.s. stetige Brownsche
Bewegung.
iii) Der Prozess {Bt+u −Bu }t≥0 ist für alle u ≥ 0 eine P -f.s. stetige Brownsche
Bewegung.
Beweis. Die P -f.s. Stetigkeit in i), ii), iii) ist klar, ebenso, dass diese Prozesse
zentrierte Gauss-Prozesse sind. Ausserdem gilt
E[(−Bs )(−Bt )] = min(s, t)
√
√
s t
E[ λBs/λ λBt/λ ] = λ min
= min(s, t)
,
λ λ
E[(Bs+u − Bu )(Bt+u − Bu )] = min(s + u, t + u) − u = min(s, t) .
(3.1)
Lemma 3.2. Sei {Bt }t≥0 eine Brownsche Bewegung und {B̃t }t≥0 definiert durch
B̃0 := 0 ,
B̃t := tB1/t , t > 0 .
Dann ist {B̃t }t≥0 eine P -f.s. stetige Brownsche Bewegung.
Beweis. Offenbar ist {B̃t }t≥0 ein zentrierter Gauss-Prozess mit
E[B̃s B̃t ] = tsE[B1/s B1/t ] = ts min(t−1 , s−1 ) = min(s, t) .
Daher haben {Bt }t≥0 und {B̃t }t≥0 die gleichen endlich-dimensionalen Verteilungen.
Die P -f.s. Stetigkeit für t > 0 ist klar. Daher müssen wir zeigen, dass
P lim+ B̃t = 0 = 1.
t→0
Wegen der Dichte von Q in R, können wir schreiben
\ [
\ 1
ω : lim+ B̃t = 0 =
ω ∈ Ω : |B̃q | ≤
t→0
m
m∈N n∈N q∈Q∩(0, 1 ]
n
also
1
1
lim B̃t = 0 = lim lim P |B̃q | ≤
, ∀q ∈ Q ∩ 0,
.
m n
t→0+
m
n
P
76
(n)
Nun ist es bequem Q ∩ 0, n1 =: {qk }k∈N zu schreiben. Dann
1
(n)
, ∀q ∈ {qk }k∈N
P lim+ B̃t = 0
= lim lim P |B̃q | ≤
m n
t→0
m
1
(n)
, ∀q ∈ {qk }k∈{1,...,L}
= lim lim lim P |B̃q | ≤
m n
L
m
1
(n)
, ∀q ∈ {qk }k∈{1,...,L}
= lim lim lim P |Bq | ≤
m n
L
m
= P lim+ Bt = 0 = 1 ,
t→0
da {Bt }t≥0 und {B̃t }t≥0 die gleichen endlich-dimensionalen Verteilungen haben
und {Bt }t≥0 P -f.s. für alle t ≥ 0 stetig ist.
Nach dem obigen Lemma folgt sofort das Gesetz der grossen Zahlen für die
Brownsche Bewegung.
Satz 3.1. Es gilt
Bt
= 0,
t→∞ t
lim
P -f.s.
(3.2)
Beweis. Nach dem obigen Lemma erhalten wir durch die Substitution t = s−1 ,
dass P -f.s.
Bt
lim
= lim+ sB 1 = 0 .
s
t→∞ t
s→0
Nun erinnern wir an die Definition der Hölder-Stetigkeit.
Definition 3.1. Sei I ⊆ R. Eine Funktion f (t) : I 7→ R heisst α-Hölder stetig
genau dann, wenn ein α ∈ (0, 1) und L > 0 existieren, so dass für alle t, s ∈ I
|f (t) − f (s)| ≤ L|t − s|α .
Wir schreiben in diesem Fall f ∈ C α (I).
Dann betrachten wir den Differenzenquotient
Bt+h − Bt
, α ∈ (0, 1] ,
(3.3)
hα
für ein kleines h > 0. Da (nach ii) in Lemma 3.1) Bt+h − Bt eine Brownsche
Bewegung mit Kovarianz h ist, ist (3.3) für α = 21 eine standard-normalverteilte
Zufallsvariable. Umgekehrt hat (3.3) eine unendliche Kovarianz für α > 12 . Die
folgenden zwei Sätze präzisirien dieses heuristische Argument.
Satz 3.2. Die Pfade der Brownschen Bewegung sind P -f.s. nirgends α-Hölder
stetig für α > 21 .
77
Beweis. Wir beweisen dies für t ∈ [0, 1]. Dann ist es durch (2.6) möglich die
Aussage auf all t ≥ 0 zu erstrecken.
Wir nehmen Bt α-Hölder stetig in einem t̄ ∈ [0, 1] an, d.h.,
lim
t→t̄
Bt − Bt̄
∈ R.
|t − t̄|α
Dies impliziert insbesondere, dass ein ε > 0 und L ∈ N existieren, so dass
Bt − Bt̄
≤ L für |t − t̄| ≤ ε .
|t − t̄|α
, so dass i := dnt̄e und
Sei nun `, n ∈ N mit n ≥ `+1
ε
i+1
i+2
i+`
i
<
<
< ... <
< t̄ + ε .
n
n
n
n
Dann folgt für j ∈ {i + 1, i + 2, . . . , i + `}
(2` + 1)L
j
j−1
j
j−1
B
−
B
≤
B
−
B
+
B
−
B
.
t̄
≤
t̄ n
n
n
n
nα
Sei nun
L
AL,n,i,j := ω ∈ Ω : B j − B j−1 ≤ α .
n
n
n
t̄ <
Nach etwas Überlegung können wir schreiben
[ [ \ [
{Bt ∈ C α ([0, 1])} ⊆
\
AL,n,i,j .
(3.4)
L∈N m∈N n≥m 1≤i≤n i+1≤j≤i+`
Wir werden zeigen, dass die Wahrscheinlickkeit der linken Seite der obigen
Formel null ist.
!
!
\ [
\
[ \
P
AL,n,i,j
≤ lim inf P
AL,n,i,j
n
n≥m 1≤i≤n i+1≤j≤i+`
1≤i≤n i≤j≤i+`
"
!#
≤ lim inf n max P
n
1≤i≤n
\
AL,n,i,j
.
i+1≤j≤i+`
Nun merken wir an, dass B j − B j−1 für j ∈ {i + 1, . . . , i + `} ` unabhängige,
n
n
zentrierte, normalverteilte Zufallsvariablen mit Kovarianz n1 sind. Also
!
`
\
Y
L
P
AL,n,i,j =
P (AL,n,i,j ) = P |g| ≤ α
,
n
i+1≤j≤i+`
i+1≤j≤i+`
wobei g eine N (0, n−1 ) Zufallsvariable ist. Nach Übung (1.1) erhalten wir
!
`
\ [
\
2L(2` + 1)
P
AL,n,i,j ≤ lim inf n √
.
1
n
2πnα− 2
n≥m 1≤i≤n i+1≤j≤i+`
78
Jetzt ist der Grund klar, warum es reicht ` Punkte zu betrachten: Wir können `
wählen, so dass die rechte Seite der obigen Ungleichung gegen Null konvergiert.
Da die abzählbare Vereinigung von Nullmengen ein Nullmenge ist, ergibt (3.4) die
Aussage.
Ein beträchtliches Ergebnis von Levy ist, dass P -f.s. die Pfade der Brownschen
Bewegung α-Hölder-stetig mit α < 12 sind. Dies impliziert auch, dass die Brownsche
Bewegung P -f.s. gleichmassig stetig ist.
Satz 3.3 (Levy). Für alle δ = δ(ω) > 0 existiert ein L > 0, so dass
|Bt − Bs |
≤ L P -f.s.
sup p
2|t − s|| log |t − s||
|t−s|<δ
(3.5)
Beweis. Nochmals beweisen wir den Satz nur für s, t ∈ [0, 1] und dann erstrecken wir die Aussage auf alle t ≥ 0 durch (2.6). Wir werden zeigen, dass
!
|Bt − Bs |
P
sup p
= ∞ = 0,
2|t − s|| log |t − s||
t,s∈[0,1]
gilt. Dies impliziert die Aussage.
Für jedes feste λ > 0 erhalten wir aus (1.1)
p
P |Bt − Bs | > λ 2|t − s|| log |t − s|| ≤
2
(t − s)λ
,
√ p
2λ π | log(t − s)|
(3.6)
da Bt − Bs ∼ N (0, t − s) (wir nehmen t > s an). Damit müssen wir das sup
in die Wahrscheinlichkeit P bringen. Normalweise macht man dies durch ein εNetz Argument. Für jedes t, s ∈ [0, 1] nehmen wir ε1 < ε2 ∈ Q ∩ (0, 1), so dass
ε1 < t − s < ε2 gilt. Dann haben wir nach (3.6)
2
p
ελ2
P |Bt − Bs | > λ 2|t − s|| log |t − s|| ≤ √ p
.
(3.7)
2λ π | log ε1 |
Wenn t, s in [0, 1] variieren, variieren auch ε1 , ε2 in Q ∩ (0, 1). Somit existieren
ε̄1 , ε̄2 ∈ Q ∩ (0, 1), so dass das sup in einem Intervall ε̄1 < t̄ − s̄ < ε̄2 erreicht ist.
Demzufolge
!
2
X
|Bt − Bs |
ελ2
P
sup p
>λ ≤
.
(3.8)
√ p
2|t − s|| log |t − s||
2λ
π
|
log
ε
|
t,s∈[0,1]
1
ε1 <ε2 ∈Q∩(0,1)
Die rechte Seite dieser Ungleichung ist schnell berechnet: Wir können die Summe
durch ein Integral auf [0, 1] ersetzen, so dass
!
Z 1
Z 1
2
|Bt − Bs |
ελ2
P
sup p
>λ
≤
dε1
dε2 √ p
2|t − s|| log |t − s||
2λ π | log ε1 |
t,s∈[0,1]
0
ε1
C
≤
.
λ3
79
wobei C eine gegebene Konstante ist. Dann folgt die Aussage aus dem ersten
Borel-Cantelli Lemma.
Sofort erhalten wir das folgende wichtige Korollar, dessen leichter Beweis dem
Leser überlassen ist.
Korollar 3.4.
Die Pfade der Brownschen Bewegung sind P -f.s. α-Hölder
stetig für α ∈ 0, 21 .
Der Fall α = 12 ist komplizierter zu studieren und wir lassen ihn aus. Jedoch
können wir behaupten, dass das Stetigkeitsmodul von Levy (3.5) optimal ist, daher
ist die Brownsche Bewegung nirgends 12 -Hölder stetig.
4. Brownsche Bewegung als Markoff-Prozess
Zuerst geben wir die Definition eines Markoff-Prozesses.
Definition 4.1. Ein reellwertiger {Ft }t≥0 -angepasster stochastischer Prozess
{Xt }t≥0 mit
P (Xt ∈ A | Fs ) = P (Xt ∈ A | Xs ) P − f.s. ,
A ∈ Ft , 0 ≤ s ≤ t ,
heisst Ft -Markoff-Prozess. Wenn Ft = σ(Xs : 0 ≤ s ≤ t) ist, sprechen wir einfach
von einem Markoff-Prozess.
Die Rolle der stochastischen Matrizen für Markoff-Ketten wird in der Theorie
der Markoff-Prozesse von der Markoff-Kernen gespielt.
Definition 4.2. Ein Markoff-Kern K von (Ω, F) nach (R, B(R)) ist eine Abbildung K : Ω × B(R) 7→ [0, 1] mit den folgenden zwei Eigenschaften:
I) Für alle ω ∈ Ω ist K(ω, ·) ein Wahrscheinlichkeitsmass auf (R, B(R)).
II) Für alle A ∈ B(R) ist K(·, A) eine Zufallsvariable auf (Ω, F).
Für jeden Markoff-Prozess {Xt }t∈R existiert eine Familie von Markoff-Kerne
{Kt }t∈R existiert, so dass für alle A ∈ B(R) und t ≥ s
P (Xt ∈ A | Xs ) = Kt (Xs−1 , A) ,
P − f.s.
Ausserdem gilt die Chapman-Kolmogorov Gleichung
Z
−1
Kt (Xs , A) =
dxKt (Xu−1 , A)Ku (Xs−1 , dx) ,
s ≤ u ≤ t,
R
mit
Ks (Xs−1 , A) = 1{Xs ∈A} .
Es ist möglich zu beweisen, dass die Verteilung eines Prozesses von einer Familie
der Markoff-Kerne und der Startverteilung (d.h. die Verteilung von Xt=0 ) eindeutig
bestimmt wird (wie für Markoff-Ketten). Wir lassen den Beweis aus.
Wenn
P (Xt ∈ A | Xs ) = P (Xt−s ∈ A | X0 ) ,
80
d.h., Kt (Xs−1 , A) = Kt−s (X0−1 , A)
gilt, dann sprechen wir von einem zeitlich-homogenen Markoff-Prozess. Wenn Kt (Xs−1 , dx)
absolut stetig bezüglich des Masses ist, dann existiert eine stetige (bezüglich jedem
Argument) Funktion π(s, t; x, y) mit
P (Xt ∈ A | Xs ) =
Kt (Xs−1 , A)
Z
=
dyπ(s, t; x, y)
A
P -f.s. auf {ω : Xt = x}. In dem zeitlich-homogenen Fall schreiben wir
Z
P (Xt ∈ A | Xs ) =
dyπ(s − t; x, y)
A
P -f.s. auf {ω : Xt = x}: Dies ist die Wahrscheinlichkeit in der Menge A zu bleiben,
wenn der Startpunkt x ist.
Eine spezielle Eigenschaft der Zuwächse beschreibt eine einfache Klasse von
Markoff-Prozessen.
Definition 4.3. Ein stochastischer Prozess {Xt }t≥0 hat unabhängige Zuwächse bezüglich einer Filtrierung {Ft }t≥0 , falls für jedes t ≥ 0 {Xs −Xt }s≥t und {Fs }s≥t
unabhängig sind. Wenn {Xt }t≥0 unabhängige Zuwächse bezüglich σ(Xs , 0 ≤ s ≤
t) hat, sagen wir abkürzend, dass {Xt }t≥0 unabhängige Zuwächse hat.
Satz 4.1. Hat ein stochastischer Prozess {Xt }t≥0 unabhängige Zuwächse bezüglich einer Filtrierung {Ft }t≥0 , so ist es ein Ft -Markoff-Prozess.
Beweis. Seien k ∈ N, t ≥ 0, f : Rk 7→ R eine beschränkte und messbare
Funktion und s1 < s2 < . . . < sk ∈ Q ∩ [t, ∞). Wir definieren die Funktion
g : R 7→ R durch
g(x) := E[f (x + Xs1 − Xt , x + Xs2 − Xt , . . . , x + Xsk − Xt )] .
Offenbar ist g beschränkt und messbar. Nun zeigen wir, dass
g(Xt ) = E[f (Xs1 , . . . , Xsk ) | Ft ]
(4.1)
P -f.s. gilt. Um dies nachzuweisen, betrachten wir zwei unabhängige Zufallsvektoren: (1B , Xt ) ∈ R2 , wobei B ∈ Ft beliebig, und (Xs1 −Xt , Xs2 −Xt , . . . , Xsk −Xt ) ∈
Rk . Damit ist die gemeinsame Verteilung µ auf R2+k ein Produktmass der beiden
Randverteilungen, nämlich µ(dx1 , dx2 , dy1 , . . . , dyk ) = µ1 (dx1 dx2 )µ2 (dy1 , . . . , dyk ),
wobei µ1 auf R2 und µ2 auf Rk . Demzufolge gilt
Z
g(x) = µ2 (dy1 , . . . , dyk )f (x + y1 , . . . , x + yk ) .
81
Nach dem Satz von Fubini folgt
Z
E[1B g(Xt )] =
µ1 (dx1 dx2 )x1 g(x2 )
Z
Z
=
µ1 (dx1 dx2 )x1 µ2 (dy1 , . . . , dyk )f (x2 + y1 , . . . , x2 + yk )
Z
=
µ(dx1 dx2 , dy1 , . . . , dyk )x1 f (x2 + y1 , . . . , x2 + yk )
= E[1B f (Xs1 , . . . , Xsk )] = E[1B E[f (Xs1 , . . . , Xsk ) | Ft ]] .
Die Identität (4.1) impliziert, dass die rechte Seite dieser Gleichung σ(Xt )-m.b. ist,
also
E[f (Xs1 , . . . , Xsk ) | Ft ] = E[f (Xs1 , . . . , Xsk ) | Xt ] , P -f.s.
So haben wir die Markoff-Eigenschaft für alle A ∈ σ(Xs1 , . . . , Xsk ) bewiesen. Da
[
{σ(Xs1 , . . . , Xsk ) : k ∈ N , s1 < . . . < sk ∈ Q ∩ [t, ∞)}
ein durchschnittstabiles Erzeugendensystem von σ(Xs : s ≥ t) ist, folgt die Aussage.
Satz 4.2. Die Brownsche Bewegung hat unabhängige Zuwächse.
Beweis. Nochmals reicht es nachzuweisen, dass für jedes t ≥ 0, m, k ∈ N
und beliebige t1 < t2 < . . . < tm Q ∩ [0, t] und s1 , . . . , sk ∈ Q ∩ [t, ∞) die σAlgebren σ(Bt1 , . . . , Btm ) und σ(Bs1 −Bt , . . . , Bsm −Bt ) unabhängig sind. Dann ergibt die Durchschnittstabilität der Erzeugendensysteme bzw. von σ(Bt1 , . . . , Btm )
und σ(Bs1 − Bt , . . . , Bsm − Bt )
[
[
σ(Bt1 , . . . , Btm ) ,
σ(Bt1 , . . . , Btm )
m∈Nt1 <...<tm Q∩[0,t]
k∈Ns1 <...<sk Q∩[t,∞)
die Behauptung. Um zu zeigen, dass die Zufallsvektoren (Bt1 , . . . , Btm ) und (Bs1 −
Bt , . . . , Bsm − Bt ) unabhängig sind, berechnen wir
E[Bti (Bsj − Bt )] = E[Bti Bsj ] − E[Bti Bt ] = ti − ti = 0 ,
1 ≤ i ≤ k,1 ≤ j ≤ m.
Wir schliessen einfach, dass die Brownsche Bewegung ein Markoff-Prozess ist.
Wir können sofort die Markoff-Kerne berechnen.
Proposition 4.1. Es gilt für alle t ≥ s und A ∈ B(R)
Z
(y−Bs )2
dy
p
e− 2(t−s) .
P (Bt ∈ A | Bs ) =
2π(t − s)
A
Bemerkung 4.1. Es gilt P -f.s. auf {ω : Bs = x}
Z
(x−y)2
dy
p
P (Bt ∈ A | Bs ) =
e− 2(t−s) .
2π(t − s)
A
82
Demzufolge gilt für jede beschränkte Funktion f
Z
(y−x)2
dy
− 2(t−s)
p
E[f (Bt ) | Bs ] =
f (y)e
,
2π(t − s)
A
P -f.s. auf {ω : Bs = x}. Wir bemerken, dass dies die Lösung der Wärmeleitungsgleichung
∂t u(x, t) + ∂x2 u(x, t) = 0
u(x, 0) = f (x)
ist.
Wir benützen die kurze Notation
1 − x2
e 2t .
2πt
Beweis. Wenn A beschränkt ist, dann ist
Z
(x−Bs (ω))2
dx
p
e− 2(t−s)
2π(t − s)
A
ρ(t, x) := √
Fs -m.b. Da man jede Borel Menge als eine abzählbare Vereinung beschränkter
aufsteigender Borel Mengen darstellen kann, ist
Z
2
t (ω))
dx − (x−B
√
e 2(t−s)
2πt
A
Ft -m.b. für alle A ∈ B(R). Sei nun s > 0, k ∈ N und t1 < . . . < tk ∈ Q ∩ [0, s].
Wir betrachten die Zylindermenge
C := {ω ∈ Ω : (Bt1 , . . . , Btk ) ∈ D1 × . . . × Dk , D1 , . . . , Dk ∈ B(R)}
und wir berechnen für eine beliebige Borel Menge A
P ({ω : Bt (ω) ∈ A} ∩ C)
Z
=
dx1 . . . dxk dxρ(t1 , x1 )ρ(t2 − t1 , x2 − x2 ) . . . ρ(t − tk , x − xk )
D1 ×...×Dk ×A
Z
Z
=
dy
dx1 . . . dxk dxρ(t1 , x1 ) . . . ρ(s − tk , y − xk )ρ(t − s, x − y)
D1 ×...×Dk ×A
R
" k
!
#
Z
Y
=
dxE
1Dj (Btj (ω)) ρ(t − t̄, x − Bs )
A
j=1
2
s)
dy − (y−B
2(t−s)
√
e
,
= E 1C
2πt
A
wobei wir die normalverteilten endlich-dimensionalen Verteilungen benutzt haben.
Da
[
[
{ω ∈ Ω : (Bt1 , . . . , Bt1 ) ∈ D1 × . . . × Dk }
Z
k∈N D1 ,...,Dk ∈B(R)
83
ein durchschnittstabiles Erzeugendensystem von Fs ist, folgt die Aussage.
Endlich diskutieren wir wie sich die Brownsche Bewegung bezüglich der Stoppzeiten verhält. Wir erinnern daran, dass τ eine Stoppzeit für die Brownsche Bewegung ist, wenn für alle t ≥ 0 {τ ≤ t} ∈ σ(Bs : 0 ≤ s ≤ t) gilt. Wir werden zeigen,
dass die Brownsche Bewegung zu jeder Stoppzeit noch einmal von vorn anfängt.
Definition 4.4. Sei τ eine Stoppzeit bezüglich der Filtrierung {Ft }t≥0 . Dann
ist
Fτ := {A ∈ {Ft }t≥0 : A ∩ {τ ≤ t} ∈ Ft , ∀t ≥ 0} .
Übung 4.1. Beweisen Sie, dass Fτ eine σ-Algebra ist.
Sei nun
ΩC := {ω ∈ Ω : Bt (ω) ∈ C[0, ∞) , B0 = 0} .
Da P (ΩC ) = 1, können wir als Wahrscheinlichkeitsraum ΩC und als Filtrierung
{Ft0 }t≥0 mit Ft0 = Ft ∩ΩC betrachten. In diesem Fall sprechen wir von einer stetigen
Brownschen Bewegung.
Satz 4.3 (Starke Markoff-Eigenschaft der Brownschen Bewegung). Sei τ eine
Stoppzeit für die stetige Brownsche Bewegung mit P (τ < ∞) = 1 und Wt :=
Bτ +t − Bτ . Dann gilt für alle A ∈ Fτ und A1 , . . . , Ak ∈ B(R)
P ({Wt1 ∈ A1 , . . . , Wtk ∈ Ak } ∩ A) = P (Bt1 ∈ A1 , . . . , Btk ∈ Ak )P (A) .
(4.2)
Bemerkung 4.2. Aus dem obigen Satz erhalten wir, dass der Prozess {Wt }t≥0
ebenfalls eine stetige Brownsche Bewegung ist (es genügt A = Ω in (4.2) zu setzen,
um dies zu sehen), die unabhängig von Fτ ist.
Beweis. Zuerst betrachten wir nur die τ der einfachen Form
X
τ (ω) :=
τn 1{τ =τn } (ω) ,
(4.3)
n∈N
wobei {τn }n∈N eine gegebene reelle Folge ist und ∪n∈N {τ = τn } = Ω. Offenbar gilt
{τ = τn } ∈ Fτ für alle n ∈ N. Dann ergibt die Markoff-Eigenschaft der Brownschen
Bewegung, dass für alle A ∈ Fτ
P ({Wt1 ∈ A1 , . . . , Wtk ∈ Ak } ∩ A)
X
=
P ({Wt1 ∈ A1 , . . . , Wtk ∈ Ak } ∩ A ∩ {τ = τn })
n∈N
=
X
P ({Bt1 +τn − Bτn ∈ A1 , . . . , Btk +τn − Bτn ∈ Ak } ∩ A ∩ {τ = τn })
n∈N
=
X
P ({Bt1 ∈ A1 , . . . , Btk ∈ Ak })P (A ∩ {τ = τn })
n∈N
= P ({Bt1 ∈ A1 , . . . , Btk ∈ Ak })P (A) .
84
(4.4)
gilt. Sei nun τ eine beliebige Stoppzeit. Wegen der Dichtheit der einfachen Funktionen in der Menge der P -f.s. beschränkten messbaren Funktionen, existiert eine
Folge von Stoppzeiten {τ̃n }n∈N der Form (4.3), so dass τ̃n+1 ≤ τ̃n und τ̃n ↓ τ , wenn
n → ∞, also
\
Fτ ⊆
Fτ̃m .
m∈N
Wir setzen
(n)
Wt := Bτ̃n +t − Bτ̃n
und die P -f.s. Stetigkeit der Brownschen Bewegung ergibt
(n)
Wt
→ Wt
P -f.s. .
Es gilt
(n)
(n)
P ({Wt1 ∈ A1 , . . . , Wtk ∈ Ak } ∩ A) = P (Bt1 ∈ A1 , . . . , Btk ∈ Ak )P (A)
für alle n ∈ N und A ∈ ∩nm=1 Fτ̃m = Fτ̃n . Da A ∈ Fτ auch A ∈ Fτ̃n für alle n ∈ N
impliziert, erhalten wir für alle A ∈ Fτ
(n)
(n)
lim P ({Wt1 ∈ A1 , . . . , Wtk ∈ Ak } ∩ A) = P (Bt1 ∈ A1 , . . . , Btk ∈ Ak )P (A) .
n
5. Pfadeigenschaften der Brownschen Bewegung II
In diesem letzten Abschnitt beweisen wir mit Hilfe der Markoff-Eigenschaften
andere Eigenschaften der Pfade der Brownschen Bewegung.
Wir starten mit der folgenden Bemerkung: Die σ-Algebra
[
Ft+ :=
Ft+ 1
n
n∈N
fällt in Allgemein nicht mit Ft zusammen. Natürlich sind sie zumeist äquivalent,
wenn der Prozess P -f.s. stetig auf Ft+ 1 für alle n ∈ N ist. Z. B. gilt das für die
n
stetige Brownsche Bewegung.
Übung 5.1. Beweisen Sie, dass die Brownsche Bewegung unabhängige Zuwächse bezüglich {Ft+ }t≥0 hat. Somit ist {Bt }t≥0 ein Ft+ -Markoff-Prozess.
Satz 5.1 (Blumenthal 0-1 Gesetz). Sei {Bt }t≥0 eine stetige Brownsche Bewegung. Für jedes A ∈ F0+ gilt P (A) ∈ {0, 1}.
Beweis. Wegen der P -f.s. Stetigkeit wissen wir, dass {Bt }t≥0 auch ein MarkoffProzess bezüglich der Filtrierung {Ft+ }t≥0 ist. Demzufolge gilt für alle A ∈ F0+
1A = P (A | F0+ ) = P (A | Bt=0 ) = P (A)
da P (Bt=0 = 0) = 1. Daher ist P (A) ∈ {0, 1}.
P -f.s.
Eine interessante Folgerung des Blumenthal 0-1 Gesetzes ist die folgende Proposition.
85
Proposition 5.1. Sei {Bt }t≥0 eine stetige Brownsche Bewegung. Für alle ε >
0 existiert eine Folge {tk }k∈N ⊂ (0, ε), so dass
P Bt2k > 0 , Bt2k+1 < 0 , ∀k ∈ N = 1 .
Beweis. Seien für n ∈ N
1
±
.
An := ω ∈ Ω : Bt R 0 , ∀t ∈ 0,
n
−
+
−
Offenbar ist A+
n+1 ⊆ An und An+1 ⊆ An sowie
\
\
+
1 ,
A+
=
{B
≥
0}
∈
F
A
=
{Bq ≤ 0} ∈ F 1 .
q
n
n
n
n
1
1
q∈Q∩[0, n ]
q∈Q∩[0, n ]
S
+
−
Wir setzen A± := n∈N A±
n . Es gilt P (An ) = P (An ) für alle n ∈ N, da −Bt auch
eine Brownsche Bewegung ist, also P (A+ ) = P (A− ). Wir bemerken, dass
[
A+ ∩ A− ⊂
{B 1 = 0} .
n
n∈N
Letzteres ist eine Nullmenge, also ist auch P (A+ ∩ A− ) = 0. Dann ergibt das
Blumenthal 0-1 Gesetz P (A+ ) = P (A− ) = 0. Da
c
Bt2k > 0 , Bt2k+1 < 0 , ∀k ∈ N ⊆ A+ ∪ A− ,
folgt die Aussage.
Jetzt diskutieren wir zwei Anwendungen der starken Markoff-Eigenschaft.
Zuerst erklären wir das sogennante Reflexionprinzip der Brownschen Bewegung. Sei τ eine P -f.s. beschränkte Stoppzeit. Wir definieren den Prozess
Rt := Bt 1[0,τ ] (t) + (2Bτ − Bt )1(τ,∞) (t) .
(5.1)
Dies ist eine Brownsche Bewegung bis zur Zeit τ und danach es ist eine Brownsche
Bewegung, die um Bτ (ein zufälliger Punkt) gespiegelt wird. Wegen des Reflexionprinzips ist {Rt }t≥0 ebenfalls eine Brownsche Bewegung. Wir erklären nun den
Beweis.
Satz 5.2 (Reflexionprinzip). Sei {Bt }t≥0 eine Brownsche Bewegung und x > 0.
Es gilt
!
P
sup Bs ≥ x
= 2P (Bt ≥ x) .
s∈[0,t]
Bemerkung 5.1. Wir bemerken, dass offenbar
!
P (τx ≤ t) = P
sup Bs ≥ x
s∈[0,t]
86
gilt, wobei τx in (5.2) definiert ist.
Beweis. Es gilt
!
sup Bs ≥ x
P
!
sup Bs ≥ x , Bt ≥ x
= P
s∈[0,t]
s∈[0,t]
!
+P
sup Bs ≥ x , Bt < x
s∈[0,t]
!
= P (Bt ≥ x) + P
sup Bs ≥ x , Bt < x
.
s∈[0,t]
Wir erinnern an die Notation
τy := inf{t ≥ 0 : Bt ≥ y} ,
y ∈ R.
(5.2)
Natürlich ist τy für alle y ∈ R eine Stoppzeit, die P -f.s. beschränkt ist. Nun führen
wir den Prozess Wt := Bt+τx − Bτx ein. Wir bemerken, dass Wt−τx = Bt − x, also
!
P
sup Bs ≥ x , Bt < x
= P (τx ≤ t , Bt < x) = P (τx ≤ t , Wt−τx < 0) .
s∈[0,t]
Die grundlegende Bemerkung ist, dass {Wt }t≥0 eine Brownsche Bewegung ist, wegen der starken Markoff-Eigenschaft der Brownschen Bewegung (Satz 4.3). Demd
zufolge gilt −Wt = Wt , also
P (τx ≤ t , Wt−τx < 0) =
=
=
=
P
P
P
P
(τx ≤ t , −Wt−τx < 0)
(τx ≤ t , Bt > x)
(τx ≤ t , Bt ≥ x)
(Bt ≥ x) ,
woraus die Aussage folgt.
Der folgende Satz ist eine äquivalente Form des Reflexionprinzips.
Satz 5.3. Der Prozess {Rt }t≥0 definiert durch (5.1) ist eine Brownsche Bewegung.
Um dieses Ergebnis nachzuweisen, brauchen wir die folgende Proposition.
Proposition 5.2. Sei {Bt }t≥0 eine Brownsche Bewegung und x > 0. Dann
gilt
!
P (Bt ∈ A) = P
Bt ∈ A , sup Bs < x
+ P (2Bτx − Bt ∈ A)
s∈[0,t]
für alle A ∈ B(R) ∩ (−∞, 3x).
Beweis. Da
P (Bt ∈ A) = P (Bt ∈ A , τx > t) + P (Bt ∈ A , τx ≤ t)
87
und offenbar
!
P (Bt ∈ A , τx > t) = P
Bt ∈ A , sup Bs < x
,
s∈[0,t]
reicht es zu zeigen, dass
P (Bt ∈ A , τx ≤ t) = P (2Bτx − Bt ∈ A)
für alle A ∈ B(R) ∩ (−∞, 3x) gilt. Die starke Markoff Eigenschaft ergibt
P (Bt − Bτx ∈ A0 , τx ≤ t) = P (Bt ∈ A0 + x , τx ≤ t)
= P (Bt−τx ∈ A0 , τx ≤ t) ,
A0 ∈ B(R) .
Wir nehmen nun eine Menge A0 = A − x = {y ∈ R : y = a − x , a ∈ A} mit
A ∈ B(R) ∩ (−∞, 3x) und erhalten
P (Bt ∈ A , τx ≤ t) =
=
=
=
P (Bt−τx ∈ A − x , τx ≤ t)
P (Bt−τx − Bτx ∈ A − 2x , τx ≤ t)
P (−Bt ∈ A − 2x , τx ≤ t)
P (2Bτx − Bt ∈ A , τx ≤ t) = P (2Bτx − Bt ∈ A) ,
da Bτx = x P -f.s. und sup(A) < 3x.
Nun können wir Satz 5.3 beweisen.
Beweis des Satzes 5.3. Zuerst nehemen wir x := Bτ P -a.s. an, mit x > 0.
Wir haben für jedes A ∈ B(R)
P (Rt ∈ A) = P (Bt ∈ A , τ ≥ t) + P (2Bτ − Bt ∈ A , τ < t) .
Falls A ∩ (x, ∞) = A, gilt
P (Bt ∈ A , τ ≥ t) ≤ P (Bt > x , τ ≥ t) = 0 ,
P (2Bτ − Bt ∈ A , τ < t) = P (Bt ∈ A − 2Bτ − , τ < t)) = P (Bt ∈ A) ,
wobei die letze Gleichung gilt, wegen der starken Markoff-Eigenschaft.
Falls A ∩ (x, ∞) = ∅, haben wir
!
P (Bt ∈ A , τ ≥ t) = P
Bt > x , sup Bs < x
,
s∈[0,t]
P (2Bτ − Bt ∈ A , τ < t) = P (2Bτ − Bt ∈ A) ,
wobei der Beweis der letze Identität aus dem Satz 5.2 folgt. Daher ergibt Proposition 5.2 P (Rt ∈ A) = P (Bt ∈ A). In dem allgemeinen Fall ist A = A1 ∪ A2 mit
A1 ⊂ (x, ∞) und A2 ⊂ (−∞, x) (da P (Bt = x) = 0 für alle t), so dass A1 ∩ A2 = ∅
und es gilt
P (Bt ∈ A) = P (Bt ∈ A1 )+P (Bt ∈ A2 ) = P (Rt ∈ A1 )+P (Rt ∈ A2 ) = P (Rt ∈ A) .
88
P
Nun betrachten wir Bτ = ni=1 xi 1{Bτ =xi } für n ≥ 2 und xi > 0, i = 1, . . . , n,
n ∈ N beliebig. Dann schreiben wir
n
X
P (Rt ∈ A) =
P (Rt ∈ A, Bτ = xi )
i=1
und wir erhalten mit dem gleichen Beweis
P (Rt ∈ A, Bτ = xi ) = P (Bt ∈ A, Bτ = xi )
also P (Rt ∈ A) = P (Bt ∈ A). Der Fall xi < 0, i = 1, . . . n, ist ähnlich, da
−Bt eine Browsche Bewegung ist. Der Satz ist daher für einfache Funktionen Bτ
bewiesen. Man erstreckt das Ergebnis über P -f.s. nicht-negative Bτ (bzw. nichtpositive) via monotone Konvergenz und endlich über allgemeine Zufallsvariablen
mittels Zerlegung in Positiv- und Negativteil. Dies beendet den Beweis.
Endlich studieren wir die Menge der Nullstellen der Brownschen Bewegung.
Definition 5.1. Sei a ∈ R. Für alle ω ∈ Ω heisst die Zufallsmenge
Na (ω) := {t ≥ 0 : Bt (ω) = a}
(5.3)
eine Niveaumenge der Brownschen Bewegung. Wir nennen N0 (ω) die Menge der
Nullstellen der Brownschen Bewegung
Übung 5.2. Beweisen Sie, dass Na (ω) für alle a ∈ R P -f.s. eine Nullmenge
(bezüglich des Masses von Lebesgue) ist.
Wir werden zeigen, dass N0 (ω), gemäss der folgenden Definition, P -f.s. eine
perfekte Menge ist.
Definition 5.2. Eine abgeschlossene, nicht-leere Menge I ⊂ R heisst perfekt
genau dann, wenn I = I \ {x} für alle x ∈ I gilt.
Bemerkung 5.2. Es ist bekannt, dass eine nicht leere abgeschlossene und perfekte Teilmenge von R überabzählbar ist. Demzufolge hat die Brownsche Bewegung
überabzählbar viele Nullstellen.
Satz 5.4. Die Menge N0 (ω) ist P -f.s. eine perfekte Nullmenge (bezüglich des
Masses von Lebesgue).
Beweis. N0 (ω) ist P -f.s. eine Nullmenge bezüglich des Masses von Lebesgue
(gemäss der Übung 5.2). Ferner ist N0 (ω) 6= ∅ P -f.s., da B0 = 0, lim supt→∞ Bt =
∞ und lim inf t→∞ Bt = −∞ P -f.s. implizieren, dass Bt alle Punkte in R mindestens
einmal P -f.s. besucht.
Wir sehen schnell dass, N0 (ω) P -f.s. abgeschlossen ist, da Bt P -f.s. stetig ist und
N0 (ω) = Bt−1 ({0}) das Urbild der abgeschlossenen Menge {0} ist. Daher müssen
wir nachweisen, dass N0 (ω) P -f.s. keine isolierten Punkte hat.
89
Die P -f.s. Stetigkeit der Brownschen Bewegung und Proposition 5.1 ergeben,
dass t = 0 ein Häufungspunkt der Nullstellen der Brownschen Bewegung ist. Sei
nun q ∈ Q ∩ (0, ∞) beliebig und
t̄(q) := inf{t ≥ q : Bt = 0} .
Es ist einfach zu zeigen, dass t̄(q) eine P -f.s. beschränkte Stoppzeit ist. Wir betrachten den Prozess
{B̃t }t≥0 := {Bt+t̄ − Bt̄ }t≥0 = {Bt+t̄ }t≥0
P -f.s.
und die Ereignisse
Cq := {ω : t̄(q) ist Häufungspunkt der Nullstellen} , q ∈ Q .
d
Dann ergibt die starke Markoff-Eigenschaft (Satz 4.3) {B̃t }t≥0 = {Bt }t≥0 , daher
erhalten wir P (Cq ) = P (C0 ) = 1 für alle q ∈ Q ∩ (0, ∞), also
!
\
P
Cq = 1 .
q∈Q
Da Q dicht in R ist, folgt die Aussage.
90
Literaturverzeichnis
[1]
[2]
[3]
[4]
[5]
H. Bauer, Wahrsheinlichkeitstheorie, de Gruyter, (1991).
L. Breiman, Probability, SIAM Classic Edition, (1992).
T. Hida, Brownian Motion, Springer, (1980)
D. Williams, Probability with Martingales, Cambridge University Press, (1991).
S. R. S. Varadhan, Probability, Courant Lecture Notes, AMS (2001).
91
Herunterladen